KR20150090172A - 비디오 코딩에 있어서 제약된 인트라 블록 경계들에 걸친 루프 필터링 - Google Patents

비디오 코딩에 있어서 제약된 인트라 블록 경계들에 걸친 루프 필터링 Download PDF

Info

Publication number
KR20150090172A
KR20150090172A KR1020157016911A KR20157016911A KR20150090172A KR 20150090172 A KR20150090172 A KR 20150090172A KR 1020157016911 A KR1020157016911 A KR 1020157016911A KR 20157016911 A KR20157016911 A KR 20157016911A KR 20150090172 A KR20150090172 A KR 20150090172A
Authority
KR
South Korea
Prior art keywords
video
block
video data
sao
filter
Prior art date
Application number
KR1020157016911A
Other languages
English (en)
Inventor
인석 정
바딤 세레긴
마르타 카르체비츠
Original Assignee
퀄컴 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀄컴 인코포레이티드 filed Critical 퀄컴 인코포레이티드
Publication of KR20150090172A publication Critical patent/KR20150090172A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 개시는 비디오 데이터를 코딩하기 위한 기술들을 설명한다. 특히, 본 개시는 비디오 코딩에 대한 루프 필터링을 위한 기술들을 설명한다. 본 개시의 기술들은 스케일러블 비디오 코딩 프로세스들에 있어서 블록 경계들에 걸친 루프 필터링 및/또는 부분 루프 필터링에 적용할 수도 있다. 루프 필터링은, 예를 들어, 적응적 루프 필터링 (ALF), 샘플 적응적 오프셋 (SAO) 필터링, 및 디블록킹 필터링 중 하나 이상을 포함할 수도 있다.

Description

비디오 코딩에 있어서 제약된 인트라 블록 경계들에 걸친 루프 필터링{LOOP FILTERING ACROSS CONSTRAINED INTRA BLOCK BOUNDARIES IN VIDEO CODING}
본 출원은 2012년 11월 26일자로 출원되어 그 전체 내용이 본 명세서에 참조로 통합되는 미국 가출원 제61/729,985호의 이익을 주장한다.
본 개시는 비디오 코딩에 관한 것으로서, 더 상세하게는, 비디오 코딩에 있어서의 루프 필터링을 위한 기술들에 관한 것이다.
디지털 비디오 능력들은 디지털 텔레비전들, 디지털 직접 브로드캐스트 시스템들, 무선 브로드캐스트 시스템들, 개인용 디지털 보조기들 (PDA들), 랩탑 또는 데스크탑 컴퓨터들, 디지털 카메라들, 디지털 레코딩 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 디바이스들, 비디오 게임 콘솔들, 셀룰러 또는 위성 무선 전화기들, 비디오 텔레컨퍼런싱 디바이스들 등을 포함한, 광범위한 디바이스들에 통합될 수 있다. 디지털 비디오 디바이스들은 MPEG-2, MPEG-4, ITU-T H.263, ITU-T H.264/MPEG-4, 파트 10, 어드밴스드 비디오 코딩 (AVC), 현재 개발 중인 고 효율 비디오 코딩 (HEVC) 표준에 의해 정의된 표준들, 및 그러한 표준들의 확장들에서 설명된 기술들과 같은 비디오 압축 기술들을 구현하여, 디지털 비디오 정보를 더 효율적으로 송신, 수신 및 저장한다.
비디오 압축 기술들은 비디오 시퀀스들에 고유한 리던던시를 감소 또는 제거하기 위해 공간 예측 및/또는 시간 예측을 포함한다. 블록 기반 비디오 코딩에 대해, 비디오 프레임 또는 슬라이스는 블록들로 파티셔닝될 수도 있다. 각각의 블록은 더 파티셔닝될 수 있다. 인트라-코딩된 (I) 프레임 또는 슬라이스에서의 블록들은 동일 프레임 또는 슬라이스에서의 이웃한 블록들에 있어서의 레퍼런스 샘플들에 대한 공간 예측을 이용하여 인코딩된다. 인터-코딩된 (P 또는 B) 프레임 또는 슬라이스에서의 블록들은 동일 프레임 또는 슬라이스에서의 이웃한 블록들에 있어서의 레퍼런스 샘플들에 대한 공간 예측, 또는 다른 레퍼런스 프레임들에 있어서의 레퍼런스 샘플들에 대한 시간 예측을 이용할 수도 있다. 공간 또는 시간 예측은 코딩될 블록에 대한 예측 블록을 발생시킨다. 잔차 데이터는 코딩될 오리지널 블록과 예측 블록 간의 픽셀 차이들을 나타낸다.
인터-코딩된 블록은 예측 블록을 형성하는 레퍼런스 샘플들의 블록을 포인팅하는 모션 벡터, 및 코딩된 블록과 예측 블록 간의 차이를 나타내는 잔차 데이터에 따라 인코딩된다. 인트라-코딩된 블록은 인트라-코딩 모드 및 잔차 데이터에 따라 인코딩된다. 추가적인 압축을 위해, 잔차 데이터는 픽셀 도메인으로부터 변환 도메인으로 변환되어, 잔차 변환 계수들을 발생시킬 수도 있으며, 그 후, 이 잔차 변환 계수들은 양자화될 수도 있다. 2차원 어레이로 초기에 배열되는 양자화된 변환 계수들은 엔트로피 코딩을 위한 변환 계수들의 1차원 벡터를 생성하기 위해 특정 순서로 스캐닝될 수도 있다.
일반적으로, 본 개시는 비디오 데이터를 코딩하기 위한 기술들을 설명한다. 특히, 본 개시는 비디오 코딩에 대한 루프 필터링을 위한 기술들을 설명한다. 본 개시의 기술들은 블록 경계들에 걸친 루프 필터링 및/또는 부분 루프 필터링에 적용할 수도 있다. 루프 필터링은, 예를 들어, 적응적 루프 필터링 (ALF), 샘플 적응적 오프셋 (SAO) 필터링, 및 디블록킹 (deblocking) 필터링 중 하나 이상을 포함할 수도 있다.
일 예에 있어서, 본 개시는 비디오 코딩의 방법을 설명하고, 그 방법은 스케일러블 비디오 코딩 프로세스에 따라 비디오 데이터의 블록을 코딩하는 단계, 및 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 비디오 데이터의 블록으로의 루프 필터의 적용을 제한하는 단계를 포함한다.
다른 예에 있어서, 본 개시는 비디오 데이터를 코딩하도록 구성된 장치를 설명하고, 그 장치는 스케일러블 비디오 코딩 프로세스에 따라 비디오 데이터의 블록을 코딩하고, 그리고 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 비디오 데이터의 블록으로의 루프 필터의 적용을 제한하도록 구성된 비디오 코더를 포함한다.
다른 예에 있어서, 본 개시는 비디오 데이터를 코딩하도록 구성된 장치를 설명하고, 그 장치는 스케일러블 비디오 코딩 프로세스에 따라 비디오 데이터의 블록을 코딩하는 수단, 및 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 비디오 데이터의 블록으로의 루프 필터의 적용을 제한하는 수단을 포함한다.
다른 예에 있어서, 본 개시는, 실행될 경우, 비디오 데이터를 코딩하도록 구성된 디바이스의 하나 이상의 프로세서들로 하여금 스케일러블 비디오 코딩 프로세스에 따라 비디오 데이터의 블록을 코딩하게 하고, 그리고 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 비디오 데이터의 블록으로의 루프 필터의 적용을 제한하게 하는 명령들을 저장한 컴퓨터 판독가능 저장 매체를 설명한다.
하나 이상의 예들의 상세들이 첨부 도면들 및 하기의 설명에 개시된다. 다른 특징들, 목적들, 및 이점들은 그 설명 및 도면들로부터, 그리고 청구항들로부터 명백할 것이다.
도 1 은 예시적인 비디오 인코딩 및 디코딩 시스템을 도시한 블록 다이어그램이다.
도 2 는 예시적인 에지 오프셋 분류들을 도시한 개념 다이어그램이다.
도 3 은 예시적인 대역 오프셋 분류들을 도시한 개념 다이어그램이다.
도 4 는 적응적 루프 필터에 대한 영역 기반 분류를 나타낸 개념 다이어그램이다.
도 5 는 적응적 루프 필터에 대한 블록 기반 분류를 나타낸 개념 다이어그램이다.
도 6a 는 패딩된 픽셀들로의 샘플 적응적 오프셋을 나타낸 개념 다이어그램이다.
도 6b 는 샘플 적응적 오프셋 프로세스를 스킵하는 것을 나타낸 개념 다이어그램이다.
도 7 은 블록 경계들에서의 루프 필터를 도시한 개념 다이어그램이다.
도 8 은 수평 경계에서의 비대칭적 부분 필터들을 도시한 개념 다이어그램이다.
도 9 는 수직 경계에서의 비대칭적 부분 필터들을 도시한 개념 다이어그램이다.
도 10 은 수평 경계에서의 대칭적 부분 필터들을 도시한 개념 다이어그램이다.
도 11 은 수직 경계에서의 대칭적 부분 필터들을 도시한 개념 다이어그램이다.
도 12 는 예시적인 비디오 인코더를 도시한 블록 다이어그램이다.
도 13 은 예시적인 비디오 디코더를 도시한 블록 다이어그램이다.
도 14 는 본 개시의 예시적인 인코딩 방법을 도시한 플로우차트이다.
도 15 는 본 개시의 예시적인 디코딩 방법을 도시한 플로우차트이다.
일반적으로, 본 개시는 비디오 데이터를 코딩하기 위한 기술들을 설명한다. 특히, 본 개시는 비디오 코딩 프로세스에 있어서의 루프 필터링을 위한 기술들을 설명한다.
제약된 인트라 예측을 수행하도록 구성된 비디오 코더들에 대해, 비-인트라 모드로 코딩된 (예를 들어, 인터 예측된) 이웃한 블록들로부터의 픽셀들은 복원되지 않을 수도 있다. 이에 따라, 이웃한 블록들로부터의 픽셀들은 루프 필터들 (예를 들어, 디블록킹, 샘플 적응적 오프셋 (SAO), 적응적 루프 필터들 (ALF)) 에서의 사용을 위해 이용불가능할 수도 있다. 제약된 인트라 예측의 이러한 특징의 관점에서, 본 개시는 인트라-예측된 블록들의 경계들 주변에서의 부분 루프 필터링을 위한 기술들을 포함하여 루프 필터링을 위한 기술들을 제시한다. 일부 예들에 있어서, 본 개시의 루프 필터링 기술들은 제약된 인트라-예측된 블록들 (즉, 일부 인트라-예측 기술들이 제한되고/되거나 제약되는 블록들) 에 적용된다. 본 개시의 기술들은 디블록킹, ALF, 및 SAO 필터들을 포함하여 임의의 루프 필터에 적용될 수도 있다. 일 예에 있어서, 본 개시는 스케일러블 비디오 코딩 프로세스 (예를 들어, 스케일러블 고 효율 비디오 코딩 (SHEVC)) 에 따라 비디오 데이터의 블록을 코딩하기 위한 기술들을 제안한다. 본 개시의 기술들은, 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 비디오 데이터의 블록으로의 루프 필터의 적용을 제한하는 것을 포함한다.
도 1 은 본 개시의 예들에 따른, 비디오 코딩 프로세스에 있어서 루프 필터링을 위한 기술들을 활용하도록 구성될 수도 있는 예시적인 비디오 인코딩 및 디코딩 시스템 (10) 을 도시한 블록 다이어그램이다. 도 1 에 도시된 바와 같이, 시스템 (10) 은, 인코딩된 비디오를 통신 채널 (16) 을 통해 목적지 디바이스 (14) 로 송신하는 소스 디바이스 (12) 를 포함한다. 인코딩된 비디오 데이터는 또한 저장 매체 (34) 또는 파일 서버 (36) 상에 저장될 수도 있으며, 요구될 경우, 목적지 디바이스(14) 에 의해 액세스될 수도 있다. 저장 매체 또는 파일 서버에 저장될 경우, 비디오 인코더 (20) 는 코딩된 비디오 데이터를 저장 매체에 저장하기 위해, 네트워크 인터페이스, 컴팩트 디스크 (CD), 블루-레이 또는 디지털 비디오 디스크 (DVD) 버너 또는 스탬핑 설비 디바이스, 또는 다른 디바이스들과 같은 다른 디바이스에 코딩된 비디오 데이터를 제공할 수도 있다. 유사하게, 네트워크 인터페이스, CD 또는 DVD 리더 등과 같이 비디오 디코더 (30) 로부터 분리된 디바이스는 코딩된 비디오 데이터를 저장 매체로부터 취출할 수도 있고, 취출된 데이터를 비디오 디코더 (30) 로 제공하였다.
소스 디바이스 (12) 및 목적지 디바이스 (14) 는 데스크탑 컴퓨터들, 노트북 (즉, 랩탑) 컴퓨터들, 태블릿 컴퓨터들, 셋탑 박스들, 소위 스마트폰들과 같은 전화기 핸드셋들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들 등을 포함한 매우 다양한 디바이스들 중 임의의 디바이스를 포함할 수도 있다. 다수의 경우들에 있어서, 그러한 디바이스들은 무선 통신을 위해 장비될 수도 있다. 따라서, 통신 채널 (16) 은 인코딩된 비디오 데이터의 송신에 적합한 무선 채널, 유선 채널, 또는 무선 채널과 유선 채널의 조합을 포함할 수도 있다. 유사하게, 파일 서버 (36) 는 인터넷 커넥션을 포함한 임의의 표준 데이터 커넥션을 통해 목적지 디바이스 (14) 에 의해 액세스될 수도 있다. 이는 파일 서버 상에 저장되는 인코딩된 비디오 데이터에 액세스하기에 적합한 무선 채널 (예를 들어, Wi-Fi 커넥션), 유선 커넥션 (예를 들어, DSL, 케이블 모뎀 등), 또는 이들 양자의 조합을 포함할 수도 있다.
본 개시의 예들에 따른, 비디오 코딩 프로세스에 있어서의 루프 필터링을 위한 기술들은, 공중 경유 (over-the-air) 텔레비전 브로드캐스트들, 케이블 텔레비전 송신들, 위성 텔레비전 송신들, 예를 들어, 인터넷을 통한 스트리밍 비디오 송신들, 데이터 저장 매체 상의 저장을 위한 디지털 비디오의 인코딩, 데이터 저장 매체 상에 저장된 디지털 비디오의 디코딩, 또는 다른 어플리케이션들과 같은 다양한 멀티미디어 어플리케이션들 중 임의의 어플리케이션의 지원으로 비디오 코딩에 적용될 수도 있다. 일부 예들에 있어서, 시스템 (10) 은 비디오 스트리밍, 비디오 플레이백, 비디오 브로드캐스팅, 및/또는 비디오 전화와 같은 어플리케이션들을 지원하기 위해 일방향 또는 양방향 비디오 송신을 지원하도록 구성될 수도 있다.
도 1 의 예에 있어서, 소스 디바이스 (12) 는 비디오 소스 (18), 비디오 인코더 (20), 변조기/복조기 (22) 및 송신기 (24) 를 포함한다. 소스 디바이스 (12) 에 있어서, 비디오 소스 (18) 는 비디오 카메라와 같은 비디오 캡쳐 디바이스, 이전에 캡쳐된 비디오를 포함하는 비디오 아카이브, 비디오 콘텐츠 제공자로부터 비디오를 수신하기 위한 비디오 피드 인터페이스, 및/또는 컴퓨터 그래픽스 데이터를 소스 비디오로서 생성하기 위한 컴퓨터 그래픽스 시스템, 또는 그러한 소스들의 조합과 같은 소스를 포함할 수도 있다. 일 예로서, 비디오 소스 (18) 가 비디오 카메라이면, 소스 디바이스 (12) 및 목적지 디바이스 (14) 는 소위 카메라 폰들 또는 비디오 폰들을 형성할 수도 있다. 하지만, 본 개시에서 설명되는 기술들은 일반적으로 비디오 코딩에 적용가능할 수도 있고, 무선 및/또는 유선 어플리케이션들, 또는 인코딩된 비디오 데이터가 로컬 디스크 상에 저장되는 어플리케이션에 적용될 수도 있다.
캡쳐되거나 사전-캡쳐되거나 또는 컴퓨터 생성된 비디오는 비디오 인코더 (20) 에 의해 인코딩될 수도 있다. 인코딩된 비디오 정보는 무선 통신 프로토콜과 같은 통신 표준에 따라 모뎀 (22) 에 의해 변조되고, 송신기 (24) 를 통해 목적지 디바이스 (14) 로 송신될 수도 있다. 모뎀 (22) 은 다양한 믹서들, 필터들, 증폭기들 또는 신호 변조용으로 설계된 다른 컴포넌트들을 포함할 수도 있다. 송신기 (24) 는 증폭기들, 필터들, 및 하나 이상의 안테나들을 포함하여 데이터를 송신하기 위해 설계된 회로들을 포함할 수도 있다.
비디오 인코더 (20) 에 의해 인코딩되는 캡쳐되거나 사전-캡쳐되거나 또는 컴퓨터 생성된 비디오는 더 나중의 소비를 위해 저장 매체 (34) 또는 파일 서버 (36) 상에 저장될 수도 있다. 저장 매체 (34) 는 블루-레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 또는 인코딩된 비디오를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체를 포함할 수도 있다. 그 후, 저장 매체 (34) 상에 저장된 인코딩된 비디오는 디코딩 및 플레이백을 위해 목적지 디바이스 (14) 에 의해 액세스될 수도 있다.
파일 서버 (36) 는 인코딩된 비디오를 저장하고 그 인코딩된 비디오를 목적지 디바이스 (14) 로 송신하는 것이 가능한 임의의 타입의 서버일 수도 있다. 예시적인 파일 서버들은 웹 서버 (예를 들어, 웹 사이트용), FTP 서버, 네트워크 접속형 저장 (NAS) 디바이스들, 로컬 디스크 드라이브, 또는 인코딩된 비디오 데이터를 저장하고 그 데이터를 목적지 디바이스로 송신하는 것이 가능한 임의의 다른 타입의 디바이스를 포함한다. 인코딩된 비디오 데이터의 파일 서버 (36) 로부터의 송신은 스트리밍 송신, 다운로드 송신, 또는 이들 양자의 조합일 수도 있다. 파일 서버 (36) 는 인터넷 커넥션을 포함한 임의의 표준 데이터 커넥션을 통해 목적지 디바이스 (14) 에 의해 액세스될 수도 있다. 이는 파일 서버 상에 저장되는 인코딩된 비디오 데이터에 액세스하기에 적합한 무선 채널 (예를 들어, Wi-Fi 커넥션), 유선 커넥션 (예를 들어, DSL, 케이블 모뎀, 이더넷, USB 등), 또는 이들 양자의 조합을 포함할 수도 있다.
도 1 의 예에 있어서, 목적지 디바이스 (14) 는 수신기 (26), 모뎀 (28), 비디오 디코더 (30), 및 디스플레이 디바이스 (32) 를 포함한다. 목적지 디바이스 (14) 의 수신기 (26) 는 채널 (16) 상으로 정보를 수신하고, 모뎀 (28) 은 그 정보를 복조하여, 비디오 디코더 (30) 에 대한 복조된 비트스트림을 생성한다. 채널 (16) 상으로 통신된 정보는, 비디오 데이터를 디코딩함에 있어서 비디오 디코더 (30) 에 의한 사용을 위해 비디오 인코더 (20) 에 의해 생성된 다양한 신택스 정보를 포함할 수도 있다. 그러한 신택스에는 또한, 저장 매체 (34) 또는 파일 서버 (36) 상에 저장되는 인코딩된 비디오 데이터가 포함될 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은, 비디오 데이터를 인코딩하거나 디코딩하는 것이 가능한 개별 인코더-디코더 (CODEC) 의 부분을 형성할 수도 있다.
디스플레이 디바이스 (32) 는 목적지 디바이스 (14) 와 통합되거나 그 외부에 있을 수도 있다. 일부 예들에 있어서, 목적지 디바이스 (14) 는 통합된 디스플레이 디바이스를 포함할 수도 있고, 또한, 외부 디스플레이 디바이스와 인터페이싱하도록 구성될 수도 있다. 다른 예들에 있어서, 목적지 디바이스 (14) 는 디스플레이 디바이스일 수도 있다. 일반적으로, 디스플레이 디바이스 (32) 는 디코딩된 비디오 데이터를 사용자에게 디스플레이하며, 액정 디스플레이 (LCD), 플라즈마 디스플레이, 유기 발광 다이오드 (OLED) 디스플레이, 또는 다른 타입의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 임의의 디바이스를 포함할 수도 있다.
도 1 의 예에 있어서, 통신 채널 (16) 은 무선 주파수 (RF) 스펙트럼 또는 하나 이상의 물리적인 송신 라인들과 같은 임의의 무선 또는 유선 통신 매체, 또는 무선 매체와 유선 매체의 임의의 조합을 포함할 수도 있다. 통신 채널 (16) 은 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크와 같은 패킷 기반 네트워크의 부분을 형성할 수도 있다. 통신 채널 (16) 은 일반적으로, 유선 매체 또는 무선 매체의 임의의 적합한 조합을 포함하여, 비디오 데이터를 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로 송신하기 위한 임의의 적합한 통신 매체 또는 상이한 통신 매체들의 집합을 나타낸다. 통신 채널 (16) 은 라우터들, 스위치들, 기지국들, 또는 소스 디바이스 (12) 로부터 목적지 디바이스 (14) 로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다.
도 1 에 도시되지는 않지만, 일부 양태들에 있어서, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 오디오 인코더 및 디코더와 각각 통합될 수도 있으며, 오디오 및 비디오 양자의 인코딩을 공통 데이터 스트림 또는 별개의 데이터 스트림들로 핸들링하기 위해 적절한 MUX-DEMUX 유닛들 또는 다른 하드웨어 및 소프트웨어를 포함할 수도 있다. 적용가능하다면, 일부 예들에 있어서, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 사용자 데이터그램 프로토콜 (UDP) 과 같은 다른 프로토콜들에 부합할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그래밍가능 게이트 어레이들 (FPGA들), 별도의 로직, 소프트웨어, 하드웨어, 펌웨어 또는 이들의 임의의 조합들과 같은 다양한 적합한 인코더 회로 중 임의의 회로로서 구현될 수도 있다. 기술들이 부분적으로 소프트웨어로 구현될 경우, 디바이스는 적합한 비-일시적인 컴퓨터 판독가능 매체에 소프트웨어에 대한 명령들을 저장하고, 본 개시의 기술들을 수행하기 위해 하나 이상의 프로세서들을 사용하는 하드웨어로 명령들을 실행할 수도 있다. 비디오 인코더 (20) 및 비디오 디코더 (30) 각각은 하나 이상의 인코더들 또는 디코더들에 포함될 수도 있으며, 이들 중 어느 하나는 개별 디바이스에 있어서 결합된 인코더/디코더 (CODEC) 의 부분으로서 통합될 수도 있다.
비디오 인코더 (20) 는 비디오 코딩 프로세스에 있어서의 루프 필터링을 위해 본 개시의 기술들 중 임의의 기술 또는 그 모든 기술들을 구현할 수도 있다. 유사하게, 비디오 디코더 (30) 는 비디오 코딩 프로세스에 있어서의 루프 필터링을 위한 이들 기술들 중 임의의 기술 또는 그 모든 기술들을 구현할 수도 있다. 본 개시에서 설명되는 바와 같은 비디오 코더는 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 유사하게, 비디오 코딩 유닛은 비디오 인코더 또는 비디오 디코더를 지칭할 수도 있다. 이 컨텍스트에 있어서, 비디오 코딩 유닛은 물리적 하드웨어이며, 상기 논의된 CU 데이터 구조와는 상이하다. 유사하게, 비디오 코딩은 비디오 인코딩 또는 비디오 디코딩을 지칭할 수도 있다.
비디오 인코더 (20) 및 비디오 디코더 (30) 는 현재 개발 중인 HEVC 및/또는 SHEVC 표준들과 같은 비디오 압축 표준에 따라 동작할 수도 있고, HEVC 테스트 모델 (HM) 에 부합할 수도 있다. 대안적으로, 비디오 인코더 (20) 및 비디오 디코더 (30) 는 MPEG-4, 파트 10, 어드밴스드 비디오 코딩 (AVC) 으로서 대안적으로 지칭되는 ITU-T H.264 표준과 같은 다른 전매특허 또는 산업 표준들, 또는 그러한 표준들의 확장들에 따라 동작할 수도 있다. 하지만, 본 개시의 기술들은 임의의 특정 코딩 표준에 한정되지 않는다. 다른 예들은 MPEG-2 및 ITU-T H.263 을 포함한다.
새로운 비디오 코딩 표준, 즉, ITU-T 비디오 코딩 전문가 그룹 (VCEG) 및 ISO/IEC 모션 픽처 전문가 그룹 (MPEG) 의 JCT-VC (Joint Collaboration Team on Video Coding) 에 의해 개발되는 고효율 비디오 코딩 (HEVC) 이 존재한다. "HEVC 워킹 드래프트 9" 또는 "WD9" 로서 지칭되는 HEVC 표준의 최근 드래프트는 문헌 JCTVC-K1003_v9, 즉, Bross 등의 "High efficiency video coding (HEVC) text specification draft 9", ITU-T SG16 WP3 및 ISO/IEC JTC1/SC29/WG11 의 JCT-VC (Joint Collaborative Team on Video Coding), 제11차 회의: 상하이, 중국, 2012년 10월10일-19일,에 기술되어 있고, 이는 2013년 10월 18일자 http://phenix.int-evry.fr/jct/doc_end_user/documents/11_Shanghai/wg11/JCTVC-K1003-v9.zip 으로부터 다운로드가능하다. HEVC 의 더 최근의 드래프트는 ITU-T H.265, 시리즈 H: 시청각 및 멀티미디어 시스템들, 시청각 서비스들의 인프라구조 - 무빙 비디오의 코딩, "High Efficiency Video Coding", 2013년 4월 (이하, "HEVC") 에 기술되어 있다. HEVC 는 본 명세서에 전부 참조로 통합된다. HEVC 에 대한 다양한 확장들이 제안되었다. 하나의 그러한 확장은 "High Efficiency Video Coding (HEVC) Range Extensions text specification: Draft 4", JCTVC-N1005_v1, 2013년 4월 (이하, "JCTVC-N1005") 에 기술된 HEVC 범위 확장이다. "High efficiency video coding (HEVC) scalable extension draft 3" ITU-T SG16 WP3 및 ISO/IEC JTC1/SC29/WG11 의 JCT-VC (Joint Collaborative Team on Video Coding), 제14차 회의: 비엔나, AT, 2013년 7월 25일-8월 2일, 로 명칭되고 이하 SHEVC WD3 로서 지칭되는 SHEVC 의 최근의 워킹 드래프트 (WD) 는 http://phenix.it-sudparis.eu/jct/doc_end_user/documents/14_Vienna/wg11/JCTVC-N1008-v3.zip 으로부터 입수가능하고, 이는 본 명세서에 전부 참조로 통합된다.
디지털 비디오 디바이스들은 비디오 압축 기술들을 구현하여 디지털 비디오 정보를 더 효율적으로 인코딩 및 디코딩한다. 비디오 압축은 비디오 시퀀스들에 고유한 리던던시를 감소 또는 제거하기 위해 공간 (인트라-프레임) 예측 및/또는 시간 (인터-프레임) 예측 기술들을 적용할 수도 있다.
HEVC 의 현재의 워킹 드래프트에 따른 비디오 코딩에 대해, 일 예로서, 비디오 프레임은 코딩 유닛들로 파티셔닝될 수도 있다. 코딩 유닛 (CU) 은 일반적으로, 다양한 코딩 툴들이 비디오 압축용으로 적용되는 기본 유닛으로서 기능하는 이미지 영역을 지칭할 수도 있다. CU 는 일반적으로, Y 로서 표기될 수도 있는 루미넌스 컴포넌트 그리고 Cr 및 Cb 로서 표기될 수도 있는 2개의 크로마 컴포넌트들을 갖는다. 비디오 샘플링 포맷에 의존하여, 샘플들의 수의 관점에서 Cr 및 Cb 컴포넌트들의 사이즈는 Y 컴포넌트의 사이즈와 동일하거나 상이할 수도 있다. CU 는 통상적으로 정방형이고, 예를 들어, ITU-T H.264 와 같은 다른 비디오 코딩 표준들 하에서 소위 매크로블록과 유사한 것으로 고려될 수도 있다.
더 우수한 코딩 효율을 달성하기 위해, 코딩 유닛은 비디오 콘텐츠에 의존하여 가변 사이즈들을 가질 수도 있다. 부가적으로, 코딩 유닛은 예측 또는 변환을 위해 더 작은 블록들로 분할될 수도 있다. 특히, 각각의 코딩 유닛은 예측 유닛들 (PU들) 및 변환 유닛들 (TU들) 로 더 파티셔닝될 수도 있다. 예측 유닛들은 H.264 와 같은 다른 비디오 코딩 표준들 하에서 소위 파티션들과 유사한 것으로 고려될 수도 있다. 변환 유닛들 (TU들) 은, 변환 계수들을 생성하기 위해 변환이 적용되는 잔차 데이터의 블록들을 지칭한다.
개발 중인 HEVC 표준의 현재 제안된 양태들 중 일부에 따른 코딩이 예시의 목적으로 본 출원에서 설명될 것이다. 하지만, 본 개시에서 설명된 기술들은 H.264 또는 다른 표준에 따라 정의된 프로세스들 또는 전매특허의 비디오 코딩 프로세스들과 같은 다른 비디오 코딩 프로세스들에 대해 유용할 수도 있다.
HEVC 표준화 노력들은 HEVC 테스트 모델 (HM) 로서 지칭되는 비디오 코딩 디바이스의 모델에 기초한다. HM 은 예를 들어, ITU-T H.264/AVC 에 따른 디바이스들을 넘어서는 비디오 코딩 디바이스들의 수개의 능력들을 가정한다. 예를 들어, H.264 는 9개의 인트라-예측 인코딩 모드들을 제공하지만, HM 은 35개 만큼 많은 인트라-예측 인코딩 모드들을 제공한다.
HM 에 따르면, CU 는 하나 이상의 예측 유닛들 (PU들) 및/또는 하나 이상의 변환 유닛들 (TU들) 을 포함할 수도 있다. 비트스트림 내 신택스 데이터는 최대 코딩 유닛 (LCU) 을 정의할 수도 있으며, 이 최대 코딩 유닛은 픽셀들의 수의 관점에서 최대 CU 이다. 일반적으로, CU 가 사이즈 구별을 갖지 않는다는 점을 제외하고는, CU 는 H.264 의 매크로블록과 유사한 목적을 가진다. 따라서, CU 는 서브-CU들로 분할될 수도 있다. 일반적으로, CU 에 대한 본 개시에서의 레퍼런스들은 LCU 의 서브-CU 또는 픽처의 최대 코딩 유닛을 지칭할 수도 있다. LCU 는 서브-CU들로 분할될 수도 있으며, 각각의 서브-CU 는 서브-CU들로 더 분할될 수도 있다. 비트스트림에 대한 신택스 데이터는, LCU 가 분할될 수도 있는 횟수의 최대 수를 정의할 수도 있으며, 이는 CU 깊이로서 지칭된다. 이에 따라, 비트스트림은 또한 최소 코딩 유닛 (SCU) 을 정의할 수도 있다. 본 개시는 또한 CU, PU, 또는 TU 중 임의의 것을 지칭하기 위해 용어 "블록", "파티션", 또는 "부분" 을 사용한다. 일반적으로, "부분" 은 비디오 프레임의 임의의 서브-세트를 지칭할 수도 있다.
LCU 는 쿼드트리 데이터 구조와 연관될 수도 있다. 일반적으로, 쿼드트리 데이터 구조는 CU 당 하나의 노드를 포함하며, 여기서, 루트 노드는 LCU 에 대응한다. CU 가 4개의 서브-CU들로 분할되면, CU 에 대응하는 노드는 4개의 리프 (leaf) 노드들을 포함하며, 이들 각각은 서브-CU들 중 하나에 대응한다. 쿼드트리 데이터 구조의 각각의 노드는 대응하는 CU에 대해 신택스 데이터를 제공할 수도 있다. 예를 들어, 쿼드트리에서의 노드는 그 노드에 대응하는 CU 가 서브-CU들로 분할되는지 여부를 나타내는 분할 플래그를 포함할 수도 있다. CU 에 대한 신택스 엘리먼트들은 재귀적으로 정의될 수도 있으며, CU 가 서브-CU들로 분할되는지 여부에 의존할 수도 있다. CU 가 더 분할되지 않으면, 리프-CU 로서 지칭된다.
더욱이, 리프-CU들의 TU들은 또한 개별 쿼드트리 데이터 구조들과 연관될 수도 있다. 즉, 리프-CU 는, 리프-CU가 어떻게 TU들로 파티셔닝되는지를 나타내는 쿼드트리를 포함할 수도 있다. 본 개시는, LCU가 어떻게 CU 쿼드트리로서 파티셔닝되는지를 나타내는 쿼드트리 및 리프-CU가 TU 쿼드트리로서 어떻게 TU들로 파티셔닝되는지를 나타내는 쿼드트리를 참조한다. TU 쿼드트리의 루트 노드는 일반적으로 리프-CU 에 대응하지만, CU 쿼드트리의 루트 노드는 일반적으로 LCU 에 대응한다. 분할되지 않는, TU 쿼드트리의 TU들은 리프-TU들로서 지칭된다.
리프-CU 는 하나 이상의 예측 유닛들 (PU들) 을 포함할 수도 있다. 일반적으로, PU 는 대응하는 CU 의 부분 또는 그 모두를 나타내며, PU 에 대한 레퍼런스 샘플을 취출하기 위한 데이터를 포함할 수도 있다. 예를 들어, PU 가 인터-모드 인코딩될 경우, PU 는 그 PU 에 대한 모션 벡터를 정의하는 데이터를 포함할 수도 있다. 모션 벡터를 정의하는 데이터는 예를 들어, 모션 벡터의 수평 컴포넌트, 모션 벡터의 수직 컴포넌트, 모션 벡터에 대한 레졸루션 (예를 들어, 1/4 픽셀 정밀도 또는 1/8 픽셀 정밀도), 모션 벡터가 포인팅하는 레퍼런스 프레임, 및/또는 모션 벡터에 대한 레퍼런스 리스트 (예를 들어, 리스트 0 또는 리스트 1) 를 기술할 수도 있다. PU(들)를 정의하는 리프-CU 에 대한 데이터는 또한, 예를 들어, 하나 이상의 PU들로의 CU 의 파티셔닝을 기술할 수도 있다. 모드들을 파티셔닝하는 것은 CU 가 예측가능하게 코딩되지 않거나, 인트라-예측 모드 인코딩되거나, 또는 인터-예측 모드 인코딩되는지 여부에 의존하여 상이할 수도 있다. 인트라 코딩에 있어서, PU 는 하기 설명되는 리프 변환 유닛과 동일하게 처리될 수도 있다.
블록 (예를 들어, 비디오 데이터의 예측 유닛 (PU)) 을 코딩하기 위해, 블록에 대한 예측자가 먼저 도출된다. 예측자는 인트라 (I) 예측 (즉, 공간 예측) 또는 인터 (P 또는 B) 예측 (즉, 시간 예측) 을 통해 도출될 수 있다. 따라서, 일부 예측 유닛들은 동일 프레임에서의 이웃한 레퍼런스 블록들에 대해 공간 예측을 이용하여 인트라-코딩 (I) 될 수도 있으며, 다른 예측 유닛들은 다른 프레임들에서의 레퍼런스 블록들에 대해 인터-코딩 (P 또는 B) 될 수도 있다. 예측을 위해 사용된 레퍼런스 블록들은 레퍼런스 샘플들로서 소위 정수 픽셀 포지션들에서의 실제 픽셀 값들, 또는 레퍼런스 샘플들로서 분수 픽셀 포지션들에서의 보간에 의해 생성된 합성 픽셀 값들을 포함할 수도 있다.
예측자의 식별 시, 오리지널 비디오 데이터 블록과 그 예측자 간의 차이가 계산된다. 이러한 차이는 또한 예측 잔차로 지칭되고, 코딩될 블록의 픽셀들과 레퍼런스 블록, 즉, 예측자의 대응하는 레퍼런스 샘플들 (상기 언급된 바와 같이, 정수-정밀도 픽셀들 또는 보간된 분수-정밀도 픽셀들일 수도 있음) 간의 픽셀 차이들을 지칭한다. 더 우수한 압축을 달성하기 위해, 일반적으로, 예측 잔차 (즉, 픽셀 차이 값들의 어레이) 는, 예를 들어, 이산 코사인 변환 (DCT), 정수 변환, 카루넨 루베 (K-L) 변환, 또는 다른 변환을 사용하여 픽셀 (즉, 공간) 도메인으로부터 변환 도메인으로 변환된다. 변환 도메인은, 예를 들어, 주파수 도메인일 수도 있다.
인터-예측을 이용하여 PU 를 코딩하는 것은 현재 블록과 레퍼런스 프레임에서의 블록 간의 모션 벡터를 계산하는 것을 수반한다. 모션 벡터들은 모션 추정 (또는 모션 탐색) 으로 지칭된 프로세스를 통해 계산된다. 모션 벡터는, 예를 들어, 레퍼런스 프레임의 레퍼런스 샘플에 대한 현재 프레임에서의 예측 유닛의 변위를 나타낼 수도 있다. 레퍼런스 샘플은, 픽셀 차이의 관점에서 코딩되는 PU 를 포함한 CU 의 부분을 긴밀하게 매칭하기 위해 발견되는 블록일 수도 있으며, 이 픽셀 차이는 절대 차이의 합 (SAD), 제곱 차이의 합 (SSD), 또는 다른 차이 메트릭들에 의해 결정될 수도 있다. 레퍼런스 샘플은 레퍼런스 프레임 또는 레퍼런스 슬라이스 내의 아무 곳에서나 발생할 수도 있다. 일부 예들에 있어서, 레퍼런스 샘플은 전체적으로 또는 부분적으로 보간될 수도 있으며, 분수 픽셀 포지션에서 발생할 수도 있다. 현재 포지션에 최상으로 매칭하는 레퍼런스 프레임의 부분을 찾을 시, 인코더는 현재 부분에 대한 현재 모션 벡터를, 현재 부분으로부터 레퍼런스 프레임에서의 매칭하는 부분까지 (예를 들어, 현재 부분의 중심으로부터 매칭하는 부분의 중심까지) 의 위치에서의 차이로서 결정한다.
일부 예들에 있어서, 인코더는 인코딩된 비디오 비트스트림에서 각각의 부분에 대한 모션 벡터를 시그널링할 수도 있다. 시그널링된 모션 벡터는 비디오 데이터를 디코딩하기 위해 모션 보상을 수행하도록 디코더에 의해 사용된다. 하지만, 정보를 전달하는데 통상적으로 다수의 비트들이 필요하기 때문에, 오리지널 모션 벡터를 직접 시그널링하는 것은 덜 효율적인 코딩을 발생시킬 수도 있다.
일단 현재 부분에 대한 모션 벡터를 결정하기 위해 모션 추정이 수행되면, 인코더는 레퍼런스 프레임에서의 매칭하는 부분을 현재 부분과 비교한다. 이러한 비교는 통상적으로, 레퍼런스 프레임에서의 ("레퍼런스 샘플" 로서 일반적으로 지칭되는) 부분을 현재 부분으로부터 감산하는 것을 수반하고, 상기 언급된 바와 같은 소위 잔차 데이터를 발생시킨다. 잔차 데이터는 현재 부분과 레퍼런스 샘플 간의 픽셀 차이 값들을 나타낸다. 그 후, 인코더는 이러한 잔차 데이터를 공간 도메인으로부터 주파수 도메인과 같은 변환 도메인으로 변환한다. 일반적으로, 인코더는 이러한 변환을 달성하기 위해 이산 코사인 변환 (DCT) 을 잔차 데이터에 적용한다. 인코더는 결과적인 변환 계수들이 상이한 주파수들을 나타내기 때문에 잔차 데이터의 압축을 용이하게 하기 위해 이러한 변환을 수행하며, 여기서, 대부분의 에너지는 일반적으로 몇몇 저 주파수 계수들에 집중된다.
통상적으로, 결과적인 변환 계수들은, 특히 변환 계수들이 먼저 양자화 (라운딩) 되면 엔트로피 코딩을 가능케 하는 방식으로 함께 그룹핑된다. 그 후, 인코더는 통계적 무손실 (또는 소위 "엔트로피") 인코딩을 수행하여, 런-렝스 (run-length) 코딩된 양자화된 변환 계수들을 더 압축한다. 무손실 엔트로피 코딩을 수행한 이후, 인코더는 인코딩된 비디오 데이터를 포함하는 비트스트림을 생성한다.
비디오 인코딩 프로세스는 또한 소위 "복원 루프" 를 포함할 수도 있으며, 이 복원 루프에 의해, 인코딩된 비디오 블록들은 디코딩되고, 후속적으로 코딩된 비디오 블록들에 대한 레퍼런스 프레임들로서의 사용을 위해 레퍼런스 프레임 버퍼에 저장된다. 레퍼런스 프레임 버퍼는 또한 디코딩된 픽처 버퍼 또는 DPB 로서 지칭된다. 복원된 비디오 블록들은 레퍼런스 프레임 버퍼에 저장되기 전에 종종 필터링된다. 필터링은, 예를 들어, 블록 기반 비디오 코딩에 일반적인 블록키니스 또는 다른 아티팩트들을 감소시키기 위해 일반적으로 사용된다. 필터 계수들 (때때로 필터 탭으로 지칭됨) 은, 블록키니스를 감소시키고/시키거나 다른 방식들로 비디오 품질을 개선시킬 수 있는 비디오 블록 필터링의 바람직한 레벨들을 증진시키기 위해 정의되거나 선택될 수도 있다. 필터 계수들의 세트는, 예를 들어, 비디오 블록들의 에지들 또는 비디오 블록들 내의 다른 위치들을 따라 어떻게 필터링이 적용되는지를 정의할 수도 있다. 상이한 필터 계수들은 비디오 블록들의 상이한 픽셀들에 대하여 상이한 레벨들의 필터링을 야기할 수도 있다. 필터링은, 예를 들어, 원치않은 아티팩트들을 제거하는 것을 돕기 위해 인접 픽셀 값들의 강도에서의 차이들을 평활하게 하거나 선명하게 할 수도 있다.
일 예로서, 디블록킹 필터가 코딩된 비디오 데이터의 블록들 간의 외관을 개선 (예를 들어, 에지들을 평활화) 하기 위해 사용될 수도 있다. 다른 예시적인 필터는, 이미지 품질 및 코딩 효율을 개선하기 위해 픽셀들의 복원된 블록들에 오프셋을 부가하도록 사용되는 샘플 적응적 오프셋 (SAO) 필터이다. HEVC 에 대한 하나의 제안에 있어서 복원 루프에서 사용되는 다른 타입의 필터는 적응적 루프 필터 (ALF) 이다. ALF 는 통상적으로, 디블록킹 필터 이후에 수행된다. ALF 는 비디오 코딩 압축 프로세스에 의해 열화된 픽셀들의 충실도를 회복시킨다. ALF 는 소스 프레임에서의 오리지널 픽셀 값들과 복원된 프레임의 픽셀 값들 간의 평균 제곱 에러를 최소화하려고 시도한다. ALF 는 또한, 인코딩 프로세스 동안 적용되었던 바와 동일한 방식으로 비디오 디코더의 출력에서 적용될 수도 있다. 총괄하여, 복원 루프에서 사용된 임의의 필터는 "루프 필터" 로서 지칭될 수도 있다. 루프 필터들은 하나 이상의 디블록킹 필터들, SAO 필터들, 및 ALF들을 포함할 수도 있다. 부가적으로, 복원 루프에서의 사용을 위한 다른 타입들의 필터들이 또한 가능하다.
상기 설명된 HEVC 기술들은 또한 HEVC 의 신생의 스케일러블 확장들 (SHEVC) 에 있어서 2 이상의 "계층들" 을 코딩하는데 사용될 수도 있다. SHEVC 에 있어서, 베이스 계층 및 하나 이상의 인핸스먼트 계층들은 베이스 계층이 하나 이상의 인핸스먼트 계층들과는 독립적으로 코딩되도록 하는 방식으로 코딩될 수도 있다. 베이스 계층에서 코딩된 비디오는 비디오 레졸루션의 제 1 (또는 베이스) 레벨을 제공한다. 부가적인 인핸스먼트 계층들은 또한, 베이스 계층의 출력에 부가될 경우, 더 높은 레졸루션 비디오를 생성할 수도 있는 방식으로 코딩될 수도 있다. SHEVC 는 특히, 더 낮은 레벨들의 대역폭이 비디오의 송신을 위해 이용가능할 수도 있는 상황들에 대해 적용가능할 수도 있다. 일부 상황들에 있어서, 오직 베이스 계층만이 송신될 가능성이 있을 수도 있다. 부가적인 대역폭이 이용가능할 경우, 하나 이상의 인핸스먼트 계층들이 또한 송신될 수도 있다. 이러한 방식으로, 스트리밍 비디오 접속이 비디오의 품질을 일시적으로 저하시킴으로써 유지될 수도 있다.
HEVC 에 대한 일부 제안들에 있어서, 디블록킹 (DB) 및 샘플 적응적 오프셋 (SAO) 필터들이 채용된다. SHEVC 에 대한 일부 제안들에 있어서, DB 및 SAO 는 베이스 계층에서 사용되지만, DB, SAO, 및 적응적 루프 필터들 (ALF) 은 인핸스먼트 계층에서의 사용을 위해 고려된다. 더욱이, SAO 및 ALF 는 인터-계층 예측 경로 (즉, 2개의 계층들 사이에서 수행된 인터-예측) 에서의 사용을 위해 고려된다.
HEVC 및 SHEVC 에 대한 일부 예시적인 SAO 구현들에 있어서, (LCU들의 세트로 이루어지는) 파티션은 다음의 3개의 오프셋 분류들 중 하나를 가질 수 있다: 즉, 오프셋 없음, 에지 분류 기반 타입, 및 대역 분류 기반 오프셋 타입. 추가로, 에지 분류 기반 타입은 다음의 4개의 에지 오프셋 분류들을 포함한다: 즉, 1차원 (1D) 0도 에지 (분류 제로의 SAO 에지 오프셋, 또는 SAO_ EO_0 로서도 또한 지칭됨), 1D 90도 에지 (분류 1 의 SAO 에지 오프셋, 또는 SAO_ EO_1 로서도 또한 지칭됨), 1D 135도 에지 (분류 2 의 SAO 에지 오프셋, 또는 SAO_ EO_2 로서도 또한 지칭됨), 및 1D 45도 에지 (분류 3 의 SAO 에지 오프셋, 또는 SAO_ EO_3 으로서도 또한 지칭됨). 대역 분류 기반 오프셋 타입은 다음의 2개의 대역 오프셋 타입 분류들을 포함한다: 즉, 중앙 대역 및 측면 대역.
에지 분류 기반 타입 SAO 기술은 에지 정보에 기초하여 파티션 내의 각각의 픽셀을 분류한다. 도 2 는 4개의 가능한 에지 오프셋 분류들을 나타낸 개념 다이어그램이다. JCT-VC E049 (“CE13: Sample adaptive offset with LCU-independent decoding,” Fu 등의 ITU-T SG16 WP3 및 ISO/IEC JTC1/SC29/WG11 의 JCT-VC (Joint Collaborative Team on Video Coding), 제5차 회의: 제네바, CH, 2011년 3월 16일~23일) 은, 상기 설명된 4개의 에지 오프셋 타입 분류들을 포함하는 에지 분류 기술의 일 예를 기술한다. 도 2 에 도시된 소정의 에지 분류에 대해, 현재 픽셀에 대한 에지 타입은 현재 픽셀 (C) 의 값을 이웃 픽셀 (1 및 2) 의 값들과 비교함으로써 계산된다. 일부 예들에 있어서, 픽셀 값들은 256개의 가능한 값들을 포함하는 8비트 스트링 또는 1024개의 가능한 값들을 포함하는 10비트 스트링일 수도 있다. SAO_ EO_0 (0도) 에 대해, 현재 픽셀은 좌측 및 우측 이웃 픽셀들과 비교된다. SAO_ EO_1 (90도) 에 대해, 현재 픽셀은 상부 및 하부 이웃 픽셀들과 비교된다. SAO_ EO_2 (135도) 에 대해, 현재 픽셀은 좌상부 및 우하부 이웃 픽셀들과 비교된다. SAO_ EO_3 (45도) 에 대해, 현재 픽셀은 좌하부 및 우상부 이웃 픽셀들과 비교된다.
처음에, 현재 픽셀의 에지 타입은 제로인 것으로 가정된다. 현재 픽셀 (C) 의 값이 좌측 및 우측 이웃 픽셀들 (1 및 2) 양자의 값들과 동일하면, 에지 타입은 제로로 유지된다. 현재 픽셀 (C) 의 값이 이웃 픽셀 (1) 의 값보다 크면, 에지 타입은 1 만큼 증가된다. 현재 픽셀 (C) 의 값이 이웃 픽셀 (1) 의 값보다 작으면, 에지 타입은 1 만큼 감소된다. 유사하게, 현재 픽셀 (C) 의 값이 이웃 픽셀 (2) 의 값보다 크면, 에지 타입은 1 만큼 증가되고, 현재 픽셀 (C) 의 값이 이웃 픽셀 (2) 의 값보다 작으면, 에지 타입은 1 만큼 감소된다.
이에 따라, 현재 픽셀 (C) 은 -2, -1, 0, 1, 또는 2 의 에지 타입을 가질 수도 있으며, 여기서, (1) 현재 픽셀 (C) 의 값이 이웃 픽셀들 (1 및 2) 양자의 값들보다 작으면 에지 타입은 -2 이고; (2) 현재 픽셀 (C) 의 값이 하나의 이웃 픽셀보다 작지만 다른 이웃 픽셀과는 동일하면 에지 타입은 -1 이고; (3) 현재 픽셀 (C) 의 값이 양자의 이웃 픽셀들과 동일하면, 또는 현재 픽셀 (C) 의 값이 하나의 이웃 픽셀보다 크지만 다른 이웃 픽셀보다 작으면 에지 타입은 0 이고; (4) 현재 픽셀 (C) 의 값이 하나의 이웃 픽셀보다 크지만 다른 이웃 픽셀과 동일하면 에지 타입은 1 이며; (5) 현재 픽셀 (C) 의 값이 이웃 픽셀들 (1 및 2) 양자의 값들보다 크면 에지 타입은 2 이다. 이웃 픽셀들 (1 및 2) 중 하나가 이용가능하지 않을 경우 (즉, 현재 픽셀 (C) 이 프레임 또는 파티션의 에지에 위치된 경우), 디폴트 에지 타입이 정의될 수도 있음이 주목되어야 한다.
상기 설명의 관점에서, 각각의 에지 오프셋 분류에 대해, 에지 타입 값들은 다음의 수학식들로 연산될 수도 있다.
EdgeType = 0;
(C > 픽셀 1) 이면, 에지타입 = 에지타입 + 1;
(C < 픽셀 1) 이면, 에지타입 = 에지타입 - 1;
(C > 픽셀 2) 이면, 에지타입 = 에지타입 + 1;
(C < 픽셀 2) 이면, 에지타입 = 에지타입 - 1;
일단 에지 타입이 현재 픽셀에 대해 결정되면, 오프셋 값이 현재 픽셀에 대해 결정될 수 있다. 오프셋 값들은 오리지널 비디오 프레임과 복원된 비디오 프레임 간의 차이에 기초한다. 일 예에 있어서, 각각의 비-제로 에지 타입 값 (즉, -2, -1, 1, 및 2) 은, 파티션에서의 각각의 카테고리에 속하는 오리지널 픽셀 및 복원된 픽셀의 값들 간의 차이들의 평균을 취함으로써 계산된 하나의 오프셋 값을 갖는다. 4개의 오프셋 값들은 eoffset-2, eoffset-1, eoffset1, 및 eoffset2 로서 표기될 수도 있다. eoffset-2, eoffset-1, eoffset1, 및 eoffset2 각각이 비디오 디코더에서 이용가능하지 않은 오리지널 비디오 프레임에 기초하기 때문에, 비디오 디코더는 오리지널 비디오 프레임에 의존하지 않고도 4개의 오프셋 값들을 도출하기 위한 메커니즘을 포함한다.
대역 분류 기반 오프셋 타입 분류는 픽셀들을 그 강도에 기초하여 상이한 대역들로 분류한다. 상기 설명된 바와 같이, 대역 분류 기반 오프셋 타입 분류는 다음의 2개의 대역 오프셋 타입 분류들을 포함할 수도 있다: 즉, 중앙 대역 및 측면 대역. 도 3 은 중앙 대역 및 측면 대역을 포함한 예시적인 대역 분류 기반 오프셋 타입 분류를 나타낸 개념 다이어그램이다. 도 3 에 도시된 바와 같이, 픽셀 강도들 (0 내지 최대) 각각은 32개 대역들 중 하나로 카테고리화될 수도 있다. 일 예에 있어서, 픽셀들은 8비트 강도 값들을 가질 수도 있으며 최대는 255 와 동일할 수도 있다. 도 3 의 예에 있어서, 중심에서의 16개 대역들은 제 1 그룹으로 분류되고, 나머지 측면 대역들은 제 2 그룹으로 분류된다. 에지 타입 오프셋 분류와 유사한 방식으로, 일단 대역 타입이 현재 픽셀에 대해 결정되면, 오리지널 비디오 프레임과 복원된 비디오 프레임 간의 차이에 기초하여 현재 픽셀에 대해 오프셋 값이 결정될 수 있다. 일 예에 있어서, 각각의 대역 타입 값 (즉, 0 내지 31) 은, 파티션에서의 각각의 대역 타입 카테고리에 속하는 오리지널 픽셀 및 복원된 픽셀의 값들 간의 차이들의 평균을 취함으로써 계산된 하나의 오프셋 값을 갖는다. 따라서, 대역들의 각각의 그룹 (즉, 제 1 그룹 및 제 2 그룹) 에 대해, 16개의 오프셋 값들이 결정된다. 각각의 그룹에 대한 16개의 오프셋 값들은 boffset0, …, boffset15 로서 표기될 수도 있다. eoffset-2, eoffset-1, eoffset1, 및 eoffset2 에서와 같이, boffset0, …, boffset15 각각은 오리지널 비디오 프레임에 기초하고, 비디오 디코더는 16개의 오프셋 값들을 도출하기 위한 메커니즘을 포함한다.
통상적으로, 인코딩된 비디오 비트스트림은 비디오 프레임의 각각의 파티션에 대해 6개의 픽셀 분류 타입들 중 하나 및 오프셋들 (즉, eoffset-2,…, eoffset2 및 boffset0, …, boffset15) 의 대응하는 세트를 표시하는 정보를 포함한다. 일부 경우들에 있어서, 오프셋 값들의 세트에서의 각각의 오프셋 값은 파티션 단위 기반으로 부호표시 1진 코딩을 사용하여 독립적으로 코딩된다. 부호표시 1진 코딩을 사용하여 오프셋 값들을 독립적으로 코딩하는 것은 설정된 오프셋 값들 내의 오프셋 값들 사이 또는 이웃한 파티션들 (또는 이전 프레임들로부터의 파티션들) 의 오프셋 값들 사이의 가능한 상관들을 활용하지 못한다. 따라서, 부호표시 1진 코딩을 사용하여 오프셋 값들을 독립적으로 코딩하는 것은 가장 효율적인 비트 레이트를 제공하지 못할 수도 있다.
추가로, SAO 기술들은 부가적인 필터링 기술들과 함께 실행될 수도 있다. 부가적인 필터링 기술들은, 예를 들어, 위너 필터링 기술들을 포함할 수도 있다. SAO 기술들에 대한 오프셋 값들의 계산과 유사하게, 부가적인 필터링 기술들은 오리지널 프레임과 복원된 프레임 간의 차이에 기초하여 필터 계수들을 계산할 수도 있다. 예를 들어, 위너 필터에 대한 필터 계수들은 오리지널 픽처와 복원된 픽처 간의 차이에 기초하여 결정될 수도 있다. 오프셋 값들과 유사하게, 계산된 계수들은 또한 비디오 디코더에 의한 사용을 위해 비트스트림에 포함될 수도 있다.
HEVC 및 SHEVC 에 대해 제안된 하나의 예시적인 ALF 프로세스에 있어서, 필터링된 픽셀 값은 비디오 블록의 파티션 내의 현재 및 이웃 픽셀들의 조정된 값들의 합산을 취함으로써 도출되며, 여기서, 현재 및 이웃 픽셀들의 값들은 계산된 AC 계수들을 승산하고 DC 계수들을 현재 및 이웃 픽셀들에 가산함으로써 조정된다. 합산의 값은 추가로, 합산의 결과를, 파티션에 포함된 픽셀들의 총 수로 제산함으로써 정규화될 수도 있다. 하기 수학식은 AC 및 DC 계수들을 사용하여 필터링된 픽셀을 계산하기 위한 예시적인 수학식을 제공하며, 여기서, 픽셀은 사이즈 l×m 의 파티션에 포함되고, bit_shift 는 정규화 팩터이다.
필터링된 픽셀 (x,y) = (suml,m (사전 필터링된 픽셀(x+l,y+m) * AC 계수들(l,m)) + DC 계수들) >> bit_shift.
HEVC 및 SHEVC 에 대한 하나의 ALF 제안에 있어서, 2개의 적응 모드들 (즉, 블록 적응 모드 및 영역 적응 모드) 이 제안된다. 영역 적응 모드에 대해, 프레임은 16개의 영역들로 분할되고, 각각의 영역은 선형 필터 계수들의 하나의 세트 (복수의 AC 계수들 및 하나의 DC 계수) 를 가질 수 있으며, 하나의 영역은 다른 영역들과 동일한 필터 계수들을 공유할 수 있다. 도 4 는 적응적 루프 필터에 대한 영역 기반 분류를 나타낸 개념 다이어그램이다. 도 4 에 도시된 바와 같이, 프레임 (120) 은 16개의 영역들로 분할되고, 각각의 영역은 다중의 CU들을 포함할 수도 있다. 이들 16개의 영역들 각각은, 그 영역에 의해 사용된 선형 필터 계수들의 특정 세트를 나타내는 번호 (0-15) 에 의해 표현된다. 번호들 (0-15) 은, 비디오 인코더 및 비디오 디코더 양자에 저장되는 필터 계수들의 미리결정된 세트에 대한 인덱스 번호들일 수도 있다. 일 예에 있어서, 비디오 인코더는, 인코딩된 비디오 비트스트림에서, 특정 영역에 대해 비디오 인코더에 의해 사용된 필터 계수들의 세트의 인덱스 번호를 시그널링할 수도 있다. 시그널링된 인덱스에 기초하여, 비디오 디코더는 그 영역에 대한 디코딩 프로세스에서의 사용을 위해 필터 계수들의 동일한 미리결정된 세트를 취출할 수도 있다. 다른 예들에 있어서, 필터 계수들은 각각의 영역에 대해 명시적으로 시그널링된다.
블록 기반 분류 모드에 대해, 프레임은 4x4 블록들로 분할되고, 각각의 4x4 블록은 방향 및 활성도 정보를 이용하여 메트릭을 연산함으로써 하나의 클래스를 도출한다. 각각의 클래스에 대해, 선형 필터 계수들의 하나의 세트 (복수의 AC 계수들 및 하나의 DC 계수) 가 사용될 수 있으며, 하나의 클래스는 다른 클래스들과 동일한 필터 계수들을 공유할 수 있다. 도 5 는 적응적 루프 필터에 대한 블록 기반 분류를 나타낸 개념 다이어그램이다.
방향 및 활성도의 연산, 그리고 방향 및 활성도에 기초한 결과적인 메트릭이 하기에 나타내어진다.
■ 방향
■ Ver_act(i,j) = abs ( X(i,j)<<1 - X(i,j-1) - X(i,j+1) )
■ Hor_act(i,j) = abs ( X(i,j)<<1 - X(i-1,j) - X(i+1,j) )
■ HB = ∑i=0,2j=0,2H(i,j)
■ VB = ∑i=0,2j=0,2V(i,j)
■ 방향 = 0, 1(H>2V), 2 (V>2H)
■ 활성도
■ LB = HB + VB
■ 5개 클래스들 (0, 1, 2, 3, 4)
■ 메트릭
■ 활성도 + 5*방향
Hor_act(i, j) 는 일반적으로 현재 픽셀 (i, j) 의 수평 활성도를 지칭하고, Vert_act(i, j) 는 일반적으로 현재 픽셀 (i, j) 의 수직 활성도를 지칭한다. X(i, j) 는 일반적으로 픽셀 (i, j) 의 픽셀 값을 지칭하며, 여기서, i 및 j 는 현재 픽셀의 수평 및 수직 좌표들을 나타낸다. 이러한 컨텍스트에 있어서, 활성도는 일반적으로 일 위치에서의 픽셀들 중에서의 그래디언트 또는 분산이다.
HB 는 4x4 블록의 수평 활성도를 지칭하며, 이는 이 예에 있어서 픽셀들 ((0, 0), (0, 2), (2, 0), 및 (2, 2)) 에 대한 수평 활성도의 합에 기초하여 결정된다. VB 는 4x4 블록의 수직 활성도를 지칭하며, 이는 이 예에 있어서 픽셀들 ((0, 0), (0, 2), (2, 0), 및 (2, 2)) 에 대한 수직 활성도의 합에 기초하여 결정된다. "<<1" 는 2 와의 승산 연산을 나타낸다. HB 및 VB 의 값들에 기초하여, 방향이 결정될 수 있다.
일 예로서, HB 의 값이 2×VB 의 값보다 크면, 방향은 수직 활성도보다 더 많은 수평 활성도에 대응할 수도 있는 방향 1 (즉, 수평) 인 것으로 결정될 수 있다. VB 의 값이 2×HB 의 값보다 크면, 방향은 수평 활성도보다 더 많은 수직 활성도에 대응할 수도 있는 방향 2 (즉, 수직) 인 것으로 결정될 수 있다. 그렇지 않으면, 방향은 수평 또는 수직 활성도가 지배적이지 않음을 의미하는 방향 0 (즉, 무 방향) 인 것으로 결정될 수 있다. 다양한 방향들에 대한 라벨들, 및 그 방향들을 결정하는데 사용된 비율들은, 다른 라벨들 및 비율들이 또한 사용될 수 있기 때문에 단지 하나의 예를 이룰 뿐이다.
4x4 블록에 대한 활성도 (LB) 는 수평 및 수직 활성도의 합으로서 결정될 수 있다. LB 의 값은 범위로 분류될 수 있다. 이러한 특정 예는 5개의 범위들을 나타내지만, 더 많거나 더 적은 범위들이 유사하게 사용될 수도 있다. 활성도와 방향의 조합에 기초하여, 픽셀들의 4x4 블록에 대한 필터가 선택될 수 있다. 일 예로서, 필터는 활성도 및 방향의 필터들로의 2차원 매핑에 기초하여 선택될 수도 있거나, 또는 활성도 및 방향은 단일 메트릭으로 결합될 수도 있으며, 그 단일 메트릭은 필터를 선택하는데 사용될 수도 있다 (예를 들어, 메트릭 = 활성도 + 5*방향).
도 5 로 리턴하면, 블록 (140) 은 픽셀들의 4x4 블록을 나타낸다. 이 예에 있어서, 16개의 픽셀들 중 오직 4개의 픽셀들만이 블록 기반 ALF 에 대한 활성도 및 방향 메트릭들을 계산하는데 사용된다. 4개의 픽셀들은 픽셀 (141) 로서 라벨링된 픽셀 (0, 0), 픽셀 (142) 로서 라벨링된 픽셀 (2, 0), 픽셀 (143) 로서 라벨링된 픽셀 (0, 2), 및 픽셀 (144) 로서 라벨링된 픽셀 (2, 2) 이다. 픽셀 (141) 의 수평 활성도 (즉, hor_act(0, 0)) 는, 예를 들어, 좌측 이웃 픽셀 및 우측 이웃 픽셀에 기초하여 결정된다. 우측 이웃 픽셀은 픽셀 (145) 로서 라벨링된다. 좌측 이웃 픽셀은 4x4 블록과는 상이한 블록에 위치되고, 도 5 에 도시되지 않는다. 픽셀 (142) 의 수직 활성도 (즉, ver_act(2, 0)) 는, 예를 들어, 상부 이웃 픽셀 및 하부 이웃 픽셀에 기초하여 결정된다. 하부 이웃 픽셀은 픽셀 (146) 로서 라벨링되고, 상부 이웃 픽셀은 4x4 블록과는 상이한 블록에 위치되고, 도 5 에 도시되지 않는다. 수평 및 수직 활성도는 픽셀들 (143 및 144) 에 대해 유사한 방식으로 계산될 수도 있다.
SHEVC 의 단일 루프 디코딩이 수행될 경우, 인터-계층 블록 예측 (IntraBL) 은, 그 블록 타입이 인트라인 (즉, 블록이 인트라-예측되었음) 베이스 계층으로부터의 복원된 픽셀들을 사용한다. SHEVC 에 대한 하나의 제안에 있어서, 그러한 베이스 계층 블록들에 대해 수행된 인트라-예측은 항상 제약된 인트라 예측이다. 제약된 인트라 예측은 HEVC 에 있어서의 손실-강인 특성이다. 임의의 인터-예측된 블록 내부의 이웃한 레퍼런스 샘플들은, 잠재적으로 손상된 사전에 디코딩된 픽처 데이터가 에러들을 예측 신호로 전파하게 하는 것을 회피하기 위해 이용가능하지 않은 것으로 고려된다. 이에 따라, 제약된 인트라 예측에 있어서, 현재 블록에 대한 인트라-예측을 수행할 경우, 인터-예측되었던 이웃 블록들은 예측자들로서 사용되도록 허용되지 않는다. 이러한 제약은 타겟 계층에 있어서 오직 하나의 모션 보상을 허용한다.
이러한 목적을 위해, 이전의 스케일러블 비디오 코딩 (SVC) 기술들 (예를 들어, H.264/AVC 의 스케일러블 비디오 확장) 은 디블록킹 동작들을 위해 특별한 처리를 이용하였다. 베이스 계층의 인터 블록과 인트라 블록 간의 디블록킹은 허용되지 않는데, 왜냐하면 인터 블록과 인트라 블록 간의 디블록킹의 허용은 이웃한 인터 블록들의 복원을 요구하기 때문이다 (즉, H.264-AVC/SVC 에서, 디블록 강도는 interLayerDeblockingFlag 가 1 과 동일하고 mbType[mbAddrP] 이 인터 매크로블록 예측 모드이면 0 으로 설정됨).
이제, SHEVC 에 있어서, SAO 및 ALF 와 같은 다른 루프 필터들이 존재하며, 이는 그들 필터들이 베이스 계층에 있어서 제약된 인트라 블록들에 적용될 경우에 특별한 핸들링으로부터 이익을 얻을 수도 있다. 또한, 동일한 문제들이, 루프 필터들이 인터-계층 예측에서 사용될 경우에 (예를 들어, 인터-계층 SAO 및 ALF) 발생할 수도 있다.
이들 잠재적인 단점들의 관점에서, 본 개시는 인트라-예측된 블록들의 경계들 주변에서의 부분 루프 필터링을 위한 기술들을 포함하여 루프 필터링을 위한 기술들을 제시한다. 일부 예들에 있어서, 본 개시의 루프 필터링 기술들은 제약된 인트라-예측된 블록들 (즉, 일부 인트라-예측 기술들이 제한되고/되거나 제약되는 블록들) 에 적용된다. 본 개시의 기술들은 디블록킹, ALF, 및 SAO 필터들을 포함하여 임의의 루프 필터에 적용될 수도 있다. 일 예에 있어서, 본 개시는 스케일러블 비디오 코딩 프로세스 (예를 들어, SHEVC) 에 따라 비디오 데이터의 블록을 코딩하기 위한 기술들을 제안한다. 본 개시의 기술들은, 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 비디오 데이터의 블록으로의 루프 필터의 적용을 제한하는 것을 포함한다.
이 컨텍스트에 있어서, 루프 필터의 적용을 제한하는 것은 HEVC 및 SHEVC 에 대한 제안들에서 명시된 루프 필터 프로세스들과 관련하여 몇몇 방식으로 상이하거나 제한된 루프 필터링 프로세스를 수행하는 것을 수반한다. 하기에 설명되는 루프 필터의 적용을 제한하는 예들은 스케일러블 비디오 코딩 프로세스의 특정 특성들 (예를 들어, SHEVC 의 특성들) 에 기초하여 무슨 픽셀들이 필터 프로세스로의 입력으로서 사용되는지, 무슨 픽셀들이 실제로 필터링되는지, 및 필터링을 전혀 수행하지 않는 것의 제한을 포함할 수도 있다. 루프 필터링 프로세스들을 제한하는 방법을 결정하는데 사용될 수도 있는 예시적인 특성들은 제약된 인트라-코딩의 사용 또는 비-사용, 인터-계층 예측의 사용, 및 필터링될 블록이 베이스 계층에 있는지 또는 인핸스먼트 계층에 있는지 여부를 포함할 수도 있다.
다음 섹션은 베이스 계층에서의 SAO 코딩을 위한 본 개시의 기술들을 논의할 것이다. 본 개시의 일 예에 있어서, 베이스 계층의 제약된 인트라 블록들의 경계에서 SAO 필터링을 적용할지 여부를 결정할 경우, 비-인트라 이웃 블록들로부터의 픽셀들의 이용을 돕기 위해 수개의 솔루션들이 제시된다. 상기 설명된 바와 같이, 비-인트라 이웃 블록들은 비디오 데이터의 블록에 대한 제약된 인트라-예측을 이용할 경우에 복원되지 않을 수도 있기 때문에, 비-인트라 이웃 블록들에 대한 픽셀들은 SAO 필터링을 포함한 루프 필터링 프로세스들에서의 사용을 위해 이용가능하지 않을 수도 있다. 특히, 이웃한 블록들로부터의 픽셀들은 SAO 에 대한 에지 오프셋 또는 대역 오프셋 결정을 행하기 위해 이용불가능할 수도 있다.
제약된 인트라 블록들에 대한 베이스 계층에서의 SAO 코딩을 위한 본 개시의 하나의 예에 있어서, SAO 를 적용하기 위해 비-인트라 이웃 블록들의 픽셀들을 이용하는 것보다는, 패딩된 픽셀들이 대신 이용된다. 즉, 에지 오프셋 타입뿐 아니라 사용될 오프셋들의 결정을 행하기 위해 비-인트라 이웃 블록들로부터의 픽셀들을 이용하는 것보다는, 이웃한 비-인트라 블록들로부터 필요한 임의의 이용불가능한 픽셀들 대신에, 제약된 인트라-블록으로부터의 픽셀들이 재사용된다 (즉, 패딩됨). 그 후, 에지 오프셋 타입뿐 아니라 오프셋 값들 자체들이, 도 2 를 참조하여 상기 약술되었던 바와 같이 통상적으로 결정될 수도 있다. 도 6a 는 에지 오프셋 타입 제로 (SAO_EO_0) 분류에 대한 일 예를 도시하며, 여기서, 픽셀 (픽셀 P) 은 비-인트라 이웃 블록에 위치되기 때문에 이용불가능하다. 도 6a 의 예에 있어서, 패딩된 픽셀이, 이용불가능한 픽셀 대신에 이용된다. 유사한 기술들이 다른 에지 오프셋 타입들에 적용될 수도 있음을 주목한다.
제약된 인트라 블록들에 대한 베이스 계층에서의 SAO 코딩을 위한 본 개시의 다른 예에 있어서, 이웃 블록이 인트라-코딩되지 않은 경우에 SAO 코딩은 경계 픽셀들에 대해 스킵된다. 즉, 이용불가능한 비-인트라 이웃 블록으로부터의 픽셀들이 에지 오프셋 타입 결정을 행하는데 필요하고/하거나 오프셋 값들 자체의 결정을 위해 필요한 상황들에 있어서, SAO 필터링은 제약된 인트라 블록의 경계들에서의 픽셀들에 대해 적용되지 않는다. 도 6b 는 에지 오프셋 타입 제로 (SAO_EO_0) 분류에 대한 일 예를 도시하며, 여기서, 픽셀 (픽셀 X) 은 비-인트라 이웃 블록에 위치되기 때문에 이용불가능하다. 도 6b 의 예에 있어서, SAO 는 픽셀 C 에 대해 스킵된다. 유사한 기술들이 다른 에지 오프셋 타입들에 적용될 수도 있음을 주목한다. 일 예에 있어서, SAO 코딩은 전체 블록에 대해 스킵될 수도 있으며, 여기서, 블록에 있어서의 하나의 픽셀은 에지 오프셋 타입 결정을 행하기 위해 비-인트라 이웃 블록으로부터의 픽셀을 이용한다. 다른 예에 있어서, 하기에 논의될 바와 같이, SAO 코딩은, 오직 비-인트라 이웃 블록으로부터의 픽셀을 이용하는 픽셀에 대해서만 스킵될 수도 있다.
제약된 인트라 블록들에 대한 베이스 계층에서의 SAO 코딩의 다른 예에 있어서, SAO 코딩은 경계 픽셀들에 대한 sao_type 에 의존하여 선택적으로 스킵될 수도 있다. 예를 들어, 대역 오프셋 (BO) 이 이용될 경우, BO 는 분류를 위해 오직 현재 픽셀 (즉, 인트라-코딩된 블록에서의 픽셀) 만을 요구하기 때문에 어떠한 픽셀들도 스킵되지 않는다. 에지 오프셋 (EO) 이 이용될 경우, SAO 는, 오직 이웃한 인터 블록들 (즉, 도 6b 에 도시된 바와 같이 인트라-코딩되지 않은 이웃 블록들) 에 속하는 픽셀들로의 액세스를 요구하는 픽셀 포지션들에 대해서만 스킵된다.
제약된 인트라 블록들에 대한 베이스 계층에서의 SAO 코딩을 위한 본 개시의 다른 예에 있어서, 이웃 블록들로부터의 픽셀들이 에지 오프셋 타입 결정을 행하는데 필요한지 여부에 무관하게, 베이스 계층의 모든 제약된 인트라 블록들에 대해 SAO 코딩이 스킵되거나 또는 SAO 타입이 제로로 설정된다 (SAO 가 적용되지 않음을 의미함). 제약된 인트라 블록들에 대한 베이스 계층에서의 SAO 코딩을 위한 본 개시의 다른 예에 있어서, 이웃 블록들 중 적어도 하나가 인트라-코딩되지 않은 경우에 SAO 코딩이 스킵되거나 또는 SAO 타입이 제로로 설정된다 (SAO 가 적용되지 않음을 의미함).
제약된 인트라 블록들에 대한 베이스 계층에서의 SAO 코딩을 위한 본 개시의 다른 예에 있어서, SAO 프로세스에 있어서 비-인트라 픽셀들 (예를 들어, 이웃한 인터-예측된 블록들로부터의 픽셀들) 의 이용을 회피하는 것은 인코더 제한을 통해 및 비트스트림 제약을 부과하는 것을 통해 달성될 수도 있으며, 여기서, 비트스트림은 특히 픽셀 분류를 위해 SAO 프로세스에 대한 비-인트라 픽셀들을 요구하는 SAO 타입을 포함하지는 않을 것이다. 즉, SAO 를 특정 블록에 적용할지 여부의 결정을 행하도록 비디오 디코더 (30) 에게 요구하는 것보다는, 비디오 인코더 (20) 는, 제약된 인트라 블록들의 경계들에서 특별한 핸들링을 요구할 수도 있는 SAO 타입들 (예를 들어, 에지 오프셋 타입들) 을 시그널링하지 않도록 구성될 수도 있다.
베이스 계층에 있어서의 SAO 코딩에 대한 상기 언급된 모든 솔루션들에 부가하여, 비디오 인코더 (20) 는 SAO 어플리케이션이 베이스 계층에서의 인트라 픽셀들로 제한됨을 표시하는 인코딩된 비디오 비트스트림에서의 플래그 (플래그1) 를 시그널링하도록 구성될 수도 있다.
본 개시의 다음 섹션은 인터 계층 예측을 위한 SAO 코딩을 논의할 것이다. 인터 계층 예측에서의 SAO 코딩을 위한 본 개시의 하나의 예에 있어서, SAO 를 적용하기 위해 (예를 들어, SAO 에지 오프셋 타입을 결정하기 위해) 비-인트라 이웃 블록들의 픽셀들을 이용하는 것보다는, 패딩된 픽셀들이 대신 이용된다. 도 6a 를 참조하여 상기 설명된 바와 동일한 기술들이 사용될 수도 있다. 일 예에 있어서, SAO 코딩은 전체 블록에 대해 스킵될 수도 있으며, 여기서, 블록에 있어서의 하나의 픽셀은 에지 오프셋 타입 결정을 행하기 위해 비-인트라 이웃 블록으로부터의 픽셀을 이용한다. 다른 예에 있어서, 하기에 논의될 바와 같이, SAO 코딩은, 오직 비-인트라 이웃 블록으로부터의 픽셀을 이용하는 픽셀에 대해서만 스킵될 수도 있다.
인터 계층 예측에서의 SAO 코딩을 위한 본 개시의 다른 예에 있어서, 이웃 블록들이 인트라-코딩되지 않은 경계 픽셀들에 대해 SAO 코딩은 스킵된다. 도 6b 를 참조하여 상기 설명된 바와 동일한 기술들이 사용될 수도 있다.
인터 계층 예측에서의 SAO 코딩을 위한 본 개시의 다른 예에 있어서, 이웃 블록이 인트라-코딩되지 않은 경우에 경계 픽셀들의 sao_type 에 의존하여 SAO 코딩은 선택적으로 스킵된다. 예를 들어, 대역 오프셋 (BO) 이 이용될 경우, BO 는 분류를 위해 오직 현재 픽셀만을 요구하기 때문에 어떠한 픽셀들도 스킵되지 않는다. 에지 오프셋 (EO) 이 이용될 경우, SAO 는, 오직 인터 블록들에 속하는 픽셀들로의 액세스를 요구하는 픽셀 포지션들에 대해서만 스킵된다. 인터 계층 예측에서의 SAO 코딩의 다른 예에 있어서, 베이스 계층의 제약된 인트라 블록들에 대해 SAO 코딩이 스킵되거나 또는 SAO 타입이 제로로 설정된다 (SAO 가 적용되지 않음을 의미함).
인터 계층 예측에서의 SAO 코딩의 다른 예에 있어서, 이웃 블록 중 적어도 하나가 인트라-코딩되지 않은 경우 베이스 계층의 제약된 인트라 블록들에 대해 SAO 코딩이 스킵되거나 또는 SAO 타입이 제로로 설정된다 (SAO 가 적용되지 않음을 의미함).
인터 계층 예측에서의 SAO 코딩의 다른 예에 있어서, SAO 프로세스에 있어서 비-인트라 픽셀들의 이용을 회피하는 것은 인코더 제한을 통해 및 비트스트림 제약을 부과하는 것을 통해 달성될 수도 있으며, 여기서, 비트스트림은 특히 픽셀 분류를 위해 SAO 프로세스에 대한 비-인트라 픽셀들을 요구하는 SAO 타입을 포함하지는 않을 것이다.
상기 언급된 모든 솔루션들에 부가하여, SAO 어플리케이션이 베이스 계층에서의 인트라 픽셀들로 제한됨을 표시하는 인코딩된 비디오 비트스트림에서의 플래그 (플래그2) 를, 비디오 인코더는 시그널링할 수도 있고 비디오 디코더는 수신할 수도 있다.
다음 섹션은 인터 계층 예측을 위한 ALF 코딩을 논의할 것이다. 인터-계층 ALF 가 제약된 인트라 블록들의 경계에서 이용될 경우, 비-인트라 이웃 블록들로부터의 픽셀들의 이용을 방지하기 위해 가능한 수개의 솔루션들이 존재한다. 상기 논의된 바와 같이, 제약된 인트라 블록들/프레임들에 대해, 비-인트라 이웃 블록들로부터의 픽셀들은 복원되지 않을 수도 있으며, 따라서, ALF 로의 사용을 위해 이용불가능할 수도 있다.
인터 계층 예측에서의 ALF 코딩의 하나의 예에 있어서, ALF 를 적용하기 위해 비-인트라 이웃 블록들의 픽셀들을 이용하는 것보다는, 패딩된 픽셀들이 대신 이용된다. 인터 계층 예측에서의 ALF 코딩의 다른 예에 있어서, 이웃 블록들이 인트라-코딩되지 않은 경계 픽셀들에 대해 ALF 코딩은 스킵된다. 도 6a 및 도 6b 에 관한 상기 예들과 유사하게, ALF 에 대한 필터 마스크가 이웃 비-인트라 블록들에서의 픽셀들로 확장하면, 그러한 경계 픽셀들에 대한 ALF 필터링은 스킵될 수도 있거나 또는 패딩된 데이터가 이용될 수도 있다. 인터 계층 예측에서의 ALF 코딩의 다른 예에 있어서, 베이스 계층의 제약된 인트라 블록들에 대해 ALF 코딩은 스킵된다. 인터 계층 예측에서의 ALF 코딩의 다른 예에 있어서, 이웃 블록들 중 적어도 하나가 인트라-코딩되지 않은 경우 베이스 계층의 제약된 인트라 블록들에 대해 ALF 코딩은 스킵된다.
이에 따라, 일 예에 있어서, ALF 코딩은 전체 블록에 대해 스킵될 수도 있으며, 여기서, 블록에 있어서의 하나의 픽셀은 에지 오프셋 타입 결정을 행하기 위해 비-인트라 이웃 블록으로부터의 픽셀을 이용한다. 다른 예에 있어서, ALF 코딩은, 오직 비-인트라 이웃 블록으로부터의 픽셀을 이용하는 픽셀에 대해서만 스킵될 수도 있다.
인터 계층 예측에서의 ALF 코딩의 다른 예에 있어서, 부분 ALF 필터링이 이용된다. 부분 ALF 필터링에 있어서, 필터에 대한 오직 이용가능한 픽셀들만이 이용된다 (즉, 대응하는 픽셀들이 이용가능하지 않은 필터 탭들은 이용되지 않음). 부분 필터링은 대칭적 또는 비대칭적일 수도 있다. 대칭적 및 비대칭적 부분 필터링은 도 7 내지 도 11 을 참조하여 하기에서 더 상세히 논의된다.
도 7 은 블록 경계들에서의 ALF 를 도시한 개념 다이어그램이다. 수평 블록 경계 (201) 는 수평 라인으로서 도시되고, 수직 블록 경계 (202) 는 수직 라인으로서 도시된다. 도 7 에서의 필터 마스크 (200) 의 충진된 원들 (즉, 도트들) 은, 슬라이스 및/또는 타일에서의 복원된 비디오 블록의 픽셀들에 적용되는 필터의 계수들 (즉, 가중치들) 을 나타낸다. 즉, 필터의 계수의 값은 대응하는 픽셀의 값에 적용될 수도 있어서, 대응하는 픽셀의 값이 계수 값과 승산되어 가중된 픽셀 값을 생성하게 한다. 픽셀 값은 루미넌스 값 및 하나 이상의 크로미넌스 값들을 포함할 수도 있다. 필터의 중심이 필터링될 픽셀의 (또는 그에 매우 근접한) 포지션에 위치된다고 가정하면, 필터 계수는, 그 계수의 포지션과 공동위치되는 픽셀에 대응한다고 말할 수도 있다. 필터의 계수들에 대응하는 픽셀들은 또한 "지지 픽셀들" 로서, 또는 총괄하여, 필터에 대한 "지지 세트" 로서 지칭될 수 있다. (중심 픽셀 마스크 계수 (C0) 에 대응하는) 현재 픽셀 (203) 의 필터링된 값이 필터 마스크 (200) 에서의 각각의 계수를 그 대응하는 픽셀의 값과 승산하고 그리고 각각의 결과적인 값을 합산함으로써 계산된다.
본 개시에 있어서, 용어 "필터" 는 일반적으로 필터 계수들의 세트를 지칭한다. 예를 들어, 3x3 필터는 9개의 필터 계수들의 세트에 의해 정의될 수도 있고, 5x5 필터는 25개의 필터 계수들의 세트에 의해 정의될 수도 있으며, 9x5 필터는 45개의 필터 계수들의 세트에 의해 정의될 수도 있는 등등이다. 도 7 에 도시된 필터 마스크 (200) 는 수평 방향에서의 7개의 필터 계수들 및 수직 방향에서의 5개의 필터 계수들 (중심 필터 계수는 각각의 방향에 대해 카운트함) 을 갖는 7x5 필터이다. 하지만, 임의의 수의 필터 계수들이 본 개시의 기술들에 대해 적용가능할 수도 있다. 용어 "필터 세트" 는 일반적으로, 1 초과의 필터들의 그룹을 지칭한다. 예를 들어, 2개의 3x3 필터들의 세트는 9개의 필터 계수들의 제 1 세트 및 9개의 필터 계수들의 제 2 세트를 포함할 수 있다. 종종 "필터 지지" 로 지칭되는 용어 "형상" 은 일반적으로, 특정 필터에 대해 필터 계수들의 로우들의 수 및 필터 계수들의 컬럼들의 수를 지칭한다. 예를 들어, 9x9 는 제 1 형상의 예이고, 7x5 는 제 2 형상의 예이며, 5x9 는 제 3 형상의 예이다. 일부 경우들에 있어서, 필터들은 다이아몬드 형상들, 다이아몬드-유사 형상들, 원 형상들, 원-유사 형상들, 육각형 형상들, 팔각형 형상들, 십자 형상들, X 형상들, T 형상들, 다른 지오메트릭 형상들, 또는 다수의 다른 형상들 또는 구성을 포함한 비-직방형 형상들을 취할 수도 있다. 도 7 에 있어서의 예는 십자 형상이지만, 다른 형상이 사용될 수도 있다. 가장 일반적인 경우들에 있어서, 필터의 형상에 무관하게, 필터 마스크에서의 중심 픽셀은 필터링되고 있는 픽셀이다. 다른 예들에 있어서, 필터 픽셀은 필터 마스크의 중심으로부터 오프셋된다.
상기 논의된 예에 따르면, ALF 는 블록 경계들에 걸쳐 디스에이블되거나 제한될 수도 있다. 일 예에 있어서, 본 개시는 블록 경계들 주변에서 부분 필터들을 사용하는 것을 제안한다. 부분 필터는, 필터링 프로세스를 위해 통상적으로 사용되는 하나 이상의 필터 계수들을 사용하지 않는 필터이다. 일 예에 있어서, 본 개시는 부분 필터들을 사용하는 것을 제안하며, 여기서, 적어도 블록 경계의 다른 측면 상에서의 픽셀들에 대응하는 필터 계수들은 사용되지 않는다. 따라서, 일부 예들에 있어서, 블록 경계의 다른 측면 상에서의 픽셀들에 대해 패딩된 데이터를 제공하는 것이 필요하지 않다. 대신, 부분 필터는 블록 경계의 다른 측면 상에서의 픽셀들을 생략하도록 구성될 수 있다.
일 예에 있어서, 비대칭적 부분 필터들이 블록 경계들 근처에서 사용된다. 도 8 은 수평 경계에서의 비대칭적 부분 필터들을 도시한 개념 다이어그램이다. 도 9 는 수직 경계에서의 비대칭적 부분 필터들을 도시한 개념 다이어그램이다. 이 접근법에 있어서, 도 9 및 도 10 에 도시된 바와 같이, 오직 이용가능 픽셀들 (즉, 현재 블록 내의 픽셀들) 만이 필터링을 위해 사용된다. 블록 경계 외부의 필터 탭들은 스킵된다. 도 8 및 도 9 에서의 필터들은 비대칭으로서 지칭되는데, 왜냐하면 다른 것보다 필터 마스크의 중심의 일 측면 (수평 또는 수직 측면 중 어느 하나) 상에서 더 많은 필터 탭들이 사용되기 때문이다. 전체 필터 마스크가 사용되지 않기 때문에, 필터 계수들은 원하는 결과들을 생성하기 위해 재정규화될 수도 있다. 재정규화를 위한 기술들은 하기에서 더 상세히 논의될 것이다.
도 8 의 케이스 1 에 있어서, 필터 마스크 (220) 의 중심 (221) 은 수평 블록 경계로부터 이격된 픽셀들의 일 로우이다. 필터 마스크 (220) 가 7x5 필터이기 때문에, 수직 방향에서의 일 필터 계수는 수평 경계 위에 있는 픽셀에 대응한다. 이러한 필터 계수는 백색으로, 즉, 미충진된 원으로서 도시된다. 백색 필터 계수에 대응하는 픽셀은 필터링에 있어서의 사용을 위해 이용불가능하다. 이에 따라, 그 픽셀에 대응하는 필터 계수는 사용되지 않는다. 유사하게, 케이스 2 에 있어서, 필터 마스크 (225) 의 중심 (222) 은 수평 블록 경계에 인접한 픽셀들의 로우 상에 있다. 이 경우, 2개의 필터 계수들은, 수평 경계 위에 있는 픽셀들에 대응한다. 이에 따라, 필터 마스크 (225) 에서의 2개의 백색 필터 계수들 중 어느 것도 ALF 를 위해 사용되지 않는다. 케이스 1 및 케이스 2 양자에 있어서, 모든 흑색 (즉, 충진된 원) 필터 계수들이 사용된다. 본 개시에 따른 필터 픽셀 값들은 픽셀 값의 루미넌스 컴포넌트들을 필터링하는 것, 픽셀 값의 크로미넌스 컴포넌트들을 필터링하는 것, 또는 픽셀 값의 루미넌스 및 크로미넌스 컴포넌트들 양자를 필터링하는 것을 포함할 수도 있음이 주목되어야 한다.
도 9 의 케이스 3 에 있어서, 필터 마스크 (234) 의 중심 (235) 은 수직 타일 경계로부터 이격된 픽셀들의 2개의 컬럼들이다. 필터 마스크 (234) 가 7x5 필터이기 때문에, 수평 방향에서의 일 필터 계수는 수직 경계 위에 있는 픽셀에 대응한다. 다시, 이러한 필터 계수는 백색으로 도시된다. 백색 필터 계수에 대응하는 픽셀은 필터링에 있어서의 사용을 위해 이용불가능하다. 이에 따라, 그 픽셀에 대응하는 필터 계수는 사용되지 않는다. 유사하게, 케이스 4 에 있어서, 필터 마스크 (232) 의 중심 (233) 은 수직 블록 경계로부터 이격된 픽셀들의 일 컬럼이다. 이 경우, 2개의 필터 계수들은, 수직 경계 위에 있는 픽셀들에 대응한다. 이에 따라, 필터 마스크 (232) 에서의 2개의 백색 필터 계수들 중 어느 것도 ALF 를 위해 사용되지 않는다. 케이스 5 에 있어서, 필터 마스크 (230) 의 중심 (231) 은 수직 경계에 인접한 픽셀들의 컬럼 상에 있다. 이 경우, 3개의 필터 계수들은, 수직 경계 위에 있는 픽셀들에 대응한다. 이에 따라, 필터 메이크들 (230) 에서의 3개의 백색 필터 계수들 중 어느 것도 ALF 를 위해 사용되지 않는다. 케이스 1, 2 또는 3 모두에 있어서, 모든 흑색 필터 계수들이 사용된다.
다른 예에 있어서, 대칭적 부분 필터들이 블록 경계들 근처에서 사용된다. 도 10 은 수평 경계에서의 대칭적 부분 필터들을 도시한 개념 다이어그램이다. 도 11 은 수직 경계에서의 대칭적 부분 필터들을 도시한 개념 다이어그램이다. 비대칭적 부분 필터들에서와 같이, 이 접근법에 있어서, 오직 이용가능 픽셀들만이 필터링을 위해 사용된다. 즉, 블록 경계 외부의 필터 탭들은 스킵된다. 또한, 현재 슬라이스 또는 타일 내에 있는 필터 마스크의 일부 계수들은 또한, 대칭적 필터 마스크를 유지하도록, 사용되지 않는다.
예를 들어, 도 10 의 케이스 6 에 있어서, 필터 마스크 (240) 에서의 하나의 필터 계수는 수평 블록 경계 밖에 있다. 필터 마스크의 다른 측면 상에서의 수평 경계 내의 대응하는 필터 계수는 또한 사용되지 않는다. 이러한 방식으로, 중심 계수 (241) 주변에서의 수직 방향에 있어서의 계수들의 대칭 배열이 유지된다. 도 10 의 케이스 7 에 있어서, 필터 마스크 (242) 에서의 2개의 필터 계수들은 수평 경계에 걸쳐 있다. 수평 경계 내에서의 중심 필터 계수 (243) 의 다른 측면 상에서의 대응하는 2개의 필터 계수들은 또한 사용되지 않는다. 유사한 예들이 수직 타일 경계에 대해 도 11 에 도시된다. 케이스 8 에 있어서, 하나의 필터 계수는, 수직 블록 경계에 걸친 픽셀에 대응한다. 이러한 계수는, 중심 계수 (251) 주변에서의 대칭성을 유지하기 위한 필터 마스크 (250) 의 수평 부분의 좌측면에서의 다른 픽셀과 마찬가지로, 사용되지 않는다. 유사한 필터 마스크 조정들이, 2개 (케이스 9) 및 3개 (케이스 10) 필터 계수들이 수직 경계 주변에서의 픽셀들에 대응하는 경우, 필터 마스크들 (252 및 254) 에 대해 행해진다. 케이스 9 및 케이스 10 에서 도시된 바와 같이, 대칭성은 각각 중심 계수들 (253 및 255) 주변에서 유지된다.
도 8 및 도 9 에 도시된 비대칭적 부분 필터들과 유사하게, 전체 필터 마스크는 대칭적 부분 필터들에 대해 사용되지 않는다. 이에 따라, 필터 계수들은 재정규화될 수도 있다. 재정규화를 위한 기술들은 하기에서 더 상세히 논의될 것이다.
되풀이하기 위해, 도 8 내지 도 12 에 도시된 필터 마스크들 각각에 대해, 필터 마스크의 중심에 대응하는 픽셀에 대한 필터링된 값은 (마스크에 있어서의 암색화된 원에 의해 표현된) 필터 계수를 관련 픽셀 값과 승산하고 그후 승산된 값들을 함께 가산함으로써 계산된다.
대칭적 및 비대칭적 부분 필터에 대한 필터 계수들의 재정규화는 상이한 방식들로 달성될 수 있다. 일반적으로, 재정규화 프로세스는 부분 필터 마스크에 있어서 나머지 필터 계수들의 값을 재계산하여, 나머지 필터 계수들의 총 값이 오리지널 필터 계수들의 총 값과 동일하게 한다. 종종, 이러한 총 값은 1 이다. 오리지널 필터 계수들이 C_1, …, C_N 으로서 라벨링되는 예를 고려하며, 여기서, C 는 특정 계수의 값이다. 이제, C_1,…,C_M 계수들은 이용가능한 대응하는 픽셀들 (즉, 대응하는 픽셀들은 슬라이스 또는 타일 경계에 걸침) 을 갖지 않는다고 가정한다. 재정규화된 필터 계수들은 다음과 같이 정의될 수 있다:
예 1
Coeff_all = C_1 + C_2 +…+C_N
Coeff_part = Coeff_all - (C_1+…+C_M)
New_coeffs C_i’= C_i * Coeff_all/Coeff_part, i= M+1,…,N
예 1 에 있어서, Coeff_all 은 함께 합산된 필터 마스크에 있어서의 모든 계수들의 값을 나타낸다. Coeff_part 는 부분 필터 마스크에 있어서의 모든 계수들의 값을 나타낸다. 즉, 이용불가능한 픽셀들에 대응하는 계수들의 합산된 값 (C_1+…+C_M) 은 필터 마스크에 있어서의 모든 가능한 계수들 (Coeff_all) 의 합으로부터 감산된다. New_coeffs_Ci’ 는 재정규화 프로세스 이후 부분 계수들에 있어서의 필터 계수들의 값을 나타낸다. 상기 예 1 에 있어서, 부분 필터에 남아 있는 계수의 값은 필터 마스크에 있어서의 모든 가능한 계수들 (Coeff_all) 의 총 값과 승산되고, 부분 필터 마스크에 있어서의 모든 계수들 (Coeff_part) 의 총 값에 의해 제산된다.
하기 예 2 는 부분 필터에 있어서의 필터 계수들을 재정규화하기 위한 다른 기술을 나타낸다.
예 2
C_i, i= M+1,…,N 의 서브세트에 대해, C_k, k=1,…,M 를 가산한다.
예를 들어,
a. C_(M+1)’= C_(M+1) + C_1, C_(M+2)’= C_(M+2) + C_3,… 또는
b. C_L’ = C_L + (C_1 + C_2 +…+C_M) 이다.
이 예에 있어서, 필터 계수들은, 스킵된 필터 탭들의 계수들 (C_k) 을 비-스킵된 필터 탭들의 계수들 (C_i) 에 가산함으로써 재정규화된다.
인터 계층 예측을 위한 ALF 에 관하여 상기 언급된 모든 솔루션들에 부가하여, 플래그 (플래그3) 가, ALF 어플리케이션이 베이스 계층 및/또는 인터-계층 필터링에서의 인트라 픽셀들로 제한됨을 표시하기 위해 비디오 인코더에 의해 시그널링될 수도 있다.
본 개시의 일 예에 있어서, 새롭게 도입된 플래그들 (즉, 플래그1, 플래그2 및 플래그3) 은 단일 플래그로 함께 병합될 수도 있다. 다른 예에 있어서, 플래그1, 플래그2 및 플래그3 은 DB 에 대한 대응하는 플래그를 갖는 하나의 플래그 (H.264 에서의 interLayerDeblockingFlag) 로 병합될 수도 있다. 또다른 예로서, 플래그1, 플래그2 및 플래그3 은 제약 인트라 플래그를 갖는 하나의 플래그로 병합될 수도 있다.
도 12 는 본 개시에 설명된 바와 같은 비디오 코딩 프로세스에 있어서 루프 필터링을 위한 기술들을 사용할 수도 있는 비디오 인코더 (20) 의 일 예를 도시한 블록 다이어그램이다. 비디오 인코더 (20) 는, 루프 필터링을 요구할 수도 있는 다른 코딩 표준들 또는 방법들에 관하여 본 개시의 한정없이 예시의 목적으로 SHEVC 및 HEVC 코딩의 컨텍스트에서 설명될 것이다. 비디오 인코더 (20) 는 비디오 프레임들 내에서 CU들의 인트라-코딩 및 인터-코딩을 수행할 수도 있다. 인트라 코딩은 소정의 비디오 프레임 내의 비디오 데이터에 있어서 공간 리던던시를 감소 또는 제거하기 위해 공간 예측에 의존한다. 인터-코딩은 비디오 시퀀스의 현재 프레임과 이전에 코딩된 프레임들 간의 시간 리던던시를 감소 또는 제거하기 위해 시간 예측에 의존한다. 일부 예들에 있어서, 비디오 인코더는 인터-계층 예측을 수행하도록 구성될 수도 있다. 인트라-모드 (I-모드) 는 수개의 공간 기반 비디오 압축 모드들 중 임의의 모드를 지칭할 수도 있다. 단방향 예측 (P-모드) 또는 양방향 예측 (B-모드) 과 같은 인터-모드들은 수개의 시간 기반 비디오 압축 모드들 중 임의의 모드를 지칭할 수도 있다.
도 12 에 도시된 바와 같이, 비디오 인코더 (20) 는 인코딩될 비디오 프레임 내의 현재 비디오 블록을 수신한다. 도 12 의 예에 있어서, 비디오 인코더 (20) 는 모션 보상 유닛 (44), 모션 추정 유닛 (42), 인트라-예측 모듈 (46), 레퍼런스 프레임 버퍼 (64), 합산기 (50), 변환 모듈 (52), 양자화 유닛 (54), 및 엔트로피 인코딩 유닛 (56) 을 포함한다. 도 12 에 도시된 변환 모듈 (52) 은, 실제 변환 또는 변환의 조합들을 잔차 데이터의 블록에 적용하는 유닛이고, CU 의 변환 유닛 (TU) 으로서 또한 지칭될 수도 있는 변환 계수들의 블록과 혼동되지 않아야 한다. 비디오 블록 복원을 위해, 비디오 인코더 (20) 는 또한 역양자화 유닛 (58), 역변환 모듈 (60), 합산기 (62), 및 루프 필터 유닛 (43) 을 포함한다. 루프 필터 유닛 (43) 은 디블록킹 필터 유닛, SAO 필터 유닛, 및 ALF 필터 유닛 중 하나 이상을 포함할 수도 있다.
인코딩 프로세스 동안, 비디오 인코더 (22) 는 코딩될 비디오 프레임 또는 슬라이스를 수신한다. 프레임 또는 슬라이스는 다중의 비디오 블록들, 예를 들어, 최대 코딩 유닛들 (LCU들) 로 분할될 수도 있다. 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 시간 압축을 제공하기 위해 하나 이상의 레퍼런스 프레임들에 있어서의 하나 이상의 블록들에 대해 수신된 비디오 블록의 인터-예측 코딩을 수행한다. 인트라-예측 모듈 (46) 은 공간 압축을 제공하기 위해 코딩될 블록과 동일한 프레임 또는 슬라이스에 있어서의 하나 이상의 이웃 블록들에 대해 수신된 비디오 블록의 인트라-예측 코딩을 수행할 수도 있다.
모드 선택 유닛 (40) 은, 예를 들어, 각각의 모드에 대한 레이트 왜곡 결과들에 기초하여 코딩 모드들 중 하나, 즉, 인트라 모드 또는 인터 모드를 선택할 수도 있고, 결과적인 인트라- 또는 인터-예측된 블록 (예를 들어, 예측 유닛 (PU)) 을 합산기 (50) 에 제공하여 잔차 블록 데이터를 생성하고, 합산기 (62) 에 제공하여 레퍼런스 프레임에서의 사용을 위한 인코딩된 블록을 복원한다. 합산기 (62) 는 하기에서 더 상세히 설명되는 바와 같이, 예측된 블록을, 그 블록에 대한 역변환 모듈 (60) 로부터의 역양자화되고 역변환된 데이터와 결합하여 인코딩된 블록을 복원한다. 일부 비디오 프레임들은 I-프레임들로서 지정될 수도 있으며, 여기서, I-프레임 내 모든 블록들은 인트라-예측 모드에서 인코딩된다. 일부 경우들에 있어서, 인트라-예측 모듈 (46) 은, 예를 들어, 모션 추정 유닛 (42) 에 의해 수행된 모션 탐색이 블록의 충분한 예측을 야기하지 않을 경우, P-프레임 또는 B-프레임에 있어서 블록의 인트라-예측 인코딩을 수행할 수도 있다.
모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 은 고도로 통합될 수도 있지만, 개념적인 목적들을 위해 별개로 도시된다. 모션 추정 (또는 모션 탐색) 은, 비디오 블록들에 대한 모션을 추정하는 모션 벡터들을 생성하는 프로세스이다. 모션 벡터는, 예를 들어, 레퍼런스 프레임의 레퍼런스 샘플에 대한 현재 프레임에서의 예측 유닛의 변위를 나타낼 수도 있다. 일부 경우들에 있어서, 레퍼런스 프레임은 코딩된 프레임과는 상이한 계층에 (예를 들어, 인터-계층 예측에) 있을 수도 있다. 모션 추정 유닛 (42) 은 인터-코딩된 프레임의 예측 유닛에 대한 모션 벡터를, 레퍼런스 프레임 버퍼 (64) 에 저장된 레퍼런스 프레임의 레퍼런스 샘플들과 그 예측 유닛을 비교함으로써 계산한다. 레퍼런스 샘플은, 픽셀 차이의 관점에서 코딩되는 PU 를 포함한 CU 의 부분을 긴밀하게 매칭하기 위해 발견되는 블록일 수도 있으며, 이 픽셀 차이는 절대 차이의 합 (SAD), 제곱 차이의 합 (SSD), 또는 다른 차이 메트릭들에 의해 결정될 수도 있다. 레퍼런스 샘플은 레퍼런스 프레임 또는 레퍼런스 슬라이스 내 어디에서나 발생할 수도 있으며, 반드시 레퍼런스 프레임 또는 슬라이스의 블록 (예를 들어, 코딩 유닛) 경계일 필요는 없다. 일부 예들에 있어서, 레퍼런스 샘플은 분수 픽셀 포지션에서 발생할 수도 있다.
모션 추정 유닛 (42) 은 계산된 모션 벡터를 엔트로피 인코딩 유닛 (56) 및 모션 보상 유닛 (44) 으로 전송한다. 모션 벡터에 의해 식별된 레퍼런스 프레임의 부분은 레퍼런스 샘플로서 지칭될 수도 있다. 모션 보상 유닛 (44) 은, 예를 들어, PU 에 대한 모션 벡터에 의해 식별된 레퍼런스 샘플을 취출함으로써 현재 CU 의 예측 유닛에 대한 예측 값을 계산할 수도 있다.
인트라-예측 모듈 (46) 은 수신된 블록을, 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 수행된 인터-예측에 대한 대안으로서 인트라-예측할 수도 있다. 인트라-예측 모듈 (46) 은, 블록들에 대한 좌-우로, 상부-하부로의 인코딩 순서를 가정할 때, 이웃하는 이전에 코딩된 블록들, 예를 들어, 현재 블록의 상위의, 상위 및 우측으로의, 상위 및 좌측으로의, 또는 좌측으로의 블록들에 대하여 수신된 블록을 예측할 수도 있다. 인트라-예측 모듈 (46) 은 다양한 서로다른 인트라-예측 모드들로 구성될 수도 있다. 예를 들어, 인트라-예측 모듈 (46) 은 인코딩되는 CU 의 사이즈에 기초하여, 특정 수의 방향성 예측 모드들, 예를 들어 35개의 방향성 예측 모드들로 구성될 수도 있다.
인트라-예측 모듈 (46) 은, 예를 들어, 다양한 인트라-예측 모드들에 대한 에러 값들을 계산하고 최저 에러 값을 산출하는 모드를 선택함으로써 인트라-예측 모드를 선택할 수도 있다. 방향성 예측 모드들은 공간적으로 이웃한 픽셀들의 값들을 결합하고 결합된 값들을 PU 내 하나 이상의 픽셀 포지션들에 적용하기 위한 기능들을 포함할 수도 있다. 일단 PU 내 모든 픽셀 포지션들에 대한 값들이 계산되었으면, 인트라-예측 모듈 (46) 은 인코딩될 수신된 블록과 PU 간의 픽셀 차이들에 기초하여 예측 모드에 대한 에러 값을 계산할 수도 있다. 인트라-예측 모듈 (46) 은, 수용가능한 에러 값을 산출하는 인트라-예측 모드가 발견될 때까지 인트라-예측 모드들의 테스팅을 계속할 수도 있다. 그 후, 인트라-예측 모듈 (46) 은 PU 를 합산기 (50) 로 전송할 수도 있다.
비디오 인코더 (20) 는, 모션 보상 유닛 (44) 또는 인트라-예측 모듈 (46) 에 의해 계산된 예측 데이터를, 코딩되는 오리지널 비디오 블록으로부터 감산함으로써 잔차 블록을 형성한다. 합산기 (50) 는 이러한 감산 연산을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다. 잔차 블록은 픽셀 차이 값들의 2차원 매트릭스에 대응할 수도 있으며, 여기서, 잔차 블록에서의 값들의 개수는 잔차 블록에 대응하는 PU 내 픽셀들의 개수와 동일하다. 잔차 블록에서의 값들은 코딩될 오리지널 블록에서의 및 PU 에서의 공동 위치된 픽셀들의 값들 사이의 차이들, 즉, 에러에 대응할 수도 있다. 그 차이들은, 코딩되는 블록의 타입에 의존하여 크로마 또는 루마 차이들일 수도 있다.
변환 모듈 (52) 은 잔차 블록으로부터 하나 이상의 변환 유닛들 (TU들) 을 형성할 수도 있다. 변환 모듈 (52) 은 복수의 변환들 중으로부터 일 변환을 선택한다. 변환은 블록 사이즈, 코딩 모드 등과 같은 하나 이상의 코딩 특성들에 기초하여 선택될 수도 있다. 그 후, 변환 모듈 (52) 은 선택된 변환을 TU 에 적용하여, 변환 계수들의 2차원 어레이를 포함하는 비디오 블록을 생성한다. 변환 모듈 (52) 은 선택된 변환 파티션을 인코딩된 비디오 비트스트림에 시그널링할 수도 있다.
변환 모듈 (52) 은 결과적인 변환 계수들을 양자화 유닛 (54) 으로 전송할 수도 있다. 그 후, 양자화 유닛 (54) 은 변환 계수들을 양자화할 수도 있다. 그 후, 엔트로피 인코딩 유닛 (56) 은 스캐닝 모드에 따라 매트릭스에 있어서 양자화된 변환 계수들의 스캔을 수행할 수도 있다. 본 개시는 스캔을 수행하는 것으로서 엔트로피 인코딩 유닛 (56) 을 설명한다. 하지만, 다른 예들에 있어서, 양자화 유닛 (54) 과 같은 다른 프로세싱 유닛들이 스캔을 수행할 수 있음을 이해해야 한다.
일단 변환 계수들이 1차원 어레이로 스캔되면, 엔트로피 인코딩 유닛 (56) 은 CABAC 와 같은 엔트로피 코딩을 적용할 수도 있다.
CABAC 를 수행하기 위해, 엔트로피 인코딩 유닛 (56) 은, 송신될 심볼들을 인코딩하기 위해 특정 컨텍스트에 적용하기 위한 컨텍스트 모델을 선택할 수도 있다. 컨텍스트는, 예를 들어, 이웃한 값들이 제로가 아닌지 여부와 관련될 수도 있다. 엔트로피 인코딩 유닛 (56) 은 또한, 선택된 변환을 나타내는 신호와 같은 신택스 엘리먼트들을 엔트로피 인코딩할 수도 있다. 본 개시의 기술들에 따르면, 엔트로피 인코딩 유닛 (56) 은, 컨텍스트 모델 선택용으로 사용되는 다른 팩터들 중에서, 예를 들어, 인트라-예측 모드들에 대한 인트라-예측 명령, 신택스 엘리먼트들에 대응하는 계수의 스캔 포지션, 블록 타입, 및/또는 변환 타입에 기초하여 이들 신택스 엘리먼트들을 인코딩하는데 사용되는 컨텍스트 모델을 선택할 수도 있다.
엔트로피 인코딩 유닛 (56) 에 의한 엔트로피 코딩 이후, 결과적인 인코딩된 비디오는 비디오 디코더 (30) 와 같은 다른 디바이스로 송신되거나 또는 더 나중의 송신 또는 취출을 위해 아카이브될 수도 있다.
일부 경우들에 있어서, 비디오 인코더 (20) 의 엔트로피 인코딩 유닛 (56) 또는 다른 유닛은, 엔트로피 코딩에 부가하여, 다른 코딩 기능들을 수행하도록 구성될 수도 있다. 예를 들어, 엔트로피 인코딩 유닛 (56) 은 CU들 및 PU들에 대한 코딩된 블록 패턴 (CBP) 값들을 결정하도록 구성될 수도 있다. 또한, 일부 경우들에 있어서, 엔트로피 인코딩 유닛 (56) 은 계수들의 런 렝스 코딩을 수행할 수도 있다.
역양자화 유닛 (58) 및 역변환 모듈 (60) 은, 예를 들어, 레퍼런스 블록으로서 더 나중에 사용하기 위해 픽셀 도메인에서 잔차 블록을 복원하도록, 각각, 역양자화 및 역변환을 적용한다. 모션 보상 유닛 (44) 은 레퍼런스 프레임 버퍼 (64) 의 프레임들 중 하나의 예측 블록에 잔차 블록을 부가함으로써 레퍼런스 블록을 계산할 수도 있다. 모션 보상 유닛 (44) 은 또한, 하나 이상의 보간 필터들을 복원된 잔차 블록에 적용하여, 모션 추정에서 사용하기 위한 서브-정수 픽셀 값들을 계산할 수도 있다. 합산기 (62) 는 복원된 잔차 블록을, 모션 보상 유닛 (44) 에 의해 생성된 모션 보상된 예측 블록에 가산하여, 복원된 비디오 블록을 생성한다.
그 후, 루프 필터 유닛 (43) 은 상기 설명된 기술들에 따라 복원된 블록들에 대한 루프 필터링을 수행할 수도 있다. 본 개시의 예들에 있어서, 비디오 인코더 (20) 의 다른 컴포넌트들과 별도로 또는 그들과 함께, 루프 필터 유닛 (43) 은 비디오 코딩 프로세스에 있어서 루프 필터링을 수행하도록 구성될 수도 있다.
그 후, 픽셀들을 필터링한 이후, 본 개시에서 설명된 루프 필터링 기술들을 이용하여, 필터링된 복원된 비디오 블록은 레퍼런스 프레임 버퍼 (64) 에 저장된다. 복원된 비디오 블록은, 후속 비디오 프레임에서의 블록을 인터-코딩하기 위해 레퍼런스 블록으로서 모션 추정 유닛 (42) 및 모션 보상 유닛 (44) 에 의해 사용될 수도 있다.
도 13 은, 인코딩된 비디오 시퀀스를 디코딩하는 비디오 디코더 (30) 의 일 예를 도시한 블록 다이어그램이다. 도 13 의 예에 있어서, 비디오 디코더 (30) 는 엔트로피 디코딩 유닛 (70), 모션 보상 유닛 (72), 인트라-예측 모듈 (74), 역양자화 유닛 (76), 역변환 모듈 (78), 레퍼런스 프레임 버퍼 (82), 루프 필터 유닛 (79), 및 합산기 (80) 를 포함한다. 일부 예들에 있어서, 비디오 디코더 (30) 는 비디오 인코더 (20)(도 12 참조) 에 대하여 설명된 인코딩 패스에 일반적으로 상호적인 디코딩 패스를 수행할 수도 있다.
엔트로피 디코딩 유닛 (70) 은 인코딩된 비트스트림에 대한 엔트로피 디코딩 프로세스를 수행하여, 변환 계수들의 1차원 어레이를 취출한다. 사용된 엔트로피 디코딩 프로세스는 비디오 인코더 (20) 에 의해 사용된 엔트로피 코딩 (예를 들어, CABAC) 에 의존한다. 인코더에 의해 사용된 엔트로피 코딩 프로세스는 인코딩된 비트스트림에 시그널링될 수도 있거나, 미리결정된 프로세스일 수도 있다.
일부 예들에 있어서, 엔트로피 디코딩 유닛 (70) (또는 역양자화 유닛 (76)) 은 비디오 인코더 (20) 의 엔트로피 인코딩 유닛 (56) (또는 양자화 유닛 (54)) 에 의해 사용된 스캐닝 모드를 미러링하는 스캔을 사용하여 수신된 값들을 스캐닝할 수도 있다. 비록 계수들의 스캐닝이 역양자화 유닛 (76) 에서 수행될 수도 있지만, 스캐닝은 엔트로피 디코딩 유닛 (70) 에 의해 수행되는 바와 같이 예시의 목적으로 설명될 것이다. 부가적으로, 비록 예시의 용이를 위해 별도의 기능 유닛들로서 도시되지만, 비디오 디코더 (30) 의 엔트로피 디코딩 유닛 (70), 역양자화 유닛 (76), 및 다른 유닛들의 구조 및 기능은 서로 고도로 통합될 수도 있다.
역양자화 유닛 (76) 은 비트스트림에서 제공되고 엔트로피 디코딩 유닛 (70) 에 의해 디코딩되는 양자화된 변환 계수들을 역양자화, 즉, 양자화해제한다. 역양자화 프로세스는 예를 들어, HEVC 에 대해 제안되거나 H.264 디코딩 표준에 의해 정의된 프로세스들과 유사한 종래의 프로세스를 포함할 수도 있다. 역양자화 프로세스는 CU 에 대해 비디오 인코더 (20) 에 의해 계산된 양자화 파라미터 (QP) 의 이용을 포함하여, 적용되어야 하는 양자화의 정도 및 유사하게 역양자화의 정도를 결정할 수도 있다. 역양자화 유닛 (76) 은, 계수들이 1차원 어레이로부터 2차원 어레이로 변환되기 전 또는 그 이후에 변환 계수들을 역양자화할 수도 있다.
역변환 모듈 (78) 은 역양자화된 변환 계수들에 역변환을 적용한다. 일부 예들에 있어서, 역변환 모듈 (78) 은 비디오 인코더 (20) 로부터의 시그널링에 기초하여, 또는 블록 사이즈, 코딩 모드 등과 같은 하나 이상의 코딩 특성들로부터 변환을 추정함으로써, 역변환을 결정할 수도 있다. 일부 예들에 있어서, 역변환 모듈 (78) 은 현재 블록을 포함한 LCU 에 대한 쿼드트리의 루트 노드에서의 시그널링된 변환에 기초하여 현재 블록에 적용하기 위한 변환을 결정할 수도 있다. 대안적으로, 변환은 LCU 쿼드트리에서의 리프-노드 CU 에 대한 TU 쿼드트리의 루트에서 시그널링될 수도 있다. 일부 예들에 있어서, 역변환 모듈 (78) 은 캐스케이드형 역변환을 적용할 수도 있으며, 여기서, 역변환 모듈 (78) 은 디코딩되는 현재 블록의 변환 계수들에 2 이상의 역변환들을 적용한다.
인트라-예측 모듈 (74) 은 시그널링된 인트라-예측 모드 및 현재 프레임의 이전에 디코딩된 블록들로부터의 데이터에 기초하여 현재 프레임의 현재 블록에 대한 예측 데이터를 생성할 수도 있다.
취출된 모션 예측 방향, 레퍼런스 프레임 인덱스, 및 계산된 현재 모션 벡터에 기초하여, 모션 보상 유닛은 현재 부분에 대한 모션 보상된 블록을 생성한다. 이들 모션 보상된 블록들은 본질적으로, 잔차 데이터를 생성하는데 사용되는 예측 블록을 재현한다.
모션 보상 유닛 (72) 은 모션 보상된 블록들을 생성하여, 보간 필터들에 기초하여 가능하게는 보간을 수행할 수도 있다. 서브-픽셀 정밀도를 갖는 모션 추정에 사용될 보간 필터들에 대한 식별자들이 신택스 엘리먼트들에 포함될 수도 있다. 모션 보상 유닛 (72) 은 비디오 블록의 인코딩 동안 비디오 인코더 (20) 에 의해 사용된 바와 같은 보간 필터들을 이용하여, 레퍼런스 블록의 서브-정수 픽셀들에 대한 보간된 값들을 계산할 수도 있다. 모션 보상 유닛 (72) 은 수신된 신택스 정보에 따라 비디오 인코더 (20) 에 의해 사용된 보간 필터들을 결정하고, 보간 필터들을 이용하여 예측 블록들을 생성할 수도 있다.
부가적으로, HEVC 예에 있어서, 모션 보상 유닛 (72) 및 인트라-예측 모듈 (74) 은 (예를 들어, 쿼드트리에 의해 제공된) 신택스 정보 중 일부를 이용하여, 인코딩된 비디오 시퀀스의 프레임(들)을 인코딩하는데 사용된 LCU들의 사이즈들을 결정할 수도 있다. 모션 보상 유닛 (72) 및 인트라-예측 모듈 (74) 은 또한 신택스 정보를 이용하여, 인코딩된 비디오 시퀀스의 프레임의 각각의 CU 가 어떻게 분할되는지 (유사하게, 서브-CU들이 어떻게 분할되는지) 를 기술하는 분할 정보를 결정할 수도 있다. 신택스 정보는 또한, 각각의 분할물이 어떻게 인코딩되는지를 나타내는 모드들 (예를 들어, 인트라- 또는 인터-예측, 및 인트라-예측에 대해 인트라-예측 인코딩 모드), 각각의 인터-인코딩된 PU 에 대한 하나 이상의 레퍼런스 프레임들 (및/또는 레퍼런스 프레임들에 대한 식별자들을 포함하는 레퍼런스 리스트들), 및 인코딩된 비디오 시퀀스를 디코딩하기 위한 다른 정보를 포함할 수도 있다.
합산기 (80) 는 모션 보상 유닛 (72) 또는 인트라-예측 모듈 (74) 에 의해 발생된 대응하는 예측 블록들과 잔차 블록들을 결합하여, 디코딩된 블록들을 형성한다. 그 후, 루프 필터 유닛 (79) 은 상기 설명된 기술들에 따라 루프 필터링을 수행한다.
본 개시의 예들에 있어서, 비디오 디코더 (30) 의 다른 컴포넌트들과 별도로 또는 그들과 함께, 루프 필터 유닛 (79) 은 비디오 코딩 프로세스에 있어서 루프 필터링을 수행하도록 구성될 수도 있다. 루프 필터링은 디블록킹, ALF 및 SAO 필터링 중 하나 이상을 포함할 수도 있다.
그 후, 디코딩된 비디오 블록들이 레퍼런스 프레임 버퍼 (82) 에 저장되며, 그 레퍼런스 프레임 버퍼는 인터-예측 코딩에 대한 후속 모션 보상을 위한 레퍼런스 블록들을 제공하고 또한 (도 1 의 디스플레이 디바이스 (32) 와 같은) 디스플레이 디바이스 상으로의 프리젠테이션을 위해 디코딩된 비디오를 생성한다.
도 14 는 본 개시의 예시적인 인코딩 방법을 도시한 플로우차트이다. 도 14 의 방법들은 루프 필터 유닛 (43) 을 포함한 비디오 인코더 (20) 에 의해 구현될 수도 있다.
비디오 인코더 (20) 는 스케일러블 비디오 코딩 프로세스에 따라 비디오 데이터의 블록을 인코딩하여 비디오 데이터의 인코딩된 블록을 생성하고 (1401), 비디오 데이터의 인코딩된 블록을 디코딩하여 비디오 데이터의 복원된 블록을 생성하고 (1402), 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 비디오 데이터의 복원된 블록으로의 루프 필터의 적용을 제한하며 (1403), 그리고 비디오 데이터의 복원된 블록을 루프 필터링하도록 (1404) 구성될 수도 있다.
본 개시의 일 예에 있어서, 비디오 인코더 (20) 는 제약된 인트라-예측 프로세스를 이용하여 베이스 계층에서의 비디오 데이터의 블록을 인코딩하며, 루프 필터는 샘플 적응적 오프셋 (SAO) 필터이다. 일 예에 있어서, SAO 필터의 적용을 제한하는 것은 대역 오프셋 SAO 필터링이 적용될 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것, 및 에지 오프셋 SAO 필터링이 적용되고 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다. 다른 예에 있어서, SAO 필터의 적용을 제한하는 것은 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다. 다른 예에 있어서, SAO 필터의 적용을 제한하는 것은 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다. 다른 예에 있어서, SAO 필터의 적용을 제한하는 것은 인트라-코딩되지 않은 이웃 블록으로부터의 픽셀들을 SAO 타입이 이용할 경우에 SAO 타입을 시그널링하지 않는 것을 포함한다.
본 개시의 다른 예에 있어서, 비디오 인코더 (20) 는 인터 계층 예측을 이용하여 비디오 데이터의 블록을 인코딩하며, 루프 필터는 샘플 적응적 오프셋 (SAO) 필터이다. 일 예에 있어서, SAO 필터의 적용을 제한하는 것은 대역 오프셋 SAO 필터링이 적용될 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것, 및 에지 오프셋 SAO 필터링이 적용되고 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다. 다른 예에 있어서, SAO 필터의 적용을 제한하는 것은 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다. 다른 예에 있어서, SAO 필터의 적용을 제한하는 것은, 이웃 블록이 인트라-코딩되지 않은 경우 및 비디오 데이터의 블록이 제약된 인트라-예측 프로세스를 이용하여 코딩된 경우에 비디오 데이터의 블록에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다. 다른 예에 있어서, SAO 필터의 적용을 제한하는 것은 인트라-코딩되지 않은 이웃 블록으로부터의 픽셀들을 SAO 타입이 이용할 경우에 SAO 타입을 시그널링하지 않는 것을 포함한다.
다른 예에 있어서, 비디오 인코더 (20) 는 인터 계층 예측을 이용하여 비디오 데이터를 인코딩하며, 루프 필터는 적응적 루프 필터 (ALF) 이다. 일 예에 있어서, ALF 의 적용을 제한하는 것은 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록에 부분 ALF 를 적용하는 것을 포함한다.
도 15 는 본 개시의 예시적인 디코딩 방법을 도시한 플로우차트이다. 도 15 의 방법들은 루프 필터 유닛 (79) 을 포함한 비디오 디코더 (30) 에 의해 구현될 수도 있다.
비디오 디코더 (30) 는 스케일러블 비디오 코딩 프로세스에 따라 비디오 데이터의 블록을 디코딩하여 비디오 데이터의 복원된 블록을 생성하고 (1501), 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 비디오 데이터의 복원된 블록으로의 루프 필터의 적용을 제한하며 (1502), 그리고 비디오 데이터의 복원된 블록을 루프 필터링하도록 (1503) 구성될 수도 있다.
본 개시의 일 예에 있어서, 비디오 디코더 (30) 는 제약된 인트라-예측 프로세스를 이용하여 베이스 계층에서의 비디오 데이터의 블록을 디코딩하며, 루프 필터는 샘플 적응적 오프셋 (SAO) 필터이다. 일 예에 있어서, SAO 필터의 적용을 제한하는 것은 대역 오프셋 SAO 필터링이 적용될 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것, 및 에지 오프셋 SAO 필터링이 적용되고 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다. 다른 예에 있어서, SAO 필터의 적용을 제한하는 것은 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다. 다른 예에 있어서, SAO 필터의 적용을 제한하는 것은 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다.
본 개시의 다른 예에 있어서, 비디오 디코더 (30) 는 인터 계층 예측을 이용하여 비디오 데이터의 블록을 디코딩하며, 루프 필터는 샘플 적응적 오프셋 (SAO) 필터이다. 일 예에 있어서, SAO 필터의 적용을 제한하는 것은 대역 오프셋 SAO 필터링이 적용될 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것, 및 에지 오프셋 SAO 필터링이 적용되고 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다. 다른 예에 있어서, SAO 필터의 적용을 제한하는 것은 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록의 경계 픽셀들에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다. 다른 예에 있어서, SAO 필터의 적용을 제한하는 것은, 이웃 블록이 인트라-코딩되지 않은 경우 및 비디오 데이터의 블록이 제약된 인트라-예측 프로세스를 이용하여 코딩된 경우에 비디오 데이터의 블록에 SAO 필터를 적용하는 것을 스킵하는 것을 포함한다.
다른 예에 있어서, 비디오 디코더 (30) 는 인터 계층 예측을 이용하여 비디오 데이터를 디코딩하며, 루프 필터는 적응적 루프 필터 (ALF) 이다. 일 예에 있어서, ALF 의 적용을 제한하는 것은 이웃 블록이 인트라-코딩되지 않은 경우에 비디오 데이터의 블록에 부분 ALF 를 적용하는 것을 포함한다.
하나 이상의 예들에 있어서, 설명된 기능들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수도 있다. 소프트웨어로 구현된다면, 그 기능들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독가능 매체 상으로 저장 또는 전송되고 하드웨어 기반 프로세싱 유닛에 의해 실행될 수도 있다. 컴퓨터 판독가능 매체는, 예를 들어, 통신 프로토콜에 따라 일 장소로부터 다른 장소로의 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하는 데이터 저장 매체 또는 통신 매체와 같은 유형의 매체에 대응하는 컴퓨터 판독가능 저장 매체를 포함할 수도 있다. 이러한 방식으로, 컴퓨터 판독가능 매체는 일반적으로 (1) 비-일시적인 유형의 컴퓨터 판독가능 저장 매체 또는 (2) 신호 또는 캐리어파와 같은 통신 매체에 대응할 수도 있다. 데이터 저장 매체는 본 개시에서 설명된 기술들의 구현을 위한 명령들, 코드 및/또는 데이터 구조들을 취출하기 위해 하나 이상의 컴퓨터들 또는 하나 이상의 프로세서들에 의해 액세스될 수 있는 임의의 가용 매체일 수도 있다. 컴퓨터 프로그램 제품이 컴퓨터 판독가능 매체를 포함할 수도 있다.
한정이 아닌 예로서, 그러한 컴퓨터 판독가능 저장 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 저장부, 자기 디스크 저장부 또는 다른 자기 저장 디바이스들, 플래시 메모리, 또는 원하는 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 저장하는데 이용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 커넥션이 컴퓨터 판독가능 매체로 적절히 명명된다. 예를 들어, 동축 케이블, 광섬유 케이블, 꼬임쌍선, 디지털 가입자 라인 (DSL), 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들을 이용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 명령들이 송신된다면, 동축 케이블, 광섬유 케이블, 꼬임쌍선, DSL, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의에 포함된다. 하지만, 컴퓨터 판독가능 저장 매체 및 데이터 저장 매체는 커넥션들, 캐리어파들, 신호들, 또는 다른 일시적 매체를 포함하지 않지만 대신 비-일시적인 유형의 저장 매체로 지향됨을 이해해야 한다. 본 명세서에서 사용된 바와 같은 디스크 (disk) 및 디스크 (disc) 는 컴팩트 디스크 (CD), 레이저 디스크, 광학 디스크, 디지털 다기능 디스크 (DVD), 플로피 디스크 및 블루레이 디스크를 포함하며, 여기서, 디스크 (disk) 는 통상적으로 데이터를 자기적으로 재생하지만 디스크 (disc) 는 레이저들을 이용하여 데이터를 광학적으로 재생한다. 상기의 조합들이 또한, 컴퓨터 판독가능 매체의 범위 내에 포함되어야 한다.
명령들은 하나 이상의 디지털 신호 프로세서들 (DSP들), 범용 마이크로프로세서들, 주문형 집적회로들 (ASIC들), 필드 프로그래밍가능 로직 어레이들 (FPGA들), 또는 다른 등가의 집적된 또는 별도의 로직 회로와 같은 하나 이상의 프로세서들에 의해 실행될 수도 있다. 따라서, 본 명세서에서 사용된 바와 같은 용어 "프로세서" 는 본 명세서에서 설명된 기술들의 구현에 적절한 전술한 구조 또는 임의의 다른 구조 중 임의의 구조를 지칭할 수도 있다. 부가적으로, 일부 양태들에 있어서, 본 명세서에서 설명된 기능은 인코딩 및 디코딩을 위해 구성되고 결합된 코덱에서 통합된 전용 하드웨어 및/또는 소프트웨어 모듈들 내에 제공될 수도 있다. 또한, 그 기술들은 하나 이상의 회로들 또는 로직 엘리먼트들에서 완전히 구현될 수 있다.
본 개시의 기술들은 무선 핸드셋, 집적 회로 (IC) 또는 IC들의 세트 (예를 들어, 칩 세트) 를 포함하여 매우 다양한 디바이스들 또는 장치들에서 구현될 수도 있다. 다양한 컴포넌트들, 모듈들 또는 유닛들이 개시된 기술들을 수행하도록 구성된 디바이스들의 기능적 양태들을 강조하기 위해 본 개시에서 설명되지만, 반드시 상이한 하드웨어 유닛들에 의한 실현을 요구하지는 않는다. 오히려, 상기 설명된 바와 같이, 다양한 유닛들은 적절한 소프트웨어 및/또는 펌웨어와 함께 상기 설명된 바와 같은 하나 이상의 프로세서들을 포함하여 코덱 하드웨어 유닛으로 결합되거나 상호운용식 하드웨어 유닛들의 집합에 의해 제공될 수도 있다.
다양한 예들이 설명되었다. 이들 및 다른 예들은 다음의 청구항들의 범위 내에 있다.

Claims (30)

  1. 비디오 코딩의 방법으로서,
    비디오 데이터의 복원된 블록을 생성하기 위해 스케일러블 비디오 코딩 프로세스에 따라 비디오 데이터의 블록을 코딩하는 단계; 및
    상기 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 상기 비디오 데이터의 복원된 블록으로의 루프 필터의 적용을 제한하는 단계를 포함하는, 비디오 코딩의 방법.
  2. 제 1 항에 있어서,
    상기 비디오 데이터의 블록을 코딩하는 단계는 제약된 인트라-예측 프로세스를 이용하여 베이스 계층에서의 상기 비디오 데이터의 블록을 코딩하는 단계를 포함하며,
    상기 루프 필터는 샘플 적응적 오프셋 (SAO) 필터인, 비디오 코딩의 방법.
  3. 제 2 항에 있어서,
    상기 SAO 필터의 적용을 제한하는 단계는,
    대역 오프셋 SAO 필터링이 적용될 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 단계; 및
    에지 오프셋 SAO 필터링이 적용되고 이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 것을 스킵하는 단계를 포함하는, 비디오 코딩의 방법.
  4. 제 2 항에 있어서,
    상기 SAO 필터의 적용을 제한하는 단계는,
    이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 것을 스킵하는 단계를 포함하는, 비디오 코딩의 방법.
  5. 제 2 항에 있어서,
    상기 SAO 필터의 적용을 제한하는 단계는,
    이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록에 상기 SAO 필터를 적용하는 것을 스킵하는 단계를 포함하는, 비디오 코딩의 방법.
  6. 제 2 항에 있어서,
    상기 SAO 필터의 적용을 제한하는 단계는,
    인트라-코딩되지 않은 이웃 블록으로부터의 픽셀들을 SAO 타입이 이용할 경우에 상기 SAO 타입을 시그널링하지 않는 단계를 포함하는, 비디오 코딩의 방법.
  7. 제 1 항에 있어서,
    상기 스케일러블 비디오 코딩 프로세스는 인터 계층 예측을 포함하고,
    상기 루프 필터는 샘플 적응적 오프셋 (SAO) 필터인, 비디오 코딩의 방법.
  8. 제 7 항에 있어서,
    상기 SAO 필터의 적용을 제한하는 단계는,
    대역 오프셋 SAO 필터링이 적용될 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 단계; 및
    에지 오프셋 SAO 필터링이 적용되고 이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 것을 스킵하는 단계를 포함하는, 비디오 코딩의 방법.
  9. 제 7 항에 있어서,
    상기 SAO 필터의 적용을 제한하는 단계는,
    이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 것을 스킵하는 단계를 포함하는, 비디오 코딩의 방법.
  10. 제 7 항에 있어서,
    상기 SAO 필터의 적용을 제한하는 단계는,
    이웃 블록이 인트라-코딩되지 않은 경우 및 상기 비디오 데이터의 블록이 제약된 인트라-예측 프로세스를 이용하여 코딩된 경우에 상기 비디오 데이터의 복원된 블록에 상기 SAO 필터를 적용하는 것을 스킵하는 단계를 포함하는, 비디오 코딩의 방법.
  11. 제 7 항에 있어서,
    상기 SAO 필터의 적용을 제한하는 단계는,
    인트라-코딩되지 않은 이웃 블록으로부터의 픽셀들을 SAO 타입이 이용할 경우에 상기 SAO 타입을 시그널링하지 않는 단계를 포함하는, 비디오 코딩의 방법.
  12. 제 1 항에 있어서,
    상기 스케일러블 비디오 코딩 프로세스는 인터 계층 예측을 포함하고,
    상기 루프 필터는 적응적 루프 필터 (ALF) 이며,
    상기 ALF 의 적용을 제한하는 단계는 이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록에 부분 ALF 를 적용하는 단계를 포함하는, 비디오 코딩의 방법.
  13. 제 1 항에 있어서,
    상기 비디오 데이터의 블록을 코딩하는 단계는 상기 비디오 데이터의 블록을 디코딩하는 단계를 포함하고,
    상기 비디오 코딩의 방법은,
    비디오 데이터의 복원된 블록을 생성하기 위해 상기 비디오 데이터의 블록을 디코딩하는 단계; 및
    상기 비디오 데이터의 복원된 블록을 루프 필터링하는 단계를 더 포함하는, 비디오 코딩의 방법.
  14. 제 1 항에 있어서,
    상기 비디오 데이터의 블록을 코딩하는 단계는 상기 비디오 데이터의 블록을 인코딩하는 단계를 포함하고,
    상기 비디오 코딩의 방법은,
    비디오 데이터의 인코딩된 블록을 생성하기 위해 상기 비디오 데이터의 블록을 인코딩하는 단계;
    비디오 데이터의 복원된 블록을 생성하기 위해 상기 비디오 데이터의 인코딩된 블록을 디코딩하는 단계; 및
    상기 비디오 데이터의 복원된 블록을 루프 필터링하는 단계를 더 포함하는, 비디오 코딩의 방법.
  15. 비디오 데이터를 코딩하도록 구성된 장치로서,
    비디오 코더를 포함하고,
    상기 비디오 코더는,
    비디오 데이터의 복원된 블록을 생성하기 위해 스케일러블 비디오 코딩 프로세스에 따라 비디오 데이터의 블록을 코딩하고; 그리고
    상기 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 상기 비디오 데이터의 복원된 블록으로의 루프 필터의 적용을 제한하도록
    구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  16. 제 15 항에 있어서,
    상기 비디오 코더는 추가로, 제약된 인트라-예측 프로세스를 이용하여 베이스 계층에서의 상기 비디오 데이터의 블록을 코딩하도록 구성되고,
    상기 루프 필터는 샘플 적응적 오프셋 (SAO) 필터인, 비디오 데이터를 코딩하도록 구성된 장치.
  17. 제 16 항에 있어서,
    상기 비디오 코더는,
    대역 오프셋 SAO 필터링이 적용될 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 것; 및
    에지 오프셋 SAO 필터링이 적용되고 이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 것을 스킵하는 것
    에 의해 상기 SAO 필터의 적용을 제한하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  18. 제 16 항에 있어서,
    상기 비디오 코더는,
    이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 것을 스킵하는 것
    에 의해 상기 SAO 필터의 적용을 제한하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  19. 제 16 항에 있어서,
    상기 비디오 코더는,
    이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록에 상기 SAO 필터를 적용하는 것을 스킵하는 것
    에 의해 상기 SAO 필터의 적용을 제한하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  20. 제 16 항에 있어서,
    상기 비디오 코더는,
    인트라-코딩되지 않은 이웃 블록으로부터의 픽셀들을 SAO 타입이 이용할 경우에 상기 SAO 타입을 시그널링하지 않는 것
    에 의해 상기 SAO 필터의 적용을 제한하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  21. 제 15 항에 있어서,
    상기 스케일러블 비디오 코딩 프로세스는 인터 계층 예측을 포함하고,
    상기 루프 필터는 샘플 적응적 오프셋 (SAO) 필터인, 비디오 데이터를 코딩하도록 구성된 장치.
  22. 제 21 항에 있어서,
    상기 비디오 코더는,
    대역 오프셋 SAO 필터링이 적용될 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 것; 및
    에지 오프셋 SAO 필터링이 적용되고 이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 것을 스킵하는 것
    에 의해 상기 SAO 필터의 적용을 제한하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  23. 제 21 항에 있어서,
    상기 비디오 코더는,
    이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록의 경계 픽셀들에 상기 SAO 필터를 적용하는 것을 스킵하는 것
    에 의해 상기 SAO 필터의 적용을 제한하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  24. 제 21 항에 있어서,
    상기 비디오 코더는,
    이웃 블록이 인트라-코딩되지 않은 경우 및 상기 비디오 데이터의 블록이 제약된 인트라-예측 프로세스를 이용하여 코딩된 경우에 상기 비디오 데이터의 복원된 블록에 상기 SAO 필터를 적용하는 것을 스킵하는 것
    에 의해 상기 SAO 필터의 적용을 제한하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  25. 제 21 항에 있어서,
    상기 비디오 코더는,
    인트라-코딩되지 않은 이웃 블록으로부터의 픽셀들을 SAO 타입이 이용할 경우에 상기 SAO 타입을 시그널링하지 않는 것
    에 의해 상기 SAO 필터의 적용을 제한하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  26. 제 15 항에 있어서,
    상기 스케일러블 비디오 코딩 프로세스는 인터 계층 예측을 포함하고,
    상기 루프 필터는 적응적 루프 필터 (ALF) 이며,
    상기 비디오 코더는, 이웃 블록이 인트라-코딩되지 않은 경우에 상기 비디오 데이터의 복원된 블록에 부분 ALF 를 적용하는 것에 의해 ALF 필터의 적용을 제한하도록 구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  27. 제 15 항에 있어서,
    상기 비디오 코더는 비디오 디코더이고,
    상기 비디오 디코더는 추가로,
    비디오 데이터의 복원된 블록을 생성하기 위해 상기 비디오 데이터의 블록을 디코딩하고; 그리고
    상기 비디오 데이터의 복원된 블록을 루프 필터링하도록
    구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  28. 제 15 항에 있어서,
    상기 비디오 코더는 비디오 인코더이고,
    상기 비디오 인코더는 추가로,
    비디오 데이터의 인코딩된 블록을 생성하기 위해 상기 비디오 데이터의 블록을 인코딩하고;
    비디오 데이터의 복원된 블록을 생성하기 위해 상기 비디오 데이터의 인코딩된 블록을 디코딩하며; 그리고
    상기 비디오 데이터의 복원된 블록을 루프 필터링하도록
    구성되는, 비디오 데이터를 코딩하도록 구성된 장치.
  29. 비디오 데이터를 코딩하도록 구성된 장치로서,
    비디오 데이터의 복원된 블록을 생성하기 위해 스케일러블 비디오 코딩 프로세스에 따라 비디오 데이터의 블록을 코딩하는 수단; 및
    상기 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 상기 비디오 데이터의 복원된 블록으로의 루프 필터의 적용을 제한하는 수단을 포함하는, 비디오 데이터를 코딩하도록 구성된 장치.
  30. 명령들을 저장하는 컴퓨터 판독가능 저장 매체로서,
    상기 명령들은, 실행될 경우, 비디오 데이터를 코딩하도록 구성된 디바이스의 하나 이상의 프로세서들로 하여금
    비디오 데이터의 복원된 블록을 생성하기 위해 스케일러블 비디오 코딩 프로세스에 따라 비디오 데이터의 블록을 코딩하게 하고; 그리고
    상기 스케일러블 비디오 코딩 프로세스의 특성들에 기초하여 상기 비디오 데이터의 복원된 블록으로의 루프 필터의 적용을 제한하게 하는, 컴퓨터 판독가능 저장 매체.
KR1020157016911A 2012-11-26 2013-11-26 비디오 코딩에 있어서 제약된 인트라 블록 경계들에 걸친 루프 필터링 KR20150090172A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261729985P 2012-11-26 2012-11-26
US61/729,985 2012-11-26
US14/089,339 US9596461B2 (en) 2012-11-26 2013-11-25 Loop filtering across constrained intra block boundaries in video coding
US14/089,339 2013-11-25
PCT/US2013/072060 WO2014082088A1 (en) 2012-11-26 2013-11-26 Loop filtering across constrained intra block boundaries in video coding

Publications (1)

Publication Number Publication Date
KR20150090172A true KR20150090172A (ko) 2015-08-05

Family

ID=50773285

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157016911A KR20150090172A (ko) 2012-11-26 2013-11-26 비디오 코딩에 있어서 제약된 인트라 블록 경계들에 걸친 루프 필터링

Country Status (5)

Country Link
US (1) US9596461B2 (ko)
EP (1) EP2923489A1 (ko)
KR (1) KR20150090172A (ko)
CN (1) CN104813661A (ko)
WO (1) WO2014082088A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020256521A1 (ko) * 2019-06-21 2020-12-24 삼성전자주식회사 제한된 예측 모드에서 복원후 필터링을 수행하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2509563A (en) * 2013-01-04 2014-07-09 Canon Kk Encoding or decoding a scalable video sequence using inferred SAO parameters
GB2509707B (en) * 2013-01-04 2016-03-16 Canon Kk A method, device, computer program, and information storage means for encoding or decoding a video sequence
KR20150029592A (ko) * 2013-09-10 2015-03-18 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
MX359902B (es) * 2013-10-22 2018-10-16 Kt Corp Metodo y dispositivo para codificar/descodificar una señal de video de multicapa.
CN105659597B (zh) * 2013-10-22 2020-01-07 株式会社Kt 用于对多层视频信号进行编码/解码的方法和装置
WO2015064989A1 (ko) * 2013-10-29 2015-05-07 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
WO2015101329A1 (en) * 2014-01-02 2015-07-09 Mediatek Singapore Pte. Ltd. Method and apparatus for intra prediction coding with boundary filtering control
US10038919B2 (en) 2014-05-29 2018-07-31 Apple Inc. In loop chroma deblocking filter
US10136141B2 (en) 2014-06-11 2018-11-20 Qualcomm Incorporated Determining quantization parameter (QP) values and delta QP values for palette coded blocks in video coding
US9924175B2 (en) 2014-06-11 2018-03-20 Qualcomm Incorporated Determining application of deblocking filtering to palette coded blocks in video coding
EP2996269A1 (en) 2014-09-09 2016-03-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio splicing concept
CN107211161B (zh) * 2015-03-10 2020-05-15 苹果公司 包括最后阶段处理的扩展空间的视频编码优化
KR102423880B1 (ko) * 2015-10-06 2022-07-21 삼성전자주식회사 인코더의 작동방법과 상기 인코더를 포함하는 시스템 온 칩의 작동 방법
US10419755B2 (en) * 2016-05-16 2019-09-17 Qualcomm Incorporated Confusion of multiple filters in adaptive loop filtering in video coding
US10555006B2 (en) 2016-12-22 2020-02-04 Qualcomm Incorporated Deriving bilateral filter information based on a prediction mode in video coding
US20180184127A1 (en) * 2016-12-22 2018-06-28 Qualcomm Incorporated Determining neighboring samples for bilateral filtering in video coding
WO2018134362A1 (en) * 2017-01-19 2018-07-26 Telefonaktiebolaget Lm Ericsson (Publ) Filter apparatus and methods
CN110495168B (zh) * 2017-04-06 2021-12-07 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法及解码方法
US11457239B2 (en) 2017-11-09 2022-09-27 Google Llc Block artefact reduction
EP3750320B1 (en) * 2018-02-09 2023-11-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Adaptive in-loop filter with multiple feature-based classifications
GB2586095B (en) * 2018-03-22 2023-03-01 Mediatek Inc Sample adaptive offset filtering method for reconstructed projection-based frame that employs projection layout of 360-degree virtual reality projection
US11044473B2 (en) * 2018-12-21 2021-06-22 Qualcomm Incorporated Adaptive loop filtering classification in video coding
WO2020185890A1 (en) * 2019-03-11 2020-09-17 Futurewei Technologies, Inc. Tile level filtering in video coding
WO2020249124A1 (en) 2019-06-14 2020-12-17 Beijing Bytedance Network Technology Co., Ltd. Handling video unit boundaries and virtual boundaries based on color format
EP3981150A4 (en) * 2019-07-09 2022-08-03 Beijing Bytedance Network Technology Co., Ltd. SAMPLE DETERMINATION FOR ADAPTIVE LOOP FILTERING
AU2020309130B2 (en) 2019-07-11 2023-06-08 Beijing Bytedance Network Technology Co., Ltd. Sample padding in adaptive loop filtering
JP7361196B2 (ja) 2019-07-15 2023-10-13 北京字節跳動網絡技術有限公司 適応ループ・フィルタリングにおける分類
US11533491B2 (en) * 2019-08-28 2022-12-20 Qualcomm Incorporated Picture and sub-picture boundary processing for combined bilateral filter and Hadamard transform domain filter as in-loop filters
EP4018652A4 (en) * 2019-09-22 2022-11-02 Beijing Bytedance Network Technology Co., Ltd. FILLING METHOD IN AN ADAPTIVE LOOP FILTER
KR20220063177A (ko) 2019-09-27 2022-05-17 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 상이한 비디오 유닛들 간의 적응적 루프 필터링
JP7454042B2 (ja) * 2019-10-10 2024-03-21 北京字節跳動網絡技術有限公司 適応ループ・フィルタリングにおける利用可能でないサンプル位置でのパディング・プロセス

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8204129B2 (en) 2007-03-27 2012-06-19 Freescale Semiconductor, Inc. Simplified deblock filtering for reduced memory access and computational complexity
US8611435B2 (en) * 2008-12-22 2013-12-17 Qualcomm, Incorporated Combined scheme for interpolation filtering, in-loop filtering and post-loop filtering in video coding
KR20110123651A (ko) 2010-05-07 2011-11-15 한국전자통신연구원 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
US9055305B2 (en) * 2011-01-09 2015-06-09 Mediatek Inc. Apparatus and method of sample adaptive offset for video coding
WO2012150849A2 (ko) * 2011-05-04 2012-11-08 한국전자통신연구원 에러에 강인한 인-루프 필터를 이용하는 영상 부호화/복호화 방법과 그에 관한 시그널링 방법
US20130322523A1 (en) 2011-05-10 2013-12-05 Mediatek Inc. Method and apparatus for reduction of in-loop filter buffer
WO2013006310A1 (en) 2011-07-01 2013-01-10 Vidyo, Inc. Loop filter techniques for cross-layer prediction
US9641866B2 (en) 2011-08-18 2017-05-02 Qualcomm Incorporated Applying partition-based filters
US9456212B2 (en) 2011-09-30 2016-09-27 Broadcom Corporation Video coding sub-block sizing based on infrastructure capabilities and current conditions
JP2013165340A (ja) 2012-02-09 2013-08-22 Sony Corp 画像処理装置と画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020256521A1 (ko) * 2019-06-21 2020-12-24 삼성전자주식회사 제한된 예측 모드에서 복원후 필터링을 수행하는 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치

Also Published As

Publication number Publication date
US20140146875A1 (en) 2014-05-29
CN104813661A (zh) 2015-07-29
EP2923489A1 (en) 2015-09-30
US9596461B2 (en) 2017-03-14
WO2014082088A1 (en) 2014-05-30

Similar Documents

Publication Publication Date Title
US10873762B2 (en) Non-separable secondary transform for video coding
US9596461B2 (en) Loop filtering across constrained intra block boundaries in video coding
US9807403B2 (en) Adaptive loop filtering for chroma components
KR101607788B1 (ko) 비디오 코딩에서 슬라이스 경계들 또는 타일 경계들 주위의 루프 필터링
JP5922244B2 (ja) ビデオコーディングにおいて適応ループフィルタとマージされたサンプル適応オフセット
KR101547745B1 (ko) 모션 벡터 예측
KR101536540B1 (ko) 비디오 코딩을 위한 병렬화 친화적인 병합 후보들
US9787982B2 (en) Non-square transform units and prediction units in video coding
KR101641808B1 (ko) 비디오 코딩에서 적응 루프 필터 및 샘플 적응 오프셋에 대한 최대 코딩 유닛 (lcu) 또는 파티션-기반 신택스
US20130083844A1 (en) Coefficient coding for sample adaptive offset and adaptive loop filter
US20140198855A1 (en) Square block prediction
KR20170016994A (ko) 일원화된 병합 모드 및 적응적 모션 벡터 예측 모드 후보 선택
JP2014516217A (ja) サンプル適応オフセットのためのオフセットタイプおよび係数シグナリング方法

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination