KR102068431B1 - 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치 - Google Patents

영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치 Download PDF

Info

Publication number
KR102068431B1
KR102068431B1 KR1020187032998A KR20187032998A KR102068431B1 KR 102068431 B1 KR102068431 B1 KR 102068431B1 KR 1020187032998 A KR1020187032998 A KR 1020187032998A KR 20187032998 A KR20187032998 A KR 20187032998A KR 102068431 B1 KR102068431 B1 KR 102068431B1
Authority
KR
South Korea
Prior art keywords
sao
component
chroma component
filtering
components
Prior art date
Application number
KR1020187032998A
Other languages
English (en)
Other versions
KR20180125051A (ko
Inventor
기욤 라로슈
크리스또프 지스께
에두아르 프랑수와
빠트리스 온노
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20180125051A publication Critical patent/KR20180125051A/ko
Application granted granted Critical
Publication of KR102068431B1 publication Critical patent/KR102068431B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment

Abstract

본 발명은 복수의 샘플들을 포함하는 영상의 적어도 일부를 코딩 및 디코딩하는 방법 및 장치를 제공하고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함한다. 필터링은 적어도 하나의 필터링 파라미터를 구성된 샘플의 제1 성분 및 제2 성분 둘 다를 필터링하기 위한 공통 필터링 파라미터로서 사용하는 것을 포함한다.

Description

영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치{METHOD AND DEVICE FOR OPTIMIZING ENCODING/DECODING OF COMPENSATION OFFSETS FOR A SET OF RECONSTRUCTED SAMPLES OF AN IMAGE}
본 발명은 비디오 코덱의 코딩 효율 및/또는 디코딩 복잡도를 향상시키기 위해 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩 및/또는 디코딩을 최적화하는 방법 및 장치에 관한 것이다. 본 발명은 또한 디지털 영상 시퀀스를 인코딩 또는 디코딩하는 방법 및 장치에 관한 것이다.
본 발명은 디지털 신호 처리의 분야에서 그리고 특히 비디오 스트림에서 공간 및 시간 중복성을 감소시키기 위해 움직임 보상을 사용하는 비디오 압축의 분야에서 적용될 수 있다.
예를 들어, H.263, H.264, MPEG-1, MPEG-2, MPEG-4, SVC 등의 많은 비디오 압축 형식들은 공간 및 시간 중복성을 제거하기 위해 블록 기반 DCT(discrete cosine transform) 및 움직임 보상을 사용한다. 이들은 종종 예측 비디오 형식(predictive video format)이라고 한다. 비디오 신호의 각각의 프레임 또는 영상은 독립적으로 인코딩되고 디코딩될 수 있는 슬라이스들로 나누어진다. 슬라이스는 통상적으로 프레임의 직사각형 부분, 또는 보다 일반적으로, 프레임 또는 전체 프레임의 일부분이다. 게다가, 각각의 슬라이스는 매크로블록들(macroblock, MB)로 나누어질 수 있고, 각각의 매크로블록은 블록들(통상적으로, 64x64, 32x32, 16x16 또는 8x8 픽셀의 블록들)로 추가로 나누어진다.
HEVC(High Efficiency Video Coding)에서, 64x64 내지 4x4의 블록들이 사용될 수 있다. 이 분할은 LCU(largest coding unit,, 최대 코딩 단위)에 기초한 쿼드-트리 구조(quad-tree structure)에 따라 구성되어 있다. LCU는, 예를 들어, 64x64의 정사각형 블록에 대응한다. LCU가 나누어질 필요가 있는 경우, 분할 플래그(split flag)는 LCU가 4개의 32x32 블록들로 분할되어 있다는 것을 나타낸다. 동일한 방식으로, 이 4개의 블록들 중 임의의 것이 분할될 필요가 있는 경우, 분할 플래그는 참(true)으로 설정되고, 32x32 블록이 4개의 16x16 블록들로 나누어지며, 이하 마찬가지이다. 분할 플래그가 거짓(false)으로 설정되어 있을 때, 현재의 블록이 CU(coding unit, 코딩 단위)이다. CU는 64x64, 32x32, 16x16 또는 8x8 픽셀의 크기를 가진다.
영상의 블록들을 코딩하는 2가지 계열의 코딩 모드 - 공간 예측에 기초한 코딩 모드[인트라 예측(INTRA prediction)이라고 함], 및 시간 예측에 기초한 코딩 모드[인터(INTER), 병합(Merge), 건너뜀(Skip)] - 가 있다. 공간 예측 모드 및 시간 예측 모드 둘 다에서, 잔차는 원래의 블록으로부터 예측을 차감함으로써 계산된다.
인트라 블록(INTRA block)은 일반적으로 인트라 예측 프로세스에 의해 그의 인과 경계(causal boundary)에서의 인코딩된 픽셀로부터 예측된다. 인트라 예측에서, 예측 방향이 인코딩된다.
시간 예측은, 비디오 시퀀스의 이전 또는 장래 프레임(previous or a future frame)인 참조 프레임(reference frame)에서, 인코딩될 블록에 가장 가까운 영상 부분(image portion) 또는 참조 영역(reference area)을 찾아내는 데 있다. 이 단계는 통상적으로 움직임 추정(motion estimation)이라고 한다. 그 다음에, 통상적으로 움직임 보상(motion compensation)이라고 하는 단계에서 참조 영역을 사용하여 인코딩될 블록이 예측된다 - 인코딩될 블록과 참조 부분 사이의 차가, 움직임 보상을 위해 사용할 참조 영역을 나타내는 움직임 벡터에 대한 움직임 정보의 항목과 함께, 인코딩된다 -. 시간 예측에서, 적어도 하나의 움직임 벡터가 인코딩된다.
움직임 정보를 인코딩하는 비용을 추가로 감소시키기 위해, 움직임 벡터를 직접 인코딩하기보다는, 움직임이 균질(homogeneous)하다고 가정하여, 통상적으로 인코딩될 블록을 둘러싸고 있는 블록들의 하나 이상의 움직임 벡터들로부터 계산되는 움직임 벡터와 움직임 벡터 예측자 간의 차로 움직임 벡터가 인코딩될 수 있다.
H.264에서, 예를 들어, 움직임 벡터들이 인코딩될 블록의 인과 이웃(causal neighbourhood)에 위치해 있는 움직임 벡터들로부터, 예를 들어, 인코딩될 블록의 위쪽에 그리고 좌측에 위치해 있는 3개의 블록들로부터, 계산되는 중간 예측자(median predictor)에 대해 인코딩된다. 인코딩 비용을 감소시키기 위해, 중간 예측자와 현재 블록 움직임 벡터 간의 차[잔차 움직임 벡터(residual motion vector)라고 함]만이 비트스트림에 인코딩된다.
잔차 움직임 벡터를 사용한 인코딩은 얼마간의 비트레이트를 절감하지만, 디코딩될 블록의 움직임 벡터의 값을 디코딩하기 위해 디코더가 움직임 벡터 예측자의 동일한 계산을 수행하는 것을 필요로 한다.
인코딩 프로세스 및 디코딩 프로세스 둘 다는 인코딩된 영상의 디코딩 프로세스를 포함할 수 있다. 이 프로세스는 통상적으로 장래 움직임 추정을 위해 인코더측에서 수행되고, 이는 인코더 및 대응하는 디코더가 동일한 참조 프레임을 가질 수 있게 해준다.
코딩된 프레임을 재구성하기 위해, 픽셀 영역에서 "디코딩된" 잔차를 제공하기 위해 잔차가 역양자화 및 역변환된다. 제1 재구성은 이어서 하나의 또는 몇개의 종류의 사후 필터링(post filtering) 프로세스에 의해 필터링된다. 동일한 참조 프레임이 인코더측 및 디코더측 둘 다에서 사용되도록, 이들 사후 필터(post filter)가 인코더측 및 디코더측에서 재구성된 프레임에 적용된다. 이 사후 필터링의 목표는 압축 아티팩트를 제거하고 영상 품질을 향상시키는 것이다. 예를 들어, H.264/AVC는 디블록킹 필터(deblocking filter)를 사용한다. 이 필터는 잔차의 DCT 양자화 및 블록 움직임 보상으로 인한 블록킹 아티팩트(blocking artifact)를 제거할 수 있다. 현재의 HEVC 표준에서, 3가지 유형의 루프 필터 - 디블록킹 필터, SAO(sample adaptive offset, 샘플 적응적 오프셋), 및 ALF(adaptive loop filter, 적응적 루프 필터) - 가 사용되고 있다.
도 1은 공지된 HEVC 구현예의 루프 필터링 프로세스의 단계들을 나타낸 플로우차트이다. 초기 단계(101)에서, 인코더 또는 디코더는 전체 프레임의 재구성을 발생한다. 그 다음에, 단계(102)에서, 디블록킹된 재구성(103)을 발생시키기 위해 이 제1 재구성에 디블록킹 필터가 적용된다. 디블록킹 필터의 목표는 잔차 양자화 및 블록 움직임 보상 또는 블록 인트라 예측에 의해 발생된 블록 아티팩트를 제거하는 것이다. 이들 아티팩트는 낮은 비트레이트에서 시각적으로 중요하다. 디블록킹 필터는 2개의 이웃하는 블록들의 특성에 따라 블록 경계를 매끄럽게 하는 동작을 한다. 각각의 블록의 인코딩 모드, 잔차 코딩을 위해 사용되는 양자화 파라미터들, 및 경계에서의 이웃 픽셀 차가 고려된다. 모든 프레임들에 대해 동일한 기준/분류가 적용되고, 어떤 부가의 데이터도 전송되지 않는다. 디블록킹 필터는, 블록킹 아티팩트를 제거함으로써, 현재 프레임의 시각적 품질을 향상시키고, 또한 후속 프레임들에 대한 움직임 추정 및 움직임 보상을 향상시킨다. 실제로, 블록 아티팩트의 고주파수가 제거되고, 따라서 후속 프레임들의 텍스처 잔차(texture residual)에 대해 이들 고주파수가 보상될 필요가 없다.
디블록킹 필터 후에, 디블록킹된 재구성이 단계(104)에서 SAO(sample adaptive offset) 루프 필터에 의해 필터링된다. 얻어진 프레임(105)은 이어서 디스플레이되고 후속 인터 프레임들에 대한 참조 프레임으로서 사용될 재구성된 프레임(107)을 발생시키기 위해 단계(106)에서 ALF(adaptive loop filter)에 의해 필터링된다.
SAO 루프 필터 및 ALF의 목표는 어떤 정보도 전송되지 않는 디블록킹 필터와 달리 부가의 데이터를 송신함으로써 프레임 재구성을 향상시키는 것이다.
SAO 루프 필터의 원리는 각각의 픽셀을 클래스로 분류하고 클래스의 각각의 픽셀의 각자의 픽셀 값에 동일한 오프셋 값을 부가하는 것이다. 이와 같이, 각각의 클래스에 대해 하나의 오프셋이 전송된다. SAO 루프 필터링은 프레임 영역에 대한 2가지 종류의 분류 - 에지 오프셋(edge offset) 및 대역 오프셋(band offset) - 를 제공한다. 에지 오프셋 분류는 각각의 픽셀의 대응하는 픽셀 값을 2개의 이웃 픽셀의 픽셀 값과 비교함으로써 각각의 픽셀에 대한 클래스를 결정하는 것을 수반한다. 더욱이, 2개의 이웃 픽셀은 2개의 이웃 픽셀의 방향을 나타내는 파라미터에 의존한다. 이들 방향은 0도(수평 방향), 45도(대각 방향), 90도(수직 방향), 및 135도(제2 대각 방향)이다. 사용될 방향은 현재 HEVC 규격에서 sao_type_idx라고 하는 SAO 파라미터에 의해 주어진다. 그의 값은, 부록의 표 1에 나타낸 바와 같이, 통상적으로 0부터 5까지 변한다. sao_type_idx는 또한 SAO 필터링이 수행되어야 하는지 여부 및 SAO 필터링의 유형을 나타내는 데 사용된다.
예시를 위해, 픽셀 값(또는 샘플) C에 가산될 오프셋은, 주어진 방향에 대해, 부록의 표 2에 나타낸 바와 같은 규칙들에 따라 결정될 수 있고, 여기서 Cn1 및 Cn2는 (주어진 방향에 따라) 2개의 이웃하는 픽셀 또는 샘플의 값을 나타낸다. 그에 따라, 값 C가 2개의 값 Cn1 및 Cn2 미만일 때, C에 가산될 오프셋은 +O1이고, 값 C가 Cn1 또는 Cn2 미만이고 다른 값(Cn1 또는 Cn2)과 같을 때, 사용될 오프셋은 +O2이며, 값 C가 Cn1 또는 Cn2 초과이고 다른 값(Cn1 또는 Cn2)과 같을 때, 사용될 오프셋은 -O3이고, 값 C가 Cn1 및 Cn2 초과일 때, 사용될 오프셋은 -O4이다. 이들 조건 중 어느 것도 충족되지 않을 때, 어떤 오프셋 값도 현재 픽셀 값 C에 가산되지 않는다.
유의할 점은, 에지 오프셋 모드에 따르면, 각각의 오프셋의 절대값만이 비트스트림에 인코딩되고, 적용될 부호가 현재 픽셀이 속하는 카테고리의 함수로서 결정된다는 것이다. 따라서, 부록의 표 2에 따르면, 플러스 오프셋은 카테고리 1 및 2와 연관되어 있는 반면, 마이너스 오프셋은 카테고리 3 및 4와 연관되어 있다.
제2 유형의 분류는 픽셀 값에 의존하는 대역 오프셋 분류이다. SAO 대역 오프셋에서의 클래스는 픽셀 값 범위에 대응한다. 이와 같이, 동일한 오프셋이 주어진 픽셀 값 범위 내의 픽셀 값을 가지는 모든 픽셀들에 가산된다.
프레임 콘텐츠에 보다 적응적이기 위해, 현재 프레임을 몇개의 공간 영역들로 나누는 몇개의 프레임 영역들에 SAO 필터링이 적용된다. 현재, HEVC에서 프레임 영역들은 유한한 수의 최대 코딩 단위에 대응한다. 그 결과, 하나의 프레임 영역이 SAO에 의해 필터링될 수 있거나 그렇지 않을 수 있고, 따라서 어떤 프레임 영역들만이 필터링된다. 더욱이, SAO가 인에이블되어 있을 때, 단지 하나의 SAO 분류가 사용된다: 각각의 분류에 대해 전송되는 관련 파라미터들에 따라 에지 오프셋 또는 대역 오프셋. 마지막으로, 각각의 SAO 리프 노드에 대해, SAO 분류는 물론 그의 파라미터 및 모든 클래스의 오프셋이 전송된다.
인코딩될 비디오 데이터의 영상이 샘플 값들의 2차원 어레이(색상 채널이라고도 함) 세트로서 제공될 수 있고, 그의 각각의 항목은 루미넌스 세기(luminance intensity) 및 중성 그레이스케일 색상(neutral grayscale colour)으로부터 청색 또는 적색 쪽으로의 크로미넌스 세기(chrominance intensity)의 척도(YUV) 또는 적색, 녹색 또는 청색 광 성분 세기의 척도(RGB) 등의 색상 성분의 세기(intensity)를 나타낸다. YUV 모델은 하나의 루마(Y) 성분 및 2개의 크로미넌스(chrominance)(UV) 성분으로 색 공간을 정의한다. 일반적으로, Y는 루미넌스 성분을 나타내고, U 및 V는 크로미넌스(색상) 또는 크로마 성분이다.
SAO 필터링이 통상적으로 루마 성분에 그리고 U 및 V 크로마 성분 둘 다에 독립적으로 적용된다.
SAO 대역 오프셋의 공지된 구현은 픽셀 값 범위를 도 2에 도시된 것과 동일한 크기의 사전 정의된 32개의 범위로 분할한다. 픽셀 값 범위의 최소값은 0이고, 최대값은 다음과 같은 관계식 Max = 2Bitdepth - 1에 따라 픽셀 값들의 비트 심도(bit-depth)에 의존한다.
전체 픽셀 값 범위를 32개의 범위로 분할하는 것은 각각의 픽셀을 분류하는 데 5 비트를 사용할 수 있게 하고, 고속 분류를 가능하게 한다. 그에 따라, 픽셀을 전체 범위의 32개의 클래스들 또는 범위들 중 하나로 분류하기 위해 단지 5 비트만이 검사된다. 이것은 일반적으로 8 비트로 인코딩된 값들의 최상위 5 비트를 검사하는 것에 의해 행해진다.
예를 들어, 비트 심도가 8 비트일 때, 픽셀의 가능한 최대값은 255이다. 이와 같이, 픽셀 값 범위는 0과 255 사이이다. 이 8 비트의 비트 심도에 대해, 각각의 클래스는 8개 픽셀 값으로 된 범위를 포함한다.
SAO 대역 필터링의 목표는 제1 클래스 또는 대역에 의해 결정되는 4개의 연속적인 클래스들 또는 범위들로 된 그룹에 속하는 픽셀들을 필터링하는 것이다. 후자가 비트스트림에서 전송되고, 따라서 디코더가 필터링될 픽셀들의 4개의 연속적인 클래스들 또는 범위들을 결정할 수 있다. 이 위치를 나타내는 파라미터는 현재 HEVC 규격에서 sao_band_position로 지칭된다.
예시를 위해, 필터링될 픽셀들의 4개의 연속적인 클래스들 또는 범위들(201 내지 204)로 된 그룹이 도 2에서 회색 영역으로 나타내어져 있다. 앞서 기술한 바와 같이, 이 그룹은 그의 위치(예컨대, sao_band_position)에 의해 식별될 수 있다. 주어진 예에 따르면, 클래스 또는 범위(201)는 64와 71 사이에 포함되는 값들을 가지는 픽셀들에 관한 것이다. 이와 유사하게, 클래스들 또는 범위들(202 내지 204)은, 각각, 72와 79 사이, 80과 87 사이, 그리고 88과 96 사이의 값들을 가지는 픽셀들에 관한 것이다.
도 3은 인코더에서 현재 프레임 영역(303)(통상적으로 처리된 영상의 한 성분에 대응하는 LCU 블록)에 대한 오프셋들을 선택하는 방법의 단계들을 나타낸 플로우차트이다. 프레임 영역은 N개의 픽셀을 포함하고 있다. 초기 단계(301)에서, 변수 Sumj 및 SumNbPixj는 4개의 범위 각각에 대해 0의 값으로 설정되고, j는 현재 범위 또는 클래스 번호를 나타낸다. Sumj는 범위 j에서의 픽셀들의 값과 그의 대응하는 원래의 픽셀들의 값 사이의 차의 합이다. SumNbPixj는 범위 j 내의 픽셀들의 수를 나타낸다.
단계(302)에서, 카운터 변수 i는 값 0으로 설정된다. 그 다음에, 단계(304)에서 프레임 영역(303)의 제1 픽셀 Pi가 추출되고, 단계(305)에서 현재 픽셀 Pi에 대응하는 클래스 번호 J가 획득된다. 그 다음에, 단계(306)에서 부록의 표 2를 참조하여 앞서 기술한 바와 같이 현재 픽셀 Pi의 클래스 번호 J가 값 "해당 없음"에 대응하는지를 판정하기 위해 테스트가 수행된다. 현재 픽셀 Pi의 클래스 번호 J가 값 "해당 없음"에 대응하는 경우, 프레임 영역(303)의 후속 픽셀들을 분류하기 위해 카운터 변수 i의 값이 1만큼 증가된다. 그렇지 않고, 현재 픽셀 Pi의 클래스 번호 J가 값 "해당 없음"에 대응하지 않는 경우, 현재 픽셀 Pi에 대응하는 SumNbPixj 변수가 1만큼 증가되고, 단계(307)에서 Pi와 그의 원래의 값
Figure 112018113188612-pat00001
사이의 차가 Sumj에 가산된다.
그 다음 단계에서, 프레임 영역(303)의 다른 픽셀들에 분류를 적용하기 위해 카운터 변수 i가 1만큼 증가된다. 단계(309)에서, 프레임 영역(303)의 N개의 픽셀들 모두가 분류되었는지(즉, i≥N인지) 여부가 판정되고, 예인 경우, 오프셋 선택 알고리즘의 최종 결과로서 각각의 클래스 j에 대한 오프셋을 제공하는 오프셋 테이블(311)을 생성하기 위해 단계(310)에서 각각의 클래스에 대한 Offsetj가 계산된다. 이 오프셋은 클래스 j의 픽셀의 픽셀 값과 그 각자의 원래의 픽셀 값 사이의 차의 평균으로서 계산된다. 클래스 j에 대한 Offsetj는 이하의 식에 의해 주어진다:
Figure 112018113188612-pat00002
계산된 오프셋 Offsetj는 왜곡의 면에서 최적의 오프셋인 것으로 간주될 수 있다. 최적의 오프셋은 이하에서 Ooptj라고 한다. 이 오프셋으로부터, 레이트 왜곡 기준에 따라 개선된 오프셋 값 O_RDj를 결정하는 것이 가능하다.
도 4는 레이트 왜곡 기준에 따라 개선된 오프셋을 결정하는 방법의 단계들을 나타낸 플로우차트이다. 초기 단계(401)에서, 현재 범위 또는 클래스 번호 j의 레이트 왜곡 값 Jj가 사전 결정된 최대 가능 값(maximum possible value)(MAX_VALUE)으로 초기화된다.
그 다음에, 단계(402)에서 오프셋 Oj를 Ooptj로부터 0으로 변화시키기 위해 루프가 시작된다. 값 Ooptj가 마이너스인 경우, 변수 Oj는 0에 도달할 때까지 1만큼 증가되고, 값 Ooptj가 플러스인 경우, 변수 Oj는 0에 도달할 때까지 1만큼 감소된다.
단계(403)에서, 변수 Οj에 관련된 레이트 왜곡 비용[J(Oj)로 표시됨]이, 예를 들어, 이하의 식에 따라 계산된다:
J(Oj) = SumNbPixj x Oj x Oj - Sumj x Oj X 2 + λR(Oj)
λ는 Lagrange 파라미터이고, R(Oj)는 Oj와 연관되어 있는 코드워드에 대해 필요한 비트 수를 제공하는 함수이다. SumNbPixj x Oj x Oj - Sumj x Oj x 2에 대응하는 식의 일부는 오프셋 Oj에 의해 주어지는 왜곡의 면에서의 향상에 관한 것이다.
단계(404)에서, 값들 J(Oj) 및 Jj가 서로 비교된다. 값 J(Oj)이 값 Jj 미만인 경우, Jj는 J(Oj)의 값으로 설정되고 O_RDj는 Oj의 값으로 설정된다.
단계(405)에서, 오프셋 Oj의 가능한 값들 모두가 처리되었는지(즉, Oj = 0인지) 여부가 판정된다. 오프셋 Oj가 0인 경우, 루프가 종료되고, 클래스 j에 대한 개선된 오프셋 값(O_RDj)이 식별된다. 그렇지 않은 경우, 루프는 그 다음 Oj 값으로 계속된다.
유의할 점은, 도 3을 참조하여 기술된 알고리즘이 대역 오프셋 분류 유형에 따라 제1 클래스 또는 범위의 위치(sao_band_position)를 결정하는 데 사용될 수 있다는 것이다. 그를 위해, 인덱스 j는 ([1 , 4] 대신에) 구간 [0, 32]의 값을 나타낸다. 환언하면, 값 4는 도 3의 모듈들(301, 310, 및 311)에서 값 32로 대체된다.
보다 구체적으로는, t도 2에 나타낸 32개의 클래스 각각에 대해, 즉 각각의 범위 j(j는 구간 [0, 32]에 속함)에 대해, 현재 픽셀의 값과 그의 원래의 값 Porgi 사이의 차 Sum}가 계산될 수 있다.
그 다음에, 도 4를 참조하여 기술된 것과 유사한 알고리즘에 따라 32개의 클래스에 대해 레이트 왜곡의 면에서 개선된 오프셋 O_RDj가 계산된다.
그 다음에, 제1 클래스 또는 범위의 위치가 결정될 수 있다.
도 5는 HEVC의 SAO 대역 오프셋에 대한 SAO 대역 위치를 결정하는 방법의 단계들을 나타낸 플로우차트이다. 이들 단계가 도 4를 참조하여 기술된 단계들 이후에 수행되기 때문에, Jj로 표시된 레이트 왜곡 값이 각각의 클래스 j에 대해 이미 계산되었다.
초기 단계(501)에서, 레이트 왜곡 값 J가 사전 결정된 최대 가능 값(MAX_VALUE)으로 초기화된다. 그 다음에, 인덱스 i를 4개의 연속적인 클래스들로 된 그룹의 제1 클래스의 28개의 가능한 위치들에 대응하는 0부터 27까자 변화시키기 위해 단계(502)에서 루프가 시작된다.
단계(503)에서, 현재 대역, 즉 인덱스 i를 가지는 클래스로부터 4개의 연속적인 클래스를 포함하는 대역의 레이트 왜곡 값에 대응하는 변수 J'j가 0으로 초기화된다. 그 다음에, 인덱스 j를 현재 대역의 4개의 클래스에 대응하는 i부터 i+3까지 변화시키기 위해 단계(504)에서 루프가 시작된다.
그 다음에, 단계(505)에서, 변수 J?의 값이 인덱스 j를 가지는 클래스의 레이트 왜곡 값(Jj)의 값만큼 증가된다. 현재 대역의 4개의 클래스에 대해, 즉 인덱스 j가 i+3에 도달할 때까지, 이 단계가 반복된다[단계(506)]. 단계(507)에서, 현재 대역의 레이트 왜곡 값 J'j가 레이트 왜곡 값 J 미만인지 여부를 판정하기 위해 테스트가 수행된다. 현재 대역의 레이트 왜곡 값 J'j가 레이트 왜곡 값 J 미만인 경우, 레이트 왜곡 값 J가 현재 대역의 레이트 왜곡 값 J'j로 설정되고, sao_band_position로 표시되는 대역 위치 값이 인덱스 i의 값으로 설정된다.
사용될 대역 위치를 결정하기 위해 4개의 연속적인 클래스로 된 그룹의 제1 클래스의 28개의 가능한 위치들에 대해 이들 단계가 반복된다[단계(508)].
도 6은 SAO 루프 필터에 따라, 프레임 영역(통상적으로 처리된 영상의 하나의 성분에 대응하는 LCU 블록)을 필터링하는 방법의 단계들을 나타낸 플로우차트이다.
이러한 알고리즘은 일반적으로 디코더에서 프레임들을 디코딩하기 위해 그리고 인코더에서 후속 프레임들의 움직임 추정 및 보상을 위해 사용되는 참조 프레임들을 발생하기 위해 구현된다.
초기 단계(601)에서, SAO 필터링 파라미터들이, 예를 들어, 수신된 비트스트림으로부터 획득된다. 주어진 프레임 영역에 대해, 이들 파라미터는 통상적으로 테이블(603)에 저장될 수 있는 4개의 오프셋 및 sao_type_idx의 파라미터를 포함한다. 후자에 따라, 이들 파라미터는 SAO 대역 위치를 추가로 포함할 수 있다. 예시를 위해, 획득된 sao_type_idx 유형 파라미터가 5인 경우, 대응하는 sao_band_position 유형 파라미터가 이어서 획득된다(602). 주어진 프레임 영역의 SAO 파라미터의 값을 이전 프레임 영역의 대응하는 파라미터의 값의 함수로서 결정할 수 있게 하는 파라미터들과 같은 기타 파라미터들이 획득될 수 있다. 유의할 점은, sao_type_idx 파라미터에 대한 값 0 등의 주어진 SAO 파라미터의 주어진 값이 SAO 필터링이 적용되어서는 안된다는 것을 나타낼 수 있다는 것이다.
단계(604)에서, 카운터 변수 i는 값 0으로 설정된다. 그 다음에, N개의 픽셀을 포함하는 프레임 영역(605)의 제1 픽셀 Pi가 단계(606)에서 추출되고, 단계(607)에서 에지 오프셋 분류 또는 대역 오프셋 분류에 따라 분류되고, 이에 대해서는 앞서 기술하였다.
단계(608)에서, 픽셀 Pi가 필터링될 픽셀 클래스에 속하는지 여부를 판정하기 위해 테스트가 수행된다. 픽셀 Pi가 필터링될 픽셀 클래스에 속하는 경우, 그의 관련 클래스 번호 j가 식별되고, 단계(610)에서 그의 관련 오프셋 값 Offsetj가 오프셋 테이블(603)로부터 추출된다. 그 다음에, 단계(611)에서, P'i라고 하는 새로운 픽셀 값을 생성하기 위해 Offsetj가 픽셀 Pi의 값에 가산된다(612). 단계(613)에서, 픽셀 P'i가 처리된 프레임 영역(616) 내의 픽셀 Pi를 대체한다. 그렇지 않고, 픽셀 Pi가 필터링될 픽셀 클래스에 속하지 않는 경우, 단계(613)에서 픽셀 Pi(609)가 프레임 영역에 그대로 있다.
그 다음에, 픽셀 Pi를 처리한 후에, 현재 프레임 영역(605)의 그 다음 픽셀에 대해 유사하게 필터를 적용하기 위해 단계(614)에서 카운터 변수 i가 1만큼 증가된다.
단계(615)에서, 현재 프레임 영역(605)의 N개의 픽셀들 모두가 처리되었는지(즉, i≥N인지) 여부가 판정된다. 예인 경우, 도 1을 참조하여 앞서 기술한 바와 같이[참조 번호(105)], 처리된 프레임 영역(616)이 재구성되고 SAO 재구성된 프레임에 가산될 수 있다.
보상의 선택 및 전송을 위한 공지된 프로세스의 단점은 많은 수의 파라미터들이 인코더로부터 디코더로 전송되어 SAO 버퍼에 저장되어야만 한다는 것이다. 더욱이, 이들 파라미터를 디코딩하고 처리하기 위해 디코더에서 수행되는 프로세스가 복잡하다.
이상의 문제점들 중 하나 이상을 해결하기 위해 본 발명이 안출되었다.
본 발명의 제1 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 인코딩하는 방법이 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 방법은,
적어도 하나의 인코딩된 샘플을 제공하기 위해 영상의 적어도 하나의 샘플의 제1 및 제2 성분을 인코딩하는 단계;
적어도 하나의 인코딩된 샘플을 디코딩하는 단계;
적어도 하나의 필터링 파라미터를 영상의 적어도 하나의 샘플의 적어도 하나의 성분과 적어도 하나의 대응하는 디코딩된 샘플의 적어도 하나의 대응하는 성분 간의 차의 함수로서 계산하는 단계 - 적어도 하나의 필터링 파라미터는 루프 필터에서 디코딩된 샘플의 제1 및 제2 성분 둘 다를 필터링하기 위한 공통 필터링 파라미터로서 사용되기 위해 계산됨 - 를 포함한다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
본 발명의 제2 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 디코딩하는 방법이 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 방법은,
적어도 하나의 재구성된 샘플의 제1 및 제2 성분을 제공하기 위해 적어도 하나의 인코딩된 샘플의 제1 및 제2 성분을 디코딩하는 단계;
적어도 하나의 필터링 파라미터를 디코딩하는 단계;
루프 필터에서 적어도 하나의 재구성된 샘플을 필터링하는 단계 - 필터링은 적어도 하나의 디코딩된 필터링 파라미터를 적어도 하나의 재구성된 샘플의 제1 성분 및 제2 성분 둘 다를 필터링하기 위한 공통 필터링 파라미터로서 사용하는 것을 포함함 - 를 포함한다.
본 발명의 제3 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 인코딩하는 인코딩 장치가 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 인코딩 장치는,
적어도 하나의 인코딩된 샘플을 제공하기 위해 영상의 적어도 하나의 샘플의 제1 및 제2 성분을 인코딩하는 수단;
적어도 하나의 인코딩된 샘플을 디코딩하는 수단;
적어도 하나의 필터링 파라미터를 영상의 적어도 하나의 샘플의 적어도 하나의 성분과 적어도 하나의 대응하는 디코딩된 샘플의 적어도 하나의 대응하는 성분 간의 차의 함수로서 계산하는 수단 - 적어도 하나의 필터링 파라미터는 루프 필터에서 디코딩된 샘플의 제1 및 제2 성분 둘 다를 필터링하기 위한 공통 필터링 파라미터로서 사용되기 위해 계산됨 - 을 포함한다.
본 발명의 제4 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 디코딩하는 디코딩 장치가 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 디코딩 장치는,
적어도 하나의 재구성된 샘플의 제1 및 제2 성분을 제공하기 위해 적어도 하나의 인코딩된 샘플의 제1 및 제2 성분을 디코딩하는 수단;
적어도 하나의 필터링 파라미터를 디코딩하는 수단;
루프 필터에서 적어도 하나의 재구성된 샘플을 필터링하는 수단 - 필터링은 적어도 하나의 디코딩된 필터링 파라미터를 적어도 하나의 재구성된 샘플의 제1 성분 및 제2 성분 둘 다를 필터링하기 위한 공통 필터링 파라미터로서 사용하는 것을 포함함 - 을 포함한다.
본 발명에 따른 방법들 중 적어도 일부는 컴퓨터 구현될 수 있다. 그에 따라, 본 발명은 하드웨어로만 된 실시예, 소프트웨어로만 된 실시예(펌웨어, 상주 소프트웨어, 마이크로 코드 등을 포함함), 또는 소프트웨어와 하드웨어 측면을 겸비한 실시예의 형태를 취할 수 있고, 이들 모두가 일반적으로 본 명세서에서 "회로", "모듈", 또는 "시스템"으로 지칭되어 있을 수 있다. 게다가, 본 발명은 컴퓨터 사용가능 프로그램 코드가 구현되어 있는 임의의 유형의(tangible) 표현 매체로 구현되어 있는 컴퓨터 프로그램 제품의 형태를 취할 수 있다.
본 발명이 소프트웨어로 구현될 수 있기 때문에, 본 발명은 프로그램가능 장치 또는 임의의 적당한 전달 매체(carrier medium)에 프로비저닝하기 위한 컴퓨터 판독가능 코드로 구현될 수 있다. 유형의 전달 매체는 플로피 디스크, CD-ROM, 하드 디스크 드라이브, 자기 테이프 장치 또는 고상 메모리 장치 등과 같은 저장 매체를 포함할 수 있다. 일시적 전달 매체(transient carrier medium)는 전기 신호, 전자 신호, 광학 신호, 음향 신호, 자기 신호, 또는 전자기 신호(예컨대, 마이크로파 또는 RF 신호) 등의 신호를 포함할 수 있다.
이와 같이, 본 발명의 제5 측면에 따르면, 프로그램가능 장치에 대한 컴퓨터 프로그램 제품이 제공되고, 컴퓨터 프로그램 제품은 프로그램가능 장치에 로드되어 실행될 때 본 발명의 전술한 제1 또는 제2 측면을 실시하는 방법의 각각의 단계를 구현하는 명령어 시퀀스를 포함한다.
이와 유사하게, 본 발명의 제6 측면에 따르면, 본 발명의 전술한 제1 또는 제2 측면을 실시하는 방법의 각각의 단계를 구현하는 컴퓨터 프로그램의 명령어들을 저장하는 컴퓨터 판독가능 저장 매체가 제공된다.
이하의 도면들을 참조하여, 단지 예로서, 본 발명의 실시예들이 이제부터 기술될 것이다.
도 1은 종래 기술의 루프 필터링 프로세스의 단계들을 나타낸 플로우차트.
도 2는 종래 기술의 HEVC 프로세스의 샘플 적응적 대역 오프셋 분류를 그래픽으로 나타낸 도면.
도 3은 HEVC의 SAO 대역 오프셋에 대한 보상 오프셋을 결정하는 프로세스의 단계들을 나타낸 플로우차트.
도 4는 레이트 왜곡 관점으로부터 SAO 오프셋을 선택하는 프로세스를 나타낸 플로우차트.
도 5는 HEVC의 SAO 대역 오프셋에 대한 SAO 대역 위치를 결정하는 방법의 단계들을 나타낸 플로우차트.
도 6은 SAO 루프 필터에 따라 프레임 영역을 필터링하는 방법의 단계들을 나타낸 플로우차트.
도 7은 본 발명의 하나 이상의 실시예들이 구현될 수 있는 데이터 통신 시스템을 개략적으로 나타낸 블록도.
도 8은 본 발명의 하나 이상의 실시예들이 구현될 수 있는 처리 장치의 구성요소들을 나타낸 블록도.
도 9는 본 발명의 실시예들에 따른 인코딩 방법의 단계들을 나타낸 플로우차트.
도 10은 본 발명의 하나 이상의 실시예들에 따른 루프 필터링 프로세스의 단계들을 나타낸 플로우차트.
도 11은 본 발명의 실시예들에 따른 디코딩 방법의 단계들을 나타낸 플로우차트.
도 12는 적응 파라미터 세트(Adaptive Parameter Set) 모드에 따라 비트스트림으로부터 SAO 파라미터들을 획득하는 방법의 단계들을 나타낸 플로우차트.
도 13은 LCU 모드에 따라 비트스트림으로부터 SAO 파라미터들을 획득하는 방법의 단계들을 나타낸 플로우차트.
도 14는 비트스트림에서 SAO 파라미터들을 판독하는 방법의 단계들을 나타낸 플로우차트.
도 15 및 도 16은 현재 프레임 영역을 처리하기 위해 루프 필터에서 사용될 파라미터들을 결정하는 본 발명의 제1 실시예에 따른 방법의 단계들을 나타낸 플로우차트.
도 17은 한 성분과 연관되어 있는 오프셋들의 값들이 제2 성분과 연관되어 있는 오프셋들의 미러링된 값들에 대응하는 특정의 실시예를 나타낸 도면.
도 18은, 대역 오프셋 분류를 사용하여 SAO 루프 필터를 적용할 때, 제2 성분과 연관되어 있는 오프셋들의 값들이 제1 성분과 연관되어 있는 오프셋들의 값들로부터 어떻게 획득될 수 있는지를 나타낸 도면.
도 19는, 대역 오프셋 분류를 사용하여 SAO 루프 필터를 적용할 때, 제2 성분 Z와 연관되어 있는 sao_band_position 파라미터의 값이 제1 성분 X와 연관되어 있는 sao_band_position 파라미터의 값으로부터 어떻게 획득될 수 있는지를 나타낸 도면.
도 20은 레이트 왜곡 기준에 따라 2개 또는 3개의 성분에 의해 사용될 최적의 오프셋을 결정하는 방법의 단계들을 나타낸 플로우차트.
도 21은 2개의 성분들 간에 공유되는 SAO 대역 위치를 결정하는 방법의 단계들을 나타낸 플로우차트.
도 22는 본 발명의 특정의 실시예에 따른, 비트스트림을 디코딩하는 방법의 단계들을 나타낸 플로우차트.
도 23은 하나의 성분의 SAO 분류를 다른 성분 Z를 유사하게 필터링하기 위해 사용하는 것을 나타낸 도면.
도 7은 본 발명의 하나 이상의 실시예들이 구현될 수 있는 데이터 통신 시스템을 나타낸 것이다. 데이터 통신 시스템은 데이터 통신 네트워크(700)를 통해 데이터 스트림의 데이터 패킷들을 수신 장치[이 경우에, 클라이언트 단말(702)]로 전송하는 동작을 하는 전송 장치[이 경우에, 서버(701)]를 포함하고 있다. 데이터 통신 네트워크(700)는 WAN(Wide Area Network) 또는 LAN(Wide Area Network)일 수 있다. 이러한 네트워크는, 예를 들어, 무선 네트워크(WiFi / 802.11a 또는 b 또는 g), 이더넷 네트워크, 인터넷 네트워크, 또는 몇개의 상이한 네트워크들로 이루어진 혼합 네트워크일 수 있다. 본 발명의 특정의 실시예에서, 데이터 통신 시스템은 서버(701)가 동일한 데이터 콘텐츠를 다수의 클라이언트들로 송신하는 디지털 텔레비전 방송 시스템일 수 있다.
서버(701)에 의해 제공되는 데이터 스트림(704)은 비디오 및 오디오 데이터를 나타내는 멀티미디어 데이터로 이루어져 있을 수 있다. 본 발명의 어떤 실시예들에서, 오디오 및 비디오 데이터 스트림은, 각각, 마이크 및 카메라를 사용하여 서버(701)에 의해 포착될 수 있다. 어떤 실시예들에서, 데이터 스트림은 다른 데이터 제공자로부터 서버(701)에 저장되거나 서버(701)에 의해 수신될 수 있거나, 또는 서버(701)에서 발생될 수 있다. 서버(701)는 특히 인코더에 입력으로서 제시되는 데이터의 보다 콤팩트한 표현인 전송을 위한 압축된 비트스트림을 제공하기 위해 비디오 및 오디오 스트림을 인코딩하는 인코더를 구비하고 있다.
전송된 데이터의 품질 대 전송된 데이터의 양에 대한 보다 나은 비를 획득하기 위해, 비디오 데이터의 압축은, 예를 들어, HEVC 형식 또는 H.264/AVC 형식을 따를 수 있다.
클라이언트(702)는 전송된 비트스트림을 수신하고, 디스플레이 장치 상에서 비디오 영상을 그리고 스피커에 의해 오디오 데이터를 재생하기 위해 재구성된 비트스트림을 디코딩한다.
도 7의 예에서 스트리밍 시나리오가 고려되고 있지만, 본 발명의 어떤 실시예들에서, 인코더와 디코더 사이의 데이터 통신이, 예를 들어, 광 디스크 등의 미디어 저장 장치를 사용하여 수행될 수 있다는 것을 잘 알 것이다.
본 발명의 하나 이상의 실시예들에서, 비디오 영상이 최종 영상에 필터링된 픽셀들을 제공하기 위해 영상의 재구성된 픽셀들에 적용하기 위한 보상 오프셋들을 나타내는 데이터와 함께 전송된다.
도 8은 본 발명의 적어도 하나의 실시예를 구현하도록 구성되어 있는 처리 장치(800)를 개략적으로 나타낸 것이다. 처리 장치(800)는 마이크로컴퓨터, 워크스테이션, 또는 경량 휴대용 장치 등의 장치일 수 있다. 장치(800)는 다음과 같은 것들에 연결되어 있는 통신 버스(813)를 포함하고 있다:
- CPU로 표시된 마이크로프로세서 등의 중앙 처리 유닛(811);
- 본 발명을 구현하는 컴퓨터 프로그램들을 저장하는, ROM으로 표시된 판독 전용 메모리(807);
- 본 발명의 실시예들의 방법의 실행가능 코드를 저장하는 RAM으로 표시된 랜덤 액세스 메모리(812)는 물론, 본 발명의 실시예들에 따른 디지털 영상 시퀀스를 인코딩하는 방법 및/또는 비트스트림을 디코딩하는 방법을 구현하는 데 필요한 변수들 및 파라미터들을 기록하도록 구성되어 있는 레지스터들; 및
- 통신 네트워크(803)(처리될 디지털 데이터가 이를 통해 전송되거나 수신됨)에 연결되어 있는 통신 인터페이스(802).
선택적으로, 장치(800)는 또한 다음과 같은 구성요소들을 포함할 수 있다:
- 본 발명의 하나 이상의 실시예들의 방법들을 구현하는 컴퓨터 프로그램들 및 본 발명의 하나 이상의 실시예들의 구현 동안 사용되거나 생성되는 데이터를 저장하는, 하드 디스크 등의 데이터 저장 수단(804);
- 디스크(806)에 대한 디스크 드라이브(805)[디스크 드라이브는 디스크(806)로부터 데이터를 판독하거나 상기 디스크에 데이터를 기입하도록 구성되어 있음];
- 데이터를 디스플레이하는 및/또는 키보드(810) 또는 임의의 다른 포인팅 수단에 의해 사용자와의 그래픽 인터페이스로서 역할하는 화면(809).
장치(800)는, 예를 들어, 디지털 카메라(820) 또는 마이크(808) 등의 다양한 주변 장치들에 연결될 수 있고, 각각은 멀티미디어 데이터를 장치(800)에 제공하기 위해 입출력 카드(도시 생략)에 연결되어 있다.
통신 버스는 장치(800)에 포함되어 있거나 그에 연결되어 있는 다양한 요소들 간의 통신 및 상호운용성을 제공한다. 버스의 표현은 제한하는 것이 아니며, 상세하게는, 중앙 처리 유닛은 명령어들을 직접 또는 장치(800)의 다른 요소에 의해 장치(800)의 임의의 요소로 전달하는 동작을 한다.
디스크(806)는, 예를 들어, 콤팩트 디스크(CD-ROM)(재기입가능하거나 그렇지 않음), ZIP 디스크 또는 메모리 카드 등의 임의의 정보 매체로, 그리고, 일반적인 표현으로, 마이크로컴퓨터에 의해 또는 마이크로프로세서에 의해 판독될 수 있고, 장치 내에 통합되어 있거나 그렇지 않으며, 어쩌면 이동식이고 하나 이상의 프로그램들 - 그의 실행은 구현될 본 발명에 따른 디지털 영상 시퀀스를 인코딩하는 방법 및/또는 비트스트림을 디코딩하는 방법을 가능하게 함 - 을 저장하도록 구성되어 있는 정보 저장 수단으로 대체될 수 있다.
실행가능 코드는 판독 전용 메모리(807)에, 하드 디스크(804)에, 또는 이동식 디지털 매체[예를 들어, 앞서 기술한 바와 같은 디스크(806) 등]에 저장될 수 있다. 한 변형례에 따르면, 프로그램들의 실행가능 코드는, 실행되기 전에 하드 디스크(804) 등의 장치(800)의 저장 수단들 중 하나에 저장되기 위해, 인터페이스(802)를 통해 통신 네트워크(803)에 의해 수신될 수 있다.
중앙 처리 유닛(811)은 본 발명에 따른 프로그램 또는 프로그램들의 소프트웨어 코드의 명령어들 또는 일부분들, 상기한 저장 수단들 중 하나에 저장되어 있는 명령어들의 실행을 제어 및 지시하도록 구성되어 있다. 전원을 켤 시에, 비휘발성 메모리에[예를 들어, 하드 디스크(804) 상에 또는 판독 전용 메모리(807)에] 저장되어 있는 프로그램 또는 프로그램들은 랜덤 액세스 메모리(812) 내로 전송되는 것(그러면, 랜덤 액세스 메모리는 프로그램 또는 프로그램들의 실행가능 코드를 포함하고 있음)은 물론, 본 발명을 구현하는 데 필요한 변수들 및 파라미터들을 저장하는 레지스터들로도 전송된다.
이 실시예에서, 장치는 본 발명을 구현하기 위해 소프트웨어를 사용하는 프로그램가능 장치이다. 그렇지만, 다른 대안으로서, 본 발명은 하드웨어로[예를 들어, ASIC(Application Specific Integrated Circuit)의 형태로] 구현될 수 있다.
도 9는 본 발명의 적어도 하나의 실시예에 따른 인코더(900)의 블록도를 나타낸 것이다. 인코더가 연결된 모듈들로 나타내어져 있고, 각각의 모듈은, 예를 들어, 장치(800)의 CPU(811)에 의해 실행될 프로그래밍 명령어들의 형태로, 본 발명의 하나 이상의 실시예들에 따른, 영상 시퀀스의 영상을 인코딩하는 적어도 하나의 실시예를 구현하는 방법의 적어도 하나의 대응하는 단계를 구현하도록 구성되어 있다.
원래의 디지털 영상 시퀀스 i0 내지 in(901)이 인코더(900)에 의해 입력으로서 수신된다. 각각의 디지털 영상은 픽셀이라고 하는 샘플 세트로 표현된다.
인코딩 프로세스의 구현 후에 비트스트림(910)이 인코더(900)에 의해 출력된다. 비트스트림(910)은 복수의 인코딩 단위들 또는 슬라이스들을 포함하고, 각각의 슬라이스는 슬라이스를 인코딩하는 데 사용되는 인코딩 파라미터들의 인코딩 값들을 전송하는 슬라이스 헤더(slice header), 및 인코딩된 비디오 데이터를 포함하는 슬라이스 보디(slice body)를 포함하고 있다.
입력 디지털 영상들 i0 내지 in(901)은 모듈(902)에 의해 픽셀 블록들로 나누어진다. 블록들은 영상 일부분들에 대응하고, 가변 크기(예컨대, 4x4, 8x8, 16x16, 32x32, 64x64 픽셀)를 가질 수 있다. 각각의 입력 블록에 대해 코딩 모드가 선택된다. 2가지 계열의 코딩 모드 - 공간 예측 코딩에 기초한 코딩 모드(인트라 예측), 및 시간 예측에 기초한 코딩 모드[인터 코딩, 병합, 건너뜀] - 가 제공된다. 가능한 코딩 모드들이 테스트된다.
모듈(903)은 인트라 예측 프로세스를 구현하고, 여기서 인코딩될 주어진 블록이 인코딩될 상기 블록의 이웃의 픽셀들로부터 계산되는 예측자에 의해 예측된다. 인트라 코딩이 선택되는 경우 잔차를 제공하기 위해, 선택된 인트라 예측자의 표시 및 주어진 블록과 그의 예측자 간의 차가 인코딩된다.
시간 예측은 움직임 추정 모듈(904) 및 움직임 보상 모듈(905)에 의해 구현된다. 먼저, 참조 영상 세트(916) 중에서 참조 영상이 선택되고, 인코딩될 주어진 블록에 가장 가까운 영역인 참조 영상의 일부분(참조 영역 또는 영상 부분이라고도 불리움)이 움직임 추정 모듈(904)에 의해 선택된다. 움직임 보상 모듈(905)은 이어서 선택된 영역을 사용하여 인코딩될 블록을 예측한다. 선택된 참조 영역과 주어진 블록 간의 차(잔차 블록이라고도 함)가 움직임 보상 모듈(905)에 의해 계산된다. 선택된 참조 영역은 움직임 벡터로 표시된다.
이와 같이, 이들 경우(공간 예측 및 시간 예측) 둘 다에서, 잔차는 원래의 블록으로부터 예측을 차감함으로써 계산된다.
모듈(903)에 의해 구현되는 인트라 예측에서, 예측 방향이 인코딩된다. 시간 예측에서, 적어도 하나의 움직임 벡터가 인코딩된다.
인터 예측이 선택되는 경우, 움직임 벡터에 대한 정보 및 잔차 블록이 인코딩된다. 비트레이트를 추가로 감소시키기 위해, 움직임이 균질하다고 가정하여, 움직임 벡터가 움직임 벡터 예측자에 대한 차에 의해 인코딩된다. 움직임 정보 예측자 세트의 움직임 벡터 예측자들이 움직임 벡터 예측 및 코딩 모듈(917)에 의해 움직임 벡터 필드(918)로부터 획득된다.
인코더(900)는 레이트 왜곡 기준(rate-distortion criterion) 등의 인코딩 비용 기준을 적용함으로써 코딩 모드를 선택하는 선택 모듈(906)을 추가로 포함하고 있다. 중복성을 추가로 감소시키기 위해, 변환 모듈(907)에 의해 변환(DCT 등)이 잔차 블록에 적용되고, 획득되는 변환된 데이터는 이어서 양자화 모듈(908)에 의해 양자화되고, 엔트로피 인코딩 모듈(909)에 의해 엔트로피 인코딩된다. 마지막으로, 인코딩되고 있는 현재 블록의 인코딩된 잔차 블록이 비트스트림(910)에 삽입된다.
인코더(900)는 또한, 후속 영상의 움직임 추정을 위한 참조 영상을 생성하기 위해, 인코딩된 영상의 디코딩을 수행한다. 이것은 비트스트림을 수신하는 인코더 및 디코더가 동일한 참조 프레임을 가질 수 있게 해준다. 역양자화 모듈(911)은 양자화된 데이터의 역양자화를 수행하고, 이어서 역변환 모듈(912)에 의한 역변환이 있게 된다. 역 인트라 예측(reverse intra prediction) 모듈(913)은 주어진 블록에 대해 어느 예측자를 사용할지를 결정하기 위해 예측 정보를 사용하고, 역 움직임 보상(reverse motion compensation) 모듈(914)은 실제로 모듈(912)에 의해 획득된 잔차를 참조 영상 세트(916)로부터 획득된 참조 영역에 가산한다.
재구성된 픽셀 프레임을 필터링하기 위해 사후 필터링이 이어서 모듈(915)에 의해 적용된다. 본 발명의 실시예들에서, 보상 오프셋이 재구성된 영상의 재구성된 픽셀의 픽셀 값에 가산되는 SAO 루프 필터가 사용된다.
도 10은 본 발명의 적어도 하나의 실시예에 따른 루프 필터링 프로세스의 단계들을 나타낸 플로우차트이다. 초기 단계(1001)에서, 인코더는 전체 프레임의 재구성을 발생한다. 그 다음에, 단계(1002)에서, 디블록킹된 재구성(1003)을 발생시키기 위해 이 제1 재구성에 디블록킹 필터가 적용된다. 디블록킹 필터의 목표는 잔차 양자화 및 블록 움직임 보상 또는 블록 인트라 예측에 의해 발생된 블록 아티팩트를 제거하는 것이다. 이들 아티팩트는 낮은 비트레이트에서 시각적으로 중요하다. 디블록킹 필터는 2개의 이웃하는 블록들의 특성에 따라 블록 경계를 매끄럽게 하는 동작을 한다. 각각의 블록의 인코딩 모드, 잔차 코딩을 위해 사용되는 양자화 파라미터들, 및 경계에서의 이웃 픽셀 차가 고려된다. 모든 프레임들에 대해 동일한 기준/분류가 적용되고, 어떤 부가의 데이터도 전송되지 않는다. 디블록킹 필터는, 블록킹 아티팩트를 제거함으로써, 현재 프레임의 시각적 품질을 향상시키고, 또한 후속 프레임들에 대한 움직임 추정 및 움직임 보상을 향상시킨다. 실제로, 블록 아티팩트의 고주파수가 제거되고, 따라서 후속 프레임들의 텍스처 잔차(texture residual)에 대해 이들 고주파수가 보상될 필요가 없다.
디블록킹 필터 이후에, 디블록킹된 재구성이 단계(1004)에서 픽셀들의 분류에 기초하여 SAO(sample adaptive offset) 루프 필터에 의해 필터링된다. 얻어진 프레임(1005)은 이어서 디스플레이되고 후속 인터 프레임들에 대한 참조 프레임으로서 사용될 재구성된 프레임(1007)을 발생시키기 위해 단계(1006)에서 ALF(adaptive loop filter)에 의해 필터링될 수 있다.
단계(1004)에서, 프레임 영역의 각각의 픽셀이 그의 픽셀 값에 따라 결정된 분류의 클래스로 분류된다. 클래스는 결정된 픽셀 값 범위에 대응한다. 동일한 보상 오프셋 값이 주어진 픽셀 값 범위 내의 픽셀 값을 가지는 모든 픽셀들의 픽셀 값에 가산된다.
샘플 적응적 오프셋 필터링을 위한 픽셀들을 디코딩하기 위해 서버와 클라이언트 사이에서 교환되고 및/또는 로컬적으로 또는 원격적으로 저장될 SAO 파라미터들을 코딩하는 것 및/또는 디코딩하는 것이 도 12 내지 도 23 중 임의의 도면을 참조하여 이후에서 보다 상세히 설명될 것이다.
도 11은 본 발명의 일 실시예에 따른, 인코더로부터 데이터를 수신하기 위해 사용될 수 있는 디코더(1100)의 블록도를 나타낸 것이다. 디코더는 연결된 모듈들로 나타내어져 있고, 각각의 모듈은, 예를 들어, 장치(800)의 CPU(811)에 의해 실행될 프로그래밍 명령어들의 형태로, 디코더(1100)에 의해 구현되는 방법의 대응하는 단계를 구현하도록 구성되어 있다.
디코더(1100)는 인코딩 단위들을 포함하는 비트스트림(1101)을 수신하고, 각각의 인코딩 단위는 인코딩 파라미터들에 관한 정보를 포함하는 헤더 및 인코딩된 비디오 데이터를 포함하는 보디로 이루어져 있다. 도 9와 관련하여 설명한 바와 같이, 인코딩된 비디오 데이터는 엔트로피 인코딩되어 있고, 움직임 벡터 예측자의 인덱스가, 주어진 블록에 대해, 사전 결정된 수의 비트에 인코딩되어 있다. 수신된 인코딩된 비디오 데이터는 모듈(1102)에 의해 엔트로피 디코딩된다. 잔차 데이터가 이어서 모듈(1103)에 의해 역양자화되고, 픽셀 값을 획득하기 위해 모듈(1104)에 의해 역변환이 적용된다.
코딩 모드를 나타내는 모드 데이터가 또한 엔트로피 디코딩되고, 모드에 기초하여, 인트라 유형 디코딩 또는 인터 유형 디코딩이 인코딩된 영상 데이터 블록에 대해 수행된다.
인트라 모드의 경우에, 비트스트림에 명시된 인트라 예측 모드에 기초하여 역 인트라 예측 모듈(1105)에 의해 인트라 예측자가 결정된다.
모드가 인터인 경우, 인코더에 의해 사용되는 참조 영역을 찾아내기 위해 움직임 예측 정보가 비트스트림으로부터 추출된다. 움직임 예측 정보는 참조 프레임 인덱스 및 움직임 벡터 잔차로 이루어져 있다. 움직임 벡터 디코딩 모듈(1110)에 의해 움직임 벡터를 획득하기 위해 움직임 벡터 예측자가 움직임 벡터 잔차에 가산된다.
움직임 벡터 디코딩 모듈(1110)은 움직임 예측에 의해 인코딩된 각각의 현재 블록에 대해 움직임 벡터 디코딩을 적용한다. 현재 블록에 대한 움직임 벡터 예측자의 인덱스가 획득되면, 현재 블록과 연관되어 있는 움직임 벡터의 실제 값이 디코딩되고 모듈(1106)에 의해 역 움직임 보상을 적용하는 데 사용될 수 있다. 역 움직임 보상(1106)을 적용하기 위해, 디코딩된 움직임 벡터에 의해 표시되는 참조 영상 부분이 참조 영상(1108)으로부터 추출된다. 후속하는 디코딩된 움직임 벡터의 역 예측에 사용되기 위해, 움직임 벡터 필드 데이터(1111)가 디코딩된 움직임 벡터로 업데이트된다.
마지막으로, 디코딩된 블록이 획득된다. 도 9를 참조하여 기술된 바와 같이 인코더에서 적용되는 사후 필터링 모듈(915)과 유사하게, 사후 필터링 모듈(1107)에 의해 사후 필터링이 적용된다. 디코딩된 비디오 신호(1109)가 최종적으로 디코더(1000)에 의해 제공된다.
도 12는 적응적 파라미터 세트(Adaptive Parameter Set, APS) 모드에 따라 비트스트림으로부터 SAO 파라미터들을 획득하는 방법의 단계들을 나타낸 플로우차트이다. 그에 따라, 도 12는 프레임 영역마다 단일의 SAO 파라미터 세트를 연관시키기 위해 적응적 파라미터 세트 모드가 사용될 때 SAO 파라미터들이 비트스트림에 어떻게 저장되는지를 나타내고 있다. 이 모드에 따르면, SAO 파라미터 세트는 LCU(Largest Coding Unit)의 크기의 배수인 크기를 가지는 직사각형 프레임 영역에 대해 유효하다. 이 특정의 모드에 대해 프레임의 SAO 파라미터들 모두를 저장하기 위한 비트의 양을 감소시키기 위해, 런 길이 코딩(run-length coding) 기법은 물론, 상기 프레임 영역으로부터의 예측 플래그도 사용된다.
HEVC의 현재 규격에서 구현되는 APS 모드에 따르면, SAO 루프 필터링이 주어진 픽처의 성분들에 대해 인에이블되어 있는지 여부를 나타내는 플래그들이 있다. 이것은, 예를 들어, YUV 방식에 따라 인코딩된 픽처를 생각하고 있을 때, U 또는 V 성분에 대한 SAO 파라미터들이 인에이블되거나 디스에이블될 수 있다는 것을 의미한다.
이러한 플래그들은 초기 단계(1201)에서 판독된다. 그 다음에, 단계(1202)에서, SAO 파라미터 세트가 적용되어야 하는 프레임 영역의 크기가 획득된다. 앞서 기술한 바와 같이, APS 모드를 사용할 때 SAO 루프 필터링이 적용될 필요가 있는 프레임 영역은 LCU 크기와 같거나 LCU 크기의 배수 크기에 대응하는 영역에 대응한다.
그 다음에, X로 표시된 시퀀스의 각각의 색상 성분을 연속적으로 처리하기 위해 단계(1203)에서 루프가 시작된다. 이 루프는 단계(1204)에서 수행되는 각각의 성분에 대한 "단일성(unicity)" 플래그를 판독하는 것을 가능하게 한다. 그 다음에, 단계(1205)에서 판독된 "단일성" 플래그가 참인지 여부를 판정하기 위해 테스트가 수행된다. 판독된 "단일성" 플래그가 참인 경우, 전체 영상에 대한 현재 처리된 성분 X에 관한 단일의 SAO 파라미터 세트만이 존재한다. 이러한 경우에, 단계(1206)에서 비트스트림에서 SAO 파라미터들이 판독된다. 이러한 단계는 도 14를 참조하여 상세히 기술된다. 그렇지 않고 판독된 "단일성" 플래그가 참이 아닌 경우, 현재 처리된 성분 X에 관한 전체 영상에 대한 2개 이상의 SAO 파라미터가 있다. 이러한 경우에, SAO 파라미터들이 단계들(1208 내지 1218)을 참조하여 기술되는 바와 같이 후속 단계들에서 판독된다.
그 다음에, 단계(1207)에서 현재 처리된 성분 X가 처리할 마지막 성분인지 여부를 판정하기 위해 테스트가 수행된다. 현재 처리된 성분 X가 처리할 마지막 성분인 경우, 알고리즘은 단계(1203)로 분기되고, 남아 있는 성분(들)에 대해 이전의 단계들이 반복된다.
유의할 점은, "단일성" 플래그가 하나의 성분에 대해 참인 경우, 단계들(1208 내지 1218)이 그 성분에 대해 수행되지 않는다.
단계(1208)로부터, 성분마다 2개 이상의 SAO 파라미터 세트가 존재할 때 각각의 프레임 영역에 대해 그리고 각각의 성분에 대해 SAO 파라미터들이 결정된다.
단계(1202)에서 결정된 프레임 영역 크기에 따라 처리될 주어진 픽처의 각각의 프레임 영역을 연속적으로 처리하기 위해 단계(1208)에서 루프가 시작된다. 도 12의 주어진 예에서, 프레임 영역들이 래스터 스캔 순서(raster scan order)로 처리되고, 그로써 프로세스는 영상의 프레임 영역들의 첫번째 행에서 시작하고 영상의 마지막 행까지 계속된다. 영상의 좌측으로부터 우측으로 프레임 영역들이 처리된다.
그 다음에, X로 표시된 각각의 성분을 연속적으로 처리하기 위해 단계(1209)에서 루프가 시작된다. 유의할 점은, 단계(1201)에서 판독된, 현재 성분의 "인에이블" 플래그가 거짓인 경우, 단계(1209)에서 관련 성분에 대한 그 다음 단계들이 무시되고, 그 다음 성분이 처리되기 위해 선택된다. 단계(1210)에서, "행 반복 플래그(repeat row flag)"가 판독된다. 그 다음에, 단계(1211)에서, 그 플래그가 참인지 여부를 판정하기 위해 테스트가 수행된다. 참인 경우, 프레임 영역의 이전 행의 SAO 파라미터들이 프레임 영역의 현재 행에 대해 사용된다. 이것은 현재 행이 이전 행과 동일한 파라미터들을 사용한다는 것만을 신호하는 것에 의해 SAO 파라미터들을 비트스트림에 표현하는 데 많은 비트를 절감하는 것을 가능하게 만들어 준다.
그렇지 않고, 판독된 "행 반복 플래그"가 거짓인 경우, 현재 프레임 영역이 비트스트림에 코딩되고, 알고리즘이 단계(1213)로 분기하여, 현재 행에 이전 프레임 영역과 연관되어 있는 SAO 파라미터들을 인코딩하고 표현하기 위해 (런 길이 코딩 또는 상기 프레임 영역의 SAO 파라미터들의 값을 사용하는) 예측 기법이 사용되는지 여부를 판정하기 위해 테스트가 수행된다. 그 경우에, 현재 행에서 단계(1214)에서 이전 프레임 영역으로부터 현재 프레임 영역의 SAO 파라미터들이 추론된다. 보다 구체적으로는, 2개의 구문 요소 - SAO 파라미터들이 런 길이 방법에 따라 코딩되는지 또는 상기 프레임 영역의 SAO 파라미터들로부터 추론되는지를 각각 나타내는 sao_run_diff 및 sao_merge_up_flag - 가 사용된다. 그렇지 않고, 단계(1213)에서 대답이 아니오인 경우, 이 특정의 프레임 영역에 대한 SAO 파라미터들이 비트스트림에 명시적으로 코딩된다. 그에 따라, 단계(1215)에서 비트스트림으로부터 이들 SAO 파라미터가 판독된다. 이 단계는 1206과 유사하고, 도 14를 참조하여 추가로 기술된다.
단계(1212) 이후, 전체 행에 대해 SAO 파라미터들이 결정될 때, 단계(1216)에서 현재 성분이 처리될 마지막 성분인지 여부를 판정하기 위해 테스트가 수행된다. 처리될 마지막 성분이 아닌 경우, 알고리즘은 단계(1209)로 분기되어 그 다음 성분(들)을 처리한다. 이와 유사하게, 단계(1214) 또는 단계(1215)를 수행하는 것에 의해 현재 프레임 영역에 대해 SAO 파라미터들이 결정될 때, 알고리즘은 단계(1216)로 분기하여 현재 성분이 처리될 마지막 성분인지 여부를 판정한다. 다시 말하지만, 처리될 마지막 성분이 아닌 경우, 알고리즘은 단계(1209)로 분기되어 그 다음 성분(들)을 처리한다.
그렇지 않고, 모든 성분들이 처리된 경우, 단계(1217)에서 마지막 프레임 영역이 처리되었는지 여부를 판정하기 위해 테스트가 수행된다. 마지막 프레임 영역이 처리되지 않은 경우, 프로세스는 단계(1208)로 분기되고, 이전의 단계들이 반복된다. 그렇지 않은 경우, 프로세스가 종료한다.
이 스테이지에서, 도 14를 참조하여 제시되는 상이한 파라미터들을 갖는 SAO 파라미터 세트가 각각의 성분에 대해 각각의 프레임 영역과 연관되어 있다.
도 13은 LCU 모드에 따라 비트스트림으로부터 SAO 파라미터들을 획득하는 방법의 단계들을 나타낸 플로우차트이다. 따라서, 도 13은 SAO 파라미터들을 APS 모드로 인코딩하는 대안을 나타낸 것이다. 보다 구체적으로는, 도 13은 LCU(Largest Coding Unit)마다 단일의 SAO 파라미터 세트를 연관시키기 위해 LCU 모드 표현이 사용될 때 SAO 파라미터들이 비트스트림에 어떻게 저장될 수 있는지를 나타내고 있다. LCU마다 하나의 SAO 파라미터 세트를 인코딩하는 것(이는 비용이 많이 소요됨)을 피하기 위해 예측 방식이 사용될 수 있다. 주어진 예에서, 이 예측 모드는 현재 LCU의 좌측에 배치된 LCU가 동일한 SAO 파라미터들을 사용하는지를 검사하는 것이다. 아니오인 경우, 현재 LCU 위쪽에 배치된 LCU에 대해 제2 검사가 수행된다. 이 예측 기법은 LCU 모드에 대한 SAO 파라미터들을 표현하는 데이터의 양의 감소를 가능하게 한다. 이는 병합(Merge) 플래그라고 하는 전용 플래그의 사용에 기초하고 있다.
단계(1301)에서, X로 표시된 각각의 성분을 연속적으로 처리하기 위해 루프가 시작된다. 예시를 위해, 영상들이 여전히 YUV 방식에 따라 인코딩된다. 그 다음에, 단계(1303)에서, sao_merge_left_flag_X(X는 Y, U, 또는 V를 나타냄)로 표시된 플래그가 처리될 비트스트림(1302)으로부터 판독되고 디코딩된다. 그의 값이 참인 경우, 단계(1304)에서, 현재 LCU의 좌측에 배치된 LCU의 SAO 파라미터들이 현재 LCU를 처리하는 데 사용되기 위해 선택된다. 보다 구체적으로는, 이것은 단계(1308)에서 현재 LCU에 적용될 SAO 루프 필터의 유형을 결정하는 것을 가능하게 한다.
그렇지 않고, sao_merge_left_flag_X로 표시된 판독된 플래그가 거짓인 경우, sao_merge_up_flag_X(X는 Y, U, 또는 V를 나타냄)로 표시된 플래그가 비트스트림(1302)으로부터 판독되고 디코딩된다. 그의 값이 참인 경우, 단계(1306)에서, 현재 LCU의 위쪽에 배치된 LCU의 SAO 파라미터들이 현재 LCU를 처리하는 데 사용되기 위해 선택된다. 다시 말하지만, 이것은 단계(1308)에서 현재 LCU에 적용될 SAO 루프 필터의 유형을 결정하는 것을 가능하게 한다.
그렇지 않고, sao_merge_up_flag_X로 표시된 판독된 플래그가 거짓인 경우, 단계(1307)에서 현재 LCU를 처리하는 데 사용될 SAO 파라미터들이 비트스트림(1302)으로부터 판독되고 디코딩되고, 후자는 도 14를 참조하여 기술된다.
이 스테이지에서, 단계(1308)에서 현재 LCU를 처리하기 위한 SAO 파라미터들이 획득되고 현재 LCU에 적용될 SAO 루프 필터의 유형이 결정된다.
그 다음에, 단계(1309)에서, 현재 LCU에 대해 모든 성분들 Y, U 및 V가 처리되었는지 여부를 판정하기 위해 테스트가 수행된다. 모든 성분들이 처리되지는 않은 경우, 그 다음 성분이 선택되고, 알고리즘은 단계(1301)로 분기되며, 이전의 단계들이 반복된다.
그 다음에, 그 다음 LCU가 이와 유사하게 처리될 수 있다.
도 14는 비트스트림에서 SAO 파라미터들을 판독하는 방법의 단계들을 나타낸 플로우차트이다. 그에 따라, 도 14는 SAO 파라미터들이 인코딩된 비트스트림에 저장되는 방식을 나타내고 있다.
초기 단계(1402)에서, sao_type_idx_X(X는 Y, U, 또는 V를 나타냄)로 표시된 플래그가 비트스트림(1401)으로부터 판독되고 디코딩된다. 이 구문 요소를 나타내는 코드워드는 고정 길이 코드 또는 임의의 산술 코딩 방법을 사용할 수 있다.
부록의 표 1을 참조하여 앞서 기술한 바와 같이, 이 구문 요소는 성분 X를 처리하기 위해 프레임 영역에 적용될 SAO 루프 필터의 유형을 결정하는 것을 가능하게 만들어 준다. 주어진 예에 따르면, 플래그 sao_type_idx_X(또는 총칭하여 sao_type_idx)는 적용될 SAO 루프 필터에 의존하는 5개의 값들 중 하나를 취할 수 있다. 부록의 표 1에 나타낸 바와 같이, 0은 SAO 루프 필터 없음에 대응하고, 1 내지 4는 부록의 표 2를 참조하여 기술된 바와 같은 에지 오프셋 SAO 루프 필터의 4가지 카테고리에 대응하며, 값 5는 대역 오프셋 SAO 루프 필터에 대응한다.
flag sao_type_idx_X를 판독하고 디코딩한 후에, 단계(1402)에서 이 인덱스의 값이 0 초과(strictly positive)인지 여부를 판정하기 위해 테스트가 수행된다. 이 인덱스의 값이 0인 경우 - 이는 현재 프레임 영역에 대해 SAO 루프 필터 없음(no SAO loop filter)이 적용되어야 한다는 것을 의미함 -, 단계(1407)에서 SAO 파라미터들의 결정이 종료한다. 그렇지 않고, 플래그 sao_type_idx_X의 값이 0 초과인 경우, 현재 프레임 영역에 대한 SAO 파라미터들이 비트스트림(1401)에 존재한다.
그 다음에, 단계(1403)에서 적용될 SAO 루프 필터의 유형이 대역 오프셋 유형인지 여부(sao_type_idx_X == 5)를 판정하기 위해 테스트가 수행된다. 적용될 SAO 루프 필터가 대역 오프셋 유형인 경우, 단계(1404)에서 비트스트림(1401)에서 SAO 대역의 위치가 판독되고 디코딩된다.
단계(1404)에서 SAO 대역의 위치를 판독한 후에, 단계(1406)에서 비트스트림(1401)으로부터 4개의 Offsetj(J는 1부터 4까지 변함)를 판독하고 디코딩하기 위해 단계(1405)에서 루프가 시작된다. 이들 4개의 오프셋은 도 2를 참조하여 기술된 SAO 대역 오프셋의 4개의 범위에 관련된 4개의 오프셋에 대응한다.
이와 유사하게, 플래그 sao_type_idx_X의 값이 플러스이고 5와 상이한 경우, 비트스트림(1401)으로부터 4개의 Offsetj(j는 1부터 4까지 변함)를 판독하고 디코딩하기 위해 단계(1405)에서 루프가 시작된다. 이들 4개의 오프셋은 부록의 표 2를 참조하여 기술된 SAO 대역 오프셋의 4개의 유형의 4개의 오프셋에 대응한다.
단계(1406)에서 4개의 오프셋이 판독되고 디코딩되었을 때, 단계(1407)에서 SAO 파라미터들의 판독이 종료한다.
제1 주된 실시예에 따르면, SAO 파라미터들 중 일부 또는 전부가 성분들 간에 공유된다. 그를 위해, 하나의 성분으로부터 다른 성분으로 SAO 파라미터들을 도출하는 프로세스들이 정의된다. 2가지 종류의 SAO 분류(에지 오프셋 및 대역 오프셋)에 대해 성분들 간의 이러한 의존 관계가 정의될 수 있다.
도 13을 참조하여 앞서 기술한 바와 같이, SAO 파라미터들을 이전에 처리된 SAO 파라미터들의 함수로서 획득하기 위해, LCU 모드에 대한 HEVC의 현재 구현예에서 sao_merge_left_flag_X 및 sao_merge_up_flag_X로 표시된 2개의 플래그가 사용된다. sao_merge_left_flag_X로 표시된 플래그는 현재 LCU의 성분 X를 처리하는 데 사용될 SAO 파라미터들이 현재 LCU의 좌측에 배치된 LCU의 동일한 성분을 처리하는 데 사용되는 것이라고 명시하는 것을 목적으로 한다. 이와 유사하게, sao_merge_up_flag_X로 표시된 플래그는 현재 LCU의 성분 X를 처리하는 데 사용될 SAO 파라미터들이 현재 LCU의 위쪽에 배치된 LCU의 동일한 성분을 처리하는 데 사용되는 것이라고 명시하는 것을 목적으로 한다.
특정의 실시예에 따르면, 이들 플래그는 현재 LCU의 2개 또는 3개의 성분에 대해 공통이다. 환언하면, sao_merge_left_flag 및 sao_merge_up_flag 유형의 플래그들이 현재 LCU의 성분을 처리하는 데 사용될 SAO 파라미터들이 다른 LCU의 동일한 성분을 처리하는 데 사용되는 것이라고 명시하기 위해 더 이상 사용되지 않고, 현재 LCU의 2개 또는 3개의 성분을 처리하는 데 사용될 SAO 파라미터들이 다른 LCU의 동일한 2개 또는 3개의 성분을 처리하는 데 사용되는 것이라고 명시하기 위해 사용된다. 예시를 위해, sao_merge_left_flag_UV 및 sao_merge_up_flag_UV로 표시된 플래그들은 현재 LCU의 U 및 V 성분을 처리하는 데 사용될 SAO 파라미터들이, 각각, 현재 LCU의 좌측에 또는 위쪽에 배치된 LCU의 U 및 V 성분을 처리하는 데 사용된 것이라고 명시하기 위해 고려될 수 있다.
다른 특정의 실시예에 따르면, 플래그들이 현재 LCU의 2개 또는 3개의 성분을 처리하는 데 사용될 SAO 파라미터들이 다른 LCU의 성분을 처리하는 데 사용되는 것이라고 명시하기 위해 사용된다. 그 결과, 현재 LCU의 성분과 연관되어 있는 플래그가 좌측 또는 위쪽 LCU 중 어느 것이 참조로서 사용되어야 하는지, 그리고 그 LCU에서, SAO 파라미터들을 획득하기 위해 성분들 중 어느 것이 사용되어야 하는지를 나타낼 수 있다. 따라서, 플래그들이 다음과 같은 것들일 수 있다: sao_merge_left_flag_Y, sao_merge_left_flag_U, sao_merge_left_flag_V, sao_merge_up_flag_Y, sao_merge_up_flag_U, 및 sao_merge_up_flag_V. 예시를 위해, 플래그 sao_merge_left_flag_V를 참조하는 현재 LCU의 성분의 SAO 파라미터들은 현재 LCU의 좌측에 배치된 LCU의 성분 V와 연관되어 있는 SAO 파라미터들이다.
이 실시예에서, LCU의 각각의 성분과 연관되어 있는 SAO 파라미터들이, 다른 LCU의 SAO 파라미터들을 참조할 때, (이 LCU의 각각의 성분에 대해) 동일한 것이 바람직하다. 예시를 위해, 성분이 플래그 sao_merge_left_flag_V를 참조하는 현재 LCU의 모든 성분들의 SAO 파라미터들은 현재 LCU의 좌측에 배치된 LCU의 성분 V와 연관되어 있는 SAO 파라미터들이다. 그에 따라, 좌측 루마(Y) 성분의 SAO 파라미터들이 현재 LCU의 크로마(U) 성분을 필터링하는 데 사용될 수 있다.
도 15는 현재 프레임 영역을 처리하기 위해 루프 필터에서 사용될 파라미터들을 결정하는 본 발명의 제1 실시예에 따른 방법의 단계들을 나타낸 플로우차트이다. 도 15에 주어진 예는 앞서 기술한 2개의 특정의 실시예의 결합으로 볼 수 있다.
단계(1502)에서, sao_merge_left_flag_Y로 표시된 플래그가 비트스트림(1501)으로부터 획득되고, 이 플래그의 값이 1인지 여부(즉, 참인지)를 판정하기 위해 테스트가 수행된다. sao_merge_left_flag_Y로 표시된 플래그가 참인 경우, 단계(1503)에서, 현재 LCU의 성분들 Y, U 및 V를 필터링하는 데 사용될 SAO 파라미터들이 현재 LCU의 좌측에 배치된 LCU에서의 성분 Y를 필터링하기 위해 이전에 결정된 SAO 파라미터들과 같은 것으로 판정된다.
그에 따라, 현재 LCU의 성분 U 및 V에 적용될 루프 필터의 유형을 정의하는, 현재 LCU에 대한 플래그 sao_type_idx_U 및 sao_type_idx_V의 값이 현재 LCU의 좌측에 배치된 LCU의 플래그 sao_type_idx_Y의 값과 같은 것으로 간주된다. 마찬가지로, 현재 LCU의 성분들 U 및 V를 필터링하는 데 사용되는 다른 SAO 파라미터들(예를 들어, 오프셋 값들) 및, 필요한 경우, 대역 위치들(sao_band_position_U 및 sao_band_position_V)이 현재 LCU의 좌측에 배치된 LCU의 성분 Y의 SAO 파라미터들로부터 획득된다.
그렇지 않고, sao_merge_left_flag_Y로 표시된 플래그가 거짓인 경우, sao_merge_up_flag_Y로 표시된 플래그가 비트스트림(1501)으로부터 획득되고, 단계(1504)에서 이 플래그의 값이 1인지 여부(즉, 참인지)를 판정하기 위해 테스트가 수행된다. sao_merge_up_flag_Y로 표시된 플래그가 참인 경우, 단계(1505)에서, 현재 LCU의 성분들 Y, U 및 V를 필터링하는 데 사용될 SAO 파라미터들이 현재 LCU의 위쪽에 배치된 LCU에서의 성분 Y를 필터링하기 위해 이전에 결정된 SAO 파라미터들과 같은 것으로 판정된다.
그에 따라, 현재 LCU의 성분들 U 및 V에 적용될 루프 필터의 유형을 정의하는, 현재 LCU에 대한 플래그 sao_type_idx_U 및 sao_type_idx_V의 값이 현재 LCU의 위쪽에 배치된 LCU의 플래그 sao_type_idx_Y의 값과 같은 것으로 간주된다. 마찬가지로, 현재 LCU의 성분들 U 및 V를 필터링하는 데 사용되는 다른 SAO 파라미터들(예를 들어, 오프셋 값들) 및, 필요한 경우, 대역 위치들(sao_band_position_U 및 sao_band_position_V)이 현재 LCU의 위쪽에 배치된 LCU의 성분 Y의 SAO 파라미터들로부터 획득된다.
그렇지 않고, sao_merge_up_flag_Y로 표시된 플래그가 거짓인 경우, 도 14를 참조하여 앞서 기술한 바와 같이, 단계(1511)에서 현재 LCU의 성분 Y에 대한 SAO 파라미터들이 비트스트림(1501)으로부터 추출된다. 이러한 경우에, 플래그들 sao_type_idx_Y, sao_band_position_Y(필요한 경우), 및 4개의 offsetj_Y의 값이 비트스트림(1501)으로부터 추출된다.
그 다음에, sao_merge_up_flag_Y로 표시된 플래그가 거짓인 경우, 단계(1506)에서, sao_merge_left_flag_UV로 표시된 플래그가 비트스트림(1501)으로부터 획득되고, 이 플래그의 값이 1인지 여부(즉, 참인지)를 판정하기 위해 테스트가 수행된다. sao_merge_left_flag_UV로 표시된 플래그가 참인 경우, 단계(1507)에서, 현재 LCU의 성분들 Y, U 및 V를 필터링하는 데 사용될 SAO 파라미터들이 현재 LCU의 좌측에 배치된 LCU에서의 성분들 U 및 V를, 각각, 필터링하기 위해 이전에 결정된 SAO 파라미터들과 같은 것으로 판정된다.
그렇지 않고, sao_merge_left_flag_UV로 표시된 플래그가 거짓인 경우, sao_merge_up_flag_UV로 표시된 플래그가 비트스트림(1501)으로부터 획득되고, 단계(1508)에서 이 플래그의 값이 1인지 여부(즉, 참인지)를 판정하기 위해 테스트가 수행된다. sao_merge_up_flag_UV로 표시된 플래그가 참인 경우, 단계(1509)에서, 현재 LCU의 성분들 U 및 V를 필터링하는 데 사용될 SAO 파라미터들이 현재 LCU의 위쪽에 배치된 LCU에서의 성분들 U 및 V를, 각각, 필터링하기 위해 이전에 결정된 SAO 파라미터들과 같은 것으로 판정된다.
그렇지 않고, sao_merge_up_flag_UV로 표시된 플래그가 거짓인 경우, 도 14를 참조하여 앞서 기술한 바와 같이, 단계(1510)에서 현재 LCU의 성분들 U 및 V에 대한 SAO 파라미터들이 비트스트림(1501)으로부터 추출된다. 이러한 경우에, 플래그들 sao_type_idx_U, sao_type_idx_V, sao_band_position_U(필요한 경우), sao_band_position_V(필요한 경우), 4개의 offsetj_U, 및 4개의 offsetj_V의 값이 비트스트림(1501)으로부터 추출된다. 이 스테이지[참조 번호(1512)]에서, 현재 LCU의 모든 성분들에 대한 모든 SAO 파라미터들이 이용가능하다.
그 다음에, 단계(1513)에서, SAO 루프 필터가 현재 LCU의 모든 성분들에 적용되고, 디코딩 프로세스는 그 다음 디코딩 단계(1314)로 간다.
여전히 특정의 실시예에 따르면, 현재 LCU의 모든 성분들에 공통인 플래그들(예를 들어, sao_merge_left_flag_YUV 및 sao_merge_up_flag_YUV 플래그들)이 사용될 수 있다. 이러한 경우에, 이들 플래그 둘 다가 거짓인 경우, 각각의 성분에 관련된 플래그들[총칭하여, sao_merge_left_flag_X 및 sao_merge_up_flag_X(X는 Y, U, 또는 V를 나타냄)라고 지칭됨]이 사용될 수 있다.
도 16은 현재 프레임 영역을 처리하기 위해 루프 필터에서 사용될 파라미터들을 결정하는 본 발명의 제1 실시예에 따른 방법의 단계들을 나타낸 플로우차트이다. 도 16에 주어진 예는 보다 구체적으로는 앞서 기술된 제3 특정의 실시예에 관한 것이다.
단계(1602)에서, sao_merge_left_flag_YUV로 표시된 플래그가 비트스트림(1601)으로부터 획득되고, 이 플래그의 값이 1인지 여부(즉, 참인지)를 판정하기 위해 테스트가 수행된다. sao_merge_left_flag_YUV로 표시된 플래그가 참인 경우, 단계(1603)에서, 현재 LCU의 성분들 Y, U 및 V를 필터링하는 데 사용될 SAO 파라미터들이 현재 LCU의 좌측에 배치된 LCU에서의 성분들 Y, U 및 V를, 각각, 필터링하기 위해 이전에 결정된 SAO 파라미터들과 같은 것으로 판정된다.
그에 따라, 현재 LCU의 성분들 Y, U 및 V에 적용될 루프 필터의 유형을 정의하는, 현재 LCU에 대한 플래그 sao_type_idx_Y, sao_type_idx_U 및 sao_type_idx_V의 값이 현재 LCU의 좌측에 배치된 LCU의 대응하는 플래그들의 값과 같은 것으로 간주된다. 마찬가지로, 현재 LCU의 성분들 Y, U 및 V를 필터링하는 데 사용되는 다른 SAO 파라미터들이 현재 LCU의 좌측에 배치된 LCU의 대응하는 성분의 SAO 파라미터들로부터 획득된다.
그렇지 않고, sao_merge_left_flag_YUV로 표시된 플래그가 거짓인 경우, sao_merge_up_flag_YUV로 표시된 플래그가 비트스트림(1601)으로부터 획득되고, 단계(1604)에서 이 플래그의 값이 1인지 여부(즉, 참인지)를 판정하기 위해 테스트가 수행된다. sao_merge_up_flag_YUV로 표시된 플래그가 참인 경우, 단계(1605)에서, 현재 LCU의 성분들 Y, U 및 V를 필터링하는 데 사용될 SAO 파라미터들이 현재 LCU의 위쪽에 배치된 LCU에서의 성분들 Y, U 및 V를, 각각, 필터링하기 위해 이전에 결정된 SAO 파라미터들과 같은 것으로 판정된다.
그렇지 않고, sao_merge_up_flag_YUV로 표시된 플래그가 거짓인 경우, SAO 파라미터들이 이전의 처리된 SAO 파라미터들의 함수로서 획득되어야 하는지 여부를 판정하기 위해, 현재 LCU의 각각의 성분과 연관되어 있는 플래그들이 디코딩된다.
그를 위해, 현재 LCU의 각각의 성분을 순차적으로 처리하기 위해 단계(1606)에서 루프가 시작된다. 각각의 성분 X(X는 Y, U 또는 V임)에 대해, sao_merge_left_flag_X로 표시된 플래그가 비트스트림(1601)으로부터 추출되고, 단계(1607)에서 이 플래그의 값이 1인지 여부(즉, 참인지)를 판정하기 위해 테스트가 수행된다. sao_merge_left_flag_X로 표시된 플래그가 참인 경우, 단계(1608)에서, 현재 LCU의 성분 X를 필터링하는 데 사용될 SAO 파라미터들이 현재 LCU의 좌측에 배치된 LCU에서의 동일한 성분을 필터링하기 위해 이전에 결정된 SAO 파라미터들과 같은 것으로 판정된다.
그렇지 않고, sao_merge_left_flag_X로 표시된 플래그가 거짓인 경우, sao_merge_up_flag_X로 표시된 플래그가 비트스트림(1601)으로부터 획득되고, 단계(1609)에서 이 플래그의 값이 1인지 여부(즉, 참인지)를 판정하기 위해 테스트가 수행된다. sao_merge_up_flag_X로 표시된 플래그가 참인 경우, 단계(1610)에서, 현재 LCU의 성분을 필터링하는 데 사용될 SAO 파라미터들이 현재 LCU의 위쪽에 배치된 LCU에서의 동일한 성분을 필터링하기 위해 이전에 결정된 SAO 파라미터들과 같은 것으로 판정된다.
그렇지 않고, sao_merge_up_flag_X로 표시된 플래그가 거짓인 경우, 단계(1611)에서 현재 LCU에 대한 성분 X에 대한 SAO 파라미터들이 비트스트림(1601)으로부터 추출된다.
그 다음에, 현재 LCU의 성분 X에 대한 SAO 파라미터들을 획득한 후에, 단계(1612)에서, 성분 X가 성분 V인지 여부를 판정하기 위해 테스트가 수행된다. 성분 X가 성분 V가 아닌 경우, 프로세스는 단계(1606)로 분기되어 그 다음 성분을 처리한다. 그렇지 않고, 성분 X가 성분 V인 경우, 단계(1613)에서 SAO 파라미터들이 디코딩되고 현재 LCU의 모든 성분들에 대해 이용가능하다.
그 다음에, 단계(1614)에서, 현재 LCU의 성분들이 획득된 SAO 파라미터들을 사용하여 SAO 루프 필터에서 필터링되고, 디코더는 단계(1615)에서의 그 다음 디코딩 단계로 간다.
유의할 점은, 도 15 및 도 16을 참조하여 기술된 실시예들이 도 13을 참조하여 기술된 LCU 구문에 기초한다는 것이다. 그렇지만, 이들 실시예는 또한 도 12를 참조하여 기술된 APS에 대한 SAO 구문에 기초할 수 있다. 그 특정의 경우에, 성분들 간에 공유되는 파라미터들은 SAO 파라미터들은 물론 unicity 및 repeat row로 표시된 플래그들 그리고 sao_run_diff 및 sao_merge_up_flag로 표시된 구문 요소들이다.
상세하게는 부록의 표 1을 참조하여 앞서 기술한 바와 같이, sao_type_idx로 표시된 구문 요소 또는 플래그는 그의 값이 0일 때 현재 LCU의 현재 성분이 처리되지 않는다는 것을 명시한다. 그렇지 않은 경우, 이는 SAO 유형을 명시한다. 플래그 sao_type_idx의 값이 1 , 2, 3, 또는 4인 경우, 현재 LCU를 필터링하기 위해 에지 오프셋 분류가 사용되고, 플래그 sao_type_idx의 값이 5인 경우, 현재 LCU를 필터링하기 위해 SAO 대역 오프셋이 사용된다.
앞서 기술한 바와 같은 본 발명의 실시예들에 따르면, sao_type_idx로 표시된 이러한 플래그들이 2개 또는 3개의 성분들 간에 공유될 수 있다.
다른 특정의 실시예에서, 성분들은 sao_type_idx로 표시된 플래그의 어떤 값들만을 공유할 수 있다. 환언하면, 제2 성분은 제1 성분의 sao_type_idx로 표시된 플래그의 값이 사전 결정된 값 세트에 속하는 경우에만, 이 값을 공유한다. 따라서, 이 실시예에 따르면, sao_type_idx로 표시된 플래그의 값이 조건부로 공유된다.
예시를 위해, 성분 U를 갖는 주어진 LCU에 대해, 성분 Y와 연관되어 있는 sao_type_idx로 표시된 플래그의 값이 공유되는 것으로 가정될 수 있다. 그렇지만, 이 값이 에지 오프셋 유형의 SAO 분류를 나타내는 경우(즉, sao_type_idx = 1 , 2, 3, 또는 4인 경우), 에지 오프셋의 방향이 그럼에도 불구하고, 성분 Y에 의해 주어지는 것과 같은 에지 오프셋 분류의 방향을 사용하는 대신에, 성분 U와 연관되어 있는 비트스트림 일부로부터 획득될 수 있는 것이 가능하게 될 수 있다. 성분 V와 연관되어 있는 sao_type_idx로 표시된 플래그의 값이 에지 오프셋이 아닌 경우(sao_type_idx = 0 또는 5인 경우), 어떤 방향 정보도 비트스트림으로부터 추출되지 않는다. 환언하면, 성분 Y에 대한 SAO 유형이 0 또는 5인 경우, (유형에 관한) 이 SAO 파라미터가 성분들 U 및 V에 의해 사용될 것이다. 그렇지만, SAO 유형이 성분 Y에 대한 에지 오프셋 유형(즉, 1부터 4까지의 값)인 경우, 성분들 U 및 V에 대해 전용 SAO 유형들이 사용될 것이다.
앞서 기술한 바와 같이, (에지 오프셋 유형의 픽셀 분류를 사용하는 SAO 루프 필터와 연관되어 있는) SAO 파라미터들은 5개의 가능한 클래스들 중 4개의 클래스에 관련되어 있는 4개의 오프셋을 포함한다. 제1 클래스(클래스 "0")는 SAO 필터링 없음에 대응한다. 여기서 상기할 점은, 에지 오프셋 분류의 방향이 SAO 유형에서 신호된다는 것이다.
본 발명의 실시예에 따르면, 에지 오프셋 분류의 방향과 무관하게, 현재 LCU에 대해 에지 오프셋 필터가 선택될 때, 이들 4개의 오프셋이 2개 또는 3개의 성분들 간에 공유될 수 있다.
제1 특정의 실시예에 따르면, 2개 또는 3개의 성분들에 대해 동일한 오프셋들이 사용된다. 그 결과, 3개의 성분을 갖는 픽셀을 필터링하기 위해 2개 또는 3개의 성분이 동일한 4개의 오프셋을 공유하는 경우, 각각, 8개 또는 12개 대신에, 단지 4개의 오프셋이 비트스트림으로부터 추출되면 된다.
자연히, 2개 또는 3개의 성분을 동일한 오프셋들로 처리하는 것을 가능하게 하기 위해 이러한 공통 오프셋들이 인코더측에서 계산될 필요가 있다. 이하에서 기술되는 바와 같이, 이러한 인코딩 선택은 대역 오프셋 필터링을 위해 사용되는 것과 동일하다.
다른 특정의 실시예에서, 성분 Z와 연관되어 있는 오프셋들 Ozj는 다음과 같이 가중 인자 βj에 따라 다른 성분 X의 오프셋들 Oxj로부터 도출된다:
Ozj = βj Oxj
가중 인자 βj는 j의 값이 (β = βj)인지 여부에 관계없이 동일할 수 있다. β의 값 또는 βj의 값들이 사전 결정될 수 있고 일정할 수 있거나, 시퀀스 헤더 또는 슬라이스 헤더와 같은 특정의 헤더들에서 전송될 수 있거나, 심지어 LCU별로(또는 보다 일반적으로 프레임 영역별로) 전송될 수 있다.
값들이 LCU마다 변할 때, 값들이 인코더측 및 디코더측에서 동적으로 계산될 수 있다.
가중 인자들의 값이 이하의 식에 따라 계산될 수 있고:
Figure 112018113188612-pat00003
여기서
Figure 112018113188612-pat00004
는 클래스 j의 픽셀 i의 성분 Z의 값이고, 여기서
Figure 112018113188612-pat00005
Figure 112018113188612-pat00006
는, 특히 부록의 표 2를 참조하여 앞서 기술한 바와 같이, 클래스 j의 픽셀 i의 이웃들의 성분 Z의 값들이다.
그에 따라, 가중 인자 βj의 값은 분류된 픽셀들 및 그의 이웃 픽셀들의 성분 Z의 평균(최대) 차와 분류된 픽셀들 및 그의 이웃 픽셀들의 성분 X의 평균(최대) 차 사이의 비이다. 가중 인자 βj의(또는 β의) 값들을 계산하기 위해 다른 관계식 또는 식이 사용될 수 있다.
여전히 다른 특정의 실시예에서, 비트스트림에 인코딩되어 있는 오프셋들의 값이 가중 인자 βj(또는 β)의 값에 의존할 수 있지만, 이들이 결정되어 있다. 이러한 실시예에서, 가중 인자 β 또는 βj의 값이 1 미만인 경우, 오프셋 Oxj의 값 대신에, 오프셋 Ozj의 값이 비트스트림에 인코딩된다.
실제로, 식 Ozj = βj Oxj에서, βj < 1인 경우, Ozj < Oxj이다. 그 결과, 오프셋 값 Ozj는 Oxj의 값보다 비트스트림에 인코딩되기 위해 적은 수의 비트를 필요로 한다. 디코더가 가중 인자 βj의 값을 알고 있거나 결정할 수 있기 때문에, 디코더는 비트스트림으로부터 Ozj의 값을 디코딩할 수 있고 이하의 식에 따라 Oxj의 값을 결정할 수 있다:
Ozj = (1 / βj) x Oxj
여전히 특정의 실시예에서, 제2 성분 Z와 연관되어 있는 오프셋들 Ozj의 절대값은 제1 성분 X와 연관되어 있는 오프셋들 Ox(5-j)의 절대값과 같다. 여기서 유의할 점은, 이 특정의 실시예에 따르면, 에지 오프셋 클래스의 오프셋의 부호가 아티팩트를 감소시키기 위해 사전 결정되어 있기 때문에 절대값만이 사용된다는 것이다.
도 17은 한 성분과 연관되어 있는 오프셋들의 값들이 제2 성분과 연관되어 있는 오프셋들의 미러링된 값들에 대응하는 이러한 특정의 실시예를 나타낸 것이다. 예시된 바와 같이, 오프셋들의 역순을 고려함으로써, 성분 Z의 4개의 클래스에 대한 오프셋이 성분 X로부터의 오프셋들로부터 도출된다. 여기서 상기할 점은, 오프셋들에 적용될 부호가 분류로부터 추론된다는 것이다.
여전히 다른 특정의 실시예에서, 제2 성분과 연관되어 있는 오프셋들로서 사용되는 제1 성분과 연관되어 있는 오프셋들의 미러링된 값들이 가중 인자 βj로 가중될 수 있다. 이 특정의 실시예에 따르면, 제2 성분 Z와 연관되어 있는 오프셋들 Ozj의 절대값은 이하의 식에 따라 제1 성분 X와 연관되어 있는 오프셋들 Ox(5-j)의 가중 절대값과 같다.
Ozj = βj Ox(5-j)
앞서 기술한 바와 같이, SAO 대역 오프셋 필터는 2가지 유형의 파라미터들을 필요로 한다. 제1 유형은 위치(sao_band_position)에 관한 것이고, 제2 유형은 주어진 위치로부터 정의되는 대역의 4개의 클래스에 관련된 4개의 오프셋에 관한 것이다. 본 발명의 실시예에 따르면, 프레임 영역의 성분들과 연관되어 있는 2가지 유형의 파라미터가 이미 처리된 다른 프레임 영역의 성분들과 연관되어 있는 대응하는 파라미터들로부터 개별적으로 획득될 수 있다. 그렇지만, 위치(sao_band_position)에 관련된 실시예들 및 오프셋에 관련된 실시예들이 쉽게 결합될 수 있다. 더욱이, 에지 오프셋 실시예들을 참조하여 앞서 기술한 바와 같이, 대역 오프셋 필터링을 위한 위치 및 오프셋과 관련되어 있는 이들 실시예들 또는 실시예들의 결합이, 앞서 기술한 바와 같이, 병합 플래그들의 값들 또는 APS에 대한 SAO 구문의 값들의 함수로서 적용된다.
유의할 점은, 한 성분과 연관되어 있는 SAO 파라미터들이 2개 또는 3개의 성분을 처리하는 데 사용될 수 있기 때문에, 이하의 설명이, 예시를 위해, 2개의 성분을 처리하는 데 하나의 성분과 연관되어 있는 SAO 파라미터들을 사용하는 것에 집중되어 있다는 것이다.
도 18은, 대역 오프셋 분류를 사용하여 SAO 루프 필터를 적용할 때, 제2 성분 Z와 연관되어 있는 오프셋들의 값들이 제1 성분 X와 연관되어 있는 오프셋들의 값들로부터 어떻게 획득될 수 있는지를 나타낸 것이다.
참조 번호(1801)는 현재 HEVC 규격에 따라 대역 오프셋 분류를 사용하여 SAO 루프 필터를 적용하기 위해 SAO 파라미터들(상세하게는, 성분들과 연관되어 있는 오프셋들)을 사용하는 것을 나타낸 것이다. 각각의 성분과 연관되어 있는 오프셋들 모두는 인코딩된 영상을 전송하는 데 사용되는 비트스트림에 인코딩되어 있다. 예시를 위해, 비트스트림은 제1 성분 X와 연관되어 있는 오프셋들(Ox1 내지 Ox4)(총칭하여, Oxj라고 지칭됨), 및 제2 성분 Z와 연관되어 있는 오프셋들(Oz1 내지 Oz4)(총칭하여, Ozj라고 지칭됨)을 포함한다. 참조 번호(1801)로 나타낸 바와 같이, 오프셋들 Oxj는 BO X로 표시된 4개의 연속적인 클래스들을 포함하는 제1 대역에 대응하고, 오프셋들 Ozj는 BO Z로 표시된 4개의 연속적인 클래스들을 역시 포함하는 제2 대역에 대응한다.
참조 번호(1802)는 오프셋들 Ozj가 오프셋들 Oxj와 같은 제1 특정의 실시예를 나타낸다. 따라서, 오프셋들 Ozj는 비트스트림에 인코딩되지 않는다. 이들은 에지 오프셋 필터링을 참조하여 앞서 기술한 바와 같은 대응하는 병합 플래그들을 사용함으로써 복원될 수 있다. 이와 유사하게, 오프셋들 Ozj가 오프셋들 Oxj의 함수(Ozj = βj Oxj)로서 결정될 수 있도록 가중 인자 β 또는 βj가 사용될 수 있다. 다시 말하지만, 가중 인자 β 또는 βj의 값 또는 값들이 비트스트림에서의 상이한 레벨들에서(시퀀스 레벨, 프레임 레벨, 슬라이스 레벨, 또는 LCU 레벨에서) 사전 결정되거나 표현될 수 있다. 이와 관련하여, 가중 인자 β 또는 βj의 값 또는 값들이 마이너스일 수 있다(에지 오프셋의 경우, 오프셋들의 부호가 클래스의 함수로서 결정됨). 상세하게는, 가중 인자가 마이너스 1일 수 있다(β = -1 ).
여전히 다른 특정의 실시예에서, 가중 인자 β 또는 βj의 값 또는 값들이 동적으로 결정될 수 있다. 예시를 위해, 가중 인자 β 또는 βj의 값 또는 값들이 대역의 위치(sao_band_position)의 함수로서 결정될 수 있다. 예를 들어, 대역 Z의 클래스 j 및 대역 X의 클래스 j가 구간(도 18에서 굵은 선으로 나타냄)의 중앙을 고려해서 동일한 하위 구간에 있지 않은 경우, β = -1이고, 그렇지 않은 경우 β = 1이다. 여기서, 전체 구간이 2개의 하위 구간으로 분할되어 있는 것이 생각되고 있으며, 여기서 (픽셀 값에 대해 8 비트 심도가 사용될 때) 제1 구간은 0부터 127까지의 픽셀 값들로 된 구간이고, 제2 구간은 128부터 256까지의 픽셀 값들로 된 구간이다.
다른 실시예에 따르면, 가중 인자 βj의 값들은 성분 Z의 현재 클래스(또는 가중 인자 β의 값에 대한 클래스 세트)와 구간의 중앙 간의 거리와 성분 X의 현재 클래스(또는 가중 인자 β의 값에 대한 클래스 세트)와 구간의 중앙 간의 거리의 비의 함수로서 결정되고, 이는 다음과 같이 표현될 수 있고:
Figure 112018113188612-pat00007
여기서 sao_band_position_Zj - 16은 현재 성분 Z와 구간의 중앙 간의 거리이고 sao_band_position_Xj - 16은 현재 성분 X와 구간의 중앙 간의 거리이다. 다른 실시예에서, 역비(inverse ratio)가 생각될 수 있다. 에지 오프셋에 대해서와 같이, 가중 인자 β 또는 βj의 값 또는 값들을 결정하기 위해 기타 관계식 및 식이 사용될 수 있다. 더욱이, 앞서 기술한 바와 같이, 오프셋들 Oxj 또는 오프셋들 Ozj를 인코딩하는 데 필요한 비트 수를 감소시키기 위해, 가중 인자 β 또는 βj의 값 또는 값들(그렇지만, 이들이 결정되어 있음)에 의존하여 오프셋들 Oxj 또는 오프셋들 Ozj가 비트스트림에 삽입될 수 있다.
참조 번호(1803)는 제1 성분과 연관되어 있는 오프셋들의 미러링된 값들이 대역 오프셋 필터링을 위해 제2 성분과 연관되어 있는 오프셋들의 값들로서 어떻게 사용될 수 있는지를 나타내고 있다. 에지 오프셋 필터링을 참조하여 앞서 기술한 바와 같이, 오프셋들 Ozj와 오프셋들 Oxj 사이의 관계식이 이하의 식으로 표현될 수 있다:
Ozj = Ox(5-j)
다시 말하지만, 이 특정의 실시예는 식 Ozj =βj Ox(5-j)에 따라 가중 인자의 사용과 결합될 수 있다. 특정의 실시예에서, βj는 -1이다.
대역 오프셋 필터링을 위한 오프셋들의 구체적인 도출은 픽셀 대역 오프셋 분류의 수정을 가능하게 하는 클래스의 크기의 증가 또는 감소이다. 참조 번호(1804)는 이러한 분류 적응(classification adaptation)의 한 예를 나타낸 것이다. 예시된 예에 따르면, 성분 X에 대한 대역 분류와 비교하여 성분 Z에 대해 클래당 픽셀의 수가 2로 나누어진다. 따라서, 대역 오프셋 필터링에 따른 성분 Z에 대한 픽셀 분류는 6 비트를 검사하는 것을 필요로 한다. 환언하면, 픽셀을 분류하기 위해 최상위 6 비트가 검사되어야만 한다. 따라서, 성분 Z에 대해 전체 픽셀 값 구간이 64개의 범위들로 나누어지는 것이 생각될 수 있다.
이 관계가 구현예에 대해 고정되어 있을 수 있거나, 시퀀스, 프레임, 슬라이스 또는 LCU 레벨에서 신호될 수 있다. 이는 LCU 레벨(또는 시퀀스, 프레임 또는 슬라이스)에서 성분 X에 대한 픽셀 범위 크기와 성분 Z에 대한 픽셀 범위 크기의 비를 고려함으로써 동적으로 결정될 수 있다. 그에 따라, 성분 Z에 대한 클래스들의 크기가 다음과 같이 결정될 수 있고:
모든 i = 0 내지 N에 대해,
Figure 112018113188612-pat00008
여기서 Pzi는 성분 Z의 픽셀들이고 Pxi는 성분 X의 픽셀들이다. 대역 분류를 간략화하기 위해, 클래스당 픽셀 값들의 수가 (최상위 비트들의 비트 검사를 가능하게 하는) 2의 멱수이다.
이 특정의 실시예는 참조 번호(1805)로 예시되어 있는 바와 같이 대역 오프셋의 오프셋들의 도출에 대해 기술되어 있는 모든 다른 특정의 실시예들과 결합될 수 있고, 여기서 이 실시예는 성분 X와 연관되어 있는 미러링된 값 오프셋들의 사용과 결합된다.
SAO 에지 및 대역 필터링 둘 다에 적용가능한 다른 특정의 실시예에서, 하나의 성분으로부터의 오프셋들이 2개 또는 3개의 성분으로부터 도출될 수 있다.
1개 또는 2개의 다른 성분에 대한 오프셋들을 결정(또는 도출)하기 위해 하나의 성분으로부터의 오프셋들을 사용하는 것에 관련되어 있는 SAO 에지 및 대역 필터링 둘 다에 적용가능한 모든 기술된 실시예들은, 제2 성분 및/또는 제3 성분의 오프셋들이 저장될 필요가 없기 때문에, 이러한 도출이 (모든 LCU들에 대해) 시스템적으로 사용될 때, 특히 요청된 메모리 버퍼의 크기에 관한 장점들을 제공한다.
(SAO 에지 및 대역 필터링 둘 다에 대한) 다른 특정의 실시예에서, 제1 성분으로부터의 오프셋들에 따라 제2 성분으로부터의 오프셋들을 예측하기 위해 성분들 간의 오프셋 도출이 사용될 수 있다. (설명은 성분들 간에 오프셋들을 공유하는 것에 중점을 두고 있다.) 이 실시예에서, 성분 Z의 오프셋 값을 직접 인코딩하는 대신에, 성분 Z의 오프셋들의 잔차들이 비트스트림에 인코딩된다. 디코더측에서, 성분 X의 오프셋들에 잔차 오프셋들을 가산함으로써 성분 Z의 오프셋들이 획득된다.
SAO 에지 및 대역 오프셋 필터링 둘 다에 적용가능한 다른 특정의 실시예에서, 제1 성분과 연관되어 있는 오프셋들에 따라 제2 성분과 연관되어 있는 오프셋들의 컨텍스트 산술 코딩(context arithmetic coding)에 대한 컨텍스트로서 성분들 간의 오프셋 도출이 사용될 수 있다.
여전히 SAO 에지 및 대역 필터링 둘 다에 적용가능한 다른 특정의 실시예에서, 2개의 성분들 간의 오프셋 도출이 비트스트림에서 신호될 수 있고, 모든 성분들에 대해 오프셋들이 비트스트림에 인코딩되어 있는 종래의 모드와 경쟁할 수 있다.
앞서 기술한 바와 같이, 대역 위치(sao_band_position)는 전체 픽셀 값 구간에서의 대역의 제1 클래스의 위치이다. 표준의 5 비트 검사를 고려함으로써, sao_band_position 파라미터의 값은 범위 [0; 32]에 속한다. 본 발명의 실시예에 따르면, 이 파라미터가 2개 또는 3개의 성분들 간에 공유될 수 있다. 예시를 위해, 설명은 성분 X와 연관되어 있는 그의 값으로부터 성분 Z에 관한 이 파라미터를 도출하는 것에 중점을 두고 있다.
도 19는, 대역 오프셋 분류를 사용하여 SAO 루프 필터를 적용할 때, 제2 성분 Z와 연관되어 있는 sao_band_position 파라미터의 값이 제1 성분 X와 연관되어 있는 sao_band_position 파라미터의 값으로부터 어떻게 획득될 수 있는지를 나타낸 것이다.
참조 번호(1901)는 현재 HEVC 규격에 따라 비트스트림에서 전송되는 2개의 sao_band_position 값의 한 예를 나타낸 것이다.
참조 번호(1902)에 의해 예시된 특정의 실시예에서, 성분 Z 및 성분 X 둘 다에 대해 공통 sao_band_position 값이 사용된다.
특정의 실시예들에서, 대역의 중앙 위치가 전체 픽셀 구간의 중앙과 비교된다. 얻어진 값은 sao_band_position - 14[14는 구간의 중앙(16) - 대역의 중앙(2)에 대응함]이다.
그에 따라, 참조 번호(1903)에 의해 예시된 특정의 실시예에서, 성분 Z와 연관되어 있는 sao_band_position_Z는 전체 픽셀 구간의 중앙에 대해 성분 X와 연관되어 있는 sao_band_position_X와 대칭인 것으로 정의된다. 따라서, (sao_band_position_Z - 14)는 -(sao_band_position_X - 14)와 같은 것으로 간주된다. 이 예에서, sao_band_position_X가 6이기 때문에, sao_band_position_Z는 따라서 22이다[-(6-14)+14= 22].
여전히 참조 번호(1904)에 의해 예시된 특정의 실시예에서, 성분 Z와 연관되어 있는 sao_band_position_Z 값을 성분 X와 연관되어 있는 sao_band_position_X 값 및 전체 픽셀 구간의 중앙의 위치의 함수로서 결정하기 위해 가중 인자 β가 사용된다. 이것은, 이전의 실시예에서와 같이, 전체 픽셀 구간의 중앙과 각각의 성분 X 및 Z의 sao_band_position 값 간의 상대 위치에 기초한다. 이 예에 따르면, 사용될 관계식은 다음과 같을 수 있다:
sao_band_position_Z - 14 = β (sao_band_position_X - 14)
즉,
sao_band_position_Z = β (sao_band_position_X - 14) +14
도 19에 주어진 예에서, β = -1/2. 그 경우에, sao_band_position_X는 6이고, 그 결과 sao_band_position_Z는 18이다[-1/2(6-14)+14=18].
가중 인자 β의 값이 구현예에 대해 사전 결정되거나 임의의 레벨(시퀀스, 프레임, 슬라이스 또는 LCU)에서 전송될 수 있다.
여전히 SAO 에지 및 대역 필터링 둘 다에 적용가능한 다른 특정의 실시예에서, 2개의 성분들 간의 sao_band_position 파라미터의 도출이 비트스트림에서 신호될 수 있고, 모든 성분들에 대해 sao_band_position 파라미터 값이 비트스트림에 인코딩되어 있는 종래의 모드와 경쟁할 수 있다.
SAO 파라미터들이 2개 또는 3개의 색상 성분들 간에 공유될 때의 SAO 파라미터들의 인코딩 선택은 바람직하게는 코딩 효율에 관련되어 있다. 환언하면, 공유되는 SAO 파라미터들을 선택하는 것은 유리하게도 이들 파라미터 및 연관된 값들의 코딩 효율을 고려한다. 여기서 상기할 점은, 레이트 왜곡 비용의 면에서의 최상의 오프셋의 선택이 에지 및 대역 오프셋 필터링 둘 다에 대해 동일하다는 것이다.
어느 SAO 유형(에지 또는 대역)이 사용되는 간에, 이들 오프셋이 2개의 성분 Z와 X 간에 공유될 때의 오프셋들의 인코딩 선택은 대역 중앙 선택 이전에 이하에서 본 명세서에 기술되어 있다.
하나의 성분에 대한 왜곡의 면에서 최적의 오프셋을 결정하는 인코딩 프로세스를 나타낸 도 3을 참조하여 기술한 바와 같이, 성분 X에 관련되어 있는 SumXj 및 SumNbPixXj 값 및 성분 Z에 관련되어 있는 SumZj 및 SumNbPixZj 값이 모든 클래스 j에 대해 알려져 있다. SumXj 및 SumZj는, 각각, 성분 X 및 Z에 대해, 클래스 j에서의 픽셀 값들과 그의 원래의 값들 간의 차의 합이다. SumNbPixXj 및 SumNbPixZj는, 각각, X 및 Z 성분에 대해, 클래스 j에서의 픽셀들의 수이다. 이들 4개의 파라미터의 값들이 모든 클래스들에대해 이미 계산되어 있는 것으로 가정된다.
목적이 Ozj = Oxj를 얻는 것인 특정의 실시예에서, 최적의 오프셋 Ooptj가 이하의 식에 의해 결정될 수 있다:
Figure 112018113188612-pat00009
그 다음에, 앞서 기술한 바와 같이, 각각의 성분을 독립적으로 처리하기 위해, 인코더는 레이트 왜곡 기준의 면에서 최상의 오프셋 Oxj를 결정한다.
Ozj = Oxj인 특정의 실시예에서, 이것은 다음과 같이 레이트 왜곡 비용을 최소화하는 것이고:
Figure 112018113188612-pat00010
이는 이하의 표현식으로 간략화될 수 있다:
Figure 112018113188612-pat00011
미러링된 값들이 에지 오프셋 경우에 대해 오프셋들[Ozj = -Ox(5-j)]을 결정하는 것을 목표로 하는 특정의 실시예에서, 최적의 오프셋이 이하의 식에 의해 정의될 수 있다:
Figure 112018113188612-pat00012
그 다음에, 인코더는 레이트 왜곡 기준의 면에서 최상의 오프셋 Oxj를 결정한다. Oz(5-j) = -Oxj인 특정의 실시예에 따르면, 이것은 다음과 같이 레이트 왜곡 비용을 최소화하는 것이다:
Figure 112018113188612-pat00013
또는
Figure 112018113188612-pat00014
Ozj = -Oxj인 특정의 실시예에서, 최적의 오프셋 Ooptj는 이하의 식에 의해 결정된다:
Figure 112018113188612-pat00015
그 다음에, 인코더는 레이트 왜곡 기준의 면에서 최상의 오프셋 Oxj를 결정한다. Ozj = -Oxj인 특정의 실시예에 따르면, 이것은 다음과 같이 레이트 왜곡 비용을 최소화하는 것이고:
Figure 112018113188612-pat00016
이는 이하의 표현식으로 간략화될 수 있다:
Figure 112018113188612-pat00017
Ozj = βj Oxj인 특정의 실시예에서, 인코더는 성분 X에 대한 최적의 OoptXj 값 및 성분 Z에 대한 최적의 OoptZj 값을 독립적으로 결정한다. 그 다음에, 인코더는 레이트 왜곡 기준의 면에서 최상의 오프셋 Oxj를 결정한다. Ozj = βj Oxj인 특정의 실시예에 따르면, 이것은 도 4를 참조하여 기술된 바와 같이, 레이트 왜곡 비용을 최소화하는 것이다.
도 20은 레이트 왜곡 기준에 따라 2개 또는 3개의 성분에 의해 사용될 최적의 오프셋을 결정하는 방법의 단계들을 나타낸 플로우차트이다. 도 20에 예시되어 있는 프로세스는 도 4를 참조하여 기술된 것에 기초하고 있다. 단계들(2001, 2004, 2005, 및 2006)은, 각각, 단계들(401 , 404, 405, 및 406)과 유사하다.
단계(2002)는 단계(2002)에서 시작되는 루프가 오프셋 Oxj를 sign(OoptXj) x max(f x OoptXj, OoptZj)(f는 βj<1인 경우 1/ βj이고, 그렇지 않은 경우 βj임)로부터 0으로 변하게 한다는 점에서 단계(402)와 상이하다.
Ozj = βj Oxj인 일반화된 실시예에서, 레이트 왜곡 기준은 이하의 식에 따라 계산되고:
Figure 112018113188612-pat00018
이는 또한 다음과 같이 쓰여질 수 있다:
Figure 112018113188612-pat00019
단계(2003)에서, 예시를 위해, βj =-1인 특정의 경우가 생각되고 있다.
2개의 성분 X와 Z 간에 공유되는 sao_band_position 값의 선택이 이하의 관계식에 따라 결정될 수 있다:
Figure 112018113188612-pat00020
도 21은 2개의 성분 간에 공유되는 SAO 대역 위치를 결정하는 방법의 단계들을 나타낸 플로우차트이다. 이는 도 5를 참조하여 기술된 프로세스에 기초하고 있다. 도 21에 예시되어 있는 프로세스는 성분 X와 연관되어 있는 sao_band_position_X의 값으로부터 성분 Z와 연관되어 있는 sao_band_position_Z의 값을 결정하는 것을 목표로 한다.
도 21에 예시되어 있는 프로세스와 도 5에 예시되어 있는 프로세스 간의 주된 차이점은 성분 Z와 연관되어 있는 클래스들의 레이트 왜곡 값들 및 성분 X와 연관되어 있는 클래스들의 레이트 왜곡 값들 둘 다가 이하의 식에 따라 서로 가산되는 모듈(2105)에 관련되어 있고:
J'i = J'i + JZj +JXjx
여기서 JZj는 성분 Z의 클래스 j에 대한 레이트 왜곡 값이고, JXjx는 성분 X의 클래스 j에 대한 레이트 왜곡 값이다. 더욱이, sao_band_position_Z와 sao_band_position_X를 결합하여 선택하기 위해, 인덱스 jx가 이하의 식에 따라 도출된다:
Figure 112018113188612-pat00021
그에 따라, jx는 β (j - 14) +14이다.
디코딩 복잡도를 감소시키기 위해 성분 분류를 회피하는 제2 주된 실시예에 따르면, SAO 클래스에서의 픽셀들이 단일 성분의 함수로서 결정된다. 픽셀 위치들이 이어서 필터링될 필요가 있는 성분 또는 성분들을 결정하는 데 사용된다. 그에 따라, 픽셀 성분이 그 성분에 따라 필터링되어야 하는 경우, 그 픽셀의 다른 성분 또는 2개의 다른 성분이 필터링된다.
도 22는 본 발명의 특정의 실시예에 따른, 비트스트림을 디코딩하는 방법의 단계들을 나타낸 플로우차트이다. 이 도면에 예시되어 있는 프로세스는 도 6에 예시되어 있는 것에 기초하고 있다. 이는 성분 Z를 필터링하기 위해 성분 X의 분류를 사용하는 것을 목표로 한다.
초기 단계(2201)는 도 12, 도 13 및 도 14를 참조하여 기술된 프로세스들에 따라 SAO 파라미터들을 결정하는 것이다. 그렇지만, 도 22에 예시된 알고리즘에 따르면, sao_type_idx 파라미터의 값, 그리고, 이 값이 5인 경우, 성분 X에 대한 sao_band_position 파라미터의 값만이 단계(2202)에서 비트스트림(도시 생략)으로부터 결정된다. 실제로, 이들 파라미터가 분류에 관련되어 있기 때문에, 이들이 성분 X의 분류에 따라 필터링되는 성분 Z를 분류할 필요는 없다.
그 다음에, 단계(2203)에서, 성분 X와 연관되어 있는 4개의 오프셋이 비트스트림으로부터 획득된다. 이와 유사하게, 단계(2204)에서 성분 Z와 연관되어 있는 4개의 오프셋이 비트스트림으로부터 획득된다. 유의할 점은, 앞서 기술한 바와 같이, 이들 오프셋이 다른 성분들 및/또는 다른 LCU와 연관되어 있는 다른 오프셋들의 함수로서 결정될 수 있다는 것이다.
단계(2205)에서, 카운터 변수 i는 값 0으로 설정된다. 그 다음에, N개의 픽셀을 포함하는 성분 X의 프레임 영역[참조 번호(2206)]의 제1 픽셀 Pxj이 단계(2207)에서 추출된다. 이와 유사하게, 성분 Z의 프레임 영역[참조 번호(2208)]의 제1 픽셀 Pzi가 단계(2209)에서 추출된다. 예시를 위해, 여기서 성분 Z의 프레임 영역이 또한 N개의 픽셀을 포함하는(성분 X 및 Z가 프레임 영역당 동일한 양의 픽셀을 가지는) 것으로 한다.
그 다음에, 단계(2210)에서, 제1 픽셀 Pxi의 성분 X가, 부록의 표 2 및 도 2를, 각각, 참조하여 앞서 기술된 바와 같이, sao_type_idx_X 파라미터의 값(그리고, 필요한 경우, sao_band_position_X 파라미터의 값)에 따라 에지 오프셋 분류 또는 대역 오프셋 분류에 따라 분류된다.
단계(2211)에서, 픽셀 Pxi의 성분 X가 필터링되어야 하는지 여부(즉, Pxi가 SAO 클래스에 속하는지)를 판정하기 위해 테스트가 수행된다. Pxi가 SAO 클래스에 속하는 경우, 관련 클래스 번호 j가 식별되고, 단계(2212)에서 대응하는 오프셋 값이 성분 X와 연관되어 있는 오프셋 테이블로부터 획득된다. 그 다음에, 단계(2213)에서, 픽셀 Pxi의 성분 X가 획득된 오프셋을 그의 값에 가산함으로써 필터링된다. 픽셀 Pxi의 필터링된 성분 X는 P'xi[참조 번호(2214)]라고 한다. 동시에 또는 순차적으로, 성분 Z와 연관되어 있고 클래스 번호 j에 대응하는 오프셋 값이 단계(2215)에서 성분 Z와 연관되어 있는 오프셋 테이블로부터 획득된다. 그 다음에, 단계(2216)에서, 픽셀 Pzi의 성분 Z가 획득된 오프셋을 그의 값에 가산함으로써 필터링된다. 픽셀 Pzi의 필터링된 성분 Z는 P'zi[참조 번호(2217)]라고 한다.
그 다음에, 단계(2218)에서, 필터링된 성분 P'xi 및 P'zj가 필터링된 프레임 영역(각각, 2219 및 2220이라고 함)의 성분 X 및 성분 Z에 넣어진다. 단계(2218)에서, 필터링된 픽셀 P'xi 및 P'zj는, 각각, 2219 및 2220이라고 하는 처리된 프레임들의 픽셀 Pxi 및 Pzj를 대체한다.
Pxi가 SAO 클래스에 속하지 않는 경우, 필터링된 프레임 영역의 성분 X 및 성분 Z에서의 성분들 Pxi 및 Pzj가 단계들(2221, 2222, 및 2218)에서 그대로 있다.
그 다음에, 단계(2223)에서, 현재 프레임 영역의 그 다음 픽셀들에 필터 프로세스를 마찬가지로 적용하기 위해 카운터 변수 i가 1만큼 증가된다.
단계(2224)에서, 현재 프레임 영역의 N개의 픽셀들 모두가 처리되었는지(i≥N인지) 여부가 판정된다. 예인 경우, 프레임 영역의 필터링된 성분들 X 및 Z가 재구성되고, SAO 재구성된 프레임에 가산될 수 있다.
도 22는 양 성분이 현재 프레임 영역에 대해 동일한 수의 픽셀들을 가질 때 다른 성분 Z를 유사하게 필터링하기 위해 하나의 성분의 SAO 분류를 사용하는 것을 나타내고 있다.
그렇지만, 프레임 영역의 성분들이 항상 동일한 수의 픽셀들을 가지는 것은 아니다. Nz로 표시된 성분 Z에 대한 픽셀 수에 관해 Nx로 표시된 성분 X에 대한 상대 픽셀 수에 따라, 2개의 경우가 생각될 수 있다. 프레임 영역 내의 2개의 상이한 성분들의 픽셀 수들 간의 차가 통상적으로 2의 배수이기 때문에, 픽셀 성분 수들 간의 비정수 관계를 고려하는 것이 일반적으로 필요하지 않다.
성분 Z의 픽셀들의 수가 성분 X의 픽셀들의 수보다 큰 경우(Nx < Nz)를 고려하여, Pzi가 Nz/Nx개의 픽셀들로 된 그룹인 것으로 생각함으로써 도 22를 참조하여 기술된 알고리즘이 쉽게 적응될 수 있다. 그에 따라, 오프셋 OffsetZi가 픽셀 그룹 Pzi에 가산될 때, 이 오프셋은 픽셀 그룹 Pzi의 모든 픽셀들에 적용된다. 더욱이, 특정의 실시예에서, 오프셋 OffsetZi가 픽셀 그룹 Pzi와 동일한 크기의 오프셋 그룹인 것이 생각될 수 있다.
성분 X의 픽셀들의 수가 성분 Z의 픽셀들의 수보다 큰 경우(Nx > Nz)를 고려하여, 몇개의 실시예들이 생각될 수 있다. 이러한 경우에, 도 22를 참조하여 기술된 단계들(2216 및 2218)은 성분 X의 픽셀들의 수와 성분 Z의 픽셀들의 수 사이의 관계를 고려할 필요가 있다. 도 22에서, Pzi가 Pz(i/Nx)에 의해 변경된다.
제1 특정의 실시예에서, Pxi가 적어도 한번 필터링된 경우에만 오프셋 OffsetZi가 그룹 Pz(i/Nx)에 가산된다.
다른 특정의 실시예에 따르면, 도 22의 단계(2218)는 Pxi가 필터링된 횟수를 고려한다. 횟수가 2xNx/Nz 초과인 경우, OffsetZi가 Pz(i/Nx)에 가산된다.
여전히 특정의 실시예에 따르면, 단계(2218)는 Pz(i/Nx) 또는 P'z(i/Nx)를 Nx/Nz번 수신하고, 성분 Z에 대한 필터링된 프레임 영역에 배치되는 픽셀 값을 생성하기 위해 평균을 계산한다(2220).
도 23은 하나의 성분 X의 SAO 분류를 다른 성분 Z를 유사하게 필터링하기 위해 사용하는 것을 나타낸 것이다.
예시를 위해, 블록(2301)의 회색 픽셀들은 현재 구현 HEVC에 따라 성분 X에 대한 현재 클래스 j의 유형 i의 SAO 루프 필터에 대해 필터링된 픽셀들을 나타낸다. 이와 유사하게, 블록(2302)의 흑색 픽셀들은 현재 HEVC 규격에 따라 성분 Z에 대한 현재 클래스 j의 유형 i의 SAO 루프 필터에 대해 필터링된 픽셀들을 나타낸다.
따라서, 도 23에 예시된 바와 같이, 현재 HEVC 규격을 고려하면 성분 X에서의 회색 픽셀들 및 성분 Z에서의 흑색 픽셀들이 항상 동일한 위치에 있는 것은 아니다.
여전히 예시를 위해, 블록(2303)의 회색 픽셀들은 현재 구현 HEVC에 따라 성분 X에 대한 현재 클래스 j의 유형 i의 SAO 루프 필터에 대해 필터링된 픽셀들을 나타낸다. 그렇지만, 블록(2304)의 흑색 픽셀들은 성분 X의 분류에 따라 성분 Z에 대해 SAO 루프 필터에 대해 필터링된 픽셀들을 나타낸다[블록(2303)]. 그에 따라, 회색 픽셀들 및 흑색 픽셀들이 동일한 위치에 있다. 이 결과 양 성분에 대해 단지 하나의 분류를 사용한다.
유의할 점은, 이들 주요 실시예 둘 다가 코딩 효율 및 디코딩 복잡도를 최적화하기 위해 결합될 수 있다는 것이다.
본 발명이 특정의 실시예들을 참조하여 이상에서 기술되어 있지만, 본 발명이 특정의 실시예들로 제한되지 않고, 본 발명의 범위 내에 속하는 수정들이 기술 분야의 당업자에게 명백할 것이다. 상세하게는, 이전의 설명이, 예시를 위해, YUV 성분들을 참조하고 있지만, RGB(적색, 녹색 및 청색 성분)와 같은 기타 방식들이 사용될 수 있다.
예를 들어, 이전의 실시예들이 영상의 픽셀들 및 그의 대응하는 픽셀 값들과 관련하여 기술되어 있지만, 본 발명과 관련하여, 픽셀 그룹이 대응하는 그룹 픽셀 값과 함께 고려될 수 있다는 것을 잘 알 것이다. 샘플은 따라서 영상의 하나 이상의 픽셀에 대응할 수 있다.
본 발명의 추가의 측면들이 이하에 기재되어 있다.
본 발명의 제1 추가의 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 인코딩하는 방법이 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 방법은,
적어도 하나의 인코딩된 샘플을 제공하기 위해 영상의 적어도 하나의 샘플의 제1 및 제2 성분을 인코딩하는 단계;
적어도 하나의 인코딩된 샘플을 디코딩하는 단계;
적어도 하나의 필터링 파라미터를 영상의 적어도 하나의 샘플의 적어도 하나의 성분과 적어도 하나의 대응하는 디코딩된 샘플의 적어도 하나의 대응하는 성분 간의 차의 함수로서 계산하는 단계 - 적어도 하나의 필터링 파라미터는 루프 필터에서 디코딩된 샘플의 적어도 제1 및 제2 성분을 독립적으로 필터링하는 데 사용되기 위해 계산됨 - 를 포함한다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
일 실시예에서, 적어도 하나의 필터링 파라미터를 코딩하는 효율이 최적이도록 적어도 하나의 필터링 파라미터가 복수의 추정된 필터링 파라미터들의 함수로서 결정된다.
일 실시예에서, 적어도 하나의 필터링 파라미터가 영상의 일부의 샘플들의 적어도 하나의 성분과 대응하는 디코딩된 샘플들의 적어도 하나의 대응하는 성분 간의 차, 영상의 일부에서의 적어도 하나의 성분의 샘플들의 수, 및 영상의 일부의 샘플들의 2개의 성분의 값의 함수로서 결정된다.
일 실시예에서, 적어도 하나의 필터링 파라미터가 영상의 적어도 하나의 샘플의 제1 성분과 적어도 하나의 대응하는 디코딩된 샘플의 대응하는 제1 성분 간의 차의 함수로서 계산된 제1 필터링 파라미터 및 영상의 적어도 하나의 샘플의 제2 성분과 적어도 하나의 대응하는 디코딩된 샘플의 대응하는 제2 성분 간의 차의 함수로서 계산된 제2 필터링 파라미터의 함수로서 결정된다.
일 실시예에서, 제1 및 제2 필터링 파라미터는 영상의 일부의 복수의 샘플들의 함수로서 계산된다.
일 실시예에서, 적어도 하나의 필터링 파라미터는 필터링될 샘플 성분에 가산될 적어도 하나의 오프셋을 포함한다.
일 실시예에서, 적어도 하나의 필터링 파라미터는 적어도 하나의 오프셋을 가중하기 위한 적어도 하나의 가중 인자를 추가로 포함한다.
일 실시예에서, 적어도 하나의 필터링 파라미터는 필터링될 적어도 하나의 샘플 성분 클래스를 정의하는 대역의 적어도 하나의 위치를 추가로 포함한다.
일 실시예에서, 이 방법은 적어도 하나의 위치를 상이한 성분들에 대해 추정된 상이한 레이트 왜곡 값들의 함수로서 결정하는 단계를 추가로 포함한다.
여전히 일 실시예에서, 적어도 하나의 필터링 파라미터는 제1 샘플의 적어도 제1 성분과 연관되어 있는 적어도 하나의 플래그를 추가로 포함하고, 적어도 하나의 플래그는 적어도 제1 성분을 필터링하기 위한, 제2 샘플의 적어도 제2 성분과 연관되어 있는 적어도 하나의 필터링 파라미터에 대한 참조를 나타낸다.
일 실시예에서, 적어도 하나의 필터링 파라미터는 제1 샘플의 적어도 제1 성분과 연관되어 있는 적어도 하나의 플래그를 추가로 포함하고, 적어도 하나의 플래그는 제1 샘플의 복수의 성분들을 필터링하기 위한, 제2 샘플의 적어도 제2 성분과 연관되어 있는 적어도 하나의 필터링 파라미터에 대한 참조를 나타낸다.
본 발명의 제2 추가의 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 디코딩하는 방법이 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 방법은,
적어도 하나의 재구성된 샘플의 제1 및 제2 성분을 제공하기 위해 적어도 하나의 인코딩된 샘플의 제1 및 제2 성분을 디코딩하는 단계;
적어도 하나의 필터링 파라미터를 디코딩하는 단계; 및
루프 필터에서 적어도 하나의 재구성된 샘플을 필터링하는 단계 - 적어도 하나의 재구성된 샘플의 제1 성분 및 제2 성분의 필터링은 디코딩된 적어도 하나의 필터링 파라미터의 적어도 하나의 공통 필터링 파라미터에 기초함 - 를 포함한다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
일 실시예에서, 이 방법은 적어도 하나의 필터링 파라미터에 대한 참조를 나타내는 적어도 하나의 플래그를 획득하는 단계를 추가로 포함한다.
일 실시예에서, 이 방법은 획득된 적어도 하나의 플래그를 분석하고, 이 분석에 응답하여, 적어도 하나 공통 필터링 파라미터를 획득하는 단계를 추가로 포함한다.
여전히 일 실시예에서, 이 방법은 적어도 하나의 필터링 파라미터에 대한 참조를 나타내는 적어도 다른 플래그를 획득하는 단계 및 획득된 적어도 다른 플래그를 분석하는 단계를 포함하고, 적어도 하나의 플래그를 획득하는 단계는 획득된 적어도 다른 플래그를 분석하는 단계에 응답하여 수행된다.
일 실시예에서, 이 방법은 적어도 하나의 재구성된 샘플의 적어도 제1 성분을 필터링하는 데 사용될 필터링 파라미터를 디코딩된 적어도 하나의 필터링 파라미터의 함수로서 계산하는 단계를 추가로 포함한다.
일 실시예에서, 이 방법은 적어도 하나의 재구성된 샘플의 제1 및 제2 성분을 필터링하는 데 사용될 필터링 파라미터를 디코딩된 적어도 하나의 필터링 파라미터의 함수로서 계산하는 단계를 추가로 포함한다.
여전히 일 실시예에서, 이 방법은 적어도 하나의 가중 인자를 획득하는 단계를 추가로 포함하고, 계산된 필터링 파라미터는 획득된 적어도 하나의 가중 인자에 기초한다.
일 실시예에서, 이 방법은 적어도 하나의 가중 인자를 디코딩하는 단계를 추가로 포함하고, 적어도 하나의 가중 인자는 디코딩될 영상의 일부와 함께 수신된다.
일 실시예에서, 공통 필터링 파라미터는 적어도 하나의 재구성된 샘플의 적어도 제1 성분에 가산될 적어도 하나의 오프셋 값을 포함한다.
일 실시예에서, 공통 필터링 파라미터는 필터링될 적어도 하나의 샘플 성분 클래스를 정의하는 대역의 적어도 하나의 위치를 포함한다.
여전히 일 실시예에서, 이 방법은 적어도 하나의 재구성된 샘플의 적어도 제1 성분을 필터링하기 위해 대역의 적어도 하나의 위치에 적용될 적어도 하나의 가중 인자를 획득하는 단계를 추가로 포함한다.
본 발명의 제3 추가의 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 인코딩하는 방법이 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 방법은,
적어도 하나의 인코딩된 샘플을 제공하기 위해 영상의 적어도 하나의 샘플의 제1 및 제2 성분을 인코딩하는 단계;
적어도 하나의 인코딩된 샘플을 디코딩하는 단계; 및
적어도 하나의 필터링 파라미터를 영상의 적어도 하나의 샘플의 성분과 적어도 하나의 디코딩된 샘플의 대응하는 성분 간의 차의 함수로서 계산하는 단계 - 적어도 하나의 필터링 파라미터는 루프 필터에서 디코딩된 샘플의 적어도 제1 및 제2 성분을 독립적으로 필터링하는 데 사용되기 위해 계산됨 - 를 포함한다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
본 발명의 제4 추가의 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 디코딩하는 방법이 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 방법은,
제1 재구성된 샘플의 제1 성분 및 제2 재구성된 샘플의 제2 성분을 제공하기 위해 제1 인코딩된 샘플의 제1 성분 및 제2 인코딩된 샘플의 제2 성분을 디코딩하는 단계;
적어도 하나의 필터링 파라미터를 디코딩하는 단계; 및
루프 필터에서 재구성된 샘플들을 필터링하는 단계 - 제1 재구성된 샘플의 제1 성분 및 제2 재구성된 샘플의 제2 성분의 필터링은 디코딩된 적어도 하나의 필터링 파라미터의 적어도 하나의 공통 필터링 파라미터에 기초함 - 를 포함한다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
일 실시예에서, 이 방법은 적어도 하나의 재구성된 샘플의 제1 성분을 필터링하는 데 사용될 필터링 파라미터를 적어도 하나의 재구성된 샘플의 제2 성분을 필터링하는 데 사용될 필터링 파라미터의 함수로서 계산하는 단계를 추가로 포함한다.
일 실시예에서, 제1 복수의 필터링 파라미터들은 제1 재구성된 샘플의 제1 성분과 연관되어 있고, 제2 복수의 필터링 파라미터들은 제2 재구성된 샘플의 제2 성분과 연관되어 있으며, 제1 복수의 필터링 파라미터들의 필터링 파라미터 값들은 제2 복수의 필터링 파라미터들의 필터링 파라미터 값들과 같고, 제1 복수의 필터링 파라미터들의 필터링 파라미터 값들은 제2 복수의 필터링 파라미터들의 필터링 파라미터 값들의 순서와 역순으로 되어 있다.
다른 실시예에서, 제1 복수의 필터링 파라미터들은 제1 재구성된 샘플의 제1 성분과 연관되어 있고, 제2 복수의 필터링 파라미터들은 제2 재구성된 샘플의 제2 성분과 연관되어 있으며, 제1 복수의 필터링 파라미터들의 필터링 파라미터 값들은 제2 복수의 필터링 파라미터들의 필터링 파라미터 값들과 사전 결정된 가중 인자를 곱한 것과 같다.
본 발명의 제5 추가의 측면에 따르면, 프로그램가능 장치에 대한 컴퓨터 프로그램 제품이 제공되고, 컴퓨터 프로그램 제품은 프로그램가능 장치에 로드되어 실행될 때 앞서 기술한 제1 내지 제4 측면 중 하나를 실시하는 방법의 각각의 단계를 구현하는 명령어 시퀀스를 포함한다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
본 발명의 제6 추가의 측면에 따르면, 앞서 기술한 제1 내지 제4 측면 중 하나를 실시하는 방법의 각각의 단계를 구현하는 컴퓨터 프로그램의 명령어들을 저장하는 컴퓨터 판독가능 저장 매체가 제공된다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
본 발명의 제7 추가의 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 인코딩하는 인코딩 장치가 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 인코딩 장치는,
적어도 하나의 인코딩된 샘플을 제공하기 위해 영상의 적어도 하나의 샘플의 제1 및 제2 성분을 인코딩하는 수단;
적어도 하나의 인코딩된 샘플을 디코딩하는 수단; 및
적어도 하나의 필터링 파라미터를 영상의 적어도 하나의 샘플의 적어도 하나의 성분과 적어도 하나의 대응하는 디코딩된 샘플의 적어도 하나의 대응하는 성분 간의 차의 함수로서 계산하는 수단 - 적어도 하나의 필터링 파라미터는 루프 필터에서 디코딩된 샘플의 적어도 제1 및 제2 성분을 독립적으로 필터링하는 데 사용되기 위해 계산됨 - 을 포함한다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
일 실시예에서, 이 장치는 플래그들을 인코딩하는 수단을 추가로 포함하고, 적어도 하나의 필터링 파라미터는 제1 샘플의 적어도 제1 성분과 연관되어 있는 적어도 하나의 플래그를 추가로 포함하며, 적어도 하나의 플래그는 적어도 제1 성분을 필터링하기 위한, 제2 샘플의 적어도 제2 성분과 연관되어 있는 적어도 하나의 필터링 파라미터에 대한 참조를 나타낸다.
다른 실시예에서, 이 장치는 플래그들을 인코딩하는 수단을 추가로 포함하고, 적어도 하나의 필터링 파라미터는 제1 샘플의 적어도 제1 성분과 연관되어 있는 적어도 하나의 플래그를 추가로 포함하며, 적어도 하나의 플래그는 제1 샘플의 복수의 성분들을 필터링하기 위한, 제2 샘플의 적어도 제2 성분과 연관되어 있는 적어도 하나의 필터링 파라미터에 대한 참조를 나타낸다.
본 발명의 제8 추가의 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 디코딩하는 디코딩 장치가 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 장치는,
적어도 하나의 재구성된 샘플의 제1 및 제2 성분을 제공하기 위해 적어도 하나의 인코딩된 샘플의 제1 및 제2 성분을 디코딩하는 수단;
적어도 하나의 필터링 파라미터를 디코딩하는 수단; 및
루프 필터에서 적어도 하나의 재구성된 샘플을 필터링하는 수단 - 적어도 하나의 재구성된 샘플의 제1 성분 및 제2 성분의 필터링은 디코딩된 적어도 하나의 필터링 파라미터의 적어도 하나의 공통 필터링 파라미터에 기초함 - 을 포함한다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
일 실시예에서, 이 장치는 적어도 하나의 필터링 파라미터에 대한 참조를 나타내는 적어도 하나의 플래그를 획득하는 수단, 적어도 하나의 필터링 파라미터에 대한 참조를 나타내는 적어도 다른 플래그를 획득하는 수단, 및 획득된 적어도 다른 플래그를 분석하는 수단을 포함하고, 적어도 하나의 플래그를 획득하는 수단은 획득된 적어도 다른 플래그를 분석하는 수단에 응답한다.
일 실시예에서, 이 장치는 적어도 하나의 재구성된 샘플의 적어도 제1 성분을 필터링하는 데 사용될 필터링 파라미터를 디코딩된 적어도 하나의 필터링 파라미터의 함수로서 계산하는 수단을 추가로 포함한다.
여전히 일 실시예에서, 이 장치는 적어도 하나의 재구성된 샘플의 제1 및 제2 성분을 필터링하는 데 사용될 필터링 파라미터를 디코딩된 적어도 하나의 필터링 파라미터의 함수로서 계산하는 수단을 추가로 포함한다.
본 발명의 제9 추가의 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 인코딩하는 인코딩 장치가 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 장치는,
적어도 하나의 인코딩된 샘플을 제공하기 위해 영상의 적어도 하나의 샘플의 제1 및 제2 성분을 인코딩하는 수단;
적어도 하나의 인코딩된 샘플을 디코딩하는 수단; 및
적어도 하나의 필터링 파라미터를 영상의 적어도 하나의 샘플의 성분과 적어도 하나의 디코딩된 샘플의 대응하는 성분 간의 차의 함수로서 계산하는 수단 - 적어도 하나의 필터링 파라미터는 루프 필터에서 디코딩된 샘플의 적어도 제1 및 제2 성분을 독립적으로 필터링하는 데 사용되기 위해 계산됨 - 을 포함한다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
본 발명의 제10 추가의 측면에 따르면, 복수의 샘플들을 포함하는 영상의 적어도 일부를 디코딩하는 디코딩 장치가 제공되고, 각각의 샘플은 적어도 2개의 성분을 포함하며, 인코딩된 영상은 적어도 하나의 필터링 파라미터를 포함하고, 이 장치는,
제1 재구성된 샘플의 제1 성분 및 제2 재구성된 샘플의 제2 성분을 제공하기 위해 제1 인코딩된 샘플의 제1 성분 및 제2 인코딩된 샘플의 제2 성분을 디코딩하는 수단;
적어도 하나의 필터링 파라미터를 디코딩하는 수단; 및
루프 필터에서 재구성된 샘플들을 필터링하는 수단 - 제1 재구성된 샘플의 제1 성분 및 제2 재구성된 샘플의 제2 성분의 필터링은 디코딩된 적어도 하나의 필터링 파라미터의 적어도 하나의 공통 필터링 파라미터에 기초함 - 을 포함한다.
성분들 간의 상호 의존성을 고려함으로써, 본 발명은 SAO 파라미터들을 저장하는 데 필요한 메모리 버퍼를 감소시키기 위해 그리고 분류의 복잡도를 감소시키기 위해 SAO의 코딩 효율을 개선하는 것을 가능하게 만들어준다.
일 실시예에서, 이 장치는 필터링 파라미터들을 계산하는 수단을 추가로 포함하고, 제1 복수의 필터링 파라미터들은 제1 재구성된 샘플의 제1 성분과 연관되어 있고, 제2 복수의 필터링 파라미터들은 제2 재구성된 샘플의 제2 성분과 연관되어 있으며, 제1 복수의 필터링 파라미터들의 필터링 파라미터 값들은 제2 복수의 필터링 파라미터들의 필터링 파라미터 값들과 같고, 제1 복수의 필터링 파라미터들의 필터링 파라미터 값들은 제2 복수의 필터링 파라미터들의 필터링 파라미터 값들의 순서와 역순으로 되어 있다.
다른 실시예에서, 이 장치는 필터링 파라미터들을 계산하는 수단을 추가로 포함하고, 제1 복수의 필터링 파라미터들은 제1 재구성된 샘플의 제1 성분과 연관되어 있고, 제2 복수의 필터링 파라미터들은 제2 재구성된 샘플의 제2 성분과 연관되어 있으며, 제1 복수의 필터링 파라미터들의 필터링 파라미터 값들은 제2 복수의 필터링 파라미터들의 필터링 파라미터 값들과 사전 결정된 가중 인자를 곱한 것과 같다.
단지 예로서 제공되어 있고 첨부된 특허청구범위에 의해서만 결정되는 본 발명의 범위를 제한하기 위한 것이 아닌 이상의 예시적인 실시예들을 참조하면 많은 추가의 수정들 및 변형들이 기술 분야의 당업자에게 안출될 것이다. 상세하게는, 상이한 실시예들로부터의 상이한 특징들이, 적절한 경우, 상호 교환될 수 있다.
특허청구범위에서, 용어 "포함하는"은 다른 구성요소들 또는 단계들을 배제하지 않으며, 단수 표현 "한" 또는 "어떤"은 복수를 배제하지 않는다. 상이한 특징들이 서로 다른 종속 청구항에 언급되어 있다는 단순한 사실이 이들 특징의 조합이 유리하게 사용될 수 없다는 것을 말하는 것은 아니다.
부록
sao_type_idx SAO 유형 SAO 유형 의미
0 없음 SAO 필터링 없음이 프레임 영역에 적용됨
1 에지 1D 0도
2 에지 1D 90도
3 에지 1D 135도
4 에지 1D 45도
5 대역 대역 위치로 대역 오프셋
카테고리(J) 조건 오프셋
1
Figure 112018113188612-pat00022
Figure 112018113188612-pat00023
2
Figure 112018113188612-pat00024
Figure 112018113188612-pat00025
3
Figure 112018113188612-pat00026
Figure 112018113188612-pat00027
4
Figure 112018113188612-pat00028
Figure 112018113188612-pat00029
해당 없음 상기한 것들 중 어느 것도 아님 해당 없음

Claims (12)

  1. 인코딩된 영상의 복수의 샘플들을 디코딩하는 방법으로서, 각각의 샘플은 2개 이상의 성분을 포함하고,
    상기 방법은,
    상기 인코딩된 영상의 하나 이상의 샘플의 제1 크로마 성분과 제2 크로마 성분을 디코딩하여, 하나 이상의 재구성된 샘플의 제1 크로마 성분과 제2 크로마 성분을 제공하는, 디코딩 단계와,
    하나 이상의 필터링 파라미터를 디코딩하는, 디코딩 단계와,
    상기 하나 이상의 재구성된 샘플에 샘플 적응적 오프셋 필터링(sample adaptive offset filtering)을 실시하는, 실시 단계를 포함하고,
    샘플 적응적 오프셋 필터링의 미사용, 대역 유형 및 에지 유형 중 하나인 샘플 적응적 오프셋 필터링의 유형, 및 에지 유형 필터링의 방향은, 상기 제1 크로마 성분 및 상기 제2 크로마 성분에 의해 공유되는 하나 이상의 디코딩된 필터링 파라미터에 의해 나타내지는,
    인코딩된 영상의 복수의 샘플들을 디코딩하는 방법.
  2. 제1항에 있어서, 상기 제1 크로마 성분 및 상기 제2 크로마 성분은 각각 U 크로마 성분 및 V 크로마 성분인, 인코딩된 영상의 복수의 샘플들을 디코딩하는 방법.
  3. 제1항 또는 제2항의 방법을 실행하기 위한 프로그램을 저장하는 컴퓨터 판독 가능한 매체.
  4. 인코딩된 영상의 복수의 샘플들을 디코딩하는 영상 디코딩 장치로서, 각각의 샘플은 2개 이상의 성분을 포함하고,
    상기 장치는,
    상기 인코딩된 영상의 하나 이상의 샘플의 제1 크로마 성분과 제2 크로마 성분을 디코딩하여 하나 이상의 재구성된 샘플의 제1 크로마 성분과 제2 크로마 성분을 제공하고, 하나 이상의 필터링 파라미터를 디코딩하는, 디코딩 유닛과,
    상기 하나 이상의 재구성된 샘플에 샘플 적응적 오프셋 필터링(sample adaptive offset filtering)을 실시하는, 실시 유닛을 포함하고,
    샘플 적응적 오프셋 필터링의 미사용, 대역 유형 및 에지 유형 중 하나인 샘플 적응적 오프셋 필터링의 유형, 및 에지 유형 필터링의 방향은, 상기 제1 크로마 성분 및 상기 제2 크로마 성분에 의해 공유되는 하나 이상의 디코딩된 필터링 파라미터에 의해 나타내지는, 인코딩된 영상의 복수의 샘플들을 디코딩하는 영상 디코딩 장치.
  5. 제4항에 있어서, 상기 제1 크로마 성분 및 상기 제2 크로마 성분은 각각 U 크로마 성분 및 V 크로마 성분인, 인코딩된 영상의 복수의 샘플들을 디코딩하는 영상 디코딩 장치.
  6. 영상의 복수의 샘플들을 인코딩하는 방법으로서, 각각의 샘플은 2개 이상의 성분을 포함하고,
    상기 방법은,
    상기 영상의 하나 이상의 샘플의 제1 크로마 성분과 제2 크로마 성분을 처리하여, 하나 이상의 재구성된 샘플의 제1 크로마 성분과 제2 크로마 성분을 제공하는, 처리 단계와,
    하나 이상의 필터링 파라미터를 인코딩하는, 인코딩 단계와,
    상기 하나 이상의 재구성된 샘플에 샘플 적응적 오프셋 필터링(sample adaptive offset filtering)을 실시하는, 실시 단계를 포함하고,
    샘플 적응적 오프셋 필터링의 미사용, 대역 유형 및 에지 유형 중 하나인 샘플 적응적 오프셋 필터링의 유형, 및 에지 유형 필터링의 방향은, 상기 제1 크로마 성분 및 상기 제2 크로마 성분에 의해 공유되는 하나 이상의 인코딩된 필터링 파라미터에 의해 나타내지는, 영상의 복수의 샘플들을 인코딩하는 방법.
  7. 제6항에 있어서, 상기 제1 크로마 성분 및 상기 제2 크로마 성분은 각각 U 크로마 성분 및 V 크로마 성분인, 영상의 복수의 샘플들을 인코딩하는 방법.
  8. 제6항에 있어서, 상기 처리 단계는,
    상기 영상의 상기 하나 이상의 샘플의 상기 제1 크로마 성분과 상기 제2 크로마 성분을 인코딩하여 하나 이상의 인코딩된 샘플의 제1 크로마 성분과 제2 크로마 성분을 제공하는, 인코딩 단계를 포함하고,
    상기 하나 이상의 인코딩된 샘플의 상기 제1 크로마 성분과 상기 제2 크로마 성분을 적어도 부분적으로 디코딩하여 상기 하나 이상의 재구성된 샘플의 상기 제1 크로마 성분과 상기 제2 크로마 성분을 제공하는, 디코딩 단계를 더 포함하는, 영상의 복수의 샘플들을 인코딩하는 방법.
  9. 제6항, 제7항, 또는 제8항의 방법을 실행하기 위한 프로그램을 저장하는 컴퓨터 판독 가능한 매체.
  10. 영상의 복수의 샘플들을 인코딩하는 영상 인코딩 장치로서, 각각의 샘플은 2개 이상의 성분을 포함하고,
    상기 장치는,
    상기 영상의 하나 이상의 샘플의 제1 크로마 성분과 제2 크로마 성분을 처리하여, 하나 이상의 재구성된 샘플의 제1 크로마 성분과 제2 크로마 성분을 제공하는, 처리 유닛과,
    하나 이상의 필터링 파라미터를 인코딩하는, 인코딩 유닛을 포함하고,
    샘플 적응적 오프셋 필터링(sample adaptive offset filtering)의 미사용, 대역 유형 및 에지 유형 중 하나인 샘플 적응적 오프셋 필터링의 유형, 및 에지 유형 필터링의 방향은, 상기 제1 크로마 성분 및 상기 제2 크로마 성분에 의해 공유되는 하나 이상의 인코딩된 필터링 파라미터에 의해 나타내지는, 영상의 복수의 샘플들을 인코딩하는 영상 인코딩 장치.
  11. 제10항에 있어서, 상기 제1 크로마 성분 및 상기 제2 크로마 성분은 각각 U 크로마 성분 및 V 크로마 성분인, 영상의 복수의 샘플들을 인코딩하는 영상 인코딩 장치.
  12. 제10항 또는 제11항에 있어서, 상기 처리 유닛은,
    상기 영상의 상기 하나 이상의 샘플의 상기 제1 크로마 성분과 상기 제2 크로마 성분을 인코딩하여 하나 이상의 인코딩된 샘플의 제1 크로마 성분과 제2 크로마 성분을 제공하고, 상기 하나 이상의 인코딩된 샘플의 상기 제1 크로마 성분과 상기 제2 크로마 성분을 적어도 부분적으로 디코딩하여 상기 하나 이상의 재구성된 샘플의 상기 제1 크로마 성분과 상기 제2 크로마 성분을 제공하는, 영상의 복수의 샘플들을 인코딩하는 영상 인코딩 장치.
KR1020187032998A 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치 KR102068431B1 (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
GBGB1119206.9A GB201119206D0 (en) 2011-11-07 2011-11-07 Method and device for providing compensation offsets for a set of reconstructed samples of an image
GB1119206.9 2011-11-07
GB1203285.0A GB2499983A (en) 2011-11-07 2012-02-24 Providing compensation offsets for a set of reconstructed samples of an image
GB1203285.0 2012-02-24
GB1205304.7 2012-03-26
GB1205304.7A GB2496220A (en) 2011-11-07 2012-03-26 Optimising Encoding/Decoding/Computation of Filtering Parameters (e.g. Compensation Offsets) for a Set of Reconstructed Samples of an Image
PCT/EP2012/072071 WO2013068428A2 (en) 2011-11-07 2012-11-07 Method and device for optimizing encoding/decoding of compensation offsets for a set of reconstructed samples of an image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020147019037A Division KR101920529B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20180125051A KR20180125051A (ko) 2018-11-21
KR102068431B1 true KR102068431B1 (ko) 2020-01-20

Family

ID=45421397

Family Applications (12)

Application Number Title Priority Date Filing Date
KR1020187032998A KR102068431B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020187032811A KR102030304B1 (ko) 2011-11-07 2012-11-07 샘플 적응적 오프셋을 적용하는 장치
KR1020147017658A KR101920105B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들을 제공하는 방법
KR1020187032809A KR102029614B1 (ko) 2011-11-07 2012-11-07 샘플 적응적 오프셋을 적용하는 장치
KR1020147014410A KR101530832B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020197028861A KR20190114049A (ko) 2011-11-07 2012-11-07 샘플 적응적 오프셋을 영상에 적용하는 장치
KR1020147019037A KR101920529B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020187032999A KR102083280B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020207005285A KR102130480B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020187033000A KR102068432B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020147014408A KR101530244B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들을 제공하는 방법 및 장치
KR1020187032810A KR101972366B1 (ko) 2011-11-07 2012-11-07 샘플 적응적 오프셋을 적용하는 장치

Family Applications After (11)

Application Number Title Priority Date Filing Date
KR1020187032811A KR102030304B1 (ko) 2011-11-07 2012-11-07 샘플 적응적 오프셋을 적용하는 장치
KR1020147017658A KR101920105B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들을 제공하는 방법
KR1020187032809A KR102029614B1 (ko) 2011-11-07 2012-11-07 샘플 적응적 오프셋을 적용하는 장치
KR1020147014410A KR101530832B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020197028861A KR20190114049A (ko) 2011-11-07 2012-11-07 샘플 적응적 오프셋을 영상에 적용하는 장치
KR1020147019037A KR101920529B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020187032999A KR102083280B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020207005285A KR102130480B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020187033000A KR102068432B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들의 인코딩/디코딩을 최적화하는 방법 및 장치
KR1020147014408A KR101530244B1 (ko) 2011-11-07 2012-11-07 영상의 재구성된 샘플 세트에 대한 보상 오프셋들을 제공하는 방법 및 장치
KR1020187032810A KR101972366B1 (ko) 2011-11-07 2012-11-07 샘플 적응적 오프셋을 적용하는 장치

Country Status (14)

Country Link
US (12) US9118931B2 (ko)
EP (11) EP3657792B1 (ko)
JP (10) JP6067024B2 (ko)
KR (12) KR102068431B1 (ko)
CN (15) CN111405278B (ko)
BR (10) BR112014010882B1 (ko)
DK (2) DK2777253T3 (ko)
ES (7) ES2628070T3 (ko)
GB (5) GB201119206D0 (ko)
HU (5) HUE057826T2 (ko)
IN (2) IN2014CN04154A (ko)
PL (5) PL3657792T3 (ko)
RU (13) RU2586863C2 (ko)
WO (3) WO2013068433A2 (ko)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101529992B1 (ko) 2010-04-05 2015-06-18 삼성전자주식회사 픽셀 그룹별 픽셀값 보상을 위한 비디오 부호화 방법과 그 장치, 및 픽셀 그룹별 픽셀값 보상을 위한 비디오 복호화 방법과 그 장치
GB201119206D0 (en) 2011-11-07 2011-12-21 Canon Kk Method and device for providing compensation offsets for a set of reconstructed samples of an image
US9253482B2 (en) * 2011-11-08 2016-02-02 Texas Insturments Incorporated Method and apparatus for sample adaptive offset without sign coding
US9277194B2 (en) * 2011-11-08 2016-03-01 Texas Instruments Incorporated Method and apparatus for image and video coding using hierarchical sample adaptive band offset
EP2785055A4 (en) * 2011-12-22 2015-07-15 Samsung Electronics Co Ltd VIDEO CODING METHOD USING ATTACHMENT ADJUSTMENT AFTER CLASSIFICATION OF PIXELS BY MAXIMUM CODING UNITS AND DEVICE THEREFOR, AND VIDEO DECODING METHOD AND DEVICE THEREFOR
US9161035B2 (en) * 2012-01-20 2015-10-13 Sony Corporation Flexible band offset mode in sample adaptive offset in HEVC
GB2509707B (en) 2013-01-04 2016-03-16 Canon Kk A method, device, computer program, and information storage means for encoding or decoding a video sequence
KR102166335B1 (ko) * 2013-04-19 2020-10-15 삼성전자주식회사 Sao 파라미터를 시그널링하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
US9826240B2 (en) * 2013-07-05 2017-11-21 Texas Instruments Incorporated High throughput VLSI architecture for HEVC SAO encoding
JP6174966B2 (ja) * 2013-10-17 2017-08-02 キヤノン株式会社 画像符号化装置、画像符号化方法、及びプログラム
EP3061233B1 (en) 2013-10-25 2019-12-11 Microsoft Technology Licensing, LLC Representing blocks with hash values in video and image coding and decoding
KR20160075705A (ko) 2013-10-25 2016-06-29 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 비디오 및 이미지 코딩에서의 해시 기반 블록 매칭
TWI496456B (zh) * 2013-11-19 2015-08-11 Ind Tech Res Inst 畫面間成本計算方法及畫面間成本計算裝置
CN103647975B (zh) * 2013-12-02 2017-01-11 国家广播电影电视总局广播科学研究院 基于直方图分析的改进样本自适应偏移滤波方法
CN104717506B (zh) * 2013-12-13 2019-07-05 北京三星通信技术研究有限公司 视频编解码中像素处理的方法和装置
US9628822B2 (en) 2014-01-30 2017-04-18 Qualcomm Incorporated Low complexity sample adaptive offset encoding
CN105393537B (zh) 2014-03-04 2019-08-27 微软技术许可有限责任公司 用于基于散列的块匹配的散列表构建和可用性检查
US10368092B2 (en) 2014-03-04 2019-07-30 Microsoft Technology Licensing, Llc Encoder-side decisions for block flipping and skip mode in intra block copy prediction
JP6338408B2 (ja) * 2014-03-14 2018-06-06 三菱電機株式会社 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
KR102298599B1 (ko) 2014-04-29 2021-09-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 샘플 적응 오프셋 필터링에 대한 인코더측 결정
CN105323588B (zh) * 2014-06-16 2019-06-21 敦泰电子股份有限公司 一种动态适应压缩参数的影像压缩系统
EP3598758B1 (en) 2014-06-23 2021-02-17 Microsoft Technology Licensing, LLC Encoder decisions based on results of hash-based block matching
KR102276854B1 (ko) * 2014-07-31 2021-07-13 삼성전자주식회사 인루프 필터 파라미터 예측을 사용하는 비디오 부호화 방법 및 그 장치, 비디오 복호화 방법 및 그 장치
CN115665423A (zh) 2014-09-30 2023-01-31 微软技术许可有限责任公司 用于视频编码的基于散列的编码器判定
GB2533905A (en) * 2014-10-06 2016-07-13 Canon Kk Method and apparatus for video coding and decoding
CN107251053B (zh) * 2015-02-13 2018-08-28 北京市商汤科技开发有限公司 一种降低有损压缩图像的压缩失真的方法及装置
JP6454229B2 (ja) * 2015-06-10 2019-01-16 日本電信電話株式会社 画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
US20170006283A1 (en) * 2015-06-30 2017-01-05 Microsoft Technology Licensing, Llc Computationally efficient sample adaptive offset filtering during video encoding
KR102423880B1 (ko) 2015-10-06 2022-07-21 삼성전자주식회사 인코더의 작동방법과 상기 인코더를 포함하는 시스템 온 칩의 작동 방법
US10547848B2 (en) * 2015-11-04 2020-01-28 Lg Electronics Inc. Image decoding method and apparatus in image coding system
US10728546B2 (en) 2016-02-05 2020-07-28 Apple Inc. Sample adaptive offset systems and methods
EP3220643A1 (en) * 2016-03-14 2017-09-20 Thomson Licensing Method and device for encoding at least one image unit, and method and device for decoding a stream representative of at least one image unit
CN105959731B (zh) * 2016-04-28 2019-02-05 西安交通大学 一种数字电视的统计复用编码方法
US10390039B2 (en) 2016-08-31 2019-08-20 Microsoft Technology Licensing, Llc Motion estimation for screen remoting scenarios
EP3306922A1 (en) * 2016-10-05 2018-04-11 Thomson Licensing Method and apparatus for encoding a picture using rate-distortion based block splitting
US10432972B2 (en) * 2016-10-19 2019-10-01 Google Llc Guided offset correction for loop restoration in video coding
US11095877B2 (en) 2016-11-30 2021-08-17 Microsoft Technology Licensing, Llc Local hash-based motion estimation for screen remoting scenarios
WO2018120230A1 (zh) * 2016-12-30 2018-07-05 华为技术有限公司 图像滤波方法、装置以及设备
JP7001346B2 (ja) 2017-01-30 2022-01-19 ダイキン工業株式会社 冷凍装置
KR102443959B1 (ko) * 2017-03-22 2022-09-16 한양대학교 산학협력단 적응적인 화소 분류 기준에 따른 인루프 필터링 방법
CN107360431B (zh) * 2017-06-30 2019-08-02 武汉斗鱼网络科技有限公司 一种帧类型的判断方法及装置
CN107707915B (zh) * 2017-09-30 2019-11-12 上海兆芯集成电路有限公司 采样点自适应偏移滤波的控制方法及其影像处理系统
JP6939892B2 (ja) * 2017-10-25 2021-09-22 株式会社ソシオネクスト 符号化方法、復号方法、符号化装置、復号装置、符号化プログラム及び復号プログラム
JP7147788B2 (ja) 2018-01-05 2022-10-05 株式会社ソシオネクスト 符号化方法、復号方法、符号化装置、復号装置、符号化プログラム及び復号プログラム
GB2574423A (en) * 2018-06-05 2019-12-11 Canon Kk Video coding and decoding
JP6990627B2 (ja) 2018-06-29 2022-01-12 ダイキン工業株式会社 屋外空気調和装置
KR102312337B1 (ko) * 2018-10-19 2021-10-14 삼성전자주식회사 Ai 부호화 장치 및 그 동작방법, 및 ai 복호화 장치 및 그 동작방법
WO2020094154A1 (en) * 2018-11-09 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Improvements for region based adaptive loop filter
GB2580173B (en) 2018-12-21 2022-07-27 Canon Kk A filter
CN109862374A (zh) * 2019-01-07 2019-06-07 北京大学 一种自适应环路滤波方法及装置
CN109859126B (zh) * 2019-01-17 2021-02-02 浙江大华技术股份有限公司 一种视频降噪方法、装置、电子设备及存储介质
US20220159249A1 (en) * 2019-03-08 2022-05-19 Canon Kabushiki Kaisha Adaptive loop filter
CN110677649B (zh) * 2019-10-16 2021-09-28 腾讯科技(深圳)有限公司 基于机器学习的去伪影方法、去伪影模型训练方法及装置
WO2021093801A1 (en) * 2019-11-14 2021-05-20 Beijing Bytedance Network Technology Co., Ltd. Coding of low bit-depth visual media data
WO2021118427A1 (en) * 2019-12-09 2021-06-17 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive loop filtering
EP4074042A4 (en) * 2019-12-17 2023-01-25 Alibaba Group Holding Limited METHODS OF ACHIEVING MOTION COMPENSATION WITH ENVELOPMENT
US11375221B2 (en) * 2020-02-12 2022-06-28 Tencent America LLC Method and apparatus for cross-component filtering
WO2021195546A1 (en) 2020-03-26 2021-09-30 Alibaba Group Holding Limited Methods for signaling video coding data
CN111698511B (zh) * 2020-06-07 2022-09-16 咪咕文化科技有限公司 图像滤波方法、装置、设备及可读存储介质
US11202085B1 (en) 2020-06-12 2021-12-14 Microsoft Technology Licensing, Llc Low-cost hash table construction and hash-based block matching for variable-size blocks
US11750816B2 (en) 2020-12-03 2023-09-05 Alibaba Group Holding Limited Methods and systems for cross-component sample adaptive offset
CN112862924B (zh) * 2020-12-31 2022-11-25 哈尔滨工业大学(威海) 多模态成像中图像重建方法、装置和多模态成像技术系统
TWI764492B (zh) * 2020-12-31 2022-05-11 鴻海精密工業股份有限公司 缺陷檢測分類方法、裝置、電子設備及存儲介質
CN113099230B (zh) * 2021-02-22 2022-09-06 浙江大华技术股份有限公司 编码方法、装置、电子设备及计算机可读存储介质
CN112819017B (zh) * 2021-03-09 2022-08-16 遵义师范学院 基于直方图的高精度色偏图像识别方法
CN113068037B (zh) * 2021-03-17 2022-12-06 上海哔哩哔哩科技有限公司 用于样点自适应补偿的方法及装置、设备和介质
CN112752104B (zh) * 2021-04-06 2021-06-08 浙江华创视讯科技有限公司 图像补偿方法、装置、存储介质及电子设备
CN117795957A (zh) * 2021-08-19 2024-03-29 北京达佳互联信息技术有限公司 跨分量样点自适应偏移中的编解码增强

Family Cites Families (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0223557A3 (en) 1985-11-15 1989-04-05 Data General Corporation Display control in a data processing system
KR0148130B1 (ko) * 1992-05-18 1998-09-15 강진구 블럭킹아티팩트를 억제시키는 부호화/복호화 방법 및 그 장치
US5502489A (en) * 1994-01-03 1996-03-26 Daewoo Electronics Co., Ltd. Method for the motion adaptive spatial filtering of video signals in an image coding apparatus
US6519369B1 (en) * 1999-02-12 2003-02-11 Sony Corporation Method and apparatus for filter tap expansion
FI117533B (fi) * 2000-01-20 2006-11-15 Nokia Corp Menetelmä digitaalisten videokuvien suodattamiseksi
JP4156188B2 (ja) * 2000-10-20 2008-09-24 パイオニア株式会社 情報出力装置及び情報出力方法、情報記録装置及び情報記録方法、情報出力記録システム及び情報出力記録方法並びに情報記録媒体
US7450641B2 (en) 2001-09-14 2008-11-11 Sharp Laboratories Of America, Inc. Adaptive filtering based upon boundary strength
US7650032B2 (en) * 2003-08-19 2010-01-19 Panasonic Corporation Method for encoding moving image and method for decoding moving image
EP1510973A3 (en) 2003-08-29 2006-08-16 Samsung Electronics Co., Ltd. Method and apparatus for image-based photorealistic 3D face modeling
US7369709B2 (en) 2003-09-07 2008-05-06 Microsoft Corporation Conditional lapped transform
CN1285214C (zh) * 2004-01-14 2006-11-15 华中科技大学 一种环路滤波方法和环路滤波器
US7397854B2 (en) * 2004-04-29 2008-07-08 Mediatek Incorporation Adaptive de-blocking filtering apparatus and method for MPEG video decoder
US7876833B2 (en) 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
KR101254356B1 (ko) * 2005-04-13 2013-04-12 톰슨 라이센싱 공용 예측기를 사용하는 루마 및 크로마 디코딩
US7511769B2 (en) * 2005-04-19 2009-03-31 Texas Instruments Incorporated Interframe noise reduction for video
WO2006129274A1 (en) 2005-06-01 2006-12-07 Koninklijke Philips Electronics N.V. Method and electronic device for determining a characteristic of a content item
US8189034B2 (en) 2005-06-23 2012-05-29 Koninklijke Philips Electronics N.V. Combined exchange of image and related depth data
KR100678958B1 (ko) * 2005-07-29 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
CN100438629C (zh) * 2005-09-19 2008-11-26 华为技术有限公司 图像编码处理中的环路滤波方法
KR100647402B1 (ko) * 2005-11-01 2006-11-23 매그나칩 반도체 유한회사 이미지 센서의 화질개선장치 및 그 방법
US7956930B2 (en) * 2006-01-06 2011-06-07 Microsoft Corporation Resampling and picture resizing operations for multi-resolution video coding and decoding
RU2406259C2 (ru) 2006-03-27 2010-12-10 Квэлкомм Инкорпорейтед Способы и системы для кодирования уточняющих коэффициентов при сжатии видеоданных
WO2007116551A1 (ja) * 2006-03-30 2007-10-18 Kabushiki Kaisha Toshiba 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
US9001899B2 (en) 2006-09-15 2015-04-07 Freescale Semiconductor, Inc. Video information processing system with selective chroma deblock filtering
US20080080618A1 (en) 2006-09-28 2008-04-03 Kazuya Takagi Video decoding apparatus and method of the same
CN105376574A (zh) * 2006-11-08 2016-03-02 汤姆逊许可证公司 用于环内去伪影滤波的方法和设备
CN100578618C (zh) * 2006-12-04 2010-01-06 华为技术有限公司 一种解码方法及装置
US9445128B2 (en) * 2006-12-08 2016-09-13 Freescale Semiconductor, Inc. System and method of determining deblocking control flag of scalable video system for indicating presentation of deblocking parameters for multiple layers
PL2123051T3 (pl) * 2006-12-18 2011-04-29 Koninl Philips Electronics Nv Kompresja i dekompresja obrazu
US8363734B2 (en) * 2008-01-12 2013-01-29 Huaya Microelectronics Multi-directional comb filtering in a digital video decoder
US8234193B2 (en) * 2008-03-03 2012-07-31 Wildfire Interactive, Inc. Method and system for providing online promotions through a social network-based platform
US8831086B2 (en) * 2008-04-10 2014-09-09 Qualcomm Incorporated Prediction techniques for interpolation in video coding
JP2009290552A (ja) * 2008-05-29 2009-12-10 Fujifilm Corp 動画圧縮装置および動画圧縮プログラム
KR20090129926A (ko) * 2008-06-13 2009-12-17 삼성전자주식회사 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
JP5161702B2 (ja) * 2008-08-25 2013-03-13 キヤノン株式会社 撮像装置、撮像システム、及び焦点検出方法
US9571856B2 (en) * 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
CN101742290B (zh) * 2008-11-12 2013-03-27 北京中星微电子有限公司 视频编、解码降噪方法和视频编、解码降噪装置
JPWO2010092740A1 (ja) * 2009-02-10 2012-08-16 パナソニック株式会社 画像処理装置、画像処理方法、プログラムおよび集積回路
CN101511024A (zh) * 2009-04-01 2009-08-19 北京航空航天大学 实时电子稳像中基于运动状态识别的运动补偿方法
EP2237557A1 (en) * 2009-04-03 2010-10-06 Panasonic Corporation Coding for filter coefficients
US20100329362A1 (en) 2009-06-30 2010-12-30 Samsung Electronics Co., Ltd. Video encoding and decoding apparatus and method using adaptive in-loop filter
CN102550026B (zh) * 2009-10-05 2016-08-03 汤姆森特许公司 视频编码和解码中色度分量的预测像素的自适应滤波的方法和装置
US20120320973A1 (en) * 2010-03-09 2012-12-20 Thomson Licensing Methods and apparatus for a classification-based loop filter
KR101529992B1 (ko) * 2010-04-05 2015-06-18 삼성전자주식회사 픽셀 그룹별 픽셀값 보상을 위한 비디오 부호화 방법과 그 장치, 및 픽셀 그룹별 픽셀값 보상을 위한 비디오 복호화 방법과 그 장치
US8428372B2 (en) * 2010-04-09 2013-04-23 The Boeing Company Method, apparatus and computer program product for compressing data
CN101860753B (zh) * 2010-04-30 2012-10-03 北京航空航天大学 一种基于分形的视频压缩与解压缩方法
US8660174B2 (en) * 2010-06-15 2014-02-25 Mediatek Inc. Apparatus and method of adaptive offset for video coding
US9094658B2 (en) * 2010-05-10 2015-07-28 Mediatek Inc. Method and apparatus of adaptive loop filtering
US9247265B2 (en) * 2010-09-01 2016-01-26 Qualcomm Incorporated Multi-input adaptive filter based on combination of sum-modified Laplacian filter indexing and quadtree partitioning
US9055305B2 (en) * 2011-01-09 2015-06-09 Mediatek Inc. Apparatus and method of sample adaptive offset for video coding
WO2012045269A1 (en) * 2010-10-05 2012-04-12 Mediatek Inc. Method and apparatus of region-based adaptive loop filtering
US20130294705A1 (en) * 2010-11-10 2013-11-07 Sony Corporation Image processing device, and image processing method
US9161041B2 (en) 2011-01-09 2015-10-13 Mediatek Inc. Apparatus and method of efficient sample adaptive offset
WO2012092787A1 (en) * 2011-01-09 2012-07-12 Mediatek Inc. Apparatus and method of efficient sample adaptive offset
US20120183078A1 (en) 2011-01-14 2012-07-19 Samsung Electronics Co., Ltd. Filter adaptation with directional features for video/image coding
US9001883B2 (en) * 2011-02-16 2015-04-07 Mediatek Inc Method and apparatus for slice common information sharing
GB2488830B (en) 2011-03-10 2015-07-29 Canon Kk Method and device for encoding image data and method and device for decoding image data
CN103460699B (zh) 2011-03-30 2017-06-20 Lg电子株式会社 环路滤波方法及其设备
CN105120271B (zh) 2011-04-21 2018-05-15 寰发股份有限公司 视频编解码方法与装置
US9008170B2 (en) 2011-05-10 2015-04-14 Qualcomm Incorporated Offset type and coefficients signaling method for sample adaptive offset
DE112012002125T5 (de) 2011-05-16 2014-02-20 Mediatek Inc. Vorrichtung und Verfahren für einen abtastungsadaptiven Offset für Luminanz- und Chrominanz-Komponenten
HUE060260T2 (hu) * 2011-06-14 2023-02-28 Lg Electronics Inc Eljárás képinformációk kódolására és dekódolására
US10382753B2 (en) * 2011-06-20 2019-08-13 Sun Patent Trust Simplified pipeline for filtering
CN106604038B (zh) * 2011-06-23 2020-05-08 华为技术有限公司 偏移解码装置、偏移编码装置、图像滤波器装置
CA3116207C (en) * 2011-06-24 2023-08-01 Lg Electronics Inc. Image information encoding and decoding method
SG10201408726QA (en) 2011-06-28 2015-02-27 Samsung Electronics Co Ltd Video Encoding Method Using Offset Adjustments According To Pixel Classification And Apparatus Therefor, Video Decoding Method And Apparatus Therefor
US9509989B2 (en) 2011-08-04 2016-11-29 Hfi Innovation Inc. Method and apparatus for reordered binarization of syntax elements in CABAC
US10070152B2 (en) * 2011-08-24 2018-09-04 Texas Instruments Incorporated Sample adaptive offset (SAO) parameter signaling
US9344743B2 (en) 2011-08-24 2016-05-17 Texas Instruments Incorporated Flexible region based sample adaptive offset (SAO) and adaptive loop filter (ALF)
US9485521B2 (en) 2011-09-19 2016-11-01 Lg Electronics Inc. Encoding and decoding image using sample adaptive offset with start band indicator
KR20130034566A (ko) * 2011-09-28 2013-04-05 한국전자통신연구원 제한된 오프셋 보상 및 루프 필터를 기반으로 하는 영상 부호화 및 복호화 방법 및 그 장치
WO2013046990A1 (ja) * 2011-09-29 2013-04-04 シャープ株式会社 オフセット復号装置、オフセット符号化装置、画像フィルタ装置、および、データ構造
US20130083844A1 (en) * 2011-09-30 2013-04-04 In Suk Chong Coefficient coding for sample adaptive offset and adaptive loop filter
US9357235B2 (en) 2011-10-13 2016-05-31 Qualcomm Incorporated Sample adaptive offset merged with adaptive loop filter in video coding
AU2012327672B2 (en) * 2011-10-24 2015-09-03 Hfi Innovation Inc. Method and apparatus for non-cross-tile loop filtering
JP2013093792A (ja) * 2011-10-27 2013-05-16 Sony Corp 画像処理装置および方法
WO2013064661A1 (en) 2011-11-03 2013-05-10 Panasonic Corporation Filtering of blocks coded in the pulse code modulation mode
US10051289B2 (en) * 2011-11-04 2018-08-14 Qualcomm Incorporated Adaptive center band offset filter for video coding
JP2013138395A (ja) 2011-11-04 2013-07-11 Sharp Corp 画像フィルタ装置、画像復号装置、画像符号化装置、および、データ構造
GB201119206D0 (en) 2011-11-07 2011-12-21 Canon Kk Method and device for providing compensation offsets for a set of reconstructed samples of an image
WO2013073184A1 (ja) 2011-11-15 2013-05-23 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、および画像符号化復号装置
EP2785055A4 (en) * 2011-12-22 2015-07-15 Samsung Electronics Co Ltd VIDEO CODING METHOD USING ATTACHMENT ADJUSTMENT AFTER CLASSIFICATION OF PIXELS BY MAXIMUM CODING UNITS AND DEVICE THEREFOR, AND VIDEO DECODING METHOD AND DEVICE THEREFOR
US9161035B2 (en) 2012-01-20 2015-10-13 Sony Corporation Flexible band offset mode in sample adaptive offset in HEVC
US9380302B2 (en) * 2012-02-27 2016-06-28 Texas Instruments Incorporated Sample adaptive offset (SAO) parameter signaling
CN104335587B (zh) * 2012-07-04 2018-06-19 英特尔公司 对于三维视频译码的视图间滤波器参数重复使用
BR122019027914B1 (pt) * 2012-07-16 2021-06-08 Samsung Electronics Co., Ltd aparelho para uma decodificação de deslocamento adaptativo de amostra (sao), método de uma codificação de deslocamento adaptativo de amostra (sao), e aparelho para uma codificação de deslocamento adaptativo de amostra (sao)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
C-M Fu et al. "Sample Adaptive Offset for chroma",JCT-VC of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11,6th Meeting:Torino,IT,14-22 July,2011, JCTVC-F057.

Also Published As

Publication number Publication date
US11076173B2 (en) 2021-07-27
US10743033B2 (en) 2020-08-11
RU2586863C2 (ru) 2016-06-10
ES2906724T3 (es) 2022-04-20
US9118931B2 (en) 2015-08-25
JP6067024B2 (ja) 2017-01-25
ES2626823T3 (es) 2017-07-26
CN107396105B (zh) 2020-03-31
GB201119206D0 (en) 2011-12-21
GB201200918D0 (en) 2012-02-29
JP6324481B2 (ja) 2018-05-16
DK2777253T3 (en) 2017-05-22
HUE057829T2 (hu) 2022-06-28
JP2019110587A (ja) 2019-07-04
US20190373291A1 (en) 2019-12-05
WO2013068433A3 (en) 2013-11-21
CN111405278B (zh) 2022-05-24
EP3247117B1 (en) 2020-01-08
KR101530244B1 (ko) 2015-06-22
EP2777253A2 (en) 2014-09-17
RU2636666C1 (ru) 2017-11-27
JP2019036982A (ja) 2019-03-07
RU2708351C1 (ru) 2019-12-05
BR112014010882A2 (pt) 2017-05-02
KR101920105B1 (ko) 2018-11-19
CN107465919B (zh) 2020-05-01
JP7077385B2 (ja) 2022-05-30
EP2777255B1 (en) 2017-03-29
KR20180125041A (ko) 2018-11-21
RU2684478C1 (ru) 2019-04-09
EP3270592B1 (en) 2018-11-07
CN107197256B (zh) 2021-09-21
JP6184416B2 (ja) 2017-08-23
KR101530832B1 (ko) 2015-06-22
KR102030304B1 (ko) 2019-10-08
BR122019026460B1 (pt) 2022-11-22
BR112014010885B1 (pt) 2022-05-17
JP2021040333A (ja) 2021-03-11
JP6490276B2 (ja) 2019-03-27
US10085042B2 (en) 2018-09-25
CN103975587B (zh) 2017-05-10
JP6748749B2 (ja) 2020-09-02
IN2014CN04153A (ko) 2015-07-10
RU2701130C1 (ru) 2019-09-24
US20150326860A1 (en) 2015-11-12
PL3657792T3 (pl) 2022-05-16
GB2496220A (en) 2013-05-08
KR20140095112A (ko) 2014-07-31
CN107197270A (zh) 2017-09-22
ES2771249T3 (es) 2020-07-06
KR20200022537A (ko) 2020-03-03
BR112014010882B1 (pt) 2022-05-17
EP3247117A1 (en) 2017-11-22
JP2014533028A (ja) 2014-12-08
RU2707926C1 (ru) 2019-12-02
EP3657792A1 (en) 2020-05-27
RU2020108456A (ru) 2021-08-27
JP2017098979A (ja) 2017-06-01
JP2020022183A (ja) 2020-02-06
CN107295337A (zh) 2017-10-24
BR122019026456B1 (pt) 2022-05-24
CN107483935A (zh) 2017-12-15
CN107197270B (zh) 2020-03-17
US20180367815A1 (en) 2018-12-20
RU2019137625A3 (ko) 2021-05-24
EP3396957A1 (en) 2018-10-31
CN103975590A (zh) 2014-08-06
PL3396957T3 (pl) 2020-05-18
US9106931B2 (en) 2015-08-11
KR20180125042A (ko) 2018-11-21
EP2777254B1 (en) 2017-09-06
RU2702054C1 (ru) 2019-10-03
CN107707914B (zh) 2021-03-19
GB2499983A (en) 2013-09-11
EP3657791B1 (en) 2021-12-22
HUE057828T2 (hu) 2022-06-28
EP2777255A2 (en) 2014-09-17
BR122019028118B1 (pt) 2022-05-17
KR20140093247A (ko) 2014-07-25
CN103975590B (zh) 2017-09-26
BR122019028115B1 (pt) 2023-02-07
US10575020B2 (en) 2020-02-25
KR102083280B1 (ko) 2020-03-02
RU2019137625A (ru) 2021-05-24
CN107396105A (zh) 2017-11-24
EP2777254A2 (en) 2014-09-17
KR20140090648A (ko) 2014-07-17
CN107295337B (zh) 2020-03-31
CN111405278A (zh) 2020-07-10
EP3270592A1 (en) 2018-01-17
US10771819B2 (en) 2020-09-08
CN107566840B (zh) 2020-05-01
KR20140090698A (ko) 2014-07-17
KR102130480B1 (ko) 2020-07-06
US10462493B2 (en) 2019-10-29
RU2586862C2 (ru) 2016-06-10
KR20180125616A (ko) 2018-11-23
CN107465918B (zh) 2020-08-11
PL3657790T3 (pl) 2022-06-20
RU2641230C1 (ru) 2018-01-16
EP3657792B1 (en) 2021-12-22
ES2772837T3 (es) 2020-07-08
EP3648461A1 (en) 2020-05-06
JP2018139426A (ja) 2018-09-06
CN107197256A (zh) 2017-09-22
RU2014123386A (ru) 2015-12-20
US9848208B2 (en) 2017-12-19
RU2716535C1 (ru) 2020-03-12
JP6419269B2 (ja) 2018-11-07
US20140301480A1 (en) 2014-10-09
CN103975588A (zh) 2014-08-06
GB201205304D0 (en) 2012-05-09
WO2013068427A2 (en) 2013-05-16
HUE047964T2 (hu) 2020-05-28
CN107347156B (zh) 2020-04-21
JP6598957B2 (ja) 2019-10-30
US20140301489A1 (en) 2014-10-09
KR20180125040A (ko) 2018-11-21
EP2777253B1 (en) 2017-04-12
HUE048923T2 (hu) 2020-09-28
BR112014010885A2 (pt) 2017-04-18
GB2496213A (en) 2013-05-08
ES2906155T3 (es) 2022-04-13
WO2013068428A2 (en) 2013-05-16
WO2013068433A2 (en) 2013-05-16
ES2628070T3 (es) 2017-08-01
CN107707914A (zh) 2018-02-16
BR122019026461B1 (pt) 2023-01-31
EP3396957B1 (en) 2019-12-25
EP3657790A1 (en) 2020-05-27
CN107566840A (zh) 2018-01-09
GB2496222A (en) 2013-05-08
BR122019028116B1 (pt) 2022-05-17
PL3657791T3 (pl) 2022-06-20
US20170280165A1 (en) 2017-09-28
JP2014534762A (ja) 2014-12-18
ES2905473T3 (es) 2022-04-08
JP6797993B2 (ja) 2020-12-09
DK2777255T3 (en) 2017-05-15
BR122019026459B1 (pt) 2022-11-22
KR102068432B1 (ko) 2020-01-20
US20150334393A1 (en) 2015-11-19
KR102029614B1 (ko) 2019-10-07
KR20180125051A (ko) 2018-11-21
US20140369429A1 (en) 2014-12-18
US11601687B2 (en) 2023-03-07
IN2014CN04154A (ko) 2015-07-10
RU2676410C1 (ru) 2018-12-28
CN107197271B (zh) 2020-04-21
JP2017225144A (ja) 2017-12-21
CN103975587A (zh) 2014-08-06
US20190281322A1 (en) 2019-09-12
US20210306675A1 (en) 2021-09-30
US9794596B2 (en) 2017-10-17
KR101972366B1 (ko) 2019-04-25
CN103975588B (zh) 2017-06-06
RU2014123360A (ru) 2015-12-20
EP3657790B1 (en) 2021-12-22
BR122019028117B1 (pt) 2022-11-22
CN107197271A (zh) 2017-09-22
HUE057826T2 (hu) 2022-06-28
KR101920529B1 (ko) 2018-11-20
GB201203285D0 (en) 2012-04-11
CN107483935B (zh) 2020-08-11
US20150334423A1 (en) 2015-11-19
CN107465918A (zh) 2017-12-12
WO2013068427A3 (en) 2013-07-04
JP6490264B2 (ja) 2019-03-27
EP3657791A1 (en) 2020-05-27
CN107465919A (zh) 2017-12-12
GB201206591D0 (en) 2012-05-30
WO2013068428A3 (en) 2013-07-18
KR20190114049A (ko) 2019-10-08
GB2496213B (en) 2014-12-03
KR20180125052A (ko) 2018-11-21
EP3229471A1 (en) 2017-10-11
US20170359598A1 (en) 2017-12-14
CN107347156A (zh) 2017-11-14
PL3247117T3 (pl) 2020-06-01
JP2018137752A (ja) 2018-08-30
US9774886B2 (en) 2017-09-26

Similar Documents

Publication Publication Date Title
JP6748749B2 (ja) 再構成された画像のサンプルのセットのための補償オフセットを復号するための方法および装置

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant