KR20210021577A - 비디오 코딩에서의 필터링을 위한 장치 및 방법 - Google Patents
비디오 코딩에서의 필터링을 위한 장치 및 방법 Download PDFInfo
- Publication number
- KR20210021577A KR20210021577A KR1020217002228A KR20217002228A KR20210021577A KR 20210021577 A KR20210021577 A KR 20210021577A KR 1020217002228 A KR1020217002228 A KR 1020217002228A KR 20217002228 A KR20217002228 A KR 20217002228A KR 20210021577 A KR20210021577 A KR 20210021577A
- Authority
- KR
- South Korea
- Prior art keywords
- block
- filtered
- pixels
- filtering
- spectral components
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 133
- 238000001914 filtration Methods 0.000 title claims abstract description 112
- 230000003595 spectral effect Effects 0.000 claims abstract description 94
- 239000000872 buffer Substances 0.000 claims description 60
- 238000009825 accumulation Methods 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 31
- 238000013139 quantization Methods 0.000 claims description 21
- 230000009466 transformation Effects 0.000 claims description 18
- 238000010606 normalization Methods 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 5
- 230000005055 memory storage Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 17
- 230000006870 function Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 12
- 238000012546 transfer Methods 0.000 description 11
- 230000009286 beneficial effect Effects 0.000 description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 238000007792 addition Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000011068 loading method Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000013074 reference sample Substances 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 102100028738 CAP-Gly domain-containing linker protein 3 Human genes 0.000 description 1
- 101000767055 Homo sapiens CAP-Gly domain-containing linker protein 3 Proteins 0.000 description 1
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/02—Digital function generators
- G06F1/03—Digital function generators working, at least partly, by table look-up
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/18—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/423—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/124—Quantisation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
본 발명은 비디오 코딩을 위한 필터에 관한 것으로, 상기 필터는 필터링된 재구성된 프레임의 생성을 위해 재구성된 프레임을 처리하도록 구성되고, 상기 재구성된 프레임은 복수의 픽셀을 포함한다. 상기 필터는 하나 이상의 프로세서를 포함하고, 상기 하나 이상의 프로세서는: 미리 정의된 스캔 템플릿에 따라 상기 재구성된 블록의 현재 픽셀 및 상기 현재 픽셀의 그것의 이웃 픽셀들을 스캐닝하고; 상기 현재 픽셀 및 그것의 이웃 픽셀들에 대한 변환을 수행하는 것에 의해 스펙트럼 성분들을 획득하고; 필터링 파라미터 및 상기 스펙트럼 성분들에 기초하여 필터링된 스펙트럼 성분들을 획득하고; 상기 필터링된 스펙트럼 성분들에 대해 역변환을 수행하는 것에 의해 필터링된 픽셀들을 획득하고; 상기 필터링된 픽셀들에 기초하여 필터링된 재구성된 블록을 생성하도록 구성된다. 비디오 코딩을 위한 효율을 개선하는 것을 허용하는 필터가 제공된다.
Description
관련 출원들에 대한 상호 참조
본 출원은 2018년 7월 2일자로 출원된, 발명의 명칭이 "Apparatus and Method for Filtering in Video Coding"인 미국 가출원 제62/693,441호, 2018년 8월 31일자로 출원된, 발명의 명칭이 "Apparatus and Method for Filtering in Video Coding"인 미국 가출원 제62/725,845호, 2018년 9월 16일자로 출원된, 발명의 명칭이 "Apparatus and Method for Filtering in Video Coding"인 미국 가출원 제62/731,967호, 2018년 9월 17일자로 출원된, 발명의 명칭이 "Apparatus and Method for Filtering in Video Coding"인 미국 가출원 제62/731,972호, 2018년 9월 24일자로 출원된, 발명의 명칭이 "Filtering In Video Coding"인 미국 가출원 제62/735,722호, 2018년 11월 8일자로 출원된, 발명의 명칭이 "Apparatus and Method for Filtering in Video Coding"인 미국 가출원 제62/757,732호, 및 2019년 1월 17일자로 출원된, 발명의 명칭이 "Apparatus and Method for Filtering in Video Coding"인 미국 가출원 제62/793,866호의 이익을 주장하고, 해당 출원들 모두는 인용에 의해 본 명세서에 포함된다.
일반적으로, 본 발명은 비디오 코딩의 분야에 관한 것이다. 더 구체적으로, 본 발명은 비디오 코딩을 위한 필터, 재구성된 비디오 프레임들을 필터링하기 위한 방법, 및 비디오 블록들을 필터링하기 위한 방법뿐만 아니라, 비디오 코딩을 위한 그러한 필터를 포함하는 인코딩 장치 및 디코딩 장치에 관한 것이다.
DVD-디스크의 도입 이후 디지털 비디오가 널리 사용되고 있다. 송신 전에 비디오는 인코딩되고 송신 매체를 사용하여 송신된다. 시청자는 비디오를 수신하고 시청 디바이스를 사용하여 비디오를 디코딩하고 디스플레이한다. 수년에 걸쳐 비디오의 품질은, 예를 들어, 더 높은 해상도, 색 깊이 및 프레임 레이트 때문에 개선되었다. 이는 오늘날 인터넷 및 이동 통신 네트워크를 통해 흔히 전송되는 더 큰 데이터 스트림으로 이어졌다.
그러나, 더 높은 해상도의 비디오들은 전형적으로 더 많은 대역폭을 필요로 하는데 그 이유는 그것들이 더 많은 정보를 가지고 있기 때문이다. 대역폭 요건을 감소시키기 위해, 비디오의 압축을 수반하는 비디오 코딩 표준들이 도입되었다. 비디오가 인코딩될 때 대역폭 요건(또는 스토리지의 경우 대응하는 메모리 요건)이 감소된다. 종종 이러한 감소는 품질의 희생을 수반한다. 따라서, 비디오 코딩 표준들은 대역폭 요건과 품질 간의 균형을 찾으려고 시도한다.
품질을 개선하고 대역폭 요건을 감소시키기 위한 지속적인 요구가 있으므로, 감소된 대역폭 요건으로 품질을 유지하거나 대역폭 요건을 유지하면서 품질을 개선하는 솔루션들이 지속적으로 탐색된다. 더욱이, 때때로 타협이 수용될 수 있다. 예를 들어, 품질 개선이 상당하다면 대역폭 요건을 증가시키는 것이 수용될 수 있다.
HEVC(High Efficiency Video Coding)는 본 기술분야의 통상의 기술자들에게 흔히 알려져 있는 비디오 코딩 표준의 예이다. HEVC에서는, 코딩 단위(CU)를 예측 단위(PU)들 또는 변환 단위(TU)들로 분할한다. VVC(Versatile Video Coding) 차세대 표준은 JVET(Joint Video Exploration Team)로 알려진 파트너십에서 함께 작업하는, ITU-T VCEG(Video Coding Experts Group) 및 ISO/IEC MPEG(Moving Picture Experts Group) 표준화 기구들의 가장 최근의 공동 비디오 프로젝트이다. VVC는 ITU-T H.266/NGVC(Next Generation Video Coding) 표준이라고도 지칭된다. VVC에서, 그것은 다수의 분할 유형들의 개념들을 제거하는데, 즉, 그것은 최대 변환 길이에 대해 너무 큰 크기를 갖는 CU들에 대해 필요한 경우를 제외하고는 CU, PU 및 TU 개념들의 분리를 제거하고, CU 분할 형상에 대해 더 많은 유연성을 지원한다.
이미지의 특정 특징들을 강조하거나 필터링된 이미지의 객관적인 또는 지각 품질을 향상시키기 위해 이미지 필터링이 빈번하게 사용된다. 이미지 필터링은 다양한 잡음 소스들을 다루어야 한다. 따라서, 품질 향상을 위한 다양한 접근법들이 제안되었고 현재 사용되고 있다. 예를 들어, 적응 루프 필터(adaptive Loop filter, ALF) 방법에서, 각각의 재구성된 프레임은 작은 블록들(수퍼-픽셀들)의 세트로 분할되고 각각의 블록은 적응 루프 필터에 의해 필터링되는데, 그 이유는 필터링된 재구성된 프레임의 각각의 픽셀이 생성된 필터링된 픽셀의 위치 주위의 재구성된 프레임으로부터의 픽셀의 연결된 영역 내의 수 개의 픽셀들의 가중된 합이기 때문이다. 가중 계수들(필터 계수들이라고도 지칭됨)은 중심 대칭의 특성을 갖고 인코더로부터 디코더 측으로 송신된다. 에지들은 종종 큰 크기를 가지고 따라서 송신된 가중 계수들의 수는 효율적인 처리를 하기에 너무 많아질 수 있다. 많은 수의 가중 계수들은 송신을 위한 가중 계수들의 수를 감소시키기 위해 인코더 측에서 복잡한 레이트-왜곡 최적화(rate-distortion optimization, RDO)를 필요로 한다. 디코더 측에서 ALF는 범용 승산기들의 구현을 필요로 하고 이들 승산기는 각각의 2x2 픽셀 블록에 대해 재로딩되어야 한다.
따라서, 낮은 복잡도로 예측 품질을 개선하고, 따라서, 비디오 코딩 효율을 증가시키는 것을 허용하는 개선된 필터 및 방법이 필요하다.
본 발명의 목적은 제한된 복잡도로 필터링 효율을 개선하고, 따라서, 비디오 코딩 효율을 증가시키는 것을 허용하는 개선된 필터 및 방법을 제공하는 것이다.
전술한 그리고 다른 목적들은 독립 청구항들의 주제에 의해 달성된다. 추가 구현 형식들은 종속 청구항들, 설명 및 도면들로부터 명백하다.
제1 양태에 따르면 본 발명은 비디오 코딩을 위한 필터에 관한 것으로, 상기 필터는 필터링된 블록의 생성을 위해 블록을 처리하도록 구성되고, 상기 블록은 복수의 픽셀을 포함한다. 상기 필터는 명령어들을 포함하는 메모리 스토리지; 및 상기 메모리와 통신하는 하나 이상의 프로세서를 포함한다. 상기 하나 이상의 프로세서는 상기 명령어들을 실행하여: 미리 정의된 스캔 템플릿에 따라 현재 픽셀 및 그것의 이웃 픽셀들을 선형 버퍼에 로딩하고; 상기 선형 버퍼 내의 픽셀들에 대해 1D 변환을 수행하는 것에 의해 스펙트럼 성분들을 획득하고; 각각의 스펙트럼 성분을 이득 계수와 곱하는 것에 의해 필터링된 스펙트럼 성분들을 획득하고 - 상기 이득 계수는 대응하는 스펙트럼 성분 및 필터링 파라미터에 의존함 -; 필터링된 스펙트럼 성분들에 대해 역 1D 변환을 수행하는 것에 의해 필터링된 픽셀들을 획득하고; 상기 필터링된 픽셀들에 기초하여 필터링된 블록을 생성한다.
예로서, 상기 블록(또는 프레임)은 예측된 블록일 수 있고, 상기 필터링된 블록은 필터링된 예측된 블록이다. 다른 예로서, 상기 블록(또는 프레임)은 재구성된 블록일 수 있고, 상기 필터링된 블록은 필터링된 재구성된 블록이다.
예로서, 상기 이득 계수는 대응하는 스펙트럼 성분 및 필터링 파라미터의 함수이다. 상기 필터링 파라미터는 코덱 양자화 파라미터(QP)로부터 도출될 수 있다.
다른 예에서, 제1 스펙트럼 성분에 대한 이득 계수 가 1과 동등할 때 제1 스펙트럼 성분은 필터링 없이 바이패싱된다. 상기 제1 스펙트럼 성분은 상기 선형 버퍼 내의 샘플들의 합 또는 평균 값에 대응하고, 상기 제1 스펙트럼 성분은 DC에 대응할 수 있다.
다른 예로서, 상기 하나 이상의 프로세서는 상기 명령어들을 실행하여: 상기 LUT의 테이블 값들로부터 N개의 비트를 드로핑하고, N은 정수이다. N은 QP 값에 의존할 수 있거나, 고정 값이다.
예로서, 상기 미리 정의된 스캔 템플릿은 상기 재구성된 블록 내부의 현재 픽셀의 위치에 대한 공간적 또는 래스터 오프셋들의 세트로서 정의된다. 이웃 픽셀들을 지시하는 오프셋들은 상기 재구성된 블록 내부에 있다. 적어도 하나의 필터링된 픽셀은 상기 미리 정의된 스캔 템플릿에 따라 그것의 원래 위치에 배치될 수 있다. 모든 필터링된 픽셀들은 상기 미리 정의된 스캔 템플릿에 따라 누적 버퍼에 추가되고, 상기 누적 버퍼는 필터링된 스펙트럼 성분들을 획득하기 전에 0으로 초기화될 수 있다. 상기 누적 버퍼 내의 누적된 값들을 상기 누적 버퍼의 현재 위치에 추가하는 픽셀들의 수로 나눈 것으로서 최종 필터링된 픽셀들이 획득되고; 하나 이상의 프로세서는 상기 최종 필터링된 픽셀들에 기초하여 상기 필터링된 재구성된 블록을 생성하도록 구성된다.
옵션으로, 모든 필터링된 픽셀들과 대응하는 필터링되지 않은 픽셀들 간의 차이들이 상기 미리 정의된 스캔 템플릿에 따라 누적 버퍼에 추가되고, 상기 누적 버퍼는 필터링되지 않은 픽셀들을 상기 블록에서 추가될 픽셀 값들의 최대 수와 곱하는 것에 의해 초기화될 수 있다. 상기 최종 필터링된 픽셀들은 상기 누적 버퍼 내의 누적된 값들을 상기 블록에서 추가될 픽셀 값들의 최대 수로 나눈 것으로서 획득된다.
제2 양태에 따르면 본 발명은 필터링된 블록의 생성을 위해 블록을 처리하기 위한 대응하는 필터링 방법에 관한 것이고, 상기 블록은 복수의 픽셀을 포함한다. 각각의 픽셀은 픽셀 값과 연관된다. 상기 필터링 방법은: 미리 정의된 스캔 템플릿에 따라 현재 픽셀 및 그것의 이웃 픽셀들을 선형 버퍼에 로딩하는 단계; 상기 선형 버퍼 내의 픽셀들에 대해 1D 변환을 수행하는 것에 의해 스펙트럼 성분들을 획득하는 단계; 각각의 스펙트럼 성분을 이득 계수와 곱하는 것에 의해 필터링된 스펙트럼 성분들을 획득하는 단계 - 상기 이득 계수는 대응하는 스펙트럼 성분 및 필터링 파라미터에 의존함 -; 필터링된 스펙트럼 성분들에 대해 역 1D 변환을 수행하는 것에 의해 필터링된 픽셀들을 획득하는 단계; 및 상기 필터링된 픽셀들에 기초하여 필터링된 블록을 생성하는 단계를 포함한다.
예로서, 상기 블록(또는 프레임)은 예측된 블록일 수 있고, 상기 필터링된 블록은 필터링된 예측된 블록이다. 다른 예로서, 상기 블록(또는 프레임)은 재구성된 블록일 수 있고, 상기 필터링된 블록은 필터링된 재구성된 블록이다.
예로서, 상기 이득 계수는 대응하는 스펙트럼 성분 및 필터링 파라미터의 함수이다. 상기 필터링 파라미터는 코덱 양자화 파라미터(QP)로부터 도출될 수 있다.
다른 예로서, 룩업 테이블(LUT)에 기초하여 상기 스펙트럼 성분들을 필터링하는 것. LUT 생성은 적어도 일부 양자화 파라미터(QP)에 대한 보조 함수에 기초할 수 있다. 보조 함수는 포인트 (i,THR) 및 (a, 0)에 대해 나오는 직선 방정식일 수 있고, 여기서 a > 0이고 a는 필터링 파라미터 σ 또는 QP 값에 의존한다. 예를 들어, QP들의 세트 내의 마지막 QP에 대해, a는 11과 동등하다; 또는 QP들의 세트 내의 두 번째 마지막 QP에 대해, a는 9와 동등하다.
다른 예로서, 상기 방법은: 상기 LUT의 테이블 값들로부터 N개의 비트를 드로핑하는 단계를 추가로 포함하고, N은 정수이다. N은 QP 값에 의존할 수 있거나, 고정 값이다. QP들의 세트로부터의 더 높은 QP에 비해 더 낮은 QP에 대해 더 적게 N이 선택될 때, 예를 들어, QP들의 세트 내의 첫 번째 QP에 대해, N은 2와 동등하다; 또는 QP들의 세트로부터의 나머지 QP들에 대해, N은 3과 동등하다. 대안적으로, QP들의 세트로부터의 더 낮은 QP에 비해 더 높은 QP에 대해 더 많게 N이 선택될 때, 예를 들어, QP들의 세트 내의 마지막 QP에 대해 또는 마지막 2개의 QP에 대해, N은 4와 동등하다; 또는 QP들의 세트로부터의 나머지 QP들에 대해, N은 3과 동등하다. 대안적으로, QP들의 세트로부터의 나머지 QP에 비해 더 낮은 QP에 대해 더 적게 그리고 더 높은 QP에 대해 더 많게 N이 선택될 때, 예를 들어, QP들의 세트 내의 첫 번째 QP에 대해, N은 2와 동등하다; QP들의 세트 내의 마지막 QP에 대해 또는 마지막 2개의 QP에 대해, N은 4와 동등하다; 또는, QP들의 세트로부터의 나머지 QP들에 대해, N은 3과 동등하다.
예로서, 상기 미리 정의된 스캔 템플릿은 상기 재구성된 블록 내부의 현재 픽셀의 위치에 대한 공간적 또는 래스터 오프셋들의 세트로서 정의된다. 이웃 픽셀들을 지시하는 오프셋들은 상기 재구성된 블록 내부에 있다. 적어도 하나의 필터링된 픽셀은 상기 미리 정의된 스캔 템플릿에 따라 그것의 원래 위치에 배치될 수 있다. 모든 필터링된 픽셀들은 상기 미리 정의된 스캔 템플릿에 따라 누적 버퍼에 추가되고, 상기 누적 버퍼는 필터링된 스펙트럼 성분들을 획득하기 전에 0으로 초기화될 수 있다. 상기 누적 버퍼 내의 누적된 값들을 상기 누적 버퍼의 현재 위치에 추가하는 픽셀들의 수로 나눈 것으로서 최종 필터링된 픽셀들이 획득되고; 하나 이상의 프로세서는 상기 최종 필터링된 픽셀들에 기초하여 상기 필터링된 재구성된 블록을 생성하도록 구성된다.
옵션으로, 모든 필터링된 픽셀들과 대응하는 필터링되지 않은 픽셀들 간의 차이들이 상기 미리 정의된 스캔 템플릿에 따라 누적 버퍼에 추가되고, 상기 누적 버퍼는 필터링되지 않은 픽셀들을 상기 블록에서 추가될 픽셀 값들의 최대 수와 곱하는 것에 의해 초기화될 수 있다. 상기 최종 필터링된 픽셀들은 상기 누적 버퍼 내의 누적된 값들을 상기 블록에서 추가될 픽셀 값들의 최대 수로 나눈 것으로서 획득된다.
제3 양태에 따르면 본 발명은 입력 비디오 스트림으로부터 현재 프레임을 인코딩하기 위한 인코딩 장치에 관한 것이고, 이 인코딩 장치는 본 발명의 제1 양태에 따른 필터를 포함한다.
제4 양태에 따르면 본 발명은 수신된 비트스트림으로부터 현재 프레임을 디코딩하기 위한 디코딩 장치에 관한 것이고, 이 디코딩 장치는 본 발명의 제1 양태에 따른 필터를 포함한다.
제5 양태에 따르면 본 발명은 컴퓨터 상에서 실행될 때 제2 양태에 따른 방법을 수행하기 위한 프로그램 코드를 포함하는 컴퓨터 프로그램에 관한 것이다.
따라서, 비디오 코딩을 위한 효율을 개선하는 것을 허용하는 필터가 제공된다. 더 구체적으로, 본 발명의 실시예들에 따른 개선된 필터는 필터 파라미터 시그널링 없이 프레임 자체로부터 필터 파라미터들을 추정하고, 따라서, 종래의 필터들보다 상당히 적은 시그널링을 필요로 하고, 이는 이미지 도메인에서 필터링하기 위한 가중 계수들을 시그널링한다.
본 발명의 추가 실시예들은 다음의 도면들에 관하여 설명될 것이다.
도 1a는 실시예에 따른 필터를 포함하는 실시예에 따른 인코딩 장치를 예시하는 개략도를 도시한다.
도 1b는 실시예에 따른 필터를 포함하는 실시예에 따른 인코딩 장치를 예시하는 개략도를 도시한다.
도 2a는 실시예에 따른 필터를 포함하는 실시예에 따른 디코딩 장치를 예시하는 개략도를 도시한다.
도 2b는 실시예에 따른 필터를 포함하는 실시예에 따른 디코딩 장치를 예시하는 개략도를 도시한다.
도 3a는 실시예에 따른 필터에서 구현되는 필터링 프로세스의 양태들을 예시하는 개략도를 도시한다.
도 3b는 실시예에 따른 필터에서 구현되는 필터링 프로세스의 양태들을 예시하는 개략도를 도시한다.
도 3c는 다른 실시예에 따른 필터에서 구현되는 필터링 프로세스의 양태들을 예시하는 개략도를 도시한다.
도 4a는 정사각형 재구성된 블록 내부의 상이한 픽셀 위치에 대한 템플릿들을 예시한다.
도 4b는 하나의 픽셀에 대한 등가 필터 형상을 예시한다.
도 4c는 패딩의 예를 제공한다.
도 4d는 패딩의 다른 예를 제공한다.
도 5a는 실시예에 따른 필터링 방법의 단계들을 예시하는 흐름도를 도시한다.
도 5b는 실시예에 따른 필터링 방법의 단계들을 예시하는 흐름도를 도시한다.
도 6은 SRAM에 기초한 예시적인 하드웨어 필터 설계이다.
도 7은 플립-플롭에 기초한 2x2 그룹 필터링의 예시적인 하드웨어 설계이다.
도 8은 4개의 2x2 그룹 필터링의 결과들을 동일한 공간적 그룹 최종 필터의 결과들의 재사용과 조합하는 예를 도시한다.
도 9는 LUT를 최적화한 결과를 예로서 도시한다.
도 10은 필터 전달 함수에서의 바람직하지 않은 갭을 예로서 도시한다.
도 11은 테이블 항목들이 하나하나 플롯되어 있는 동일한 테이블을 예로서 표현한다.
도 12는 보조 함수를 사용하여 갭이 어떻게 제거될 수 있는지에 대한 방법을 예로서 예시한다.
도 13은 LUT를 생성하는 동안 2개의 값으로부터 최대값을 취하는 것에 의해 갭을 제거하는 예를 예시한다.
도 14는 위에 설명된 방법을 적용한 후의 필터 전달 함수를 예로서 예시한다.
도 15는 세트 내의 5개의 QP에 따른 필터 전달 함수의 예를 예시한다.
도 16은 대응하는 테이블들에 기초한 세트 내의 5개의 QP에 대한 필터 전달 함수의 예를 예시한다.
도 17은 대응하는 테이블들에 기초한 세트 내의 5개의 QP에 대한 필터 전달 함수의 예를 예시한다.
도 18은 실시예에 따른 장치의 예시적인 구조를 예시하는 개략도이다.
다양한 도면들에서, 동일한 참조 부호들은 동일하거나 기능적으로 동등한 특징들에 대해 사용될 것이다.
도 1a는 실시예에 따른 필터를 포함하는 실시예에 따른 인코딩 장치를 예시하는 개략도를 도시한다.
도 1b는 실시예에 따른 필터를 포함하는 실시예에 따른 인코딩 장치를 예시하는 개략도를 도시한다.
도 2a는 실시예에 따른 필터를 포함하는 실시예에 따른 디코딩 장치를 예시하는 개략도를 도시한다.
도 2b는 실시예에 따른 필터를 포함하는 실시예에 따른 디코딩 장치를 예시하는 개략도를 도시한다.
도 3a는 실시예에 따른 필터에서 구현되는 필터링 프로세스의 양태들을 예시하는 개략도를 도시한다.
도 3b는 실시예에 따른 필터에서 구현되는 필터링 프로세스의 양태들을 예시하는 개략도를 도시한다.
도 3c는 다른 실시예에 따른 필터에서 구현되는 필터링 프로세스의 양태들을 예시하는 개략도를 도시한다.
도 4a는 정사각형 재구성된 블록 내부의 상이한 픽셀 위치에 대한 템플릿들을 예시한다.
도 4b는 하나의 픽셀에 대한 등가 필터 형상을 예시한다.
도 4c는 패딩의 예를 제공한다.
도 4d는 패딩의 다른 예를 제공한다.
도 5a는 실시예에 따른 필터링 방법의 단계들을 예시하는 흐름도를 도시한다.
도 5b는 실시예에 따른 필터링 방법의 단계들을 예시하는 흐름도를 도시한다.
도 6은 SRAM에 기초한 예시적인 하드웨어 필터 설계이다.
도 7은 플립-플롭에 기초한 2x2 그룹 필터링의 예시적인 하드웨어 설계이다.
도 8은 4개의 2x2 그룹 필터링의 결과들을 동일한 공간적 그룹 최종 필터의 결과들의 재사용과 조합하는 예를 도시한다.
도 9는 LUT를 최적화한 결과를 예로서 도시한다.
도 10은 필터 전달 함수에서의 바람직하지 않은 갭을 예로서 도시한다.
도 11은 테이블 항목들이 하나하나 플롯되어 있는 동일한 테이블을 예로서 표현한다.
도 12는 보조 함수를 사용하여 갭이 어떻게 제거될 수 있는지에 대한 방법을 예로서 예시한다.
도 13은 LUT를 생성하는 동안 2개의 값으로부터 최대값을 취하는 것에 의해 갭을 제거하는 예를 예시한다.
도 14는 위에 설명된 방법을 적용한 후의 필터 전달 함수를 예로서 예시한다.
도 15는 세트 내의 5개의 QP에 따른 필터 전달 함수의 예를 예시한다.
도 16은 대응하는 테이블들에 기초한 세트 내의 5개의 QP에 대한 필터 전달 함수의 예를 예시한다.
도 17은 대응하는 테이블들에 기초한 세트 내의 5개의 QP에 대한 필터 전달 함수의 예를 예시한다.
도 18은 실시예에 따른 장치의 예시적인 구조를 예시하는 개략도이다.
다양한 도면들에서, 동일한 참조 부호들은 동일하거나 기능적으로 동등한 특징들에 대해 사용될 것이다.
다음의 설명에서, 본 개시의 일부를 형성하고, 본 발명이 배치될 수 있는 특정 양태들이 예시로서 도시되는 첨부 도면들이 참조된다. 본 발명의 범위를 벗어나지 않고 다른 양태들이 이용될 수 있고 구조적 또는 논리적 변화들이 이루어질 수 있다는 것이 이해된다. 따라서, 본 발명의 범위는 첨부된 청구항들에 의해 정의되므로, 다음의 상세한 설명은 제한적인 의미로 간주되어서는 안 된다.
예를 들어, 설명된 방법과 관련한 개시가 또한 그 방법을 수행하도록 구성된 대응하는 디바이스 또는 시스템에 대해 유효할 수 있고 그 반대도 마찬가지라는 것이 이해된다. 예를 들어, 특정 방법 단계가 설명된다면, 대응하는 디바이스는 설명된 방법 단계를 수행하는 유닛을 포함할 수 있다(비록 그러한 유닛이 명시적으로 설명되거나 도면들에 예시되지 않는 경우에도). 또한, 구체적으로 달리 언급되지 않는 한, 본 명세서에 설명된 다양한 예시적인 양태들의 특징들은 서로 조합될 수 있다는 것이 이해된다.
도 1a는 실시예에 따른 필터(120)를 포함하는 실시예에 따른 인코딩 장치(100)를 도시한다. 인코딩 장치(100)는 복수의 프레임(본 명세서에서 화상 또는 이미지라고도 지칭됨)을 포함하는 비디오 신호의 프레임의 블록을 인코딩하도록 구성되고, 여기서 각각의 프레임은 복수의 블록으로 분할가능하고, 각각의 블록은 복수의 픽셀을 포함한다. 일 실시예에서, 블록들은 매크로 블록들, 코딩 트리 단위들, 코딩 단위들, 예측 단위들 및/또는 예측 블록들일 수 있다.
본 개시에서 용어 "블록"은 임의의 유형 블록에 대해 또는 임의의 깊이 블록에 대해 사용되고, 예를 들어, 용어 "블록"은 루트 블록, 블록, 서브-블록, 리프 노드 등에 포함되지만 이에 제한되지 않는다. 코딩될 블록들은 반드시 동일한 크기를 갖는 것은 아니다. 하나의 화상은 상이한 크기들의 블록들을 포함할 수 있고 비디오 시퀀스의 상이한 화상들의 블록 래스터도 상이할 수 있다.
도 1a에 도시된 예시적인 실시예에서, 인코딩 장치(100)는 하이브리드 비디오 코딩 인코더의 형식으로 구현된다. 통상적으로, 비디오 신호의 제1 프레임은 인트라 예측만을 사용하여 인코딩되는 인트라 프레임이다. 이를 위해, 도 1a에 도시된 인코딩 장치(100)의 실시예는 인트라 예측을 위한 인트라 예측 유닛(154)을 포함한다. 인트라 프레임은 다른 프레임들로부터의 정보 없이 디코딩될 수 있다. 인트라 예측 유닛(154)은 인트라 추정 유닛(152)에 의해 제공되는 정보에 기초하여 블록의 인트라 예측을 수행할 수 있다.
제1 인트라 프레임 다음의 후속 프레임들의 블록들은, 모드 선택 유닛(160)에 의해 선택되는 바와 같이, 인터 또는 인트라 예측을 사용하여 코딩될 수 있다. 이를 위해, 도 1a에 도시된 인코딩 장치(100)는 인터 예측 유닛(144)을 추가로 포함한다. 일반적으로, 인터 예측 유닛(144)은 인터 추정 유닛(142)에 의해 제공되는 모션 추정에 기초하여 블록의 모션 보상을 수행하도록 구성될 수 있다.
더욱이, 인트라 또는 인터 예측으로부터 획득되는 도 1b에 도시된 하이브리드 인코더 실시예에서의 예측 신호는 필터(145)에 의해 더 필터링된다.
더욱이, 도 1a 및 도 1b에 도시된 하이브리드 인코더 실시예에서, 잔차 계산 유닛(104)은 원래 블록과 그것의 예측 간의 차이, 즉, 인트라/인터 화상 예측의 예측 오류를 정의하는 잔차 블록을 결정한다. 이 잔차 블록은 변환 유닛(106)에 의해 변환되고(예를 들어, DCT를 사용하여) 변환 계수들은 양자화 유닛(108)에 의해 양자화된다. 양자화 유닛(108)의 출력뿐만 아니라, 예를 들어, 인트라 예측 유닛(154), 인터 예측 유닛(144) 및 필터(120)에 의해 제공되는 코딩 또는 부가 정보는 엔트로피 인코딩 유닛(170)에 의해 더 인코딩된다.
하이브리드 비디오 인코더는 통상적으로 디코더 처리를 복제하여 둘 다 동일한 예측을 생성하도록 한다. 따라서, 도 1에 도시된 실시예에서, 역양자화 유닛(110) 및 역변환 유닛은 변환 유닛(106) 및 양자화 유닛(108)의 역동작들을 수행하고 잔차 블록의 디코딩된 근사치를 복제한다. 그 후 디코딩된 잔차 블록 데이터는 재구성 유닛(114)에 의해 예측의 결과들, 즉, 예측 블록에 추가된다. 그 후, 재구성 유닛(114)의 출력은 인트라 예측을 위해 사용되도록 라인 버퍼(116)에 제공될 수 있고, 필터(120)에 의해 더 처리되고, 이에 대해서는 아래에 더 상세히 기술될 것이다. 최종 화상은 디코딩된 화상 버퍼(130)에 저장되고, 후속 프레임들의 인터 예측에 이용될 수 있다.
도 2a는 실시예에 따른 필터(220)를 포함하는 실시예에 따른 디코딩 장치(200)를 도시한다. 이 디코딩 장치(200)는 인코딩된 비디오 신호의 프레임의 블록을 디코딩하도록 구성된다. 도 2a에 도시된 실시예에서 디코딩 장치(200)는 하이브리드 디코더로서 구현된다. 엔트로피 디코딩 유닛(204)은, 특히, 인트라 예측 유닛(254) 및 인터 예측 유닛(244)뿐만 아니라, 필터(220)와 같은, 디코딩 장치(200)의 다른 컴포넌트들에 필요한, 일반적으로 예측 오류들(즉, 잔차 블록들), 모션 데이터 및 다른 부가 정보를 포함할 수 있는, 인코딩된 화상 데이터의 엔트로피 디코딩을 수행한다. 일반적으로, 도 2a에 도시된 디코딩 장치(200)의 인트라 예측 유닛(254) 및 인터 예측 유닛(244)은 모드 선택 유닛(260)에 의해 선택되고 도 1에 도시된 인코딩 장치(100)의 인트라 예측 유닛(154) 및 인터 예측 유닛(144)과 동일한 방식으로 기능하고, 따라서 인코딩 장치(100) 및 디코딩 장치(200)에 의해 동일한 예측들이 생성될 수 있다. 디코딩 장치(200)의 재구성 유닛(214)은 역양자화 유닛(210) 및 역변환 유닛(212)에 의해 제공되는 잔차 블록 및 필터링된 예측된 블록에 기초하여 블록을 재구성하도록 구성된다. 인코딩 장치(100)의 경우에서와 같이, 재구성된 블록은 인트라 예측을 위해 사용되는 라인 버퍼(216)에 제공될 수 있고 필터링된 블록/프레임은 인터 예측을 위해 필터(220)에 의해 디코딩된 화상 버퍼(230)에 제공될 수 있다.
도 2b에 도시된 바와 같이, 인트라 또는 인터 예측으로부터 획득되는 도 2b에 도시된 하이브리드 인코더 실시예에서의 예측 신호는 필터(264)에 의해 더 필터링된다.
이미 위에 설명된 바와 같이, 필터(120, 220)는 프레임 레벨에서 사용될 수 있는데, 예를 들어, 필터(120, 220)는 디코딩된 재구성된 비디오 스트림으로부터 재구성된 프레임을 처리하여 필터링된 재구성된 프레임을 생성하도록 구성될 수 있고, 여기서 재구성된 프레임은 복수의 블록을 포함한다. 필터(120, 220)는 또한 전체 프레임을 기다리지 않고 블록 재구성 직후에 블록 레벨에서 사용될 수 있는데, 예를 들어, 필터(120, 220)는 재구성된 블록을 처리하여 필터링된 재구성된 블록을 생성하도록 구성될 수 있고, 여기서 재구성된 블록은 복수의 픽셀을 포함한다.
필터(120, 220, 145 또는 264)는 하나 이상의 프로세서(또는 하나 이상의 처리 유닛)를 포함한다. 아래에 더 상세히 설명되는 바와 같이, 하나 이상의 프로세서(또는 하나 이상의 처리 유닛)는: 미리 정의된 스캔 템플릿(다시 말해서, 스캔 순서, 또는 스캔 패턴)에 따라 현재 픽셀 및 그것의 이웃 픽셀들을 선형 버퍼에 로딩하고; 상기 선형 버퍼 내의 각각의 픽셀들에 대해 1D 변환을 수행하는 것에 의해 스펙트럼 성분들을 획득하고; 각각의 스펙트럼 성분을 이득 계수와 곱하는 것에 의해 필터링된 스펙트럼을 획득하고 - 상기 이득 계수는 대응하는 스펙트럼 성분 및 필터링 파라미터에 의존함 -; 필터링된 스펙트럼에 대해 역 1D 변환을 수행하는 것에 의해 필터링된 픽셀들을 획득하고; 이전 처리 단계들에서 추정된 상기 필터링된 픽셀들에 기초하여 필터링된 재구성된 블록을 생성하도록 구성된다. 예에서, 이득 계수는 대응하는 스펙트럼 성분 및 필터링 파라미터에 의존한다. 다른 예에서, 이득 계수는 하나 이상의 필터링 파라미터 및 하나 이상의 대응하는 스펙트럼 성분에 의존한다. 다른 예에서, 각각의 이득 계수는 하나 이상의 필터링 파라미터 및 대응하는 스펙트럼 성분뿐만 아니라 스펙트럼 성분의 좌측 및 우측의 이웃 스펙트럼 성분들에 의존할 수 있다.
본 개시는 재구성된 프레임으로부터의 재구성된 블록의 로컬 및/또는 비-로컬 필터링을 수행하는 손실 비디오 코덱에 대한 루프 내 필터(in-loop filter)를 설명한다. 예에 따르면, 재구성된 프레임은 작은 비중첩 직사각형 블록들(CU 블록들)의 세트로 분할된다. 다음 단계에서 각각의 재구성된 블록(재구성된 CU 블록)은 다른 재구성된 블록들과 독립적으로 주파수 도메인에서 필터링된다. 필터는 또한 변환 및 재구성 후에 적용될 수 있고, 필터링된 결과는 출력뿐만 아니라 공간적 및 시간적 예측 둘 다를 위해 이용된다.
다른 예로서, 본 개시는 재구성된 프레임의 예측 블록의 로컬 및/또는 비-로컬 필터링을 수행하는 손실 비디오 코덱에 대한 예측 필터를 설명한다.
제1 처리 단계에서 재구성된 블록 내부의 모든 픽셀들은 서로 독립적으로 처리될 수 있다. 픽셀 r(0)의 처리를 위해, 이웃 픽셀들이 사용된다. 예를 들어, 도 3a에 예시된 바와 같이, 픽셀들 r(1) 내지 r(7)이 사용되고, 픽셀들 r(0) 내지 r(7)은 하나의 처리 그룹을 형성한다.
도 3a 또는 도 3b는 실시예에 따른 필터에서 구현되는 필터링 프로세스의 양태들을 예시하는 개략도(300, 300')를 도시한다. 단계 302, 302'에서는, 블록으로부터의 현재 픽셀 및 그것의 이웃 픽셀들이 미리 정의된 스캔 템플릿에 따라 선형 버퍼에 로딩된다. 예로서, 블록은 예측된 블록일 수 있다. 다른 예로서, 블록은 재구성된 블록일 수 있다.
단계 304, 304'에서는, 스펙트럼 성분들 R을 획득하기 위해 선형 버퍼 내의 픽셀 r(0) 및 그것의 이웃 픽셀들 r(1) 내지 r(7)에 대해 1D 변환이 수행된다:
예로서, 1D 변환은 Hadamard 변환일 수 있다.
원시의 4개의 픽셀(예를 들어, 도 3b의 예에서와 같이 픽셀들 A, B, C, D)에 대해 1D 변환을 수행할지 또는 공간적으로 위치한 픽셀들 A, B, C, D에 대해 2D 변환을 수행할지는 구현 특정과 관련된다는 것을 이해해야 한다. 2x2 블록에 위치한 4개의 픽셀 A, B, C, D에 2D 변환을 적용하는 것은 원시로서 취해지는 4개의 픽셀 A, B, C, D에 1D 변환을 적용하는 것과 동일한 결과로 이어질 수 있다. 단계 306, 306'에서는, 필터링된 스펙트럼 성분들 를 획득하기 위해 각각의 스펙트럼 성분 와 대응하는 이득 계수 의 곱셈에 기초하여 주파수 도메인에서 필터링이 수행된다.
모든 스펙트럼 성분들에 대한 이득 계수들의 세트는 필터의 주파수
임펄스 응답이다.
예에서, 이득 계수는 대응하는 스펙트럼 성분 및 필터링 파라미터에 의존한다. 다른 예에서, 이득 계수는 하나 이상의 필터링 파라미터 및 하나 이상의 대응하는 스펙트럼 성분에 의존한다. 다른 예에서, 각각의 이득 계수는 하나 이상의 필터링 파라미터 및 대응하는 스펙트럼 성분뿐만 아니라 스펙트럼 성분의 좌측 및 우측의 이웃 스펙트럼 성분들에 의존할 수 있다. 각각의 이득 계수가 재구성된 블록의 스펙트럼 성분 및 필터링 파라미터의 함수이거나, 또는 예측된 블록의 스펙트럼 성분 및 필터링 파라미터의 함수이면, 이득 계수 는 예로서 다음의 공식에 의해 기술될 수 있다:
여기서, (i)는 스펙트럼 성분의 인덱스이고, R(i)는 (i) 인덱스에 대응하는 스펙트럼 성분이고, 는 R(i)에 대응하는 이득 계수이고, σ는 필터링 파라미터이고, m은 스펙트럼 성분들의 수와 동등한 정규화 상수이다. 예를 들어, m은 1, 2, 3, 4 ...이다. 상이한 스펙트럼 성분들은 동일한 이득 계수를 가질 수 있거나, 상이한 이득 계수들을 가질 수 있다.
변환 블록의 입력 샘플들의 평균(FFT, DCT, DST 등) 또는 합(Hadamard)에 대응하는 스펙트럼 성분들(통상적으로 DC 값에 대응하는 제1 성분)을 갖는 해당 변환들에 대해, 필터링된 블록의 평균 휘도의 변화를 회피하기 위해 1과 동등한 필터링 계수를 갖는 것이 유리할 수 있다. 이는 DC 값에 대응하는 제1 스펙트럼 성분에 대한 바이패싱(필터링 없음)을 의미한다.
필터링 파라미터로서의 σ는, 예를 들어, 다음의 공식을 사용하여, 인코더 측 및 디코더 측의 코덱 양자화 파라미터(QP)로부터 도출될 수 있다:
여기서 k, n 및 s는 값들을 갖는 상수들이고 예로서: k = 2.64, n = 0.1296, s = 11이다.
상이한 스펙트럼 성분들은 동일한 필터링 파라미터를 가질 수 있거나, 상이한 필터링 파라미터들을 가질 수 있다.
파라미터들 k, n 및 s는 최근 비디오 코딩 표준들에서 QP 값이 6만큼 증가할 때마다 2배가 되는 양자화 스텝 크기에 시그마가 의존하게 하는 방식으로 선택될 수 있다. 파라미터들 k = 0.5, 및 s = 0인 예에서 σ 파라미터들은 다음과 같이 도출된다:
양자화 스케일링 행렬들은 비디오 압축 품질을 개선하기 위해 널리 사용된다. 이 방법에서 QP에 기초하여 도출된 양자화 스텝 크기는 비트스트림에서 송신된 스케일링 인자와 곱해진다. 그러한 방법에 대해 σ 파라미터 도출은 특정 QP에 대해 사용되는 실제 스케일링된 양자화 스텝 크기에 기초할 수 있다:
상수들 k, n 및 s는 σ 계산을 위한 고정 값들을 가질 수 있거나, QP, 블록 크기 및 형상, 현재 블록에 대한 예측의 유형(인터/인트라)에 따라 상이한 값들을 가질 수 있다. 예를 들어 32x32 이상의 크기를 갖는 인트라 예측된 정사각형 블록들에 대해 파라미터 s는 s = 11 + 8 = 19로서 계산될 수 있다. 등가 필터 파라미터로서 σ는 통상적으로 평탄한 영역들에 대응하는 큰 정사각형 인트라 예측된 블록에 더 적합한 더 소프트한 필터로 이어지는 더 작은 값을 갖는다. 다른 예로서, k는 픽셀들의 비트 깊이에 기초하여 수정될 수 있고 이다.
방법(300, 300')에 따르면, 각각의 주파수에 대한 이득 계수는 재구성된 픽셀들 또는 예측된 픽셀들의 스펙트럼 성분으로부터 도출된다. 따라서, 방법(300, 300')은 필터링 파라미터들의 송신을 필요로 하지 않고 추가적인 시그널링 없이 임의의 재구성된 블록 또는 예측된 블록에 대해 적용될 수 있다.
LUT 상세 사항들이 논의된다.
필터링은 항상 1보다 작은 스케일링 계수에 대한 스펙트럼 성분 R(i)의 곱셈을 암시한다는 점에 유의할 수 있다. 또한 높은 값들의 R(i)에서 스케일링 계수는 1에 가깝다는 것이 관찰될 수 있다. 이들 관찰에 기초하여 스펙트럼 필터링은 곱셈들 및 나눗셈들을 필터링 동작들로부터 제외하는 것을 허용하는 룩업 테이블을 사용하여 구현된다:
스펙트럼 이득 계수는 1보다 작으므로, 필터링은 다음의 공식들에 따라 짧은 룩업 테이블(LUT) 판독에 기초하여 구현될 수 있다:
여기서 이다. (i)는 스펙트럼 성분의 인덱스이고, R(i)는 (i) 인덱스에 대응하는 스펙트럼 성분이고, σ는 필터링 파라미터이고, THR은 임계값이고, m은 스펙트럼 성분들의 수와 동등한 정규화 상수이다. 예를 들어, m은 1, 2, 3, 4 ...이다.
예로서, THR은 다음의 공식으로부터 계산될 수 있고,
여기서 C는 1에 가까운 값, 예를 들어, 0.8 또는 0.9이다. LUT 크기를 감소시키기 위해 임계값 THR은 QP 값에 의존할 수 있다.
여기서 THR2는 그 아래에서 필터링된 스펙트럼 성분이 0인 것으로 간주되는 임계값을 정의한다. 제2 THR2도 QP 값에 따라 정의될 수 있다.
단계 310, 310'에서는, 역 1D 변환의 결과가 필터링된 재구성된 픽셀들 또는 필터링된 픽셀들의 선형 버퍼에 배치된다.
단계 312, 312'(도 3a 또는 도 3b에 도시되지 않음)에서는, 이전 처리 단계들에서 추정된 필터링된 픽셀들에 기초하여 필터링된 블록이 생성된다. 예로서, 필터링된 블록은 필터링된 예측된 블록일 수 있다. 다른 예로서, 필터링된 블록은 필터링된 재구성된 블록일 수 있다.
실시예로서 도 3a에 도시된 바와 같이, 필터링 단계 306 후에, 필터링된 픽셀 f(0)는 미리 정의된 스캔 템플릿에 따라 그것의 원래 위치에 배치된다. 다른 필터링된 샘플들 f(1) 내지 f(7)은 사용되지 않는다. 다른 실시예에서, 필터링된 샘플들의 선형 버퍼로부터의 하나보다 많은 필터링된 픽셀들, 예를 들어, 모든 필터링된 픽셀들이 도 3a의 단계 302에서 사용된 미리 정의된 스캔 템플릿에 따라 누적 버퍼에 추가된다. 누적 버퍼는 필터링 단계 전에 0으로 초기화되어야 한다. 마지막 정규화 단계에서, 최종 필터링된 픽셀들은 누적 버퍼 내의 누적된 값들을 누적 버퍼의 현재 위치에 추가된 픽셀들의 수, 다시 말해서, 이전 처리 단계들에서 누적 버퍼의 현재 위치에 추가된 픽셀 값들의 수로 나눈 것으로서 획득된다. 그 후, 최종 필터링된 픽셀들에 기초하여 필터링된 재구성된 블록 또는 예측된 블록이 생성된다.
다른 실시예로서, 필터는 인트라 및 인터 코딩 단위(CU) 필터링 둘 다에 대해 동일한 구현을 갖는다.
Hadamard 변환 도메인 필터는, 4x4 블록을 제외하고 슬라이스 양자화 파라미터가 17보다 크다면, 0이 아닌 변환 계수를 갖는 루마 재구성된 블록들에 항상 적용된다. 필터 파라미터들은 코딩된 정보로부터 명시적으로 도출된다. 제안된 필터는, 적용되면, 블록 재구성 직후에 디코딩된 샘플들에 대해 수행된다. 필터링된 결과는 출력뿐만 아니라 공간적 및 시간적 예측 둘 다를 위해 이용된다.
필터링 프로세스는 도 3c에 개략적으로 제시된 바와 같이 논의된다.
재구성된 블록으로부터의 각각의 픽셀에 대해 픽셀 처리는 다음의 단계들을 포함한다:
스캔 패턴에 따라 현재의 것을 포함하는 처리 픽셀 주위의 4개의 이웃 픽셀에 대해 스캐닝한다.
판독 픽셀들의 4 포인트 Hadamard 변환.
공식(1) 및 (2)에 기초한 스펙트럼 필터링.
DC 값에 대응하는 제1 스펙트럼 성분은 필터링 없이 바이패싱된다.
필터링된 스펙트럼의 역 4 포인트 Hadamard 변환.
필터링 단계 후에 필터링된 픽셀들은 누적 버퍼 내로 그것의 원래 위치들에 배치된다.
픽셀들의 필터링을 완성한 후에 누적된 값들은 각각의 픽셀 필터링에 사용되는 처리 그룹들의 수에 의해 정규화된다. 블록 주위의 하나의 샘플의 패딩의 사용으로 인해 처리 그룹들의 수는 블록 내의 각각의 픽셀에 대해 4와 동등하고, 2개의 비트에 대해 우측 시프트하는 것에 의해 정규화가 수행된다.
최대 병렬성이 요구되는 경우에 블록 내의 모든 픽셀이 독립적으로 처리될 수 있다는 것을 알 수 있다.
이 실시예들에서, 임계값 THR은 미리 정의된 값, 예를 들어, 128로 설정되고, 이는 간단한 구현의 경우에 각각의 QP마다 7-비트 값들의 128(1 << 7)개의 항목을 저장하는 것을 요구한다.
LUT의 크기는 온-칩 메모리 요건의 양 및 필터의 하드웨어 구현의 비용에 영향을 미친다. 온-칩 스토리지의 양을 감소시키기 위해 LUT는 8의 일정한 간격으로 QP 20으로부터 시작하는 제한된 QP들의 세트에 대해서만 계산된다. 전체 5개의 미리 정의된 LUT(5개의 QP 그룹에 대한)가 저장된다. 현재 블록의 필터링에 대해 CU의 QP는 테이블로부터 가장 가까운 것으로 라운딩된다.
LUT 크기의 추가 감소를 위해 LUT 생성 동안 N개의 최저 비트가 드로핑(또는 무시)된다. 이는 희소 테이블(sparse table) 표현을 갖는 것을 허용한다.
예시적인 구현 A에 대해, N은 2와 동등하고, 이는 7 - 2 = 5 비트의 테이블 깊이(7-비트 값들의 32개 항목)로 이어진다;
예시적인 구현 B에 대해, N은 3과 동등하고, 이는 7 - 3 = 4 비트의 테이블 깊이(7-비트 값들의 16개 항목)로 이어진다;
따라서, 전체 LUT 스토리지에 필요한 총 메모리 크기:
예시적인 구현 A에 대해: 5x32x7 비트 =1120 비트 =140 바이트;
예시적인 구현 B에 대해: 5x16x7 비트 = 560 비트 = 70 바이트;
예시적인 구현 B는 전체 LUT를 하나의 16 바이트 SSE 레지스터에 저장하는 능력으로 인해 소프트웨어 구현에서 병렬 액세스를 가능하게 하기 위해 16 바이트의 LUT 크기를 목표로 하고 있고 따라서 이러한 구성이 제안된다.
Hadamard 변환이 사용되고, 필터링된 픽셀이 미리 정의된 스캔 템플릿에 따라 그것의 원래 위치에 배치되면, 다음의 의사 코드는 방법(300)의 필터링 프로세스를 기술한다:
Hadamard 변환이 사용되고, 필터링된 샘플들의 선형 버퍼로부터의 하나보다 많은 필터링된 픽셀이 누적 버퍼에 추가되면, 다음의 의사 코드는 이 시나리오의 필터링 프로세스를 기술한다:
대안적인 실시예로서 누적 버퍼는 필터링되지 않은 픽셀 값들을 블록에서 추가될 픽셀 값들의 최대 수와 곱하는 것에 의해 초기화되어야 한다. 블록에서 추가될 픽셀 값들의 최대 수는 스캔 템플릿에 기초하여 정의된다. 실제로 스캔 템플릿은 각각의 위치에 대해 추가된 픽셀 값들의 수를 정의한다. 그에 기초하여, 블록 내의 모든 위치들로부터의 최대 수가 선택되어 누적 버퍼 초기화 동안 사용될 수 있다. 그 후, 각각의 누적 단계 동안, 필터링되지 않은 픽셀 값이 대응하는 필터링된 값으로부터 감산되고 누적 버퍼에 추가된다:
누적 버퍼에 배치하기 전에 누적된 픽셀 값들의 비트 깊이를 감소시키기 위해 역방향 변환의 결과가 변환의 크기(m)에 대해 정규화될 수 있다:
여기서 HTDF_BIT_RND4는 4의 변환 크기에 대해 2와 동등하다.
이 실시예는 시스템이 현재 위치에 추가된 픽셀들의 수를 저장하는 것을 회피할 수 있게 하고, 추가된 픽셀 값들의 최대 수가 예를 들어 2, 4, 8 등의 거듭제곱이면 대응하여 마지막 정규화 단계 및 누적 버퍼 초기화 단계에서 시프트 연산에 의해 대체 나눗셈 및 곱셈을 가능하게 한다.
정규화 스테이지의 정밀도를 유지하기 위해, 그것은 다음의 방식으로 수행될 수 있다:
여기서 HTDF_CNT_SCALE은 누적 버퍼 내에 배치된 픽셀들의 양의 Log2이고, 예를 들어, 4의 양에 대해 HTDF_CNT_SCALE은 2와 동등하고, HTDF_CNT_SCALE_RND는 (1 << (HTDF_CNT_SCALE - 1))과 동등하다. CLIP3은 필터링된 샘플이 최소 및 최대 샘플 값 간의 허용 범위 내에 있는 것을 보장하는 클리핑 함수이다.
필터링된 블록의 평균 휘도의 변화를 회피하기 위해 위에 언급된 바와 같이 제1 스펙트럼 성분(DC 값에 대응)의 필터링을 스킵하는 것이 유리할 수 있다. 이는 추가로 필터 구현을 단순화하는 것을 허용한다. 이 경우 필터링 단계는 다음과 같다:
재구성된 블록 또는 예측된 블록 내부의 각각의 픽셀에 대해, 단계 302 및 단계 310에 대해 재구성된 블록 또는 예측된 블록 내부의 필터링 픽셀의 위치에 기초하여 스캔 템플릿이 선택된다. 스캔 템플릿은 모든 픽셀들이 재구성된 CU 또는 예측된 CU 내부에 있고 처리 픽셀에 가깝게 배치되는 것을 보장하도록 선택된다. 템플릿 내부에서는 임의의 스캔 순서가 이용될 수 있다. 예를 들어, 미리 정의된 스캔 템플릿은 재구성된 블록 또는 예측된 블록 내부의 현재 픽셀의 위치에 대한 공간적 또는 래스터 오프셋들의 세트로서 정의되고, 여기서, 이웃 픽셀들을 지시하는 오프셋들은 재구성된 블록 또는 예측된 블록 내부에 있다. 아래는 스캔 템플릿의 예이다:
( 0,0 ), ( 0,1 ), ( 1,0 ), ( 1,1 )
도 4a는 정사각형 블록(예를 들어, 정사각형 CU 예측된 블록, 또는 정사각형 CU 재구성된 블록) 내부의 상이한 픽셀 위치에 대한 템플릿들의 예를 예시한다. 이 도면에 따르면 경계 픽셀들은 4 포인트 변환에 기초하여 필터링될 수 있고 중앙 픽셀들은 8 포인트 변환에 기초하여 필터링될 수 있다.
직사각형 재구성된 블록들 또는 예측된 블록들에 대해, 한 변의 크기는 다른 변의 더 큰 크기이고 스캔은 긴 변을 따라 수행되어야 한다. 예를 들어 수평 직사각형 블록에 대해 다음의 스캔 순서가 사용될 수 있고,
( 0,-3 ), ( 0,-2 ), ( 0,-1 ), ( 0,0 ), ( 0,1 ), (0,2), (0,3), (0,4),
여기서 각각의 쌍 (y,x)에서 x는 수평 오프셋이고 y는 필터링된 재구성된 블록 또는 예측된 블록 내부의 필터링 픽셀의 위치에 대한 수직 오프셋이다.
제안된 필터는 다음의 조건들에 따라 선택적으로 적용될 수 있다:
예를 들어, 작은 블록들의 처리를 회피하기 위해, 블록 크기가 4x4 픽셀들보다 작거나 그와 동등하다면 그 필터가 바이패싱될 수 있다(적용되지 않음). 이는 통상적으로 가장 작은 블록 처리에 대응하는 최악의 경우의 복잡도를 감소시킨다.
다른 예로서 필터는 0이 아닌 잔차 신호를 갖는 블록들에만 적용된다. 이는 양자화 또는 잔차들이 사용되었다면 유익한데, 그 이유는 필터가 양자화 오류를 개선하는 것을 목표로 하기 때문이다. 블록이 잔차를 갖지 않는다면 이는 예측이 양호하고 추가의 필터링이 요구되지 않는다는 지시일 수 있다.
다른 예로서, 인트라 예측이 일반적으로 인터보다 나쁘기 때문에, 필터는 0이 아닌 잔차의 존재와 독립적으로 인트라 예측된 블록들에 적용될 수 있고 블록이 0이 아닌 잔차 신호를 갖는 경우에만 인터 예측된 블록들에 적용될 수 있다.
필터 파라미터 시그마 및 스캔 패턴은 위에 열거된 조건들에 따라 달라질 수 있다.
도 4b는 예시적인 스캔 템플릿 ( 0,0 ), ( 0,1 ), ( 1,0 ), ( 1,1 )에 대한 현재 블록 내부의 하나의 픽셀을 고려하는 등가 필터 형상을 예시한다. 현재 픽셀의 필터링을 위해 3x3 픽셀들의 정사각형 영역이 사용된다(현재 픽셀은 3x3 정사각형의 중심에서 어두운 회색 색으로 표시되어 있다). 필터링된 픽셀은 4개의 2x2 그룹으로부터의 변환 도메인 필터링된 샘플들을 조합하는 것에 의해 획득된다. 현재 픽셀이 블록 경계(예를 들어, 상단 경계)에 위치한다면 좌측 상단 및 우측 상단 2x2 그룹들은 이용가능하지 않고 2개의 2x2 그룹(좌측 하단 및 우측 하단)만이 필터링을 위해 사용될 수 있다는 것을 이해할 수 있다. 더욱이 현재 픽셀이 블록 모서리(예를 들어, 좌측 상단 모서리)에 위치한다면 하나의 2x2 그룹(우측 하단)만이 필터링을 위해 사용될 수 있다.
경계 및 모서리 픽셀들에 대해 더 많은 4개의 2x2 그룹을 사용하여 필터링의 품질을 증가시키기 위해, 현재 블록은 추가적인 샘플들에 의해 패딩될 수 있다. 도 4c는 좌측 및 상측의 패딩의 예를 제공한다. 패딩 샘플들은 이미 재구성된 블록들로부터 취해질 수 있다.
블록 내의 모든 픽셀들에 대한 필터링 프로세스의 추가 통합을 위해(4개의 2x2 그룹이 현재 블록 내의 모든 픽셀들의 필터링에 사용됨), 좌측 상단 패딩에 더하여, 현재 블록이 또한 도 4d에 예시된 바와 같이 우측 하단 패딩에 의해 확장될 수 있다. 필터링의 통합은 모서리 픽셀들 및/또는 경계 픽셀들에 대한 특수한 처리 경우들을 제외하는 것에 의해 구현을 단순화하는 것으로 인해 유익하다.
패딩 샘플들은 바람직하게는 이미 재구성된 블록들로부터의 조정된 이웃 샘플들로부터 취해진다. 최신 기술 비디오 코덱들에서, 그러한 이미 재구성된 블록들은 블록 재구성 순서에 따라 현재 블록으로부터 좌측 또는 상측에 또는 우측 또는 하측에 위치할 수 있다. 조정 샘플들로부터의 더 많은 정보를 사용하여, 이는 필터링 품질을 개선하고 블록들 간의 전이를 더 원활하게 한다.
조정된 블록들 또는 이전에 재구성된 블록들로부터 재구성된 샘플들을 검색하는 것은 하드웨어 또는 소프트웨어 구현을 위한 추가적인 메모리 로딩을 요구할 수 있다. 추가적인 메모리를 최소화하거나 제외하기 위해, 현재 블록 경계들로 조정된 이웃 블록들로부터의 1개, 2개 또는 그 이상의 행들 및 열들로부터 흔히 취해지는 현재 블록의 인트라 예측을 위해 의도된 샘플들을 사용하는 것이 유익하다. 이들 샘플은 통상적으로 인트라 예측을 위한 용이한 액세스를 위해 고속 메모리("라인" 버퍼로도 알려짐)에 저장되고, 인트라 예측의 참조 샘플들로 불린다.
일부 구현에서, 인트라 예측을 수행하기 전에, 참조 샘플(인트라 참조 샘플)이 예측 전에, 예를 들어, 평활화, 샤프닝(sharpening), 디링잉(de-ringing) 또는 쌍방 필터링에 의해 전처리된다는 점에 추가로 유의해야 한다. 이 경우 현재 블록의 패딩을 위해 전처리된 샘플들을 사용하는 것이 유익할 수 있다.
조정된 블록 재구성의 순서로 인해, 패딩된 영역 내의 일부 샘플들이 이용가능하지 않다면, 도 4d에 예시된 바와 같이 필요한 샘플들이 현재 블록으로부터 패딩되어 경계 픽셀들을 패딩된 영역으로 확장할 수 있다.
도 5a는 실시예에 따른 대응하는 루프 내 필터링 방법(500)의 단계들을 예시하는 흐름도를 도시한다. 재구성된 블록은 복수의 픽셀을 포함한다. 방법(500)은 다음의 단계들을 포함한다: 미리 정의된 스캔 템플릿에 따라 현재 픽셀 및 그것의 이웃 픽셀들을 선형 버퍼에 로딩하는 단계(502); 상기 선형 버퍼 내의 픽셀들에 대해 1D 변환을 수행하는 것에 의해 스펙트럼 성분들을 획득하는 단계(504); 각각의 스펙트럼 성분을 이득 계수와 곱하는 것에 의해 필터링된 스펙트럼 성분들을 획득하는 단계(506) - 상기 이득 계수는 대응하는 스펙트럼 성분 및 필터링 파라미터에 의존함 -; 필터링된 스펙트럼 성분들에 대해 역 1D 변환을 수행하는 것에 의해 필터링된 픽셀들을 획득하는 단계(508); 및 이전 처리 단계들에서 추정된 상기 필터링된 픽셀들에 기초하여 필터링된 재구성된 블록을 생성하는 단계(510). 방법(500)은 도 1에 도시된 바와 같은 인코딩 장치 및 도 2에 도시된 바와 같은 디코딩 장치에 의해 수행될 수 있다. 도 3a의 상세한 정보(300) 또는 도 3b의 정보(300')는 또한 도 5a에 도시된 바와 같은 방법(500)에 적용된다.
도 5a와 유사하게, 도 5b는 다른 실시예에 따른 대응하는 루프 내 필터링 방법(500')의 단계들을 예시하는 흐름도를 도시한다. 이 예로서, 상기 블록(또는 프레임)은 예측된 블록일 수 있고, 상기 필터링된 블록은 필터링된 예측된 블록이다. 도 5b의 상세한 설명은 도 5a와 유사하다.
하드웨어 구현이 논의된다.
Hadamard 변환 도메인 필터는 블록 재구성 직후에 배치되고 특히 인트라 예측의 참조 샘플로서 후속 블록 재구성에 수반될 수 있는 샘플들을 처리한다. 따라서, 필터에 의해 도입된 레이턴시는 전체 재구성 파이프라인이 많이 영향을 받지 않도록 보장하기 위해 최소화될 필요가 있다.
Hadamard 변환은 하드웨어 구현에 대해 비교적 간단한 것으로 간주된다. 그것의 구현을 위해 곱셈들이 아니라 가산들만이 요구된다. 아래의 의사 코드 1로부터 알 수 있는 바와 같이, 순방향 및 역방향 변환은 병렬로 또는 2개의 순차적인 가산 연산으로 중간 결과들을 재사용하는 것에 의해 행해질 수 있는 4개의 가산을 포함한다.
순방향 및 역방향 Hadamard 변환은 조합 로직을 사용하여 하드웨어로 구현될 수 있다. LUT에 대한 고속의 그리고 병렬의 액세스를 위해 더 많은 주의가 필요하다.
SRAM 기반 LUT가 논의된다.
이 예시적인 구현에서, LUT는 온-칩 단일 포트 정적 RAM(도 6)에 저장된다.
일단 이전 처리 단계로부터의 데이터가 클록의 상승 에지에 의해 버퍼에서 이용가능해지면, 그것은 순방향 Hadamard 변환을 구현하는 조합 로직(2개의 후속하는 가산을 포함함)에 의해 액세스된다. 조합 로직을 완성한 후에 어드레스가 각각의 LUT에 대해 이용가능하다. 인버터 및 클록의 하강 에지를 사용하여 데이터가 SRAM으로부터 액세스된다. 역방향 Hadamard 변환 및 정규화를 구현하는 제2 조합 로직이 LUT로부터의 데이터가 이용가능한 직후에 시작된다. 출력된 필터링된 샘플들은 현재 클록 사이클의 끝에서 이용가능해졌고 클록의 다음 상승 에지에서 다음 알고리즘에 의한 처리를 위해 준비된다.
플립-플롭 기반 LUT가 논의된다.
필터링 프로세스를 위한 하나의 테이블이 16개의 항목에 의해 제한된다는 것을 고려하면, 플립-플롭들에 기초하여 LUT를 구현하는 것이 더 효율적인 것처럼 보인다. 그러한 설계는 병렬 처리를 위한 수 개의 LUT 및 데이터 액세스를 위한 클록 에지를 필요로 하지 않는다. 하나의 2x2 그룹을 처리하기 위한 예시적인 설계를 예시하는 도 7에 묘사된 바와 같은 멀티플렉서에 의해 병렬 액세스가 제공된다. 제안된 설계에서는 필터링 프로세스 동안 병렬 액세스를 제공하기 위해 7 비트의 16개의 플립-플롭이 요구된다. QP 특정 LUT는 일단 현재 CU에 대한 QP가 이용가능해지면 플립-플롭들에 로딩될 수 있다.
4개의 2x2 그룹 필터링의 결과들을 동일한 공간적 그룹 최종 필터 출력의 결과들의 재사용과 조합하는 것이 도 8에 묘사된 바와 같이 생성된다.
주어진 위의 분석은 제안된 필터가 SRAM 또는 플립-플롭 기반 LUT 구현을 사용하여 하나의 클록 내에서 하드웨어로 구현될 수 있다는 결론에 이르는 것을 가능하게 한다.
복잡도 분석이 논의된다.
앵커(들)에 대한 비트레이트/PSNR에 대한 영향을 측정한다.
복잡도 분석(예를 들어, 인코딩 및 디코딩 시간 측정, 아래의 표를 채움으로써 복잡도 분석).
실험 결과들이 논의된다.
객관적인 결과들이 논의된다.
객관적인 성능이 다음의 표들에 제시된다:
QP당 16 바이트를 갖는 제안된 LUT 70바이트, 1 클록 HW 구현을 허용한다. 기타 등등. 다음 버전의 VTM에 Hadamard 변환 도메인 필터를 채용하는 것이 제안된다.
다음의 참조 문헌들은 그 전체가 재현되는 것처럼 인용에 의해 본 명세서에 포함된다.
JVET(Joint Video Experts Team) 문서 JVET-K0068.
아래는 LUT를 최적화하기 위한 예들을 예시한다.
일 예 1로서, 양자화 파라미터(QP)들의 세트가 룩업 테이블(LUT)을 생성하도록 선택되고, 여기서 QP들의 세트는 (i) 인덱스에 대응하는 제1 QP 및 (i+1) 인덱스에 대응하는 제2 QP를 포함하고, 제1 QP 및 제2 QP는 일정한 간격을 갖는다. 예를 들어, 그 간격은 8, 10 또는 16과 동등할 수 있다.
예를 들어, 일정한 간격이 8인 것을 예로 들어, qp = {20, 28, 36, 44, 52}에 대한 LUT를 가짐으로써 희소 테이블. 제1 gp 20과 제2 gp 28 간의 간격은 8이다. 유사하게, 제2 gp 28과 제3 gp 36 간의 간격은 8이다. 필터링 동안 가장 가까운 QP를 갖는 테이블이 선택된다.
다른 예로서, 일정한 간격이 8인 것을 예로 들어, qp = {18, 26, 34, 42, 50}에 대한 LUT를 가짐으로써 희소 테이블. 제1 gp 18과 제2 gp 26 간의 간격은 8이다. 유사하게, 제2 gp 26과 제3 gp 34 간의 간격은 8이다. 필터링 동안 가장 가까운 QP를 갖는 테이블이 선택된다.
LUT 크기: 5x128 = 640 바이트
아래는 어느 QP들이 룩업 테이블들(LUT)을 생성하도록 선택되는지를 반영하는 의사 코드 2이다.
이 의사 코드에서, HTDF_QP_ROUND는 일정한 간격을 표현한다. 2의 거듭제곱으로서 간격을 갖는 것이 인덱스 계산을 위한 나눗셈 연산을 시프트로서 구현하는 것을 가능하게 하여 유리하다. 일정한 간격의 상이한 값들, 예를 들어, 2, 4, 10, 15 또는 16 등이 선택될 수 있다는 점에 유의해야 한다. 더욱이, 대안적인 실시예로서 간격은 임의적일 수 있고 임의의 QP들의 세트에 대해 어느 LUT가 계산된다.
필터링 프로세스 동안 주어진 QP에 대한 LUT에 대응하는 인덱스는 다음과 같이 계산된다:
int idx = ((qp - HTDF_MIN_QP) + (HTDF_QP_ROUND >> 1)) / HTDF_QP_ROUND;
또는 대안적으로 더 적은 정밀도로:
int idx = (qp - HTDF_MIN_QP) / HTDF_QP_ROUND;
일정한 간격이, 예를 들어, 2의 거듭제곱이면, LUT의 인덱스가 유리하게도 나눗셈 대신에 시프트 연산을 사용하여 계산될 수 있다:
int idx = (qp - HTDF_MIN_QP) >> HTDF_QP_ROUND_LOG2 = (qp - HTDF_MIN_QP) >> 3;
다른 예 2로서, 디코더 또는 인코더는 테이블 값들로부터 N개의 비트를 드로핑하고, N은 정수이다. 이는 주어진 범위로부터의 선택된 값들만을 저장하는 희소 LUT 표현을 가능하게 한다. 예를 들어, N은 3이다. 최대 테이블 값은 127(7 비트)이고, 3 비트를 드로핑하면, 결과는 4 비트이고, 즉, 7 비트 값의 16개 항목 - 대략 16 바이트이다.
아래는 주어진 qp 값에 따라 LUT가 어떻게 생성되는지를 기술하는 의사 코드 3이다.
주어진 예에서 HTDF_TBL_SH는 1, 2, 3, 4 등일 수 있는 드로핑할 비트의 수를 정의한다.
아래는 필터링 동안 희소 LUT에 대한 액세스를 예시하는 의사 코드이다.
상기 예 1 및 예 2를 조합할 때, 도 9는 LUT를 최적화한 결과를 예로서 도시한다. 도 9에 도시된 바와 같이, 예 1 및 예 2를 조합하면: 5개 테이블 x 16개 항목 x 7 비트 = 560 비트= 70 바이트이다.
LUT 항목들의 양은 HTDF_SHORT_TBL_THR([0076] 단락으로부터의 임계값) 및 HTDF_TBL_SH 드로핑된 비트의 수에 의해 정의된다는 점에 유의해야 한다. 128(즉, 1 << 7)과 동등한 임계값 및 드로핑된 비트 3을 고려하면 테이블 항목들의 수가 1 << (7 - 3) = 1 << 4 = 16과 동등하다. 위에 설명된 바와 같이 LUT 임계값은 바람직하게는 [0077] 단락으로부터의 방정식의 결과를 1에 가깝게 만들도록 선택되고 거기에 또한 설명된 바와 같이 임계값은 QP에 따라 상이할 수 있다. 따라서 더 높은 QP 값들에 대한 LUT 생성을 위해 임계값을 128(1 << 7)로부터 예를 들어 256(1 << 8)로 증가시키는 것이 유익할 수 있다. 그 경우 LUT 항목들(예를 들어, 3 비트가 드로핑된)의 동일한 정밀도를 유지하는 것은 32개의 항목(32 = 1 << (8 - 3) = 1 << 5)을 필요로 할 것이다. 대안적으로 더 낮은 QP들에 대해서와 같이 더 높은 QP들에 대해 동일한 LUT 크기를 유지하기 위해 정밀도는 테이블의 16개 항목 16 = 1 << (8 - 4) = 1 << 4를 유지하기 위해 4로 더 감소될 수 있다.
일부 구현에서 LUT 크기를 제한되게 유지하는 것과 [0077} 단락으로부터의 방정식을 유지하기 위해 THR을 갖는 것은 모순될 수 있다. 실제로 높은 QP 값들(이는 높은 σ 값으로 이어짐)에서, 예를 들어, LUT 크기를 16개의 항목에 의해 제한되게 유지하는 것은 도 10에 묘사된 바와 같이 값 120 주위에 필터 전달 함수(LUT에 의해 표현됨)에서 바람직하지 않은 갭으로 이어질 수 있다(3개의 최하위 비트를 드로핑하는 것에 의해 LUT 서브샘플링의 방법을 또한 포함함).
도 11은 인덱스 15에서의 마지막 LUT 항목과 인덱스 16에서의 필터 전달 함수에서의 다음 포인트 간의 갭을 예시하는 LUT 서브샘플링 효과를 고려하지 않고 테이블 항목들이 하나하나 플롯되어 있는 동일한 테이블을 표현한다.
도 12는 마지막 LUT 항목 + 1에 대응하는 인수에서 THR 값을 통해 들어오는 보조 함수를 사용하여, 예를 들어, 1만큼 증가된 마지막 LUT 항목의 인수(15임)에 대응하는 인수 16 또는 다시 말해서 LUT 크기(16임)에서 포인트 THR =128을 통해 들어오는 그리고 어떤 포인트에서(예를 들어, 주어진 예에서와 같이 11의 값에서) x-축과 교차하는, 직선 방정식(녹색으로 지시됨)을 사용하여 갭이 제거될 수 있는 방법을 예시한다. 동일한 원리, 예를 들어, 지수, 로그, 포물선 등 또는 이들의 조합에 기초하여 다른 유형들의 보조 함수들이 사용될 수 있다는 점에 유의해야 한다.
도 13은 LUT를 생성하는 동안 2개의 값으로부터 최대값을 취하는 것에 의해 갭을 제거하는 예를 예시하고, 여기서 제1 값은 위에 설명된 바와 같은 LUT 항목 이고; 제2 값은 동일한 인수 i에서의 AuxiliaryFunction(이 예에서는 직선)의 값:
도 14는 3개의 최하위 비트를 드로핑하는 것에 의해 보조 직선 방정식 및 LUT 서브샘플링을 사용하는 위에 설명된 방법을 적용한 후의 필터 전달 함수를 예시한다.
[00144] 단락에서 기술된 바와 같이, QP들의 그룹에 대해 하나의 LUT가 사용될 수 있다. 가능한 QP 범위를 커버하기 위해 미리 정의된 QP 세트가 사용되고 세트로부터의 각각의 QP에 대해 하나의 LUT가 생성된다. 도 15는 세트 내의 5개의 QP 및 대응하는 테이블들(0 내지 4)에 따른 필터 전달 함수의 예를 예시한다. 이 예에서, 테이블 4는 11의 값에서 x-축과 교차하는 직선 보조 함수로 [00156]-[00157] 단락들에 기술된 방법을 사용하여 생성되고; 표 3은 9의 값에서 x-축과 교차하는 직선 보조 함수로 동일한 방법을 사용하여 생성된다. 이 예에서 사용되는 테이블들은 다음에 따른 값들을 갖는다:
[00150]-[00153] 단락들에서 위에 설명된 바와 같이 테이블 서브샘플링의 방법은 테이블 크기를 감소시키기 위해 테이블 값들로부터 N개의 비트를 드로핑할 수 있다. 또한 이들 단락에서 언급된 바와 같이 N은 특정 테이블 생성을 위해 사용되는 QP 및 이 테이블에 대한 선택된 THR 값에 따라 상이할 수 있다. 예를 들어, 더 낮은 QP 값들에 대해 필터링 파라미터 σ는 더 높은 QP들에 대한 것보다 상대적으로 더 낮다. 따라서, 성능을 희생시키지 않고 THR의 절대값이 감소될 수 있다. 더욱이 세트 내의 모든 QP들에 대해 테이블 크기를 동일하게 유지하고(이는 구현을 단순화하기 위해 유익함) 더 낮은 QP들에 대한 서브샘플링 레이트를 감소시키기 위해(이는 더 적은 압축 레벨 및 더 양호한 재구성된 화상 품질에 대응함), 예를 들어, 더 낮은 QP에 대해 N을 2와 동등하게 설정하고 THR을 64로 설정하는 것에 의해, 다른 QP 테이블들에 비해 드로핑된 비트의 양 N을 감소시키는 것이 유익할 수 있다. 도 16은 대응하는 테이블들(0 내지 4)에 기초한 세트 내의 5개의 QP에 대한 필터 전달 함수의 예를 예시하고, 여기서 N은 첫 번째 테이블(더 낮은 QP 범위에 대응함)에 대해 2로 설정되고 N은 다른 테이블들에 대해 3으로 설정된다. 이 예는 또한 [00159]-[00160] 단락들에 기술된 바와 같이 테이블 3 및 테이블 4 생성을 위해 AuxiliaryFunction을 사용하는 방법을 포함한다. 테이블 4에 대해 직선 보조 함수는 11의 값에서 x-축과 교차한다. 테이블 4에 대해 직선 보조 함수는 9의 값에서 x-축과 교차한다. 이 예에서 사용되는 테이블들은 다음에 따른 값들을 갖는다:
[00150]-[00153] 단락들에서 위에 설명된 바와 같이 테이블 서브샘플링의 방법은 테이블 크기를 감소시키기 위해 테이블 값들로부터 N개의 비트를 드로핑할 수 있다. 또한 이들 단락에서 언급된 바와 같이 N은 특정 테이블 생성을 위해 사용되는 QP 및 이 테이블에 대한 선택된 THR 값에 따라 상이할 수 있다. 예를 들어 더 높은 QP 값들에 대해 필터링 파라미터 σ는 [0077] 단락으로부터의 방정식을 1에 더 가깝게 유지하기 위해 THR 값의 증가를 필요로 할 수 있는 더 낮은 QP들에 대한 것보다 상대적으로 더 높다. 동시에 세트 내의 모든 QP들에 대해 LUT 크기를 동일하게 유지하기 위해(이는 구현의 단순화로 인해 유익함) 그리고 또한 더 높은 QP 값들에 대해 재구성된 화상이 더 많은 왜곡들을 갖고 LUT의 서브샘플링을 증가시키는 것이 강한 압축 아티팩트들의 존재 시에 LUT 서브샘플링의 주관적으로 눈에 띄지 않는 효과로 인해 수용된다는 것을 고려하여 드로핑된 최하위 비트들의 값 N은 예를 들어 세트 내의 마지막 및 두 번째 마지막 테이블에 대해 4로 증가될 수 있다. 도 17은 대응하는 테이블들(0 내지 4)에 기초한 세트 내의 5개의 QP에 대한 필터 전달 함수의 예를 예시하고, 여기서 N은 첫 번째 테이블(더 낮은 QP 범위에 대응하는 테이블 0)에 대해 2로 설정되고 N은 마지막 및 두 번째 마지막 테이블(테이블 3 및 테이블 4)에 대해 4로 설정되고 N은 다른 테이블들에 대해 3으로 설정된다. 이 예에서 TRH는 첫 번째 테이블 생성을 위해 64로 설정되고, 마지막 및 두 번째 마지막 테이블에 대해 256으로 설정되고, 나머지 테이블들에 대해 128로 설정된다. 이 예는 또한 [00159]-[00160] 단락들에 기술된 바와 같이 테이블 3 및 테이블 4 생성을 위해 AuxiliaryFunction을 사용하는 방법을 포함한다. 테이블 4에 대해 직선 보조 함수는 6의 값에서 x-축과 교차한다. 테이블 4에 대해 직선 보조 함수는 8의 값에서 x-축과 교차한다. 이 예에서 사용되는 테이블들은 다음에 따른 값들을 갖는다:
도 18은 다양한 실시예들을 구현하기 위해 사용될 수 있는 장치(600)의 블록도이다. 장치(600)는 도 1에 도시된 바와 같은 인코딩 장치 및 도 2에 도시된 바와 같은 디코딩 장치일 수 있다. 추가적으로, 장치(600)는 설명된 요소들 중 하나 이상을 호스팅할 수 있다. 일부 실시예들에서, 장치(600)는 스피커, 마이크로폰, 마우스, 터치스크린, 키패드, 키보드, 프린터, 디스플레이 등과 같은 하나 이상의 입력/출력 디바이스를 구비한다. 장치(600)는 버스에 연결된 하나 이상의 중앙 처리 유닛(CPU)(610), 메모리(620), 대용량 스토리지(630), 비디오 어댑터(640), 및 I/O 인터페이스(660)를 포함할 수 있다. 버스는 메모리 버스 또는 메모리 제어기, 주변 버스, 비디오 버스 등을 포함하는 임의의 유형의 수 개의 버스 아키텍처들 중 하나 이상이다.
CPU(610)는 임의의 유형의 전자 데이터 프로세서를 가질 수 있다. 메모리(620)는 SRAM(static random access memory), DRAM(dynamic random access memory), SDRAM(synchronous DRAM), ROM(read-only memory), 이들의 조합 등과 같은 임의의 유형의 시스템 메모리일 수 있거나, 이를 가질 수 있다. 일 실시예에서, 메모리(620)는 부팅 시에 사용하기 위한 ROM, 및 프로그램들을 실행하는 동안 사용하기 위한 프로그램 및 데이터 스토리지를 위한 DRAM을 포함할 수 있다. 실시예들에서, 메모리(620)는 비-일시적이다. 대용량 스토리지(630)는 데이터, 프로그램들, 및 다른 정보를 저장하고 데이터, 프로그램들, 및 다른 정보를 버스를 통해 액세스 가능하게 만드는 임의의 유형의 스토리지 디바이스를 포함한다. 대용량 스토리지(630)는, 예를 들어, 솔리드 스테이트 드라이브, 하드 디스크 드라이브, 자기 디스크 드라이브, 광 디스크 드라이브 등 중 하나 이상을 포함한다.
비디오 어댑터(640) 및 I/O 인터페이스(660)는 외부 입력 및 출력 디바이스들을 장치(600)에 결합하기 위한 인터페이스들을 제공한다. 예를 들어, 장치(600)는 클라이언트들과의 SQL 커맨드 인터페이스를 제공할 수 있다. 예시된 바와 같이, 입력 및 출력 디바이스들의 예들은 비디오 어댑터(640)에 결합된 디스플레이(690) 및 I/O 인터페이스(660)에 결합된 마우스/키보드/프린터(670)의 임의의 조합을 포함한다. 다른 디바이스들이 장치(600)에 결합될 수 있고, 추가적인 또는 더 적은 수의 인터페이스 카드들이 이용될 수 있다. 예를 들어, 프린터에 대한 직렬 인터페이스를 제공하기 위해 직렬 인터페이스 카드(도시되지 않음)가 사용될 수 있다.
장치(600)는 또한 이더넷 케이블 등과 같은 유선 링크들, 및/또는 액세스 노드들 또는 하나 이상의 네트워크(680)에 대한 무선 링크들을 포함하는 하나 이상의 네트워크 인터페이스(650)를 포함한다. 네트워크 인터페이스(650)는 장치(600)가 네트워크들(680)을 통해 원격 유닛들과 통신할 수 있게 한다. 예를 들어, 네트워크 인터페이스(650)는 데이터베이스와의 통신을 제공할 수 있다. 일 실시예에서, 장치(600)는 다른 처리 유닛들, 인터넷, 원격 스토리지 설비들 등과 같은 원격 디바이스들과의 통신 및 데이터 처리를 위해 로컬-영역 네트워크 또는 광역 네트워크에 결합된다.
루프 내 필터 또는 예측 필터의 제안된 설계는 ALF와 같은 종래의 적응 필터링 방법에 대해 다음의 이점들을 갖는다:
제안된 주파수 도메인 필터는 디코더 측에서 재구성된 프레임 또는 예측된 블록으로부터 필터링 파라미터들(주파수 도메인 이득 계수들)을 도출하고 따라서 필터링 파라미터들이 인코더로부터 디코더 측으로 전송될 필요가 없다.
ALF는 송신을 위한 가중 계수들의 수를 감소시키기 위해 인코더 측에서 복잡한 레이트 왜곡 최적화(rate distortion optimization, RDO)를 필요로 한다. 제안된 방법은 인코더 측에서 복잡한 RDO를 필요로 하지 않고(파라미터 전송이 없음) 미리 정의된 조건들을 충족시키는 모든 블록들에 적용된다.
ALF는 픽셀 도메인에서 선형 필터이다. 제안된 필터는 비-선형인데 그 이유는 각각의 1D 스펙트럼 성분에 대한 이득 계수가 이 스펙트럼 성분 값에 의존하기 때문이다. 이는 비-선형 처리로부터 추가적인 코딩 이득을 달성할 수 있게 한다.
ALF는 디코더 측에서 범용 승산기들을 필요로 한다. 제안된 방법에서 필터링은 룩업 테이블로서 구현될 수 있는데, 그 이유는 각각의 스펙트럼 계수에 대한 이득이 1보다 작기 때문이다. 따라서 제안된 방법은 어떠한 곱셈도 없이 구현될 수 있다.
따라서, 낮은 복잡도로 비디오 코딩을 위한 효율을 개선하는 것을 허용하는 필터가 제공된다.
본 개시의 특정 특징 또는 양태가 수 개의 구현들 또는 실시예들 중 하나에 대해서만 개시되었을 수 있지만, 그러한 특징 또는 양태는 임의의 주어진 또는 특정 응용에 대해 원하고 유리할 수 있는 다른 구현들 또는 실시예들의 하나 이상의 다른 특징 또는 양태와 조합될 수 있다. 더욱이, 용어들 "포함하다(include)", "갖다(have)", "갖는(with)", 또는 이들의 다른 변형들이 상세한 설명 또는 청구항들에서 사용되는 한, 그러한 용어들은 용어 "포함하다(comprise)"와 유사한 방식으로 포괄적인 것으로 의도된다. 또한, "예시적인(exemplary)", "예를 들어(for example)" 및 "예를 들어(e.g.)"라는 용어들은, 최상 또는 최적이라기보다는, 단지 예로서 의도된다. "결합된(coupled)" 및 "연결된(connected)"이라는 용어들이 파생어들과 함께 사용될 수 있다. 이들 용어는 2개의 요소가 서로 협력하거나 상호작용하는 것을 지시하기 위해 사용되었을 수 있다는 것을 이해해야 한다 - 그것들이 직접 물리적 또는 전기적 접촉하고 있는지, 또는 그것들이 서로 직접 접촉하고 있지 않은지에 관계없이 -.
특정 양태들이 본 명세서에 예시되고 설명되었지만, 본 기술분야의 통상의 기술자들은 본 개시의 범위를 벗어나지 않고 다양한 대안 및/또는 등가 구현들이 도시되고 설명된 특정 양태들을 대체할 수 있다는 것을 이해할 것이다. 본 출원은 본 명세서에서 논의된 특정 양태들의 임의의 적응들 또는 변형들을 포함하도록 의도된다.
다음의 청구항들에서의 요소들은 대응하는 라벨링과 함께 특정 시퀀스로 열거되지만, 그 청구항 열거들이 해당 요소들의 일부 또는 전부를 구현하기 위한 특정 시퀀스를 달리 암시하지 않는 한, 해당 요소들은 반드시 그 특정 시퀀스로 구현되는 것으로 제한되도록 의도되는 것은 아니다.
상기 교시에 비추어 다수의 대안들, 수정들 및 변형들이 본 기술분야의 통상의 기술자들에게 명백할 것이다. 물론, 본 기술분야의 통상의 기술자들은 본 명세서에 설명된 것들 이외에 본 발명의 다수의 응용이 있다는 것을 쉽게 인식한다. 본 발명이 하나 이상의 특정 실시예를 참조하여 설명되었지만, 본 기술분야의 통상의 기술자들은 본 발명의 범위를 벗어나지 않고 그에 대해 다수의 변화들이 이루어질 수 있다는 것을 인식한다. 따라서, 첨부된 청구항들 및 그것들의 균등물들의 범위 내에서, 본 발명은 본 명세서에서 구체적으로 설명된 것과 달리 실시될 수 있다는 것을 이해해야 한다.
Claims (53)
- 재구성된 블록을 처리하기 위한 방법으로서,
상기 재구성된 블록은 복수의 픽셀을 포함하고, 상기 방법은:
미리 정의된 스캔 템플릿에 따라 상기 재구성된 블록의 현재 픽셀 및 상기 현재 픽셀의 그것의 이웃 픽셀들을 스캐닝하는 단계;
상기 현재 픽셀 및 그것의 이웃 픽셀들에 대한 변환을 수행하는 것에 의해 스펙트럼 성분들을 획득하는 단계;
필터링 파라미터 및 상기 스펙트럼 성분들에 기초하여 필터링된 스펙트럼 성분들을 획득하는 단계;
상기 필터링된 스펙트럼 성분들에 대해 역변환을 수행하는 것에 의해 필터링된 픽셀들을 획득하는 단계; 및
상기 필터링된 픽셀들에 기초하여 필터링된 재구성된 블록을 생성하는 단계를 포함하는, 방법. - 제1항에 있어서,
상기 필터링된 스펙트럼 성분들을 획득하는 단계는 룩업 테이블(LUT)에 사용하여 이루어지는, 방법. - 제2항 내지 제4항 중 어느 한 항에 있어서,
상기 필터링 파라미터는 코덱 양자화 파라미터(QP)에 기초하여 도출되는, 방법. - 제6항에 있어서,
k=2.64, n=0.1296 및 s=11인, 방법. - 제5항에 있어서,
QP <= 17이면 상기 필터링 파라미터 σ는 0과 동등하고, 상기 재구성된 블록은 필터링 없이 바이패싱되는, 방법. - 제2항 내지 제9항 중 어느 한 항에 있어서,
THR은 QP 값에 의존하는, 방법. - 제1항 내지 제11항 중 어느 한 항에 있어서,
상기 미리 정의된 스캔 템플릿은 상기 재구성된 블록 내부의 상기 현재 픽셀의 위치에 대한 공간적 또는 래스터 오프셋들의 세트로서 정의되는, 방법. - 제12항에 있어서,
상기 미리 정의된 스캔 템플릿이 상기 재구성된 블록 내부의 상기 현재 픽셀의 위치에 대한 래스터 오프셋들의 세트로서 정의될 때, 이웃 픽셀들을 지시하는 오프셋들은 상기 재구성된 블록 내부에 있는, 방법. - 제1항 내지 제14항 중 어느 한 항에 있어서,
적어도 하나의 필터링된 픽셀은 상기 미리 정의된 스캔 템플릿에 따라 그것의 원래 위치에 배치되는, 방법. - 제1항 내지 제15항 중 어느 한 항에 있어서,
모든 필터링된 픽셀들은 상기 미리 정의된 스캔 템플릿에 따라 누적 버퍼에 추가되고, 상기 누적 버퍼는 상기 필터링된 스펙트럼 성분들을 획득하기 전에 0으로 초기화되는, 방법. - 제16항에 있어서,
상기 누적 버퍼 내의 누적된 값들을 상기 누적 버퍼의 현재 위치에 추가하는 픽셀들의 수로 나눈 것으로서 최종 필터링된 픽셀들이 획득되고;
상기 필터링된 픽셀들에 기초하여 상기 필터링된 재구성된 블록을 생성하는 단계는: 상기 최종 필터링된 픽셀들에 기초하여 상기 필터링된 재구성된 블록을 생성하는 단계를 포함하는, 방법. - 제1항 내지 제17항 중 어느 한 항에 있어서,
모든 필터링된 픽셀들과 대응하는 필터링되지 않은 픽셀들 간의 차이들이 상기 미리 정의된 스캔 템플릿에 따라 누적 버퍼에 추가되고, 상기 누적 버퍼는 필터링되지 않은 픽셀들을 상기 블록에서 추가될 픽셀 값들의 최대 수와 곱하는 것에 의해 초기화되는, 방법. - 제18항에 있어서,
상기 최종 필터링된 픽셀들은 상기 누적 버퍼 내의 누적된 값들을 상기 블록에서 추가될 픽셀 값들의 최대 수로 나눈 것으로서 획득되는, 방법. - 제1항 내지 제19항 중 어느 한 항에 있어서,
상기 방법은 조건들에 따라 적용되고, 상기 조건들은:
상기 블록이 0이 아닌 잔차 신호를 갖는 것;
상기 블록의 크기;
상기 블록의 종횡비;
상기 블록의 예측 모드;
인트라에서의 상기 블록의 예측 모드; 또는
인터에서의 상기 블록의 예측 모드
중 적어도 하나를 포함하는, 방법. - 제20항에 있어서,
상기 필터 파라미터 및/또는 상기 미리 정의된 스캔 템플릿은 상기 조건들에 의존하는, 방법. - 제20항에 있어서,
상기 방법은 블록 폭과 블록 높이를 곱한 것으로서 획득된 상기 블록의 크기가 4x4보다 큰 경우에 적용되는, 방법. - 제20항에 있어서,
상기 방법은 상기 블록의 예측 모드가 인터이고 상기 블록 폭 및 상기 블록 높이가 32보다 크거나 그와 동등한 경우 적용되지 않는, 방법. - 제20항에 있어서,
상기 방법은 상기 블록의 예측 모드가 인터이고 상기 블록이 0이 아닌 잔차 신호를 갖는 경우에 적용되는, 방법. - 제20항에 있어서,
상기 방법은 상기 블록의 예측 모드가 인트라인 경우에 적용되는, 방법. - 제1항 내지 제25항 중 어느 한 항에 있어서,
누적 버퍼에 대해 상기 미리 정의된 스캔 템플릿에 따라 상기 재구성된 블록의 현재 픽셀 및 상기 현재 픽셀의 그것의 이웃 픽셀들을 스캐닝하는 단계; 및
상기 누적 버퍼 내의 픽셀들에 대해 변환을 수행하는 것에 의해 스펙트럼 성분들을 획득하는 단계를 포함하는, 방법. - 제1항 내지 제26항 중 어느 한 항에 있어서,
상기 변환은 Hadamard 변환인, 방법. - 제1항 내지 제27항 중 어느 한 항에 있어서,
상기 변환은 1D 변환인, 방법. - 예측된 블록을 처리하기 위한 방법으로서,
상기 예측된 블록은 복수의 픽셀을 포함하고, 상기 방법은:
미리 정의된 스캔 템플릿에 따라 상기 예측된 블록의 현재 픽셀 및 상기 현재 픽셀의 그것의 이웃 픽셀들을 스캐닝하는 단계;
상기 현재 픽셀 및 그것의 이웃 픽셀들에 대한 변환을 수행하는 것에 의해 스펙트럼 성분들을 획득하는 단계;
필터링 파라미터 및 상기 스펙트럼 성분들에 기초하여 필터링된 스펙트럼 성분들을 획득하는 단계;
상기 필터링된 스펙트럼 성분들에 대해 역변환을 수행하는 것에 의해 필터링된 픽셀들을 획득하는 단계; 및
상기 필터링된 픽셀들에 기초하여 필터링된 예측된 블록을 생성하는 단계를 포함하는, 방법. - 제29항에 있어서,
상기 필터링된 스펙트럼 성분들을 획득하는 단계는 룩업 테이블(LUT)에 사용하여 이루어지는, 방법. - 제30항 내지 제32항 중 어느 한 항에 있어서,
상기 필터링 파라미터는 코덱 양자화 파라미터(QP)에 기초하여 도출되는, 방법. - 제33항에 있어서,
QP <= 17이면 상기 필터링 파라미터 σ는 0과 동등하고, 상기 예측된 블록은 필터링 없이 바이패싱되는, 방법. - 제31항 내지 제35항 중 어느 한 항에 있어서,
THR은 QP 값에 의존하는, 방법. - 제29항 내지 제37항 중 어느 한 항에 있어서,
상기 미리 정의된 스캔 템플릿은 상기 예측된 블록 내부의 상기 현재 픽셀의 위치에 대한 공간적 또는 래스터 오프셋들의 세트로서 정의되는, 방법. - 제29항 내지 제39항 중 어느 한 항에 있어서,
적어도 하나의 필터링된 픽셀은 상기 미리 정의된 스캔 템플릿에 따라 그것의 원래 위치에 배치되는, 방법. - 제29항 내지 제40항 중 어느 한 항에 있어서,
모든 필터링된 픽셀들은 상기 미리 정의된 스캔 템플릿에 따라 누적 버퍼에 추가되고, 상기 누적 버퍼는 상기 필터링된 스펙트럼 성분들을 획득하기 전에 0으로 초기화되는, 방법. - 제41항에 있어서,
상기 누적 버퍼 내의 누적된 값들을 상기 누적 버퍼의 현재 위치에 추가하는 픽셀들의 수로 나눈 것으로서 최종 필터링된 픽셀들이 획득되고;
상기 필터링된 픽셀들에 기초하여 상기 필터링된 예측된 블록을 생성하는 단계는: 상기 최종 필터링된 픽셀들에 기초하여 상기 필터링된 예측된 블록을 생성하는 단계를 포함하는, 방법. - 제29항 내지 제42항 중 어느 한 항에 있어서,
상기 방법은 조건들에 따라 적용되고, 상기 조건들은:
상기 블록이 0이 아닌 잔차 신호를 갖는 것;
상기 블록의 크기;
상기 블록의 종횡비;
상기 블록의 예측 모드;
인트라에서의 상기 블록의 예측 모드; 또는
인터에서의 상기 블록의 예측 모드
중 적어도 하나를 포함하는, 방법. - 제43항에 있어서,
상기 필터 파라미터 및/또는 상기 미리 정의된 스캔 템플릿은 상기 조건들에 의존하는, 방법. - 제43항에 있어서,
상기 방법은 블록 폭과 블록 높이를 곱한 것으로서 획득된 상기 블록의 크기가 4x4보다 큰 경우에, 또는 상기 블록의 예측 모드가 인트라인 경우에, 또는 상기 블록의 예측 모드가 인터이고 상기 블록이 0이 아닌 잔차 신호를 갖는 경우에 적용되는, 방법. - 제29항 내지 제45항 중 어느 한 항에 있어서,
상기 변환은 Hadamard 변환인, 방법. - 제1항 내지 제46항 중 어느 한 항에 따른 방법을 수행하기 위한 처리 회로를 포함하는 디코더.
- 제1항 내지 제46항 중 어느 한 항에 따른 방법을 수행하기 위한 처리 회로를 포함하는 인코더.
- 제1항 내지 제46항 중 어느 한 항에 따른 방법을 수행하기 위한 필터를 포함하는 디코더.
- 제1항 내지 제46항 중 어느 한 항에 따른 방법을 수행하기 위한 필터를 포함하는 인코더.
- 디코더로서,
명령어들을 포함하는 메모리 스토리지; 및
상기 메모리와 통신하는 하나 이상의 프로세서를 포함하고, 상기 하나 이상의 프로세서는 상기 명령어들을 실행하여 제1항 내지 제46항 중 어느 한 항에 따른 방법을 수행하는, 디코더. - 인코더로서,
명령어들을 포함하는 메모리 스토리지; 및
상기 메모리와 통신하는 하나 이상의 프로세서를 포함하고, 상기 하나 이상의 프로세서는 상기 명령어들을 실행하여 제1항 내지 제46항 중 어느 한 항에 따른 방법을 수행하는, 인코더. - 컴퓨터 또는 프로세서 상에서 실행될 때 제1항 내지 제46항 중 어느 한 항의 방법을 수행하기 위한 프로그램 코드를 포함하는 컴퓨터 프로그램 제품.
Applications Claiming Priority (15)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862693441P | 2018-07-02 | 2018-07-02 | |
US62/693,441 | 2018-07-02 | ||
US201862725845P | 2018-08-31 | 2018-08-31 | |
US62/725,845 | 2018-08-31 | ||
US201862731967P | 2018-09-16 | 2018-09-16 | |
US62/731,967 | 2018-09-16 | ||
US201862731972P | 2018-09-17 | 2018-09-17 | |
US62/731,972 | 2018-09-17 | ||
US201862735722P | 2018-09-24 | 2018-09-24 | |
US62/735,722 | 2018-09-24 | ||
US201862757732P | 2018-11-08 | 2018-11-08 | |
US62/757,732 | 2018-11-08 | ||
US201962793866P | 2019-01-17 | 2019-01-17 | |
US62/793,866 | 2019-01-17 | ||
PCT/RU2019/050100 WO2020009617A1 (en) | 2018-07-02 | 2019-07-02 | Apparatus and method for filtering in video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210021577A true KR20210021577A (ko) | 2021-02-26 |
KR102598576B1 KR102598576B1 (ko) | 2023-11-06 |
Family
ID=69059729
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217002228A KR102598576B1 (ko) | 2018-07-02 | 2019-07-02 | 비디오 코딩에서의 필터링을 위한 장치 및 방법 |
KR1020217002316A KR102598789B1 (ko) | 2018-07-02 | 2019-07-02 | 비디오 코딩에서의 필터링을 위한 장치 및 방법 |
KR1020217002321A KR102598746B1 (ko) | 2018-07-02 | 2019-07-02 | 비디오 코딩에서의 필터링을 위한 장치 및 방법 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217002316A KR102598789B1 (ko) | 2018-07-02 | 2019-07-02 | 비디오 코딩에서의 필터링을 위한 장치 및 방법 |
KR1020217002321A KR102598746B1 (ko) | 2018-07-02 | 2019-07-02 | 비디오 코딩에서의 필터링을 위한 장치 및 방법 |
Country Status (13)
Country | Link |
---|---|
US (3) | US11509892B2 (ko) |
EP (3) | EP3808093A4 (ko) |
JP (3) | JP7195349B2 (ko) |
KR (3) | KR102598576B1 (ko) |
CN (3) | CN112369037B (ko) |
AU (3) | AU2019298854B2 (ko) |
BR (3) | BR112020026971A2 (ko) |
CA (3) | CA3105446C (ko) |
CL (2) | CL2020003455A1 (ko) |
MX (3) | MX2021000170A (ko) |
NZ (1) | NZ772208A (ko) |
SG (3) | SG11202013200WA (ko) |
WO (3) | WO2020009617A1 (ko) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105872539B (zh) * | 2015-02-08 | 2020-01-14 | 同济大学 | 图像编码方法和装置及图像解码方法和装置 |
KR102598576B1 (ko) | 2018-07-02 | 2023-11-06 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 비디오 코딩에서의 필터링을 위한 장치 및 방법 |
EP3939323A1 (en) * | 2019-03-11 | 2022-01-19 | Vid Scale, Inc. | Methods and systems for post-reconstruction filtering |
CN114009048B (zh) | 2019-06-18 | 2023-05-16 | 华为技术有限公司 | 视频译码中的滤波装置和方法 |
WO2022039635A1 (en) * | 2020-08-18 | 2022-02-24 | Huawei Technologies Co., Ltd. | Method and apparatus for hadamard transform domain filtering of the video signal with various bit depth |
US11743459B2 (en) * | 2020-09-29 | 2023-08-29 | Qualcomm Incorporated | Filtering process for video coding |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016140090A (ja) * | 2010-04-09 | 2016-08-04 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 適応的フィルタを用いたイントラ予測実行方法及び装置 |
KR20170110557A (ko) * | 2015-06-11 | 2017-10-11 | 인텔렉추얼디스커버리 주식회사 | 적응적인 디블록킹 필터링을 이용하는 영상 부호화 방법과 영상 복호화 방법 및 장치 |
WO2018117896A1 (en) * | 2016-12-23 | 2018-06-28 | Huawei Technologies Co., Ltd | Low complexity mixed domain collaborative in-loop filter for lossy video coding |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR0129558B1 (ko) | 1992-10-26 | 1998-04-10 | 배순훈 | 적응적 가변길이 부호화 방법 및 장치 |
US6748113B1 (en) * | 1999-08-25 | 2004-06-08 | Matsushita Electric Insdustrial Co., Ltd. | Noise detecting method, noise detector and image decoding apparatus |
CA2435757C (en) * | 2001-11-29 | 2013-03-19 | Matsushita Electric Industrial Co., Ltd. | Video coding distortion removal method and apparatus using a filter |
US20040252758A1 (en) * | 2002-08-14 | 2004-12-16 | Ioannis Katsavounidis | Systems and methods for adaptively filtering discrete cosine transform (DCT) coefficients in a video encoder |
US7227901B2 (en) * | 2002-11-21 | 2007-06-05 | Ub Video Inc. | Low-complexity deblocking filter |
US7471850B2 (en) * | 2004-12-17 | 2008-12-30 | Microsoft Corporation | Reversible transform for lossy and lossless 2-D data compression |
US20060285590A1 (en) | 2005-06-21 | 2006-12-21 | Docomo Communications Laboratories Usa, Inc. | Nonlinear, prediction filter for hybrid video compression |
KR100736086B1 (ko) | 2005-09-06 | 2007-07-06 | 삼성전자주식회사 | 엔트로피 코딩의 성능 향상 방법 및 장치, 상기 방법을이용한 비디오 코딩 방법 및 장치 |
US7903733B2 (en) * | 2006-01-26 | 2011-03-08 | Qualcomm Incorporated | Adaptive filtering to enhance video encoder performance |
JP4730552B2 (ja) * | 2006-07-14 | 2011-07-20 | 富士ゼロックス株式会社 | 復号化装置及びそのプログラム |
US8331448B2 (en) * | 2006-12-22 | 2012-12-11 | Qualcomm Incorporated | Systems and methods for efficient spatial intra predictabilty determination (or assessment) |
EP2192786A1 (en) | 2008-11-27 | 2010-06-02 | Panasonic Corporation | Frequency domain filters for video coding |
JP5597968B2 (ja) * | 2009-07-01 | 2014-10-01 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
US20110002386A1 (en) * | 2009-07-06 | 2011-01-06 | Mediatek Singapore Pte. Ltd. | Video encoder and method for performing intra-prediction and video data compression |
JP5700970B2 (ja) * | 2009-07-30 | 2015-04-15 | トムソン ライセンシングThomson Licensing | 画像シーケンスを表す符号化データストリームの復号方法と画像シーケンスの符号化方法 |
US8817884B2 (en) * | 2009-11-20 | 2014-08-26 | Texas Instruments Incorporated | Techniques for perceptual encoding of video frames |
JP5464656B2 (ja) * | 2010-01-12 | 2014-04-09 | Necカシオモバイルコミュニケーションズ株式会社 | 画質評価装置、端末装置、画質評価システム、画質評価方法及びプログラム |
GB2480224B (en) * | 2010-01-29 | 2014-08-20 | Canon Kk | Decoding a sequence of digital images with error concealment |
CA2785036A1 (en) * | 2010-02-05 | 2011-08-11 | Telefonaktiebolaget L M Ericsson (Publ) | De-blocking filtering control |
CA2857849C (en) * | 2010-04-23 | 2020-02-11 | Soo Mi Oh | Apparatus and method for encoding a moving picture |
JP5871906B2 (ja) * | 2010-04-26 | 2016-03-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 復号方法、プログラムおよび復号装置 |
TWI543627B (zh) * | 2010-07-05 | 2016-07-21 | 聯發科技股份有限公司 | 自適應視頻解碼方法、複雜度自適應視頻解碼器以及自適應音頻/視頻播放系統 |
US9338449B2 (en) * | 2011-03-08 | 2016-05-10 | Qualcomm Incorporated | Harmonized scan order for coding transform coefficients in video coding |
JP5291133B2 (ja) | 2011-03-09 | 2013-09-18 | 日本電信電話株式会社 | 画像処理方法,画像処理装置,映像符号化/復号方法,映像符号化/復号装置およびそれらのプログラム |
CN103563380B (zh) | 2011-05-27 | 2017-07-21 | 寰发股份有限公司 | 减少用于视频处理的行缓冲的方法及装置 |
US20130101027A1 (en) * | 2011-06-20 | 2013-04-25 | Matthias Narroschke | Deblocking control by individual quantization parameters |
US20130051467A1 (en) * | 2011-08-31 | 2013-02-28 | Apple Inc. | Hybrid inter/intra prediction in video coding systems |
US8885706B2 (en) * | 2011-09-16 | 2014-11-11 | Google Inc. | Apparatus and methodology for a video codec system with noise reduction capability |
IN2014CN03598A (ko) * | 2011-11-04 | 2015-07-31 | Sharp Kk | |
KR101462052B1 (ko) | 2011-11-09 | 2014-11-20 | 에스케이 텔레콤주식회사 | 변환을 이용한 주파수 도메인 상의 적응적 루프 필터를 이용한 영상 부호화/복호화 방법 및 장치 |
EP2793468A4 (en) * | 2011-12-15 | 2015-09-02 | Tagivan Ii Llc | PICTURE CODING METHOD, PICTURE DECODING METHOD, PICTURE CODING DEVICE, IMAGE DECODING DEVICE, AND PICTURE CODING / DECODING DEVICE |
AU2012200319B2 (en) * | 2012-01-19 | 2015-11-26 | Canon Kabushiki Kaisha | Method, apparatus and system for encoding and decoding the significance map for residual coefficients of a transform unit |
US9344723B2 (en) * | 2012-04-13 | 2016-05-17 | Qualcomm Incorporated | Beta offset control for deblocking filters in video coding |
US20130343447A1 (en) | 2012-06-25 | 2013-12-26 | Broadcom Corporation | Adaptive loop filter (ALF) padding in accordance with video coding |
JP6763664B2 (ja) * | 2012-10-01 | 2020-09-30 | ジーイー ビデオ コンプレッション エルエルシー | エンハンスメント層作動パラメータのためのベース層ヒントを使用するスケーラブルビデオ符号化 |
US9681128B1 (en) * | 2013-01-31 | 2017-06-13 | Google Inc. | Adaptive pre-transform scanning patterns for video and image compression |
US9264661B2 (en) * | 2013-06-07 | 2016-02-16 | Apple Inc. | Adaptive post-processing for mobile video calling system |
WO2015091879A2 (en) * | 2013-12-19 | 2015-06-25 | Canon Kabushiki Kaisha | Improved encoding process using a palette mode |
US10542274B2 (en) * | 2014-02-21 | 2020-01-21 | Microsoft Technology Licensing, Llc | Dictionary encoding and decoding of screen content |
CN105791865B (zh) * | 2014-12-22 | 2020-01-17 | 江苏省电力公司南京供电公司 | 帧内预测及去块滤波方法 |
CN116760977A (zh) * | 2015-08-20 | 2023-09-15 | 日本放送协会 | 图像编码装置、图像解码装置、和其程序 |
US20170155905A1 (en) * | 2015-11-30 | 2017-06-01 | Intel Corporation | Efficient intra video/image coding using wavelets and variable size transform coding |
US20170237939A1 (en) * | 2016-02-16 | 2017-08-17 | Google Inc. | Loop filtering for multiform transform partitioning |
WO2017204427A1 (ko) * | 2016-05-23 | 2017-11-30 | 가온미디어 주식회사 | 영상 처리 방법, 그를 이용한 영상 복호화 및 부호화 방법 |
CN110024387B (zh) * | 2016-11-28 | 2021-10-08 | 日本放送协会 | 编码装置、解码装置、编码方法和解码方法 |
EP3560204A4 (en) * | 2016-12-23 | 2019-12-04 | Telefonaktiebolaget LM Ericsson (publ) | DERINGING FILTER FOR VIDEO CODING |
US10523968B2 (en) * | 2017-09-18 | 2019-12-31 | Google Llc | Coding of last significant coefficient flags |
CN111213378B (zh) * | 2017-10-09 | 2022-05-03 | 佳能株式会社 | 用于对像素块进行去块滤波的方法和装置 |
CN118509596A (zh) * | 2017-12-19 | 2024-08-16 | Vid拓展公司 | 用于360度视频译码的面不连续性滤波 |
US10986349B2 (en) * | 2017-12-29 | 2021-04-20 | Microsoft Technology Licensing, Llc | Constraints on locations of reference blocks for intra block copy prediction |
US10708592B2 (en) * | 2018-04-02 | 2020-07-07 | Qualcomm Incorporated | Deblocking filter for video coding and processing |
KR102598576B1 (ko) | 2018-07-02 | 2023-11-06 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 비디오 코딩에서의 필터링을 위한 장치 및 방법 |
US11197025B2 (en) * | 2019-06-21 | 2021-12-07 | Qualcomm Incorporated | Signaling of matrix intra prediction parameters in video coding |
-
2019
- 2019-07-02 KR KR1020217002228A patent/KR102598576B1/ko active IP Right Grant
- 2019-07-02 BR BR112020026971-9A patent/BR112020026971A2/pt unknown
- 2019-07-02 NZ NZ772208A patent/NZ772208A/en unknown
- 2019-07-02 MX MX2021000170A patent/MX2021000170A/es unknown
- 2019-07-02 AU AU2019298854A patent/AU2019298854B2/en active Active
- 2019-07-02 MX MX2021000173A patent/MX2021000173A/es unknown
- 2019-07-02 WO PCT/RU2019/050100 patent/WO2020009617A1/en unknown
- 2019-07-02 AU AU2019298063A patent/AU2019298063B2/en active Active
- 2019-07-02 EP EP19830468.5A patent/EP3808093A4/en active Pending
- 2019-07-02 CA CA3105446A patent/CA3105446C/en active Active
- 2019-07-02 KR KR1020217002316A patent/KR102598789B1/ko active IP Right Grant
- 2019-07-02 MX MX2021000172A patent/MX2021000172A/es unknown
- 2019-07-02 CN CN201980043914.7A patent/CN112369037B/zh active Active
- 2019-07-02 WO PCT/RU2019/050102 patent/WO2020009619A1/en unknown
- 2019-07-02 WO PCT/RU2019/050101 patent/WO2020009618A1/en unknown
- 2019-07-02 SG SG11202013200WA patent/SG11202013200WA/en unknown
- 2019-07-02 EP EP19830934.6A patent/EP3808094A4/en active Pending
- 2019-07-02 JP JP2020573168A patent/JP7195349B2/ja active Active
- 2019-07-02 SG SG11202013198PA patent/SG11202013198PA/en unknown
- 2019-07-02 KR KR1020217002321A patent/KR102598746B1/ko active IP Right Grant
- 2019-07-02 BR BR112020026912-3A patent/BR112020026912A2/pt unknown
- 2019-07-02 SG SG11202013015PA patent/SG11202013015PA/en unknown
- 2019-07-02 CA CA3105441A patent/CA3105441C/en active Active
- 2019-07-02 AU AU2019298855A patent/AU2019298855B2/en active Active
- 2019-07-02 CN CN201980043777.7A patent/CN112369036B/zh active Active
- 2019-07-02 BR BR112020026959-0A patent/BR112020026959A2/pt unknown
- 2019-07-02 JP JP2020573159A patent/JP7195348B2/ja active Active
- 2019-07-02 JP JP2021500073A patent/JP7293330B2/ja active Active
- 2019-07-02 CA CA3105442A patent/CA3105442C/en active Active
- 2019-07-02 EP EP19830354.7A patent/EP3808092A4/en active Pending
- 2019-07-02 CN CN201980043463.7A patent/CN112806019B/zh active Active
-
2020
- 2020-12-31 US US17/139,900 patent/US11509892B2/en active Active
- 2020-12-31 CL CL2020003455A patent/CL2020003455A1/es unknown
- 2020-12-31 US US17/139,913 patent/US11706412B2/en active Active
- 2020-12-31 CL CL2020003453A patent/CL2020003453A1/es unknown
- 2020-12-31 US US17/139,886 patent/US11805249B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016140090A (ja) * | 2010-04-09 | 2016-08-04 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 適応的フィルタを用いたイントラ予測実行方法及び装置 |
KR20170110557A (ko) * | 2015-06-11 | 2017-10-11 | 인텔렉추얼디스커버리 주식회사 | 적응적인 디블록킹 필터링을 이용하는 영상 부호화 방법과 영상 복호화 방법 및 장치 |
WO2018117896A1 (en) * | 2016-12-23 | 2018-06-28 | Huawei Technologies Co., Ltd | Low complexity mixed domain collaborative in-loop filter for lossy video coding |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102598576B1 (ko) | 비디오 코딩에서의 필터링을 위한 장치 및 방법 | |
CN109792541A (zh) | 用于视频译码的去振铃滤波器 | |
EP3844959A2 (en) | Apparatus and method for filtering in video coding with look-up table selected based on bitstream information | |
JP2024532697A (ja) | ビデオ符号化における波面並列処理のための履歴ベースのライスパラメータ導出 | |
RU2781233C2 (ru) | Устройство и способ фильтрации при кодировании видео | |
CN116830575A (zh) | 用于对具有不同位深度的视频信号进行哈达玛变换域滤波的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |