KR20210107121A - 비디오 인코더, 비디오 디코더 및 대응하는 방법 - Google Patents
비디오 인코더, 비디오 디코더 및 대응하는 방법 Download PDFInfo
- Publication number
- KR20210107121A KR20210107121A KR1020217024750A KR20217024750A KR20210107121A KR 20210107121 A KR20210107121 A KR 20210107121A KR 1020217024750 A KR1020217024750 A KR 1020217024750A KR 20217024750 A KR20217024750 A KR 20217024750A KR 20210107121 A KR20210107121 A KR 20210107121A
- Authority
- KR
- South Korea
- Prior art keywords
- picture
- bitstream
- irap
- video
- subpicture
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 194
- 238000003860 storage Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 21
- 230000005540 biological transmission Effects 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 description 75
- 230000033001 locomotion Effects 0.000 description 71
- 230000007774 longterm Effects 0.000 description 28
- 239000013598 vector Substances 0.000 description 24
- 238000013459 approach Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000002123 temporal effect Effects 0.000 description 14
- 238000009795 derivation Methods 0.000 description 12
- 238000013139 quantization Methods 0.000 description 12
- 238000007726 management method Methods 0.000 description 11
- 230000006835 compression Effects 0.000 description 10
- 238000007906 compression Methods 0.000 description 10
- 230000011664 signaling Effects 0.000 description 10
- 230000006872 improvement Effects 0.000 description 8
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000000638 solvent extraction Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 5
- 241001482237 Pica Species 0.000 description 4
- 208000034188 Stiff person spectrum disease Diseases 0.000 description 4
- 229920010524 Syndiotactic polystyrene Polymers 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 4
- 101150103552 cagE gene Proteins 0.000 description 4
- 208000012112 ischiocoxopodopatellar syndrome Diseases 0.000 description 4
- 238000005192 partition Methods 0.000 description 4
- 238000002490 spark plasma sintering Methods 0.000 description 4
- 241000023320 Luma <angiosperm> Species 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000013469 resistive pulse sensing Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 229920000069 polyphenylene sulfide Polymers 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 108091000069 Cystinyl Aminopeptidase Proteins 0.000 description 1
- 102100020872 Leucyl-cystinyl aminopeptidase Human genes 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000013467 fragmentation Methods 0.000 description 1
- 238000006062 fragmentation reaction Methods 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/188—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
비디오 디코더에 의해 구현되는, 코딩된 비디오 비트스트림을 디코딩하는 방법이 제공된다. 이 방법은 비디오 디코더의 수신기가 제1 서브픽처 및 제2 서브픽처를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP) 픽처를 수신하는 단계 ― 제1 서브픽처는 IRAP 픽처이고 제2 서브픽처는 비-IRAP 서브픽처임 ―; 수신기가 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL)를 수신하는 단계; 비디오 디코더의 프로세서가 RPL을 사용하여 제2 서브픽처를 디코딩하는 단계; 및 프로세서가 디코딩된 제2 서브픽처에 기초하여 이미지를 생성하는 단계를 포함한다. 대응하는 인코딩 방법이 또한 제공된다.
Description
본 특허출원은 FNU Hendry 등에 의해 "Sub-picture Based Random Access"라는 명칭으로 2019년 1월 4일자 출원된 미국 가특허출원 제62/788,634호를 우선권으로 주장하며, 이로써 그 가특허출원은 인용으로 포함된다.
일반적으로, 본 개시내용은 비디오 코딩에서 서브픽처(sub-picture) 기반 랜덤 액세스의 지원을 위한 기술들을 설명한다. 보다 구체적으로, 본 개시내용은 인트라 랜덤 액세스 포인트(intra random access point)로서 식별되는 하나 이상의 구역들 및 동시에, 비-인트라 랜덤 액세스 포인트로서 식별되는 나머지 구역들을 픽처가 포함할 수 있게 하기 위한 기술들을 설명한다.
비교적 짧은 비디오라도 묘사하는 데 필요한 비디오 데이터의 양은 상당할 수 있으며, 이는 데이터가 스트리밍되거나 아니면 제한된 대역폭 용량을 갖는 통신 네트워크를 통해 전달되어야 할 때 어려움들을 야기할 수 있다. 따라서 비디오 데이터는 일반적으로 현대의 통신 네트워크들을 통해 전달되기 전에 압축된다. 메모리 자원들이 제한될 수 있기 때문에 비디오가 저장 디바이스에 저장될 때 비디오의 크기가 또한 문제가 될 수 있다. 비디오 압축 디바이스들은 종종 소스(source)에서 소프트웨어 및/또는 하드웨어를 사용하여 전송 또는 저장 전에 비디오 데이터를 코딩함으로써, 디지털 비디오 이미지들을 표현하는 데 필요한 데이터의 양을 감소시킨다. 압축된 데이터는 다음에, 비디오 데이터를 디코딩하는 비디오 압축 해제 디바이스에 의해 목적지에서 수신된다. 제한된 네트워크 자원들을 이용하여 그리고 더 높은 비디오 품질에 대한 요구들이 계속 증가함에 따라, 이미지 품질을 거의 또는 전혀 희생하지 않고 압축비를 개선하는 개선된 압축 및 압축 해제 기술들이 바람직하다.
제1 양상은 비디오 디코더(video decoder)에 의해 구현되는, 코딩된 비디오 비트스트림(coded video bitstream)을 디코딩하는 방법에 관한 것이다. 이 방법은 비디오 디코더의 수신기가 제1 서브픽처 및 제2 서브픽처를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP: intra random access point) 픽처를 수신하는 단계 ― 제1 서브픽처는 IRAP 픽처이고 제2 서브픽처는 비-IRAP 서브픽처임 ―; 수신기가 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL: reference picture list)를 수신하는 단계; 비디오 디코더의 프로세서가 RPL을 사용하여 제2 서브픽처를 디코딩하는 단계; 및 프로세서가 디코딩된 제2 서브픽처에 기초하여 이미지를 생성하는 단계를 포함한다.
종래의 코딩 기술들은 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용하지 않지만, 본 명세서에 개시된 기술들은 IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용한다. 따라서 혼합된 IRAP 픽처가 IRAP 서브픽처를 포함하더라도, 코덱(codec)은 RPL을 참조 및 이용하여 비-IRAP 서브픽처를 코딩하는 것이 허용된다. 이는 VR 코딩 애플리케이션들에서 특히 유리하다. 이에 따라, 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
그러한 제1 양상에 따른 방법의 제1 구현 형태에서, 혼합된 IRAP 픽처는 제1 서브 비트스트림(sub-bitstream) 및 제2 서브 비트스트림을 포함하는 분할된 비트스트림으로 수신된다.
제1 양상의 임의의 선행 구현 형태 또는 그러한 제1 양상에 따른 방법의 제2 구현 형태에서, 제1 서브픽처는 제1 서브 비트스트림에 배치되고, 제2 서브픽처는 제2 서브 비트스트림에 배치된다.
제1 양상의 임의의 선행 구현 형태 또는 그러한 제1 양상에 따른 방법의 제3 구현 형태에서, IRAP 픽처는 순간 디코더 리프레시(IDR: instantaneous decoder refresh) 픽처이다.
제1 양상의 임의의 선행 구현 형태 또는 그러한 제1 양상에 따른 방법의 제4 구현 형태에서, 제1 서브픽처는 제1 네트워크 추상화 계층(NAL: network abstraction layer) 유닛 내에 포함된 IRAP 픽처이고, 제2 서브픽처는 제2 NAL 유닛 내에 포함된 비-IRAP 서브픽처이다.
제1 양상의 임의의 선행 구현 형태 또는 그러한 제1 양상에 따른 방법의 제5 구현 형태에서, 이 방법은 비트스트림으로 플래그(flag)를 수신하는 단계를 더 포함하며, 플래그는 비트스트림이 임의의 혼합된 IRAP 픽처들을 포함하는지 여부를 지시한다.
제1 양상의 임의의 선행 구현 형태 또는 그러한 제1 양상에 따른 방법의 제6 구현 형태에서, 플래그는 비트스트림의 시퀀스 파라미터 세트(SPS: sequence parameter set)에 있다.
제1 양상의 임의의 선행 구현 형태 또는 그러한 제1 양상에 따른 방법의 제7 구현 형태에서, 플래그는 sps_mixed_tile_groups_in_pic_flag로 지정된다.
제2 양상은 비디오 인코더(encoder)에 의해 구현되는 비디오 비트스트림을 인코딩하는 방법에 관한 것이다. 이 방법은 비디오 인코더의 프로세서가 제1 서브픽처 및 제2 서브픽처를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP) 픽처를 인코딩하는 단계 ― 제1 서브픽처는 IRAP 픽처이고 제2 서브픽처는 비-IRAP 서브픽처임 ―; 프로세서가 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL)를 인코딩하는 단계; 프로세서가 혼합된 IRAP 픽처 및 혼합된 IRAP 픽처에 대응하는 RPL을 포함하는 비트스트림을 생성하는 단계; 및 비디오 디코더를 향한 전송을 위해 비트스트림을 비디오 인코더의 메모리에 저장하는 단계를 포함한다.
종래의 코딩 기술들은 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용하지 않지만, 본 명세서에 개시된 기술들은 IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용한다. 따라서 혼합된 IRAP 픽처가 IRAP 서브픽처를 포함하더라도, 코덱은 RPL을 참조 및 이용하여 비-IRAP 서브픽처를 코딩하는 것이 허용된다. 이는 VR 코딩 애플리케이션들에서 특히 유리하다. 이에 따라, 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
그러한 제2 양상에 따른 방법의 제1 구현 형태에서, 혼합된 IRAP 픽처는 제1 서브 비트스트림 및 제2 서브 비트스트림을 포함하는 분할된 비트스트림으로 인코딩된다.
제2 양상의 임의의 선행 구현 형태 또는 그러한 제2 양상에 따른 방법의 제2 구현 형태에서, 제1 서브픽처는 제1 서브 비트스트림으로 인코딩되고, 제2 서브픽처는 제2 서브 비트스트림으로 인코딩된다.
제2 양상의 임의의 선행 구현 형태 또는 그러한 제2 양상에 따른 방법의 제3 구현 형태에서, IRAP 픽처는 순간 디코더 리프레시(IDR) 픽처이다.
제2 양상의 임의의 선행 구현 형태 또는 그러한 제2 양상에 따른 방법의 제4 구현 형태에서, 제1 서브픽처는 제1 네트워크 추상화 계층(NAL) 유닛 내에 포함된 IRAP 픽처이고 제2 서브픽처는 제2 NAL 유닛 내에 포함된 비-IRAP 서브픽처이다.
제2 양상의 임의의 선행 구현 형태 또는 그러한 제2 양상에 따른 방법의 제5 구현 형태에서, 이 방법은 비트스트림으로 플래그를 인코딩하는 단계를 더 포함하며, 플래그는 비트스트림이 임의의 혼합된 IRAP 픽처들을 포함하는지 여부를 지시한다.
제2 양상의 임의의 선행 구현 형태 또는 그러한 제2 양상에 따른 방법의 제6 구현 형태에서, 플래그는 비트스트림의 시퀀스 파라미터 세트(SPS)에 있다.
제2 양상의 임의의 선행 구현 형태 또는 그러한 제2 양상에 따른 방법의 제7 구현 형태에서, 플래그는 sps_mixed_tile_groups_in_pic_flag로 지정된다.
제3 양상은 디코딩 디바이스에 관한 것이다. 디코딩 디바이스는, 제1 서브픽처 및 제2 서브픽처를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP) 픽처를 포함하는 코딩된 비디오 비트스트림 ― 제1 서브픽처는 IRAP 픽처이고 제2 서브픽처는 비-IRAP 서브픽처임 ―; 및 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL)를 수신하도록 구성된 수신기; 수신기에 결합된 메모리 ― 메모리는 명령들을 저장함 ―; 및 메모리에 연결된 프로세서를 포함하며, 프로세서는 명령들을 실행하여 디코딩 디바이스로 하여금: RPL을 사용하여 제2 서브픽처를 디코딩하게 하고; 그리고 디코딩된 제2 서브픽처에 기초하여 이미지를 생성하게 하도록 구성된다.
종래의 코딩 기술들은 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용하지 않지만, 본 명세서에 개시된 디코딩 디바이스는 IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용한다. 따라서 혼합된 IRAP 픽처가 IRAP 서브픽처를 포함하더라도, 코덱은 RPL을 참조 및 이용하여 비-IRAP 서브픽처를 코딩하는 것이 허용된다. 이는 VR 코딩 애플리케이션들에서 특히 유리하다. 이에 따라, 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
그러한 제4 양상에 따른 디코딩 디바이스의 제1 구현 형태에서, 디코딩 디바이스는 이미지를 디스플레이(display)하도록 구성된 디스플레이를 더 포함한다.
제3 양상의 임의의 선행 구현 형태 또는 그러한 제3 양상에 따른 디코딩 디바이스의 제2 구현 형태에서, 수신기는 제1 서브 비트스트림 및 제2 서브 비트스트림을 포함하는 분할된 비트스트림으로, 혼합된 IRAP 픽처를 수신하도록 구성된다.
제3 양상의 임의의 선행 구현 형태 또는 그러한 제3 양상에 따른 디코딩 디바이스의 제3 구현 형태에서, 제1 서브픽처는 제1 서브 비트스트림에 배치되고, 제2 서브픽처는 제2 서브 비트스트림에 배치된다.
제3 양상의 임의의 선행 구현 형태 또는 그러한 제3 양상에 따른 디코딩 디바이스의 제4 구현 형태에서, IRAP 픽처는 순간 디코더 리프레시(IDR) 픽처이다.
제4 양상은 인코딩 디바이스에 관한 것이다. 인코딩 디바이스는 명령들을 포함하는 메모리; 메모리에 결합된 프로세서를 포함하며, 프로세서는 인코딩 디바이스로 하여금: 제1 서브픽처 및 제2 서브픽처를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP) 픽처를 인코딩하게 하고 ― 제1 서브픽처는 IRAP 픽처이고 제2 서브픽처는 비-IRAP 서브픽처임 ―; 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL)를 인코딩하게 하고; 혼합된 IRAP 픽처 및 혼합된 IRAP 픽처에 대응하는 RPL을 포함하는 비트스트림을 생성하게 하고; 그리고 비디오 디코더를 향한 전송을 위해 비트스트림을 메모리에 저장하게 하게 명령들을 구현하도록 구성된다.
종래의 코딩 기술들은 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용하지 않지만, 본 명세서에 개시된 인코딩 디바이스는 IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용한다. 따라서 혼합된 IRAP 픽처가 IRAP 서브픽처를 포함하더라도, 코덱은 RPL을 참조 및 이용하여 비-IRAP 서브픽처를 코딩하는 것이 허용된다. 이는 VR 코딩 애플리케이션들에서 특히 유리하다. 이에 따라, 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
그러한 제4 양상에 따른 인코딩 디바이스의 제1 구현 형태에서, 인코딩 디바이스는 프로세서에 결합된 전송기를 더 포함하고, 전송기는 비디오 디코더를 향해 비트스트림을 송신하도록 구성된다.
그러한 제4 양상에 따른 인코딩 디바이스의 제2 구현 형태에서, 혼합된 IRAP 픽처는 제1 서브 비트스트림 및 제2 서브 비트스트림을 포함하는 분할된 비트스트림으로 인코딩된다.
그러한 제4 양상에 따른 인코딩 디바이스의 제3 구현 형태에서, 제1 서브픽처는 제1 서브 비트스트림으로 인코딩되고, 제2 서브픽처는 제2 서브 비트스트림으로 인코딩된다.
제4 양상에 따른 인코딩 디바이스의 제4 구현 형태에서, IRAP 픽처는 순간 디코더 리프레시(IDR) 픽처이다.
제5 양상은 코딩 장치에 관한 것이다. 코딩 장치는, 인코딩할 픽처를 수신하도록 또는 디코딩할 비트스트림 수신하도록 구성된 수신기; 수신기에 결합된 전송기 ― 전송기는 비트스트림을 디코더에 전송하도록 또는 디코딩된 이미지를 디스플레이로 전송하도록 구성됨 ―; 수신기 또는 전송기 중 적어도 하나에 결합된 메모리 ― 메모리는 명령들을 저장하도록 구성됨 ―; 및 메모리에 결합된 프로세서를 포함하며, 프로세서는 메모리에 저장된 명령들을 실행하여 본 명세서에서 설명되는 방법들을 수행하도록 구성된다.
종래의 코딩 기술들은 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용하지 않지만, 본 명세서에 개시된 코딩 장치는 IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용한다. 따라서 혼합된 IRAP 픽처가 IRAP 서브픽처를 포함하더라도, 코덱은 RPL을 참조 및 이용하여 비-IRAP 서브픽처를 코딩하는 것이 허용된다. 이는 VR 코딩 애플리케이션들에서 특히 유리하다. 이에 따라, 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
제6 양상은 시스템에 관한 것이다. 이 시스템은 인코더; 및 인코더와 통신하는 디코더를 포함하며, 인코더 또는 디코더는 본 명세서에 개시된 디코딩 디바이스, 인코딩 디바이스 또는 코딩 장치를 포함한다.
종래의 코딩 기술들은 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용하지 않지만, 본 명세서에 개시된 시스템은 IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용한다. 따라서 혼합된 IRAP 픽처가 IRAP 서브픽처를 포함하더라도, 코덱은 RPL을 참조 및 이용하여 비-IRAP 서브픽처를 코딩하는 것이 허용된다. 이는 VR 코딩 애플리케이션들에서 특히 유리하다. 이에 따라, 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
제7 양상은 코딩하기 위한 수단에 관한 것이다. 코딩하기 위한 수단은, 디코딩할 비트스트림을 수신하도록 구성된 수신 수단; 수신 수단에 결합된 전송 수단 ― 전송 수단은 디코딩된 이미지를 디스플레이 수단으로 전송하도록 구성됨 ―; 수신 수단 또는 전송 수단 중 적어도 하나에 결합된 저장 수단 ― 저장 수단은 명령들을 저장하도록 구성됨 ―; 및 저장 수단에 결합된 처리 수단을 포함하며, 처리 수단은 저장 수단에 저장된 명령들을 실행하여 본 명세서에 개시된 방법들을 수행하도록 구성된다.
종래의 코딩 기술들은 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용하지 않지만, 본 명세서에 개시된 코딩하기 위한 수단은 IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용한다. 따라서 혼합된 IRAP 픽처가 IRAP 서브픽처를 포함하더라도, 코덱은 RPL을 참조 및 이용하여 비-IRAP 서브픽처를 코딩하는 것이 허용된다. 이는 VR 코딩 애플리케이션들에서 특히 유리하다. 이에 따라, 비디오 코딩에서의 코더/디코더(일명 "코덱")는 현재 코덱들에 비해 개선된다. 실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
제8 양상은 디코딩 디바이스에 관한 것이다. 디코딩 디바이스는 코딩된 비디오 비트스트림을 수신하도록 구성된 수신기; 수신기에 결합된 프로세서를 포함하며, 프로세서는: 코딩된 비디오 비트스트림 내의 플래그를 파싱(parse)하고 ― 플래그의 값은 코딩된 비디오 비트스트림 내의 픽처가 혼합된 네트워크 추상화 계층(NAL) 유닛 타입들을 가짐을 지시함 ―; 플래그의 값에 기초하여 픽처를 비-인트라 랜덤 액세스 포인트(IRAP) 픽처로서 디코딩하고; 그리고 디코딩된 픽처에 기초하여 이미지를 생성하도록 구성된다.
본 명세서에 개시된 디코딩 디바이스는, 디코딩 디바이스가 코딩된 비디오 비트스트림 내의 어떤 픽처들이 혼합된 네트워크 추상화 계층(NAL) 유닛 타입들을 포함하는지를 식별할 수 있게 한다. 즉, 디코딩 디바이스는 코딩된 비디오 비트스트림의 플래그를 파싱하여, 픽처가 혼합된 NAL 유닛 타입을 포함함을 식별하도록 구성된다. 픽처가 IRAP NAL 유닛 타입을 갖는 경우에도, 픽처는 플래그의 값에 기초하여 비-IRAP 픽처로서 디코딩된다.
그러한 제8 양상에 따른 인코딩 디바이스의 제1 구현 형태에서, 픽처가 IRAP NAL 유닛 타입을 가질 때 픽처는 비-IRAP 픽처로서 디코딩된다.
그러한 제8 양상에 따른 인코딩 디바이스의 제2 구현 형태에서, 플래그의 값은 1이다.
실질적인 문제로서, 개선된 비디오 코딩 프로세스는 비디오들이 전송되고, 수신되고 그리고/또는 보여질 때 사용자에게 더 나은 사용자 경험을 제공한다.
본 개시내용의 보다 완벽한 이해를 위해, 이제 첨부 도면들 및 상세한 설명과 관련하여 제시되는 다음의 간단한 설명에 대해 참조가 이루어지며, 여기서 유사한 참조 번호들은 유사한 부분들을 나타낸다.
도 1은 양방향 예측 기술들을 이용할 수 있는 예시적인 코딩 시스템을 예시하는 블록도이다.
도 2는 양방향 예측 기술들을 구현할 수 있는 예시적인 비디오 인코더를 예시하는 블록도이다.
도 3은 양방향 예측 기술들을 구현할 수 있는 비디오 디코더의 일례를 예시하는 블록도이다.
도 4는 참조 픽처 세트(RPS: reference picture set)의 모든 서브세트들에 엔트리(entry)들을 갖는 현재 픽처를 갖는 RPS를 예시하는 개략도이다.
도 5는 VR 코딩 애플리케이션들에 사용하기에 적합한 픽처의 일 실시예의 개략도이다.
도 6은 도 5의 픽처에 대응하는 비디오 비트스트림의 일 실시예의 개략도이다.
도 7은 코딩된 비디오 비트스트림을 디코딩하는 방법의 일 실시예이다.
도 8은 비디오 비트스트림을 인코딩하는 방법의 일 실시예이다.
도 9는 비디오 코딩 디바이스의 개략도이다.
도 10은 코딩하기 위한 수단의 일 실시예의 개략도이다.
도 1은 양방향 예측 기술들을 이용할 수 있는 예시적인 코딩 시스템을 예시하는 블록도이다.
도 2는 양방향 예측 기술들을 구현할 수 있는 예시적인 비디오 인코더를 예시하는 블록도이다.
도 3은 양방향 예측 기술들을 구현할 수 있는 비디오 디코더의 일례를 예시하는 블록도이다.
도 4는 참조 픽처 세트(RPS: reference picture set)의 모든 서브세트들에 엔트리(entry)들을 갖는 현재 픽처를 갖는 RPS를 예시하는 개략도이다.
도 5는 VR 코딩 애플리케이션들에 사용하기에 적합한 픽처의 일 실시예의 개략도이다.
도 6은 도 5의 픽처에 대응하는 비디오 비트스트림의 일 실시예의 개략도이다.
도 7은 코딩된 비디오 비트스트림을 디코딩하는 방법의 일 실시예이다.
도 8은 비디오 비트스트림을 인코딩하는 방법의 일 실시예이다.
도 9는 비디오 코딩 디바이스의 개략도이다.
도 10은 코딩하기 위한 수단의 일 실시예의 개략도이다.
다음은 본 명세서에서 사용되는 다양한 약어들이다: 코딩된 비디오 시퀀스(CVS: Coded Video Sequence), 디코딩된 픽처 버퍼(DPB: Decoded Picture Buffer), 순간 디코딩 리프레시(IDR: Instantaneous Decoding Refresh), 인트라 랜덤 액세스 포인트(IRAP), 최하위 비트(LSB: Least Significant Bit), 최상위 비트(MSB: Most Significant Bit), 네트워크 추상화 계층(NAL), 픽처 순서 카운트(POC: Picture Order Count), 원시 바이트 시퀀스 페이로드(RBSP: Raw Byte Sequence Payload), 시퀀스 파라미터 세트(SPS) 및 규격 초안(WD: Working Draft).
도 1은 본 명세서에서 설명되는 바와 같은 비디오 코딩 기술을 이용할 수 있는 예시적인 코딩 시스템(10)을 예시하는 블록도이다. 도 1에 도시된 바와 같이, 코딩 시스템(10)은 목적지 디바이스(14)에 의해 나중에 디코딩될 인코딩된 비디오 데이터를 제공하는 소스 디바이스(12)를 포함한다. 특히, 소스 디바이스(12)는 컴퓨터 판독 가능 매체(16)를 통해 목적지 디바이스(14)에 비디오 데이터를 제공할 수 있다. 소스 디바이스(12) 및 목적지 디바이스(14)는 데스크탑 컴퓨터(desktop computer)들, 노트북(notebook)(예컨대, 랩톱(laptop)) 컴퓨터들, 태블릿(tablet) 컴퓨터들, 셋톱 박스(set-top box)들, 전화 핸드셋(handset)들, 이를테면 소위 "스마트(smart)" 폰(phone)들, 소위 "스마트" 패드(pad)들, 텔레비전(television)들, 카메라(camera)들, 디스플레이 디바이스들, 디지털 미디어 플레이어(digital media player)들, 비디오 게임 콘솔(gaming console)들, 비디오 스트리밍(streaming) 디바이스들 등을 포함하는 광범위한 디바이스들 중 임의의 디바이스를 포함할 수 있다. 일부 경우들에, 소스 디바이스(12) 및 목적지 디바이스(14)는 무선 통신을 위해 장착될 수 있다.
목적지 디바이스(14)는 디코딩될 인코딩된 비디오 데이터를 컴퓨터 판독 가능 매체(16)를 통해 수신할 수 있다. 컴퓨터 판독 가능 매체(16)는 인코딩된 비디오 데이터를 소스 디바이스(12)에서 목적지 디바이스(14)로 이동시킬 수 있는 임의의 타입의 매체 또는 디바이스를 포함할 수 있다. 일례로, 컴퓨터 판독 가능 매체(16)는 소스 디바이스(12)가 인코딩된 비디오 데이터를 목적지 디바이스(14)에 실시간으로 직접 전송할 수 있게 하는 통신 매체를 포함할 수 있다. 인코딩된 비디오 데이터는 무선 통신 프로토콜(protocol)과 같은 통신 표준에 따라 변조되어 목적지 디바이스(14)로 전송될 수 있다. 통신 매체는 무선 주파수(RF: radio frequency) 스펙트럼 또는 하나 이상의 물리적 전송 라인들과 같은 임의의 무선 또는 유선 통신 매체를 포함할 수 있다. 통신 매체는 패킷 기반 네트워크, 이를테면 근거리 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크의 일부를 형성할 수 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 소스 디바이스(12)로부터 목적지 디바이스(14)로의 통신을 가능하게 하는 데 유용할 수 있는 임의의 다른 장비를 포함할 수 있다.
일부 예들에서, 인코딩된 데이터는 출력 인터페이스(22)로부터 저장 디바이스에 출력될 수 있다. 유사하게, 인코딩된 데이터는 저장 디바이스로부터 입력 인터페이스에 의해 액세스될 수 있다. 저장 디바이스는 하드 드라이브, 블루레이 디스크들, 디지털 비디오 디스크(DVD: digital video disk)들, 콤팩트 디스크 판독 전용 메모리(CD-ROM: Compact Disc Read-Only Memory)들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 인코딩된 비디오 데이터를 저장하기 위한 임의의 다른 적절한 디지털 저장 매체들과 같은 다양한 분산 또는 로컬 액세스 데이터 저장 매체들 중 임의의 매체를 포함할 수 있다. 추가 예에서, 저장 디바이스는 소스 디바이스(12)에 의해 생성된 인코딩된 비디오를 저장할 수 있는 파일 서버 또는 다른 중간 저장 디바이스에 대응할 수 있다. 목적지 디바이스(14)는 스트리밍 또는 다운로드를 통해 저장 디바이스로부터 저장된 비디오 데이터에 액세스할 수 있다. 파일 서버는 인코딩된 비디오 데이터를 저장하고 그 인코딩된 비디오 데이터를 목적지 디바이스(14)로 전송할 수 있는 임의의 타입의 서버일 수 있다. 예시적인 파일 서버들은 (예컨대, 웹 사이트용) 웹 서버, 파일 전송 프로토콜(FTP: file transfer protocol) 서버, 네트워크 부착 저장 장치(NAS: network attached storage) 디바이스들 또는 로컬 디스크 드라이브를 포함한다. 목적지 디바이스(14)는 인터넷 접속을 포함하는 임의의 표준 데이터 접속을 통해, 인코딩된 비디오 데이터에 액세스할 수 있다. 이것은 파일 서버 상에 저장된 인코딩된 비디오 데이터에 액세스하는 데 적합한 무선 채널(예컨대, Wi-Fi 접속), 유선 접속(예컨대, 디지털 가입자 회선(DSL: digital subscriber line), 케이블 모뎀 등), 또는 이 둘의 조합을 포함할 수 있다. 저장 디바이스로부터 인코딩된 비디오 데이터의 전송은 스트리밍 전송, 다운로드 전송 또는 이들의 조합일 수 있다.
본 개시내용의 기술들은 반드시 무선 애플리케이션들 또는 설정들에 한정되는 것은 아니다. 기술들은 공중파 텔레비전 방송들, 케이블 텔레비전 전송들, 위성 텔레비전 전송들, 인터넷 스트리밍 비디오 전송들, 이를테면 HTTP를 통한 동적 적응 스트리밍(DASH: dynamic adaptive streaming over HTTP), 데이터 저장 매체에 인코딩된 디지털 비디오, 데이터 저장 매체에 저장된 디지털 비디오의 디코딩, 또는 다른 애플리케이션들과 같은 다양한 멀티미디어 애플리케이션들 중 임의의 멀티미디어 애플리케이션의 지원 하에 비디오 코딩에 적용될 수 있다. 일부 예들에서, 코딩 시스템(10)은 단방향 또는 양방향 비디오 전송을 지원하여 비디오 스트리밍, 비디오 재생, 비디오 방송 및/또는 비디오 전화와 같은 애플리케이션들을 지원하도록 구성될 수 있다.
도 1의 예에서, 소스 디바이스(12)는 비디오 소스(18), 비디오 인코더(20) 및 출력 인터페이스(22)를 포함한다. 목적지 디바이스(14)는 입력 인터페이스(28), 비디오 디코더(30) 및 디스플레이 디바이스(32)를 포함한다. 본 개시내용에 따르면, 소스 디바이스(12)의 비디오 인코더(20)는 및/또는 목적지 디바이스(14)의 비디오 디코더(30)는 비디오 코딩을 위한 기술들을 적용하도록 구성될 수 있다. 다른 예들에서, 소스 디바이스 및 목적지 디바이스는 다른 컴포넌트들 또는 배열들을 포함할 수 있다. 예를 들어, 소스 디바이스(12)는 외부 카메라와 같은 외부 비디오 소스로부터 비디오 데이터를 수신할 수 있다. 마찬가지로, 목적지 디바이스(14)는 통합 디스플레이 디바이스를 포함하는 대신 외부 디스플레이 디바이스와 인터페이스할 수 있다.
도 1의 예시된 코딩 시스템(10)은 단지 일례일 뿐이다. 비디오 코딩을 위한 기술들은 임의의 디지털 비디오 인코딩 및/또는 디코딩 디바이스에 의해 수행될 수 있다. 본 개시내용의 기술들은 일반적으로 비디오 코딩 디바이스에 의해 수행되지만, 그 기술들은 통상적으로 "코덱(CODEC)"으로 지칭되는 비디오 인코더/디코더에 의해서도 또한 수행될 수 있다. 더욱이, 본 개시내용의 기술들은 또한 비디오 전처리기에 의해 수행될 수 있다. 비디오 인코더 및/또는 디코더는 그래픽 처리 유닛(GPU: graphics processing unit) 또는 유사한 디바이스일 수 있다.
소스 디바이스(12) 및 목적지 디바이스(14)는 목적지 디바이스(14)로의 전송을 위해 소스 디바이스(12)가 코딩된 비디오 데이터를 생성하는 그러한 코딩 디바이스들의 예들일 뿐이다. 일부 예들에서, 소스 디바이스(12) 및 목적지 디바이스(14)는, 소스 디바이스(12) 및 목적지 디바이스(14) 각각이 비디오 인코딩 및 디코딩 컴포넌트들을 포함하도록 실질적으로 대칭 방식으로 동작할 수 있다. 그러므로 코딩 시스템(10)은 예컨대, 비디오 스트리밍, 비디오 재생, 비디오 방송 또는 비디오 전화를 위해 비디오 디바이스들(12, 14) 간의 단방향 또는 양방향 비디오 전송을 지원할 수 있다.
소스 디바이스(12)의 비디오 소스(18)는 비디오 캡처(capture) 디바이스, 이를테면 비디오 카메라, 이전에 캡처된 비디오를 포함하는 비디오 아카이브(archive), 및/또는 비디오 콘텐츠 제공자로부터 비디오를 수신하기 위한 비디오 피드 인터페이스(video feed interface)를 포함할 수 있다. 추가 대안으로서, 비디오 소스(18)는 소스 비디오로서, 또는 라이브 비디오, 아카이브 비디오 및 컴퓨터 생성 비디오의 조합으로서 컴퓨터 그래픽 기반 데이터를 생성할 수 있다.
일부 경우들에는, 비디오 소스(18)가 비디오 카메라인 경우, 소스 디바이스(12) 및 목적지 디바이스(14)는 소위 카메라폰들 또는 비디오폰들을 형성할 수 있다. 그러나 위에서 언급한 바와 같이, 본 개시내용에서 설명되는 기술들은 일반적으로 비디오 코딩에 적용 가능할 수 있고, 무선 및/또는 유선 애플리케이션들에 적용될 수 있다. 각각의 경우에, 캡처되거나, 사전 캡처되거나 또는 컴퓨터 생성된 비디오는 비디오 인코더(20)에 의해 인코딩될 수 있다. 인코딩된 비디오 정보는 다음에, 출력 인터페이스(22)에 의해 컴퓨터 판독 가능 매체(16)로 출력될 수 있다.
컴퓨터 판독 가능 매체(16)는 무선 방송 또는 유선 네트워크 전송과 같은 과도 매체, 또는 하드 디스크, 플래시 드라이브, 콤팩트 디스크, 디지털 비디오 디스크, 블루레이 디스크 또는 다른 컴퓨터 판독 가능 매체 등과 같은 저장 매체(즉, 비-일시적 저장 매체)를 포함할 수 있다. 일부 예들에서, (도시되지 않은) 네트워크 서버는 소스 디바이스(12)로부터 인코딩된 비디오 데이터를 수신하고 인코딩된 비디오 데이터를 예컨대, 네트워크 전송을 통해 목적지 디바이스(14)에 제공할 수 있다. 유사하게, 디스크 스탬핑 설비(disc stamping facility)와 같은 매체 생산 설비의 컴퓨팅 디바이스는 소스 디바이스(12)로부터 인코딩된 비디오 데이터를 수신하고 인코딩된 비디오 데이터를 포함하는 디스크를 생성할 수 있다. 따라서 컴퓨터 판독 가능 매체(16)는 다양한 예들에서 다양한 형태들의 하나 이상의 컴퓨터 판독 가능 매체들을 포함하는 것으로 이해될 수 있다.
목적지 디바이스(14)의 입력 인터페이스(28)는 컴퓨터 판독 가능 매체(16)로부터 정보를 수신한다. 컴퓨터 판독 가능 매체(16)의 정보는 비디오 인코더(20)에 의해 정의된 신택스(syntax) 정보를 포함할 수 있는데, 신택스 정보는 비디오 디코더(30)에 의해서도 또한 사용되며, 블록들 및 다른 코딩된 유닛들, 예컨대 픽처들의 그룹(GOP: group of pictures)의 특징들 및/또는 처리를 설명하는 신택스 엘리먼트(element)들을 포함한다. 디스플레이 디바이스(32)는 디코딩된 비디오 데이터를 사용자에게 디스플레이하고, 음극선관(CRT: cathode ray tube), 액정 디스플레이(LCD: liquid crystal display), 플라즈마 디스플레이, 유기 발광 다이오드(OLED: organic light emitting diode) 디스플레이 또는 다른 타입의 디스플레이 디바이스와 같은 다양한 디스플레이 디바이스들 중 임의의 디스플레이 디바이스를 포함할 수 있다.
비디오 인코더(20) 및 비디오 디코더(30)는 현재 개발 중인 고효율 비디오 코딩(HEVC: High Efficiency Video Coding) 표준과 같은 비디오 코딩 표준에 따라 동작할 수 있으며, HEVC 시험 모델(HM: HEVC Test Model)을 준수할 수 있다. 대안으로, 비디오 인코더(20) 및 비디오 디코더(30)는 다른 독점적 또는 산업 표준들, 이를테면 대안으로, 동화상 전문가 그룹(MPEG: Moving Picture Expert Group)-4 파트 10, 고급 비디오 코딩(AVC: Advanced Video Coding)으로 지칭되는 국제 전기통신 연합 전기통신 표준화 부문(ITU-T: International Telecommunications Union Telecommunication Standardization Sector) H.264 표준, H.265/HEVC, 또는 이러한 표준들의 확장들에 따라 동작할 수 있다. 그러나 본 개시내용의 기술들은 임의의 특정 코딩 표준으로 제한되지는 않는다. 비디오 코딩 표준들의 다른 예들은 MPEG-2 및 ITU-T H.263을 포함한다. 도 1에 도시되진 않지만, 일부 양상들에서, 비디오 인코더(20) 및 비디오 디코더(30)는 각각 오디오 인코더 및 디코더와 통합될 수 있고, 오디오와 비디오 모두의 인코딩을 공통 데이터 스트림 또는 개별 데이터 스트림으로 처리하도록 적절한 멀티플렉서-디멀티플렉서(MUX-DEMUX: multiplexer-demultiplexer) 유닛들, 또는 다른 하드웨어 및 소프트웨어를 포함할 수 있다. 적용 가능하다면, MUX-DEMUX 유닛들은 ITU H.223 멀티플렉서 프로토콜, 또는 사용자 데이터그램 프로토콜(UDP: user datagram protocol)과 같은 다른 프로토콜들을 준수할 수 있다.
비디오 인코더(20) 및 비디오 디코더(30)는 각각, 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서(DSP: digital signal processor)들, 주문형 집적 회로(ASIC: application specific integrated circuit)들, 필드 프로그래밍 가능 게이트 어레이(FPGA: field programmable gate array)들, 이산 로직, 소프트웨어, 하드웨어, 펌웨어, 또는 이들의 임의의 조합들과 같은 다양한 적합한 인코더 회로 중 임의의 회로로서 구현될 수 있다. 기술들이 부분적으로는 소프트웨어에서 구현될 때, 디바이스는 소프트웨어에 대한 명령들을 적절한 비-일시적 컴퓨터 판독 가능 매체에 저장하고, 본 개시내용의 기술들을 수행하도록 하나 이상의 프로세서들을 사용하여 하드웨어에서 명령들을 실행할 수 있다. 비디오 인코더(20) 및 비디오 디코더(30)는 각각 하나 이상의 인코더들 또는 디코더들에 포함될 수 있으며, 이들 중 어느 하나는 개개의 디바이스에서 조합된 인코더/디코더(CODEC)의 일부로서 통합될 수 있다. 비디오 인코더(20) 및/또는 비디오 디코더(30)를 포함하는 디바이스는 집적 회로, 마이크로프로세서 및/또는 무선 통신 디바이스, 이를테면 셀룰러 전화를 포함할 수 있다.
도 2는 비디오 코딩 기술들을 구현할 수 있는 비디오 인코더(20)의 일례를 예시하는 블록도이다. 비디오 인코더(20)는 비디오 슬라이스(slice)들 내의 비디오 블록들의 인트라 코딩(intra-coding) 및 인터 코딩(inter-coding)을 수행할 수 있다. 인트라 코딩은 공간 예측에 의존하여, 주어진 비디오 프레임 또는 픽처 내에서 비디오의 공간 중복성을 줄이거나 제거한다. 인터 코딩은 시간 예측에 의존하여 비디오 시퀀스의 인접한 프레임들 또는 픽처들 내에서 비디오의 시간 중복성을 줄이거나 제거한다. 인트라 모드(I 모드)는 여러 공간 기반 코딩 모드들 중 임의의 모드를 의미할 수 있다. 단방향 예측(일명, uni 예측)(P 모드) 또는 양방향 예측(일명, bi 예측)(B 모드)과 같은 인터 모드들은 여러 시간 기반 코딩 모드들 중 임의의 모드를 의미할 수 있다.
도 2에 도시된 바와 같이, 비디오 인코더(20)는 인코딩될 비디오 프레임 내의 현재 비디오 블록을 수신한다. 도 2의 예에서, 비디오 인코더(20)는 모드 선택 유닛(40), 참조 프레임 메모리(64), 합산기(50), 변환 처리 유닛(52), 양자화 유닛(54) 및 엔트로피(entropy) 코딩 유닛(56)을 포함한다. 모드 선택 유닛(40)은 차례로, 모션(motion) 보상 유닛(44), 모션 추정 유닛(42), 인트라 예측(일명, intra 예측) 유닛(46) 및 분할 유닛(48)을 포함한다. 비디오 블록 복원을 위해, 비디오 인코더(20)는 또한 역양자화 유닛(58), 역변환 유닛(60) 및 합산기(62)를 포함한다. (도 2에 도시되지 않은) 블록 분리(deblocking) 필터(filter)가 또한 포함되어, 복원된 비디오로부터 블록화 아티팩트(blockiness artifact)들을 제거하도록 블록 경계들을 필터링할 수 있다. 원한다면, 블록 분리 필터는 통상적으로 합산기(62)의 출력을 필터링할 것이다. 블록 분리 필터에 추가하여 추가 필터들(루프(loop) 내 또는 루프 뒤)이 또한 사용될 수 있다. 간결함을 위해 이러한 필터들은 도시되지 않지만, 원한다면 (루프 내 필터로서) 합산기(50)의 출력을 필터링할 수 있다.
인코딩 프로세스 동안, 비디오 인코더(20)는 코딩될 비디오 프레임 또는 슬라이스를 수신한다. 프레임 또는 슬라이스는 다수의 비디오 블록들로 분할될 수 있다. 모션 추정 유닛(42) 및 모션 보상 유닛(44)은 하나 이상의 참조 프레임들에서 하나 이상의 블록들에 대해 수신된 비디오 블록의 인터 예측 코딩을 수행하여 시간 예측을 제공한다. 인트라 예측 유닛(46)은 대안으로, 코딩될 블록과 동일한 프레임 또는 슬라이스에서 하나 이상의 이웃 블록들에 대해 수신된 비디오 블록의 인트라 예측 코딩을 수행하여 공간 예측을 제공할 수 있다. 비디오 인코더(20)는 예컨대, 비디오 데이터의 각각의 블록에 대해 적절한 코딩 모드를 선택하기 위해 다수의 코딩 패스(coding pass)들을 수행할 수 있다.
더욱이, 분할 유닛(48)은 이전 코딩 패스들에서의 이전 분할 방식들의 평가에 기초하여, 비디오 데이터의 블록을 서브블록들로 분할할 수 있다. 예를 들어, 분할 유닛(48)은 초기에 프레임 또는 슬라이스를 최대 코딩 유닛(LCU: largest coding unit)들로 분할하고, LCU들 각각을 레이트 왜곡(rate-distortion) 분석(예컨대, 레이트 왜곡 최적화)에 기초하여 하위 코딩 유닛(하위 CU: sub-coding unit)들로 분할할 수 있다. 모드 선택 유닛(40)은 추가로, LCU를 하위 CU들로 분할하는 것을 지시하는 사분 트리(quad-tree) 데이터 구조를 생성할 수 있다. 사분 트리의 리프 노드(leaf-node) CU들은 하나 이상의 예측 유닛(PU: prediction unit)들 및 하나 이상의 변환 유닛(TU: transform unit)들을 포함할 수 있다.
본 개시내용은 HEVC와 관련하여 CU, PU 또는 TU, 또는 다른 표준들과 관련하여 유사한 데이터 구조들(예컨대, H.264/AVC에서의 매크로블록들 및 그 서브블록) 중 임의의 것을 지칭하기 위해 "블록"이라는 용어를 사용한다. CU는 코딩 노드, 코딩 노드와 연관된 TU들 및 PU들을 포함한다. CU의 크기는 코딩 노드의 크기에 대응하며 모양이 정사각형이다. CU의 크기는 8×8 픽셀들 내지 최대 64×64 픽셀들 이상을 갖는 트리 블록의 크기의 범위일 수 있다. 각각의 CU는 하나 이상의 PU들 및 하나 이상의 TU들을 포함할 수 있다. CU와 연관된 신택스 데이터는 예를 들어, CU를 하나 이상의 PU들로 분할하는 것을 설명할 수 있다. 모드들을 분할하는 것은 CU가 스킵(skip)인지 또는 직접 모드 인코딩되는지, 인트라 예측 모드 인코딩되는지 또는 인터 예측(일명 inter 예측) 모드 인코딩되는지 간에 서로 다를 수 있다. PU들은 정사각형이 아닌 모양으로 분할될 수 있다. CU와 연관된 신택스 데이터는 또한, 예를 들어 사분 트리에 따라 CU를 하나 이상의 TU들로 분할하는 것을 설명할 수 있다. TU는 모양이 정사각형이거나 정사각형이 아닐(예컨대, 직사각형일) 수 있다.
모드 선택 유닛(40)은 예컨대, 오류 결과들에 기초하여 인트라 또는 인터 코딩 모드들 중 하나를 선택할 수 있고, 결과적인 인트라 또는 인터 코딩된 블록을 합산기(50)에 제공하여 잔차 블록 데이터를 생성하고 합산기(62)에 제공하여, 인코딩된 블록을 참조 프레임으로서 사용하기 위해 복원한다. 모드 선택 유닛(40)은 또한 모션 벡터들, 인트라 모드 지시자들, 분할 정보 및 다른 그러한 신택스 정보와 같은 신택스 엘리먼트들을 엔트로피 코딩 유닛(56)에 제공한다.
모션 추정 유닛(42) 및 모션 보상 유닛(44)은 고도로 집적될 수 있지만, 개념을 위해 별도로 예시된다. 모션 추정 유닛(42)에 의해 수행되는 모션 추정은 비디오 블록들에 대한 모션을 추정하는 모션 벡터들을 생성하는 프로세스이다. 예를 들어, 모션 벡터는 현재 프레임 내에서 코딩되고 있는 현재 블록(또는 다른 코딩된 유닛)에 대해 참조 프레임 내의 예측 블록(또는 다른 코딩된 유닛)에 대한 현재 비디오 프레임 또는 픽처 내의 비디오 블록의 PU의 변위를 지시할 수 있다. 예측 블록은 절대 차의 합(SAD: sum of absolute difference), 제곱 차의 합(SSD: sum of square difference) 또는 다른 차이 메트릭(metric)들에 의해 결정될 수 있는 픽셀 차이 측면에서, 코딩될 블록과 밀접하게 매칭(match)하는 것으로 확인된 블록이다. 일부 예들에서, 비디오 인코더(20)는 참조 프레임 메모리(64)에 저장된 참조 픽처들의 정수 미만(sub-integer) 픽셀 포지션들에 대한 값들을 계산할 수 있다. 예를 들어, 비디오 인코더(20)는 참조 픽처의 1/4 픽셀 포지션들, 1/8 픽셀 포지션들, 또는 다른 부분 픽셀 포지션들의 값들을 보간할 수 있다. 따라서 모션 추정 유닛(42)은 전체 픽셀 포지션들 및 부분 픽셀 포지션들에 대한 모션 탐색을 수행하고 부분 픽셀 정밀도로 모션 벡터를 출력할 수 있다.
모션 추정 유닛(42)은 참조 픽처의 예측 블록의 포지션과 PU의 포지션을 비교함으로써, 인터 코딩된 슬라이스에서 비디오 블록의 PU에 대한 모션 벡터를 계산한다. 참조 픽처는 제1 참조 픽처 리스트(리스트 0) 또는 제2 참조 픽처 리스트(리스트 1)로부터 선택될 수 있으며, 이들 각각은 참조 프레임 메모리(64)에 저장된 하나 이상의 참조 픽처들을 식별한다. 모션 추정 유닛(42)은 계산된 모션 벡터를 엔트로피 인코딩 유닛(56) 및 모션 보상 유닛(44)에 송신한다.
모션 보상 유닛(44)에 의해 수행되는 모션 보상은 모션 추정 유닛(42)에 의해 결정된 모션 벡터에 기초하여 예측 블록을 페치(fetch) 또는 생성하는 것을 수반할 수 있다. 또한, 모션 추정 유닛(42)과 모션 보상 유닛(44)은 일부 예들에서는 기능적으로 통합될 수 있다. 현재 비디오 블록의 PU에 대한 모션 벡터를 수신하면, 모션 보상 유닛(44)은 참조 픽처 리스트들 중 하나에서 모션 벡터가 가리키는 예측 블록의 위치를 찾을 수 있다. 합산기(50)는 코딩되고 있는 현재 비디오 블록의 픽셀 값들에서 예측 블록의 픽셀 값들을 감산함으로써 잔차 비디오 블록을 형성하여, 아래에서 논의되는 바와 같이 픽셀 차 값들을 형성한다. 일반적으로, 모션 추정 유닛(42)은 루마(luma) 성분들에 대한 모션 추정을 수행하고, 모션 보상 유닛(44)은 크로마(chroma) 성분들과 루마 성분들 모두에 대해 루마 성분들에 기초하여 계산된 모션 벡터들을 사용한다. 모드 선택 유닛(40)은 또한 비디오 슬라이스의 비디오 블록들을 디코딩할 때 비디오 디코더(30)에 의한 사용을 위해 비디오 블록들 및 비디오 슬라이스와 연관된 신택스 엘리먼트들을 생성할 수 있다.
앞서 설명한 바와 같이, 모션 추정 유닛(42) 및 모션 보상 유닛(44)에 의해 수행되는 인터 예측에 대한 대안으로서, 인트라 예측 유닛(46)은 현재 블록을 인트라 예측할 수 있다. 특히, 인트라 예측 유닛(46)은 현재 블록을 인코딩하기 위해 사용할 인트라 예측 모드를 결정할 수 있다. 일부 예들에서, 인트라 예측 유닛(46)은 예컨대, 개별 인코딩 패스들 동안 다양한 인트라 예측 모드들을 사용하여 현재 블록을 인코딩할 수 있고, 인트라 예측 유닛(46)(또는 일부 예들에서는 모드 선택 유닛(40))은 시험된 모드들로부터 사용할 적절한 인트라 예측 모드를 선택할 수 있다.
예를 들어, 인트라 예측 유닛(46)은 다양한 시험된 인트라 예측 모드들에 대한 레이트 왜곡 분석을 사용하여 레이트 왜곡 값들을 계산하고, 시험된 모드들 중 가장 양호한 레이트 왜곡 특징들을 갖는 인트라 예측 모드를 선택할 수 있다. 레이트 왜곡 분석은 일반적으로 인코딩된 블록과 인코딩된 블록을 생성하기 위해 인코딩된 원래의 인코딩되지 않은 블록 간의 왜곡(또는 오류)의 양뿐만 아니라, 인코딩된 블록을 생성하는 데 사용되는 비트 레이트(bitrate)(즉, 비트들의 수)를 결정한다. 인트라 예측 유닛(46)은 어떤 인트라 예측 모드가 블록에 대해 최상의 레이트 왜곡 값을 나타내는지를 결정하기 위해 다양한 인코딩된 블록들에 대한 왜곡들 및 레이트들로부터 비율들을 계산할 수 있다.
추가로, 인트라 예측 유닛(46)은 깊이 모델링 모드(DMM: depth modeling mode)를 사용하여 깊이 맵(depth map)의 깊이 블록들을 코딩하도록 구성될 수 있다. 모드 선택 유닛(40)은 예컨대, 레이트 왜곡 최적화(RDO: rate-distortion optimization)를 사용하여, 이용 가능한 DMM 모드가 인트라 예측 모드 및 다른 DMM 모드들보다 더 나은 코딩 결과들을 생성하는지 여부를 결정할 수 있다. 깊이 맵에 대응하는 텍스처 이미지(texture image)에 대한 데이터가 참조 프레임 메모리(64)에 저장될 수 있다. 모션 추정 유닛(42) 및 모션 보상 유닛(44)은 또한 깊이 맵의 깊이 블록들을 인터 예측하도록 구성될 수 있다.
블록에 대해 인트라 예측 모드(예컨대, DMM 모드들 중 하나 또는 종래의 인트라 예측 모드)를 선택한 후, 인트라 예측 유닛(46)은 블록에 대해 선택된 인트라 예측 모드를 지시하는 정보를 엔트로피 코딩 유닛(56)에 제공할 수 있다. 엔트로피 코딩 유닛(56)은 선택된 인트라 예측 모드를 지시하는 정보를 인코딩할 수 있다. 비디오 인코더(20)는 복수의 인트라 예측 모드 인덱스(index) 표들 및 복수의 수정된 인트라 예측 모드 인덱스 표들(코드워드(codeword) 매핑 표들로도 또한 지칭됨)을 포함할 수 있는 전송된 비트스트림 구성 데이터에, 다양한 블록들에 대한 인코딩 컨텍스트(context)들의 정의들, 및 컨텍스트들 각각에 사용할 가장 가능성이 높은 인트라 예측 모드, 인트라 예측 모드 인덱스 표 및 수정된 인트라 예측 모드 인덱스 표의 표시들을 포함할 수 있다.
비디오 인코더(20)는 코딩되고 있는 원래의 비디오 블록에서 모드 선택 유닛(40)으로부터의 예측 데이터를 감산함으로써 잔차 비디오 블록을 형성한다. 합산기(50)는 이 감산 연산을 수행하는 컴포넌트 또는 컴포넌트들을 나타낸다.
변환 처리 유닛(52)은 이산 코사인 변환(DCT: discrete cosine transform) 또는 개념적으로 유사한 변환과 같은 변환을 잔차 블록에 적용하여, 잔차 변환 계수 값들을 포함하는 비디오 블록을 생성한다. 변환 처리 유닛(52)은 DCT와 개념적으로 유사한 다른 변환들을 수행할 수 있다. 웨이블릿(wavelet) 변환들, 정수 변환들, 부대역 변환들 또는 다른 타입들의 변환들도 또한 사용될 수 있다.
변환 처리 유닛(52)은 잔차 블록에 변환을 적용하여, 잔차 변환 계수들의 블록을 생성한다. 변환은 잔차 정보를 픽셀 값 도메인에서 주파수 도메인과 같은 변환 도메인으로 변환할 수 있다. 변환 처리 유닛(52)은 결과적인 변환 계수들을 양자화 유닛(54)으로 송신할 수 있다. 양자화 유닛(54)은 변환 계수를 양자화하여 비트 레이트를 더 감소시킨다. 양자화 프로세스는 계수들 중 일부 또는 전부와 연관된 비트 깊이를 감소시킬 수 있다. 양자화의 정도는 양자화 파라미터를 조정함으로써 수정될 수 있다. 일부 예들에서, 양자화 유닛(54)은 다음에, 양자화된 변환 계수들을 포함하는 매트릭스(matrix)의 스캔(scan)을 수행할 수 있다. 대안으로, 엔트로피 인코딩 유닛(56)은 스캔을 수행할 수 있다.
양자화 다음에, 엔트로피 코딩 유닛(56)은 양자화된 변환 계수들을 엔트로피 코딩한다. 예를 들어, 엔트로피 코딩 유닛(56)은 컨텍스트 적응적 가변 길이 코딩(CAVLC: context adaptive variable length coding), 컨텍스트 적응적 이진 산술 코딩(CABAC: context adaptive binary arithmetic coding), 신택스 기반 컨텍스트 적응적 이진 산술 코딩(SBAC: syntax-based context-adaptive binary arithmetic coding), 확률 간격 분할 엔트로피(PIPE: probability interval partitioning entropy) 코딩 또는 다른 엔트로피 코딩 기술을 수행할 수 있다. 컨텍스트 기반 엔트로피 코딩의 경우, 컨텍스트는 이웃 블록들을 기반으로 할 수 있다. 엔트로피 코딩 유닛(56)에 의한 엔트로피 코딩 후에, 인코딩된 비트스트림은 다른 디바이스(예컨대, 비디오 디코더(30))로 전송되거나 이후의 전송 또는 검색을 위해 보관될 수 있다.
역양자화 유닛(58) 및 역변환 유닛(60)은 각각 역양자화 및 역변환을 적용하여, 픽셀 도메인의 잔차 블록을 예컨대, 기준 블록으로서 나중에 사용하기 위해 복원한다. 모션 보상 유닛(44)은 참조 프레임 메모리(64)의 프레임들 중 하나의 프레임의 예측 블록에 잔차 블록을 추가함으로써 참조 블록을 계산할 수 있다. 모션 보상 유닛(44)은 또한 하나 이상의 보간 필터들을 복원된 잔차 블록에 적용하여, 모션 추정에 사용할 정수 미만 픽셀 값들을 계산할 수 있다. 합산기(62)는 모션 보상 유닛(44)에 의해 생성된 모션 보상된 예측 블록에 복원된 잔차 블록을 추가하여, 참조 프레임 메모리(64)에 저장할 복원된 비디오 블록을 생성한다. 복원된 비디오 블록은 후속 비디오 프레임에서 블록을 인터 코딩하기 위한 참조 블록으로서 모션 추정 유닛(42) 및 모션 보상 유닛(44)에 의해 사용될 수 있다.
도 3은 비디오 코딩 기술들을 구현할 수 있는 비디오 디코더(30)의 일례를 예시하는 블록도이다. 도 3의 예에서, 비디오 디코더(30)는 엔트로피 디코딩 유닛(70), 모션 보상 유닛(72), 인트라 예측 유닛(74), 역양자화 유닛(76), 역변환 유닛(78), 참조 프레임 메모리(82) 및 합산기(80)를 포함한다. 비디오 디코더(30)는 일부 예들에서, 비디오 인코더(20)(도 2)에 대해 설명된 인코딩 패스에 일반적으로 상반하는 디코딩 패스를 수행할 수 있다. 모션 보상 유닛(72)은 엔트로피 디코딩 유닛(70)으로부터 수신된 모션 벡터들에 기초하여 예측 데이터를 생성할 수 있는 한편, 인트라 예측 유닛(74)은 엔트로피 디코딩 유닛(70)으로부터 수신된 인트라 예측 모드 지시자들에 기초하여 예측 데이터를 생성할 수 있다.
디코딩 프로세스 중에, 비디오 디코더(30)는 인코딩된 비디오 슬라이스의 비디오 블록들 및 연관된 신택스 엘리먼트들을 나타내는 인코딩된 비디오 비트스트림을 비디오 인코더(20)로부터 수신한다. 비디오 디코더(30)의 엔트로피 디코딩 유닛(70)은 비트스트림을 엔트로피 디코딩하여, 양자화된 계수들, 모션 벡터들 또는 인트라 예측 모드 지시자들 및 다른 신택스 엘리먼트들을 생성한다. 엔트로피 디코딩 유닛(70)은 모션 벡터들 및 다른 신택스 엘리먼트들을 모션 보상 유닛(72)으로 전달한다. 비디오 디코더(30)는 비디오 슬라이스 레벨 및/또는 비디오 블록 레벨에서 신택스 엘리먼트들을 수신할 수 있다.
비디오 슬라이스가 인트라 코딩된(I) 슬라이스로서 코딩될 때, 인트라 예측 유닛(74)은 현재 프레임 또는 픽처의 이전에 디코딩된 블록들로부터 시그널링(signal)된 인트라 예측 모드 및 데이터에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 데이터를 생성할 수 있다. 비디오 프레임이 인터 코딩된(예컨대, B, P 또는 GPB) 슬라이스로서 코딩될 때, 모션 보상 유닛(72)은 엔트로피 디코딩 유닛(70)으로부터 수신된 모션 벡터들 및 다른 신택스 엘리먼트들에 기초하여 현재 비디오 슬라이스의 비디오 블록에 대한 예측 블록들을 생성한다. 예측 블록들은 참조 픽처 리스트들 중 하나의 리스트 내의 참조 픽처들 중 하나로부터 생성될 수 있다. 비디오 디코더(30)는 참조 프레임 메모리(82)에 저장된 참조 픽처들을 기초로 디폴트 구성 기술들을 사용하여 참조 프레임 리스트인 리스트 0 및 리스트 1을 구성할 수 있다.
모션 보상 유닛(72)은 모션 벡터들 및 다른 신택스 엘리먼트들을 파싱(parse)함으로써 현재 비디오 슬라이스의 비디오 블록에 대한 예측 정보를 결정하고, 디코딩되고 있는 현재 비디오 블록에 대한 예측 블록을 생성하는 데 예측 정보를 사용한다. 예를 들어, 모션 보상 유닛(72)은 수신된 신택스 엘리먼트들 중 일부를 사용하여, 비디오 슬라이스의 비디오 블록들을 코딩하는 데 사용되는 예측 모드(예컨대, 인트라 또는 인터 예측), 인터 예측 슬라이스 타입(예컨대, B 슬라이스, P 슬라이스 또는 GPB 슬라이스), 슬라이스에 대한 참조 픽처 리스트들 중 하나 이상에 대한 구성 정보, 슬라이스의 각각의 인터 코딩된 비디오 블록에 대한 모션 벡터들, 슬라이스의 각각의 인터 코딩된 비디오 블록에 대한 인터 예측 상태, 및 현재 비디오 슬라이스의 비디오 블록들을 디코딩하기 위한 다른 정보를 결정한다.
모션 보상 유닛(72)은 또한 보간 필터들에 기초하여 보간을 수행할 수 있다. 모션 보상 유닛(72)은 비디오 블록들의 인코딩 동안 비디오 인코더(20)에 의해 사용되는 보간 필터들을 사용하여 참조 블록들의 정수 미만 픽셀들에 대한 보간된 값들을 계산할 수 있다. 이 경우, 모션 보상 유닛(72)은 수신된 신택스 엘리먼트들로부터 비디오 인코더(20)에 의해 사용된 보간 필터들을 결정하고 보간 필터들을 사용하여 예측 블록들을 생성할 수 있다.
깊이 맵에 대응하는 텍스처 이미지에 대한 데이터가 참조 프레임 메모리(82)에 저장될 수 있다. 모션 보상 유닛(72)은 또한 깊이 맵의 깊이 블록들을 인터 예측하도록 구성될 수 있다.
이미지 및 비디오 압축은 다양한 코딩 표준들로 이어지는 빠른 성장을 경험해 왔다. 이러한 비디오 코딩 표준들은 ITU-T H.261, ISO/IEC MPEG-1 Part 2, ITU-T H.262 또는 ISO/IEC MPEG-2 Part 2, ITU-T H.263, ISO/IEC MPEG-4 파트 2, ITU-T H.264 또는 ISO/IEC MPEG-4 파트 10으로도 또한 알려진 고급 비디오 코딩(AVC), 및 ITU-T H.265 또는 MPEG-H 파트 2로도 또한 알려진 고효율 비디오 코딩(HEVC)을 포함한다. AVC는 스케일러블 비디오 코딩(SVC: Scalable Video Coding), 다시점 비디오 코딩(MVC: Multiview Video Coding) 및 다시점 비디오 코딩 + 깊이(MVC+D: Multiview Video Coding plus Depth) 및 3D AVC(3D-AVC)와 같은 확장들을 포함한다. HEVC는 스케일러블 HEVC(SHVC: Scalable HEVC), 다시점 HEVC(MV-HEVC: Multiview HEVC) 및 3D HEVC(3D-HEVC)와 같은 확장들을 포함한다.
ITU-T 및 ISO/IEC의 공동 비디오 전문가 팀(JVET: joint video experts team)에 의해 개발되고 있는, 다용도 비디오 코딩(VVC: Versatile Video Coding)으로 명명된 새로운 비디오 코딩 표준이 또한 존재한다. JVET-L1001-v1에 포함된 VVC의 최신 규격 초안(WD)은 http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/12_Macao/wg11/JVET-L1001-v11.zip에서 공개적으로 이용 가능하다. 본 명세서에 개시된 기술들은 ITU-T 및 ISO/IEC의 공동 비디오 전문가 팀(JVET)에 의해 개발 중인 VVC에 기반한다. 그러나 이 기술들은 다른 비디오/미디어 코덱 규격들에도 또한 적용된다.
비디오 코딩 기초들이 논의된다.
비디오 압축 기술들은 공간(인트라 픽처) 예측 및/또는 시간(인터 픽처) 예측을 수행하여 비디오 시퀀스들에 고유한 중복성을 감소시키거나 제거한다. 블록 기반 비디오 코딩의 경우, 비디오 슬라이스(즉, 비디오 픽처 또는 비디오 픽처의 일부)는 비디오 블록들로 분할될 수 있으며, 비디오 블록들은 트리 블록들, 코딩 트리 블록(CTB: coding tree block)들, 코딩 트리 유닛(CTU: coding tree unit)들, 코딩 유닛(CU: coding unit)들 및/또는 코딩 노드로도 또한 지칭될 수 있다. 픽처의 인트라 코딩된(I) 슬라이스의 비디오 블록들은 동일한 픽처의 이웃 블록들의 참조 샘플들에 대한 공간 예측을 사용하여 인코딩된다. 픽처의 인터 코딩된(P 또는 B) 슬라이스의 비디오 블록들은 동일한 픽처의 이웃 블록들의 참조 샘플들에 대한 공간 예측 또는 다른 참조 픽처들의 참조 샘플들에 대한 시간 예측을 사용할 수 있다. 픽처들은 프레임들로 지칭될 수 있고, 참조 픽처들은 참조 프레임들로 지칭될 수 있다.
공간 또는 시간 예측은 코딩될 블록에 대한 예측 블록을 야기한다. 잔차 데이터는 코딩될 원래 블록과 예측 블록 간의 픽셀 차이들을 나타낸다. 인터 코딩된 블록은 예측 블록을 형성하는 참조 샘플들의 블록을 가리키는 모션 벡터, 및 코딩된 블록과 예측 블록 간의 차이를 지시하는 잔차 데이터에 따라 인코딩된다. 인트라 코딩된 블록은 인트라 코딩 모드 및 잔차 데이터에 따라 인코딩된다. 추가 압축을 위해, 잔차 데이터는 픽셀 도메인에서 변환 도메인으로 변환되어, 잔차 변환 계수들이 될 수 있으며, 잔차 변환 계수들은 다음에 양자화될 수 있다. 초기에 2차원 어레이로 배열된 양자화된 변환 계수들은 변환 계수들의 1차원 벡터를 생성하기 위해 스캔될 수 있으며, 엔트로피 코딩이 적용되어 훨씬 더 많은 압축을 달성할 수 있다.
비디오 코딩에서의 픽처 타입들이 논의된다.
비디오 코덱 규격에서, 픽처 식별(예컨대, POC)의 도출을 위해, DPB에서의 참조 픽처 상태의 마킹(marking)을 위해, DPB로부터의 픽처들의 출력을 위해 등을 포함하여, 디코딩 프로세스들을 정의하기 위해, 픽처 타입들이 식별될 필요가 있다.
AVC 및 HEVC에서, 픽처 타입들은 코딩된 픽처를 포함하는 NAL 유닛 타입으로부터 식별될 수 있다. AVC의 픽처 타입들은 IDR 픽처 및 비-IDR 픽처를 포함한다. 다른 한편으로, HEVC의 주요 픽처 타입들은 트레일링(trailing) 픽처, 시간적 하위 계층 액세스(TSA: temporal sub-layer access) 픽처, 단계식 시간적 하위 계층 액세스(STSA: step-wise temporal sub-layer access) 픽처, 랜덤 액세스 디코딩 가능 리딩(RADL: random access decodable leading) 픽처, 랜덤 액세스 스킵 리딩(RASL: random access skipped leading) 픽처, 브로큰 링크 액세스(BLA: broken-link access) 픽처, 순간 랜덤 액세스 및 클린(clean) 랜덤 액세스를 포함한다. HEVC의 이러한 주요 픽처 타입들 각각에 대해, 픽처는 하위 계층 참조 픽처 또는 하위 계층 비-참조 픽처로서 추가로 구별될 수 있다. BLA 픽처는 리딩 픽처를 갖는 BLA, RADL 픽처를 갖는 BLA, 또는 리딩 픽처가 없는 BLA로서 추가로 구별된다. IDR 픽처는 RADL 픽처를 갖는 IDR 또는 리딩 픽처가 없는 IDR로서 추가로 구별된다.
인트라 랜덤 액세스 포인트(IRAP) 픽처들이 논의된다.
HEVC에서, IDR, BLA 및 클린 랜덤 액세스(CRA: clean random access) 픽처들이 함께 인트라 랜덤 액세스 포인트(IRAP) 픽처들로 간주된다. VVC의 경우, 2018년 10월의 제12차 JVET 회의 동안, IRAP 픽처들로서 IDR 및 CRA 픽처들 모두를 갖는 것이 합의되었다.
IRAP 픽처는 다음의 두 가지 중요한 기능들 또는 이점들을 제공한다. 첫째로, IRAP 픽처의 존재는 디코딩 프로세스가 그 픽처로부터 시작할 수 있음을 지시한다. 이러한 기능은, IRAP 픽처가 해당 포지션에 존재하는 한, 디코딩 프로세스가 반드시 비트스트림의 시작이 아닌 비트스트림의 포지션에서 시작하는 랜덤 액세스 특징을 허용한다. 둘째로, IRAP 픽처의 존재는, RASL 픽처들을 제외한 IRAP 픽처에서 시작하는 코딩된 픽처들이 이전 픽처들에 대한 어떠한 참조도 없이 코딩되도록 디코딩 프로세스를 리프레시한다. IRAP 픽처를 비트스트림에 존재하게 하는 것은, IRAP 픽처 이전에 코딩된 픽처들의 디코딩 동안 발생했을 수 있는 임의의 에러가 IRAP 픽처 및 디코딩 순서에서 IRAP 픽처에 후속하는 그러한 픽처들에 전파되는 것을 방지한다.
IRAP 픽처들은 중요한 기능들을 제공하지만, IRAP 픽처들은 압축 효율에 대한 패널티(penalty)를 동반할 수 있다. 예를 들어, IRAP 픽처의 존재는 비트 레이트의 급증을 야기할 수 있다. 압축 효율에 대한 패널티는 2개의 원인들을 갖는다. 첫째로, IRAP 픽처는 인트라 예측된 픽처이기 때문에, 픽처 자체는 표현하는 데 다른 인터 예측된 픽처들에 비해 더 많은 비트들을 필요로 한다. 둘째로, IRAP 픽처는 시간 예측을 중단시킨다. 예를 들어, 디코딩 프로세스 동안 IRAP 픽처에 접하게 되면, DPB는 이전의 참조 픽처들을 제거하도록 리프레시된다. 추가로, IRAP 픽처는 디코딩 순서에서 IRAP 픽처에 후속하는 픽처들의 코딩을 덜 효율적이게 한다. 예를 들어, 디코딩 순서에서 IRAP 픽처에 후속하는 픽처들은 이들의 인터 예측 코딩을 위해 더 적은 참조 픽처들을 갖기 때문에, 그러한 픽처들은 표현하는 데 더 많은 비트들을 필요로 한다.
IRAP 픽처인 것으로 간주되는 픽처 타입들 중에서, HEVC의 IDR 픽처는 다른 픽처 타입들과 비교할 때 상이한 시그널링 및 도출을 갖는다. 차이들 중 일부는 다음과 같다.
IDR 픽처의 POC 값의 시그널링 및 도출의 경우, POC의 최상위 비트(MSB)는 이전 키 픽처로부터 도출되지 않는다. 오히려, MSB는 단순히 0과 같게 설정된다.
IDR 픽처의 슬라이스 헤더(header)는 참조 픽처 관리를 보조하기 위해 시그널링될 필요가 있는 정보를 포함하지 않는다. 다른 픽처 타입들(예컨대, CRA, 트레일링, TSA 등)의 경우, 아래에서 설명되는 참조 픽처 세트(RPS) 또는 다른 어떤 형태의 유사한 정보(예컨대, 참조 픽처 리스트들)와 같은 정보가 참조 픽처 마킹 프로세스(예컨대, 참조를 위해 사용되거나 참조를 위해 사용되지 않는 참조 픽처들의 상태를 DPB에서 결정하는 프로세스)에 필요하다. 그러나 IDR 픽처의 경우, 그러한 정보는 시그널링될 필요가 없는데, 이는 디코딩 프로세스가 단순히 DPB 내의 모든 참조 픽처들을 참조를 위해 사용되지 않음으로 마킹할 것임을 IDR의 존재가 지시하기 때문이다.
비디오 코딩에서의 참조 픽처 관리가 논의된다.
픽처 타입들에 추가로, 인터 예측에서 참조 픽처로서 사용하기 위해, 디코딩된 픽처 버퍼(DPB)로부터의 픽처들의 출력을 위해, 모션 벡터들의 스케일링을 위해, 가중 예측을 위해 등을 포함하는 다수의 목적들을 위해 픽처 식별이 또한 필요하다. AVC 및 HEVC에서는, 픽처 순서 카운트(POC)에 의해 픽처들이 식별될 수 있다.
AVC 및 HEVC에서, DPB 내의 픽처들은 "단기 참조에 사용됨", "장기 참조에 사용됨", 또는 "참조에 사용되지 않음"으로 마킹될 수 있다. 일단 픽처가 "참조에 사용되지 않음"으로 마킹되었다면, 픽처는 예측에 더는 사용되지 않을 수 있다. 해당 픽처가 출력에 더 이상 필요하지 않으면, DPB로부터 픽처가 제거될 수 있다.
AVC에는, 단기 및 장기의 두 가지 타입들의 참조 픽처들이 있다. 참조 픽처가 더는 예측 참조를 위해 필요하지 않게 되는 경우에 그 픽처는 "참조에 사용되지 않음"으로 마킹될 수 있다. 이러한 세 가지 상태들(단기, 장기, 및 참조에 사용되지 않음) 간의 변환은 디코딩된 참조 픽처 마킹 프로세스에 의해 제어된다. 두 가지 대안적인 디코딩된 참조 픽처 마킹 메커니즘들, 즉 암시적 슬라이딩 윈도우(sliding window) 프로세스와 명시적 메모리 관리 제어 동작(MMCO: memory management control operation) 프로세스가 있다. 슬라이딩 윈도우 프로세스는 참조 프레임들의 수가 주어진 최대 수(예컨대, SPS의 max_num_ref_frames)와 같을 때는 단기 참조 픽처를 "참조에 사용되지 않음"으로 마킹한다. 단기 참조 픽처들은 선입 선출 방식으로 저장되어, 가장 최근에 디코딩된 단기 픽처들이 DPB에 유지된다.
명시적 MMCO 프로세스는 여러 MMCO 커맨드(command)들을 포함할 수 있다. MMCO 커맨드는 하나 이상의 단기 또는 장기 참조 픽처를 "참조에 사용되지 않음"으로 마킹할 수 있거나, 모든 픽처들을 "참조에 사용되지 않음"으로 마킹할 수 있거나, 현재 참조 픽처 또는 기존 단기 참조 픽처를 장기로 마킹하고, 그 장기 참조 픽처에 장기 픽처 인덱스를 할당할 수 있다.
AVC에서, 참조 픽처 마킹 동작들뿐만 아니라 DPB로부터의 픽처들의 출력 및 제거를 위한 프로세스들은 픽처가 디코딩된 후에 수행된다.
HEVC는 참조 픽처 세트(RPS)로 지칭되는 참조 픽처 관리를 위한 다른 접근 방식을 도입한다. AVC의 MMCO/슬라이딩 윈도우와 비교하여 RPS 개념의 가장 근본적인 차이점은 각각의 특정 슬라이스에 대해, 현재 픽처 또는 임의의 후속 픽처에 의해 사용되는 참조 픽처들의 완전한 세트가 제공된다는 점이다. 따라서 현재 또는 향후 픽처에 의한 사용을 위해 DPB에 유지되는 모든 픽처들의 완전한 세트가 시그널링된다. 이것은 DPB에 대한 상대적인 변화들만이 시그널링되는 AVC 방식과는 다르다. RPS 개념에 따르면, DPB에서 참조 픽처들의 올바른 상태를 유지하기 위해 디코딩 순서의 더 이전 픽처들로부터의 정보가 필요하지 않다.
HEVC에서의 픽처 디코딩 및 DPB 동작들의 순서는 RPS의 이점들을 활용하고 오류 내성을 개선하기 위해 AVC와 비교하여 변경된다. AVC에서, 픽처 마킹 및 버퍼 동작들(DPB로부터의 디코딩된 픽처들의 출력과 제거 모두)은 일반적으로 현재 픽처가 디코딩된 후에 적용된다. HEVC에서, RPS는 먼저 현재 픽처의 슬라이스 헤더로부터 디코딩된 다음, 일반적으로 현재 픽처를 디코딩하기 전에 픽처 마킹 및 버퍼 동작들이 적용된다.
HEVC에서의 RPS의 시그널링이 논의된다.
HEVC의 각각의 슬라이스 헤더는 슬라이스들을 포함하는 픽처에 대한 RPS의 시그널링을 위한 파라미터들을 포함한다. 유일한 예외는 IDR 슬라이스들에 대해 RPS가 시그널링되지 않는다는 점이다. 대신, RPS는 비어 있는 것으로 추론된다. IDR 픽처에 속하지 않는 I 슬라이스들의 경우, I 슬라이스들이 I 픽처에 속하더라도 RPS가 제공될 수 있다 이는 디코딩 순서에서 I 픽처에 선행한 픽처들에 기반하여 인터 예측을 사용하는 픽처들이 디코딩 순서에서 I 픽처 뒤에 있을 수 있기 때문이다. RPS 내의 픽처들의 수는 SPS에서 sps_max_dec_pic_buffering 신택스 엘리먼트에 의해 명시된 DPB 크기 제한을 초과하지 않을 것이다.
각각의 픽처는 출력 순서를 나타내는 POC 값과 연관된다. 슬라이스 헤더들은 POC LSB로도 또한 알려진 전체 POC 값의 최하위 비트들을 나타내는 고정 길이 코드워드(pic_order_cnt_lsb)를 포함한다. 코드워드의 길이는 SPS에서 시그널링되며, 4 비트 내지 16 비트일 수 있다. RPS 개념은 POC를 사용하여 참조 픽처들을 식별한다. 각각의 슬라이스 헤더는 슬라이스 헤더 자체적인 POC 값 외에도, RPS 내의 각각의 픽처의 POC 값들(또는 LSB들)의 SPS 코딩된 표현을 직접 포함하거나 상속한다.
각각의 픽처에 대한 RPS는 5개의 RPS 서브세트들로도 또한 지칭되는, 참조 픽처들의 5개의 서로 다른 리스트들로 구성된다. RefPicSetStCurrBefore는, 디코딩 순서와 출력 순서 모두에서 현재 픽처보다 앞서며, 현재 픽처의 인터 예측에 사용될 수 있는 모든 단기 참조 픽처들로 구성된다. RefPicSetStCurrAfter는, 디코딩 순서에서 현재 픽처보다 앞서며, 출력 순서에서 현재 픽처에 이어지고, 현재 픽처의 인터 예측에 사용될 수 있는 모든 단기 참조 픽처들로 구성된다. RefPicSetStFoll은 디코딩 순서에서 현재 픽처에 뒤따르는 픽처들 중 하나 이상의 픽처들의 인터 예측에 사용될 수 있고, 현재 픽처의 인터 예측에 사용되지 않는 모든 단기 참조 픽처들로 구성된다. RefPicSetLtCurr은 현재 픽처의 인터 예측에 사용될 수 있는 모든 장기 참조 픽처들로 구성된다. RefPicSetLtFoll은, 디코딩 순서에서 현재 픽처에 뒤따르는 픽처들 중 하나 이상의 픽처들의 인터 예측에 사용될 수 있고, 현재 픽처의 인터 예측에 사용되지 않는 모든 장기 참조 픽처들로 구성된다.
RPS는 서로 다른 타입들의 참조 픽처들; 현재 픽처보다 더 낮은 POC 값을 갖는 단기 참조 픽처들, 현재 픽처보다 더 높은 POC 값을 갖는 단기 참조 픽처들 및 장기 참조 픽처들에 대해 반복되는 최대 3개의 루프들을 사용하여 시그널링된다. 추가로, 참조 픽처가 현재 픽처에 의해 참조에 사용되는지(RefPicSetStCurrBefore, RefPicSetStCurrAfter 또는 RefPicSetLtCurr 리스트들 중 하나에 포함됨) 또는 사용되지 않는지(RefPicSetStFoll 또는 RefPicSetLtFoll 리스트들 중 하나에 포함됨)를 지시하는 플래그(used_by_curr_pic_X_flag)가 각각의 참조 픽처에 대해 송신된다.
도 4는 현재 픽처(B14)를 갖는 RPS(400)를 예시하는데, RPS(400)의 모든 서브세트들(402)에 엔트리들(예컨대, 픽처)을 갖는다. 도 4의 예에서, 현재 픽처(B14)는 5개의 서브세트들(402)(일명, RPS 서브세트들) 각각에 정확히 하나의 픽처를 포함한다. P8은 서브세트(402)에서 RefPicSetStCurrBefore로 지칭되는 픽처인데, 이는 그 픽처가 출력 순서에서 앞이고 B14에 의해 사용되기 때문이다. P12는 서브세트(402)에서 RefPicSetStCurrAfter로 지칭되는 픽처인데, 이는 그 픽처가 출력 순서에서 뒤이고 B14에 의해 사용되기 때문이다. P13은 서브세트(402)에서 RefPicSetStFoll로 지칭되는 픽처인데, 이는 그 픽처가 B14에 의해 사용되지 않는 단기 참조 픽처이기 때문이다(그러나 그 픽처는 B15에 의해 사용되기 때문에 DPB에 유지되어야 한다). P4는 서브세트(402)에서 RefPicSetLtCurr로 지칭되는 픽처인데, 이는 그 픽처가 B14에 의해 사용되는 장기 참조 픽처이기 때문이다. I0은 서브세트(402)에서 RefPicSetLtFoll로 지칭되는 픽처인데, 이는 그 픽처가 현재 픽처에 의해 사용되지 않는 장기 참조 픽처이기 때문이다(그러나 그 픽처는 B15에 의해 사용되기 때문에 DPB에 유지되어야 한다).
RPS(400)의 단기 부분은 슬라이스 헤더에 직접 포함될 수 있다. 대안으로, 슬라이스 헤더는 인덱스를 나타내는 신택스 엘리먼트만을 포함할 수 있는데, 이는 활성 SPS에서 송신된 RPS들의 미리 정의된 리스트를 참조한다. RPS(402)의 단기 부분은 2개의 서로 다른 방식들; 아래에서 설명되는 인터 RPS 또는 여기서 설명되는 인트라 RPS 중 어느 하나를 사용하여 시그널링될 수 있다. 인트라 RPS가 사용되는 경우, 참조 픽처들의 2개의 서로 다른 리스트들의 길이를 나타내는 num_negative_pics 및 num_positive_pics가 시그널링된다. 이러한 리스트들은 각각 현재 픽처와 비교하여 음의 POC 차와 양의 POC 차를 갖는 참조 픽처들을 포함한다. 이러한 리스트들의 각각의 엘리먼트는 리스트의 이전 엘리먼트에 대한 POC 값의 차에서 1을 뺀 값을 나타내는 가변 길이 코드로 인코딩된다. 각각의 리스트의 첫 번째 픽처의 경우, 시그널링은 현재 픽처의 POC 값에서 1을 뺀 값에 관련된다.
시퀀스 파라미터 세트 내의 순환하는 RPS들을 인코딩할 때, 시퀀스 파라미터 세트에서 이미 인코딩된 다른 RPS를 참조하여 하나의 RPS(예컨대, RPS(400))의 엘리먼트들을 인코딩하는 것이 가능하다. 이는 인터 RPS로 지칭된다. 시퀀스 파라미터 세트의 모든 RPS들이 동일한 네트워크 추상화 계층(NAL) 유닛이므로 이 방법과 연관된 오류 견고성 문제들이 없다. 인터 RPS 신택스는 이전에 디코딩된 픽처의 RPS로부터 현재 픽처의 RPS가 예측될 수 있다는 사실을 활용한다. 이는 현재 픽처의 모든 참조 픽처들이 이전 픽처의 참조 픽처들이거나 이전에 디코딩된 픽처 자체여야 하기 때문이다. 이러한 픽처들 중 어느 것이 참조 픽처들이어야 하고 현재 픽처의 예측에 사용되어야 하는지를 표시하는 것만이 필요하다. 따라서 신택스는: 예측자로서 사용할 RPS를 가리키는 인덱스, 현재 RPS의 델타 POC를 얻기 위해 예측자의 delta_POC에 추가될 delta_POC, 및 어떤 픽처들이 참조 픽처들인지 그리고 그 픽처들이 향후 픽처들의 예측에만 사용되는지 여부를 지시할 한 세트의 지시자들을 포함한다. 일 실시예에서, 델타 POC는 현재 참조 픽처와 다른(예컨대, 이전) 참조 픽처 사이의 POC 값의 차이를 의미한다.
장기 참조 픽처들의 사용을 활용하고자 하는 인코더들은 SPS 신택스 엘리먼트(long_term_ref_pics_present_flag)를 1로 설정해야 한다. 그 다음, 장기 참조 픽처들은 각각의 장기 픽처의 전체 POC 값의 최하위 비트들을 나타내는 고정 길이 코드워드들(poc_lsb_lt)에 의해 슬라이스 헤더에서 시그널링될 수 있다. 각각의 poc_lsb_lt는 특정 장기 픽처에 대해 시그널링된 pic_order_cnt_lsb 코드워드의 사본이다. SPS의 한 세트의 장기 픽처들을 POC LSB 값들의 리스트로서 시그널링하는 것도 또한 가능하다. 그 다음, 장기 픽처에 대한 POC LSB는 슬라이스 헤더에서 이 리스트에 대한 인덱스로서 시그널링될 수 있다.
delta_poc_msb_cycle_lt_minus1 신택스 엘리먼트가 추가로 시그널링되어, 현재 픽처에 상대적인 장기 참조 픽처의 전체 POC 거리의 계산을 가능하게 할 수 있다. RPS의 임의의 다른 참조 픽처와 동일한 POC LSB 값을 갖는 각각의 장기 참조 픽처에 대해 코드워드(delta_poc_msb_cycle_lt_minus1)가 시그널링되는 것이 요구된다.
HEVC에서의 참조 픽처 마킹이 논의된다.
픽처 디코딩 전에, 통상적으로 DPB에 다수의 픽처들이 존재할 것이다. 픽처들 중 일부는 예측에 이용 가능할 수 있고, 이에 따라 "참조에 사용됨"으로 마킹될 수 있다. 다른 픽처들은 예측에 이용 가능하지 않을 수 있지만, 출력을 대기하고 있을 수 있으며, 이에 따라 "참조에 사용되지 않음"으로 마킹될 수 있다. 슬라이스 헤더가 파싱되면, 슬라이스 데이터가 디코딩되기 전에 픽처 마킹 프로세스가 실행된다. DPB에 존재하며 "참조에 사용됨"으로 마킹되지만 RPS에 포함되지 않는 픽처들은 "참조에 사용되지 않음"으로 마킹된다. DPB에는 존재하지 않지만 참조 픽처 세트에 포함되는 픽처들은, used_by_curr_pic_X_flag가 0과 같을 때 무시된다. 그러나 used_by_curr_pic_X_flag가 대신 1과 같을 때, 이 참조 픽처는 현재 픽처에서의 예측에 사용되는 것으로 의도되었지만 누락되어 있다. 그러면, 의도하지 않은 픽처 손실이 추론되고 디코더는 적절한 조치들을 취해야 한다.
현재 픽처를 디코딩한 후, 이는 "단기 참조에 사용됨"으로 마킹된다.
HEVC에서의 참조 픽처 리스트 구성이 논의된다.
HEVC에서, 인터 예측이라는 용어는 현재 디코딩된 픽처 이외의 참조 픽처들의 데이터 엘리먼트들(예컨대, 샘플 값들 또는 모션 벡터들)로부터 도출된 예측을 나타내는 데 사용된다. AVC에서와 마찬가지로, 다수의 참조 픽처들로부터 픽처가 예측될 수 있다. 인터 예측에 사용되는 참조 픽처들은 하나 이상의 참조 픽처 리스트들로 조직된다. 참조 인덱스는 리스트 내의 참조 픽처들 중 어느 것이 예측 신호를 생성하는 데 사용되어야 하는지를 식별한다.
단일 참조 픽처 리스트인 리스트 0이 P 슬라이스에 사용되고, 2개의 참조 픽처 리스트들인 리스트 0 및 리스트 1이 B 슬라이스들에 사용된다. AVC와 유사하게, HEVC에서의 참조 픽처 리스트 구성은 참조 픽처 리스트 초기화 및 참조 픽처 리스트 수정을 포함한다.
AVC에서는, 리스트 0에 대한 초기화 프로세스가 P 슬라이스(이 경우 디코딩 순서가 사용됨) 및 B 슬라이스(이 경우 출력 순서가 사용됨)에 대해 서로 다르다. HEVC에서는, 두 경우들 모두에 출력 순서가 사용된다.
참조 픽처 리스트 초기화는 3개의 RPS 서브세트들: RefPicSetStCurrBefore, RefPicSetStCurrAfter 및 RefPicSetLtCurr에 기초하여 (슬라이스가 B 슬라이스라면) 디폴트 리스트 0 및 리스트 1을 생성한다. 현재 픽처까지의 POC 거리의 오름차순으로 이전(이후) 출력 순서를 가진 단기 픽처들이 먼저 리스트 0(리스트 1)에 삽입된 다음, 현재 픽처까지의 POC 거리의 오름차순으로 이후(이전) 출력 순서를 가진 단기 픽처들이 리스트 0(리스트 1)에 삽입되고, 마지막으로, 장기 픽처들이 끝에 삽입된다. RPS에 관해서는, 리스트 0의 경우, RefPicSetStCurrBefore의 엔트리들이 초기 리스트에 삽입되고, 그 뒤에 RefPicSetStCurrAfter의 엔트리들이 삽입된다. 그 후, 이용 가능하다면, RefPicSetLtCurr의 엔트리들이 첨부된다.
HEVC에서는, 리스트 내의 엔트리들의 수가 (픽처 파라미터 세트 또는 슬라이스 헤더에서 시그널링되는) 활성 참조 픽처들의 목표 개수보다 적은 경우, 상기 프로세스가 반복된다(참조 픽처 리스트에 이미 추가된 참조 픽처들이 또 추가된다). 엔트리들의 수가 목표 개수보다 더 많은 경우, 리스트가 잘린다.
참조 픽처 리스트가 초기화된 후, 참조 픽처는 참조 픽처 리스트 수정 커맨드들에 기초하여, 하나의 특정 참조 픽처가 리스트 내의 하나의 포지션보다 많은 포지션에서 나타날 수 있는 경우를 포함하여, 현재 픽처에 대한 참조 픽처들이 임의의 순서로 배열될 수 있도록 수정될 수 있다. 리스트 수정들의 존재 여부를 지시하는 플래그가 1로 설정되면, (참조 픽처 리스트 내의 엔트리들의 목표 개수와 동일한) 고정된 수의 커맨드들이 시그널링되고, 각각의 커맨드가 참조 픽처 리스트에 대해 하나의 엔트리를 삽입한다. 커맨드에서 RPS 시그널링으로부터 도출된 현재 픽처에 대한 참조 픽처들의 리스트에 대한 인덱스에 의해 참조 픽처가 식별된다. 이것은 H.264/AVC에서의 참조 픽처 리스트 수정과는 다른데, 여기서는 (frame_num 신택스 엘리먼트로부터 도출된) 픽처 번호 또는 장기 참조 픽처 인덱스에 의해 픽처가 식별되고, 예컨대 초기 리스트의 처음 2개의 엔트리들을 교환하거나 초기 리스트의 시작 부분에 하나의 엔트리를 삽입하고 다른 엔트리들을 시프트(shift)하기 위해 더 적은 커맨드들이 필요한 것이 가능하다.
참조 픽처 리스트는 현재 픽처보다 큰 TemporalId를 가진 어떠한 참조 픽처도 포함하는 것이 허용되지 않는다. HEVC 비트스트림은 여러 시간 하위 계층들로 구성될 수도 있다. 각각의 NAL 유닛은 (temporal_id_plus1 - 1과 같은) TemporalId로 나타낸 바와 같이, 특정 하위 계층에 속한다.
참조 픽처 리스트들에 직접 기반한 참조 픽처 관리가 논의된다.
http://phenix.int-evry.fr/jct/doc_end_user/documents/7_Geneva/wg11/ JCTVC-G643-v3.zip에서 공개적으로 이용 가능한 JCT-VC 문헌 JCTVC-G643은 DPB 내의 참조 픽처들의 관리를 위해 3개의 참조 픽처 리스트들, 즉 참조 픽처 리스트 0, 참조 픽처 리스트 1뿐만 아니라, 유휴 참조 픽처 리스트를 직접 사용하는 접근 방식을 포함한다. 이 접근 방식은 1) AVC에서의 슬라이딩 윈도우 및 MMCO 프로세스들뿐만 아니라 참조 픽처 리스트 초기화 및 수정 프로세스들, 또는 2) HEVC에서의 참조 픽처 세트뿐만 아니라 참조 픽처 리스트 초기화 및 수정 프로세스들을 이용할 필요성을 피하며, 이는 시그널링 및 디코딩을 단순화한다.
http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/12_Macao/wg11/ JVET-L0112-v4.zip에서 공개적으로 이용 가능한 JVET 문헌 JVET-L0112는 참조 픽처 리스트들에 직접 기반한 참조 픽처 관리를 위한 다른 접근 방식을 설명한다. JCTVC-G643에서 제안된 것과 같은 3개의 참조 픽처 리스트들을 사용하는 대신에, JVET-L0112에서 제안된 접근 방식은 단지 2개의 참조 픽처 리스트들: 참조 픽처 리스트 0 및 참조 픽처 리스트 1만을 사용한다. 각각의 참조 픽처 리스트는 연관된 최종 참조 픽처 리스트를 구성하기 위한 참조 픽처들과 연관된 정보를 포함한다(예컨대, 참조 픽처 리스트 0 내의 참조 픽처들은 최종 참조 픽처 리스트 0을 구성하기 위한 것이고, 참조 픽처 리스트 1 내의 참조 픽처들은 최종 참조 픽처 리스트 1을 구성하기 위한 것이다). 각각의 참조 픽처 리스트는 활성이 아닌(예컨대, 현재 픽처에는 필요하지 않지만 미래의 픽처들에는 필요할 수 있는) 참조 픽처들을 포함할 수 있다.
HEVC에서의 픽처 분할 방식들이 논의된다.
HEVC는 4개의 상이한 픽처 분할 방식들, 즉 정규 슬라이스들, 종속 슬라이스들, 타일(tile)들 및 파면 병렬 처리(WPP: Wavefront Parallel Processing)를 포함하며, 이들은 최대 전송 단위(MTU: Maximum Transfer Unit) 크기 매칭, 병렬 처리 및 감소된 종단간 지연에 적용될 수 있다.
정규 슬라이스들은 H.264/AVC에서와 유사하다. 각각의 정규 슬라이스는 그 자신의 NAL 유닛에 캡슐화(encapsulate)되고, 픽처 내 예측(인트라 샘플 예측, 모션 정보 예측, 코딩 모드 예측) 및 슬라이스 경계들에 걸친 엔트로피 코딩 의존성은 비활성화된다. 따라서 정규 슬라이스는 (루프 필터링 동작들로 인해 여전히 상호 의존성들을 가질 수 있지만) 동일한 픽처 내의 다른 정규 슬라이스들과 독립적으로 재구성될 수 있다.
정규 슬라이스는 H.264/AVC에서, 사실상 동일한 형태로 또한 이용 가능한, 병렬화를 위해 사용될 수 있는 유일한 도구이다. 정규 슬라이스 기반 병렬화는 (통상적으로 픽처 내 예측으로 인한 코어 간(inter-core) 또는 프로세서 간 데이터 공유보다 훨씬 더 무거운, 예측 코딩된 픽처를 디코딩할 때 모션 보상을 위한 프로세서 간 또는 코어 간 데이터 공유를 제외하고) 많은 프로세서 간 또는 코어 간 통신을 필요로 하지 않는다. 그러나 동일한 이유로, 정규 슬라이스들의 사용은 슬라이스 헤더의 비트 비용으로 인해 그리고 슬라이스 경계들에 걸친 예측의 결여로 인해 상당한 코딩 오버헤드(header)를 초래할 수 있다. 추가로, (아래에 언급되는 다른 도구들과는 달리) 정규 슬라이스들은 또한, 정규 슬라이스들의 픽처 내 독립성으로 인해, 그리고 각각의 정규 슬라이스가 각자의 NAL 유닛에 캡슐화되기 때문에, MTU 크기 요건들과 매칭하기 위한 비트스트림 분할을 위한 핵심 메커니즘으로서 기능한다. 많은 경우들에, 병렬화의 목표 및 MTU 크기 매칭의 목표는 픽처의 슬라이스 레이아웃에 대한 모순되는 요구들을 제기한다. 이러한 상황의 실현은 아래에서 언급되는 병렬화 도구들의 개발로 이어졌다.
종속 슬라이스들은 짧은 슬라이스 헤더들을 가지며, 임의의 픽처 내 예측을 중단시키지 않으면서 트리 블록 경계들에서 비트스트림의 분할을 가능하게 한다. 기본적으로, 종속 슬라이스들은 전체 정규 슬라이스의 인코딩이 완료되기 전에 정규 슬라이스의 일부가 송신될 수 있게 함으로써 감소된 종단간 지연을 제공하도록 다수의 NAL 유닛들로의 정규 슬라이스들의 프래그먼트화를 제공한다.
WPP에서, 픽처는 코딩 트리 블록(CTB)들의 단일 행들로 분할된다. 엔트로피 디코딩 및 예측은 다른 분할들에서 CTB들로부터의 데이터를 사용하도록 허용된다. CTB 행들의 병렬 디코딩을 통해 병렬 처리가 가능하며, 여기서 CTB 행의 디코딩의 시작은 2개의 CTB들만큼 지연되어, 대상 CTB가 디코딩되기 전에 대상 CTB의 위와 우측에 있는 CTB와 관련된 데이터가 이용 가능함을 보장한다. (그래픽으로 표현될 때 파면처럼 나타나는) 이러한 엇갈린 시작을 사용하면, 픽처가 CTB 행들을 포함하는 만큼의 프로세서들/코어들까지 병렬화가 가능하다. 픽처 내의 이웃하는 트리 블록 행들 사이의 픽처 내 예측이 허용되기 때문에, 픽처 내 예측을 가능하게 하는 데 요구되는 프로세서 간/코어 간 통신이 실질적일 수 있다. WPP 분할은 이것이 적용되지 않을 때와 비교하여 추가 NAL 유닛들의 생성을 야기하지 않는다. 따라서 WPP는 MTU 크기 매칭을 위한 도구가 아니다. 그러나 MTU 크기 매칭이 요구된다면, 특정 코딩 오버헤드와 함께 정규 슬라이스들이 WPP에 사용될 수 있다.
타일들은 픽처를 타일 열들 및 행들로 분할하는 수평 및 수직 경계들을 정의한다. CTB들의 스캔 순서는 픽처의 타일 래스터 스캔의 순서로 다음 타일의 최상부 좌측 CTB를 디코딩하기 전에 (타일의 CTB 래스터 스캔의 순서로) 타일 내에서 로컬이 되도록 변경된다. 정규 슬라이스들과 유사하게, 타일들은 픽처 내 예측 종속성들뿐만 아니라 엔트로피 디코딩 종속성들을 중단시킨다. 그러나 타일들은 (이와 관련하여 WPP와 동일한) 개별적인 NAL 유닛들에 포함될 필요가 없고; 그러므로 타일들은 MTU 크기 매칭에 사용될 수 없다. 각각의 타일은 하나의 프로세서/코어에 의해 처리될 수 있고, 이웃하는 타일들을 디코딩하는 처리 유닛들 간의 픽처 내 예측을 위해 요구되는 프로세서 간/코어 간 통신은, 슬라이스가 하나보다 많은 타일에 걸쳐 있는 경우들에는 공유된 슬라이스 헤더를 전달하는 것으로, 그리고 재구성된 샘플들 및 메타데이터의 루프 필터링 관련 공유로 제한된다. 하나보다 많은 타일 또는 WPP 세그먼트(segment)가 슬라이스에 포함될 때, 슬라이스의 첫 번째 타일 또는 WPP 세그먼트 이외의 각각의 타일 또는 WPP 세그먼트에 대한 진입점 바이트 오프셋이 슬라이스 헤더에서 시그널링된다.
단순화를 위해, HEVC에서는 4개의 상이한 픽처 분할 방식들의 적용에 대한 제한들이 명시되었다. 주어진 코딩된 비디오 시퀀스는 HEVC에 명시된 프로파일들 대부분에 대한 타일들과 파면들 모두를 포함할 수 없다. 각각의 슬라이스 및 타일에 대해, 다음 조건들 중 하나 또는 둘 다가 충족되어야 한다: 1) 슬라이스 내의 모든 코딩된 트리 블록들이 동일한 타일에 속하고; 2) 타일 내의 모든 코딩된 트리 블록들이 동일한 슬라이스에 속한다. 마지막으로, 파면 세그먼트는 정확히 하나의 CTB 행을 포함하고, WPP가 사용 중일 때, 슬라이스가 CTB 행 내에서 시작한다면, 이는 동일한 CTB 행에서 종료되어야 한다.
모션 제약 타일 세트(MTCS: motion-constrained tile set)들이 논의된다.
HEVC에 대한 최근의 보정안은 본 명세서에서 공개적으로 이용 가능한, 2017년 10월 24일자 JCT-VC 출력 문헌 JCTVC-AC1005(J. Boyce, A. Ramasubramonian, R. Skupin, G. J. Sullivan, A. Tourapis, Y.-K. Wang(편집자들)) "HEVC Additional Supplemental Enhancement Information (Draft 4)": http://phenix.int-evry.fr/jct/doc_end_user/documents/29_Macau/ wg11/JCTVC-AC1005-v2.zip에 명시되어 있다. 이러한 보정안이 포함되면, HEVC는 3개의 MCTS 관련 부가 확장 정보(SEI: supplemental enhancement information) 메시지들, 즉 시간적 MCTS들의 SEI 메시지, MCTS들의 추출 정보 세트 SEI 메시지, 및 MCTS들의 추출 정보 네스팅(nesting) SEI 메시지를 명시한다.
시간적 MCTS들의 SEI 메시지는 비트스트림 내의 MCTS들의 존재를 지시하고 MCTS들을 시그널링한다. 각각의 MCTS에 대해, 모션 벡터들은 MCTS 내부의 전체 샘플 위치들 및 보간을 위해 MCTS 내부의 전체 샘플 위치들만을 요구하는 부분 샘플 위치들을 가리키도록 제한되며, MCTS 외부의 블록들로부터 도출된 시간적 모션 벡터 예측을 위한 모션 벡터 후보들의 사용은 허용되지 않는다. 이러한 방식으로, 각각의 MCTS는 MCTS에 포함되지 않는 타일들의 존재 없이 독립적으로 디코딩될 수 있다.
MCTS들의 추출 정보 세트들의 SEI 메시지는, (SEI 메시지의 시맨틱(semantic)들의 일부로서 명시된) MCTS 서브 비트스트림 추출에서 MCTS 세트에 대한 일치하는 비트스트림을 생성하는 데 사용될 수 있는 보완 정보를 제공한다. 정보는 다수의 추출 정보 세트들을 포함하며, 이들 각각은 다수의 MCTS 세트들을 정의하고, MCTS 서브 비트스트림 추출 프로세스 동안 사용될 대체 VPS들, SPS들 및 PPS들의 RBSP 바이트들을 포함한다. MCTS 서브 비트스트림 추출 프로세스에 따라 서브 비트스트림을 추출할 때, 파라미터 세트들(VPS들, SPS들 및 PPS들)이 재기록되거나 교체될 필요가 있으며, (first_slice_segment_in_pic_flag 및 slice_segment_address를 포함하는) 슬라이스 어드레스 관련 신택스 엘리먼트들 중 하나 또는 전부가 통상적으로 상이한 값들을 가질 필요가 있을 것이므로, 슬라이스 헤더들은 약간 업데이트될 필요가 있다.
타일 그룹들이 논의된다.
2018년 10월, Macao에서의 제12차 JVET 회의 이후, 슬라이스의 개념을 타일 그룹으로 대체하는 것이 합의되었다. 그러나 본 개시의 시점에, VVC의 최신 초안은 합의된 타일 그룹 개념을 아직 포함하지 않았다. http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/12_Macao/wg11/JVET-L0686-v2.zip에서 공개적으로 이용 가능한 기고문인 JVET-L0686은 합의된 타일 그룹의 텍스트를 포함한다. 제12차 JVET 회의로부터의 합의된 타일 그룹은 하나 이상의 타일을 타일 그룹으로 그룹화하는 것을 허용한다. 타일 그룹에 속하는 타일들은 픽처의 래스터 스캔 순서에서 연속적이다. 본 개시내용의 나머지에 대해, JVET-L0686에서 설명된 타일 그룹은 래스터 스캔 타일 그룹으로 지칭된다.
http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/12_Macao/wg11/ JVET-L0114-v1.zip에서 공개적으로 이용 가능한 기고문인 JVET-L0114는 타일 그룹에 대한 다른 접근 방식을 설명한다. 본 명세서에서 설명되는 타일 그룹은 타일 그룹으로 함께 그룹화되는 타일들이 픽처 내에서 직사각형 형상의 영역을 형성하도록 제한된다. 본 개시내용의 나머지에 대해, JVET-L0114에서 설명된 타일 그룹은 직사각형 타일 그룹으로 지칭된다.
360° 비디오 애플리케이션에서의 뷰포트(viewport) 의존 사용 사례가 논의된다.
360도(360°) 비디오 애플리케이션들은 전체 구의 일부만을(그리고 결과적으로, 전체 픽처의 서브세트만을) 디스플레이한다. 비트 레이트를 감소시키기 위해, DASH를 통한 뷰포트 의존 360° 전달이라 하는 사용 사례 시나리오가 DASH를 통해 360° 비디오를 전달하는 데 사용된다. 사용 사례 시나리오는 다음과 같다.
(예컨대, 큐브 맵 투사(CMP: cubemap projection)를 사용하여) 전체 구/투사된 픽처를 다수의 MCTS들로 분할한다.
상이한 공간 분해능들 또는 품질들로 2개 이상의 비트스트림들을 인코딩한다.
디코더에 전달할 때, 더 높은 분해능/품질 비트스트림으로부터의 MCTS(들)는 뷰포트(예컨대, 전면 뷰포트)를 디스플레이하는 데 사용되고, 더 낮은 분해능/품질 비트스트림들로부터의 MCTS들은 나머지를 디스플레이하는 데 사용된다. 이러한 MCTS들은 특정 방식으로 패킹된 다음, 수신기에 송신되어 디코딩된다.
사용자가 보는 뷰포트가 양호한 시청 경험을 제공하도록 고분해능/품질의 MCTS에 의해 표현된다는 것이 예상된다. 사용자가 자신의 머리를 돌려 다른 뷰포트(예컨대, 좌측 또는 우측 뷰포트)를 볼 때, 시스템이 그 뷰포트에 대한 고분해능/품질의 MCTS들을 페치하고 있는 짧은 기간 동안 더 낮은 분해능/품질의 뷰포트로부터 디스플레이된 콘텐츠가 나올 것이다.
사용자가 자신의 머리를 돌려 다른 뷰포트를 볼 때, 사용자가 자신의 머리를 돌릴 때의 시간과 뷰포트의 더 높은 분해능/품질 표현이 보이는 시간 사이에 지연이 있다. 이러한 지연은 시스템이 그 뷰포트에 대해 더 높은 분해능/품질의 MCTS들을 얼마나 빨리 페치할 수 있는지에 의존하며, 이는 결국 IRAP 기간(예컨대, 2개의 IRAP들의 발생 간의 간격)에 좌우되는데, 이는 새로운 뷰포트의 MCTS들이 단지 IRAP 픽처에서부터 시작해서만 디코딩 가능하기 때문이다. IRAP 기간이 1초마다 코딩된다면, 다음이 적용된다:
지연에 대한 최상의 경우의 시나리오는, 시스템이 새로운 세그먼트/IRAP 기간을 페치하기 시작하기 직전에 사용자가 자신의 머리를 돌려 새로운 뷰포트를 보는 경우의 네트워크 왕복 지연과 동일하다. 이 시나리오에서, 시스템은 새로운 뷰포트에 대해 더 높은 분해능/품질의 MCTS들을 즉시 요청할 수 있을 것이다. 이에 따라, 유일한 지연은 네트워크 왕복 지연(대개 스트리밍 시스템에서는 0과 같게 설정될 수 없고, 센서 지연은 작고 무시할 만하지만, 최소 버퍼링 지연이 0으로 설정될 수 있다고 가정하면, 페치 요청의 지연 + 요청된 MCTS들의 송신 시간)이다. 네트워크 왕복 지연은 예를 들어, 약 200밀리초(㎳)일 수 있다.
지연에 대한 최악의 경우의 시나리오는, 시스템이 이미 다음 세그먼트에 대한 요청을 한 직후에 사용자가 자신의 머리를 돌려 새로운 뷰포트를 보는 경우의 IRAP 기간 + 네트워크 왕복 지연이다.
위의 최악의 경우의 시나리오를 개선하기 위해, IRAP 기간이 더 짧아지도록, 보다 빈번한 IRAP 픽처들로 비트스트림들을 인코딩하여, 전체 지연을 감소시킬 수 있다. 그러나 이는 결과적으로, 압축 효율이 낮아질 것이므로 대역폭 요건을 증가시킨다.
기존의 IRAP 개념의 문제점들이 논의된다.
HEVC 및 VVC의 최신 개발까지, IRAP 개념은 픽처 레벨 개념이다. 이는, 인트라 랜덤 액세스 포인트와 연관된 코딩된 비디오 비트스트림에서 가장 작은 객체가 픽처임을 의미한다. 이는 IRAP 개념이 서브픽처 레벨에서 적용 가능하다면 유리할 것이다. 서브픽처 레벨에서 IRAP를 갖는 것은 위에서 설명된 바와 같이, DASH를 통한 360° 전달에서 최악의 경우의 시나리오를 감소시키는 것을 도울 것이다. 그러나 다음의 문제들로 인해 기존의 비디오 코딩 규격들(예컨대, HEVC, VVC 등)을 이용하여 이러한 방식으로 IRAP 개념을 개선하는 것은 어렵다.
일반적으로, IRAP 픽처에 대한 시그널링, 도출 프로세스 및 디코딩 프로세스는 비-IRAP 픽처에 대한 것들과 상이하다. 추가로, 많은 양상들이 픽처 레벨에서 정의된다. 차이들 중 일부는 다음과 같다.
POC 도출과 관련하여, POC MSB는 IDR 픽처들에 대해 항상 0으로 설정되는 반면, POC MSB는 다른 픽처 타입들에 대해 이전의 키 픽처로부터 도출된다.
참조 픽처 관리와 관련하여, IDR 픽처가 수신될 때 IDR 픽처들에 대해 어떠한 정보도 시그널링될 필요가 없다. 디코더는 단순히 DPB 내의 모든 참조 픽처들을 "참조에 사용되지 않음"으로 마킹한다. 다른 한편으로, 다른 픽처 타입들의 경우, 참조 픽처 관리를 보조하기 위한 정보(예컨대, RPS, RPL 등)가 시그널링될 필요가 있다.
원래의 비트스트림으로부터 서브픽처가 추출되어 서브 비트스트림 추출 프로세스를 통해 새로운 비트스트림을 형성할 수 있다. 서브 비트스트림 추출 프로세스 이전 및 이후의 동일한 서브픽처의 시그널링, 도출 및 디코딩 프로세스가 변경되지 않고 동일한 디코딩/재구성 결과를 생성하는 것이 바람직하다.
현재 코딩 기술들의 단점들 중 하나는 IRAP 픽처들을 수반한다. IRAP 픽처들은 인트라 코딩된다. 이에 따라, 코더/디코더(일명, 코덱)는 참조 픽처 리스트(RPL)를 이용하지 않고 IRAP 픽처들을 코딩한다. 그 결과, 현재 코딩 기술들에서 사용되는 신택스는 IRAP 픽처에 접할 때면 언제든 RPL을 검색하지 않도록 코덱에 명령한다.
가상 현실(VR: virtual reality) 코딩에서는, 픽처를 서브픽처들로 분할하는 것이 바람직할 수 있으며, 여기서 하나의 서브픽처는 IRAP 서브픽처이고 다른 서브픽처는 비-IRAP 서브픽처이다. 픽처가 이런 식으로 분할되었을 때, 픽처는 혼합된 IRAP 픽처로 지칭될 수 있다. 그러나 혼합된 IRAP 픽처들은 현재 코딩 기술들에 대한 문제를 제시한다. 실제로, 현재 신택스는 IRAP 서브픽처의 존재로 인해 코덱이 전체 혼합된 IRAP 픽처에 대한 임의의 RPL을 무시할 것을 요구한다. RPL이 무시되기 때문에, 코덱은, 인터 코딩된 픽처로서 적절한 코딩을 위해 RPL에 의존하는 비-IRAP 서브픽처를 코딩할 수 없다.
본 명세서에서는 IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들이 RPL을 참조 및 이용하는 것을 허용하는 비디오 코딩 기술들이 개시된다. 따라서 혼합된 IRAP 픽처가 IRAP 서브픽처를 포함하더라도, 코덱은 RPL을 참조 및 이용하여 비-IRAP 서브픽처를 코딩하는 것이 허용된다. 이는 VR 코딩 애플리케이션들에서 특히 유리하지만, 그 개념은 다른 영역들에도 역시 적용될 수 있다.
도 5는 VR 코딩 애플리케이션들에 사용하기에 적합한 픽처(500)의 일 실시예의 개략도이다. 도시된 바와 같이, 픽처(500)는 제1 서브픽처(502) 및 제2 서브픽처(504)로 분할되었다. 일 실시예에서, 제1 서브픽처(502)는 VR 애플리케이션들에서 사용되는 뷰포트에 대응한다. 뷰포트는 VR 애플리케이션 또는 프로그램의 사용자가 현재 보고 있는 픽처의 일부이다. 일 실시예에서, 제2 서브픽처(504)는 픽처(500)의 나머지 부분을 포함한다. 즉, 제2 서브픽처(504)는 뷰포트 외부의 픽처(500)의 부분이다. 일 실시예에서, 제1 서브픽처(502)는 IRAP 픽처이고, 제2 서브픽처(504)는 비트스트림의 특정 시점(t)에서의 비-IRAP 픽처이다. 이에 따라, 픽처(500)는 t 시점에 혼합된 IRAP 픽처로 지칭될 수 있다.
도 6은 도 5의 픽처(500)에 대응하는 비디오 비트스트림(600)의 일 실시예의 개략도이다. 본 명세서에서 사용되는 바와 같이, 비디오 비트스트림(600)은 또한 코딩된 비디오 비트스트림, 비트스트림 또는 이들의 변형들로 지칭될 수 있다. 도 6의 픽처(500)는 (굵은 검정색 직사각형으로 표현된) 단일 NAL 유닛 내에 포함되거나 여러 NAL 유닛들 내에 포함될 수 있다.
도 6에 도시된 바와 같이, 비트스트림(600)은 제1 서브 비트스트림(602) 및 제2 서브 비트스트림(604)으로 분할되었다. 제1 서브 비트스트림(602)은 제1 서브픽처(502)에 대응하고, 제2 서브 비트스트림(604)은 제2 서브픽처(504)에 대응한다. 제1 서브 비트스트림(602)은 이 예에서 뷰포트인 제1 서브픽처(502)에 대응하기 때문에, 제1 서브 비트스트림(602)은 제2 서브 비트스트림(604)보다 더 많은 IRAP 서브픽처들을 포함한다. IRAP 픽처는 코덱이 비트스트림(600) 내의 해당 위치에서 디코딩을 시작하도록 허용한다. 제1 서브 비트스트림(602)이 여러 IRAP 픽처들을 포함하기 때문에, 디코더는 다양한 상이한 위치들에서 제1 서브픽처(502)를 디코딩하기 시작할 수 있다. IRAP 픽처들의 예들은 순간 디코더 리프레시(IDR) 픽처들, 클린 랜덤 액세스(CRA) 픽처들 및 브로큰 링크 액세스(BLA) 픽처들을 포함한다.
본 명세서에 개시된 실시예들에 따르면, 디코더(예컨대, 비디오 디코더(30))가 디코딩 프로세스 동안 비트스트림(600)에서 픽처(500)를 접할 때, 디코더는 IRAP 서브픽처(예컨대, 제1 서브픽처(502))의 존재로 인해 더는 전체 혼합된 IRAP 픽처(예컨대, 픽처(500))에 대한 임의의 RPL을 무시하도록 명령을 받지 않는다. 따라서 혼합된 IRAP 픽처가 IRAP 서브픽처를 포함하더라도, 디코더는 비-IRAP 서브픽처(예컨대, 제2 서브픽처(504))를 디코딩하기 위해 RPL을 참조 및 이용하는 것이 허용된다. 즉, IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들은 RPL을 참조 및 이용하는 것이 허용된다. 이 때문에, VR 애플리케이션들에서 유리한 혼합된 IRAP 픽처들이 가능하다.
일 실시예에서, 비트스트림(예컨대, 비트스트림(600))이 혼합된 IRAP 픽처들 중 임의의 픽처(예컨대, 픽처(500))를 포함하는지 여부를 디코더(예컨대, 비디오 디코더(30))에 지시하기 위해 인코더(예컨대, 비디오 인코더(20))에 의해 플래그가 시그널링될 수 있다. 플래그는 시퀀스 파라미터 세트(SPS), 픽처 파라미터 세트(PPS)에서, 또는 비트스트림의 다른 파라미터 세트에서 시그널링될 수 있다. 일 실시예에서, 플래그는 sps_mixed_tile_groups_in_pic_flag로 지정된다.
일 실시예에서, 제1 서브픽처(502) 및 제2 서브픽처(504)는 타일 그룹으로 지칭될 수 있다. 일 실시예에서, RPL은 각각의 타일 그룹의 디코딩의 시작 시에 해당 타일 그룹에 대한 NAL 유닛 타입에 관계없이 구성된다. RPL은 예를 들어, RPL 접근 방식에 대한 RefPicList[0] 및 RefPicList[1] 또는 참조 픽처 세트(RPS) 접근 방식에 대한 RefPicList0[] 및 RefPicList1[]을 포함할 수 있다. 인터 예측 동작을 위한 참조 픽처들을 포함하는 유사한 리스트들이 또한 이용될 수 있다.
도 7은 비디오 디코더(예컨대, 비디오 디코더(30))에 의해 구현되는, 코딩된 비디오 비트스트림(예컨대, 비트스트림(600))을 디코딩하는 방법(700)의 일 실시예이다. 이 방법(700)은 디코딩된 비트스트림이 비디오 인코더(예컨대, 비디오 인코더(20))로부터 직접 또는 간접적으로 수신된 후에 수행될 수 있다. 이 방법(700)은, IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들이 RPL을 참조 및 이용하는 것이 허용되기 때문에, 디코딩 프로세스를 개선한다(예컨대, 디코딩 프로세스를 종래의 디코딩 프로세스들보다 더 효율적이고 더 빨라지게 하는 등을 한다). 이 때문에, VR 애플리케이션들에서 유리한 혼합된 IRAP 픽처들이 가능하다. 따라서 실질적인 문제로서, 코덱의 성능이 개선되고, 이는 더 양호한 사용자 경험으로 이어진다.
블록(702)에서, 비디오 디코더는 제1 서브픽처(예컨대, 서브픽처(502)) 및 제2 서브픽처(예컨대, 서브픽처(504))를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP) 픽처(예컨대, 픽처(500))를 수신한다. 일 실시예에서, 제1 서브픽처는 IRAP 픽처이고, 제2 서브픽처는 비-IRAP 서브픽처이다. 일 실시예에서, 혼합된 IRAP 픽처는 제1 서브 비트스트림(예컨대, 제1 서브 비트스트림(602)) 및 제2 서브 비트스트림(예컨대, 제2 서브 비트스트림(604))을 포함하는 분할된 비트스트림에서 수신된다. 일 실시예에서, IRAP 픽처는 순간 디코더 리프레시(IDR) 픽처이다. 일 실시예에서, 혼합된 IRAP 픽처는 단일 네트워크 액세스 계층(NAL: Network Access Layer) 유닛에 포함된다.
블록(704)에서, 비디오 디코더는 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL)를 수신한다. 적어도 하나의 IRAP 픽처를 포함하는 혼합된 IRAP 픽처에도 불구하고 비디오 디코더에 의해 RPL이 수신되거나 다른 식으로 획득된다.
블록(706)에서, 비디오 디코더는 RPL을 사용하여 제2 서브픽처를 디코딩한다. 블록(708)에서, 비디오 디코더는 디코딩된 제2 서브픽처에 기초하여 이미지를 생성한다. 일 실시예에서, 전자 디바이스(예컨대, 스마트폰, 태블릿, 랩톱, 개인용 컴퓨터 등)의 디스플레이 또는 화면 상에서 사용자에게 이미지가 디스플레이될 수 있다.
일 실시예에서, 이 방법(700)은 비트스트림에서 플래그를 수신하는 단계를 더 포함한다. 플래그는 비트스트림이 혼합된 IRAP 픽처를 포함하는지 여부를 지시한다. 일 실시예에서, 플래그는 SPS, PPS 또는 비트스트림의 다른 부분에서 시그널링된다.
도 8은 비디오 인코더(예컨대, 비디오 인코더(20))에 의해 구현되는 비디오 비트스트림(예컨대, 비트스트림(500))을 인코딩하는 방법(800)의 일 실시예이다. 이 방법(800)은 (예컨대, 비디오로부터의) 픽처가 비디오 비트스트림으로 인코딩된 다음 비디오 디코더(예컨대, 비디오 디코더(30))를 향해 전송될 때 수행될 수 있다. 이 방법(800)은, IRAP 픽처들 및 구체적으로는 혼합된 IRAP 픽처들이 RPL을 참조 및 이용하는 것이 허용되기 때문에, 인코딩 프로세스를 개선한다(예컨대, 인코딩 프로세스를 종래의 인코딩 프로세스들보다 더 효율적이고 더 빨라지게 하는 등을 한다). 이 때문에, VR 애플리케이션들에서 유리한 혼합된 IRAP 픽처들이 가능하다. 따라서 실질적인 문제로서, 코덱의 성능이 개선되고, 이는 더 양호한 사용자 경험으로 이어진다.
블록(802)에서, 비디오 인코더는 제1 서브픽처 및 제2 서브픽처를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP) 픽처를 인코딩하며, 제1 서브픽처는 IRAP 픽처이고 제2 서브픽처는 비-IRAP 서브픽처이다. 일 실시예에서, 혼합된 IRAP 픽처는 제1 서브 비트스트림 및 제2 서브 비트스트림을 포함하는 분할된 비트스트림으로 인코딩된다. 일 실시예에서, 제1 서브픽처는 제1 서브 비트스트림으로 인코딩되고, 제2 서브픽처는 제2 서브 비트스트림으로 인코딩된다. 일 실시예에서, IRAP 픽처는 순간 디코더 리프레시(IDR) 픽처이다. 일 실시예에서, 혼합된 IRAP 픽처는 단일 네트워크 액세스 계층(NAL) 유닛으로 인코딩된다.
블록(804)에서, 비디오 인코더는 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL)를 인코딩한다.
블록(806)에서, 비디오 인코더는 혼합된 IRAP 픽처 및 혼합된 IRAP 픽처에 대응하는 RPL을 포함하는 비트스트림을 생성한다. 비디오 인코더는 적어도 하나의 IRAP 픽처를 포함하는 혼합된 IRAP 픽처에도 불구하고 비트스트림으로 RPL을 인코딩한다.
블록(808)에서, 비디오 인코더는 비디오 디코더를 향한 전송을 위해 비트스트림을 저장한다. 비트스트림은 비디오 인코더가 비디오 디코더를 향해 비디오 비트스트림(예컨대, 비트스트림(600))을 전송할 때까지 적어도 일시적으로 메모리에 저장될 수 있다. 일단 비디오 디코더에 의해 수신되면, 인코딩된 비디오 비트스트림은 (예컨대, 위에서 설명된 바와 같이) 전자 디바이스(예컨대, 스마트폰, 태블릿, 랩톱, 개인용 컴퓨터 등)의 디스플레이 또는 화면 상에서 사용자에게 디스플레이하기 위한 이미지를 생성하거나 발생시키도록 디코딩될 수 있다.
일 실시예에서, 이 방법(800)은 비트스트림으로 플래그를 인코딩하는 단계를 더 포함한다. 플래그는 비트스트림이 혼합된 IRAP 픽처를 포함하는지 여부를 지시한다. 일 실시예에서, 플래그는 SPS, PPS 또는 비트스트림의 다른 부분에서 시그널링된다.
본 명세서에 개시된 기술들의 설명은 JVET-L0686-v2 및 JVET-L0112-v2의 최신 접근 방식과 관련하여 제공된다. JVET-L0686-v2 및 JVET-L0112-v2의 접근 방식에 대한 변경된 부분들은 이탤릭체이고 제거에 대해서는 굵게 도시되지만, 아래에 언급되지 않는 JVET-L0686-v2 및 JVET-L0112-v2의 접근 방식에 대한 텍스트들은 그대로 적용된다.
다음의 정의들이 제공된다.
순간 디코딩 리프레시(IDR) 타일 그룹: IDR_NUT와 동일한 nal_unit_type을 갖는 VCL NAL 유닛에 포함된 타일 그룹.
인트라 랜덤 액세스 포인트(IRAP) 타일 그룹: IDR_NUT 또는 CRA_NUT와 동일한 nal_unit_type을 갖는 VCL NAL 유닛에 포함된 타일 그룹.
인트라 랜덤 액세스 포인트(IRAP) 픽처: 각각의 VCL NAL 유닛이 IDR_NUT 또는 CRA_NUT의 nal_unit_type을 갖는 코딩된 픽처.
주 ― FirstIrapPictureFlag의 값은 디코딩 순서로 CVS에서 첫 번째 액세스 유닛인 각각의 IDR 또는 CRA 액세스 유닛에 대해 1과 같다. FirstIrapPictureFlag의 값이 1과 같을 때, NoRaslOutputFlag의 값은 1과 같게 설정된다. IDR 픽처는 CVS에서 항상 첫 번째 액세스 유닛이다. CRA 액세스 유닛이 비트스트림 내의 첫 번째 픽처라면, CRA 액세스 유닛은 CVS에서 첫 번째 액세스 유닛이거나, CRA 액세스 유닛은 시퀀스 NAL 유닛의 끝에 바로 뒤따르거나, CRA 액세스 유닛은 1과 같은 연관된 변수 HandleCraAsFirstPicInCvsFlag를 갖는다. 변수 HandleCraAsFirstPicInCvsFlag는 외부 수단에 의해 설정될 수 있다.
비-IRAP 타일 그룹: IDR_NUT와 동일하지도 CRA_NUT와 동일하지도 않은 nal_unit_type을 갖는 VCL NAL 유닛에 포함된 타일 그룹.
NAL 유닛 헤더 시맨틱들이 제공된다.
표 7 1 - NAL 유닛 타입 코드들 및 NAL 유닛 타입 클래스들
nal_unit_type | nal_unit_type의 이름 | NAL 유닛의 내용 및 RBSP 신택스 구조 | NAL 유닛 타입 클래스 |
0 | NON_IRAP_NUT | 비-IRAP 타입의 코딩된 타일 그룹 tile_group_layer_rbsp( ) |
VCL |
1 | IDR_NUT | IDR 타입의 코딩된 타일 그룹 tile_group_layer_rbsp( ) |
VCL |
2 | CRA_NUT |
CRA의 코딩된 타일 그룹
typetile_group_layer_rbsp( ) |
VCL |
3-15 | RSV_VCL_NUT | 예비 VCL NAL 유닛들 | VCL |
16 | SPS_NUT | 시퀀스 파라미터 세트 seq_parameter_set_rbsp( ) |
비-VCL |
17 | PPS_NUT | 픽처 파라미터 세트 pic_parameter_set_rbsp( ) |
비-VCL |
18 | EOS_NUT | 시퀀스의 끝 end_of_seq_rbsp( ) |
비-VCL |
19 | EOB_NUT | 비트스트림의 끝 end_of_bitstream_rbsp( ) |
비-VCL |
20, 21 | PREFIX_SEI_NUT SUFFIX_SEI_NUT |
부가 확장 정보 sei_rbsp( ) |
비-VCL |
22-26 | RSV_NVCL | 예비 | 비-VCL |
27-31 | UNSPEC | 지정되지 않음 | 비-VCL |
픽처의 각각의 타일 그룹이 IDR_NUT 또는 CRA_NUT와 동일한 nal_unit_type을 가질 때, 즉 현재 타일 그룹이 IRAP 픽처에 속할 때, TemporalId는 0과 같을 것이다.
CL NAL 유닛의 nal_unit_type이 IDR_NUT와도 동일하지 않고 CRA_NUT와도 동일하지 않은 동시에, 동일한 픽처의 적어도 하나의 다른 VCL NAL 유닛이 IDR_NUT 또는 CRA_NUT와 같은 nal_unit_type을 가질 때, TemporalId는 0과 같을 것이다.
시퀀스 파라미터 세트 신택스 및 시맨틱들이 제공된다.
1과 같은 sps_mixed_tile_groups_in_pic_flag는 IRAP 타일 그룹들과 비-IRAP 타일 그룹들 모두를 갖는 픽처들이 CVS에 있을 수 있음을 명시한다. 0과 같은 sps_mixed_tile_groups_in_pic_flag는 CVS 내의 각각의 픽처가 IRAP 타일 그룹들만 또는 비-IRAP 타일 그룹들만을 가짐을 명시한다.
픽처 파라미터 세트 신택스가 논의된다.
타일 그룹 신택스가 논의된다.
poc_msb_reset_flag는 다음과 같이 변수 PicRefreshFlag를 지정하는 데 사용된다:
―
현재 타일 그룹이 디코딩 순서로 비트스트림의 첫 번째 액세스 유닛에 속한다면, PicRefreshFlag는 1과 같게 설정된다.
―
그렇지 않고, 현재 타일 그룹이 IDR 타일 그룹이라면, PicRefreshFlag는 sps_mixed_tile_groups_in_pic_flag ? poc_msb_reset_flag : 1과 같게 설정된다.
―
그렇지 않고, 현재 타일 그룹이 CRA 타일 그룹이라면, 다음이 적용된다:
―
현재 액세스 유닛이 시퀀스 NAL 유닛의 끝에 바로 뒤따른다면, 또는 연관된 변수 HandleCraAsFirstPicInCvsFlag가 1과 같다면, PicRefreshFlag는 1과 같게 설정된다.
―
그렇지 않으면, PicRefreshFlag는 0과 같게 설정된다.
―
그렇지 않으면(현재 타일 그룹은 디코딩 순서로 비트스트림에서 첫 번째 액세스 유닛에 속하지 않고 이는 IRAP 타일 그룹이 아님), PicRefreshFlag는 0과 같게 설정된다.
sps_mixed_tile_groups_in_pic_flag가 0과 같을 때, poc_msb_reset_flag의 값이 무시된다는 점을 주목한다.
sps_mixed_tile_groups_in_pic_flag가 1과 같을 때, 다음의 제약들이 적용되는 것이 비트스트림 적합성 요건이다:
―
현재 픽처의 모든 타일 그룹들이 IDR 타일 그룹들일 때, poc_msb_reset_flag의 값은 현재 픽처의 모든 IDR 타일 그룹들에 대해 1과 같을 것이다.
―
현재 픽처가 IDR 타일 그룹 및 IDR 타일 그룹이 아닌 적어도 하나의 타일 그룹을 포함할 때, poc_msb_reset_flag의 값은 0과 같을 것이다.
주 ― 1과 같은 poc_msb_reset_flag의 값은, 현재 픽처가 하나보다 많은 타일 그룹을 갖는다면, 모든 타일 그룹들이 IDR 타일 그룹들임을 지시한다.
주 ― MCTS가 추출되어 1과 같은 sps_mixed_tile_groups_in_pic_flag를 갖는 원래의 비트스트림으로부터의 서브 비트스트림이 될 때, 추출된 서브 비트스트림에 대한 활성 SPS들 내의 sps_mixed_tile_groups_in_pic_flag의 값은 0과 같게 설정되어야 하는데, 즉 추출된 서브 비트스트림에서 각각의 픽처는 IRAP 타일 그룹들만을 또는 비-IRAP 타일 그룹들만을 가져야 한다. 다시 말해서, 하나의 픽처에 속하고 하나의 MCTS에 속하는 타일 그룹들은 동일한 NAL 유닛 타입을 가져야 한다는 것이 요구된다.
타일 그룹 디코딩 프로세스가 논의된다.
현재 픽처(CurrPic)에 대해 디코딩 프로세스는 다음과 같이 동작한다:
1.
아래의 NAL 유닛 디코딩 프로세스에 대한 조항에서 NAL 유닛들의 디코딩이 명시된다.
2.
타일 그룹 디코딩 프로세스에 대한 조항의 프로세스들은 타일 그룹 헤더 계층 및 그 위의 신택스 엘리먼트들을 사용하여 다음 디코딩 프로세스들을 명시한다:
―
픽처 순서 카운트와 관련된 변수들 및 함수들은 아래의 픽처 순서 카운트에 대한 디코딩 프로세스에 대한 조항에 명시된 바와 같이 도출된다. 이것은 픽처의 첫 번째 타일 그룹에 대해서만 호출될 필요가 있다.
―
비-IDR 픽처의 각각의 타일 그룹에 대한 디코딩 프로세스의 시작 시, 참조 픽처 리스트 0(RefPicList[ 0 ]) 및 참조 픽처 리스트 1(RefPicList[ 1 ])의 도출을 위해 참조 픽처 리스트 구성에 대한 디코딩 프로세스가 호출된다.
―
참조 픽처 마킹에 대한 디코딩 프로세스가 호출되는데, 여기서 참조 픽처들은 "참조에 사용되지 않음" 또는 "장기 참조에 사용됨"으로 마킹될 수 있다. 이것은 픽처의 첫 번째 타일 그룹에 대해서만 호출될 필요가 있다.
3.
코딩 트리 유닛들, 스케일링, 변환, 루프 내 필터링 등에 대한 디코딩 프로세스들을 호출한다.
4.
현재 픽처의 모든 슬라이스들이 디코딩된 후, 현재 디코딩된 픽처는 "단기 참조에 사용됨"으로 마킹된다.
NAL 유닛 디코딩 프로세스가 논의된다.
이 프로세스에 대한 입력은 현재 픽처의 NAL 유닛들 및 이들의 연관된 비-VCL NAL 유닛들이다.
이 프로세스의 출력들은 NAL 유닛들 내에 캡슐화된, 파싱된 RBSP 신택스 구조들이다.
각각의 NAL 유닛에 대한 디코딩 프로세스는 NAL 유닛으로부터 RBSP 신택스 구조를 추출한 다음, RBSP 신택스 구조를 파싱한다.
타일 그룹 디코딩 프로세스가 논의된다.
픽처 순서 카운트에 대한 디코딩 프로세스가 제공된다.
이 프로세스의 출력은 현재 픽처의 픽처 순서 카운트인 PicOrderCntVal이다.
픽처 순서 카운트들은 픽처들을 식별하고, 병합 모드 및 모션 벡터 예측에서 모션 파라미터들을 도출하기 위해, 그리고 디코더 적합성 검사를 위해 사용된다.
각각의 코딩된 픽처는 PicOrderCntVal로 표시되는 픽처 순서 카운트 변수와 연관된다.
PicRefreshFlag가 0과 같을 때, 현재 픽처가 IRAP 픽처가 아닐 때, 변수들 prevPicOrderCntLsb 및 prevPicOrderCntMsb는 다음과 같이 도출된다:
―
prevTid0Pic을 디코딩 순서에서 0과 같은 TemporalId를 갖는 이전 픽처로 놓는다.
―
변수 prevPicOrderCntLsb는 prevTid0Pic의 slice_pic_order_cnt_lsb와 같게 설정된다.
―
변수 prevPicOrderCntMsb는 prevTid0Pic의 PicOrderCntMsb와 같게 설정된다.
현재 픽처의 변수 PicOrderCntMsb는 다음과 같이 도출된다:
―
PicRefreshFlag가 1과 같다면, 현재 픽처가 IRAP 픽처라면, PicOrderCntMsb는 0과 같게 설정된다.
―
그렇지 않으면, PicOrderCntMsb는 다음과 같이 도출된다:
PicOrderCntVal은 다음과 같이 도출된다:
PicOrderCntVal = PicOrderCntMsb + slice_pic_order_cnt_lsb
(8-2)
주 1 - slice_pic_order_cnt_lsb가 IRAP 픽처들에 대해 0인 것으로 추론되고 prevPicOrderCntLsb와 prevPicOrderCntMsb 둘 다 0으로 설정되므로, 모든 IRAP 픽처들은 0과 같은 PicOrderCntVal을 가질 것이다.
PicOrderCntVal의 값은 -231부터 231 - 1까지의 범위에 있을 것이다. 하나의 CVS에서, 임의의 2개의 코딩된 픽처들에 대한 PicOrderCntVal 값들은 동일하지 않을 것이다.
디코딩 프로세스 도중 임의의 순간에, DPB 내의 임의의 2개의 참조 픽처들에 대한 PicOrderCntVal & ( MaxLtPicOrderCntLsb - 1 )의 값들은 동일하지 않을 것이다.
PicOrderCnt( picX ) 함수가 다음과 같이 명시된다:
PicOrderCnt( picX ) = 픽처(picX)의 PicOrderCntVal
(8-3)
DiffPicOrderCnt( picA, picB ) 함수는 다음과 같이 명시된다:
DiffPicOrderCnt( picA, picB ) = PicOrderCnt( picA ) - PicOrderCnt( picB )
(8-4)
비트스트림은, -215부터 215 - 1까지의 범위에 있지 않은 DiffPicOrderCnt( picA, picB )의 값들이 디코딩 프로세스에 사용되게 하는 데이터를 포함하지 않을 것이다.
주 2 ― X를 현재 픽처로 하고 Y와 Z를 동일한 CVS의 2개의 다른 픽처들로 하면, DiffPicOrderCnt( X, Y )와 DiffPicOrderCnt( X, Z ) 둘 다 양수이거나 둘 다 음수일 때 Y와 Z는 X로부터 동일한 출력 순서에 있는 것으로 간주된다.
참조 픽처 리스트 구성에 대한 디코딩 프로세스가 제공된다.
이 프로세스는 비-IRAP 픽처의 각각의 타일 그룹에 대한 디코딩 프로세스의 시작 시에 호출된다.
참조 픽처들은 참조 인덱스들을 통해 어드레싱된다. 참조 인덱스는 참조 픽처 리스트에 대한 인덱스이다. I 타일 그룹을 디코딩할 때, 타일 그룹 데이터의 디코딩에는 참조 픽처 리스트가 사용되지 않는다. P 타일 그룹을 디코딩할 때는, 타일 그룹 데이터의 디코딩에 참조 픽처 리스트 0(즉, RefPicList[ 0 ])만이 사용된다. B 타일 그룹을 디코딩할 때는, 타일 그룹 데이터의 디코딩에 참조 픽처 리스트 0과 참조 픽처 리스트 1(즉, RefPicList[ 1 ]) 둘 다 사용된다.
비-IRAP 픽처의 각각의 타일 그룹에 대한 디코딩 프로세스의 시작 시, 참조 픽처 리스트들 RefPicList[ 0 ] 및 RefPicList[ 1 ]이 도출된다. 참조 픽처 리스트들은 참조 픽처들의 마킹에 또는 타일 그룹 데이터의 디코딩에 사용된다.
주 1 ― 비-IRAP 타일 그룹인 I 타일 그룹의 경우, 비트스트림 적합성 검사 목적으로 RefPicList[ 0 ] 및 RefPicList[ 1 ]이 도출될 수 있지만, 현재 픽처 또는 디코딩 순서에서 현재 픽처에 뒤따르는 픽처들의 디코딩에 이들의 도출이 필요하지는 않다. P 타일 그룹의 경우, 비트스트림 적합성 검사 목적으로 RefPicList[ 1 ]이 도출될 수 있지만, 현재 픽처 또는 디코딩 순서에서 현재 픽처에 뒤따르는 픽처들의 디코딩에 그 도출이 필요하지는 않다.
참조 픽처 리스트들 RefPicList[ 0 ] 및 RefPicList[ 1 ]은 다음과 같이 구성된다:
0 또는 1과 같은 각각의 i에 대해, 다음이 적용된다:
―
RefPicList[ i ] 내의 첫 번째 NumRefIdxActive[ i ] 엔트리들은 RefPicList[ i ] 내의 활성 엔트리들로 지칭되고, RefPicList[ i ] 내의 다른 엔트리들은 RefPicList[ i ] 내의 비활성 엔트리들로 지칭된다.
―
0에서부터 NumEntriesInList[ i ][ RplsIdx[ i ] ] - 1까지의 범위 내의 j에 대한 RefPicList[ i ][ j ] 내의 각각의 엔트리는, lt_ref_pic_flag[ i ][ RplsIdx[ i ] ][ j ]가 0과 같다면 STRP 엔트리로 지칭되고, 그렇지 않다면 LTRP 엔트리로 지칭된다.
주 2 ― 특정 픽처가 RefPicList[ 0 ] 내의 엔트리와 RefPicList[ 1 ] 내의 엔트리 둘 다에 의해 참조되는 것이 가능하다. 특정 픽처가 RefPicList[ 0 ] 내의 하나의 엔트리보다 많은 엔트리에 의해 또는 RefPicList[ 1 ] 내의 하나의 엔트리보다 많은 엔트리에 의해 참조되는 것이 또한 가능하다.
주 3 ― RefPicList[ 0 ] 내의 활성 엔트리들과 RefPicList[ 1 ] 내의 활성 엔트리들은 집합적으로, 현재 픽처 및 디코딩 순서에서 현재 픽처를 뒤따르는 하나 이상의 픽처들의 인터 예측에 사용될 수 있는 모든 참조 픽처들을 의미한다. RefPicList[ 0 ] 내의 비활성 엔트리들과 RefPicList[ 1 ] 내의 비활성 엔트리들은 집합적으로, 현재 픽처의 인터 예측에 사용되지 않지만 디코딩 순서에서 현재 픽처를 뒤따르는 하나 이상의 픽처들에 대한 인터 예측에 사용될 수 있는 모든 참조 픽처들을 의미한다.
주 4 ― 대응하는 픽처들이 DPB에 존재하지 않기 때문에, RefPicList[ 0 ] 또는 RefPicList[ 1 ] 내에는 "참조 픽처 없음"과 같은 하나 이상의 엔트리들이 있을 수 있다. RefPicList[ 0 ] 또는 RefPicList[ 0 ]에서 "참조 픽처 없음"과 같은 각각의 비활성 엔트리는 무시되어야 한다. RefPicList[ 0 ] 또는 RefPicList[ 1 ]에서 "참조 픽처 없음"과 같은 각각의 활성 엔트리에 대해서는 의도하지 않은 픽처 손실이 추론되어야 한다.
다음의 제약들이 적용되는 것이 비트스트림 적합성 요건이다.
0 또는 1과 같은 각각의 i에 대해, NumEntriesInList[ i ][ RplsIdx[ i ] ]는 NumRefIdxActive[ i ]보다 작지 않을 것이다.
― RefPicList[ 0 ] 또는 RefPicList[ 1 ] 내의 각각의 활성 엔트리에 의해 참조되는 픽처가 DPB에 존재할 것이며 현재 픽처의 TemporalId보다 작거나 같은 TemporalId를 가질 것이다.
― 픽처의 슬라이스의 RefPicList[ 0 ] 또는 RefPicList[ 1 ] 내의 STRP 엔트리 및 동일한 픽처의 동일한 슬라이스 또는 상이한 슬라이스의 RefPicList[ 0 ] 또는 RefPicList[ 1 ] 내의 LTRP 엔트리는 동일한 픽처를 참조하지 않을 것이다.
― RefPicList[ 0 ] 또는 RefPicList[ 1 ]에는 현재 픽처의 PicOrderCntVal과 엔트리에 의해 참조되는 픽처의 PicOrderCntVal 간의 차가 224보다 크거나 같은 LTRP 엔트리가 없을 것이다.
― setOfRefPics를 RefPicList[ 0 ] 내의 모든 엔트리들과 RefPicList[ 1 ] 내의 모든 엔트리들에 의해 참조되는 고유 픽처들의 세트로 놓는다. setOfRefPics 내의 픽처들의 수는 sps_max_dec_pic_buffering_minus1보다 작거나 같을 것이고, setOfRefPics는 픽처의 모든 슬라이스들에 대해 동일할 것이다.
참조 픽처 마킹에 대한 디코딩 프로세스가 제공된다.
이 프로세스는, 타일 그룹 헤더의 디코딩 및 타일 그룹에 대한 참조 픽처 리스트 구성에 대한 디코딩 프로세스 이후, 그러나 타일 그룹 데이터의 디코딩에 앞서, 픽처마다 한 번씩 호출된다. 이 프로세스는 DPB 내의 하나 이상의 참조 픽처들이 "참조에 사용되지 않음" 또는 "장기 참조에 사용됨"으로 마킹되게 할 수 있다.
DPB 내의 디코딩된 픽처는 "참조에 사용되지 않음," "단기 참조에 사용됨" 또는 "장기 참조에 사용됨"으로 마킹될 수 있지만, 디코딩 프로세스의 동작 도중 임의의 주어진 순간에는 이러한 세 가지 중 하나로만 마킹될 수 있다. 이러한 마킹들 중 하나를 픽처에 할당하는 것은 적용 가능한 경우, 이러한 마킹들 중 다른 마킹을 암시적으로 삭제한다. 픽처가 "참조에 사용됨"으로 마킹되는 것으로 언급되는 경우, 이는 집합적으로, "단기 참조에 사용됨" 또는 "장기 참조에 사용됨"(그러나 둘 다는 아님)으로 마킹되는 픽처를 의미한다.
현재 픽처가 IRAP 픽처인 경우, (만약 있다면) 현재 DPB 내에 있는 모든 참조 픽처들이 "참조에 사용되지 않음"으로 마킹된다.
STRP들이 이들의 PicOrderCntVal 값들에 의해 식별된다. LTRP들은 이들의 PicOrderCntVal 값들의 Log2( MaxLtPicOrderCntLsb ) LSB들에 의해 식별된다.
다음이 적용된다:
―
PicRefreshFlag가 1과 같다면, DPB 내의 모든 참조 픽처들이 "참조에 사용되지 않음"으로 마킹된다.
―
그렇지 않으면(sps_mixed_tile_groups_in_pic_flag가 1과 같거나 현재 타일 그룹이 IDR 타일 그룹이 아님), 다음이 적용된다:
"단기 참조에 사용됨"으로 마킹되는 DPB의 각각의 참조 픽처에 대해, 참조 픽처가 RefPicList[ 0 ] 또는 RefPicList[ 1 ] 내의 LTRP 엔트리에 의해 참조될 때, 참조 픽처는 "장기 참조에 사용됨"으로 마킹된다.
DPB에서 RefPicList[ 0 ] 또는 RefPicList[ 1 ] 내의 임의의 엔트리에 의해 참조되지 않는 각각의 참조 픽처는 "참조에 사용되지 않음"으로 마킹된다.
본 개시내용의 개념들이 추가로 논의된다.
위의 문제들을 해결하기 위해, 다음의 양상들이 개시되며, 이러한 양상들 각각은 개별적으로 적용될 수 있고, 이러한 양상들 중 일부는 조합하여 적용될 수 있다.
1) 픽처가 하나보다 많은 서브픽처를 가질 때, 픽처에서 IRAP 서브픽처와 비-IRAP 서브픽처 모두를 갖는 것이 허용된다.
a.
픽처 내의 서브픽처는 슬라이스, 타일 그룹, MCTS, 또는 픽처의 임의의 다른 서브세트일 수 있다.
b.
서브픽처는 대개 그 자체의 NAL 유닛에서 배타적으로 전달되지만, 항상 반드시 그러한 것은 아니다.
2) MCTS 디스크립션에 대한 정보가 파라미터 세트, 타일 그룹 헤더, 또는 부가 확장 정보(SEI) 메시지에 존재/시그널링될 수 있다.
3) 대안으로, 항목 1)은 코딩된 픽처가 하나보다 많은 NAL 유닛에서 전달될 때, 이러한 NAL 유닛들 중 하나 이상이 IRAP NAL 유닛 타입일 수 있고, 그러한 NAL 유닛들 중 하나 이상이 비-IRAP NAL 유닛 타입(트레일링 NAL 유닛 타입)이 될 수 있게 표현될 수 있다.
4) 픽처가 하나보다 많은 서브픽처들을 갖고, 서브픽처들이 IRAP 서브픽처들과 비-IRAP 서브픽처들의 혼합일 때, 픽처는 0과 같은 TemporalId를 갖는 것이 요구된다.
5) 픽처가 하나보다 많은 서브픽처들을 갖고, 서브픽처들이 IRAP 서브픽처들과 비-IRAP 서브픽처들의 혼합일 때, IRAP 서브픽처는 MCTS의 일부가 되는 것이 요구될 수 있다.
6) 픽처가 하나보다 많은 서브픽처들을 갖고, 서브픽처들이 IRAP 서브픽처들과 비-IRAP 서브픽처들의 혼합일 때, 액세스 유닛 구분 기호(delimiter)가 비트스트림에 존재하고 픽처와 연관되어 액세스 유닛을 쉽게 식별하도록 시스템들/애플리케이션들을 보조하는 것이 요구될 수 있다.
7) 혼합된 IRAP 및 비-IRAP 서브픽처들을 갖는 픽처들이 존재할 수 있는지 여부를 지정하기 위해 타일 그룹들에 의해 직접적으로 또는 간접적으로 참조되는 파라미터 세트에 플래그가 존재한다.
a.
플래그는 파라미터 세트, 이를테면 시퀀스 파라미터 세트, 픽처 파라미터 세트, 또는 타일 그룹들에 의해 직접적으로 또는 간접적으로 참조되는 다른 타입의 파라미터 세트에서 시그널링될 수 있다. 특히, 시퀀스 파라미터 세트 내의 플래그의 시그널링이 바람직할 수 있다.
b.
플래그는 sps_mixed_tile_groups_in_pic_flag라 할 수 있다.
8) IDR 타일 그룹을 포함하는 NAL 유닛의 경우, POC MSB가 픽처에 대한 POC 도출에서 리셋되는지 여부를 지정하기 위한 플래그가 타일 그룹 헤더에 존재한다.
9) PicRefreshFlag로 불리는 변수가 정의되고 픽처와 연관된다. 이 플래그는 픽처를 디코딩할 때 POC 도출 및 DPB 상태가 리프레시될 필요가 있는지 여부를 지정한다.
10) PicRefreshFlag의 값은 다음과 같이 도출된다:
a.
현재 타일 그룹이 비트스트림의 첫 번째 액세스 유닛에 속한다면, PicRefreshFlag는 1과 같게 설정된다.
b.
그렇지 않고, 현재 타일 그룹이 IDR 타일 그룹이라면, PicRefreshFlag는 sps_mixed_tile_groups_in_pic_flag ? poc_msb_reset_flag : 1과 같게 설정된다.
c.
그렇지 않고, 현재 타일 그룹이 CRA 타일 그룹이라면, 다음이 적용된다:
i.
현재 액세스 유닛이 코딩된 시퀀스의 첫 번째 액세스 유닛이라면(즉, 현재 액세스 유닛이 시퀀스 NAL 유닛의 끝에 바로 뒤따른다면, 또는 연관된 변수 HandleCraAsFirstPicInCvsFlag가 1과 같다면), PicRefreshFlag는 1과 같게 설정된다.
ii.
그렇지 않으면, PicRefreshFlag는 0과 같게 설정된다.
d.
그렇지 않으면(현재 타일 그룹은 비트스트림에서 첫 번째 액세스 유닛에 속하지 않고 이는 IRAP 타일 그룹이 아님), PicRefreshFlag는 0과 같게 설정된다.
11) PicRefreshFlag가 1과 같을 때, 픽처에 대한 POC의 도출 동안 POC MSB의 값(즉, PicOrderCntMsb)이 리셋된다(즉, 0과 같게 설정된다).
12) sps_mixed_tile_group_in_pic_flag가 1과 같을 때, 다음의 제약들이 적용된다:
a.
현재 픽처의 모든 타일 그룹들이 IDR 타일 그룹들일 때, poc_msb_reset_flag의 값은 현재 픽처의 모든 IDR 타일 그룹들에 대해 1과 같을 것이다.
b.
현재 픽처가 IDR 타일 그룹 및 IDR 타일 그룹이 아닌 적어도 하나의 타일 그룹을 포함할 때, poc_msb_reset_flag의 값은 0과 같을 것이다.
13) MCTS가 추출되어 1과 같은 sps_mixed_tile_groups_in_pic_flag를 갖는 원래의 비트스트림으로부터의 서브 비트스트림이 될 때, 추출된 서브 비트스트림에 대한 활성 SPS들 내의 sps_mixed_tile_groups_in_pic_flag의 값은 0과 같게 설정되어야 하는데, 즉 추출된 서브 비트스트림에서 각각의 픽처는 IRAP 타일 그룹들만을 또는 비-IRAP 타일 그룹들만을 가져야 한다. 다시 말해서, 하나의 픽처에 속하고 하나의 MCTS에 속하는 타일 그룹들은 동일한 NAL 유닛 타입을 가져야 한다는 것이 요구된다.
14) 참조 픽처 세트(RPS) 또는 참조 픽처 리스트(RPL)와 같은 참조 픽처 관리에 필요한 정보가 자신의 NAL 유닛 타입에 관계없이 타일 그룹 헤더에서 시그널링된다. 대안으로, 그러한 정보는 (픽처 헤더가 존재한다면) 픽처 헤더들에서만 시그널링될 수 있다.
15) 참조 픽처 리스트들(예컨대, RPL 접근 방식에 대한 RefPicList[ 0 ] 및 RefPicList[ 1 ] 또는 RPS 접근 방식에 대한 RefPicList0[ ] 및 RefPicList1[ ] 또는 픽처의 인터 예측 동작을 위한 참조 픽처들을 포함하는 유사한 리스트들)이 NAL 유닛 타입에 관계없이 각각의 타일 그룹의 디코딩 시작 시 구성된다.
16) 참조 픽처 마킹 프로세스는, DPB 내의 각각의 참조 픽처들이 시그널링된 참조 픽처 관리 정보(예컨대, RPL 접근 방식 또는 RPS 접근 방식에 대한 RPS 서브세트들에 대한 RefPicList[ 0 ] 및 RefPicList[ 1 ])의 엔트리에 의해 참조되는지 여부에 대해 각각의 참조 픽처들을 체크함으로써 수행된다.
17) PicRefreshFlag가 1과 같을 때, 참조 픽처 마킹 프로세스 동안, DPB 내의 모든 참조 픽처들은 "참조에 사용되지 않음"으로 마킹된다.
18) RPL 접근 방식에 대한 참조 픽처 마킹 프로세스의 세부사항은 다음과 같다:
a. PicRefreshFlag가 1과 같다면, DPB 내의 모든 참조 픽처들이 "참조에 사용되지 않음"으로 마킹된다.
b. 그렇지 않으면, 다음이 적용된다:
i. "단기 참조에 사용됨"으로 마킹되는 DPB 내의 각각의 참조 픽처에 대해, 참조 픽처가 RefPicList[ 0 ] 또는 RefPicList[ 1 ] 내의 LTRP 엔트리에 의해 참조될 때, 참조 픽처는 "장기 참조에 사용됨"으로 마킹된다.
ii. DPB에서 RefPicList[ 0 ] 또는 RefPicList[ 1 ] 내의 임의의 엔트리에 의해 참조되지 않는 각각의 참조 픽처는 "참조에 사용되지 않음"으로 마킹된다.
도 9는 본 개시내용의 일 실시예에 따른 비디오 코딩 디바이스(900)(예컨대, 비디오 인코더(20) 또는 비디오 디코더(30))의 개략도이다. 비디오 코딩 디바이스(900)는 본 명세서에서 설명되는 바와 같이 개시된 실시예들을 구현하기에 적합하다. 비디오 코딩 디바이스(900)는 데이터를 수신하기 위한 진입 포트들(910) 및 수신기 유닛들(RX)(920); 데이터를 처리하기 위한 프로세서, 로직 유닛 또는 중앙 처리 유닛(CPU: central processing unit)(930); 데이터를 전송하기 위한 전송기 유닛들(Tx)(940) 및 진출 포트들(950); 그리고 데이터를 저장하기 위한 메모리(960)를 포함한다. 비디오 코딩 디바이스(900)는 또한 광 또는 전기 신호들의 진출 또는 진입을 위한 진입 포트들(910), 수신기 유닛들(920), 전송기 유닛들(940) 및 진출 포트들(950)에 결합된 광-전기(OE: optical-to-electrical) 컴포넌트들 및 전기-광(EO: electrical-to-optical) 컴포넌트들을 포함할 수 있다.
프로세서(930)는 하드웨어 및 소프트웨어에 의해 구현된다. 프로세서(930)는 하나 이상의 CPU 칩(chip)들, (예컨대, 멀티 코어 프로세서로서) 코어들, 필드 프로그래밍 가능 게이트 어레이(FPGA)들, 주문형 집적 회로(ASIC)들 및 디지털 신호 프로세서(DSP)들로서 구현될 수 있다. 프로세서(930)는 진입 포트들(910), 수신기 유닛들(920), 전송기 유닛들(940), 진출 포트들(950) 및 메모리(960)와 통신한다. 프로세서(930)는 코딩 모듈(970)을 포함한다. 코딩 모듈(970)은 위에서 설명한 개시된 실시예들을 구현한다. 예컨대, 코딩 모듈(970)은 프로세스들을 구현하거나, 다양한 네트워킹 기능을 준비 또는 제공한다. 따라서 코딩 모듈(970)의 포함은 비디오 코딩 디바이스(900)의 기능에 실질적인 개선을 제공하고 비디오 코딩 디바이스(900)의 다른 상태로의 변환에 영향을 미친다. 대안으로, 코딩 모듈(970)은 메모리(960)에 저장되어 프로세서(930)에 의해 실행되는 명령들로서 구현될 수 있다.
비디오 코딩 디바이스(900)는 또한, 사용자에게 그리고 사용자로부터 데이터를 전달하기 위한 입력 및/또는 출력(I/O) 디바이스들(980)을 포함할 수 있다. I/O 디바이스들(980)은 비디오 데이터를 디스플레이하기 위한 디스플레이, 오디오 데이터를 출력하기 위한 스피커들 등과 같은 출력 디바이스들을 포함할 수 있다. I/O 디바이스들(980)은 또한 키보드, 마우스, 트랙볼 등과 같은 입력 디바이스들, 및/또는 이러한 출력 디바이스와 상호 작용하기 위한 대응하는 인터페이스들을 포함할 수 있다.
메모리(960)는 하나 이상의 디스크들, 테이프 드라이브들, 고체 상태 드라이브들을 포함하며, 프로그램들이 실행을 위해 선택될 때 그러한 프로그램들을 저장하기 위한, 그리고 프로그램 실행 중에 판독되는 명령들 및 데이터를 저장하기 위한 오버플로우 데이터 저장 디바이스로서 사용될 수 있다. 메모리(960)는 휘발성 및/또는 비휘발성일 수 있으며, 판독 전용 메모리(ROM: read-only memory), 랜덤 액세스 메모리(RAM: random access memory), 3원 내용 주소화 메모리(TCAM: ternary content-addressable memory) 및/또는 정적 랜덤 액세스 메모리(SRAM: static random-access memory)일 수 있다.
도 10은 코딩하기 위한 수단(1000)의 일 실시예의 개략도이다. 실시예에서, 코딩하기 위한 수단(1000)은 비디오 코딩 디바이스(1002)(예컨대, 비디오 인코더(20) 또는 비디오 디코더(30))에서 구현된다. 비디오 코딩 디바이스(1002)는 수신 수단(1001)을 포함한다. 수신 수단(1001)은 인코딩할 픽처를 수신하도록 또는 디코딩할 비트스트림 수신하도록 구성된다. 비디오 코딩 디바이스(1002)는 수신 수단(1001)에 결합된 전송 수단(1007)을 포함한다. 전송 수단(1007)은 비트스트림을 디코더로 전송하도록 또는 디코딩된 이미지를 디스플레이 수단(예컨대, I/O 디바이스들(980) 중 하나)에 전송하도록 구성된다.
비디오 코딩 디바이스(1002)는 저장 수단(1003)을 포함한다. 저장 수단(1003)은 수신 수단(1001) 또는 전송 수단(1007) 중 적어도 하나에 결합된다. 저장 수단(1003)은 명령들을 저장하도록 구성된다. 비디오 코딩 디바이스(1002)는 또한 처리 수단(1005)을 포함한다. 처리 수단(1005)은 저장 수단(1003)에 결합된다. 처리 수단(1005)은 저장 수단(1003)에 저장된 명령들을 실행하여, 본 명세서에 개시된 방법들을 수행하도록 구성된다.
본 명세서에서 제시된 예시적인 방법들의 단계들이 반드시 설명된 순서로 수행될 필요는 없다고 또한 이해되어야 하며, 그러한 방법들의 단계들의 순서는 단지 예시인 것으로 이해되어야 한다. 마찬가지로, 본 개시내용의 다양한 실시예들과 일치하는 방법들에서, 추가 단계들이 그러한 방법들에 포함될 수 있고, 특정 단계들이 생략 또는 조합될 수 있다.
본 개시내용에서 여러 실시예들이 제공되었지만, 개시된 시스템들 및 방법들은 본 개시내용의 사상 또는 범위를 벗어나지 않으면서 많은 다른 특정 형태들로 구현될 수도 있다고 이해되어야 한다. 본 예들은 제한이 아닌 예시로서 고려되어야 하며, 그 의도는 본 명세서에서 주어진 세부사항들로 제한되지 않아야 한다. 예를 들어, 다양한 엘리먼트들 또는 컴포넌트들이 다른 시스템으로 조합 또는 통합될 수 있거나, 일부 특징들이 생략될 수 있거나 구현되지 않을 수 있다.
추가로, 다양한 실시예들에서 개별적인 또는 분리된 것으로 설명되고 예시된 기술들, 시스템들, 서브시스템들 및 방법들은 본 개시내용의 범위를 벗어나지 않으면서 다른 시스템들, 모듈들, 기술들 또는 방법과 조합 또는 통합될 수 있다. 서로 통신하거나 서로 결합되거나 직접 결합되는 것으로 도시 또는 논의된 다른 아이템들 간접적으로 결합되거나 전기적으로든, 기계적으로든 또는 다른 방식으로든, 어떤 인터페이스, 디바이스 또는 중간 컴포넌트를 통해 통신할 수 있다. 변화들, 대체들 및 변경들의 다른 예들이 당해 기술분야에서 통상의 지식을 가진 자에 의해 확인 가능하며, 본 명세서에 개시된 사상 및 범위를 벗어나지 않으면서 이루어질 수 있다.
Claims (32)
- 비디오 디코더(video decoder)에 의해 구현되는, 코딩된 비디오 비트스트림(coded video bitstream)을 디코딩하는 방법으로서,
상기 비디오 디코더의 수신기가 제1 서브픽처(sub-picture) 및 제2 서브픽처를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP: intra random access point) 픽처를 수신하는 단계 ― 상기 제1 서브픽처는 IRAP 픽처이고 상기 제2 서브픽처는 비-IRAP 서브픽처임 ―;
상기 수신기가 상기 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL: reference picture list)를 수신하는 단계;
상기 비디오 디코더의 프로세서가 상기 RPL을 사용하여 상기 제2 서브픽처를 디코딩하는 단계; 및
상기 프로세서가 디코딩된 상기 제2 서브픽처에 기초하여 이미지를 생성하는 단계를 포함하는,
코딩된 비디오 비트스트림을 디코딩하는 방법. - 제1항에 있어서,
상기 혼합된 IRAP 픽처는 제1 서브 비트스트림(sub-bitstream) 및 제2 서브 비트스트림을 포함하는 분할된 비트스트림으로 수신되는,
코딩된 비디오 비트스트림을 디코딩하는 방법. - 제1항에 있어서,
상기 제1 서브픽처는 제1 서브 비트스트림에 배치되고, 상기 제2 서브픽처는 제2 서브 비트스트림에 배치되는,
코딩된 비디오 비트스트림을 디코딩하는 방법. - 제1항 내지 제3항 중 어느 한 항에 있어서,
상기 IRAP 픽처는 순간 디코더 리프레시(IDR: instantaneous decoder refresh) 픽처인,
코딩된 비디오 비트스트림을 디코딩하는 방법. - 제1항 내지 제4항 중 어느 한 항에 있어서,
상기 제1 서브픽처는 제1 네트워크 추상화 계층(NAL: network abstraction layer) 유닛 내에 포함된 IRAP 픽처이고, 상기 제2 서브픽처는 제2 NAL 유닛 내에 포함된 비-IRAP 서브픽처인,
코딩된 비디오 비트스트림을 디코딩하는 방법. - 제1항 내지 제5항 중 어느 한 항에 있어서,
상기 비트스트림으로 플래그(flag)를 수신하는 단계를 더 포함하며,
상기 플래그는 상기 비트스트림이 임의의 혼합된 IRAP 픽처들을 포함하는지 여부를 지시하는,
코딩된 비디오 비트스트림을 디코딩하는 방법. - 제6항에 있어서,
상기 플래그는 상기 비트스트림의 시퀀스 파라미터 세트(SPS: sequence parameter set) 내에 있는,
코딩된 비디오 비트스트림을 디코딩하는 방법. - 제6항 또는 제7항에 있어서,
상기 플래그는 sps_mixed_tile_groups_in_pic_flag로 지정되는,
코딩된 비디오 비트스트림을 디코딩하는 방법. - 비디오 인코더(encoder)에 의해 구현되는, 비디오 비트스트림을 인코딩하는 방법으로서,
상기 비디오 인코더의 프로세서가 제1 서브픽처 및 제2 서브픽처를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP) 픽처를 인코딩하는 단계 ― 상기 제1 서브픽처는 IRAP 픽처이고 상기 제2 서브픽처는 비-IRAP 서브픽처임 ―;
상기 프로세서가 상기 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL)를 인코딩하는 단계;
상기 프로세서가 상기 혼합된 IRAP 픽처 및 상기 혼합된 IRAP 픽처에 대응하는 RPL을 포함하는 비트스트림을 생성하는 단계; 및
상기 비디오 디코더를 향한 전송을 위해 상기 비트스트림을 상기 비디오 인코더의 메모리에 저장하는 단계를 포함하는,
비디오 비트스트림을 인코딩하는 방법. - 제9항에 있어서,
상기 혼합된 IRAP 픽처는 제1 서브 비트스트림 및 제2 서브 비트스트림을 포함하는 분할된 비트스트림으로 인코딩되는,
비디오 비트스트림을 인코딩하는 방법. - 제9항에 있어서,
상기 제1 서브픽처는 제1 서브 비트스트림으로 인코딩되고, 상기 제2 서브픽처는 제2 서브 비트스트림으로 인코딩되는,
비디오 비트스트림을 인코딩하는 방법. - 제9항 내지 제11항 중 어느 한 항에 있어서,
상기 IRAP 픽처는 순간 디코더 리프레시(IDR) 픽처인,
비디오 비트스트림을 인코딩하는 방법. - 제9항 내지 제12항 중 어느 한 항에 있어서,
상기 제1 서브픽처는 제1 네트워크 추상화 계층(NAL) 유닛 내에 포함된 IRAP 픽처이고, 상기 제2 서브픽처는 제2 NAL 유닛 내에 포함된 비-IRAP 서브픽처인,
비디오 비트스트림을 인코딩하는 방법. - 제9항 내지 제13항 중 어느 한 항에 있어서,
상기 비트스트림으로 플래그를 인코딩하는 단계를 더 포함하며,
상기 플래그는 상기 비트스트림이 임의의 혼합된 IRAP 픽처들을 포함하는지 여부를 지시하는,
비디오 비트스트림을 인코딩하는 방법. - 제14항에 있어서,
상기 플래그는 상기 비트스트림의 시퀀스 파라미터 세트(SPS) 내에 있는,
비디오 비트스트림을 인코딩하는 방법. - 제14항 또는 제15항에 있어서,
상기 플래그는 sps_mixed_tile_groups_in_pic_flag로 지정되는,
비디오 비트스트림을 인코딩하는 방법. - 디코딩 디바이스로서,
코딩된 비디오 비트스트림을 수신하도록 구성된 수신기 ― 상기 코딩된 비디오 비트스트림은:
IRAP 픽처인 제1 서브픽처 및 비-IRAP 서브픽처인 제2 서브픽처를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP) 픽처; 및
상기 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL)를 포함함 ―;
상기 수신기에 결합된 메모리 ― 상기 메모리는 명령들을 저장함 ―; 및
상기 메모리에 결합된 프로세서를 포함하며,
상기 프로세서는 상기 명령들을 실행하여 상기 디코딩 디바이스로 하여금:
상기 RPL을 사용하여 상기 제2 서브픽처를 디코딩하게 하고; 그리고
상기 제2 서브픽처에 기초하여 이미지를 생성하게 하도록 구성되는,
디코딩 디바이스. - 제17항에 있어서,
상기 이미지를 디스플레이하도록 구성된 디스플레이를 더 포함하는,
디코딩 디바이스. - 제17항에 있어서,
상기 수신기는 제1 서브 비트스트림 및 제2 서브 비트스트림을 포함하는 분할된 비트스트림으로 상기 혼합된 IRAP 픽처를 수신하도록 구성되는,
디코딩 디바이스. - 제17항에 있어서,
상기 제1 서브픽처는 제1 서브 비트스트림에 배치되고, 상기 제2 서브픽처는 제2 서브 비트스트림에 배치되는,
디코딩 디바이스. - 제17항 내지 제20항 중 어느 한 항에 있어서,
상기 IRAP 픽처는 순간 디코더 리프레시(IDR) 픽처인,
디코딩 디바이스. - 인코딩 디바이스로서,
명령들을 포함하는 메모리;
상기 메모리에 결합된 프로세서를 포함하며,
상기 프로세서는 상기 인코딩 디바이스로 하여금:
제1 서브픽처 및 제2 서브픽처를 포함하는 혼합된 인트라 랜덤 액세스 포인트(IRAP) 픽처를 인코딩하게 하고 ― 상기 제1 서브픽처는 IRAP 픽처이고 상기 제2 서브픽처는 비-IRAP 서브픽처임 ―;
상기 혼합된 IRAP 픽처에 대한 참조 픽처 리스트(RPL)를 인코딩하게 하고;
상기 혼합된 IRAP 픽처 및 상기 혼합된 IRAP 픽처에 대응하는 RPL을 포함하는 비트스트림을 생성하게 하고; 그리고
비디오 디코더를 향한 전송을 위해 상기 비트스트림을 상기 메모리에 저장하게 하게
상기 명령들을 구현하도록 구성되는,인코딩 디바이스. - 제22항에 있어서,
상기 프로세서에 결합된 전송기를 더 포함하며,
상기 전송기는 상기 비디오 디코더를 향해 상기 비트스트림을 전송하도록 구성되는,
인코딩 디바이스. - 제22항에 있어서,
상기 혼합된 IRAP 픽처는 제1 서브 비트스트림 및 제2 서브 비트스트림을 포함하는 분할된 비트스트림으로 인코딩되는,
인코딩 디바이스. - 제22항에 있어서,
상기 제1 서브픽처는 제1 서브 비트스트림으로 인코딩되고, 상기 제2 서브픽처는 제2 서브 비트스트림으로 인코딩되는,
인코딩 디바이스. - 제22항 내지 제25항 중 어느 한 항에 있어서,
상기 IRAP 픽처는 순간 디코더 리프레시(IDR) 픽처인,
인코딩 디바이스. - 코딩 장치로서,
인코딩할 픽처를 수신하도록 또는 디코딩할 비트스트림을 수신하도록 구성된 수신기;
상기 수신기에 결합된 전송기 ― 상기 전송기는 상기 비트스트림을 디코더에 전송하도록 또는 디코딩된 이미지를 디스플레이로 전송하도록 구성됨 ―;
상기 수신기 또는 상기 전송기 중 적어도 하나에 결합된 메모리 ― 상기 메모리는 명령들을 저장하도록 구성됨 ―; 및
상기 메모리에 결합된 프로세서를 포함하며,
상기 프로세서는 상기 메모리에 저장된 명령들을 실행하여 제1항 내지 제8항 중 어느 한 항 및 제9 항 내지 제16 항 중 어느 한 항의 방법을 수행하도록 구성되는,
코딩 장치. - 시스템으로서,
인코더; 및
상기 인코더와 통신하는 디코더를 포함하며,
상기 인코더 또는 상기 디코더는 제17항 내지 제27항 중 어느 한 항의 디코딩 디바이스, 인코딩 디바이스 또는 코딩 장치를 포함하는,
시스템. - 코딩하기 위한 수단으로서,
디코딩할 비트스트림을 수신하도록 구성된 수신 수단;
상기 수신 수단에 결합된 전송 수단 ― 상기 전송 수단은 디코딩된 이미지를 디스플레이 수단으로 전송하도록 구성됨 ―;
상기 수신 수단 또는 상기 전송 수단 중 적어도 하나에 결합된 저장 수단 ― 상기 저장 수단은 명령들을 저장하도록 구성됨 ―; 및
상기 저장 수단에 결합된 처리 수단을 포함하며,
상기 처리 수단은 상기 저장 수단에 저장된 명령들을 실행하여 제1항 내지 제8항 중 어느 한 항의 방법을 수행하도록 구성되는,
코딩하기 위한 수단. - 디코딩 디바이스로서,
코딩된 비디오 비트스트림을 수신하도록 구성된 수신기;
상기 메모리에 결합된 프로세서를 포함하며,
상기 프로세서는:
상기 코딩된 비디오 비트스트림 내의 플래그를 파싱(parse)하고 ― 상기 플래그의 값은 상기 코딩된 비디오 비트스트림 내의 픽처가 혼합된 네트워크 추상화 계층(NAL) 유닛 타입들을 가짐을 지시함 ―;
상기 플래그의 값에 기초하여 상기 픽처를 비-인트라 랜덤 액세스 포인트(IRAP) 픽처로서 디코딩하고; 그리고
디코딩된 픽처에 기초하여 이미지를 생성하도록 구성되는,
디코딩 디바이스. - 제30항에 있어서,
상기 픽처는 상기 픽처가 IRAP NAL 유닛 타입을 가질 때 상기 비-IRAP 픽처로서 디코딩되는,
디코딩 디바이스. - 제31항에 있어서,
상기 플래그의 값은 1인,
디코딩 디바이스.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962788634P | 2019-01-04 | 2019-01-04 | |
US62/788,634 | 2019-01-04 | ||
PCT/US2020/012205 WO2020142704A1 (en) | 2019-01-04 | 2020-01-03 | Sub-picture based random access |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210107121A true KR20210107121A (ko) | 2021-08-31 |
Family
ID=71407419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217024750A KR20210107121A (ko) | 2019-01-04 | 2020-01-03 | 비디오 인코더, 비디오 디코더 및 대응하는 방법 |
Country Status (7)
Country | Link |
---|---|
US (2) | US11936882B2 (ko) |
EP (1) | EP3906685A4 (ko) |
JP (2) | JP7378478B2 (ko) |
KR (1) | KR20210107121A (ko) |
CN (1) | CN113273202A (ko) |
MX (1) | MX2021008155A (ko) |
WO (1) | WO2020142704A1 (ko) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210118183A (ko) * | 2019-02-01 | 2021-09-29 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 서브픽처 또는 영역 단위 랜덤 액세스가 가능한 비디오 코덱 및 이를 이용한 비디오 합성을 위한 개념 |
CN113767624A (zh) * | 2019-03-08 | 2021-12-07 | 瑞典爱立信有限公司 | 提供相关/独立分区编码/解码的方法和有关装置 |
PT3925213T (pt) * | 2019-03-11 | 2023-11-03 | Huawei Tech Co Ltd | Restrições de imagens do tipo de unidades nal mistas |
WO2021132963A1 (ko) * | 2019-12-23 | 2021-07-01 | 엘지전자 주식회사 | 슬라이스 또는 픽처에 대한 nal 유닛 타입 기반 영상 또는 비디오 코딩 |
KR20220141794A (ko) * | 2020-03-05 | 2022-10-20 | 엘지전자 주식회사 | 혼성 nal 유닛 타입에 기반하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 전송하는 방법 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9596486B2 (en) * | 2013-04-05 | 2017-03-14 | Qualcomm Incorporated | IRAP access units and bitstream switching and splicing |
US9674533B2 (en) * | 2013-04-05 | 2017-06-06 | Qualcomm Incorporated | Picture alignments in multi-layer video coding |
CN105765978B (zh) * | 2013-10-11 | 2019-01-29 | 韩国电子通信研究院 | 用于编码/解码图像的方法和使用其的装置 |
US10404987B2 (en) * | 2013-10-11 | 2019-09-03 | Telefonaktiebolaget L M Ericsson (Publ) | Layer switching in video coding |
US9832463B2 (en) * | 2014-06-18 | 2017-11-28 | Telefonaktiebolaget L M Ericsson (Publ) | Robust encoding and decoding of pictures in video |
JP2017522767A (ja) * | 2014-06-18 | 2017-08-10 | テレフオンアクチーボラゲット エルエム エリクソン(パブル) | ビデオビットストリームにおけるランダムアクセス |
US10264286B2 (en) * | 2014-06-26 | 2019-04-16 | Qualcomm Incorporated | Bitstream conformance constraints in scalable video coding |
WO2018071666A1 (en) * | 2016-10-12 | 2018-04-19 | Arris Enterprises Llc | Coding schemes for virtual reality (vr) sequences |
KR20210058947A (ko) * | 2018-09-20 | 2021-05-24 | 샤프 가부시키가이샤 | 비디오 코딩에서 파라미터들을 시그널링하기 위한 시스템들 및 방법들 |
EP4072139A3 (en) * | 2019-01-02 | 2022-11-09 | Nokia Technologies Oy | An apparatus, a method and a computer program for video coding and decoding |
-
2020
- 2020-01-03 KR KR1020217024750A patent/KR20210107121A/ko not_active Application Discontinuation
- 2020-01-03 MX MX2021008155A patent/MX2021008155A/es unknown
- 2020-01-03 WO PCT/US2020/012205 patent/WO2020142704A1/en unknown
- 2020-01-03 JP JP2021539073A patent/JP7378478B2/ja active Active
- 2020-01-03 EP EP20736010.8A patent/EP3906685A4/en active Pending
- 2020-01-03 CN CN202080008008.6A patent/CN113273202A/zh active Pending
-
2021
- 2021-07-01 US US17/365,670 patent/US11936882B2/en active Active
-
2023
- 2023-08-17 JP JP2023133172A patent/JP2023164845A/ja active Pending
- 2023-10-31 US US18/498,421 patent/US20240187610A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
MX2021008155A (es) | 2021-10-13 |
US20240187610A1 (en) | 2024-06-06 |
US11936882B2 (en) | 2024-03-19 |
EP3906685A1 (en) | 2021-11-10 |
CN113273202A (zh) | 2021-08-17 |
WO2020142704A1 (en) | 2020-07-09 |
JP2022518368A (ja) | 2022-03-15 |
US20210329263A1 (en) | 2021-10-21 |
JP2023164845A (ja) | 2023-11-14 |
JP7378478B2 (ja) | 2023-11-13 |
EP3906685A4 (en) | 2022-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114584775B (zh) | 经译码的视频码流的解码方法,解码设备,译码系统 | |
AU2019339411B2 (en) | Signaling a sign value and an absolute value for a delta picture order count | |
KR20210130813A (ko) | 혼합된 nal 유닛 타입들을 갖는 픽처들 | |
US11936882B2 (en) | Sub-picture based random access | |
US20240305808A1 (en) | Output of Prior Pictures for Pictures Starting a New Coded Video Sequence In Video Coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal |