JP2019050595A - 効率的なスケーラブル符号化概念 - Google Patents
効率的なスケーラブル符号化概念 Download PDFInfo
- Publication number
- JP2019050595A JP2019050595A JP2018206897A JP2018206897A JP2019050595A JP 2019050595 A JP2019050595 A JP 2019050595A JP 2018206897 A JP2018206897 A JP 2018206897A JP 2018206897 A JP2018206897 A JP 2018206897A JP 2019050595 A JP2019050595 A JP 2019050595A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- image
- spatial
- segment
- syntax element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000010410 layer Substances 0.000 claims abstract description 1764
- 239000011229 interlayer Substances 0.000 claims abstract description 266
- 230000007774 longterm Effects 0.000 claims abstract description 171
- 238000000034 method Methods 0.000 claims abstract description 128
- 230000001419 dependent effect Effects 0.000 claims abstract description 42
- 238000012545 processing Methods 0.000 claims description 57
- 238000013507 mapping Methods 0.000 claims description 52
- 239000013598 vector Substances 0.000 claims description 39
- 238000005192 partition Methods 0.000 claims description 38
- 230000002123 temporal effect Effects 0.000 claims description 34
- 238000005070 sampling Methods 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 31
- 239000012634 fragment Substances 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000005259 measurement Methods 0.000 claims description 10
- 230000003111 delayed effect Effects 0.000 claims description 7
- 230000006978 adaptation Effects 0.000 claims description 5
- 230000000977 initiatory effect Effects 0.000 claims description 5
- 238000006467 substitution reaction Methods 0.000 claims description 4
- 230000000737 periodic effect Effects 0.000 claims description 2
- 230000008685 targeting Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 40
- 230000008054 signal transmission Effects 0.000 description 25
- 101150114515 CTBS gene Proteins 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 9
- 230000011664 signaling Effects 0.000 description 9
- 238000009795 derivation Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000000926 separation method Methods 0.000 description 7
- 241001482237 Pica Species 0.000 description 6
- 230000008901 benefit Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 5
- 101150103552 cagE gene Proteins 0.000 description 4
- 230000001934 delay Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 239000002356 single layer Substances 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- FMYKJLXRRQTBOR-UBFHEZILSA-N (2s)-2-acetamido-4-methyl-n-[4-methyl-1-oxo-1-[[(2s)-1-oxohexan-2-yl]amino]pentan-2-yl]pentanamide Chemical group CCCC[C@@H](C=O)NC(=O)C(CC(C)C)NC(=O)[C@H](CC(C)C)NC(C)=O FMYKJLXRRQTBOR-UBFHEZILSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/31—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/174—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/33—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/156—Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
化されるべき画像12または15のタイルの範囲内で、固定の順序は、存在しない。むしろ、タイルは、いかなる順序においても復号化され得る。それにもかかわらず、図16の実施例と関連して、タイル順序は、ベースレイヤ画像12のタイルに関して、少なくとも定義される。タイル順序644は、左上タイルからタイルの規則的な配列の右下タイルまでラスタースキャン順序行方向で進行するために定義される。図17aの実施例によれば、長期シンタックス要素構造642によって示されたインターレイヤオフセットは、デコーダ640がエンハンスメントレイヤ画像15の第1のタイルを復号化するのを開始し得るために、ベースレイヤ画像12のタイル順序644においてすでに復号化されねばならないタイルの数を示す。エンハンスメントレイヤ画像15のタイル間の「第1のタイル」を決定するために、エンハンスメントレイヤ画像15の第1のタイルは、エンハンスメントレイヤ画像15の左上タイルとして、固定して定義され得る。エンハンスメントレイヤ画像15のこの第1のタイルから始まり、ビデオデコーダ640は、タイル順序を画像12のタイル再分割に依存して画像15のエンハンスメントレイヤタイルを横断するために適応させ得る。図17aの場合、例えば、タイルへの画像12の再分割は、タイルの2つの行および3つの列から成るが、画像15は、タイルの2つの列を有するタイルの4つの行に再分割される。その場合、デコーダ640が、最初に最初の2本の行の左側のタイルを横断するためにエンハンスメントレイヤタイルを横断するタイル順序を選択することは有利であり得る。そして、最初の2本の行の右側のものを横断する、そうすると、矢印646で示すように、エンハンスメントレイヤ画像15のタイルの下側の行に関してこの横断を繰返す。本願明細書において記載されているすべての態様に当てはまる他の実施例によれば、しかしながら、画像15のエンハンスメントレイヤタイルの間のタイル復号化順序は、固定され、かつ、ベースレイヤ画像からタイルへの再分割から独立している。エンハンスメントレイヤ画像を復号化することを始める/開始するためのトリガとして単に信号伝送されたインターレイヤ符号化オフセットを使用する場合において、並べ替えは、いずれにしろ必要でない。点線を使用して、図17aは、エンハンスメントレイヤ画像15の第1のタイルの位置に局所的に対応する画像12の位置を示す。図17aから明らかになるように、図17aの手本となるケースで、デコーダ640がエンハンスメントレイヤ画像15の第1のタイルを復号化開始し得る前に、画像12の最初の2つのタイルが復号化されなければならなかったので、長期シンタックス要素構造642により決定されるインターレイヤオフセットは、「2」である。単にその場合において、インターレイヤ予測のために必要とされる同じ位置に配置された部分は、ベースレイヤ画像12において利用可能である。
タイルまたはスライスのような他の分割技術を有する並列処理は、画像の空間セグメント、すなわちタイルまたはスライス、への分割に基づく復号化遅延を示すビットストリームの範囲内で、ヒントから利益になり得る。ベースレイヤ(例えば再構成された画像データ)の情報は、エンハンスメントレイヤ復号化プロセスのために必要であり得る。
・符号化ビデオシーケンスの中で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、0に等しい、そして、entropy_coding_sync_enabled_flagは、0(すなわち、タイルもWPPも、ビデオシーケンスにおいて使用されない)に等しい、そして、ビットストリーム順序におけるベースレイヤの第1のmin_spatial_segment_delayスライスが完全に復号化されるときに、ビットストリーム順序における現在のレイヤの第1のスライスの復号化プロセスのためのすべてのベースレイヤ資源が、利用し得る。
・符号化ビデオシーケンスの中で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、1に等しい、そして、entropy_coding_sync_enabled_flagは、0(すなわち、タイルが、ビデオシーケンスにおいて使用される)に等しい、そして、同じ画像エリアを覆う第1のmin_spatial_segment_delayタイルが完全に復号化されるときに、ビットストリーム順序における現在のレイヤの第1のタイルの復号化プロセスのためのすべてのベースレイヤ資源が、利用し得る。
・符号化ビデオシーケンスの中で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、0に等しい、そして、entropy_coding_sync_enabled_flagは、1(すなわち、WPPが、符号化ビデオシーケンスにおいて使用される)に等しい、そして、ベースレイヤの第1のmin_spatial_segment_delay CTB行が完了されるときに、現在のレイヤの第1のCTB行の復号化プロセスのためのすべてのベースレイヤ資源は、利用し得る。
・符号化ビデオシーケンスの間で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、0に等しく、かつ、entropy_coding_sync_enabled_flagは、0(すなわち、タイルもWPPも、ビデオシーケンスにおいて使用されない)に等しい、そして、ビットストリーム順序におけるベースレイヤの第1のmin_spatial_segment_delayスライスが完全に復号化されるときに、ビットストリーム順序における現在のレイヤの第1のスライスの復号化プロセスのためのすべてのベースレイヤ資源は、利用し得る。
・符号化ビデオシーケンスの間で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、1に等しく、entropy_coding_sync_enabled_flagは、0(すなわち、タイルが、ビデオシーケンスにおいて使用される)に等しい、そして、同じ画像エリアを覆う第1のmin_spatial_segment_delayタイルが完全に復号化されるときに、ビットストリーム順序における現在のレイヤの第1のタイルの復号化プロセスのためのすべてのベースレイヤ資源は、利用し得る。
・符号化ビデオシーケンスの中で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、0に等しく、entropy_coding_sync_enabled_flagは、1(すなわち、WPPが、符号化ビデオシーケンスにおいて使用される)に等しい、そして、ベースレイヤの第1のmin_spatial_segment_delay CTB行が完了されるときに、現在のレイヤにおける第1のCTB行の復号化プロセスのためのすべてのベースレイヤ資源は、利用し得る。
・CtbSizeYA、PicWidthInCtbsYAおよびctbAddrRsAは、CtbSizeYおよびベースレイヤAのPicWidthInCtbsYおよびラスタースキャン順序におけるベースレイヤAにおけるCtbのCtb Addressであり、CtbSizeYB、PicWidthInCtbsYBおよびctbAddrRsBは、CtbSizeYおよび従属レイヤ/ビューBのPicWidthInCtbsYおよびラスタースキャン順序における従属レイヤBのCtbのCtb Addressであり、かつ、CtbScalingFactorBA、CtbRowBA(ctbAddrRsB)およびCtbColBA(ctbAddrRs)は次のように定義される。
CtbScalingFactorBA=(PicWidthInCtbsYA/PicWidthInCtbsYB)
CtbRowBA(ctbAddrRs)=
Ceil((Floor(ctbAddrRs/PicWidthInCtbsYB)+1)*CtbScalingFactorBA)−1
CtbColBA(ctbAddrRs)=
Ceil(((ctbAddrRs%PicWidthInCtbsYB)+1)*CtbScalingFactorBA)−1
現在のエンハンスメントレイヤ/ビューBのctbAddrRsBを有するCTBを復号化するとき、PicWidthInCtbsYA*CtbRowBA(ctbAddrRsB)+CtbColBA(ctbAddrRsB)+min_spatial_segment_delayに等しいctbAddrRsAを有するベースレイヤCTBが完全に復号化されるときに、すべての必要なベースレイヤ資源が、利用し得る。
さもなければ(min_spatial_segment_delayは、0に等しくなく、かつ、ctb_based_delay_enabledは、0に等しい)、以下の状況のうちの1つが正確に真であることは、ビットストリーム一致の要件である:
・符号化ビデオシーケンスの中で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、0に等しい、そして、entropy_coding_sync_enabled_flagは、0に等しい(すなわち、タイルもWPPも、ビデオシーケンスにおいて使用されない)、そして、ビットストリーム順序におけるベースレイヤの第1のmin_spatial_segment_delayスライスが完全に復号化されるときに、ビットストリーム順序における現在のレイヤの第1のスライスの復号化プロセスのための全てのベースレイヤ資源は、利用し得る。
・符号化ビデオシーケンスの中で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、1に等しい、そして、entropy_coding_sync_enabled_flagは、0(すなわち、タイルが、ビデオシーケンスにおいて使用される)に等しい、そして、同じ画像エリアを覆う第1のmin_spatial_segment_delayタイルが完全に復号化されるときに、ビットストリーム順序における現在のレイヤの第1のタイルの復号化プロセスのためのすべてのベースレイヤ資源は、利用し得る。
・符号化ビデオシーケンスの中で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、0に等しく、かつ、entropy_coding_sync_enabled_flagは、1に等しい(すなわち、WPPが、符号化ビデオシーケンスにおいて使用される)、そして、ベースレイヤの第1のmin_spatial_segment_delay CTB行が完了されるときに、現在のレイヤにおける第1のCTB行の復号化プロセスのためのすべてのベースレイヤ資源は、利用し得る。
min_spatial_segment_delayの値に応じて、以下が、適用される:
min_spatial_segment_delayが0に等しい場合、レイヤの復号化間の最小遅延に関する制限は、示されない。
さもなければ(min_spatial_segment_delayは、0に等しくない)、以下の条件のちょうど1つが真であることは、ビットストリーム一致の要件である:
・符号化ビデオシーケンスの中で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、0に等しい、そして、entropy_coding_sync_enabled_flagは、0(すなわち、タイルもWPPも、ビデオシーケンスにおいて使用されない)に等しい、そして、現在のレイヤにおけるスライスAに関して同じ画像エリアの少なくとも一部を含むビットストリーム順序における最後のスライスセグメントBの後でベースレイヤにおけるビットストリーム順序における(min_spatial_segment_delay−1)スライスに続く第1のスライスセグメントCが、完全に復号化されるときに、ビットストリーム順序における現在のレイヤの任意のスライスセグメントAの復号化プロセスのためのすべてのベースレイヤ資源は、利用し得る。
・符号化ビデオシーケンス内で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、1に等しい、そして、entropy_coding_sync_enabled_flagは、0(すなわち、タイルが、ビデオシーケンスにおいて使用される)に等しい、そして、タイルAに関して同じ画像エリアの少なくとも一部を含むビットストリーム順序における最後のタイルBの後でビットストリーム順序における(min_spatial_segment_delay−1)タイルに続く第1のタイルCが完全に復号化されたときに、ビットストリーム順序における現在のレイヤの任意のタイルAの復号化プロセスのためのすべてのベースレイヤ資源は、利用し得る。
・符号化ビデオシーケンスの中で活性化される各画像パラメータセットにおいて、tiles_enabled_flagは、0に等しい、そして、entropy_coding_sync_enabled_flagは、1に等しい(すなわち、WPPが、符号化ビデオシーケンスにおいて使用される)、そして、ビットストリーム順序におけるエンハンスメントレイヤのCTB行Aに関する同じ画像エリアの少なくとも一部を覆うベースレイヤの最後のCTB行Bの後の(min_spatial_segment_delay−1)CTB行に続く第1のCTB行Cが完全に復号化されたときに、現在のレイヤにおける任意のCTB行Aの復号化プロセスのためのすべてのベースレイヤ資源は、利用し得る。
1に等しいctu_based_offset_enabled_flag[i][j]は、CTUsを単位にして、第iのレイヤの第jのダイレクトリファレンスレイヤの各画像において、空間領域が第iのレイヤのいかなる画像の復号化のためのインターレイヤ予測のためにも使われないことが、min_spatial_segment_offset_plus1[i][j]およびmin_horizontal_ctu_offset_plus1[i][j]によってともに示されることを記述している。0に等しいctu_based_offset_enabled_flag[i][j]は、スライス部分、タイルまたはCTU行を単位にして、第iのレイヤの第jのダイレクトリファレンスレイヤの各画像において、第iのレイヤのいかなる画像の復号化のためのインターレイヤ予測のために使用されないことが、min_spatial_segment_offset_plus1[i]のみによって示されることを記述している。存在しないときに、ctu_based_offset_enabled_flag[i]の値は、0に等しいと推測される。
ctu_based_offset_enabled_flag[i][j]が1に等しいときに、min_horizontal_ctu_offset_plus1[i][j]は、下記で特定されるように、空間領域が、第iのレイヤの第jのダイレクトリファレンスレイヤの各画像において、min_spatial_segment_offset_plus1[i][j]と共に、第iのレイヤのいかなる画像の復号化のためのインターレイヤ予測のために使用されないことを示す。min_horizontal_ctu_offset_plus1[i][j]の値は、0からrefPicWidthInCtbsY[i][j]までの範囲を含んでいる。
変数curPicWidthInSamplesL[i],curPicHeightInSamplesL[i],curCtbLog2SizeY[i],curPicWidthInCtbsY[i]およびcurPicHeightInCtbsY[i]は、i番目のレイヤのPicWidthInSamplesL、PicHeightInSamplesL、CtbLog2SizeY、PicWidthInCtbsYおよびPicHeightInCtbsYにそれぞれ等しくセットされる。
変数refPicWidthInSamplesL[i][j],refPicHeightInSamplesL[i][j],refCtbLog2SizeY[i][j],refPicWidthInCtbsY[i][j]およびrefPicHeightInCtbsY[i][j]は、第iのレイヤの第jのダイレクトリファレンスレイヤのPicWidthInSamplesL、PicHeightInSamplesL、CtbLog2SizeY、PicWidthInCtbsYおよびPicHeightInCtbsYにそれぞれ等しくセットされる。
変数curScaledRefLayerLeftOffset[i][j],curScaledRefLayerTopOffset[i][j],curScaledRefLayerRightOffset[i][j]およびcurScaledRefLayerBottomOffset[i][j]は、第iのレイヤの第jのダイレクトリファレンスレイヤのscaled_ref_layer_left_offset[j]<<1,scaled_ref_layer_top_offset[j]<<1,scaled_ref_layer_right_offset[j]<<1,scaled_ref_layer_bottom_offset[j]<<1にそれぞれ等しく設定される。
第iのレイヤの第jのダイレクトリファレンスレイヤの画像において、第iのレイヤの画像におけるctbAddrに等しいラスタースキャンアドレスを有するCTUの配置されたCTUのラスタースキャンアドレスを意味する変数colCtbAddr[i][j]は、以下の通りに導出される:
第iのレイヤの画像における左上輝度 輝度サンプルと関連してctbAddrに等しいラスタースキャンアドレスを有するCTUの左上輝度サンプルの位置を特定している変数(xP、yP)は、以下の通りに導出される:
xP=(ctbAddr%curPicWidthInCtbsY[i])<<curCtbLog2SizeY
yP=(ctbAddr/curPicWidthInCtbsY[i])<<curCtbLog2SizeY
−変数scaleFactorX[i][j]およびscaleFactorY[i][j]は、以下の通りに導出される:
curScaledRefLayerPicWidthInSamplesL[i][j]=curPicWidthInSamplesL[i]−curScaledRefLayerLeftOffset[i][j]−curScaledRefLayerRightOffset[i][j]
curScaledRefLayerPicHeightInSamplesL[i][j]=curPicHeightInSamplesL[i]−curScaledRefLayerTopOffset[i][j]−curScaledRefLayerBottomOffset[i][j]
scaleFactorX[i][j]=((refPicWidthInSamplesL[i][j]<<16)+(curScaledRefLayerPicWidthInSamplesL[i][j]>>1))/curScaledRefLayerPicWidthInSamplesL[i][j]
scaleFactorY[i][j]=((refPicHeightInSamplesL[i][j]<<16)+(curScaledRefLayerPicHeightInSamplesL>>1))/curScaledRefLayerPicHeightInSamplesL[i][j]
xCol[i][j]=Clip3(0,(refPicWidthInSamplesL[i][j]−1),((xP−curScaledRefLayerLeftOffset[i][j])*scaleFactorX[i][j]+(1<<15))>>16))
yCol[i][j]=Clip3(0,(refPicHeightInSamplesL[i][j]−1),((yP−curScaledRefLayerTopOffset[i][j])*scaleFactorY[i][j]+(1<<15))>>16))
−変数colCtbAddr[i][j]は、以下の通りに導出される:
xColCtb[i][j]=xCol[i][j]>>refCtbLog2SizeY[i][j]
yColCtb[i][j]=yCol[i][j]>>refCtbLog2SizeY[i][j]
colCtbAddr[i][j]=xColCtb[i][j]+(yColCtb[i][j]*refPicWidthInCtbsY[i][j])
min_spatial_segment_offset_plus1[i][j]が0より大きいとき、以下が適用されることは、ビットストリーム一致の要件である:
−ctu_based_offset_enabled_flag[i][j]が0に等しいとき、以下のちょうど1つが適用される:
・第iのレイヤの第jのダイレクトリファレンスレイヤの画像によって関連される各PPSにおいて、tiles_enabled_flagは、0に等しい、そして、entropy_coding_sync_enabled_flagは、0に等しい、そして、以下が適用される:
・スライスセグメントAを、第iのレイヤの画像の任意のスライスセグメントとし、ctbAddrをスライスセグメントAにおける最後のCTUのラスタースキャンアドレスとする。スライスセグメントBを、スライスセグメントAとして同じアクセスユニットに属し、第iのレイヤの第jのダイレクトリファレンスレイヤに属し、かつラスタースキャンアドレスcolCtbAddr[i][j]を有するCTUを含むスライスセグメントとする。スライスセグメントCを、スライスセグメントBとして同じ画像内に存在し、復号化順序におけるスライスセグメントBに続き、そして、スライスセグメントBおよびそのスライスセグメントの間に復号化順序におけるmin_spatial_segment_offset_plus1[i]−1スライスセグメントが存在するスライスセグメントとする。スライスセグメントCが存在するとき、サンプルまたはスライスセグメントCの値または復号化順序におけるCに続く同じ画像のいかなるスライスセグメントが、スライスセグメントAの範囲内でいかなるサンプルの復号化プロセスにおけるインターレイヤ予測のためにも使用されないように、スライスセグメントAのシンタックス要素は、拘束される。
・第iのレイヤの第jのダイレクトリファレンスレイヤにおける画像によって参照される各PPSにおいて、tiles_enabled_flagは、1に等しく、かつ、entropy_coding_sync_enabled_flagは、0に等しい、そして、以下が適用される:
・タイルAを、第iのレイヤの任意の画像picAにおける任意のタイルであるとし、ctbAddrをタイルAにおける最後のCTUのラスタースキャンアドレスであるとする。タイルBを、picAとして同じアクセスユニットに属しかつ第iのレイヤの第jのダイレクトリファレンスレイヤに属しかつラスタースキャンアドレスcolCtbAddr[i][j]を有するCTUを含む画像picBに存在するものとする。タイルCを、picBにおいても存在し、復号化順序におけるタイルBに続くタイルであるものとする、そして、タイルBおよびそのタイルの間に、復号化順序におけるmin_spatial_segment_offset_plus1[i]が存在する。スライスセグメントCが存在するとき、サンプルまたはタイルCにおけるシンタックス要素値または復号化順序におけるCに続く同じ画像のいかなるタイルも、タイルAの範囲内でいかなるサンプルの復号化プロセスにおけるインターレイヤ予測のためにも使用されないように、タイルAのシンタックス要素は、拘束される。
・第iのレイヤの第jのダイレクトリファレンスレイヤにおける画像によって参照される各PPSにおいて、tiles_enabled_flagは、0に等しく、かつ、entropy_coding_sync_enabled_flagは、1に等しい、そして、以下が適用される:
・CTU行Aを、第iのレイヤのいかなる画像picAにおけるいかなるCTU行とし、ctbAddrをCTU行Aにおける最後のCTUのラスタースキャンアドレスとする。CTU行Bを、picAとして同じアクセスユニットに属しかつ第iのレイヤの第jのダイレクトリファレンスレイヤに属しかつラスタースキャンアドレスcolCtbAddr[i][j]を有するCTUを含む画像picBに存在するものとする。CTU行Cを、picBにおいても存在し、復号化順序におけるCTU行Bに続くCTU行であるものとする、そして、CTU行BおよびそのCTU行の間に、復号化順序におけるmin_spatial_segment_offset_plus1[i]−1CTU行が存在する。CTU行Cが存在するとき、サンプルまたはCTU行Cにおけるシンタックス要素値またはCに続く同じ画像の行も、CTU行Aの範囲内でいかなるサンプルの復号化プロセスにおけるインターレイヤ予測のためにも使用されないように、CTU行CにおけるCTU行Aのシンタックス要素は、拘束される。
−さもなければ(ctu_based_offset_enabled_flag[i][j]は、1に等しい)、以下が、適用される:
・変数refCtbAddr[i][j]は、以下の通りに導出される:
xOffset[i][j]=((xColCtb[i][j]+minHorizontalCtbOffset[i][j])>(refPicWidthInCtbsY[i][j]−1))?
(refPicWidthInCtbsY[i][j]−1―xColCtb[i][j]):
(minHorizontalCtbOffset[i][j])
yOffset[i][j]=(min_spatial_segment_offset_plus1[i][j]−1)*refPicWidthInCtbsY[i][j]
refCtbAddr[i][j]=colCtbAddr[i][j]+xOffset[i][j]+yOffset[i][j]
・CTUAを、第iのレイヤのいかなる画像picAにおける任意のCTUとし、ctbAddrをCTUAのラスタースキャンアドレスctbAddrであるとする。CTUBは、picAとして同じアクセスユニットに属しかつi番目のレイヤのj番目のダイレクトリファレンスレイヤに属しかつrefCtbAddr[i][j]より大きいラスタースキャンアドレスを有する画像において存在するCTUとする。CTUBが存在するとき、サンプルまたはCTU行Bにおけるシンタックス要素値が、CTUAの範囲内でいかなるサンプルの復号化プロセスにおけるインターレイヤ予測のためにも使用されないように、CTUAのシンタックス要素は、拘束される。
・スケーラビリティ次元識別子に関するNALユニットヘッダにおけるレイヤ識別子の値の解釈は、間接指定またはルックアップを必要としない。
・マッピング方法のために必要なVPS拡張シンタックス要素は、送信される必要はなく、それは、スケーラビリティ信号伝送のためのVSP拡張ビットの有意部分を構成する。
・中間のユニットは、通過するビデオビットストリームごとにマッピングテーブルを格納する必要はない。
RTP、例えばウェブ会議、に基づく大量の会話サービスシナリオにおいて、複数の関係者間の転送されたビデオは、それぞれのビデオビットストリームのパラメータセットを知っていなければならない多点制御ユニット(MCU)において適している。各関係者は、サムネイルビットストリームおよび2つのビットストリームに話者の強化された空間分解能、例えば720pおよび4K、を提供する。MCUは、どの関係者にどのストリームを与えるべきかという決定をする。スケーラビリティパラメータの簡単な分析は、従って、MCUに対する重要な救済である。分割ベースの方法は、スケーラビリティ信号伝送のマッピングベースアプローチと比較して、計算およびメモリ資源が少なくて済む。
トランスポートシステム、例えばRTPまたはMPEG2−TS、において、スケーラビリティ関連のコーデック情報をそれぞれの要素にマップすることは、マッピングベース法と比較して分割等のより少ない複雑さおよびビット節約機構から利益を享受し得る。転送システムがマッピングアプローチの仕方のスケーラビリティ信号伝送を採用するが、むしろマッピング間接指定を分解して、分割法で例えば次々に明確に示される各スケーラビリティ次元ごとに専用のスケーラビリティ識別子を生じさせることは、ありそうにない。
scalability_mask_flag[ i ]
NumScalabilityTypes += scalability_mask_flag[ i ]
]
2) scalability_mask_flag、すなわち空間698のうちのスケーラビリティ軸700、702の数および意味、およびそれ故にフィールドの部分xiの数nを明らかにしている情報、のシーケンス
3) dimension_id_len_minus1、すなわち軸の各々のためのフィールド690の各部分xiのビット長、(1つを除く全て、その理由は、フィールド690のすべての残りのビット706を含むために推定され得る
2.出力を読込んでいるビデオデコーダは、ベースおよびエンハンスメントレイヤを復号化し得る、そして、ベースおよびエンハンスメントレイヤは、同じビデオ符号化規格を使用して符号化される。
3.出力を読込んでいるビデオデコーダは、ベースおよびエンハンスメントレイヤを復号化し得る、そして、ベースおよびエンハンスメントレイヤは、異なるビデオ符号化規格を使用して符号化される。
エンハンスメントレイヤ規格パケットフォーマットは、ベースレイヤパケットを運ぶことを可能にする場合、ベースレイヤパケットは、エンハンスメントレイヤフォーマットに要約される。これは、ヘッダがエンハンスメントレイヤ規格ビデオデコーダによって理解され得る各ベースレイヤパケットに加えられ、そして、エンハンスメントレイヤビデオデコーダが様々なビデオ符号化規格のベースレイヤとしてパッケージを確認し得ることを可能にする。
異なるチャンネルは、スケーラブルなビットストリームの各レイヤのために使用される。ビデオ符号化規格は、チャンネル選択によりデコーダにおいて決定される。
・データストリーム40のそれぞれの高水準シンタックスの調査に基づきトランスポートレイヤデコーダ770により導出された、一方ではデータストリーム40のレイヤおよび同上のコーデック/規格の間の関連、に基づき、トランスポートレイヤデコーダ40は、現在検査されたNALユニットが2つの基準を満たすか否かを決定する:NALユニットレイヤは、デコーダ772に転送されるべきレイヤのサブセットに属し、どのサブセットがスケーラビリティ空間内における現在検査されたNALユニットレイヤの運転点により決定され、スケーラビリティ空間内におけるいずれの運転点がマルチレイヤマルチ規格デコーダ772に転送され得るか、そして、そうでないかに関する院外処方が、決定される。更に、トランスポートレイヤデコーダ770は、現在検査されたNALユニットレイヤコーデックが、マルチレイヤマルチ規格デコーダ772が扱い得るコーデック/規格のセットに属するかどうかを調べる。
・チェックで両方の基準が現在検査されたNALユニットによって満足されることが分かる場合、トランスポートレイヤデコーダ770は、復号化するためのデコーダ772に現在のNALユニットを転送する。
前記マルチレイヤビデオデータストリームの長期シンタックス要素構造(606;例えばtile_boundaries_aligned_flag)を以下のために検査し、
前記第2のレイヤの前記画像の前記空間セグメントの間の境界が前記第1のレイヤの前記画像(12)の前記空間セグメントの各境界を覆い、かつ、前記マルチレイヤビデオデータストリームの短期シンタックス要素(例えば602;column_width_minus1[i]およびcolumn_width_minus1[i])に基づく前記空間セグメントへの前記第1のレイヤおよび前記第2のレイヤの前記画像の前記再分割を、前記所定期間より短い時間間隔(604)で、周期的に決定するように、前記所定期間(608)の間、前記第2のレイヤの前記画像(608)が再分割される保証として第1のあり得る値のセット(例えばtile_boundaries_aligned_flag=1)から値を仮定する前記長期シンタックス要素構造を解釈し、
前記長期シンタックス要素構造が、第2のあり得る値のセット(例えばtile_boundaries_aligned_flag=0)から値を仮定した場合、少なくとも前記短期シンタックス要素の第1のあり得る値に対し、前記第1のレイヤの前記空間セグメントの前記境界のいずれかを覆わない前記第2のレイヤの前記画像の前記空間セグメントの間に境界が存在し、かつ、少なくとも前記短期シンタックス要素の第2のあり得る値に対し、前記第1のレイヤの前記空間セグメントの各境界を覆う前記第2のレイヤの前記画像の前記空間セグメントの間の境界が存在するように、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素から前記空間セグメントへの前記レイヤの前記画像の前記再分割を、前記所定期間より短い時間間隔で、周期的に決定する、ように構成されているビデオデコーダに関する。
前記第1のレイヤの前記画像の前記空間セグメントの境界と交差していて、前記第1のレイヤの前記画像の前記空間セグメントの前記復号化の間の復号化遅延に従っている前記イントラピクチャ空間予測をサポートすることと並行して前記第1のレイヤの画像の前記空間セグメントを復号化することにより、および前記第2のレイヤの前記画像の前記空間セグメントの境界を交差していて、前記第2のレイヤの前記画像の前記空間セグメントの前記復号化の間の復号化遅延に従っている前記イントラピクチャ空間予測をサポートすることと並行して前記第2のレイヤの画像の前記空間セグメントを復号化することにより、イントラピクチャ空間予測を使用している前記レイヤの前記画像を復号化するように構成された、第1の態様に記載のビデオデコーダに関する。
前記デコーダは、
前記第1のあり得る値のセットから値を仮定している長期シンタックス要素を、前記第2のレイヤの前記画像の前記タイル間の境界が前記第1のレイヤの前記タイルの各境界を覆い、かつ前記短期シンタックス要素に基づき前記第1のレイヤと関連して前記第2のレイヤの前記画像の再分割のタイル改良を、所定期間より短い時間間隔において、周期的に決定するように、所定期間の間、前記第2のレイヤの前記画像が再分割される保証として、解釈し、かつ、
前記長期シンタックス要素が前記第2のあり得る値のセットから前記値を仮定した場合、少なくとも前記短期シンタックス要素の第1のあり得る値に対し、前記第1のレイヤの前記タイルの前記境界のいずれも覆っていない前記第2のレイヤの前記画像の前記タイル間で境界が存在し、かつ、少なくとも前記短期シンタックス要素の第2のあり得る値に対し、前記第1のレイヤの前記タイルの各境界を覆う前記第2のレイヤの前記画像の前記タイル間の境界が存在するように、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素から前記レイヤの前記画像の前記タイルへの前記再分割を、前記所定期間より短い時間間隔において、周期的に決定するように構成された、第1の態様または第2の態様に記載のビデオデコーダに関する。
前記長期シンタックス要素が第2のあり得る値のセットの中の値にセットされる場合、前記所定期間よりも短い期間において、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素に基づく前記所定期間内に前記インターレイヤオフセットを周期的に決定するように構成された、第1または第2の態様に記載のビデオデコーダに関する。
長期シンタックス要素構造(606)および短期シンタックス要素(602)を前記マルチレイヤビデオデータストリームに挿入し、かつ、前記短期シンタックス要素は、前記時間間隔において、前記第1のレイヤおよび前記第2のレイヤの前記画像の前記空間セグメントへの前記再分割を定義し、かつ
前記長期シンタックス要素構造を設定する間で切替え、
前記時間間隔より長い所定期間(608)の間、第1のあり得る値のセットからの値は、前記短期シンタックス要素をあり得る設定のセットからの適切なサブセットに設定しながら、前記第2のレイヤの前記画像の前記空間セグメントの間の境界は前記第1のレイヤの前記空間セグメントの各境界に重畳するように、前記適切なサブセットは、前記所定期間の間に、前記第2のレイヤの前記画像が再分割されるように選択され、
前記所定期間の間、第2のあり得る値のセットからの値は、あり得る設定の前記セットのいずれかに前記短期シンタックス要素を設定しながら、前記あり得る設定のセットは、前記第1のレイヤの前記空間セグメントの前記境界のいずれかに重畳しない前記第2のレイヤの前記画像の前記空間セグメントの間に境界が存在することにより、少なくとも1つの設定を、および、前記第2のレイヤの前記画像の前記空間セグメントの間の境界が前記第1のレイヤの前記空間セグメントの各境界に重畳することによる少なくとも他の設定を含む、ように切替えるように構成された、ビデオエンコーダに関する。
前記第1のレイヤの画像の前記空間セグメントの境界を横断する前記イントラピクチャ空間予測をサポートすることにより、および、前記第1のレイヤの前記画像の前記空間セグメントの前記サブセットの前記エントロピー符号化に対する前記エントロピーコンテキスト確率を初期化することにより、または、前記直接適合状態で前記第1のレイヤの前記画像の前記空間セグメントの以前のサブセットの、前記サブセット間の順序に従って、前記エントロピーコンテキスト確率を採用する状況下で、および前記第2のレイヤの画像の前記空間セグメントの境界と交差する前記イントラピクチャ空間予測をサポートすることにより、および、前記第2のレイヤの前記画像の前記空間セグメントの前記サブセットの前記エントロピー符号化に対する前記エントロピーコンテキスト確率を初期化することにより、または、前記直接適合状態で前記第2のレイヤの前記画像の前記空間セグメントの以前のサブセットの、前記サブセット間の順序に従い、前記エントロピーコンテキスト確率を採用する状況下で、イントラピクチャ空間予測を使用して前記レイヤの前記画像を符号化しかつエントロピーコンテキスト確率に適合するエントロピー符号化を行うように構成されている、第8の態様に記載のビデオエンコーダに関する。
前記長期シンタックス要素構造を設定する場合、
前記第1のあり得る値のセット(tile_boundaries_aligned_flag=1)からの値は、前記時間間隔より大きい所定期間の間に、前記短期シンタックス要素を一組のあり得る設定から適当なサブセットに設定され、前記所定期間の間に、タイルへの前記第2のレイヤの画像の再分割が一致するかまたはタイルへの前記第1のレイヤの画像の再分割を精緻化するように前記適当なサブセットが選択されている、あるいは、
第2のあり得る値のセット(tile_boundaries_aligned_flag=0)からの値は、前記所定期間の間に、前記第1のレイヤの前記タイルの前記境界のいずれかに重畳しない前記第2のレイヤの前記画像の前記タイルの間に境界が存在することにより、前記短期シンタックス要素は、前記所定期間の間少なくとも一回間隔で、あり得る設定の前記セットの第1のあり得る値にセットされるように設定され、前記所定期間の間、少なくとも他の時間間隔に対し、前記第2のレイヤの前記画像の前記タイルが前記第1のレイヤの前記タイルの各境界に重畳する間境界に従って、あり得る設定の前記セットの第2のあり得る値に設定する、ように構成された第8または第9の態様に記載のビデオエンコーダに関する。
前記長期シンタックス要素構造を、
前記第1のあり得る値からの値に設定する場合、前記時間間隔より長い前記所定期間を使用して、前記短期シンタックス要素を一連のあり得るセットからの適切なサブセットに設定し、所定期間の間、前記第1のレイヤの前記画像の各空間セグメントが前記長期シンタックス要素構造の前記値に依存してnを有する第2のレイヤの前記画像のn空間セグメントから正確に成立つように前記適切なサブセットが選択されているように構成されている、第8または第9の態様に記載のビデオエンコーダに関する。
前記第1の空間セグメントに依存する前記アップサンプリングされた基準画像の分割(622)の任意の部分が、前記分割の他の任意の分割により覆われた前記第1の空間レイヤの前記画像の部分から独立であるように、あるいは、
前記アップサンプリングされた基準画像の前記分割(622)の任意の部分が、前記それぞれの分割に空間的に隣接する分割の他の分割により覆われた前記第1の空間レイヤの前記画像の部分に従属するように、
アップサンプリングされた基準画像を得て前記アップサンプリングされた基準画像を使用して第2の空間レイヤを予測するために第1の空間レイヤの画像(12)をアップサンプリングし、そして、前記デコーダは、前記シンタックス要素に依存して、前記第1の空間レイヤの前記画像を補間(620)するために、前記空間スケーラブルビットストリームにおいてシンタックス要素(616;例えばindependent_tile_upsampling_idc)に応答する、ように構成されているデコーダに関する。
前記第1の空間セグメントのいずれかによって空間的に覆われた前記アップサンプリングされた基準ピクチャのいかなる部分も、前記それぞれの空間セグメントに隣接して、前記第1の空間セグメントの他のいかなる空間セグメントによって覆われた前記第1の空間レイヤの前記画像の部分に依存しているように、シンタックス要素に応じて、前記第1の空間レイヤの前記画像を補間(620)するために、前記空間スケーラブルビットストリームにおける前記シンタックス要素(616)に応答する、第13または第14の態様によるデコーダに関する。
前記それぞれの第1の空間セグメントの境界で各第1の空間セグメントに対する前記イントラピクチャ空間予測を中断させながら、または、
前記第1の空間セグメントの境界と交差する前記イントラピクチャ空間予測をサポートしながら、エントロピーコンテキスト確率の適合を使用して最初の各空間セグメントをエントロピー復号化しながら、かつ第1の空間セグメントその他から独立して前記第1の空間セグメントの前記エントロピーコンテキスト確率を初期化しながら、または、前記以前の第1の空間セグメントの中間位置まで適合するように、前記第1のレイヤの前記画像の前記空間セグメントの以前の第1の空間セグメントの、前記第1の空間セグメントの間の順序に従って、前記エントロピーコンテキスト確率を採用する状況下で、イントラピクチャ空間予測を使用して前記復号化を実行するように構成された、第13〜第16の態様のいずれかの態様に記載のデコーダに関する。
(例えばindependent_tile_upsampling_idc=0)前記第2のタイルのいずれかにより空間的に覆われた前記アップサンプリングされた基準ピクチャの任意の部分が、前記それぞれのタイルに隣接している第2のタイルの他のいずれかによって覆われた前記第1の空間レイヤの前記画像の部分に依存しているように、
前記空間スケーラブルビットストリームが前記第1の空間セグメントにおいてその中に符号化された前記第1の空間レイヤの前記画像を有し、前記第2の空間セグメントにおいてその中に符号化された前記第2の空間レイヤの前記画像を有し、前記デコーダは、前記シンタックス要素に依存して、前記第1の空間レイヤの前記画像を補間するために、前記空間スケーラブルビットストリームにおいて前記シンタックス要素(606)に応答する、第13または第14の態様に記載のデコーダに関する。
前記第1の空間セグメントに依存する前記アップサンプリングされた基準画像の分割のいかなる分割が、前記分割の前記他のいかなる分割により覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、または
前記アップサンプリングされた基準画像の前記分割のいかなる分割が、前記それぞれの分割に空間的に隣接している前記分割の他の分割により覆われた前記第1の空間レイヤの前記画像の部分に従属しているように、
アップサンプリングされた基準画像を得るためにおよび前記アップサンプリングされた基準画像を使用して第2の空間レイヤの画像を予測するために、第1の空間レイヤの画像をアップサンプリングし、前記エンコーダは、シンタックス要素(606)を空間スケーラブルビットストリームにセットしかつ挿入し、かつ前記シンタックス要素に依存して、前記第1の空間レイヤの前記画像を補間するよう構成されている、エンコーダに関する。
前記第1の空間セグメントのいずれかによって空間的に覆われたアップサンプリングされた基準画像のいかなる部分が、前記第1の空間セグメントの他のいずれかにより覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、あるいは、
前記第1の空間セグメントのいずれかにより空間的に覆われた前記アップサンプリングされた基準ピクチャのいかなる部分が、前記第1の空間セグメントの他のいかなる空間セグメントによって覆われる前記第1の空間レイヤの前記画像の部分に従属して、前記それぞれの第1の空間セグメントに隣接するように、
前記シンタックス要素を空間スケーラブルビットストリームにセットしかつ挿入し、前記シンタックス要素に応じて、前記第1の空間レイヤの前記画像を補間するように構成されている、第25の態様に記載のデコーダに関する。
前記第1および第2の空間セグメントの空間的に同位置に配置された境界により空間的に限定された前記アップサンプリングされた基準ピクチャの任意の部分は、前記第1および第2の空間セグメントの空間的に同位置に配置された境界により空間的に制限された、前記アップサンプリングされた基準画像の他のいずれかの部分により覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、あるいは、
前記第2の空間セグメントのいずれかにより空間的に覆われた前記アップサンプリングされた基準画像の任意の部分は、前記それぞれの空間セグメントに隣接する第2の空間セグメントの他のいずれかにより覆われた前記第1の空間レイヤの前記画像の部分に従属するように、
前記エンコーダは、前記第2の空間レイヤの前記画像を前記第2の空間セグメントにおける前記空間スケーラブルビットストリームに符号化されるように構成され、前記エンコーダは、前記シンタックス要素を前記空間スケーラブルビットストリームにセットしかつ挿入し、前記シンタックス要素に依存して前記第1の空間レイヤの前記画像を補間するように構成されている、第27または第28の態様に記載のエンコーダに関する。
前記ビデオデコーダは、
前記マルチレイヤビデオデータストリームの長期シンタックス要素構造(642;例えばmin_spatial_segment_delay)を検査し、
前記長期シンタックス要素構造(例えばmin_spatial_segment_delay≠0)があり得る値の第1のセットの値にセットされた場合、所定期間に対し前もって前記インターレイヤオフセットを決定するために前記長期シンタックス要素の前記値を使用し、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントのサイズおよび位置を、および、前記所定期間よりも短い時間間隔で、および前記マルチレイヤビデオデータストリームの短期シンタックス要素(602)にそれぞれ基づき前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の空間サンプリング解像度を、周期的に決定し、
前記長期シンタックス要素があり得る値の前記第1のセットと素なあり得る値の第2のセット(例えばmin_spatial_segment_delay=0)の値にセットされた場合、前記所定期間よりも短い時間間隔で、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素に基づき前記所定期間内で前記インターレイヤオフセットを周期的に決定する、ように構成されているビデオデコーダに関する。
長期シンタックス要素構造(min_spatial_segment_delay)および短期シンタックス要素を前記マルチレイヤビデオデータストリームに挿入およびセットし、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素は、定期的に、それぞれ前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの時間間隔、サイズ、位置において定義し、かつ、前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度を定義し、
前記エンコーダは、セットの間を切替えるように構成され、
前記所定期間の間、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度が、前記第2のレイヤの画像の空間セグメントの前記横断に関連して前記第1のレイヤの画像の空間セグメントの前記横断の間前記長期シンタックス要素により示された前記インターレイヤオフセットより短いまたは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより、それぞれ前記マルチレイヤビデオデータストリームの復号化を可能にするように、前記時間間隔より長い所定期間に対し前記インターレイヤオフセットを示す前記値を有し、所定期間に対し、あり得る一連のセットから適切なサブセットへ前記短期シンタックス要素を、セットして、前記適切なサブセットが選択され、あり得る値の第1のセットの値への前記長期シンタックス要素構造(min_spatial_segment_delay≠0)をセットし、
前記所定期間の間、あり得る値の第2のセット(min_spatial_segment_delay=0)の値への前記長期シンタックス要素は、あり得る値の前記第1のセットと素であり、前記短期シンタックス要素を可能な一連のセットのいずれかにセットし、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度に従う少なくとも1つのセットを含むあり得る一連のセットは、それぞれ、前記第2のレイヤの画像の空間セグメントの前記横断に関連する前記第1のレイヤの画像の空間セグメントの前記横断の間、前記長期シンタックス要素により示された前記インターレイヤオフセットより短いあるいは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより前記マルチレイヤビデオデータストリームの復号化を不可にし、かつ、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度に従う少なくとも1つの他のセットは、それぞれ、前記第2のレイヤの画像の空間セグメントの前記横断に関連する前記第1のレイヤの画像の空間セグメントの前記横断の間、前記長期シンタックス要素により示された前記インターレイヤオフセットより短いあるいは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより前記マルチレイヤビデオデータストリームの復号化を可能にするようにセットすることを含む、ビデオエンコーダに関する。
前記同じ画像の直接連続した前記横断の間のサブストリームのイントラピクチャイントラサブストリーム遅延および前記第2のレイヤの画像のサブストリームの前記横断に関連した前記第1のレイヤの画像のサブストリームの前記横断の間の前記インターレイヤオフセットを有する時間重畳態様における前記サブストリームを順次横断することにより波面並列処理を使用して前記サブストリームにおける前記マルチレイヤビデオデータストリームを並列に復号化可能にする態様で、前記空間セグメントは、前記レイヤが分割されかつ前記レイヤの前記画像が通常再分割されるサブストリームであるように、符号化を実行するように構成されている、第41の態様に記載のビデオエンコーダに関する。
前記サブストリームの境界を横断する前記イントラピクチャ空間予測をサポートし、かつ前記サブストリームを個々にエントロピー符号化する、または中間適応状態で以前の、前記サブストリーム間の順序に従い、サブストリームの前記エントロピーコンテキスト確率を採用するために、前記エントロピーコンテキスト確率を初期化することにより、イントラピクチャ空間予測を使用し、かつエントロピーコンテキスト確率に適合するエントロピー符号化を行うことにより、前記サブストリームを符号化するように構成されている、第42の態様に記載のビデオエンコーダに関する。
前記第1および第2のレイヤの前記画像の各々の範囲内で前記タイル間のタイル順序で前記タイルを横断することにより、前記マルチレイヤビデオデータストリームが前記タイルに復号化可能とする態様で、前記空間セグメントは前記レイヤの画像が分割されるタイルであるように、符号化を実行し、かつ、前記第2のレイヤの前記画像のタイルの前記横断に関連して前記第1のレイヤの前記画像の前記タイルの前記横断の間に前記インターレイヤオフセットに並行して前記第1のレイヤの画像の直接続行するタイルおよび前記第2のレイヤの画像の直接続行するタイルの復号化を実行するように構成されている、第41の態様に記載のビデオエンコーダに関する。
前記第2のNALユニットにおいて、タイプインジケータフィールド(696、例えばdedicated_scalability_ids_flag)を検査し;
前記タイプインジケータフィールドに第1の状態(例えばdedicated_scalability_ids_flag=0)がある場合、前記第2のNALユニットから前記運転点まで前記第1のNALユニットヘッダにおけるレイヤインジケータフィールド(例えばlayer_id)のあり得る値をマップしているマッピング情報(例えばlayer_id_in_nuh[i],dimension_id[i][j])を読み込んで、前記レイヤインジケータフィールドおよび前記マッピング情報を介して前記第1のNALユニットを前記第1のNALユニットの運転点と関連させ;
前記タイプインジケータフィールドに第2の状態(dedicated_scalability_ids_flag=1)がある場合、前記第1のNALユニットにおける前記レイヤインジケータフィールドを1つ以上の部分に分割することにより、および、前記スケーラビリティ空間内でベクトルの座標として前記部分の前記値を使用することにより、前記第1のNALユニットの前記運転点を配置することで、前記第1のNALユニットを前記運転点に関連させる、ように構成されたネットワーク実体に関する。
前記タイプインジケータフィールドには、前記第2の状態(dedicated_scalability_ids_flag=1)がある場合、前記第2のNALユニットにおけるシンタックス要素(dimension_id_len_minus1)に従って1つ以上の部分に前記第1のNALユニットにおける前記レイヤインジケータフィールドを分割することにより、前記第1のNALユニットを前記運転点に関連付け、前記スケーラビリティ空間内におけるベクトルの座標として前記部分の前記値を使用することにより前記第1のNALユニットの前記運転点を配置して、前記第2のNALユニットにおける更なるシンタックス要素(scalability_mask)に従って前記スケーラビリティ次元を意味論的に決定するように構成された、第48の態様に記載のネットワーク実体に関する。
前記タイプインジケータフィールドは、前記第1の状態(dedicated_scalability_ids_flag=0)がある場合、前記第2のNALユニットにおける更なるシンタックス要素(scalability_mask)から前記スケーラビリティ次元の数pおよび意味論的意味を決定し、かつ前記第2のNALユニットからp次元ベクトルのリスト(708)を読込むことにより前記レイヤインジケータフィールドの前記あり得る値を前記運転点に関連付けるように構成されている、請求項48または第49に記載のネットワーク実体に関する。
8または第52の態様のいずれかに記載のネットワーク実体に関する。
タイプインジケータフィールドを前記第2のNALユニットに挿入しかつ、
同上が前記運転点への前記第1のNALユニットヘッダにおけるレイヤインジケータフィールドのあり得る値を前記第2のNALユニットにマッピングするマップ情報を挿入して第1の状態を有するように前記タイプインジケータフィールドをセットし、かつ、前記第1のNALユニットの運転点は、前記マップ情報により、前記それぞれのレイヤインジケータフィールドに関連するように、前記第1のNALユニットにおける前記レイヤインジケータフィールドをセットし、
同上が前記第1のNALユニットにおける前記レイヤインジケータフィールドを1つ以上の部分に分割することにより前記第1のNALユニットにおける前記レイヤインジケータフィールドをセットして第2の状態(dedicated_scalability_ids_flag=1)を有するように前記タイプインジケータフィールドをセットし、かつ、前記スケーラビリティの範囲内で、ベクトルの座標に対応する前記部分の前記値が、前記それぞれの第1のNALユニットに関連する前記運転点を示すように前記以上の部分をセットする、
間で切替えるように構成された、ビデオエンコーダに関する。
同上には第2の状態があるように前記タイプインジケータフィールドを設定する際に、前記第1のNALユニットにおける前記レイヤインジケータフィールドが1つ以上の部分に分割されるものに関して定義する前記第2のNALユニットにシンタックス要素をセットしかつ挿入し、前記スケーラビリティ次元を意味論的に定義する前記第2のNALユニットに更なるシンタックス要素をセットしかつ挿入するように構成されている、第54の態様に記載のビデオエンコーダに関する。
前記タイプインジケータフィールドには第1の状態(例えばdedicated_scalability_ids_flag=0)がある場合、前記第2のNALユニットにおけるマッピング情報は、前記第1のNALユニットヘッダにおけるレイヤインジケータフィールド(例えばlayer_id)のあり得る値を前記運転点にマップすることに応じて;
前記タイプインジケータフィールドには第2の状態(dedicated_scalability_ids_flag=1)がある場合、前記第1のNALユニットにおける前記レイヤインジケータフィールドは、前記スケーラビリティ空間内のベクトルの座標として前記部分の前記値により定義された前記第1のNALユニットの前記運転点を有する1つ以上の部分に分割されることに応じて、
前記第2のNALユニットの中で存在する、マルチレイヤビデオデータストリームに関する。
各NALユニットに対し、どのコーデックが関係しているかを確認し、かつ、
前記マルチレイヤビデオデータストリームの前記NALユニットを、前記マルチレイヤビデオデータストリームを復号化するために様々なコーデックと関連したレイヤの間にインターレイヤ予測を使用する前記マルチ規格マルチレイヤデコーダに手渡す、トランスポートレイヤデコーダに関する。
マルチレイヤビデオデータストリームのシンタックス要素構造(例えばctb_delay_enabled_flag、min_spatial_segment_delay)に応じて、前記第2のレイヤの画像の空間的な第2のブロックの前記横断と関連して前記第1のレイヤの画像の第1のブロックの前記横断との間で、インターレイヤオフセットを有する時間重畳態様で前記第1および第2のブロックを順次横断することにより前記第1および第2のレイヤの前記画像の並列復号化のために、前記第1のブロックを単位として測定されたインターレイヤオフセットを決定するように構成された、ビデオデコーダに関する。
所定期間を予め決定し、かつ、
前記所定期間より短い時間間隔において、前記マルチレイヤビデオデータストリームの短期シンタックス要素に基づき、前記第1のレイヤの前記画像の前記第1のブロックおよび前記第2のレイヤの前記画像の前記第2のブロックのサイズおよび位置、および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の空間サンプリング解像度をそれぞれ周期的に決定するように構成された、第62の態様に記載のビデオデコーダ。
前記長期シンタックス要素(例えばctb_delay_enabled_flag=0、min_spatial_segment_delay≠0)があり得る値の第1のセットの値にセットされる場合、前記第1のレイヤの前記画像の空間セグメントを単位として前記インターレイヤオフセットを測定する所定期間に対し予め前記インターレイヤオフセットを決定するために前記長期シンタックス要素構造の前記値を使用し、前記マルチレイヤビデオデータストリームの短期シンタックス要素に基づき、前記所定期間よりも短い時間間隔において、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントのサイズおよび位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の空間サンプリング解像度をそれぞれ周期的に決定し、
前記長期シンタックス要素構造があり得る値の前記第1のセットに素なあり得る値の第2のセット(例えばmin_spatial_segment_delay=0)の値にセットされる場合、前記所定期間よりも短い時間間隔において、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素に基づく前記所定期間内に前記インターレイヤオフセットを周期的に決定し、
前記長期シンタックス要素構造があり得る値の前記第1および第2のセットに素なあり得る値の第3のセット(例えばctb_delay_enabled_flag=1、min_spatial_segment_delay≠0)の値にセットされる場合、前記第1のブロックを単位とした前記インターレイヤオフセットの前記決定を実行し、前記第1のレイヤの前記画像の前記第1のブロックおよび前記第2のレイヤの前記画像の前記第2のブロックの前記サイズおよび位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の空間サンプリング解像度の周期的な決定をそれぞれ実行する、
ように、前記マルチレイヤビデオデータストリームの前記長期シンタックス要素を検査する、第63の態様に記載のビデオデコーダに関する。
前記遅延インジケータを、同上がゼロまたはそれ以外にセットされるかに関して決定するために調査し、
前記遅延インジケータがゼロにセットされた場合、前記長期シンタックス要素構造の値が前記第2のセットの値にセットされ、かつ、
前記遅延インジケータがゼロ以外の値にセットされた場合、前記長期シンタックス要素構造の前記値を決定するために前記ゼロ以外の値を使用し、かつ前記ユニットフラグがゼロの場合、前記長期シンタックス要素構造の前記値が前記第1のセットの値にセットされ、かつ前記ユニットフラグが1の場合、前記長期シンタックス要素構造の前記値が前記第3のセットの値にセットされることを決定する、第64ないし第65の態様のいずれかに記載のビデオデコーダに関する。
前記ビデオデコーダは、前記レイヤの画像(12、15)が再分割される空間セグメント(80)における前記マルチレイヤビデオデータストリームの並列復号化をサポートし、前記方法は、
前記マルチレイヤビデオデータストリームの長期シンタックス要素構造(606;例えばtile_boundaries_aligned_flag)を検査し、
前記第2のレイヤの前記画像の前記空間セグメントの間の境界が前記第1のレイヤの前記画像(12)の前記空間セグメントの各境界に重畳し、かつ、前記マルチレイヤビデオデータストリームの短期シンタックス要素(602;例えば、column_width_minus1[i]およびcolumn_width_minus1[i])に基づく前記空間セグメントへの前記第1のレイヤおよび前記第2のレイヤの前記画像の前記再分割を、前記所定期間より短い時間間隔(604)で、周期的に決定するように、前記所定期間(608)の間、前記第2のレイヤの前記画像(608)が再分割される保証として第1のあり得る値のセット(例えばtile_boundaries_aligned_flag=1)から値を仮定する前記長期シンタックス要素構造を解釈し、かつ、
前記長期シンタックス要素構造が、第2のあり得る値のセット(例えばtile_boundaries_aligned_flag=0)から値を仮定した場合、少なくとも前記短期シンタックス要素の第1のあり得る値に対し、前記第1のレイヤの前記空間セグメントの前記境界のいずれかを覆わない前記第2のレイヤの前記画像の前記空間セグメントの間の境界、および、少なくとも前記短期シンタックス要素の第2のあり得る値に対し、前記第1のレイヤの前記空間セグメントの各境界に重畳する前記第2のレイヤの前記画像の前記空間セグメントの間の境界が存在するように、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素から前記空間セグメントへの前記レイヤの前記画像の前記再分割を、前記所定期間より短い時間間隔で、周期的に決定する、方法に関する。
長期シンタックス要素構造(606)および短期シンタックス要素(602)を前記マルチレイヤビデオデータストリームに挿入し、前記短期シンタックス要素は、前記第1のレイヤおよび前記第2のレイヤの前記画像の前記空間セグメントへの前記再分割を、時間間隔において、定義しており、かつ、
前記長期シンタックス要素構造を設定する間で切替え、
前記時間間隔より長い所定期間(608)の間、第1のあり得る値のセットからの値は、前記短期シンタックス要素をあり得る設定のセットからの適切なサブセットに設定しながら、前記第2のレイヤの前記画像の前記空間セグメントの間の境界は前記第1のレイヤの前記空間セグメントの各境界に重畳するように、前記適切なサブセットは、前記所定期間の間に、前記第2のレイヤの前記画像が再分割されるように選択され、
前記所定期間の間、第2のあり得る値のセットからの値は、あり得る設定の前記セットのいずれかに前記短期シンタックス要素を設定しながら、前記あり得る設定のセットは、前記第1のレイヤの前記空間セグメントの前記境界のいずれかに重畳しない前記第2のレイヤの前記画像の前記空間セグメントの間に境界が存在することにより、少なくとも1つの設定を、および、前記第2のレイヤの前記画像の前記空間セグメントの間の境界が前記第1のレイヤの前記空間セグメントの各境界に重畳することによる少なくとも他の設定を含む、ように切替えることを含む、方法に関する。
前記方法は、
前記第1の空間セグメントに依存する、前記アップサンプリングされた基準画像の分割(622)の任意の分割は、前記分割の任意の他の分割により覆われた前記第1の空間レイヤの前記画像の部分から独立するように、あるいは、
前記アップサンプリングされた基準ピクチャの前記分割(622)の任意の部分は、前記それぞれの分割に空間的に隣接する前記分割の他の分割により覆われた前記第1の空間レイヤの前記画像の部分に従属するように、
アップサンプリングされた基準画像を得るために第1の空間レイヤの画像(12)をアップサンプリングし、かつ前記アップサンプリングされた基準画像を使用して第2の空間レイヤの画像(15)を予測し、前記復号化のための方法は、前記シンタックス要素に従属して、前記第1の空間レイヤの前記画像を補間(620)するために、空間スケーラブルビットストリームにおけるシンタックス要素(616;例えばindependent_tile_upsampling_idc)に応答することを含む方法に関する。
前記方法は、
前記第1の空間セグメントに依存する、前記アップサンプリングされた基準画像の分割の任意の部分は、前記分割の前記他の部分のいずれかにより覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、
前記アップサンプリングされた基準画像の前記分割の任意の部分は、前記それぞれの部分に空間的に隣接する前記分割の他の部分により覆われた前記第1の空間レイヤの前記画像の部分に従属しているように、
アップサンプリングされた基準画像を得るために第1の空間レイヤの画像をアップサンプリングし、前記アップサンプリングされた基準画像を使用して第2の空間レイヤの画像を予測し、前記方法は、シンタックス要素(606)を空間スケーラブルビットストリームにセットしかつ挿入し、前記シンタックス要素に依存して前記第1の空間レイヤの前記画像を補間することを含む、方法に関する。
前記マルチレイヤビデオデータストリームの長期シンタックス要素構造(642;例えばmin_spatial_segment_delay)を検査し、
前記長期シンタックス要素構造(例えばmin_spatial_segment_delay≠0)があり得る値の第1のセットの値にセットされた場合、所定期間に対し前もって前記インターレイヤオフセットを決定するために前記長期シンタックス要素の前記値を使用し、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントのサイズおよび位置を、および、前記所定期間よりも短い時間間隔で、および前記マルチレイヤビデオデータストリームの短期シンタックス要素(602)にそれぞれ基づき前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の空間サンプリング解像度を、周期的に決定し、
前記長期シンタックス要素があり得る値の第1のセットと素なあり得る値の第2のセット(例えばmin_spatial_segment_delay=0)の値にセットされるとき、前記所定期間より短い時間間隔において、所定の時間より小さい時間間隔において、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素に基づく所定期間内で前記インターレイヤオフセットを周期的に決定することを含む方法に関する。
長期シンタックス要素構造(min_spatial_segment_delay)および短期シンタックス要素を前記マルチレイヤビデオデータストリームに挿入およびセットし、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素は、定期的に、それぞれ前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの時間間隔、サイズ、位置において定義し、かつ、前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度を定義し、
前記方法は、セットの間を切替えるように構成され、
前記所定期間の間、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度が、前記第2のレイヤの画像の空間セグメントの前記横断に関連して前記第1のレイヤの画像の空間セグメントの前記横断の間前記長期シンタックス要素により示された前記インターレイヤオフセットより短いまたは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより、それぞれ前記マルチレイヤビデオデータストリームの復号化を可能にするように、前記時間間隔より長い所定期間に対し前記インターレイヤオフセットを示す前記値を有し、所定期間に対し、あり得る一連のセットから適切なサブセットへ前記短期シンタックス要素を、セットして、前記適切なサブセットが選択され、あり得る値の第1のセットの値への前記長期シンタックス要素構造(min_spatial_segment_delay≠0)をセットし、
前記所定期間の間、あり得る値の第2のセット(min_spatial_segment_delay=0)の値への前記長期シンタックス要素は、あり得る値の前記第1のセットと素であり、前記短期シンタックス要素を可能な一連のセットのいずれかにセットし、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度に従う少なくとも1つのセットを含むあり得る一連のセットは、それぞれ、前記第2のレイヤの画像の空間セグメントの前記横断に関連する前記第1のレイヤの画像の空間セグメントの前記横断の間、前記長期シンタックス要素により示された前記インターレイヤオフセットより短いあるいは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより前記マルチレイヤビデオデータストリームの復号化を不可にし、かつ、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度に従う少なくとも1つの他のセットは、それぞれ、前記第2のレイヤの画像の空間セグメントの前記横断に関連する前記第1のレイヤの画像の空間セグメントの前記横断の間、前記長期シンタックス要素により示された前記インターレイヤオフセットより短いあるいは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより前記マルチレイヤビデオデータストリームの復号化を可能にするようにセットすることを含む、方法に関する。
前記第2のNALユニットにおいて、タイプインジケータフィールド(696、例えばdedicated_scalability_ids_flag)を検査し;
前記タイプインジケータフィールドに第1の状態(例えばdedicated_scalability_ids_flag=0)がある場合、前記第2のNALユニットから前記運転点まで前記第1のNALユニットヘッダにおけるレイヤインジケータフィールド(例えばlayer_id)のあり得る値をマップしているマッピング情報(例えばlayer_id_in_nuh[i],dimension_id[i][j])を読み込んで、前記レイヤインジケータフィールドおよび前記マッピング情報を介して前記第1のNALユニットを前記第1のNALユニットの前記運転点と関連させ;
前記タイプインジケータフィールドに第2の状態(dedicated_scalability_ids_flag=1)がある場合、前記第1のNALユニットにおける前記レイヤインジケータフィールドを1つ以上の部分に分割することにより、および、前記スケーラビリティ空間内でベクトルの座標として前記部分の前記値を使用することにより、前記第1のNALユニットの前記運転点を配置することで、前記第1のNALユニットを前記運転点に関連させることを含む方法。
タイプインジケータフィールドを前記第2のNALユニットに挿入しかつ、
同上が前記運転点への前記第1のNALユニットヘッダにおけるレイヤインジケータフィールドのあり得る値を前記第2のNALユニットにマッピングするマップ情報を挿入して第1の状態を有するように前記タイプインジケータフィールドをセットし、かつ、前記第1のNALユニットの運転点は、前記マップ情報により、前記それぞれのレイヤインジケータフィールドに関連するように、前記第1のNALユニットにおける前記レイヤインジケータフィールドをセットし、
同上が前記第1のNALユニットにおける前記レイヤインジケータフィールドを1つ以上の部分に分割することにより前記第1のNALユニットにおける前記レイヤインジケータフィールドをセットして第2の状態(dedicated_scalability_ids_flag=1)を有するように前記タイプインジケータフィールドをセットし、かつ、前記スケーラビリティの範囲内で、ベクトルの座標に対応する前記部分の前記値が、前記それぞれの第1のNALユニットに関連する前記運転点を示すように前記以上の部分をセットする、
間で切替えることを含む、方法に関する。
各NALユニットごとに、どのコーデックが関連しているかを確認し、かつ、
前記マルチレイヤビデオデータストリームのNALユニットを、前記マルチレイヤビデオデータストリームを復号化するために様々なコーデックと関連したレイヤの間にインターレイヤ予測を使用する前記マルチ規格マルチレイヤデコーダに渡すこと、を含む方法に関する。
前記マルチレイヤビデオデータストリームのシンタックス要素構造(例えばctb_delay_enabled_flag、min_spatial_segment_delay)に応じて、前記第2のレイヤの画像の空間的な第2のブロックの前記横断に関連して前記第1のレイヤの画像の第1のブロックの前記横断の間前記インターレイヤオフセットを有する時間重畳態様における前記第1および第2のブロックを順次横断することにより、前記第1および第2のレイヤの前記画像を並列復号化するための、前記第1のブロックを単位として測定されたインターレイヤオフセットを決定することを含む、方法に関する。
Claims (81)
- 第1のレイヤから第2のレイヤまでインターレイヤ予測を使用してレイヤの階層においてシーンが符号化されるマルチレイヤビデオデータストリーム(40)を復号化するためのビデオデコーダであって、前記ビデオデコーダは、前記レイヤの画像(12,15)が再分割される空間セグメント(80)における前記マルチレイヤビデオデータストリームの並列復号化をサポートし、前記ビデオデコーダは、
前記マルチレイヤビデオデータストリームの長期シンタックス要素構造(606;例えばtile_boundaries_aligned_flag)を以下のために検査し、
前記第2のレイヤの前記画像の前記空間セグメントの間の境界が前記第1のレイヤの前記画像(12)の前記空間セグメントの各境界を覆い、かつ、前記マルチレイヤビデオデータストリームの短期シンタックス要素(例えば602;column_width_minus1[i]およびcolumn_width_minus1[i])に基づく前記空間セグメントへの前記第1のレイヤおよび前記第2のレイヤの前記画像の前記再分割を、前記所定期間より短い時間間隔(604)で、周期的に決定するように、前記所定期間(608)の間、前記第2のレイヤの前記画像(608)が再分割される保証として第1のあり得る値のセット(例えばtile_boundaries_aligned_flag=1)から値を仮定する前記長期シンタックス要素構造を解釈し、
前記長期シンタックス要素構造が、第2のあり得る値のセット(例えばtile_boundaries_aligned_flag=0)から値を仮定した場合、少なくとも前記短期シンタックス要素の第1のあり得る値に対し、前記第1のレイヤの前記空間セグメントの前記境界のいずれかを覆わない前記第2のレイヤの前記画像の前記空間セグメントの間に境界が存在し、かつ、少なくとも前記短期シンタックス要素の第2のあり得る値に対し、前記第1のレイヤの前記空間セグメントの各境界を覆う前記第2のレイヤの前記画像の前記空間セグメントの間の境界が存在するように、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素から前記空間セグメントへの前記レイヤの前記画像の前記再分割を、前記所定期間より短い時間間隔で、周期的に決定する、ように構成されているビデオデコーダ。 - それぞれの前記空間セグメントの境界で各空間セグメントごとに前記イントラピクチャ空間予測を中断させることを伴うイントラピクチャ空間予測を使用している前記レイヤの前記画像を復号化する;または、
前記第1のレイヤの前記画像の前記空間セグメントの境界と交差していて、前記第1のレイヤの前記画像の前記空間セグメントの前記復号化の間の復号化遅延に従っている前記イントラピクチャ空間予測をサポートすることと並行して前記第1のレイヤの画像の前記空間セグメントを復号化することにより、および前記第2のレイヤの前記画像の前記空間セグメントの境界を交差していて、前記第2のレイヤの前記画像の前記空間セグメントの前記復号化の間の復号化遅延に従っている前記イントラピクチャ空間予測をサポートすることと並行して前記第2のレイヤの画像の前記空間セグメントを復号化することにより、イントラピクチャ空間予測を使用している前記レイヤの前記画像を復号化するように構成された、請求項1に記載のビデオデコーダ。 - 前記レイヤの画像が再分割されるタイルにおける前記マルチレイヤビデオデータストリームのタイル並列復号化をサポートし、
前記デコーダは、
前記第1のあり得る値のセットから値を仮定している長期シンタックス要素を、前記第2のレイヤの前記画像の前記タイル間の境界が前記第1のレイヤの前記タイルの各境界を覆い、かつ前記短期シンタックス要素に基づき前記第1のレイヤと関連して前記第2のレイヤの前記画像の再分割のタイル改良を、所定期間より短い時間間隔において、周期的に決定するように、所定期間の間、前記第2のレイヤの前記画像が再分割される保証として、解釈し、かつ、
前記長期シンタックス要素が前記第2のあり得る値のセットから前記値を仮定した場合、少なくとも前記短期シンタックス要素の第1のあり得る値に対し、前記第1のレイヤの前記タイルの前記境界のいずれも覆っていない前記第2のレイヤの前記画像の前記タイル間で境界が存在し、かつ、少なくとも前記短期シンタックス要素の第2のあり得る値に対し、前記第1のレイヤの前記タイルの各境界を覆う前記第2のレイヤの前記画像の前記タイル間の境界が存在するように、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素から前記レイヤの前記画像の前記タイルへの前記再分割を、前記所定期間より短い時間間隔において、周期的に決定するように構成された、請求項1または2に記載のビデオデコーダ。 - 前記ビデオデコーダは、それぞれの前記タイルの境界線で各タイルのイントラピクチャ空間予測を中断させるイントラピクチャ空間予測を使用しているレイヤの画像を復号化するように構成されている、請求項3に記載のビデオデコーダ。
- 前記デコーダは、所定期間の間、前記第1のレイヤの前記画像の各空間セグメントが前記長期シンタックス要素構造の前記値に依存するnでもって第2のレイヤの前記画像の正確にnの空間セグメントを占めるように、前記第2のレイヤの前記画像が再分割される保証として、第1のあり得る値からの値であることを仮定する前記長期シンタックス要素構造を解釈し、
前記長期シンタックス要素が第2のあり得る値のセットの中の値にセットされる場合、前記所定期間よりも短い期間において、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素に基づく前記所定期間内に前記インターレイヤオフセットを周期的に決定するように構成された、請求項1または2に記載のビデオデコーダ。 - 前記デコーダは、前記第1のあり得る値であるか否かの中から前記値を仮定する前記長期シンタックス要素構造に依存する前記マルチレイヤビデオデータストリームの前記第2のレイヤを復号化するための検査を開始するか開始しないかを決定するように構成されている、請求項1または2に記載のビデオデコーダ。
- 前記ビデオデコーダは、ハイブリッドビデオデコーダである、請求項1ないし6のいずれかに記載のビデオデコーダ。
- 前記マルチレイヤビデオデータストリームが、前記レイヤの画像が再分割される空間セグメントにおいて、並列に復号化可能であるように、第1のレイヤから第2のレイヤまでインターレイヤ予測を使用しているレイヤの階層においてマルチレイヤビデオデータストリームにシーンを符号化するためのビデオエンコーダであって、前記エンコーダは、
長期シンタックス要素構造(606)および短期シンタックス要素(602)を前記マルチレイヤビデオデータストリームに挿入し、かつ、前記短期シンタックス要素は、前記時間間隔において、前記第1のレイヤおよび前記第2のレイヤの前記画像の前記空間セグメントへの前記再分割を定義し、かつ
前記長期シンタックス要素構造を設定する間で切替え、
前記時間間隔より長い所定期間(608)の間、第1のあり得る値のセットからの値は、前記短期シンタックス要素をあり得る設定のセットからの適切なサブセットに設定しながら、前記第2のレイヤの前記画像の前記空間セグメントの間の境界は前記第1のレイヤの前記空間セグメントの各境界に重畳するように、前記適切なサブセットは、前記所定期間の間に、前記第2のレイヤの前記画像が再分割されるように選択され、
前記所定期間の間、第2のあり得る値のセットからの値は、あり得る設定の前記セットのいずれかに前記短期シンタックス要素を設定しながら、前記あり得る設定のセットは、前記第1のレイヤの前記空間セグメントの前記境界のいずれかに重畳しない前記第2のレイヤの前記画像の前記空間セグメントの間に境界が存在することにより、少なくとも1つの設定を、および、前記第2のレイヤの前記画像の前記空間セグメントの間の境界が前記第1のレイヤの前記空間セグメントの各境界に重畳することによる少なくとも他の設定を含む、ように切替えるように構成された、ビデオエンコーダ。 - 前記ビデオエンコーダは、前記それぞれの空間セグメントの境界で各空間セグメントに対し前記イントラピクチャ空間予測を中断させるとともにイントラピクチャ空間予測を使用している前記レイヤの前記画像を符号化し;あるいは、
前記第1のレイヤの画像の前記空間セグメントの境界を横断する前記イントラピクチャ空間予測をサポートすることにより、および、前記第1のレイヤの前記画像の前記空間セグメントの前記サブセットの前記エントロピー符号化に対する前記エントロピーコンテキスト確率を初期化することにより、または、前記直接適合状態で前記第1のレイヤの前記画像の前記空間セグメントの以前のサブセットの、前記サブセット間の順序に従って、前記エントロピーコンテキスト確率を採用する状況下で、および前記第2のレイヤの画像の前記空間セグメントの境界と交差する前記イントラピクチャ空間予測をサポートすることにより、および、前記第2のレイヤの前記画像の前記空間セグメントの前記サブセットの前記エントロピー符号化に対する前記エントロピーコンテキスト確率を初期化することにより、または、前記直接適合状態で前記第2のレイヤの前記画像の前記空間セグメントの以前のサブセットの、前記サブセット間の順序に従い、前記エントロピーコンテキスト確率を採用する状況下で、イントラピクチャ空間予測を使用して前記レイヤの前記画像を符号化しかつエントロピーコンテキスト確率に適合するエントロピー符号化を行うように構成されている、請求項8に記載のビデオエンコーダ。 - 前記空間セグメントはタイルであり、前記エンコーダは、
前記長期シンタックス要素構造を設定する場合、
前記第1のあり得る値のセット(tile_boundaries_aligned_flag=1)からの値は、前記時間間隔より大きい所定期間の間に、前記短期シンタックス要素を一組のあり得る設定から適当なサブセットに設定され、前記所定期間の間に、タイルへの前記第2のレイヤの画像の再分割が一致するかまたはタイルへの前記第1のレイヤの画像の再分割を精緻化するように前記適当なサブセットが選択されている、あるいは、
第2のあり得る値のセット(tile_boundaries_aligned_flag=0)からの値は、前記所定期間の間に、前記第1のレイヤの前記タイルの前記境界のいずれかに重畳しない前記第2のレイヤの前記画像の前記タイルの間に境界が存在することにより、前記短期シンタックス要素は、前記所定期間の間少なくとも一回間隔で、あり得る設定の前記セットの第1のあり得る値にセットされるように設定され、前記所定期間の間、少なくとも他の時間間隔に対し、前記第2のレイヤの前記画像の前記タイルが前記第1のレイヤの前記タイルの各境界に重畳する間境界に従って、あり得る設定の前記セットの第2のあり得る値に設定する、ように構成された請求項8または9に記載のビデオエンコーダ。 - 前記ビデオエンコーダは、それぞれの前記タイルの境界で各タイルに対し前記イントラピクチャ空間予測を中断させつつ、イントラピクチャ空間予測を使用している前記レイヤの前記画像を符号化するように構成されている、請求項10に記載のビデオエンコーダ。
- 前記エンコーダは、
前記長期シンタックス要素構造を、
前記第1のあり得る値からの値に設定する場合、前記時間間隔より長い前記所定期間を使用して、前記短期シンタックス要素を一連のあり得るセットからの適切なサブセットに設定し、所定期間の間、前記第1のレイヤの前記画像の各空間セグメントが前記長期シンタックス要素構造の前記値に依存してnを有する第2のレイヤの前記画像のn空間セグメントから正確に成立つように前記適切なサブセットが選択されているように構成されている、請求項8または9に記載のビデオエンコーダ。 - 画像が異なる空間レイヤにおいておよび、前記空間レイヤの少なくとも1つのために、第1の空間セグメントにおいて符号化される空間スケーラブルビットストリーム(40)を復号化するためのデコーダであって、前記デコーダは、
前記第1の空間セグメントに依存する前記アップサンプリングされた基準画像の分割(622)の任意の部分が、前記分割の他の任意の分割により覆われた前記第1の空間レイヤの前記画像の部分から独立であるように、あるいは、
前記アップサンプリングされた基準画像の前記分割(622)の任意の部分が、前記それぞれの分割に空間的に隣接する分割の他の分割により覆われた前記第1の空間レイヤの前記画像の部分に従属するように、
アップサンプリングされた基準画像を得て前記アップサンプリングされた基準画像を使用して第2の空間レイヤを予測するために第1の空間レイヤの画像(12)をアップサンプリングし、そして、前記デコーダは、前記シンタックス要素に依存して、前記第1の空間レイヤの前記画像を補間(620)するために、前記空間スケーラブルビットストリームにおいてシンタックス要素(616;例えばindependent_tile_upsampling_idc)に応答する、ように構成されているデコーダ。 - 前記デコーダは、異なる空間レイヤを並列に復号化するように構成されている、請求項13に記載のデコーダ。
- 前記デコーダは、前記第1の空間セグメントのいずれかにより空間的に覆われた前記アップサンプリングされた基準ピクチャのいかなる部分が、前記第1の空間セグメントの他のいずれかによって覆われる前記第1の空間レイヤの前記画像の部分から独立しているように、または、
前記第1の空間セグメントのいずれかによって空間的に覆われた前記アップサンプリングされた基準ピクチャのいかなる部分も、前記それぞれの空間セグメントに隣接して、前記第1の空間セグメントの他のいかなる空間セグメントによって覆われた前記第1の空間レイヤの前記画像の部分に依存しているように、シンタックス要素に応じて、前記第1の空間レイヤの前記画像を補間(620)するために、前記空間スケーラブルビットストリームにおける前記シンタックス要素(616)に応答する、請求項13または14によるデコーダ。 - 前記空間スケーラブルビットストリームは、前記第1の空間セグメントにおいてそこに符号化される第2の空間レイヤの前記画像を有する、請求項13〜15のいずれかに記載のデコーダ。
- 前記デコーダは、
前記それぞれの第1の空間セグメントの境界で各第1の空間セグメントに対する前記イントラピクチャ空間予測を中断させながら、または、
前記第1の空間セグメントの境界と交差する前記イントラピクチャ空間予測をサポートしながら、エントロピーコンテキスト確率の適合を使用して最初の各空間セグメントをエントロピー復号化しながら、かつ第1の空間セグメントその他から独立して前記第1の空間セグメントの前記エントロピーコンテキスト確率を初期化しながら、または、前記以前の第1の空間セグメントの中間位置まで適合するように、前記第1のレイヤの前記画像の前記空間セグメントの以前の第1の空間セグメントの、前記第1の空間セグメントの間の順序に従って、前記エントロピーコンテキスト確率を採用する状況下で、イントラピクチャ空間予測を使用して前記復号化を実行するように構成された、請求項13〜16のいずれかに記載のデコーダ。 - (例えばindependent_tile_upsampling_idc=2)前記第2のタイルのいずれかにより空間的に覆われた前記アップサンプリングされた基準ピクチャの任意の部分が、前記第2のタイルの他のいずれかにより空間的に覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、あるいは、
(例えばindependent_tile_upsampling_idc=1)前記第1および第2のタイルの空間的に同位置に配置された境界により空間的に限定された前記アップサンプリングされた基準ピクチャの任意の部分は、前記第1および第2のタイルの空間的に同位置に配置された境界により空間的に限定された、前記アップサンプリングされた基準ピクチャの他のいずれかの部分により覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、あるいは、
(例えばindependent_tile_upsampling_idc=0)前記第2のタイルのいずれかにより空間的に覆われた前記アップサンプリングされた基準ピクチャの任意の部分が、前記それぞれのタイルに隣接している第2のタイルの他のいずれかによって覆われた前記第1の空間レイヤの前記画像の部分に依存しているように、
前記空間スケーラブルビットストリームが前記第1の空間セグメントにおいてその中に符号化された前記第1の空間レイヤの前記画像を有し、前記第2の空間セグメントにおいてその中に符号化された前記第2の空間レイヤの前記画像を有し、前記デコーダは、前記シンタックス要素に依存して、前記第1の空間レイヤの前記画像を補間するために、前記空間スケーラブルビットストリームにおいて前記シンタックス要素(606)に応答する、請求項13または14に記載のデコーダ。 - 前記デコーダは、前記独立を達成するために、前記フィルタカーネルが突出する前記第1の空間レイヤの前記画像の前記それぞれの部分から独立して断片が満たされたことに従う代替規則を使用して、前記分割する前記他の分割のいずれかにより覆われ、前記第1の空間レイヤの前記画像のいずれの種類の部分に突出する、前記第1の空間レイヤの前記画像の前記補間において使用されたフィルタカーネルの断片を満たすように構成されている、請求項13〜18のいずれかに記載のデコーダ。
- 前記デコーダは、前記第1の空間レイヤの前記画像の外側境界から突出している前記フィルタカーネルの断片を満たしている前記代替規則を使用するように構成されている、請求項19に記載のデコーダ。
- 前記デコーダは、ビデオデコーダであって、画像ごとにまたは画像−シーケンスの基礎ごとに前記空間スケーラブルなビットストリームにおける前記シンタックス要素(606)に応答するように構成されている、請求項13〜20のいずれかに記載のデコーダ。
- 前記空間スケーラブルビットストリームは、前記第1の空間セグメントにおいてその中に符号化される前記第1の空間レイヤの前記画像を有し、前記空間スケーラブルビットストリームは、第2の空間セグメントに符号化された前記第2の空間レイヤの前記画像を有し、前記分割の境界は、前記第1および第2の空間セグメントの境界の空間重畳の論理積にあるいは前記第2の空間セグメントの前記境界に対応し、前記デコーダは、前記第1の空間レイヤの前記画像の前記補間において使用されたフィルタカーネルの断片を、前記シンタックス要素に依存して、満たすために応答し、前記断片が前記フィルタカーネルが突出する前記第1の空間レイヤの前記画像の前記それぞれの部分から独立してあるいは前記フィルタカーネルが突出する前記第1の空間レイヤの前記画像の前記それぞれの部分を使用して前記断片が充填されることに従って前記代替規則を使用する前記分割の隣接する分割に1つの分割から突出する、請求項13ないし21のいずれかに記載のデコーダ。
- 前記デコーダは、シンタックス要素(606)に依存するインターレイヤオフセットを用いて並列に前記第1および第2のレイヤを復号化するように構成されている、請求項13〜22のいずれかに記載のデコーダ。
- 前記デコーダは、前記シンタックス要素に従属する前記第1および第2の空間セグメントの境界、または、前記第2の空間セグメントの境界、の空間重畳の論理積に対応するように、前記分割の境界を設置するように構成されている、請求項13または23に記載のデコーダ。
- 様々な空間レイヤにおいて、および前記空間レイヤの少なくとも1つに対し第1の空間セグメントにおいて、画像を空間スケーラブルなビットストリームに符号化するエンコーダであって、前記エンコーダは、
前記第1の空間セグメントに依存する前記アップサンプリングされた基準画像の分割のいかなる分割が、前記分割の前記他のいかなる分割により覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、または
前記アップサンプリングされた基準画像の前記分割のいかなる分割が、前記それぞれの分割に空間的に隣接している前記分割の他の分割により覆われた前記第1の空間レイヤの前記画像の部分に従属しているように、
アップサンプリングされた基準画像を得るためにおよび前記アップサンプリングされた基準画像を使用して第2の空間レイヤの画像を予測するために、第1の空間レイヤの画像をアップサンプリングし、前記エンコーダは、シンタックス要素(606)を空間スケーラブルビットストリームにセットしかつ挿入し、かつ前記シンタックス要素に依存して、前記第1の空間レイヤの前記画像を補間するよう構成されている、エンコーダ。 - 前記エンコーダは、
前記第1の空間セグメントのいずれかによって空間的に覆われたアップサンプリングされた基準画像のいかなる部分が、前記第1の空間セグメントの他のいずれかにより覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、あるいは、
前記第1の空間セグメントのいずれかにより空間的に覆われた前記アップサンプリングされた基準ピクチャのいかなる部分が、前記第1の空間セグメントの他のいかなる空間セグメントによって覆われる前記第1の空間レイヤの前記画像の部分に従属して、前記それぞれの第1の空間セグメントに隣接するように、
前記シンタックス要素を空間スケーラブルビットストリームにセットしかつ挿入し、前記シンタックス要素に応じて、前記第1の空間レイヤの前記画像を補間するように構成されている、請求項25に記載のデコーダ。 - 前記エンコーダは、前記第1の空間レイヤを、前記第1の空間セグメントにおける前記空間スケーラブルビットストリームに前記第1の空間レイヤの画像をエンコードするように構成されている、請求項25または26に記載のエンコーダ。
- 前記エンコーダは、前記それぞれの第1の空間セグメントの境界で各第1の空間セグメントに対し前記イントラピクチャ空間予測を中断させるイントラピクチャ空間予測を使用している前記第1の空間レイヤの画像を符号化するように構成されている、請求項27に記載のエンコーダ。
- 前記第2の空間セグメントのいずれかにより空間的に覆われた前記アップサンプリングされた基準画像の任意の部分は、前記第2の空間セグメントの他のいずれかにより空間的に覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、あるいは、
前記第1および第2の空間セグメントの空間的に同位置に配置された境界により空間的に限定された前記アップサンプリングされた基準ピクチャの任意の部分は、前記第1および第2の空間セグメントの空間的に同位置に配置された境界により空間的に制限された、前記アップサンプリングされた基準画像の他のいずれかの部分により覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、あるいは、
前記第2の空間セグメントのいずれかにより空間的に覆われた前記アップサンプリングされた基準画像の任意の部分は、前記それぞれの空間セグメントに隣接する第2の空間セグメントの他のいずれかにより覆われた前記第1の空間レイヤの前記画像の部分に従属するように、
前記エンコーダは、前記第2の空間レイヤの前記画像を前記第2の空間セグメントにおける前記空間スケーラブルビットストリームに符号化されるように構成され、前記エンコーダは、前記シンタックス要素を前記空間スケーラブルビットストリームにセットしかつ挿入し、前記シンタックス要素に依存して前記第1の空間レイヤの前記画像を補間するように構成されている、請求項27または28に記載のエンコーダ。 - 前記エンコーダは、前記それぞれの第2の空間セグメントの境界で各第2の空間セグメントに対し前記イントラピクチャ空間予測を中断させるイントラピクチャ空間画像を使用している前記第2の空間レイヤの前記画像を符号化するように構成されている、請求項29に記載のエンコーダ。
- 前記エンコーダは、前記第1の空間レイヤの前記画像の任意の部分からの前記独立を成し遂げるために、前記第1の空間レイヤの前記画像の前記補間において使用されるフィルタカーネルの断片を満たすために、前記第1の空間レイヤの前記画像のそのような部分に突出し、前記フィルタカーネルがその中に突出する前記第1の空間レイヤの前記画像の各部から独立して前記断片が満たされることに従って代替規則を使用するように構成されている、請求項25〜30のいずれかに記載のエンコーダ。
- 前記エンコーダは、前記第1の空間レイヤの前記画像の外側境界から突出しているフィルタカーネルの断片を満たしている代替規則をも使用するように構成される、請求項31に記載のエンコーダ。
- 前記エンコーダは、ビデオエンコーダであって、前記シンタックス要素を画像ごとにまたは画像シーケンスの基礎ごとに前記空間スケーラブルビットストリームにセットしかつ挿入するように構成されている、請求項25〜32のいずれかに記載のエンコーダ。
- シーンが第1のレイヤから第2のレイヤまでインターレイヤ予測を使用してレイヤの階層において符号化されたマルチレイヤビデオデータストリームを復号化するためのビデオデコーダであって、前記ビデオデコーダは、前記第2のレイヤの画像の空間セグメントの前記横断に関連して前記第1のレイヤの画像の空間セグメントの前記横断の間インターレイヤ遅延を有する時間重畳態様における前記空間セグメントを順次横断することにより分割された前記レイヤの画像への空間セグメントにおける前記マルチレイヤビデオデータストリームの並列復号化をサポートし、
前記ビデオデコーダは、
前記マルチレイヤビデオデータストリームの長期シンタックス要素構造(642;例えばmin_spatial_segment_delay)を検査し、
前記長期シンタックス要素構造(例えばmin_spatial_segment_delay≠0)があり得る値の第1のセットの値にセットされた場合、所定期間に対し前もって前記インターレイヤオフセットを決定するために前記長期シンタックス要素の前記値を使用し、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントのサイズおよび位置を、および、前記所定期間よりも短い時間間隔で、および前記マルチレイヤビデオデータストリームの短期シンタックス要素(602)にそれぞれ基づき前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の空間サンプリング解像度を、周期的に決定し、
前記長期シンタックス要素があり得る値の前記第1のセットと素なあり得る値の第2のセット(例えばmin_spatial_segment_delay=0)の値にセットされた場合、前記所定期間よりも短い時間間隔で、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素に基づき前記所定期間内で前記インターレイヤオフセットを周期的に決定する、ように構成されているビデオデコーダ。 - 前記ビデオデコーダは、前記第2のレイヤの画像のサブストリームの前記横断に関して、前記第1のレイヤの画像のサブストリームの前記横断の間に、前記同じ画像および前記インターレイヤオフセットの直接的に連続したサブストリームの前記横断の間にイントラピクチャインターサブストリーム遅延を伴って時間重畳態様における前記サブストリームを順次横断することにより波面並列処理を使用して、前記レイヤの画像が分割され、前記レイヤの前記画像が定期的に再分割されるブロックの行からなるサブストリームにおける前記マルチレイヤビデオデータストリームを並列に復号化するように構成されている、請求項34に記載のビデオデコーダ。
- 前記ビデオデコーダは、前記サブストリームの境界と交差するイントラピクチャ空間予測をサポートする、前記サブストリームを並列に復号化するように構成されている、請求項35に記載のビデオデコーダ。
- 前記ビデオデコーダは、前記レイヤの画像が分割されるタイルにおける前記マルチレイヤビデオデータストリームを復号化するように構成されており、前記第1および第2のレイヤの前記画像の各々の中で前記タイルの間のタイル順序で前記タイルを横断して、前記第2のレイヤの前記画像のタイルの前記横断と関連して前記第1のレイヤの前記画像の前記タイルの前記横断との間に前記インターレイヤオフセットと並列に前記第1のレイヤの画像の直ちに後続するタイルおよび前記第2のレイヤの画像の直ちに後続するタイルを復号化するように構成されている、請求項34に記載のビデオデコーダ。
- 前記ビデオデコーダは、前記それぞれのタイルの境界で各タイルに対し前記イントラピクチャ空間予測を中断させるイントラピクチャ空間予測を使用して前記第1および第2のレイヤの前記画像を復号化するように構成されている、請求項37に記載のビデオデコーダ。
- 前記ビデオ復号化器は、前記第1のレイヤの前記画像の空間セグメントを単位として前記インターレイヤオフセットを測定するため前記長期シンタックス要素の前記値を使用して前記インターレイヤオフセットを決定する際に前記長期シンタックス要素の前記値を使用するように構成されている、請求項34〜38のいずれかに記載のビデオデコーダ。
- 前記ビデオ復号器は、前記第1のレイヤの前記画像の前記復号化および横断を開始するのに対し遅れるべき前記第2のレイヤの前記画像の第1の空間セグメントの前記復号化により前記第1のレイヤの前記画像の空間セグメントの数として前記長期シンタックス要素の前記値を使用することにより、前記インターレイヤオフセットを決定する際の前記長期シンタックス要素の前記値を使用するように構成されている、請求項34ないし39のいずれかに記載のビデオデコーダ。
- マルチレイヤビデオデータストリームが、前記第2のレイヤの画像の空間セグメントの前記横断に関連する前記第1のレイヤの画像の空間セグメントの前記横断の間にインターレイヤオフセットを有する時間重畳態様において前記空間セグメントを順次横断することにより前記レイヤの画像が分割された空間セグメントに復号化可能なように第1のレイヤから第2のレイヤにインターレイヤ予測を使用してレイヤの階層においてシーンをマルチレイヤビデオデータストリームに符号化するビデオエンコーダであって、前記ビデオエンコーダは、
長期シンタックス要素構造(min_spatial_segment_delay)および短期シンタックス要素を前記マルチレイヤビデオデータストリームに挿入およびセットし、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素は、定期的に、それぞれ前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの時間間隔、サイズ、位置において定義し、かつ、前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度を定義し、
前記エンコーダは、セットの間を切替えるように構成され、
前記所定期間の間、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度が、前記第2のレイヤの画像の空間セグメントの前記横断に関連して前記第1のレイヤの画像の空間セグメントの前記横断の間前記長期シンタックス要素により示された前記インターレイヤオフセットより短いまたは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより、それぞれ前記マルチレイヤビデオデータストリームの復号化を可能にするように、前記時間間隔より長い所定期間に対し前記インターレイヤオフセットを示す前記値を有し、所定期間に対し、あり得る一連のセットから適切なサブセットへ前記短期シンタックス要素を、セットして、前記適切なサブセットが選択され、あり得る値の第1のセットの値への前記長期シンタックス要素構造(min_spatial_segment_delay≠0)をセットし、
前記所定期間の間、あり得る値の第2のセット(min_spatial_segment_delay=0)の値への前記長期シンタックス要素は、あり得る値の前記第1のセットと素であり、前記短期シンタックス要素を可能な一連のセットのいずれかにセットし、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度に従う少なくとも1つのセットを含むあり得る一連のセットは、それぞれ、前記第2のレイヤの画像の空間セグメントの前記横断に関連する前記第1のレイヤの画像の空間セグメントの前記横断の間、前記長期シンタックス要素により示された前記インターレイヤオフセットより短いあるいは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより前記マルチレイヤビデオデータストリームの復号化を不可にし、かつ、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度に従う少なくとも1つの他のセットは、それぞれ、前記第2のレイヤの画像の空間セグメントの前記横断に関連する前記第1のレイヤの画像の空間セグメントの前記横断の間、前記長期シンタックス要素により示された前記インターレイヤオフセットより短いあるいは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより前記マルチレイヤビデオデータストリームの復号化を可能にするようにセットすることを含む、ビデオエンコーダ。 - 前記ビデオエンコーダは、
前記同じ画像の直接連続した前記横断の間のサブストリームのイントラピクチャイントラサブストリーム遅延および前記第2のレイヤの画像のサブストリームの前記横断に関連した前記第1のレイヤの画像のサブストリームの前記横断の間の前記インターレイヤオフセットを有する時間重畳態様における前記サブストリームを順次横断することにより波面並列処理を使用して前記サブストリームにおける前記マルチレイヤビデオデータストリームを並列に復号化可能にする態様で、前記空間セグメントは、前記レイヤが分割されかつ前記レイヤの前記画像が通常再分割されるサブストリームであるように、符号化を実行するように構成されている、請求項41に記載のビデオエンコーダ。 - 前記ビデオエンコーダは、
前記サブストリームの境界を横断する前記イントラピクチャ空間予測をサポートし、かつ前記サブストリームを個々にエントロピー符号化する、または中間適応状態で以前の、前記サブストリーム間の順序に従い、サブストリームの前記エントロピーコンテキスト確率を採用するために、前記エントロピーコンテキスト確率を初期化することにより、イントラピクチャ空間予測を使用し、かつエントロピーコンテキスト確率に適合するエントロピー符号化を行うことにより、前記サブストリームを符号化するように構成されている、請求項42に記載のビデオエンコーダ。 - 前記ビデオエンコーダは、
前記第1および第2のレイヤの前記画像の各々の範囲内で前記タイル間のタイル順序で前記タイルを横断することにより、前記マルチレイヤビデオデータストリームが前記タイルに復号化可能とする態様で、前記空間セグメントは前記レイヤの画像が分割されるタイルであるように、符号化を実行し、かつ、前記第2のレイヤの前記画像のタイルの前記横断に関連して前記第1のレイヤの前記画像の前記タイルの前記横断の間に前記インターレイヤオフセットに並行して前記第1のレイヤの画像の直接続行するタイルおよび前記第2のレイヤの画像の直接続行するタイルの復号化を実行するように構成されている、請求項41に記載のビデオエンコーダ。 - 前記ビデオエンコーダは、それぞれのタイルの境界で各タイルに対し前記イントラピクチャ空間予測を中断させるイントラピクチャ空間予測を使用して前記第1および第2のレイヤの前記画像を符号化するように構成された、請求項44に記載のビデオエンコーダ。
- 前記ビデオエンコーダは、前記長期シンタクックス要素の前記値が前記第1のレイヤの前記画像の空間要素を単位として前記インターレイヤオフセットのための測定を定義するように構成されている、請求項41ないし45のいずれかに記載のビデオエンコーダ。
- 前記ビデオエンコーダが、前記第2のレイヤの前記画像の第1の空間セグメントを復号化することが、前記第1のレイヤの前記画像の前記復号化および横断を開始することに対し遅れるべきであることにより前記第1のレイヤの前記画像の空間セグメントの数を示すために前記長期シンタックス要素の前記値をセットするように構成されている、請求項41ないし46のいずれかに記載のビデオデコーダ。
- 各レイヤにおいて、前記シーンが、スケーラビリティ次元により測定されるスケーラビリティ空間の異なる運転点において符号化されるように、シーンがレイヤにおいて符号化されるマルチレイヤビデオデータストリームを処理するためのネットワーク実体であって、前記マルチレイヤビデオデータストリームは、その各々が前記レイヤの1つと関連した第1のNALユニット、および、前記第1のNALユニット内で散在して、前記マルチレイヤビデオデータストリームに関する一般情報を表す第2のNALユニットを含み、前記ネットワーク実体は、
前記第2のNALユニットにおいて、タイプインジケータフィールド(696、例えばdedicated_scalability_ids_flag)を検査し;
前記タイプインジケータフィールドに第1の状態(例えばdedicated_scalability_ids_flag=0)がある場合、前記第2のNALユニットから前記運転点まで前記第1のNALユニットヘッダにおけるレイヤインジケータフィールド(例えばlayer_id)のあり得る値をマップしているマッピング情報(例えばlayer_id_in_nuh[i],dimension_id[i][j])を読み込んで、前記レイヤインジケータフィールドおよび前記マッピング情報を介して前記第1のNALユニットを前記第1のNALユニットの運転点と関連させ;
前記タイプインジケータフィールドに第2の状態(dedicated_scalability_ids_flag=1)がある場合、前記第1のNALユニットにおける前記レイヤインジケータフィールドを1つ以上の部分に分割することにより、および、前記スケーラビリティ空間内でベクトルの座標として前記部分の前記値を使用することにより、前記第1のNALユニットの前記運転点を配置することで、前記第1のNALユニットを前記運転点に関連させる、ように構成されたネットワーク実体。 - 前記ネットワーク実体は、
前記タイプインジケータフィールドには、前記第2の状態(dedicated_scalability_ids_flag=1)がある場合、前記第2のNALユニットにおけるシンタックス要素(dimension_id_len_minus1)に従って1つ以上の部分に前記第1のNALユニットにおける前記レイヤインジケータフィールドを分割することにより、前記第1のNALユニットを前記運転点に関連付け、前記スケーラビリティ空間内におけるベクトルの座標として前記部分の前記値を使用することにより前記第1のNALユニットの前記運転点を配置して、前記第2のNALユニットにおける更なるシンタックス要素(scalability_mask)に従って前記スケーラビリティ次元を意味論的に決定するように構成された、請求項48に記載のネットワーク実体。 - 前記ネットワーク実体は、
前記タイプインジケータフィールドは、前記第1の状態(dedicated_scalability_ids_flag=0)がある場合、前記第2のNALユニットにおける更なるシンタックス要素(scalability_mask)から前記スケーラビリティ次元の数pおよび意味論的意味を決定し、かつ前記第2のNALユニットからp次元ベクトルのリスト(708)を読込むことにより前記レイヤインジケータフィールドの前記あり得る値を前記運転点に関連付けるように構成されている、請求項48または49に記載のネットワーク実体。 - 前記タイプインジケータフィールドに前記第2の状態がある場合、前記ネットワーク実体は、前記第2のNALユニットからリストを読込むことをスキップするように構成されている、請求項50に記載のネットワーク実体。
- 前記ネットワーク実体は、前記第1のまたは前記第2の状態を有する前記タイプインジケータフィールドにかかわりなく前記第2のNALユニットから前記さらなるシンタックス要素を読込み、前記レイヤインジケータフィールドの前記サイズは、前記第1のまたは前記第2の状態を有する前記タイプインジケータフィールドにかかわりなく同じであるように構成されている、請求項49または51のいずれかに記載のネットワーク実体。
- 前記ネットワーク実体が、ビデオデコーダから構成されている、請求項48または52のいずれかに記載のネットワーク実体。
- 各レイヤにおいて、前記シーンはスケーラビリティ次元により測定されたスケーラビリティ空間の様々な運転点において符号化されるように、シーンをレイヤにおけるマルチレイヤビデオデータストリームに符号化するためのビデオエンコーダであって、前記マルチレイヤビデオデータストリームは、前記レイヤの1つと各々が関連した第1のNALユニットおよび前記第1のNALユニット内に散在し前記マルチレイヤビデオデータストリームに関する一般情報を示す第2のNAL情報を含み、前記ビデオエンコーダは、 タイプインジケータフィールドを前記第2のNALユニットに挿入しかつ、
同上が前記運転点への前記第1のNALユニットヘッダにおけるレイヤインジケータフィールドのあり得る値を前記第2のNALユニットにマッピングするマップ情報を挿入して第1の状態を有するように前記タイプインジケータフィールドをセットし、かつ、前記第1のNALユニットの運転点は、前記マップ情報により、前記それぞれのレイヤインジケータフィールドに関連するように、前記第1のNALユニットにおける前記レイヤインジケータフィールドをセットし、
同上が前記第1のNALユニットにおける前記レイヤインジケータフィールドを1つ以上の部分に分割することにより前記第1のNALユニットにおける前記レイヤインジケータフィールドをセットして第2の状態(dedicated_scalability_ids_flag=1)を有するように前記タイプインジケータフィールドをセットし、かつ、前記スケーラビリティの範囲内で、ベクトルの座標に対応する前記部分の前記値が、前記それぞれの第1のNALユニットに関連する前記運転点を示すように前記以上の部分をセットする、
間で切替えるように構成された、ビデオエンコーダ。 - 前記ビデオエンコーダは、
同上には第2の状態があるように前記タイプインジケータフィールドを設定する際に、前記第1のNALユニットにおける前記レイヤインジケータフィールドが1つ以上の部分に分割されるものに関して定義する前記第2のNALユニットにシンタックス要素をセットしかつ挿入し、前記スケーラビリティ次元を意味論的に定義する前記第2のNALユニットに更なるシンタックス要素をセットしかつ挿入するように構成されている、請求項54に記載のビデオエンコーダ。 - 各レイヤにおいて、前記シーンがスケーラビリティ次元によって測定されたスケーラビリティ空間の様々な運転点において符号化されるように、シーンがレイヤにおいて符号化されるマルチレイヤビデオデータストリームであって、前記マルチレイヤビデオデータストリームは、各々第1のNALユニットを含み、各々は前記レイヤの1つと関連し、かつ前記第2のNALユニットは、前記第1のNALユニット内に散在し、かつ前記マルチレイヤビデオデータストリームに関する一般情報を表し、タイプインジケータフィールド(696、例えばdedicated_scalability_ids_flag=0)は、
前記タイプインジケータフィールドには第1の状態(例えばdedicated_scalability_ids_flag=0)がある場合、前記第2のNALユニットにおけるマッピング情報は、前記第1のNALユニットヘッダにおけるレイヤインジケータフィールド(例えばlayer_id)のあり得る値を前記運転点にマップすることに応じて;
前記タイプインジケータフィールドには第2の状態(dedicated_scalability_ids_flag=1)がある場合、前記第1のNALユニットにおける前記レイヤインジケータフィールドは、前記スケーラビリティ空間内のベクトルの座標として前記部分の前記値により定義された前記第1のNALユニットの前記運転点を有する1つ以上の部分に分割されることに応じて、
前記第2のNALユニットの中で存在する、マルチレイヤビデオデータストリーム。 - シーンがレイヤに符号化されるマルチレイヤビデオデータストリームを対象とし、マルチ規格マルチレイヤデコーダによって復号化し、前記マルチレイヤビデオデータストリームは、各々がレイヤの1つと関連したNALユニットを含み、前記レイヤは、各レイヤに対し、前記それぞれのレイヤが関連する様々なコーデックを使用してそれぞれのレイヤに関連したNALユニットが符号化されるように、様々なコーデックに関連し、前記トランスポートレイヤデコーダは、 各NALユニットに対し、どのコーデックが関係しているかを確認し、かつ、
前記マルチレイヤビデオデータストリームの前記NALユニットを、前記マルチレイヤビデオデータストリームを復号化するために様々なコーデックと関連したレイヤの間にインターレイヤ予測を使用する前記マルチ規格マルチレイヤデコーダに手渡す、トランスポートレイヤデコーダ。 - それぞれのレイヤのコーデックを示している状態に設定されるNALユニットタイプインジケータを有する前記所定のコーデックのNALユニットヘッダを使用して、所定のコーデックと異なる任意のコーデックとも関連しているレイヤと関連しているとして確認されていたNALユニットをカプセル化するようにさらに構成されている、請求項57に記載のビデオデコーダ。
- 前記NALユニットがそれぞれ到着するチャネルに応じて、識別を実行するようにさらに構成された、請求項57または58に記載のビデオデコーダ。
- 様々なコーデックと関連した前記NALユニットが、様々なチャネル上の前記マルチ規格マルチレイヤデコーダに手渡されるように手渡しを実行するようにさらに構成された、請求項57または59のいずれかに記載のビデオデコーダ。
- 前記それぞれのNALユニットが関連する前記レイヤが関連する前記コーデックを示しているメタデータを各NALユニットに提供するようにさらに構成されている、請求項57または60に記載のビデオデコーダ。
- マルチレイヤビデオデータストリームを、シーンが第1のレイヤの部分から第2のレイヤの同じ位置に配置された部分までインターレイヤ予測を使用してレイヤの階層において符号化され、前記第1のレイヤの画像が第1のブロックの配列に再分割され、かつ、前記第2のレイヤの画像が第2のブロックの配列に再分割され、ラスタースキャン復号化順序が、前記第1のブロックおよび前記第2のブロックの間でそれぞれ定義されるように復号化するためのビデオデコーダであって、前記ビデオデコーダは、
マルチレイヤビデオデータストリームのシンタックス要素構造(例えばctb_delay_enabled_flag、min_spatial_segment_delay)に応じて、前記第2のレイヤの画像の空間的な第2のブロックの前記横断と関連して前記第1のレイヤの画像の第1のブロックの前記横断との間で、インターレイヤオフセットを有する時間重畳態様で前記第1および第2のブロックを順次横断することにより前記第1および第2のレイヤの前記画像の並列復号化のために、前記第1のブロックを単位として測定されたインターレイヤオフセットを決定するように構成された、ビデオデコーダ。 - 前記シンタックス要素構造は、長期シンタックス要素構造であり、前記ビデオデコーダは、
所定期間を予め決定し、かつ、
前記所定期間より短い時間間隔において、前記マルチレイヤビデオデータストリームの短期シンタックス要素に基づき、前記第1のレイヤの前記画像の前記第1のブロックおよび前記第2のレイヤの前記画像の前記第2のブロックのサイズおよび位置、および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の空間サンプリング解像度をそれぞれ周期的に決定するように構成された、請求項62に記載のビデオデコーダ。 - 前記ビデオデコーダは、前記ラスタースキャン復号化順序に沿って順次配置された空間セグメントにおける前記マルチレイヤビデオデータストリームの、および、前記第2のレイヤの画像の空間セグメントの前記横断に関連して前記第1のレイヤの画像の空間セグメントの前記横断の間前記インターレイヤオフセットとともに時間重畳態様における前記空間セグメントを順次横断することにより、前記レイヤの画像が分割される並列復号化をサポートし、前記ビデオデコーダは、
前記長期シンタックス要素(例えばctb_delay_enabled_flag=0、min_spatial_segment_delay≠0)があり得る値の第1のセットの値にセットされる場合、前記第1のレイヤの前記画像の空間セグメントを単位として前記インターレイヤオフセットを測定する所定期間に対し予め前記インターレイヤオフセットを決定するために前記長期シンタックス要素構造の前記値を使用し、前記マルチレイヤビデオデータストリームの短期シンタックス要素に基づき、前記所定期間よりも短い時間間隔において、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントのサイズおよび位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の空間サンプリング解像度をそれぞれ周期的に決定し、
前記長期シンタックス要素構造があり得る値の前記第1のセットに素なあり得る値の第2のセット(例えばmin_spatial_segment_delay=0)の値にセットされる場合、前記所定期間よりも短い時間間隔において、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素に基づく前記所定期間内に前記インターレイヤオフセットを周期的に決定し、
前記長期シンタックス要素構造があり得る値の前記第1および第2のセットに素なあり得る値の第3のセット(例えばctb_delay_enabled_flag=1、min_spatial_segment_delay≠0)の値にセットされる場合、前記第1のブロックを単位とした前記インターレイヤオフセットの前記決定を実行し、前記第1のレイヤの前記画像の前記第1のブロックおよび前記第2のレイヤの前記画像の前記第2のブロックの前記サイズおよび位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の空間サンプリング解像度の周期的な決定をそれぞれ実行する、
ように、前記マルチレイヤビデオデータストリームの前記長期シンタックス要素を検査する、請求項63に記載のビデオデコーダ。 - 前記ビデオデコーダは、前記レイヤの画像が分割され前記第1および第2のブロックの行から構成された以外のサブストリームにおける前記マルチレイヤビデオデータストリームの並列復号化をサポートし、前記第2のレイヤの画像のサブストリームの前記横断と関連して前記第1のレイヤの画像のサブストリームの前記横断の間に前記同じ画像およびインターレイヤオフセットの直接連続したサブストリームの前記横断の間にイントラピクチャインターサブストリーム遅延を有する時間重畳態様における前記サブストリームを順次横断することによって、波面並列処理を使用する、請求項63または64に記載のビデオデコーダ。
- 前記長期シンタックス要素構造がユニットフラグ(手本としてctb_delay_enabled_flagと比較)および遅延インジケータ(手本としてmin_spatial_segment_delayと比較)を含み、前記ビデオデコーダは、前記長期シンタックス要素構造を調査する際に、
前記遅延インジケータを、同上がゼロまたはそれ以外にセットされるかに関して決定するために調査し、
前記遅延インジケータがゼロにセットされた場合、前記長期シンタックス要素構造の値が前記第2のセットの値にセットされ、かつ、
前記遅延インジケータがゼロ以外の値にセットされた場合、前記長期シンタックス要素構造の前記値を決定するために前記ゼロ以外の値を使用し、かつ前記ユニットフラグがゼロの場合、前記長期シンタックス要素構造の前記値が前記第1のセットの値にセットされ、かつ前記ユニットフラグが1の場合、前記長期シンタックス要素構造の前記値が前記第3のセットの値にセットされることを決定する、請求項64ないし65のいずれかに記載のビデオデコーダ。 - 第1および第2のレイヤの並列復号化を開始する際に前記インターレイヤオフセットに依存するように構成されている、請求項65ないし66のいずれかに記載のビデオデコーダ。
- 前記第1のレイヤの空間セグメントの数sまたは符号化ブロックが前記シンタックス要素構造に一意的に従属して数sによって完全に復号化されるかに関してチェックし、かつ、前記第1のレイヤの空間セグメントまたは符号化ブロックの間で、少なくともsが完全に復号化されたことが前記チェックで判明しない限り、前記第1のレイヤを復号化する間、前記第2のレイヤを復号化するのを開始することを延期するように構成されている、請求項62ないし67のいずれかに記載のビデオデコーダ。
- 開始する際にインターレイヤオフセットに依存し、かつ第1および第2のレイヤの並列復号化を完全に処理するように構成された、請求項62ないし68のいずれかに記載のビデオデコーダ。
- 前記第1のレイヤの空間セグメントの数sまたは符号化ブロックが前記シンタックス要素構造に一意的に従属して数sによって、および、前記第2のレイヤの既に復号化された空間セグメントまたは符号化ブロックの数t−1によって完全に復号化されるかに関してチェックし、前記第1のレイヤの空間セグメントまたは符号化ブロックの第1のレイヤの間で、少なくともsが完全に復号化されたことが判明しない限り、第1のレイヤを復号化することの間、第2のレイヤの第tの空間セグメントまたは符号化ブロックを復号化するのを開始することを延期するように構成されている、請求項62ないし69のいずれかに記載のビデオデコーダ。
- シーンが第1のレイヤから第2のレイヤまでインターレイヤ予測を使用してレイヤの階層において符号化されたマルチレイヤビデオデータストリーム(40)を復号化する方法であって、
前記ビデオデコーダは、前記レイヤの画像(12、15)が再分割される空間セグメント(80)における前記マルチレイヤビデオデータストリームの並列復号化をサポートし、前記方法は、
前記マルチレイヤビデオデータストリームの長期シンタックス要素構造(606;例えばtile_boundaries_aligned_flag)を検査し、
前記第2のレイヤの前記画像の前記空間セグメントの間の境界が前記第1のレイヤの前記画像(12)の前記空間セグメントの各境界に重畳し、かつ、前記マルチレイヤビデオデータストリームの短期シンタックス要素(602;例えば、column_width_minus1[i]およびcolumn_width_minus1[i])に基づく前記空間セグメントへの前記第1のレイヤおよび前記第2のレイヤの前記画像の前記再分割を、前記所定期間より短い時間間隔(604)で、周期的に決定するように、前記所定期間(608)の間、前記第2のレイヤの前記画像(608)が再分割される保証として第1のあり得る値のセット(例えばtile_boundaries_aligned_flag=1)から値を仮定する前記長期シンタックス要素構造を解釈し、かつ、
前記長期シンタックス要素構造が、第2のあり得る値のセット(例えばtile_boundaries_aligned_flag=0)から値を仮定した場合、少なくとも前記短期シンタックス要素の第1のあり得る値に対し、前記第1のレイヤの前記空間セグメントの前記境界のいずれかを覆わない前記第2のレイヤの前記画像の前記空間セグメントの間の境界、および、少なくとも前記短期シンタックス要素の第2のあり得る値に対し、前記第1のレイヤの前記空間セグメントの各境界に重畳する前記第2のレイヤの前記画像の前記空間セグメントの間の境界が存在するように、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素から前記空間セグメントへの前記レイヤの前記画像の前記再分割を、前記所定期間より短い時間間隔で、周期的に決定する、方法。 - 前記マルチレイヤビデオデータストリームが前記レイヤの画像が再分割される空間セグメントにおいて並列に復号化可能であるように、第1のレイヤから第2のレイヤまでインターレイヤ予測を使用してレイヤの階層におけるマルチレイヤビデオデータストリームにシーンを符号化する方法であって、前記方法は、
長期シンタックス要素構造(606)および短期シンタックス要素(602)を前記マルチレイヤビデオデータストリームに挿入し、前記短期シンタックス要素は、前記第1のレイヤおよび前記第2のレイヤの前記画像の前記空間セグメントへの前記再分割を、時間間隔において、定義しており、かつ、
前記長期シンタックス要素構造を設定する間で切替え、
前記時間間隔より長い所定期間(608)の間、第1のあり得る値のセットからの値は、前記短期シンタックス要素をあり得る設定のセットからの適切なサブセットに設定しながら、前記第2のレイヤの前記画像の前記空間セグメントの間の境界は前記第1のレイヤの前記空間セグメントの各境界に重畳するように、前記適切なサブセットは、前記所定期間の間に、前記第2のレイヤの前記画像が再分割されるように選択され、
前記所定期間の間、第2のあり得る値のセットからの値は、あり得る設定の前記セットのいずれかに前記短期シンタックス要素を設定しながら、前記あり得る設定のセットは、前記第1のレイヤの前記空間セグメントの前記境界のいずれかに重畳しない前記第2のレイヤの前記画像の前記空間セグメントの間に境界が存在することにより、少なくとも1つの設定を、および、前記第2のレイヤの前記画像の前記空間セグメントの間の境界が前記第1のレイヤの前記空間セグメントの各境界に重畳することによる少なくとも他の設定を含む、ように切替えることを含む、方法。 - 画像がさまざまな空間レイヤにおいてかつ前記空間レイヤの少なくとも1つに対し、第1の空間セグメントにおいて、符号化される空間スケーラブルビットストリーム(40)を復号化するための方法であって、
前記方法は、
前記第1の空間セグメントに依存する、前記アップサンプリングされた基準画像の分割(622)の任意の分割は、前記分割の任意の他の分割により覆われた前記第1の空間レイヤの前記画像の部分から独立するように、あるいは、
前記アップサンプリングされた基準ピクチャの前記分割(622)の任意の部分は、前記それぞれの分割に空間的に隣接する前記分割の他の分割により覆われた前記第1の空間レイヤの前記画像の部分に従属するように、
アップサンプリングされた基準画像を得るために第1の空間レイヤの画像(12)をアップサンプリングし、かつ前記アップサンプリングされた基準画像を使用して第2の空間レイヤの画像(15)を予測し、前記復号化のための方法は、前記シンタックス要素に従属して、前記第1の空間レイヤの前記画像を補間(620)するために、空間スケーラブルビットストリームにおけるシンタックス要素(616;例えばindependent_tile_upsampling_idc)に応答することを含む方法。 - 第1の空間セグメントにおいて、画像をさまざまな空間レイヤにおけるかつ空間レイヤの少なくとも1つに対しスケーラブルビットストリームに符号化するための方法であって、
前記方法は、
前記第1の空間セグメントに依存する、前記アップサンプリングされた基準画像の分割の任意の部分は、前記分割の前記他の部分のいずれかにより覆われた前記第1の空間レイヤの前記画像の部分から独立しているように、
前記アップサンプリングされた基準画像の前記分割の任意の部分は、前記それぞれの部分に空間的に隣接する前記分割の他の部分により覆われた前記第1の空間レイヤの前記画像の部分に従属しているように、
アップサンプリングされた基準画像を得るために第1の空間レイヤの画像をアップサンプリングし、前記アップサンプリングされた基準画像を使用して第2の空間レイヤの画像を予測し、前記方法は、シンタックス要素(606)を空間スケーラブルビットストリームにセットしかつ挿入し、前記シンタックス要素に依存して前記第1の空間レイヤの前記画像を補間することを含む、方法。 - シーンが第1のレイヤから第2のレイヤまでインターレイヤ予測を使用してレイヤの階層において符号化されたマルチレイヤビデオデータストリームを復号化する方法であって、前記ビデオデコーダは、前記第2のレイヤの画像の空間セグメントの前記横断に関連して前記第1のレイヤの画像の空間セグメントの前記横断の間インターレイヤ遅延を有する時間重畳態様における前記空間セグメントを順次横断することによりレイヤの画像が分割された空間セグメントにおける前記マルチレイヤビデオデータストリームの並列復号化をサポートし、前記方法は、
前記マルチレイヤビデオデータストリームの長期シンタックス要素構造(642;例えばmin_spatial_segment_delay)を検査し、
前記長期シンタックス要素構造(例えばmin_spatial_segment_delay≠0)があり得る値の第1のセットの値にセットされた場合、所定期間に対し前もって前記インターレイヤオフセットを決定するために前記長期シンタックス要素の前記値を使用し、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントのサイズおよび位置を、および、前記所定期間よりも短い時間間隔で、および前記マルチレイヤビデオデータストリームの短期シンタックス要素(602)にそれぞれ基づき前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の空間サンプリング解像度を、周期的に決定し、
前記長期シンタックス要素があり得る値の第1のセットと素なあり得る値の第2のセット(例えばmin_spatial_segment_delay=0)の値にセットされるとき、前記所定期間より短い時間間隔において、所定の時間より小さい時間間隔において、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素に基づく所定期間内で前記インターレイヤオフセットを周期的に決定するのことを含む方法。 - マルチレイヤビデオデータストリームが、前記第2のレイヤの画像の空間セグメントの前記横断に関連する前記第1のレイヤの画像の空間セグメントの前記横断の間にインターレイヤオフセットを有する時間重畳態様において前記空間セグメントを順次横断することにより前記レイヤの画像が分割された空間セグメントに復号化可能なように第1のレイヤから第2のレイヤにインターレイヤ予測を使用してレイヤの階層においてシーンをマルチレイヤビデオデータストリームに符号化する方法であって、前記方法は、
長期シンタックス要素構造(min_spatial_segment_delay)および短期シンタックス要素を前記マルチレイヤビデオデータストリームに挿入およびセットし、前記マルチレイヤビデオデータストリームの前記短期シンタックス要素は、定期的に、それぞれ前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの時間間隔、サイズ、位置において定義し、かつ、前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度を定義し、
前記方法は、セットの間を切替えるように構成され、
前記所定期間の間、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度が、前記第2のレイヤの画像の空間セグメントの前記横断に関連して前記第1のレイヤの画像の空間セグメントの前記横断の間前記長期シンタックス要素により示された前記インターレイヤオフセットより短いまたは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより、それぞれ前記マルチレイヤビデオデータストリームの復号化を可能にするように、前記時間間隔より長い所定期間に対し前記インターレイヤオフセットを示す前記値を有し、所定期間に対し、あり得る一連のセットから適切なサブセットへ前記短期シンタックス要素を、セットして、前記適切なサブセットが選択され、あり得る値の第1のセットの値への前記長期シンタックス要素構造(min_spatial_segment_delay≠0)をセットし、
前記所定期間の間、あり得る値の第2のセット(min_spatial_segment_delay=0)の値への前記長期シンタックス要素は、あり得る値の前記第1のセットと素であり、前記短期シンタックス要素を可能な一連のセットのいずれかにセットし、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度に従う少なくとも1つのセットを含むあり得る一連のセットは、それぞれ、前記第2のレイヤの画像の空間セグメントの前記横断に関連する前記第1のレイヤの画像の空間セグメントの前記横断の間、前記長期シンタックス要素により示された前記インターレイヤオフセットより短いあるいは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより前記マルチレイヤビデオデータストリームの復号化を不可にし、かつ、前記第1のレイヤの前記画像の前記空間セグメントおよび前記第2のレイヤの前記画像の前記空間セグメントの前記サイズおよび前記位置および前記第1のレイヤの前記画像および前記第2のレイヤの前記画像の前記空間サンプリング解像度に従う少なくとも1つの他のセットは、それぞれ、前記第2のレイヤの画像の空間セグメントの前記横断に関連する前記第1のレイヤの画像の空間セグメントの前記横断の間、前記長期シンタックス要素により示された前記インターレイヤオフセットより短いあるいは等しい現実のインターレイヤオフセットを有する前記時間重畳態様における前記空間セグメントを順次横断することにより前記マルチレイヤビデオデータストリームの復号化を可能にするようにセットすることを含む、方法。 - 各レイヤにおいて、前記シーンがスケーラビリティ次元によって測定されるスケーラビリティ空間の異なる運転点において符号化されるように、シーンがレイヤにおいて符号化されるマルチレイヤビデオデータストリームを処理するための方法であって、前記マルチレイヤビデオデータストリームは、その各々が前記レイヤの1つと関連した第1のNALユニット、および、前記第1のNALユニット内で散在して、前記マルチレイヤビデオデータストリームに関する一般情報を表す第2のNALユニットを含む方法であって、前記方法は、
前記第2のNALユニットにおいて、タイプインジケータフィールド(696、例えばdedicated_scalability_ids_flag)を検査し;
前記タイプインジケータフィールドに第1の状態(例えばdedicated_scalability_ids_flag=0)がある場合、前記第2のNALユニットから前記運転点まで前記第1のNALユニットヘッダにおけるレイヤインジケータフィールド(例えばlayer_id)のあり得る値をマップしているマッピング情報(例えばlayer_id_in_nuh[i],dimension_id[i][j])を読み込んで、前記レイヤインジケータフィールドおよび前記マッピング情報を介して前記第1のNALユニットを前記第1のNALユニットの前記運転点と関連させ;
前記タイプインジケータフィールドに第2の状態(dedicated_scalability_ids_flag=1)がある場合、前記第1のNALユニットにおける前記レイヤインジケータフィールドを1つ以上の部分に分割することにより、および、前記スケーラビリティ空間内でベクトルの座標として前記部分の前記値を使用することにより、前記第1のNALユニットの前記運転点を配置することで、前記第1のNALユニットを前記運転点に関連させることを含む方法。 - 各レイヤにおいて、前記シーンはスケーラビリティ次元によって測定されたスケーラビリティ空間の様々な運転点において符号化されるように、シーンをレイヤにおけるマルチレイヤビデオデータストリームに符号化するための方法であって、前記マルチレイヤビデオデータストリームは、前記レイヤの1つと各々が関連した第1のNALユニットおよび前記第1のNALユニット内に散在し前記マルチレイヤビデオデータストリームに関する一般の情報を表す第2のNALユニットを含み、前記方法は、
タイプインジケータフィールドを前記第2のNALユニットに挿入しかつ、
同上が前記運転点への前記第1のNALユニットヘッダにおけるレイヤインジケータフィールドのあり得る値を前記第2のNALユニットにマッピングするマップ情報を挿入して第1の状態を有するように前記タイプインジケータフィールドをセットし、かつ、前記第1のNALユニットの運転点は、前記マップ情報により、前記それぞれのレイヤインジケータフィールドに関連するように、前記第1のNALユニットにおける前記レイヤインジケータフィールドをセットし、
同上が前記第1のNALユニットにおける前記レイヤインジケータフィールドを1つ以上の部分に分割することにより前記第1のNALユニットにおける前記レイヤインジケータフィールドをセットして第2の状態(dedicated_scalability_ids_flag=1)を有するように前記タイプインジケータフィールドをセットし、かつ、前記スケーラビリティの範囲内で、ベクトルの座標に対応する前記部分の前記値が、前記それぞれの第1のNALユニットに関連する前記運転点を示すように前記以上の部分をセットする、
間で切替えることを含む、方法。 - シーンがレイヤに符号化されるマルチレイヤビデオデータストリームを対象とし、マルチ規格マルチレイヤデコーダにより復号化し、前記マルチレイヤビデオデータストリームは、レイヤの1つと各々が関連したNALユニットより構成され、前記レイヤは、前記それぞれのレイヤが関連する様々なコーデックを使用して前記それぞれのレイヤに関連したNALユニットが符号化されるように様々なコーデックと関連する方法であって、前記方法は、
各NALユニットごとに、どのコーデックが関連しているかを確認し、かつ、
前記マルチレイヤビデオデータストリームのNALユニットを、前記マルチレイヤビデオデータストリームを復号化するために様々なコーデックと関連したレイヤの間にインターレイヤ予測を使用する前記マルチ規格マルチレイヤデコーダに渡すこと、を含む方法。 - マルチレイヤビデオデータストリームを、シーンが第1のレイヤの部分から第2のレイヤの同じ位置に配置された部分までインターレイヤ予測を使用してレイヤの階層において符号化され、前記第1のレイヤの画像が第1のブロックの配列に再分割され、かつ、前記第2のレイヤの画像が第2のブロックの配列に再分割され、ラスタースキャン復号化順序が、前記第1のブロックおよび前記第2のブロックの間でそれぞれ定義されるように復号化する方法であって、前記方法は、
前記マルチレイヤビデオデータストリームのシンタックス要素構造(例えばctb_delay_enabled_flag、min_spatial_segment_delay)に応じて、前記第2のレイヤの画像の空間的な第2のブロックの前記横断に関連して前記第1のレイヤの画像の第1のブロックの前記横断の間前記インターレイヤオフセットを有する時間重畳態様における前記第1および第2のブロックを順次横断することにより、前記第1および第2のレイヤの前記画像を並列復号化するための、前記第1のブロックを単位として測定されたインターレイヤオフセットを決定することを含む、方法。 - コンピュータが請求項71〜80のいずれかに記載の方法で動くときに、実行するためのプログラムコードを有するコンピュータプログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361749042P | 2013-01-04 | 2013-01-04 | |
US61/749,042 | 2013-01-04 | ||
US201361809605P | 2013-04-08 | 2013-04-08 | |
US61/809,605 | 2013-04-08 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015551183A Division JP6430961B2 (ja) | 2013-01-04 | 2014-01-04 | 効率的なスケーラブル符号化概念 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021020886A Division JP7126332B2 (ja) | 2013-01-04 | 2021-02-12 | 効率的なスケーラブル符号化概念 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019050595A true JP2019050595A (ja) | 2019-03-28 |
JP6839158B2 JP6839158B2 (ja) | 2021-03-03 |
JP6839158B6 JP6839158B6 (ja) | 2021-03-31 |
Family
ID=51062164
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015551183A Active JP6430961B2 (ja) | 2013-01-04 | 2014-01-04 | 効率的なスケーラブル符号化概念 |
JP2018206897A Active JP6839158B6 (ja) | 2013-01-04 | 2018-11-01 | 効率的なスケーラブル符号化概念 |
JP2021020886A Active JP7126332B2 (ja) | 2013-01-04 | 2021-02-12 | 効率的なスケーラブル符号化概念 |
JP2022128875A Pending JP2022172146A (ja) | 2013-01-04 | 2022-08-12 | 効率的なスケーラブル符号化概念 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015551183A Active JP6430961B2 (ja) | 2013-01-04 | 2014-01-04 | 効率的なスケーラブル符号化概念 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021020886A Active JP7126332B2 (ja) | 2013-01-04 | 2021-02-12 | 効率的なスケーラブル符号化概念 |
JP2022128875A Pending JP2022172146A (ja) | 2013-01-04 | 2022-08-12 | 効率的なスケーラブル符号化概念 |
Country Status (6)
Country | Link |
---|---|
US (5) | US10104386B2 (ja) |
EP (2) | EP2941891B1 (ja) |
JP (4) | JP6430961B2 (ja) |
KR (5) | KR102331649B1 (ja) |
CN (8) | CN116708768A (ja) |
WO (1) | WO2014106651A1 (ja) |
Families Citing this family (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2805313T3 (es) * | 2011-08-11 | 2021-02-11 | Sun Patent Trust | Procedimiento de codificación de imágenes, procedimiento de descodificación de imágenes, aparato de codificación de imágenes, aparato de descodificación de imágenes y aparato de codificación / descodificación de imágenes |
US10142622B2 (en) * | 2012-06-29 | 2018-11-27 | Telefonaktiebolaget Lm Ericsson (Publ) | Apparatus and methods thereof for video processing |
US9578339B2 (en) * | 2013-03-05 | 2017-02-21 | Qualcomm Incorporated | Parallel processing for video coding |
CN105230017B (zh) * | 2013-03-21 | 2019-08-06 | 索尼公司 | 图像编码装置和方法以及图像解码装置和方法 |
WO2014163463A1 (ko) * | 2013-04-05 | 2014-10-09 | 삼성전자 주식회사 | 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치 |
JP6261215B2 (ja) * | 2013-07-12 | 2018-01-17 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
US9578328B2 (en) | 2013-07-15 | 2017-02-21 | Qualcomm Incorporated | Cross-layer parallel processing and offset delay parameters for video coding |
US10356459B2 (en) | 2013-07-22 | 2019-07-16 | Sony Corporation | Information processing apparatus and method |
CN106233745B (zh) | 2013-07-29 | 2021-01-15 | 皇家Kpn公司 | 向客户端提供瓦片视频流 |
US9998743B2 (en) | 2013-09-10 | 2018-06-12 | Kt Corporation | Method and apparatus for encoding/decoding scalable video signal |
WO2015047162A1 (en) * | 2013-09-26 | 2015-04-02 | Telefonaktiebolaget L M Ericsson (Publ) | Hybrid codec scalable video |
KR102290091B1 (ko) | 2013-10-14 | 2021-08-18 | 한국전자통신연구원 | 다계층 기반의 영상 부호화/복호화 방법 및 장치 |
US9706228B2 (en) * | 2013-10-15 | 2017-07-11 | Qualcomm Incorporated | Support for large numbers of views in multi-layer coding |
US9794626B2 (en) | 2014-05-01 | 2017-10-17 | Qualcomm Incorporated | Partitioning schemes in multi-layer video coding |
WO2015168581A1 (en) * | 2014-05-01 | 2015-11-05 | Arris Enterprises, Inc. | Reference layer and scaled reference layer offsets for scalable video coding |
CN106664443B (zh) | 2014-06-27 | 2020-03-24 | 皇家Kpn公司 | 根据hevc拼贴视频流确定感兴趣区域 |
EP3162075B1 (en) | 2014-06-27 | 2020-04-08 | Koninklijke KPN N.V. | Hevc-tiled video streaming |
CN106464943B (zh) * | 2014-06-30 | 2020-09-11 | 索尼公司 | 信息处理装置和方法 |
US20160014415A1 (en) * | 2014-07-08 | 2016-01-14 | Mediatek Inc. | Method and apparatus for performing wave-front parallel encoding procedure with constraint on coding mode and/or quantization parameter selection |
US10523957B2 (en) * | 2014-10-08 | 2019-12-31 | Vid Scale, Inc. | Optimization using multi-threaded parallel processing framework |
GB2532420A (en) * | 2014-11-18 | 2016-05-25 | Sony Corp | Data encoding and decoding |
US10469873B2 (en) | 2015-04-15 | 2019-11-05 | Google Llc | Encoding and decoding virtual reality video |
US10412373B2 (en) | 2015-04-15 | 2019-09-10 | Google Llc | Image capture for virtual reality displays |
US10546424B2 (en) * | 2015-04-15 | 2020-01-28 | Google Llc | Layered content delivery for virtual and augmented reality experiences |
US10540818B2 (en) | 2015-04-15 | 2020-01-21 | Google Llc | Stereo image generation and interactive playback |
US10444931B2 (en) | 2017-05-09 | 2019-10-15 | Google Llc | Vantage generation and interactive playback |
US10440407B2 (en) | 2017-05-09 | 2019-10-08 | Google Llc | Adaptive control for immersive experience delivery |
US10419737B2 (en) | 2015-04-15 | 2019-09-17 | Google Llc | Data structures and delivery methods for expediting virtual reality playback |
US10567464B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video compression with adaptive view-dependent lighting removal |
WO2016180486A1 (en) * | 2015-05-12 | 2016-11-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Composite scalable video streaming |
US10715843B2 (en) | 2015-08-20 | 2020-07-14 | Koninklijke Kpn N.V. | Forming one or more tile streams on the basis of one or more video streams |
CN108353164B (zh) | 2015-09-11 | 2022-06-24 | 株式会社Kt | 用于处理视频信号的方法和设备 |
US10674185B2 (en) | 2015-10-08 | 2020-06-02 | Koninklijke Kpn N.V. | Enhancing a region of interest in video frames of a video stream |
US10467006B2 (en) * | 2015-12-20 | 2019-11-05 | Intel Corporation | Permutating vector data scattered in a temporary destination into elements of a destination register based on a permutation factor |
WO2017134110A1 (en) * | 2016-02-02 | 2017-08-10 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scene section and region of interest handling in video streaming |
KR102332006B1 (ko) | 2016-02-09 | 2021-12-01 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 효율적인 감소성 또는 효율적인 랜덤 액세스를 허용하는 픽처/비디오 데이터 스트림들에 대한 개념 |
CN116156163A (zh) * | 2016-03-30 | 2023-05-23 | 韩国电子通信研究院 | 使用画面划分信息对视频进行编码和解码的方法和设备 |
US10171825B1 (en) * | 2016-04-27 | 2019-01-01 | Matrox Graphics Inc. | Parallel compression of image data in a compression device |
EP3996375A1 (en) * | 2016-05-26 | 2022-05-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Broadcast streaming of panoramic video for interactive clients |
JP2018107500A (ja) * | 2016-12-22 | 2018-07-05 | キヤノン株式会社 | 符号化装置、符号化方法及びプログラム、復号装置、復号方法及びプログラム |
US10602239B2 (en) * | 2017-03-23 | 2020-03-24 | Mediatek Inc. | Method and apparatus for track composition |
KR20230079466A (ko) * | 2017-04-11 | 2023-06-07 | 브이아이디 스케일, 인크. | 면 연속성을 사용하는 360 도 비디오 코딩 |
US10474227B2 (en) | 2017-05-09 | 2019-11-12 | Google Llc | Generation of virtual reality with 6 degrees of freedom from limited viewer data |
SG11202100010SA (en) * | 2017-07-03 | 2021-02-25 | Univ Hanyang Ind Univ Coop Found | Method and device for decoding image by using partition unit including additional region |
EP3721624A1 (en) | 2017-12-06 | 2020-10-14 | V-Nova International Limited | Methods and apparatuses for hierarchically encoding and decoding a bytestream |
US20210152828A1 (en) * | 2018-06-21 | 2021-05-20 | Telefonaktiebolaget Lm Ericsson (Publ) | Flexible Tile Partitions |
CN110677645B (zh) * | 2018-07-02 | 2022-06-10 | 华为技术有限公司 | 一种图像预测方法及装置 |
KR20200003444A (ko) | 2018-07-02 | 2020-01-10 | 삼성전자주식회사 | 영상 모델 구축 장치 및 방법 |
WO2020021651A1 (ja) * | 2018-07-25 | 2020-01-30 | マクセル株式会社 | 自動映像演出装置、自動映像演出方法、及び、それに用いる映像記録媒体 |
US10375416B1 (en) * | 2018-09-05 | 2019-08-06 | Tencent America LLC | Segment types in video coding |
CN112703742B (zh) * | 2018-09-14 | 2023-03-31 | 华为技术有限公司 | 视频译码中的分块指示 |
GB201817781D0 (en) * | 2018-10-31 | 2018-12-19 | V Nova Int Ltd | Mehods, apparatuses, computer programs and computer-readable media |
EP3891994A1 (en) * | 2018-12-07 | 2021-10-13 | InterDigital VC Holdings, Inc. | Managing coding tools combinations and restrictions |
WO2020130925A1 (en) * | 2018-12-20 | 2020-06-25 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and apparatus for video coding using uniform segment split in pictures |
US11310516B2 (en) * | 2018-12-21 | 2022-04-19 | Hulu, LLC | Adaptive bitrate algorithm with cross-user based viewport prediction for 360-degree video streaming |
CN109819272B (zh) * | 2018-12-26 | 2022-09-16 | 平安科技(深圳)有限公司 | 视频发送方法、装置、计算机可读存储介质及电子设备 |
AU2020206246B2 (en) * | 2019-01-09 | 2024-01-04 | Huawei Technologies Co., Ltd. | Sub-picture layout signaling in video coding |
EP3769522A4 (en) * | 2019-01-16 | 2021-01-27 | Telefonaktiebolaget LM Ericsson (publ) | VIDEO ENCODING WITH EQUAL TILE DISTRIBUTION WITH REMAINING |
WO2020185471A1 (en) * | 2019-03-08 | 2020-09-17 | Beijing Dajia Internet Information Technology Co., Ltd. | Video coding for handling different picture sizes |
US10924751B2 (en) * | 2019-03-18 | 2021-02-16 | Tencent America LLC | Data unit and parameter set design for point cloud coding |
WO2020190108A1 (ko) * | 2019-03-21 | 2020-09-24 | 가온미디어 주식회사 | 픽쳐 분할을 처리하는 영상 부호화 방법, 영상 복호화 방법 및 그 장치 |
CN113826383B (zh) * | 2019-05-13 | 2022-10-11 | 北京字节跳动网络技术有限公司 | 变换跳过模式的块维度设置 |
CN117354528A (zh) | 2019-05-22 | 2024-01-05 | 北京字节跳动网络技术有限公司 | 基于子块使用变换跳过模式 |
US11523185B2 (en) | 2019-06-19 | 2022-12-06 | Koninklijke Kpn N.V. | Rendering video stream in sub-area of visible display area |
CN114270831A (zh) | 2019-08-10 | 2022-04-01 | 北京字节跳动网络技术有限公司 | 视频处理中的子图片尺寸定义 |
KR20220065804A (ko) * | 2019-09-23 | 2022-05-20 | 텔레폰악티에볼라겟엘엠에릭슨(펍) | 세그먼트 존재 정보 제공 |
MX2022003765A (es) | 2019-10-02 | 2022-04-20 | Beijing Bytedance Network Tech Co Ltd | Sintaxis para la se?alizacion de subimagen en un flujo de bits de video. |
JP7482220B2 (ja) | 2019-10-18 | 2024-05-13 | 北京字節跳動網絡技術有限公司 | サブピクチャのパラメータセットシグナリングにおける構文制約 |
US20230032673A1 (en) * | 2019-11-22 | 2023-02-02 | Lg Electronics Inc. | Image coding method based on entry point-related information in video or image coding system |
KR20220087513A (ko) | 2019-11-28 | 2022-06-24 | 엘지전자 주식회사 | 영상/비디오 코딩을 위한 슬라이스 및 타일 구성 |
US20230046583A1 (en) * | 2019-12-23 | 2023-02-16 | Lg Electronics Inc. | Virtual boundary-based image coding device and method |
CN115152237A (zh) * | 2019-12-23 | 2022-10-04 | Lg电子株式会社 | 图像编码装置和方法 |
KR102302755B1 (ko) * | 2019-12-30 | 2021-09-16 | 재단법인 경주스마트미디어센터 | Drm 콘텐츠 병렬 패키징 장치 및 이를 포함하는 drm 콘텐츠 병렬 패키징 시스템 및 drm 콘텐츠 병렬 패키징 방법 |
KR102477310B1 (ko) * | 2020-12-29 | 2022-12-12 | 재단법인 경주스마트미디어센터 | Drm 콘텐츠 병렬 패키징 장치 및 이를 포함하는 drm 콘텐츠 병렬 패키징 시스템 및 drm 콘텐츠 병렬 패키징 방법 |
WO2021143698A1 (en) * | 2020-01-13 | 2021-07-22 | Beijing Bytedance Network Technology Co., Ltd. | Subpicture boundary filtering in video coding |
WO2021185311A1 (en) * | 2020-03-20 | 2021-09-23 | Mediatek Inc. | Method and apparatus for signaling tile and slice partition information in image and video coding |
CN111901610B (zh) * | 2020-08-03 | 2021-09-21 | 西北工业大学 | 一种基于多层编码器的并行图像描述方法 |
GB2613015A (en) * | 2021-11-22 | 2023-05-24 | V Nova Int Ltd | Decoding a multi-layer video stream using a joint packet stream |
WO2023089340A1 (en) * | 2021-11-22 | 2023-05-25 | V-Nova International Ltd | Processing a multi-layer video stream |
US20230224347A1 (en) * | 2022-01-11 | 2023-07-13 | Tencent America LLC | Splitter and merger functions for multidimensional segmented media data |
US20240089510A1 (en) * | 2022-09-02 | 2024-03-14 | Sharp Kabushiki Kaisha | Systems and methods for signaling neural network post-filter characteristics information in video coding |
CN116723333B (zh) * | 2023-08-02 | 2023-10-31 | 清华大学 | 基于语义信息的可分层视频编码方法、装置及产品 |
CN117520471B (zh) * | 2024-01-06 | 2024-05-03 | 深圳市城市规划设计研究院股份有限公司 | 一种空间要素信息查询方法、系统、存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007067552A (ja) * | 2005-08-29 | 2007-03-15 | Nippon Telegr & Teleph Corp <Ntt> | 階層間予測処理方法,階層間予測処理装置,階層間予測処理プログラムおよびその記録媒体 |
WO2007064347A2 (en) * | 2005-03-18 | 2007-06-07 | Sharp Laboratories Of America | Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding |
WO2008047300A2 (en) * | 2006-10-16 | 2008-04-24 | Nokia Corporation | System and method for using parallelly decodable slices for multi-view video coding |
WO2012167712A1 (en) * | 2011-06-10 | 2012-12-13 | Mediatek Inc. | Method and apparatus of scalable video coding |
WO2012167711A1 (en) * | 2011-06-10 | 2012-12-13 | Mediatek Inc. | Method and apparatus of scalable video coding |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0577310B1 (en) | 1992-06-29 | 2001-11-21 | Canon Kabushiki Kaisha | Image processing device |
JPH10336668A (ja) | 1997-06-02 | 1998-12-18 | Sharp Corp | 動きベクトル検出装置 |
JP4118049B2 (ja) | 2001-12-28 | 2008-07-16 | 株式会社リコー | 画像処理装置及び方法 |
ITMI20041971A1 (it) * | 2004-10-15 | 2005-01-15 | Uni Degli Studi Brescia | Metodo di codifica video scalabile |
KR100678907B1 (ko) * | 2005-07-12 | 2007-02-06 | 삼성전자주식회사 | 하위 계층의 복원 데이터를 사용하여 fgs 계층을 인코딩및 디코딩하는 방법 및 장치 |
KR100772868B1 (ko) * | 2005-11-29 | 2007-11-02 | 삼성전자주식회사 | 복수 계층을 기반으로 하는 스케일러블 비디오 코딩 방법및 장치 |
CA2633819C (en) | 2005-12-08 | 2016-12-06 | Vidyo, Inc. | Systems and methods for error resilience and random access in video communication systems |
BRPI0706407B1 (pt) | 2006-01-09 | 2019-09-03 | Interdigital Madison Patent Holdings | método e aparelho para fornecer modo de atualização de resolução reduzida para codificação de vídeo de múltiplas visualizações e mídia de armazenamento tendo dados codificados de sinal de vídeo |
JP5535485B2 (ja) | 2006-01-09 | 2014-07-02 | トムソン ライセンシング | 削減された分解能更新モードをマルチビュー・ビデオ符号化に提供する方法及び装置 |
US7535383B2 (en) * | 2006-07-10 | 2009-05-19 | Sharp Laboratories Of America Inc. | Methods and systems for signaling multi-layer bitstream data |
ES2440824T3 (es) * | 2006-07-10 | 2014-01-30 | Orange | Dispositivo y procedimiento de codificación y de decodificación escalables de flujo de datos de imágenes, señal y programa informático correspondientes |
JP4956304B2 (ja) | 2006-08-08 | 2012-06-20 | キヤノン株式会社 | 画像符号化装置及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体 |
US7756348B2 (en) | 2006-10-30 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Method for decomposing a video sequence frame |
CA2661981C (en) * | 2006-11-09 | 2013-01-15 | Lg Electronics Inc. | Method and apparatus for decoding/encoding a video signal |
WO2008060126A1 (en) | 2006-11-17 | 2008-05-22 | Lg Electronics Inc. | Method and apparatus for decoding/encoding a video signal |
KR20080066522A (ko) | 2007-01-11 | 2008-07-16 | 삼성전자주식회사 | 다시점 영상의 부호화, 복호화 방법 및 장치 |
SI3264780T1 (sl) | 2007-04-18 | 2020-08-31 | Dolby International Ab | Kodirni sistemi, pri katerih se uporablja dodatni niz sekvenčnih parametrov za skalabilno kodiranje videa ali večpogledno kodiranje |
JP5264919B2 (ja) * | 2007-10-05 | 2013-08-14 | トムソン ライセンシング | マルチビュービデオ(mvc)符号化システム内にビデオユーザビリティ情報(vui)を取り込む方法及び装置 |
KR101492302B1 (ko) * | 2007-10-15 | 2015-02-23 | 톰슨 라이센싱 | 스케일러블 비디오에 대한 계층간 레시듀 예측을 위한 방법들 및 장치들 |
US8249142B2 (en) * | 2008-04-24 | 2012-08-21 | Motorola Mobility Llc | Method and apparatus for encoding and decoding video using redundant encoding and decoding techniques |
KR20110117075A (ko) * | 2009-01-29 | 2011-10-26 | 엘지전자 주식회사 | 경계 인트라 코딩을 이용한 비디오 신호 처리 방법 및 장치 |
JP5115498B2 (ja) | 2009-03-05 | 2013-01-09 | 富士通株式会社 | 画像符号化装置、画像符号化制御方法およびプログラム |
KR101807886B1 (ko) | 2009-10-14 | 2017-12-11 | 돌비 인터네셔널 에이비 | 깊이 맵 처리를 위한 방법 및 디바이스 |
US8705624B2 (en) * | 2009-11-24 | 2014-04-22 | STMicroelectronics International N. V. | Parallel decoding for scalable video coding |
FR2955730A1 (fr) | 2010-01-25 | 2011-07-29 | Thomson Licensing | Procedes de codage et de decodage |
CN106412608B (zh) | 2010-04-13 | 2019-10-08 | Ge视频压缩有限责任公司 | 用于解码、生成数据流的方法和解码器 |
US20110293004A1 (en) | 2010-05-26 | 2011-12-01 | Jicheng An | Method for processing motion partitions in tree-based motion compensation and related binarization processing circuit thereof |
KR102472533B1 (ko) * | 2010-08-11 | 2022-11-30 | 지이 비디오 컴프레션, 엘엘씨 | 멀티-뷰 신호 코덱 |
US20130162774A1 (en) * | 2010-09-14 | 2013-06-27 | Dong Tian | Compression methods and apparatus for occlusion data |
US20120183077A1 (en) | 2011-01-14 | 2012-07-19 | Danny Hong | NAL Unit Header |
JP5747559B2 (ja) | 2011-03-01 | 2015-07-15 | 富士通株式会社 | 動画像復号方法、動画像符号化方法、動画像復号装置、及び動画像復号プログラム |
WO2013038679A1 (ja) * | 2011-09-13 | 2013-03-21 | パナソニック株式会社 | 符号化装置、復号装置、再生装置、符号化方法、及び復号方法 |
EP4161078A1 (en) * | 2011-11-11 | 2023-04-05 | GE Video Compression, LLC | Effective wedgelet partition coding using spatial prediction |
US9578339B2 (en) | 2013-03-05 | 2017-02-21 | Qualcomm Incorporated | Parallel processing for video coding |
WO2014171770A1 (ko) | 2013-04-17 | 2014-10-23 | 주식회사 윌러스표준기술연구소 | 비디오 신호 처리 방법 및 장치 |
-
2014
- 2014-01-04 EP EP14700048.3A patent/EP2941891B1/en active Active
- 2014-01-04 WO PCT/EP2014/050065 patent/WO2014106651A1/en active Application Filing
- 2014-01-04 CN CN202310268467.3A patent/CN116708768A/zh active Pending
- 2014-01-04 CN CN202310263865.6A patent/CN116347068A/zh active Pending
- 2014-01-04 JP JP2015551183A patent/JP6430961B2/ja active Active
- 2014-01-04 KR KR1020207024491A patent/KR102331649B1/ko active IP Right Grant
- 2014-01-04 EP EP20196003.6A patent/EP3809707B1/en active Active
- 2014-01-04 KR KR1020177034815A patent/KR102149959B1/ko active IP Right Grant
- 2014-01-04 CN CN202310271109.8A patent/CN116320393A/zh active Pending
- 2014-01-04 CN CN202310275945.3A patent/CN116366835A/zh active Pending
- 2014-01-04 KR KR1020217038166A patent/KR102539065B1/ko active IP Right Grant
- 2014-01-04 CN CN201480012232.7A patent/CN105144720B/zh active Active
- 2014-01-04 CN CN201811477939.1A patent/CN110062240B/zh active Active
- 2014-01-04 CN CN202310265965.2A patent/CN116708767A/zh active Pending
- 2014-01-04 KR KR1020157020813A patent/KR101806216B1/ko active IP Right Grant
- 2014-01-04 KR KR1020237018023A patent/KR20230080500A/ko not_active Application Discontinuation
- 2014-01-04 CN CN202310265075.1A patent/CN116320392A/zh active Pending
-
2015
- 2015-06-29 US US14/753,144 patent/US10104386B2/en active Active
-
2018
- 2018-09-06 US US16/123,184 patent/US10609396B2/en active Active
- 2018-11-01 JP JP2018206897A patent/JP6839158B6/ja active Active
-
2020
- 2020-02-20 US US16/795,632 patent/US11025928B2/en active Active
-
2021
- 2021-02-12 JP JP2021020886A patent/JP7126332B2/ja active Active
- 2021-04-27 US US17/241,855 patent/US11677966B2/en active Active
-
2022
- 2022-08-12 JP JP2022128875A patent/JP2022172146A/ja active Pending
-
2023
- 2023-06-08 US US18/207,470 patent/US20230396782A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007064347A2 (en) * | 2005-03-18 | 2007-06-07 | Sharp Laboratories Of America | Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding |
JP2007067552A (ja) * | 2005-08-29 | 2007-03-15 | Nippon Telegr & Teleph Corp <Ntt> | 階層間予測処理方法,階層間予測処理装置,階層間予測処理プログラムおよびその記録媒体 |
WO2008047300A2 (en) * | 2006-10-16 | 2008-04-24 | Nokia Corporation | System and method for using parallelly decodable slices for multi-view video coding |
WO2012167712A1 (en) * | 2011-06-10 | 2012-12-13 | Mediatek Inc. | Method and apparatus of scalable video coding |
WO2012167711A1 (en) * | 2011-06-10 | 2012-12-13 | Mediatek Inc. | Method and apparatus of scalable video coding |
Non-Patent Citations (3)
Title |
---|
C. ANDREW SEGALL, AND GARY J. SULLIVAN: "Spatial Scalability Within the H.264/AVC ScalableVideo Coding Extension", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 17, no. 9, JPN6020017865, September 2007 (2007-09-01), pages 1121 - 1135, XP011193020, ISSN: 0004423222, DOI: 10.1109/TCSVT.2007.906824 * |
H. SCHWARZ ET AL.: "Description of scalable video coding technology proposal by Fraunhofer HHI(Configuration A)", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11, vol. JCTVC-K0042, JPN6020017867, October 2012 (2012-10-01), pages 1 - 37, ISSN: 0004423223 * |
KARSTEN SUHRING ET AL.: "Indication of tile boundary alignment", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-L0197, JPN6020017868, January 2013 (2013-01-01), pages 1 - 2, ISSN: 0004423224 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7126332B2 (ja) | 効率的なスケーラブル符号化概念 | |
JP7485639B2 (ja) | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト | |
TW201714452A (zh) | 用於高效率視訊寫碼(hevc)及延伸之視訊參數集 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181203 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191029 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200909 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6839158 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |