JP7485639B2 - 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト - Google Patents
効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト Download PDFInfo
- Publication number
- JP7485639B2 JP7485639B2 JP2021121175A JP2021121175A JP7485639B2 JP 7485639 B2 JP7485639 B2 JP 7485639B2 JP 2021121175 A JP2021121175 A JP 2021121175A JP 2021121175 A JP2021121175 A JP 2021121175A JP 7485639 B2 JP7485639 B2 JP 7485639B2
- Authority
- JP
- Japan
- Prior art keywords
- view
- layer
- prediction
- inter
- spatial segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011664 signaling Effects 0.000 claims description 101
- 239000013598 vector Substances 0.000 claims description 92
- 238000000034 method Methods 0.000 claims description 51
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013213 extrapolation Methods 0.000 claims description 5
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims 1
- 239000010410 layer Substances 0.000 description 420
- 230000007246 mechanism Effects 0.000 description 44
- 230000001419 dependent effect Effects 0.000 description 40
- 239000011229 interlayer Substances 0.000 description 40
- 238000012545 processing Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 24
- 230000004048 modification Effects 0.000 description 21
- 238000012986 modification Methods 0.000 description 21
- 239000000872 buffer Substances 0.000 description 18
- 230000002123 temporal effect Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 14
- 238000009795 derivation Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 10
- 235000019580 granularity Nutrition 0.000 description 9
- FMYKJLXRRQTBOR-UBFHEZILSA-N (2s)-2-acetamido-4-methyl-n-[4-methyl-1-oxo-1-[[(2s)-1-oxohexan-2-yl]amino]pentan-2-yl]pentanamide Chemical group CCCC[C@@H](C=O)NC(=O)C(CC(C)C)NC(=O)[C@H](CC(C)C)NC(C)=O FMYKJLXRRQTBOR-UBFHEZILSA-N 0.000 description 8
- 230000004913 activation Effects 0.000 description 8
- 238000013461 design Methods 0.000 description 7
- 238000001914 filtration Methods 0.000 description 7
- 238000013507 mapping Methods 0.000 description 7
- 235000019587 texture Nutrition 0.000 description 7
- 230000009849 deactivation Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000007774 longterm Effects 0.000 description 5
- 238000013139 quantization Methods 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- 238000003491 array Methods 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 230000001934 delay Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241000385654 Gymnothorax tile Species 0.000 description 1
- 241001627144 Iris versicolor Species 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- -1 or in other words Substances 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/36—Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/55—Motion estimation with spatial constraints, e.g. at image or region borders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
また、スライスは、タイルまたはWPP境界において、ビットストリームを多重のNALユニットに分割するために用いることができる。画像12、15がタイルまたはWPPサブストリームを用いておよび加えてスライスを用いて分割され、スライス分割が他のWPP/タイル分割から変位する場合、空間セグメントは、画像12、15の最小の、独立して復号化可能なセクションとして定められる。あるいは、画像(12または15)内でコンセプトの組み合せを用いることができ、および/または、境界が異なって用いられたコンセプト間で整列しなければならない場合、ビットストリームに制限を課すことができる。
時には、これらのブロック90は、最大符号化ブロック(LCB)、最大符号化ユニット(LCU)、符号化ツリーブロック(CTB)等と呼ばれる。ブロック90への画像の再分割は、上述された予測および残差符号化が実行される一種のベースまたは最も粗いグラニュラリティを形成することができ、この最も粗いグラニュラリティ、すなわちブロック90のサイズは、シグナリングされ、エンコーダによってレイヤ0およびレイヤ1に対して個々にセットすることができる。たとえば、クワッドツリー再分割のようなマルチ木を用いることができ、各ブロック90を、それぞれ予測ブロック、残差ブロックおよび/または符号化ブロックに再分割するために、データストリーム内でシグナリングすることができる。特に、符号化ブロックはブロック90のリカーシブなマルチツリー再分割のリーフブロックとすることができ、いくつかの予測関連決定を予測モードのような符号化ブロックのグラニュラリティでシグナリングすることができ、そのグラニュラリティで時間的インター予測のケースにおける動きベクトルのような予測パラメータおよびたとえばインター予測のケースにおける視差ベクトルが符号化される予測ブロックおよびそのグラニュラリティで予測残差が符号化される残差ブロックをコードブロックの分離したリカーシブなマルチツリー再分割のリーフブロックとすることができる。
スライスは、WPPサブストリーム98a~98dを形成するために用いることもできる。このために、パケット化に対して最小ユニットを形成するスライスは、一方ではノーマルスライスを、他方では従属スライスを備えることができる:ノーマルスライスは、予測およびエントロピーコンテキスト導出に上述された制限を課すが、従属スライスはこの種の制限を課さない。符号化/復号化順序92が実質的に行ワイズから離れてポイントする画像の境界で開始する従属スライスは、ブロック90の直前の行におけるエントロピー復号化ブロック90から結果として生ずるエントロピーコンテキストを採用し、他のどこかで開始する従属スライスは、直前のスライスのエントロピー符号化/復号化からその終了までに結果として生ずるようなエントロピー符号化コンテキストを採用することができる。この手段によって、各WPPサブストリーム98a~98dは、1つ以上の従属スライスから構成することができる。
拘束が可能な場合、以下を適用する:
レイヤ間予測(例えば、サンプル値、動きベクトル、残差データまたは他のデータの予測のような)が参照用画像としてベースビュー(レイヤ12)を用いる場合、視差または動きベクトルは、参照された画面エリアが共起されたベースレイヤCTUと同じタイルに帰属するように、拘束される。特定の実施形態において、動きまたは視差ベクトル308は、参照された画像エリアが同じタイルの内部に配置され、参照されたサブペル位置は同じタイルの内部の情報のみから予測されるように、復号プロセスにおいてクリップされる。現在のHEVCのサンプル補間プロセスにおいてより具体的には、これはタイル境界300から3~4画素離れてクリップされるサブペル位置をポイントする動きベクトルを拘束する、またはビュー間動きベクトル、ビュー間残差予測プロセスにおいて、これは同じタイル内の位置をポイントする視差ベクトルを拘束する。代替の実施形態は、動きベクトルがタイル境界に対してサブペル補間フィルタのカーネルサイズ310より近くに配置されるサブペル位置をポイントすることを可能とするために、画像境界に類似するタイル境界をハンドリングするようにサブペル補間フィルタを調整する。代替の実施形態は、前述の実施形態においてクリップされている動きまたは視差ベクトルの使用を許容しないビットストリーム拘束を意味する。
制限が使用可能である場合、以下が適用される:
ベースレイヤが隣接するブロックからの予測(例えばTMVPまたは隣接するブロックの視差の導出のような)に用いられ、およびタイルが用いられる場合、以下が適用される:CTU Bが、共起されたベースレイヤCTU Aと同じタイルに帰属する場合、ベースレイヤにおいて共起されたCTU Aと異なるCTU Bから生ずる予測器候補が用いられるだけである。たとえば、現在のHEVCの導出プロセスにおいて、CTU Bは、共起されたCTU Aの右に配置される。本発明の特定の実施形態において、予測候補は、異なる予測によって置換される。たとえば、共起されたPUは、その代わりに予測に対して用いることができる。本発明の他の実施形態では、符号化ビットストリームにおいて、関連する予測モードの使用は許容されない。
特定の実施形態において、たとえば図13a、13bで示されたように、以下の高水準シンタックスを、N個のフラグを用いて上述された拘束/制限を可能とするために、VPSまたはSPSに用いることができる。
PREDTYPE は、制限/拘束が適用される予測タイプを指示し、リストされない以下のまたは他の予測タイプの1つとしてもよい:
- 例えば、ベースビューにおいて共起されたブロックの隣接するブロックからの時間的動きベクトルの予測に対する、temporal_motion_vector_prediction
- 例えば、ベースビューにおいて共起されたブロックの隣接するブロックからの視差ベクトルの予測に対する、disparity_vector_prediction
- 例えば、ベースビューからの奥行き値の予測に対する、depth_map_derivation
- 例えば、ベースビューからの動きベクトルの予測に対する、inter_view_motion_predition
- 例えば、ベースビューからの残差データの予測に対する、inter_view_residual_prediction
- 例えば、ベースビューからのサンプル値の予測に対する、inter_view_sample_prediction
- 例えば、拘束(ビットストリーム拘束を指示する。フラグをVUIに含めることができることを指示する)
- 例えば、制限(クリッピング(a)または異なる予測器の選択(b)を指示する)
- 例えば、same_scal(ベースレイヤが増強レイヤと同じスケーラビリティタイプであるとき、制限のみが適用されることを指示する)
- 例えば、diff_sca(ベースレイヤおよび増強レイヤのスケーラビリティタイプに関係なく、制限が適用されることを指示する)
ここで
各ビューが自身のアクセスユニットに含まれる場合、ビュー3の第1の復号化ユニットを復号化する最小遅延は、完全に受信ビュー1および2を含む。
シンタックスエレメントは、CTBまたはベースおよび増強レイヤの空間セグメント(たとえばWPPに対するタイル、スライスまたはCTB行)の間に空間領域の従属性を記述する。シンタックスエレメントは、NALユニットのインターリービングまたは符号化順序におけるNALユニットのシーケンシャル復号化に対しては必要でない。並列のマルチレイヤデコーダは、レイヤの並列復号化を準備するために、シンタックスエレメントを用いることができる。
lumaおよびクロマのリサンプリングに対する補間フィルタは、上位レイヤに対して必要なアップサンプルされたデータを生成するため、必要なデータ上の拘束を下位レイヤにセットする。たとえば、画像の空間セグメントは独立にアップサンプルすることができるので、復号化従属性は、これらのフィルタを拘束することによって低減することができる、タイル処理のための特定の拘束のシグナリングは、第1の形態に関して上述されている。
SHVCに対して、動き補償は、下位のレイヤによっては用いられない、すなわち、下位のレイヤが参照画像(HLSアプローチ)として使われる場合、結果として生じる動きベクトルは零ベクトルでなければならない。しかしながら、MV‐HEVC 0または3D‐HEVC 0に対して、視差ベクトルは拘束することができるが、必ずしも零ベクトルであるというわけではない。すなわち、動き補償は、ビュー間予測に対して用いることができる。それ故に、動きベクトルに対する制限は、前のNALユニットにおいて受け取られたデータのみが復号化に対して必要であることを確実にするために適用することができる。関連する発明およびシグナリングは、第1の形態に関して上述されている。
異なるレイヤからのNALユニットのインターリーブによって、並列処理および低遅延が効率的に望ましい場合、増強レイヤにおける画像分割は、参照レイヤにおける分割の画像分割の従属をなさなければならない。
図23も参照されたい。
NALユニットBを追従する符号化レイヤ画像成分 layerPicB の次のVCL NALユニットとする。PicWidthInCtbsYA を、CTB oflayerPicA を単位とする画像幅とする。そのとき、以下のコンディションは真になる:
NALユニットAのslice_segment_address とする。また、PicWidthInCtbsYA を、layerPicA のCTBを単位とする画像幅とする。そのとき、以下のコンディションは真となる:
コンセプトは、同じアクセスユニット内で、同じ現存するレイヤ識別子( nuh_layer_id )による多重のビュー成分の出現を可能とする。付加的な識別子拡張が、これらのビュー成分間を区別するために用いられる。この拡張は、NALユニットヘッダにおいて符号化されない。このように、それはNALユニットヘッダにおいてほど容易にアクセスすることはできないが、より多くのビューによる新規な用途ケースを依然として可能とする。特にビュークラスタリング(下記の説明を参照)については、一緒に帰属するビューのグループの抽出に対して、古い摘出機構がいかなる修正もなしに依然として用いることができる。
b.高水準レベルシンタックス構造における(例えば、本発明の以下の実施形態において与えられるようなスライスヘッダシンタックスにおけるまたはビデオ/シーケンス/画像パラメータセットの拡張における)フラグまたはインデックスまたはビット長の指示は、他のシンタックス構造による実在するレイヤ識別子値の各値の組み合わせを可能とする。
変形例I)変形例Iは、図26に図示される。ここで、
LayerIdExtEnabled = true
else
LayerIdExtEnabled = false
LayerIdExtEnabled = true
else
LayerIdExtEnabled = false
LayerIdExtEnabled = true
else
LayerIdExtEnabled = false
更なる記述において、特定のシンタックスエレメントは、ビットストリームシンタックスにおけるその位置に拘らず、layer_id_ext と称される。名前が、実施例として用いられる。以下のシンタックステーブルおよびセマンティクスは、可能な実施形態の実施例を与える。
LayerId = (nuh_layer_id << layer_id_ext_len) + layer_id_ext
else
LayerId = nuh_layer_id
if ( LayerIdExtEnabled == true)
LayerId = (layer_id_ext << 6) + nuh_layer_id
else
LayerId = nuh_layer_id
LayerId = maxNuhLayerId + layer_id_ext
else
LayerId = nuh_layer_id
0 ~ VpsMaxNumLayers - 1 のレンジにおけるiに対して、包括的に、存在しないときは、layer_id_in_nalu[ i ] の値はiに等しいと推定される。
splitting_flag が1に等しいとき、セグメントにおけるビットの合計数が6より小さい場合は、layer_id_in_nuh のMSBは0とする必要がある。
for( smIdx= 0, j =0; smIdx< 16; smIdx ++ )
if( ( i ! = 0 ) && scalability_mask[ smIdx ] )
ScalabilityId[ i ][ smIdx ] = dimension_id[ i ][ j++ ]
else
ScalabilityId[ i ][ smIdx ] = 0
ViewId[ layer_id_in_nalu[ i ] ] = ScalabilityId[ i ][ 0 ]
DependencyId [ layer_id_in_nalu[ i ] ] = ScalabilityId[ i ][ 1 ]
]
DepthFlag = layer_id % 2
DepthFlag = LayerId % 2
現在の解決法の欠点は、これは direct_dependency_flags のアルゴリズム的に複雑な解析を必要とするので、現在のVPS設計からこの種のディメンション従属する従属性を識別することが直接的でないということである。
2.1つのスケーラブルディメンションタイプのみが利用されるときでさえ、レイヤのサブセットに対して同一の構造が一般的に用いられる。例えばビュースケーラビリティのみのケースに対して、ビューは水平および垂直のカメラ位置によってスパンされる空間にマッピングされるであろう。この種のシナリオに対する実施例は、図36に表され、ここでディメンション0および1は水平および垂直のカメラ位置のディメンションと解釈される。各カメラ位置のディメンションに対して1つの予測構造を用いるのが一般的な慣習であるが、現在のVPS設計はこれから結果として生じる冗長性を利用することができない。さらに、現在のVPS設計において、従属性がディメンション従属であるという直接の指示はない。
3.direct_dependency_flags の数は、ビットストリームにおけるレイヤの数の自乗に比例し、それゆえに、64レイヤによる現在の最悪のケースは、約64*63/2=2016ビットが必要とされる。さらに、ビットストリームにおいて最大数のレイヤが拡張されるとき、これはドラスティックに増加するビットの数に結果としてなる。
1.各従属性ディメンションに対する従属性は、ビットストリームにおいて直接的に利用可能であり、direct_dependency_flags の複雑な解析は必要でない。
2.従属性のシグナリングに対して必要なビット数は、低減することができる。
num_dims = NumScalabilityTypes
num_pos_minus1[ t ] = dimension_id_len_minus1[ t ]
dimDiv[ 0 ] = 1
for ( t = 0; t < T 1 ; t++ )
dimDiv[ t + 1 ] = dimDiv[ t ] * ( num_pos_minus1[ t ] + 1 )
for ( t = T 1 ; t >= 0; t-- ) [
pos_in_dim[ i ][ t ] = idx / dimDiv[ t ] // integer devision
idx = idx pos_in_dim[ i ][ t ] * dimDiv[ t ]
}
for( t = 0; t <= num_dims; t++ )
for( m = 1; m <= num_pos_minus1[ t ]; m++ )
num_ref_pos[ t ][ m ] = 0
for( n = 0; n < m; n++ ) [
if ( pos_dependency_flag[ t ][ m ][ n ] = = true ) [
ref_pos_set[ t ][ m ][ num_ref_pos[ t ][ m ] ] = n
num_ref_pos[ t ][ m ] ++
}
}
posIdx = posIdx + offset * posVector[ t ]
offset = offset * ( num_pos_minus1[ t ] + 1 );
}
posIdxToLayerIdInVps[ posVecToPosIdx( pos_in_dim[ i ] )] = i
for (k = 0; k < i; k++)
directDependencyFlag[ i ][ k ] = 0
curPosVec = pos_in_dim[ i ]
for (t = 0; t < num_dims; t++) [
for (j = 0; j < num_ref_pos[ t ][ curPosVec[ t ] ]; j++) [
refPosVec = curPosVec
refPosVec[ t ] = ref_pos_set[ t ][ curPosVec[ t ] ][ j ]
directDependencyFlag[ i ][ posIdxToLayerIdInVps[ posVecToPosIdx( refPosVec ) ] ] = 1
]
]
]
curPosVec = pos_in_dim[ i ];
for (j = 0; j < i; j++) [
refPosVec = pos_in_dim[ j ]
for (t = 0, nD = 0; t < num_dims; t++)
if ( curPosVec[ t ] ! = refPosVec[ j ][ t ] ) [
nD ++
tD = t
]
if ( nD = = 1 )
directDependencyFlag[ i ][ j ] = pos_dependency_flag[ tD ][ curPosVec[ tD ] ][ refPosVec[ tD ] ]
else
directDependencyFlag[ i ][ j ] = 0
]
]
for( j = 0, NumDirectRefLayers[ i ] = 0; j < i; j++ )
if( directDependencyFlag[ i ][ j ] = = 1 )
RefLayerId[ i ][ NumDirectRefLayers[ i ]++ ] = layer_id_in_nuh[ j ]
NumDirectRefLayers[ i ] = 0
curPosVec = pos_in_dim[ i ]
for (t = 0; t < num_dims; t++) [
for (j = 0; j < num_ref_pos[ t ][ curPosVec[ t ] ]; j++) [
refPosVec = curPosVec
refPosVec[ t ] = ref_pos_set[ t ][ curPosVec[ t ] ][ j ]
m = posIdxToLayerIdInVps[ posVecToPosIdx( refPosVec ) ]
RefLayerId[ i ][ NumDirectRefLayers[ i ]++ ] = layer_id_in_nuh[ m ]
]
]
[1]B. Bross et al., "High Efficiency Video Coding (HEVC) text specification draft 10", JCTVC-L1003, Geneva, CH, 14-23 Jan. 2013
[2]G. Tech et al., "MV-HEVC Draft Text 3", JCT3V-C1004, Geneva, CH , 17-23 Jan. 2013
[3]G. Tech et al., "3D-HEVC Test Model 3", JCT3V-C1005, Geneva, CH , 17-23 Jan. 2013
[4]J. Chen et al., "SHVC Draft Text 1", JCT-VCL1008, Geneva, CH , 17-23 Jan. 2013
[5]WILBURN, Bennett, et al. High performance imaging using large camera arrays. ACM Transactions on Graphics, 2005, 24. Jg., Nr. 3, S. 765-776.
[6]WILBURN, Bennett S., et al. Light field video camera. In: Electronic Imaging 2002. International Society for Optics and Photonics, 2001. S. 29-36.
[7]HORIMAI, Hideyoshi, et al. Full-color 3D display system with 360 degree horizontal viewing angle. In: Proc. Int. Symposium of 3D and Contents. 2010. S. 7-10.
Claims (18)
- 第1のビュー(12)から第2のビュー(15)へのビュー間予測を用いて、データストリームから複数のビュー(12、15)を復元するように構成されるマルチビューデコーダであって、前記マルチビューデコーダは、前記データストリームにおけるシグナリングに応答して、前記ビュー間予測を用いて現在予測される前記第2のビュー(15)の現在の部分(302)と同じ場所に配置された前記第1のビューの部分(306)が空間的に配置される空間セグメントの境界(300)を越えて拡張する部分において、前記空間セグメントからの外挿によって、補間フィルタカーネル(311)を前記空間セグメントの前記境界の外部の情報から独立した代替データによって充填するように構成され、前記空間セグメントは独立して復号化可能である、マルチビューデコーダ。
- 前記データストリームに基づいて、前記第2のビュー(15)の現在の部分(302)について可能な視差ベクトルのドメインから視差ベクトル(308)を決定し、前記現在の部分(302)と同じ場所に配置された前記第1のビュー(12)の部分(306)から前記決定された視差ベクトル(308)分、変位した参照部分(304)において、前記第1のビュー(12)をサンプリングするように構成される、請求項1に記載のマルチビューデコーダ。
- 前記ビュー間予測において、前記第2のビューの現在の部分について、前記第1のビュー(12)内の参照部分(314)を導き出し、前記データストリームにおけるシグナリングに依存して、前記参照部分(314)が、前記現在の部分(302)と同じ場所に配置された第1のビュー(12)の部分(306)が空間的に配置される空間セグメント(301)内にあるかどうかをチェックし、
前記参照部分が前記空間セグメント内にある場合には、前記参照部分(314)の属性から導き出された前記現在の部分(302)のための予測器を適用し、
前記参照部分が前記空間セグメント内にない場合には、前記部分(306)が空間的に配置されている前記空間セグメント(301)内に前記参照部分(314)があるかどうかに依存して、前記現在の部分(302)のパラメータに対して前記予測器の適用を差し控える、もしくは代替予測器を適用する、または
前記部分(306)が空間的に配置される前記空間セグメント(82)内に前記参照部分(314)があるか否かに拘りなく、前記予測器を適用する、
ように構成される、請求項1または請求項2に記載のマルチビューデコーダ。 - 前記参照部分(314)を導き出すにあたり、
前記現在の部分(302)ための視差ベクトル(316)を推定し、
前記現在の部分(302)または前記現在の部分(302)に隣接する前記第1のビューの隣接部分(320)に対して同じ場所に配置された前記第1のビューの代表位置(318)を配置し、
前記代表位置(318)に前記視差ベクトル(316)を適用することによって前記参照部分(314)を決定する、
ように構成される、請求項3に記載のマルチビューデコーダ。 - 前記データストリームに伝送される距離画像、または前記現在の部分について空間的または時間的に予測された視差ベクトルに基づいて、前記現在の部分のための前記視差ベクトルを推定するように構成される、請求項4に記載のマルチビューデコーダ。
- 前記参照部分(314)を決定するにあたり、前記第1のビュー(12)を符号化ブロック、予測ブロック、残差ブロックおよび/または変換ブロックに分割したものの中から、前記参照部分を前記視差ベクトル(316)の使用によって選択するように構成される、請求項4または請求項5に記載のマルチビューデコーダ。
- 前記パラメータは、動きベクトル、視差ベクトル、残差信号および/または奥行き値である、請求項3ないし請求項6のいずれかに記載のマルチビューデコーダ。
- 前記属性は、動きベクトル、視差ベクトル、残差信号および/または奥行き値である、請求項3ないし請求項7のいずれかに記載のマルチビューデコーダ。
- 第1のビュー(12)から第2のビュー(15)へのビュー間予測を用いて、複数のビュー(12、15)をデータストリームに符号化するように構成されるマルチビューエンコーダであって、前記マルチビューエンコーダは、前記ビュー間予測を用いて現在予測される前記第2のビュー(15)の現在の部分(302)と同じ場所に配置された前記第1のビューの部分(306)が空間的に配置される空間セグメントの境界(300)を越えて拡張する部分において、前記空間セグメントからの外挿によって、補間フィルタカーネル(311)を前記空間セグメントの前記境界の外部の独立した代替データによって充填するように構成され、前記空間セグメントは独立して符号化可能である、マルチビューエンコーダ。
- 前記第2のビュー(15)の現在の部分(302)(例えば視差補正して予測された、予測ブロック)についての可能な視差ベクトルのドメインの中から視差ベクトル(308)を(たとえば、最適化によって)決定して前記データストリームにおいてシグナリングし、前記現在の部分(302)と同じ場所に配置された前記第1のビュー(12)の部分(306)から前記決定された視差ベクトル分(308)変位された参照部分(304)において、前記第1のビュー(12)をサンプリングするように構成される、請求項9に記載のマルチビューエンコーダ。
- 前記ビュー間予測において、前記第2のビューの現在の部分について、前記第1のビュー(12)内の参照部分(314)を導き出し、前記データストリームにおけるシグナリングに依存して、前記参照部分(314)が、前記現在の部分(302)と同じ場所に配置された第1のビュー(12)の部分(306)が空間的に配置される空間セグメント(301)内にあるかどうかをチェックし、前記参照部分が前記空間セグメント内にある場合には、前記参照部分(314)の属性から導き出された前記現在の部分(302)のための予測器を適用し、前記参照部分が前記空間セグメント内にない場合には、前記部分(306)が空間的に配置される前記空間セグメント(301)内に前記参照部分(314)があるかどうかに依存して、前記現在の部分(302)のパラメータへの前記予測器の適用を差し控える、または
前記部分(306)が空間的に配置される前記空間セグメント(301)内に前記参照部分(314)があるか否かに拘りなく、前記予測器を適用する、
ように構成される、請求項9または請求項10に記載のマルチビューエンコーダ。 - 前記参照部分(314)を導き出すにあたり、
前記現在の部分(302)のための視差ベクトル(316)を推定し、
前記現在の部分(302)または前記現在の部分(302)に隣接する前記第1のビューの隣接部分(320)に対して同じ場所に配置された前記第1のビューの代表位置(318)を配置し、
前記代表位置(318)に前記視差ベクトル(316)を適用することによって前記参照部分(314)を決定する、
ように構成される、請求項11に記載のマルチビューエンコーダ。 - 前記データストリームに伝送される距離画像、または前記現在の部分について空間的または時間的に予測された視差ベクトルに基づいて、前記現在の部分のための前記視差ベクトルを推定するように構成される、請求項12に記載のマルチビューエンコーダ。
- 前記パラメータは、動きベクトル、視差ベクトル、残差信号および/または奥行き値である、請求項11ないし請求項13のいずれかに記載のマルチビューエンコーダ。
- 前記属性は、動きベクトル、視差ベクトル、残差信号および/または奥行き値である、請求項11ないし請求項14のいずれかに記載のマルチビューエンコーダ。
- 第1のビュー(12)から第2のビュー(15)へのビュー間予測を用いて、データストリームから複数のビュー(12、15)を復元するための方法であって、前記方法は、前記データストリームにおけるシグナリングに応答して、前記ビュー間予測を用いて現在予測される前記第2のビュー(15)の現在の部分(302)と同じ場所に配置された前記第1のビューの部分(306)が空間的に配置される空間セグメントの境界(300)を越えて拡張する部分において、前記空間セグメントからの外挿によって、補間フィルタカーネル(311)を前記空間セグメントの前記境界の外部の情報から独立した代替データによって充填し、前記空間セグメントは独立して符号化可能である、方法。
- 第1のビュー(12)から第2のビュー(15)へのビュー間予測を用いて、複数のビュー(12、15)をデータストリームに符号化するための方法であって、前記方法は、前記ビュー間予測を用いて現在予測される前記第2のビュー(15)の現在の部分(302)と同じ場所に配置された前記第1のビューの部分(306)が空間的に配置される空間セグメントの境界(300)を越えて拡張する部分において、前記空間セグメントからの外挿によって、補間フィルタカーネル(311)を前記空間セグメントの前記境界の外部の情報から独立した代替データによって充填するステップを含み、前記空間セグメントは独立して符号化可能である、方法。
- コンピュータプログラムがコンピュータ上で動作するとき、請求項16または請求項17のいずれかに記載の方法を実行するプログラムコードを有する、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361809605P | 2013-04-08 | 2013-04-08 | |
US61/809,605 | 2013-04-08 | ||
JP2018228292A JP6920271B2 (ja) | 2013-04-08 | 2018-12-05 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018228292A Division JP6920271B2 (ja) | 2013-04-08 | 2018-12-05 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021182750A JP2021182750A (ja) | 2021-11-25 |
JP2021182750A5 JP2021182750A5 (ja) | 2024-01-15 |
JP7485639B2 true JP7485639B2 (ja) | 2024-05-16 |
Family
ID=50442530
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016506938A Active JP6449241B2 (ja) | 2013-04-08 | 2014-04-08 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
JP2018228292A Active JP6920271B2 (ja) | 2013-04-08 | 2018-12-05 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
JP2021121175A Active JP7485639B2 (ja) | 2013-04-08 | 2021-07-26 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016506938A Active JP6449241B2 (ja) | 2013-04-08 | 2014-04-08 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
JP2018228292A Active JP6920271B2 (ja) | 2013-04-08 | 2018-12-05 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Country Status (6)
Country | Link |
---|---|
US (2) | US11582473B2 (ja) |
EP (2) | EP2984839B1 (ja) |
JP (3) | JP6449241B2 (ja) |
KR (5) | KR102467038B1 (ja) |
CN (7) | CN117956143A (ja) |
WO (1) | WO2014166964A1 (ja) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160065980A1 (en) * | 2013-04-05 | 2016-03-03 | Samsung Electronics Co., Ltd. | Video stream encoding method according to a layer identifier expansion and an apparatus thereof, and a video stream decoding method according to a layer identifier expansion and an apparatus thereof |
JP6261215B2 (ja) * | 2013-07-12 | 2018-01-17 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
KR102416235B1 (ko) | 2013-07-15 | 2022-07-05 | 지이 비디오 컴프레션, 엘엘씨 | 다계층식 비디오 코딩에서의 저지연 개념 |
US10356459B2 (en) | 2013-07-22 | 2019-07-16 | Sony Corporation | Information processing apparatus and method |
US9706228B2 (en) * | 2013-10-15 | 2017-07-11 | Qualcomm Incorporated | Support for large numbers of views in multi-layer coding |
US10110910B2 (en) * | 2013-10-21 | 2018-10-23 | Vid Scale, Inc. | Parallel decoding method for layered video coding |
US9794626B2 (en) | 2014-05-01 | 2017-10-17 | Qualcomm Incorporated | Partitioning schemes in multi-layer video coding |
US20150373376A1 (en) | 2014-06-20 | 2015-12-24 | Qualcomm Incorporated | Systems and methods for selectively signaling different numbers of video signal information syntax structures in a parameter set |
CN105556968B (zh) * | 2014-06-23 | 2018-09-04 | 联发科技(新加坡)私人有限公司 | 三维或多视图视频编码系统中预测编码的装置及方法 |
KR101682627B1 (ko) * | 2014-09-05 | 2016-12-05 | 삼성에스디에스 주식회사 | 영상 스트림 제공 방법 및 시스템과 중계 장치 |
WO2016124711A1 (en) * | 2015-02-05 | 2016-08-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | 3d-video codec supporting inter-component prediction |
CN108353164B (zh) | 2015-09-11 | 2022-06-24 | 株式会社Kt | 用于处理视频信号的方法和设备 |
US10230948B2 (en) * | 2016-02-03 | 2019-03-12 | Mediatek Inc. | Video transmitting system with on-the-fly encoding and on-the-fly delivering and associated video receiving system |
FI20165256L (fi) * | 2016-03-24 | 2017-09-25 | Nokia Technologies Oy | Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen |
GB2550150B (en) * | 2016-05-10 | 2020-01-22 | Advanced Risc Mach Ltd | Data processing systems |
US20170374364A1 (en) * | 2016-06-23 | 2017-12-28 | Mediatek Inc. | Method and Apparatus of Face Independent Coding Structure for VR Video |
GB2553315A (en) * | 2016-09-01 | 2018-03-07 | Nokia Technologies Oy | Determining inter-view prediction areas |
US20180098090A1 (en) * | 2016-10-04 | 2018-04-05 | Mediatek Inc. | Method and Apparatus for Rearranging VR Video Format and Constrained Encoding Parameters |
KR102004247B1 (ko) * | 2016-11-25 | 2019-07-29 | 경희대학교 산학협력단 | 영상 병렬 처리 방법 및 장치 |
GB2572770B (en) * | 2018-04-09 | 2022-11-02 | Canon Kk | Method and apparatus for encoding or decoding video data with frame portions |
US10841604B2 (en) | 2018-09-04 | 2020-11-17 | Google Llc | Temporal prediction shifting for scalable video coding |
CN112703742B (zh) | 2018-09-14 | 2023-03-31 | 华为技术有限公司 | 视频译码中的分块指示 |
US11736713B2 (en) * | 2018-11-14 | 2023-08-22 | Tencent America LLC | Constraint on affine model motion vector |
KR102625314B1 (ko) * | 2018-11-26 | 2024-01-15 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 타일 독립성 제약을 이용하는 인터 예측 개념 |
US11310516B2 (en) * | 2018-12-21 | 2022-04-19 | Hulu, LLC | Adaptive bitrate algorithm with cross-user based viewport prediction for 360-degree video streaming |
CN113068025B (zh) * | 2018-12-25 | 2023-05-12 | Oppo广东移动通信有限公司 | 解码预测方法、装置及计算机存储介质 |
JP7343097B2 (ja) | 2018-12-29 | 2023-09-12 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 動画処理方法、装置、およびコンピュータプログラム |
CN114026863A (zh) * | 2019-06-24 | 2022-02-08 | 交互数字Vc控股公司 | 使用高级语法元素发信号通知解码数据的方法和装置 |
EP3997883A4 (en) * | 2019-07-12 | 2023-08-02 | Telefonaktiebolaget LM Ericsson (publ) | EXTENDING HEADER VALUES INTO VIDEO AND IMAGE CODING UNITS |
US11706428B2 (en) * | 2020-04-06 | 2023-07-18 | Tencent America LLC | Method for signaling picture header in coded video stream |
CN115699728A (zh) * | 2020-06-08 | 2023-02-03 | 字节跳动有限公司 | 视频编解码中的子层信令 |
US11750843B2 (en) * | 2021-06-28 | 2023-09-05 | Tencent America LLC | Multiview-related supplementary enhancement information messages |
US20230079859A1 (en) * | 2021-09-13 | 2023-03-16 | Apple Inc. | Systems and methods for streaming extensions for video encoding |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0577310B1 (en) * | 1992-06-29 | 2001-11-21 | Canon Kabushiki Kaisha | Image processing device |
JPH10336668A (ja) * | 1997-06-02 | 1998-12-18 | Sharp Corp | 動きベクトル検出装置 |
JP4118049B2 (ja) * | 2001-12-28 | 2008-07-16 | 株式会社リコー | 画像処理装置及び方法 |
US8260661B2 (en) * | 2003-09-30 | 2012-09-04 | Visa U.S.A. Inc. | System and apparatus for linking multiple rewards programs to promote the purchase of specific product mixes |
ITMI20041971A1 (it) | 2004-10-15 | 2005-01-15 | Uni Degli Studi Brescia | Metodo di codifica video scalabile |
US7961963B2 (en) | 2005-03-18 | 2011-06-14 | Sharp Laboratories Of America, Inc. | Methods and systems for extended spatial scalability with picture-level adaptation |
KR100678907B1 (ko) | 2005-07-12 | 2007-02-06 | 삼성전자주식회사 | 하위 계층의 복원 데이터를 사용하여 fgs 계층을 인코딩및 디코딩하는 방법 및 장치 |
JP4490351B2 (ja) | 2005-08-29 | 2010-06-23 | 日本電信電話株式会社 | 階層間予測処理方法,階層間予測処理装置,階層間予測処理プログラムおよびその記録媒体 |
KR100772868B1 (ko) | 2005-11-29 | 2007-11-02 | 삼성전자주식회사 | 복수 계층을 기반으로 하는 스케일러블 비디오 코딩 방법및 장치 |
CA2633819C (en) * | 2005-12-08 | 2016-12-06 | Vidyo, Inc. | Systems and methods for error resilience and random access in video communication systems |
BRPI0706407B1 (pt) * | 2006-01-09 | 2019-09-03 | Interdigital Madison Patent Holdings | método e aparelho para fornecer modo de atualização de resolução reduzida para codificação de vídeo de múltiplas visualizações e mídia de armazenamento tendo dados codificados de sinal de vídeo |
JP5535485B2 (ja) * | 2006-01-09 | 2014-07-02 | トムソン ライセンシング | 削減された分解能更新モードをマルチビュー・ビデオ符号化に提供する方法及び装置 |
US7535383B2 (en) * | 2006-07-10 | 2009-05-19 | Sharp Laboratories Of America Inc. | Methods and systems for signaling multi-layer bitstream data |
ES2440824T3 (es) | 2006-07-10 | 2014-01-30 | Orange | Dispositivo y procedimiento de codificación y de decodificación escalables de flujo de datos de imágenes, señal y programa informático correspondientes |
WO2008047300A2 (en) * | 2006-10-16 | 2008-04-24 | Nokia Corporation | System and method for using parallelly decodable slices for multi-view video coding |
JP5134001B2 (ja) * | 2006-10-18 | 2013-01-30 | アップル インコーポレイテッド | 下層のフィルタリングを備えたスケーラブルビデオ符号化 |
CA2661981C (en) * | 2006-11-09 | 2013-01-15 | Lg Electronics Inc. | Method and apparatus for decoding/encoding a video signal |
WO2008060126A1 (en) * | 2006-11-17 | 2008-05-22 | Lg Electronics Inc. | Method and apparatus for decoding/encoding a video signal |
KR20080066522A (ko) * | 2007-01-11 | 2008-07-16 | 삼성전자주식회사 | 다시점 영상의 부호화, 복호화 방법 및 장치 |
CN101669367A (zh) * | 2007-03-02 | 2010-03-10 | Lg电子株式会社 | 用于解码/编码视频信号的方法及设备 |
SI3264780T1 (sl) | 2007-04-18 | 2020-08-31 | Dolby International Ab | Kodirni sistemi, pri katerih se uporablja dodatni niz sekvenčnih parametrov za skalabilno kodiranje videa ali večpogledno kodiranje |
JP5264919B2 (ja) | 2007-10-05 | 2013-08-14 | トムソン ライセンシング | マルチビュービデオ(mvc)符号化システム内にビデオユーザビリティ情報(vui)を取り込む方法及び装置 |
KR101492302B1 (ko) | 2007-10-15 | 2015-02-23 | 톰슨 라이센싱 | 스케일러블 비디오에 대한 계층간 레시듀 예측을 위한 방법들 및 장치들 |
SG155797A1 (en) * | 2008-03-20 | 2009-10-29 | St Microelectronics Asia | System and process for image rescaling with edge adaptive phase control in interpolation process |
US8249142B2 (en) | 2008-04-24 | 2012-08-21 | Motorola Mobility Llc | Method and apparatus for encoding and decoding video using redundant encoding and decoding techniques |
JP5115498B2 (ja) * | 2009-03-05 | 2013-01-09 | 富士通株式会社 | 画像符号化装置、画像符号化制御方法およびプログラム |
AU2009201637B2 (en) * | 2009-04-24 | 2011-08-11 | Canon Kabushiki Kaisha | Processing multi-view digital images |
US8705624B2 (en) | 2009-11-24 | 2014-04-22 | STMicroelectronics International N. V. | Parallel decoding for scalable video coding |
FR2955730A1 (fr) * | 2010-01-25 | 2011-07-29 | Thomson Licensing | Procedes de codage et de decodage |
EP2557791A4 (en) * | 2010-04-07 | 2016-09-07 | Jvc Kenwood Corp | ANIMATED IMAGE ENCODING DEVICE, ANIMATED IMAGE ENCODING METHOD, ANIMATED IMAGE ENCODING PROGRAM, ANIMATED IMAGE DECODING DEVICE, ANIMATED IMAGE DECODING METHOD, AND ANIMATED IMAGE DECODING PROGRAM |
US20110293004A1 (en) * | 2010-05-26 | 2011-12-01 | Jicheng An | Method for processing motion partitions in tree-based motion compensation and related binarization processing circuit thereof |
WO2012007038A1 (en) * | 2010-07-15 | 2012-01-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Hybrid video coding supporting intermediate view synthesis |
KR102472533B1 (ko) * | 2010-08-11 | 2022-11-30 | 지이 비디오 컴프레션, 엘엘씨 | 멀티-뷰 신호 코덱 |
US20130162774A1 (en) * | 2010-09-14 | 2013-06-27 | Dong Tian | Compression methods and apparatus for occlusion data |
US20120183077A1 (en) * | 2011-01-14 | 2012-07-19 | Danny Hong | NAL Unit Header |
JP5747559B2 (ja) * | 2011-03-01 | 2015-07-15 | 富士通株式会社 | 動画像復号方法、動画像符号化方法、動画像復号装置、及び動画像復号プログラム |
CN106851270B (zh) * | 2011-04-25 | 2020-08-28 | Lg电子株式会社 | 执行帧内预测的编码设备和解码设备 |
EP3057326A1 (en) | 2011-06-10 | 2016-08-17 | MediaTek, Inc | Method and apparatus of scalable video coding |
BR112013031215B8 (pt) | 2011-06-10 | 2022-07-19 | Mediatek Inc | Método e aparelho de codificação escalável de vídeo |
KR20170005464A (ko) * | 2011-08-30 | 2017-01-13 | 노키아 테크놀로지스 오와이 | 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램 |
GB2505643B (en) * | 2012-08-30 | 2016-07-13 | Canon Kk | Method and device for determining prediction information for encoding or decoding at least part of an image |
US9578339B2 (en) * | 2013-03-05 | 2017-02-21 | Qualcomm Incorporated | Parallel processing for video coding |
WO2014171770A1 (ko) * | 2013-04-17 | 2014-10-23 | 주식회사 윌러스표준기술연구소 | 비디오 신호 처리 방법 및 장치 |
-
2014
- 2014-04-08 CN CN202410127001.6A patent/CN117956143A/zh active Pending
- 2014-04-08 CN CN202410127035.5A patent/CN117956144A/zh active Pending
- 2014-04-08 KR KR1020217036956A patent/KR102467038B1/ko active IP Right Grant
- 2014-04-08 EP EP14715932.1A patent/EP2984839B1/en active Active
- 2014-04-08 CN CN201910419460.0A patent/CN110225356B/zh active Active
- 2014-04-08 KR KR1020157031931A patent/KR101773413B1/ko active IP Right Grant
- 2014-04-08 CN CN202410124092.8A patent/CN117956140A/zh active Pending
- 2014-04-08 KR KR1020207017996A patent/KR102327617B1/ko active IP Right Grant
- 2014-04-08 CN CN202410125863.5A patent/CN117956142A/zh active Pending
- 2014-04-08 CN CN201480032450.7A patent/CN105308968B/zh active Active
- 2014-04-08 JP JP2016506938A patent/JP6449241B2/ja active Active
- 2014-04-08 CN CN202410125844.2A patent/CN117956141A/zh active Pending
- 2014-04-08 EP EP20176564.1A patent/EP3758379A3/en active Pending
- 2014-04-08 WO PCT/EP2014/057089 patent/WO2014166964A1/en active Application Filing
- 2014-04-08 KR KR1020227039316A patent/KR20220156103A/ko active IP Right Grant
- 2014-04-08 KR KR1020177023826A patent/KR102127281B1/ko active IP Right Grant
-
2015
- 2015-10-06 US US14/875,808 patent/US11582473B2/en active Active
-
2018
- 2018-12-05 JP JP2018228292A patent/JP6920271B2/ja active Active
-
2021
- 2021-07-26 JP JP2021121175A patent/JP7485639B2/ja active Active
-
2022
- 2022-11-07 US US18/053,168 patent/US20230108814A1/en active Pending
Non-Patent Citations (3)
Title |
---|
COBAN, Muhammed et al.,Support of independent sub-pictures,Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 9th Meeting: Geneva, CH, 27 April - 7 May 2012, [JCTVC-I0356],JCTVC-I0356 (version 1),ITU-T,2012年04月17日,<URL:http://phenix.it-sudparis.eu/jct/doc_end_user/documents/9_Geneva/wg11/JCTVC-I0356-v1.zip>: JCTVC-I0356.doc: pp.1-5 |
NAKAGAMI, Ohji et al.,MV-HEVC: Vertical length restriction of inter-view vector for HEVC simple 3D extension,Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 2nd Meeting: Shanghai, CN, 13-19 Oct. 2012, [JCT3V-B0037_r1],JCT3V-B0037 (version 2),ITU-T,2012年10月12日,<URL:http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/2_Shanghai/wg11/JCT3V-B0037-v2.zip>: JCT3V-B0037_r1.doc: pp.1-7 |
TECH, Gerhard et al.,3D-HEVC Test Model 3,Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 3rd Meeting: Geneva, CH, 17-23 Jan. 2013, [JCT3V-C1005_d0],JCT3V-C1005 (version 1),ITU-T,2013年03月15日,<URL:http://phenix.it-sudparis.eu/jct2/doc_end_user/documents/3_Geneva/wg11/JCT3V-C1005-v1.zip>: JCT3V-C1005_d0.docx: pp.13-19 |
Also Published As
Publication number | Publication date |
---|---|
JP6449241B2 (ja) | 2019-01-09 |
CN110225356B (zh) | 2024-02-13 |
US20160057441A1 (en) | 2016-02-25 |
JP2016519513A (ja) | 2016-06-30 |
KR101773413B1 (ko) | 2017-08-31 |
KR102127281B1 (ko) | 2020-06-26 |
CN117956140A (zh) | 2024-04-30 |
US11582473B2 (en) | 2023-02-14 |
JP6920271B2 (ja) | 2021-08-18 |
CN117956142A (zh) | 2024-04-30 |
KR20210138166A (ko) | 2021-11-18 |
EP3758379A3 (en) | 2021-02-24 |
WO2014166964A1 (en) | 2014-10-16 |
CN105308968B (zh) | 2019-06-14 |
KR20170102045A (ko) | 2017-09-06 |
JP2021182750A (ja) | 2021-11-25 |
KR20200077611A (ko) | 2020-06-30 |
KR20220156103A (ko) | 2022-11-24 |
US20230108814A1 (en) | 2023-04-06 |
EP3758379A2 (en) | 2020-12-30 |
CN105308968A (zh) | 2016-02-03 |
JP2019075793A (ja) | 2019-05-16 |
KR102327617B1 (ko) | 2021-11-17 |
KR20150140354A (ko) | 2015-12-15 |
KR102467038B1 (ko) | 2022-11-14 |
EP2984839A1 (en) | 2016-02-17 |
CN117956144A (zh) | 2024-04-30 |
EP2984839B1 (en) | 2020-05-27 |
CN117956141A (zh) | 2024-04-30 |
CN110225356A (zh) | 2019-09-10 |
CN117956143A (zh) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7485639B2 (ja) | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト | |
US11677966B2 (en) | Efficient scalable coding concept | |
AU2023203628A1 (en) | Techniques for bitstream extraction for subpicture in coded video stream | |
AU2023204004A1 (en) | Method for signaling subpicture partitioning in coded video stream |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230928 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20240104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7485639 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |