JP6920271B2 - 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト - Google Patents
効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト Download PDFInfo
- Publication number
- JP6920271B2 JP6920271B2 JP2018228292A JP2018228292A JP6920271B2 JP 6920271 B2 JP6920271 B2 JP 6920271B2 JP 2018228292 A JP2018228292 A JP 2018228292A JP 2018228292 A JP2018228292 A JP 2018228292A JP 6920271 B2 JP6920271 B2 JP 6920271B2
- Authority
- JP
- Japan
- Prior art keywords
- view
- layer
- prediction
- block
- inter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/187—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
- H04N19/36—Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/463—Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/55—Motion estimation with spatial constraints, e.g. at image or region borders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
また、スライスは、タイルまたはWPP境界において、ビットストリームを多重のNALユニットに分割するために用いることができる。画像12、15がタイルまたはWPPサブストリームを用いておよび加えてスライスを用いて分割され、スライス分割が他のWPP/タイル分割から変位する場合、空間セグメントは、画像12、15の最小の、独立して復号化可能なセクションとして定められる。あるいは、画像(12または15)内でコンセプトの組み合せを用いることができ、および/または、境界が異なって用いられたコンセプト間で整列しなければならない場合、ビットストリームに制限を課すことができる。
時には、これらのブロック90は、最大符号化ブロック(LCB)、最大符号化ユニット(LCU)、符号化ツリーブロック(CTB)等と呼ばれる。ブロック90への画像の再分割は、上述された予測および残差符号化が実行される一種のベースまたは最も粗いグラニュラリティを形成することができ、この最も粗いグラニュラリティ、すなわちブロック90のサイズは、シグナリングされ、エンコーダによってレイヤ0およびレイヤ1に対して個々にセットすることができる。たとえば、クワッドツリー再分割のようなマルチ木を用いることができ、各ブロック90を、それぞれ予測ブロック、残差ブロックおよび/または符号化ブロックに再分割するために、データストリーム内でシグナリングすることができる。特に、符号化ブロックはブロック90のリカーシブなマルチツリー再分割のリーフブロックとすることができ、いくつかの予測関連決定を予測モードのような符号化ブロックのグラニュラリティでシグナリングすることができ、そのグラニュラリティで時間的インター予測のケースにおけるモーションベクトルのような予測パラメータおよびたとえばインター予測のケースにおける視差ベクトルが符号化される予測ブロックおよびそのグラニュラリティで予測残差が符号化される残差ブロックをコードブロックの分離したリカーシブなマルチツリー再分割のリーフブロックとすることができる。
スライスは、WPPサブストリーム98a〜98dを形成するために用いることもできる。このために、パケット化に対して最小ユニットを形成するスライスは、一方ではノーマルスライスを、他方では従属スライスを備えることができる:ノーマルスライスは、予測およびエントロピーコンテキスト導出に上述された制限を課すが、従属スライスはこの種の制限を課さない。符号化/復号化順序92が実質的に行ワイズから離れてポイントする画像の境界で開始する従属スライスは、ブロック90の直前の行におけるエントロピー復号化ブロック90から結果として生ずるエントロピーコンテキストを採用し、他のどこかで開始する従属スライスは、直前のスライスのエントロピー符号化/復号化からその終了までに結果として生ずるようなエントロピー符号化コンテキストを採用することができる。この手段によって、各WPPサブストリーム98a〜98dは、1つ以上の従属スライスから構成することができる。
拘束が可能な場合、以下を適用する:
レイヤ間予測(例えば、サンプル値、モーションベクトル、残差データまたは他のデータの予測のような)が参照用画像としてベースビュー(レイヤ12)を用いる場合、視差またはモーションベクトルは、参照された画面エリアが共起されたベースレイヤCTUと同じタイルに帰属するように、拘束される。特定の実施形態において、モーションまたは視差ベクトル308は、参照された画像エリアが同じタイルの内部に配置され、参照されたサブペル位置は同じタイルの内部の情報のみから予測されるように、復号プロセスにおいてクリップされる。現在のHEVCのサンプル補間プロセスにおいてより具体的には、これはタイル境界300から3〜4画素離れてクリップされるサブペル位置をポイントするモーションベクトルを拘束する、またはビュー間モーションベクトル、ビュー間残差予測プロセスにおいて、これは同じタイル内の位置をポイントする視差ベクトルを拘束する。代替の実施形態は、モーションベクトルがタイル境界に対してサブペル補間フィルタのカーネルサイズ310より近くに配置されるサブペル位置をポイントすることを可能とするために、画像境界に類似するタイル境界をハンドリングするようにサブペル補間フィルタを調整する。代替の実施形態は、前述の実施形態においてクリップされているモーションまたは視差ベクトルの使用を許容しないビットストリーム拘束を意味する。
制限が使用可能である場合、以下が適用される:
ベースレイヤが隣接するブロックからの予測(例えばTMVPまたは隣接するブロックの視差の導出のような)に用いられ、およびタイルが用いられる場合、以下が適用される:CTU Bが、共起されたベースレイヤCTU Aと同じタイルに帰属する場合、ベースレイヤにおいて共起されたCTU Aと異なるCTU Bから生ずる予測器候補が用いられるだけである。たとえば、現在のHEVCの導出プロセスにおいて、CTU Bは、共起されたCTU Aの右に配置される。本発明の特定の実施形態において、予測候補は、異なる予測によって置換される。たとえば、共起されたPUは、その代わりに予測に対して用いることができる。本発明の他の実施形態では、符号化ビットストリームにおいて、関連する予測モードの使用は許容されない。
特定の実施形態において、たとえば図13a、13bで示されたように、以下の高水準シンタックスを、N個のフラグを用いて上述された拘束/制限を可能とするために、VPSまたはSPSに用いることができる。
PREDTYPE は、制限/拘束が適用される予測タイプを指示し、リストされない以下のまたは他の予測タイプの1つとしてもよい:
− 例えば、ベースビューにおいて共起されたブロックの隣接するブロックからの時間的モーションベクトルの予測に対する、temporal_motion_vector_prediction
− 例えば、ベースビューにおいて共起されたブロックの隣接するブロックからの視差ベクトルの予測に対する、disparity_vector_prediction
− 例えば、ベースビューからの奥行き値の予測に対する、depth_map_derivation
− 例えば、ベースビューからのモーションベクトルの予測に対する、inter_view_motion_predition
− 例えば、ベースビューからの残差データの予測に対する、inter_view_residual_prediction
− 例えば、ベースビューからのサンプル値の予測に対する、inter_view_sample_prediction
− 例えば、拘束(ビットストリーム拘束を指示する。フラグをVUIに含めることができることを指示する)
− 例えば、制限(クリッピング(a)または異なる予測器の選択(b)を指示する)
− 例えば、same_scal(ベースレイヤが増強レイヤと同じスケーラビリティタイプであるとき、制限のみが適用されることを指示する)
− 例えば、diff_sca(ベースレイヤおよび増強レイヤのスケーラビリティタイプに関係なく、制限が適用されることを指示する)
ここで
各ビューが自身のアクセスユニットに含まれる場合、ビュー3の第1の復号化ユニットを復号化する最小遅延は、完全に受信ビュー1および2を含む。
シンタックスエレメントは、CTBまたはベースおよび増強レイヤの空間セグメント(たとえばWPPに対するタイル、スライスまたはCTB行)の間に空間領域の従属性を記述する。シンタックスエレメントは、NALユニットのインターリービングまたは符号化順序におけるNALユニットのシーケンシャル復号化に対しては必要でない。並列のマルチレイヤデコーダは、レイヤの並列復号化を準備するために、シンタックスエレメントを用いることができる。
lumaおよびクロマのリサンプリングに対する補間フィルタは、上位レイヤに対して必要なアップサンプルされたデータを生成するため、必要なデータ上の拘束を下位レイヤにセットする。たとえば、画像の空間セグメントは独立にアップサンプルすることができるので、復号化従属性は、これらのフィルタを拘束することによって低減することができる、タイル処理のための特定の拘束のシグナリングは、第1の形態に関して上述されている。
SHVCに対して、動き補償は、下位のレイヤによっては用いられない、すなわち、下位のレイヤが参照画像(HLSアプローチ)として使われる場合、結果として生じるモーションベクトルは零ベクトルでなければならない。しかしながら、MV‐HEVC 0または3D‐HEVC 0に対して、視差ベクトルは拘束することができるが、必ずしも零ベクトルであるというわけではない。すなわち、動き補償は、ビュー間予測に対して用いることができる。それ故に、モーションベクトルに対する制限は、前のNALユニットにおいて受け取られたデータのみが復号化に対して必要であることを確実にするために適用することができる。関連する発明およびシグナリングは、第1の形態に関して上述されている。
異なるレイヤからのNALユニットのインターリーブによって、並列処理および低遅延が効率的に望ましい場合、増強レイヤにおける画像分割は、参照レイヤにおける分割の画像分割の従属をなさなければならない。
図23も参照されたい。
NALユニットBを追従する符号化レイヤ画像成分 layerPicB の次のVCL NALユニットとする。PicWidthInCtbsYA を、CTB oflayerPicA を単位とする画像幅とする。そのとき、以下のコンディションは真になる:
NALユニットAのslice_segment_address とする。また、PicWidthInCtbsYA を、layerPicA のCTBを単位とする画像幅とする。そのとき、以下のコンディションは真となる:
コンセプトは、同じアクセスユニット内で、同じ現存するレイヤ識別子( nuh_layer_id )による多重のビュー成分の出現を可能とする。付加的な識別子拡張が、これらのビュー成分間を区別するために用いられる。この拡張は、NALユニットヘッダにおいて符号化されない。このように、それはNALユニットヘッダにおいてほど容易にアクセスすることはできないが、より多くのビューによる新規な用途ケースを依然として可能とする。特にビュークラスタリング(下記の説明を参照)については、一緒に帰属するビューのグループの抽出に対して、古い摘出機構がいかなる修正もなしに依然として用いることができる。
b.高水準レベルシンタックス構造における(例えば、本発明の以下の実施形態において与えられるようなスライスヘッダシンタックスにおけるまたはビデオ/シーケンス/画像パラメータセットの拡張における)フラグまたはインデックスまたはビット長の指示は、他のシンタックス構造による実在するレイヤ識別子値の各値の組み合わせを可能とする。
変形例I)変形例Iは、図26に図示される。ここで、
LayerIdExtEnabled = true
else
LayerIdExtEnabled = false
LayerIdExtEnabled = true
else
LayerIdExtEnabled = false
LayerIdExtEnabled = true
else
LayerIdExtEnabled = false
更なる記述において、特定のシンタックスエレメントは、ビットストリームシンタックスにおけるその位置に拘らず、layer_id_ext と称される。名前が、実施例として用いられる。以下のシンタックステーブルおよびセマンティクスは、可能な実施形態の実施例を与える。
LayerId = (nuh_layer_id << layer_id_ext_len) + layer_id_ext
else
LayerId = nuh_layer_id
if ( LayerIdExtEnabled == true)
LayerId = (layer_id_ext << 6) + nuh_layer_id
else
LayerId = nuh_layer_id
LayerId = maxNuhLayerId + layer_id_ext
else
LayerId = nuh_layer_id
0 〜 VpsMaxNumLayers - 1 のレンジにおけるiに対して、包括的に、存在しないときは、layer_id_in_nalu[ i ] の値はiに等しいと推定される。
splitting_flag が1に等しいとき、セグメントにおけるビットの合計数が6より小さい場合は、layer_id_in_nuh のMSBは0とする必要がある。
for( smIdx= 0, j =0; smIdx< 16; smIdx ++ )
if( ( i ! = 0 ) && scalability_mask[ smIdx ] )
ScalabilityId[ i ][ smIdx ] = dimension_id[ i ][ j++ ]
else
ScalabilityId[ i ][ smIdx ] = 0
ViewId[ layer_id_in_nalu[ i ] ] = ScalabilityId[ i ][ 0 ]
DependencyId [ layer_id_in_nalu[ i ] ] = ScalabilityId[ i ][ 1 ]
]
DepthFlag = layer_id % 2
DepthFlag = LayerId % 2
現在の解決法の欠点は、これは direct_dependency_flags のアルゴリズム的に複雑な解析を必要とするので、現在のVPS設計からこの種のディメンション従属する従属性を識別することが直接的でないということである。
2.1つのスケーラブルディメンションタイプのみが利用されるときでさえ、レイヤのサブセットに対して同一の構造が一般的に用いられる。例えばビュースケーラビリティのみのケースに対して、ビューは水平および垂直のカメラ位置によってスパンされる空間にマッピングされるであろう。この種のシナリオに対する実施例は、図36に表され、ここでディメンション0および1は水平および垂直のカメラ位置のディメンションと解釈される。各カメラ位置のディメンションに対して1つの予測構造を用いるのが一般的な慣習であるが、現在のVPS設計はこれから結果として生じる冗長性を利用することができない。さらに、現在のVPS設計において、従属性がディメンション従属であるという直接の指示はない。
3.direct_dependency_flags の数は、ビットストリームにおけるレイヤの数の自乗に比例し、それゆえに、64レイヤによる現在の最悪のケースは、約64*63/2=2016ビットが必要とされる。さらに、ビットストリームにおいて最大数のレイヤが拡張されるとき、これはドラスティックに増加するビットの数に結果としてなる。
1.各従属性ディメンションに対する従属性は、ビットストリームにおいて直接的に利用可能であり、direct_dependency_flags の複雑な解析は必要でない。
2.従属性のシグナリングに対して必要なビット数は、低減することができる。
num_dims = NumScalabilityTypes
num_pos_minus1[ t ] = dimension_id_len_minus1[ t ]
dimDiv[ 0 ] = 1
for ( t = 0; t < T 1 ; t++ )
dimDiv[ t + 1 ] = dimDiv[ t ] * ( num_pos_minus1[ t ] + 1 )
for ( t = T 1 ; t >= 0; t-- ) [
pos_in_dim[ i ][ t ] = idx / dimDiv[ t ] // integer devision
idx = idx pos_in_dim[ i ][ t ] * dimDiv[ t ]
}
for( t = 0; t <= num_dims; t++ )
for( m = 1; m <= num_pos_minus1[ t ]; m++ )
num_ref_pos[ t ][ m ] = 0
for( n = 0; n < m; n++ ) [
if ( pos_dependency_flag[ t ][ m ][ n ] = = true ) [
ref_pos_set[ t ][ m ][ num_ref_pos[ t ][ m ] ] = n
num_ref_pos[ t ][ m ] ++
}
}
posIdx = posIdx + offset * posVector[ t ]
offset = offset * ( num_pos_minus1[ t ] + 1 );
}
posIdxToLayerIdInVps[ posVecToPosIdx( pos_in_dim[ i ] )] = i
for (k = 0; k < i; k++)
directDependencyFlag[ i ][ k ] = 0
curPosVec = pos_in_dim[ i ]
for (t = 0; t < num_dims; t++) [
for (j = 0; j < num_ref_pos[ t ][ curPosVec[ t ] ]; j++) [
refPosVec = curPosVec
refPosVec[ t ] = ref_pos_set[ t ][ curPosVec[ t ] ][ j ]
directDependencyFlag[ i ][ posIdxToLayerIdInVps[ posVecToPosIdx( refPosVec ) ] ] = 1
]
]
]
curPosVec = pos_in_dim[ i ];
for (j = 0; j < i; j++) [
refPosVec = pos_in_dim[ j ]
for (t = 0, nD = 0; t < num_dims; t++)
if ( curPosVec[ t ] ! = refPosVec[ j ][ t ] ) [
nD ++
tD = t
]
if ( nD = = 1 )
directDependencyFlag[ i ][ j ] = pos_dependency_flag[ tD ][ curPosVec[ tD ] ][ refPosVec[ tD ] ]
else
directDependencyFlag[ i ][ j ] = 0
]
]
for( j = 0, NumDirectRefLayers[ i ] = 0; j < i; j++ )
if( directDependencyFlag[ i ][ j ] = = 1 )
RefLayerId[ i ][ NumDirectRefLayers[ i ]++ ] = layer_id_in_nuh[ j ]
NumDirectRefLayers[ i ] = 0
curPosVec = pos_in_dim[ i ]
for (t = 0; t < num_dims; t++) [
for (j = 0; j < num_ref_pos[ t ][ curPosVec[ t ] ]; j++) [
refPosVec = curPosVec
refPosVec[ t ] = ref_pos_set[ t ][ curPosVec[ t ] ][ j ]
m = posIdxToLayerIdInVps[ posVecToPosIdx( refPosVec ) ]
RefLayerId[ i ][ NumDirectRefLayers[ i ]++ ] = layer_id_in_nuh[ m ]
]
]
[1]B. Bross et al., "High Efficiency Video Coding (HEVC) text specification draft 10", JCTVC-L1003, Geneva, CH, 14-23 Jan. 2013
[2]G. Tech et al., "MV-HEVC Draft Text 3", JCT3V-C1004, Geneva, CH , 17-23 Jan. 2013
[3]G. Tech et al., "3D-HEVC Test Model 3", JCT3V-C1005, Geneva, CH , 17-23 Jan. 2013
[4]J. Chen et al., "SHVC Draft Text 1", JCT-VCL1008, Geneva, CH , 17-23 Jan. 2013
[5]WILBURN, Bennett, et al. High performance imaging using large camera arrays. ACM Transactions on Graphics, 2005, 24. Jg., Nr. 3, S. 765-776.
[6]WILBURN, Bennett S., et al. Light field video camera. In: Electronic Imaging 2002. International Society for Optics and Photonics, 2001. S. 29-36.
[7]HORIMAI, Hideyoshi, et al. Full-color 3D display system with 360 degree horizontal viewing angle. In: Proc. Int. Symposium of 3D and Contents. 2010. S. 7-10.
Claims (5)
- 第1のビュー(12)から第2のビュー(15)へのビュー間予測を用いて、データストリームから複数のビュー(12、15)を復元するように構成されたマルチビューデコーダであって、
前記データストリームは、前記ビュー間予測(602)の対象とされる前記第2のビュー(15)の各ブロック(302)が、前記第1のビュー(12)が分割されている空間セグメント(301)の中の、前記第2のビュー(15)の前記各ブロック(302)と同じ場所に配置されている併置ブロックが位置する1つの空間セグメントから排他的にビュー間予測によって予測されるかをシグナリングし、前記マルチビューデコーダは、
前記ビュー間予測(602)の対象とされる前記第2のビュー(15)の各ブロック(302)が前記1つの空間セグメントから排他的に前記ビュー間予測によって予測されることを前記データストリームがシグナリングしない場合には、前記第1のビュー(12)の前記併置ブロックから前記データストリームにおいてシグナリングされた視差ベクトル(308)によって変位された、前記第1のビューの参照部分(304)において、補間フィルタカーネルを使用してサンプリングすることによって、前記第2のビュー(15)の現在ブロックを予測して、前記参照部分(304)および/または前記補間フィルタカーネルが、前記1つの空間セグメントに隣接する前記第1のビューの隣接する空間セグメント内に拡張する場合には、前記現在のブロックは前記1つの空間セグメントおよび前記隣接する空間セグメントから予測されるように構成され、
前記ビュー間予測(602)の対象とされる前記第2のビュー(15)の各ブロック(302)が前記1つの空間セグメントから排他的に前記ビュー間予測によって予測されることを前記データストリームがシグナリングする場合には、前記第1のビュー(12)の前記併置ブロックから前記決定された視差ベクトル(308)によって変位された、前記第1のビューの前記参照部分(304)において、補間フィルタカーネルを使用してサンプリングするように構成される、マルチビューデコーダ。 - 第1のビュー(12)から第2のビュー(15)へのビュー間予測を用いて、複数のビュー(12、15)をデータストリームに符号化するように構成されたマルチビューエンコーダであって、マルチビューエンコーダは、
前記ビュー間予測(602)の対象とされる前記第2のビューの各ブロック(302)が、前記第1のビュー(12)が分割されている空間セグメント(301)の中の、前記第2のビュー(15)の前記各ブロック(302)と同じ場所に配置されている併置ブロックが位置する1つの空間セグメントから排他的にビュー間予測によって予測されるかを前記データストリームにおいてシグナリングし、
前記ビュー間予測(602)の対象とされる前記第2のビュー(15)の各ブロック(302)が前記1つの空間セグメントから排他的に前記ビュー間予測によって予測されることを前記データストリームがシグナリングしない場合には、前記第1のビュー(12)の前記併置ブロックから前記データストリームにおいてシグナリングされた視差ベクトル(308)によって変位された、前記第1のビューの参照部分(304)において、補間フィルタカーネルを使用してサンプリングすることによって、前記第2のビュー(15)の現在ブロックを予測して、前記参照部分(304)および/または前記補間フィルタカーネルが、前記1つの空間セグメントに隣接する前記第1のビューの隣接する空間セグメント内に拡張する場合には、前記現在のブロックは前記1つの空間セグメントおよび前記隣接する空間セグメントから予測されるように構成され、
前記ビュー間予測(602)の対象とされる前記第2のビュー(15)の各ブロック(302)が前記1つの空間セグメントから排他的に前記ビュー間予測によって予測されることを前記データストリームがシグナリングする場合には、前記第1のビュー(12)の前記併置ブロックから前記決定された視差ベクトル(308)によって変位された前記第1のビューの前記参照部分(304)において、補間フィルタカーネルを使用してサンプリングするように構成される、マルチビューエンコーダ。 - 第1のビュー(12)から第2のビュー(15)へのビュー間予測を用いて、データストリームから複数のビュー(12、15)を復元する方法であって、前記データストリームは、前記ビュー間予測(602)の対象とされる前記第2のビューの各ブロック(302)が、前記第1のビュー(12)が分割されている空間セグメント(301)の中の、前記第2のビュー(15)の前記各ブロック(302)と同じ場所に配置されている併置ブロックが位置する1つの空間セグメントから排他的にビュー間予測によって予測されるかをシグナリングし、前記方法は、
前記ビュー間予測(602)の対象とされる前記第2のビュー(15)の各ブロック(302)が前記1つの空間セグメントから排他的に前記ビュー間予測によって予測されることを前記データストリームがシグナリングしない場合には、前記第1のビュー(12)の前記併置ブロックから前記データストリームにおいてシグナリングされた視差ベクトル(308)によって変位された、前記第1のビューの参照部分(304)において、補間フィルタカーネルを使用してサンプリングすることによって、前記第2のビュー(15)の現在ブロックを予測して、前記参照部分(304)および/または前記補間フィルタカーネルが、前記1つの空間セグメントに隣接する前記第1のビューの隣接する空間セグメント内に拡張する場合には、前記現在のブロックは前記1つの空間セグメントおよび前記隣接する空間セグメントから予測されるように構成され、
前記ビュー間予測(602)の対象とされる前記第2のビュー(15)の各ブロック(302)が前記1つの空間セグメントから排他的に前記ビュー間予測によって予測されることを前記データストリームがシグナリングする場合には、前記第1のビュー(12)の前記併置ブロックから前記決定された視差ベクトル(308)によって変位された前記第1のビューの前記参照部分(304)において、補間フィルタカーネルを使用してサンプリングするように構成される、方法。 - 第1のビュー(12)から第2のビュー(15)へのビュー間予測を用いて、複数のビュー(12、15)をデータストリームに符号化する方法であって、前記方法は、
前記ビュー間予測(602)の対象とされる前記第2のビューの各ブロック(302)が、前記第1のビュー(12)が分割されている空間セグメント(301)の中の、前記第2のビュー(15)の前記各ブロック(302)と同じ場所に配置されている併置ブロックが位置する1つの空間セグメントから排他的にビュー間予測によって予測されるかを前記データストリームにおいてシグナリングし、
前記ビュー間予測(602)の対象とされる前記第2のビュー(15)の各ブロック(302)が前記1つの空間セグメントから排他的に前記ビュー間予測によって予測されることを前記データストリームがシグナリングしない場合には、前記第1のビュー(12)の前記併置ブロックから前記データストリームにおいてシグナリングされた視差ベクトル(308)によって変位された、前記第1のビューの参照部分(304)において、補間フィルタカーネルを使用してサンプリングすることによって、前記第2のビュー(15)の現在ブロックを予測して、前記参照部分(304)および/または前記補間フィルタカーネルが、前記1つの空間セグメントに隣接する前記第1のビューの隣接する空間セグメント内に拡張する場合には、前記現在のブロックは前記1つの空間セグメントおよび前記隣接する空間セグメントから予測し、
前記ビュー間予測(602)の対象とされる前記第2のビュー(15)の各ブロック(302)が前記1つの空間セグメントから排他的に前記ビュー間予測によって予測されることを前記データストリームがシグナリングする場合には、前記第1のビュー(12)の前記併置ブロックから前記決定された視差ベクトル(308)によって変位された前記第1のビューの前記参照部分(304)において、補間フィルタカーネルを使用してサンプリングするステップを含む、方法。 - コンピュータプログラムがコンピュータ上で動作するとき、請求項3および請求項4に記載の方法を実行するプログラムコードを有する、コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021121175A JP7485639B2 (ja) | 2013-04-08 | 2021-07-26 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361809605P | 2013-04-08 | 2013-04-08 | |
US61/809,605 | 2013-04-08 | ||
JP2016506938A JP6449241B2 (ja) | 2013-04-08 | 2014-04-08 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016506938A Division JP6449241B2 (ja) | 2013-04-08 | 2014-04-08 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021121175A Division JP7485639B2 (ja) | 2013-04-08 | 2021-07-26 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019075793A JP2019075793A (ja) | 2019-05-16 |
JP6920271B2 true JP6920271B2 (ja) | 2021-08-18 |
Family
ID=50442530
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016506938A Active JP6449241B2 (ja) | 2013-04-08 | 2014-04-08 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
JP2018228292A Active JP6920271B2 (ja) | 2013-04-08 | 2018-12-05 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016506938A Active JP6449241B2 (ja) | 2013-04-08 | 2014-04-08 | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Country Status (6)
Country | Link |
---|---|
US (2) | US11582473B2 (ja) |
EP (2) | EP2984839B1 (ja) |
JP (2) | JP6449241B2 (ja) |
KR (5) | KR102327617B1 (ja) |
CN (7) | CN117956140A (ja) |
WO (1) | WO2014166964A1 (ja) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014163460A1 (ko) * | 2013-04-05 | 2014-10-09 | 삼성전자 주식회사 | 계층 식별자 확장에 따른 비디오 스트림 부호화 방법 및 그 장치, 계층 식별자 확장에 따른 따른 비디오 스트림 복호화 방법 및 그 장치 |
JP6261215B2 (ja) * | 2013-07-12 | 2018-01-17 | キヤノン株式会社 | 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム |
EP3614676B1 (en) | 2013-07-15 | 2023-11-08 | GE Video Compression, LLC | Layer id signaling using extension mechanism |
KR102304687B1 (ko) | 2013-07-22 | 2021-09-27 | 소니그룹주식회사 | 정보 처리 장치 및 방법 |
US9706228B2 (en) * | 2013-10-15 | 2017-07-11 | Qualcomm Incorporated | Support for large numbers of views in multi-layer coding |
US10110910B2 (en) * | 2013-10-21 | 2018-10-23 | Vid Scale, Inc. | Parallel decoding method for layered video coding |
US9794626B2 (en) * | 2014-05-01 | 2017-10-17 | Qualcomm Incorporated | Partitioning schemes in multi-layer video coding |
US20150373376A1 (en) | 2014-06-20 | 2015-12-24 | Qualcomm Incorporated | Systems and methods for selectively signaling different numbers of video signal information syntax structures in a parameter set |
WO2015196966A1 (en) * | 2014-06-23 | 2015-12-30 | Mediatek Singapore Pte. Ltd. | Method of segmental prediction for depth and texture data in 3d and multi-view coding systems |
KR101682627B1 (ko) * | 2014-09-05 | 2016-12-05 | 삼성에스디에스 주식회사 | 영상 스트림 제공 방법 및 시스템과 중계 장치 |
EP3254466A1 (en) * | 2015-02-05 | 2017-12-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | 3d-video codec supporting inter-component prediction |
KR20170031643A (ko) | 2015-09-11 | 2017-03-21 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
US10230948B2 (en) | 2016-02-03 | 2019-03-12 | Mediatek Inc. | Video transmitting system with on-the-fly encoding and on-the-fly delivering and associated video receiving system |
FI20165256A (fi) * | 2016-03-24 | 2017-09-25 | Nokia Technologies Oy | Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen |
GB2550150B (en) * | 2016-05-10 | 2020-01-22 | Advanced Risc Mach Ltd | Data processing systems |
US20170374364A1 (en) * | 2016-06-23 | 2017-12-28 | Mediatek Inc. | Method and Apparatus of Face Independent Coding Structure for VR Video |
GB2553315A (en) * | 2016-09-01 | 2018-03-07 | Nokia Technologies Oy | Determining inter-view prediction areas |
US20180098090A1 (en) * | 2016-10-04 | 2018-04-05 | Mediatek Inc. | Method and Apparatus for Rearranging VR Video Format and Constrained Encoding Parameters |
KR102004247B1 (ko) * | 2016-11-25 | 2019-07-29 | 경희대학교 산학협력단 | 영상 병렬 처리 방법 및 장치 |
GB2572770B (en) * | 2018-04-09 | 2022-11-02 | Canon Kk | Method and apparatus for encoding or decoding video data with frame portions |
US10841604B2 (en) | 2018-09-04 | 2020-11-17 | Google Llc | Temporal prediction shifting for scalable video coding |
CN116055732A (zh) | 2018-09-14 | 2023-05-02 | 华为技术有限公司 | 视频译码方法,设备以及非瞬时性计算机可读介质 |
US11736713B2 (en) | 2018-11-14 | 2023-08-22 | Tencent America LLC | Constraint on affine model motion vector |
MX2021006014A (es) * | 2018-11-26 | 2021-08-24 | Fraunhofer Ges Forschung | Concepto de interprediccion que utiliza restricciones de independencia de mosaicos. |
US11310516B2 (en) * | 2018-12-21 | 2022-04-19 | Hulu, LLC | Adaptive bitrate algorithm with cross-user based viewport prediction for 360-degree video streaming |
AU2018454766A1 (en) * | 2018-12-25 | 2021-04-08 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Decoding prediction method and apparatus, and computer storage medium |
CN111213381B (zh) * | 2018-12-29 | 2021-11-12 | 深圳市大疆创新科技有限公司 | 视频处理方法和设备 |
US20220312041A1 (en) * | 2019-06-24 | 2022-09-29 | Interdigital Vc Holdings, Inc. | Method and apparatus for signaling decoding data using high level syntax elements |
US20220248060A1 (en) * | 2019-07-12 | 2022-08-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Extension of header values in video and image coding units |
US11706428B2 (en) * | 2020-04-06 | 2023-07-18 | Tencent America LLC | Method for signaling picture header in coded video stream |
KR20230019847A (ko) * | 2020-06-08 | 2023-02-09 | 바이트댄스 아이엔씨 | 비디오 픽처에서 서브픽처 수에 대한 제약들 |
US20230079859A1 (en) * | 2021-09-13 | 2023-03-16 | Apple Inc. | Systems and methods for streaming extensions for video encoding |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69331174T2 (de) * | 1992-06-29 | 2002-06-06 | Canon Kk | Bildverarbeitungsvorrichtung |
JPH10336668A (ja) * | 1997-06-02 | 1998-12-18 | Sharp Corp | 動きベクトル検出装置 |
JP4118049B2 (ja) * | 2001-12-28 | 2008-07-16 | 株式会社リコー | 画像処理装置及び方法 |
US8260661B2 (en) * | 2003-09-30 | 2012-09-04 | Visa U.S.A. Inc. | System and apparatus for linking multiple rewards programs to promote the purchase of specific product mixes |
ITMI20041971A1 (it) | 2004-10-15 | 2005-01-15 | Uni Degli Studi Brescia | Metodo di codifica video scalabile |
US7961963B2 (en) | 2005-03-18 | 2011-06-14 | Sharp Laboratories Of America, Inc. | Methods and systems for extended spatial scalability with picture-level adaptation |
KR100678907B1 (ko) | 2005-07-12 | 2007-02-06 | 삼성전자주식회사 | 하위 계층의 복원 데이터를 사용하여 fgs 계층을 인코딩및 디코딩하는 방법 및 장치 |
JP4490351B2 (ja) | 2005-08-29 | 2010-06-23 | 日本電信電話株式会社 | 階層間予測処理方法,階層間予測処理装置,階層間予測処理プログラムおよびその記録媒体 |
KR100772868B1 (ko) | 2005-11-29 | 2007-11-02 | 삼성전자주식회사 | 복수 계층을 기반으로 하는 스케일러블 비디오 코딩 방법및 장치 |
CA2633819C (en) * | 2005-12-08 | 2016-12-06 | Vidyo, Inc. | Systems and methods for error resilience and random access in video communication systems |
BRPI0706407B1 (pt) * | 2006-01-09 | 2019-09-03 | Interdigital Madison Patent Holdings | método e aparelho para fornecer modo de atualização de resolução reduzida para codificação de vídeo de múltiplas visualizações e mídia de armazenamento tendo dados codificados de sinal de vídeo |
JP5535485B2 (ja) * | 2006-01-09 | 2014-07-02 | トムソン ライセンシング | 削減された分解能更新モードをマルチビュー・ビデオ符号化に提供する方法及び装置 |
US7535383B2 (en) * | 2006-07-10 | 2009-05-19 | Sharp Laboratories Of America Inc. | Methods and systems for signaling multi-layer bitstream data |
US8422805B2 (en) | 2006-07-10 | 2013-04-16 | France Telecom | Device and method for scalable encoding and decoding of image data flow and corresponding signal and computer program |
MX2009003968A (es) * | 2006-10-16 | 2009-06-01 | Nokia Corp | Sistema y método para usar segmentos decodificables paralelamente para codificación de video de vistas múltiples. |
US20080095238A1 (en) * | 2006-10-18 | 2008-04-24 | Apple Inc. | Scalable video coding with filtering of lower layers |
RU2387094C1 (ru) * | 2006-11-09 | 2010-04-20 | ЭлДжи ЭЛЕКТРОНИКС ИНК. | Способ и устройство для кодирования/декодирования видеосигнала |
KR101349836B1 (ko) * | 2006-11-17 | 2014-01-10 | 엘지전자 주식회사 | 비디오 신호의 디코딩/인코딩 방법 및 장치 |
KR20080066522A (ko) * | 2007-01-11 | 2008-07-16 | 삼성전자주식회사 | 다시점 영상의 부호화, 복호화 방법 및 장치 |
US20100266042A1 (en) * | 2007-03-02 | 2010-10-21 | Han Suh Koo | Method and an apparatus for decoding/encoding a video signal |
MX2009011217A (es) | 2007-04-18 | 2009-12-07 | Thomson Licensing | Sistemas de codificacion. |
US20110038424A1 (en) * | 2007-10-05 | 2011-02-17 | Jiancong Luo | Methods and apparatus for incorporating video usability information (vui) within a multi-view video (mvc) coding system |
JP5534521B2 (ja) | 2007-10-15 | 2014-07-02 | トムソン ライセンシング | スケーラブルなビデオのためにレイヤー間残差予測を行う方法および装置 |
SG155797A1 (en) * | 2008-03-20 | 2009-10-29 | St Microelectronics Asia | System and process for image rescaling with edge adaptive phase control in interpolation process |
US8249142B2 (en) | 2008-04-24 | 2012-08-21 | Motorola Mobility Llc | Method and apparatus for encoding and decoding video using redundant encoding and decoding techniques |
JP5115498B2 (ja) * | 2009-03-05 | 2013-01-09 | 富士通株式会社 | 画像符号化装置、画像符号化制御方法およびプログラム |
AU2009201637B2 (en) * | 2009-04-24 | 2011-08-11 | Canon Kabushiki Kaisha | Processing multi-view digital images |
US8705624B2 (en) | 2009-11-24 | 2014-04-22 | STMicroelectronics International N. V. | Parallel decoding for scalable video coding |
FR2955730A1 (fr) * | 2010-01-25 | 2011-07-29 | Thomson Licensing | Procedes de codage et de decodage |
EP2557791A4 (en) * | 2010-04-07 | 2016-09-07 | Jvc Kenwood Corp | ANIMATED IMAGE ENCODING DEVICE, ANIMATED IMAGE ENCODING METHOD, ANIMATED IMAGE ENCODING PROGRAM, ANIMATED IMAGE DECODING DEVICE, ANIMATED IMAGE DECODING METHOD, AND ANIMATED IMAGE DECODING PROGRAM |
US20110293004A1 (en) * | 2010-05-26 | 2011-12-01 | Jicheng An | Method for processing motion partitions in tree-based motion compensation and related binarization processing circuit thereof |
HUE026534T2 (en) * | 2010-07-15 | 2016-06-28 | Ge Video Compression Llc | Hybrid video encoding to support intermediate view synthesis |
EP2604036B1 (en) * | 2010-08-11 | 2018-03-07 | GE Video Compression, LLC | Multi-view signal codec |
US9883161B2 (en) * | 2010-09-14 | 2018-01-30 | Thomson Licensing | Compression methods and apparatus for occlusion data |
CN103416003B (zh) * | 2011-01-14 | 2015-05-27 | 维德约股份有限公司 | 改进的nal单元头部 |
JP5747559B2 (ja) * | 2011-03-01 | 2015-07-15 | 富士通株式会社 | 動画像復号方法、動画像符号化方法、動画像復号装置、及び動画像復号プログラム |
EP2704435B1 (en) * | 2011-04-25 | 2019-02-20 | LG Electronics Inc. | Intra-prediction method, and encoder and decoder using same |
WO2012167711A1 (en) | 2011-06-10 | 2012-12-13 | Mediatek Inc. | Method and apparatus of scalable video coding |
WO2012167713A1 (en) | 2011-06-10 | 2012-12-13 | Mediatek Inc. | Method and apparatus of scalable video coding |
RU2583040C2 (ru) * | 2011-08-30 | 2016-05-10 | Нокиа Текнолоджиз Ой | Устройство, способ и компьютерная программа для кодирования и декодирования видеосигналов |
GB2505643B (en) * | 2012-08-30 | 2016-07-13 | Canon Kk | Method and device for determining prediction information for encoding or decoding at least part of an image |
US9473779B2 (en) * | 2013-03-05 | 2016-10-18 | Qualcomm Incorporated | Parallel processing for video coding |
CN105122801A (zh) * | 2013-04-17 | 2015-12-02 | 韦勒斯标准与技术协会公司 | 视频信号处理方法及装置 |
-
2014
- 2014-04-08 KR KR1020207017996A patent/KR102327617B1/ko active IP Right Grant
- 2014-04-08 JP JP2016506938A patent/JP6449241B2/ja active Active
- 2014-04-08 WO PCT/EP2014/057089 patent/WO2014166964A1/en active Application Filing
- 2014-04-08 CN CN202410124092.8A patent/CN117956140A/zh active Pending
- 2014-04-08 CN CN201480032450.7A patent/CN105308968B/zh active Active
- 2014-04-08 CN CN202410127001.6A patent/CN117956143A/zh active Pending
- 2014-04-08 EP EP14715932.1A patent/EP2984839B1/en active Active
- 2014-04-08 KR KR1020177023826A patent/KR102127281B1/ko active IP Right Grant
- 2014-04-08 CN CN202410127035.5A patent/CN117956144A/zh active Pending
- 2014-04-08 KR KR1020217036956A patent/KR102467038B1/ko active IP Right Grant
- 2014-04-08 KR KR1020227039316A patent/KR20220156103A/ko not_active Application Discontinuation
- 2014-04-08 CN CN202410125844.2A patent/CN117956141A/zh active Pending
- 2014-04-08 EP EP20176564.1A patent/EP3758379A3/en active Pending
- 2014-04-08 CN CN202410125863.5A patent/CN117956142A/zh active Pending
- 2014-04-08 KR KR1020157031931A patent/KR101773413B1/ko active IP Right Grant
- 2014-04-08 CN CN201910419460.0A patent/CN110225356B/zh active Active
-
2015
- 2015-10-06 US US14/875,808 patent/US11582473B2/en active Active
-
2018
- 2018-12-05 JP JP2018228292A patent/JP6920271B2/ja active Active
-
2022
- 2022-11-07 US US18/053,168 patent/US20230108814A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP6449241B2 (ja) | 2019-01-09 |
KR20150140354A (ko) | 2015-12-15 |
EP2984839A1 (en) | 2016-02-17 |
KR20170102045A (ko) | 2017-09-06 |
CN117956141A (zh) | 2024-04-30 |
CN117956140A (zh) | 2024-04-30 |
CN117956143A (zh) | 2024-04-30 |
CN105308968A (zh) | 2016-02-03 |
CN110225356A (zh) | 2019-09-10 |
EP3758379A2 (en) | 2020-12-30 |
KR101773413B1 (ko) | 2017-08-31 |
KR102467038B1 (ko) | 2022-11-14 |
EP3758379A3 (en) | 2021-02-24 |
EP2984839B1 (en) | 2020-05-27 |
KR20200077611A (ko) | 2020-06-30 |
KR20220156103A (ko) | 2022-11-24 |
WO2014166964A1 (en) | 2014-10-16 |
CN117956144A (zh) | 2024-04-30 |
CN117956142A (zh) | 2024-04-30 |
US11582473B2 (en) | 2023-02-14 |
CN110225356B (zh) | 2024-02-13 |
KR102127281B1 (ko) | 2020-06-26 |
JP2021182750A (ja) | 2021-11-25 |
JP2019075793A (ja) | 2019-05-16 |
JP2016519513A (ja) | 2016-06-30 |
US20160057441A1 (en) | 2016-02-25 |
CN105308968B (zh) | 2019-06-14 |
US20230108814A1 (en) | 2023-04-06 |
KR20210138166A (ko) | 2021-11-18 |
KR102327617B1 (ko) | 2021-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6920271B2 (ja) | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト | |
US11677966B2 (en) | Efficient scalable coding concept | |
KR101930817B1 (ko) | 다계층식 비디오 코딩에서의 저지연 개념 | |
JP7485639B2 (ja) | 効率的なマルチビュー/レイヤ符号化を可能とする符号化コンセプト |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191203 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210726 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6920271 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |