JP2016537839A - Hevcにおけるサブ予測ユニット(pu)ベースの時間的動きベクトル予測および3d−hevcにおけるサブpu設計 - Google Patents
Hevcにおけるサブ予測ユニット(pu)ベースの時間的動きベクトル予測および3d−hevcにおけるサブpu設計 Download PDFInfo
- Publication number
- JP2016537839A JP2016537839A JP2016516839A JP2016516839A JP2016537839A JP 2016537839 A JP2016537839 A JP 2016537839A JP 2016516839 A JP2016516839 A JP 2016516839A JP 2016516839 A JP2016516839 A JP 2016516839A JP 2016537839 A JP2016537839 A JP 2016537839A
- Authority
- JP
- Japan
- Prior art keywords
- sub
- pus
- motion vector
- video
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 687
- 239000013598 vector Substances 0.000 title claims abstract description 355
- 230000002123 temporal effect Effects 0.000 title claims abstract description 51
- 238000013461 design Methods 0.000 title description 22
- 238000000034 method Methods 0.000 claims abstract description 177
- 230000006872 improvement Effects 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims description 41
- 238000003860 storage Methods 0.000 claims description 27
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 22
- 238000000638 solvent extraction Methods 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 17
- 239000002356 single layer Substances 0.000 abstract description 15
- 230000015572 biosynthetic process Effects 0.000 abstract description 8
- 238000003786 synthesis reaction Methods 0.000 abstract description 8
- 230000009466 transformation Effects 0.000 description 80
- 230000008569 process Effects 0.000 description 78
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 70
- 238000005192 partition Methods 0.000 description 65
- 241000023320 Luma <angiosperm> Species 0.000 description 46
- 238000001914 filtration Methods 0.000 description 34
- 238000010586 diagram Methods 0.000 description 31
- 239000010410 layer Substances 0.000 description 30
- 238000013139 quantization Methods 0.000 description 27
- 238000009795 derivation Methods 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 230000006835 compression Effects 0.000 description 8
- 238000007906 compression Methods 0.000 description 8
- 101150039623 Clip1 gene Proteins 0.000 description 6
- 238000003491 array Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000011229 interlayer Substances 0.000 description 4
- 238000013138 pruning Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 101100277553 Caenorhabditis elegans dep-1 gene Proteins 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000007620 mathematical function Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001025261 Neoraja caerulea Species 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/53—Multi-resolution motion estimation; Hierarchical motion estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/197—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
β = β′ * ( 1 << ( BitDepthY - 8 ) )
変数tCは次のようにtC’から導出される。
tC = tC′ * ( 1 << ( BitDepthY - 8 ) )
dp0 = | p2,0 - 2*p1,0 + p0,0 |
dp3 = | p2,3 - 2*p1,3 + p0,3 |
dq0 = | q2,0 - 2*q1,0 + q0,0 |
dq3 = | q2,3 - 2*q1,3 + q0,3 |
dp0+dq0+dp3+dq3<βである場合、4本のラインの第1のセット118のためのフィルタリングがオンにされ、強い/弱いフィルタ選択プロセスが適用される。この条件が満たされない場合、4本のラインの第1のセット118のために何のフィルタリングも行われない。
dEが1に等しいように設定される。
dp0 + dp3 < (β + ( β >> 1 )) >> 3 である場合、変数dEP1は、1に等しいように設定される
dq0 + dq3 < (β + ( β >> 1 )) >> 3 である場合、変数dEq1は、1に等しいように設定される
フィルタオン/オフ決定は、4本のラインの第2のセット119のために上記で説明したのと同様の方法で行われる。
(1) 2*(dp0+dq0) < ( β >> 2 ), | p30 - p00 | + | q00 - q30 | < ( β >> 3 )および| p00 - q00 | < ( 5* tC + 1 ) >> 1
(2) 2*(dp3+dq3) < ( β >> 2 ), | p33 - p03 | + | q03
- q33 | < ( β >> 3 )および| p03 - q03 | < ( 5* tC + 1 ) >> 1
4本のラインの第2のセット119のために強いフィルタリングを選択するかまたは弱いフィルタリングを選択するかに関する決定は類似の方法で行われる。
P0’ = ( p2 + 2*p1 + 2*p0 + 2*q0 + q1 + 4 ) >> 3
q0’ = ( p1 + 2*p0 + 2*q0 + 2*q1 + q2 + 4 ) >> 3
p1’ = ( p2 + p1 + p0 + q0 + 2 ) >> 2
q1’ = ( p0 + q0 + q1 + q2 + 2 ) >> 2
p2’ = ( 2*p3 + 3*p2 + p1 + p0 + q0 + 4 ) >> 3
q2’ = ( p0 + q0 + q1 + 3*q2 + 2*q3 + 4 ) >> 3
デルタ(Δ)は次のように定義される。
Δ= ( 9 * ( q0 - p0 ) - 3 * ( q1 - p1 ) + 8 ) >> 4
abs(Δ)がtC *10未満であるとき、
Δ= Clip3( - tC , tC , Δ)
P0’ = Clip1Y( p0 +Δ)
q0’ = Clip1Y( q0 -Δ)
dEp1が1に等しい場合、
Δp = Clip3( -( tC >> 1), tC >> 1, ( ( ( p2 + p0 + 1 ) >> 1 ) - p1 +Δ) >>1 )
p1’ = Clip1Y( p1 +Δp )
dEq1が1に等しい場合、
Δq = Clip3( -( tC >> 1), tC >> 1, ( ( ( q2 + q0 + 1 ) >> 1 ) - q1 -Δ) >>1 )
q1’ = Clip1Y( q1 +Δq )
Δ= Clip3( -tC, tC, ( ( ( ( q0 - p0 ) << 2 ) + p1 - q1 + 4 ) >> 3 ) )
p0’ = Clip1C( p0 +Δ)
q0’ = Clip1C( q0 -Δ)
1.同じアクセスユニットの前にコーディングされた(ベースビューなど)参照深度ビューピクチャ中の現在のPUのためにNBDV方式によって導出された視差ベクトルに基づいて、対応する深度ブロックを位置特定し、対応する深度ブロックのサイズは現在のPUのサイズと同じである。
2.4つのコーナーピクセル深度値の最大値に基づいて、対応する深度ブロックから現在のPUのための視差ベクトルを計算する。最大値は、計算された視差ベクトルの水平成分に等しいように設定されるが、視差ベクトルの垂直成分は0に設定される。
1.最小参照インデックス値を有するブロックが選ばれる。「第1のステージのベクトル」になるべき時間的動きベクトルを戻すために、その中で、より早期にアクセスされた参照インデックスが選ばれる。これらのブロックは、ブロックの相対的な空間的ロケーションに基づいて、所与の順序でアクセスされると仮定される。
2.最小参照インデックス値を有するブロックが選ばれる。(2つ以上の場合)これらのブロックの動きベクトルは、「第1のステージのベクトル」になるように平均化され、代替では、中間動作が使用され得る。
3.隣接ブロックの参照インデックスの中で、最高頻度の参照インデックスが選ばれる。その参照インデックスを有するブロックの中で、「第1のステージのベクトル」になるとして、第1にアクセスされた動きベクトルが選ばれるか、または動きベクトルの平均(たとえば、中間)が使用される。代替的に、第1のステージの動きベクトルを取得するために、他の数学機能が適用され得る。
4.現在のピクチャに最も近接するPOC距離を有する参照インデックスが選ばれる。その参照インデックスを有するブロックの中で、「第1のステージのベクトル」になるとして、第1にアクセスされた動きベクトルが選ばれるか、または動きベクトルの平均(たとえば、中間または他の数学機能)が使用される。
5.上記で説明した方法と同様の方法を用いて、プライマリ参照インデックスがスライスヘッダ中でシグナリングされ、「第1のステージのベクトル」を作成するために、そのプライマリ参照インデックスに等しい参照インデックスを有するブロックが選ばれる。何のブロックもプライマリ参照インデックスに等しい参照インデックスを有さないとき、参照インデックスを選ぶための上記で説明した方法が使用され得る。
6.TMVPのために使用されるピクチャは、一般に、AVCおよびHEVCにおけるように、各スライスのために固定されるため、一次参照インデックスは、TMVPを示す参照インデックスと同じであり得る。
7.上記の参照インデックスは、RefPicList0またはRefPicList1のいずれかに対するインデックスであり得る。代替的には、参照ピクチャリストユニオン(RefPicListU)は、RefPicList0およびRefPicList1によって生成され、参照インデックスは、RefPicListUに対するインデックスであり得る。RefPicListUによって識別されるいずれのピクチャもRefPicList0もしくはReficList1のいずれか、または両方に属し、RefPicListUに属するが、RefPicList0もしくはRefPicList1に属さないピクチャは存在しないことに留意されたい。RefPicListUは、2つの同一ピクチャを有さない。代替的に、および追加として、RefPicListUは、短期ピクチャと同じレイヤ内の時間的参照ピクチャまたは短期ピクチャと標示された時間的参照ピクチャのみを包含し得る。
8.代替的に、参照インデックスおよび「第1のステージのベクトル」は、マージモード候補から選択され得る。
a.一例では、1つの相対的なブロックの位置、たとえば、左の隣接ブロックから導出された1つの空間的マージモード候補から参照インデックスと「第1のステージのベクトル」とが選択される。
b.代替的に、マージモード候補リスト中の第1の利用可能な候補から参照インデックスと「第1のステージのベクトル」とが選択され得る。
c.さらに、選択されたマージ候補が双予測を使用するとき、動きベクトルおよび参照インデックスは、マージされたセットの動き情報うちの1つから選択され得る。
1.動きベクトルを現在のピクチャの固定参照インデックスに対してスケーリングする。MV’=MV*(POC(PicTarg)−POC(PicCur))/(POC(PicOri)−POC(PicT))、POC( )関数は所与のピクチャのPOC値を戻す。上記の乗算演算および導出演算はHEVC TMVPにおけるのと同様の方法で簡略化され得ることに留意されたい。
a.固定参照インデックスは、スライス全体に対して同じであり得、たとえば、固定参照インデックスは、HEVCにおけるように、0に等しく設定され得る。
b.固定参照インデックスは、空間的隣接ブロックから導出され得る。
2.動きベクトルを、常に、PicOriである、対応するサブPUの参照ピクチャに対してスケーリングする。MV’=MV*(POC(PicOri)−POC(PicCur))/(POC(PicOri)−POC(PicT))。
3.動きベクトルを、常に、PicTである、コロケートピクチャに対してスケーリングする。MV’=MV*(POC(PicT)−POC(PicCur))/(POC(PicOri)−POC(PicT))。
1.変換ツリーが、1に等しいsplit_transform_flagを有するルートを有するとき、高度CUの通常のPU(もしあれば)に対応するノードは変更されない。
2.変換ツリーが、1に等しいsplit_transform_flagを有するルートを有するとき、変換ツリー階層を次のように導入するために、高度PU中のノードは変換される。
a.現在のノードに対して、split_transform_flagが0であり、TUサイズがサブPUサイズよりも大きい場合、split_transform_flagを1に設定し、4つの子ノードの各々のために、以下が適用される。
i.ノードのcbf_luma、cbf_cb、およびcbf_crが親ノードのcbf_luma、cbf_cb、およびcbf_crと同じになり、split_transform_flagが0に等しくなるように設定する。
ii.現在のノードを子ノードに設定し、ステップaに進む。
b.現在のノードに対して、split_transform_flagが1である場合、4つの子ノードの各々に対して、以下が適用される。現在のノードを子ノードに設定し、ステップaに進む。
3.代替的に、変換ツリー階層がPUのために導入され、cbf_luma、cbf_cb、およびcbf_crが新しくスプリットされたノードに設定されるとき、ノードのcbf_luma、cbf_cb、およびcbf_crは0に設定される。
4.代替的に、変換ツリー階層がPUのために導入され、cbf_luma(または、cbf_cb、もしくはcbf_cr)が新しくスプリットされたノードに設定されるとき、cbf_luma(または、cbf_cb、もしくはcbf_cr)が0に等しくない場合、ノードのcbf_luma(または、cbf_cb、もしくはcbf_cr)は任意の非ゼロの正の整数値(たとえば1)に設定され、さもなければ、0に設定される。
5.変換ツリーが0に等しいsplit_transform_flagを有するルートを有する場合、通常のPU(もしあれば)は、次のステップを用いて順に、変換ユニットにスプリットされる。
a.CUのspilt_transform_flagがまず1に設定される。
b.CUの区分がN×Nである場合、通常のPUは1つのノードに対応する。CUの区分が2N×NまたはN×2Nである場合、通常のPUは2つのノードに対応する。
c.通常のPU内の上記のノードの各々は、0に設定されたsplit_transform_flagと、高度CU全体をカバーする元の変換ユニットのcbf_luma、cbf_cb、およびcbf_crに等しくなるように設定されたcbf_luma、cbf_cb、およびcbf_crとを有するように設定される。
d.CUの高度PUの各々に対して、PUの方形領域をカバーする1つまたは2つのノードがまず生成され、各ノードに対して、上記のステップ2、3、または4と同様の変換ツリー階層が導入される。
6.上記のステップ5の代替として、通常のPU内の上記のノードの各々に対して、cbf_luma、cbf_cb、およびcbf_crは0に等しく設定される。
7.上記のステップ4の代替として、通常のPU内の上記のノードの各々に対して、cbf_luma(または、cbf_cb、もしくはcbf_cr)が0に等しくない場合、そのcbf_luma(または、cbf_cb、もしくはcbf_cr)は任意の非ゼロの正の整数値(たとえば、1)に等しく設定され、さもなければ、0に設定される。
1.変換後、現在の高度CUは、コーディングツリーのルート、すなわち、少なくとも4つのコーディングユニットを包含する4分木である変換ルートになる。
2.高度CU中のいずれの通常のPUに対して、そのPUは1つまたは複数のコーディングユニットに設定される。
3.加えて、高度CU中の通常のPUから変換された変換コーディングユニットの各成分のCBF値は0になるようにさらに設定される。このようにして、PUが2つのCUに変換されている場合ですら、1つの通常のインター予測PU内のフィルタリングは回避される。
a.任意の高度PUに対して、現在の高度CUのCBF値が非ゼロである場合、変換ルートよりも1レベル下にある変換コーディングツリーまたは変換コーディングユニットのCBF値は非ゼロになるように設定される。
b.さらに、高度PU内部のいずれの変換CUもしくは変換PUまたは変換コーディングツリーに対して、それが、本来、CBF値をシグナリングさせていない場合、それは、4分木中のその親ノードのCBF値と同じになるように、または、4分木中の親ノードのCBF値と同じゼロ状態もしくは非ゼロ状態に設定される。
4.代替的に、高度CUに対して、1つの一意の変換ユニットがCU全体のために適用され得ず、つまり、通常のPUが高度CU内部にある場合、そのPUは、CUの別のPUによって共有されない変換ユニットを包含しなければならない。
a.代替または追加として、各高度PUに対して、変換ツリーのリーフノードは、サブPUよりも1レベル高くまたは深く分散され、つまり、変換CU内の4つのサブPUの各々は一意の変換ユニットをシグナリングさせる。
5.より具体的には、2L×2LサイズのCUが、サブPU設計を利用するPUを包含する場合、CU中のすべてのPUのために以下の変換が実行される。1に等しいスプリットフラグが現在の高度CUのために設定され、以下が適用され、現在のノードはCUになるように設定される。
a.ラスタスキャン順序で現在のノードの1/4方形エリアの各々に対して、以下が適用される。
i.この1/4エリアを子ノードとして設定する。
ii.子ノードがサブPUを用いてコーディングされない場合、子ノードは、2N×2N区分を有する(0に等しいスプリットフラグを有する)コーディングユニットになるように設定される。
1.代替または追加として、子ノードの各成分のCBF値は0になるように設定される。
2.代替または追加として、コーディングユニットのTUスプリットフラグは0になるように設定される。
iii.さもなければ、子ノードがサブPUでコーディングされ、2つ以上のサブPUを包含する場合、スプリットフラグは、子ノードのために1に設定され(したがって、コーディングツリーと見なされ)、以下が適用される。
1.代替または追加として、子ノードのためのCBF値が存在しない場合、子ノードは、より高いレベルの現在のノード(この子ノードの親ノード)のCBF値に等しくなるように設定される。
2.子ノードを現在のノードとして設定し、ステップaに進む。
iv.さもなければ、子ノードが1つのサブPUだけを包含する場合、子ノードはコーディングツリーのリーフ、したがって、(0に等しいスプリットフラグを有する)コーディングユニットになるように設定される。
1.子ノードの区分モードはサブPUの区分モードになるように設定される。
a.サブPUの区分モードが2N×2Nである場合、サブPUは1つの2N×2Nブロックを包含し、コーディングユニットの区分モードは2N×2Nになるように設定される。
b.サブPUの区分モードがN×2Nである場合、サブPUは2つのN×2Nブロックを包含し、コーディングユニットの区分モードはN×2Nになるように設定される。
c.サブPUの区分モードが2N×Nである場合、サブPUは2つの2N×Nブロックを包含し、コーディングユニットの区分モードは2N×Nになるように設定される。
2.代替または追加として、子ノードのためのCBF値が存在しない場合、子ノードは、より高いレベルの現在のノード(この子ノードの親ノード)のCBF値に等しくなるように設定される。
3.代替または追加として、コーディングユニットのTUスプリットフラグは0になるように設定される。
1.変換ツリーが1に等しいsplit_transform_flagを有するルートを有するとき、高度CUの通常のPU(または、通常のPUの一部)のみを包含する通常のノードは変更されない。
2.変換ツリーが1に等しいsplit_transform_flagを有するルートを有するとき、変換ツリー階層を次のように導入するために、任意のサブPU(または、サブPUの一部)を包含する高度ノードは変換される。
a.現在のノードに対して、現在のノードが任意のサブPU(または、サブPUの一部)を包含し、split_transform_flagが0であり、TUサイズがサブPUサイズよりも大きい場合、split_transform_flagを1に設定し、4つの子ノードの各々のために、以下が適用される。
i.ノードのcbf_luma、cbf_cb、およびcbf_crが親ノードのcbf_luma、cbf_cb、およびcbf_crと同じになり、split_transform_flagが0に等しくになるように設定する。
ii.現在のノードを子ノードに設定し、ステップaに進む。
b.現在のノードに対して、split_transform_flagが1である場合、4つの子ノードの各々のために、以下が適用される。現在のノードを子ノードに設定し、ステップaに進む。
3.代替的に、変換ツリー階層がノードのために導入され、cbf_luma、cbf_cb、およびcbf_crが新しくスプリットされたノードに設定されるとき、新しくスプリットされたノードのcbf_luma、cbf_cb、およびcbf_crは0に設定される。
4.代替的に、変換ツリー階層がノードのために導入され、cbf_luma、cbf_cb、およびcbf_crが新しくスプリットされたノードに設定されるとき、cbf_luma(または、cbf_cb、もしくはcbf_cr)が0に等しくない場合、新しくスプリットされたノードのcbf_luma(または、cbf_cb、もしくはcbf_cr)は任意の非ゼロの正の整数値(たとえば、1)に設定され、さもなければ、0に設定される。
5.変換ツリーが0に等しいsplit_transform_flagを有するルートを有するとき、通常のPU(または、通常のPUの一部)のみを包含する通常のノードは、次のステップの順で、変換ユニットにスプリットされなければならない。
a.CUのspilt_transform_flagがまず1に設定される。
b.CUの区分がN×Nである場合、通常のPUは1つの通常のノードに対応する。CUの区分が2N×NまたはN×2Nである場合、通常のPUは2つの通常のノードに対応する。CUの区分が2N×nN、2N×nD、nL×2N、またはnR×2Nである場合、通常のPUは0または2つの通常のノードに対応する。
c.上記の通常のノードの各々は、split_transform_flagを0に等しく設定させ、cbf_luma、cbf_cb、およびcbf_crを、高度CU全体をカバーする元の変換ユニットのcbf_luma、cbf_cb、およびcbf_crに等しくなるように設定させるように設定される。
d.CUのいずれのサブPU(または、サブPUの一部)を包含する高度ノードの各々に対して、上記のステップ2、3、または4と同様の変換ツリー階層が導入される。
6.上記のステップ5の代替として、上記の通常ノードの各々に対して、cbf_luma、cbf_cb、およびcbf_crは0に等しく設定される。
7.上記のステップ4の代替として、上記の通常ノードの各々にに対して、cbf_luma(または、cbf_cb、もしくはcbf_cr)が0に等しくない場合、そのcbf_luma(または、cbf_cb、もしくはcbf_cr)は任意の非ゼロの正の整数値(たとえば、1)に等しく設定され、さもなければ、0に設定される。
[0173]いくつかの例示的な実装詳細が下で提供される。下のテキストは本開示で説明する技法のうちのいくつかの実装形態のための、3D−HEVC WD1に対して提案される修正を示す。
復号プロセス
H.8.1 一般的な復号プロセス
...
3.従属節8.4、8.5、8.6、8.7、および8.8におけるプロセスは、すべてのシンタックス構造レイヤにおいてシンタックス要素を使用した復号プロセスを規定する。スライスへのピクチャの分割、スライス区分へのスライスの分割、およびコーディングツリーユニットへのスライス区分の分割はそれぞれ、ピクチャの区分を形成するように、ピクチャのコード化スライスがピクチャのコーディングツリーユニットごとにスライス区分データを包含するものとすることがビットストリームコンフォーマンスの要件である。
...
H.8.5.3.3.2 参照ピクチャ選択プロセス
このプロセスへの入力は参照インデックスrefIdxLXである。
このプロセスの出力は、ルーマサンプルrefPicLXLの1つの2次元アレイと、クロマサンプルrefPicLXCbおよびrefPicLXCrの2つの2次元アレイとからなる参照ピクチャである。
出力された参照ピクチャRefPicListX[refIdxLX]は、ルーマサンプルrefPicLXLの1つのpic_width_in_luma_sample×pic_height_in_luma_samplesアレイと、クロマサンプルrefPicLXCbおよびrefPicLXCrの2つのPicWidthInSamplesC×PicHeightInSamplesCアレイとからなる。
参照ピクチャサンプルアレイrefPicLXL、refPicLXCb、およびrefPicLXCrは、前に復号されたピクチャのための従属節第8.7および従属節8.8によって導出された復号サンプルアレイSL、SCb、ならびにSCrに対応する。
H.8.7 変換ツリー修正プロセス
H.8.7.1 一般
このプロセスに対する入力は、コーディングツリーのスプリットフラグアレイsplit_cu_flag、コーディングユニットの区分モードアレイPartMode、変換ツリーのスプリットフラグsplit_transform_flag、コーディングユニットのサブ予測ユニットフラグアレイsubPuFlag、サブ予測ユニットサイズsubPuSizeである。
このプロセスの出力は、変換ツリーの修正されたスプリットフラグアレイsplit_transform_flagである。
各コーディングユニットに対して、そのユニットがインター予測モードでコーディングされ、そのユニットがサブ予測ユニット設計を利用する予測ユニットを包含する場合、変換ツリーのスプリットフラグは、サブ予測ユニット境界が変換ユニット境界になるように修正される。
− 従属節8.7.2で規定される変換ツリーの修正プロセスは、入力として、ルーマロケーション(xCb,yCb)、(0,0)に等しく設定されたルーマロケーション(xB0,yB0)、(1<<Log2MaxCbSize)に等しく設定されたルーマコーディングブロックサイズnCbS、0に等しく設定されたコーディングツリー深度cuDepth、コーディングツリーのスプリットフラグアレイsplit_cu_flag、コーディングユニットの区分モードアレイPartMode、変換ツリーのスプリットフラグアレイsplit_transform_flag、サブ予測ユニットフラグアレイsubPuFlag、およびサブ予測ユニットサイズsubPuSizeと、出力として、変換ツリーの修正されたスプリットフラグアレイsplit_transform_flagとで呼び出される。
H.8.7.2.サブ予測ユニットを包含するコーディングユニットの変換ツリー修正プロセス
このプロセスへの入力は以下の通りである。
− 現在のピクチャの左上ルーマサンプルに対する現在のルーマコーディングブロックの左上サンプルを規定するルーマロケーション(xCb,yCb)、
− 現在のルーマコーディングブロックの左上サンプルに対する現在のルーマブロックの左上サンプルを規定するルーマロケーション(xB0,yB0)、
− ルーマコーディングブロックサイズnCbS、
− コーディングツリー深度を規定する変数cuDepth、
− コーディングツリーのスプリットフラグアレイsplit_cu_flag、
− 変換ツリーのスプリットフラグアレイsplit_transform_flag、
− サブ予測ユニットフラグアレイsubPuFlag、
− サブ予測ユニットサイズsubPuSize、
このプロセスの出力は修正済みである。
− 変換ツリーのスプリットフラグアレイsplit_transform_flag、
split_cu_flag[xCb+xB0][yCb+yB0][cuDepth]の値に応じて、以下が適用される。
− split_cu_flag[xCb+xB0][yCb+yB0][cuDepth]が1に等しい場合、以下の順序のステップが適用される。
1.変数xB1およびyB1は次のように導出される。
−変数yB1は、yB0+(nCbS>>1)に等しく設定される。
2.この従属節で規定される変換ツリーの修正プロセスは、入力として、ルーマロケーション(xCb,yCb)、ルーマロケーション(xB0,yB0)、(nCbS>>1)に等しく設定されたルーマコーディングブロックサイズnCbS、cuDepth+1に等しく設定されたコーディングツリー深度cuDepth、コーディングツリーのスプリットフラグアレイsplit_cu_flag、コーディングユニットの区分モードアレイPartMode、変換ツリーのスプリットフラグアレイsplit_transform_flag、サブ予測ユニットフラグアレイsubPuFlag、サブ予測ユニットサイズsubPuSizeと、出力として、変換ツリーの修正されたスプリットフラグアレイsplit_transform_flagとで呼び出される。
3.この従属節で規定される変換ツリーの修正プロセスは、入力として、ルーマロケーション(xCb,yCb)、ルーマロケーション(xB1,yB0)、(nCbS>>1)に等しく設定されたルーマコーディングブロックサイズnCbS、cuDepth+1に等しく設定されたコーディングツリー深度cuDepth、コーディングツリーのスプリットフラグアレイsplit_cu_flag、コーディングユニットの区分モードアレイPartMode、変換ツリーのスプリットフラグアレイsplit_transform_flag、サブ予測ユニットフラグアレイsubPuFlag、サブ予測ユニットサイズsubPuSizeと、出力として、変換ツリーの修正されたスプリットフラグアレイsplit_transform_flagとで呼び出される。
4.この従属節で規定される変換ツリーの修正プロセスは、入力として、ルーマロケーション(xCb,yCb)、ルーマロケーション(xB0,yB1)、(nCbS>>1)に等しく設定されたルーマコーディングブロックサイズnCbS、cuDepth+1に等しく設定されたコーディングツリー深度cuDepth、コーディングツリーのスプリットフラグアレイsplit_cu_flag、コーディングユニットの区分モードアレイPartMode、変換ツリーのスプリットフラグアレイsplit_transform_flag、サブ予測ユニットフラグアレイsubPuFlag、サブ予測ユニットサイズsubPuSizeと、出力として、変換ツリーの修正されたスプリットフラグアレイsplit_transform_flagとで呼び出される。
5.この従属節で規定される変換ツリーの修正プロセスは、入力として、ルーマロケーション(xCb,yCb)、ルーマロケーション(xB1,yB1)、(nCbS>>1)に等しく設定されたルーマコーディングブロックサイズnCbS、cuDepth+1に等しく設定されたコーディングツリー深度cuDepth、コーディングツリーのスプリットフラグアレイsplit_cu_flag、コーディングユニットの区分モードアレイPartMode、変換ツリーのスプリットフラグアレイsplit_transform_flag、サブ予測ユニットフラグアレイsubPuFlag、サブ予測ユニットサイズsubPuSizeと、出力として、変換ツリーの修正されたスプリットフラグアレイsplit_transform_flagとで呼び出される。
− さもなければ(split_cu_flag[xCb+xB0][yCb+yB0][cuDepth]が0に等しい)、nCbSがsubPUSizeより大きい場合、以下の順序のステップが適用される。
1.変数xB1およびyB1は次のように導出される。
−変数xB1は、xB0+(nCbS>>1)に等しく設定される。
−変数yB1は、yB0+(nCbS>>1)に等しく設定される。
2.変数subPuDeblockingFlagを以下の順序のステップによって導出する。
−subPuDeblockingFlagが0に等しく設定される。
−subPuFlag[xCb+xB0][yCb+yB0]が1に等しい場合、subPuDeblockingFlagは1に等しく設定される。
subPuFlag[xCb+xB1][yCb+yB0]が1に等しい場合、subPuDeblockingFlagは1に等しく設定される。
−subPuFlag[xCb+xB0][yCb+yB1]が1に等しい場合、subPuDeblockingFlagは1に等しく設定される。
−subPuFlag[xCb+xB1][yCb+yB1]が1に等しい場合、subPuDeblockingFlagは1に等しく設定される。
−PartMode[xCb+xB0][yCb+yB0]がPART_nL×2Nに等しい場合、またはPartMode[xCb+xB0][yCb+yB0]がPART_nR×2Nに等しい場合、またはPartMode[xCb+xB0][yCb+yB0]がPART_2N×nUに等しい場合、またはPartMode[xCb+xB0][yCb+yB0]がPART_2N×nDに等しい場合、subPuDeblockingFlagは0に等しく設定される。
3.subPuDeblockingFlagが1に等しい場合、次の順序ステップが適用される。
−split_transform_flag[xCb+xB0][yCb+yB0][cuDepth]が0に等しい場合、split_transform_flag[xCb+xB0][yCb+yB0][cuDepth]を1に等しくなるように設定する。
−従属節8.7.3で規定された変換ツリーの修正プロセスは、入力として、ルーマロケーション(xCb,yCb)、ルーマロケーション(xB0,yB0)、コーディングツリー深度cuDepth、ブロックサイズnCbS、変換ツリーのスプリットフラグアレイsplit_transform_flag、予測ユニットのサブ予測ユニットフラグアレイsubPuFlag、予測ユニットのサブ予想ユニットサイズアレイsubPuSizeと、出力として、コーディングツリーの修正されたスプリットフラグアレイsplit_transform_flagとで呼び出される。
H.8.7.3 ルーマコーディングブロックの変換ツリー修正プロセス
このプロセスへの入力は以下の通りである。
− 現在のピクチャの左上ルーマサンプルに対する現在のルーマ予測ブロックの左上サンプルを規定するルーマロケーション(xCb,yCb)、
− 現在のルーマコーディングブロックの左上サンプルに対する現在のルーマブロックの左上サンプルを規定するルーマロケーション(xB0,yB0)、
− ブロックサイズを規定する変数nCbS、
− 変換ツリー深度を規定する変数trafoDepth、
− 変換ツリーのスプリットフラグアレイsplit_transform_flag、
− サブ予測ユニットフラグアレイsubPuFlag、
− サブ予測ユニットサイズsubPuSize、
このプロセスの出力は修正済みである。
− 変換ツリーのスプリットフラグアレイsplit_transform_flag、
nCbSがsubPUSizeよりも大きい場合、以下の順序のステップが適用される。
− 変数xB1およびyB1は次のように導出される。
− 変数xB1は、xB0+(nCbS>>1)に等しく設定される。
− 変数yB1は、yB0+(nCbS>>1)に等しく設定される。
− xB0、xB1のxに対して
− yB0、yB1のyに対して、
− subPuFlag[xCb+x][yCb+y]が1に等しい場合、
− split_transform_flag[xCb+x][yCb+y][trafoDepth+1]が0に等しい場合、
− split_transform_flag[xCb+x][yCb+y][trafoDepth+1]を1に等しくなるように設定する、
− この従属節で規定される変換ツリーの修正プロセスは、入力として、ルーマロケーション(xCb,yCb)、ルーマロケーション(xCb+x,yCb+y)、変換ツリー深度trafoDepthはtrafoDepth+1に等しく設定される、ブロックサイズnCbSは(nCbS>>1)に等しく設定される、変換ツリーのスプリットフラグアレイsplit_transform_flag、サブ予測ユニットフラグアレイsubPuFlag、サブ予測ユニットサイズsubPuSizeと、出力として、コーディングツリーの修正されたスプリットフラグアレイsplit_transform_flagとで呼び出される。
− さもなければ(split_transform_flag[xCb+x][yCb+y][trafoDepth+1]が1に等しい場合)、
− この従属節で規定される変換ツリーの修正プロセスは、入力として、ルーマロケーション(xCb,yCb)、ルーマロケーション(xCb+x,yCb+y)、変換ツリー深度trafoDepthはtrafoDepth+1に等しく設定される、ブロックサイズnCbSは(nCbS>>1)に等しく設定される、変換ツリーのスプリットフラグアレイsplit_transform_flag、サブ予測ユニットフラグアレイsubPuFlag、サブ予測ユニットサイズsubPuSizeと、出力として、コーディングツリーの修正されたスプリットフラグアレイsplit_transform_flagとで呼び出される。
H.8.8 インループフィルタプロセス
...
Claims (24)
- ビデオデータを処理する方法であって、
高度時間的動きベクトル予測(TMVP)モードの第1のステージとして、予測ユニット(PU)の隣接ブロックからビデオブロックのコーディングユニット(CU)の前記PUのための第1のステージの動きベクトルを決定すること、ここにおいて、前記第1のステージの動きベクトルは、前記PUに対応する参照ピクチャのブロックを識別する、と、
前記PUを2つ以上のサブPUに区分することと、
前記高度TMVPモードの第2のステージとして、前記第1のステージの動きベクトルによって識別された前記参照ピクチャの前記ブロックから前記サブPUの各々のための第2のステージの動き情報を決定すること、ここにおいて、前記サブPUの各々のための前記第2のステージの動き情報は、少なくとも1つの動きベクトルと、関連付けられた参照インデックスとを含む、
前記サブPUの各々のための前記第2のステージの動き情報に基づいて、前記サブPUの各々のための動き補償を別個に実行することと
を備える、方法。 - 前記PUのための前記第1のステージの動きベクトルを決定することは、前記PUの空間的隣接ブロックまたは時間的隣接ブロックのうちの1つまたは複数から前記第1のステージの動きベクトルを導出することを備える、
請求項1に記載の方法。 - 前記PUのための前記第1のステージの動きベクトルを決定することは、前記PUのためのマージモード候補リストから前記第1のステージの動きベクトルを選択することを備える、
請求項1に記載の方法。 - 前記PUのためのマージモード候補リスト中に高度TMVP候補を生成することをさらに備え、前記高度TMVP候補は、前記PUを予測する、前記高度TMVPモードの性能を示す、
請求項1に記載の方法。 - 前記サブPUのうちの1つのための前記第2のステージの動き情報の前記少なくとも1つの動きベクトルが利用可能でないことに基づいて、前記サブPUのうちの1つのための代表的な動きベクトルを使用することをさらに備える、
請求項1に記載の方法。 - 前記高度TMVPモードを使用して予測された前記PUのための動き改良データを決定することをさらに備える、
請求項1に記載の方法。 - 前記動き改良データを決定することは、前記PUの前記サブPUの各々のための前記第2のステージの動き情報に適用可能である前記PUのための単一動きベクトル差分を決定することを備える、
請求項6に記載の方法。 - 前記動き改良データを決定することは、前記サブPUの各々のための前記第2のステージの動き情報に対する異なる動きベクトル差分を決定することを備える、
請求項6に記載の方法。 - 前記PUのための高度動きベクトル予測(AMVP)モード候補リスト中に高度TMVP候補を生成することをさらに備え、前記高度TMVP候補は、現在のPUを予測するための、前記動き改良データを使用する前記高度TMVPモードの性能を示す、
請求項6に記載の方法。 - 前記第2の動き情報に基づいて前記PUの前記サブPUの各々のための予測ブロックを生成することと、
前記サブPUの各々のための前記ビデオブロックおよび前記予測ブロックに基づいて残差ブロックを生成することと、
ビデオビットストリーム中に前記PUのための少なくとも前記第1の動きステージの動きベクトルのインジケータおよび前記残差ブロックを符号化することと
をさらに備える、請求項1に記載の方法。 - 受信したビデオビットストリームから前記PUのための少なくとも前記第1のステージの動きベクトルのインジケータおよび残差ブロックを復号することと、
前記第2の動き情報に基づいて前記PUの前記サブPUの各々のための予測ブロックを生成することと、
前記サブPUの各々のための前記予測ブロックおよび前記残差ブロックに基づいて前記ビデオブロックの再構成されたバージョンを生成することと
をさらに備える、請求項1に記載の方法。 - ビデオデータを記憶するように構成されたメモリと、
前記メモリと通信する1つまたは複数のプロセッサと
を備え、前記1つまたは複数のプロセッサは、
高度時間的動きベクトル予測(TMVP)モードの第1のステージとして、予測ユニット(PU)の隣接ブロックからビデオブロックのコーディングユニット(CU)の前記PUのための第1のステージの動きベクトルを決定すること、ここにおいて、前記第1のステージの動きベクトルは、前記PUに対応する参照ピクチャのブロックを識別する、と、
前記PUを2つ以上のサブPUに区分することと、
前記高度TMVPモードの第2のステージとして、前記第1のステージの動きベクトルによって識別された前記参照ピクチャの前記ブロックから前記サブPUの各々のための第2のステージの動き情報を決定すること、ここにおいて、前記サブPUの各々のための前記第2のステージの動き情報は、少なくとも1つの動きベクトルと、関連付けられた参照インデックスとを含む、と
前記サブPUの各々のための前記第2のステージの動き情報に基づいて、前記サブPUの各々のための動き補償を別個に実行することと
を行うように構成される、ビデオ処理デバイス。 - 前記1つまたは複数のプロセッサは、前記PUの空間的隣接ブロックまたは時間的隣接ブロックのうちの1つまたは複数から前記第1のステージの動きベクトルを導出することを行うように構成される、
請求項12に記載のデバイス。 - 前記1つまたは複数のプロセッサは、前記PUのためのマージモード候補リストから前記第1のステージの動きベクトルを選択すること行うように構成される、
請求項12に記載のデバイス。 - 前記1つまたは複数のプロセッサは、前記PUのためのマージモード候補リスト中に高度TMVP候補を生成すること行うように構成され、前記高度TMVP候補は、前記PUを予測する、前記高度TMVPモードの性能を示す、
請求項12に記載のデバイス。 - 前記サブPUのうちの1つのための前記第2のステージの動き情報の前記少なくとも1つの動きベクトルが利用可能でないことに基づいて、前記1つまたは複数のプロセッサは、前記サブPUのうちの1つのための代表的な動きベクトルを使用すること行うように構成される、
請求項12に記載のデバイス。 - 前記1つまたは複数のプロセッサは、前記高度TMVPモードを使用して予測された前記PUのための動き改良データを決定することを行うように構成される、
請求項12に記載のデバイス。 - 前記1つまたは複数のプロセッサは、前記PUの前記サブPUの各々のための前記第2のステージの動き情報に適用可能である前記PUのための単一動きベクトル差分を決定することを行うように構成される、
請求項17に記載のデバイス。 - 前記1つまたは複数のデバイスは、前記サブPUの各々のための前記第2のステージの動き情報に対する異なる動きベクトル差分を決定することを行うように構成される、
請求項17に記載音デバイス。 - 前記1つまたは複数のプロセッサは、前記PUのための高度動きベクトル予測(AMVP)モード候補リスト中に高度TMVP候補を生成することを行うように構成され、前記高度TMVP候補は、現在のPUを予測するための、前記動き改良データを使用する前記高度TMVPモードの性能を示す、
請求項17に記載のデバイス。 - 前記ビデオ処理デバイスは、ビデオ符号化デバイスを備え、前記1つまたは複数のプロセッサは、
前記第2の動き情報に基づいて前記PUの前記サブPUの各々のための予測ブロックを生成することと、
前記サブPUの各々のための前記ビデオブロックおよび前記予測ブロックに基づいて残差ブロックを生成することと、
ビデオビットストリーム中に前記PUのための少なくとも前記第1の動きステージの動きベクトルのインジケータおよび前記残差ブロックを符号化することと
を行うように構成される、請求項12に記載のデバイス。 - 前記ビデオ処理デバイスは、ビデオ復号デバイスを備え、前記1つまたは複数のプロセッサは、
受信したビデオビットストリームから前記PUのための少なくとも前記第1のステージの動きベクトルのインジケータおよび残差ブロックを復号することと、
前記第2の動き情報に基づいて前記PUの前記サブPUの各々のための予測ブロックを生成することと、
前記サブPUの各々のための前記予測ブロックおよび前記残差ブロックに基づいて前記ビデオブロックの再構成されたバージョンを生成することと
を行うように構成される、請求項12に記載のデバイス。 - 高度時間的動きベクトル予測(TMVP)モードの第1のステージとして、予測ユニット(PU)の隣接ブロックからビデオブロックのコーディングユニット(CU)の前記PUのための第1のステージの動きベクトルを決定するための手段、ここにおいて、前記第1のステージの動きベクトルは、前記PUに対応する参照ピクチャのブロックを識別する、と、
前記PUを2つ以上のサブPUに区分するための手段と、
前記高度TMVPモードの第2のステージとして、前記第1のステージの動きベクトルによって識別された前記参照ピクチャの前記ブロックから前記サブPUの各々のための第2のステージの動き情報を決定するための手段、ここにおいて、前記サブPUの各々のための前記第2のステージの動き情報は、少なくとも1つの動きベクトルと、関連付けられた参照インデックスとを含む、
前記サブPUの各々のための前記第2のステージの動き情報に基づいて、前記サブPUの各々のための動き補償を別個に実行するための手段と
を備える、ビデオ処理デバイス。 - ビデオデータを処理するための命令を記憶したコンピュータ可読記憶媒体であって、前記命令は、実行されると、1つまたは複数のプロセッサに、
高度時間的モードベクトル予測(TMVP)モードの第1のステージとして、予測ユニット(PU)の隣接ブロックからビデオブロックのコーディングユニット(CU)の前記PUのための第1のステージの動きベクトルを決定すること、ここにおいて、前記第1のステージの動きベクトルは、前記PUに対応する参照ピクチャのブロックを識別する、と、
前記PUを2つ以上のサブPUに区分することと、
前記高度TMVPモードの第2のステージとして、前記第1のステージの動きベクトルによって識別された前記参照ピクチャの前記ブロックから前記サブPUの各々のための第2のステージの動き情報を決定すること、ここにおいて、前記サブPUの各々のための前記第2のステージの動き情報は、少なくとも1つの動きベクトルと、関連付けられた参照インデックスとを含む、と、
前記サブPUの各々のための前記第2のステージの動き情報に基づいて、前記サブPUの各々に関する動き補償を別個に実行することと
を行わせる、コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361883111P | 2013-09-26 | 2013-09-26 | |
US61/883,111 | 2013-09-26 | ||
US14/497,128 US9762927B2 (en) | 2013-09-26 | 2014-09-25 | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US14/497,128 | 2014-09-25 | ||
PCT/US2014/057739 WO2015048459A1 (en) | 2013-09-26 | 2014-09-26 | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016537839A true JP2016537839A (ja) | 2016-12-01 |
JP2016537839A5 JP2016537839A5 (ja) | 2018-05-10 |
JP6545667B2 JP6545667B2 (ja) | 2019-07-17 |
Family
ID=52690922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016516839A Active JP6545667B2 (ja) | 2013-09-26 | 2014-09-26 | Hevcにおけるサブ予測ユニット(pu)ベースの時間的動きベクトル予測および3d−hevcにおけるサブpu設計 |
Country Status (10)
Country | Link |
---|---|
US (1) | US9762927B2 (ja) |
EP (1) | EP3050296B1 (ja) |
JP (1) | JP6545667B2 (ja) |
KR (1) | KR101967967B1 (ja) |
CN (1) | CN105580364B (ja) |
BR (1) | BR112016006574B8 (ja) |
CA (1) | CA2922410C (ja) |
ES (1) | ES2732013T3 (ja) |
HU (1) | HUE043882T2 (ja) |
WO (1) | WO2015048459A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020050279A1 (ja) * | 2018-09-05 | 2020-03-12 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法および復号方法 |
JP2021502038A (ja) * | 2017-11-01 | 2021-01-21 | ヴィド スケール インコーポレイテッド | マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 |
JP2021517798A (ja) * | 2018-04-01 | 2021-07-26 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
JP2021520119A (ja) * | 2018-04-02 | 2021-08-12 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 動画像動きベクトルを取得する方法および装置 |
Families Citing this family (75)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9667996B2 (en) | 2013-09-26 | 2017-05-30 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US10038919B2 (en) | 2014-05-29 | 2018-07-31 | Apple Inc. | In loop chroma deblocking filter |
US10218957B2 (en) * | 2014-06-20 | 2019-02-26 | Hfi Innovation Inc. | Method of sub-PU syntax signaling and illumination compensation for 3D and multi-view video coding |
CN114554199B (zh) * | 2014-09-30 | 2023-11-10 | 寰发股份有限公司 | 用于视频编码的自适应运动向量分辨率的方法 |
US11477477B2 (en) | 2015-01-26 | 2022-10-18 | Qualcomm Incorporated | Sub-prediction unit based advanced temporal motion vector prediction |
EP3254466A1 (en) * | 2015-02-05 | 2017-12-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | 3d-video codec supporting inter-component prediction |
US10958927B2 (en) * | 2015-03-27 | 2021-03-23 | Qualcomm Incorporated | Motion information derivation mode determination in video coding |
KR20180006411A (ko) * | 2015-06-07 | 2018-01-17 | 엘지전자 주식회사 | 디블록킹 필터링을 수행하는 방법 및 장치 |
US10271064B2 (en) * | 2015-06-11 | 2019-04-23 | Qualcomm Incorporated | Sub-prediction unit motion vector prediction using spatial and/or temporal motion information |
US10567808B2 (en) * | 2016-05-25 | 2020-02-18 | Arris Enterprises Llc | Binary ternary quad tree partitioning for JVET |
US10721489B2 (en) | 2016-09-06 | 2020-07-21 | Qualcomm Incorporated | Geometry-based priority for the construction of candidate lists |
US10477238B2 (en) | 2016-09-07 | 2019-11-12 | Qualcomm Incorporated | Sub-PU based bi-directional motion compensation in video coding |
RU2721160C1 (ru) * | 2016-10-11 | 2020-05-18 | ЭлДжи ЭЛЕКТРОНИКС ИНК. | Способ и устройство декодирования изображения на основе интрапредсказания в системе кодирования изображения |
US20210136400A1 (en) * | 2016-11-29 | 2021-05-06 | Mediatek Inc. | Method and apparatus of merge mode derivation for video coding |
JP6565885B2 (ja) * | 2016-12-06 | 2019-08-28 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法及び画像符号化プログラム、並びに画像復号化装置、画像復号化方法及び画像復号化プログラム |
KR20180107761A (ko) * | 2017-03-22 | 2018-10-02 | 한국전자통신연구원 | 참조 블록을 사용하는 예측 방법 및 장치 |
US10582209B2 (en) | 2017-03-30 | 2020-03-03 | Mediatek Inc. | Sub-prediction unit temporal motion vector prediction (sub-PU TMVP) for video coding |
US10523934B2 (en) * | 2017-05-31 | 2019-12-31 | Mediatek Inc. | Split based motion vector operation reduction |
EP3451665A1 (en) * | 2017-09-01 | 2019-03-06 | Thomson Licensing | Refinement of internal sub-blocks of a coding unit |
JP2021010046A (ja) * | 2017-10-06 | 2021-01-28 | シャープ株式会社 | 画像符号化装置及び画像復号装置 |
WO2019072371A1 (en) | 2017-10-09 | 2019-04-18 | Huawei Technologies Co., Ltd. | MEMORY ACCESS WINDOW FOR PREDICTION SUB-BLOCK MOTION VECTOR CALCULATION |
US11750832B2 (en) * | 2017-11-02 | 2023-09-05 | Hfi Innovation Inc. | Method and apparatus for video coding |
US10623746B2 (en) * | 2017-12-07 | 2020-04-14 | Tencent America LLC | Method and apparatus for video coding |
WO2019146718A1 (ja) * | 2018-01-29 | 2019-08-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
CN111919447B (zh) * | 2018-03-14 | 2024-10-11 | Lx半导体科技有限公司 | 用于对图像进行编码/解码的方法和装置以及存储有比特流的记录介质 |
CN112204966B (zh) * | 2018-03-27 | 2024-10-18 | 株式会社Kt | 对图像进行解码、编码的方法和用于传送比特流的装置 |
US11297351B2 (en) | 2018-03-29 | 2022-04-05 | Arris Enterprises Llc | System and method for deblocking HDR content |
JP7395497B2 (ja) * | 2018-05-07 | 2023-12-11 | インターデジタル ヴイシー ホールディングス, インコーポレイテッド | コード化/復号化におけるデータ依存関係 |
KR20210016581A (ko) | 2018-06-05 | 2021-02-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Ibc 및 atmvp 간의 상호 작용 |
WO2019234669A1 (en) | 2018-06-07 | 2019-12-12 | Beijing Bytedance Network Technology Co., Ltd. | Signaled mv precision |
KR102701593B1 (ko) | 2018-06-21 | 2024-08-30 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 칼라 컴포넌트 간의 서브 블록 mv 상속 |
WO2019244117A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Unified constrains for the merge affine mode and the non-merge affine mode |
TWI719519B (zh) | 2018-07-02 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | 對於dmvr的塊尺寸限制 |
CN112585972B (zh) * | 2018-08-17 | 2024-02-09 | 寰发股份有限公司 | 视频编解码的帧间预测方法及装置 |
KR102162998B1 (ko) * | 2018-08-28 | 2020-10-07 | 인하대학교 산학협력단 | Hevc 인코더에서 움직임 예측의 병렬처리 이후 발생하는 표준 amvp 생성 시간 단축 방법 및 장치 |
KR20230169474A (ko) | 2018-08-29 | 2023-12-15 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 서브블록 기반 시간적 모션 벡터 예측을 사용한 비디오 코딩의 방법 및 장치 |
US11665365B2 (en) * | 2018-09-14 | 2023-05-30 | Google Llc | Motion prediction coding with coframe motion vectors |
CN117768651A (zh) | 2018-09-24 | 2024-03-26 | 北京字节跳动网络技术有限公司 | 处理视频数据的方法、装置、介质、以及比特流存储方法 |
CN111083489B (zh) | 2018-10-22 | 2024-05-14 | 北京字节跳动网络技术有限公司 | 多次迭代运动矢量细化 |
CN111083484B (zh) | 2018-10-22 | 2024-06-28 | 北京字节跳动网络技术有限公司 | 基于子块的预测 |
EP3861723A4 (en) | 2018-11-10 | 2022-04-20 | Beijing Bytedance Network Technology Co., Ltd. | ROUNDS IN PAIRS OF MEDIUM CANDIDATE BILLS |
WO2020098643A1 (en) | 2018-11-12 | 2020-05-22 | Beijing Bytedance Network Technology Co., Ltd. | Simplification of combined inter-intra prediction |
CN117319644A (zh) | 2018-11-20 | 2023-12-29 | 北京字节跳动网络技术有限公司 | 基于部分位置的差计算 |
CN113170093B (zh) | 2018-11-20 | 2023-05-02 | 北京字节跳动网络技术有限公司 | 视频处理中的细化帧间预测 |
EP4307681A3 (en) | 2018-11-29 | 2024-04-03 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between intra block copy mode and inter prediction tools |
CN118450141A (zh) * | 2019-01-02 | 2024-08-06 | Lg 电子株式会社 | 基于sbtmvp的帧间预测方法和设备 |
WO2020156538A1 (en) | 2019-02-03 | 2020-08-06 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between mv precisions and mv difference coding |
US10869050B2 (en) * | 2019-02-09 | 2020-12-15 | Tencent America LLC | Method and apparatus for video coding |
CN113424533B (zh) | 2019-02-14 | 2024-09-10 | 北京字节跳动网络技术有限公司 | 复杂度降低的解码器侧运动推导 |
CN113545076A (zh) | 2019-03-03 | 2021-10-22 | 北京字节跳动网络技术有限公司 | 基于图片头中的信息启用bio |
WO2020177756A1 (en) | 2019-03-06 | 2020-09-10 | Beijing Bytedance Network Technology Co., Ltd. | Size dependent inter coding |
EP3939300A1 (en) * | 2019-03-15 | 2022-01-19 | InterDigital VC Holdings, Inc. | Method and device for image encoding and decoding |
CN118075478A (zh) | 2019-03-21 | 2024-05-24 | Sk电信有限公司 | 编解码视频数据的当前块的方法及提供视频数据的方法 |
CN115190317A (zh) | 2019-04-02 | 2022-10-14 | 抖音视界有限公司 | 解码器侧运动矢量推导 |
WO2020222617A1 (ko) * | 2019-05-02 | 2020-11-05 | 주식회사 엑스리스 | 영상 신호 부호화/복호화 방법 및 이를 위한 장치 |
CN113728644B (zh) | 2019-05-16 | 2024-01-26 | 北京字节跳动网络技术有限公司 | 基于子区域的运动信息细化确定 |
KR102627821B1 (ko) | 2019-06-04 | 2024-01-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 이웃 블록 정보를 사용한 모션 후보 리스트 구성 |
EP3963889A4 (en) | 2019-06-04 | 2023-01-25 | Beijing Bytedance Network Technology Co., Ltd. | CONDITIONAL IMPLEMENTATION OF A MOVEMENT CANDIDATE LIST CONSTRUCTION PROCESS |
US20220232219A1 (en) * | 2019-06-11 | 2022-07-21 | Lg Electronics Inc. | Image or video coding based on temporal motion information in units of subblocks |
KR20240135861A (ko) | 2019-06-13 | 2024-09-12 | 엘지전자 주식회사 | Sbtmvp 기반 영상 또는 비디오 코딩 |
WO2020251320A1 (ko) * | 2019-06-13 | 2020-12-17 | 엘지전자 주식회사 | 서브블록 단위의 시간적 움직임 벡터 예측자 후보 기반 영상 또는 비디오 코딩 |
CN114080812A (zh) | 2019-06-13 | 2022-02-22 | Lg 电子株式会社 | 使用sbtmvp的基于帧间预测的图像或视频编译 |
CN114175636B (zh) | 2019-07-14 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 自适应参数集中的自适应环路滤波的指示 |
KR20220053567A (ko) | 2019-09-01 | 2022-04-29 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 비디오 코딩에서의 예측 가중치 정렬 |
US20220368951A1 (en) * | 2019-09-24 | 2022-11-17 | Hfi Innovation Inc. | Method and Apparatus of Separated Coding Tree Coding with Constraints on Minimum CU Size |
WO2021061826A1 (en) * | 2019-09-24 | 2021-04-01 | Futurewei Technologies, Inc. | Filter flags for subpicture deblocking |
WO2021057996A1 (en) | 2019-09-28 | 2021-04-01 | Beijing Bytedance Network Technology Co., Ltd. | Geometric partitioning mode in video coding |
KR20220070530A (ko) * | 2019-10-10 | 2022-05-31 | 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 | 삼각형 분할을 이용한 비디오 코딩을 위한 방법 및 장치 |
WO2021068923A1 (en) * | 2019-10-10 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Deblocking filtering improvements |
CN114556918A (zh) | 2019-10-12 | 2022-05-27 | 北京字节跳动网络技术有限公司 | 细化视频编解码工具的使用和信令 |
WO2021129866A1 (en) | 2019-12-27 | 2021-07-01 | Beijing Bytedance Network Technology Co., Ltd. | Signaling of slice types in video pictures headers |
AU2021215741A1 (en) * | 2020-02-04 | 2022-09-08 | Huawei Technologies Co., Ltd. | An encoder, a decoder and corresponding methods about signaling high level syntax |
WO2021196231A1 (zh) * | 2020-04-03 | 2021-10-07 | Oppo广东移动通信有限公司 | 变换方法、编码器、解码器以及存储介质 |
US11871143B2 (en) | 2020-09-17 | 2024-01-09 | Lemon Inc. | Subpicture tracks in coded video |
CN113727118B (zh) | 2021-03-19 | 2022-12-23 | 杭州海康威视数字技术股份有限公司 | 解码方法、编码方法、装置、设备及机器可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008053746A1 (fr) * | 2006-10-30 | 2008-05-08 | Nippon Telegraph And Telephone Corporation | Procédé de génération d'informations de référence prédictives, procédé de codage et de décodage d'image dynamiques, leur dispositif, leur programme et support de stockage contenant le programme |
JP2010010950A (ja) * | 2008-06-25 | 2010-01-14 | Toshiba Corp | 画像符号化/復号化方法及び装置 |
WO2012128242A1 (ja) * | 2011-03-18 | 2012-09-27 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
WO2014166348A1 (en) * | 2013-04-09 | 2014-10-16 | Mediatek Inc. | Method and apparatus of view synthesis prediction in 3d video coding |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030235250A1 (en) | 2002-06-24 | 2003-12-25 | Ankur Varma | Video deblocking |
US20060002474A1 (en) | 2004-06-26 | 2006-01-05 | Oscar Chi-Lim Au | Efficient multi-block motion estimation for video compression |
US7720154B2 (en) * | 2004-11-12 | 2010-05-18 | Industrial Technology Research Institute | System and method for fast variable-size motion estimation |
US20120113326A1 (en) | 2010-11-04 | 2012-05-10 | Stmicroelectronics, Inc. | System and method for detecting motion vectors in a recursive hierarchical motion estimation system using a non-rasterized scan |
US9565436B2 (en) | 2011-01-14 | 2017-02-07 | Telefonaktiebolaget Lm Ericsson (Publ) | Method for filter control and a filtering control device |
US9247266B2 (en) * | 2011-04-18 | 2016-01-26 | Texas Instruments Incorporated | Temporal motion data candidate derivation in video coding |
US9736489B2 (en) * | 2011-09-17 | 2017-08-15 | Qualcomm Incorporated | Motion vector determination for video coding |
US20140241434A1 (en) | 2011-10-11 | 2014-08-28 | Mediatek Inc | Method and apparatus of motion and disparity vector derivation for 3d video coding and hevc |
US20140286433A1 (en) * | 2011-10-21 | 2014-09-25 | Dolby Laboratories Licensing Corporation | Hierarchical motion estimation for video compression and motion analysis |
US20130114717A1 (en) * | 2011-11-07 | 2013-05-09 | Qualcomm Incorporated | Generating additional merge candidates |
US20130188715A1 (en) * | 2012-01-09 | 2013-07-25 | Qualcomm Incorporated | Device and methods for merge list reordering in video coding |
CN102984521B (zh) * | 2012-12-12 | 2015-04-08 | 四川大学 | 基于时域相关性的高性能视频编码帧间模式判决方法 |
US9948915B2 (en) | 2013-07-24 | 2018-04-17 | Qualcomm Incorporated | Sub-PU motion prediction for texture and depth coding |
US9667996B2 (en) | 2013-09-26 | 2017-05-30 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
-
2014
- 2014-09-25 US US14/497,128 patent/US9762927B2/en active Active
- 2014-09-26 WO PCT/US2014/057739 patent/WO2015048459A1/en active Application Filing
- 2014-09-26 CA CA2922410A patent/CA2922410C/en active Active
- 2014-09-26 HU HUE14782054A patent/HUE043882T2/hu unknown
- 2014-09-26 EP EP14782054.2A patent/EP3050296B1/en active Active
- 2014-09-26 KR KR1020167008765A patent/KR101967967B1/ko active IP Right Grant
- 2014-09-26 ES ES14782054T patent/ES2732013T3/es active Active
- 2014-09-26 BR BR112016006574A patent/BR112016006574B8/pt active IP Right Grant
- 2014-09-26 JP JP2016516839A patent/JP6545667B2/ja active Active
- 2014-09-26 CN CN201480052095.XA patent/CN105580364B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008053746A1 (fr) * | 2006-10-30 | 2008-05-08 | Nippon Telegraph And Telephone Corporation | Procédé de génération d'informations de référence prédictives, procédé de codage et de décodage d'image dynamiques, leur dispositif, leur programme et support de stockage contenant le programme |
JP2010010950A (ja) * | 2008-06-25 | 2010-01-14 | Toshiba Corp | 画像符号化/復号化方法及び装置 |
WO2012128242A1 (ja) * | 2011-03-18 | 2012-09-27 | ソニー株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
WO2014166348A1 (en) * | 2013-04-09 | 2014-10-16 | Mediatek Inc. | Method and apparatus of view synthesis prediction in 3d video coding |
Non-Patent Citations (1)
Title |
---|
JICHENG AN ET AL: "3D-CE3.h related: Sub-PU level inter-view motion prediction", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG16 WP3 AND ISO/IEC JTC1, vol. JCT3V-E0184, JPN6018022821, July 2013 (2013-07-01), pages 1 - 4, ISSN: 0003819762 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021502038A (ja) * | 2017-11-01 | 2021-01-21 | ヴィド スケール インコーポレイテッド | マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 |
JP7382332B2 (ja) | 2017-11-01 | 2023-11-16 | ヴィド スケール インコーポレイテッド | マージモード用のサブブロック動き導出およびデコーダサイド動きベクトル精緻化 |
US11632565B2 (en) | 2018-04-01 | 2023-04-18 | Lg Electronics Inc. | Image processing method based on inter prediction mode, and device therefor |
JP2021517798A (ja) * | 2018-04-01 | 2021-07-26 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
JP7477495B2 (ja) | 2018-04-01 | 2024-05-01 | エルジー エレクトロニクス インコーポレイティド | インター予測モードに基づいた映像処理方法及びそのための装置 |
US11949904B2 (en) | 2018-04-01 | 2024-04-02 | Lg Electronics Inc. | Image processing method based on inter prediction mode, and device therefor |
US11949911B2 (en) | 2018-04-02 | 2024-04-02 | SZ DJI Technology Co., Ltd. | Method and device for obtaining motion vector of video image |
US11871032B2 (en) | 2018-04-02 | 2024-01-09 | SZ DJI Technology Co., Ltd. | Method and device for image motion compensation |
JP2023052491A (ja) * | 2018-04-02 | 2023-04-11 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 動画像処理方法および装置 |
JP7534039B2 (ja) | 2018-04-02 | 2024-08-14 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 動画像処理方法、動画処理装置、及びビットストリーム生成方法 |
JP7294753B2 (ja) | 2018-04-02 | 2023-06-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 動画像処理方法、及び動画像処理装置 |
JP7497948B2 (ja) | 2018-04-02 | 2024-06-11 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 動画像処理方法および装置 |
US11997312B2 (en) | 2018-04-02 | 2024-05-28 | SZ DJI Technology Co., Ltd. | Method and device for video image processing |
JP7216109B2 (ja) | 2018-04-02 | 2023-01-31 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 動画像処理方法、動画像処理装置、及びコンピュータプログラム |
US11949912B2 (en) | 2018-04-02 | 2024-04-02 | SZ DJI Technology Co., Ltd. | Method and device for video image processing |
JP2021520119A (ja) * | 2018-04-02 | 2021-08-12 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 動画像動きベクトルを取得する方法および装置 |
JP2021520121A (ja) * | 2018-04-02 | 2021-08-12 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 動画像処理方法および装置 |
WO2020050279A1 (ja) * | 2018-09-05 | 2020-03-12 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法および復号方法 |
US11849139B2 (en) | 2018-09-05 | 2023-12-19 | Panasonic Intellectual Property Corporation Of America | Encoder, decoder, encoding method, and decoding method |
JPWO2020050279A1 (ja) * | 2018-09-05 | 2021-08-30 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 符号化装置、復号装置、符号化方法および復号方法 |
JP7148618B2 (ja) | 2018-09-05 | 2022-10-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置及び復号装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105580364A (zh) | 2016-05-11 |
US9762927B2 (en) | 2017-09-12 |
KR20160058824A (ko) | 2016-05-25 |
HUE043882T2 (hu) | 2019-09-30 |
ES2732013T3 (es) | 2019-11-20 |
US20150085929A1 (en) | 2015-03-26 |
EP3050296A1 (en) | 2016-08-03 |
KR101967967B1 (ko) | 2019-04-10 |
WO2015048459A1 (en) | 2015-04-02 |
BR112016006574B1 (pt) | 2023-01-31 |
CA2922410A1 (en) | 2015-04-02 |
BR112016006574A2 (pt) | 2017-08-01 |
BR112016006574B8 (pt) | 2023-02-14 |
JP6545667B2 (ja) | 2019-07-17 |
CA2922410C (en) | 2019-09-17 |
EP3050296B1 (en) | 2019-03-20 |
CN105580364B (zh) | 2019-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6339183B2 (ja) | Hevcにおけるサブ予測ユニット(pu)ベースの時間的動きベクトル予測および3d−hevcにおけるサブpu設計 | |
JP6545667B2 (ja) | Hevcにおけるサブ予測ユニット(pu)ベースの時間的動きベクトル予測および3d−hevcにおけるサブpu設計 | |
JP6585200B2 (ja) | ビデオコード化における視差ベクトル予測 | |
KR102519780B1 (ko) | 비디오 코딩에서 적응적 루프 필터링에서의 다중 필터들의 혼동 | |
CN111567043B (zh) | 对视频数据进行译码的方法、装置和计算机可读存储介质 | |
JP6254254B2 (ja) | 3次元(3d)ビデオコーディング用の進化型マージモード | |
JP6337104B2 (ja) | テクスチャコーディングのためのより正確な高度残差予測(arp) | |
TWI520573B (zh) | 用於寫碼視訊資料之方法、器件及電腦可讀儲存媒體 | |
JP6855242B2 (ja) | ビデオコーディングのためのディスパリティベクトルおよび/または高度残差予測 | |
US20130258052A1 (en) | Inter-view residual prediction in 3d video coding | |
JP2017508345A (ja) | 予測ブロックからのイントラ予測 | |
KR20150139953A (ko) | 백워드 뷰 합성 예측 | |
JP2016530848A (ja) | 非対称動き分割を使用するビデオコーディング技法 | |
JP2016517228A (ja) | スキップおよびダイレクトモード用の3dビデオコーディングにおける視差ベクトル導出 | |
JP2015536118A (ja) | 3dビデオのためのインタ・ビュー予測動きベクトル | |
JP2017515386A (ja) | 色域スケーラビリティのための3d色予測のために参照レイヤを信号伝達すること |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170829 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180326 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180326 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180611 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180619 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181116 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190410 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190521 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6545667 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |