JP2022509972A - タイル独立性制約を使用したインター予測概念 - Google Patents
タイル独立性制約を使用したインター予測概念 Download PDFInfo
- Publication number
- JP2022509972A JP2022509972A JP2021529678A JP2021529678A JP2022509972A JP 2022509972 A JP2022509972 A JP 2022509972A JP 2021529678 A JP2021529678 A JP 2021529678A JP 2021529678 A JP2021529678 A JP 2021529678A JP 2022509972 A JP2022509972 A JP 2022509972A
- Authority
- JP
- Japan
- Prior art keywords
- prediction
- motion information
- block
- predetermined inter
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001419 dependent effect Effects 0.000 claims abstract description 11
- 230000033001 locomotion Effects 0.000 claims description 1689
- 239000013598 vector Substances 0.000 claims description 583
- 238000000034 method Methods 0.000 claims description 98
- 230000002123 temporal effect Effects 0.000 claims description 81
- 230000002457 bidirectional effect Effects 0.000 claims description 55
- 230000011664 signaling Effects 0.000 claims description 43
- 238000013507 mapping Methods 0.000 claims description 35
- 230000002427 irreversible effect Effects 0.000 claims description 29
- 238000006243 chemical reaction Methods 0.000 claims description 28
- 238000009795 derivation Methods 0.000 claims description 27
- 230000003287 optical effect Effects 0.000 claims description 27
- 238000006073 displacement reaction Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 11
- 238000003780 insertion Methods 0.000 claims description 3
- 230000037431 insertion Effects 0.000 claims description 3
- 230000006978 adaptation Effects 0.000 claims 16
- 239000000523 sample Substances 0.000 description 73
- 230000000875 corresponding effect Effects 0.000 description 42
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 25
- 241000023320 Luma <angiosperm> Species 0.000 description 24
- 238000010586 diagram Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 15
- 230000008859 change Effects 0.000 description 10
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 9
- 230000002441 reversible effect Effects 0.000 description 8
- 230000003595 spectral effect Effects 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000006467 substitution reaction Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 239000000872 buffer Substances 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000013074 reference sample Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 108091026890 Coding region Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/55—Motion estimation with spatial constraints, e.g. at image or region borders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/107—Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/563—Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本出願の別の態様は、以前に使用された動き情報を格納する動き情報履歴リストを使用する動き情報予測子候補リストの読込みに関する。この態様は、タイルベースの符号化を使用するか否かに関係なく使用され得る。この態様は、動き情報予測子候補リストにこれまで読み込まれている動き情報予測子候補に依存して、候補リストに現在読み込まれているエントリがそれによって記入されることになる動き情報履歴リストの中からの動き情報予測子候補の選択を与えることによって、より高い圧縮効率の映像コーデックを提供しようとするものである。この依存性の目的は、その動き情報が、候補リストにこれまで読み込まれている動き情報予測子候補からさらに離れている可能性が高い履歴リスト内の動き情報エントリを選択することである。適切な距離尺度は、例えば、その履歴リスト内の動き情報エントリと候補リスト内の動き情報予測子候補とによってそれぞれ構成される動きベクトル、および/またはそれらによって構成される参照画像インデックスに基づいて定義され得る。この方法により、履歴ベースの候補を使用した候補リストの読込みは、符号器が優れた歪み最適化の観点から候補リスト内で適切な候補を見つける可能性が、履歴ベースの候補を単に、その動き情報履歴リスト内のランク、すなわち、その候補がどれほど新しく動き情報履歴リストに入力されたかだけに従って選択する場合と比較してより高くなるように、結果として得られる候補リストのより高度な「更新」につながる。この概念は、実際、動き情報予測子候補リストに読み込むために動き情報予測子候補セットの中から現在選択されることになっている任意の他の動き情報予測子候補にも適用され得る。
DCT-II(またはDCT-III)、DCTは離散コサイン変換を表す
DST-IV、DSTは離散サイン変換を表す
DCT-IV
DST-VII
恒等変換(IT)
逆DCT-II(または逆DCT-III)
逆DST-IV
逆DCT-IV
逆DST-VII
恒等変換(IT)
サイズBWxBH
位置Posx、Posy
TileLeft、TileTop、TileRightおよびTileBottomによって定義される境界102を有するタイル100aに属する
以下を定義する:
MVX>>precisionの場合に、MVXInt
MVY>>precisionの場合に、MVYInt
MVX&(2precision-1)の場合に、MVXFrac
MVY&(2precision-1)の場合に、MVYFrac
MVXは、動きベクトルの水平成分であり、MVYは、動きベクトルの垂直成分であり、precisionは、動きベクトルの精度を表す。例えば、HEVCにおいて、MVの精度は、サンプルの1/4であり、したがってprecision=2である。
MVXInt=Clip3(TileLeft-Posx,TileRight-Posx-(BW-1),MVXInt)
MVYInt=Clip3(TileTop-Posy,TileBottom-Posy-(BH-1),MVYInt)
MVXFracは0に設定される。
MVYFracは0に設定される。
前と同様に、サブ画素部分にゼロを設定した場合に、結果として得られるクリップされたフル画素ベクトルが、厳密にタイル100a内にあるフットプリントまたはパッチになるように、動きベクトルMVのフル画素部分をクリップする。
MVXInt=Clip3(TileLeft-Posx,TileRight-Posx-(BW-1),MVXInt)
MVYInt=Clip3(TileTop-Posy,TileBottom-Posy-(BH-1),MVYInt)
(HEVCの8タップフィルタを仮定した)MVXInt<=TileLeft-Posx+3またはTileRight-Posx-(BW-1)>MVXInt>=TileRight-Posx-(BW-1)-4の場合
MVXInt=MVXInt+(MVXFrac+(1<<(precision-1))>> precision)
(HEVCの8タップフィルタを仮定した)MVXInt<=TileLeft-Posx+3またはMVXInt>=TileRight-Posx-(BW-1)-4の場合
MVXFracは0に設定される。
(HEVCの8タップフィルタを仮定した)MVYInt<=TileTop-Posy+3またはTileBottom-Posy-(BH-1)>MVYInt>=TileBottom-Posy-(BH-1)-4の場合
MVYInt=MVYInt+(MVYFrac+(1 <<(precision-1))>> precision)
(HEVCの8タップフィルタを仮定した)MVYInt<=TileTop-Posy+3またはMVYInt>=TileBottom-Posy-(BH-1)-4の場合
MVYFracは0に設定される。
MVY=Clip3((TileTop-Posy+3)<<precision,(TileBottom-Posy-BH-1-4)<<precision,MVY)
4:2:0、クロマが水平および垂直方向にルマサンプルの半分を有する(すなわち、各方向に2つのルマサンプルごとに1つのクロマサンプル)
4:2:2、クロマが水平方向にはサンプルの半分を有するが、垂直方向には同じサンプルを有する(すなわち、垂直方向にはルマサンプルあたり1つのクロマサンプルだが、水平方向には2つのルマあたり1つのクロマサンプル)
MVCX>>(precision+1)の場合、MVXInt
MVCY>>(precision+1)の場合、MVYInt
MVCX&(2precision+1-1)の場合、MVXFrac
MVCY&(2precision+1-1)の場合、MVYFrac
4:2:0(HEVCにおけるChromaType=1)
xPos+MVXInt=TileLeft+1、MVXIntはルマについて定義される
xPos+(BW-1)+MVXInt=TileRight-2、MVXIntはルマについて定義される
yPos+MVYInt=TileTop+1、MVYIntはルマについて定義される
yPos+(BH-1)+MVYInt=TileBottom-2、MVYIntはルマについて定義される
4:2:2(HEVCにおけるChromaType=2)
xPos+MVXInt=TileLeft+1、MVXIntはルマについて定義される
xPos+(BW-1)+MVXInt=TileRight-2、MVXIntはルマについて定義される。
ChromaType(Ctype)に基づいて制限的な方法でクリップする:
ChromaOffsetHor=2*(Ctype==1|| Ctype==2)
ChromaOffsetVer=2*(Ctype==1)
MVXInt=Clip3(TileLeft-Posx+ChromaOffsetHor,TileRight-Posx-(BW-1)-ChromaOffsetHor,MVXInt)
MVYInt=Clip3(TileTop-Posy+ChromaOffsetVer,TileBottom-Posy-(BH-1)-ChromaOffsetVer,MVYInt)
4:2:0(HEVCにおけるChromaType=1)
xPos+MVXInt=TileLeft+1、MVXIntはルマについて定義される
xPos+(BW-1)+MVXInt=TileRight-2、MVXIntはルマについて定義される
yPos+MVYInt=TileTop+1、MVYIntはルマについて定義される
yPos+(BH-1)+MVYInt=TileBottom-2、MVYIntはルマについて定義される
4:2:2(HEVCにおけるChromaType=2)
xPos+MVXInt=TileLeft+1、MVXIntはルマについて定義される
xPos+(BW-1)+MVXInt=TileRight-2、MVXIntはルマについて定義される
むしろ、予測子192a~192cのいずれかがポインタ193によって選択されてもよく、ほとんどの場合に、わずかな残差194のみが、残差ベクトル152(図10と比較)と192cなどの選択された予測子との組合せによって得られるように、最終的な動きベクトル154(図10と比較)に移行されさえすればよい。
i=0
if(availableFlagLXA){
mvpListLX[i++]=mvLXA
if(availableFlagLXB&&(mvLXA!=mvLXB))
mvpListLX[i++]=mvLXB
}else if(availableFlagLXB)
mvpListLX[i++]=mvLXB
if(i<2&&availableFlagLXCol)
mvpListLX[i++]=mvLXCol
HMVP
while(i<2){
mvpListLX[i][0]=0
mvpListLX[i][1]=0
i++
}
I=0
if(availableFlagA1)
mergeCandList[i++]=A1
if(availableFlagB1)
mergeCandList[i++]=B1
if(availableFlagB0)
mergeCandList[i++]=B0
if(availableFlagA0)
mergeCandList[i++]=A0
if(availableFlagB2)
mergeCandList[i++]=B2
if(availableFlagCol)
mergeCandList[i++]=Col
候補は、あるMV候補のL0成分と別のMV候補のL1成分とを様々な組合せでとることによって組み合わされる。
ゼロ動きベクトルマージ候補は、リストに十分な候補がない場合に追加される。
i=0
if(availableFlagSbCol)
subblockMergeCandList[i++]=SbCol
if(availableFlagA&&i<MaxNumSubblockMergeCand)
subblockMergeCandList[i++]=A
if(availableFlagB&&i<MaxNumSubblockMergeCand)
subblockMergeCandList[i++]=B
if(availableFlagConst1&&i<MaxNumSubblockMergeCand)
subblockMergeCandList[i++]=Const1
if(availableFlagConst2&&i<MaxNumSubblockMergeCand)
subblockMergeCandList[i++]=Const2
if(availableFlagConst3&&i<MaxNumSubblockMergeCand)
subblockMergeCandList[i++]=Const3
if(availableFlagConst4&&i<MaxNumSubblockMergeCand)
subblockMergeCandList[i++]=Const4
if(availableFlagConst5&&i<MaxNumSubblockMergeCand)
subblockMergeCandList[i++]=Const5
if(availableFlagConst6&&i<MaxNumSubblockMergeCand)
subblockMergeCandList[i++]=Const6
Sample(x,y)=round(0.5*predSamplesL0[x][y]+0.5*predSamplesL1[x][y])
現在の予測ブロックのすべての(x,y)について。
Sample(x,y)=round(0.5*predSamplesL0[x][y]+0.5*predSamplesL1[x][y]+bioEnh(x,y))
現在の予測ブロック104のすべての(x,y)について
bioEnh(x,y)は、2つの参照4021および4022の各々の対応する各参照サンプル4401および4402の勾配で計算されたオフセットである。
Claims (153)
- 映像(11)が空間的に分割されるタイル(100)間の境界(102)の位置に依存して、前記映像(11)が符号化されているデータストリーム(14)から、所定のインター予測ブロック(104)がそこから予測されることになる、参照画像(12b)内のパッチ(130)を配置する、前記映像(11)の現在の画像(12a)の前記所定のインター予測ブロック(104)についての動き情報を導出し、
前記参照画像(12b)の前記パッチ(130)から前記動き情報を使用して前記所定のインター予測ブロック(104)を予測する、ように構成された動き補償予測をサポートするブロックベースの映像復号器。 - 前記データストリーム内の前記動き情報のシグナリング状態が、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の境界(102)内にあることにならない前記パッチ(130b)につながるか否かをチェックし、そうである場合に、前記動き情報を、前記シグナリング状態から、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあることになる前記パッチ(130b’)につながるリダイレクト状態にリダイレクトする(142)、ように構成された、請求項1に記載のブロックベースの映像復号器。
- 動き情報予測(150)を取得するために前記所定のインター予測ブロック(104)についての前記動き情報を予測し、
前記データストリーム(14)から動き情報予測残差(152)を復号し、
前記所定のインター予測ブロック(104)についての前記動き情報を、前記動き情報予測(150)および前記動き情報予測残差(152)に基づいて、前記パッチが、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の境界(102)を越えないように、前記動き情報に対する制約を順守して決定する、ように構成された、請求項1または2に記載のブロックベースの映像復号器。 - 前記動き情報予測(150)および前記動き情報予測残差(152)に基づいて、前記所定のインター予測ブロックについての前記動き情報を決定する際に、前記動き情報予測(150)と前記動き情報予測残差(152)のすべての可能な組合せを、前記パッチ(130)がそれぞれの可能な動き情報を使用して配置された場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)を越えないように、前記それぞれの可能な動き情報に排他的にマップし、前記動き情報予測が等しく、前記動き情報予測残差が異なる、前記動き情報予測(150)と前記動き情報予測残差(152)の複数の可能な組合せを、1つの可能な動き情報にマップする前記動き情報予測(150)および前記動き情報予測残差(152)から前記動き情報への不可逆的マッピングを使用して、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)を越えないように、前記動き情報に対する前記制約を順守する、ように構成された、請求項3に記載のブロックベースの映像復号器。
- 前記所定のインター予測ブロック(104)を、前記動き情報を使用して、前記所定のインター予測ブロックのサンプル(162)の各々を、前記パッチ(130)のそれぞれの部分内のサンプル(164)の数学的組合せによって予測することによって、および/または前記動き情報から、前記所定のインター予測ブロック(104)の2つの異なる隅について定義された2つの動きベクトル(306a、306b)を導出し、前記所定のインター予測ブロック(104)が分割されるサブブロックの各々について、前記参照画像(12b)内のそれぞれのサブブロックパッチを配置するサブブロック動きベクトル(304)を計算することによって予測し、すべてのサブブロックの前記サブブロックパッチが前記所定のインター予測ブロックの前記パッチを形成し、
前記動き情報に対する前記制約が、前記所定のインター予測ブロックのすべてのサンプル(162)の前記部分のすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイル(100a)の前記境界内にあるように選択される、ように構成された、請求項3または4に記載のブロックベースの映像復号器。 - 前記所定のインター予測ブロック(104)を、前記動き情報を使用して、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチが、前記所定のインター予測ブロックと比較して拡張エッジ部分(172)だけ拡大されるように、前記パッチのそれぞれの部分内のサンプル(164)の加重和によって、
前記動き情報が前記動き情報の前記値ドメインの第2のサブセット内に入る場合に、前記パッチが前記所定のインター予測ブロック(104)と同じ幅になるように、前記パッチを、前記パッチの1つの対応するサンプル(164)と等しく設定することによって、
前記所定のインター予測ブロックのサンプル(162)の各々を予測することによって予測し、
前記動き情報に対する前記制約が、前記パッチのすべてのサンプル(162)が、前記所定のインター予測ブロックが含まれる前記タイル(100a)の前記境界内にあるように、前記動き情報が前記動き情報の前記値ドメインの前記第2のサブセット内に入る場合に、前記制約により、前記パッチが、前記拡張エッジ部分(172)の幅(170)よりも、前記所定のインター予測ブロックが含まれる前記タイルの前記境界に近づくことが可能になるように選択される、ように構成された、請求項3に記載のブロックベースの映像復号器。 - 前記所定のインター予測ブロック(104)を、前記動き情報を使用して、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチが、前記所定のインター予測ブロックと比較して拡張エッジ部分だけ拡大されるように、前記パッチのそれぞれの部分内のサンプルの加重和によって、
前記動き情報が前記動き情報の前記値ドメインの第2のサブセット内に入る場合に、前記パッチが前記所定のインター予測ブロックと同じ幅になるように、前記パッチを、前記パッチの1つの対応するサンプルと等しく設定することによって、
前記所定のインター予測ブロックのサンプル(162)の各々を予測することによって予測し、
前記動き情報に対する前記制約が、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチ(130)のすべてのサンプル(164)が前記所定のインター予測ブロックが含まれる前記タイル(100a)の前記境界内にあり、
前記動き情報が前記動き情報の値ドメインの第2のサブセット内に入る場合、前記パッチ(130)のすべてのサンプル(164)が、前記所定のインター予測ブロックが含まれる前記タイルの前記境界から、少なくとも前記拡張エッジ部分(172)を収容する距離(171)だけ距離を置かれる、ように選択される、ように構成された、請求項3に記載のブロックベースの映像復号器。 - 前記動き情報が、前記パッチと前記所定のインター予測ブロックとの間の並進変位を指示する動きベクトル(154)を含み、前記ブロックベースの映像復号器が、
動きベクトル予測(150)を取得するために前記所定のインター予測ブロックについての前記動きベクトルを予測し、
前記データストリームから動きベクトル予測残差(152)を復号し、
前記所定のインター予測ブロックについての前記動きベクトル(154)を、前記動きベクトル予測および前記動きベクトル予測残差に基づいて、前記パッチが、前記所定のインター予測ブロックが含まれるタイル(100a)の境界(102)を越えないように、前記動きベクトルに対する制約を順守して決定する、ように構成される、請求項1または2に記載のブロックベースの映像復号器。 - 前記動きベクトル予測および前記動きベクトル予測残差に基づいて前記所定のインター予測ブロックについての前記動き情報を決定する際に、前記動きベクトル予測と前記動きベクトル予測残差のすべての可能な組合せを、前記パッチ(130)がそれぞれの可能な動きベクトルを使用して配置された場合に、前記パッチが、前記所定のインター予測ブロックが含まれる前記タイル(100a)の前記境界を越えないように、前記それぞれの可能な動きベクトルに排他的にマップし、前記動きベクトル予測が等しく、前記動きベクトル予測残差が異なる、前記動きベクトル予測と前記動きベクトル予測残差の複数の可能な組合せを、1つの可能な動きベクトルにマップする、前記動きベクトル予測および前記動きベクトル予測残差から前記動きベクトルへの不可逆的マッピングを使用して、前記パッチが、前記所定のインター予測ブロックが含まれるタイルの境界を越えないように、前記動きベクトル(154)に対する前記制約を順守する、ように構成された、請求項8に記載のブロックベースの映像復号器。
- 前記動き情報が、前記パッチと前記所定のインター予測ブロックとの間の並進変位を指示する動きベクトルを含み、前記ブロックベースの映像復号器が、
動きベクトル予測を取得するために前記所定のインター予測ブロックについての前記動きベクトルを予測し、
前記データストリームから動きベクトル予測残差を復号し、
前記動きベクトル予測および前記動きベクトル予測残差に基づいて前記所定のインター予測ブロックについての前記動きベクトルを決定し、
前記所定のインター予測ブロックを、前記動きベクトルを使用して、
前記動きベクトルが、非ゼロであるサブ画素部分を有する場合に、前記パッチが、フィルタカーネルの幅により前記所定のインター予測ブロックと比較して拡大されるように、前記フィルタカーネルと前記パッチとの畳み込みによって、および
前記動きベクトルが、ゼロであるサブ画素部分を有する場合に、前記パッチが前記所定のインター予測ブロックと同じ幅になるように、前記所定のインター予測ブロックの各サンプルを前記パッチの1つの対応するサンプル(164)に設定することによって、
前記所定のインター予測ブロックのサンプル(162)を予測することによって予測し、
前記パッチのすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあるように、前記動きベクトル予測および前記動きベクトル予測残差に基づいて前記所定のインター予測ブロックについての前記動きベクトルの前記決定を行う、ように構成される、請求項1または2に記載のブロックベースの映像復号器。 - 前記動きベクトル予測および前記動きベクトル予測残差に基づいて、前記所定のインター予測ブロックについての前記動きベクトルの前記決定を、
前記動きベクトル予測および前記動きベクトル予測残差に基づいて、前記所定のインター予測ブロックについての前記動きベクトルの暫定バージョンを計算し、
前記所定のインター予測ブロックが含まれる前記タイルの前記境界から前記動きベクトルの前記暫定バージョンに従って前記所定のインター予測ブロックに対して変位された、前記所定のインター予測ブロックのフットプリント(160)の距離(171)が、前記パッチが前記フィルタカーネルの幅により前記所定のインター予測ブロックと比較して拡大される拡大範囲(170)を下回るか否かをチェックし、
前記フットプリントの前記距離が前記拡大範囲を下回る場合に、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの前記サブ画素部分をゼロに設定すること、によって行うように構成された、請求項10に記載のブロックベースの映像復号器。 - 前記フットプリント(160)の前記距離(171)が前記拡大範囲を下回らない場合に、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの前記サブ画素部分を変更せずに残す、ように構成された、請求項11に記載のブロックベースの映像復号器。
- 前記動きベクトルの前記暫定バージョンの前記サブ画素部分をゼロに設定するとき、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの全部分を、前記サブ画素部分の前記ゼロ設定および前記フル画素部分の適応により、前記動きベクトルの前記暫定バージョンを最も近いフル画素動きベクトルに丸めることになり、結果として前記パッチのすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあり、前記サブ画素部分のゼロ設定および前記フル画素部分の前記適応の前の前記動きベクトルの前記暫定バージョンに最も近くなるような方法で適応させる、ように構成された、請求項11または12に記載のブロックベースの映像復号器。
- 前記動きベクトルの前記暫定バージョンの前記サブ画素部分をゼロに設定するとき、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの全部分を、前記サブ画素部分の前記ゼロ設定および前記フル画素部分の適応により、前記動きベクトルの前記暫定バージョンを最も近いフル画素動きベクトルに丸めることになり、結果として前記パッチのすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあり、前記サブ画素部分のゼロ設定および前記フル画素部分のクリッピングの前の前記動きベクトルの前記暫定バージョンに最も近く、前記動きベクトルの前記暫定バージョンよりも小さくなるような方法でクリップする、ように構成された、請求項11または12に記載のブロックベースの映像復号器。
- 前記動き情報の予測状態(192c’)が、そのまま使用された場合に、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の境界(102)内にあることにならない前記パッチにつながるか否かをチェックし、そうでない場合に、前記予測状態を、前記所定のインター予測ブロックの動き情報予測候補(192)として使用し、そうである場合に、前記動き情報予測候補(192)を取得するために、前記動き情報を、前記予測状態(192c’)から、前記所定のインター予測ブロックが含まれる前記パッチの前記境界内にあることになる前記パッチにつながるリダイレクト状態(192c)にリダイレクトし(142)、
前記データストリームから動き情報予測残差を復号し、
前記動き情報予測および前記動き情報予測残差に基づいて前記所定のインター予測ブロックについての前記動き情報を決定する、ように構成された、請求項1から14のいずれか一項に記載のブロックベースの映像復号器。 - 前記動き情報が動き情報予測候補(192c)に等しくなるように設定された場合に、前記パッチが、前記所定のインター予測ブロックが含まれるタイルの境界を越えないように、前記動き情報予測候補(192c)に対する制約を順守して、予測により、前記所定のインター予測ブロック(104)の動き情報予測候補(192c)を導出し、
前記データストリームから動き情報予測残差(152)を復号し、
前記動き情報予測および前記動き情報予測残差に基づいて前記所定のインター予測ブロックについての前記動き情報を決定する、ように構成された、請求項1から14のいずれか一項に記載のブロックベースの映像復号器。 - 前記動き情報が前記動き情報予測候補に等しくなるように設定された場合に、前記パッチが、前記所定のインター予測ブロックが含まれるタイルの境界を越えないように、前記動き情報予測候補(192c)を導出する際に、前記パッチがそれぞれのマップされた動き情報候補を使用して配置された場合に、前記パッチが、前記所定のインター予測ブロックが含まれる前記タイルの境界を越えないように、前記それぞれのマップされた動き情報候補に排他的にマップし、暫定的動き情報予測候補の異なる設定を、前記それぞれのマップされた動き情報候補についての1つの可能な設定にマップする、前記暫定的動き情報予測候補(192c’)を前記動き情報予測候補(192c)にマップするための不可逆的マッピングを使用することによって、前記動き情報予測候補(192c)に対する前記制約を順守する、ように構成された、請求項16に記載のブロックベースの映像復号器。
- 予測により、前記動き情報予測候補(192)を含む前記所定のインター予測ブロック(104)の動き情報予測候補リスト(190)を確立する、ように構成された、請求項16または17に記載のブロックベースの映像復号器。
- 前記動き情報が前記それぞれの動き情報予測候補に等しくなるように設定された場合に、前記パッチが、前記所定のインター予測ブロックが含まれるタイルの境界を越えないように、前記それぞれの動き情報予測候補について、前記動き情報予測候補に対する制約を順守して、予測により、前記動き情報予測候補リスト(190)の各動き情報予測候補(192)を導出する、ように構成された、請求項18に記載のブロックベースの映像復号器。
- 前記所定のインター予測ブロックがそれを使用して予測される前記動き情報がそれに基づいて決定される前記動き情報予測候補(192)を取得するために、前記所定のインター予測ブロックについて、前記動き情報予測候補リスト(190)へのポインタ(193)を導出する、ように構成された、請求項18または19に記載のブロックベースの映像復号器。
- 前記所定のインター予測ブロックを、前記動き情報を使用して、前記所定のインター予測ブロックのサンプルの各々を、前記パッチのそれぞれの部分内のサンプルの数学的組合せによって予測することによって、および/または前記動き情報から、前記所定のインター予測ブロック(104)の2つの異なる隅について定義された2つの動きベクトル(306a、306b)を導出し、前記所定のインター予測ブロック(104)が分割されるサブブロックの各々について、前記参照画像(12b)内のそれぞれのサブブロックパッチを配置するサブブロック動きベクトル(304)を計算することによって予測し、すべてのサブブロックの前記サブブロックパッチが前記所定のインター予測ブロックの前記パッチを形成し、
前記動き情報が前記動き情報予測候補に等しくなるように設定された場合に、前記所定のインター予測ブロックのすべてのサンプルの前記パッチの前記部分のすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあることになるように、前記動き情報予測候補(192c)に対する前記制約が選択される、ように構成された、請求項16から20のいずれか一項に記載のブロックベースの映像復号器。 - 前記所定のインター予測ブロックを、前記動き情報を使用して、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチが、前記所定のインター予測ブロックと比較して拡張エッジ部分だけ拡大されるように、前記パッチのそれぞれの部分内のサンプルの加重和によって、
前記動き情報が前記動き情報の前記値ドメインの第2のサブセット内に入る場合に、前記パッチが前記所定のインター予測ブロックと同じ幅になるように、前記パッチを、前記パッチの1つの対応するサンプルと等しく設定することによって、
前記所定のインター予測ブロックのサンプルの各々を予測することによって予測し、
前記動き情報が前記動き情報予測候補に等しくなるように設定された場合に、前記パッチのすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあることになり、前記動き情報が前記動き情報の前記値ドメインの前記第2のサブセット内に入る場合に、前記制約により、前記パッチが、前記拡張エッジ部分の幅よりも、前記所定のインター予測ブロックが含まれる前記タイルの前記境界に近づくことが可能になるように、前記動き情報予測候補に対する前記制約が選択される、ように構成された、請求項16から20のいずれか一項に記載のブロックベースの映像復号器。 - 前記所定のインター予測ブロックを、前記動き情報を使用して、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチが、前記所定のインター予測ブロックと比較して拡張エッジ部分だけ拡大されるように、前記パッチのそれぞれの部分内のサンプルの加重和によって、
前記動き情報が前記動き情報の前記値ドメインの第2のサブセット内に入る場合に、前記パッチが前記所定のインター予測ブロックと同じ幅になるように、前記パッチを、前記パッチの1つの対応するサンプルと等しく設定することによって、
前記所定のインター予測ブロックのサンプルの各々を予測することによって予測し、
前記動き情報が前記動き情報予測候補に等しくなるように設定された場合に、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチのすべてのサンプルが前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあることになり、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチのすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界から、少なくとも前記拡張エッジ部分を収容する距離だけ距離を置かれることになる
ように、前記動き情報予測候補に対する前記制約が選択される、ように構成された、請求項16から20のいずれか一項に記載のブロックベースの映像復号器。 - 前記動き情報が、前記パッチと前記所定のインター予測ブロックとの間の並進変位を指示する動きベクトルを含み、前記ブロックベースの映像復号器が、
前記所定のインター予測ブロックを、前記動きベクトルを使用して、
前記動きベクトルが、非ゼロであるサブ画素部分を有する場合に、前記パッチが、フィルタカーネルの幅により前記所定のインター予測ブロックと比較して拡大されるような前記フィルタカーネルと前記パッチとの畳み込みによって、および
前記動きベクトルが、ゼロであるサブ画素部分を有する場合に、前記パッチが前記所定のインター予測ブロックと同じ幅になるように、前記所定のインター予測ブロックの各サンプルを前記パッチの1つの対応するサンプルに設定することによって、
前記所定のインター予測ブロックのサンプルを予測することによって予測し、
前記動きベクトルが動きベクトル予測候補に等しくなるように設定された場合に、前記パッチのすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあることになるように、前記所定のインター予測ブロックの前記動きベクトル予測候補の前記導出を行う、ように構成される、請求項16から20のいずれか一項に記載のブロックベースの映像復号器。 - 前記所定のインター予測ブロックの前記動きベクトル予測候補の前記導出を、
予測により、前記所定のインター予測ブロックの前記動きベクトル予測候補の暫定バージョンを導出し、
前記所定のインター予測ブロックが含まれる前記タイルの前記境界から前記動きベクトル予測候補の前記暫定バージョンに従って前記所定のインター予測ブロックに対して変位された、前記所定のインター予測ブロックのフットプリントの距離が、前記パッチが前記フィルタカーネルの幅により前記所定のインター予測ブロックと比較して拡大される拡大範囲を下回るか否かをチェックし、
前記フットプリントの前記距離が前記拡大範囲を下回る場合に、前記動きベクトル予測候補を取得するために前記動きベクトル予測候補の前記暫定バージョンの前記サブ画素部分をゼロに設定すること、によって行う、ように構成された、請求項16から20のいずれか一項に記載のブロックベースの映像復号器。 - 前記フットプリント(160)の前記距離(171)が前記拡大範囲を下回らない場合に、前記動きベクトル予測候補を取得するために前記動きベクトル予測候補の前記暫定バージョンの前記サブ画素部分を変更されないままにしておく、ように構成された、請求項25に記載のブロックベースの映像復号器。
- 前記動きベクトル予測候補の前記暫定バージョンの前記サブ画素部分をゼロに設定するとき、前記動きベクトル予測候補を取得するために前記動きベクトル予測候補の前記暫定バージョンの全部分を、前記サブ画素部分の前記ゼロ設定および前記フル画素部分の適応により、前記動きベクトル予測候補の前記暫定バージョンを最も近いフル画素動きベクトル予測候補に丸めることになり、結果として前記パッチのすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあり、前記サブ画素部分のゼロ設定および前記フル画素部分の前記適応の前の前記動きベクトル予測候補の前記暫定バージョンに最も近くなるような方法で適応させる、ように構成された、請求項25または26に記載のブロックベースの映像復号器。
- 前記動きベクトル予測候補の前記暫定バージョンの前記サブ画素部分をゼロに設定するとき、前記動きベクトル予測候補を取得するために前記動きベクトル予測候補の前記暫定バージョンの全部分を、前記サブ画素部分の前記ゼロ設定および前記フル画素部分の適応により、前記動きベクトル予測候補の前記暫定バージョンを最も近いフル画素動きベクトル予測候補に丸めることになり、結果として前記パッチのすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあり、前記サブ画素部分のゼロ設定および前記フル画素部分のクリッピングの前の前記動きベクトル予測候補の前記暫定バージョンに最も近く、前記動きベクトル予測候補の前記暫定バージョンよりも小さくなるような方法でクリップする、ように構成された、請求項25または26に記載のブロックベースの映像復号器。
- 複数の(200)動き情報予測候補の中から少なくとも1つの動き情報予測候補を、
前記動き情報が前記少なくとも1つの動き情報予測候補に等しくなるように設定された場合に、前記パッチ(130)が、前記所定のインター予測ブロックが含まれる前記タイル(100a)の前記境界(102)を越えることになるか否かをチェックし、
そうである場合に、前記動き情報予測候補リストに前記少なくとも1つの動き情報予測候補を読み込まず、
そうでない場合に、前記動き情報予測候補リストに前記少なくとも1つの動き情報予測候補を読み込む、
ことによって動き情報予測候補リスト(190)に選択的に読み込むことで、予測により、前記所定のインター予測ブロック(104)の前記動き情報予測候補リスト(190)を確立する、ように構成された、請求項1から28のいずれか一項に記載のブロックベースの映像復号器。 - 前記動き情報が前記少なくとも1つの動き情報予測候補に等しくなるように設定された場合には、前記パッチ(130)が、前記所定のインター予測ブロックが含まれる前記タイル(100a)の前記境界を越えることにならず、前記少なくとも1つの動き情報予測候補が、その他方の部分が別の参照画像に関連する双方向予測動き情報の一部であり、前記動き情報が前記他方の部分と等しくなるように設定された場合には、前記パッチが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界を越えることになる場合に、前記少なくとも1つの動き情報予測候補を、動き情報予測候補の暫定的動き情報リストに入力し、前記少なくとも1つの動き情報予測候補を使用して前記動き情報予測候補リストに、動き情報予測候補の前記暫定的動き情報リスト内のエントリの対、またはさらなる動き情報予測候補の可用性を欠く場合には前記暫定的動き情報リスト内の1つのエントリとデフォルトの動き情報との組合せを読み込む、ように構成された、請求項29に記載のブロックベースの映像復号器。
- 動き情報予測(150)を取得するために前記動き情報予測候補リスト(190)の中からの選択を行い、
前記データストリームから動き情報予測残差(152)を復号し、
前記動き情報予測(150)および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロックについての前記動き情報を決定する、ように構成された、請求項29または30に記載のブロックベースの映像復号器。 - 前記所定のインター予測ブロックについて、前記動き情報予測候補リスト(190)へのポインタ(193)を導出し、
前記ポインタ(193)を前記選択に使用する、ように構成された、請求項31に記載のブロックベースの映像復号器。 - 複数の(200)動き情報予測候補の中から少なくとも1つの動き情報予測候補(192)を、
前記現在の画像内の前記所定のインター予測ブロック(104)が、前記所定のインター予測ブロックが含まれるタイル(100a)の所定の側に隣接しているか否かをチェックし、
そうである場合に、前記参照画像(12b)またはさらなる参照画像(12b’)のブロックの中から第1のブロック(212)を識別し、前記動き情報予測候補リスト(190)に、前記第1のブロック(212)がそれを使用して予測された参照動き情報を読み込み、
そうでない場合に、前記参照画像(12b)または前記さらなる参照画像(12b’)のブロックの中から第2のブロック(206)を識別し、前記動き情報予測候補リスト(190)に、前記第2のブロック(206)がそれを使用して予測された参照動き情報を読み込む、
ことによって前記動き情報予測候補リスト(190)に選択的に読み込むことで、予測により、前記所定のインター予測ブロック(104)の動き情報予測候補リスト(190)を確立する、ように構成された、請求項1から32のいずれか一項に記載のブロックベースの映像復号器。 - 前記参照画像(12b)またはさらなる参照画像(12b’)内の前記第1のブロック(212)を、前記所定のインター予測ブロック(104)に対して第1の所定の位置関係を有する、前記現在の画像(12a)内の第1の位置合わせ位置(208)に併置された、第1の所定の位置(210)を含む前記参照画像(12b)またはさらなる参照画像(12b’)の前記ブロックのうちの1つとして識別し、
前記第1の位置合わせ位置(208)が前記所定のインター予測ブロックの内側にある、ように構成された、請求項33に記載のブロックベースの映像復号器。 - 前記第1の位置合わせ位置(208)が、前記所定のインター予測ブロック(104)の中心にある前記現在の画像(12a)内のサンプル位置である、請求項34に記載のブロックベースの映像復号器。
- 前記第2のブロック(206)を、前記所定のインター予測ブロック(104)に対して第2の所定の位置関係を有する、前記現在の画像内の第2の位置合わせ位置(204)に併置された、第2の所定の位置(204’)を含む前記参照画像(12b)またはさらなる参照画像(12b’)の前記ブロックのうちの1つとして識別し、
前記第2の位置合わせ位置(204)が、前記所定のインター予測ブロック(104)の外側に、前記所定の側に垂直な方向に沿って所定のインター予測ブロック(104)に対してオフセットされてある、ように構成された、請求項33から35のいずれか一項に記載のブロックベースの映像復号器。 - 前記第2の位置合わせ位置(204)が、前記所定のインター予測ブロック(104)の外側に、前記所定の側に隣接している前記所定のインター予測ブロックの隅のサンプルの対角線上の近傍にある前記現在の画像内のサンプル位置である、請求項36に記載のブロックベースの映像復号器。
- 動き情報予測(150)を取得するために前記動き情報予測候補リスト(190)の中からの選択を行い、
前記データストリームから動き情報予測残差(152)を復号し、
前記動き情報予測および前記動き情報予測残差に基づいて前記所定のインター予測ブロック(104)についての前記動き情報を決定する、ように構成された、請求項33から37のいずれか一項に記載のブロックベースの映像復号器。 - 前記所定のインター予測ブロックについて、前記動き情報予測候補リスト(190)へのポインタ(193)を導出し、
前記ポインタ(193)を前記選択に使用する、ように構成された、請求項30に記載のブロックベースの映像復号器。 - 前記所定のインター予測ブロックに空間的に位置合わせされた、前記参照画像(12b)またはさらなる参照画像(12b’)内の位置合わせされたブロック(206;212)を識別し、
前記所定のインター予測ブロック(104)の空間的に近傍の、前記現在の画像内の空間的に近傍のブロック(220)を識別し、
前記現在の画像(12a)内の前記所定のインター予測ブロック(104)が、前記所定のインター予測ブロックが含まれるタイル(100a)の所定の側に隣接しているか否かをチェックし、
そうである場合に、動き情報予測候補リストに、前記現在の画像内の前記空間的に近傍のブロックがそれを使用して予測された第1の参照動き情報から導出された1つまたは複数の空間的動き情報予測候補(200b)と、前記位置合わせされたブロック(206;212)がそれを使用して予測された第2の参照動き情報から導出された時間的動き情報予測候補(200a)とを、前記1つまたは複数の空間的動き情報予測候補(200b)を前記動き情報予測候補リスト(190)において前記時間的動き情報予測候補に先行するランクで配置して読み込むことによって、予測により、前記所定のインター予測ブロック(104)の前記動き情報予測候補リスト(190)を確立し、
そうでない場合に、前記動き情報予測候補リストに、前記現在の画像内の前記空間的に近傍のブロック(220)がそれを使用して予測された第1の参照動き情報から導出された1つまたは複数の空間的動き情報予測候補(200b)と、前記位置合わせされたブロック(206;212)がそれを使用して予測された第2の参照動き情報から導出された時間的動き情報予測候補(200a)とを、前記1つまたは複数の空間的動き情報予測候補を前記動き情報予測候補リストにおいて前記時間的動き情報予測候補の後に続くランクで配置して読み込むことによって、予測により、前記所定のインター予測ブロック(104)の前記動き情報予測候補リスト(190)を確立し、
前記所定のインター予測ブロックについて、前記動き情報予測候補リスト(190)を、ランク順序(195)で、指し示すポインタ(193)を導出し、
動き情報予測(150)を取得するために前記ポインタを使用して前記動き情報予測候補リスト(190)の中からの選択を行う、ように構成された、請求項1から39のいずれか一項に記載のブロックベースの映像復号器。 - 前記現在の画像内の前記空間的に近傍のブロック(220)がそれを使用して予測された第1の参照動き情報から導出された前記1つまたは複数の空間的動き情報予測候補(200b)が、前記現在の画像内の前記空間的に近傍のブロック(200)のうちの1つがそれを使用して予測された前記第1の参照動き情報と等しい少なくとも1つと、前記現在の画像内の前記空間的に近傍のブロック(200)のうちの異なるものがそれを使用して予測された前記第1の参照動き情報の組合せと等しい少なくとも1つとを含む、請求項40に記載のブロックベースの映像復号器。
- 前記現在の画像内の前記所定のインター予測ブロックが前記現在の画像の前記所定の側に隣接している場合に、前記参照画像(12b)またはさらなる参照画像(12b’)が分割されるブロックの中からの前記位置合わせされたブロックを、前記所定のインター予測ブロック(104)に対して第1の所定の位置関係を有する、前記現在の画像内の第1の位置合わせ位置(208)に併置された、第1の所定の位置(210)を含む前記ブロックのうちの1つとして識別し、前記第1の位置合わせ位置(208)が前記所定のインター予測ブロックの内側にあり、
前記現在の画像内の前記所定のインター予測ブロックが前記現在の画像の前記所定の側に隣接していない場合に、前記参照画像(12b)またはさらなる参照画像(12b’)が分割されるブロックの中からの前記位置合わせされたブロックを、前記所定のインター予測ブロックに対して第2の所定の位置関係を有する、前記現在の画像内の第2の位置合わせ位置(204)に併置された、前記参照画像内の第2の所定の位置(204’)を含む前記ブロックのうちの1つとして識別し、前記第2の位置合わせ位置が、前記所定のインター予測ブロックの外側に、前記所定の側に垂直な方向に沿って所定のインター予測ブロックに対してオフセットされてあるか否かをチェックする、ように構成された、請求項40または41に記載のブロックベースの映像復号器。 - 前記現在の画像内の前記所定のインター予測ブロックが前記現在の画像の前記所定の側に隣接している場合に、
前記参照画像が分割されるブロックの中からの前記参照画像内の前記位置合わせされたブロックを、
前記所定のインター予測ブロックに対して第2の所定の位置関係を有する、前記現在の画像内の第2の位置合わせ位置(204)に併置された、第2の所定の位置(204’)を含む前記参照画像(12b)またはさらなる参照画像(12b’)の前記ブロックのうちの第1の候補ブロックを識別し、前記第2の位置合わせ位置が、前記所定のインター予測ブロックの外側に、前記所定の側に垂直な方向に沿って所定のインター予測ブロックに対してオフセットされてあり、
第1の候補ブロックがインター予測符号化されるか否かをチェックし、
そうである場合に、前記第1の候補ブロックを前記位置合わせされたブロックに指定し、
そうでない場合に、前記参照画像(12b)またはさらなる参照画像(12b’)が分割される前記ブロックの中からの前記位置合わせされたブロックを、前記所定のインター予測ブロックに対して第1の所定の位置関係を有する、前記現在の画像内の第1の位置合わせ位置(208)に併置された、前記参照画像内の第1の所定の位置(210)を含む前記ブロックのうちの1つとして識別し、前記第1の位置合わせ位置が前記所定のインター予測ブロックの内側にあること、によって識別する、ように構成された、請求項40から42のいずれか一項に記載のブロックベースの映像復号器。 - 前記第1の位置合わせ位置が、前記所定のインター予測ブロックの中心にある前記現在の画像内のサンプル位置である、請求項42または43に記載のブロックベースの映像復号器。
- 前記第2の位置合わせ位置が、前記所定のインター予測ブロックの外側に、前記所定の側に隣接する前記所定のインター予測ブロックの隅のサンプルの対角線上の近傍にある前記現在の画像内のサンプル位置である、請求項40から44のいずれか一項に記載のブロックベースの映像復号器。
- 前記データストリームから動き情報予測残差(152)を復号し、
前記動き情報予測(150)および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロックについての前記動き情報(154)を決定する、ように構成された、請求項40から45のいずれか一項に記載のブロックベースの映像復号器。 - 前記所定のインター予測ブロックの動きベクトル(240)を予測し、
クリップされた動きベクトル(248)を取得するために、前記予測された動きベクトル(240)を、前記所定のインター予測ブロックから開始して、前記所定のインター予測ブロックが含まれるタイル(100a)の境界内にとどまるようにクリップし、
前記所定のインター予測ブロックの前記時間的動き情報予測候補を、前記クリップされた動きベクトル(248)が指し示す、前記参照画像(12b)またはさらなる参照画像(12b’)のブロック(248)がそれを使用して予測された参照動き情報から導出することによって、予測により、前記所定のインター予測ブロックの時間的動き情報予測候補を導出する、ように構成された、請求項1から46のいずれか一項に記載のブロックベースの映像復号器。 - 前記データストリームから動き情報予測残差(152)を復号し、
前記時間的動き情報予測候補(150)および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロックについての前記動き情報(154)を決定する、ように構成された、請求項47に記載のブロックベースの映像復号器。 - 前記時間的動き情報予測候補および前記動き情報予測残差に基づいて前記所定のインター予測ブロックについての前記動き情報を決定する際に、前記所定のインター予測ブロックの前記データストリームから、前記時間的動き情報予測候補および前記予測された動きベクトルを含むさらなる動き情報予測候補を含む動き情報予測候補リストへのポインタ(193)を導出し、前記ポインタが指し示す動き情報予測候補を、前記動き情報予測残差とともに前記決定に使用する、ように構成された、請求項47または48に記載のブロックベースの映像復号器。
- 前記所定のインター予測ブロックの第1および第2の予測された動きベクトル(240、260)を導出し、
前記第1の予測された動きベクトルが、前記所定のインター予測ブロックから開始して、前記所定のインター予測ブロックが含まれるタイルの境界内で終わるか否かをチェックし、
そうである場合に、前記第1の予測された動きベクトルが指し示す、前記参照画像(12b)またはさらなる参照画像(12b’)のブロック(242)がそれを使用して予測された参照動き情報から前記所定のインター予測ブロックの時間的動き情報予測候補を導出し、
そうでない場合に、前記第2の予測された動きベクトルが指し示す、前記参照画像(12b)またはさらなる参照画像(12b’)のさらなるブロック(262)がそれを使用して予測された参照動き情報から前記所定のインター予測ブロックの前記時間的動き情報予測候補を導出する、
ことによって、予測により、前記所定のインター予測ブロックの前記時間的動き情報予測候補を導出する、ように構成された、請求項1から49のいずれか一項に記載のブロックベースの映像復号器。 - 前記データストリームから動き情報予測残差(152)を復号し、
前記時間的動き情報予測候補および前記動き情報予測残差に基づいて前記所定のインター予測ブロックについての前記動き情報を決定する、ように構成された、請求項50に記載のブロックベースの映像復号器。 - 前記時間的動き情報予測候補および前記動き情報予測残差に基づいて前記所定のインター予測ブロックについての前記動き情報を決定する際に、前記所定のインター予測ブロックの前記データストリームから、前記第1の予測された動きベクトルを含む第1の時間的動き情報予測候補、前記第2の予測された動きベクトルを含む第2の動き情報予測候補、および前記時間的動き情報予測候補を含む動き情報予測候補リストへのポインタ(193)を導出し、前記ポインタによって指し示される動き情報予測候補を前記動き情報予測残差と共に前記決定に使用する、ように構成された、請求項50または51に記載のブロックベースの映像復号器。
- 映像の現在の画像の所定のインター予測ブロックについての動き情報(306a、306b)を、前記映像が符号化されているデータストリームから復号し、
前記動き情報から、前記所定のインター予測ブロックが分割されるサブブロック(300)のサブブロックごとの動きベクトル(304)であって、前記それぞれのサブブロックと、前記それぞれのサブブロックがそこから予測されることになる、参照画像(12b)内のパッチ(302)との間の並進変位を指示する前記動きベクトルを導出し、
前記所定のインター予測ブロックを、前記それぞれのサブブロックの前記動きベクトルを使用して各サブブロックを予測することによって予測する、ように構成された、動き補償予測をサポートするブロックベースの映像復号器であって、
前記ブロックベースの映像復号器が、前記導出および/または前記予測を、前記映像が空間的に分割されるタイル間の境界の位置に依存して行うように構成される、ブロックベースの映像復号器。 - 前記所定のインター予測ブロックを、前記それぞれのサブブロックの前記動きベクトルを使用して各サブブロックを予測することによって予測する際に、
前記動きベクトルが、非ゼロであるサブ画素部分を有する場合に、前記パッチが、フィルタカーネルの幅により所定のサブブロックと比較して拡大されるような前記フィルタカーネルと前記パッチとの畳み込みによって、および
前記動きベクトルが、ゼロであるサブ画素部分を有する場合に、前記パッチが前記所定のサブブロックと同じ幅になるように、前記所定のサブブロックの各サンプルを前記パッチの1つの対応するサンプルに設定することによって、前記所定のサブブロックのサンプルを予測し、
前記所定のサブブロックに関する前記導出を、前記動き情報に基づいて前記所定のサブブロックの前記動きベクトルの暫定バージョンを計算し、
前記所定のインター予測ブロックが含まれるタイルの前記境界から、前記動きベクトルの前記暫定バージョンに従って前記所定のインター予測ブロックに対して変位された、前記所定のサブブロックのフットプリントの距離が、前記パッチが前記フィルタカーネルの幅により前記所定のサブブロックと比較して拡大される拡大範囲を下回るか否かをチェックし、
前記フットプリントの前記距離が前記拡大範囲を下回る場合に、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの前記サブ画素部分をゼロに設定すること、によって行う、ように構成された、請求項53に記載のブロックベースの映像復号器。 - 前記フットプリントの前記距離が前記拡大範囲を下回らない場合に、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの前記サブ画素部分を変更されないままにしておく、ように構成された、請求項54に記載のブロックベースの映像復号器。
- 前記動きベクトルの前記暫定バージョンの前記サブ画素部分をゼロに設定するとき、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの全部分を、前記サブ画素部分の前記ゼロ設定および前記フル画素部分の適応により、前記動きベクトルの前記暫定バージョンを最も近いフル画素動きベクトルに丸めることになり、結果として前記パッチのすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあり、前記サブ画素部分のゼロ設定および前記フル画素部分の前記適応の前の前記動きベクトルの前記暫定バージョンに最も近くなるような方法で適応させる、ように構成された、請求項54に記載のブロックベースの映像復号器。
- 前記動きベクトルの前記暫定バージョンの前記サブ画素部分をゼロに設定するとき、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの全部分を、前記サブ画素部分の前記ゼロ設定および前記フル画素部分の適応により、前記動きベクトルの前記暫定バージョンを最も近いフル画素動きベクトルに丸めることになり、結果として前記パッチのすべてのサンプルが、前記所定のインター予測ブロックが含まれる前記タイルの前記境界内にあり、前記サブ画素部分のゼロ設定および前記フル画素部分のクリッピングの前の前記動きベクトルの前記暫定バージョンに最も近く、前記動きベクトルの前記暫定バージョンよりも小さくなるような方法でクリップする、ように構成された、請求項54に記載のブロックベースの映像復号器。
- 前記所定のインター予測ブロックを、前記それぞれのサブブロックの前記動きベクトルを使用して各サブブロックを予測することによって予測する際に、
所定のサブブロックが前記所定のサブブロックの前記動きベクトルを使用してそこから予測される前記パッチが、前記所定のインター予測ブロックが含まれるタイルの境界内にあるか否かをチェックし、
そうでない場合に、前記所定のサブブロックを空間的に予測し、
そうである場合に、前記所定のサブブロックを前記パッチから予測する、ように構成された、請求項53から57のいずれか一項に記載のブロックベースの映像復号器。 - 前記所定のサブブロックを空間的に予測する際に、前記所定のインター予測ブロックの1つまたは複数のサブブロックに対するその前記並進変位が前記1つまたは複数のサブブロックの前記動きベクトルによって指示される前記パッチから予測された前記1つまたは複数のサブブロックのサンプルも使用する、ように構成された、請求項58に記載のブロックベースの映像復号器。
- 前記動き情報が、前記所定のインター予測ブロックの異なる隅における動き場を定義する第1の動きベクトル(306a)および第2の動きベクトル(306b)を含む、請求項53から59のいずれか一項に記載のブロックベースの映像復号器。
- 所定のインター予測ブロックの動き情報予測候補リストを、
前記所定のインター予測ブロックに空間的に位置合わせされた、参照画像内の位置合わせされたブロックを識別し、
前記所定のインター予測ブロックの空間的に近傍の、現在の画像内の空間的に近傍のブロックを識別し、
前記動き情報予測候補リストに、前記現在の画像内の前記空間的に近傍のブロックがそれを使用して予測された第1の参照動き情報から導出された1つまたは複数の空間的動き情報予測候補と、前記参照画像内の前記位置合わせされたブロックがそれを使用して予測された第2の参照動き情報から導出された時間的動き情報予測候補とを、前記1つまたは複数の空間的動き情報予測候補を前記動き情報予測候補リストにおいて前記時間的動き情報予測候補に先行するランクで配置して読み込むこと、によって、予測により、確立し、
前記所定のインター予測ブロックについて、前記動き情報予測候補リストを、ランク順序で、指し示すポインタを導出し、
所定のインター予測ブロックの動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リストの中からの選択を行う、ように構成された、ブロックベースの映像復号器。 - 現在の画像の所定のインター予測ブロックの動き情報予測候補リストを、
前記所定のインター予測ブロックの空間的に近傍の、前記現在の画像内の空間的に近傍のブロックを識別し、
前記動き情報予測候補リストに、前記現在の画像内の前記空間的に近傍のブロックがそれを使用して予測された第1の参照動き情報から導出された1つまたは複数の空間的動き情報予測候補と、履歴ベースの時間的動き情報予測候補リストから導出された履歴ベースの動き情報予測候補とを、前記1つまたは複数の空間的動き情報予測候補を前記動き情報予測候補リストにおいて前記履歴ベースの動き情報予測候補に先行するランクで配置して読み込むこと、によって、予測により、確立し、
前記所定のインター予測ブロックについて、前記動き情報予測候補リストを、ランク順序で、指し示すポインタを導出し、
所定のインター予測ブロックの動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リストの中からの選択を行う、ように構成された、ブロックベースの映像復号器。 - 前記履歴ベースの時間的動き情報予測候補リストを、前記履歴ベースの時間的動き情報予測候補リストに、前記所定のインター予測ブロックに先行する前のブロックを予測するために最も新しく使用された、最も新しく使用された動き情報を挿入することによって管理する、ように構成された、請求項62に記載のブロックベースの映像復号器。
- 前記データストリームから動き情報予測残差を復号し、
前記動き情報予測および前記動き情報予測残差に基づいて前記所定のインター予測ブロックについての前記動き情報を決定する、ように構成された、請求項62または63に記載のブロックベースの映像復号器。 - 動き補償双方向予測をサポートし、前記動き補償双方向予測を改善するための双方向オプティカルフローツールを含むブロックベースの映像復号器であって、
前記ブロックベースの映像復号器が、
前記双方向オプティカルフローツールを、前記所定のインター予測ブロックについてデータストリームでシグナリングされた第1および第2の動きベクトルに従って前記所定のインター予測ブロックに対して変位されている、動き補償双方向予測の対象となる現在の画像(12a)の所定のインター予測ブロックの第1および第2のパッチ(1301、1302)の少なくとも一方が、前記所定のインター予測ブロックが含まれる前記現在の画像のタイルの境界を横切るか否かに依存して非アクティブ化するか、または
前記所定のインター予測ブロックが含まれる現在の画像のタイルの境界を越えている部分である、前記所定のインター予測ブロックについて前記データストリームでシグナリングされた第1および第2の動きベクトルに従って前記所定のインター予測ブロックに対して変位されている、前記動き補償双方向予測の対象となる前記現在の画像の所定のインター予測ブロックの第1および第2のパッチの部分を埋めるように境界パディングを使用する、ように構成される、ブロックベースの映像復号器。 - 前記第1および第2の動きベクトルの各々について、
前記データストリームにおける前記それぞれの動きベクトルのシグナリング状態が、前記それぞれのパッチ(130b)が、前記所定のインター予測ブロック(104)が含まれるタイル(100a)を、前記双方向オプティカルフローツールと関連付けられた所定のサンプル幅(n)を上回るほど越えることにつながるか否かをチェックし、そうである場合に、前記それぞれの動きベクトルを、前記シグナリング状態から、前記それぞれのパッチ(130b’)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内になるか、または前記双方向オプティカルフローツールと関連付けられた前記所定のサンプル幅(n)を超えないよう導くリダイレクト状態にリダイレクトする(142)、ように構成された、請求項65に記載のブロックベースの映像復号器。 - 前記第1および第2の動きベクトルの各々について、
それぞれの動き情報(150)を取得するために前記所定のインター予測ブロック(104)についての前記それぞれの動きベクトルを予測し、
前記データストリーム(14)からそれぞれの動きベクトル予測残差(152)を復号し、
前記それぞれのパッチが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)を越えないように、または前記双方向オプティカルフローツールと関連付けられた所定のサンプル幅(n)を越えないように、前記それぞれの動きベクトルに対する制約を順守して、前記それぞれの動きベクトル予測(150)および前記それぞれの動きベクトル予測残差(152)に基づいて前記所定のインター予測ブロック(104)の前記それぞれの動きベクトルを決定する、ように構成された、請求項65または66に記載のブロックベースの映像復号器。 - 前記第1および第2の動きベクトルの各々について、
それぞれの動きベクトルを使用して前記所定のインター予測ブロックのそれぞれの暫定的予測子(4021、4022)を、
前記動きベクトルが、非ゼロであるサブ画素部分を有する場合に、前記それぞれのパッチが、フィルタカーネルの幅およびnサンプル幅の拡張によって前記所定のインター予測ブロックと比較して拡大されるような前記フィルタカーネルと前記それぞれのパッチとの畳み込みによって、および
前記動きベクトルが、ゼロであるサブ画素部分を有する場合に、前記パッチが前記nサンプル幅の拡張によって前記所定のインター予測ブロックと比較して拡大されるように、前記所定のインター予測ブロックの各サンプルを前記パッチの1つの対応するサンプル(164)に設定することによって取得し、
双方向オプティカルフローツールからなる双方向予測が、前記暫定的予測子上の輝度勾配を局所的に決定し、前記輝度勾配を組み合わせて(436)、前記輝度勾配に従って局所的に変化する方法で前記インター予測ブロックの予測子(438)を導出することによって、前記所定のインター予測ブロックを双方向予測する、ように構成される、請求項65から67のいずれか一項に記載のブロックベースの映像復号器。 - 前記動き情報予測候補リストに、1つまたは複数の動き情報予測候補(192)を読み込み、
さらなる動き情報予測候補(504)のリザーバ(502)の中から、前記さらなる動き情報予測候補の各々の前記1つまたは複数の動き情報予測候補との相違に依存して、所定の動き情報予測候補を選択し、
前記動き情報予測候補リストに、前記所定の動き情報予測候補を読み込むこと、によって、現在の画像の所定のインター予測ブロックの動き情報予測候補リストを確立し、
前記選択が、前記動き情報予測候補リスト内の動き情報予測候補相互の相違が、前記さらなる動き情報予測候補間で等しい選択確率を使用して前記選択を行うことと比較して増加するように前記相違に依存し、
所定のインター予測ブロックについて、前記動き情報予測候補リストを指し示すポインタを導出し、
所定のインター予測ブロックの動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リストの中からの選択を行う、ように構成された、ブロックベースの映像復号器。 - さらなる動き情報予測候補(504)の前記リザーバ(502)が、履歴ベースの時間的動き情報予測候補リストであり、前記ブロックベースの映像復号器が、
前記履歴ベースの時間的動き情報予測候補リストを、前記履歴ベースの時間的動き情報予測候補リストに、前のインター予測ブロックを予測するために最も新しく使用された、最も新しく使用された動き情報を挿入することによって管理する、ように構成される、請求項69に記載のブロックベースの映像復号器。 - 映像(11)をデータストリーム(14)に符号化し、動き補償予測をサポートするためのブロックベースの映像符号器であって、
所定のインター予測ブロック(104)がそこから予測されることになる、パッチ(130)を参照画像(12b)に配置する、映像(11)の現在の画像(12a)の前記所定のインター予測ブロック(104)についての動き情報を、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の境界(102)内にあり、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の境界(102)を横切らないような方法で決定し、
前記参照画像(12b)の前記パッチ(130)から前記動き情報を使用して前記所定のインター予測ブロック(104)を予測し、
前記動き情報を前記データストリーム(14)に、前記動き情報の前記データストリーム(14)への信号化が、前記映像(11)が空間的に分割される、タイル(100)間の境界(102)の位置に依存して行われることになるように符号化する、ように構成された、ブロックベースの映像符号器。 - 前記動き情報を前記データストリーム(14)に符号化する際に、
動き情報予測(150)を取得するために前記所定のインター予測ブロック(104)についての前記動き情報を予測し、
前記データストリーム(14)に動き情報予測残差(152)を符号化し、
前記動き情報予測(150)および前記動き情報予測残差(152)が、前記動き情報予測と前記動き情報予測残差(152)のすべての可能な組合せを、前記パッチ(130)が前記それぞれの可能な動き情報を使用して配置された場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の境界(102)を越えないように、それぞれの可能な動き情報に排他的にマップし、前記動き情報予測(150)が等しく、前記動き情報予測残差(152)が異なる、前記動き情報予測と前記動き情報予測残差(152)の複数の可能な組合せを、1つの可能な動き情報にマップする不可逆的マッピングによって、前記所定のインター予測ブロック(104)についての前記動き情報にマップされるようにする、ように構成された、請求項71に記載のブロックベースの映像符号器。 - 前記動き情報予測残差(152)を前記データストリーム(14)に符号化する際に、
前記不可逆的マッピングが、ゼロである前記動き情報予測残差(152)と組み合わされた前記動き情報予測(150)および所定の非ゼロの値である前記動き情報予測残差(152)と組み合わされた前記動き情報予測(150)を、前記所定のインター予測ブロック(104)の前記動き情報にマップする場合に、前記動き情報予測残差(152)をゼロであるものとして符号化する、ように構成された、請求項72に記載のブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)を、前記動き情報を使用して、前記所定のインター予測ブロック(104)のサンプル(162)の各々を、前記パッチ(130)のそれぞれの部分内のサンプル(164)の数学的組合せによって予測することによって、および/または前記動き情報から、前記所定のインター予測ブロック(104)の2つの異なる隅について定義された2つの動きベクトル(306a、306b)を導出し、前記所定のインター予測ブロック(104)が分割されるサブブロックの各々について、前記参照画像(12b)内のそれぞれのサブブロックパッチを配置するサブブロック動きベクトル(304)を計算することによって予測し、すべてのサブブロックの前記サブブロックパッチが前記所定のインター予測ブロックの前記パッチを形成し、
前記不可逆的マッピングが、前記動き情報予測(150)と前記動き情報予測残差(152)のすべての可能な組合せを前記それぞれの可能な動き情報に排他的にマッピングし、前記パッチ(130)が前記それぞれの可能な動き情報を使用して配置された場合に、前記所定のインター予測ブロック(104)のすべてのサンプル(162)の前記部分のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100)の前記境界(102)内にあるように、構成された、請求項72または73に記載のブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)を、前記動き情報を使用して、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)と比較して拡張エッジ部分だけ拡大されるように、前記パッチのそれぞれの部分内のサンプル(164)の加重和によって、
前記動き情報が前記動き情報の前記値ドメインの第2のサブセット内に入る場合に、前記パッチ(130)が前記所定のインター予測ブロック(104)と同じ幅になるように、前記パッチを、前記パッチの1つの対応するサンプルと等しく設定することによって、
前記所定のインター予測ブロック(104)のサンプル(162)の各々を予測することによって予測する、ように構成され、
前記不可逆的マッピングが、前記動き情報予測(150)と前記動き情報予測残差(152)のすべての可能な組合せを、前記パッチ(130)が前記それぞれの可能な動き情報を使用して配置された場合に、前記パッチ(130)のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあるように、前記それぞれの可能な動き情報が前記動き情報の前記値ドメインの前記第2のサブセット内に入る場合に、前記制約により、前記パッチ(130)が、前記拡張エッジ部分の幅よりも、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)に近づくことが可能になるように、それぞれの可能な動き情報に排他的にマップする、請求項72に記載のブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)を、前記動き情報を使用して、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)と比較して拡張エッジ部分だけ拡大されるように、前記パッチのそれぞれの部分内のサンプル(164)の加重和によって、
前記動き情報が前記動き情報の前記値ドメインの第2のサブセット内に入る場合に、前記パッチ(130)が前記所定のインター予測ブロック(104)と同じ幅になるように、前記パッチを、前記パッチの1つの対応するサンプルと等しく設定することによって、
前記所定のインター予測ブロック(104)のサンプル(162)の各々を予測することによって予測する、ように構成され、
前記不可逆的マッピングが、前記動き情報予測(150)と前記動き情報予測残差(152)のすべての可能な組合せを、前記パッチ(130)が前記それぞれの可能な動き情報を使用して配置された場合に、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチ(130)のすべてのサンプル(164)が前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあり、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチ(130)のすべてのサンプル(164)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)から、少なくとも前記拡張エッジ部分を収容する距離だけ距離を置かれる、ようにそれぞれの可能な動き情報に排他的にマップする、請求項72に記載のブロックベースの映像符号器。 - 前記動き情報が、前記パッチ(130)と前記所定のインター予測ブロック(104)との間の並進変位を指示する動きベクトルを含み、前記ブロックベースの映像符号器が、
動きベクトル予測を取得するために前記所定のインター予測ブロック(104)についての前記動きベクトルを予測し、
動きベクトル予測残差を前記データストリーム(14)に符号化する、ように構成され、
前記動きベクトル予測および前記動きベクトル予測残差が、前記動きベクトル予測と前記動きベクトル予測残差のすべての可能な組合せを、前記パッチ(130)がそれぞれの可能な動きベクトルを使用して配置された場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)を越えないように、前記それぞれの可能な動きベクトルに排他的にマップし、前記動きベクトル予測が等しく、前記動きベクトル予測残差が異なる、前記動きベクトル予測と前記動きベクトル予測残差の複数の可能な組合せを、1つの可能な動きベクトルにマップする、前記動きベクトル予測および前記動きベクトル予測残差から前記動きベクトルへの不可逆的マッピングによって、前記所定のインター予測ブロック(104)の前記動きベクトルにマップされる、請求項71に記載のブロックベースの映像符号器。 - 前記動きベクトル予測残差を前記データストリーム(14)に符号化する際に、
前記不可逆的マッピングが、ゼロである前記動きベクトル予測残差と組み合わされた前記動きベクトル予測および所定の非ゼロの値である前記動きベクトル予測残差と組み合わされた前記動きベクトル予測を、前記所定のインター予測ブロック(104)の前記動きベクトルにマップする場合に、前記動きベクトル予測残差をゼロであるものとして符号化する、ように構成された、請求項77に記載のブロックベースの映像符号器。 - 前記動き情報が、前記パッチ(130)と前記所定のインター予測ブロック(104)との間の並進変位を指示する動きベクトルを含み、前記ブロックベースの映像符号器が、
動きベクトル予測を取得するために前記所定のインター予測ブロック(104)についての前記動きベクトルを予測し、
動きベクトル予測残差を前記データストリーム(14)に符号化し、
前記所定のインター予測ブロック(104)を、前記動きベクトルを使用して、
前記動きベクトルが、非ゼロであるサブ画素部分を有する場合に、前記パッチ(130)が、フィルタカーネルの幅により前記所定のインター予測ブロックと比較して拡大されるような前記フィルタカーネルと前記パッチ(130)との畳み込みによって、および
前記動きベクトルが、ゼロであるサブ画素部分を有する場合に、前記パッチ(130)が前記所定のインター予測ブロック(104)と同じ幅になるように、前記所定のインター予測ブロック(104)の各サンプルを前記パッチ(130)の1つの対応するサンプルに設定することによって、前記所定のインター予測ブロック(104)のサンプル(162)予測することによって予測する、ように構成され、
前記動きベクトル予測および前記動きベクトル予測残差が、前記動きベクトル予測と前記動きベクトル予測残差のすべての可能な組合せを、前記パッチ(130)がそれぞれの可能な動きベクトルを使用して配置された場合に、前記パッチ(130)のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあることになるように、前記それぞれの可能な動きベクトルに排他的にマップし、前記動きベクトル予測残差が異なる、前記動きベクトル予測と前記動きベクトル予測残差の複数の可能な組合せを、1つの可能な動きベクトルにマップする、前記動きベクトル予測および前記動きベクトル予測残差から前記動きベクトルへの不可逆的マッピングによって、前記所定のインター予測ブロック(104)の前記動きベクトルにマップされる、請求項71に記載のブロックベースの映像符号器。 - 前記動きベクトル予測および前記動きベクトル予測残差から前記動きベクトルへの前記不可逆的マッピングが、前記パッチ(130)が前記それぞれの可能な動きベクトルを使用して配置された場合に、前記パッチ(130)のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあることになる限り、前記それぞれの可能な動きベクトルが前記動きベクトル予測と前記動きベクトル予測残差の合計であるように、前記動きベクトル予測と前記動きベクトル予測残差の前記可能な組合せを前記それぞれの可能な動きベクトルにマップし、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)から、前記動きベクトル予測と前記動きベクトル予測残差の前記合計に従って前記所定のインター予測ブロック(104)に対して変位された、前記パッチ(130)が前記フィルタカーネルの幅により前記所定のインター予測ブロック(104)と比較して拡大される拡大範囲を下回る、前記動きベクトル予測と前記動きベクトル予測残差の前記合計が前記所定のインター予測ブロック(104)のフットプリントの距離になる前記動きベクトル予測と前記動きベクトル予測残差の可能な組合せを、ゼロに設定されたサブ画素部分のそれぞれの動きベクトルにマップする、ように構成された、請求項79に記載のブロックベースの映像符号器。
- 前記フットプリント(160)の前記距離(171)が前記拡大範囲を下回らない場合に、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの前記サブ画素部分を変更せずに残す、ように構成された、請求項80に記載のブロックベースの映像符号器。
- 前記動きベクトル予測および前記動きベクトル予測残差から前記動きベクトルへの前記不可逆的マッピングが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)から前記動きベクトル予測と前記動きベクトル予測残差の前記合計に従って前記所定のインター予測ブロック(104)に対して変位された、前記パッチ(130)が前記フィルタカーネルの幅により前記所定のインター予測ブロック(104)と比較して拡大される拡大範囲を下回る、前記動きベクトル予測と前記動きベクトル予測残差の前記合計が前記所定のインター予測ブロック(104)のフットプリント(160)の距離(171)になる前記動きベクトル予測と前記動きベクトル予測残差の前記可能な組合せを、そのサブ画素部分がゼロに設定され、そのフル画素部分が前記合計の前記フル画素部分と等しいそれぞれの動きベクトルにマップする、ように構成された、請求項80に記載のブロックベースの映像符号器。
- 前記動きベクトル予測および前記動きベクトル予測残差から前記動きベクトルへの前記不可逆的マッピングが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)から前記動きベクトル予測と前記動きベクトル予測残差の前記合計に従って前記所定のインター予測ブロック(104)に対して変位された、前記パッチ(130)が前記フィルタカーネルの幅により前記所定のインター予測ブロック(104)と比較して拡大される拡大範囲を下回る、前記動きベクトル予測と前記動きベクトル予測残差の前記合計が前記所定のインター予測ブロック(104)のフットプリント(160)の距離(171)になる前記動きベクトル予測と前記動きベクトル予測残差の前記可能な組合せを、そのサブ画素部分がゼロに設定され、その全部分が、前記それぞれの動きベクトルが、前記合計に最も近い、最も近いフル画素動きベクトルに丸められた前記合計に対応するような方法で設定されたそれぞれの動きベクトルにマップする、ように構成された、請求項80から82のいずれか一項に記載のブロックベースの映像符号器。
- 前記動きベクトル予測および前記動きベクトル予測残差から前記動きベクトルへの前記不可逆的マッピングが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)から前記動きベクトル予測と前記動きベクトル予測残差の前記合計に従って前記所定のインター予測ブロック(104)に対して変位された、前記パッチ(130)が前記フィルタカーネルの幅により前記所定のインター予測ブロック(104)と比較して拡大される拡大範囲を下回る、前記動きベクトル予測と前記動きベクトル予測残差の前記合計が前記所定のインター予測ブロック(104)のフットプリント(160)の距離(171)になる前記動きベクトル予測と前記動きベクトル予測残差の前記可能な組合せを、そのサブ画素部分がゼロに設定され、その全部分が、前記それぞれの動きベクトルが、前記合計に最も近く、前記合計よりも小さい、最も近いフル画素動きベクトルに丸められた前記合計に対応するような方法で設定されたそれぞれの動きベクトルにマップする、ように構成された、請求項80から82のいずれか一項に記載のブロックベースの映像符号器。
- 前記動き情報が動き情報予測候補(192c)に等しくなるように設定された場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の境界(102)を越えないように、前記動き情報予測候補(192c)について、前記動き情報予測候補に対する制約を順守して、予測により、前記所定のインター予測ブロック(104)の前記動き情報予測候補(192c)をシグナリングし、
前記データストリーム(14)に動き情報予測残差(152)を符号化し、
前記所定のインター予測ブロック(104)についての前記動き情報が、前記動き情報予測残差(152)を使用して前記動き情報予測候補を補正することによってシグナリングされ得る、ように構成された、請求項71から84のいずれか一項に記載のブロックベースの映像符号器。 - 前記動き情報が動き情報予測候補に等しくなるように設定された場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の境界(102)を越えないように、前記動き情報予測候補(192c)をシグナリングする際に、前記パッチ(130)がそれぞれのマップされた動き情報候補を使用して配置された場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の境界(102)を越えないように、前記それぞれのマップされた動き情報候補に排他的にマップし、暫定的動き情報予測候補の異なる設定を、前記それぞれのマップされた動き情報候補についての1つの可能な設定にマップする、前記暫定的動き情報予測候補(192c’)を前記動き情報予測候補(192c)にマップするための不可逆的マッピングを使用して、前記動き情報予測候補(192c)に対する前記制約を順守する、ように構成された、請求項85に記載のブロックベースの映像符号器。
- 予測により、前記動き情報予測候補(192)を含む前記所定のインター予測ブロック(104)の動き情報予測候補リスト(190)を確立する、ように構成された、請求項85または86に記載のブロックベースの映像符号器。
- 前記動き情報が前記それぞれの動き情報予測候補に等しくなるように設定された場合、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の境界(102)を越えないように、前記それぞれの動き情報予測候補について、前記動き情報予測候補に対する制約を順守して予測により、前記動き情報予測候補リスト(190)の各動き情報予測候補(192)をシグナリングする、ように構成された、請求項87に記載のブロックベースの映像符号器。
- 前記所定のインター予測ブロック(104)の前記データストリーム(14)に、前記所定のインター予測ブロック(104)がそれを使用して予測される前記動き情報がそれに基づいて決定される前記動き情報予測候補(192)を指し示す、前記動き情報予測候補リスト(190)へのポインタ(193)を挿入する、ように構成された、請求項87または88に記載のブロックベースの映像符号器。
- 前記所定のインター予測ブロック(104)を、前記動き情報を使用して、前記所定のインター予測ブロック(104)のサンプルの各々を、前記パッチ(130)のそれぞれの部分内のサンプル(164)の数学的組合せによって予測することによって、および/または前記動き情報から、前記所定のインター予測ブロック(104)の2つの異なる隅について定義された2つの動きベクトル(306a、306b)を導出し、前記所定のインター予測ブロック(104)が分割されるサブブロックの各々について、前記参照画像(12b)内のそれぞれのサブブロックパッチを配置するサブブロック動きベクトル(304)を計算することによって予測し、すべてのサブブロックの前記サブブロックパッチが前記所定のインター予測ブロックの前記パッチを形成し、
前記動き情報が動き情報予測候補に等しくなるように設定された場合に、前記所定のインター予測ブロック(104)のすべてのサンプルの前記パッチ(130)の前記部分のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあることになるように、前記動き情報予測候補に対する前記制約が選択される、ように構成された、請求項85から89のいずれか一項に記載のブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)を、前記動き情報を使用して、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)と比較して拡張エッジ部分だけ拡大されるように、前記パッチ(130)のそれぞれの部分内のサンプル(164)の加重和によって、
前記動き情報が前記動き情報の前記値ドメインの第2のサブセット内に入る場合に、前記パッチ(130)が前記所定のインター予測ブロック(104)と同じ幅になるように、前記パッチ(130)を、前記パッチの1つの対応するサンプルと等しく設定することによって、前記所定のインター予測ブロック(104)のサンプルの各々を予測することによって予測し、
前記動き情報が前記動き情報予測候補に等しくなるように設定された場合に、前記パッチ(130)のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあることになり、前記動き情報が前記動き情報の前記値ドメインの前記第2のサブセット内に入る場合に、前記制約により、前記パッチ(130)が、前記拡張エッジ部分の幅よりも、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)に近づくことが可能になるように、前記動き情報予測候補に対する前記制約が選択される、ように構成された、請求項85から89のいずれか一項に記載のブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)を、前記動き情報を使用して、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)と比較して拡張エッジ部分だけ拡大されるように、前記パッチ(130)のそれぞれの部分内のサンプル(164)の加重和によって、
前記動き情報が前記動き情報の前記値ドメインの第2のサブセット内に入る場合に、前記パッチ(130)が前記所定のインター予測ブロック(104)と同じ幅になるように、前記パッチ(130)を、前記パッチの1つの対応するサンプルと等しく設定することによって、前記所定のインター予測ブロック(104)のサンプルの各々を予測することによって予測し、
前記動き情報が動き情報予測候補に等しくなるように設定された場合に、前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチ(130)のすべてのサンプルが前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあることになり、
前記動き情報が前記動き情報の値ドメインの第1のサブセット内に入る場合に、前記パッチ(130)のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)から、少なくとも前記拡張エッジ部分を収容する距離だけ距離を置かれることになるように、前記動き情報予測候補に対する前記制約が選択される、ように構成された、請求項85から89のいずれか一項に記載のブロックベースの映像符号器。 - 前記動き情報が、前記パッチ(130)と前記所定のインター予測ブロック(104)との間の並進変位を指示する動きベクトルを含み、
前記ブロックベースの映像符号器が、前記所定のインター予測ブロック(104)を、前記動きベクトルを使用して、
前記動きベクトルが、非ゼロであるサブ画素部分を有する場合に、前記パッチ(130)が、フィルタカーネルの幅により前記所定のインター予測ブロック(104)と比較して拡大されるような前記フィルタカーネルと前記パッチ(130)との畳み込みによって、および
前記動きベクトルが、ゼロであるサブ画素部分を有する場合に、前記パッチ(130)が前記所定のインター予測ブロック(104)と同じ幅になるように、前記所定のインター予測ブロック(104)の各サンプルを前記パッチ(130)の1つの対応するサンプルに設定することによって、前記所定のインター予測ブロック(104)のサンプル予測することによって予測し、
前記動きベクトルが動きベクトル予測候補に等しくなるように設定された場合に、前記パッチ(130)のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあることになるように、前記所定のインター予測ブロック(104)の前記動きベクトル予測候補の前記信号化を行う、ように構成される、請求項85から89のいずれか一項に記載のブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)の前記動きベクトル予測候補の前記信号化を、
予測により、前記所定のインター予測ブロック(104)の前記動きベクトル予測候補の暫定バージョンをシグナリングし、
前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)から前記動きベクトル予測候補の前記暫定バージョンに従って前記所定のインター予測ブロック(104)に対して変位された、前記所定のインター予測ブロック(104)のフットプリント(160)の距離(171)が、前記パッチ(130)が前記フィルタカーネルの幅により前記所定のインター予測ブロック(104)と比較して拡大される拡大範囲を下回るか否かをチェックし、
前記フットプリントの前記距離(171)が前記拡大範囲を下回る場合に、前記動きベクトル予測候補を取得するために前記動きベクトル予測候補の前記暫定バージョンの前記サブ画素部分をゼロに設定すること、によって行う、ように構成された、請求項85から89のいずれか一項に記載のブロックベースの映像符号器。 - 前記フットプリント(160)の前記距離(171)が前記拡大範囲を下回る場合に、前記動きベクトル予測候補を取得するために前記動きベクトル予測候補の前記暫定バージョンの前記サブ画素部分を変更されないままにしておく、ように構成された、請求項94に記載のブロックベースの映像符号器。
- 前記動きベクトル予測候補の前記暫定バージョンの前記サブ画素部分をゼロに設定するとき、前記動きベクトル予測候補を取得するために前記動きベクトル予測候補の前記暫定バージョンの全部分を、前記サブ画素部分の前記ゼロ設定および前記フル画素部分の適応により、前記動きベクトル予測候補の前記暫定バージョンを最も近いフル画素動きベクトル予測候補に丸めることになり、結果として前記パッチ(130)のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあり、前記サブ画素部分のゼロ設定および前記フル画素部分の前記適応の前の前記動きベクトル予測候補の前記暫定バージョンに最も近くなるような方法で適応させる、ように構成された、請求項94または95に記載のブロックベースの映像符号器。
- 前記動きベクトル予測候補の前記暫定バージョンの前記サブ画素部分をゼロに設定するとき、前記動きベクトル予測候補を取得するために前記動きベクトル予測候補の前記暫定バージョンの全部分を、前記サブ画素部分の前記ゼロ設定および前記フル画素部分の適応により、前記動きベクトル予測候補の前記暫定バージョンを最も近いフル画素動きベクトル予想候補に丸めることになり、結果として前記パッチ(130)のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内にあり、前記サブ画素部分のゼロ設定および前記フル画素部分のクリッピングの前の前記動きベクトル予測候補の前記暫定バージョンに最も近く、前記動きベクトル予測候補の前記暫定バージョンよりも小さくなるような方法でクリップする、ように構成された、請求項94または95に記載のブロックベースの映像符号器。
- 複数の(200)動き情報予測候補のうちの少なくとも1つの動き情報予測候補を、
前記動き情報が前記少なくとも1つの動き情報予測候補に等しくなるように設定された場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)を越えることになるか否かをチェックし、
そうである場合に、前記動き情報予測候補リスト(190)に前記少なくとも1つの動き情報予測候補を読み込まず、
そうでない場合に、前記動き情報予測候補リスト(190)に前記少なくとも1つの動き情報予測候補を読み込む、
ことによって前記動き情報予測候補リスト(190)に選択的に読み込むことで、予測により、前記所定のインター予測ブロック(104)の動き情報予測候補リスト(190)を確立する、ように構成された、請求項71から97のいずれか一項に記載のブロックベースの映像符号器。 - 前記動き情報が前記少なくとも1つの動き情報予測候補に等しくなるように設定された場合には、前記パッチ(103)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)を越えることにならず、前記少なくとも1つの動き情報予測候補が、その他方の部分が別の参照画像に関連する双方向予測動き情報の一部であり、前記動き情報が前記他方の部分と等しくなるように設定された場合には、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれる前記タイルの前記境界(102)を越えることになる場合に、前記少なくとも1つの動き情報予測候補を、動き情報予測候補の暫定的動き情報リストに入力し、前記少なくとも1つの動き情報予測候補を使用して前記動き情報予測候補リスト(190)に、動き情報予測候補の前記暫定的動き情報リスト内のエントリの対、またはさらなる動き情報予測候補の可用性を欠く場合には前記暫定的動き情報リスト内の1つのエントリとデフォルトの動き情報との組合せを読み込む、ように構成された、請求項98に記載のブロックベースの映像符号器。
- 動き情報予測(150)を取得するために前記動き情報予測候補リスト(190)の中からの選択を行い、
前記データストリーム(14)に動き情報予測残差(152)を符号化し、
前記動き情報予測(150)および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロック(104)についての前記動き情報を決定する、ように構成された、請求項98または99に記載のブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)について、前記動き情報予測候補リスト(190)へのポインタ(193)をシグナリングし、
前記ポインタ(193)を前記選択に使用する、ように構成された、請求項100に記載のブロックベースの映像符号器。 - 複数の(200)動き情報予測候補のうちの少なくとも1つの動き情報予測候補(192)を、
前記現在の画像(12a)内の前記所定のインター予測ブロック(104)が、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の所定の側に隣接するか否かをチェックし、
そうである場合に、前記参照画像(12b)またはさらなる参照画像(12b’)のブロックの中から第1のブロック(212)を識別し、前記動き情報予測候補リスト(190)に、前記第1のブロック(212)がそれを使用して予測された参照動き情報を読み込み、
そうでない場合に、前記参照画像(12b)または前記さらなる参照画像(12b’)のブロックの中から第2のブロック(206)を識別し、前記動き情報予測候補リスト(190)に、前記第2のブロック(206)がそれを使用して予測された参照動き情報を読み込む、
ことによって前記動き情報予測候補リスト(190)に選択的に読み込むことで、予測により、前記所定のインター予測ブロック(104)の動き情報予測候補リスト(190)を確立する、ように構成された、請求項71から101のいずれか一項に記載のブロックベースの映像符号器。 - 前記参照画像(12b)またはさらなる参照画像(12b’)内の前記第1のブロック(212)を、前記所定のインター予測ブロック(104)に対して第1の所定の位置関係を有する、前記現在の画像(12a)内の第1の位置合わせ位置(208)に併置された、第1の所定の位置(210)を含む前記参照画像(12b)またはさらなる参照画像(12b’)のブロックのうちの1つとして識別し、
前記第1の位置合わせ位置(208)が前記所定のインター予測ブロック(104)の内側にある、ように構成された、請求項102に記載のブロックベースの映像符号器。 - 前記第1の位置合わせ位置(208)が、前記所定のインター予測ブロック(104)の中心にある前記現在の画像(12a)内のサンプル位置である、ように構成された、請求項103に記載のブロックベースの映像符号器。
- 前記第2のブロック(206)を、前記所定のインター予測ブロック(104)に対して第2の所定の位置関係を有する、前記現在の画像(12a)内の第2の位置合わせ位置(204)に併置された、第2の所定の位置(204’)を含む前記参照画像(12b)またはさらなる参照画像(12b’)の前記ブロックのうちの1つとして識別し、
前記第2の位置合わせ位置(204)が、前記所定のインター予測ブロック(104)の外側に、前記所定の側に垂直な方向に沿って所定のインター予測ブロック(104)に対してオフセットされてある、ように構成された、請求項102から104のいずれか一項に記載のブロックベースの映像符号器。 - 前記第2の位置合わせ位置(204)が、前記所定のインター予測ブロック(104)の外側に、前記所定の側に隣接する前記所定のインター予測ブロック(104)の隅のサンプルの対角線上の近傍にある前記現在の画像(12a)内のサンプル位置である、ように構成された、請求項105に記載のブロックベースの映像符号器。
- 動き情報予測(150)を取得するために前記動き情報予測候補リスト(190)の中からの選択を行い、
前記データストリーム(14)に動き情報予測残差(152)を符号化し、
前記動き情報予測(150)および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロック(104)についての前記動き情報を決定する、ように構成された、請求項102から106のいずれか一項に記載のブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)について、前記動き情報予測候補リスト(190)へのポインタ(193)をシグナリングし、
前記ポインタ(193)を前記選択に使用する、ように構成された、請求項99に記載のブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)に空間的に位置合わせされた、前記参照画像(12b)またはさらなる参照画像(12b’)内の位置合わせされたブロック(206;212)を識別し、
前記所定のインター予測ブロック(104)の空間的に近傍の、前記現在の画像(12a)内の空間的に近傍のブロック(220)を識別し、
前記現在の画像(12a)内の前記所定のインター予測ブロック(104)が、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の所定の側に隣接するか否かをチェックし、
そうである場合に、動き情報予測候補リスト(190)に、前記現在の画像(12a)内の前記空間的に近傍のブロックがそれを使用して予測された第1の参照動き情報にシグナリングされた1つまたは複数の空間的動き情報予測候補(200b)と、前記位置合わせされたブロック(206;212)がそれを使用して予測された第2の参照動き情報にシグナリングされた時間的動き情報予測候補(200a)とを、前記1つまたは複数の空間的動き情報予測候補(200b)を前記動き情報予測候補リスト(190)において前記時間的動き情報予測候補に先行するランクで配置して読み込むことによって、予測により、前記所定のインター予測ブロック(104)の前記動き情報予測候補リスト(190)を確立し、
そうでない場合に、動き情報予測候補リスト(190)に、前記現在の画像(12a)内の前記空間的に近傍のブロック(220)がそれを使用して予測された第1の参照動き情報にシグナリングされた1つまたは複数の空間的動き情報予測候補(200b)と、前記位置合わせされたブロック(206;212)がそれを使用して予測された第2の参照動き情報にシグナリングされた時間的動き情報予測候補(200a)とを、前記1つまたは複数の空間的動き情報予測候補を前記動き情報予測候補リスト(190)において前記時間的動き情報予測候補の後に続くランクで配置して読み込むことによって、予測により、前記所定のインター予測ブロック(104)の前記動き情報予測候補リスト(190)を確立し、
前記所定のインター予測ブロック(104)について、前記動き情報予測候補リスト(190)を、ランク順序(195)で、指し示すポインタ(193)をシグナリングし、
動き情報予測(150)を取得するために前記ポインタ(193)を使用して前記動き情報予測候補リスト(190)の中からの選択を行う、ように構成された、請求項71から108のいずれか一項に記載のブロックベースの映像符号器。 - 前記現在の画像(12a)内の前記空間的に近傍のブロック(220)がそれを使用して予測された第1の参照動き情報にシグナリングされた前記1つまたは複数の空間的動き情報予測候補(200b)が、前記現在の画像(12a)内の前記空間的に近傍のブロック(200)のうちの1つがそれを使用して予測された前記第1の参照動き情報と等しい少なくとも1つと、前記現在の画像(12a)内の前記空間的に近傍のブロック(200)のうちの異なるものがそれを使用して予測された前記第1の参照動き情報の組合せと等しい少なくとも1つとを含む、請求項109に記載のブロックベースの映像符号器。
- 前記現在の画像(12a)内の前記所定のインター予測ブロック(104)が前記現在の画像(12a)の前記所定の側に隣接している場合に、前記参照画像(12b)またはさらなる参照画像(12b’)が分割されるブロックの中からの前記位置合わせされたブロックを、前記所定のインター予測ブロック(104)に対して第1の所定の位置関係を有する、前記現在の画像(12a)内の第1の位置合わせ位置(208)に併置された、第1の所定の位置(210)を含む前記ブロックのうちの1つとして識別し、前記第1の位置合わせ位置(208)が前記所定のインター予測ブロック(104)の内側にあり、
前記現在の画像(12a)内の前記所定のインター予測ブロック(104)が前記現在の画像(12a)の前記所定の側に隣接していない場合に、前記参照画像(12b)またはさらなる参照画像(12b’)が分割されるブロックの中からの前記位置合わせされたブロックを、前記所定のインター予測ブロックに対して第2の所定の位置関係を有する、前記現在の画像(12a)内の第2の位置合わせ位置(204)に併置された、前記参照画像内の第2の所定の位置(204’)を含む前記ブロックのうちの1つとして識別し、前記第2の位置合わせ位置が、前記所定のインター予測ブロック(104)の外側に、前記所定の側に垂直な方向に沿って所定のインター予測ブロック(104)に対してオフセットされてあるか否かをチェックする、ように構成された、請求項109または110に記載のブロックベースの映像符号器。 - 前記現在の画像(12a)内の前記所定のインター予測ブロック(104)が前記現在の画像(12a)の前記所定の側に隣接している場合に、
前記参照画像が分割されるブロックの中からの前記参照画像内の前記位置合わせされたブロックを、
前記所定のインター予測ブロック(104)に対して第2の所定の位置関係を有する、前記現在の画像(12a)内の第2の位置合わせ位置(204)に併置された、第2の所定の位置(204’)を含む前記参照画像(12b)またはさらなる参照画像(12b’)の前記ブロックのうちの第1の候補ブロックを識別し、前記第2の位置合わせ位置が、前記所定のインター予測ブロック(104)の外側に、前記所定の側に垂直な方向に沿って所定のインター予測ブロック(104)に対してオフセットされてあり、
第1の候補ブロックがインター予測符号化されるか否かをチェックし、
そうである場合に、前記第1の候補ブロックを前記位置合わせされたブロックに指定し、
そうでない場合に、前記参照画像(12b)またはさらなる参照画像(12b’)が分割される前記ブロックの中からの前記位置合わせされたブロックを、前記所定のインター予測ブロック(104)に対して第1の所定の位置関係を有する、前記現在の画像(12a)内の第1の位置合わせ位置(208)に併置された、前記参照画像内の第1の所定の位置(210)を含む前記ブロックのうちの1つとして識別し、前記第1の位置合わせ位置が前記所定のインター予測ブロック(104)の内側にあること、によって識別する、ように構成された、請求項109から111のいずれか一項に記載のブロックベースの映像符号器。 - 前記第1の位置合わせ位置が、前記所定のインター予測ブロック(104)の中心にある前記現在の画像(12a)内のサンプル位置である、請求項111または112に記載のブロックベースの映像符号器。
- 前記第2の位置合わせ位置が、前記所定のインター予測ブロック(104)の外側に、前記所定の側に隣接する前記所定のインター予測ブロック(104)の隅のサンプルの対角線上の近傍にある前記現在の画像(12a)内のサンプル位置である、請求項109から113のいずれか一項に記載のブロックベースの映像符号器。
- 前記データストリーム(14)に動き情報予測残差(152)を符号化し、
前記動き情報予測(150)および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロック(104)についての前記動き情報(154)を決定する、ように構成された、請求項109から114のいずれか一項に記載のブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)の時間的動き情報予測候補を、
前記所定のインター予測ブロック(104)の動きベクトル(240)を予測し、
クリップされた動きベクトル(248)を取得するために、前記予測された動きベクトル(240)を、前記所定のインター予測ブロック(104)から開始して、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の境界(102)内にとどまるようにクリップし、
前記所定のインター予測ブロック(104)の前記時間的動き情報予測候補を、前記クリップされた動きベクトル(248)が指し示す、前記参照画像(12b)またはさらなる参照画像(12b’)のブロック(248)がそれを使用して予測された参照動き情報にシグナリングする、によって、予測により、シグナリングする、ように構成された、請求項71から115のいずれか一項に記載のブロックベースの映像符号器。 - 前記データストリーム(14)に動き情報予測残差(152)を符号化し、
前記時間的動き情報予測候補(150)および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロック(104)についての前記動き情報(154)を決定する、ように構成された、請求項116に記載のブロックベースの映像符号器。 - 前記時間的動き情報予測候補および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロック(104)についての前記動き情報を決定する際に、前記所定のインター予測ブロック(104)の前記データストリーム(14)に、前記時間的動き情報予測候補および前記予測された動きベクトルを含むさらなる動き情報予測候補を含む動き情報予測候補リストへのポインタ(193)をシグナリングし、前記ポインタ(193)によって指し示される動き情報予測候補を、前記動き情報予測残差(152)の前記決定とともに使用して前記決定する、ように構成された、請求項116または117に記載のブロックベースの映像符号器。
- 前記所定のインター予測ブロック(104)の時間的動き情報予測候補を、
前記所定のインター予測ブロック(104)の第1および第2の予測された動きベクトル(240、260)をシグナリングし、
前記第1の予測された動きベクトルが、前記所定のインター予測ブロック(104)から開始して、前記所定のインター予測ブロック(104)が含まれるタイルの境界(102)内で終わるか否かをチェックし、
そうである場合に、前記第1の予測された動きベクトルが指し示す、前記参照画像(12b)またはさらなる参照画像(12b’)のブロック(242)がそれを使用して予測された参照動き情報に前記所定のインター予測ブロック(104)の前記時間的動き情報予測候補をシグナリングし、
そうでない場合に、前記第2の予測された動きベクトルが指し示す、前記参照画像(12b)またはさらなる参照画像(12b’)のさらなるブロック(262)がそれを使用して予測された参照動き情報に前記所定のインター予測ブロック(104)の前記時間的動き情報予測候補をシグナリングする、
ことによって、予測により、シグナリングする、ように構成された、請求項71から118のいずれか一項に記載のブロックベースの映像符号器。 - 前記データストリーム(14)に動き情報予測残差(152)を符号化し、
前記時間的動き情報予測候補および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロック(104)についての前記動き情報を決定する、ように構成された、請求項119に記載のブロックベースの映像符号器。 - 前記時間的動き情報予測候補および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロック(104)についての前記動き情報を決定する際に、前記所定のインター予測ブロック(104)の前記データストリーム(14)に、前記第1の予測された動きベクトルを含む第1の時間的動き情報予測候補、前記第2の予測された動きベクトルを含む第2の動き情報予測候補、および前記時間的動き情報予測候補を含む動き情報予測候補リストへのポインタ(193)をシグナリングし、前記ポインタ(193)によって指し示される動き情報予測候補を前記動き情報予測残差(152)と共に前記決定に使用する、ように構成された、請求項119または120に記載のブロックベースの映像符号器。
- 映像(11)の現在の画像(12a)の所定のインター予測ブロック(104)についての動き情報(306a、306b)を、前記映像(11)が符号化されるデータストリーム(14)に符号化し、
前記動き情報に、前記所定のインター予測ブロック(104)が分割されるサブブロック(300)のサブブロックごとの動きベクトル(304)であって、前記それぞれのサブブロックと、前記それぞれのサブブロックがそこから予測されることになる、参照画像(12b)内のパッチ(302)との間の並進変位を指示する前記動きベクトルをシグナリングし、
前記所定のインター予測ブロック(104)を、前記それぞれのサブブロックの前記動きベクトルを使用して各サブブロックを予測することによって予測する、ように構成された、動き補償予測をサポートするブロックベースの映像符号器であって、
前記ブロックベースの映像符号器が、前記信号化および/または前記予測を、前記映像(11)が空間的に分割されるタイル間の境界(102)の位置に依存して行う、ように構成される、ブロックベースの映像符号器。 - 前記所定のインター予測ブロック(104)を、前記それぞれのサブブロックの前記動きベクトルを使用して各サブブロックを予測することによって予測する際に、
前記動きベクトルが、非ゼロであるサブ画素部分を有する場合、前記パッチ(302)が、フィルタカーネルの幅により所定のサブブロックと比較して拡大されるような前記フィルタカーネルと前記パッチ(302)との畳み込みによって、および
前記動きベクトルが、ゼロであるサブ画素部分を有する場合に、前記パッチ(302)が前記所定のインター予測ブロックと同じ幅になるように、前記所定のサブブロックの各サンプルを前記パッチ(302)の1つの対応するサンプルに設定することによって
前記所定のサブブロックのサンプルを予測し、
前記所定のサブブロックに関する前記信号化を、
前記動き情報に基づいて前記所定のサブブロックの前記動きベクトルの暫定バージョンを計算し、
前記所定のインター予測ブロック(104)が含まれるタイルの前記境界(102)から、前記動きベクトルの前記暫定バージョンに従って前記所定のインター予測ブロック(104)に対して変位された、前記所定のサブブロックのフットプリント(160)の距離(171)が、前記パッチ(302)が前記フィルタカーネルの幅により前記所定のサブブロックと比較して拡大される拡大範囲を下回るか否かをチェックし、
前記フットプリント(160)の前記距離(171)が前記拡大範囲を下回る場合に、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの前記サブ画素部分をゼロに設定することによって行う、ように構成された、請求項122に記載のブロックベースの映像符号器。 - 前記フットプリント(160)の前記距離(171)が前記拡大範囲を下回らない場合に、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの前記サブ画素部分を変更されないままにしておく、ように構成された、請求項123に記載のブロックベースの映像符号器。
- 前記動きベクトルの前記暫定バージョンの前記サブ画素部分をゼロに設定するとき、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの全部分を、前記サブ画素部分の前記ゼロ設定および前記フル画素部分の適応により、前記動きベクトルの前記暫定バージョンを最も近いフル画素動きベクトルに丸めることになり、結果として前記パッチ(302)のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイルの前記境界(102)内にあり、前記サブ画素部分のゼロ設定および前記フル画素部分の前記適応の前の前記動きベクトルの前記暫定バージョンに最も近くなるような方法で適応させる、ように構成された、請求項123に記載のブロックベースの映像符号器。
- 前記動きベクトルの前記暫定バージョンの前記サブ画素部分をゼロに設定するとき、前記動きベクトルを取得するために前記動きベクトルの前記暫定バージョンの全部分を、前記サブ画素部分の前記ゼロ設定および前記フル画素部分の適応により、前記動きベクトルの前記暫定バージョンを最も近いフル画素動きベクトルに丸めることになり、結果として前記パッチ(302)のすべてのサンプルが、前記所定のインター予測ブロック(104)が含まれる前記タイルの前記境界(102)内にあり、前記サブ画素部分のゼロ設定および前記フル画素部分のクリッピングの前の前記動きベクトルの前記暫定バージョンに最も近く、前記動きベクトルの前記暫定バージョンよりも小さくなるような方法でクリップする、ように構成された、請求項123に記載のブロックベースの映像符号器。
- 前記所定のインター予測ブロック(104)を、前記それぞれのサブブロックの前記動きベクトルを使用して各サブブロックを予測することによって予測する際に、
所定のサブブロックが前記所定のサブブロックの前記動きベクトルを使用してそこから予測される前記パッチ(302)が、前記所定のインター予測ブロック(104)が含まれるタイルの境界(102)内にあるか否かをチェックし、
そうでない場合に、前記所定のサブブロックを空間的に予測し、
そうである場合に、前記所定のサブブロックを前記パッチ(302)から予測する、ように構成された、請求項123から126のいずれか一項に記載のブロックベースの映像符号器。 - 前記所定のサブブロックを空間的に予測する際に、1つまたは複数のサブブロックに対するその前記並進変位が、前記1つまたは複数のサブブロックの前記動きベクトルによって指示される前記パッチ(302)から予測された前記所定のインター予測ブロック(104)の1つまたは複数のサブブロックのサンプルも使用する、ように構成された、請求項127に記載のブロックベースの映像符号器。
- 前記動き情報が、前記所定のインター予測ブロック(104)の異なる隅における動き場を定義する第1の動きベクトル(306a)および第2の動きベクトル(306b)を含む、ように構成された、請求項122から129のいずれか一項に記載のブロックベースの映像符号器。
- 所定のインター予測ブロック(104)の動き情報予測候補リストを、
前記所定のインター予測ブロック(104)に空間的に位置合わせされた、参照画像(12b)内の位置合わせされたブロックを識別し、
前記所定のインター予測ブロック(104)の空間的に近傍の、前記現在の画像(12a)内の空間的に近傍のブロックを識別し、
前記動き情報予測候補リスト(190)に、前記現在の画像(12a)内の前記空間的に近傍のブロックがそれを使用して予測された第1の参照動き情報にシグナリングされた1つまたは複数の空間的動き情報予測候補と、前記参照画像(12b)内の前記位置合わせされたブロックがそれを使用して予測された第2の参照動き情報にシグナリングされた時間的動き情報予測候補とを、前記1つまたは複数の空間的動き情報予測候補を前記動き情報予測候補リスト(190)において前記時間的動き情報予測候補に先行するランクで配置して読み込むことによって、予測により確立し、
前記所定のインター予測ブロック(104)について、前記動き情報予測候補リストを、ランク順序で、指し示すポインタ(193)をシグナリングし、
所定のインター予測ブロック(104)の動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リスト(190)の中からの選択を行う、ように構成された、ブロックベースの映像符号器。 - 現在の画像(12a)の所定のインター予測ブロック(104)の動き情報予測候補リストを、
前記所定のインター予測ブロック(104)の空間的に近傍の、前記現在の画像(12a)内の空間的に近傍のブロックを識別し、
前記動き情報予測候補リスト(190)に、前記現在の画像(12a)内の前記空間的に近傍のブロックがそれを使用して予測された第1の参照動き情報にシグナリングされた1つまたは複数の空間的動き情報予測候補と、履歴ベースの時間的動き情報予測候補リストにシグナリングされた履歴ベースの動き情報予測候補とを、前記1つまたは複数の空間的動き情報予測候補を前記動き情報予測候補リスト(190)において前記履歴ベースの動き情報予測候補に先行するランクで配置して読み込むことによって、予測により確立し、
前記所定のインター予測ブロック(104)について、前記動き情報予測候補リスト(190)を、ランク順序で、指し示すポインタ(193)をシグナリングし、
所定のインター予測ブロック(104)の動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リスト(190)の中からの選択を行う、ように構成された、ブロックベースの映像符号器。 - 前記履歴ベースの時間的動き情報予測候補リストを、前記履歴ベースの時間的動き情報予測候補リストに、前記所定のインター予測ブロック(104)に先行する前のブロックを予測するために最も新しく使用された、最も新しく使用された動き情報を挿入することによって管理する、ように構成された、請求項131に記載のブロックベースの映像符号器。
- 前記データストリーム(14)に動き情報予測残差(152)を符号化し、
前記動き情報予測(150)および前記動き情報予測残差(152)に基づいて前記所定のインター予測ブロック(104)についての前記動き情報を決定する、ように構成された、請求項131または132に記載のブロックベースの映像符号器。 - 動き補償双方向予測をサポートし、前記動き補償双方向予測を改善するための双方向オプティカルフローツールを含むブロックベースの映像符号器であって、
前記ブロックベースの映像符号器が、
前記所定のインター予測ブロック(104)について前記データストリーム(14)でシグナリングされた第1および第2の動きベクトルに従って前記所定のインター予測ブロック(104)に対して変位されている、動き補償双方向予測の対象となる現在の画像(12a)の所定のインター予測ブロック(104)の第1および第2のパッチ(1301、1302)の少なくとも一方が、前記映像(11)が空間的に分割される、タイル間の境界(102)を横切るか否かに依存して前記双方向オプティカルフローツールを非アクティブ化するか、または
前記所定のインター予測ブロックが含まれる現在の画像のタイルの境界(102)を越えている部分である、前記所定のインター予測ブロック(104)について前記データストリーム(14)でシグナリングされた第1および第2の動きベクトルに従って前記所定のインター予測ブロック(104)に対して変位されている、前記動き補償双方向予測の対象となる前記現在の画像の所定のインター予測ブロック(104)の第1および第2のパッチの部分を埋めるように境界パディングを使用する、ように構成される、ブロックベースの映像符号器。 - 前記第1および第2の動きベクトルの各々について、
前記データストリームにおける前記それぞれの動きベクトルのシグナリング状態が、前記それぞれのパッチ(130b)が、前記所定のインター予測ブロック(104)が含まれるタイル(100a)を、前記双方向オプティカルフローツールと関連付けられた所定のサンプル幅(n)を上回るほど越えることにつながるか否かをチェックし、そうである場合、前記それぞれの動きベクトルを、前記シグナリング状態から、前記それぞれのパッチ(130b’)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の前記境界(102)内になるか、または前記双方向オプティカルフローツールと関連付けられた前記所定のサンプル幅(n)以下だけになることにつながるリダイレクト状態にリダイレクトする(142)、ように構成された、請求項134に記載のブロックベースの映像符号器。 - 前記第1および第2の動きベクトルの各々について、
それぞれの動き情報(150)を取得するために前記所定のインター予測ブロック(104)についての前記それぞれの動きベクトルを予測し、
それぞれの動きベクトル予測残差(152)を前記データストリーム(14)に符号化し、
前記動き情報予測(150)および前記動き情報予測残差(152)が、前記動き情報予測と前記動き情報予測残差(152)のすべての可能な組合せを、前記パッチ(130)が前記それぞれの可能な動き情報を使用して配置された場合に、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれる前記タイル(100a)の境界(102)を越えないように、または前記双方向オプティカルフローツールと関連付けられた所定のサンプル幅(n)以下だけ越えないようにそれぞれの可能な動き情報に排他的にマップし、前記動き情報予測(150)が等しく、前記動き情報予測残差(152)が異なる、前記動き情報予測と前記動き情報予測残差(152)の複数の可能な組合せを、1つの可能な動き情報にマップする不可逆的マッピングによって、前記所定のインター予測ブロック(104)についての前記動き情報にマップされる、ように構成された、請求項134または135に記載のブロックベースの映像符号器。 - 前記第1および第2の動きベクトルの各々について、
それぞれの動きベクトルを使用して前記所定のインター予測ブロックのそれぞれの暫定的予測子(4021、4022)を、
前記動きベクトルが、非ゼロであるサブ画素部分を有する場合に、前記それぞれのパッチが、フィルタカーネルの幅およびnサンプル幅の拡張によって前記所定のインター予測ブロックと比較して拡大されるような前記フィルタカーネルと前記それぞれのパッチとの畳み込みによって、および
前記動きベクトルが、ゼロであるサブ画素部分を有する場合に、前記パッチが前記nサンプル幅の拡張によって前記所定のインター予測ブロックと比較して拡大されるように、前記所定のインター予測ブロックの各サンプルを前記パッチの1つの対応するサンプル(164)に設定することによって取得し、
前記双方向予測が双方向オプティカルフローツールを含むことが、前記所定のインター予測ブロックを、
前記暫定的予測子上の輝度勾配を局所的に決定し、前記輝度勾配を組み合わせて(436)、前記輝度勾配に従って局所的に変化する方法で前記インター予測ブロックの予測子(438)を導出することによって双方向予測的に予測する、ように構成する、請求項134から136のいずれか一項に記載のブロックベースの映像符号器。 - 現在の画像の所定のインター予測ブロックの動き情報予測候補リストを、
前記動き情報予測候補リストに、1つまたは複数の動き情報予測候補(192)を読み込み、
さらなる動き情報予測候補(504)のリザーバ(502)の中から、前記さらなる動き情報予測候補の各々の前記1つまたは複数の動き情報予測候補との相違に依存して、所定の動き情報予測候補を選択し、
前記動き情報予測候補リストに、前記所定の動き情報予測候補を読み込むことによって確立し、
前記選択が、前記動き情報予測候補リスト内の動き情報予測候補相互の相違が、前記さらなる動き情報予測候補間で等しい選択確率を使用して前記選択を行うことと比較して増加するように前記相違に依存し、
所定のインター予測ブロックについて、前記動き情報予測候補リストを指し示すポインタを導出し、
所定のインター予測ブロックの動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リストの中からの選択を行う、ように構成された、ブロックベースの映像符号器。 - さらなる動き情報予測候補(504)の前記リザーバ(502)が、履歴ベースの時間的動き情報予測候補リストであり、前記ブロックベースの映像符号器が、
前記履歴ベースの時間的動き情報予測候補リストを、前記履歴ベースの時間的動き情報予測候補リストに、前のインター予測ブロックを予測するために最も新しく使用された、最も新しく使用された動き情報を挿入することによって管理する、ように構成される、請求項138に記載のブロックベースの映像復号器。 - 動き補償予測をサポートするブロックベースの映像復号のための方法であって、
映像(11)が空間的に分割されるタイル(100)間の境界(102)の位置に依存して、前記映像(11)が符号化されているデータストリーム(14)から、所定のインター予測ブロック(104)がそこから予測されることになる、参照画像(12b)内のパッチ(130)を位置特定する、前記映像(11)の現在の画像(12a)の前記所定のインター予測ブロック(104)についての動き情報を導出することと、
前記参照画像(12b)の前記パッチ(130)から前記動き情報を使用して前記所定のインター予測ブロック(104)を予測することと、を含む、方法。 - 動き補償予測をサポートするブロックベースの映像復号のための方法であって、
映像の現在の画像の所定のインター予測ブロックについての動き情報(306a、306b)を、前記映像が符号化されているデータストリームから復号することと、
前記動き情報から、前記所定のインター予測ブロックが分割されるサブブロック(300)のサブブロックごとの動きベクトル(304)であって、前記それぞれのサブブロックと、前記それぞれのサブブロックがそこから予測されることになる、参照画像(12b)内のパッチ(302)との間の並進変位を指示する前記動きベクトルを導出することと、
前記所定のインター予測ブロックを、前記それぞれのサブブロックの前記動きベクトルを使用して各サブブロックを予測することによって予測することと、を含み、
ブロックベースの映像復号のための前記方法が、前記導出および/または前記予測を、前記映像が空間的に分割されるタイル間の境界の位置に依存して行う、ように構成される、方法。 - 所定のインター予測ブロックの動き情報予測候補リストを
前記所定のインター予測ブロックに空間的に位置合わせされた、参照画像内の位置合わせされたブロックを識別し、
前記所定のインター予測ブロックの空間的に近傍の、前記現在の画像内の空間的に近傍のブロックを識別し、
前記動き情報予測候補リストに、前記現在の画像内の前記空間的に近傍のブロックがそれを使用して予測された第1の参照動き情報から導出された1つまたは複数の空間的動き情報予測候補と、前記参照画像内の前記位置合わせされたブロックがそれを使用して予測された第2の参照動き情報から導出された時間的動き情報予測候補とを、前記1つまたは複数の空間的動き情報予測候補を前記動き情報予測候補リストにおいて前記時間的動き情報予測候補に先行するランクで配置して読み込むことによって予測により、確立することと、
前記所定のインター予測ブロックについて、前記動き情報予測候補リストを、ランク順序で、指し示すポインタを導出することと、
所定のインター予測ブロックの動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リストの中からの選択を行うことと、を含む、ブロックベースの映像復号のための方法。 - 現在の画像の所定のインター予測ブロックの動き情報予測候補リストを、
前記所定のインター予測ブロックの空間的に近傍の、前記現在の画像内の空間的に近傍のブロックを識別し、
前記動き情報予測候補リストに、前記現在の画像内の前記空間的に近傍のブロックがそれを使用して予測された第1の参照動き情報から導出された1つまたは複数の空間的動き情報予測候補と、履歴ベースの時間的動き情報予測候補リストから導出された履歴ベースの動き情報予測候補とを、前記1つまたは複数の空間的動き情報予測候補を前記動き情報予測候補リストにおいて前記履歴ベースの動き情報予測候補に先行するランクで配置して読み込むことによって、予測により、確立することと、
前記所定のインター予測ブロックについて、前記動き情報予測候補リストを、ランク順序で、指し示すポインタを導出することと、
所定のインター予測ブロックの動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リストの中からの選択を行うことと、を含む、ブロックベースの映像復号のための方法。 - 動き補償双方向予測をサポートし、前記動き補償双方向予測を改善するための双方向オプティカルフローツールを含むブロックベースの映像復号のための方法であって、
前記方法が、
前記双方向オプティカルフローツールを、前記所定のインター予測ブロックについて前記データストリームでシグナリングされた第1および第2の動きベクトルに従って前記所定のインター予測ブロックに対して変位されている、動き補償双方向予測の対象となる現在の画像(12a)の所定のインター予測ブロックの第1および第2のパッチ(1301、1302)の少なくとも一方が、前記所定のインター予測ブロックが含まれる前記現在の画像のタイルの境界を横切るか否かに依存して非アクティブ化すること、または
前記所定のインター予測ブロックが含まれる現在の画像のタイルの境界を越えている部分である、前記所定のインター予測ブロックについて前記データストリームでシグナリングされた第1および第2の動きベクトルに従って前記所定のインター予測ブロックに対して変位されている、前記動き補償双方向予測の対象となる前記現在の画像の所定のインター予測ブロックの第1および第2のパッチの部分を埋めるように境界パディングを使用すること、を含む、方法。 - 現在の画像の所定のインター予測ブロックの動き情報予測候補リストを、
前記動き情報予測候補リストに、1つまたは複数の動き情報予測候補(192)を読み込み、
さらなる動き情報予測候補(504)のリザーバ(502)の中から、前記さらなる動き情報予測候補の各々の前記1つまたは複数の動き情報予測候補との相違に依存して、所定の動き情報予測候補を選択し、
前記動き情報予測候補リストに、前記所定の動き情報予測候補を読み込むことによって確立することであって、
前記選択が、前記動き情報予測候補リスト内の動き情報予測候補相互の相違が、前記さらなる動き情報予測候補間で等しい選択確率を使用して前記選択を行うことと比較して増加するように前記相違に依存することと、
所定のインター予測ブロックについて、前記動き情報予測候補リストを指し示すポインタを導出することと、
所定のインター予測ブロックの動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リストの中からの選択を行うことと、を含む、ブロックベースの映像復号のための方法。 - 映像(11)をデータストリーム(14)に符号化し、動き補償予測をサポートするためのブロックベースの映像符号化のための方法であって、
所定のインター予測ブロック(104)がそこから予測されることになる、パッチ(130)を参照画像(12b)に配置する、映像(11)の現在の画像(12a)の前記所定のインター予測ブロック(104)についての動き情報を、前記パッチ(130)が、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の境界(102)内にあり、前記所定のインター予測ブロック(104)が含まれるタイル(100a)の境界(102)を横切らないような方法で決定することと、
前記参照画像(12b)の前記パッチ(130)から前記動き情報を使用して前記所定のインター予測ブロック(104)を予測することと、
前記動き情報を前記データストリーム(14)に、前記動き情報の前記データストリーム(14)への信号化が、前記映像(11)が空間的に分割される、タイル(100)間の境界(102)の位置に依存して行われることになるように符号化することと、を含む、方法。 - 動き補償予測をサポートするブロックベースの映像符号化のための方法であって、
映像(11)の現在の画像(12a)の所定のインター予測ブロック(104)についての動き情報(306a、306b)を、前記映像(11)が符号化されるデータストリーム(14)に符号化することと、
前記動き情報に、前記所定のインター予測ブロック(104)が分割されるサブブロック(300)のサブブロックごとの動きベクトル(304)であって、前記それぞれのサブブロックと、前記それぞれのサブブロックがそこから予測されることになる、参照画像(12b)内のパッチ(302)との間の並進変位を指示する前記動きベクトルをシグナリングすることと、
前記所定のインター予測ブロック(104)を、前記それぞれのサブブロックの前記動きベクトルを使用して各サブブロックを予測することによって予測することと、を含み、
ブロックベースの映像符号化のための前記方法が、前記信号化および/または前記予測を、前記映像(11)が空間的に分割されるタイル間の境界(102)の位置に依存して行う、ように構成される、方法。 - 所定のインター予測ブロック(104)の動き情報予測候補リストを、
前記所定のインター予測ブロック(104)に空間的に位置合わせされた、参照画像(12b)内の位置合わせされたブロックを識別し、
前記所定のインター予測ブロック(104)の空間的に近傍の、前記現在の画像(12a)内の空間的に近傍のブロックを識別し、
前記動き情報予測候補リスト(190)に、前記現在の画像(12a)内の前記空間的に近傍のブロックがそれを使用して予測された第1の参照動き情報にシグナリングされた1つまたは複数の空間的動き情報予測候補と、前記参照画像(12b)内の前記位置合わせされたブロックがそれを使用して予測された第2の参照動き情報にシグナリングされた時間的動き情報予測候補とを、前記1つまたは複数の空間的動き情報予測候補を前記動き情報予測候補リスト(190)において前記時間的動き情報予測候補に先行するランクで配置して読み込むことによって、予測により確立することと、
前記所定のインター予測ブロック(104)について、前記動き情報予測候補リストを、ランク順序で、指し示すポインタ(193)をシグナリングすることと、
所定のインター予測ブロック(104)の動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リスト(190)の中からの選択を行うことと、を含む、ブロックベースの映像符号化のための方法。 - 現在の画像(12a)の所定のインター予測ブロック(104)の動き情報予測候補リストを、
前記所定のインター予測ブロック(104)の空間的に近傍の、前記現在の画像(12a)内の空間的に近傍のブロックを識別し、
前記動き情報予測候補リスト(190)に、前記現在の画像(12a)内の前記空間的に近傍のブロックがそれを使用して予測された第1の参照動き情報にシグナリングされた1つまたは複数の空間的動き情報予測候補と、履歴ベースの時間的動き情報予測候補リストにシグナリングされた履歴ベースの動き情報予測候補とを、前記1つまたは複数の空間的動き情報予測候補を前記動き情報予測候補リスト(190)において前記履歴ベースの動き情報予測候補に先行するランクで配置して読み込むことによって、予測により確立することと、
前記所定のインター予測ブロック(104)について、前記動き情報予測候補リスト(190)を、ランク順序で、指し示すポインタ(193)をシグナリングすることと、
所定のインター予測ブロック(104)の動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リスト(190)の中からの選択を行うことと、を含む、ブロックベースの映像符号化のための方法。 - 動き補償双方向予測をサポートし、前記動き補償双方向予測を改善するための双方向オプティカルフローツールを含むブロックベースの映像符号化のための方法であって、
前記方法が、
前記所定のインター予測ブロック(104)について前記データストリーム(14)でシグナリングされた第1および第2の動きベクトルに従って前記所定のインター予測ブロック(104)に対して変位されている、動き補償双方向予測の対象となる現在の画像(12a)の所定のインター予測ブロック(104)の第1および第2のパッチ(1301、1302)の少なくとも一方が、前記映像(11)が空間的に分割される、タイル間の境界(102)を横切るか否かに依存して前記双方向オプティカルフローツールを非アクティブ化すること、または
前記所定のインター予測ブロックが含まれる現在の画像のタイルの境界(102)を越えている部分である、前記所定のインター予測ブロック(104)について前記データストリーム(14)でシグナリングされた第1および第2の動きベクトルに従って前記所定のインター予測ブロック(104)に対して変位されている、前記動き補償双方向予測の対象となる前記現在の画像の所定のインター予測ブロック(104)の第1および第2のパッチの部分を埋めるように境界パディングを使用すること、を含む、方法。 - 現在の画像の所定のインター予測ブロックの動き情報予測候補リストを、
前記動き情報予測候補リストに、1つまたは複数の動き情報予測候補(192)を読み込み、
さらなる動き情報予測候補(504)のリザーバ(502)の中から、前記さらなる動き情報予測候補の各々の前記1つまたは複数の動き情報予測候補との相違に依存して、所定の動き情報予測候補を選択し、
前記動き情報予測候補リストに、前記所定の動き情報予測候補を読み込むことによって確立することであって、
前記選択が、前記動き情報予測候補リスト内の動き情報予測候補相互の相違が、前記さらなる動き情報予測候補間で等しい選択確率を使用して前記選択を行うことと比較して増加するように前記相違に依存することと、
所定のインター予測ブロックについて、前記動き情報予測候補リストを指し示すポインタを導出することと、
所定のインター予測ブロックの動き情報予測を取得するために前記ランクを使用して前記動き情報予測候補リストの中からの選択を行うことと、を含む、ブロックベースの映像符号化のための方法。 - 請求項146から151のいずれか一項に記載の方法によって符号化されるデータストリーム。
- プログラムが1つまたは複数のコンピュータ上で動作すると、請求項140から151のいずれか一項に記載の方法を実行するためのプログラムコードを有するコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023112911A JP2023126972A (ja) | 2018-11-26 | 2023-07-10 | タイル独立性制約を使用したインター予測概念 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18208418 | 2018-11-26 | ||
EP18208418.6 | 2018-11-26 | ||
PCT/EP2019/082435 WO2020109234A2 (en) | 2018-11-26 | 2019-11-25 | Inter-prediction concept using tile-independency constraints |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023112911A Division JP2023126972A (ja) | 2018-11-26 | 2023-07-10 | タイル独立性制約を使用したインター予測概念 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022509972A true JP2022509972A (ja) | 2022-01-25 |
JP7312826B2 JP7312826B2 (ja) | 2023-07-21 |
Family
ID=64477072
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021529678A Active JP7312826B2 (ja) | 2018-11-26 | 2019-11-25 | タイル独立性制約を使用したインター予測概念 |
JP2023112911A Pending JP2023126972A (ja) | 2018-11-26 | 2023-07-10 | タイル独立性制約を使用したインター予測概念 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023112911A Pending JP2023126972A (ja) | 2018-11-26 | 2023-07-10 | タイル独立性制約を使用したインター予測概念 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20210281855A1 (ja) |
EP (1) | EP3888356A2 (ja) |
JP (2) | JP7312826B2 (ja) |
KR (3) | KR102696385B1 (ja) |
CN (1) | CN113366834A (ja) |
BR (1) | BR112021010054A2 (ja) |
MX (1) | MX2021006014A (ja) |
WO (1) | WO2020109234A2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117319681A (zh) | 2019-04-02 | 2023-12-29 | 北京字节跳动网络技术有限公司 | 基于双向光流的视频编解码和解码 |
CN113711609B (zh) | 2019-04-19 | 2023-12-01 | 北京字节跳动网络技术有限公司 | 利用光流的预测细化过程中的增量运动矢量 |
CN113728630B (zh) | 2019-04-19 | 2023-11-17 | 北京字节跳动网络技术有限公司 | 不同运动矢量细化中的基于区域的梯度计算 |
CN113711608B (zh) | 2019-04-19 | 2023-09-01 | 北京字节跳动网络技术有限公司 | 利用光流的预测细化过程的适用性 |
CN114979627A (zh) * | 2021-02-24 | 2022-08-30 | 华为技术有限公司 | 视频编码中的运动矢量(mv)约束和变换约束 |
EP4391540A1 (en) * | 2021-08-18 | 2024-06-26 | LG Electronics Inc. | Method and apparatus for feature encoding/decoding on basis of correlation between channels, and recording medium having bitstream stored therein |
EP4420350A1 (en) * | 2021-10-21 | 2024-08-28 | Nokia Technologies Oy | Video coding using parallel units |
US12095984B2 (en) * | 2022-02-07 | 2024-09-17 | Tencent America LLC | Sub-block based constraint on bi-prediction for out-of-boundary conditions |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010206664A (ja) * | 2009-03-05 | 2010-09-16 | Fujitsu Ltd | 画像符号化装置、画像符号化制御方法およびプログラム |
JP2014527316A (ja) * | 2011-08-25 | 2014-10-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化方法、符号化装置、復号方法、および復号装置 |
JP2015082839A (ja) * | 2013-10-22 | 2015-04-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 動き補償方法、画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置 |
JP2016519516A (ja) * | 2013-04-08 | 2016-06-30 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 関心領域の符号化のための動き制限タイルセット |
JP2020145484A (ja) * | 2017-06-28 | 2020-09-10 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101101965B1 (ko) * | 2006-10-16 | 2012-01-02 | 노키아 코포레이션 | 멀티뷰 비디오 코딩에 대한 병렬 디코딩가능 슬라이스들을 이용하기 위한 시스템 및 방법 |
ES2812473T3 (es) * | 2008-03-19 | 2021-03-17 | Nokia Technologies Oy | Vector de movimiento combinado y predicción de índice de referencia para la codificación de vídeo |
EP2497271B1 (en) * | 2009-11-06 | 2020-08-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Hybrid video coding |
US9319716B2 (en) * | 2011-01-27 | 2016-04-19 | Qualcomm Incorporated | Performing motion vector prediction for video coding |
CN117956141A (zh) * | 2013-04-08 | 2024-04-30 | Ge视频压缩有限责任公司 | 多视图解码器 |
US20150063469A1 (en) * | 2013-08-30 | 2015-03-05 | Arris Enterprises, Inc. | Multipass encoder with heterogeneous codecs |
CN116567213A (zh) * | 2016-08-11 | 2023-08-08 | Lx 半导体科技有限公司 | 编码/解码设备以及发送图像数据的设备 |
US10448010B2 (en) * | 2016-10-05 | 2019-10-15 | Qualcomm Incorporated | Motion vector prediction for affine motion models in video coding |
GB2560720B (en) * | 2017-03-20 | 2021-08-25 | Canon Kk | Method and apparatus for encoding and transmitting at least a spatial part of a video sequence |
US11700391B2 (en) * | 2017-05-18 | 2023-07-11 | Hfi Innovation Inc. | Method and apparatus of motion vector constraint for video coding |
-
2019
- 2019-11-25 MX MX2021006014A patent/MX2021006014A/es unknown
- 2019-11-25 WO PCT/EP2019/082435 patent/WO2020109234A2/en unknown
- 2019-11-25 CN CN201980090352.1A patent/CN113366834A/zh active Pending
- 2019-11-25 KR KR1020247001099A patent/KR102696385B1/ko active IP Right Grant
- 2019-11-25 BR BR112021010054-7A patent/BR112021010054A2/pt unknown
- 2019-11-25 JP JP2021529678A patent/JP7312826B2/ja active Active
- 2019-11-25 KR KR1020247027212A patent/KR20240129078A/ko active Application Filing
- 2019-11-25 EP EP19805717.6A patent/EP3888356A2/en active Pending
- 2019-11-25 KR KR1020217019652A patent/KR102625314B1/ko active IP Right Grant
-
2021
- 2021-05-24 US US17/328,866 patent/US20210281855A1/en active Pending
-
2023
- 2023-07-10 JP JP2023112911A patent/JP2023126972A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010206664A (ja) * | 2009-03-05 | 2010-09-16 | Fujitsu Ltd | 画像符号化装置、画像符号化制御方法およびプログラム |
JP2014527316A (ja) * | 2011-08-25 | 2014-10-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化方法、符号化装置、復号方法、および復号装置 |
JP2016519516A (ja) * | 2013-04-08 | 2016-06-30 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 関心領域の符号化のための動き制限タイルセット |
JP2015082839A (ja) * | 2013-10-22 | 2015-04-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | 動き補償方法、画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置 |
JP2020145484A (ja) * | 2017-06-28 | 2020-09-10 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
Non-Patent Citations (1)
Title |
---|
BROSS, B. ET AL.: "Suggested fix for MCTS SEI message", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-AA0042 (version 3), JPN6022041313, 5 April 2017 (2017-04-05), ISSN: 0004889866 * |
Also Published As
Publication number | Publication date |
---|---|
CN113366834A (zh) | 2021-09-07 |
MX2021006014A (es) | 2021-08-24 |
KR20240011246A (ko) | 2024-01-25 |
US20210281855A1 (en) | 2021-09-09 |
JP7312826B2 (ja) | 2023-07-21 |
WO2020109234A3 (en) | 2020-08-06 |
BR112021010054A2 (pt) | 2021-08-17 |
WO2020109234A2 (en) | 2020-06-04 |
EP3888356A2 (en) | 2021-10-06 |
KR20240129078A (ko) | 2024-08-27 |
KR20210100123A (ko) | 2021-08-13 |
KR102696385B1 (ko) | 2024-08-20 |
KR102625314B1 (ko) | 2024-01-15 |
JP2023126972A (ja) | 2023-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022509972A (ja) | タイル独立性制約を使用したインター予測概念 | |
CN112703740B (zh) | 用于仿射模式的基于历史的运动矢量预测 | |
JP7507166B2 (ja) | デコーダ側動きベクトル改良に対する制約 | |
KR102356262B1 (ko) | 모션 보상을 이용하는 비디오 신호 처리 방법 및 장치 | |
CN116320493A (zh) | 用于滤波的方法和装置 | |
JP2021520103A (ja) | パディングのためのイントラ予測モードを選択する装置 | |
US12010337B2 (en) | Encoders, decoders, methods, and video bit streams, and computer programs for hybrid video coding | |
JP7140224B2 (ja) | 動画像復号装置、動画像復号方法、動画像復号プログラム、動画像符号化装置、動画像符号化方法及び動画像符号化プログラム | |
US11553207B2 (en) | Contour mode prediction | |
WO2020137882A1 (ja) | 画像復号装置、画像復号方法及び画像復号プログラム | |
CN116389750A (zh) | 动图像解码装置和方法、以及动图像编码装置和方法 | |
US12137227B2 (en) | Video compression using block vector predictor refinement | |
TWI856066B (zh) | 解碼器側運動向量精緻化之限制 | |
WO2018146151A1 (en) | Predictive coding concept using template matching | |
US20230099655A1 (en) | Video Compression Using Block Vector Predictor Refinement | |
CN118511516A (zh) | 使用块向量预测器精细化的视频压缩 | |
JP2024152067A (ja) | 画像復号装置、画像復号方法及びプログラム | |
KR20240148346A (ko) | 블록 벡터 예측기 후보 목록의 결정 | |
JP2024152066A (ja) | 画像復号装置、画像復号方法及びプログラム | |
JP2024152062A (ja) | 画像復号装置、画像復号方法及びプログラム | |
JP2024152065A (ja) | 画像復号装置、画像復号方法及びプログラム | |
JP2024152063A (ja) | 画像復号装置、画像復号方法及びプログラム | |
JP2024152064A (ja) | 画像復号装置、画像復号方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210719 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210719 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7312826 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |