JP7110490B2 - 無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法 - Google Patents
無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法 Download PDFInfo
- Publication number
- JP7110490B2 JP7110490B2 JP2021531786A JP2021531786A JP7110490B2 JP 7110490 B2 JP7110490 B2 JP 7110490B2 JP 2021531786 A JP2021531786 A JP 2021531786A JP 2021531786 A JP2021531786 A JP 2021531786A JP 7110490 B2 JP7110490 B2 JP 7110490B2
- Authority
- JP
- Japan
- Prior art keywords
- padding
- sub
- regions
- image
- wrap
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/563—Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/91—Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本出願は米国特許法第119条のもと、米国特許商標庁に2018年12月31日に出願された米国仮特許出願第62/787,063号、及び米国特許商標庁に2019年12月11日に出願された米国特許出願第16/710,936号の優先権を主張し、これらの特許の開示内容は、参照することによってその全体が本明細書に組み込まれる。
360度映像は、正距円筒投影(equirectangular projection、ERP)などの3D-2D投影方法を使用して、2D映像上にマッピングされる。投影された映像は、従来の2D映像エンコーダによって符号化及び復号され、2D映像を3D表面に再投影することによってレンダリングされる。その後、符号化された領域を個別につなぎ合わせることによって、再投影プロセスからシームの視覚的アーティファクトが生じる。
図2は、本開示の実施形態による、通信システム(200)の簡素化されたブロック図を示す。システム(200)は、ネットワーク(250)を介して相互接続された、少なくとも2つの端末(210、220)を含んでもよい。データの一方向伝送の場合、第1の端末(210)は、ネットワーク(250)を介してもう一方の端末(220)に送信する映像データをローカル位置で符号化してもよい。第2の端末(220)は、ネットワーク(250)からもう一方の端末の符号化された映像データを受信し、符号化されたデータを復号して、回復された映像データを表示してもよい。一方向のデータ伝送は、媒体供給用途などにおいて一般的であろう。
if ref_wraparound_offset is present
wrapAroundOffset=ref_wraparound_offset
else if left_wraparound_padding_width and right_wraparound_padding_width are present
wrapAroundOffset=pic_width_in_luma_samples-(left_wraparound_padding_width+right_wraparound_padding_width)
else
wrapAroundOffset=pic_width_in_luma_samples
ルマサンプル補間プロセス
このプロセスに対する入力は、
-完全サンプルユニット(xIntL,yIntL)におけるルマ位置
-分数サンプルユニット(xFracL,yFracL)におけるルマ位置
-ルマ参照サンプル配列refPicLXL
このプロセスの出力は、予測されたルマサンプル値predSampleLXL
変数shift1、shift2、及びshift3は、以下の通り導出される。
-変数shift1はMin(4,BitDepthY-8)に設定され、変数shift2は6に設定され、変数shift3はMax(2,14-BitDepthY)に設定される。
-変数picWはpic_width_in_luma_samplesに設定され、変数picHはpic_height_in_luma_samplesに設定される。
-変数xOffsetはwrapAroundOffsetに設定される。
xFracL又はyFracLと等しいそれぞれの1/16分数サンプル位置pに対するルマ補間フィルタ係数fL[p]を以下に指定する。
予測されるルマサンプル値predSampleLXLは、以下の通り導出される。
-xFracL及びyFracLの両方が0であれば、以下が適用される。
-sps_ref_wraparound_enabled_flagが0であれば、predSampleLXLの値は以下の通り導出される。
predSampleLXL=refPicLXL[Clip3(0,picW-1,xIntL)][Clip3(0,picH-1,yIntL)]<<shift3
-或いは、predSampleLXLの値は以下の通り導出される。
predSampleLXL=refPicLXL[ClipH(xOffset,picW,xIntL)][Clip3(0,picH-1,yIntL)]<<shift3
-或いはxFracLが0でなく、yFracLが0であれば、以下が適用される。
-yPosLの値は、以下の通り導出される。
yPosL=Clip3(0,picH-1,yIntL)
-sps_ref_wraparound_enabled_flagが0であれば、predSampleLXLの値は以下の通り導出される。
predSampleLXL=(fL[xFracL][0]*refPicLXL[Clip3(0,picW-1,xIntL-3)][yPosL]+
fL[xFracL][1]*refPicLXL[Clip3(0,picW-1,xIntL-2)][yPosL]+
fL[xFracL][2]*refPicLXL[Clip3(0,picW-1,xIntL-1)][yPosL]+
fL[xFracL][3]*refPicLXL[Clip3(0,picW-1,xIntL)][yPosL]+
fL[xFracL][4]*refPicLXL[Clip3(0,picW-1,xIntL+1)][yPosL]+
fL[xFracL][5]*refPicLXL[Clip3(0,picW-1,xIntL+2)][yPosL]+
fL[xFracL][6]*refPicLXL[Clip3(0,picW-1,xIntL+3)][yPosL]+
fL[xFracL][7]*refPicLXL[Clip3(0,picW-1,xIntL+4)][yPosL])>>shift1
-或いはpredSampleLXLの値は以下の通り導出される。
predSampleLXL=(fL[xFracL][0]*refPicLXL[ClipH(xOffset,picW,xIntL-3)][yPosL]+
fL[xFracL][1]*refPicLXL[ClipH(xOffset,picW,xIntL-2)][yPosL]+
fL[xFracL][2]*refPicLXL[ClipH(xOffset,picW,xIntL-1)][yPosL]+
fL[xFracL][3]*refPicLXL[ClipH(xOffset,picW,xIntL)][yPosL]+
fL[xFracL][4]*refPicLXL[ClipH(xOffset,picW,xIntL+1)][yPosL]+
fL[xFracL][5]*refPicLXL[ClipH(xOffset,picW,xIntL+2)][yPosL]+
fL[xFracL][6]*refPicLXL[ClipH(xOffset,picW,xIntL+3)][yPosL]+
fL[xFracL][7]*refPicLXL[ClipH(xOffset,picW,xIntL+4)][yPosL])>>shift1
-或いはxFracLが0であり、yFracLが0でない場合は、predSampleLXLの値は以下の通り導出される。
-sps_ref_wraparound_enabled_flagが0であれば、xPosLの値は以下の通り導出される。
xPosL=Clip3(0,picW-1,xIntL)
-或いは、xPosLの値は以下の通り導出される。
xPosL=ClipH(xOffset,picW,xIntL)
-予測されるルマサンプル値predSampleLXLは以下の通り導出される。
predSampleLXL=(fL[yFracL][0]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL-3)]+
fL[yFracL][1]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL-2)]+
fL[yFracL][2]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL-1)]+
fL[yFracL][3]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL)]+
fL[yFracL][4]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+1)]+
fL[yFracL][5]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+2)]+
fL[yFracL][6]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+3)]+
fL[yFracL][7]*refPicLXL[xPosL][Clip3(0,picH-1,yIntL+4)])>>shift1
-或いはxFracLが0でなく、yFracLが0でない場合は、predSampleLXLの値は以下の通り導出される。
-sps_ref_wraparound_enabled_flagが0であれば、n=0~7のサンプル配列temp[n]は以下の通り導出される。
yPosL=Clip3(0,picH-1,yIntL+n-3)
temp[n]=(fL[xFracL][0]*refPicLXL[Clip3(0,picW-1,xIntL-3)][yPosL]+
fL[xFracL][1]*refPicLXL[Clip3(0,picW-1,xIntL-2)][yPosL]+
fL[xFracL][2]*refPicLXL[Clip3(0,picW-1,xIntL-1)][yPosL]+
fL[xFracL][3]*refPicLXL[Clip3(0,picW-1,xIntL)][yPosL]+
fL[xFracL][4]*refPicLXL[Clip3(0,picW-1,xIntL+1)][yPosL]+
fL[xFracL][5]*refPicLXL[Clip3(0,picW-1,xIntL+2)][yPosL]+
fL[xFracL][6]*refPicLXL[Clip3(0,picW-1,xIntL+3)][yPosL]+
fL[xFracL][7]*refPicLXL[Clip3(0,picW-1,xIntL+4)][yPosL])>>shift1
-或いは、n=0~7のサンプル配列temp[n]は以下の通り導出される。
yPosL=Clip3(0,picH-1,yIntL+n-3)
temp[n]=(fL[xFracL][0]*refPicLXL[ClipH(xOffset,picW,xIntL-3)][yPosL]+
fL[xFracL][1]*refPicLXL[ClipH(xOffset,picW,xIntL-2)][yPosL]+
fL[xFracL][2]*refPicLXL[ClipH(xOffset,picW,xIntL-1)][yPosL]+
fL[xFracL][3]*refPicLXL[ClipH(xOffset,picW,xIntL)][yPosL]+
fL[xFracL][4]*refPicLXL[ClipH(xOffset,picW,xIntL+1)][yPosL]+
fL[xFracL][5]*refPicLXL[ClipH(xOffset,picW,xIntL+2)][yPosL]+
fL[xFracL][6]*refPicLXL[ClipH(xOffset,picW,xIntL+3)][yPosL]+
fL[xFracL][7]*refPicLXL[ClipH(xOffset,picW,xIntL+4)][yPosL])>>shift1
-予測されるルマサンプル値predSampleLXLは以下の通り導出される。
predSampleLXL=(fL[yFracL][0]*temp[0]+
fL[yFracL][1]*temp[1]+
fL[yFracL][2]*temp[2]+
fL[yFracL][3]*temp[3]+
fL[yFracL][4]*temp[4]+
fL[yFracL][5]*temp[5]+
fL[yFracL][6]*temp[6]+
fL[yFracL][7]*temp[7])>>shift2
クロマサンプル補間プロセス
このプロセスに対する入力は、
-完全サンプルユニット(xIntC,yIntC)におけるクロマ位置
-1/32分数サンプルユニット(xFracC,yFracC)におけるクロマ位置
-クロマ参照サンプル配列refPicLXC
である。
このプロセスの出力は、予測されたクロマサンプル値predSampleLXC
変数shift1、shift2、及びshift3は、以下の通り導出される。
-変数shift1はMin(4,BitDepthC-8)に設定され、変数shift2は6に設定され、変数shift3はMax(2,14-BitDepthC)に設定される。
-変数picWCはpic_width_in_luma_samples/SubWidthCに設定され、変数picHCはpic_height_in_luma_samples/SubHeightCに設定される。
-変数xOffsetCはwrapAroundOffset/SubWidthCに設定される。
xFracC又はyFracCと等しいそれぞれの1/32分数サンプル位置pに対するルマ補間フィルタ係数fC[p]を以下に指定する。
予測されるクロマサンプル値predSampleLXCは、以下の通り導出される。
-xFracC及びyFracCの両方が0であれば、以下が適用される。
-sps_ref_wraparound_enabled_flagが0であれば、predSampleLXCの値は以下の通り導出される。
predSampleLXC=refPicLXC[Clip3(0,picWC-1,xIntC)][Clip3(0,picHC-1,yIntC)]<<shift3
-或いは、predSampleLXCの値は以下の通り導出される。
predSampleLXC=refPicLXC[ClipH(xOffsetC,picWC,xIntC)][Clip3(0,picHC-1,yIntC)]<<shift3
-或いはxFracCが0でなく、yFracCが0であれば以下が適用される。
-yPosCの値は以下の通り導出される。
yPosC=Clip3(0,picHC-1,yIntC)
-sps_ref_wraparound_enabled_flagが0であれば、predSampleLXCの値は以下の通り導出される。
predSampleLXC=(fC[xFracC][0]*refPicLXC[Clip3(0,picWC-1,xIntC-1)][yIntC]+
fC[xFracC][1]*refPicLXC[Clip3(0,picWC-1,xIntC)][yIntC]+
fC[xFracC][2]*refPicLXC[Clip3(0,picWC-1,xIntC+1)][yIntC]+
fC[xFracC][3]*refPicLXC[Clip3(0,picWC-1,xIntC+2)][yIntC])>>shift1
-或いは、predSampleLXCの値は以下の通り導出される。
predSampleLXC=(fC[xFracC][0]*refPicLXC[ClipH(xOffsetC,picWC,xIntC-1)][yPosC]+
fC[xFracC][1]*refPicLXC[ClipH(xOffsetC,picWC,xIntC)][yPosC]+
fC[xFracC][2]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+1)][yPosC]+
fC[xFracC][3]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+2)][yPosC])>>shift1
-或いはxFracCが0であり、yFracCが0でなければ、predSampleLXCの値は以下の通り導出される。
-sps_ref_wraparound_enabled_flagが0であれば、xPosCの値は以下の通り導出される。
xPosC=Clip3(0,picWC-1,xIntC)
-或いは、xPosCの値は以下の通り導出される。
xPosC=ClipH(xOffsetC,picWC,xIntC)
-予測されるクロマサンプル値predSampleLXCは以下の通り導出される。
predSampleLXC=(fC[yFracC][0]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC-1)]+
fC[yFracC][1]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC)]+
fC[yFracC][2]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC+1)]+
fC[yFracC][3]*refPicLXC[xPosC][Clip3(0,picHC-1,yIntC+2)])>>shift1
-或いはxFracCが0でなく、かつyFracCが0でなければ、predSampleLXCの値は以下の通り導出される。
-sps_ref_wraparound_enabled_flagが0であれば、n=0~3のサンプル配列temp[n]は以下の通り導出される。
yPosC=Clip3(0,picHC-1,yIntC+n-1)
temp[n]=(fC[xFracC][0]*refPicLXC[Clip3(0,picWC-1,xIntC-1)][yPosC]+
fC[xFracC][1]*refPicLXC[Clip3(0,picWC-1,xIntC)][yPosC]+
fC[xFracC][2]*refPicLXC[Clip3(0,picWC-1,xIntC+1)][yPosC]+
fC[xFracC][3]*refPicLXC[Clip3(0,picWC-1,xIntC+2)][yPosC])>>shift1
-或いは、n=0~3のサンプル配列temp[n]は以下の通り導出される。
yPosC=Clip3(0,picHC-1,yIntC+n-1)
temp[n]=(fC[xFracC][0]*refPicLXC[ClipH(xOffsetC,picWC,xIntC-1)][yPosC]+
fC[xFracC][1]*refPicLXC[ClipH(xOffsetC,picWC,xIntC)][yPosC]+
fC[xFracC][2]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+1)][yPosC]+
fC[xFracC][3]*refPicLXC[ClipH(xOffsetC,picWC,xIntC+2)][yPosC])>>shift1
-予測されるクロマサンプル値predSampleLXCは、以下の通り導出される。
predSampleLXC=(fC[yFracC][0]*temp[0]+
fC[yFracC][1]*temp[1]+
fC[yFracC][2]*temp[2]+
fC[yFracC][3]*temp[3])>>shift2
実施形態では、参照画像は、動き補償予測用の現画像と同一であってもよい。現画像が参照画像のときは、現画像の境界にラップアラウンドパディングが適用されてもよい。
102 H.265によるNALユニットヘッダの構文解析図
200 通信システム
210 第1の端末
220 第2の端末
230 端末
240 端末
250 通信ネットワーク
301 映像ソース(カメラ)
302 映像サンプルストリーム
303 エンコーダ
304 映像ビットストリーム
305 ストリーミングサーバ
306 ストリーミングクライアント
307 映像ビットストリームのコピー
308 ストリーミングクライアント
309 映像ビットストリームのコピー
310 デコーダ
311 映像サンプルストリーム
312 表示装置
313 捕捉サブシステム
410 受信機
412 チャネル
415 バッファメモリ
420 構文解析器(映像デコーダ)
421 シンボル
451 スケーラ/逆変換ユニット
452 イントラ画像予測ユニット
453 動き補償予測ユニット
455 集約装置
456 ループフィルタユニット
457 参照画像バッファ、参照画像メモリ
458 現在の参照画像
530 ソースエンコーダ、映像エンコーダ
532 符号化エンジン
533 ローカル映像デコーダ
534 参照画像メモリ、参照画像キャッシュ
535 予測子
540 送信機
543 映像シーケンス
545 エントロピーエンコーダ
550 コントローラ
560 通信チャネル
601 seq_parameter_set_rbsp()
602 sps_ref_wraparound_enabled_flag
603 ref_wraparound_offset
701 seq_parameter_set_rbsp()
702 sps_ref_wraparound_enabled_flag
703 left_wraparound_padding_width
704 right_wraparound_padding_width
800 プロセス
900 コンピュータシステム
901 キーボード
902 マウス
903 トラックパッド
905 ジョイスティック
906 マイク
907 スキャナ
908 カメラ
909 音声出力装置
910 タッチスクリーン
920 光学媒体
921 CD/DVDなどの媒体
922 USBメモリ
923 ソリッドステートドライブ
940 コア
941 中央処理ユニット(CPU)
942 グラフィック処理ユニット(GPU)
943 FPGA
944 アクセラレータ
945 読出し専用メモリ(ROM)
946 ランダムアクセスメモリ(RAM)
947 大容量記憶装置
949 周辺バス
950 グラフィックアダプタ
954 ネットワークインターフェース
955 通信ネットワーク
1248 システムバス
Claims (13)
- 映像を復号するために、符号化された現画像を再構築する、デコーダが実行する方法であって、前記方法は、
前記現画像に対応する画像分割情報を復号するステップと、
前記画像分割情報を使用して、前記現画像の複数のサブ領域にパディングが適用されるかどうかを決定するステップと、
パディングが適用されないという決定に基づき、前記複数のサブ領域をパディングせずに前記複数のサブ領域を復号するステップと、
パディングが適用されるという決定に基づき、前記画像分割情報を使用して、前記パディングがラップアラウンドパディングを含むかどうかを決定するステップと、
前記パディングがラップアラウンドパディングを含まないという決定に基づき、前記複数のサブ領域に反復パディングを適用し、前記反復パディングを使用して前記複数のサブ領域を復号するステップと、
前記パディングがラップアラウンドパディングを含むという決定に基づき、前記複数のサブ領域に前記ラップアラウンドパディングを適用し、前記ラップアラウンドパディングを使用して前記複数のサブ領域を復号するステップと、
前記復号された複数のサブ領域に基づき、前記現画像を再構築するステップとを含む、方法。 - 前記画像分割情報が、前記現画像に対応する画像パラメータセットに含まれる、請求項1に記載の方法。
- 前記画像分割情報が、前記画像パラメータセットに含まれる少なくとも1つのフラグを含む、請求項2に記載の方法。
- 前記複数のサブ領域が、ブリック、タイル、スライス、タイルグループ、サブ画像、又はサブ層のうちの少なくとも1つを含む、請求項1から3のいずれか一項に記載の方法。
- 前記パディングが、複数のサブ領域のうち、サブ領域の境界に適用される、請求項1から4のいずれか一項に記載の方法。
- 前記境界が、前記サブ領域の垂直境界である、請求項5に記載の方法。
- 前記境界が、前記サブ領域の水平境界である、請求項5に記載の方法。
- 前記パディングが、複数のサブ領域のうち、サブ領域の垂直境界、及び前記サブ領域の水平境界に適用される、請求項1から7のいずれか一項に記載の方法。
- 前記画像分割情報が、ラップアラウンドパディングのオフセット値を示す、請求項1に記載の方法。
- 前記画像分割情報が、左パディング幅情報及び右パディング幅情報を示す、請求項1に記載の方法。
- 前記パディングがラップアラウンドパディングを含むという決定に基づき、前記複数のサブ領域に前記ラップアラウンドパディングを適用する前記ステップが、
前記パディングがラップアラウンドパディングを含むという決定に基づき、前記画像分割情報からオフセット値を取得し、前記オフセット値に基づいて、前記複数のサブ領域に前記ラップアラウンドパディングを適用するステップを含み、
前記オフセット値は、インター予測における動き補償のためのラップアラウンド位置を計算するために使用されるルマサンプルのオフセットを指定する、請求項1から10のいずれか一項に記載の方法。 - 請求項1から11のいずれか一項に記載の方法を実行するように構成された装置。
- 命令を記憶したコンピュータプログラムであって、前記命令は、映像を復号するために符号化された現画像を再構築する装置の1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
前記現画像に対応する画像分割情報を復号させ、
前記画像分割情報を使用して、前記現画像の複数のサブ領域にパディングが適用されるかどうかを決定させ、
パディングが適用されないという決定に基づき、前記複数のサブ領域をパディングせずに前記複数のサブ領域を復号させ、
パディングが適用されるという決定に基づき、前記画像分割情報を使用して、前記パディングがラップアラウンドパディングを含むかどうかを決定させ、
前記パディングがラップアラウンドパディングを含まないという決定に基づき、前記複数のサブ領域に反復パディングを適用し、前記反復パディングを使用して前記複数のサブ領域を復号させ、
前記パディングがラップアラウンドパディングを含むという決定に基づき、前記複数のサブ領域に前記ラップアラウンドパディングを適用し、前記ラップアラウンドパディングを使用して前記複数のサブ領域を復号させ、
前記復号された複数のサブ領域に基づき、前記現画像を再構築させる、1つ以上の命令を含む、コンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022115640A JP7342210B2 (ja) | 2018-12-31 | 2022-07-20 | 無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法 |
JP2023140481A JP2023162361A (ja) | 2018-12-31 | 2023-08-30 | 無指向性媒体符号化のためのラップアラウンドパディングの方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862787063P | 2018-12-31 | 2018-12-31 | |
US62/787,063 | 2018-12-31 | ||
US16/710,936 | 2019-12-11 | ||
US16/710,936 US11252434B2 (en) | 2018-12-31 | 2019-12-11 | Method for wrap-around padding for omnidirectional media coding |
PCT/US2019/068678 WO2020142360A1 (en) | 2018-12-31 | 2019-12-27 | Method for wrap-around padding for omnidirectional media coding |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022115640A Division JP7342210B2 (ja) | 2018-12-31 | 2022-07-20 | 無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022513715A JP2022513715A (ja) | 2022-02-09 |
JP7110490B2 true JP7110490B2 (ja) | 2022-08-01 |
Family
ID=71121895
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021531786A Active JP7110490B2 (ja) | 2018-12-31 | 2019-12-27 | 無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法 |
JP2022115640A Active JP7342210B2 (ja) | 2018-12-31 | 2022-07-20 | 無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法 |
JP2023140481A Pending JP2023162361A (ja) | 2018-12-31 | 2023-08-30 | 無指向性媒体符号化のためのラップアラウンドパディングの方法 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022115640A Active JP7342210B2 (ja) | 2018-12-31 | 2022-07-20 | 無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法 |
JP2023140481A Pending JP2023162361A (ja) | 2018-12-31 | 2023-08-30 | 無指向性媒体符号化のためのラップアラウンドパディングの方法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11252434B2 (ja) |
EP (1) | EP3906673A4 (ja) |
JP (3) | JP7110490B2 (ja) |
KR (2) | KR20240051290A (ja) |
CN (1) | CN113228633B (ja) |
WO (1) | WO2020142360A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI822863B (zh) * | 2018-09-27 | 2023-11-21 | 美商Vid衡器股份有限公司 | 360度視訊寫碼樣本導出 |
US11095916B2 (en) * | 2019-07-23 | 2021-08-17 | Qualcomm Incorporated | Wraparound motion compensation in video coding |
US11375238B2 (en) * | 2019-09-20 | 2022-06-28 | Tencent America LLC | Method for padding processing with sub-region partitions in video stream |
US20220385888A1 (en) * | 2019-09-20 | 2022-12-01 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium storing bitstream |
WO2021060505A1 (ja) * | 2019-09-27 | 2021-04-01 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法、および復号方法 |
MX2022005905A (es) * | 2019-11-15 | 2022-06-24 | Hfi Innovation Inc | Metodo y aparato para se?alizacion de compensacion de movimiento envolvente horizontal en la codificacion de video vr360. |
WO2021100863A1 (en) * | 2019-11-22 | 2021-05-27 | Sharp Kabushiki Kaisha | Systems and methods for signaling tiles and slices in video coding |
US11711537B2 (en) * | 2019-12-17 | 2023-07-25 | Alibaba Group Holding Limited | Methods for performing wrap-around motion compensation |
US11425420B2 (en) * | 2019-12-27 | 2022-08-23 | Qualcomm Incorporated | Wraparound offsets for reference picture resampling in video coding |
EP4128776A4 (en) | 2020-03-26 | 2024-01-10 | Alibaba Group Holding Ltd | METHODS FOR SIGNALING VIDEO CODING DATA |
CN115349263A (zh) * | 2020-05-19 | 2022-11-15 | 谷歌有限责任公司 | 质量归一化视频转码的动态参数选择 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022500914A (ja) | 2018-09-14 | 2022-01-04 | ヴィド スケール インコーポレイテッド | フレキシブルグリッドリージョンのための方法および装置 |
JP2022501905A (ja) | 2018-09-27 | 2022-01-06 | ヴィド スケール インコーポレイテッド | 360度ビデオコード化のためのサンプル導出 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012044709A1 (en) * | 2010-10-01 | 2012-04-05 | General Instrument Corporation | Coding and decoding utilizing picture boundary padding in flexible partitioning |
US9641866B2 (en) | 2011-08-18 | 2017-05-02 | Qualcomm Incorporated | Applying partition-based filters |
US20150071357A1 (en) * | 2013-09-12 | 2015-03-12 | Qualcomm Incorporated | Partial intra block copying for video coding |
TW202344052A (zh) | 2016-02-09 | 2023-11-01 | 弗勞恩霍夫爾協會 | 用於圖像/視訊資料串流而允許有效可縮減性或有效隨機存取之技術 |
FI20165256A (fi) * | 2016-03-24 | 2017-09-25 | Nokia Technologies Oy | Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen |
WO2017205648A1 (en) * | 2016-05-26 | 2017-11-30 | Vid Scale, Inc. | Geometric conversion for 360-degree video coding |
WO2018035721A1 (en) * | 2016-08-23 | 2018-03-01 | SZ DJI Technology Co., Ltd. | System and method for improving efficiency in encoding/decoding a curved view video |
US10728573B2 (en) * | 2017-09-08 | 2020-07-28 | Qualcomm Incorporated | Motion compensated boundary pixel padding |
US11689724B2 (en) * | 2018-11-02 | 2023-06-27 | Sharp Kabushiki Kaisha | Systems and methods for reference offset signaling in video coding |
-
2019
- 2019-12-11 US US16/710,936 patent/US11252434B2/en active Active
- 2019-12-27 JP JP2021531786A patent/JP7110490B2/ja active Active
- 2019-12-27 KR KR1020247011356A patent/KR20240051290A/ko active Application Filing
- 2019-12-27 WO PCT/US2019/068678 patent/WO2020142360A1/en unknown
- 2019-12-27 KR KR1020217016175A patent/KR102656160B1/ko active IP Right Grant
- 2019-12-27 CN CN201980084988.5A patent/CN113228633B/zh active Active
- 2019-12-27 EP EP19907708.2A patent/EP3906673A4/en active Pending
-
2021
- 2021-12-23 US US17/560,831 patent/US20220116642A1/en active Pending
-
2022
- 2022-07-20 JP JP2022115640A patent/JP7342210B2/ja active Active
-
2023
- 2023-08-30 JP JP2023140481A patent/JP2023162361A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022500914A (ja) | 2018-09-14 | 2022-01-04 | ヴィド スケール インコーポレイテッド | フレキシブルグリッドリージョンのための方法および装置 |
JP2022501905A (ja) | 2018-09-27 | 2022-01-06 | ヴィド スケール インコーポレイテッド | 360度ビデオコード化のためのサンプル導出 |
Non-Patent Citations (9)
Title |
---|
Byeongdoo Choi, et al.,"AHG12: On padding processing with subpictures",JVET-P0220 (version 1),[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2019年09月27日,Pages 1-3,[令和4年6月11日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=8009> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/16_Geneva/wg11/JVET-P0220-v1.zip>. |
Jianle Chen, et al.,"Algorithm description for Versatile Video Coding and Test Model 3 (VTM 3)",JVET-L1002 (version 2),[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年12月24日,Pages 1 and 46-48,[令和4年6月11日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=4835> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/12_Macao/wg11/JVET-L1002-v2.zip>. |
Philippe Hanhart, et al.,"AHG8: Geometry padding for PERP",JVET-J0044 (version 2),[online], Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年04月11日,Pages 1-5,[令和4年6月11日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=3452> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/10_San%20Diego/wg11/JVET-J0044-v2.zip>. |
Philippe Hanhart, et al.,"AHG8: Horizontal geometry padding for PERP",JVET-K0333 (version 3),[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年07月10日,Pages 1-4,[令和4年6月11日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=3847> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/11_Ljubljana/wg11/JVET-K0333-v3.zip>. |
Philippe Hanhart, et al.,"CE13: PERP with horizontal geometry padding of reference pictures (Test 3.3)",Document: JVET-L0231-r1,JVET-L0231 (version 4),[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年10月11日,Pages 1-8,[令和4年6月11日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=4322> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/12_Macao/wg11/JVET-L0231-v4.zip>,(JVET-L0231-v4.zip内のファイルJVET-L0231_r1.docx) |
Philippe Hanhart, et al.,"CE13: PERP with horizontal geometry padding of reference pictures (Test 3.3)",Document: JVET-L0231-r2,JVET-L0231 (version 4),[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年10月11日,Pages 1-8,[令和4年6月11日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=4322> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/12_Macao/wg11/JVET-L0231-v4.zip>, (JVET-L0231-v4.zip内のファイルJVET-L0231_r2.docx). |
Xiaoyu Xiu, et al.,"Description of SDR, HDR, and 360° video coding technology proposal by InterDigital Communications and Dolby Laboratories",JVET-J0015 (version 3),[online], Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2018年04月14日,Pages 16-24 (section 2.2),[令和4年6月11日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=3455> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/10_San%20Diego/wg11/JVET-J0015-v3.zip>. |
Yuwen He, et al.,"AHG8: Geometry padding for 360 video coding",JVET-D0075 (version 3),[online], Joint Video Exploration Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,2016年10月15日,Pages 1-10,[令和4年6月11日検索], インターネット, <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/current_document.php?id=2771> and <URL: http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/4_Chengdu/wg11/JVET-D0075-v3.zip>. |
Yuwen He, et al.,"Motion Compensated Prediction with Geometry Padding for 360 Video Coding",Proceedings of 2017 IEEE Visual Communications and Image Processing (VCIP 2017),IEEE,2017年12月13日,Pages 1-4,ISBN:978-1-5386-0462-5, <DOI: 10.1109/VCIP.2017.8305088>. |
Also Published As
Publication number | Publication date |
---|---|
JP2022141847A (ja) | 2022-09-29 |
US20220116642A1 (en) | 2022-04-14 |
JP2022513715A (ja) | 2022-02-09 |
EP3906673A4 (en) | 2022-03-16 |
JP2023162361A (ja) | 2023-11-08 |
CN113228633B (zh) | 2024-05-03 |
CN113228633A (zh) | 2021-08-06 |
KR102656160B1 (ko) | 2024-04-11 |
US11252434B2 (en) | 2022-02-15 |
KR20210077769A (ko) | 2021-06-25 |
JP7342210B2 (ja) | 2023-09-11 |
WO2020142360A1 (en) | 2020-07-09 |
EP3906673A1 (en) | 2021-11-10 |
US20200213617A1 (en) | 2020-07-02 |
KR20240051290A (ko) | 2024-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7110490B2 (ja) | 無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法 | |
KR102660034B1 (ko) | 비디오 스트림 내의 서브-영역 분할들을 이용한 패딩 처리를 위한 방법 | |
JP7108138B2 (ja) | ランダムアクセスポイントおよびピクチャタイプの識別方法 | |
JP7234373B2 (ja) | タイル及びサブ画像の分割 | |
US11677972B2 (en) | Identifying tile from network abstraction unit header | |
US11317104B2 (en) | Method and apparatus for video coding | |
JP2023165926A (ja) | ビデオ符号化のための方法、装置、媒体およびコンピュータ・プログラム | |
US20230075516A1 (en) | System and method for decoding including network abstraction layer unit structure with picture header | |
US10904545B2 (en) | Method for syntax controlled decoded picture buffer management | |
KR102662633B1 (ko) | 네트워크 추상화 유닛 헤더에서의 타일 식별 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7110490 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |