JP7016971B2 - ビデオ符号化の方法及び装置 - Google Patents
ビデオ符号化の方法及び装置 Download PDFInfo
- Publication number
- JP7016971B2 JP7016971B2 JP2020564828A JP2020564828A JP7016971B2 JP 7016971 B2 JP7016971 B2 JP 7016971B2 JP 2020564828 A JP2020564828 A JP 2020564828A JP 2020564828 A JP2020564828 A JP 2020564828A JP 7016971 B2 JP7016971 B2 JP 7016971B2
- Authority
- JP
- Japan
- Prior art keywords
- reference motion
- motion vector
- component
- shifted
- offset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本願は、2019年5月28日に出願された米国特許出願第16/424,352号「METHOD AND APPARATUS FOR VIDEO CODING」の優先権の利益を主張する。当該米国特許出願は、2018年10月22日に出願された米国仮出願第62/748,675号「METHOD FOR MOTION VECTOR ROUNDING」の優先権の利益を主張する。これらの出願の全内容が参照によって本明細書に組み込まれる。
本開示は、概してビデオ符号化に関連する実施形態を記載する。
offset=1<<(rightShift-1)、且つ、
y=(x>=0?(x+offset)>>rightShift:-((-x+offset)>>rightShift))<<leftShift
に従って、シフトされた第1の成分を計算するように構成された丸めサブルーチンを実行するか、或いは、丸め回路を動作させ、ここで、rightShiftは右シフトパラメータに対応し、leftShiftは左シフトパラメータに対応し、xは第1の成分に対応し、yはシフトされた第1成分に対応する。
マージ候補リストmergeCandList(前に符号化されたブロックの符号化情報に基づいて決定された参照動きベクトルのリストである)、
mergeCandList内の各候補Nの参照インデックスrefIdxL0N及びrefIdxL1N、
mergeCandList内の各候補Nの予測リスト使用フラグpredFlagL0N及びpredFlagL1N、
mergeCandList内の各候補Nの1/16の分数サンプルの精度の動きベクトルmvL0N及びmvL1N、並びに
mergeCandList内の要素数numCurrMergeCand。
マージ候補リストmergeCandList(更なる平均動きベクトルが追加された参照動きベクトルの更新リストである)、
mergeCandList内の要素数numCurrMergeCand、
この処理の呼び出し中にmergeCandListに追加されたそれぞれの新たな候補avgCandkの参照インデックスrefIdxL0avgCandk及びrefIdxL1avgCandk、
この処理の呼び出し中にmergeCandListに追加されたそれぞれの新たな候補avgCandkの予測リスト利用フラグpredFlagL0avgCandk及びpredFlagL1avgCandk、並びに
この処理の呼び出し中にmergeCandListに追加されたそれぞれの新たな候補avgCandkの1/16の分数サンプルの精度の動きベクトルmvL0avgCandk及びmvL1avgCandk。
numInputMergeCand=numCurrMergeCand、
numCutoff=min(numCurrMergeCand,4)、
avgIdx=0、
avgStop=(avgIdx>=(numCutoff*(numCutoff-1)/2)||numCurrMergeCand==MaxNumMergeCand)、且つ、
numRefLists=(slice_type==B)?2:1。
p0Cand=mergeCandList[p0CandIdx]、且つ、
p1Cand=mergeCandList[p1CandIdx]。
Xが0から(numRefLists-1)の範囲にある各参照ピクチャリストLXに対して:
以下の条件の全てが真である第1のシナリオでは、
predFlagLXp0Cand==1、且つ、
predFlagLXp1Cand==1
(これは、avgCandkの動きベクトルが、対応する所定の対の候補の動きベクトルを平均することによって決定されることを示す)
refIdxLXavgCandk=refIdxLXp0Cand、且つ、
predFlagLXavgCandk=1
を設定し、
mvLXp0Candを入力動きベクトルとして、
右シフトパラメータrightShiftを1として、且つ、
左シフトパラメータleftShiftを0として
設定し、
mvLXp0Cand[0]、mvLXp1Cand[0]、mvLXp0Cand[1]、mvLXp1Cand[1]、右シフトパラメータrightShift及び左シフトパラメータleftShiftを受信し、以下に従ってシフト成分を計算するように構成された丸めサブルーチンを実行するか、或いは、丸め回路を動作する:
offset=1<<(rightShift-1)、且つ、
y=(x>=0?(x+offset)>>rightShift:-((-x+offset)>>rightShift))<<leftShift
ここで、それぞれ、xは(mvLXp0Cand[0]+mvLXp1Cand[0])又は(mvLXp0Cand[1]+mvLXp1Cand[1])に対応し、yはmvLXavgCandk[0]又はmvLXavgCandk[1]に対応する。
mvLXp1Candは、所定の対の参照動きベクトルの第2の参照動きベクトルを表し、
mvLXavgCandkは、所定の対の参照動きベクトルに基づいて決定された平均参照動きベクトルを表し、
mvLXp0Cand[0]は、第1の参照動きベクトルの第1の座標軸(例えば、x軸)上の第1の成分を表し、
mvLXp1Cand[0]は、第2の参照動きベクトルの第1の座標軸上での第2の成分を表し、
mvLXavgCandk[0]は、平均参照動きベクトルの第1の座標軸上での第3の成分を表し、
mvLXp0Cand[1]は、第1の参照動きベクトルの第2の座標軸(例えばy軸)上の第4の成分を表し、
mvLXp1Cand[1]は、第2の参照動きベクトルの第2の座標軸上での第5の成分を表し、
mvLXavgCandk[1]は、平均参照動きベクトルの第2の座標軸上での第6成分を表す。
predFlagLXp0Cand==1、且つ、
predFlagLXp1Cand==0
(これは、avgCandkの動きベクトルが、対応する所定の対の候補の動きベクトルのうち1つのみによって決定されることを示す)
refIdxLXavgCandk=refIdxLXp0Cand、
predFlagLXavgCandk=1、
mvLXavgCandk[0]=mvLXp0Cand[0]、且つ、
mvLXavgCandk[1]=mvLXp0Cand[1]
を設定する。
predFlagLXp0Cand==0、且つ、
predFlagLXp1Cand==1
(これは、avgCandkの動きベクトルが、対応する所定の対の候補の動きベクトルのうち1つのみによって決定されることを示す)
refIdxLXavgCandk=refIdxLXp1Cand、
predFlagLXavgCandk=1、
mvLXavgCandk[0]=mvLXp1Cand[0]、且つ、
mvLXavgCandk[1]=mvLXp1Cand[1]
を設定する。
predFlagLXp0Cand==0、且つ、
predFlagLXp1Cand==0
(これは、avgCandkの動きベクトルが決定されないことを示す)
refIdxLXavgCandk=01、
predFlagLXavgCandk=0、
mvLXavgCandk[0]=0、且つ、
mvLXavgCandk[1]=0
を設定する。
offset=1<<(rightShift-1)、且つ、
y=(x>=0?(x+offset)>>rightShift:-((-x+offset)>>rightShift))<<leftShift
ここで、rightShiftは右シフトパラメータに対応し、leftShiftは左シフトパラメータに対応し、xは対応する成分に対応し、yは対応する成分のシフトバージョンに対応する。
JEM: joint exploration model
VVC: versatile video coding
BMS: benchmark set
MV: Motion Vector
HEVC: High Efficiency Video Coding
SEI: Supplementary Enhancement Information
VUI: Video Usability Information
GOP: Group of Picture
TU: Transform Unit
PU: Prediction Unit
CTU: Coding Tree Unit
CTB: Coding Tree Block
PB: Prediction Block
HRD: Hypothetical Reference Decoder
SNR: Signal Noise Ratio
CPU: Central Processing Unit
GPU: Graphics Processing Unit
CRT: Cathode Ray Tube
LCD: Liquid-Crystal Display
OLED: Organic Light-Emitting Diode
CD: Compact Disc
DVD: Digital Video Disc
ROM: Read-Only Memory
RAM: Random Access Memory
ASIC: Application-Specific Integrated Circuit
PLD: Programmable Logic Device
LAN: Local Area Network
GSM: Global System for Mobile communications
LTE: Long-Term Evolution
CANBus: Controller Area Network Bus
USB: Universal Serial Bus
PCI: Peripheral Component Interconnect
FPGA: Field Programmable Gate Area
SSD: solid-state drive
IC: Integrated Circuit
CU: Coding Unit
SDR: Standard Dynamic Range
HDR: High Dynamic Range
本開示は、いくつかの例示的な実施形態を記載しているが、本開示の範囲内に入る変更、置換及び様々な代替の等価物が存在する。したがって、当業者は、本明細書に明示的に図示又は記載されていないが、本開示の原理を具現し、したがって、本開示の真意及び範囲内にある多数のシステム及び方法を考案することができることが認識される。
Claims (20)
- デコーダが実行するビデオ復号の方法であって、
少なくとも1つの前に復号されたブロックの符号化情報に基づいてカレントブロックを復号するための第1及び第2の参照動きベクトルを決定するステップと、
前記第1の参照動きベクトルの、第1の座標軸上での2の補数整数表現フォーマットの第1の成分を、1だけオフセットし、前記オフセットされた第1の成分を1ビットだけ右シフトすることによりシフトされた第1の成分を取得するステップと、
前記第2の参照動きベクトルの、前記第1の座標軸上での前記2の補数整数表現フォーマットの第2の成分を、1だけオフセットし、前記オフセットされた第2の成分を1ビットだけ右シフトすることによりシフトされた第2の成分を取得するステップと、
前記シフトされた第1の成分及び前記シフトされた第2の成分を加算することによって、第1の平均参照動きベクトルの、前記第1の座標軸上での前記2の補数整数表現フォーマットの第3の成分を生成するステップと、
前記カレントブロックを復号するための参照動きベクトルのリストを構築するステップであって、前記参照動きベクトルのリストは、前記第1及び第2の参照動きベクトルと、前記第1の平均参照動きベクトルとを組み込む、ステップと、
前記参照動きベクトルのリストを使用して動きベクトル予測子を決定するステップと、
前記決定された動きベクトル予測子に基づいて出力用の前記カレントブロックを復号するステップと
を含む方法。 - 前記第1の参照動きベクトルの、第2の座標軸上での前記2の補数整数表現フォーマットの第4の成分を、1だけオフセットし、前記オフセットされた第4の成分を1ビットだけ右シフトすることによりシフトされた第4の成分を取得するステップと、
前記第2の参照動きベクトルの、前記第2の座標軸上での前記2の補数整数表現フォーマットの第5の成分を、1だけオフセットし、前記オフセットされた第5の成分を1ビットだけ右シフトすることによりシフトされた第5の成分を取得するステップと、
前記シフトされた第4の成分及び前記シフトされた第5の成分を加算することによって、前記第1の平均参照動きベクトルの、前記第2の座標軸上での前記2の補数整数表現フォーマットの第6の成分を生成するステップと
を更に含む、請求項1に記載の方法。 - 前記第1の参照動きベクトル及び第3の参照動きベクトルに基づいて、第2の平均参照動きベクトルを生成するステップと、
前記第2の参照動きベクトル及び前記第3の参照動きベクトルに基づいて、第3の平均参照動きベクトルを生成するステップと
を更に含み、
前記カレントブロックを復号するための前記参照動きベクトルのリストを構築する前記ステップは、関連するそれぞれのインデックスの昇順に、前記第1の参照動きベクトル、前記第2の参照動きベクトル、前記第3の参照動きベクトル、前記第1の平均参照動きベクトル、前記第2の平均参照動きベクトル及び前記第3の平均参照動きベクトルを含むように前記参照動きベクトルのリストを配置するステップを含む、請求項1に記載の方法。 - 前記第1の参照動きベクトル及び第4の参照動きベクトルに基づいて、第4の平均参照動きベクトルを生成するステップと、
前記第2の参照動きベクトル及び前記第4の参照動きベクトルに基づいて、第5の平均参照動きベクトルを生成するステップと、
前記第3の参照動きベクトル及び前記第4の参照動きベクトルに基づいて、第6の平均参照動きベクトルを生成するステップと
を更に含み、
前記カレントブロックを復号するための前記参照動きベクトルのリストを構築する前記ステップは、関連するそれぞれのインデックスの昇順に、前記第1の参照動きベクトル、前記第2の参照動きベクトル、前記第3の参照動きベクトル及び前記第4の参照動きベクトルを含むように前記参照動きベクトルのリストを配置し、前記第1の平均参照動きベクトル、前記第2の平均参照動きベクトル、前記第3の平均参照動きベクトル、前記第4の平均参照動きベクトル、前記第5の平均参照動きベクトル及び前記第6の平均参照動きベクトルを追加するステップを含む、請求項3に記載の方法。 - 前記第1の成分をオフセットし、前記オフセットされた第1の成分を右シフトする前記ステップは、
右シフトパラメータを1として設定するステップと、
左シフトパラメータを0として設定するステップと、
前記第1の成分、前記右シフトパラメータ及び前記左シフトパラメータを受信し、
offset=1<<(rightShift-1)、且つ、
y=(x>=0?(x+offset)>>rightShift:-((-x+offset)>>rightShift))<<leftShift
に従って、前記シフトされた第1の成分を計算するように構成された丸めサブルーチンを実行するか、或いは、丸め回路を動作させるステップであり、rightShiftは前記右シフトパラメータに対応し、leftShiftは前記左シフトパラメータに対応し、xは前記第1の成分に対応し、yは前記シフトされた第1成分に対応するステップと
を含む、請求項1に記載の方法。 - 前記第1及び第2の参照動きベクトルは、空間隣接ブロック及び時間隣接ブロックを含む前記少なくとも1つの前に復号されたブロックに基づいて決定される、請求項1に記載の方法。
- 前記参照動きベクトルのリスト内の前記第1及び第2の参照動きベクトルは、1/16の分数サンプルの精度に対応する、請求項1に記載の方法。
- 処理回路を含む装置であって、
前記処理回路は、
少なくとも1つの前に復号されたブロックの符号化情報に基づいてカレントブロックを復号するための第1及び第2の参照動きベクトルを決定するステップと、
前記第1の参照動きベクトルの、第1の座標軸上での2の補数整数表現フォーマットの第1の成分を、1だけオフセットし、前記オフセットされた第1の成分を1ビットだけ右シフトすることによりシフトされた第1の成分を取得するステップと、
前記第2の参照動きベクトルの、前記第1の座標軸上での前記2の補数整数表現フォーマットの第2の成分を、1だけオフセットし、前記オフセットされた第2の成分を1ビットだけ右シフトすることによりシフトされた第2の成分を取得するステップと、
前記シフトされた第1の成分及び前記シフトされた第2の成分を加算することによって、第1の平均参照動きベクトルの、前記第1の座標軸上での前記2の補数整数表現フォーマットの第3の成分を生成するステップと、
前記カレントブロックを復号するための参照動きベクトルのリストを構築するステップであって、前記参照動きベクトルのリストは、前記第1及び第2の参照動きベクトルと、前記第1の平均参照動きベクトルとを組み込む、ステップと、
前記参照動きベクトルのリストを使用して動きベクトル予測子を決定するステップと、
前記決定された動きベクトル予測子に基づいて出力用の前記カレントブロックを復号するステップと
を実行するように構成される、装置。 - 前記処理回路は、
前記第1の参照動きベクトルの、第2の座標軸上での前記2の補数整数表現フォーマットの第4の成分を、1だけオフセットし、前記オフセットされた第4の成分を1ビットだけ右シフトすることによりシフトされた第4の成分を取得するステップと、
前記第2の参照動きベクトルの、前記第2の座標軸上での前記2の補数整数表現フォーマットの第5の成分を、1だけオフセットし、前記オフセットされた第5の成分を1ビットだけ右シフトすることによりシフトされた第5の成分を取得するステップと、
前記シフトされた第4の成分及び前記シフトされた第5の成分を加算することによって、前記第1の平均参照動きベクトルの、前記第2の座標軸上での前記2の補数整数表現フォーマットの第6の成分を生成するステップと
を実行するように更に構成される、請求項8に記載の装置。 - 前記処理回路は、
前記第1の参照動きベクトル及び第3の参照動きベクトルに基づいて、第2の平均参照動きベクトルを生成するステップと、
前記第2の参照動きベクトル及び前記第3の参照動きベクトルに基づいて、第3の平均参照動きベクトルを生成するステップと、
関連するそれぞれのインデックスの昇順に、前記第1の参照動きベクトル、前記第2の参照動きベクトル、前記第3の参照動きベクトル、前記第1の平均参照動きベクトル、前記第2の平均参照動きベクトル及び前記第3の平均参照動きベクトルを含むように前記参照動きベクトルのリストを配置することによって、前記カレントブロックを復号するための前記参照動きベクトルのリストを構築するステップと
を実行するように更に構成される、請求項8に記載の装置。 - 前記処理回路は、
前記第1の参照動きベクトル及び第4の参照動きベクトルに基づいて、第4の平均参照動きベクトルを生成するステップと、
前記第2の参照動きベクトル及び前記第4の参照動きベクトルに基づいて、第5の平均参照動きベクトルを生成するステップと、
前記第3の参照動きベクトル及び前記第4の参照動きベクトルに基づいて、第6の平均参照動きベクトルを生成するステップと、
関連するそれぞれのインデックスの昇順に、前記第1の参照動きベクトル、前記第2の参照動きベクトル、前記第3の参照動きベクトル及び前記第4の参照動きベクトルを含むように前記参照動きベクトルのリストを配置し、前記第1の平均参照動きベクトル、前記第2の平均参照動きベクトル、前記第3の平均参照動きベクトル、前記第4の平均参照動きベクトル、前記第5の平均参照動きベクトル及び前記第6の平均参照動きベクトルを追加することによって、前記カレントブロックを復号するための前記参照動きベクトルのリストを構築するステップと
を実行するように更に構成される、請求項10に記載の装置。 - 前記処理回路は、
右シフトパラメータを1として設定するステップと、
左シフトパラメータを0として設定するステップと、
前記第1の成分、前記右シフトパラメータ及び前記左シフトパラメータを受信し、
offset=1<<(rightShift-1)、且つ、
y=(x>=0?(x+offset)>>rightShift:-((-x+offset)>>rightShift))<<leftShift
に従って、前記シフトされた第1の成分を計算するように構成された丸めサブルーチンを実行するか、或いは、丸め回路を動作させるステップであり、rightShiftは前記右シフトパラメータに対応し、leftShiftは前記左シフトパラメータに対応し、xは前記第1の成分に対応し、yは前記シフトされた第1成分に対応するステップと
を実行するように更に構成される、請求項8に記載の装置。 - 前記処理回路は、
空間隣接ブロック及び時間隣接ブロックを含む前記少なくとも1つの前に復号されたブロックに基づいて、前記第1及び第2の参照動きベクトルを決定するステップ
を実行するように更に構成される、請求項8に記載の装置。 - 前記参照動きベクトルのリスト内の前記第1及び第2の参照動きベクトルは、1/16の分数サンプルの精度に対応する、請求項8に記載の装置。
- 命令を記憶した非一時的なコンピュータ読み取り可能媒体であって、
当該命令は、ビデオ復号のために、コンピュータによって実行されると、前記コンピュータに、
少なくとも1つの前に復号されたブロックの符号化情報に基づいてカレントブロックを復号するための第1及び第2の参照動きベクトルを決定するステップと、
前記第1の参照動きベクトルの、第1の座標軸上での2の補数整数表現フォーマットの第1の成分を、1だけオフセットし、前記オフセットされた第1の成分を1ビットだけ右シフトすることによりシフトされた第1の成分を取得するステップと、
前記第2の参照動きベクトルの、前記第1の座標軸上での前記2の補数整数表現フォーマットの第2の成分を、1だけオフセットし、前記オフセットされた第2の成分を1ビットだけ右シフトすることによりシフトされた第2の成分を取得するステップと、
前記シフトされた第1の成分及び前記シフトされた第2の成分を加算することによって、第1の平均参照動きベクトルの、前記第1の座標軸上での前記2の補数整数表現フォーマットの第3の成分を生成するステップと、
前記カレントブロックを復号するための参照動きベクトルのリストを構築するステップであって、前記参照動きベクトルのリストは、前記第1及び第2の参照動きベクトルと、前記第1の平均参照動きベクトルとを組み込む、ステップと、
前記参照動きベクトルのリストを使用して動きベクトル予測子を決定するステップと、
前記決定された動きベクトル予測子に基づいて出力用の前記カレントブロックを復号するステップと
を実行させる、非一時的なコンピュータ読み取り可能媒体。 - 前記命令は、前記コンピュータによって実行されると、前記コンピュータに、
前記第1の参照動きベクトルの、第2の座標軸上での前記2の補数整数表現フォーマットの第4の成分を、1だけオフセットし、前記オフセットされた第4の成分を1ビットだけ右シフトすることによりシフトされた第4の成分を取得するステップと、
前記第2の参照動きベクトルの、前記第2の座標軸上での前記2の補数整数表現フォーマットの第5の成分を、1だけオフセットし、前記オフセットされた第5の成分を1ビットだけ右シフトすることによりシフトされた第5の成分を取得するステップと、
前記シフトされた第4の成分及び前記シフトされた第5の成分を加算することによって、前記第1の平均参照動きベクトルの、前記第2の座標軸上での前記2の補数整数表現フォーマットの第6の成分を生成するステップと
を更に実行させる、請求項15に記載の非一時的なコンピュータ読み取り可能媒体。 - 前記命令は、前記コンピュータによって実行されると、前記コンピュータに、
前記第1の参照動きベクトル及び第3の参照動きベクトルに基づいて、第2の平均参照動きベクトルを生成するステップと、
前記第2の参照動きベクトル及び前記第3の参照動きベクトルに基づいて、第3の平均参照動きベクトルを生成するステップと、
を更に実行させ、
前記カレントブロックを復号するための前記参照動きベクトルのリストを構築する前記ステップは、関連するそれぞれのインデックスの昇順に、前記第1の参照動きベクトル、前記第2の参照動きベクトル、前記第3の参照動きベクトル、前記第1の平均参照動きベクトル、前記第2の平均参照動きベクトル及び前記第3の平均参照動きベクトルを含むように前記参照動きベクトルのリストを配置するステップを含む、請求項15に記載の非一時的なコンピュータ読み取り可能媒体。 - 前記命令は、前記コンピュータによって実行されると、前記コンピュータに、
前記第1の参照動きベクトル及び第4の参照動きベクトルに基づいて、第4の平均参照動きベクトルを生成するステップと、
前記第2の参照動きベクトル及び前記第4の参照動きベクトルに基づいて、第5の平均参照動きベクトルを生成するステップと、
前記第3の参照動きベクトル及び前記第4の参照動きベクトルに基づいて、第6の平均参照動きベクトルを生成するステップと
を更に実行させ、
前記カレントブロックを復号するための前記参照動きベクトルのリストを構築する前記ステップは、関連するそれぞれのインデックスの昇順に、前記第1の参照動きベクトル、前記第2の参照動きベクトル、前記第3の参照動きベクトル及び前記第4の参照動きベクトルを含むように前記参照動きベクトルのリストを配置し、前記第1の平均参照動きベクトル、前記第2の平均参照動きベクトル、前記第3の平均参照動きベクトル、前記第4の平均参照動きベクトル、前記第5の平均参照動きベクトル及び前記第6の平均参照動きベクトルを追加するステップを含む、請求項17に記載の非一時的なコンピュータ読み取り可能媒体。 - 前記第1の成分をオフセットし、前記オフセットされた第1の成分を右シフトする前記ステップは、
右シフトパラメータを1として設定するステップと、
左シフトパラメータを0として設定するステップと、
前記第1の成分、前記右シフトパラメータ及び前記左シフトパラメータを受信し、
offset=1<<(rightShift-1)、且つ、
y=(x>=0?(x+offset)>>rightShift:-((-x+offset)>>rightShift))<<leftShift
に従って、前記シフトされた第1の成分を計算するように構成された丸めサブルーチンを実行するか、或いは、丸め回路を動作させるステップであり、rightShiftは前記右シフトパラメータに対応し、leftShiftは前記左シフトパラメータに対応し、xは前記第1の成分に対応し、yは前記シフトされた第1成分に対応するステップと
を含む、請求項15に記載の非一時的なコンピュータ読み取り可能媒体。 - 前記第1及び第2の参照動きベクトルは、空間隣接ブロック及び時間隣接ブロックを含む前記少なくとも1つの前に復号されたブロックに基づいて決定される、請求項15に記載の非一時的なコンピュータ読み取り可能媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862748675P | 2018-10-22 | 2018-10-22 | |
US62/748,675 | 2018-10-22 | ||
US16/424,352 US11032541B2 (en) | 2018-10-22 | 2019-05-28 | Method and apparatus for video coding |
US16/424,352 | 2019-05-28 | ||
PCT/US2019/056269 WO2020086331A1 (en) | 2018-10-22 | 2019-10-15 | Method and apparatus for video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021513818A JP2021513818A (ja) | 2021-05-27 |
JP7016971B2 true JP7016971B2 (ja) | 2022-02-07 |
Family
ID=70280067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020564828A Active JP7016971B2 (ja) | 2018-10-22 | 2019-10-15 | ビデオ符号化の方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11032541B2 (ja) |
EP (1) | EP3766182A4 (ja) |
JP (1) | JP7016971B2 (ja) |
KR (1) | KR102484926B1 (ja) |
CN (1) | CN112020829B (ja) |
WO (1) | WO2020086331A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7104186B2 (ja) | 2018-06-05 | 2022-07-20 | 北京字節跳動網絡技術有限公司 | Ibcとatmvpとの間でのインタラクション |
CN110636297B (zh) | 2018-06-21 | 2021-05-14 | 北京字节跳动网络技术有限公司 | 分量相关的子块分割 |
CN110636298B (zh) | 2018-06-21 | 2022-09-13 | 北京字节跳动网络技术有限公司 | 对于Merge仿射模式和非Merge仿射模式的统一约束 |
WO2020065518A1 (en) | 2018-09-24 | 2020-04-02 | Beijing Bytedance Network Technology Co., Ltd. | Bi-prediction with weights in video coding and decoding |
CN112997480B (zh) * | 2018-11-10 | 2023-08-22 | 北京字节跳动网络技术有限公司 | 成对平均候选计算中的取整 |
US11729395B2 (en) * | 2021-11-26 | 2023-08-15 | Huawei Technologies Co., Ltd. | Methods and devices for extracting motion vector data from compressed video data |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005182294A (ja) | 2003-12-17 | 2005-07-07 | Fujitsu Ltd | 平均値算出装置および平均値算出方法 |
JP2013098745A (ja) | 2011-10-31 | 2013-05-20 | Fujitsu Ltd | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
JP2020043500A (ja) | 2018-09-12 | 2020-03-19 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100865034B1 (ko) * | 2002-07-18 | 2008-10-23 | 엘지전자 주식회사 | 모션 벡터 예측 방법 |
WO2006050651A1 (en) * | 2004-09-29 | 2006-05-18 | Tencent Technology (Shenzhen) Company Limited | Method for performing motion estimation |
KR100909390B1 (ko) * | 2007-09-18 | 2009-07-24 | 한국과학기술원 | 고속 움직임 보상 장치 및 방법 |
JP5325638B2 (ja) * | 2008-11-26 | 2013-10-23 | 日立コンシューマエレクトロニクス株式会社 | 画像復号化方法 |
US9060176B2 (en) * | 2009-10-01 | 2015-06-16 | Ntt Docomo, Inc. | Motion vector prediction in video coding |
CN104967857B (zh) * | 2010-01-19 | 2019-08-23 | 三星电子株式会社 | 对图像进行编码/解码的方法和设备 |
CN105187838A (zh) * | 2011-05-31 | 2015-12-23 | Jvc建伍株式会社 | 动图像解码装置、动图像解码方法、接收装置及接收方法 |
CN102868889A (zh) * | 2011-07-06 | 2013-01-09 | 乐金电子(中国)研究开发中心有限公司 | 帧间图像视频编解码的运动矢量预测方法及视频编解码器 |
WO2015104451A1 (en) * | 2014-01-07 | 2015-07-16 | Nokia Technologies Oy | Method and apparatus for video coding and decoding |
CN108353184B (zh) * | 2015-11-05 | 2022-02-01 | 联发科技股份有限公司 | 一种视频编解码的方法及装置 |
US20200014931A1 (en) * | 2018-07-06 | 2020-01-09 | Mediatek Inc. | Methods and Apparatuses of Generating an Average Candidate for Inter Picture Prediction in Video Coding Systems |
-
2019
- 2019-05-28 US US16/424,352 patent/US11032541B2/en active Active
- 2019-10-15 WO PCT/US2019/056269 patent/WO2020086331A1/en unknown
- 2019-10-15 JP JP2020564828A patent/JP7016971B2/ja active Active
- 2019-10-15 CN CN201980027197.9A patent/CN112020829B/zh active Active
- 2019-10-15 EP EP19875943.3A patent/EP3766182A4/en active Pending
- 2019-10-15 KR KR1020207029985A patent/KR102484926B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005182294A (ja) | 2003-12-17 | 2005-07-07 | Fujitsu Ltd | 平均値算出装置および平均値算出方法 |
JP2013098745A (ja) | 2011-10-31 | 2013-05-20 | Fujitsu Ltd | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
JP2020043500A (ja) | 2018-09-12 | 2020-03-19 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
Non-Patent Citations (2)
Title |
---|
Benjamin Bross et al.,Versatile Video Coding (Draft 2),Joint Video Experts Team (JVET),2018年09月21日,pp.88-89,[JVET-K1001-v6] (version 6) |
Yu-Ling Hsiao et al.,CE4.4.12: Pairwise average candidates, Joint Video Experts Team (JVET),2018年10月03日,[JVET-L0090-v2] (version 3) |
Also Published As
Publication number | Publication date |
---|---|
US11032541B2 (en) | 2021-06-08 |
US20200128237A1 (en) | 2020-04-23 |
EP3766182A4 (en) | 2021-12-29 |
WO2020086331A1 (en) | 2020-04-30 |
CN112020829B (zh) | 2022-11-01 |
EP3766182A1 (en) | 2021-01-20 |
KR102484926B1 (ko) | 2023-01-05 |
KR20200128154A (ko) | 2020-11-11 |
JP2021513818A (ja) | 2021-05-27 |
CN112020829A (zh) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113557728B (zh) | 视频编解码方法和装置 | |
JP7016971B2 (ja) | ビデオ符号化の方法及び装置 | |
JP2021518088A (ja) | 小ブロックの予測と変換のための方法、装置、及びプログラム | |
JP7027617B2 (ja) | ビデオエンコーディング及びデコーディングのための方法、装置、コンピュータプログラム、及び非一時的なコンピュータ可読媒体 | |
JP7055485B2 (ja) | 映像符号化のための方法並びに、その、装置及びコンピュータプログラム | |
JP2021513817A (ja) | デコーダ側の動きベクトルの導出及び精緻化の改良 | |
JP2021520172A (ja) | 動画の符号化及び復号の方法、装置及びコンピュータプログラム | |
JP2022511865A (ja) | ビデオ符号化又は復号の方法及び装置並びにコンピュータプログラム | |
JP7362876B2 (ja) | 簡略化された最確モードリスト生成スキーム | |
JP2022515126A (ja) | ビデオ・コーディングのための方法、装置及びコンピュータ・プログラム | |
JP2022511851A (ja) | 最大変換サイズの制御 | |
CN111316639B (zh) | 视频解码方法和装置、及存储介质 | |
JP2022524107A (ja) | イントラピクチャブロック補償のための予測候補リストサイズシグナリングのための方法および装置 | |
JP7066919B2 (ja) | 階層的タイル | |
JP2022501959A (ja) | ビデオ符号化及び復号のための方法および装置 | |
JP2022516062A (ja) | ビデオ復号のための方法、ビデオデコーダ、およびコンピュータプログラム、ならびにビデオ符号化のための方法 | |
JP2021520752A (ja) | ビデオ復号化のための方法、装置及びコンピュータプログラム | |
JP2022512109A (ja) | ビデオ復号及び符号化の方法、装置並びにプログラム | |
JP2022522683A (ja) | ビデオコーディングのための方法並びにその、装置およびコンピュータプログラム | |
JP2022526380A (ja) | スキップモードフラグを伝達するための方法、装置及びコンピュータプログラム | |
JP2022502950A (ja) | ビデオ符号化及び復号の方法及び装置並びにコンピュータプログラム | |
CN113508582B (zh) | 视频编码、解码的方法、装置及可读介质 | |
CN112715032A (zh) | 帧内预测中的帧内模式选择 | |
CN110719462A (zh) | 视频解码的方法和装置 | |
CN113170151A (zh) | 具有并行处理能力的基于历史的运动信息缓冲器更新的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200817 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200812 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220126 |