JP7307154B2 - 適応動きベクトル解像度による動きベクトルの変更 - Google Patents

適応動きベクトル解像度による動きベクトルの変更 Download PDF

Info

Publication number
JP7307154B2
JP7307154B2 JP2021514371A JP2021514371A JP7307154B2 JP 7307154 B2 JP7307154 B2 JP 7307154B2 JP 2021514371 A JP2021514371 A JP 2021514371A JP 2021514371 A JP2021514371 A JP 2021514371A JP 7307154 B2 JP7307154 B2 JP 7307154B2
Authority
JP
Japan
Prior art keywords
motion vector
precision
mvd
mvp
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021514371A
Other languages
English (en)
Other versions
JP2022503715A (ja
Inventor
ホンビン リウ
リー ジャン
カイ ジャン
ユエ ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2022503715A publication Critical patent/JP2022503715A/ja
Priority to JP2023045399A priority Critical patent/JP2023078364A/ja
Application granted granted Critical
Publication of JP7307154B2 publication Critical patent/JP7307154B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Complex Calculations (AREA)
  • Television Systems (AREA)

Description

関連出願の相互参照
パリ条約に基づく適用可能な特許法および/または規則に基づいて、本願は、2018年9月23日出願の国際特許出願第PCT/CN2018/107168号の優先権および利益を適時に主張することを目的とする。米国法に基づくすべての目的のために、上記出願の開示全体は、本明細書の開示の一部として参照により援用される。
本特許明細書は、映像符号化技術、デバイスおよびシステムに関する。
映像圧縮の進歩にもかかわらず、デジタル映像は、依然として、インターネットおよび他のデジタル通信ネットワークにおいて最大の帯域幅の使用量を占めている。映像の受信および表示が可能な接続されたユーザ機器の数が増加するにつれ、デジタル映像の使用に対する帯域幅需要は増大し続けることが予測される。
デジタル映像符号化に関し、具体的には、適応動きベクトル解像度(AMVR)を有するアフィンモードのための動きベクトル予測子の導出および信号通知に関するデバイス、システム、および方法を説明する。記載された方法は、既存の映像符号化規格(例えば、高効率映像符号化(HEVC))および将来の映像符号化規格またはビデオコーデックの両方に適用され得る。
1つの代表的な態様において、開示される技術は、映像処理の方法を提供するために使用してもよい。この方法は、現在の映像ブロックと現在の映像ブロックのビットストリーム表現との間で変換するために、現在の映像ブロックに関連付けられた各動きベクトルの解像度を適宜選択する符号化ツールを使用して、最終的動きベクトルを判定することであって、最終的動きベクトルの精度は、現在の映像ブロックの記憶された動きベクトルの精度と同一である、判定することと、最終的動きベクトルに基づいて、ビットストリーム表現と現在の映像ブロックとの間で変換を行うことと、を含む。
別の代表的な態様では、開示される技術は、映像処理の方法を提供するために使用してもよい。この方法は、現在の映像ブロックと現在の映像ブロックのビットストリーム表現との間で変換するために、現在の映像ブロックに関連付けられた各動きベクトルの解像度を適宜選択する符号化ツールを使用して、最終的動きベクトルを判定することであって、現在の映像ブロックはアフィンモードで符号化され、ビットストリーム表現は、現在の映像ブロックに関連付けられた動きベクトルの精度または動きベクトルの差を示す2つ以上のビットを含むフィールドを含む、判定することと、最終的動きベクトルに基づいて、ビットストリーム表現と現在の映像ブロックとの間の変換を実行することと、を含む。
さらに別の代表的な態様において、上記方法は、処理装置が実行可能なコードの形式で実施され、コンピュータ可読プログラム媒体に記憶される。
さらに別の代表的な態様において、上述した方法を行うように構成された、または動作可能なデバイスが開示される。この装置は、この方法を実装するようにプログラムされた処理装置を含んでもよい。
さらに別の代表的な態様において、ビデオデコーダ装置は、本明細書で説明されるような方法を実装してもよい。
開示される技術の上記および他の態様および特徴は、図面、説明および特許請求の範囲でより詳細に説明される。
マージ候補リストを構築する例を示す。 空間的候補の位置の一例を示す。 空間的マージ候補の冗長性チェックの対象となる候補対の例を示す。 現在のブロックのサイズおよび形状に基づく第2の予測ユニット(PU)の位置の例を示す。 現在のブロックのサイズおよび形状に基づく第2の予測ユニット(PU)の位置の例を示す。 時間的マージ候補のための動きベクトルのスケーリングの例を示す。 時間的マージ候補の候補位置の一例を示す図である。 結合双予測マージ候補を生成する例を示す。 動きベクトル予測候補の構築例を示す。 空間的動きベクトル候補のための動きベクトルのスケーリングの例を示す。 符号化ユニット(CU)のために代替の時間的動きベクトル予測(ATMVP)アルゴリズムを使用する動き予測の例を示す。 空間的-時間的動きベクトル予測(STMVP)アルゴリズムで使用されるサブブロックおよび近傍のブロックを有する符号化ユニット(CU)の例を示す。 重複ブロック動き補償(OBMC)アルゴリズムを使用する場合のサブブロックの例示的なスナップショットを示す。 重複ブロック動き補償(OBMC)アルゴリズムを使用する場合のサブブロックの例示的なスナップショットを示す。 ローカル照明補償(LIC)アルゴリズムのパラメータを導出するために使用される近傍のサンプルの例を示す。 簡略化したアフィン動きモデルの一例を示す。 サブブロックごとのアフィン動きベクトルフィールド(MVF)の例を示す。 AF_INTERアフィン動きモードにおける動きベクトル予測(MVP)の例を示す。 それぞれ4パラメータおよび6パラメータアフィンモードの例を示す。 それぞれ4パラメータおよび6パラメータアフィンモードの例を示す。 AF_MERGEアフィン動きモードの候補の例を示す。 AF_MERGEアフィン動きモードの候補の例を示す。 フレームレートアップ変換(FRUC)アルゴリズムに基づく特殊なマージモードである、パターンマッチング動きベクトル導出(PMMVD)モードにおけるバイラテラルマッチングの例を示す。 FRUCアルゴリズムにおけるテンプレートマッチングの一例を示す。 FRUCアルゴリズムにおけるユニラテラル動き推定の例を示す。 映像処理のための例示的な方法のフローチャートを示す。 映像処理の他の例示的な方法のフローチャートを示す。 本明細書に記載されるビジュアルメディアの復号化またはビジュアルメディアの符号化技術を実装するためのハードウェアプラットフォームの一例を示すブロック図である。 開示される技術が実装され得る例示的な映像処理システムのブロック図である。
より高い解像度の映像の需要が増大しているため、近代技術において、映像符号化法および技術は、遍在している。ビデオコーデックは、一般的に、デジタル映像を圧縮または展開する電子回路またはソフトウェアを含み、より高い符号化効率を提供するように絶えず改良されている。ビデオコーデックは、非圧縮映像を圧縮フォーマットに変換する、またはその逆である。映像の品質、映像を表現するために使用されるデータの数(ビットレートで決まる)、エンコーディングおよびデコーディングアルゴリズムの複雑性、データの損失およびエラーに対する敏感さ、編集のしやすさ、ランダムアクセス、およびエンドツーエンドの遅延(待ち時間)の間には複雑な関係がある。この圧縮フォーマットは、通常、標準的な映像圧縮規格、例えば、高効率映像符号化(High Efficiency Video Coding、HEVC)規格(H.265またはMPEG-H Part 2としても知られている)[1]、完成させるべき汎用映像符号化規格、または他の現在および/または将来の映像符号化規格に準拠している。
開示される技術の実施形態は、圧縮性能を向上させるために、既存の映像符号化規格(例えば、HEVC、H.265)および将来の規格に適用されてもよい。本明細書では、説明の可読性を向上させるために章の見出しを使用しており、説明または実施形態(および/または実装形態)をそれぞれの章のみに限定するものではない。
1. HEVC/H.265におけるインター予測の例
映像符号化規格は、長年にわたって大幅に改善され、現在、部分的には、高いコーディング効率を実現し、より高い解像度をサポートする。HEVCおよびH.265などの最近の規格は、時間予測プラス変換コーディングが利用されるハイブリッド映像符号化構造に基づく。
1.1 予測モードの例
各インター予測されたPU(予測ユニット)は、1つまたは2つの参照ピクチャリストのための動きパラメータを有する。いくつかの実施形態において、動きパラメータは、動きベクトルおよび参照ピクチャインデックスを含む。他の実施例において、2つの参照ピクチャリストのうちの1つの参照ピクチャリストの使用は、inter_pred_idcを用いて通知されてもよい。さらに他の実施形態において、動きベクトルは、予測子に対するデルタ(delta)として明確にコーディングされてもよい。
1つのCUがスキップモードでコーディングされる場合、1つのPUがこのCUに関連付けられ、有意な残差係数がなく、コーディング動きベクトルデルタも参照ピクチャインデックスもない。マージモードを指定し、これにより、現在のPUのための動きパラメータを、空間的および時間的候補を含む近傍のPUから取得する。マージモードは、スキップモードのためだけでなく、任意のインター予測されたPUに適用することができる。マージモードの代替としては、動きパラメータの明確な送信があり、PUごとに、各参照ピクチャリストおよび参照ピクチャリストの使用に対応する参照ピクチャインデックスである、動きベクトルを明確に信号通知する。
2つの参照ピクチャリストのうちの1つを使用することを信号通知が示す場合、1つのサンプルのブロックからPUを生成する。これを「単一予測」と呼ぶ。単一予測は、PスライスおよびBスライスの両方に利用可能である[2]。
両方の参照ピクチャリストを使用することを信号通知が示す場合、2つのサンプルのブロックからPUを生成する。これを「双予測」と呼ぶ。Bスライスのみに双予測が利用可能である。
1.1.1 マージモードの候補を構築する実施形態
マージモードを使用してPUを予測する場合、ビットストリームからマージ候補リストにおけるエントリを指すインデックスを構文解析し、これを使用して動き情報を検索する。このリストの構成は、以下のステップのシーケンスに基づいてまとめることができる。
ステップ1:初期候補導出
ステップ1.1:空間的候補導出
ステップ1.2:空間的候補の冗長性チェック
ステップ1.3:時間的候補導出
ステップ2:追加候補挿入
ステップ2.1:双予測候補の作成
ステップ2.2:動きゼロ候補の挿入
図1は、上記ステップのシーケンスに基づいて、マージ候補リストを構築する例を示す。空間的マージ候補導出のために、5つの異なる位置にある候補の中から最大4つのマージ候補を選択する。時間的マージ候補導出のために、2つの候補の中から最大1つのマージ候補を選択する。デコーダ側ではPUごとに一定数の候補を想定しているので、候補数がスライスヘッダで信号通知されるマージ候補(MaxNumMergeCand)の最大数に達しない場合、追加の候補を生成する。候補の数は一定であるので、短縮された単項2値化(TU)を使用して最良マージ候補のインデックスをエンコードする。CUのサイズが8に等しい場合、現在のCUのすべてのPUは、2N×2N予測ユニットのマージ候補リストと同じ1つのマージ候補リストを共有する。
1.1.2 空間的マージ候補の構築
空間的マージ候補の導出において、図2に示す位置にある候補の中から、最大4つのマージ候補を選択する。導出の順序はA、B、B、A、Bである。位置A、B、B、AのいずれかのPUが利用可能でない場合(例えば、別のスライスまたはタイルに属しているため)、またはイントラコーディングされた場合にのみ、位置Bが考慮される。位置Aの候補を加えた後、残りの候補を加えると、冗長性チェックを受け、それにより、同じ動き情報を有する候補を確実にリストから排除でき、コーディング効率を向上させることができる。
計算の複雑性を低減するために、前述の冗長性チェックにおいて、考えられる候補対のすべてを考慮することはしない。その代わりに、図3の矢印で結ばれたペアのみを考慮し、冗長性チェックに使用された対応する候補が同じ動き情報を持っていない場合に、候補をリストに追加するのみである。重複した動き情報の別のソースは、2N×2Nとは異なるパーティションに関連付けられた「第2のPU」である。一例として、図4Aおよび図4Bは、それぞれ、N×2Nおよび2N×Nの場合の第2のPUを描いている。現在のPUをN×2Nに分割する場合、リスト構築に位置Aの候補は考慮されない。いくつかの実施形態において、この候補を加えることにより、2つの予測ユニットが同じ動き情報を有するようになり、1つのコーディングユニットに1つのPUのみを有することは冗長である。同様に、現在のPUを2N×Nに分割する場合、位置Bは考慮されない。
1.1.3 時間的マージ候補の構築
このステップにおいて、1つの候補のみがリストに追加される。具体的には、この時間的マージ候補の導出において、所与の参照ピクチャリストにおける現在のピクチャとの間に最小のPOC差を有するピクチャに属する同一位置PUに基づいて、スケーリングされた動きベクトルを導出する。スライスヘッダにおいて、同一位置PUの導出に用いられる参照ピクチャリストが明確に信号通知される。
図5は、POC距離tb、tdを用いて、同一位置PUの動きベクトルからスケーリングされた、現在のピクチャの参照ピクチャと現在のピクチャとの間のPOC差をtbとし、同一位置ピクチャの参照ピクチャと同一位置ピクチャとの間のPOC差をtdとする、時間的マージ候補のためのスケーリングされた動きベクトル(点線)の導出の例を示す。時間的マージ候補の参照ピクチャインデックスをゼロに等しく設定する。Bスライスの場合、2つの動きベクトル、即ち、1つは参照ピクチャリスト0のためのもの、もう1つは参照ピクチャリスト1のためのものを取得し、これらを組み合わせることによって、双予測マージ候補を形成する。
参照フレームに属する同一位置PU(Y)において、図6に示すように、候補Cと候補Cとの間で時間的候補の位置を選択する。位置CのPUが利用可能でない場合、イントラコーディングされている場合、または現在のCTUの外側にある場合、位置Cが使用される。そうでない場合、位置Cが時間的マージ候補の導出に使用される。
1.1.4 追加タイプのマージ候補の構築
時空間的マージ候補の他に、2つの追加のタイプのマージ候補、すなわち、結合双予測マージ候補およびゼロマージ候補がある。時空間的マージ候補を利用して、結合双予測マージ候補を生成する。結合双予測マージ候補は、Bスライスのみに使用される。最初の候補の第1の参照ピクチャリスト動きパラメータと別の候補の第2の参照ピクチャリスト動きパラメータとを組み合わせることで、結合双予測候補を生成する。これら2つのタプルが異なる動き仮説を提供する場合、これらのタプルは、新しい双予測候補を形成する。
図7は、このプロセスの例を示しており、mvL0、refIdxL0、またはmvL1、refIdxL1を有するオリジナルリスト(710、左側)における、2つの候補を使用して、最終リスト(720、右側)に加えられる結合双予測マージ候補を生成する。
動きゼロ候補を挿入し、マージ候補リストにおける残りのエントリを埋めることにより、MaxNumMergeCand容量にヒットする。これらの候補は、空間的変位がゼロであり、新しいゼロ動き候補をリストに加える度にゼロから始まり増加する参照ピクチャインデックスを有する。これらの候補が使用する参照フレームの数は、それぞれ、一方向予測の場合は1つ、双方向予測の場合は2つである。いくつかの実施形態において、これらの候補に対して冗長性チェックは行われない。
1.1.5 並列処理のための動き推定領域の例
エンコーディング処理を高速化するために、動き推定を並列に行うことができ、それによって、所与の領域内のすべての予測ユニットの動きベクトルを同時に導出する。1つの予測ユニットは、その関連する動き推定が完了するまで、隣接するPUから動きパラメータを導出することができないので、空間的近傍からのマージ候補の導出は、並列処理に干渉する可能性がある。コーディング効率と処理待ち時間との間のトレードオフを緩和するために、動き推定領域(MER)を規定することができる。「log2_parallel_merge_level_minus2」構文要素を使用して、ピクチャパラメータセット(PPS)においてMERのサイズを信号通知してもよい。1つのMERを規定するとき、同じ領域にあるマージ候補は使用不可としてマークされ、それゆえにリスト構築においては考慮されない。
1.2 高度動きベクトル予測(AMVP)の実施形態
AMVPは、動きパラメータの明確な伝送に使用される、動きベクトルの近傍のPUとの空間的-時間的相関を利用する。まず、左側、上側の時間的に近傍のPU位置の可用性をチェックし、冗長な候補を取り除き、ゼロベクトルを加えることで、候補リストの長さを一定にすることで、動きベクトル候補リストを構築する。次いで、エンコーダは、候補リストから最良の予測子を選択し、選択された候補を示す対応するインデックスを送信することができる。マージインデックスの信号通知と同様に、最良の動きベクトル候補のインデックスは、短縮された単項を使用してエンコードされる。この場合に符号化されるべき最大値は2である(図8参照)。以下の章では、動きベクトル予測候補の導出処理の詳細を説明する。
1.2.1 動きベクトル予測候補の構築例
図8は、動きベクトル予測候補の導出処理をまとめたものであり、refidxを入力として、各参照ピクチャリストに対して実装されてもよい。
動きベクトル予測において、空間的動きベクトル候補と時間的動きベクトル候補という2つのタイプの動きベクトル候補が考えられる。空間的動きベクトル候補を導出するために、最終的には、図2に示したように、5つの異なる位置にある各PUの動きベクトルに基づいて、2つの動きベクトル候補を導出する。
時間的動きベクトル候補を導出するために、2つの異なる同じ場所に配置された位置に基づいて導出された2つの候補から1つの動きベクトル候補を選択する。第1の時空間的候補リストを作成した後、リストにおける重複した動きベクトル候補を除去する。候補の数が2よりも多い場合、関連づけられた参照ピクチャリストにおける参照ピクチャインデックスが1よりも大きい動きベクトル候補をリストから削除する。空間的―時間的動きベクトル候補の数が2未満である場合は、追加のゼロ動きベクトル候補をリストに加える。
1.2.2 空間的動きベクトル候補の構築
空間的動きベクトル候補の導出において、前回図2に示したような位置にあるPUから導出された5つの候補のうち、最大2つの候補を考慮され、それらの位置は動きマージの位置と同じである。現在のPUの左側のための導出の順序は、A、A、スケーリングされたA、スケーリングされたAとして規定される。現在のPUの上側のための導出の順序は、B、B、B、スケーリングされたB、スケーリングされたB、スケーリングされたBとして規定される。そのため、辺ごとに、動きベクトル候補として使用できる場合は4つ、すなわち空間的スケーリングを使用する必要がない2つの場合と、空間的スケーリングを使用する2つの場合とがある。4つの異なる場合をまとめると、以下のようになる。
--空間的スケーリングなし
(1)同じ参照ピクチャリスト、および同じ参照ピクチャインデックス(同じPOC)
(2)異なる参照ピクチャリストであるが、同じ参照ピクチャ(同じPOC)
--空間的スケーリング
(3)同じ参照ピクチャリストであるが、異なる参照ピクチャ(異なるPOC)
(4)異なる参照ピクチャリスト、および異なる参照ピクチャ(異なるPOC)
まず、非空間的スケーリングの場合をチェックし、次に、空間的スケーリングを可能にする場合をチェックする。参照ピクチャリストにかかわらず、POCが近傍のPUの参照ピクチャと現在のPUの参照ピクチャとで異なる場合、空間的スケーリングを考慮する。左側候補のすべてのPUが利用可能でないか、またはイントラコーディングされている場合、上側の動きベクトルのスケーリングは、左側および上側MV候補の並列導出に役立つ。そうでない場合、上側の動きベクトルに対して空間的スケーリングは許可されない。
図9の例に示すように、空間的スケーリングの場合は、時間的スケーリングの場合と同様に、近傍のPUの動きベクトルがスケーリングされる。1つの違いは、現在のPUの参照ピクチャリストおよびインデックスを入力として与え、実際のスケーリング処理は時間的スケーリングと同じであることである。
1.2.3 時間的動きベクトル候補の構築
参照ピクチャインデックスを導出すること以外は、時間的マージ候補を導出するためのすべての処理は、空間的動きベクトル候補を導出するための処理と同じである(図6の例に示す)。いくつかの実施形態において、参照ピクチャインデックスはデコーダに信号通知される。
2. 共同探索モデル(Joint Exploration Model:JEM)におけるインター予測方法の例
いくつかの実施形態において、将来の映像符号化技術は、Joint Exploration Model(JEM)[3][4]として知られる参照ソフトウェアを用いて検討される。JEMでは、サブブロックベースの予測は、アフィン予測、代替時間的動きベクトル予測(ATMVP)、空間的-時間的動きベクトル予測(STMVP)、双方向オプティカルフロー(BIO)、フレームレートアップ変換(FRUC)、ローカル適応動きベクトル解像度(LAMVR)、オーバーラップブロック動き補償(OBMC)、ローカル照明補償(LIC)、デコーダ側動きベクトル改良(DMVR)などの、いくつかの符号化ツールで適用されている。
2.1 サブCUに基づく動きベクトル予測の例
4分木に2分木を加えたJEM(QTBT)において、各CUは、各予測方向に対して最大1つの動きパラメータのセットを有することができる。いくつかの実施形態において、エンコーダにおいて、ラージCUをサブCUに分割し、ラージCUのすべてのサブCUの動き情報を導出することにより、2つのサブCUレベルの動きベクトル予測方法を考慮する。代替的な時間的動きベクトル予測(ATMVP)方法により、各CUが、配列された参照ピクチャにおける現在のCUよりも小さい複数のブロックから複数の動き情報のセットをフェッチすることが可能となる。空間的-時間的動きベクトル予測(STMVP)法において、時間的動きベクトル予測子および空間的近傍動きベクトルを使用して、サブCUの動きベクトルを再帰的に導出する。いくつかの実施形態において、サブCU動き予測のためにより正確な動きフィールドを維持するために、参照フレームの動き圧縮は無効にされてもよい。
2.1.1 代替の時間的動きベクトル予測(ATMVP)の例
ATMVP法において、時間的動きベクトル予測(TMVP)法は、現在のCUより小さいブロックから複数セットの動き情報(動きベクトルおよび参照インデックスを含む)を取り出すことで修正される。
図10は、CU 1000におけるATMVP動き予測処理の一例を示す。ATMVP法は、CU 1000におけるサブCU1001の動きベクトルを2つのステップで予測する。第1のステップでは、参照ピクチャ1050における対応するブロック1051を時間的ベクトルで特定する。参照ピクチャ1050は、モーションソースピクチャとも呼ばれる。第2のステップでは、現在のCU1000をサブCU1001に分割し、各サブCUに対応するブロックから、各サブCUの動きベクトルおよび参照インデックスを得る。
第1のステップにおいて、現在のCU 1000の空間的に近傍のブロックの動き情報によって、参照ピクチャ1050および対応するブロックを判定する。近傍のブロックの繰り返し走査処理を回避するために、現在のCU1000のマージ候補リストにおける第1のマージ候補を用いる。第1の利用可能な動きベクトルおよびその関連する参照インデックスを、時間的ベクトルおよびモーションソースピクチャのインデックスに設定する。このように、TMVPに比べて、対応するブロックをより正確に特定することができ、対応するブロック(配列されたブロックと呼ばれることがある)は、常に現在のCUに対して右下または中心位置にある。
第2のステップにおいて、現在のCUの座標に時間的ベクトルを加えることで、モーションソースピクチャ1050における時間的ベクトルによって、サブCU1051の対応するブロックを特定する。サブCUごとに、その対応するブロックの動き情報(例えば、中心サンプルを覆う最小の動きグリッド)を使用して、サブCUの動き情報を導出する。対応するN×Nブロックの動き情報を特定した後、HEVCのTMVPと同様に、現在のサブCUの動きベクトルおよび参照インデックスに変換され、動きスケーリングや他の手順が適用される。例えば、デコーダは、低遅延条件(例えば、現在のピクチャのすべての参照ピクチャのPOCが現在のピクチャのPOCよりも小さい)が満たされているかどうかをチェックし、場合によっては、動きベクトルMVx(例えば、参照ピクチャリストxに対応する動きベクトル)を使用して、各サブCUの動きベクトルMVy(例えば、Xが0または1に等しく、Yが1-Xに等しい)を予測する。
2.1.2 空間的-時間的動きベクトル予測(STMVP)の例
STMVP法において、サブCUの動きベクトルは、ラスタスキャンの順に沿って再帰的に導出される。図11は、4つのサブブロックおよび近傍のブロックを有する1つのCUの例を示す。4つの4×4個のサブCU、A(1101)、B(1102)、C(1103)、およびD(1104)を含む8×8個のCU1100を考える。現在のフレームにおける近傍の4×4ブロックを、a(1111)、b(1112)、c(1113)、d(1114)とラベルする。
サブCUのAの動きの導出は、その2つの空間的近傍を特定することで始まる。第1の近傍は、サブCU、A1101の上のN×Nブロックである(ブロックc1113)。このブロックc(1113)が利用可能でない、またはイントラ符号化されている場合、サブCU A(1101)の上の他のN×N個のブロックをチェックする(ブロックc1113から始まって左から右へ)。第2の近傍は、サブCU A1101の左側のブロックである(ブロックb1112)。ブロックb(1112)が利用可能でない、またはイントラ符号化されている場合、サブCU A1101の左側の他のブロックをチェックする(ブロックb1112から始まり、上から下へ)。各リストの近傍のブロックから得られた動き情報を、所与のリストの第1の参照フレームにスケーリングする。次に、HEVCに規定されているTMVP導出と同じ手順に従って、サブブロックA1101の時間的動きベクトル予測子(TMVP)を導出する。ブロックD1104における同一位置とされたブロックの動き情報がフェッチされ、それに応じてスケーリングされる。最後に、動き情報を検索し、スケーリングした後、参照リストごとにすべての利用可能な動きベクトルを別々に平均する。この平均化された動きベクトルを現在のサブCUの動きベクトルとする。
2.1.3 サブCUの動き予測モード信号通知の例
いくつかの実施形態において、サブCUモードは追加のマージ候補として有効とされ、モードを信号通知するために追加の構文要素は必要とされない。ATMVPモードおよびSTMVPモードを表すように、各CUのマージ候補リストに2つの追加のマージ候補を加える。他の実施形態において、シーケンスパラメータセットがATMVPおよびSTMVPが有効であることを示す場合、7個までのマージ候補を使用してもよい。追加のマージ候補のエンコーディングロジックは、HMにおけるマージ候補の場合と同じであり、つまり、PまたはBスライスにおける各CUについて、2つの追加のマージ候補に対して2回以上のRDチェックが必要となる可能性がある。いくつかの実施形態において、例えばJEMのように、マージインデックスのすべての2値(bin)はコンテキストベースの適応型バイナリ算術コーディング(CABAC)によりコンテキストコーディングされる。他の実施形態、例えばHEVCにおいては、第1の2値のみがコンテキストコーディングされ、残りの2値はコンテキストバイパスコーディングされる。
2.2 適応動きベクトル差解像度の例
本発明の実施例中において、use_integer_mv_flagがスライスヘッダにおいて0であるとき、4分の1輝度サンプルの単位で動きベクトルの差(MVD)(動きベクトルとPUの予測動きベクトルとの差)を信号通知される。JEMにおいて、ローカル適応動きベクトル解像度(LAMVR)が導入される。JEMにおいて、MVDは、1/4輝度サンプル、整数輝度サンプルまたは4つの輝度サンプルの単位でコーディングできる。MVD分解能はコーディングユニット(CU)レベルで制御され、MVD解像度フラグは、少なくとも1つのノンゼロMVDモジュールを有する各CUに対して条件付きで信号通知される。
少なくとも1つのノンゼロMVDモジュールを有するCUの場合、1/4輝度サンプルMV精度がCUにおいて使用されるかどうかを示すために、第1のフラグが信号通知される。第1のフラグ(1に等しい)が、1/4輝度サンプルMV精度が使用されていないことを示す場合、整数輝度サンプルMV精度が使用されるかまたは4輝度サンプルMV精度が使用されるかを示すために、別のフラグが信号通知される。
CUの第1のMVD解像度フラグがゼロであるか、またはCUに対してコーディングされていない(つまり、CUにおけるすべてのMVDがゼロである)場合、CUに対して1/4輝度サンプルMV解像度が使用される。CUが整数輝度サンプルMV精度または4輝度サンプルMV精度を使用する場合、CUのAMVP候補リストにおけるMVPを対応する精度に丸める。
エンコーダにおいて、CUレベルのRDチェックは、どのMVD解像度をCUに用いるかを決定するために用いられる。すなわち、1つのMVD解像度ごとに3回、CUレベルのRDチェックを行う。エンコーダの速度を速めるために、JEMにおいては、以下の符号化方式が適用される。
--通常の1/4輝度サンプルMVD解像度を有するCUのRDチェック中、現在のCUの動き情報(整数輝度サンプル精度)が記憶される。整数輝度サンプルおよび4輝度サンプルのMVD解像度を有する同じCUのRDチェック中に、記憶された動き情報(丸められた後)は、更なる小範囲動きベクトル改良の開始点として使用されるので、時間がかかる動き推定処理が3回重複しない。
--4輝度サンプルMVD解像度を有するCUのRDチェックを条件付きで呼び出す。CUの場合、整数輝度サンプルMVD解像度のRDコストが1/4輝度サンプルMVD解像度のそれよりもはるかに大きい場合、CUのための4輝度サンプルMVD解像度のRDチェックは省略される。
2.3 動きベクトルの記憶精度を向上させる例
HEVCにおいて、動きベクトルの精度は、1/4画素(4:2:0映像の場合、1/4輝度サンプルおよび1/8クロマサンプル)である。JEMにおいて、内部の動きベクトルの記憶およびマージ候補の精度は、1/16画素にまで向上する。スキップ/マージモードで符号化されたCUの動き補償インター予測には、より高い動きベクトル精度(1/16画素)が用いられる。通常のAMVPモードで符号化されたCUの場合、整数画素または1/4画素の動きのいずれかが使用される。
HEVC動き補償補間フィルタと同じフィルタ長と正規化係数を有するSHVCアップサンプリング補間フィルタを、追加の分数画素位置の動き補償補間フィルタとして使用する。JEMにおいて、クロマ成分の動きベクトルの精度は1/32サンプルであり、近傍の2つの1/16画素の分数位置のフィルタの平均を用いて、1/32画素の分数位置の追加の補間フィルタを導出する。
2.4 重複ブロック動き補償(OBMC)の例
JEMにおいて、OBMCは、CUレベルの構文を使用してオン/オフを切り替えることができる。JEMにおいてOBMCを使用する場合、OBMCは、CUの右下の境界を除くすべての動き補償(MC)ブロック境界に対して実行される。また、輝度およびクロマ成分の両方に適用される。JEMにおいて、MCブロックは符号化ブロックに対応する。CUがサブCUモードで符号化された(サブCUマージ、アフィン、およびFRUCモードを含む)場合、CUの各サブブロックは1つのMCブロックである。均一にCU境界を処理するために、OBMCは、すべてのMCブロック境界に対してサブブロックレベルで実行され、ここで、サブブロックサイズは、図12A、12Bに示すように、4×4に等しく設定される。
図12Aは、CU/PU境界におけるサブブロックを示し、斜線を付けたサブブロックは、OBMCが適用される場所である。同様に、図12Bは、ATMVP モードのサブPUを示す。
OBMCが現在のサブブロックに適用される場合、現在の動きベクトルの他に、4つの接続された近傍のサブブロックの動きベクトルも、利用可能であり、現在の動きベクトルと同一でない場合には、現在のサブブロックのための予測ブロックを導出するために使用される。複数の動きベクトルに基づくこれらの複数の予測ブロックを組み合わせ、現在のサブブロックの最終予測信号を生成する。
近傍のサブブロックの動きベクトルに基づく予測ブロックをPN(Nは、近傍の上、下、左、右のサブブロックのインデックス)とし、現在のサブブロックの動きベクトルに基づく予測ブロックをPCとする。PNが現在のサブブロックと同じ動き情報を含む近傍のサブブロックの動き情報に基づく場合、OBMCはPNから行われない。そうでない場合、PNのすべてのサンプルをPC内の同じサンプルに加える。すなわち、PNの4つの行/列をPCに加える。PNには重み係数{1/4,1/8,1/16,1/32}を用い、PCには重み係数{3/4,7/8,15/16,31/32}を用いる。例外は、小さなMCブロック(すなわち、符号化ブロックの高さまたは幅が4に等しいか、または1つのCUがサブCUモードで符号化された場合)であり、その場合、2つの行/列のPNのみがPCに追加される。この場合、PNに対して重み係数{1/4,1/8}が使用され、PCに対して重み係数{3/4,7/8}が使用される。垂直(水平)方向に近傍のサブブロックの動きベクトルに基づいて生成されたPNに対して、PNの同じ行(列)におけるサンプルを、同じ重み係数でPCに加算する。
JEMにおいて、サイズが256輝度サンプル以下のCUの場合、現在のCUに対してOBMCが適用されているかどうかを示すように、CUレベルフラグが信号通知される。サイズが256輝度サンプルよりも大きい、またはAMVPモードで符号化されていないCUの場合、OBMCがデフォルトで適用される。エンコーダにおいて、OBMCがCUに適用される場合、その影響は動き推定ステージ中に考慮される。上側近傍のブロックおよび左側近傍のブロックの動き情報を用いてOBMCにより形成された予測信号は、現在のCUの元の信号の上側および左側の境界を補償するために用いられ、その後、通常の動き推定処理が適用される。
2.5 ローカル照明補償(LIC)の例
LICは、倍率aおよびオフセットbを用いて、照明変化の線形モデルに基づく。そして、各インターモードコーディングユニット(CU)に対して適宜有効または無効とされる。
LICがCUに適用される場合、現在のCUの近傍のサンプルおよびそれらに対応する参照サンプルを使用することによって、パラメータaおよびbを導出するために、最小二乗誤差法が使用される。図13は、ICアルゴリズムのパラメータを導出するために使用される近傍のサンプルの例を示す。具体的には、図1に示すようになる。具体的には、図13に示すように、CUのサブサンプリング(2:1のサブサンプリング)された近傍サンプルと、参照ピクチャ内の対応するサンプル(現在のCUまたはサブCUの動き情報によって特定される)とが使用される。ICパラメータは、各予測方向に対して別々に導出され、適用される。
1つのCUがマージモードで符号化される場合、マージモードにおける動き情報のコピーと同様に、近傍のブロックからLICフラグをコピーし、そうでない場合、CUにLICフラグを信号通知してLICが適用されるかどうかを示す。
1つのピクチャに対してLICが有効化されるとき、1つのCUに対してLICが適用されるかどうかを判定するために、追加のCUレベルRDチェックが必要である。CUのためにLICが有効化される場合、整数画素動き探索および小数画素動き探索のために、SADおよびSATDの代わりに、それぞれ、絶対差の平均除去和(MR-SAD)および絶対アダマール変換差の平均除去和(MR-SATD)が使用される。
符号化の複雑性を低減するために、JEMにおいては、以下のエンコーディング方式が適用される。
-- 現在の画像とその参照ピクチャとの間に明瞭な照度変化がない場合、LICは画像全体に対して無効にされる。この状況を特定するために、エンコーダにおいて、現在のピクチャおよび現在のピクチャのすべての参照ピクチャのヒストグラムを計算する。現在のピクチャと現在のピクチャのすべての参照ピクチャとの間のヒストグラム差が所与の閾値よりも小さい場合、現在のピクチャに対してLICを無効化し、そうでない場合、現在のピクチャに対してLICを有効化する。
2.6 アフィン動き補償予測の例
HEVCにおいて、動き補償予測(MCP)のために並進運動モデルのみが適用される。しかしながら、カメラおよび対象物は、様々な種類の動き、例えば、ズームイン/ズームアウト、回転、透視運動、および/または他の不規則な動きを有してもよい。一方、JEMは、簡易アフィン変換動き補償予測を適用する。図14は、2つの制御点動きベクトルVおよびVによって記述されるブロック1400のアフィン動きフィールドの例を示す。ブロック1400の動きベクトルフィールド(MVF)は、以下の式で表すことができる。
Figure 0007307154000001
図14に示すように、(vx,vy)は左上隅の制御点の動きベクトルであり、(vx,vy)は右上隅の制御点の動きベクトルである。動き補償予測を簡単にするために、サブブロックに基づくアフィン変換予測を適用することができる。サブブロックのサイズM×Nは、以下のように導出される。
Figure 0007307154000002
ここで、MvPreは、動きベクトルの分数精度(例えば、JEMでは1/16)である。(vx,vy)は、式(1)に従って算出された左下制御点の動きベクトルである。必要であれば、MおよびNを下方に調整して、それぞれwおよびhの除数にすることができる。
図15は、ブロック1500のためのサブブロックごとのアフィンMVFの例を示す。各M×Nサブブロックの動きベクトルを導出するためには、各サブブロックの中心サンプルの動きベクトルを式(1)に従って算出し、動きベクトルの分数精度(例えば、JEMでは1/16)に丸めればよい。次に、動き補償補間フィルタを適用して、導出された動きベクトルを用いて各サブブロックの予測を生成することができる。MCPの後、各サブブロックの高精度動きベクトルを丸め、通常の動きベクトルと同じ精度で保存する。
2.6.1 AF_INTERモードの実施形態
JEMにおいて、2つのアフィン動きモード、AF_INTERモードおよびAF_MERGEモードがある。幅と高さの両方が8より大きいCUの場合、AF_INTERモードを適用することができる。AF_INTERモードが使用されるかどうかを示すために、ビットストリームにおいてCUレベルのアフィンフラグが信号通知される。AF_INTERモードにおいて、近傍のブロックを用いて動きベクトル対
Figure 0007307154000003
を有する候補リストを構築する。
図16は、AF_INTERモードにおけるブロック1600のための動きベクトル予測(MVP)の例を示す。図16に示すように、vは、サブブロックA、B、またはCの動きベクトルから選択される。近傍のブロックからの動きベクトルは、参照リストに従ってスケーリングすることができる。また、動きベクトルは、近傍のブロックの参照のピクチャオーダカウント(PIC)と、現在のCUの参照のPOCと、現在のCUのPOCとの間の関係に基づいてスケーリングされてもよい。近傍のサブブロックDおよびEからvを選択する方法は類似している。候補リストの数が2未満である場合、AMVP候補の各々を複製した動きベクトル対でリストを埋める。候補リストが2よりも大きい場合、まず、近傍の動きベクトルに基づいて(例えば、対候補における2つの動きベクトルの類似性に基づいて)候補をソートする。いくつかの実装形態において、最初の2つの候補を保持する。いくつかの実施形態において、レート歪み(RD)コストチェックを用いて、どの動きベクトル対候補を現在のCUの制御点動きベクトル予測(CPMVP)として選択するかを判定する。ビットストリームにおいて、候補リストにおけるCPMVPの位置を示すインデックスを信号通知することができる。現在のアフィンCUのCPMVPを判定した後、アフィン動き推定を適用し、制御点動きベクトル(CPMV)を求める。次に、CPMVとCPMVPとの差をビットストリームにおいて信号通知する。
AF_INTERモードにおいて、4/6パラメータアフィンモードが使用される場合、2/3個の制御点が必要であり、従って、図17A、17Bに示すように、これらの制御点のために2/3個のMVDを符号化することが必要である。既存の実装形態[5]において、MVは、例えば、mvdからmvdおよびmvdを予測することで、以下のように導出されてもよい。
Figure 0007307154000004
ここでm ̄v ̄、mvd、mvは、それぞれ、図18Bに示すように、左上の画素(i=0)、右上の画素(i=1)、左下の画素(i=2)の予測動きベクトル、動きベクトルの差分、動きベクトルである。いくつかの実施形態において、2つの動きベクトル(例えば、mvA(xA,yA)およびmvB(xB,yB))の加算は、2つの成分を別々に合計することに等しい。例えば、newMV=mvA+mvBは、newMVの2つの成分を、それぞれ(xA+xB)および(yA+yB)に設定することを意味する。
2.6.2 AF_INTERモードにおける高速アフィンMEアルゴリズムの例
アフィンモードのいくつかの実施形態において、2つまたは3つの制御点のMVは、一緒に判定される必要がある。複数のMVをまとめて直接検索することは、計算が複雑である。一例において、高速アフィンMEアルゴリズム[6]が提案され、VTM/BMSに採用される。
例えば、4パラメータアフィンモデルに対して高速アフィンMEアルゴリズムを説明し、この考えを6パラメータアフィンモデルに拡張することができる。
Figure 0007307154000005
Figure 0007307154000006
(a-1)をa’に置き換えることにより、動きベクトルを以下のように書き換えることができる。
Figure 0007307154000007
2つの制御点(0,0)および(0,w)の動きベクトルが既知であると仮定すると、式(5)から、アフィンパラメータは、以下のように導出されてもよい。
Figure 0007307154000008
動きベクトルは、ベクトルの形で以下のように書き換えることができる。
Figure 0007307154000009
ここで、P=(x,y)は、画素位置である。
Figure 0007307154000010
いくつかの実施形態において、エンコーダにおいて、AF_INTERのMVDは反復して導出されることができる。MV(P)を位置Pのi番目の反復で導出されたMVとし、dMVCをi番目の反復でMVに対して更新されたデルタとして示す。次に、(i+1)番目の繰り返しにおいて、
Figure 0007307154000011
Picrefを参照ピクチャとし、Piccurを現在のピクチャとし、Q=P+MV(P)を表す。MSEをマッチング基準として用いる場合、最小化する必要がある関数は、以下のように表されてもよい。
Figure 0007307154000012
(dMV が十分に小さいと仮定すると、Picref(Q+A(P)*(dMV )は、1次のテイラー展開に基づく近似として、以下のように書き換えられてもよい。
Figure 0007307154000013
ここで、
Figure 0007307154000014
である。Ei+1(P)=Piccur(P)-Picref(Q)の表記を採用する場合、以下のようになる。
Figure 0007307154000015
誤差関数の導関数をゼロに設定し、次に、A(P)*(dMV に基づいて、制御点(0,0)および(0,w)のデルタMVを以下のように算出することで、項dMV を導出することができる。
Figure 0007307154000016
Figure 0007307154000017
Figure 0007307154000018
Figure 0007307154000019
いくつかの実施形態において、このMVD導出処理をn回繰り返し、次のようにして最終MVDを算出することができる。
Figure 0007307154000020
Figure 0007307154000021
Figure 0007307154000022
Figure 0007307154000023
上記実装形態[5]において、mvdで表される制御点(0,0)のデルタMVから、mvdで表される制御点(0,w)のデルタMVを予測することは、mvdに対して
Figure 0007307154000024
の場合のみ符号化されることになる。
2.6.3 AF_MERGEモードの実施形態
AF_MERGEモードにおいてCUを適用する場合、CUは、有効な近傍の再構築ブロックから、アフィンモードで符号化された第1のブロックを得る。図18Aは、現在のCU1800のための候補ブロックの選択順序の例を示す。図18Aに示すように、選択順序は、現在のCU1800の左(1801)、上(1802)、右(1803)、左下(1804)、左上(1805)の順とすることができる。図18Bは、AF_MERGEモードにおける現在のCU1800の候補ブロックの別の例を示す。近傍の左下ブロック1801がアフィンモードで符号化されている場合、図18Bに示すように、サブブロック1801を含むCUの左上隅、右上隅、左下隅の動きベクトルv、v、vが導出される。v2、v3、v4に基づいて、現在のCU1800における左上隅の動きベクトルvを算出する。従って、現在のCUの右上の動きベクトルv1を算出することができる。
式(1)のアフィン運動モデルに従って現在のCU v0,v1のCPMVを計算した後、現在のCUのMVFを生成することができる。現在のCUがAF_MERGEモードで符号化されているかどうかを識別するために、アフィンモードで符号化されている近傍のブロックが少なくとも1つある場合、ビットストリーム内にアフィンフラグを信号通知することができる。
2.7 パターンマッチング動きベクトル導出(PMMVD)の例
PMMVDモードは、フレームレートアップ変換(FRUC)法に基づく特殊マージモードである。このモードでは、ブロックの動き情報は信号通知されず、デコーダ側で導出される。
FRUCフラグは、そのマージフラグが真である場合、CUに信号通知され得る。FRUCフラグが偽である場合、マージインデックスを信号通知することができ、通常のマージモードが使用される。FRUCフラグが真である場合、追加のFRUCモードフラグを信号通知して、どの方法(例えば、バイラテラルマッチングまたはテンプレートマッチング)を使用してブロックの動き情報を導出するかを示すことができる。
エンコーダ側では、CUのためにFRUCマージモードを使用するかどうかの決定は、通常のマージ候補に対して行われるのと同じように、RDコストの選択に基づく。例えば、RDコスト選択を使用して、1つのCUに対して複数のマッチングモード(例えば、バイラテラルマッチングおよびテンプレートマッチング)をチェックする。最小コストに導くものが、他のCUモードと比較される。FRUCマッチングモードが最も効率的なものである場合、CUに対してFRUCフラグを真に設定し、関連するマッチングモードを使用する。
一般的に、FRUCマージモードにおける動き導出処理では、まずCUレベルの動き探索が行われ、次にサブCUレベルの動き改良を行うという2つのステップを有する。CUレベルでは、バイラテラルマッチングまたはテンプレートマッチングに基づいて、CU全体のための初期の動きベクトルを導出する。まず、MV候補のリストを生成し、最小マッチングコストに導く候補を、さらなるCUレベル改善の開始点として選択する。そして、開始点付近でのバイラテラルマッチングまたはテンプレートマッチングに基づく局所検索を行う。最小マッチングコストにおけるMVの結果を、CU全体のMVとする。続いて、導出されたCU動きベクトルを開始点として、サブCUレベルでの動き情報をさらに改良する。
例えば、W×H CU動き情報導出のために、以下の導出処理を行う。第1のステージにおいて、W×H CU全体のためのMVが導出される。第2のステージにおいて、CUは、M×M個のサブCUにさらに分割される。Mの値は、式(3)のように計算されるが、Dは、予め規定された分割深さであり、JEMにおいてデフォルトで3に設定される。そして、各サブCUのMVを導出する。
Figure 0007307154000025
図19は、フレームレートアップ変換(FRUC)法で使用されるバイラテラルマッチングの例を示す。このバイラテラルマッチングは、2つの異なる参照ピクチャ(1910、1911)における現在のCU(1900)の動き軌跡に沿った2つのブロック間の最も近いマッチングを見出すことで、現在のCUの動き情報を導出するために用いられる。連続した動き軌跡を仮定すると、2つの参照ブロックを指す動きベクトルMV0(1901)、MV1(1902)は、現在のピクチャと2つの参照ピクチャとの間の時間的距離に比例し、例えば、TD0(1903)、TD1(1904)である。いくつかの実施形態において、現在のピクチャ1900が2つの参照ピクチャ(1910、1911)の間にあり、現在のピクチャから2つの参照ピクチャまでの時間的距離が同じである場合、バイラテラルマッチングはミラーに基づく双方向MVとなる。
図20は、フレームレートアップ変換(FRUC)法で使用されるテンプレートマッチングの例を示す。テンプレートマッチングを使用して、現在のピクチャにおけるテンプレート(例えば、現在のCUの上側および/または左側の近傍のブロック)と参照ピクチャ2010におけるブロック(例えば、テンプレートと同じサイズ)との間の最も近いマッチングを見出すことで、現在のCU2000の動き情報を導出することができる。前述のFRUCマージモード以外に、テンプレートマッチングは、AMVPモードにも適用できる。JEMおよびHEVCの両方において、AMVPは2つの候補を有する。テンプレートマッチング法を用いることで、新しい候補を導出することができる。テンプレートマッチングによって新規に導出された候補が、第1の既存のAMVP候補と異なる場合、AMVP候補リストの最初に挿入し、次に、(例えば、第2の既存のAMVP候補を取り除くことによって)リストサイズを2に設定する。AMVPモードに適用される場合、CUレベル検索のみが適用される。
CUレベルのMV候補セットは、以下を含むことができる。(1)現在のCUがAMVPモードにある場合、元のAMVP候補、(2)すべてのマージ候補、(3)補間されたMVフィールド内の複数のMV(後述)、および左上の近傍の動きベクトル。
バイラテラルマッチングを使用する場合、マージ候補の各有効なMVを入力として使用して、バイラテラルマッチングを仮定してMV対を生成することができる。例えば、マージ候補の1つの有効なMVは、参照リストAにおいて(MVa,ref)である。そして、その対をなすバイラテラルMVの参照ピクチャrefが他の参照リストBにおいて見出され、refおよびrefは、時間的に現在のピクチャの異なる側にある。参照リストBにおいてこのようなrefが利用可能でない場合、refをrefとは異なる参照として決定し、現在のピクチャとの時間的距離はリストBにおける最小値である。refを決定した後、現在のピクチャとref,refとの時間距離に基づいてMVaをスケーリングすることでMVbを導出する。
いくつかの実装形態において、補間されたMVフィールドからの4つのMVをCUレベル候補リストに追加してもよい。具体的には、現在のCUの(0,0)、(W/2,0)、(0,H/2)、(W/2,H/2)の位置の補間MVを加算する。AMVPモードでFRUCを適用する場合、元のAMVP候補をCUレベルMV候補セットにも加える。いくつかの実装形態において、CUレベルにおいて、AMVP CUのための15個のMVおよびマージCUに対し、13個のMVを候補リストに加えることができる。
サブCUレベルのMV候補セットは、CUレベルの検索によって決定されたMVと、(2)上、左、左上、右上の近傍のMVと、(3)参照ピクチャからの配列されたMVのスケーリングされたバージョンと、(4)1つ以上(例えば、4つまで)のATMVP候補と、(5)1つ以上(例えば、4つまで)のSTMVP候補とを含む。参照ピクチャからのスケーリングされたMVは、以下のように導出される。両方のリストにおける参照ピクチャをトラバースする。参照ピクチャにおけるサブCUの配列位置にあるMVは、開始CUレベルMVの参照に対してスケーリングされる。ATMVPおよびSTMVPの候補は、最初の4つの候補であってもよい。サブCUレベルにおいて、1つ以上(例えば、最大17個)のMVが候補リストに追加される。
補間MVフィールドの生成 あるフレームをコーディングする前に、片側MEに基づいてピクチャ全体に対して補間動きフィールドを生成する。そして、この動きフィールドを後にCUレベルまたはサブCUレベルのMV候補として使用してもよい。
いくつかの実施形態において、両方の参照リストにおける各参照ピクチャの動きフィールドは、4×4ブロックレベルでトラバースされる。図21は、FRUC方法におけるユニラテラル動き推定(ME)2100の例を示す。各4×4ブロックにおいて、現在のピクチャの4×4ブロックを通過するブロックに関連する動きで、補間動きがまだ割り当てられていない場合、時間距離TD0およびTD1に基づいて(HEVCにおけるTMVPのMVスケーリングと同様に)、参照ブロックの動きを現在のピクチャにスケーリングし、スケーリングされた動きを現在のフレームのブロックに割り当てる。スケーリングされないMVが4×4ブロックに割り当てられる場合、ブロックの動きは、補間された動きフィールドにおいて利用不可能であるとマークされる。
補間およびマッチングコスト 1つの動きベクトルが1つの小数のサンプル位置を指す場合、動き補償補間が必要である。複雑性を低減するために、通常の8タップHEVC補間の代わりに、バイラテラルマッチングおよびテンプレートマッチングの両方に双線形補間を使用できる。
マッチングコストの計算は、異なるステップでは少し異なる。CUレベルの候補セットから候補を選択する場合、マッチングコストは、バイラテラルマッチングまたはテンプレートマッチングの絶対和差(SAD)であってもよい。開始MVを決定した後、サブCUレベル検索におけるバイラテラルマッチングのマッチングコストCを以下のように算出する。
Figure 0007307154000026
ここで、wは重み係数である。いくつかの実施形態において、wは経験的に4に設定されてもよい。MVおよびMVは、それぞれ、現在のMVおよび開始MVを示す。SADは、依然として、サブCUレベル検索におけるテンプレートマッチングのマッチングコストとして使用されてもよい。
FRUCモードにおいて、MVは、輝度サンプルのみを使用することによって導出される。導出された動きは、MCインター予測のために、輝度およびクロマの両方に使用される。MVを決定した後、輝度用の8タップ補間フィルタおよびクロマ用の4タップ補間フィルタを使用して、最終的なMCを行う。
MV改良は、バイラテラルマッチングコストまたはテンプレートマッチングコストの基準を有するパターンに基づくMV検索である。JEMでは、2つの検索パターン、即ち、無制限中心バイアス菱形検索(UCBDS)およびCUレベルおよびサブCUレベルでのMV改良のための適応クロス検索をそれぞれサポートする。CUおよびサブCUレベルのMV改善の両方のために、MVは、1/4輝度サンプルMVの正確度で直接検索され、これに続いて1/8輝度サンプルMVの改良が行われる。CUおよびサブCUステップのためのMV改良の検索範囲は、8つの輝度サンプルに等しく設定される。
バイラテラルマッチングマージモードにおいては、双予測が適用される。なぜなら、2つの異なる参照ピクチャにおける現在のCUの動き軌跡に沿った2つのブロック間の最も近いマッチングに基づいて、CUの動き情報を導出するからである。テンプレートマッチングマージモードにおいて、エンコーダは、list0からの単一予測、list1からの単一予測、またはCUのための双予測のうちから選択することができる。選択は、テンプレートマッチングコストに基づいて、以下のように行うことができる。
costBi<=factor*min(cost0,cost1)の場合
双予測を用いる。
それ以外の場合、cost0<=cost1
list0からの単一予測を用いる。
そうでない場合、
list1からの単一予測を用いる。
ここで、cost0はlist0テンプレートマッチングのSADであり、cost1はlist1テンプレートマッチングのSADであり、costBiは双予測テンプレートマッチングのSADである。例えば、factorの値が1.25である場合、選択処理が双予測に偏っていることを意味する。このインター予測方向選択は、CUレベルのテンプレートマッチング処理に適用することができる。
3. 既存の実装形態の欠点
いくつかの既存の実装形態において、MV/MV差(MVD)をアフィン符号化ブロックのための1組の複数のMV/MVD精度のセットから選択することができる場合、より正確な動きベクトルをどのようにして取得することができるかは、依然として不確定である。
他の既存の実装形態において、MV/MVD精度情報は、アフィンモードに適用されるAMVRの全体的な符号化利得の判定においても重要な役割を果たすが、この目標を達成するかどうかは依然として不確定である。
4. AMVRを用いるアフィンモード用のMV予測子のための例示的な方法
本開示の技術の実施形態は、既存の実装の欠点を克服し、それにより、より高い符号化効率を有する映像符号化を提供する。開示された技術に基づいて、適応動きベクトル解像度(AMVR)を有するアフィンモード用の動きベクトル予測子を導出し、信号通知することにより、既存のおよび将来の映像符号化規格の両方を向上させることができ、様々な実装形態に対して説明する以下の例で明らかにする。以下に提供される開示される技術の例は、一般的な概念を説明するものであり、限定するものと解釈されるべきではない。一例において、明確に反対の指示がない限り、これらの例に記載されている様々な特徴を組み合わせることができる。
いくつかの実施形態において、AMVRが適用されるとき、アフィンモードまたはノーマルモードに次のような例を適用することができる。これらの例は、AF_INTERモードでMVDを符号化するため、または通常のインターモードでMVDを符号化するために、精度Prec(即ち、MVは1/(2^Prec)の精度を有する)を使用すると仮定する。動きベクトル予測子(例えば、近傍のブロックMVから継承される)およびその精度を、それぞれMVPred(MVPredX,MVPredY)、PredPrecと表す。
例1 最終的なMV精度は変化させず、即ち記憶されるべき動きベクトルの精度と同じに維持されることが提案される。
(a)一例において、最終MV精度は、1/16画素または1/8画素に設定されてもよい。
(b)一例において、信号通知されたMVDは、まずスケーリングされ、次にMVPに加えられ、1つのブロックのための最終MVを形成する。
例2 まず、近傍のブロック(例えば、空間的または時間的)またはデフォルトMVPから直接導出されたMVPを修正し、次に、信号通知されたMVDに加えて、(現在の)ブロックのための最終MVを形成することができる。
(a)代替的に、MVPの修正を適用するかどうか、およびどのように適用するかは、Precの異なる値ごとに異なってもよい。
(b)一例において、Precが1よりも大きい(すなわち、MVDが分数精度である)場合、近傍のMVの精度は変更されず、スケーリングは実行されない。
(c)一例において、Precが1に等しい(すなわち、MVDが1画素の精度を有する)場合、MV予測子(すなわち、近傍のブロックのMV)をスケーリングする必要がある。
(d)一例において、Precが1よりも小さい(すなわち、MVDが4画素精度である)場合、MV予測子(すなわち、近傍のブロックのMV)をスケーリングする必要がある。
例3 一例において、MVD信号の精度が記憶されたMVの精度と同じである場合、アフィンMVを再構築した後、スケーリングは必要とされず、そうでない場合、MVは、信号通知されたMVDの精度で再構成され、その後、記憶されたMVの精度にスケーリングされる。
例4 一例において、通常インターモードおよびAF_INTERモードは、上述された異なる例に基づいて実装形態を選択してもよい。
例5 一例において、アフィンモードのためのMV/MVD精度を示すための構文要素(または2ビット以上のビット、例えば2ビットを含むフィールド)が、以下の意味論で信号通知されてもよい。
(a)一例において、0、1、および2に等しい構文要素は、それぞれ、1/4画素、1/16画素、および1画素のMV精度を示す。
(b)あるいは、アフィンモードにおいて、0、1、および2に等しい構文要素は、それぞれ1/4画素、1画素、および1/16画素のMV精度を示す。
(c)あるいは、アフィンモードにおいて、0、1、および2に等しい構文要素は、それぞれ1/16画素、1/4画素、および1画素のMV精度を示す。
例6 一例において、アフィンモードのためにAMVRを有効化するかまたは無効化するかは、SPS、PPS、VPS、シーケンス/ピクチャ/スライスヘッダ/タイル等において信号通知されてもよい。
例7 一例において、許可されたMV/MVD精度の指示は、SPS、PPS、VPS、シーケンス/ピクチャ/スライスヘッダ/タイル等において信号通知されてもよい。
(a)選択されたMVD精度の指示は、各符号化ツリーユニット(CTU)および/または各領域に信号通知されてもよい。
(b)許容されるMV/MVD精度のセットは、現在のブロックの符号化モード(例えば、アフィンまたは非アフィン)に依存し得る。
(c)許容されるMV/MVD精度のセットは、スライスタイプ/時間層インデックス/低遅延チェックフラグに依存し得る。
(d)許容されるMV/MVD精度のセットは、現在のブロックまたは近傍のブロックのブロックサイズおよび/またはブロック形状に依存し得る。
(e)許容されるMV/MVD精度のセットは、復号化ピクチャバッファに記憶されるべきMVの精度に依存し得る。
(i)一例において、記憶されたMVがX画素(X-pel)である場合、許容されるMV/MVD精度セットは、少なくともX画素(X-pel)を有してもよい。
上述された例は、以下に説明される方法、例えば、方法2200および2300に関連して組み込まれてもよく、方法2200および2300は、ビデオデコーダまたはビデオエンコーダにおいて実装されてもよい。
図22は、映像復号化のための例示的な方法のフローチャートを示す。方法2200は、ステップ2210において現在の映像ブロックと現在の映像ブロックのビットストリーム表現との間で変換するために、現在の映像ブロックに関連付けられた各動きベクトルの解像度を適宜選択する符号化ツールを使用して、精度が現在の映像ブロックの記憶された動きベクトルの精度と同一である最終的動きベクトルを判定することを含む。
方法2200は、ステップ2220において、最終的動きベクトルに基づいて、ビットストリーム表現と現在の映像ブロックとの間で変換を行うことを含む。
図23は、映像復号化のための別の例示的な方法のフローチャートを示す。方法2300は、ステップ2310において、現在の映像ブロックと現在の映像ブロックのビットストリーム表現との間で変換するために、現在の映像ブロックに関連付けられた各動きベクトルの解像度を適宜選択する符号化ツールを使用して、最終的動きベクトルを判定することであって、現在の映像ブロックは、アフィンモードで符号化されており、ビットストリーム表現は、現在の映像ブロックに関連付けられた動きベクトルまたは動きベクトルの差の精度を示す2つ以上のビットを含むフィールドを含む、判定することを含む。
方法2300は、ステップ2320において、最終的動きベクトルに基づいて、ビットストリーム表現と現在の映像ブロックとの間で変換を行うことを含む。
いくつかの実施形態において、以下の技術的解決策を実装することができる。
A1.映像処理のための方法(例えば、図22の方法2200)であって、現在の映像ブロックと現在の映像ブロックのビットストリーム表現との間で変換するために、現在の映像ブロックに関連付けられた各動きベクトルの解像度を適宜選択する符号化ツールを使用して、精度が現在の映像ブロックの格納された動きベクトルの精度と同一である最終的動きベクトルを判定すること(2210)と、最終的動きベクトルに基づいて、ビットストリーム表現と現在の映像ブロックとの間で変換を行うこと(2220)、とを含む方法。
A2.最終的動きベクトルの精度は、1/16画素である、解決策A1に記載の方法。
A3.最終的動きベクトルの精度は、1/8画素である、解決策A1に記載の方法。
A4.最終的動きベクトルは、動きベクトル差(MVD)に動きベクトル予測子(MVP)を加えることに基づく、解決策A1~A3のいずれかに記載の方法。
A5.MVDにMVPを加える前に、MVDをスケーリングする、解決策A4に記載の方法。
A6.MVPは、空間的または時間的に近傍のブロックから導出される、解決策A4に記載の方法。
A7.MVPがデフォルトMVPである、解決策A4に記載の方法。
A8.MVPをMVDに添加する前に、MVPを修正する、解決策A6またはA7に記載の方法。
A9.MVPを修正することは、MVDの精度に基づく、解決策A7に記載の方法。
A10.MVDの精度が分数であると判定されると、MVPのためのスケーリング演算をバイパスすることをさらに含む、解決策A9に記載の方法。
A11.MVDの精度が1以下であると判定されると、MVPをスケーリングすることをさらに含む、解決策A9に記載の方法。
A12.MVDの精度が記憶された動きベクトルの精度と同一であると判定されると、最終的動きベクトルのためにスケーリング演算をバイパスすることをさらに含む、解決策A4に記載の方法。
A13.MVDの精度が記憶された動きベクトルの精度と異なると判定された場合、最終的動きベクトルをスケーリングすることをさらに含む、解決策A4に記載の方法。
A14.現在の映像ブロックは、非アフィンインターモードまたはアフィンインターモードで符号化される、解決策A1~A13のいずれかに記載の方法。
A15.各動きベクトルに対して解像度を適宜選択する符号化ツールは、適応動きベクトル解像度(AMVR)ツールである、解決策A1~A14のいずれか1項に記載の方法。
A16.変換は、ビットストリーム表現から現在の映像ブロックを生成する、解決策A1~A15のいずれかに記載の方法。
A17.変換は、現在の映像ブロックからビットストリーム表現を生成する、解決策A1~A15のいずれかに記載の方法。
A18.処理装置と、命令を搭載した非一時的メモリとを備える、映像システムにおける装置であって、処理装置が実行する前記命令は、前記処理装置に、解決策A1~A17のいずれかに記載の方法を実装させる映像システムにおける装置。
A19.非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、解決策A1~A17のいずれかに記載の方法を実行するためのプログラムコードを含む、コンピュータプログラム製品。
上記解決策に加え、いくつかの実施形態において、以下の解決策を実装することができる。
B1.現在の映像ブロックと、現在の映像ブロックの、ビットストリーム表現との間の変換に関して、現在の映像ブロックに関連付けられた各動きベクトルの解像度を適宜選択する符号化ツールを使用して、最終的動きベクトルを判定することであって、現在の映像ブロックは、アフィンモードで符号化されており、ビットストリーム表現は、現在の映像ブロックに関連付けられた動きベクトルまたは動きベクトルの差の精度を示す2つ以上のビットを含むフィールドを含む、判定することと、最終的動きベクトルに基づいて、ビットストリーム表現と現在の映像ブロックとの間の変換を実行することと、を含む、映像処理方法。
B2.フィールドの異なる値は、動きベクトルまたは動きベクトルの差の精度が、1/4画素、1/16画素または1画素であることを示す、解決策B1に記載の方法。
B3.フィールドの値が0、1または2であることは、動きベクトルの精度がそれぞれ1/4画素、1/16画素および1画素であることに対応する、解決B2に記載の方法。
B4.フィールドの値が0、1または2であることは、動きベクトルの精度がそれぞれ1/4画素、1画素および1/16画素であることに対応する、解決B2に記載の方法。
B5.フィールドの値が0、1または2であることは、動きベクトルの精度がそれぞれ1/16画素、1/4画素および1画素であることに対応する、解決策B2に記載の方法。
B6.シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、映像パラメータセット(VPS)、スライスヘッダ、タイルヘッダ、シーケンスヘッダ、またはピクチャヘッダにおける信号通知に基づいて、アフィンモードのための符号化ツールを有効にする、解決策B1~B5のいずれかに記載の方法。
B7.シーケンスパラメータセット(SPS)、ピクチャパラメータセット(PPS)、映像パラメータセット(VPS)、スライスヘッダ、タイルヘッダ、シーケンスヘッダ、またはピクチャヘッダにおいて、アフィンモードまたは非アフィンモードにおける動きベクトルまたは動きベクトル差の精度のための1つの許容値のセットを信号通知する、解決策B1~B5のいずれかに記載の方法。
B8.現在のブロックの各符号化ツリーユニット(CTU)に前記許容値のセットを信号通知する、解決策B7に記載の方法。
B9.前記許容値のセットは、現在のブロックの符号化モードまたは寸法に基づく、解決策B7に記載の方法。
B10.前記符号化モードは、アフィンモードまたは非アフィンモードである、解決策B9に記載の方法。
B11.前記許容値のセットは、スライスタイプ、時間層インデックス、または低遅延チェックフラグに基づく、解決策B7に記載の方法。
B12.前記許容値のセットは、復号化ピクチャバッファに記憶される動きベクトルの精度に基づく、解決策B7に記載の方法。
B13.各動きベクトルの解像度を適宜選択する符号化ツールが、適応動きベクトル解像度(AMVR)ツールである、解決策B1~B12のいずれかに記載の方法。
B14.変換は、ビットストリーム表現から現在の映像ブロックを生成する、解決策B1~B13のいずれかに記載の方法。
B15.変換は、現在の映像ブロックからビットストリーム表現を生成する、解決策B1~B13のいずれかに記載の方法。
B16.処理装置と、命令を搭載した非一時的メモリとを備える、映像システムにおける装置であって、処理装置が実行する前記命令は、前記処理装置に、解決策B1~B15のいずれかに記載の方法を実装させることを特徴とする装置。
B17.非一時的なコンピュータ可読媒体に記憶されたコンピュータプログラム製品であって、前記コンピュータプログラム製品は、解決策B1~B15のいずれか1項に記載の方法を実行するためのプログラムコードを含む。
5. 開示される技術の例示的な実装形態
図24は、映像処理装置2400のブロック図である。装置2400は、本明細書で説明される方法の1つ以上を実装するために使用してもよい。装置2400は、スマートフォン、タブレット、コンピュータ、モノのインターネット(IoT)受信機等に実施されてもよい。装置2400は、1つ以上の処理装置2402と、1つ以上のメモリ2404と、映像処理ハードウェア2406と、を含んでもよい。処理装置2402は、本明細書に記載の1つ以上の方法(方法2200および2300を含むが、これらに限定されない)を実装するように構成されてもよい。メモリ(メモリ)2404は、本明細書で説明される方法および技術を実装するために使用されるデータおよびコードを記憶するために使用してもよい。映像処理ハードウェア2406は、本明細書に記載される技術をハードウェア回路にて実装するために使用してもよい。
いくつかの実施形態において、映像符号化方法は、図24を参照して説明したように、ハードウェアプラットフォームに実装される装置を用いて実施されてもよい。
図25は、本明細書で開示される様々な技術が実装され得る例示的な映像処理システム2500を示すブロック図である。様々な実装形態は、システム2500のモジュールの一部または全部を含んでもよい。システム2500は、映像コンテンツを受信するための入力ユニット2502を含んでもよい。映像コンテンツは、未加工または非圧縮フォーマット、例えば、8または10ビットの多成分の画素値で受信されても、あるいは圧縮または符号化フォーマットで受信されてもよい。入力ユニット2502は、ネットワークインターフェース、周辺バスインターフェースユニット、または記憶インターフェースユニットを表してもよい。ネットワークインターフェースユニットの例は、イーサネット(登録商標)、パッシブ光ネットワーク(PON)等の有線インターフェースユニット、およびWi-Fiまたはセルラーインターフェースユニット等の無線インターフェースユニットを含む。
システム2500は、本明細書に記載される様々な符号化または符号化方法を実装することができる符号化モジュール2504を含んでもよい。符号化モジュール2504は、入力ユニット2502からの映像の平均ビットレートを符号化モジュール2504の出力に低減し、映像の符号化表現を生成してもよい。従って、この符号化技術は、映像圧縮または映像コード変換技術と呼ばれることがある。符号化モジュール2504の出力は、モジュール2506によって表されるように、記憶されてもよいし、接続された通信を介して送信されてもよい。入力ユニット2502において受信された、記憶されたまたは通信された映像のビットストリーム(または符号化)表現は、モジュール2508によって使用されて、表示インターフェースユニット2510に送信される画素値または表示可能な映像を生成してもよい。ビットストリーム表現からユーザが見ることができる映像を生成するプロセスは、映像展開と呼ばれることがある。さらに、特定の映像処理動作を「符号化」動作またはツールと呼ぶが、符号化ツールまたは動作は、エンコーダおよびそれに対応する、復号化の結果を逆にする復号化ツールまたは動作が、デコーダによって行われることが理解されよう。
周辺バスインターフェースユニットまたは表示インターフェースユニットの例は、ユニバーサルシリアルバス(USB)または高精細マルチメディアインターフェース(HDMI(登録商標))またはディスプレイポート等を含んでもよい。ストレージインターフェースユニットの例は、シリアル・アドバンスドテクノロジーアタッチメント(SATA)、PCI、IDEインターフェースユニット等を含む。本明細書に記載される技術は、携帯電話、ノートパソコン、スマートフォン、またはデジタルデータ処理および/または映像表示を行うことができる他のデバイス等の様々な電子機器に実施されてもよい。
以上、説明の目的で本開示の技術の特定の実施形態を説明したが、本発明の範囲から逸脱することなく様々な修正が可能であることは、理解されるであろう。従って、本開示の技術は、添付の特許請求の範囲による場合を除き、限定されない。
本特許明細書に記載された主題および機能操作の実装形態は、本明細書に開示された構造およびその構造的等価物を含め、様々なシステム、デジタル電子回路、またはコンピュータソフトウェア、ファームウェア、若しくはハードウェアで実施されてもよく、またはそれらの1つ以上の組み合わせで実施してもよい。本明細書に記載された主題の実施形態は、1つ以上のコンピュータプログラム製品、すなわち、データ処理装置によって実行されるため、またはデータ処理装置の操作を制御するために、有形で非可搬性のコンピュータ可読媒体上に符号化されたコンピュータプログラム命令の1つ以上のモジュールとして実施することができる。このコンピュータ可読媒体は、機械可読記憶装置、機械可読記憶基板、記憶装置、機械可読伝播信号をもたらす物質の組成物、またはこれらの1つ以上の組み合わせであってもよい。「データ処理ユニット」または「データ処理装置」という用語は、例えば、プログラマブル処理装置、コンピュータ、または複数の処理装置若しくはコンピュータを含め、データを処理するためのすべての装置、デバイス、および機械を含む。この装置は、ハードウェアの他に、当該コンピュータプログラムの実行環境を作るコード、例えば、処理装置ファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはこれらの1つ以上の組み合わせを構成するコードを含んでもよい。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、またはコードとも呼ばれる)は、コンパイルされた言語または解釈された言語を含む任意の形式のプログラミング言語で記述することができ、それは、スタンドアロンプログラムとして、またはコンピューティング環境で使用するのに適したモジュール、コンポーネント、サブルーチン、または他のユニットを含む任意の形式で展開することができる。コンピュータプログラムは、必ずしもファイルシステムにおけるファイルに対応するとは限らない。プログラムは、他のプログラムまたはデータを保持するファイルの一部(例えば、マークアップ言語文書に格納された1つ以上のスクリプト)に記録されていてもよいし、当該プログラム専用の単一のファイルに記憶されていてもよいし、複数の調整ファイル(例えば、1つ以上のモジュール、サブプログラム、またはコードの一部を格納するファイル)に記憶されていてもよい。1つのコンピュータプログラムを、1つのサイトに位置する1つのコンピュータ、または複数のサイトに分散され通信ネットワークによって相互接続される複数のコンピュータで実行させるように展開可能である。
本明細書に記載されたプロセスおよびロジックフローは、入力データ上で動作し、出力を生成することによって機能を実行するための1つ以上のコンピュータプログラムを実行する1つ以上のプログラマブル処理装置によって行うことができる。プロセスおよびロジックフローはまた、特別目的のロジック回路、例えば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)によって実行することができ、装置はまた、特別目的のロジック回路として実装することができる。
コンピュータプログラムの実行に適した処理装置は、例えば、汎用および専用マイクロ処理装置の両方、並びに任意の種類のデジタルコンピュータの任意の1つ以上の処理装置を含む。一般的に、処理装置は、読み出し専用メモリまたはランダムアクセスメモリまたはその両方から命令およびデータを受信する。コンピュータの本質的な要素は、命令を実行するための処理装置と、命令およびデータを記憶するための1つ以上の記憶装置とである。一般的に、コンピュータは、データを記憶するための1つ以上の大容量記憶デバイス、例えば、磁気、光磁気ディスク、または光ディスクを含んでもよく、またはこれらの大容量記憶デバイスからデータを受信するか、またはこれらにデータを転送するように動作可能に結合されてもよい。しかしながら、コンピュータは、このようなデバイスを有する必要はない。コンピュータプログラム命令およびデータを記憶するのに適したコンピュータ可読媒体は、あらゆる形式の不揮発性メモリ、媒体、および記憶装置を含み、例えば、EPROM、EEPROM、フラッシュ記憶装置等の半導体記憶装置を含む。処理装置およびメモリは、専用ロジック回路によって補完されてもよく、または専用ロジック回路に組み込まれてもよい。
本明細書は、図面とともに、例示のみを目的とするものであり、例示的とは例を意味することが意図される。本明細書において、「または」の使用は、文脈からそうでないことが明確に示されていない限り、「および/または」を含むことが意図される。
本特許明細書は多くの詳細を含むが、これらは、任意の発明の範囲または特許請求の範囲を限定するものと解釈されるべきではなく、むしろ、特定の発明の特定の実施形態に特有であり得る特徴の説明と解釈されるべきである。本特許明細書において別の実施形態の文脈で説明されている特定の特徴は、1つの例において組み合わせて実装してもよい。逆に、単一の例の文脈で説明された様々な特徴は、複数の実施形態において別個にまたは任意の適切なサブコンビネーションで実装してもよい。さらに、特徴は、特定の組み合わせで作用するものとして上記に記載され、最初にそのように主張されていてもよいが、主張された組み合わせからの1つ以上の特徴は、場合によっては、組み合わせから抜粋されることができ、主張された組み合わせは、サブ組み合わせまたはサブ組み合わせのバリエーションに向けられてもよい。
同様に、動作は図面において特定の順番で示されているが、これは、所望の結果を達成するために、このような動作が示された特定の順番でまたは連続した順番で実行されること、または示された全ての操作が実行されることを必要とするものと理解されるべきではない。また、本特許明細書に記載されている例における様々なシステムモジュールの分離は、全ての実施形態においてこのような分離を必要とするものと理解されるべきではない。
いくつかの実装形態および例のみが記載されており、本特許明細書に記載され図示されている内容に基づいて、他の実施形態、拡張および変形が可能である。

Claims (16)

  1. 現在の映像ブロックの信号通知された動きベクトル差(MVD)について、精度セットから第1の精度を判定することと、前記精度セットは1/16画素精度、1/4画素精度および1画素精度から構成され、
    前記第1の精度に基づいて、予め定義された第2の精度を有する動きベクトルを取得することと、前記第2の精度はブロックを予測するために記憶された動きベクトルの精度と同じであり、前記動きベクトルは前記動きベクトル差(MVD)に動きベクトル予測子(MVP)を加えることに基づいており、前記記憶された動きベクトルの精度は1/16画素精度の固定値であり、
    前記動きベクトルに基づいて、前記現在の映像ブロックをコーディングすることと、を含
    前記第1の精度に基づいて、予め定義された第2の精度を有する動きベクトルを取得することは、
    前記MVPを前記MVDに加える前に前記MVDをスケーリングすることと、
    前記第1の精度に基づいて、前記MVPを前記MVDに加える前に前記MVPを修正することと、
    前記修正された前記MVP及び前記スケーリングされたMVDに基づいて、前記予め定義された第2の精度を有する前記動きベクトルを取得することと、を含む、映像処理方法。
  2. 前記第2の精度は1/16画素の精度である、請求項1に記載の方法。
  3. 前記MVPを修正するかどうかおよびどのように修正するかは前記第1の精度に基づく、請求項1に記載の方法。
  4. 前記第1の精度が1画素精度よりも低いまたは1画素精度に等しいと判定されると前記MVPをスケーリングすることをさらに含む、請求項3に記載の方法。
  5. 前記MVPは空間的に近傍のブロックまたは時間的に近傍のブロックのうちの少なくとも1つから導出されるかまたはデフォルトMVPである、請求項1に記載の方法。
  6. 前記第1の精度はビットストリームで示される、請求項1に記載の方法。
  7. 前記現在の映像ブロックはアフィンインターモードでコーディングされる、請求項1に記載の方法。
  8. 前記第1の精度は適応型動きベクトル解像度(AMVR)ツールを使用して判定される、請求項1に記載の方法。
  9. 前記コーディングは前記現在の映像ブロックをビットストリーム表現に符号化することを含む、請求項1に記載の方法。
  10. 前記コーディングはビットストリーム表現から前記現在の映像ブロックを復号化することを含む、請求項1に記載の方法。
  11. 処理装置と命令が記憶された非一時的メモリとを備える映像処理装置であって、前記命令が前記処理装置によって実行されると、前記処理装置に、
    現在の映像ブロックの信号通知された動きベクトル差(MVD)について、精度セットから第1の精度を判定することと、前記精度セットは1/16画素精度、1/4画素精度および1画素精度から構成され、
    前記第1の精度に基づいて、予め定義された第2の精度を有する動きベクトルを取得することと、前記第2の精度はブロックを予測するために記憶された動きベクトルの精度と同じであり、前記動きベクトルは前記動きベクトル差(MVD)に動きベクトル予測子(MVP)を加えることに基づいており、前記記憶された動きベクトルの精度は1/16画素精度の固定値であり、
    前記動きベクトルに基づいて、前記現在の映像ブロックをコーディングすることと、を行わせ
    前記第1の精度に基づいて、予め定義された第2の精度を有する動きベクトルを取得するステップを行う際、前記命令が前記処理装置によって実行されると、前記処理装置に、
    前記MVPを前記MVDに加える前に前記MVDをスケーリングすることと、
    前記第1の精度に基づいて、前記MVPを前記MVDに加える前に前記MVPを修正することと、
    前記修正された前記MVP及び前記スケーリングされたMVDに基づいて、前記予め定義された第2の精度を有する前記動きベクトルを取得することと、を行わせる、映像処理装置。
  12. 前記第2の精度は1/16画素の精度である、請求項11に記載の装置。
  13. 前記MVPを修正するかどうかおよびどのように修正するかは前記第1の精度に基づく、請求項11に記載の装置。
  14. 前記第1の精度はビットストリームで示される、請求項11に記載の装置。
  15. 非一時的なコンピュータ可読記憶媒体であって、処理装置に、
    現在の映像ブロックの信号通知された動きベクトル差(MVD)について、精度セットから第1の精度を判定することと、前記精度セットは1/16画素精度、1/4画素精度および1画素精度から構成され、
    前記第1の精度に基づいて、予め定義された第2の精度を有する動きベクトルを取得することと、前記第2の精度はブロックを予測するために記憶された動きベクトルの精度と同じであり、前記動きベクトルは前記動きベクトル差(MVD)に動きベクトル予測子(MVP)を加えることに基づいており、前記記憶された動きベクトルの精度は1/16画素精度の固定値であり、
    前記動きベクトルに基づいて、前記現在の映像ブロックをコーディングすることと、を行わせる命令を記憶しており、
    前記第1の精度に基づいて、予め定義された第2の精度を有する動きベクトルを取得するステップを行う際、前記命令が前記処理装置にさらに、
    前記MVPを前記MVDに加える前に前記MVDをスケーリングすることと、
    前記第1の精度に基づいて、前記MVPを前記MVDに加える前に前記MVPを修正することと、
    前記修正された前記MVP及び前記スケーリングされたMVDに基づいて、前記予め定義された第2の精度を有する前記動きベクトルを取得することと、を行わせる、非一時的なコンピュータ可読記憶媒体。
  16. 映像のビットストリームを記憶する方法であって、
    現在の映像ブロックの信号通知された動きベクトル差(MVD)について、精度セットから第1の精度を判定することと、前記精度セットは1/16画素精度、1/4画素精度および1画素精度から構成され、
    前記第1の精度に基づいて、予め定義された第2の精度を有する動きベクトルを取得することと、前記第2の精度はブロックを予測するために記憶された動きベクトルの精度と同じであり、前記動きベクトルは前記動きベクトル差(MVD)に動きベクトル予測子(MVP)を加えることに基づいており、前記記憶された動きベクトルの精度は1/16画素精度の固定値であり、
    前記動きベクトルに基づいて、前記ビットストリームを生成することと、
    非一時的なコンピュータ可読記録媒体に前記ビットストリームを記憶することと、を含
    前記第1の精度に基づいて、予め定義された第2の精度を有する動きベクトルを取得することは、
    前記MVPを前記MVDに加える前に前記MVDをスケーリングすることと、
    前記第1の精度に基づいて、前記MVPを前記MVDに加える前に前記MVPを修正することと、
    前記修正された前記MVP及び前記スケーリングされたMVDに基づいて、前記予め定義された第2の精度を有する前記動きベクトルを取得することと、を含む、方法。
JP2021514371A 2018-09-23 2019-09-23 適応動きベクトル解像度による動きベクトルの変更 Active JP7307154B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023045399A JP2023078364A (ja) 2018-09-23 2023-03-22 適応動きベクトル解像度による動きベクトルの変更

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2018107168 2018-09-23
CNPCT/CN2018/107168 2018-09-23
PCT/IB2019/058034 WO2020058961A1 (en) 2018-09-23 2019-09-23 Modification of motion vector with adaptive motion vector resolution

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023045399A Division JP2023078364A (ja) 2018-09-23 2023-03-22 適応動きベクトル解像度による動きベクトルの変更

Publications (2)

Publication Number Publication Date
JP2022503715A JP2022503715A (ja) 2022-01-12
JP7307154B2 true JP7307154B2 (ja) 2023-07-11

Family

ID=68136475

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021514371A Active JP7307154B2 (ja) 2018-09-23 2019-09-23 適応動きベクトル解像度による動きベクトルの変更
JP2023045399A Pending JP2023078364A (ja) 2018-09-23 2023-03-22 適応動きベクトル解像度による動きベクトルの変更

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023045399A Pending JP2023078364A (ja) 2018-09-23 2023-03-22 適応動きベクトル解像度による動きベクトルの変更

Country Status (7)

Country Link
US (1) US10841609B1 (ja)
EP (1) EP3834418A1 (ja)
JP (2) JP7307154B2 (ja)
KR (2) KR20230161543A (ja)
CN (3) CN110944191A (ja)
TW (2) TWI815973B (ja)
WO (2) WO2020058961A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019234598A1 (en) 2018-06-05 2019-12-12 Beijing Bytedance Network Technology Co., Ltd. Interaction between ibc and stmvp
WO2019244051A1 (en) 2018-06-19 2019-12-26 Beijing Bytedance Network Technology Co., Ltd. Selected mvd precision without mvp truncation
EP4307671A3 (en) 2018-06-21 2024-02-07 Beijing Bytedance Network Technology Co., Ltd. Sub-block mv inheritance between color components
TWI739120B (zh) 2018-06-21 2021-09-11 大陸商北京字節跳動網絡技術有限公司 合併仿射模式與非合併仿射模式的統一拘束
CN110891174B (zh) 2018-09-08 2023-03-10 北京字节跳动网络技术有限公司 不同视频块尺寸的仿射模式计算
TWI815967B (zh) 2018-09-19 2023-09-21 大陸商北京字節跳動網絡技術有限公司 仿射模式編解碼的模式相關自適應調整運動矢量分辨率
TWI831837B (zh) 2018-09-23 2024-02-11 大陸商北京字節跳動網絡技術有限公司 仿射模型的多個假設
CN110944206B (zh) 2018-09-23 2023-05-26 北京字节跳动网络技术有限公司 涉及仿射运动的一般应用
WO2020058951A1 (en) 2018-09-23 2020-03-26 Beijing Bytedance Network Technology Co., Ltd. Utilization of non-sub block spatial-temporal motion vector prediction in inter mode
CN117768651A (zh) 2018-09-24 2024-03-26 北京字节跳动网络技术有限公司 处理视频数据的方法、装置、介质、以及比特流存储方法
CN111083487B (zh) 2018-10-22 2024-05-14 北京字节跳动网络技术有限公司 仿射模式的运动信息的存储
CN112997480B (zh) 2018-11-10 2023-08-22 北京字节跳动网络技术有限公司 成对平均候选计算中的取整
CN112997487A (zh) 2018-11-15 2021-06-18 北京字节跳动网络技术有限公司 仿射模式与其他帧间编解码工具之间的协调
WO2020098813A1 (en) 2018-11-16 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Usage for history-based affine parameters
WO2020098810A1 (en) * 2018-11-17 2020-05-22 Beijing Bytedance Network Technology Co., Ltd. Merge with motion vector difference in video processing
WO2020125751A1 (en) 2018-12-21 2020-06-25 Beijing Bytedance Network Technology Co., Ltd. Information signaling in current picture referencing mode
CN113273207A (zh) 2019-01-10 2021-08-17 北京字节跳动网络技术有限公司 基于几何分区的具有运动矢量差(MVD)的Merge
CN118118659A (zh) 2019-01-31 2024-05-31 北京字节跳动网络技术有限公司 记录仿射模式自适应运动矢量分辨率的上下文
WO2020169109A1 (en) 2019-02-22 2020-08-27 Beijing Bytedance Network Technology Co., Ltd. Sub-table for history-based affine mode
CN113647108A (zh) 2019-03-27 2021-11-12 北京字节跳动网络技术有限公司 基于历史的运动矢量预测
CN113661708B (zh) 2019-04-02 2023-12-15 北京字节跳动网络技术有限公司 基于双向光流的视频编解码和解码
WO2020211866A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Applicability of prediction refinement with optical flow process
EP3922015A4 (en) 2019-04-19 2022-07-20 Beijing Bytedance Network Technology Co., Ltd. GRADIENT CALCULATION IN VARIOUS MOTION VECTOR REFINEMENTS
WO2020211867A1 (en) 2019-04-19 2020-10-22 Beijing Bytedance Network Technology Co., Ltd. Delta motion vector in prediction refinement with optical flow process
CN113826386B (zh) 2019-05-11 2023-10-24 北京字节跳动网络技术有限公司 视频处理中编解码工具的选择性使用
KR20220009952A (ko) 2019-05-21 2022-01-25 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 서브블록 머지 모드에서의 신택스 시그널링
WO2021018031A1 (en) 2019-07-27 2021-02-04 Beijing Bytedance Network Technology Co., Ltd. Restrictions of usage of tools according to reference picture types
CN117499661A (zh) 2019-09-09 2024-02-02 北京字节跳动网络技术有限公司 高精度图像和视频编解码的系数缩放
CN117376550A (zh) 2019-09-21 2024-01-09 北京字节跳动网络技术有限公司 用于图像和视频编解码的高精度变换和量化
EP4029245A4 (en) 2019-10-12 2022-11-23 Beijing Bytedance Network Technology Co., Ltd. HIGH LEVEL SYNTAX FOR VIDEO CODING TOOLS
CN114631321B (zh) 2019-10-18 2024-04-12 北京字节跳动网络技术有限公司 子图片与环路滤波之间的相互影响
MX2022011463A (es) 2020-03-21 2022-10-07 Beijing Bytedance Network Tech Co Ltd Combinacion de subimagenes y escalabilidad.
WO2021213309A1 (en) * 2020-04-19 2021-10-28 Beijing Bytedance Network Technology Co., Ltd. Transform skip residual coding
CN115812304A (zh) 2020-06-20 2023-03-17 抖音视界有限公司 具有不同的编解码块大小的层间预测
US11758151B2 (en) 2020-12-29 2023-09-12 Qualcomm Incorporated Template matching in video coding
CN117616755A (zh) * 2021-04-02 2024-02-27 抖音视界有限公司 自适应依赖量化
US11936877B2 (en) * 2021-04-12 2024-03-19 Qualcomm Incorporated Template matching based affine prediction for video coding
US20230093129A1 (en) * 2021-09-17 2023-03-23 Tencent America LLC Method and apparatus for intra block copy mode coding with search range switching
WO2023140635A1 (ko) * 2022-01-21 2023-07-27 주식회사 윌러스표준기술연구소 경계 밖 블록을 이용하는 비디오 신호 처리 방법 및 이를 위한 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040240550A1 (en) 2002-01-24 2004-12-02 Yoshinori Suzuki Moving picture signal coding method, decoding method, coding apparatus, and decoding apparatus
JP2006187025A (ja) 2002-01-24 2006-07-13 Hitachi Ltd 動画像信号の符号化方法、復号化方法、符号化装置及び復号化装置
US20150195562A1 (en) 2014-01-09 2015-07-09 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
JP2021536686A (ja) 2018-08-29 2021-12-27 ヴィド スケール インコーポレイテッド アフィン動きモデルベースのビデオ符号化のための適応動きベクトル精度

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106797229B (zh) * 2014-11-20 2019-06-21 寰发股份有限公司 视频编码方法
US20160337662A1 (en) * 2015-05-11 2016-11-17 Qualcomm Incorporated Storage and signaling resolutions of motion vectors
WO2017156705A1 (en) * 2016-03-15 2017-09-21 Mediatek Inc. Affine prediction for video coding
EP3414900A4 (en) * 2016-03-15 2019-12-11 Mediatek Inc. METHOD AND DEVICE FOR VIDEO CODING WITH AFFINE MOTION COMPENSATION
US10979732B2 (en) * 2016-10-04 2021-04-13 Qualcomm Incorporated Adaptive motion vector precision for video coding
CN116320475A (zh) * 2016-12-22 2023-06-23 株式会社Kt 对视频进行解码或编码的方法和发送视频数据的方法
US20180199057A1 (en) * 2017-01-12 2018-07-12 Mediatek Inc. Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040240550A1 (en) 2002-01-24 2004-12-02 Yoshinori Suzuki Moving picture signal coding method, decoding method, coding apparatus, and decoding apparatus
JP2006187025A (ja) 2002-01-24 2006-07-13 Hitachi Ltd 動画像信号の符号化方法、復号化方法、符号化装置及び復号化装置
US20150195562A1 (en) 2014-01-09 2015-07-09 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
JP2017508346A (ja) 2014-01-09 2017-03-23 クゥアルコム・インコーポレイテッドQualcomm Incorporated ビデオコーディングのための適応的な動きベクトル分解シグナリング
JP2021536686A (ja) 2018-08-29 2021-12-27 ヴィド スケール インコーポレイテッド アフィン動きモデルベースのビデオ符号化のための適応動きベクトル精度

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Jianle Chen Qualcomm Inc. Elena Alshina Samsung Electronics Gary J. Sullivan Microsoft Corp. Jens-Rainer Ohm RWTH Aachen University Jill Boyce Intel,Algorithm Description of Joint Exploration Test Model 7 (JEM 7) [online], JVET-G JVET-G1001-v1,ITU-T インターネット<URL:http://phenix.it-sudparis.eu/jvet/doc_end_user/documents/7_Torino/wg11/JVET-G1001-v1.zip>,2018年12月15日,i-iv,1-44

Also Published As

Publication number Publication date
CN116647697A (zh) 2023-08-25
CN110944195A (zh) 2020-03-31
JP2022503715A (ja) 2022-01-12
WO2020058961A1 (en) 2020-03-26
KR20210059709A (ko) 2021-05-25
TW202019182A (zh) 2020-05-16
EP3834418A1 (en) 2021-06-16
CN110944191A (zh) 2020-03-31
TWI815974B (zh) 2023-09-21
US20200359045A1 (en) 2020-11-12
TW202025753A (zh) 2020-07-01
KR102613889B1 (ko) 2023-12-13
CN110944195B (zh) 2023-05-09
WO2020058962A1 (en) 2020-03-26
KR20230161543A (ko) 2023-11-27
TWI815973B (zh) 2023-09-21
US10841609B1 (en) 2020-11-17
JP2023078364A (ja) 2023-06-06

Similar Documents

Publication Publication Date Title
JP7307154B2 (ja) 適応動きベクトル解像度による動きベクトルの変更
JP7212150B2 (ja) 適応動きベクトル解像度によるアフィンモードへの構文の使用
US11451819B2 (en) Clipping of updated MV or derived MV
US11778170B2 (en) Temporal gradient calculations in bio
JP7235877B2 (ja) アフィンモード適応型動きベクトル解像度を符号化するためのコンテキスト
WO2020156517A1 (en) Fast algorithms for symmetric motion vector difference coding mode
WO2020156525A1 (en) Multiple syntax elements for adaptive motion vector resolution
WO2020070730A2 (en) Size restriction based on affine motion information

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220817

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230322

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20230404

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230629

R150 Certificate of patent or registration of utility model

Ref document number: 7307154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150