JP7125563B2 - 映像復号のための方法、装置、及びコンピュータプログラム - Google Patents

映像復号のための方法、装置、及びコンピュータプログラム Download PDF

Info

Publication number
JP7125563B2
JP7125563B2 JP2021546709A JP2021546709A JP7125563B2 JP 7125563 B2 JP7125563 B2 JP 7125563B2 JP 2021546709 A JP2021546709 A JP 2021546709A JP 2021546709 A JP2021546709 A JP 2021546709A JP 7125563 B2 JP7125563 B2 JP 7125563B2
Authority
JP
Japan
Prior art keywords
video
motion vector
prediction
candidate list
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021546709A
Other languages
English (en)
Other versions
JP2022521157A (ja
Inventor
リィウ,シャン
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2022521157A publication Critical patent/JP2022521157A/ja
Application granted granted Critical
Publication of JP7125563B2 publication Critical patent/JP7125563B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

この出願は、2019年2月28日に出願された米国仮出願第62/812,217号“MOTION VECTOR PREDICTOR DERIVATION RESTRICTION BASED ON AMVR INDEX”に対する優先権の利益を主張するものである2020年2月21日に出願された米国特許出願第16/797,893号“METHOD AND APPARATUS FOR MOTION PREDICTION IN VIDEO CODING”に対する優先権の利益を主張するものである。これら先行出願の開示全体をそれらの全体にてここに援用する。
本開示は、映像コーディングに概して関係する実施形態を記述する。
ここに提示される背景説明は、開示に係る状況を概略的に提示するためのものである。この背景セクションに記載される範囲においての、ここに名を連ねる発明者の仕事、並びに、出願時にさもなければ従来技術として適格でないかもしれない記載の態様は、明示的にも、暗示的にも、本開示に対する従来技術として認められるものではない。
動き補償を用いるインターピクチャ予測を使用して映像符号化及び復号を実行することができる。圧縮されていないデジタル映像は一連のピクチャを含み、各ピクチャが、例えば、1920×1080のルミナンスサンプル及び関連するクロミナンスサンプルの空間寸法を持つ。一連のピクチャは、固定又は可変のピクチャレート(非公式にはフレームレートとしても知られる)を持つことができ、例えば、毎秒60ピクチャ、すなわち、60Hzのピクチャレートを持ち得る。圧縮されていない映像は、かなりのビットレート要求を持つ。例えば、サンプル当たり8ビットの1080p60 4:2:0映像(60Hzのフレームレートで1920×1080のルミナンスサンプル解像度)は、1.5Gbit/sに近い帯域幅を必要とする。1時間のこのような映像は、600GByteを超えるストレージ空間を必要とする。
映像の符号化及び復号の1つの目的は、圧縮を通じての入力映像信号の冗長性の低減であるとし得る。圧縮は、前述の帯域幅要求又はストレージ空間要求を、場合によって2桁以上の大きさで、低減させる助けとなることができる。可逆圧縮及び非可逆圧縮の双方、並びにこれらの組み合わせを使用することができる。可逆圧縮は、原信号の正確な複製を圧縮された原信号から再構成することができる技術を指す。非可逆圧縮を使用する場合、再構成された信号は、原信号と同じにならないことがあるが、原信号と再構成信号との間の歪みは、再構成信号を意図した用途に有用にするのに十分な小ささとなる。映像の場合、非可逆圧縮が広く用いられる。許容される歪みの量は用途に依存し、例えば、特定の消費者ストリーミングアプリケーションのユーザは、テレビジョン配信アプリケーションのユーザよりも高い歪みを許容し得る。達成可能な圧縮比はそれを反映し、より高い許容/我慢できる歪みは、より高い圧縮比をもたらすことができる。
動き補償は、非可逆圧縮技術であるとし得るとともに、先行して再構成されたピクチャ又はその一部(参照ピクチャ)からのサンプルデータのブロックが、動きベクトル(以下、MV)によって指し示される方向に空間的にシフトされた後に、新たに再構成されるピクチャ又はピクチャ部分の予測のために使用される技術に関係するとし得る。一部のケースにおいて、参照ピクチャは、現在再構成中のピクチャと同じであることができる。MVは、2つの次元X及びYを有することができ、あるいは、使用する参照ピクチャを指し示すインジケーションを3つめとして3つの次元を有することができる(後者は、間接的に、時間次元であるとすることができる)。
一部の映像圧縮技術では、サンプルデータのある特定の領域に適用可能なMVを、例えば、復号順でそのMVに先行するMVであって再構成中の領域に空間的に隣接するサンプルデータの別領域に関係するMVからなど、別のMVから予測することができる。そうすることは、そのMVを符号化するのに必要なデータの量を大幅に減らすことができ、それにより冗長性を取り除いて圧縮を高めることができる。MV予測は、効果的に機能することができる。何故なら、例えば、カメラに由来する入力ビデオ信号(ナチュラルビデオとして知られる)を符号化するとき、単一のMVが適用可能である領域よりも大きい領域が同様の方向に移動し、それ故に、場合により、隣接する領域のMVから導出される同様の動きベクトルを用いて予測されることができる、という統計的尤度があるからである。これがもたらすのは、所与の領域に対して見出されたMVが、周囲のMVから予測されるMVと類似又は同じであり、ひいては、エントロピー符号化の後に、そのMVを直接符号化する場合に使用されることになるものよりも少ないビット数で表されることができるということである。一部のケースでは、MV予測は、原信号(はっきり言えば、サンプルストリーム)から導出される信号(はっきり言えば、MV)の可逆圧縮の一例であることができる。他のケースでは、例えば、幾つかの周囲MVから予測子を計算する際の丸め誤差のために、MV予測それ自体が非可逆的であるとし得る。
様々なMV予測メカニズムが、H.265/HEVC(ITU-T勧告H.265,“High Efficiency Video Coding”、2016年12月)に記述されている。H.265が提供するそれら多数のMV予測メカニズムのうち、以下では“空間マージ”と称する技術をここで説明する。
図1を参照するに、現在ブロック(101)は、空間的にシフトされた同じサイズの先行ブロックから予測可能であることが動き探索プロセス中にエンコーダによって見出されたサンプルを有する。MVを直接符号化する代わりに、MVを、A0、A1、及びB0、B1、B2(それぞれ102から106)と表記する5つの周囲サンプルのうちのいずれか1つに関連するMVを用いて、例えば(復号順で)直前の参照ピクチャからなど、1つ以上の参照ピクチャに関連するメタデータから導出することができる。H.265において、MV予測は、隣接ブロックが使用しているのと同じ参照ピクチャからの予測子を使用することができる。
本開示の態様は、映像符号化/復号のための方法及び装置を提供する。一部の例において、映像復号のための装置は処理回路を含む。処理回路は、符号化映像ビットストリームから現在ブロックの予測情報を復号する。該予測情報は、候補リストから選択される動きベクトル予測子と動きベクトル差とに基づいてインター予測を実行するインター予測モードを指し示す。次いで、処理回路は、動きベクトル差の精度情報を復号し、精度情報がある特定の精度を指し示す場合に、候補リストのサブセットから動きベクトル予測子を導出する。そして、処理回路は、動きベクトル予測子及び動きベクトル差に従って現在ブロックのサンプルを再構成する。
一部の実施形態において、処理回路は、適応動きベクトルレゾリューション(AMVR)に従って、特定の精度を指し示す第1の特定値を持つ第1のインデックスを復号する。一実施形態において、処理回路は、第1のインデックスが第1の特定値であることに基づいて、候補リストのサブセットを指し示すフラグを推定する。他の一実施形態において、処理回路は、候補リストのサブセット内の動きベクトル予測子を指し示す第2のインデックスを復号する。第2のインデックスは、候補リストを符号化するための第2のビット数よりも短い第1のビット数で符号化されている。
一部の実施形態において、処理回路は、候補リストから履歴ベースの動きベクトル予測子候補を除外する候補リストのサブセットから動きベクトル予測子を導出する。一例において、処理回路は、候補リストからの履歴ベースの動きベクトル予測子候補の除外を、適応動きベクトルレゾリューション(AMVR)インデックスに基づいて決定する。
一部の例において、処理回路は、第1のインデックスが第1の特定値とは異なる第2の値である場合に、候補リストのサブセットを指し示すフラグを符号化映像ビットストリームから復号する。
本開示の一態様によれば、処理回路は、精度情報が所定のデフォルト精度値を指し示す場合に、候補リストのサブセットから動きベクトル予測子を導出する。
一部の例において、処理回路は、動きベクトル差の精度情報に基づいて候補リストのサブセットを決定する。
本開示の態様はまた、映像復号用のコンピュータによって実行されるときに該コンピュータに映像復号のための方法を実行させる命令を格納した非一時的なコンピュータ読み取り可能媒体を提供する。
開示に係る事項の更なる特徴、性質、及び様々な利点が、以下の詳細な説明及び添付の図面から、よりいっそう明らかになる。
一例における現在ブロック及びその周囲の空間マージ候補を概略的に例示している。 一実施形態に従った通信システム(200)の簡略ブロック図を概略的に例示している。 一実施形態に従った通信システム(300)の簡略ブロック図を概略的に例示している。 一実施形態に従ったデコーダの簡略ブロック図を概略的に例示している。 一実施形態に従ったエンコーダの簡略ブロック図を概略的に例示している。 他の一実施形態に従ったエンコーダのブロック図を示している。 他の一実施形態に従ったデコーダのブロック図を示している。 一部の実施形態での冗長性検査ペアを説明する図を示している。 時間候補導出の一例を示している。 新たな動き候補を挿入するために制約付き先入れ先出しルールを使用することの例を示している。 本開示の一部の実施形態に従ったプロセス例を概説するフローチャートである。 一実施形態に従ったコンピュータシステムの概略図である。
図2は、本開示の一実施形態に従った通信システム(200)の簡略ブロック図を例示している。通信システム(200)は、例えばネットワーク(250)を介して、互いに通信することができる複数の端末装置を含む。例えば、通信システム(200)は、ネットワーク(250)を介して相互接続された第1の対の端末装置(210)及び(220)を含む。図2の例において、第1の対の端末装置(210)及び(220)は、データの一方向伝送を行う。例えば、端末装置(210)が、映像データ(例えば、端末装置(210)によってキャプチャされた映像ピクチャのストリーム)を、ネットワーク(250)を介した他の端末装置(220)への伝送のために符号化し得る。符号化された映像データは、1つ以上の符号化映像ビットストリームの形態で伝送されることができる。端末装置(220)が、ネットワーク(250)から符号化映像データを受信し、符号化映像データを復号して映像ピクチャを復元し、復元した映像データに従って映像ピクチャを表示し得る。一方向データ伝送は、メディアサービス提供アプリケーション及びそれに類するものにおいて一般的であり得る。
他の一例において、通信システム(200)は、例えば、テレビ会議中に発生し得る符号化映像データの双方向伝送を行う第2の対の端末装置(230)及び(240)を含む。データの双方向伝送では、一例において、端末装置(230)及び(240)の各端末装置が、映像データ(例えば、その端末装置によってキャプチャされた映像ピクチャのストリーム)を、ネットワーク(250)を介した端末装置(230)及び(240)のうちの他方の端末装置への伝送のために符号化し得る。端末装置(230)及び(240)の各端末装置はまた、端末装置(230)及び(240)のうちの他方の端末装置によって送信された符号化映像データを受信し得るとともに、符号化映像データを復号して映像ピクチャを復元し、そして、復元した映像データに従って、アクセス可能なディスプレイ装置に映像ピクチャを表示し得る。
図2において、端末装置(210)、(220)、(230)及び(240)は、サーバ、パーソナルコンピュータ、及びスマートフォンとして示されているが、本開示の原理は、そのように限定されるものではないとし得る。本開示の実施形態は、ラップトップコンピュータ、タブレットコンピュータ、メディアプレーヤ、及び/又は専用のテレビ会議機器での用途を見出し。ネットワーク(250)は、例えば、配線(有線)通信ネットワーク及び/又は無線通信ネットワークを含め、端末装置(210)、(220)、(230)及び(240)間で符号化された映像データを伝達するあらゆる数のネットワークを表す。通信ネットワーク(250)は、回線交換チャネル及び/又はパケット交換チャネルにてデータを交換し得る。代表的なネットワークは、遠距離通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、及び/又はインターネットを含む。本説明の目的上、ネットワーク(250)のアーキテクチャ及びトポロジーは、以下にて説明しない限り、本開示の動作にとって重要ではないとし得る。
図3は、開示に係る事項に関するアプリケーションの一例として、ストリーミング環境におけるビデオエンコーダ及びビデオデコーダの配置を例示している。開示に係る事項は、例えば、テレビ会議や、デジタルTVや、CD、DVD、メモリスティック及びこれらに類するものを含むデジタル媒体上での圧縮映像の格納などを含め、映像を使用可能な他の用途にも等しく適用されることができる。
ストリーミングシステムは、例えば圧縮されていない映像ピクチャのストリーム(302)を作り出す例えばデジタルカメラといった映像ソース(301)を含み得るものであるキャプチャサブシステム(313)を含み得る。一例において、映像ピクチャのストリーム(302)は、デジタルカメラによって撮影されるサンプルを含む。映像ピクチャのストリーム(302)は、符号化された映像データ(304)(又は符号化映像ビットストリーム)と比較して高いデータボリュームであることを強調するために太線として描かれており、映像ソース(301)に結合されたビデオエンコーダ(303)を含んだエレクトロニクス装置(320)によって処理され得る。ビデオエンコーダ(303)は、更に詳細に後述される開示に係る事項の態様を使用可能にする又は実装するための、ハードウェア、ソフトウェア、又はこれらの組み合わせを含むことができる。符号化された映像データ(304)(又は符号化映像ビットストリーム(304))は、映像ピクチャのストリーム(302)と比較して低いデータボリュームであることを強調するために細線として描かれており、後の使用のためにストリーミングサーバ(305)に格納されることができる。例えば図3のクライアントサブシステム(306)及び(308)などの1つ以上のストリーミングクライアントサブシステムが、符号化された映像データ(304)のコピー(307)及び(309)を取り出すためにストリーミングサーバ(305)にアクセスすることができる。クライアントサブシステム(306)は、例えばエレクトロニクス装置(330)内の、ビデオデコーダ(310)を含むことができる。ビデオデコーダ(310)は、入ってくる符号化された映像データのコピー(307)を復号し、出ていく映像ピクチャのストリーム(311)を作り出すことができ、出ていく映像ピクチャのストリーム(311)が、ディスプレイ(312)(例えば、表示スクリーン)又は他のレンダリング装置(図示せず)上でレンダリングされ得る。一部のストリーミングシステムにおいて、符号化された映像データ(304)、(307)、及び(309)(例えば、映像ビットストリーム)は、特定の映像符号化/圧縮標準に従って符号化されることができる。それら標準の例は、ITU-T勧告H.265を含む。一例において、開発中のある映像符号化標準は、非公式にバーサタイルビデオコーディング(Versatile Video Coding;VVC)として知られている。開示に係る事項は、VVCの文脈で使用され得る。
なお、エレクトロニクス装置(320)及び(330)は、他のコンポーネント(図示せず)を含むことができる。例えば、エレクトロニクス装置(320)はビデオデコーダ(図示せず)を含むことができ、エレクトロニクス装置(330)はビデオエンコーダ(図示せず)も含むことができる。
図4は、本開示の一実施形態に従ったビデオデコーダ(410)のブロック図を示している。ビデオデコーダ(410)は、エレクトロニクス装置(430)に含まれ得る。エレクトロニクス装置(430)は、受信器(431)(例えば、受信回路)を含むことができる。ビデオデコーダ(410)は、図3の例におけるビデオデコーダ(310)の代わりに使用されることができる。
受信器(431)が、これと同じ実施形態又は他の一実施形態において、一度に1つの符号化映像シーケンスで、ビデオデコーダ(410)によって復号されることになる1つ以上の符号化映像シーケンスを受信することができ、各符号化映像シーケンスの復号は、他の符号化映像シーケンスとは独立である。符号化映像シーケンスは、符号化された映像データを格納するストレージ装置へのハードウェア/ソフトウェアリンクとし得るものであるチャネル(401)から受信され得る。受信器(431)は、符号化映像データを、例えば符号化された音声データ及び/又は補助データストリームといった他のデータと共に受信してもよく、それらのデータは、それらそれぞれの使用エンティティ(図示せず)に転送され得る。受信器(431)は、符号化映像シーケンスを他のデータから分離し得る。ネットワークジッタに対抗するために、受信器(431)とエントロピーデコーダ/パーサ420(以下、“パーサ(420)”)との間にバッファメモリ(415)が結合され得る。特定のアプリケーションにおいて、バッファメモリ(415)はビデオデコーダ(410)の一部である。他のものにおいて、それは、ビデオデコーダ(410)の外部にあってもよい(図示せず)。更なる他のものにおいて、例えばネットワークジッタに対抗するために、ビデオデコーダ(410)の外部にバッファメモリ(図示せず)が存在することができ、さらに、例えば再生タイミングを取り扱うために、ビデオデコーダ(410)の内部に別のバッファメモリ(415)が存在することができる。受信器(431)が、十分な帯域幅及び可制御性の格納/転送装置から又は等同期ネットワークからデータを受信しているとき、バッファメモリ(415)は、必要とされなくてもよく、又は小さくされることができる。例えばインターネットなどのベストエフォート型パケットネットワーク上での使用では、バッファメモリ(415)が、必要とされ得るとともに、比較的大きくされ、そして、有利には適応可能なサイズのものにされることができ、また、少なくとも部分的に、ビデオデコーダ(410)の外部のオペレーティングシステム又は同様の要素(図示せず)にて実装され得る。
ビデオデコーダ(410)は、符号化映像シーケンスからシンボル(421)を再構成するためのパーサ(420)を含み得る。それらシンボルのカテゴリは、ビデオデコーダ(410)の動作を管理するために使用される情報を含むとともに、可能性として、図4に示したように、エレクトロニクス装置(430)の統合部分ではないがエレクトロニクス装置(430)に結合されることが可能な、例えばレンダー装置(412)(例えば、表示スクリーン)などのレンダリング装置を制御する情報を含み得る。(1つ以上の)レンダリング装置用の制御情報は、補足強化情報(Supplementary Enhancement Information;SEI)メッセージ又はビデオユーザビリティ情報(Video Usability Information;VUI)パラメータセットフラグメント(図示せず)の形態とし得る。パーサ(420)は、受け取った符号化映像シーケンスを構文解析/エントロピー復号し得る。符号化映像シーケンスの符号化は、映像符号化技術又は標準によることができ、可変長符号化、ハフマン符号化、文脈依存性を持つ又は持たない算術符号化などを含め、様々な原理に従うことができる。パーサ(420)は、符号化映像シーケンスから、グループに対応する少なくとも1つのパラメータに基づいて、ビデオデコーダにおけるピクセルのサブグループのうちの少なくとも1つに関する一組のサブグループパラメータを抽出することができる。サブグループは、グループ・オブ・ピクチャ(GOP)、ピクチャ、タイル、スライス、マクロブロック、符号化ユニット(CU)、ブロック、変換ユニット(TU)、予測ユニット(PU)などを含むことができる。パーサ(420)はまた、符号化映像シーケンス情報から、例えば変換係数、量子化パラメータ値、動きベクトルなどの情報を抽出し得る。
パーサ(420)は、シンボル(421)を生み出すよう、バッファメモリ(415)から受け取った映像シーケンスにエントロピー復号/構文解析処理を実行し得る。
シンボル(421)の再構成には、符号化された映像ピクチャ又はその部分のタイプ及び他の要因(例えば、インターピクチャ及びイントラピクチャ、インターブロック及びイントラブロックなど)に応じて、複数の異なるユニットが関与し得る。どのユニットが関与するか、及びそれらがどのように関与するかは、パーサ(420)によって符号化映像シーケンスから構文解析されたサブグループ制御情報によって制御されることができる。パーサ(420)と以下の複数ユニットとの間でのこのようなサブグループ制御情報の流れは、明瞭さのために図示していない。
既述の機能ブロックを超えて、ビデオデコーダ(410)は概念的に、後述のような多数の機能ユニットに細分化されることができる。商業上の制約の下で稼働する実用的な実装において、これらのユニットのうちの多くが互いに密接にインタラクトし、少なくとも部分的に互いに統合され得る。しかしながら、開示に係る事項を説明するという目的のためには、以下の機能ユニットへの概念的な細分化が適切である。
第1のユニットは、スケーラ/逆変換ユニット(451)である。スケーラ/逆変換ユニット(451)は、パーサ(420)からの(1つ以上の)シンボル(421)として、どの変換を使用すべきか、ブロックサイズ、量子化係数、量子化スケーリング行列などを含む制御情報とともに、量子化された変換係数を受け取る。スケーラ/逆変換ユニット(451)は、アグリゲータ(455)に入力されることが可能な、サンプル値を有するブロックを出力することができる。
場合により、スケーラ/逆変換(451)の出力サンプルは、イントラ符号化されたブロック、すなわち、先行して再構成されたピクチャからの予測情報を使用していないが、現在ピクチャのうち先行して再構成された部分からの予測情報を使用することができるブロック、に関係し得る。このような予測情報は、イントラピクチャ予測ユニット(452)によって提供されることができる。場合により、イントラピクチャ予測ユニット(452)は、現在ピクチャバッファ(458)からフェッチされた周囲の既に再構成された情報を用いて、再構成中のブロックと同じサイズ及び形状のブロックを生成する。現在ピクチャバッファ(458)は、例えば、部分的に再構成された現在ピクチャ及び/又は完全に再構成された現在ピクチャをバッファリングする。アグリゲータ(455)は、場合により、サンプル毎に、イントラ予測ユニット(452)が生成した予測情報を、スケーラ/逆変換ユニット(451)によって提供される出力サンプル情報に付加する。
他の場合には、スケーラ/逆変換ユニット(451)の出力サンプルは、インター符号化された、動き補償された可能性のあるブロックに関係し得る。このような場合、動き補償予測ユニット(453)が、参照ピクチャメモリ(457)にアクセスして、予測に使用されるサンプルをフェッチすることができる。フェッチされたサンプルを、ブロックに関係するシンボル(421)に従って動き補償した後、これらのサンプルが、アグリゲータ(455)によって、スケーラ/逆変換ユニット(451)の出力(この場合、残差サンプル又は残差信号と呼ばれる)に付加されて、出力サンプル情報を生成することができる。そこから動き補償予測ユニット(453)が予測サンプルをフェッチする参照ピクチャメモリ(457)内のアドレスは、動きベクトルによって制御されることができ、例えばX、Y、及び参照ピクチャ成分を有し得るシンボル(421)の形態で動き補償予測ユニット(453)に利用可能である。動き補償はまた、サブサンプルの正確な動きベクトルが使用されるときに参照ピクチャメモリ(457)からフェッチされたサンプル値の補間や、動きベクトル予測メカニズムなどを含むことができる。
アグリゲータ(455)の出力サンプルは、ループフィルタユニット(456)にて様々なループフィルタリング技術に掛けられ得る。映像圧縮技術は、インループ(in-loop)フィルタ技術を含むことができ、これは、符号化映像シーケンス(符号化映像ビットストリームとも称する)に含められてパーサ(420)からのシンボル(421)としてループフィルタユニット(456)に利用可能にされるパラメータによって制御されるが、符号化ピクチャ又は符号化映像シーケンスのうちの(復号順で)先行部分の復号中に得られたメタ情報にも応答することができるとともに、先行して再構成されてループフィルタリングされたサンプル値にも応答することができる。
ループフィルタユニット(456)の出力は、レンダー装置(412)に出力されることが可能なサンプルストリームとすることができ、これはまた、将来のインターピクチャ予測での使用のために参照ピクチャメモリ(457)に格納されることができる。
ある特定の符号化ピクチャは、完全に再構成されると、将来の予測のための参照ピクチャとして使用されることができる。例えば、現在ピクチャに対応する符号化ピクチャが完全に再構成され、その符号化ピクチャが参照ピクチャとして(例えば、パーサ(420)によって)特定されると、現在ピクチャバッファ(458)が参照ピクチャメモリ(457)の一部となり得るとともに、次の符号化ピクチャの再構成を開始する前に新しい現在ピクチャバッファが再割り当てされ得る。
ビデオデコーダ(410)は、例えばITU-T勧告H.265などの標準における所定の映像圧縮技術に従って復号処理を実行し得る。符号化映像シーケンスは、映像圧縮技術又は標準の構文と映像圧縮技術又は標準において文書化されたプロファイルとの双方を忠実に守るという意味で、使用される映像圧縮技術又は標準によって規定される構文に従い得る。具体的には、プロファイルは、映像圧縮技術又は標準において利用可能な全てのツールから、特定のツールを、そのプロファイルの下での使用に利用可能なツールはそれだけであるように選択することができる。また、コンプライアンスのために、符号化映像シーケンスの複雑さが、映像圧縮技術又は標準のレベルによって規定される範囲内にあることも必要である。場合により、レベルは、最大ピクチャサイズ、最大フレームレート、最大再構成サンプルレート(例えば、毎秒メガサンプルで測定される)、最大参照ピクチャサイズなどを制約する。レベルによって設定される制限は、場合により、仮説的リファレンスデコーダ(Hypothetical Reference Decoder;HRD)仕様、及び符号化映像シーケンスにてシグナリングされるHRDバッファ管理用のメタデータを通して更に制約され得る。
一実施形態において、受信器(431)は、符号化された映像と共に追加(冗長)データを受信し得る。追加データは、(1つ以上の)符号化映像シーケンスの一部として含められ得る。追加データは、データを適切に復号するため、及び/又は元の映像データをいっそう正確に再構成するために、ビデオデコーダ(410)によって使用され得る。追加データは、例えば、時間的、空間的、又は信号対雑音比(SNR)エンハンスメントレイヤ、冗長スライス、冗長ピクチャ、順方向誤り訂正符号などの形態とし得る。
図5は、本開示の一実施形態に従った、ビデオエンコーダ(503)のブロック図を示している。ビデオエンコーダ(503)は、エレクトロニクス装置(520)に含まれる。例えば、エレクトロニクス装置(520)は送信器(540)(例えば、送信回路)を含んでいる。ビデオエンコーダ(503)は、図3の例におけるビデオエンコーダ(203)の代わりに使用されることができる。
ビデオエンコーダ(503)は、エンコーダ(503)によって符号化されることになる(1つ以上の)映像画像をキャプチャし得る映像ソース(501)(図5の例ではエレクトロニクス装置(520)の一部ではない)から映像サンプルを受信し得る。他の一例において、映像ソース(501)は、エレクトロニクス装置(520)の一部である。
映像ソース(501)は、ビデオエンコーダ(503)によって符号化されるソース映像シーケンスを、任意の好適なビット深さ(例えば、8ビット、10ビット、12ビット、…)、任意の色空間(例えば、BT.601 Y CrCB、RGB、…)、及び任意の好適なサンプリング構造(例えば、Y CrCb 4:2:0、Y CrCb 4:4:4)のものとし得るデジタル映像サンプルストリームの形態で提供し得る。メディアサービス提供システムにおいて、映像ソース(501)は、事前に準備された映像を格納したストレージ装置とし得る。テレビ会議システムでは、映像ソース(501)は、ローカルな画像情報を映像シーケンスとしてキャプチャするカメラとし得る。映像データは、順に見たときに動きを伝える複数の個々のピクチャとして提供され得る。それらピクチャ自体は、ピクセルの空間アレイとして編成されることができ、各ピクセルが、使用されるサンプリング構造、色空間などに応じて、1つ以上のサンプルを有することができる。当業者は、ピクセルとサンプルとの関係を直ちに理解することができる。以下の説明は、サンプルに焦点を当てている。
一実施形態によれば、ビデオエンコーダ(503)は、ソース映像シーケンスのピクチャを、リアルタイムで、又はアプリケーションによって要求される他の時間制約下で、符号化映像シーケンス(543)へと符号化及び圧縮し得る。適切な符号化速度を強制することが、コントローラ(550)の1つの機能である。一部の実施形態において、コントローラ(550)は、後述するような他の機能ユニットを制御するとともに、それら他の機能ユニットに機能的に結合される。その結合は、明瞭さのために図示されていない。コントローラ(550)によって設定されるパラメータは、レート制御関連パラメータ(ピクチャスキップ、量子化器、レート歪み最適化技術のラムダ値、…)、ピクチャサイズ、グループ・オブ・ピクチャ(GOP)レイアウト、最大動きベクトル探索範囲などを含み得る。コントローラ(550)は、特定のシステム設計に合わせて最適化されるビデオエンコーダ(503)に関連する他の好適な機能を有するように構成されることができる。
一部の実施形態において、ビデオエンコーダ(503)は、符号化ループにて動作するように構成される。過度に単純化した説明として、一例において、符号化ループは、ソースコーダ(530)(例えば、符号化される入力ピクチャ及び(1つ以上の)参照ピクチャに基づいて例えばシンボルストリームなどのシンボルを作成することを担う)と、ビデオエンコーダ(503)に埋め込まれた(ローカル)デコーダ(533)とを含むことができる。デコーダ(533)は、(シンボルと符号化映像ビットストリームとの間での圧縮が、開示に係る事項において検討される映像圧縮技術において可逆であるときに)(リモート)デコーダも作成するのと同様にして、シンボルを再構成してサンプルデータを生成する。再構成されたサンプルストリーム(サンプルデータ)が、参照ピクチャメモリ(534)に入力される。シンボルストリームの復号は、デコーダ位置(ローカル又はリモート)に依存しないビット正確な結果をもたらすので、参照ピクチャメモリ(534)内のコンテンツもローカルエンコーダとリモートエンコーダとの間でビット正確である。換言すれば、エンコーダの予測部分は、デコーダが復号中に予測を使用するときに“見る”のとまったく同じサンプル値を参照ピクチャサンプルとして“見る”。この参照ピクチャ同期性の基本原理(及び、例えばチャネルエラーのために、同期性を維持することができない場合に結果として生じるドリフト)は、一部の関連技術でも使用されている。
“ローカル”デコーダ(533)の動作は、例えばビデオデコーダ(410)などの“リモート”デコーダのものと同じであるとすることができ、それは、図4に関連して既に詳細に上述されている。しかしながら、図4も手短に参照するに、シンボルが利用可能であり、且つエントロピーコーダ(545)及びパーサ(420)によるシンボルの符号化映像シーケンスへの符号化/復号は可逆であるとし得るので、バッファメモリ(415)及びパーサ(420)を含むビデオデコーダ(410)のエントロピー復号部分は、ローカルデコーダ(533)に完全に実装されなくてよい。
この時点で気付くことができることには、デコーダ内に存在する構文解析/エントロピー復号を除く如何なるデコーダ技術も、対応するエンコーダ内に、実質的に同じ機能的形態で、必ず存在する必要がある。エンコーダ技術の説明は、徹底して説明したデコーダ技術の逆であるので、省略することができる。特定の分野においてのみ、より詳細な説明が必要とされ、以下に提供される。
動作時、一部の例において、ソースコーダ(530)は、入力ピクチャを、映像シーケンスからの、“参照ピクチャ”として指定された1つ以上の先に符号化されたピクチャに対して予測的に符号化するものである動き補償予測符号化を実行し得る。斯くして、符号化エンジン(532)は、入力ピクチャのピクセルブロックと、入力ピクチャに対する(1つ以上の)予測基準として選択され得る(1つ以上の)参照ピクチャのピクセルブロックとの間の差分を符号化する。
ローカルビデオデコーダ(533)は、参照ピクチャとして指定され得るピクチャの符号化映像データを、ソースコーダ(530)によって作成されたシンボルに基づいて復号し得る。符号化エンジン(532)の動作は、有利には、非可逆プロセスとし得る。符号化映像データが映像デコーダ(図5には示されていない)で復号され得るとき、再構成された映像シーケンスは典型的に、幾分の誤差を伴うソース映像シーケンスのレプリカであり得る。ローカルビデオデコーダ(533)は、参照ピクチャ上でビデオデコーダによって実行され得る復号プロセスを複製し、再構成された参照ピクチャを参照ピクチャキャッシュ(534)に格納させるようにし得る。斯くして、ビデオエンコーダ(503)は、ファーエンドのビデオデコーダによって得られることになる再構成参照ピクチャと共通のコンテンツを持つ再構成参照ピクチャのコピーをローカルに格納し得る。
予測器(535)は、符号化エンジン(532)のために予測探索を実行し得る。すなわち、符号化すべき新たなピクチャに関して、予測器(535)は、新たなピクチャ用の適切な予測基準としての役割を果たし得るサンプルデータ(候補参照ピクセルブロックとして)又は例えば参照ピクチャ動きベクトルやブロック形状などの特定のメタデータについて、参照ピクチャメモリ(534)を検索し得る。予測器(535)は、適切な予測参照を見出すために、ピクセルブロック毎に動作し得る。場合により、予測器(535)によって得られた検索結果により決定されるように、入力ピクチャは、参照ピクチャメモリ(534)に格納された複数の参照ピクチャから引き出された予測基準を有し得る。
コントローラ(550)は、例えば、映像データを符号化するのに使用されるパラメータ及びサブグループパラメータの設定を含め、ソースコーダ(530)の符号化処理を管理し得る。
前述の全ての機能ユニットの出力が、エントロピーコーダ(545)におけるエントロピー符号化に掛けられ得る。エントロピーコーダ(545)は、例えばハフマン符号化、可変長符号化、算術符号化などの技術に従ってシンボルを可逆圧縮することによって、様々な機能ユニットによって生成されたシンボルを符号化映像シーケンスへと変換する。
送信器(540)が、エントロピーコーダ(545)によって生成された(1つ以上の)符号化映像シーケンスをバッファリングし、通信チャネル(560)を介した伝送のために準備し得る。通信チャネル(560)は、符号化された映像データを格納するストレージ装置へのハードウェア/ソフトウェアリンクとし得る。送信器(540)は、ビデオコーダ(503)からの符号化映像データを、例えば符号化オーディオデータ及び/又は補助データストリーム(ソースは図示していない)といった、送信される他のデータとマージし得る。
コントローラ(550)は、ビデオエンコーダ(503)の動作を管理し得る。符号化において、コントローラ(550)は、各符号化ピクチャに、それぞれのピクチャに適用され得る符号化技術に影響を及ぼし得るものである特定の符号化ピクチャタイプを割り当て得る。例えば、ピクチャはしばしば、以下のピクチャタイプのうちの1つを割り当てられ得る。
イントラピクチャ(Iピクチャ)は、シーケンス内の如何なる他のピクチャも予測のソースとして使用することなく符号化及び復号され得るものとし得る。一部の映像コーデックは、例えば独立デコーダリフレッシュ(Independent Decoder Refresh;IDR)ピクチャを含め、複数の異なるタイプのイントラピクチャを許している。当業者は、Iピクチャのそれら異形、並びにそれらそれぞれの用途及び特徴を知っている。
予測ピクチャ(Pピクチャ)は、各ブロックのサンプル値を予測するために、多くて1つの動きベクトルと参照インデックスとを使用して、イントラ予測又はインター予測を用いて符号化及び復号され得るものとし得る。
双方向予測ピクチャ(Bピクチャ)は、各ブロックのサンプル値を予測するために、多くて2つの動きベクトルと参照インデックスとを使用して、イントラ予測又はインター予測を用いて符号化及び復号され得るものとし得る。同様に、多重予測ピクチャは、単一のブロックの再構成のために3つ以上の参照ピクチャと関連メタデータとを使用することができる。
ソースピクチャは、一般に、空間的に複数のサンプルブロック(例えば、各々4×4、8×8、4×8、又は16×16サンプルのブロック)に細分化され、ブロック毎に符号化され得る。ブロックは、それらブロックのそれぞれのピクチャに適用される符号化割り当てによって決定される他の(既に符号化された)ブロックを参照して予測的に符号化され得る。例えば、Iピクチャのブロックは非予測的に符号化されることができ、あるいは、それらは同じピクチャの既に符号化されたブロックを参照して予測的に符号化されることができる(空間予測又はイントラ予測)。Pピクチャのピクセルブロックは、非予測的に、あるいは、1つの先に符号化された参照ピクチャを参照して空間予測又は時間予測を介して、符号化されることができる。Bピクチャのブロックは、非予測的に、あるいは、1つ又は2つの先に符号化された参照ピクチャを参照して空間予測又は時間予測を介して、符号化されることができる。
ビデオエンコーダ(503)は、例えばITU-T勧告H.265などの所定の映像符号化技術又は標準に従って符号化処理を実行し得る。その動作において、ビデオエンコーダ(503)は、入力映像シーケンスにおける時間的及び空間的な冗長性を活用する予測的な符号化処理を含め、様々な圧縮処理を実行し得る。符号化された映像データは、それ故に、使用されている映像符号化技術又は標準によって規定される構文に従い得る。
一実施形態において、送信器(540)は、符号化された映像と共に追加データを送信し得る。ソースコーダ(530)が、そのようなデータを、符号化映像シーケンスの一部として含め得る。追加データは、時間的/空間的/SNRエンハンスメントレイヤ、例えば冗長ピクチャ及びスライスなどの他の形態の冗長データ、SEIメッセージ、VUIパラメータセットフラグメントなどを有し得る。
映像は、時間シーケンスにて複数のソースピクチャ(映像ピクチャ)としてキャプチャされ得る。イントラピクチャ予測(しばしば、イントラ予測と略される)は、所与のピクチャ内の空間的な相関を利用し、インターピクチャ予測は、ピクチャ間の(時間的又は他の)相関を利用する。一例において、現在ピクチャと称される符号化/復号中の特定のピクチャが、複数のブロックへと分割される。現在ピクチャ内のあるブロックが、映像内の先に符号化され且つ依然としてバッファリングされている参照ピクチャ内の参照ブロックに類似しているとき、現在ピクチャ内のそのブロックは、動きベクトルと称されるベクトルによって符号化されることができる。動きベクトルは、参照ピクチャ内の参照ブロックを指し、複数の参照ピクチャが使用されている場合には、参照ピクチャを特定する第3の次元を持つことができる。
一部の実施形態において、インターピクチャ予測において双予測技術を使用することができる。双予測技術によれば、例えば、映像内でどちらも現在ピクチャに対して復号順で先である(しかし、表示順では、それぞれ過去及び将来であってもよい)第1の参照ピクチャ及び第2の参照ピクチャなどの、2つの参照ピクチャが使用される。現在ピクチャ内のブロックを、第1の参照ピクチャ内の第1の参照ブロックを指す第1の動きベクトルと、第2の参照ピクチャ内の第2の参照ブロックを指す第2の動きベクトルとによって符号化することができる。そのブロックは、第1の参照ブロックと第2の参照ブロックとの組み合わせによって予測されることができる。
さらに、インターピクチャ予測において符号化効率を改善するために、マージモード技術を使用することができる。
本開示の一部の実施形態によれば、例えばインターピクチャ予測及びイントラピクチャ予測などの予測が、ブロックの単位で実行される。例えば、HEVC標準によれば、映像ピクチャのシーケンス内のピクチャが、圧縮のために複数の符号化ツリーユニット(CTU)に分割され、ピクチャ内のそれらCTUは、例えば64×64ピクセル、32×32ピクセル、又は16×16ピクセルなどの同一サイズを有する。一般に、CTUは、1つのルマ(luma)CTBと2つのクロマ(chroma)CTBである3つの符号化ツリーブロック(CTB)を含む。各CTUが、1つ又は複数の符号化ユニット(CU)へと再帰的に四分木分割され得る。例えば、64×64ピクセルのCTUは、64×64ピクセルの1つのCU、又は32×32ピクセルの4つのCU、又は16×16ピクセルの16個のCUに分割されることができる。一例において、各CUが、例えばインター予測タイプ又はイントラ予測タイプなど、そのCUの予測タイプを決定するために分析される。CUは、時間的及び/又は空間的な予測可能性に依存して1つ以上の予測ユニット(PU)に分割される。一般に、各PUは、ルマ予測ブロック(PB)と2つのクロマPBとを含む。一実施形態において、コーディング(符号化/復号)に際しての予測動作は、予測ブロックの単位で実行される。予測ブロックの一例としてルマ予測ブロックを用いると、該予測ブロックは、例えば8×8ピクセル、16×16ピクセル、8×16ピクセル、16×8ピクセル、及びこれらに類するものなど、ピクセルの値(例えば、ルマ値)の行列を含む。
図6は、本開示の他の一実施形態に従ったビデオエンコーダ(603)の図を示している。ビデオエンコーダ(603)は、映像ピクチャのシーケンス内の現在映像ピクチャの中の処理ブロック(例えば、予測ブロック)のサンプル値を受信し、該処理ブロックを符号化映像シーケンスの一部である符号化ピクチャへと符号化するように構成される。一例において、ビデオエンコーダ(603)は、図3の例におけるビデオエンコーダ(303)の代わりに使用される。
HEVCの例において、ビデオエンコーダ(603)は、例えば予測ブロックの8×8サンプルなどの、処理ブロックに関するサンプル値の行列を受信する。ビデオエンコーダ(603)は、例えばレート-歪み最適化を用いて、処理ブロックが最良に符号化されるのが、イントラモードを用いてなのか、インターモードを用いてなのか、それとも双予測モードを用いてなのかを決定する。処理ブロックがイントラモードで符号化される場合、ビデオエンコーダ(603)は、イントラ予測技術を使用して処理ブロックを符号化ピクチャへと符号化することができ、処理ブロックがインターモード又は双予測モードで符号化される場合、ビデオエンコーダ(603)は、それぞれ、インター予測技術又は双予測技術を使用して処理ブロックを符号化ピクチャへと符号化することができる。特定の映像符号化技術において、マージモードは、予測子の外側の符号化動きベクトル成分の利益なしで1つ以上の動きベクトル予測子から動きベクトルが導出されるインターピクチャ予測サブモードとし得る。特定の他の映像符号化技術では、対象ブロックに適用可能な動きベクトル成分が存在してもよい。一例において、ビデオエンコーダ(603)は、例えば処理ブロックのモードを決定するためのモード決定モジュール(図示せず)などの、他のコンポーネントを含む。
図6の例において、ビデオエンコーダ(603)は、図6に示すように共に結合された、インターエンコーダ(630)、イントラエンコーダ(622)、残差計算器(623)、スイッチ(626)、残差エンコーダ(624)、全般コントローラ(621)、及びエントロピーエンコーダ(625)を含んでいる。
インターエンコーダ(630)は、現在ブロック(例えば、処理ブロック)のサンプルを受信し、ブロックを参照ピクチャ内の1つ以上の参照ブロック(例えば、先行ピクチャ内及び後のピクチャ内のブロック)と比較し、インター予測情報(例えば、インター符号化技術に従った冗長情報の記述、動きベクトル、マージモード情報)を生成し、そして、何らかの好適技術を使用して、インター予測情報に基づいてインター予測結果(例えば、予測ブロック)を計算するように構成される。一部の例において、参照ピクチャは、符号化された映像情報に基づいて復号された参照ピクチャである。
イントラエンコーダ(622)は、現在ブロック(例えば、処理ブロック)のサンプルを受信し、一部のケースにおいて、ブロックを、同じピクチャ内の既に符号化されたブロックと比較し、変換後の量子化係数を生成し、一部のケースでは、イントラ予測情報(例えば、1つ以上のイントラ符号化技術に従ったイントラ予測方向情報)も生成する。一例において、イントラエンコーダ(622)はまた、イントラ予測情報及び同じピクチャ内の参照ブロックに基づいて、イントラ予測結果(例えば、予測ブロック)を計算する。
全般コントローラ(621)は、全般制御データを決定し、全般制御データに基づいてビデオエンコーダ(603)の他のコンポーネントを制御するように構成される。一例において、全般コントローラ(621)は、ブロックのモードを決定し、そのモードに基づいてスイッチ(626)に制御信号を提供する。例えば、モードがイントラモードであるとき、全般コントローラ(621)は、残差計算器(623)による使用のためにイントラモード結果を選択するようにスイッチ(626)を制御するとともに、イントラ予測情報を選択してイントラ予測情報をビットストリームに含めるようにエントロピーエンコーダ(625)を制御し、モードがインターモードであるときには、全般コントローラ(621)は、残差計算器(623)による使用のためにインター予測結果を選択するようにスイッチ(626)を制御するとともに、インター予測情報を選択してインター予測情報をビットストリームに含めるようにエントロピーエンコーダ(625)を制御する。
残差計算器(623)は、受信されたブロックと、イントラエンコーダ(622)又はインターエンコーダ(630)から選択された予測結果との間の差(残差データ)を計算するように構成される。残差エンコーダ(624)は、残差データに基づいて動作し、残差データを符号化して変換係数を生成するように構成される。一例において、残差エンコーダ(624)は、残差データを空間ドメインから周波数ドメインに変換し、変換係数を生成するように構成される。次いで、変換係数が量子化処理にかけられて、量子化された変換係数が得られる。様々な実施形態において、ビデオエンコーダ(603)はまた、残差デコーダ(628)を含む。残差デコーダ(628)は、逆変換を実行し、復号された残差データを生成するように構成される。復号された残差データは、イントラエンコーダ(622)及びインターエンコーダ(630)によって好適に使用されることができる。例えば、インターエンコーダ(630)は、復号された残差データ及びインター予測情報に基づいて、復号されたブロックを生成することができ、イントラエンコーダ(622)は、復号された残差データ及びイントラ予測情報に基づいて、復号されたブロックを生成することができる。復号されたブロックが好適に処理されて、復号されたピクチャが生成され、そして、復号されたピクチャは、メモリ回路(図示せず)にバッファリングされ得るとともに、一部の例では参照ピクチャとして使用され得る。
エントロピーエンコーダ(625)は、符号化されたブロックを含むようにビットストリームをフォーマットするように構成される。エントロピーエンコーダ(625)は、例えばHEVC標準などの好適な標準に従って種々の情報を含めるように構成される。一例において、エントロピーエンコーダ(625)は、全般制御データ、選択された予測情報(例えば、イントラ予測情報又はインター予測情報)、残差情報、及び他の好適情報を、ビットストリームに含めるように構成される。なお、本開示に係る事項によれば、インターモード又は双予測モードのいずれかのマージサブモードにてブロックを符号化するとき、残差情報は存在しない。
図7は、本開示の他の一実施形態に従ったビデオデコーダ(710)の図を示している。ビデオデコーダ(710)は、符号化映像シーケンスの一部である符号化されたピクチャを受信し、該符号化されたピクチャを復号して再構成ピクチャを生成するように構成される。一例において、ビデオデコーダ(710)は、図3の例におけるビデオデコーダ(310)の代わりに使用される。
図7の例において、ビデオデコーダ(710)は、図7に示すように共に結合された、エントロピーデコーダ(771)、インターデコーダ(780)、残差デコーダ(773)、再構成モジュール(774)、及びイントラデコーダ(772)を含んでいる。
エントロピーデコーダ(771)は、符号化されたピクチャから、符号化されたピクチャを構成する構文要素を表す特定のシンボルを再構成するように構成され得る。そのようなシンボルは、例えば、ブロックが符号化されるモード(例えば、イントラモード、インターモード、双予測モード、マージサブモード又は他のサブモードにおける後者の2つなど)、それぞれイントラデコーダ(772)又はインターデコーダ(780)による予測のために使用される特定のサンプル又はメタデータを特定することができる予測情報(例えば、イントラ予測情報又はインター予測情報など)、例えば量子化された変換係数の形態をした残差情報、及びこれらに類するものを含むことができる。一例において、予測モードがインターモード又は双予測モードであるときには、インター予測情報がインターデコーダ(780)に提供され、予測タイプがイントラ予測タイプであるときには、イントラ予測情報がイントラデコーダ(772)に提供される。残差情報は、逆量子化にかけられることができ、残差デコーダ(773)に提供される。
インターデコーダ(780)は、インター予測情報を受信し、インター予測情報に基づいてインター予測結果を生成するように構成される。
イントラデコーダ(772)は、イントラ予測情報を受信し、イントラ予測情報に基づいて予測結果を生成するように構成される。
残差デコーダ(773)は、逆量子化を実行して、逆量子化された変換係数を抽出し、そして、逆量子化された変換係数を処理して、残差を周波数ドメインから空間ドメインに変換するように構成される。残差デコーダ(773)はまた、特定の制御情報(量子化器パラメータ(QP)を含む)を必要としてもよく、その情報は、エントロピーデコーダ(771)によって提供され得る(これは、低ボリュームの制御情報のみとし得るのでデータ経路は不図示)。
再構成モジュール(774)は、残差デコーダ(773)によって出力される残差と、(場合に応じてインター又はイントラ予測モジュールによって出力される)予測結果とを空間ドメインで組み合わせて、再構成ブロックを形成するように構成される。再構成ブロックは、再構成ピクチャの一部とすることができ、代わって再構成ピクチャは、再構成映像の一部とすることができる。なお、視覚的な品質を向上させるために、例えばデブロッキング処理及びそれに類するものなど、他の好適な処理を実行することができる。
なお、ビデオエンコーダ(303)、(503)、及び(603)、並びにビデオデコーダ(310)、(410)、及び(710)は、如何なる好適技術を用いて実装されてもよい。一実施形態において、ビデオエンコーダ(303)、(503)、及び(603)、並びにビデオデコーダ(310)、(410)、及び(710)は、1つ以上の集積回路を用いて実装され得る。他の一実施形態において、ビデオエンコーダ(303)、(503)及び(603)、並びにビデオデコーダ(310)、(410)、及び(710)は、ソフトウェア命令を実行する1つ以上のプロセッサを用いて実装され得る。
本開示の態様は、適応動きベクトルレゾリューション(adaptive motion vector resolution、AMVR)に基づく動きベクトル予測(motion vector prediction、MVP)導出制限に関する技術を提供する。
本開示の一部の態様によれば、AMVRに基づくこのMVP導出制限技術は、例えばバーサタイルビデオコーディング(VVC)、中国のオーディオビデオ符号化標準(AVS)、及びこれらに類するものなど、ハイエフィシェンシビデオコーディング(HEVC)より後の種々の符号化技術において使用されることができる。一部の実施形態において、AMVRインデックスが特定の値を持つとき、MVP導出をMVP候補のサブセットに制限することができる。そして、一部の例において、シグナリングフラグを節減して、及び/又はシグナリングビットの数を削減して、符号化効率を改善することができる。
本開示の一部の態様によれば、MVP候補は、例えば空間隣接ブロックからの空間候補、コロケートブロックからの時間候補、履歴ベースのMVP(history-based MVP、HMVP)候補、及びこれらに類するものなど、様々なソースからの候補を含むことができる。一部の例において、空間候補及び時間候補は、伝統的なMVP候補として参照される。一例において、空間候補及び時間候補を含むリストは、伝統的なMVP候補リストとして参照されることができ、HMVP候補を含むリストは、HMVP候補リストとして参照される。
空間候補導出について、本開示の一態様によれば、VVCにおける空間マージ候補の導出は、HEVCにおけるものと同様である。例えば、図1に示した位置A0-A1及びB0-B2にある候補の中から最大で4つのマージ候補が選択される。導出の順序は、A1、B1、B0、A0、及びB2である。位置B2は、位置A1、B1、B0、A0のうちのいずれかのCUが利用可能でない場合(例えば、別のスライス又はタイルに属する)又はイントラ符号化される場合にのみ考慮される。位置A1の候補が追加された後、残りの候補の追加は、符号化効率が向上されるように、同じ動き情報を有する候補がリストから除外されることを保証する冗長性検査にかけられる。計算複雑性を低減させるために、前述の冗長性検査では、可能な全ての候補ペアが考慮されるわけではない。
図8は、一部の実施形態に関する冗長性検査ペアを説明する図を示している。一実施形態において、図8において矢印で結び付けられたペアのみが冗長性検査で考慮され、冗長性検査に使用される対応する候補が同じ動き情報を持たない場合にのみ、候補がリストに追加される。
時間候補導出について、本開示の一態様によれば、1つの候補のみがリストに追加される。特に、この時間マージ候補の導出では、コロケート参照ピクチャに属するコロケートCUに基づいて、スケーリングされた動きベクトルが導出される。コロケートCUの導出に使用される参照ピクチャリストは、スライスヘッダ内で明示的にシグナリングされる。
図9は、時間候補導出の一例を示している。図9の例にはピクチャのシーケンスが示されており、ピクチャのシーケンスは、現在CUを有する現在ピクチャ、現在CUのコロケートCUを有するコロケートピクチャ、現在ピクチャの参照ピクチャ、及びコロケートピクチャの参照ピクチャを含んでいる。一例において、現在ピクチャの参照ピクチャと現在ピクチャとの間のピクチャオーダカウント(POC)距離(例えば、POCの差)がtbと表記されるとともに、コロケートピクチャの参照ピクチャとコロケートピクチャとの間のPOC距離がtdと表記される。時間マージ候補に関するスケーリングされた動きベクトルが、図9に910で示されており、これは、POC距離tb及びtd(例えば、tdに対するtbの比)を用いて、コロケートCUの動きベクトル920からスケーリングされたものである。時間マージ候補の参照ピクチャインデックスは、一例において、ゼロに等しく設定される。
本開示の一態様によれば、HMVP候補は、先行して符号化されたブロックの動き情報として定められる。一部の実施形態において、符号化/復号プロセスの間、複数のHMVP候補を有するテーブルが維持される。例えば、該テーブルは、新たなスライスの開始時に空(エンプティ)にされる。例えばマージモードにおいて、スキップモードにおいて、及びこれらに類するものなどで、インター符号化ブロックが存在するとき、関連する動き情報が、新たなHMVP候補として、テーブルの最後のエントリに追加される。
HMVP技術を用いる一例での動作において、HMVP候補を持つテーブルが、ブロックを復号する前にロードされる。次いで、該ブロックが、一例においてテーブル内のHMVP候補を用いて復号される。さらに、該ブロックの復号された動作情報でテーブルが更新される。更新されたテーブルは、後続のブロックを復号するためにロードされることができる。
一部の例において、HMVP技術は、例えばテーブルに基づいて候補リストを維持するために、先入れ先出し(FIFO)ルールを使用する。一例において、テーブルサイズSは、例えば6などの一定値であるように設定され、これは、最大で例えば6つまでのHMVP候補がテーブルに追加され得ることを指し示す。一実施形態において、テーブルは、FIFOルールに従って実装される。さらに、新HMVP候補と称する新たな動き候補をテーブルに挿入するときに、制約付きFIFOルールが利用される。一部の実施形態において、テーブルは、バッファを用いて実装される。
図10は、新たな動き候補を挿入するためにFIFOルールを使用することの一例を示している。制約付きFIFOルールに従って、テーブルが新HMVP候補(New HMVP)と同一のHMVP候補を含んでいるかを判定するために冗長性検査が適用される。例えば図10に示すHMVP2など、同じHMVP候補が見つかった場合、該同じHMVP候補がテーブルから除去され、その後の全てのHMVP候補が1ポジションずつ前方に移され、そして、テーブルの最後(最新位置)に新HMVP候補が追加される。
一部の実施形態において、HMVP候補は、マージ候補リスト構築プロセスで使用される。一例において、テーブル内の最も新しい側の幾つかのHMVP候補が(最新のものから古い方のものへと)順に検査され、時間動きベクトル予測(TMVP)候補の後ろで候補リストに挿入される。
本開示の一態様によれば、適応動きベクトルレゾリューション(AMVR)を、例えばVVC及びAVS3に従ったビデオコーデックなどのビデオコーデックで使用することができる。一部の例において、固定解像度が使用され得る。例えば、HEVCでは、スライスヘッダ内でuse_integer_mv_flagが0に等しいとき、1/4ルマサンプルの単位で(CUの予測動きベクトルと動きベクトルとの間の)動きベクトル差(MVD)がシグナリングされる。AMVRは、例えば1/4ルマサンプル、整数ルマサンプル、又は4ルマサンプルなどの複数の異なる解像度でCUのMVDを符号化することを可能にする。一例において、例えばVVCなどでは、現在CUが少なくとも1つの非ゼロのMVD成分を持つ場合に、CUレベルのMVD解像度インジケーションが、条件付きで、符号化映像ビットストリーム内でシグナリングされる。全てのMVD成分(すなわち、参照リストL0及び参照リストL1の水平及び垂直MVDの両方)がゼロである場合、一例において1/4ルマサンプルMVD解像度が推定される。
一部の実装例では、エンコーダ側で、エンコーダが、レート歪み検査を用いて現在CUについての動きベクトル解像度を決定する。一部の例において、例えばフルピクセルサイズサンプルの精度(“整数ルマサンプル精度”としても知られる)、ルマサンプルの半分の精度(“1/2ルマサンプル精度”としても知られる)、ルマサンプルの4分の1の精度(“1/4ルマサンプル精度”としても知られる)、4ピクセルサイズサンプルの精度(“4ルマサンプル精度”としても知られる)などの、複数の異なる解像度についてレート歪み検査を実行することができる。複数のMVD解像度についてCUレベルのレート歪み検査を常に3回実行することを避けるために、一部の例(例えば、VTM-2.0)では、4ルマサンプルMVD解像度のレート歪み(RD)検査は、条件付きでのみ呼び出される。例えば、1/4ルマサンプルMVD精度のRDコストが最初に計算される。次いで、整数ルマサンプルMVD精度のRDコストを、1/4ルマサンプルMVD精度のRDコストと比較して、4ルマサンプルMVD精度の更なるRDコスト検査が必要であるかを決定する。1/4ルマサンプルMVD精度のRDコストが、整数ルマサンプルMVD精度のRDコストより遥かに小さい場合、4ルマサンプルMVD精度のRD検査を省略することができる。
例えばVTM及びAVS3においてなど、一部のインター符号化実装例では、AMVR及びHMVPがどちらも使用される。一部の例において、AMVR及びHMVPがともに使用され、そうして、使用される複数の異なる動きベクトル解像度に基づいて、伝統的な空間/時間MVP候補リスト及び/又はHMVP候補リスト内で最良のMVPを探索することができる。そして、最良のレート歪みコストを有するAMVRインデックス及びMVPインデックスが、一例においてエンコーダ側からデコーダ側へ符号化映像ビットストリーム内で伝送される。一例において、値“0”を持つAMVRインデックスが1/4ルマサンプル精度に対応し、値“1”を持つAMVRインデックスが整数ルマサンプル精度に対応し、そして、値“2”を持つAMVRインデックスが4ルマサンプル精度に対応する。なお、精度に対するAMVRインデックスの他の好適な対応関係が用いられてもよい。
例えばAVS3においてなど、一部の実施形態では、符号化時間を節減するために、AMVRインデックスとHMVPインデックスを組み合わせるためのルックアップテーブルが提案される。具体的には、AMVRインデックスが指定され、エンコーダが伝統的なMVP候補リストの代わりにHMVP候補リストからMVPを選択する場合、MVPは、ルックアップテーブルに従ってHMVP候補リスト内の指定値から選択される。そうでなく、エンコーダが伝統的なMVP候補リストからMVPを選択する場合には、MVPは、空間及び時間候補(例えば、伝統的な候補)に従って伝統的な方法によって導出されることができるのみである。一部の例において、ビットストリームは、AMVRインデックスと、MVPがHMVP候補から導出されるか否かを指し示すフラグとを含む。例えば、フラグが真(例えば、バイナリ1)であるとき、MVPはHMVP候補から導出され、フラグが偽(例えば、バイナリ0)であるとき、MVPはHMVP候補から導出されない。このフラグは、本開示ではHMVPフラグと称するが、他の適当な名前を与えることができる。
実装にかかわらず、空間及び時間MVP候補リスト(伝統的なMVP候補リスト)及びHMVP候補リスト、並びにMVP候補の数を増加させることができる何らかの他の好適リストを集めて組み合わせることができ、1セットのMVP候補として見ることができ、MVP候補の組み合わせリストは、本開示において結合MVP候補リストとして参照される。
本開示の態様は、符号化効率を向上させるために、AMVRインデックスに基づく動きベクトル予測導出制限に関する技術及び方法を提供する。これら提案される複数の方法は、別々に使用されてもよいし、あるいは、何らかの順序で組み合わせて使用されてもよい。また、これらの方法(又は実施形態)、エンコーダ、及びデコーダの各々は、処理回路(例えば、1つ以上のプロセッサ、又は1つ以上の集積回路)によって実装され得る。一例において、1つ以上のプロセッサが、非一時的なコンピュータ読み取り可能媒体に格納されたプログラムを実行する。以下の説明において、ブロックという用語は、予測ブロック、符号化ブロック、又は符号化ユニットすなわちCUとして解釈され得る。
開示の一態様によれば、MVP導出は、AMVRインデックスに基づいて適応的に制限される。一部の例において、MVP導出が結合MVP候補リストのサブセットに制限され、そして、導出されたMVP候補のシグナリングをスキップするか、より少ないビットで行うことができる。MVP導出が制限されない一部ケースでは、シグナリングは変わらない。
一実施形態において、HMVPフラグをシグナリングするか否かが、AMVRインデックスの値に基づいて決定される。一部の例において、AMVRインデックスが何らかの指定値である場合、MVPは結合MVP候補リスト内の全ての候補から導出されることができ、MVPがHMVP候補から導出されるのか、それとも他の更なる候補リストから導出されるのかを指し示すために、HMVPフラグをシグナリングすることができる。AMVRインデックスが指定値でない場合には、一部の例において、MVPは、例えば伝統的なMVP候補のサブセットなど、結合MVP候補リストのサブセットから導出される。そして、一例において、HMVPフラグは、AMVRインデックスの値に基づいて推定されることができ、従って、シグナリングなしで省略されることができる。
AVS3での一例において、AMVRインデックスがある値(例えば、0)より大きい場合、MVPがHMVPから導出されるかを指し示すHMVPフラグがシグナリングされる。そして、AMVRインデックスが0である場合、MVPは、HMVPを除く候補から導出される。従って、一例においてAMVRインデックスが0である場合、HMVPフラグはゼロであると推定され、故に、HMVPフラグのシグナリングを省略することができる。
他の一実施形態において、MVPインデックスは、複数の異なるスキームによって符号化されることができ、MVPインデックスの符号化スキームは、AMVRインデックスの値に基づく。一部の例において、AMVRインデックスが何らかの指定値である場合、第1のMVPインデックス符号化スキームが使用され、該第1のMVPインデックス符号化スキームを用いて、結合MVP候補リストから選択されたMVPが指し示される。AMVRインデックスが指定値でない場合、一部の例において、HMVP候補リストがMVP導出から除外され、MVP導出は、例えば伝統的なMVP候補リストなど、結合MVP候補リストのサブセット上で実行される。伝統的なMVP候補リストは、結合MVP候補リストよりも少ない数の候補を有する。従って、より効率的なエントロピー符号化など、より少ないビット数での符号化スキームを用いて、サブセットから選択されたMVPを指し示すことができる。
一例において、AMVRインデックスがある値(例えば、0)より大きい場合、例えば結合MVP候補リストから選択されるMVPを指し示すためのデフォルトの符号化スキームなど、MVPインデックス符号化は変わらない。AMVPインデックスが0である場合、それは、選択されるMVPがHMVP候補リストから導出されないことを暗示的に指し示し、その場合、選択されるMVPのインデックス範囲は結合MVP候補リストよりも小さく、故に、MVPインデックスは、一例において固定長符号化におけるいっそう少ないビット数を使用することができる。
なお、MVP候補リスト内の候補の数を増加させることが可能な、HMVPの他の好適アルゴリズムを使用することができる。説明を容易にするために、候補の増加前のMVP候補リストを伝統的なMVP候補リストと称し、候補の増加後のMVP候補リストを結合MVP候補リストと称する。AMVRインデックスの値に基づいてMVPインデックス符号化を決定する同様の技術を使用することができる。例えば、AMVRインデックスが何らかの指定値である場合、MVPは、例えば伝統的なMVP候補リストなど、MVP候補リストのサブセットから導出されることができるのみであり、その場合、MVPインデックスは、より少ないビット数又はより効率的なエントロピー符号化方法を使用することができる。そうでない場合、MVPインデックス符号化及び導出プロセスは変わらず、結合MVP候補リストからの1つの候補を指し示すのに使用されるものと同じである。
図11は、本開示の一実施形態に従ったプロセス(1100)を概説するフローチャートを示している。プロセス(1100)は、ブロックの再構成において、再構成中のブロックに関する予測ブロックを生成するために使用されることができる。様々な実施形態において、プロセス(1100)は、例えば、端末装置(210)、(220)、(230)及び(240)の処理回路、ビデオエンコーダ(303)の機能を実行する処理回路、ビデオデコーダ(310)の機能を実行する処理回路、ビデオデコーダ(410)の機能を実行する処理回路、ビデオエンコーダ(503)の機能を実行する処理回路、及びこれらに類するものなどの、処理回路によって実行される。一部の実施形態において、プロセス(1100)は、ソフトウェア命令にて実装され、従って、処理回路がソフトウェア命令を実行するときに、処理回路がプロセス(1100)を実行する。当該プロセスは、(S1101)で開始し、(S1110)に進む。
(S1110)にて、符号化映像ビットストリームから現在ブロックの予測情報が復号される。該予測情報は、候補リストから選択される動きベクトル予測子と動きベクトル差とに基づいてインター予測を実行するインター予測モードを指し示す。
(S1120)にて、動きベクトル差の精度情報が復号される。一例において、映像ビットストリームからAMVRインデックスが復号される。AMVRインデックスは、精度に対応する値を持つ。
(S1130)にて、精度情報がある特定の精度を指し示す場合に、候補リストのサブセットから動きベクトル予測が導出される。一例において、AMVRインデックスが0であるとき、HMVPフラグは0であると推定することができる。HMVPフラグがゼロであるとき、HMVP候補が候補リストから除外されて、候補リストのサブセットが形成される。次いで、MVPインデックスが復号され得る。MVPインデックスは、候補リストからの一部候補(例えば、HMVP候補)の除外により、より少ないビット数で映像ビットストリーム内に符号化されることができる。
(S1140)にて、動きベクトル予測子及び動きベクトル差に従って現在ブロックのサンプルが再構成される。そして、当該プロセスは(S1199)に進んで終了する。
上述の技術は、1つ以上のコンピュータ読み取り可能媒体に物理的に格納された、コンピュータ読み取り可能命令を用いたコンピュータソフトウェアとして、実装されることができる。例えば、図12は、開示に係る事項の特定の実施形態を実装するのに好適なコンピュータシステム(1200)を示している。
コンピュータソフトウェアは、アセンブリ、コンパイル、リンク、又は同様の機構に掛けられることで、直接的に又はインタープリット、マイクロコード実行及びこれらに類するものを介して1つ以上のコンピュータ中央演算処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、及びこれらに類するものによって実行されることが可能な命令を有するコードを作り出し得るような、任意の好適な機械コード又はコンピュータ言語を用いてコード化され得る。
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲーム装置、モノのインターネット装置、及びこれらに類するものを含め、様々なタイプのコンピュータ又はそのコンポーネント上で実行され得る。
コンピュータシステム(1200)に関して図12に示したコンポーネントは、本質的に例示的なものであり、本開示の実施形態を実装するコンピュータソフトウェアの使用又は機能性の範囲についての何らかの限定を示唆する意図はない。また、コンポーネントの構成も、コンピュータシステム(1200)のこの例示的な実施形態に示されたコンポーネントの任意の1つ又は組み合わせに関する何らかの従属性又は要件も持つものとして解釈されるべきでない。
コンピュータシステム(1200)は、特定のヒューマンインタフェース入力装置を含んでもよい。そのようなヒューマンインタフェース入力装置は、例えば、触覚入力(例えば、キーストローク、スワイプ、データグローブを動かすことなど)、オーディオ入力(例えば、音声、拍手など)、視覚入力(例えば、ジェスチャなど)、嗅覚入力(図示せず)を介した、一人以上の人間ユーザによる入力に応答し得る。ヒューマンインタフェース装置はまた、例えばオーディオ(例えば、会話、音楽、周囲の音など)、画像(例えば、走査画像、静止画カメラから得られる写真画像など)、映像(例えば、二次元映像、立体視映像を含む3次元映像など)などの、人間による意識的な入力には必ずしも直接関係しない特定の媒体を捕捉するために使用されてもよい。
入力ヒューマンインタフェース装置は、キーボード(1201)、マウス(1202)、トラックパッド(1203)、タッチスクリーン(1210)、データグローブ(図示せず)、ジョイスティック(1205)、マイクロフォン(1206)、スキャナ(1207)、カメラ(1208)(各々1つのみ図示している)のうちの1つ以上を含み得る。
コンピュータシステム(1200)はまた、特定のヒューマンインタフェース出力装置を含み得る。そのようなヒューマンインタフェース出力装置は、例えば、触覚出力、音、光、及び臭い/味を通して、一人以上の人間ユーザの感覚を刺激し得る。そのようなヒューマンインタフェース出力装置は、触覚出力装置(例えば、タッチスクリーン(1210)、データグローブ(図示せず)、又はジョイスティック(1205)による触覚フィードバックであるが、入力装置として機能しない触覚フィードバック装置もあってもよい)、オーディオ出力装置(例えば、スピーカー(1209)、ヘッドフォン(図示せず)など)、視覚出力装置(例えば、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含むスクリーン(1210)(各々がタッチスクリーン入力機能を有する又は有さない。各々が触覚フィードバック機能を有する又は有さない。これらの一部は、二次元の視覚出力、又は例えば立体視出力などの手段を通じて四次元以上の出力を出力することができるとし得る。)、仮想現実グラス(図示せず)、ホログラフィックディスプレイ及びスモークタンク(図示せず)など)、及びプリンタ(図示せず)を含み得る。
コンピュータシステム(1200)はまた、例えば、CD/DVD若しくは類似の媒体(1221)を有するCD/DVD ROM/RW(1220)を含む光媒体、サムドライブ(1222)、取り外し可能なハードドライブ若しくは又はソリッドステートドライブ(1223)、例えばテープ及びフロッピーディスク(登録商標、図示せず)などのレガシー磁気媒体、例えばセキュリティドングルなどの特殊化されたROM/ASIC/PLDベースの装置(図示せず)、及びこれらに類するものなどの、人間アクセス可能なストレージ装置及びそれらの関連媒体を含み得る。
当業者がこれまた理解するはずのことには、ここでの開示に係る事項に関連して使用される用語“コンピュータ読み取り可能媒体”は、伝送媒体、搬送波、又は他の一時的な信号を含まない。
コンピュータシステム(1200)はまた、1つ以上の通信ネットワークへのインタフェースを含み得る。ネットワークは、例えば、無線、有線、光とし得る。ネットワークは更に、ローカル、広域、大都市、車両及び産業、リアルタイム、耐遅延などとし得る。ネットワークの例は、例えばイーサネット(登録商標)などのローカルエリアネットワークや、無線LANや、GSM、3G、4G、5G、LTE及びこれらに類するものを含むセルラネットワークや、ケーブルTV、衛星TV、及び地上波放送TVを含むTV有線又は無線広域デジタルネットワークや、CANBusを含む車両及び産業などを含む。特定のネットワークは一般に、特定の汎用データポート又はペリフェラルバス(1249)(例えば、コンピュータシステム(1200)のUSBポートなど)に取り付けられる外付けネットワークインタフェースアダプタを必要とし、他のものは一般に、後述のシステムバスへの取り付けによってコンピュータシステム(1200)のコアに統合される(例えば、PCコンピュータシステムへのイーサネットインタフェース、又はスマートフォンコンピュータシステムへのセルラネットワークインタフェース)。これらのネットワークのいずれかを使用して、コンピュータシステム(1200)は、他のエンティティと通信することができる。そのような通信は、単方向の受信のみ(例えば、放送TV)であってもよいし、単方向の送信のみ(例えば、特定のCANbus装置に対するCANbus)であってもよいし、あるいは、例えばローカル又は広域デジタルネットワークを用いた他のコンピュータシステムに対しての、双方向であってもよい。特定のプロトコル及びプロトコルスタックが、上述のようにネットワーク及びネットワークインタフェースの各々上で使用され得る。
前述のヒューマンインタフェース装置、人間アクセス可能なストレージ装置、及びネットワークインタフェースは、コンピュータシステム(1200)のコア(1240)に取り付けられることができる。
コア(1240)は、1つ以上の中央演算処理ユニット(CPU)(1241)、グラフィックス処理ユニット(GPU)(1242)、フィールドプログラマブルゲートアレイ(FPGA)(1243)の形態の特殊なプログラム可能なプロセッシングユニット、特定のタスク用のハードウェアアクセラレータ(1244)などを含み得る。これらのデバイスは、読み出し専用メモリ(ROM)(1245)、ランダムアクセスメモリ(1246)、例えば内部のユーザアクセス可能でないハードドライブ、SSDなどの内部大容量ストレージ(1247)、及びこれらに類するもの(1247)と共に、システムバス(1248)を介して接続され得る。一部のコンピュータシステムにおいて、システムバス(1248)は、追加のCPU、GPU、及びこれらに類するものによる拡張を可能にするために、1つ以上の物理プラグの形態でアクセス可能にされ得る。周辺装置は、コアのシステムバス(1248)に直接的に、又はペリフェラルバス(1249)を介して、のいずれで取り付けられてもよい。ペリフェラルバスのアーキテクチャは、PCI、USB、及びこれらに類するものを含む。
CPU(1241)、GPU(1242)、FPGA(1243)、及びアクセラレータ(1244)は、組み合わさって前述のコンピュータコードを構成することができる特定の命令を実行し得る。そのコンピュータコードは、ROM(1245)又はRAM(1246)に格納され得る。RAM(1246)には過渡的なデータも格納されることができ、永久的なデータは、例えば内部大容量ストレージ(1247)に格納されることができる。メモリデバイスのいずれかへの高速な記憶及び取り出しが、1つ以上のCPU(1241)、GPU(1242)、大容量ストレージ(1247)、ROM(1245)、RAM(1246)、及びこれらに類するものの近くに付随し得るキャッシュメモリの使用によって可能にされ得る。
コンピュータ読み取り可能媒体はその上に、様々なコンピュータ実装処理を実行するためのコンピュータコードを有することができる。媒体及びコンピュータコードは、本開示の目的に合わせて特別に設計及び構築されたものであってもよいし、あるいは、それらは、コンピュータソフトウェア技術の当業者にとって周知且つ利用可能な種類のものであってもよい。
一例として、限定ではなく、アーキテクチャ(1200)、特にコア(1240)、を有するコンピュータシステムは、1つ以上の有形のコンピュータ読み取り可能媒体に具現化されたソフトウェアを(1つ以上の)プロセッサ(CPU、GPU、FPGA、アクセラレータ、及びこれらに類するものを含む)が実行することの結果として機能を提供することができる。そのようなコンピュータ読み取り可能媒体は、例えばコア内部の大容量ストレージ(1247)又はROM(1245)などの、非一時的性質のものであるコア(1240)の特定のストレージ、及び上で紹介したようなユーザアクセス可能な大容量ストレージに関連する媒体とすることができる。本開示の様々な実施形態を実装するソフトウェアは、そのような装置に格納され、コア(1240)によって実行されることができる。コンピュータ読み取り可能媒体は、具体的なニーズに従って、1つ以上のメモリデバイス又はチップを含み得る。ソフトウェアは、コア(1240)及び特にその中のプロセッサ(CPU、GPU、FPGA、及びこれらに類するものを含む)に、RAM(1246)に格納されるデータ構造を規定すること、及びそのようなデータ構造を、ソフトウェアによって規定されたプロセスに従って変更することを含めて、ここに記載された特定のプロセスを又は特定のプロセスの特定の部分を実行させることができる。加えて、又は代替として、コンピュータシステムは、ここに記載された特定のプロセスを又は特定のプロセスの特定の部分を実行するようにソフトウェアの代わりに又はソフトウェアと共に動作することができる回路(例えば、アクセラレータ(1244))にて配線された又はその他の方法で具体化されたロジックの結果として、機能を提供してもよい。ソフトウェアへの言及はロジックを含み、また、適当な場合にその逆もまた然りである。コンピュータ読み取り可能媒体への言及は、実行のためのソフトウェアを格納した回路(例えば、集積回路(IC)など)、実行のためのロジックを具体化した回路、又は適当な場合にこれら双方を含み得る。本開示は、ハードウェア及びソフトウェアの好適な組み合わせを含む。
付録A:頭字語
JEM:joint exploration model(共同探索モデル)
VVC:versatile video coding(バーサタイルビデオコーディング)
BMS:benchmark set(ベンチマークセット)
MV:Motion Vector(動きベクトル)
HEVC:High Efficiency Video Coding(ハイエフィシェンシビデオコーディング)
SEI:Supplementary Enhancement Information(補足強化情報)
VUI:Video Usability Information(ビデオユーザビリティ情報)
GOPs:Groups of Pictures(グループ・オブ・ピクチャ)
TUs:Transform Units,(変換ユニット)
PUs:Prediction Units(予測ユニット)
CTUs:Coding Tree Units(符号化ツリーユニット)
CTBs:Coding Tree Blocks(符号化ツリーブロック)
PBs:Prediction Blocks(予測ブロック)
HRD:Hypothetical Reference Decoder(仮説的リファレンスデコーダ)
SNR:Signal Noise Ratio(信号対雑音比)
CPUs:Central Processing Units(中央演算処理ユニット)
GPUs:Graphics Processing Units(グラフィックス処理ユニット)
CRT:Cathode Ray Tube(陰極線管)
LCD:Liquid-Crystal Display(液晶ディスプレイ)
OLED:Organic Light-Emitting Diode(有機発光ダイオード)
CD:Compact Disc(コンパクトディスク)
DVD:Digital Video Disc(デジタルビデオディスク)
ROM:Read-Only Memory(読み出し専用メモリ)
RAM:Random Access Memory(ランダムアクセスメモリ)
ASIC:Application-Specific Integrated Circuit(特定用途向け集積回路)
PLD:Programmable Logic Device(プログラマブルロジックデバイス)
LAN:Local Area Network(ローカルエリアネットワーク)
GSM:Global System for Mobile communications(グローバルシステムフォーモバイルコミュニケーションズ)
LTE:Long-Term Evolution(ロングタームエボリューション)
CANBus:Controller Area Network Bus(コントローラエリアネットワークバス)
USB:Universal Serial Bus(ユニバーサルシリアルバス)
PCI:Peripheral Component Interconnect(ペリフェラルコンポーネントインターコネクト)
FPGA:Field Programmable Gate Areas(フィールドプログラマブルゲートアレイ)
SSD:solid-state drive(ソリッドステートドライブ)
IC:Integrated Circuit(集積回路)
CU:Coding Unit(符号化ユニット)
この開示は幾つかの例示的な実施形態を記述しているが、開示の範囲に入る変更、置換、及び様々な均等な代替が存在する。従って、理解されることには、当業者は、ここでは明示的に図示されたり説明されたりしていないものの、開示の原理を具体化し、それ故に、その精神及び範囲の中にあるような、数多くのシステム及び方法を考案することができるであろう。

Claims (11)

  1. デコーダが実行する映像復号のための方法であって、
    符号化映像ビットストリームから現在ブロックの予測情報を復号するステップであり、該予測情報は、候補リストから選択される動きベクトル予測子と動きベクトル差とに基づいてインター予測を実行するインター予測モードを指し示す、ステップと、
    前記動きベクトル差の精度情報を復号するステップと、
    前記精度情報がある特定の精度を指し示す場合に、前記候補リストのサブセットから前記動きベクトル予測子を導出するステップと、
    前記動きベクトル予測子及び前記動きベクトル差に従って前記現在ブロックのサンプルを再構成するステップと、
    を有する方法。
  2. 適応動きベクトルレゾリューション(AMVR)に従って、前記特定の精度を指し示す第1の特定値を持つ第1のインデックスを復号するステップ、
    を更に有する請求項1に記載の方法。
  3. 前記第1のインデックスが前記第1の特定値であることに基づいて、前記候補リストの前記サブセットを指し示すフラグを推定するステップ、
    を更に有する請求項2に記載の方法。
  4. 前記候補リストの前記サブセット内の前記動きベクトル予測子を指し示す第2のインデックスを復号するステップであり、該第2のインデックスは、前記候補リストを符号化するための第2のビット数よりも短い第1のビット数で符号化されている、ステップ、
    を更に有する請求項2に記載の方法。
  5. 前記候補リストから履歴ベースの動きベクトル予測子候補を除外する前記候補リストの前記サブセットから前記動きベクトル予測子を導出するステップ、
    を更に有する請求項1に記載の方法。
  6. 前記第1のインデックスが前記第1の特定値とは異なる第2の値である場合に、前記候補リストの前記サブセットを指し示すフラグを前記符号化映像ビットストリームから復号するステップ、
    を更に有する請求項2に記載の方法。
  7. 前記精度情報が所定のデフォルト精度値を指し示す場合に、前記候補リストの前記サブセットから前記動きベクトル予測子を導出するステップ、
    を更に有する請求項1に記載の方法。
  8. 前記候補リストからの前記履歴ベースの動きベクトル予測子候補の除外を、適応動きベクトルレゾリューション(AMVR)インデックスに基づいて決定するステップ、
    を更に有する請求項5に記載の方法。
  9. 前記動きベクトル差の前記精度情報に基づいて前記候補リストの前記サブセットを決定するステップ、
    を更に有する請求項1に記載の方法。
  10. 映像復号のための装置であって、
    命令を格納したメモリと、
    プロセッサと、
    を有し、
    前記命令は、前記プロセッサによって実行されるときに、前記プロセッサに請求項1乃至9のいずれか一項に記載の方法を実行させる、
    装置。
  11. コンピュータに請求項1乃至9のいずれか一項に記載の方法を実行させるコンピュータプログラム。
JP2021546709A 2019-02-28 2020-02-24 映像復号のための方法、装置、及びコンピュータプログラム Active JP7125563B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962812217P 2019-02-28 2019-02-28
US62/812,217 2019-02-28
US16/797,893 2020-02-21
US16/797,893 US11025948B2 (en) 2019-02-28 2020-02-21 Method and apparatus for motion prediction in video coding
PCT/US2020/019436 WO2020176388A1 (en) 2019-02-28 2020-02-24 Method and apparatus for motion prediction in video coding

Publications (2)

Publication Number Publication Date
JP2022521157A JP2022521157A (ja) 2022-04-06
JP7125563B2 true JP7125563B2 (ja) 2022-08-24

Family

ID=72235966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021546709A Active JP7125563B2 (ja) 2019-02-28 2020-02-24 映像復号のための方法、装置、及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US11025948B2 (ja)
EP (1) EP3738308A4 (ja)
JP (1) JP7125563B2 (ja)
WO (1) WO2020176388A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11190789B2 (en) 2019-06-30 2021-11-30 Tencent America LLC Method and apparatus for video coding using inter-prediction mode signaling to dertermine motion vectors
US20240031594A1 (en) * 2022-07-20 2024-01-25 Tencent America LLC Method and apparatus for inter prediction mode dependent scaling factors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016068674A1 (ko) 2014-10-31 2016-05-06 삼성전자 주식회사 움직임 벡터 부복호화 방법 및 장치
WO2017052009A1 (ko) 2015-09-24 2017-03-30 엘지전자 주식회사 영상 코딩 시스템에서 amvr 기반한 영상 코딩 방법 및 장치
WO2019235896A1 (ko) 2018-06-07 2019-12-12 주식회사 윌러스표준기술연구소 적응적 모션 벡터 레졸루션을 이용하는 비디오 신호 처리 방법 및 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101630688B1 (ko) * 2010-02-17 2016-06-16 삼성전자주식회사 움직임 예측 장치 및 방법과 영상 처리 장치
US10536701B2 (en) 2011-07-01 2020-01-14 Qualcomm Incorporated Video coding using adaptive motion vector resolution
US9936266B2 (en) 2013-05-17 2018-04-03 Tencent Technology (Shenzhen) Company Limited Video encoding method and apparatus
US9503715B2 (en) 2013-08-30 2016-11-22 Qualcomm Incorporated Constrained intra prediction in video coding
US10531116B2 (en) 2014-01-09 2020-01-07 Qualcomm Incorporated Adaptive motion vector resolution signaling for video coding
US11272207B2 (en) 2017-06-12 2022-03-08 Futurewei Technologies, Inc. Selection and signaling of motion vector (MV) precisions
US10841794B2 (en) * 2017-09-18 2020-11-17 Futurewei Technologies, Inc. Adaptive motion vector resolution
US11109056B2 (en) * 2018-02-12 2021-08-31 Mediatek Inc. Method and apparatus of current picture referencing for video coding using adaptive motion vector resolution and sub-block prediction mode

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016068674A1 (ko) 2014-10-31 2016-05-06 삼성전자 주식회사 움직임 벡터 부복호화 방법 및 장치
WO2017052009A1 (ko) 2015-09-24 2017-03-30 엘지전자 주식회사 영상 코딩 시스템에서 amvr 기반한 영상 코딩 방법 및 장치
WO2019235896A1 (ko) 2018-06-07 2019-12-12 주식회사 윌러스표준기술연구소 적응적 모션 벡터 레졸루션을 이용하는 비디오 신호 처리 방법 및 장치

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Benjamin Bross, Jianle Chen, and Shan Liu,Versatile Video Coding (Draft 4),Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M1001 (version 5),13th Meeting: Marrakech, MA,2019年02月27日,pp.43-48, 88-94
Kai Zhang, et al.,Non-CE4: Harmonization of MMVD and AMVR,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M0267-v2,13th Meeting: Marrakech, MA,2019年01月,pp.1-2
Ruoyang Yu, et al.,CE4-related: On MVP candidate list generation for AMVP,Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11,JVET-M0117,13th Meeting: Marrakech, MA,2018年12月,pp.1-4

Also Published As

Publication number Publication date
CN113228680A (zh) 2021-08-06
EP3738308A1 (en) 2020-11-18
US11025948B2 (en) 2021-06-01
WO2020176388A1 (en) 2020-09-03
JP2022521157A (ja) 2022-04-06
US20200280732A1 (en) 2020-09-03
EP3738308A4 (en) 2020-11-18

Similar Documents

Publication Publication Date Title
US11722683B2 (en) Parallel coding using history-based motion vector prediction with shared row buffers
US11722700B2 (en) Method and apparatus for video coding
US10491902B1 (en) Method and apparatus for history-based motion vector prediction
US11381833B2 (en) Method and apparatus for video coding
JP7358464B2 (ja) ビデオ符号化のための方法及び機器
JP7222086B2 (ja) スキップ及びマージモードのためのマルチ仮説のシグナリング及び動きベクトル差分によるマージの距離オフセットテーブルのシグナリングのための方法及び装置
JP7171925B2 (ja) ビデオデコードおよびエンコード方法、プログラム、および装置
US20230353756A1 (en) Unified vector and offset signaling for inter prediction and intra block copy
US11012687B2 (en) Method and apparatus for video coding
JP7130882B2 (ja) 映像コーディングのための方法、装置、及びコンピュータプログラム
US11190789B2 (en) Method and apparatus for video coding using inter-prediction mode signaling to dertermine motion vectors
JP2024029127A (ja) ビデオコーディングのための方法及び装置
JP7419506B2 (ja) 映像コーディングのための方法及び装置
JP7125563B2 (ja) 映像復号のための方法、装置、及びコンピュータプログラム
US11451807B2 (en) Method and apparatus for video coding
JP7332718B2 (ja) ビデオコーディングのための方法および装置
US11431987B2 (en) Method and apparatus for memory bandwidth reduction for small inter blocks
JP2022549911A (ja) 映像コーディングのための方法、装置、及びコンピュータプログラム
US20230224472A1 (en) Motion vector restriction for out-of-frame boundary conditions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220812

R150 Certificate of patent or registration of utility model

Ref document number: 7125563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150