JP7413532B2 - ルマブロックのための改善されたデルタ角度シグナリング方法 - Google Patents

ルマブロックのための改善されたデルタ角度シグナリング方法 Download PDF

Info

Publication number
JP7413532B2
JP7413532B2 JP2022530795A JP2022530795A JP7413532B2 JP 7413532 B2 JP7413532 B2 JP 7413532B2 JP 2022530795 A JP2022530795 A JP 2022530795A JP 2022530795 A JP2022530795 A JP 2022530795A JP 7413532 B2 JP7413532 B2 JP 7413532B2
Authority
JP
Japan
Prior art keywords
current block
block
angle
delta
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022530795A
Other languages
English (en)
Other versions
JP2023502538A (ja
Inventor
リャン・ジャオ
シン・ジャオ
シャン・リュウ
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2023502538A publication Critical patent/JP2023502538A/ja
Priority to JP2023220857A priority Critical patent/JP2024029138A/ja
Application granted granted Critical
Publication of JP7413532B2 publication Critical patent/JP7413532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

関連出願の相互参照
本出願は、2020年8月19日に出願された米国仮特許出願第63/067,791号、および2021年7月30日に出願された米国特許出願第17/390,256号の優先権を主張し、これらの開示はその全体が参照により本明細書に組み込まれる。
本開示の実施形態は、高度なビデオ符号化技術のセットに関し、より詳細には、ビデオ圧縮におけるルマブロックのための改善されたデルタ角度シグナリングに関する。
AOMedia Video 1(AV1)は、インターネット上でのビデオ伝送のために設計されたオープンビデオ符号化フォーマットである。これは、半導体企業、ビデオオンデマンドプロバイダ、ビデオコンテンツ制作会社、ソフトウェア開発会社、Webブラウザベンダを含む、2015年に設立されたコンソーシアムであるAlliance for Open Media(AOMedia)によってVP9の後継として開発された。AV1プロジェクトのコンポーネントの多くは、Allianceのメンバによる以前の研究努力から提供された。個々の貢献者が、何年も前に実験的な技術プラットフォームを開始した:Xiph/MozillaのDaalaが2010年にコードを公開し、Googleの実験的なVP9進化プロジェクトVP10が2014年9月12日に発表され、CiscoのThorが2015年8月11日に公開された。VP9のコードベースの構築に基づいて、AV1は追加の技術を組み込んでおり、そのうちのいくつかはこれらの実験的なフォーマットにおいて開発された。AV1リファレンスコーデックの最初のバージョンであるバージョン0.1.0は、2016年4月7日に公開された。Allianceは、AV1ビットストリーム仕様のリリースを、参照用のソフトウェアベースのエンコーダおよびデコーダとともに、2018年3月28日に発表した。2018年6月25日に、本仕様の検証バージョン1.0.0が公開された。2019年1月8日に、本仕様のErrata 1を伴った検証バージョン1.0.0である「AV1 Bitstream&Decoding Process Specification」がリリースされた。AV1ビットストリーム仕様は、リファレンスビデオコーデックを含む。「AV1 Bitstream&Decoding Process Specification」(Errata 1を伴うバージョン1.0.0)、The Alliance for Open Media(2019年1月8日)は、参照によりその全体が本明細書に組み込まれる。
1つまたは複数の実施形態によれば、少なくとも1つのプロセッサによって実行される方法が提供される。方法は、符号化されたピクチャを受け取るステップと、符号化されたピクチャを復号するステップとを含む。復号するステップは、イントラ予測のために符号化されたピクチャの現在のブロックの公称角度を取得するステップと、イントラ予測のために現在のブロックの少なくとも1つの隣接ブロックの公称角度を取得するステップと、現在のブロックの公称角度と少なくとも1つの隣接ブロックの公称角度との間の比較に基づいて、現在のブロックの公称角度のすべての許容されるデルタ角度をシグナリングするか、または現在のブロックの公称角度の許容されるデルタ角度のサブセットのみをシグナリングするかを決定するステップと、決定するステップに基づいて、現在のブロックの公称角度のすべての許容されるデルタ角度または許容されるデルタ角度のサブセットをシグナリングするステップと、シグナリングするステップに基づいて、現在のブロックを予測するステップとを含む。
一実施形態によれば、決定するステップは、現在のブロックの公称角度に対応する値と少なくとも1つの隣接ブロックの公称角度に対応する値との絶対差が閾値以下であることに基づいて、現在のブロックの公称角度のすべての許容されるデルタ角度をシグナリングすると決定するステップを含む。
一実施形態によれば、閾値は2である。
一実施形態によれば、決定するステップは、現在のブロックの公称角度に対応する値と少なくとも1つの隣接ブロックの公称角度に対応する値との絶対差が閾値より大きいことに基づいて、現在のブロックの公称角度の許容されるデルタ角度のサブセットのみをシグナリングすると決定するステップを含む。
一実施形態によれば、シグナリングされると決定されるサブセット内の許容されるデルタ角度の数は、現在のブロックの公称角度に対応する値と少なくとも1つの隣接ブロックの公称角度に対応する値との絶対差に基づくものである。
一実施形態によれば、比較は、現在のブロックの公称角度と所定数のみの隣接ブロックの公称角度との間のものである。
一実施形態によれば、シグナリングするステップは、決定するステップに基づいて、累積密度関数(CDF)を使用して許容されるデルタ角度のうちの少なくとも1つをシグナリングするステップを含む。
一実施形態によれば、方法は、インデックスをシグナリングするステップと、インデックスが現在のブロックのデルタ角度にマップされているマッピングテーブルを使用して現在のブロックのデルタ角度を識別するステップとをさらに含む。
一実施形態によれば、インデックスは、マッピングテーブルにおいて、現在のブロックのデルタ角度および少なくとも1つの隣接ブロックのデルタ角度にマップされている。
一実施形態によれば、現在のブロックはルマブロックである。
1つまたは複数の実施形態によれば、システムは、コンピュータプログラムコードを記憶するように構成された少なくとも1つのメモリと、コンピュータプログラムコードにアクセスし、コンピュータプログラムコードによって命令されるように動作するように構成された少なくとも1つのプロセッサとを備える。コンピュータプログラムコードは、少なくとも1つのプロセッサに、受け取られた符号化されたピクチャを復号させるように構成された復号コードを含む。復号コードは、少なくとも1つのプロセッサに、イントラ予測のために符号化されたピクチャの現在のブロックの公称角度を取得させるように構成された第1の取得コードと、少なくとも1つのプロセッサに、イントラ予測のために現在のブロックの少なくとも1つの隣接ブロックの公称角度を取得させるように構成された第2の取得コードと、少なくとも1つのプロセッサに、現在のブロックの公称角度と少なくとも1つの隣接ブロックの公称角度との間の比較に基づいて、現在のブロックの公称角度のすべての許容されるデルタ角度をシグナリングするか、または現在のブロックの公称角度の許容されるデルタ角度のサブセットのみをシグナリングするかを決定させるように構成された決定コードと、少なくとも1つのプロセッサに、決定に基づいて、現在のブロックの公称角度のすべての許容されるデルタ角度または許容されるデルタ角度のサブセットをシグナリングさせるように構成されたシグナリングコードと、少なくとも1つのプロセッサに、シグナリングに基づいて、現在のブロックを予測させるように構成された予測コードとを含む。
一実施形態によれば、決定コードは、少なくとも1つのプロセッサに、現在のブロックの公称角度に対応する値と少なくとも1つの隣接ブロックの公称角度に対応する値との絶対差が閾値以下であることに基づいて、現在のブロックの公称角度のすべての許容されるデルタ角度をシグナリングすると決定させるように構成されている。
一実施形態によれば、閾値は2である。
一実施形態によれば、決定コードは、少なくとも1つのプロセッサに、現在のブロックの公称角度に対応する値と少なくとも1つの隣接ブロックの公称角度に対応する値との絶対差が閾値より大きいことに基づいて、現在のブロックの公称角度の許容されるデルタ角度のサブセットのみをシグナリングすると決定させるように構成されている。
一実施形態によれば、シグナリングされると決定されるサブセット内の許容されるデルタ角度の数は、現在のブロックの公称角度に対応する値と少なくとも1つの隣接ブロックの公称角度に対応する値との絶対差に基づくものである。
一実施形態によれば、比較は、現在のブロックの公称角度と所定数のみの隣接ブロックの公称角度との間のものである。
一実施形態によれば、シグナリングコードは、少なくとも1つのプロセッサに、決定に基づいて、累積密度関数(CDF)を使用して許容されるデルタ角度のうちの少なくとも1つをシグナリングさせるように構成されている。
一実施形態によれば、復号コードは、少なくとも1つのプロセッサに、インデックスをシグナリングさせるように構成されたインデックスシグナリングコードと、少なくとも1つのプロセッサに、インデックスが現在のブロックのデルタ角度にマップされているマッピングテーブルを使用して現在のブロックのデルタ角度を識別させるように構成された識別コードとをさらに含む。
一実施形態によれば、インデックスは、マッピングテーブルにおいて、現在のブロックのデルタ角度および少なくとも1つの隣接ブロックのデルタ角度にマップされている。
1つまたは複数の実施形態によれば、コンピュータ命令を記憶する非一時的コンピュータ可読媒体が提供される。コンピュータ命令は、少なくとも1つのプロセッサによって実行されるとき、少なくとも1つのプロセッサに、イントラ予測のために符号化されたピクチャの現在のブロックの公称角度を取得し、イントラ予測のために現在のブロックの少なくとも1つの隣接ブロックの公称角度を取得し、現在のブロックの公称角度と少なくとも1つの隣接ブロックの公称角度との間の比較に基づいて、現在のブロックの公称角度のすべての許容されるデルタ角度をシグナリングするか、または現在のブロックの公称角度の許容されるデルタ角度のサブセットのみをシグナリングするかを決定し、決定に基づいて、現在のブロックの公称角度のすべての許容されるデルタ角度または許容されるデルタ角度のサブセットをシグナリングし、シグナリングに基づいて、現在のブロックを予測することによって、受け取られた符号化されたピクチャを復号させるように構成されている。
開示の主題のさらなる特徴、性質、および様々な利点は、以下の詳細な説明および添付の図面からより明らかになるであろう。
一実施形態による通信システムの簡略ブロック図の概略図である。 一実施形態による通信システムの簡略ブロック図の概略図である。 一実施形態によるデコーダの簡略ブロック図の概略図である。 一実施形態によるエンコーダの簡略ブロック図の概略図である。 VP9の第1の例示的な区分構造を示す図である。 VP9の第2の例示的な区分構造を示す図である。 VP9の第3の例示的な区分構造を示す図である。 VP9の第4の例示的な区分構造を示す図である。 AV1の第1の例示的な区分構造を示す図である。 AV1の第2の例示的な区分構造を示す図である。 AV1の第3の例示的な区分構造を示す図である。 AV1の第4の例示的な区分構造を示す図である。 AV1の第5の例示的な区分構造を示す図である。 AV1の第6の例示的な区分構造を示す図である。 AV1の第7の例示的な区分構造を示す図である。 AV1の第8の例示的な区分構造を示す図である。 AV1の第9の例示的な区分構造を示す図である。 AV1の第10の例示的な区分構造を示す図である。 マルチタイプツリー構造における垂直二分割タイプを示すための図である。 マルチタイプツリー構造における水平二分割タイプを示すための図である。 マルチタイプツリー構造における垂直三分割タイプを示すための図である。 マルチタイプツリー構造における水平三分割タイプを示すための図である。 四分木およびネストされたマルチタイプツリーの符号化ブロック構造を有する複数のCUに分割されたCTUの一例を示す図である。 AV1における8つの公称角度を示す図である。 現在のブロックおよびサンプルを示す図である。 本開示の一実施形態による、現在のブロックの隣接ブロックの位置の一例を示す図である。 本開示の一実施形態によるデコーダの概略図である。 本開示の実施形態を実装するのに適したコンピュータシステムの図である。
図1に、本開示の一実施形態による通信システム(100)の簡略ブロック図を示す。システム(100)は、ネットワーク(150)を介して相互接続された少なくとも2つの端末(110、120)を備え得る。データの単方向伝送の場合、第1の端末(110)は、ネットワーク(150)を介して相手の端末(120)に送信するためにローカル位置でビデオデータを符号化し得る。第2の端末(120)は、ネットワーク(150)から相手の端末の符号化されたビデオデータを受信し、符号化されたデータを復号し、復元されたビデオデータを表示し得る。単方向データ伝送は、メディア供給用途などで一般的であり得る。
図1は、例えば、ビデオ会議中に行われ得る符号化されたビデオの双方向伝送をサポートするために設けられた第2の端末対(130、140)を示している。データの双方向伝送の場合、各端末(130、140)は、ネットワーク(150)を介して相手の端末に送信するために、ローカル位置で取り込まれたビデオデータを符号化し得る。各端末(130、140)はまた、相手の端末によって送信された符号化されたビデオデータを受信し得、符号化されたデータを復号し得、復元されたビデオデータをローカル表示装置に表示し得る。
図1には、端末(110~140)は、サーバ、パーソナルコンピュータ、およびスマートフォン、ならびに/または任意の他のタイプの端末として示されている場合がある。例えば、端末(110~140)は、ラップトップコンピュータ、タブレットコンピュータ、メディアプレーヤ、および/または専用ビデオ会議機器であり得る。ネットワーク(150)は、例えば有線および/または無線通信ネットワークを含む、端末(110~140)間で符号化されたビデオデータを伝達する任意の数のネットワークを表す。通信ネットワーク(150)は、回路交換チャネルおよび/またはパケット交換チャネルでデータを交換し得る。代表的なネットワークには、電気通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、および/またはインターネットが含まれる。本考察の目的では、ネットワーク(150)のアーキテクチャおよびトポロジーは、以下で説明されない限り、本開示の動作にとって重要ではない場合がある。
図2に、開示の主題の用途の一例として、ストリーミング環境におけるビデオエンコーダおよびデコーダの配置を示す。開示の主題は、例えば、ビデオ会議、デジタルテレビ、CD、DVD、メモリスティックなどを含むデジタルメディア上の圧縮ビデオの記憶を含む、他のビデオ対応用途に等しく適用することができる。
図2に示されるように、ストリーミングシステム(200)は、ビデオソース(201)およびエンコーダ(203)を含むことができるキャプチャサブシステム(213)を含み得る。ビデオソース(201)は、例えば、デジタルカメラであってもよく、非圧縮ビデオサンプルストリーム(202)を作成するように構成されてもよい。非圧縮ビデオサンプルストリーム(202)は、符号化されたビデオビットストリームと比較して高いデータ量を提供する場合があり、カメラ(201)に結合されたエンコーダ(203)によって処理することができる。エンコーダ(203)は、以下でより詳細に説明されるように、開示の主題の態様を可能にし、または実装するためのハードウェア、ソフトウェア、またはそれらの組み合わせを含むことができる。符号化されたビデオビットストリーム(204)は、サンプルストリームと比較してより少ないデータ量を含む場合があり、将来の使用のためにストリーミングサーバ(205)に記憶することができる。1つまたは複数のストリーミングクライアント(206)は、符号化されたビデオビットストリーム(204)のコピーであり得るビデオビットストリーム(209)を取得するために、ストリーミングサーバ(205)にアクセスすることができる。
実施形態では、ストリーミングサーバ(205)は、メディア対応ネットワーク要素(Media-Aware Network Element(MANE))としても機能し得る。例えば、ストリーミングサーバ(205)は、潜在的に異なるビットストリームをストリーミングクライアント(206)のうちの1つまたは複数に合わせるために、符号化されたビデオビットストリーム(204)をプルーニングするように構成され得る。実施形態では、MANEは、ストリーミングシステム(200)においてストリーミングサーバ(205)から別個に提供されてもよい。
ストリーミングクライアント(206)は、ビデオデコーダ(210)およびディスプレイ(212)を含むことができる。ビデオデコーダ(210)は、例えば、符号化されたビデオビットストリーム(204)の入力されるコピーであるビデオビットストリーム(209)を復号し、ディスプレイ(212)または別のレンダリング装置(図示せず)上にレンダリングすることができる出力されるビデオサンプルストリーム(211)を生成することができる。一部のストリーミングシステムでは、ビデオビットストリーム(204、209)を特定のビデオ符号化/圧縮規格に従って符号化することができる。そのような規格の例には、ITU-T勧告H.265が含まれるが、これに限定されない。多用途ビデオ符号化(VVC)として非公式に知られているビデオ符号化規格が開発中である。本開示の実施形態は、VVCの文脈で使用され得る。
図3に、本開示の一実施形態による、ディスプレイ(212)に取り付けられたビデオデコーダ(210)の例示的な機能ブロック図を示す。
ビデオデコーダ(210)は、チャネル(312)、受信機(310)、バッファメモリ(315)、エントロピーデコーダ/パーサ(320)、スケーラ/逆変換ユニット(351)、イントラ予測ユニット(352)、動き補償予測ユニット(353)、アグリゲータ(355)、ループフィルタユニット(356)、参照ピクチャメモリ(357)、および現在のピクチャメモリ()を含み得る。少なくとも1つの実施形態では、ビデオデコーダ(210)は、集積回路、一連の集積回路、および/または他の電子回路を含み得る。ビデオデコーダ(210)はまた、関連付けられたメモリを有する1つまたは複数のCPU上で動作するソフトウェアにおいて部分的または全体的に具現化されてもよい。
この実施形態および他の実施形態では、受信機(310)は、デコーダ(210)によって復号されるべき1つまたは複数の符号化されたビデオシーケンスを、一度に1つの符号化されたビデオシーケンスずつ受信してもよく、各符号化されたビデオシーケンスの復号は他の符号化されたビデオシーケンスから独立している。符号化されたビデオシーケンスは、符号化されたビデオデータを記憶する記憶装置へのハードウェア/ソフトウェアリンクであり得るチャネル(312)から受信され得る。受信機(310)は、それぞれの使用エンティティ(図示せず)に転送され得る他のデータ、例えば、符号化されたオーディオデータおよび/または補助データストリームとともに、符号化されたビデオデータを受信し得る。受信機(310)は、符号化されたビデオシーケンスを、その他のデータから分離し得る。ネットワークジッタに対抗するために、バッファメモリ(315)は、受信機(310)とエントロピーデコーダ/パーサ(320)(以降「パーサ」)との間に結合され得る。受信機(310)が十分な帯域幅および可制御性の記憶/転送装置から、またはアイソシンクロナス(isosynchronous)ネットワークからデータを受信しているときには、バッファ(315)は不使用であり得るか、または小さくすることができる。インターネットなどのベストエフォートパケットネットワークで使用する場合には、バッファ(315)が必要とされる場合があり、比較的大きくすることができ、適応サイズのものとすることができる。
ビデオデコーダ(210)は、エントロピー符号化されたビデオシーケンスからシンボル(321)を再構成するためのパーサ(320)を含み得る。これらのシンボルのカテゴリは、例えば、デコーダ(210)の動作を管理するために使用される情報、および潜在的に、図2に示されるようにデコーダに結合され得るディスプレイ(212)などのレンダリング装置を制御するための情報を含む。(1つまたは複数の)レンダリング装置のための制御情報は、補足拡張情報(Supplementary Enhancement Information(SEI))メッセージまたはビデオユーザビリティ情報(Video Usability Information(VUI))パラメータセットフラグメント(図示せず)の形態であり得る。パーサ(320)は、受信された符号化されたビデオシーケンスを解析/エントロピー復号し得る。符号化されたビデオシーケンスの符号化は、ビデオ符号化技術またはビデオ符号化規格に従ったものとすることができ、可変長符号化、ハフマン符号化、文脈依存ありまたはなしの算術符号化などを含む、当業者に周知の原理に従うことができる。パーサ(320)は、符号化されたビデオシーケンスから、グループに対応する少なくとも1つのパラメータに基づいて、ビデオデコーダ内のピクセルのサブグループのうちの少なくとも1つのサブグループパラメータのセットを抽出し得る。サブグループは、グループオブピクチャ(GOP)、ピクチャ、タイル、スライス、マクロブロック、符号化ユニット(CU)、ブロック、変換ユニット(TU)、予測ユニット(PU)などを含むことができる。パーサ(320)はまた、符号化されたビデオシーケンスから、変換係数、量子化パラメータ値、動きベクトルなどの情報も抽出し得る。
パーサ(320)は、シンボル(321)を作成するために、バッファ(315)から受け取られたビデオシーケンスに対してエントロピー復号/解析操作を行い得る。
シンボル(321)の再構成は、符号化されたビデオピクチャまたはその部分(インターおよびイントラピクチャ、インターおよびイントラブロックなど)のタイプ、ならびに他の要因に応じて、複数の異なるユニットを関与させることができる。どのユニットが関与し、どのように関与するかは、パーサ(320)によって符号化されたビデオシーケンスから解析されたサブグループ制御情報によって制御することができる。パーサ(320)と以下の複数のユニットとの間のそのようなサブグループ制御情報の流れは、明確にするために図示されていない。
すでに述べた機能ブロックを超えて、デコーダ(210)を、以下で説明するように、いくつかの機能ユニットに概念的に細分することができる。商業的制約の下で動作する実際の実装では、これらのユニットの多くは互いに密接に相互作用し、少なくとも部分的に、互いに統合することができる。しかしながら、開示の主題を説明するためには、以下の機能ユニットへの概念的細分が適切である。
1つのユニットは、スケーラ/逆変換ユニット(351)であり得る。スケーラ/逆変換ユニット(351)は、量子化変換係数、ならびにどの変換を使用するか、ブロックサイズ、量子化係数、量子化スケーリング行列などを含む制御情報を、パーサ(320)から(1つまたは複数の)シンボル(321)として受け取り得る。スケーラ/逆変換ユニット(351)は、アグリゲータ(355)に入力することができるサンプル値を含むブロックを出力することができる。
場合によっては、スケーラ/逆変換(351)の出力サンプルは、イントラ符号化されたブロック、すなわち、以前に再構成されたピクチャからの予測情報を使用していないが、現在のピクチャの以前に再構成された部分からの予測情報を使用することができるブロックに関係し得る。そのような予測情報は、イントラピクチャ予測ユニット(352)によって提供することができる。場合によっては、イントラピクチャ予測ユニット(352)は、現在のピクチャメモリ(358)からの現在の(部分的に再構成された)ピクチャからフェッチされた周囲のすでに再構成された情報を使用して、再構成中のブロックと同じサイズおよび形状のブロックを生成する。アグリゲータ(355)は、場合によっては、サンプルごとに、イントラ予測ユニット(352)が生成した予測情報を、スケーラ/逆変換ユニット(351)によって提供される出力サンプル情報に追加する。
他の場合には、スケーラ/逆変換ユニット(351)の出力サンプルは、インター符号化された、潜在的に動き補償されたブロックに関係し得る。そのような場合、動き補償予測ユニット(353)は、予測に使用されるサンプルをフェッチするために、参照ピクチャメモリ(357)にアクセスすることができる。ブロックに関連するシンボル(321)に従ってフェッチされたサンプルを動き補償した後、これらのサンプルを、出力サンプル情報を生成するために、アグリゲータ(355)によってスケーラ/逆変換ユニット(351)の出力に追加することができる(この場合、残差サンプルまたは残差信号と呼ばれる)。動き補償予測ユニット(353)が予測サンプルをフェッチする参照ピクチャメモリ(357)内のアドレスは、動きベクトルによって制御することができる。動きベクトルは、例えば、X、Y、および参照ピクチャ成分を有し得るシンボル(321)の形態で、動き補償予測ユニット(353)が利用可能であり得る。動き補償はまた、サブサンプルの正確な動きベクトルが使用されているときに参照ピクチャメモリ(357)からフェッチされたサンプル値の補間、動きベクトル予測機構なども含むことができる。
アグリゲータ(355)の出力サンプルは、ループフィルタユニット(356)において様々なループフィルタリング技術を受けることができる。ビデオ圧縮技術は、符号化されたビデオビットストリームに含まれるパラメータによって制御され、パーサ(320)からのシンボル(321)としてループフィルタユニット(356)が利用可能なインループフィルタ技術を含むことができるが、符号化されたピクチャまたは符号化されたビデオシーケンスの(復号順で)前の部分の復号中に取得されたメタ情報に応答することもでき、以前に再構成およびループフィルタリングされたサンプル値に応答することもできる。
ループフィルタユニット(356)の出力は、ディスプレイ(212)などのレンダリング装置に出力することができるとともに、将来のインターピクチャ予測で使用するために参照ピクチャメモリ(357)に記憶することもできるサンプルストリームとすることができる。
特定の符号化されたピクチャは、完全に再構成されると、将来の予測のための参照ピクチャとして使用できる。符号化されたピクチャが完全に再構成され、符号化されたピクチャが(例えば、パーサ(320)によって)参照ピクチャとして識別されると、現在の参照ピクチャは参照ピクチャメモリ(357)の一部になることができ、次の符号化されたピクチャの再構成を開始する前に、新しい現在のピクチャメモリを再割り振りすることができる。
ビデオデコーダ(210)は、ITU-T Rec.H.265などの規格に文書化され得る所定のビデオ圧縮技術に従って復号動作を実行し得る。符号化されたビデオシーケンスは、符号化されたビデオシーケンスがビデオ圧縮技術文書または規格、特にその中のプロファイル文書に指定されているように、ビデオ圧縮技術または規格の構文に準拠しているという意味で、使用されているビデオ圧縮技術または規格で指定された構文に準拠し得る。また、いくつかのビデオ圧縮技術または規格に準拠するために、符号化されたビデオシーケンスの複雑さは、ビデオ圧縮技術または規格のレベルによって規定される範囲内でもあり得る。場合によっては、レベルは、最大ピクチャサイズ、最大フレームレート、最大再構成サンプルレート(例えば毎秒メガサンプル単位で測定される)、最大参照ピクチャサイズなどを制限する。レベルによって設定される制限は、場合によっては、仮想参照デコーダ(HRD)仕様および符号化されたビデオシーケンスでシグナリングされたHRDバッファ管理のためのメタデータによってさらに制限することができる。
一実施形態では、受信機(310)は、符号化されたビデオとともに追加の(冗長な)データを受信し得る。追加のデータは、(1つまたは複数の)符号化されたビデオシーケンスの一部として含まれ得る。追加のデータは、データを適切に復号するため、および/または元のビデオデータをより正確に再構成するために、ビデオデコーダ(210)によって使用され得る。追加のデータは、例えば、時間層、空間層、またはSNR強化層、冗長スライス、冗長ピクチャ、前方誤り訂正コードなどの形式とすることができる。
図4に、本開示の一実施形態による、ビデオソース(201)と関連付けられたビデオエンコーダ(203)の例示的な機能ブロック図を示す。
ビデオエンコーダ(203)は、例えば、ソースコーダ(430)であるエンコーダ、符号化エンジン(432)、(ローカル)デコーダ(433)、参照ピクチャメモリ(434)、予測器(435)、送信機(440)、エントロピーコーダ(445)、コントローラ(450)、およびチャネル(460)を含み得る。
エンコーダ(203)は、エンコーダ(203)によって符号化されるべき(1つまたは複数の)ビデオ画像を取り込み得る(エンコーダの一部ではない)ビデオソース(201)からビデオサンプルを受信し得る。
ビデオソース(201)は、エンコーダ(203)によって符号化されるべきソースビデオシーケンスを、任意の適切なビット深度(例えば、8ビット、10ビット、12ビット、…)、任意の色空間(例えば、BT.601 Y CrCB、RGB、…)、および任意の適切なサンプリング構造(例えば、Y CrCb 4:2:0、Y CrCb 4:4:4)のものとすることができるデジタルビデオサンプルストリームの形態で提供し得る。メディア供給システムでは、ビデオソース(201)は、以前に準備されたビデオを記憶する記憶装置であり得る。ビデオ会議システムでは、ビデオソース(203)は、ローカル画像情報をビデオシーケンスとして取り込むカメラであり得る。ビデオデータは、順番に見たときに動きを与える複数の個別のピクチャとして提供され得る。ピクチャ自体は、ピクセルの空間配列として編成されてもよく、各ピクセルは、使用されるサンプリング構造、色空間などに応じて、1つまたは複数のサンプルを含むことができる。当業者であれば、ピクセルとサンプルとの関係を容易に理解することができる。以下の説明はサンプルに焦点を当てている。
一実施形態によれば、エンコーダ(203)は、リアルタイムで、または用途によって必要とされる他の任意の時間制約の下で、ソースビデオシーケンスのピクチャを符号化されたビデオシーケンス(443)に符号化および圧縮し得る。適切な符号化速度を強制することが、コントローラ(450)の1つの機能である。コントローラ(450)はまた、後述するように他の機能ユニットを制御してもよく、これらのユニットに機能的に結合されてもよい。結合は、明確にするために図示されていない。コントローラ(450)によって設定されるパラメータには、レート制御関連のパラメータ(ピクチャスキップ、量子化器、レート歪み最適化手法のラムダ値など)、ピクチャサイズ、グループオブピクチャ(GOP)レイアウト、最大動きベクトル探索範囲などが含まれ得る。当業者は、コントローラ(450)の他の機能を、それらが特定のシステム設計用に最適化されたビデオエンコーダ(203)に関係し得るので、容易に識別することができる。
一部のビデオエンコーダは、当業者が「符号化ループ」として容易に認識するもので動作する。過度に簡略化された説明として、符号化ループは、ソースコーダ(430)の符号化部分(符号化されるべき入力ピクチャおよび(1つまたは複数の)参照ピクチャに基づいてシンボルの作成を担う)と、特定のビデオ圧縮技術においてシンボルと符号化されたビデオビットストリームとの間の圧縮が可逆であるときに(リモート)デコーダもまた作成することになるサンプルデータを作成するためにシンボルを再構成するエンコーダ(203)に組み込まれた(ローカル)デコーダ(433)とからなり得る。再構成されたサンプルストリームは、参照ピクチャメモリ(434)に入力され得る。シンボルストリームの復号により、デコーダの位置(ローカルまたはリモート)に関係なくビットイグザクトな結果が得られるため、参照ピクチャメモリの内容もまたローカルエンコーダとリモートエンコーダとの間でビットイグザクトになる。言い換えると、エンコーダの予測部分は、復号中に予測を使用するときにデコーダが「見る」ことになるのとまったく同じサンプル値を参照ピクチャサンプルとして「見る」。参照ピクチャの同期性(および、例えばチャネル誤差が原因で同期性を維持することができない場合には、結果として生じるドリフト)のこの基本原理は、当業者には公知である。
「ローカル」デコーダ(433)の動作は、「リモート」デコーダ(210)の動作と同じであり得、これは、図3に関連して上記ですでに詳細に説明されている。しかしながら、シンボルが利用可能であり、エントロピーコーダ(445)およびパーサ(320)による符号化されたビデオシーケンスへのシンボルの符号化/復号が可逆であり得るため、チャネル(312)、受信機(310)、バッファ(315)、およびパーサ(320)を含むデコーダ(210)のエントロピー復号部分は、ローカルデコーダ(433)において完全に実装されない場合がある。
この時点で言えることは、デコーダ内に存在する解析/エントロピー復号を除く任意のデコーダ技術が、対応するエンコーダ内において、実質的に同一の機能形態で存在する必要があり得るということである。このため、開示の主題はデコーダ動作に焦点を合わせている。エンコーダ技術の説明は、それらが包括的に説明されたデコーダ技術の逆であり得るので、省略することができる。特定の領域でのみ、より詳細な説明が必要であり、以下に提供される。
その動作の一部として、ソースコーダ(430)は、「参照フレーム」として指定されたビデオシーケンスからの1つまたは複数の以前に符号化されたフレームを参照して入力フレームを予測的に符号化する、動き補償予測符号化を実行し得る。このようにして、符号化エンジン(432)は、入力フレームのピクセルブロックと、入力フレームへの(1つまたは複数の)予測参照として選択され得る(1つまたは複数の)参照フレームのピクセルブロックとの差を符号化する。
ローカルビデオデコーダ(433)は、ソースコーダ(430)によって作成されたシンボルに基づいて、参照フレームとして指定され得るフレームの符号化されたビデオデータを復号し得る。符号化エンジン(432)の動作は、有利には、非可逆プロセスであり得る。符号化されたビデオデータがビデオデコーダ(図4には示されていない)で復号され得るとき、再構成されたビデオシーケンスは、通常、多少の誤差を伴うソースビデオシーケンスの複製であり得る。ローカルビデオデコーダ(433)は、参照フレームに対してビデオデコーダによって実行され得る復号処理を再現し、再構築された参照フレームを参照ピクチャメモリ(434)に記憶させ得る。このようにして、エンコーダ(203)は、遠端ビデオデコーダによって取得される再構成された参照フレームと共通の内容を有する再構成された参照フレームのコピーをローカルに記憶し得る(送信誤差なしで)。
予測器(435)は、符号化エンジン(432)のための予測探索を実行し得る。すなわち、符号化されるべき新しいフレームに対して、予測器(435)は、サンプルデータ(候補参照ピクセルブロックとして)または新しいピクチャの適切な予測参照として役立ち得る参照ピクチャ動きベクトル、ブロック形状などの特定のメタデータを求めて、参照ピクチャメモリ(434)を探索し得る。予測器(435)は、適切な予測参照を見つけるために、ピクセルブロックごとに1つのサンプルブロックで動作し得る。場合によっては、予測器(435)によって取得された探索結果によって決定されるように、入力ピクチャは、参照ピクチャメモリ(434)に記憶された複数の参照ピクチャから引き出された予測参照を有し得る。
コントローラ(450)は、例えば、ビデオデータを符号化するために使用されるパラメータおよびサブグループパラメータの設定を含む、ビデオコーダ(430)の符号化動作を管理し得る。
前述のすべての機能ユニットの出力は、エントロピーコーダ(445)でエントロピー符号化され得る。エントロピーコーダは、例えば、ハフマン符号化、可変長符号化、算術符号化などのような当業者に公知の技術に従ってシンボルを可逆圧縮することによって、様々な機能ユニットによって生成されたシンボルを符号化されたビデオシーケンスに変換する。
送信機(440)は、エントロピーコーダ(445)によって作成された(1つまたは複数の)符号化されたビデオシーケンスを、符号化されたビデオデータを記憶することになる記憶装置へのハードウェア/ソフトウェアリンクであり得る、通信チャネル(460)を介した送信に備えてバッファし得る。送信機(440)は、ビデオコーダ(430)からの符号化されたビデオデータを、送信される他のデータ、例えば、符号化されたオーディオデータおよび/または補助データストリーム(ソースは図示せず)とマージし得る。
コントローラ(450)は、エンコーダ(203)の動作を管理し得る。符号化中に、コントローラ(450)は、符号化された各ピクチャに特定の符号化されたピクチャタイプを割り当ててもよく、これは、それぞれのピクチャに適用され得る符号化技術に影響を及ぼし得る。例えば、ピクチャは多くの場合、イントラピクチャ(Iピクチャ)、予測ピクチャ(Pピクチャ)、または双方向予測ピクチャ(Bピクチャ)として割り当てられ得る。
イントラピクチャ(Iピクチャ)は、予測のソースとしてシーケンス内の他のフレームを使用せずに符号化および復号され得るピクチャであり得る。いくつかのビデオコーデックは、例えば独立デコーダリフレッシュ(IDR)ピクチャなどを含む、様々なタイプのイントラピクチャを可能にする。当業者であれば、Iピクチャのそれらの変形ならびにそれらそれぞれの用途および特徴を認識している。
予測ピクチャ(Pピクチャ)は、最大で1つの動きベクトルおよび参照インデックスを使用して各ブロックのサンプル値を予測するイントラ予測またはインター予測を使用して、符号化および復号され得るピクチャであり得る。
双方向予測ピクチャ(Bピクチャ)は、最大2つの動きベクトルおよび参照インデックスを使用して各ブロックのサンプル値を予測するイントラ予測またはインター予測を使用して符号化および復号され得るピクチャであり得る。同様に、複数予測ピクチャは、単一のブロックの再構成のために3つ以上の参照ピクチャおよび関連するメタデータを使用することができる。
ソースピクチャは、一般に、複数のサンプルブロック(例えば、各々4×4、8×8、4×8、または16×16のサンプルのブロック)に空間的に細分され、ブロックごとに符号化され得る。ブロックは、ブロックそれぞれのピクチャに適用された符号化割り当てによって決定されるように、他の(すでに符号化された)ブロックを参照して予測的に符号化され得る。例えば、Iピクチャのブロックは、非予測的に符号化され得るか、または同じピクチャのすでに符号化されたブロックを参照して予測的に符号化され得る(空間予測またはイントラ予測)。Pピクチャのピクセルブロックは、1つの以前に符号化された参照ピクチャを参照して、空間予測を介してまたは時間予測を介して、非予測的に符号化され得る。Bピクチャのブロックは、1つまたは2つの以前に符号化された参照ピクチャを参照して、空間予測を介してまたは時間予測を介して、非予測的に符号化され得る。
ビデオコーダ(203)は、ITU-T Rec.H.265などの所定のビデオ符号化技術または規格に従って符号化動作を実行し得る。その動作において、ビデオコーダ(203)は、入力ビデオシーケンスにおける時間的および空間的冗長性を利用する予測符号化動作を含む、様々な圧縮動作を実行し得る。したがって、符号化されたビデオデータは、使用されているビデオ符号化技術または規格によって指定された構文に準拠し得る。
一実施形態では、送信機(440)は、符号化されたビデオとともに追加のデータを送信し得る。ビデオコーダ(430)は、符号化されたビデオシーケンスの一部としてそのようなデータを含め得る。追加のデータは、時間層/空間層/SNR強化層、冗長なピクチャおよびスライスなどの他の形式の冗長データ、補足拡張情報(SEI)メッセージ、視覚ユーザビリティ情報(VUI)パラメータセットフラグメントなどを含み得る。
[VP9およびAV1における符号化ブロック区分]
図5A~図5Dの区分構造(502)~(508)を参照すると、VP9は、64×64レベルから開始して4×4レベルまでの4通りの区分ツリーを使用し、ブロック8×8にいくつかの追加の制限がある。図5DにRとして指定された区分は、最低4×4レベルに達するまで同じ区分ツリーがより低いスケールで繰り返されるという点で、再帰を指すことに留意されたい。
図6A~図6Jの区分構造(511)~(520)を参照すると、AV1は、区分ツリーを10通りの構造に拡張するだけでなく、最大サイズ(VP9/AV1用語でスーパーブロックと呼ばれる)を128×128から開始するように増加させる。これは、VP9には存在しなかった4:1/1:4の矩形区分を含むことに留意されたい。図6C~図6Fに示されるような3つの下位区分を有する区分タイプは、「T型」区分と呼ばれる。一例では、矩形区分のいずれも、さらに細分され得ない。符号化ブロックサイズに加えて、符号化ツリー深度が、ルートノードからの分割深度を示すように定義され得る。具体的には、ルートノードの符号化ツリー深度、例えば128×128は0に設定され、ツリーブロックがさらに1回分割された後、符号化ツリー深度は1だけ増加する。
AV1は、VP9のように固定された変換ユニットサイズを強制するのではなく、ルマ符号化ブロックが、最大2レベルだけ下がる再帰的区分によって表すことができる複数のサイズの変換ユニットに分割されることを可能にする。AV1の拡張された符号化ブロック区分を組み込むために、4×4から64×64までの、正方形、2:1/1:2、および4:1/1:4の変換サイズがサポートされ得る。クロマブロックの場合、可能な最大の変換ユニットのみが許容され得る。
[HEVCにおけるブロック分割]
HEVCでは、符号化ツリーユニット(CTU)が、様々な局所特性に適応するように符号化ツリーとして表された四分木(QT)構造を使用して符号化ユニット(CU)に分割され得る。ピクチャ領域をインターピクチャ(時間的)予測を使用して符号化するか、またはイントラピクチャ(空間的)予測を使用して符号化するかの判断は、CUレベルで行われ得る。各CUは、PU分割タイプに従って、1つ、2つ、または4つの予測ユニット(PU)にさらに分割することができる。1つのPU内では、同じ予測プロセスが適用されてもよく、関連情報はPUベースでデコーダに送られる。PU分割タイプに基づく予測プロセスを適用することによって残差ブロックを取得した後、CUを、CUの符号化ツリーのような別の四分木構造に従って変換ユニット(TU)に分割することができる。HEVC構造の重要な特徴の1つは、CU、PU、およびTUを含む複数の区分概念を有することである。HEVCでは、CUまたはTUは正方形の形状しか有することができないが、PUはインター予測ブロックのために正方形または長方形の形状を有し得る。HEVCでは、1つの符号化ブロックが4つの正方形サブブロックにさらに分割されてもよく、変換は、各サブブロック(すなわちTU)に対して実行される。各TUを、(四分木分割を使用して)再帰的に、残差四分木(RQT)と呼ばれるより小さいTUにさらに分割することができる。
ピクチャ境界では、HEVCは、サイズがピクチャ境界に収まるまでブロックが四分木分割を続けるように、暗黙的な四分木分割を用いる。
[VVCにおけるネストされたマルチタイプツリーの符号化ブロック構造を有する四分木]
VVCでは、二分割および三分割のセグメント化構造を使用するネストされたマルチタイプツリーを有する四分木が、複数の区分ユニットタイプの概念を置き換える。すなわち、VVCは、最大変換長に対して大きすぎるサイズを有するCUのために必要とされる場合を除いて、CU、PU、およびTUの概念の分離を含まず、CU区分形状のためのより多くの柔軟性をサポートする。符号化ツリー構造では、CUは正方形または長方形のどちらかの形状とすることができる。符号化ツリーユニット(CTU)は、最初に、四分割ツリー(四分木とも呼ばれる)構造によって分割される。次いで、四分割ツリーのリーフノードを、マルチタイプツリー構造によってさらに分割することができる。図7A~図7Dの図(532)、図(534)、図(536)、および図(538)に示されるように、マルチタイプツリー構造には、図7Aに示されるような垂直二分割(SPLIT_BT_VER)、図7Bに示されるような水平二分割(SPLIT_BT_HOR)、図7Cに示されるような垂直三分割(SPLIT_TT_VER)、および図7Dに示されるような水平三分割(SPLIT_TT_HOR)、という4つの分割タイプがある。マルチタイプツリーのリーフノードは、符号化ユニット(CU)と呼ばれてもよく、CUが最大変換長に対して大きすぎない限り、このセグメント化は、さらなる分割なしで予測および変換処理に使用され得る。これは、ほとんどの場合、CU、PU、およびTUが、ネストされたマルチタイプツリーの符号化ブロック構造を有する四分木において同じブロックサイズを有することを意味する。例外が発生するのは、サポートされる最大変換長がCUの色成分の幅または高さよりも小さい場合である。1つのCTUのためのブロック区分の一例が図8に示されている。図8は、四分木およびネストされたマルチタイプツリーの符号化ブロック構造を有する複数のCUに分割されたCTU(540)を示しており、太線のエッジは四分木分割を表し、破線のエッジはマルチタイプツリー分割を表している。ネストされたマルチタイプツリー区分を有する四分木は、CUで構成されたコンテンツ適応符号化ツリー構造を提供する。
VVCでは、サポートされる最大ルマ変換サイズは64×64であり、サポートされる最大クロマ変換サイズは32×32である。CBの幅または高さが最大変換幅または高さよりも大きい場合、CBは、その方向の変換サイズの制限を満たすように水平方向および/または垂直方向に自動的に分割され得る。
VTM7では、符号化ツリースキームは、ルマとクロマとが別個のブロックツリー構造を有することができる機能をサポートする。PスライスおよびBスライスの場合、1つのCTU内のルマCTBとクロマCTBが同じ符号化ツリー構造を共有し得る。しかしながら、Iスライスの場合、ルマとクロマとは別個のブロックツリー構造を有することができる。分離ブロックツリーモードが適用される場合、ルマCTBは1つの符号化ツリー構造によってCUに分割され、クロマCTBは別の符号化ツリー構造によってクロマCUに分割される。これは、Iスライス内のCUはルマ成分の符号化ブロックまたは2つのクロマ成分の符号化ブロックからなり得、PスライスまたはBスライス内のCUは、ビデオがモノクロでない限り3つの色成分すべての符号化ブロックからなり得ることを意味する。
[AV1における方向性イントラ予測]
VP9は、45度から207度までの角度に対応する8つの方向性モードをサポートする。方向テクスチャにおけるより多様な空間的冗長性を活用するために、AV1では、方向性イントラモードは、より細かい粒度で設定された角度に拡張される。元の8つの角度はわずかに変更されて公称角度とされ、これら8つの公称角度は、V_PRED(542)、H_PRED(543)、D45_PRED(544)、D135_PRED(545)、D113_PRED(546)、D157_PRED(547)、D203_PRED(548)、およびD67_PRED(549)と名付けられ、これらが現在のブロック(541)に関して図9に示されている。公称角度はまた、符号化規格によってサポートされる基本方向性モードとも呼ばれ得る。公称角度ごとに、7つのより細かい角度があるので、AV1は合計56の方向角度を有する。予測角度は公称イントラ角度+デルタ角度によって提示され、これは3度のステップサイズの-3~3倍である。一般的な方法によってAV1における方向性予測モードを実装するために、AV1の56の方向性イントラ予測モードはすべて、各ピクセルを参照サブピクセル位置に投影し、2タップバイリニアフィルタによって参照ピクセルを補間する統一された方向予測子を用いて実装される。
[AV1における無方向性平滑イントラ予測子]
AV1には、DC、PAETH、SMOOTH、SMOOTH_V、およびSMOOTH_Hの5つの無方向性平滑イントラ予測モードがある。DC予測では、左および上の隣接サンプルの平均値が予測対象のブロックの予測子として使用される。PAETH予測子の場合、最初に上、左、および左上の参照サンプルがフェッチされ、次いで(上+左-左上)に最も近い値が予測対象のピクセルの予測子として設定される。図10に、現在のブロック(550)内の現在のピクセル(552)の上サンプル(554)、左サンプル(556)、および左上サンプル(558)の位置を示す。SMOOTHモード、SMOOTH_Vモード、およびSMOOTH_Hモードの場合、現在のブロック(550)は、垂直方向もしくは水平方向の二次補間、または両方向の平均値を使用して予測される。
[ルマから予測されるクロマ]
クロマ成分の場合、56の方向性モードおよび5つの無方向性モードに加えて、ルマからのクロマ(CfL)は、クロマピクセルを一致する再構成されたルマピクセルの線形関数としてモデル化する、クロマのみのイントラ予測モードである。CfL予測は、以下の式1に示すように表され得る。
CfL(α)=α×LAC+DC(式1)
式中、LACはルマ成分のAC寄与を表し、αは線形モデルのパラメータを表し、DCはクロマ成分のDC寄与を表す。具体的には、再構成されたルマピクセルがクロマ解像度にサブサンプリングされ、次いで平均値が減算されてAC寄与が形成される。AC寄与からクロマAC成分を近似するために、いくつかの背景技術にあるようにデコーダがスケーリングパラメータを計算することを必要とするのではなく、AV1 CfLは、元のクロマピクセルに基づいてパラメータαを決定し、それらをビットストリーム内でシグナリングする。これにより、デコーダの複雑さが低減され、より正確な予測が得られる。クロマ成分のDC寄与に関しては、ほとんどのクロマコンテンツに十分であり、成熟した高速実装を有するイントラDCモードを使用して計算され得る。
クロマイントラ予測モードのシグナリングでは、8つの公称方向性モード、5つの無方向性モード、およびCfLモードが最初にシグナリングされ得る。これらのモードをシグナリングするためのコンテキストは、現在のブロックの左上位置の対応するルマモードに依存し得る。次いで、現在のクロマモードが方向性モードである場合、公称角度に対するデルタ角度を示すために1つの追加のフラグがシグナリングされ得る。
AV1には、方向性公称モードごとに7つのデルタ角度があり、7つのデルタ角度すべてが隣接する公称モードの方向に関係なくシグナリング/解析され、これは最適ではない。
本開示の実施形態は、上記の問題および/またはその他の問題を解決し得る。
本開示の実施形態は、別々に使用されてもよく、任意の順序で組み合わされてもよい。さらに、各実施形態(例えば、方法、エンコーダ、およびデコーダ)は、処理回路(例えば、1つまたは複数のプロセッサや1つまたは複数の集積回路)によって実装され得る。一例では、1つまたは複数のプロセッサは、非一時的コンピュータ可読媒体に記憶されたプログラムを実行する。
本開示では、1つの方向性イントラ予測モードが別の方向性イントラ予測モードに近いと言う場合、それは、これら2つのモード間の予測角度の絶対差が所与の閾値T内にあることを意味する。一例では、Tは1または2に設定され得る。
1つまたは複数の実施形態によれば、公称角度ごとに同数のデルタ角度をシグナリング/解析する代わりに、シグナリング/解析されるデルタ角度の数は、現在の公称角度および/または隣接する公称角度の方向に依存し得る。
実施形態によれば、現在のブロックの公称角度が隣接ブロックのうちの少なくとも1つの公称角度と同じである(またはこれに近い)ことに基づき、この公称角度に許容されるすべてのデルタ角度(例えば7つのデルタ角度)がシグナリング/解析される。そうでない場合、許容されるデルタ角度のサブセットのみがこの公称角度についてシグナリング/解析される(例えば、3つのデルタ角度)。許容されるデルタ角度は、公称角度と組み合わされたときに符号化規格によってサポートされる予測角度に対応するデルタ角度を指す。一実施形態では、許容されるデルタ角度のサブセットは、事前定義され、固定されている。一例では、許容されるデルタ角度のサブセットは、{-2,0,2}である。別の例では、許容されるデルタ角度のサブセットは、{-1,0,1}である。別の実施形態では、許容されるデルタ角度のサブセットは、現在のブロックと隣接ブロックとの公称角度間の予測角度の絶対差に依存する。一例では、サブセットのサイズは、現在の公称角度と隣接する公称角度との予測角度の絶対差が大きくなるにつれて小さくなる。一例では、現在のブロックの公称角度が隣接ブロックのうちの1つの公称角度と等しい場合、すべてのデルタ角度(例えば7つのデルタ角度)がシグナリング/解析される。そうではなく、現在のブロックの公称角度が隣接ブロックのうちの1つの公称角度と隣接している場合、{-2,-1,0,1,2}など、5つのデルタ角度がシグナリング/解析される。そうでない場合、{-2,0,2}など、3つのデルタ角度のみがシグナリング/解析される。
実施形態によれば、隣接ブロックの位置は固定され、事前定義されており、最大N個までの隣接ブロックが使用され、Nは7などの正の整数である。現在のブロック(600)の隣接ブロックの位置の一例が図11に示されている。一実施形態では、7つの位置にある隣接ブロックのサブセットのみが使用され得る。一例では、位置A、B、C、D、およびFにある隣接ブロックのみが使用され得る。別の例では、位置A、B、C、D、E、およびFにある隣接ブロックのみが使用され得る。別の例では、位置B、C、D、およびFにある隣接ブロックのみが使用され得る。
1つまたは複数の実施形態によれば、ルマブロックのデルタ角度をシグナリングするために使用されるコンテキスト、または累積密度関数(CDF)は、隣接ブロックの公称角度に基づくものであり得る。実施形態によれば、ルマブロックのデルタ角度をシグナリングするために使用されるコンテキスト(またはCDF)は、現在のルマブロックと隣接するルマブロックの公称角度の両方に依存する。一実施形態では、ルマブロックの公称角度が隣接するルマブロックの公称角度のうちの1つと等しい(または所与の閾値内で近い)場合、ルマブロックのデルタ角度をシグナリングするために1つまたは複数のコンテキスト(またはCDF)が使用される。そうでない場合、クロマブロックのデルタ角度をシグナリングするために別のまたは複数の異なるコンテキスト(またはCDF)が使用され得る。一実施形態では、図11を参照して説明したように、隣接ブロックの位置が実装され得る。
1つまたは複数の実施形態によれば、現在のルマブロックのデルタ角度を直接シグナリングする代わりに、デルタ角度は関連付けられたインデックスにマップされ、そのインデックスがシグナリングされ得る。実施形態によれば、デルタ角度は、事前定義されたマッピングテーブルに従って関連付けられたインデックスにマップされ得る。実施形態によれば、ルマブロックの公称角度が隣接するルマブロックの公称角度のうちの1つと等しい(または所与の閾値内で近い)場合、デルタ角度はインデックスにマップされ、そのインデックスがシグナリングされ得る。実施形態によれば、デルタ角度から関連付けられたインデックスへのマッピングは、現在のルマブロックおよび隣接するルマブロックのデルタ角度に依存し得る。
事前定義されたマッピングテーブルの2つの例が以下の表1および表2に示されており、第1列の値は、隣接するルマブロックのデルタ角度を表し、第1行の値は、現在のルマブロックのデルタ角度の関連付けられたインデックスを表し、残りのエントリ内の値は、現在のルマブロックのデルタ角度を表す。表1を参照する一例として、隣接するルマブロックのデルタ角度が-9であり、現在のルマブロックのデルタ角度が-9である場合、関連付けられたインデックスは0である。表1を参照する別の例として、隣接するルマブロックのデルタ角度が-3であり、現在のルマブロックのデルタ角度が-9である場合、関連付けられたインデックスは3である。
Figure 0007413532000001
Figure 0007413532000002
実施形態によれば、少なくとも1つのプロセッサ、およびコンピュータプログラム命令を記憶するメモリが提供される。コンピュータプログラム命令は、少なくとも1つのプロセッサによって実行されるとき、エンコーダまたはデコーダを実装し、本開示で説明される任意の数の機能を実行し得る。例えば、図12を参照すると、少なくとも1つのプロセッサはデコーダ(800)を実装し得る。コンピュータプログラム命令は、例えば、少なくとも1つのプロセッサに、(例えば、エンコーダから)受け取られた符号化されたピクチャを復号させるように構成された復号コード(810)を含み得る。復号コード(810)は、例えば、第1の取得コード(820)、第2の取得コード(830)、決定コード(840)、シグナリングコード(850)、インデックスシグナリングコード(860)、識別コード(870)、および/または予測コード(880)を含み得る。
本開示の実施形態によれば、第1の取得コード(820)は、少なくとも1つのプロセッサに、イントラ予測のために符号化されたピクチャの現在のブロックの公称角度を取得させるように構成され得る。
本開示の実施形態によれば、第2の取得コード(830)は、少なくとも1つのプロセッサに、イントラ予測のために現在のブロックの少なくとも1つの隣接ブロックの公称角度を取得させるように構成され得る。
本開示の実施形態によれば、決定コード(840)は、少なくとも1つのプロセッサに、現在のブロックの公称角度と少なくとも1つの隣接ブロックの公称角度との間の比較に基づいて、現在のブロックの公称角度のすべての許容されるデルタ角度をシグナリングするか、または現在のブロックの公称角度の許容されるデルタ角度のサブセットのみをシグナリングするかを決定させるように構成され得る。
本開示の実施形態によれば、シグナリングコード(850)は、少なくとも1つのプロセッサに、決定に基づいて現在のブロックの公称角度のすべての許容されるデルタ角度または許容されるデルタ角度のサブセットをシグナリングさせるように構成され得る。
本開示の実施形態によれば、インデックスシグナリングコード(860)は、少なくとも1つのプロセッサに、インデックスをシグナリングさせるように構成され得る。
本開示の実施形態によれば、識別コード(870)は、少なくとも1つのプロセッサに、インデックスが現在のブロックのデルタ角度にマップされているマッピングテーブルを使用して現在のブロックのデルタ角度を識別させるように構成され得る。
本開示の実施形態によれば、予測コード(880)は、少なくとも1つのプロセッサに、現在のブロックを予測させるように構成され得る。
実施形態によれば、上記のプロセスに対応するエンコーダ側のプロセスは、上記の説明に基づいて、当業者によって理解されるようにピクチャを符号化するためのコードを符号化することによって実装され得る。
上述した本開示の実施形態の技術は、コンピュータ可読命令を使用し、1つまたは複数のコンピュータ可読メディアに物理的に記憶されたコンピュータソフトウェアとして実装することができる。例えば、図13に、開示の主題の実施形態を実装するのに適したコンピュータシステム(900)を示す。
コンピュータソフトウェアは、コンピュータ中央処理装置(CPU)、グラフィックス処理装置(GPU)などによって直接、または解釈、マイクロコード実行などを介して、実行することができる命令を含むコードを作成するために、アセンブリ、コンパイル、リンクなどのメカニズムの対象となり得る、任意の適切な機械コードまたはコンピュータ言語を使用して符号化することができる。
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲームデバイス、IoTデバイスなどを含む様々なタイプのコンピュータまたはその構成要素上で実行することができる。
コンピュータシステム(900)について図13に示す構成要素は、本質的に例示的なものであり、本開示の実施形態を実装するコンピュータソフトウェアの使用または機能の範囲に関する限定を示唆することを意図するものではない。構成要素の構成は、コンピュータシステム(900)の例示的な実施形態に示されている構成要素のいずれか1つまたは組み合わせに関する依存関係または要件を有すると解釈されるべきではない。
コンピュータシステム(900)は、特定のヒューマンインターフェース入力装置を含み得る。そのようなヒューマンインターフェース入力装置は、例えば、触覚入力(キーストローク、スワイプ、データグローブの動きなど)、オーディオ入力(声、拍手など)、視覚入力(ジェスチャなど)、嗅覚入力(図示せず)を介した、1人または複数の人間のユーザによる入力に応答し得る。ヒューマンインターフェース装置は、オーディオ(音声、音楽、周囲音など)、画像(走査画像、写真画像は静止画像カメラから取得など)、ビデオ(二次元映像、立体映像を含む三次元映像など)といった、必ずしも人間による意識的な入力に直接関連しない特定の媒体を取り込むために使用することもできる。
入力ヒューマンインターフェース装置は、キーボード(901)、マウス(902)、トラックパッド(903)、タッチスクリーン(910)、データグローブ、ジョイスティック(905)、マイクロフォン(906)、スキャナ(907)、およびカメラ(908)のうちの1つまたは複数(図示された各々のうちのただ1つ)を含み得る。
コンピュータシステム(900)はまた、特定のヒューマンインターフェース出力装置も含み得る。そのようなヒューマンインターフェース出力装置は、例えば、触覚出力、音、光、および匂い/味によって1人または複数の人間ユーザの感覚を刺激し得る。そのようなヒューマンインターフェース出力装置は、触覚出力装置(例えば、タッチスクリーン(910)、データグローブ、またはジョイスティック(905)による触覚フィードバック、ただし入力装置として機能しない触覚フィードバックデバイスもあり得る)を含み得る。例えば、そのような装置は、オーディオ出力装置(スピーカ(909)、ヘッドホン(図示せず)など)、視覚出力装置(各々タッチスクリーン入力機能ありまたはなしの、各々触覚フィードバック機能ありまたはなしの、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含むスクリーン(910)など、それらの一部は、二次元視覚出力、または立体画像出力、仮想現実眼鏡(図示せず)、ホログラフィックディスプレイおよびスモークタンク(図示せず)などの手段による四次元以上の出力が可能であり得る)、ならびにプリンタ(図示せず)であり得る。
コンピュータシステム(900)はまた、人間がアクセス可能な記憶装置およびそれらの関連媒体、例えば、CD/DVDなどの媒体(921)を有するCD/DVD ROM/RW(920)を含む光学媒体、サムドライブ(922)、リムーバブルハードドライブまたはソリッドステートドライブ(923)、テープやフロッピーディスクなどのレガシー磁気媒体(図示せず)、セキュリティドングルなどの専用ROM/ASIC/PLDベースのデバイス(図示せず)なども含むことができる。
当業者はまた、本開示の主題に関連して使用される「コンピュータ可読媒体」という用語が、伝送媒体、搬送波、または他の一時的信号を包含しないことも理解するはずである。
コンピュータシステム(900)はまた、1つまたは複数の通信ネットワークへのインターフェースも含むことができる。ネットワークは、例えば、無線、有線、光とすることができる。ネットワークはさらに、ローカル、広域、メトロポリタン、車両および産業、リアルタイム、遅延耐性などとすることができる。ネットワークの例には、イーサネット、無線LANなどのローカルエリアネットワーク、GSM、3G、4G、5G、LTEなどを含むセルラーネットワーク、ケーブルテレビ、衛星テレビ、および地上波放送テレビを含むテレビ有線または無線広域デジタルネットワーク、CANBusを含む車両および産業用などが含まれる。特定のネットワークは、一般に、特定の汎用データポートまたは周辺バス(949)(例えば、コンピュータシステム(900)のUSBポートなど)に取り付けられた外部ネットワークインターフェースアダプタを必要とする。他のネットワークは、一般に、後述するようなシステムバスへの取り付けによってコンピュータシステム900のコアに統合される(例えば、PCコンピュータシステムへのイーサネットインターフェースやスマートフォンコンピュータシステムへのセルラーネットワークインターフェース)。これらのネットワークのいずれかを使用して、コンピュータシステム(900)は他のエンティティと通信することができる。そのような通信は、例えば、ローカルまたはワイドエリアデジタルネットワークを使用する他のコンピュータシステムに対して、一方向の受信のみ(例えば、テレビ放送)、一方向の送信のみ(例えば、特定のCANbusデバイスへのCANbus)、または双方向とすることができる。そのような通信は、クラウドコンピューティング環境(955)への通信を含むことができる。前述したようなネットワークおよびネットワークインターフェースの各々で特定のプロトコルおよびプロトコルスタックを使用することができる。
前述したヒューマンインターフェース装置、人間がアクセス可能な記憶装置、およびネットワークインターフェース(954)は、コンピュータシステム(900)のコア(940)に取り付けることができる。
コア(940)は、1つまたは複数の中央処理装置(CPU)(941)、グラフィックス処理装置(GPU)(942)、フィールドプログラマブルゲートエリア(FPGA)(943)の形態の専用プログラマブル処理装置、特定のタスク用のハードウェアアクセラレータ(944)などを含むことができる。これらのデバイスは、読み出し専用メモリ(ROM)(945)、ランダムアクセスメモリ(946)、内部非ユーザアクセス可能ハードドライブ、SSDなどの内部大容量ストレージ(947)とともに、システムバス(948)を介して接続され得る。いくつかのコンピュータシステムでは、システムバス(948)を、追加のCPU、GPUなどによる拡張を可能にするために、1つまたは複数の物理プラグの形態でアクセス可能とすることができる。周辺装置は、コアのシステムバス(948)に直接、または周辺バス(949)を介して取り付けることができる。周辺バスのアーキテクチャには、PCI、USBなどが含まれる。グラフィックスアダプタ(950)は、コア(940)に含まれてもよい。
CPU(941)、GPU(942)、FPGA(943)、およびアクセラレータ(944)は、組み合わさって前述のコンピュータコードを構成することができる特定の命令を実行することができる。そのコンピュータコードを、ROM(945)またはRAM(946)に記憶することができる。また移行データをRAM(946)に記憶することもでき、永続データは、例えば内部大容量ストレージ(947)に記憶することができる。メモリデバイスのいずれかへの高速記憶および検索を、1つまたは複数のCPU(941)、GPU(942)、大容量ストレージ(947)、ROM(945)、RAM(946)などと密接に関連付けることができるキャッシュメモリの使用によって使用可能にすることができる。
コンピュータ可読媒体は、様々なコンピュータ実装動作を実行するためのコンピュータコードを有し得る。媒体およびコンピュータコードは、本開示の目的のために特別に設計および構築されたものとすることもでき、またはコンピュータソフトウェア技術の当業者に周知の利用可能な種類のものとすることもできる。
限定ではなく例として、アーキテクチャ有するコンピュータシステム(900)、特にコア(940)は、(CPU、GPU、FPGA、アクセラレータなどを含む)(1つまたは複数の)プロセッサが、1つまたは複数の有形のコンピュータ可読媒体において具現化されたソフトウェアを実行した結果として機能を提供することができる。そのようなコンピュータ可読媒体は、上述のようなユーザアクセス可能な大容量ストレージ、ならびにコア内部大容量ストレージ(947)やROM(945)などの非一時的な性質のものであるコア(940)の特定のストレージと関連付けられた媒体とすることができる。本開示の様々な実施形態を実装するソフトウェアは、そのようなデバイスに記憶し、コア(940)によって実行することができる。コンピュータ可読媒体は、特定の必要性に応じて、1つまたは複数のメモリデバイスまたはチップを含むことができる。ソフトウェアは、コア(940)、具体的にはその中の(CPU、GPU、FPGAなどを含む)プロセッサに、RAM(946)に記憶されたデータ構造を定義すること、およびソフトウェアによって定義されたプロセスに従ってそのようなデータ構造を変更することを含む、本明細書に記載される特定のプロセスまたは特定のプロセスの特定の部分を実行させることができる。加えて、または代替として、コンピュータシステムは、ソフトウェアの代わりに、またはソフトウェアとともに動作して、本明細書に記載される特定のプロセスまたは特定のプロセスの特定の部分を実行することができる、回路(例えば、アクセラレータ(944))における配線で接続された、または他の方法で具現化されたロジックの結果として機能を提供することもできる。ソフトウェアと言う場合、それは、適切な場合には、ロジックを含むことができ、逆もまた同様である。コンピュータ可読媒体と言う場合、それは、適切な場合には、実行のためのソフトウェアを記憶する回路(集積回路(IC)など)、実行のためのロジックを具現化する回路、またはその両方を含むことができる。本開示は、ハードウェアとソフトウェアの任意の適切な組み合わせを包含する。
本開示ではいくつかの非限定的、例示的な実施形態を説明したが、本開示の範囲内に入る修正形態、置換形態、および様々な代替の等価物がある。よって、当業者であれば、本明細書には明示的に図示または説明されていないが、本開示の原理を具現化し、よって本開示の趣旨および範囲内にある多数のシステムおよび方法を考案することができることが理解されよう。
100 通信システム
110 端末
120 端末
130 端末
140 端末
150 ネットワーク
200 ストリーミングシステム
201 ビデオソース、カメラ
202 非圧縮ビデオサンプルストリーム
203 エンコーダ
204 符号化されたビデオビットストリーム
205 ストリーミングサーバ
206 ストリーミングクライアント
209 ビデオビットストリーム
210 ビデオデコーダ
211 出力されるビデオサンプルストリーム
212 ディスプレイ
213 キャプチャサブシステム
310 受信機
312 チャネル
315 バッファメモリ、バッファ
320 エントロピーデコーダ/パーサ
321 シンボル
351 スケーラ/逆変換ユニット
352 イントラ予測ユニット
353 動き補償予測ユニット
355 アグリゲータ
356 ループフィルタユニット
357 参照ピクチャメモリ
358 現在のピクチャメモリ
430 ソースコーダ、ビデオコーダ
432 符号化エンジン
433 ローカルデコーダ
434 参照ピクチャメモリ
435 予測器
440 送信機
445 エントロピーコーダ
450 コントローラ
460 チャネル
502 区分構造
504 区分構造
506 区分構造
508 区分構造
511 区分構造
512 区分構造
513 区分構造
514 区分構造
515 区分構造
516 区分構造
517 区分構造
518 区分構造
519 区分構造
520 区分構造
532 垂直二分割
534 水平二分割
536 垂直三分割
538 水平三分割
540 CTU
541 現在のブロック
542 V_PRED
543 H_PRED
544 D45_PRED
545 D135_PRED
546 D113_PRED
547 D157_PRED
548 D203_PRED
549 D67_PRED
550 現在のブロック
552 現在のピクセル
554 上サンプル
556 左サンプル
558 左上サンプル
600 現在のブロック
800 デコーダ
810 復号コード
820 第1の取得コード
830 第2の取得コード
840 決定コード
850 シグナリングコード
860 インデックスシグナリングコード
870 識別コード
880 予測コード
900 コンピュータシステム
901 キーボード
902 マウス
903 トラックパッド
905 ジョイスティック
906 マイクロフォン
907 スキャナ
908 カメラ
909 スピーカ
910 タッチスクリーン
920 CD/DVD ROM/RW
921 CD/DVDなどの媒体
922 サムドライブ
923 リムーバブルハードドライブまたはソリッドステートドライブ
940 コア
941 中央処理装置(CPU)
942 グラフィックス処理装置(GPU)
943 フィールドプログラマブルゲートエリア(FPGA)
944 ハードウェアアクセラレータ
945 読み出し専用メモリ(ROM)
946 ランダムアクセスメモリ
947 内部大容量ストレージ
948 システムバス
949 周辺バス
950 グラフィックスアダプタ
954 ネットワークインターフェース
955 クラウドコンピューティング環境

Claims (10)

  1. 少なくとも1つのプロセッサによって実行される方法であって、
    符号化されたピクチャを受け取るステップと、
    前記符号化されたピクチャを復号するステップと
    を含み、復号する前記ステップは、
    イントラ予測のために前記符号化されたピクチャの現在のブロックの公称角度を取得するステップと、
    イントラ予測のために前記現在のブロックの少なくとも1つの隣接ブロックの公称角度を取得するステップと、
    前記現在のブロックの前記公称角度に対応する値と前記少なくとも1つの隣接ブロックの前記公称角度に対応する値との間の絶対差が閾値以下である場合、前記現在のブロックの前記公称角度のすべての許容されるデルタ角度をシグナリングし、そうでない場合、前記現在のブロックの前記公称角度の前記許容されるデルタ角度のサブセットのみをシグナリングする決定するステップと、
    決定する前記ステップに基づいて、前記現在のブロックの前記公称角度のすべての前記許容されるデルタ角度または前記許容されるデルタ角度の前記サブセットをシグナリングするステップと、
    シグナリングする前記ステップに基づいて、前記現在のブロックを予測するステップと
    を含む、方法。
  2. 前記閾値は2である、請求項1に記載の方法。
  3. シグナリングされると決定される前記サブセット内の前記許容されるデルタ角度の数は、前記現在のブロックの前記公称角度に対応する前記値と前記少なくとも1つの隣接ブロックの前記公称角度に対応する前記値との前記絶対差に基づくものである、請求項1に記載の方法。
  4. 前記少なくとも1つの隣接ブロックは、所定数のみの隣接ブロックである、請求項1から3のいずれか一項に記載の方法。
  5. シグナリングする前記ステップは、決定する前記ステップに基づいて、累積密度関数(CDF)を使用して前記許容されるデルタ角度のうちの少なくとも1つをシグナリングするステップを含む、請求項1から4のいずれか一項に記載の方法。
  6. インデックスをシグナリングするステップと、
    前記インデックスが前記現在のブロックのデルタ角度にマップされているマッピングテーブルを使用して前記現在のブロックの前記デルタ角度を識別するステップと
    をさらに含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記インデックスは、前記マッピングテーブルにおいて、前記現在のブロックの前記デルタ角度および前記少なくとも1つの隣接ブロックのデルタ角度にマップされている、
    請求項6に記載の方法。
  8. 前記現在のブロックはルマブロックである、請求項1から7のいずれか一項に記載の方法。
  9. システムであって、
    コンピュータプログラムコードを記憶するように構成された少なくとも1つのメモリと、
    前記コンピュータプログラムコードにアクセスし、前記コンピュータプログラムコードによって命令されるように動作するように構成された少なくとも1つのプロセッサと
    を備え、前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサに、請求項1から8のいずれか一項に記載の方法を実行させるように構成された、システム。
  10. 少なくとも1つのプロセッサに請求項1から8のいずれか一項に記載の方法を実行させるためのコンピュータプログラム。
JP2022530795A 2020-08-19 2021-08-18 ルマブロックのための改善されたデルタ角度シグナリング方法 Active JP7413532B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023220857A JP2024029138A (ja) 2020-08-19 2023-12-27 ルマブロックのための改善されたデルタ角度シグナリング方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063067791P 2020-08-19 2020-08-19
US63/067,791 2020-08-19
US17/390,256 2021-07-30
US17/390,256 US11546625B2 (en) 2020-08-19 2021-07-30 Delta angle signaling method for luma blocks
PCT/US2021/046472 WO2022040291A1 (en) 2020-08-19 2021-08-18 Improved delta angle signaling method for luma blocks

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023220857A Division JP2024029138A (ja) 2020-08-19 2023-12-27 ルマブロックのための改善されたデルタ角度シグナリング方法

Publications (2)

Publication Number Publication Date
JP2023502538A JP2023502538A (ja) 2023-01-24
JP7413532B2 true JP7413532B2 (ja) 2024-01-15

Family

ID=80271207

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022530795A Active JP7413532B2 (ja) 2020-08-19 2021-08-18 ルマブロックのための改善されたデルタ角度シグナリング方法
JP2023220857A Pending JP2024029138A (ja) 2020-08-19 2023-12-27 ルマブロックのための改善されたデルタ角度シグナリング方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023220857A Pending JP2024029138A (ja) 2020-08-19 2023-12-27 ルマブロックのための改善されたデルタ角度シグナリング方法

Country Status (6)

Country Link
US (2) US11546625B2 (ja)
EP (1) EP4032260A4 (ja)
JP (2) JP7413532B2 (ja)
KR (1) KR20220073844A (ja)
CN (1) CN114641988A (ja)
WO (1) WO2022040291A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018208349A1 (en) 2017-05-09 2018-11-15 Google Llc Directional intra-prediction coding

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3301916A1 (en) 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for omnidirectional video coding with adaptive intra most probable modes
US10992939B2 (en) * 2017-10-23 2021-04-27 Google Llc Directional intra-prediction coding
US11051025B2 (en) * 2018-07-13 2021-06-29 Tencent America LLC Method and apparatus for video coding

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018208349A1 (en) 2017-05-09 2018-11-15 Google Llc Directional intra-prediction coding

Also Published As

Publication number Publication date
KR20220073844A (ko) 2022-06-03
US11546625B2 (en) 2023-01-03
US20230051558A1 (en) 2023-02-16
US11949898B2 (en) 2024-04-02
CN114641988A (zh) 2022-06-17
JP2023502538A (ja) 2023-01-24
EP4032260A4 (en) 2022-11-30
EP4032260A1 (en) 2022-07-27
WO2022040291A1 (en) 2022-02-24
US20220060731A1 (en) 2022-02-24
JP2024029138A (ja) 2024-03-05

Similar Documents

Publication Publication Date Title
CN110324619B (zh) 变换信息预测
JP7391121B2 (ja) ビデオエンコーディング及びデコーディングのための方法、装置、コンピュータプログラム、及び非一時的なコンピュータ可読媒体
JP2021516509A (ja) 履歴ベースの動きベクトル予測のための方法並びにその装置及びコンピュータプログラム
US11172224B2 (en) Techniques and apparatus for generalized Trisoup geometry coding
JP7244694B2 (ja) 柔軟なツリー構造を提供する方法、装置およびプログラム
KR102572355B1 (ko) 비디오 코딩을 위한 방법 및 장치
CN110881127A (zh) 控制残差编码的方法、装置、计算机设备和存储介质
KR20200125733A (ko) 비디오 코딩을 위한 방법 및 장치
JP2022510354A (ja) ビデオ符号化における隣接ブロックの利用可能性のための方法および装置
JP2022515850A (ja) 統合位置依存予測組み合わせプロセスを使用するデコードのための方法、装置およびコンピュータ・プログラム
JP2022522683A (ja) ビデオコーディングのための方法並びにその、装置およびコンピュータプログラム
JP2023508364A (ja) コンテキスト適応変換セット
JP7357679B2 (ja) 改善された最確モードリスト生成方法
JP2024028598A (ja) コンテンツ適応セグメント化予測
CN113841390B (zh) 用于视频编解码的方法和设备
CN112135151B (zh) 视频解码方法、系统、计算机设备和存储介质
JP7378485B2 (ja) Qt/bt/ttサイズの改善されたヘッダシンタックス
JP7061680B2 (ja) ビデオ符号化において縮減された前のラインバッファを使用するインター予測の方法及び装置
JP7413532B2 (ja) ルマブロックのための改善されたデルタ角度シグナリング方法
JP7250956B2 (ja) フレキシブルな画像分割
JP7391994B2 (ja) 参照ピクチャー再サンプリングのための出力ピクチャー・サイズの信号伝達に関する方法、装置およびコンピュータ・プログラム
KR20230051287A (ko) 기하학적 파티션 기반 인트라 예측
CA3215121A1 (en) Coefficient sign prediction for transform skip

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R150 Certificate of patent or registration of utility model

Ref document number: 7413532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150