JP2022517787A - 動画符号化方法、動画符号化機器及びコンピュータプログラム - Google Patents

動画符号化方法、動画符号化機器及びコンピュータプログラム Download PDF

Info

Publication number
JP2022517787A
JP2022517787A JP2021540213A JP2021540213A JP2022517787A JP 2022517787 A JP2022517787 A JP 2022517787A JP 2021540213 A JP2021540213 A JP 2021540213A JP 2021540213 A JP2021540213 A JP 2021540213A JP 2022517787 A JP2022517787 A JP 2022517787A
Authority
JP
Japan
Prior art keywords
conversion
sub
low frequency
conversion units
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021540213A
Other languages
English (en)
Other versions
JPWO2020190835A5 (ja
JP7216830B2 (ja
Inventor
シン・ジャオ
シアン・リ
シャン・リュウ
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2022517787A publication Critical patent/JP2022517787A/ja
Publication of JPWO2020190835A5 publication Critical patent/JPWO2020190835A5/ja
Application granted granted Critical
Publication of JP7216830B2 publication Critical patent/JP7216830B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/147Discrete orthonormal transforms, e.g. discrete cosine transform, discrete sine transform, and variations therefrom, e.g. modified discrete cosine transform, integer transforms approximating the discrete cosine transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/625Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

デコーダに用いる動画復号化方法を提供する。該方法において、符号化された動画ビットストリームから変換ブロックシグナリング情報を取得する。変換ブロックシグナリング情報に基づいて変換類型を特定する。変換類型と、複数のサブ変換ユニットのうちの1つのサブ変換ユニットの隣接するサブ変換ユニットとに基づいて、複数のサブ変換ユニットのうちの1つのサブ変換ユニットの低周波数係数を特定する。前記複数のサブ変換ユニットは、現在の符号化ブロックユニット(CU)から区分されてなる。複数のサブ変換ユニットの低周波数係数に基づいて、現在の符号化ブロックユニットを復号化する。前記低周波数係数は、複数のサブ変換ユニットのうちの1つのサブ変換ユニットの低周波数係数を含む。

Description

本願は、2020年3月14日に提出された米国特許出願16/819,085「METHOD AND APPARATUS FOR VIDEO CODING」の優先権を主張し、該米国特許出願16/819,085は、2019年3月16日に提出された米国仮出願62/819,568「DC PREDICTION FOR SUB TRANSFORM UNIT」の優先権を主張し、上記の各出願の全内容は本明細書に援用により組み込まれる。
本開示は、一般的に動画符号化に関する実施形態を記載する。
本明細書で提供された背景記載は、本開示内容の背景を総体的に体現することを目的とする。この背景技術に記載された範囲について、現在署名の発明者の作業、及び提出の際、別に従来技術の記載として限定されていない態様について、明確且つ暗黙的に本開示内容に対する従来技術として認められない。
動き補償を有するインターピクチャ予測を使用して動画の符号化及び復号化を実行してもよい。非圧縮のデジタル動画は一連のピクチャを含み、各ピクチャは、例えば1920×1080の輝度サンプル及び関連付けられた色度サンプルの空間次元を有してもよい。当該一連のピクチャは、例えば、1秒当たり60ピクチャ又は60Hzの固定又は可変のピクチャレート(非正式にはフレームレートとも呼ばれる)を有してもよい。非圧縮の動画には、高いビットレート要件がある。例えば、1サンプルあたり8ビットにおける1080p60 4:2:0の動画(60Hzフレームレートでの1920×1080の輝度サンプルの解像度)は、約1.5Gbit/sに近い帯域幅が必要である。1時間のこのような動画は、600GBを超えるストレージスペースが必要である。
動画符号化及び復号化は、圧縮により入力動画信号における冗長を減少させることを1つの目的とする。幾つかの場合、圧縮は、前記した帯域幅又はストレージスペースに対する要件を、2つ又はより多いオーダーだけ減少させることに寄与することができる。可逆圧縮、非可逆圧縮、及びその組み合わせを採用してもよい。可逆圧縮とは、圧縮された元の信号から元の信号の正確なレプリカを再構築できる技術を指す。非可逆圧縮を使用する場合、再構築された信号は元の信号と異なる可能性があるが、元の信号と再構築された信号との間の歪みが十分に小さいから、再構築された信号は目的のアプリケーションに役立つ。動画の場合、非可逆圧縮は広く利用されている。許容される歪み量はアプリケーションに依存し、例えば、消費者ストリーミング媒体プリケーションのユーザがテレビ貢献アプリケーションのユーザよりも高い歪みを許容する。実現できる圧縮比は、許可/許容可能な歪みが高いほど、圧縮比が高くなることを反映している。
動画エンコーダとデコーダは、例えば、動き補償、変換、量子化、エントロピー符号化などを含む、いくつかの幅広いカテゴリの技術を利用し得る。
動画コーデック技術は、イントラ符号化と呼ばれる技術を含み得る。イントラ符号化の場合、サンプル値は、先に再構築された参照ピクチャからのサンプル、又は他のデータを参照せず示される。いくつかの動画コーデックでは、ピクチャは空間的にサンプルブロックに細分される。全てのサンプルブロックをイントラモードで符号化する場合、当該ピクチャはイントラピクチャであってもよい。イントラピクチャ及びその派生物、例えば、独立したデコーダリフレッシュピクチャは、デコーダの状態をリセットするために使用できるため、符号化された動画ビットストリームと動画セッションにおける第1のピクチャ、又は静止画像として使用されることができる。イントラブロックのサンプルを変換することができ、また、エントロピー符号化を行う前に、変換係数を量子化することができる。イントラ予測は、プレ変換ドメインにおいてサンプル値を最小化する技術であってもよい。幾つかの場合、変換されたDC値が小さくてAC係数が小さいほど、所定の量子化ステップサイズでエントロピー符号化されたブロックを表すために必要なビットが少なくなる。
例えばMPEG-2世代の符号化技術から知られている従来のイントラ符号化は、イントラ予測を使用しない。しかしながら、いくつかの新動画圧縮技術は、例えば、空間的に隣接し且つ復号化順序で先行するデータブロックを符号化/復号化している期間に取得されたメタデータ及び/又は周辺のサンプルデータから試みる技術を含む。以降、このような技術は「イントラ予測」技術と呼ばれる。なお、少なくともいくつかの場合に、イントラ予測は、参照画像からの参照データを使用しなく、再構築中の現在ピクチャからの参照データのみを使用することに注意されたい。
イントラ予測には多くの異なる形式があり得る。所定の動画符号化技術において1種以上のこのような技術を使用できる場合に、使用される技術はイントラ予測モードで符号化することができる。幾つかの場合に、モードは、サブモード及び/又はパラメータを有してもよく、これらのサブモード及び/又はパラメータは、個別に符号化されたり、モードコードワードに含まれたりしてもよい。所定のモード/サブモード/パラメータの組み合わせにどのコードワードを使用するかは、イントラ予測による符号化効率ゲインに影響を与えるため、コードワードをビットストリームに変換するためのエントロピー符号化技術に影響を与える。
イントラ予測のあるモードはH.264から導入され、H.265において細分化され、例えば、共同探査モデル(JEM)、多用途動画符号化(VVC)、ベンチマークセット(BMS)などの新符号化技術では、さらに細分化される。既に使用可能なサンプルに属する隣接サンプル値を使用して予測器ブロックを形成してもよい。方向に応じて、隣接サンプルのサンプル値を予測器ブロックにレプリカする。使用中の方向の参照は、ビットストリームに符号化されるか、またはその自身は予測されることができる。
本開示の実施形態は、動画符号化/復号化用方法および機器を提供する。一部の実施形態では、動画復号化用機器は、受信回路システムと処理回路システムとを含む。
本開示の実施形態によれば、デコーダにおける動画復号化方法を提供する。該方法において、符号化された動画ビットストリームから変換ブロックシグナリング情報を取得する。変換ブロックシグナリング情報に基づいて変換類型を特定する。変換類型と、複数のサブ変換ユニットのうちの1つのサブ変換ユニットの隣接するサブ変換ユニットとに基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数を特定する。前記複数のサブ変換ユニットは、現在の符号化ブロックユニット(CU)から区分されたものである。その後、複数のサブ変換ユニットの低周波数係数に基づいて、現在の符号化ブロックユニットを復号化し、低周波数係数は、前記複数のサブ変換ユニットのうち前記1つのサブ変換ユニットの低周波数係数を含む。
一部の実施形態では、変換ブロックシグナリング情報は第1の高レベル構文要素、第2の高レベル構文要素、または第3の高レベル構文要素を含んでもよい。第1の高レベル構文要素は、変換類型が離散コサイン変換2(DCT-2)であることを示す。第2の高レベル構文要素は、変換類型がDCT-2または変換スキップであることを示す。第3の高レベル構文要素は、変換類型が離散コサイン変換8(DCT-8)と離散サイン変換7(DST-7)に基づく多重変換選択(MTS)であることを示す。
一部の実施形態では、複数のサブ変換ユニットが、暗黙的変換分割によって現在の符号化ブロックユニット(CU)から区分される場合、変換ブロックシグナリング情報は、変換類型が離散コサイン変換2(DCT-2)であることを示してもよい。
低周波数係数を特定するために、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの隣接するサブ変換ユニットの変換係数に基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数の絶対値または符号付き値を特定してもよい。
一部の実施形態では、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの上側および/または左側の隣接するサブ変換ユニットの低周波数係数の絶対値の平均値に基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数の絶対値を特定してもよい。前記複数のサブ変換ユニットのうちの1つのサブ変換ユニットの上側および/または左側の隣接するサブ変換ユニットの低周波数係数の符号付き値の平均値に基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数の絶対値を特定してもよい。
一部の実施形態では、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットと前記隣接するサブ変換ユニットを異なる変換類型に基づいて変換する場合、前記隣接するサブ変換ユニットの低周波数係数の絶対値をスケーリングしてもよい。
一部の実施形態では、イントラサブ区分モードまたは暗黙的変換分割のうちの少なくとも1つに基づいて、現在の符号化ブロックユニットから複数のサブ変換ユニットを区分してもよい。
一部の実施形態では、複数のサブ変換ユニットのうちの1つのサブ変換ユニットの低周波数係数を特定した後、複数のサブ変換ユニットの低周波数係数を二次変換して複数の変換係数を取得してもよい。複数の変換係数のそれぞれは、複数のサブ変換ユニットの対応低周波数係数に基づいて取得してもよい。その後、複数の変換係数に基づいて現在の符号化ブロックユニットを復号化してもよい。
一部の実施形態では、二次変換は、非正方形アダマール変換、正方形アダマール変換、DCT-2、DST-7、DCT-8、Karhunen-Loeve変換(KLT)または分離不可能なKLTを含んでもよい。
一部の実施形態では、現在の符号化ブロックユニット(CU)における複数のサブ変換ユニットが同じ変換類型を共有する場合、二次変換を実行してもよい。
本開示の実施形態は、命令を記憶する非一時的なコンピュータ読み取り可能な媒体をさらに提供し、該命令がコンピュータによって実行されて動画復号化することにより、コンピュータに動画復号化方法を実行させる。
以下の詳細な説明および図面に基づいて、開示される主題の更なる特徴、性質、および様々な利点が、より明らかになるであろう。
実施形態による通信システム(100)の簡略化ブロック図である。 実施形態による通信システム(200)の簡略化ブロック図である。 実施形態によるデコーダの簡略化ブロック図である。 実施形態によるエンコーダの簡略化ブロック図である。 別の実施形態によるエンコーダのブロック図を示している。 別の実施形態による別のデコーダのブロック図を示している。 四分木プラス二分木(QTBT)を用いた例示的なブロック区分を示す。 QTBTを用いた例示的なブロック区分による対応木の表現を示す。 垂直な中心側の三叉の木の区分を示す。 水平な中心側の三叉の木の区分を示す。 イントラサブ区分(ISP)符号化モードに基づく輝度イントラ予測ブロックの第1の例示的な区分を示す。 イントラサブ区分(ISP)符号化モードに基づく輝度イントラ予測ブロックの第2の例示的な区分を示す。 例示的なサブブロック変換パターンを示す。 例示的なサブブロック変換パターンを示す。 例示的なサブブロック変換パターンを示す。 例示的なサブブロック変換パターンを示す。 64×32符号化ユニット(CU)から8個の16×16サブ変換ユニット(STU)までの例示的な区分を示す。 複数のSTUに基づく係数ブロックの形成を示す。 本開示の一部の実施形態による処理例の概略的フローチャートを示す。 実施形態に基づくコンピュータシステムの概略図である。
図1は、本開示内容による通信システム(100)の簡略ブロック図を示す。通信システム(100)は、例えばネットワーク(150)を介して互いに通信する複数の端末デバイスを含む。例えば、通信システム(100)は、ネットワーク(150)を介して相互接続された第1対の端末デバイス(110)と(120)を含む。図1に示す例において、第1対の端末デバイス(110)と(120)とは一方向のデータ伝送を実行する。例えば、端末デバイス(110)は、動画データ(例えば、端末デバイス(110)によってキャプチャされた動画ピクチャストリーム)を符号化して、ネットワーク(150)を介して他の端末(120)に伝送してもよい。符号化された動画データは1つ又は複数の符号化された動画ビットストリームで伝送される。端末デバイス(120)は、ネットワーク(150)から符号化された動画データを受信し、符号化されたデータを復号化して、動画ピクチャを復元し、復元された動画データに基づいて、動画ピクチャを表示してもよい。一方向のデータ伝送は、媒体サービスアプリケーションなどでは一般的である。
他の実施形態では、通信システム(100)は、符号化された動画データの双方向伝送を実行する、第2対の端末デバイス(130)と(140)とを含み、当該双方向伝送は、例えば動画会議中に発生する可能性がある。双方向データ伝送については、例において、端末デバイス(130)と端末デバイス(140)のそれぞれは、動画データ(例えば、端末デバイスによってキャプチャされた動画ピクチャストリーム)を符号化して、ネットワーク(150)を介して端末デバイス(130)と端末デバイス(140)のうちの他方の端末デバイスに伝送してもよい。端末デバイス(120)と(140)のそれぞれは、端末デバイス(130)と(140)のうちの他方の端末デバイスによって送信された符号化された動画データをさらに受信し、符号化されたデータを復号化して動画ピクチャを復元し、復元された動画データに基づいて、動画画像をアクセス可能な表示デバイスに表示してもよい。
図1の実施形態では、端末機器(110)、端末機器(120)、末機器(130)、および端末機器(140)は、サーバ、パーソナルコンピュータ及びスマートフォンとして示され得るが、本開示内容の原理はこれに限定されていない。本開示内容の実施形態はラップトップコンピュータ、タブレット、メディアプレイヤー及び/又は専用の動画会議機器に適用される。ネットワーク(150)は端末デバイス(110)、(120)、(130)及び(140)の間で符号化された動画データを伝送する任意の数のネットワークを示し、例えば、有線(結線される)及び/又は無線通信ネットワークを含む。通信ネットワーク(150)は、回線交換及び/又はパケット交換チャネルにおいてデータを交換し得る。代表的なネットワークは通信ネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又はインターネットを含む。この検討を目的として、ネットワーク(150)のアーキテクチャとトポロジーは、以下に本明細書で説明されない限り、本開示内容の操作にとって重要ではない場合がある。
開示された主題の適用例として、図2は、ストリーミング環境における動画エンコーダとデコーダの配置を示し、開示された主題は、例えば、動画会議、デジタルテレビ、CD、DVD、メモリースティックなどを含むデジタルメデイアの圧縮動画の保存を含む動画をサポートする他のアプリケーションに同様に適用され得る。
ストリーミングシステムはキャプチャサブシステム(213)を含んでもよい。当該キャプチャサブシステム(213)は、例えば非圧縮の動画ピクチャストリーム(202)を構築する、例えば、デジタルカメラなどの動画ソース(201)を含んでもよい。例において、動画ピクチャストリーム(202)はデジタルカメラによって撮影されたサンプルを含む。動画ピクチャストリーム(202)は、符号化された動画データ(204)(又は符号化された動画ビットストリーム)と比べて、データ量が多いことを強調するために太い線として描画され、当該動画ピクチャストリームは、動画ソース(201)に結合される動画エンコーダ(203)の電子機器(220)によって処理されてもよい。動画エンコーダ(203)は、以下でより詳細に説明する開示主題の各態様を実現又は実施するために、ハードウェア、ソフトウェア、又はそれらの組み合わせを含んでもよい。符号化された動画データ(204)(符号化された動画ビットストリーム(204))は、動画ピクチャスレリーム(202)と比べて、データ量が少ないことを強調するために細い線として描画され、符号化された動画データは、将来の使用のために、ストリーミングサーバ(205)に記憶され得る。1つ又は複数のストリーミングクライアントサブシステム、例えば、図2におけるクライアントサブシステム(206)と(208)は、ストリーミングサーバ(205)にアクセスして、符号化された動画データ(204)のレプリカ(207)と(209)を検索し得る。クライアントサブシステム(206)は、例えば、電子機器(230)における動画デコーダ(210)を含んでもよい。動画デコーダ(210)は、符号化された動画データの着信レプリカ(207)を復号化し、ディスプレイ(212)(例えば、スクリーン)又は他のレンダリングデバイス(図示せず)でレンダリングできる発信動画ピクチャストリーム(211)を作成する。一部のストリーミングシステムにおいて、動画符号化/圧縮規格に基づいて、符号化された動画ビットストリーム(204)、(207)、(209)(例えば、動画ビットストリーム)を符号化してもよい。これらの規格の実施形態は、ITU-T H.265提案書を含む。実施形態において、開発中の動画符号化規格は非公式に多用途動画符号化又はVVCと呼ばれる。開示された主題は、VVC規格における環境に使用可能である。
なお、電子機器(220)と(230)は、他の構成要素(図示せず)を含んでもよい。例えば、電子機器(220)は動画デコーダ(図示せず)を含んでもよく、電子機器(230)は動画エンコーダ(図示せず)を含んでもよい。
図3は、本開示内容の実施形態による動画デコーダ(310)のブロック図を示す。動画デコーダ(310)は電子機器(330)に含まれてもよい。電子機器(330)は受信器(331)(例えば、受信回路)を含んでもよい。動画デコーダ(310)は図2に示す実施形態における動画デコーダ(210)の代わりに使用されてもよい。
受信機(331)は、動画デコーダ(310)によって復号化される1つ又は複数の符号化された動画シーケンスを受信してもよく、同一実施形態又は別の実施形態において、1回に1つの符号化された動画シーケンスを受信し、各符号化された動画シーケンスの復号化は他の符号化された動画シーケンスから独立している。チャネル(301)から符号化された動画シーケンスを受信してもよい。当該チャネル(301)は、符号化された動画データを記憶する記憶装置へのハードウェア/ソフトウェアリンクであってもよい。受信機(331)は、符号化された動画データ、及び、例えば、符号化されたオーディオデータ及び/又は補助データストリームなどの他のデータを受信することができる。前記他のデータは、それぞれの使用エンティティ(図示せず)に転送され得る。受信機(331)は、符号化された動画シーケンスを他のデータから分離することができる。ネットワークジッタを防止するために、受信機(331)とエントロピーデコーダ/パーサ(320)(以降、「パーサ」と呼ばれる)との間にバッファメモリ(315)を結合し得る。いくつかの応用において、バッファメモリ(315)は動画デコーダ(310)の一部である。他の応用において、バッファメモリ(315)は動画デコーダ(310)(図示せず)の外部にあってもよい。他の応用において、動画デコーダ(310)の外部には、ネットワークジッタを防止するためにバッファメモリ(図示せず)があってもよく、さらに例えば動画デコーダ(310)の内部に、再生タイミングを処理するために、別のバッファメモリ(315)があり得る。受信機(331)が十分な帯域幅と制御可能性を有する記憶/転送デバイス、又は等同期ネットワークからデータを受信する場合に、バッファメモリ(315)は必要とされないか、又は小サイズであればよいと言った可能性がある。ベストパケットネットワーク、例えばインターネットで使用するために、バッファメモリ(315)が必要である場合があり、当該バッファメモリ(315)は相対的に大きく、自己適応サイズを有利に有してもよい。そして、少なくとも部分的にオペレーティングシステム又は動画デコーダ(310)の外部における類似している構成要素(図示せず)で実現されてもよい。
動画デコーダ(310)は、符号化された動画シーケンスに応じてシンボル(321)を再構築するパーサ(320)を含み得る。これらのシンボルのカテゴリには、動画デコーダ(310)の操作を管理するための情報と、レンダリングデバイス(312)(例えば表示スクリーン)のようなレンダリングデバイスを制御するための情報とを含んでもよく、当該レンダリングデバイスは、図3に示すように、電子機器(330)の構成部分ではなく、電子機器(330)に結合され得る。レンダリングデバイスに使用される制御情報は、補助拡張情報(SEIメッセージ)又は動画ユーザビリティ情報(VUI)パラメータセットフラグメント(図示せず)形式であってもよい。パーサ(320)は、受信された符号化された動画シーケンスに対して解析/エントロピー復号化を行ってもよい。符号化された動画シーケンスの符号化は、動画符号化技術又は規格に従って行われ、且つ、可変長符号化、エルフマン符号化(Huffman coding)、文脈依存の有無に関わる算術符号化などを含む様々な原理に従って行われてよい。パーサ(320)は、グループに対応する少なくとも1つのパラメーターに基づいて、符号化された動画シーケンスから、動画デコーダにおける画素のサブグループのうちの少なくとも1つに対するサブグループパラメータセットを抽出してもよい。サブグループは、ピクチャのグループ(GOP)、ピクチャ、タイル、スライス(slice)、マクロブロック、符号化ユニット(CU)、ブロック、変換ユニット(TU)、予測ユニット(PU)などを含んでもよい。パーサ(320)は、また、符号化された動画シーケンスから、例えば、変換係数、量子化器パラメーター値、動きベクトルなどの情報を抽出してもよい。
パーサ(320)は、バッファメモリ(315)から受信した動画シーケンスに対しエントロピー復号化/解析操作を実行し、シンボル(321)を作成することができる。
シンボル(321)の再構築は、符号化された動画ピクチャ又は他の部分のタイプ(例えば、インターピクチャとイントラピクチャ、インターブロックとイントラブロック)及び他の要因に応じて、複数の異なるユニットに関し得る。どのユニットが関与し、どのように制御するかについて、パーサ(320)により符号化された動画シーケンスから解析したサブグループ制御情報によって制御されてもよい。簡潔のために、パーサ(320)と以下の複数のユニットとの間におけるサブグループ制御情報の流れについて説明しない。
既に言及された機能ブロックに加えて、動画デコーダ(310)は概念的には、以下に説明する複数の機能ユニットに細分化することができる。商業的な制約の下で運行する実際の実現形態では、これらのユニットの多くは互いに密接に相互作用し、少なくとも部分的に互いに統合することができる。しかしながら、開示された主題を説明する目的のために、概念的には、以下の機能ユニットに細分化されることは適切である。
第1のユニットは、スケーラ/逆変換ユニット(351)である。スケーラ/逆変換ユニット(351)は、パーサ(320)から1つ又は複数のシンボル(321)である量子化変換係数及び制御情報を受信し、使用する変換方法、ブロックサイズ、量子化係数、量子化スケーリングマトリックスなどを含む。スケーラ/逆変換ユニット(351)は、サンプル値を含むブロックを出力することができ、前記サンプル値はアグリゲータ(455)に入力され得る。
いくつかの場合に、スケーラ/逆変換ユニット(351)の出力サンプルは、イントラ符号化ブロック、即ち、事前に再構築されたピクチャからの予測情報を使用しないが、現在のピクチャの事前に再構築された部分からの予測情報を使用し得るブロックに属してもよい。このような予測情報は、イントラピクチャ予測ユニット(352)によって提供され得る。いくつかの場合に、イントラピクチャ予測ユニット(352)は現在のピクチャバッファ(358)から抽出された、周囲が既に再構築された情報を使用して、再構築しているブロックと同じサイズ及び形状のブロックを生成する。現在のピクチャバッファ(358)は、例えば、部分的に再構築された現在のピクチャ及び/又は完全に再構築された現在のピクチャをバッファリングする。いくつかの場合に、アグリゲータ(355)は各サンプルに基づいて、イントラ予測ユニット(352)によって生成される予測情報を、スケーラ/逆変換ユニット(351)から提供される出力サンプル情報に追加する。
他の場合に、スケーラ/逆変換ユニット(351)の出力サンプルはインター符号化され且つ潜在動き補償であり得るブロックに属してもよい。このような場合に、動き補償予測ユニット(353)は、参照ピクチャメモリ(357)にアクセスして、予測のためのサンプルを取得してもよい。当該ブロックに属するシンボル(321)に応じて、取得されたサンプルに対して動き補償を行った後に、これらのサンプルは、アグリゲータ(355)によってスケーラ/逆変換ユニット(351)の出力(この場合に、残差サンプル又は残差信号と呼ばれる)に追加されることで、出力サンプル情報を生成することができる。動き補償ユニット(353)がサンプルを取得する参照ピクチャメモリ(357)におけるアドレスは、動きベクトルによって制御されてもよく、前記動きベクトルは、シンボル(321)の形式で動き補償ユニット(353)に使用され得、前記シンボル(321)は、例えば、X、Y、及び参照ピクチャ成分を有してもよい。動き補償には、サブサンプルの正確な動きベクトルが使用されている際に参照ピクチャメモリ(357)から取得されたサンプル値の補間、動きベクトル予測メカニズムなどを含んでもよい。
アグリゲータ(355)の出力サンプルは、ループフィルタユニット(356)において種々のループフィルタ技術によって処理され得る。動画圧縮技術は、ループ内フィルタ技術を含んでもよく、当該ループ内フィルタ技術は、符号化された動画シーケンス(符号化された動画ビットストリームとも呼ばれる)に含まれ且つパーサ(420)からのシンボル(321)としてループフィルタユニット(356)に使用可能なパラメータによって制御されるが、符号化されたピクチャ又は符号化された動画シーケンスの(復号化順序で)前の部分を復号化している間に得られたメタ情報や事前に再構築されてループフィルタリング処理されたサンプル値に応答してもよい。
ループフィルタユニット(356)の出力は、サンプルストリームであってもよく、将来のインターピクチャ予測に使用されるために、レンダリングデバイス(312)に出力されて参照ピクチャメモリ(357)に記憶され得る。
特定の符号化されたピクチャは、完全に再構築されると、参照ピクチャとして将来の予測に使用され得る。例えば、現在のピクチャに対応する符号化されたピクチャは完全に再構築され、且つ符号化されたピクチャが、例えばパーサ(420)によって、参照ピクチャとして識別されると、現在のピクチャバッファ(358)が参照ピクチャメモリ(357)の一部になり得、そして、その後の符号化されたピクチャの再構築を開始する前に、新しい現在のピクチャバッファを新たに配分してもよい。
動画デコーダ(310)は、例えばITU-T H.265提案書における所定のビデ圧縮技術のような規格に応じて復号化操作を実行してもよい。符号化された動画シーケンスが動画圧縮技術又は規格の構文及び動画圧縮技術又は規格に記録されているプロファイルに準拠する意味で、符号化された動画シーケンスは、使用されるビデ圧縮技術又は規格で指定される構文に準拠することができる。具体的に、プロファイルは、ビデ圧縮技術又は規格で利用可能な全てのツールから、幾つかのツールをプロファイルのみで使用され得るツールとして選択してもよい。コンプライアンスについて、符号化された動画シーケンスの複雑さがビデ圧縮技術又は規格のレベルで限定される範囲内にあることも要求される。いくつかの場合に、レベルは、最大ピクチャのサイズ、最大フレームレート、最大再構築サンプルレート(例えば1秒あたりのメガサンプルを単位として測定する)、最大参照ピクチャサイズなどを制限する。いくつかの場合に、レベルによって設定される制限は、仮想参照デコーダ(HRD)の仕様及び符号化された動画シーケンスにおけるシグナリングされるHRDバッファの管理するメタデータによってさらに制限されてもよい。
実施形態において、受信機(331)は、符号化された動画とともに、追加の(冗長な)データを受信してもよい。追加のデータは1つまたは複数の符号化された動画シーケンスの一部として含まれてもよい。動画デコーダ(310)は、追加のデータを使用してデータを正確に復号化し、及び/又は元の動画データをより正確に再構築してもよい。追加のデータは、時間、空間、または信号対雑音比(SNR)拡張層、冗長スライス、冗長ピクチャ、誤り訂正符号などの形式であってもよい。
図4は、本開示の実施形態による動画エンコーダ(403)のブロック図を示す。動画エンコーダ(403)は、電子機器(420)に含まれる。電子機器(420)は送信機(440)(例えば、送信回路システム)を有する。動画エンコーダ(403)は、図2の実施形態における動画エンコーダ(203)の代わりに使用されてもよい。
動画エンコーダ(403)は、動画ソース(401)(図4に示す例における電子機器(420)の一部ではない)から動画サンプルを受信してもよく、当該動画ソース(401)は、動画エンコーダ(403)によって符号化されようとする1つまたは複数の動画画像をキャプチャすることができる。別の実施形態では、動画ソース(401)は、電子機器(420)の一部である。
動画ソース(401)は、動画エンコーダ(403)によって符号化されようとするデジタル動画サンプルストリーム形式であるソース動画シーケンスを提供してもよく、当該デジタル動画サンプルストリームは、任意の適切なビット深さ(例えば、8ビット、10ビット、12ビット…)、任意の色空間(例えば、BT.601YCrCB、RGB…)及び任意の適切なサンプリング構成(例えば、YCrCb 4:2:0、YCrCb 4:4:4)を有してもよい。メディアサービスシステムでは、動画ソース(401)は、先に準備された動画を記憶する記憶装置であってもよい。動画会議システムでは、動画ソース(401)は、ローカル画像情報を動画シーケンスとしてキャプチャするカメラであってもよい。動画データは、順番に見る際に動きが付与される複数の個別のピクチャとして提供されてもよい。ピクチャ自体は空間画素アレイとして編成されてもよく、使用されているサンプリング構成、色空間などに応じて、各画素は、1つ又は複数のサンプルを含んでもよい。当業者は、画素とサンプルとの間の関係を容易に理解することができる。以下の説明では、サンプルを中心に説明する。
実施形態では、動画エンコーダ(403)は、リアルタイム又は要求される他の任意の時間制約の下で、ソース動画シーケンスのピクチャを、符号化された動画シーケンス(443)に符号化して圧縮してもよい。適切な符号化速度で実行することはコントローラ(450)の機能の1つである。いくつかの実施形態において、コントローラ(450)は、以下で説明する他の機能ユニットを制御し、これらのユニットに機能的に結合される。簡潔のために、結合は図示されていない。コントローラ(450)によって設置されるパラメータは、レート制御関連パラメータ(ピクチャスキップ、量子化器、レート歪み最適化技術のλ値…)、ピクチャサイズ、ピクチャグループ(GOP)レイアウト、最大動きベクトル検索範囲などを含んでもよい。コントローラ(450)は、特定のシステム設計に対して最適化された動画エンコーダ(503)に属する他の適切な機能を有するように配置されてもよい。
幾つかの実施形態において、動画エンコーダ(403)は、符号化ループ内で動作するように構成される。非常に簡略化した説明として、例において、符号化ループは、ソースエンコーダ(430)(例えば、符号化しようとする入力ピクチャおよび1つまたは複数の参照ピクチャに基づいてシンボルストリームのようなシンボルを生成することを担当する)と、動画エンコーダ(403)に組み込まれた(ローカル)デコーダ(433)とを含んでもよい。デコーダ(433)は、(リモート)デコーダがサンプルデータを作成する方法と同様にサンプルを作成するために、シンボルを再構築する(シンボルと符号化された動画ビットストリームとの間の圧縮は開示された主題で考慮される動画圧縮技術では無損失であるため)。再構築されたサンプルストリーム(サンプルデータ)を参照ピクチャメモリ(434)に入力する。シンボルストリームの復号化によって、デコーダの位置(ローカル又はリモート)に関係がないビットが正確である結果が得られるため、参照ピクチャメモリ(434)のコンテンツもローカルエンコーダとリモートエンコーダとの間でビットが正確である。つまり、エンコーダの予測部分は、デコーダが復号化中に予測を使用するときに「見た」のとまったく同じサンプル値を参照ピクチャサンプルとして見なす。このような参照ピクチャの同期性の基本原理(及び、たとえばチャネルエラーのために同期性を維持できない場合は結果として生じるドリフト)は、一部の関連技術でも使用される。
「ローカル」デコーダ(433)の動作は、「リモート」デコーダ、例えば動画デコーダ(310)の動作と同じであってもよく、以上で図3を参照しながら詳細に説明した。しかしながら、さらに、簡単に図3を参照し、シンボルは、利用可能であり、且つ、エントロピーエンコーダ(445)及びパーサ(320)はシンボルを、符号化された動画シーケンスに無損失で符号化/復号化できる場合に、バッファメモリ(315)及びパーサ(320)を含める動画デコーダ(310)のエントロピー復号化部分は、ローカルデコーダ(433)で完全に実現されない場合がある。
この場合、デコーダに存在する解析/エントロピー復号化以外の任意のデコーダ技術も、必然的に基本的に同じ機能形式で対応するエンコーダに存在することが観察されることができる。そのため、開示された主題は、デコーダの動作に着目する。エンコーダ技術は包括的に説明されたデコーダ技術の逆であるため、エンコーダ技術の説明を簡略化することができる。より詳しい説明は、特定の領域のみで必要であり、以下で提供される。
動作中に、いくつかの例において、ソースエンコーダ(430)は、動き補償の予測的符号化を実行してもよく、該動き補償予測符号化は、動画シーケンスの中で「参照ピクチャ」として指定された1つまたは複数の以前に符号化されたピクチャを参照することで、入力ピクチャを予測的符号化する。このようにして、符号化エンジン(432)は、入力ピクチャの画素ブロックと、参照ピクチャの画素ブロックとの間の差異を符号化してもよく、当該参照ピクチャは、入力ピクチャへの予測参照として選択され得る。
ローカルデコーダ(433)は、ソースエンコーダ(430)によって生成されたシンボルに基づいて、参照ピクチャとして指定可能なピクチャの符号化された動画データを復号化してもよい。符号化エンジン(432)の動作は、有利には非可逆プロセスであり得る。符号化された動画データが動画デコーダ(図4に図示せず)で復号化され得る場合に、再構築された動画シーケンスは、通常、多少の誤差を伴うソース動画シーケンスのレプリカであり得る。ローカルデコーダ(433)は、参照ピクチャに対して動画デコーダによって実行され得る復号化処理をコピーし、再構築された参照ピクチャを参照ピクチャバッファ(434)に記憶してもよい。このようにして、動画エンコーダ(403)は、再構築された参照ピクチャの共通の内容を有するレプリカを、リモート動画デコーダによって得られる再構築された参照ピクチャとしてローカルに記憶することができる(伝送誤差がない)。
予測器(435)は、符号化エンジン(432)に対して予測検索を実行することができる。つまり、符号化されようとする新しいピクチャについて、予測器(435)は、参照ピクチャメモリ(434)において、新しいピクチャの適切な予測参照として使用され得るサンプルデータ(候補参照画素ブロックとする)又は、例えば、参照ピクチャの動きベクトル、ブロック形状などの特定のメタデータを検索してもよい。予測器(435)は、適切な予測参照が見つけられるように、サンプルブロックに基づいて、画素ブロックごとに動作することができる。いくつかの場合に、例えば、予測器(435)によって得られた検索結果によって決定されるように、入力ピクチャは、参照ピクチャメモリ(434)に記憶された複数の参照ピクチャから抽出された予測参照を有してもよい。
コントローラ(450)は、例えば、動画データを符号化するためのパラメータとサブグループパラメータの設置を含むソースエンコーダ(430)の符号化動作を管理することができる。
上記の全ての機能ユニットの出力は、エントロピーエンコーダ(445)においてエントロピー符号化されてもよい。エントロピーエンコーダ(445)は、例えばハフマン符号化、可変長符号化、算術符号化などの当業者に知られている技術に基づいて、各機能ユニットによって生成されたシンボルに対して可逆圧縮を行うことによって、シンボルを、符号化された動画シーケンスに変換する。
送信機(440)は、通信チャネル(460)を介した伝送の準備をするように、エントロピーエンコーダ(445)によって作成された1つ又は複数の符号化された動画シーケンスをバッファリングしてもよく、通信チャネル(460)は、符号化された動画データを記憶する記憶装置へのハードウェア/ソフトウェアリンクであってもよい。送信機(440)は、動画エンコーダ(503)からの符号化された動画データを、伝送しようとする他のデータ、例えば、符号化されたオーディオデータ及び/又は補助データストリーム(ソースは図示せず)とともにマージしてもよい。
コントローラ(450)は、動画エンコーダ(403)の動作を管理することができる。コントローラ(450)は、符号化中に、各符号化されたピクチャに、対応するピクチャに適用され得る符号化技術に影響する可能性がある特定の符号化されたピクチャタイプを指定することができる。例えば、通常、ピクチャを、以下のピクチャタイプのいずれかとして割り当てられ得る。
イントラピクチャ(Iピクチャ)は、シーケンスにおける他のピクチャを予測ソースとして使用せずに符号化および復号化できるピクチャであってもよい。一部の動画コーデックは、例えば、独立デコーダリフレッシュ(「IDR」)ピクチャを含む異なるタイプのイントラピクチャを許容する。当業者は、Iピクチャのそれらの変形及び対応する適用と特徴を知っている。
予測ピクチャ(Pピクチャ)は、イントラ予測またはインター予測を使用して符号化および復号化を行うピクチャであってもよく、前記イントラ予測またはインター予測は、多くとも1つの動きベクトル及び参照インデックスを使用して各ブロックのサンプル値を予測する。
双方向予測ピクチャ(Bピクチャ)は、イントラ予測またはインター予測を使用して符号化および復号化を行うピクチャであってもよく、前記イントラ予測またはインター予測は、多くとも2つの動きベクトルと参照インデックスを使用して各ブロックのサンプル値を予測する。同様に、複数の予測ピクチャは、2つを超える参照ピクチャと関連するメタデータを使用して単一のブロックを再構築することができる。
ソースピクチャは、一般的に、空間的に複数のサンプルブロックに細分化され(例えば、それぞれ4×4、8×8、4×8又は16×16のサンプルブロックである)、ブロックごとに符号化されてもよい。ブロックは、ブロックに適用される相応するピクチャの符号化割り当てによって決定される他の(すでに符号化された)ブロックを参照して予測的に符号化されることができる。例えば、Iピクチャのブロックについて、非予測的に符号化してもよく、又は、同じピクチャの符号化されたブロックを参照して予測的に符号化してもよい(空間的予測又はイントラ予測)。Pピクチャの画素ブロックは、1つの以前に符号化された参照ピクチャを参照して空間的予測又は時間的予測を介して予測的に符号化されてもよい。Bピクチャのブロックは、1つ又は2つの以前に符号化された参照ピクチャを参照して空間的予測又は時間的予測を介して非予測的に符号化されてもよい。
動画エンコーダ(403)は、ITU-T H.265提案書などの所定の動画符号化技術や規格に基づいて、符号化操作を行うことができる。動画エンコーダ(403)は、その動作中に、入力動画シーケンスにおける時間的及び空間的冗長性を利用した予測符号化動作を含む様々な圧縮動作を実行することができる。従って、符号化された動画データは、使用されている動画符号化技術又は規格によって指定された構文に準拠し得る。
実施形態では、送信機(440)は、符号化された動画とともに、追加のデータを送信してもよい。ソースエンコーダ(430)は、このようなデータを、符号化された動画シーケンスの一部として含んでもよい。追加のデータは、時間的/空間的/SNR拡張層、冗長ピクチャ、スライスなどの他の形式の冗長データ、SEIメッセージ、VUIパラメータセットフラグメントなどを含んでもよい。
動画は、時系列で複数のソースピクチャ(動画ピクチャ)としてキャプチャされてもよい。イントラピクチャ予測(通常、イントラ予測と簡略化される)は、所定のピクチャにおける空間的関連性を利用し、インターピクチャ予測はピクチャ間の(時間的又は他の)関連性を利用する。例おいて、符号化/復号化中の現在のピクチャと呼ばれる特定のピクチャはブロックに分割される。現在のピクチャにおけるブロックは、動画における、以前に符号化されまだバッファリングされている参照ピクチャにおける参照ブロックと類似している場合に、動きベクトルと呼ばれるベクトルによって現在のピクチャにおけるブロックを符号化してもよい。動きベクトルは参照ピクチャにおける参照ブロックを指し、また、複数の参照ピクチャを使用する場合に、動きベクトルは、参照ピクチャを認識する第3の次元を有してもよい。
幾つかの実施形態において、双方向予測技術は、インターピクチャ予測に使用されてもよい。双方向予測技術によれば、例えば、動画における現在のピクチャよりも復号化順序で先行する(ただし、それぞれ表示順序で過去及び将来にあり得る)第1の参照ピクチャ及び第2の参照ピクチャである2つの参照ピクチャを使用する。第1の参照ピクチャにおける第1の参照ブロックを指す第1の動きベクトル、第2の参照ピクチャにおける第2の参照ブロックを指す第2の動きベクトルによって、現在のピクチャにおけるブロックを符号化してもよい。第1の参照ブロックと第2の参照ブロックとの組み合わせによって当該ブロックを予測してもよい。
また、マージモード技術は、符号化の効率を向上させるために、インターピクチャ予測に使用することができる。
本開示内容の幾つかの実施形態によれば、例えばインターピクチャ予測及びイントラピクチャ予測のような予測はブロックごとに実行される。例えば、HEVC規格に応じて、動画ピクチャシーケンスにおけるピクチャは、圧縮のための符号化ツリーユニット(CTU)に分割され、ピクチャにおけるCTUは、例えば、64×64画素、32×32画素又は16×16画素などの同じサイズを持っている。一般に、CTUは、3つの符号化ツリーブロック(CTB)、即ち、1つの輝度CTBと2つの色度CTBを含む。各CTUは、1つ又は複数の符号化ユニット(CU)に再帰的に四分木で分割されてもよい。例えば、64×64画素のCTUを1つの64×64画素のCU、又は、4つの32×32画素のCU、又は16個の16×16画素のCUに分割してもよい。例において、各CUを分析して、当該CUに使用される予測タイプ、例えば、インター予測タイプ又はイントラ予測タイプを決定する。時間的及び/又は空間的予測可能性に依存し、CUは1つ又は複数の予測ユニット(PU)に分割される。通常、各PUは輝度予測ブロック(PB)及び2つの色度PBを含む。実施形態において、符号化(符号化/復号化)中の予測動作は予測ブロックごとに実行される。輝度予測ブロックを予測ブロックとして使用する例において、予測ブロックは画素値(例えば、輝度値)の行列、例えば、8×8画素、16×16画素、8×16画素、16×8画素などを含む。
図5は、本開示の別の実施形態による動画エンコーダ(503)を説明する図を示す。動画エンコーダ(503)は、動画ピクチャシーケンスにおける現在の動画ピクチャのサンプル値の処理ブロック(例えば、予測ブロック)を受信し、該処理ブロックを符号化された動画シーケンスの一部である符号化されたピクチャに符号化するように構成されている。例において、動画エンコーダ(503)は、図2に示す例における動画エンコーダ(203)の代わりに使用される。
HEVCの例では、動画エンコーダ(503)は、例えば8×8サンプルの予測ブロックなどである処理ブロックに使用されるサンプル値の行列を受信する。動画エンコーダ(503)は、例えばレート歪み(rate-distortion、RD)最適化を使用して、イントラモード、インターモードまたは双方向予測モードを使用して処理ブロックを最適に符号化するかどうかを特定する。イントラモードで処理ブロックを符号化する場合、動画エンコーダ(503)は、イントラ予測技術を使用して、処理ブロックを、符号化されたピクチャに符号化してもよく、インターモード又は双方向予測モードで処理ブロックを符号化する場合に、動画エンコーダ(503)は、インター予測または双方向予測技術をそれぞれ用いて、処理ブロックを符号化されたピクチャに符号化してもよい。いくつかの動画符号化技術では、マージモードはインターピクチャ予測サブモードであってもよく、なお、予測器の外部の符号化された動きベクトル成分を使用せずに、1つ又は複数の動きベクトル予測器から動きベクトルを取得する。いくつかの他の動画符号化技術では、主題ブロックに適用される動きベクトル成分が存在し得る。例において、動画エンコーダ(503)は、処理ブロックのモードを特定するためのモード特定モジュール(図示せず)などの他のコンポーネントを含む。
図5の例においては、動画エンコーダ(503)は、図5に示されるように、一体に結合されたインターエンコーダ(530)、イントラエンコーダ(522)、残差計算機(523)、スイッチ(526)、残差エンコーダ(24)、汎用コントローラ(521)、およびエントロピーエンコーダ(525)を含んでいる。
インターエンコーダ(530)は、現在のブロック(例えば、処理ブロック)のサンプルを受信し、当該ブロックと参照ピクチャにおける1つまたは複数の参照ブロック(例えば、前のピクチャと後のピクチャにおけるブロック)とを比較し、インター予測情報(例えば、インター符号化技術の冗長な情報の説明、動きベクトル、マージモード情報)を生成し、インター予測情報に基づいて、任意の適切な技術を用いてインター予測結果(例えば、予測ブロック)を算出するように構成されている。幾つかの例では、参照ピクチャは符号化された動画情報に基づいて復号化された復号化済み参照ピクチャである。
イントラエンコーダ(522)は、現在のブロック(例えば、処理ブロック)のサンプルを受信し、いくつかの場合、当該ブロックと、同一ピクチャにおける符号化されたブロックとを比較し、変換された量子化係数を生成し、いくつかの場合、(例えば、1つまたは複数のイントラ符号化技術に基づくイントラ予測方向情報に基づいて)イントラ予測情報を生成するように構成されている。例において、イントラエンコーダ(522)は、さらにイントラ予測情報と同一のピクチャにおける参照ブロックとに基づいてイントラ予測結果(例えば予測ブロック)を算出する。
汎用コントローラ(521)は、汎用制御データを特定し、汎用制御データに基づいて動画エンコーダ(503)の他の構成要素を制御するように構成されている。例において、汎用コントローラ(521)は、ブロックモードを特定し、当該モードに基づいて制御信号をスイッチ(526)に供給する。例えば、当該モードがイントラモードである場合に、汎用コントローラ(521)は、残差計算器(523)に使用されるイントラモード結果を選択するようにスイッチ(526)を制御するとともに、イントラ予測情報を選択してイントラ予測情報をビットストリームに含めるようにエントロピーエンコーダ(525)を制御し、当該モードがインターモードである場合に、汎用コントローラ(521)は、残差計算器(523)に使用されるインター予測結果を選択するようにスイッチ(526)を制御するとともに、インター予測情報を選択してインター予測情報をビットストリームに含めるようにエントロピーエンコーダ(525)を制御する。
残差計算器(523)は、受信したブロックと、イントラエンコーダ(522)またはインターエンコーダ(530)から選択した予測結果との間の差(残差データ)を算出するように構成されている。残差エンコーダ(524)は、残差データに基づいて、残差データを符号化して変換係数を生成するように構成されている。例において、残差エンコーダ(524)は、残差データを時間領域から周波数領域に変換し、変換係数を生成するように構成されている。次に、変換係数は、量子化処理にされて、量子化された変換係数を求める。各実施形態において、動画エンコーダ(503)は、残差デコーダ(528)をさらに含む。残差デコーダ(528)は、逆変換を実行し、復号化された残差データを生成するように構成されている。復号化された残差データは、適宜にイントラエンコーダ(522)及びインターエンコーダ(530)によって使用されうる。例えば、インターエンコーダ(530)は、復号化された残差データおよびインター予測情報に基づいて、復号化されたブロックを生成してもよく、イントラエンコーダ(522)は、復号化された残差データおよびイントラ予測情報に基づいて、復号化されたブロックを生成してもよい。復号化されたピクチャを生成するように復号化ブロックを適切に処理し、幾つかの実施形態において、復号化されたピクチャは、メモリ回路(図示せず)にバッファリングされ、参照ピクチャとして使用される。
エントロピーエンコーダ(525)は、符号化されたブロックを含むようにビットストリームをフォーマットするように構成されている。エントロピーエンコーダ(525)は、HEVC規格のような適切な規格に従う様々な情報を含むように構成されている。例において、エントロピーエンコーダ(525)は、汎用制御データ、選択された予測情報(例えば、イントラ予測情報またはインター予測情報)、残差情報および他の適切な情報をビットストリームに含めるように構成されている。開示された主題によれば、インターモード又は双方向予測モードのマージサブモードでブロックを符号化する場合に残差情報がないことに留意されたい。
図6は、本開示の他の実施形態に応じて動画デコーダ(610)の図を示す。動画デコーダ(610)は、符号化された動画シーケンスの一部である符号化ピクチャを受信し、符号化されたピクチャを復号化して、再構築されたピクチャを生成するように構成されている。例において、動画デコーダ(610)は、図2に示す例における動画デコーダ(210)の代わりに使用される。
図6に示す例において、動画デコーダ(610)は、図6に示されたように、一体に結合されたエントロピーデコーダ(671)、インターデコーダ(680)、残差デコーダ(673)、再構築モジュール(674)、およびイントラエンコーダ(672)を含む。
エントロピーデコーダ(671)は、符号化されたピクチャに基づいて、特定のシンボルを再構築するように配置されてもよく、これらのシンボルは、符号化されたピクチャを構成する構文要素を表す。そのようなシンボルは、例えば、ブロックを符号化するためのモード(例えば、イントラモード、インターモード、双方向予測モード、インターモードと双方向予測モードとのマージサブモード又は別のサブモード)、イントラエンコーダ(672)またはインターエンコーダ(680)の予測に使用される特定のサンプル又はメタデータとして認識され得る予測情報(例えば、イントラ予測情報又はインター予測情報)、例えば量子化変換係数の形である残差情報などを含んでもよい。例において、予測モードがインターまたは双方向予測モードである場合に、インター予測情報をインターデコーダ(680)に提供し、予測類型がイントラ予測モードである場合に、イントラ予測情報をイントラエンコーダ(672)に提供する。残差情報は逆量子化されて残差デコーダ(673)に提供されてもよい。
インターエンコーダ(680)は、インター予測情報を受信し、インター予測情報に基づいてインター予測結果を生成するように構成されている。
イントラデコーダ(672)は、イントラ予測情報を受信し、イントラ予測情報に基づいて予測結果を生成するように構成されている。
残差デコーダ(673)は、逆量子化を実行して非量子化された変換係数を抽出し、非量子化された変換係数を処理して残差を周波数領域から空間領域に変換するように構成される。残差デコーダ(673)は、特定の制御情報(量子化器パラメータ(Quantizer Parameter、QP)を含む)も必要とする場合があり、前記情報はエントロピーデコーダ(671)から提供されてもよい(少量の制御情報に過ぎないため、データパスが図示されていない)。
再構築モジュール(674)は、空間領域において、残差デコーダ(673)から出力された残差と予測結果(場合によってインター予測モジュールまたはイントラ予測モジュールによって出力れる)を組み合わせて、再構築されたブロックを形成するように構成され、再構築されたブロックは再構築されたピクチャの一部であってもよく、再構築されたピクチャは、再構築された動画の一部であってもよい。視覚的品質を改善するために、デブロッキング操作などの他の適切な操作を実行できることに留意されたい。
任意の適切な技術を使用して動画エンコーダ(203)、動画エンコーダ(403)、動画エンコーダ(503)、および動画デコーダ(210)、動画デコーダ(310)、動画デコーダ(610)を実現し得ることに留意されたい。実施例において、1つ又は複数の集積回路を使用して、動画エンコーダ(203)、動画エンコーダ(403)、動画エンコーダ(503)、および動画デコーダ(210)、動画デコーダ(310)、動画デコーダ(610)を実現してもよい。他の実施形態において、ソフトウェア命令を実行する1つまたは複数のプロセッサを使用して動画エンコーダ(203)、動画エンコーダ(403)、動画エンコーダ(403)、および動画デコーダ(210)、動画デコーダ(310)、動画デコーダ(610)を実現してもよい。
本開示の実施形態は、HEVC(高効率動画符号化)以外の次世代動画符号化技術、例えば多用途動画符号化(VVC)を提供する。より具体的には、サブ変換ユニットで適用されるDC値を予測するための案を開示する。
ITU-T VCEG(Q6/16)とISO/IEC MPEG(JTC 1/SC 29/WG 11)は、2013(バージョン1)、2014(バージョン2)、2015(バージョン3)、2016(バージョン4)でH.265/HEVC(高効率動画符号化)を公開した。その後、ITUとISO/IECはHEVC規格(その拡張を含む)の圧縮能力を著しく超える将来の動画符号化技術の規格化に対する潜在的なニーズを検討してきた。2017年10月に、ITUとISO/IECはHEVCを超えた能力を持つ動画圧縮に関する共同提案書(Call for Proposal、CfP)を発表した。2018年2月15日に、規格ダイナミックレンジ(SDR)に関する合計22のCfP応答、ハイダイナミックレンジ(high dynamic range、HDR)に関する12のCfP応答、および360の動画カテゴリに関する12のCfP応答がそれぞれ提出された。2018年4月に、122 MPEG/10回目のJVET(連合動画検索グループ-連合動画専門家グループ)会議で、受信したすべてのCfP応答を評価した。慎重な検討により、JVETはHEVC以外の次世代動画符号化の規格化、いわゆる多用途動画符号化(VVC)を正式に開始した。
HEVCでは、符号化ツリーユニット(coding tree unit、CTU)は、四分木構造を用いることにより複数の符号化ユニット(CU)に区分され、該四分木構造は、様々な局所的特性に適した符号化ツリーとして示される。CUレベルでは、ピクチャ領域を符号化するためにインターピクチャ(時間)予測を使用するか、それとも、イントラピクチャ(空間)予測を使用するかの方策を決める。各CUは、PU(prediction unit、PU)区分類型に応じて、1つ、2つ、または4つの予測ユニット(PU)に区分してもよい。1つのPU内では、同じ予測処理を利用し、PUに基づいて関連情報をデコーダに送信する。PU区分類型に基づく予測処理を適用して残差ブロックを得た後、CUの符号化ツリーのような他の四分木構造に応じて、CUを変換ユニット(transform unit、TU)に区分してもよい。HEVC構造の重要な特徴の1つは、HEVCがCU、PU、TUを含む複数の区分概念を持つことである。HEVCでは、CUまたはTUは正方形の形状のみであってもよいが、PUはインター予測ブロック用正方形または矩形の形状であってもよい。HEVCでは、1つの符号化ブロックは4つの正方形のサブブロックに区分され、各サブブロック、すなわちTUに対して変換を実行することもできる。各TUは、(四分木を使用して)さらに再帰的に小さなTUに区分することができ、それは残差四分木(Residual Quad-Tree、RQT)と呼ばれる。
ピクチャ境界では、HEVCは、暗黙的な四分木区分を採用して、サイズがクチャ境界に合うまでブロックが四分木区分に維持される。
以上のように、HEVCでは、CTUは、四分木構造を用いることにより複数のCUに区分され、該四分木構造は、様々な局所的特性に適するように符号化ツリーとして示される。CUレベルでは、ピクチャ領域を符号化するためにインターピクチャ(時間)予測を使用するか、それとも、イントラピクチャ(空間)予測を使用するかの方策を決める。各CUは、PU区分類型に応じて、1つ、2つ、または4つのPUに区分してもよい。1つのPU内では、同じ予測処理を利用して、PUに基づいて関連情報をデコーダに送信する。PU区分類型に基づく予測処理を利用して残差ブロックを取得した後、他の四分木構造(例えば、CUの符号化ツリー)に応じて、CUを変換ユニットに区分してもよい。HEVC構造の重要な特徴の1つは、CU、PU、及びTUを含む複数の区分概念を持つことである。
VVCでは、四分木(quad-tree、QT)プラス二分木(binary tree、BT)を用いたブロック区分構造を提案した。QTBT構造は、複数の区分類型の概念を除去したものである。すなわち、QTBT構造がCU、PU、TU概念の分離を除去し、CU区分形状のより柔軟性をサポートする。QTBTブロック構造(またはQTBT構造)では、CUは正方形または矩形の形状を有してもよい。図7Aおよび図7Bに示すように、符号化ツリーユニット(CTU)は、まず、四分木構造によって区分される。四分木リーフノードはさらに二分木構造で区分される。二分木区分には、対称水平区分と対称垂直区分の2種類がある。二分木のリーフノードは、符号化ユニット(CU)と呼ばれ、いずれの区分なしで予測と変換処理に用いる。これは、CU、PU及びTUがQTBT符号化ブロック構造において同じブロックサイズを有することを意味する。実験ソフト共同探査モデル(JEM)では、CUは異なる色成分の符号化ブロック(coding block、CB)から構成される場合があり、例えば、4:2:0のクロマ形式のPスライスとBスライスの場合、1つのCUは1つの輝度CBと2つのクロマCBから構成され、1つの成分のCBから構成される場合もある。例えば、Iスライスの場合、1つのCUは1つの輝度CBのみ、または2つのクロマCBのみを含む。
幾つかの実施形態では、QTBT区分案に対して、以下のパラメータを限定する。(1)CTUサイズとは、四分木のルートノードのサイズであり、その概念はHEVCにおける概念と同じである。(2)MinQTSizeとは、最小許容の四分木リーフノードのサイズである。(3)MaxBTSizeとは、最大許容の二分木のルートノードのサイズである。(4)MaxBTDepthとは、最大許容の二分木の深さである。(5)MinBTSizeとは、最小許容の二分木のリーフノードのサイズである。
QTBT区分構造(またはQTBT構造)の例において、CTUサイズは128×128の輝度サンプルと、対応する64×64ブロックのクロマサンプル2つに設定され、MinQTSizeは16×16に設定され、MaxBTSizeは64×64に設定され、MinBTSize(幅と高さ)は4×4に設定され、MaxBTDepthは4に設定される。四分木区分は、最初にCTUに適用され、複数の四分木リーフノードを生成する。四分木リーフノードは、16×16(すなわち、MinQTSize)から128×128(すなわち、CTUサイズ)までのサイズを有してもよい。リーフの四分木ノードが128×128の場合、サイズがMaxBTSize(すなわち、64×64)を超えるため、リーフの四分木は二分木によってさらに区分されない。そうでなければ、リーフの四分木ノードは二分木でさらに区分してもよい。したがって、四分木リーフノードは二分木のルートノードでもあり、四分木リーフは0の二分木の深さを持つ。二分木の深さがMaxBTDepth(すなわち、4)に達すると、それ以上の区分は考慮されない。二分木のノードの幅がMinBTSize(すなわち、4)と等しい場合、それ以上の水平区分は考慮されない。同様、二分木のノードの高さがMinBTSizeと等しい場合、それ以上の垂直区分は考慮されない。それ以上の区分が不要な場合は、予測と変換処理により二分木のリーフノードをさらに処理する。JEMでは、最大CTUサイズは256×256輝度サンプルであってもよい。
図7Aは、QTBTを使用してブロック区分を行う例を示す。図7Bは、対応するツリー表現を示す。実線は四分木区分を示し、破線は二分木区分を示す。二分木の各区分(すなわち、非リーフ)ノードにおいて、どの区分類型(すなわち、水平または垂直)を使用するかを指示するフラグがシグナリングされており、0は水平区分を示し、1は垂直区分を示す。四分木区分では、常にブロックを水平および垂直に区分して均等サイズの4つのサブブロックを生成しているため、区分類型を支持する必要がない。
また、QTBT案(またはQTBT構造)は、輝度とクロマが個別のQTBT構造を持つ柔軟性をサポートする。現在、PスライスとBスライスに対して、1つのCTUの輝度とクロマCTBが同じQTBT構造を共有する。しかしながら、Iスライスに対して、輝度CTBはQTBT構造でCUに区分され、クロマCTBは他のQTBT構造でクロマCUに区分される。これは、Iスライス中のCUは輝度成分の符号化ブロックまたは2つのクロマ成分の符号化ブロックで構成され、PスライスとBスライス中のCUは3つの色成分すべての符号化ブロックで構成されることを意味する。
HEVCでは、小さいブロックに対するインター予測は、4×8ブロックと8×4ブロックについては双方向予測がサポートされず、4×4ブロックについてはインター予測がサポートされないように、動き補償のメモリアクセスを減らすために制限されている。JEM-7.0で実装されたQTBTでは、これらの制限は削除される。
VCCでは、マルチタイプツリー(Multi-type-tree、MTT)構造をさらに提案する。MTTはQTBTよりも柔軟なツリー構造である。MTTでは、図8Aおよび図8Bに示すように、四分木および二分木の他に、水平および垂直中心側の三分木が導入される。図8Aは、垂直中心側の三分木区分であり、図8Bは、水平中心側の三分木区分である。三分木区分の重要な利点は、(a)三分木区分は、四分木区分と二分木区分の補完であり、三分木区分はブロックの中心にあるオブジェクトをキャプチャすることができるが、四分木と二分木は常にブロックの中心に沿って区分することと、(b)提案した三分木の区分の幅と高さは常に2のべき乗であるため、付加変換は不要であることと、2点にある。二次木の設計は主に複雑さを低減することによって実現される。理論的には、ツリーをトラバースする複雑度はTDであり、ここで、Tは区分類型の数を表し、Dはツリーの深さである。
HEVCでは、一次変換は4ポイント、8ポイント、16ポイント、32ポイントのDCT-2であり、変換コア行列は8ビットの整数(即ち、8変換コア)を使用して表される。小さなDCT-2の変換コア行列は、次のように大きなDCT-2の一部である。
Figure 2022517787000002
Figure 2022517787000003
Figure 2022517787000004
Figure 2022517787000005
DCT-2コアは対称/反対称特性を示している。そこで、いわゆる「部分蝶形」の実現方式をサポートすることによって、操作カウント(乗算、加算/減算、シフト)の数を減らし、部分蝶形を使って行列乗算の同じ結果を得ることができる。
現在のVVCは、HEVCと同じ4ポイント、8ポイント、16ポイント、32ポイントのDCT-2変換に加えて、追加の2ポイントと64ポイントのDCT-2をさらに含む。VVCで限定された64ポイントのDCT-2コアは、以下の64×64行列として示される。
Figure 2022517787000006
Figure 2022517787000007
Figure 2022517787000008
ここで、
Figure 2022517787000009
HEVCで採用されているDCT-2と4×4 DST-7のほか、VVCでは自己適応マルチ変換(Adaptive Multiple Transform、AMT、または拡張マルチ変換(Enhanced Multiple Transform、EMT、またはマルチ変換選択(Multiple Transform Selection,MTS)呼ばれている)方式がインター符号化ブロックとイントラ符号化ブロックの両方の残差符号化に使用されている。MTSは、HEVCでの現在の変換以外のDCT/DSTファミリからの複数の選択された変換を使用する。新しく導入された変換行列はDST-7、DCT-8である。表1は選択されたDST/DCTの基底関数を示している。
Figure 2022517787000010
VCにおけるすべての一次変換行列は、8ビット表現とともに使用される。AMTは幅と高さの両方が32以下のCUに適用され、AMTを適用するかどうかはmts_flagと呼ばれるフラグによって制御される。mts_flagが0に等しい場合、残差を符号化するためにDCT-2のみが適用される。mts_flagが1に等しい場合、インデックスmts_idxは、表2に応じて使用する水平変換と垂直変換を指定するために、2つの周波数帯域を使用してさらにシグナリングで表され、ここで、値1はDST-7の使用を表し、値2はDCT-8の使用を表す。
Figure 2022517787000011
DST-7の変換コア(すなわち、基底ベクトルからなる行列)は、次のように表してもよい。
4ポイントDST-7:
Figure 2022517787000012
ここで、
Figure 2022517787000013
8ポイントDST-7:
Figure 2022517787000014
ここで、
Figure 2022517787000015
16ポイントDST-7:
Figure 2022517787000016
ここで、
Figure 2022517787000017
32ポイントDST-7:
Figure 2022517787000018
ここで、
Figure 2022517787000019
4ポイントDCT-8:
Figure 2022517787000020
ここで、
Figure 2022517787000021
8ポイントDCT-8:
Figure 2022517787000022
ここで、
Figure 2022517787000023
16ポイントDCT-8:
Figure 2022517787000024
ここで、
Figure 2022517787000025
32ポイントDCT-8:
Figure 2022517787000026
ここで、
Figure 2022517787000027
VCCでは、表3に示すように、イントラサブ区分(Intra Sub-Partition、ISP)の符号化モードは、ブロックサイズに基づいて、輝度イントラ予測ブロックを垂直または水平に2つまたは4つのサブ区分に区分する。図9及び図10は、2つの可能性の例を示している。図9は、4×8ブロックまたは8×4ブロックの例示的な区分を示す。図10は、4×8ブロック、8×4ブロック、または4×4ブロックのいずれかの1つではないブロックの例示的な区分を示す。すべてのサブ区分は、少なくとも16つのサンプルを有する条件を満たしている。クロマ成分については、ISPを適用しない。
Figure 2022517787000028
これらのサブ区分のそれぞれについて、エンコーダによって送られた係数を、エントロピー復号化して、引き続き逆量子化および逆変換を行うことによって残差信号を生成する。そして、サブ区分は、イントラ予測され、最終的に残差信号と予測信号とを加算することによって、対応する再構築サンプルを得る。したがって、各サブ区分の再構築された値は、次のサブ区分の予測の生成に用いることができ、該処理などが繰り返される。すべてのサブ区分は同じイントラモードを共有する。
幾つかの実施形態では、ISPアルゴリズムは、MPMリストの一部であるイントラモードのみを利用してテストされる。したがって、ブロックがISPを使用する場合、MPMフラグは一であると推定される。また、ISPが特定ブロックに使用される場合、MPMリストは、DCモードを除外するように修正され、ISPの水平区分用の水平イントラモードと垂直区分用の垂直イントラモードとで優先順位が区別される。
ISPでは、変換と再構築はサブ区分ごとに個別に実行されるため、サブ区分はサブTUと考えてもよい。表4は、ISP用のシグナリングされる関連構文要素を示している。
Figure 2022517787000029
Figure 2022517787000030
JVET-J0024、JVET-K0139、及びJVET-L0358では、空間変化変換(spatially varying transform,SVT)案が提案される。SVTでは、インター予測残差に対して、符号化ブロックには残差ブロックのみ存在しているが、残差ブロックが符号化ブロックよりも小さいため、SVTにおける変換サイズは符号化ブロックサイズよりも小さい。残差ブロックによって、覆われていない領域又は変換されていない領域については、ゼロ残差と仮定する。
より具体的には、JVET-L0358では、SVTはサブブロック変換(Sub-block Transform、SBT)とも呼ばれる。SBTでサポートされているサブブロック類型(SVT-H、SVT-V)、サイズ、および位置(左1/2、左1/4、右1/2、右1/4、上1/2、上1/4、下1/2、下1/4)を、図11A図11Dに示してもよい。図11A~図11Dは、それぞれ、SBTでサポートされているサブブロック類型(SVT-H、SVT-V)と、位置(左1/2、右1/2、上1/2、下1/2)を示している。アルファベット「A」で示されるハッチング領域は変換を行う残差ブロックであり、他の領域は変換を行わないゼロ残差ブロックであると仮定される。
SBT手段の1つの問題は以下の通りである。即ち、これらの手段が、サブブロック類型(水平または垂直)、サイズ(1/2または1/4)、および位置(左または右、上または下)を示すように、追加のオーバーヘッドビット(例えば、cu_sbt_flag、cu_sbt_quad_flag、cu_sbt_horizontal_flag、cu_sbt_pos_flag)がシグナリングされる必要がある。表5~表11および次の段落のテキストは、提案されたSBTを示している。
Figure 2022517787000031
Figure 2022517787000032
Figure 2022517787000033
Figure 2022517787000034
Figure 2022517787000035
Figure 2022517787000036
Figure 2022517787000037
Figure 2022517787000038
シーケンスパラメータセットRBSPの意味
sps_sbt_enabled_flag=0は、インター予測のCUのサブブロック変換を無効にすることを指定する。sps_sbt_enabled_flag=1は、インター予測のCUのサブブロック変換を有効にすることを指定する。
共通スライスヘッダの意味
slice_sbt_max_size_64_flag=0は、サブブロックの変換を許可する最大のCU幅と高さが32であることを指定する。slice_sbt_max_size_64_flag=1は、サブブロックの変換を許可する最大のCU幅と高さが64であることを指定する。
maxsbtsize=Slice_SBT_max_size_64flag?64:32
符号化ユニットの意味
cu_sbt_flag[x0][y0]=1は、現在の符号化ユニットに対して、サブブロック変換を使用することを指定する。cu_sbt_flag[x0][y0]=0は、現在の符号化ユニットに対して、サブブロック変換を使用しないことを指定する。
cu_sbt_flag[x0][y0]が存在しない場合、その値は0と推定される。
サブブロック変換を使用する場合、符号化ユニットは2つの変換ユニットにタイル化され、一方の変換ユニットは残差ブロックを有し、他方の変換ユニットは残差ブロックを有しない。
cu_sbt_quad_flag[x0][y0]=1は、現在の符号化ユニットに対して、サブブロック変換は現在の符号化ユニットの1/4サイズの変換ユニットを含む。cu_sbt_quad_flag[x0][y0]=0は、現在の符号化ユニットに対して、サブブロック変換は現在の符号化ユニットの1/2サイズの変換ユニットを含む。
cu_sbt_quad_flag[x0][y0]が存在しない場合、その値は0と推定される。
cu_sbt_horizontal_flag[x0][y0]=1は、現在の符号化ユニットを水平区分で2つの変換ユニットにタイル化されることを指定する。cu_sbt_horizontal_flag[x0][y0]=0は、現在の符号化ユニットを垂直区分で2つの変換ユニットにタイル化されることを指定する。
cu_sbt_horizontal_flag[x0][y0]が存在しない場合、次のように値が得られる。
(a)cu_sbt_quad_flag[x0][y0]=1の場合、cu_sbt_horizontal_flag[x0][y0]をallowSbtHoriQuadに設定する。
(b)それ以外の場合(cu_sbt_quad_flag[x0][y0]=0場合)、cu_sbt_horizontal_flag[x0][y0]をallowSbtHoriHalfに設定しる。
cu_sbt_pos_flag[x0][y0]=1は、現在の符号化ユニットにおける第1の変換ユニットのtu_cbf_luma、tu_cbf_cb、tu_cbf_crはビットストリームに存在しないことを指定する。cu_sbt_pos_flag[x0][y0]=0は、現在の符号化ユニットにおける第2の変換ユニットのtu_cbf_luma、tu_cbf_cb、tu_cbf_crがビットストリームに存在しないことを指定する。
スケーリング用変換係数の変換処理
該処理の入力は、
現在のピクチャの左上輝度サンプルに対する現在の輝度変換ブロックの左上サンプルを指定する輝度位置(xTbY、yTbY)、
現在の変換ブロックの幅を指定する変数nTbW、
現在の変換ブロックの高さを指定する変数nTbH、
現在のブロックの色成分を指定する変数cIdx、及び
スケーリング変換係数の(nTbW)×(nTbH)行列d[x][y](ここで、x=0...nTbW-1,y=0...nTbH-1)、
である。
該処理の出力は、残差サンプルの(nTbW)×(nTbH)行列r[x][y]であり、ここで、x=0...nTbW-1,y=0...nTbH-1。
cu_sbt_flag[xTbY][yTbY]=1の場合、表8-Xではcu_sbt_horizontal_flag[xTbY][yTbY]とcu_sbt_pos_flag[xTbY][yTbY]によって、水平変換コアを指定する変数trTypeHorと垂直変換コアを指定する変数trTypeVerを求める。
それ以外の場合、(cu_sbt_flag[xTbY][yTbY]=0=0)、表8~表9ではmts_idx[xTbY][yTbY]とCuPredMode[xTbY][yTbY]によって、水平変換コアを指定する変数trTypeHorと垂直変換コアを指定する変数trTypeVerを求める。
残差サンプルの(nTbW)×(nTbH)行列rは、以下のようにして得られる。
(1)各列のx=nTbW-1(ここで、変換ブロックの高さがnTbHである)に対して1次元変換処理を呼び出すことにより、スケーリング変換係数d[x][y](ここで、x=0..nTbW-1,y=0..nTbH-1)の各(垂直)列をe[x][y](ここで、x=0..nTbW-1,y=0..nTbH-1)に変換し、列表d[x][y](ここで、y=0…nTbH-1)と「=trTypeVer」に設定された変換型変数trTypeは入力とし、列表出力は列表e[x][y](ここで、y=0…nTbH-1)とする。
(2)次のように中間サンプル値g[x][y]を求める。ここで、x=0..nTbW-1,y=0..nTbH-1:
Figure 2022517787000039
(3)行y=0..nTbH-1(ここで、変換ブロックの幅がnTbWである)ごとに、1次元変換処理を呼び出すことで得られた行列g[x][y](ここで、x=0..nTbW-1,y=0..nTbH-1)の各(水平)行をr[x][y](ここで、x=0..nTbW-1,y=0..nTbH-1)に変換し、列表g[x][y](ここで、x=0..nTbW-1)と、trTypeHorに相当すると設定された変換型変数trTypeとを、入力として、列表r[x][y](ここで、x=0…nTbW-1)を列表出力である出力とする。
Figure 2022517787000040
Figure 2022517787000041
現在のVVCドラフトでは、最大変換ユニットに制限があり、64×64である。
符号化ユニットの幅(W)または高さ(H)が64より大きい場合、符号化ユニットは暗黙的に複数のmin(W、64)×min(H、64)サブブロックに区分され、各サブブロック(すなわち、サブ変換ユニット(STU))に対して変換が行われる。
JVET-N0362や発明者らの先の仮出願では、構成可能な最大変換サイズの提案をしている。提案する方法は、長さ64未満の代替最大変換サイズを許容する。例えば、最大変換サイズを16に設定し、CUの幅(W)または高さ(H)が16より大きい場合、CUは暗黙的に複数のmin(W、16)×min(H、16)サブブロックに区分され、各サブブロック(すなわちサブ変換ユニット(STU))に対して変換が行われる。また、STUの幅と高さは最大変換サイズより大きくすることはできない。
しかしながら、前記の方法にはいくつかの欠点がある。例えば、符号化ユニットを複数のSTUに区分する場合、通常はこれらのSTUのDC値の間に相関があってもよい。しかし、符号化性能の向上のために、現在のVCCドラフトではこれらの相関性は考慮されていない。また、現在のVVCドラフトでは、TUレベルでMTSと変換スキップされたシグナリングを操作しているので、各STUについて、大きなCUが依然として適用され、MTSと変換スキップをシグナリングで表すことができ、これは非効率的かもしれない。
本開示の実施形態によれば、サブ変換ユニットに適用されるDC値を予測する方法が提供される。開示された方法は単独で、あるいは任意の順序で組み合わせて使用することができる。さらに、方法(または実施形態)、エンコーダ、およびデコーダのそれぞれは、処理回路(例えば、1つまたは複数のプロセッサ、または1つまたは複数の集積回路)によって実装できる。実施形態では、1つまたは複数のプロセッサが、非一時的なコンピュータ読み取り可能な媒体に記憶されたプログラムを実行する。
幾つかの実施形態によれば、高レベル構文(high-level syntax、HLS)要素は、動画パラメータセット(Video Parameter Set、VPS)、シーケンスパラメータセット(Sequence Parameter Set、SPS)、ピクチャパラメータセット(Picture Parameter Set、PPS)、スライスヘッダ、ブロックヘッダ、ブロックグループヘッダのいずれかを指すことができる。最大CUサイズであるCTU(符号化ツリーユニット)ヘッダは、例えばヘッダ情報として、CTU用信号毎に示す構文要素である。変換サイズとは、最大変換幅および/または高さ、または最大変換ユニット領域サイズのことである。低周波数係数(low-frequency coefficient、LFC)は、DC係数のみ、DC係数に最も近い2つ(または3つ)の係数、または左上のm×n変換係数(または変換スキップを適用する場合の空間残差)、あるいは係数ブロックの左上のM×N部分の変換係数の所定の領域(または変換スキップを適用する場合の空間残差)を指すことができる。
幾つかの実施形態では、開示される方法は、DCT-2以外の追加の変換類型が適用されるかどうかを指示するために、HLSをシグナリングすることを含む。フラグsps_enable_dst7_flagまたはsps_enable_ dst7_dct8_flagが真の場合、変換中にDST-7またはDCT-8を適用できる。sps_enable_dst7_flagとsps_enable_dst7_dct8_flagが偽の場合、実施形態では、DCT-2のみを適用できるか、変換スキップを適用できるかを指示するために、HLSをシグナリングで示す。実施形態では、DCT-2のみを適用できるかを指示するために、HLSをシグナリングで示す。
幾つかの実施形態では、CUが暗黙的に複数のSTUに区分された場合、シグナリングを用いずにMTSおよび/または変換スキップを表す。
幾つかの実施形態では、現在のCUが複数のSTUに区分される場合、各STUについて、隣接するブロックおよび/または隣接するSTUの係数を使用してLFCの絶対値またはLFCの符号値(符号付き値とも呼ばれる)を予測する。例えば、図12に示すように、最大変換サイズを16に設定した場合、64×32CUは8つの16×16STUに区分され、現在のSTU(C)に対して、上STU(T)と左STU(L)と左上部STU(TL)のLFCは、現在のSTUの絶対値または符号値(符号付き値とも呼ばれる)を予測するために使用できる
第1例において、上および/または左隣接ブロック(またはサブブロックSTU)のDC係数の絶対値の平均(または中央値)を使用して現在のSTUのLFC絶対値を予測する。例えば、DCC=(DCT+DCL+1)/(2×N)ここで、Nは正の整数である。一部の実施形態では、N=l。別の実施形態では、N=2である。
第2の例において、同一CUに属する上と左の隣接ブロック(またはサブブロック、STU)のLFCの絶対値の平均を使用して、現在のSTUのLFC絶対値を予測する。
第3の例において、上と左の隣接ブロックの絶対値LFCを使用して、現在のSTUのLFCの絶対値を予測し、変換スキップモードで符号化しない。
第4の例において、同じ変換類型(例えば、DCT-2、DST-7、またはDCT-8)を使用して符号化された上と左隣接ブロックの絶対値LFCを使用して現在のSTUのLFC絶対値を予測する。
第5の例において、現在のSTUと隣接ブロックが異なる変換類型を使用して符号化されている場合、例えば、現在のSTUがDCT-2で符号化されており、隣接ブロックが変換スキップによって符号化されている場合、該隣接するSTUのLFCの絶対値は、現在のブロックを予測するために使用されるLFCの前にスケーリングされる。スケーリング係数は√2または1/√2またはm/2でもよく、ここで、mとNは整数である。
第6の例において、最も近い整数に丸められた後、上および/または左隣接するブロックの符号値の平均(または中央値)を使用して現在のSTUとLFC符号値を予測する。例えば、3つの隣接ブロックを使用して符号値を予測する場合、隣接ブロックに2回以上現れる符号値を使用して現在のブロックの符号値を予測する。
第7の例において、同一CUに属する上と左の隣接ブロックの符号値の平均値を使用して、現在のSTUのLFCの符号値を予測する。
第8の例において、変換スキップモードで符号化されていない上と左隣接ブロックの符号値LFCを使用して、現在のSTUのLFCの符号値(符号付き値とも呼ばれる)を予測する。
第9例において、同じ変換類型(例えば、DCT-2、DST-7、またはDCT-8)を使用して符号化された上と左隣接ブロックの符号値LFCを使用して現在のSTUのLFCの符号値を予測する。
幾つかの実施形態によれば、前記第1の実施例~第9の実施例で言及された方法は、ISPパターンのサブ区分によって生成されたSTUまたは暗黙的変換分割によって生成されたSTUに適用できる。量子化係数または逆量子化係数に対しても前記方法を実行してもよい。
実施形態において、現在のCUが複数のSTUに区分される場合、STUのLFCからなるブロック(または係数ブロック)に二次変換を適用することができる。例えば、図13に示されるように、32×64ブロック(またはCU)を8つの16×16STUに区分し、各STU(例えば、各STUの左上に位置するテクスチャブロック)のDC係数を認識して、新たな4×2ブロック(または係数ブロック)を構築し、該4×2ブロックで二次変換を行うことができる。
例において、二次変換された変換係数をSTUに対応するLFCにフィードバックしてもよい。他の例において、二次変換された変換係数は係数ブロックとして個別に符号化され得る。
例において、二次変換は非正方形アダマール変換であってもよい。例としては、2×4、1×4、4×2、4×1、2×18、8×2等を含む。例において、二次変換は正方形アダマール変換であってもよい。例において、二次変換はDCT-2であってもよい。例において、二次変換はDST-7またはDCT-8であってもよい。例において、二次変換はKarhunen-Loeve変換(KLT)でも、分離不可な変換(例えば、分離不可能なKLT)であってもよい。
例において、二次変換のサイズは、水平方向と垂直方向にSTUの数に合わせて調整できる。
実施形態では、CUのすべてのSTUが同じ変換類型を共有している場合にのみ、二次変換を適用する。
例において、異なる二次変換を適用できる。STUの一次変換に基づいて二次変換の類型を特定する。
現在のVCCドラフトでは、符号化ユニットを複数のSTUに区分する場合、通常はこれらのSTUのDC値の間に相関があってもよい。しかし、符号化性能の向上のために、現在のVCCドラフトではこれらの相関性は考慮されていない。また、現在のVVCドラフトでは、TUレベルでMTSと変換スキップされたシグナリングを操作しているので、各STUについて、大きなCUが依然として適用され、MTSと変換スキップをシグナリングで表すことができ、これは非効率的かもしれない。本開示では、サブ変換ユニットに適用されるDC値を予測する方法を提供する。開示される方法では、変換類型および隣接するサブ変換ユニットの低周波数係数に基づいて、現在の変換ユニットの低周波数係数(またはDC値)を特定することができ、これにより符号化効率を高めることができる。
図14は、本開示の実施形態によるプロセス(1400)の概要を示す流れ図である。処理(1400)を使用して、再構築中のブロックについて予測ブロックを生成するためにイントラモードで符号化されたブロックを再構築することができる。様々な実施形態では、プロセス(1400)は、以下のような処理回路システムによって実行する。例えば、端末機器(110)、(120)、(130)および(140)における処理回路システム、動画エンコーダ(203)の機能を実行する処理回路システム、動画デコーダ(210)の機能を実行する処理回路システム、動画デコーダ(310)の機能を実行する処理回路システム、動画エンコーダ(403)を実行する処理回路システムなどが挙げられる。一部の実施形態では、処理(1400)はソフトウェア命令で実装されるので、処理回路システムがソフトウェア命令を実行すると、処理回路システムは処理(1400)を実行する。処理は(S1401)で始まり、(S1410)に進む。
(S1410)では、変換ブロックシグナリング情報が符号化された動画ビットストリームから取得される。変換ブロックシグナリング情報は、変換類型が離散コサイン変換2(DCT-2)であることを示している第1の高レベル構文要素であってもよいし、変換類型がDCT-2または変換スキップのいずれかであることを示している第2の高レベル構文要素であってもよいし、変換類型が離散コサイン変換8(DCT-8)と離散サイン変換7(DST-7)に基づく多重変換選択(MTS)であることを示している第3の高レベル構文要素であってもよい。
(S1420)において、変換ブロックシグナリング情報に基づいて変換類型を特定することができる。前述のように、変換ブロックシグナリング情報に基づいて、変換類型はDCT-2、変換スキップ、DST-7、DCT-8とすることができる。
(S1430)では、複数のサブ変換ユニットのうちの1つの変換類型と隣接するサブ変換ユニットに基づいて、複数のサブ変換ユニットのうちの1つの低周波数係数を特定し、現在の符号化ブロックユニット(CU)から複数のサブ変換ユニットを区分する。
一部の実施形態では、複数のサブ変換ユニットのうちの1つの隣接するサブ変換ユニットの変換係数に基づいて、複数のサブ変換ユニットのうちの1つの低周波数係数の絶対値または符号付き値を特定してもよい。
(S1440)では、複数のサブ変換ユニットの低周波数係数に基づいて現在の符号化ブロックユニットを符号化する。
幾つかの実施形態では、複数の変換ユニットの低周波数係数は、複数の変換係数を得るために二次変換を実行する。複数のサブ変換ユニットの対応する低周波数係数に基づいて複数の変換係数のそれぞれを得る。現在の符号化ブロックユニットは、複数の変換係数に基づいて復号化ことができる。実施形態では、二次変換された変換係数をSTUに対応するLFCにフィードバックすることができる。別の実施形態では、二次変換された変換係数は係数ブロックとして個別に符号化され得る。
前記技術は、コンピュータ読み取り可能な命令によってコンピュータソフトウェアとして実装され、1つ又は複数のコンピュータ可読媒体に物理的に記憶される。例えば、図15は、開示された主題のいくつかの実施形態を実装するのに適合したコンピュータシステム(1500)を示す。
任意の適切なマシンコード又はコンピュータ言語を使用してコンピュータソフトウェアを符号化することができ、機械コード又はコンピュータ言語がアセンブル、コンパイル、リンクなどのメカニズムを介して命令を含むコードを作成することができ、当該命令は、1つ又は複数のコンピュータ中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)などによって直接的に実行されるか、又は解釈、マイクロコード実行などによって実行されることができる
命令は、例えば、パーソナルコンピュータ、タブレットコンピュータ、サーバ、スマートフォン、ゲーム機器、モノのインターネット機器などを含む様々なタイプのコンピュータまたはそのコンポーネント上で実行することができる。
図15に示すコンピュータシステム(1500)に関する構成要素は、本質的に例示的なものであり、本開示の実施形態を実施するコンピュータソフトウェアの使用範囲または機能に何ら限定することを意図していない。コンポーネントの構成は、コンピュータシステム(1500)の例示的な実施形態に示されるコンポーネントのいずれか1つまたは組み合わせに関する依存性または要件を有するものと解釈されるべきではない。
コンピュータシステム(1500)は、いくつかのヒューマンインタフェース入力デバイスを含んでもよい。このようなヒューマンインタフェース入力デバイスは、触覚入力(例えば、キーストローク、スライド、データグローブの移動)、音声入力(例えば、音声、拍打)、視覚入力(例えば、ジェスチャ)、嗅覚入力(図示せず)などの1人以上の人間のユーザに応答することができる。ヒューマンインタフェース入力デバイスは、オーディオ(例えば、音声、音楽、環境音)、ピクチャ(例えば、スキャンピクチャ、静止画撮像機器から得られた撮影ピクチャ)、動画(例えば、2次元動画、立体動画を含む3次元動画)など、ユーザによる意識的な入力と直接関係のない特定のメディアをキャプチャするためにも使用されうる。
ヒューマンインタフェース入力デバイスは、キーボード(1501)、マウス(1502)、タッチパッド(1503)、タッチスクリーン(1510)、データグローブ(図示せず)、ジョイスティック(1505)、マイク(1506)、スキャナ(5010)のうちの1つまたは複数を含んでもよい(それぞれ1つのみ図示)。
コンピュータシステム(1500)は、一部のヒューマンインタフェース入力デバイスを含んでもよい。該ヒューマンインタフェース入力デバイスは、例える触覚出力、音、光、匂い/味によって、1人以上の人間のユーザの感覚を刺激することができる。該ヒューマンインタフェース入力デバイスは、触覚出力デバイス(例えば、タッチスクリーン(1510)の触覚フィードバック、データグローブ(図示せず)、またはジョイスティック(1505)を含んでもよいが、入力デバイスとして機能しない触覚フィードバックデバイス、音声出力デバイス(例えば、スピーカ(1509)、ヘッドフォン(図示せず))、視覚出力デバイス(例えば、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含み(各スクリーンはタッチスクリーンの入力機能がある場合とない場合があり、各スクリーンは触覚フィードバック機能がある場合とない場合があり、その中には、一部のスクリーンは立体ピクチャ出力などのデバイスを介して2次元視覚出力を出力したり、3次元以上の出力を出力したりできるスクリーン(1501)、バーチャルリアリティメガネ(図示せず)、ホログラフィックディスプレイと発煙器(図示せず))、プリンタ(図示せず)を含む。
コンピュータシステム(1500)は、光学メディアなどの人間がアクセス可能なストレージデバイスと、関連メディアとを含んでもよく、CD/DVDなどのメディア(1521)を含むCD/DVD ROMZRW(1520)、サムドライブ(1522)、リムーバブルハードディスクまたはソリッドステートドライブ(1523)、磁気テープやフロッピー(図示せず)などの従来の磁気メディアを含んでもよく、セキュアなセキュリティドングル(図示せず)などの専用のROM/ASIC/PLDベースのデバイスを含んでもよい。
当業者はまた、現在開示されている主題と関連して使用される用語「コンピュータ読み取り可能な媒体」は、送信媒体、搬送波、または他の瞬時信号をカバーしないことを理解するであろう。
計算機システム(1500)は、1つまたは複数の通信ネットワークインターフェースを含んでもよい。ネットワークは、例えば無線、有線、光学であってもよい。ネットワークは、ローカルエリアネットワーク、ワイドエリアネットワーク、メトロポリタンネットワーク、車両工業ネットワーク、リアルタイムネットワーク、遅延許容ネットワークなどであってもよい。ネットワークの例としては、イーサネットなどのローカルエリアネットワーク、無線LAN、GSM、3G、4G、5G、LTEなどを含むセルラネットワーク、ケーブルテレビ、衛星テレビ、地上放送テレビを含むテレビケーブルや無線広域デジタルネットワーク、CANBusを含む車両産業テレビなどが挙げられる。一般に、一部のネットワークは、一部の汎用データポートまたは周辺バス(1549)(例えば、コンピュータシステム(1500)のUSBポート)の外部ネットワークインターフェースアダプタに取り付ける必要がありうる。他のネットワークは、通常、以下で説明されるように、システムバスに取り付けられることによってコンピュータシステム(1500)のコアに統合される(例えば、イーサネットインターフェイスがPCコンピュータシステムに統合されているか、セルラネットワークインターフェイスがスマートフォンコンピュータシステムに統合されている)。これらのネットワークのいずれかを使用して、コンピューターシステム(1500)は他のエンティティと通信することができる。このような通信は、一方向の受信のみ(例えば、放送テレビ)、一方向の送信のみ(例えば、あるCANbusデバイスへのCANbus)、または双方向(例えば、ローカルエリアネットワークまたはワイドエリアネットワークを使用して他のコンピュータシステムに)であってもよい。前述のように、いくつかのプロトコルおよびプロトコルスタックは、それらのネットワークおよびネットワークインターフェースのそれぞれで使用され得る。
前記ヒューマンインタフェース入力デバイスがアクセスできる記憶機器、およびネットワークインターフェースはコンピュータシステム(1500)のコア(1540)に取り付けることができる。
コア(1540)は、1つまたは複数の中央処理ユニット(CPU)(1541)、グラフィック処理ユニット(GPU)(1542)、フィールドプログラマブルゲートエリア(FPGA)の形態特有のプログラマブル処理ユニット(1543)、特定のタスク用のハードウェアアクセラレータ(1544)などを含んでもよい。これらのデバイスは読み取り専用メモリ(ROM)(1545)、ランダムアクセスメモリ(1546)、内部大容量記憶機器(例えば、内部非ユーザアクセス可能ハードディスクドライブ、SSDなど)と、システムバス(1548)を介して接続することができる。一部のコンピュータシステムでは、システムバス(1548)に1つまたは複数の物理プラグの形でアクセスして、追加のCPU、GPUなどによる拡張を可能にすることができる。周辺機器はコアのシステムバス(1548)に直接取り付けられていてもよいし、周辺バス(1549)を介して取り付けられていてもよい。周辺バスのアーキテクチャには、PCI、USBなどがある。
CPU(1541)、GPU(1542)、FPGA(1543)、加速器(1544)は、いくつかの命令を実行することができ、これらの命令は組み合わせて前記のコンピュータコードを構成することができる。該コンピュータコードは、ROM(1545)またはRAM(1546)に記憶することができる。遷移データはRAM(1546)に記憶もよく、永久データは例えば内部の大容量記憶機器(1547)に記憶もよい。任意のメモリデバイスの高速記憶と検索は、1つまたは複数のCPU(1541)、GPU(1542)、大容量記憶機器(1547)、ROM(1545)、RAM(1546)などと密接に関連するキャッシュメモリを使用することによって実現する。
コンピュータ読み取り可能な媒体は、様々なコンピュータによって実装される動作を実行するためのコンピュータコードを有することができる。メディアおよびコンピュータコードは、本開示の目的で特別に設計および構築されたものであってもよいし、またはコンピュータソフトウェアの当業者に公知で利用可能な類型であってもよい。
限定ではなく一例として、アーキテクチャ(1500)、特にコア(1540)をもつコンピュータシステムは、1つまたは複数の有形のコンピュータ読み取り可能な媒体に含まれるソフトウェアをプロセッサ(CPU、GPU、FPGA、アクセラレータなどを含む)が実行することによって機能を提供することができる。このようなコンピュータ読み取り可能な媒体は、前記で説明したユーザがアクセスできる大容量記憶機器に関連する媒体であってもよいし、コア内部の大容量記憶機器(1547)やROM(1545)のような非一時的なコア(1540)を有する何らかの記憶機器であってもよい。本開示の様々な実施形態を実施するソフトウェアは、このようなデバイスに記憶され、コア(1540)によって実行されてよい。特定のニーズに応じて、コンピュータ読み取り可能な媒体は1つまたは複数の記憶デバイスまたはチップを含んでもよい。該ソフトウェアは、コア(1540)、特にその中のプロセッサ(CPU、GPU、FPGAなどを含む)に、本明細書で説明する特定の処理または特定の処理の特定の部分を実行させることができ、RAM(1546)に記憶されたデータ構造を限定し、ソフトウェアで限定された処理に従ってこのようなデータ構造を修正することを含む。付加的にまたは代替として、コンピュータシステムは、ソフトウェアの代わりに、またはソフトウェアと共に動作して本明細書に記載の特定の処理または特定の処理を実行することができる論理ハード接続のために、あるいは別の方法で回路(例えば、アクセラレータ(1544))に実装されて機能を提供することができる。必要に応じて、ソフトウェアへの参照には論理が含まれてもよいし、その逆もまた然りである。必要に応じて、コンピュータ読み取り可能な媒体への参照は、実行のためのソフトウェア回路(例えば、集積回路(IC))を記憶するか、実行のための論理回路を実装するか、またはその両方を含む。本開示は、ハードウェアとソフトウェアの任意の適切な組み合わせを含む。
付録A:頭文字の略語
JEM:共同探査モデル
VVC:多用途動画符号化
BMS:ベンチマークセット
MV:動きベクトル
HEVC:高効率動画符号化
SEI:補足拡張情報
VUI:動画ユーザビリティ情報
GOP:ピクチャグループ
TU:変換ユニット
PU:予測ユニット
CTU:符号化ツリーユニット
CTB:符号化ツリーブロック
PB:予測ブロック
HRD:仮想参照デコーダ
SNR:信号対雑音比
CPU:中央処理ユニット
GPU:グラフィック処理ユニット
CRT:陰極線管
LCD:液晶ディスプレイ
OLED:有機発光ダイオード
CD:コンパクトディスク
DVD:デジタル動画ディスク
ROM:読み取り専用メモリ
RAM:ランダムアクセスメモリ
ASIC:専用集積回路
PLD:プログラマブルロジックデバイス
LAN:ローカルエリアネットワーク
GSM:グローバル移動体通信システム
LTE:長期的な進化
CANBus:コントローラーエリアネットワークバス
USB:汎用シリアルバス
PCI:周辺コンポーネント相互接続
FPGA:フィールドプログラマブルゲートエリア
SSD:ソリッドステートドライブ
IC:集積回路
CU:符号化ユニット
本開示はいくつかの例示的な実施形態を説明してきたが、本開示の範囲に該当する変更、置換および様々な代替的均等物が存在する。したがって、本明細書に明示的に示されていないかまたは記載されていないが、本開示の原理を具体化し、これによってその精神および範囲内にいくつかのシステムおよび方法を当業者は設計できることを理解されたい。
100 通信システム
110 端末デバイス
120 端末デバイス
130 端末デバイス

Claims (20)

  1. デコーダに用いる動画復号化方法であって、
    符号化された動画ビットストリームから変換ブロックシグナリング情報を取得するステップと、
    前記変換ブロックシグナリング情報に基づいて変換類型を特定するステップと、
    前記変換類型と、複数のサブ変換ユニットのうちの1つのサブ変換ユニットの隣接するサブ変換ユニットとに基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数を特定するステップであって、前記複数のサブ変換ユニットは、現在の符号化ブロックユニット(CU)から区分されてなるステップと、
    複数のサブ変換ユニットの低周波数係数に基づいて、前記現在の符号化ブロックユニット(CU)を復号化するステップであって、前記低周波数係数は、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数を含むステップと、を含む
    ことを特徴とするデコーダにおける動画復号化方法。
  2. 前記変換ブロックシグナリング情報は、
    前記変換類型が離散コサイン変換2(DCT-2)であることを示す第1の高レベル構文要素と、
    前記変換類型がDCT-2または変換スキップであることを示す第2の高レベル構文要素と、
    前記変換類型が離散コサイン変換8(DCT-8)と離散サイン変換7(DST-7)に基づく多重変換選択(MTS)であることを示す第3の高レベル構文要素と、
    のうちの1つであることを特徴とする請求項1に記載の方法。
  3. 前記複数のサブ変換ユニットが、暗黙的変換分割によって前記現在の符号化ブロックユニット(CU)から区分されたことに応答して、前記変換ブロックシグナリング情報は、前記変換類型が離散コサイン変換2(DCT-2)であることを示す
    ことを特徴とする請求項1に記載の方法。
  4. 前記の低周波数係数を特定するステップは、
    前記複数のサブ変換ユニットのうちの1つのサブ変換ユニットの隣接するサブ変換ユニットの変換係数に基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数の絶対値又は符号付き値を特定するステップを含む
    ことを特徴とする請求項1に記載の方法。
  5. 前記複数のサブ変換ユニットのうちの1つのサブ変換ユニットの上側及び/又は左側の隣接するサブ変換ユニットの低周波数係数の絶対値の平均値に基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数の絶対値を特定するステップと、
    前記複数のサブ変換ユニットのうちの1つのサブ変換ユニットの上側及び/又は左側の隣接するサブ変換ユニットの低周波数係数の符号付き値の平均値に基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数の絶対値を特定するステップと、をさらに含む
    ことを特徴とする請求項4に記載の方法。
  6. 前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットと、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの隣接するサブ変換ユニットとを、異なる変換類型に基づいて変換することに応答して、前記隣接するサブ変換ユニットの低周波数係数の絶対値をスケーリングする
    ことを特徴とする請求項4に記載の方法。
  7. イントラサブ分割モード及び暗黙的変換分割の少なくとも1つに基づいて、前記現在の符号化ブロックユニットから前記複数のサブ変換ユニットを区分する
    ことを特徴とする請求項4に記載の方法。
  8. 前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数を特定した後に、以下のステップ、即ち、
    複数の変換係数を得るように前記複数のサブ変換ユニットの低周波数係数を二次変換するステップであって、前記複数の変換係数のそれぞれは、前記複数のサブ変換ユニットのそれぞれに対応する低周波数係数に基づいて得られたものであるステップをさらに含み、
    前記の復号化するステップは、前記複数の変換係数に基づいて前記現在の符号化ブロックユニットを復号化するステップをさらに含む
    ことを特徴とする請求項1に記載の方法。
  9. 前記二次変換は、非正方形アダマール変換、正方形アダマール変換、DCT-2、DST-7、DCT-8、Karhunen-Loeve変換(KLT)及び分離不可能なKLTのうちのいずれかである
    ことを特徴とする請求項8に記載の方法。
  10. 前記現在の符号化ブロックユニット(CU)における前記複数のサブ変換ユニットが同じ変換類型を共有することに応答して、前記二次変換を実行する
    ことを特徴とする請求項8に記載の方法。
  11. 動画復号化用装置であって、
    符号化された動画ビットストリームから変換ブロックシグナリング情報を取得するステップと、
    前記変換ブロックシグナリング情報に基づいて変換類型を特定するステップと、
    前記変換類型と、複数のサブ変換ユニットのうちの1つのサブ変換ユニットの隣接するサブ変換ユニットとに基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数を特定するステップであって、前記複数のサブ変換ユニットは、現在の符号化ブロックユニット(CU)から区分されてなるステップと、
    複数のサブ変換ユニットの低周波数係数に基づいて、前記現在の符号化ブロックユニットを復号化するステップであって、前記低周波数係数は、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数を含むステップと、実行するように構成される処理回路システムを含む
    ことを特徴とする動画復号化用装置。
  12. 前記変換ブロックシグナリング情報は、
    前記変換類型が離散コサイン変換2(DCT-2)であることを示す第1の高レベル構文要素と、
    前記変換類型がDCT-2または変換スキップであることを示す第2の高レベル構文要素と
    前記変換類型が離散コサイン変換8(DCT-8)と離散サイン変換7(DST-7)に基づく多重変換選択(MTS)であることを示す第3の高レベル構文要素と
    のうちの1つであることを特徴とする請求項11に記載の装置。
  13. 前記複数のサブ変換ユニットが、暗黙的変換分割によって前記現在の符号化ブロックユニット(CU)から区分されたことに応答して、前記変換ブロックシグナリング情報は、前記変換類型が離散コサイン変換2(DCT-2)であることを示す
    ことを特徴とする請求項11に記載の装置。
  14. 前記処理回路は、
    前記複数のサブ変換ユニットのうちの1つのサブ変換ユニットの隣接するサブ変換ユニットの変換係数に基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数の絶対値又は符号付き値を特定するステップを実行するように構成される
    ことを特徴とする請求項11に記載の装置。
  15. 前記処理回路は、
    前記複数のサブ変換ユニットのうちの1つのサブ変換ユニットの上側及び/又は左側の隣接するサブ変換ユニットの低周波数係数の絶対値の平均値に基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数の絶対値を特定するステップと、
    前記複数のサブ変換ユニットのうちの1つのサブ変換ユニットの上側及び/又は左側の隣接するサブ変換ユニットの低周波数係数の符号付き値の平均値に基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数の絶対値を特定するステップと、
    のうちの1つのステップを実行するように構成されている
    ことを特徴とする請求項14に記載の装置。
  16. 前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットと、前記隣接するサブ変換ユニットを、異なる変換類型に基づいて変換することに応答して、前記隣接するサブ変換ユニットの低周波数係数の絶対値をスケーリングする
    ことを特徴とする請求項14に記載の装置。
  17. イントラサブ分割モード(ISP)及び暗黙的変換分割の少なくとも1つに基づいて、前記現在の符号化ブロックユニットから前記複数のサブ変換ユニットを区分する
    ことを特徴とする請求項14に記載の装置。
  18. 前記処理回路は、
    複数の変換係数を得るように前記複数のサブ変換ユニットの低周波数係数を二次変換するステップであって、前記複数の変換係数のそれぞれは、前記複数のサブ変換ユニットのそれぞれに対応する低周波数係数に基づいて得られたものであるステップと、
    前記複数の変換係数に基づいて前記現在の符号化ブロックユニットを復号化するステップをさらに実行するように構成される
    ことを特徴とする請求項11に記載の装置。
  19. 前記二次変換は、非正方形アダマール変換、正方形アダマール変換、DCT-2、DST-7、DCT-8、Karhunen-Loeve変換(KLT)及び分離不可能なKLTのうちのいずれかである
    ことを特徴とする請求項18に記載の装置。
  20. 非一時的なコンピュータ読み取り可能な媒体であって、命令が記憶されており、
    前記命令が動画復号化用のコンピュータによって実行されると、符号化された動画ビットストリームから変換ブロックシグナリング情報を取得するステップと、
    前記変換ブロックシグナリング情報に基づいて変換類型を特定するステップと、
    前記変換類型と、複数のサブ変換ユニットのうちの1つのサブ変換ユニットのSTUとに基づいて、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数を特定するステップであって、前記複数のサブ変換ユニットは、現在の符号化ブロックユニット(CU)から区分されてなるステップと、
    前記複数のサブ変換ユニットの低周波数係数に基づいて、前記現在の符号化ブロックユニットを復号化するステップであって、前記低周波数係数は、前記複数のサブ変換ユニットのうちの前記1つのサブ変換ユニットの低周波数係数を含むステップと、を実行させる
    ことを特徴とする非一時的なコンピュータ読み取り可能な媒体。
JP2021540213A 2019-03-16 2020-03-16 動画符号化方法、動画符号化機器及びコンピュータプログラム Active JP7216830B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962819568P 2019-03-16 2019-03-16
US62/819,568 2019-03-16
US16/819,085 2020-03-14
US16/819,085 US11025937B2 (en) 2019-03-16 2020-03-14 Method and apparatus for video coding
PCT/US2020/022897 WO2020190835A1 (en) 2019-03-16 2020-03-16 Method and apparatus for video coding

Publications (3)

Publication Number Publication Date
JP2022517787A true JP2022517787A (ja) 2022-03-10
JPWO2020190835A5 JPWO2020190835A5 (ja) 2022-12-14
JP7216830B2 JP7216830B2 (ja) 2023-02-01

Family

ID=72424197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021540213A Active JP7216830B2 (ja) 2019-03-16 2020-03-16 動画符号化方法、動画符号化機器及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11025937B2 (ja)
EP (1) EP3871414A4 (ja)
JP (1) JP7216830B2 (ja)
CN (1) CN113545055B (ja)
WO (1) WO2020190835A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11159795B2 (en) * 2019-03-04 2021-10-26 Tencent America LLC Max transform size control
US20220321915A1 (en) * 2019-06-25 2022-10-06 Electronics And Telecommunications Research Institute Image encoding/decoding method and apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060159354A1 (en) * 2005-01-19 2006-07-20 Samsung Electronics Co., Ltd. Method and apparatus for predicting frequency transform coefficients in video codec, video encoder and decoder having the apparatus, and encoding and decoding method using the method
JP2006262188A (ja) * 2005-03-17 2006-09-28 Nec Electronics Corp 画像符号化装置、及び画像復号化装置
JP2013507794A (ja) * 2009-10-21 2013-03-04 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド ビットストリームを復号する方法
US20180288409A1 (en) * 2015-09-30 2018-10-04 Lg Electronics Inc. Method and device for coding residual signal in video coding system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3851317B2 (ja) * 1996-05-28 2006-11-29 松下電器産業株式会社 画像予測符号化方法及び装置
US6282322B1 (en) * 1998-12-03 2001-08-28 Philips Electronics North America Corp. System and method for compressing and decompressing images
US9635368B2 (en) * 2009-06-07 2017-04-25 Lg Electronics Inc. Method and apparatus for decoding a video signal
KR101483179B1 (ko) 2010-10-06 2015-01-19 에스케이 텔레콤주식회사 주파수 마스크 테이블을 이용한 주파수변환 블록 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US10397577B2 (en) 2011-03-08 2019-08-27 Velos Media, Llc Inverse scan order for significance map coding of transform coefficients in video coding
US9253481B2 (en) * 2012-01-13 2016-02-02 Qualcomm Incorporated Determining contexts for coding transform coefficient data in video coding
US10306229B2 (en) * 2015-01-26 2019-05-28 Qualcomm Incorporated Enhanced multiple transforms for prediction residual
US10491922B2 (en) * 2015-09-29 2019-11-26 Qualcomm Incorporated Non-separable secondary transform for video coding
WO2017171370A1 (ko) * 2016-03-28 2017-10-05 주식회사 케이티 비디오 신호 처리 방법 및 장치
CN114422796A (zh) * 2016-06-24 2022-04-29 韩国电子通信研究院 用于基于变换的图像编码/解码的方法和设备
US10972733B2 (en) * 2016-07-15 2021-04-06 Qualcomm Incorporated Look-up table for enhanced multiple transform
WO2018179851A1 (en) * 2017-03-28 2018-10-04 Sharp Kabushiki Kaisha Systems and methods for determining a level of quantization
WO2019076138A1 (en) * 2017-10-16 2019-04-25 Huawei Technologies Co., Ltd. METHOD AND APPARATUS FOR ENCODING
WO2020059611A1 (ja) * 2018-09-20 2020-03-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060159354A1 (en) * 2005-01-19 2006-07-20 Samsung Electronics Co., Ltd. Method and apparatus for predicting frequency transform coefficients in video codec, video encoder and decoder having the apparatus, and encoding and decoding method using the method
JP2006262188A (ja) * 2005-03-17 2006-09-28 Nec Electronics Corp 画像符号化装置、及び画像復号化装置
JP2013507794A (ja) * 2009-10-21 2013-03-04 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド ビットストリームを復号する方法
US20180288409A1 (en) * 2015-09-30 2018-10-04 Lg Electronics Inc. Method and device for coding residual signal in video coding system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HILMI E. EGILMEZ, VADIM SEREGIN, AMIR SAID, AND MARTA KARCZEWICZ: "CE6: RQT-like transform partitioning for inter blocks (Test 6.4.2)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M0523-v1, JPN6022037076, January 2019 (2019-01-01), pages 1 - 4, ISSN: 0004866027 *
XIN ZHAO, XIANG LI, AND SHAN LIU: "CE6: RQT-like transform sub-block splitting (Test 6.4.3)", OINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M0499, JPN6022037075, January 2019 (2019-01-01), pages 1 - 3, ISSN: 0004866026 *

Also Published As

Publication number Publication date
CN113545055A (zh) 2021-10-22
CN113545055B (zh) 2024-03-15
EP3871414A4 (en) 2021-12-01
JP7216830B2 (ja) 2023-02-01
US11025937B2 (en) 2021-06-01
EP3871414A1 (en) 2021-09-01
WO2020190835A1 (en) 2020-09-24
US20200296399A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
JP7187702B2 (ja) ビデオ符号化の方法、装置及びコンピュータ・プログラム
JP7209829B2 (ja) 単一レベルの変換分割および適応サブブロック変換を行うための方法、装置、およびプログラム
JP7053947B2 (ja) ビデオシーケンスを復号する方法、装置及びコンピュータプログラム
JP2022515876A (ja) ビデオデコーディングのための方法、装置、媒体、およびプログラム
JP2021518088A (ja) 小ブロックの予測と変換のための方法、装置、及びプログラム
JP2022520944A (ja) 変換スキップモードとブロック差分パルスコード変調の改善された残差コーディング
JP7279168B2 (ja) 映像復号方法及び装置
JP7343669B2 (ja) Vvcにおける色変換のための方法及び機器
JP7465918B2 (ja) デコーダが実行するビデオデコーディングのための方法及び装置、並びにエンコーダが実行するビデオエンコーディングのための方法
JP7362877B2 (ja) イントラ予測モードとブロック差分パルスコード変調モードとの間の相互作用のための方法および装置
JP7271675B2 (ja) ビデオ復号の方法および装置、並びにプログラム
JP2022517114A (ja) ビデオ復号用の方法、装置およびプログラム
JP2022511851A (ja) 最大変換サイズの制御
JP2022525748A (ja) ビデオ符号化のための色変換
JP2021520150A (ja) 予測モードおよび符号化ブロックフラグ(cbf)のコンテキスト設計を更に向上する方法および機器
JP2022515029A (ja) ビデオ復号及び符号化の方法、装置並びにコンピュータプログラム
JP2022522683A (ja) ビデオコーディングのための方法並びにその、装置およびコンピュータプログラム
JP2022512087A (ja) ビデオ復号のための方法、装置、およびプログラム
JP7216830B2 (ja) 動画符号化方法、動画符号化機器及びコンピュータプログラム
KR20220085836A (ko) 비디오 코딩 방법 및 장치
JP7061202B2 (ja) フレキシブルなツリー構造における連結符号化単位
JP2022525056A (ja) ビデオ符号化方法、装置及びコンピュータプログラム
JP2022511902A (ja) インターpdpcモードの改善
JP7439344B2 (ja) ビデオデコーディングのための方法、デバイス、およびコンピュータプログラム
JP7338053B2 (ja) ビデオコード化のための方法及び装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220905

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230120

R150 Certificate of patent or registration of utility model

Ref document number: 7216830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150