JP2022507874A - 二重木を伴う現ピクチャ参照ブロックベクトル初期化 - Google Patents

二重木を伴う現ピクチャ参照ブロックベクトル初期化 Download PDF

Info

Publication number
JP2022507874A
JP2022507874A JP2021528451A JP2021528451A JP2022507874A JP 2022507874 A JP2022507874 A JP 2022507874A JP 2021528451 A JP2021528451 A JP 2021528451A JP 2021528451 A JP2021528451 A JP 2021528451A JP 2022507874 A JP2022507874 A JP 2022507874A
Authority
JP
Japan
Prior art keywords
saturation
block
vector
subblock
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021528451A
Other languages
English (en)
Inventor
ポワリエ タンギ
ル ルアンネック ファブリス
ガルピン フランク
Original Assignee
インターデイジタル ヴィーシー ホールディングス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデイジタル ヴィーシー ホールディングス インコーポレイテッド filed Critical インターデイジタル ヴィーシー ホールディングス インコーポレイテッド
Publication of JP2022507874A publication Critical patent/JP2022507874A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Abstract

現ピクチャ参照モードが使用され、二重木がイネーブルであるとき、彩度成分ブロックベクトルが、隣り合うまたはコロケートされた輝度ブロックベクトルの1つを使用して初期化される。第1の実施形態では、コロケートされた輝度ブロックが現ピクチャ参照モードでコード化されない場合、左の彩度サブブロックからの輝度ベクトルが使用される。左の彩度サブブロックが現ピクチャ参照モードでコード化されないとき、上方の彩度サブブロックからの輝度ベクトルが使用され、それが使用可能でない場合、デフォルトベクトルが使用される。第2の実施形態では、彩度ブロックベクトルを導出するために、コロケートされた輝度ブロック区画が使用される。

Description

本実施形態のうちの少なくとも1つは、一般に、ビデオ符号化もしくは復号、圧縮または伸張のための方法または装置に関する。
高い圧縮効率を達成するために、画像およびビデオコード化方式は、通常、ビデオコンテンツにおける空間および時間冗長性を利用するために、動きベクトル予測を含む予測および変換を使用する。一般に、フレーム内相関またはフレーム間相関を利用するためにイントラ予測またはインター予測が使用され、次いで、予測エラーまたは予測残差としてしばしば示される元の画像と予測された画像との間の差が変換、量子化、およびエントロピー符号化される。ビデオを再構築するために、圧縮されたデータは、エントロピー符号化、量子化、変換、および予測に対応する逆処理によって復号される。
本実施形態のうちの少なくとも1つは、一般に、ビデオ符号化または復号のための方法または装置に関し、より詳細には、隣り合うサンプル依存のパラメトリックモデルに基づいてコード化モードを単純化するための方法または装置に関する。
第1の態様によれば、方法が提供される。この方法は、ビデオブロックのコロケートされた輝度(luma)ブロックベクトルに対応する彩度(chroma)ブロックベクトルを得るステップと、前記コロケートされた輝度ブロック、左の彩度サブブロック、または上方の彩度サブブロックが現ピクチャ参照モードにおいてコード化されるかどうか順に決定するステップと、真である前記決定するステップについて、現在の彩度ブロックベクトルを前記対応するコロケートされた輝度ブロックベクトル、左の彩度サブブロックベクトル、または上方の彩度サブブロックベクトルにそれぞれ設定するステップと、前記彩度ブロックベクトルを使用して前記ビデオブロックを符号化するステップを含む。
第2の態様によれば、方法が提供される。この方法は、ビデオブロックのコロケートされた輝度ブロックベクトルに対応する彩度ブロックベクトルを得るステップと、前記コロケートされた輝度ブロック、左の彩度サブブロック、または上方の彩度サブブロックが現ピクチャ参照モードにおいてコード化されているかどうか順に決定するステップと、真である前記決定するステップについて、現在の彩度ブロックベクトルを前記対応するコロケートされた輝度ブロックベクトル、左の彩度サブブロックベクトル、または上方の彩度サブブロックベクトルにそれぞれ設定するステップと、前記彩度ブロックベクトルを使用して前記ビデオブロックを復号するステップを含む。
別の態様によれば、装置が提供される。この装置は、プロセッサを備える。プロセッサは、前述の方法のいずれかを実行することによって、ビデオのブロックを符号化する、またはビットストリームを復号するように構成され得る。
少なくとも1つの実施形態の別の一般的な態様によれば、復号実施形態のいずれかによる装置と、(i)信号を受信するように構成されたアンテナであって、信号はビデオブロックを含む、アンテナ、(ii)受信された信号を、ビデオブロックを含む周波数の帯域に制限するように構成されたバンドリミッタ、または(iii)ビデオブロックを表す出力を表示するように構成されたディスプレイのうちの少なくとも1つとを備えるデバイスが提供される。
少なくとも1つの実施形態の別の一般的な態様によれば、記載の符号化実施形態または変形形態のいずれかに従って生成されるデータコンテンツを含む非一時的なコンピュータ可読媒体が提供される。
少なくとも1つの実施形態の別の一般的な態様によれば、記載の符号化実施形態または変形形態のいずれかに従って生成されるビデオデータを含む信号が提供される。
少なくとも1つの実施形態の別の一般的な態様によれば、記載の符号化実施形態または変形形態のいずれかに従って生成されるデータコンテンツを含むようにビットストリームがフォーマット化される。
少なくとも1つの実施形態の別の一般的な態様によれば、命令を含むコンピュータプログラム製品が提供され、命令は、プログラムがコンピュータによって実行されたとき、記載の復号実施形態または変形形態のいずれかをコンピュータに実施させる。
一般的な態様のこれらおよび他の態様、特徴、および利点は、添付の図面に関連して読まれるべき例示的な実施形態の以下の詳細な説明から明らかになろう。
圧縮されたHEVCピクチャを表すための符号化ツリーユニットおよび符号化ツリー概念の一例の図である。 符号化ツリーユニットを符号化ユニット、予測ユニット、および変換ユニットに分割する一例の図である。 四分木プラス二分木(QTBT)CTU表現の一例の図である。 別の方式による、デフォルトベクトルを用いた彩度ベクトルの初期化の図である。 標準的、一般的なビデオ圧縮方式の図である。 標準的、一般的なビデオ伸張方式の図である。 実施形態1による彩度ブロックベクトル導出の例示的なフローチャートの図である。 実施形態1を使用した彩度ブロックベクトル導出の一例の図である。 デフォルトベクトルを用いた、実施形態1を使用した彩度ブロックベクトル導出の一例の図である。 左の彩度サブブロックベクトルが使用可能でないとき上方の彩度サブブロックベクトルを用いた、実施形態1を使用した彩度ブロックベクトル導出の一例の図である。 隣の彩度サブブロックが現在の彩度ブロックの外側にあり得る実施形態1の変形形態の図である。 同じ輝度ブロックに対応する彩度サブブロックが同じブロックベクトルを有していない実施形態1の場合の図である。 実施形態2による彩度ブロックベクトル導出の図である。 1つのコロケートされた輝度サブブロックについてブロックベクトルが使用可能であるときの実施形態2による彩度ブロックベクトル導出の図である。 実施形態2による彩度ブロックベクトル導出のフローチャートの図である。 4×4彩度サブブロック制限を伴う彩度ブロックベクトルの例示的な導出の図である。 一般的な記載の態様下での符号化/復号するためのプロセッサベースのシステムの図である。 一般的な記載の態様下での方法の一実施形態の図である。 一般的な記載の態様下での方法の別の実施形態の図である。 記載の態様下での例示的な装置の図である。
本明細書に記載の実施形態は、ビデオ圧縮の分野にあり、一般に、ビデオ圧縮並びにビデオ符号化および復号に関する。
高い圧縮効率を達成するために、画像およびビデオコード化方式は、通常、ビデオコンテンツにおける空間および時間冗長性を利用するために、動きベクトル予測を含む予測および変換を使用する。一般に、フレーム内相関またはフレーム間相関を利用するためにイントラ予測またはインター予測が使用され、次いで、予測エラーまたは予測残差としてしばしば示される元の画像と予測された画像との間の差が変換、量子化、およびエントロピー符号化される。ビデオを再構築するために、圧縮されたデータは、エントロピー符号化、量子化、変換、および予測に対応する逆処理によって復号される。
HEVC(高効率ビデオコード化、ISO/IEC23008-2、ITU-T H.265)ビデオ圧縮標準では、ビデオの連続するピクチャ間に存在する冗長性を利用するために、動き補償時間予測が使用される。
それを行うために、動きベクトルが各予測ユニット(PU)に関連付けられる。各符号化ツリーユニット(CTU)は、圧縮領域における符号化ツリーによって表される。これは、CTUの四分木分割であり、各葉は符号化ユニット(CU)と呼ばれる。
次いで、各CUには、いくつかのイントラ予測パラメータまたはインター予測パラメータ(Prediction Info)が与えられる。それを行うために、各CUは、1つまたは複数の予測ユニット(PU)に空間的に区画され、各PUには、何らかの予測情報が割り当てられる。イントラ符号化モードまたはインター符号化モードがCUレベルに割り当てられる。
共同探索モデル(JEM:Joint Exploration Model)として知られる新しいビデオ圧縮標準のためのJVET(共同ビデオ探索チーム)提案では、高い圧縮性能のために四分木-二分木(QTBT)ブロック区画構造を受け入れることが提案されている。二分木(BT)内のブロックを、中央で水平または垂直に分割することによって、2つの等しいサイズのサブブロックに分割することができる。したがって、BTブロックは、ブロックが常に等しい高さおよび幅を有する方形の形状を有するQT内のブロックとは異なり、不均等な幅および高さを有する矩形の形状を有することができる。HEVCでは、角度イントラ予測方向は、180度にわたって45度から-135度に定義されており、JEMにおいて維持されており、それにより、角度方向の定義が標的ブロック形状とは独立したものとなっている。
これらのブロックを符号化するために、イントラ予測が使用され、以前に再構築されている隣のサンプルを使用してブロックの推定バージョンを提供する。次いで、ソースブロックと予測との間の差が符号化される。上記の従来のコーデックでは、参照サンプルの単一のラインが、現在のブロックの左および上部で使用される。
HEVC(高効率ビデオコード化、H.265)では、ビデオシーケンスのフレームの符号化は、四分木(QT)ブロック区画構造に基づく。フレームが方形の符号化ツリーユニット(CTU)に分割され、それらは全て、レート歪み(RD)基準に基づいて複数の符号化ユニット(CU)への四分木ベースの分割を受ける。各CUは、イントラ予測される、すなわち、原因となる隣のCUから空間的に予測されるか、またはインター予測される、すなわち、すでに復号されている参照フレームから時間的に予測される。Iスライスでは、全てのCUがイントラ予測され、一方、PスライスおよびBスライスでは、CUは、イントラ予測またはインター予測され得る。イントラ予測については、HEVCは、1つのプラナー(Planar)モード(モード0としてインデックスされる)、1つのDCモード(モード1としてインデックスされる)、および33の角度モード(モード2~34としてインデックスされる)を含む35の予測モードを定義する。角度モードは、時計回り方向で45度から-135度の範囲の予測方向に関連付けられる。HEVCは四分木(QT)ブロック区画構造をサポートするので、全ての予測ユニット(PU)は、方形の形状を有する。したがって、45度から-135度の予測角度の定義は、PU(予測ユニット)形状から見て正当化される。サイズがN×N個の画素の標的予測ユニットについては、上部参照アレイおよび左参照アレイは、それぞれサイズが2N+1サンプルのものであり、これは、全ての標的画素について前述の角度範囲をカバーするために必要とされる。PUの高さおよび幅が等しい長さのものであることを考えると、2つの参照アレイの長さが等しいこともまた納得がゆく。
本発明は、ビデオ圧縮の分野にある。既存のビデオ圧縮システムに比べてインター符号化されたブロックにおける双方向予測を改善することを目的とする。また、本発明は、スライス間について輝度と彩度の符号化ツリーを分離することを提案する。
HEVCビデオ圧縮標準では、ピクチャがいわゆる符号化ツリーユニット(CTU)に分割され、そのサイズは、典型的には、64×64、128×128または256×256画素である。各CTUは、圧縮領域における符号化ツリーによって表される。これは、CTUの四分木分割であり、各葉(leaf)は符号化ユニット(CU)と呼ばれ、図1を参照されたい。
次いで、各CUには、いくつかのイントラ予測パラメータまたはインター予測パラメータ(Prediction Info)が与えられる。それを行うために、各CUは、1つまたは複数の予測ユニット(PU)に空間的に区画され、各PUには、何らかの予測情報が割り当てられる。イントラ符号化モードまたはインター符号化モードがCUレベルに割り当てられ、図2を参照されたい。
圧縮領域における符号化ツリーユニット表現を含む新しく登場しつつあるビデオ圧縮ツールが、圧縮領域においてピクチャデータをより柔軟表すために提案されている。符号化ツリーのこのより柔軟な表現の利点は、HEVC標準のCU/PU/TU構成に比べて高められた圧縮効率を提供することである。
四分木プラス二分木(QTBT)符号化ツールは、この高められた柔軟性を提供する。それは、符号化ユニットを四分木式に、および二分木式に分割できる符号化ツリーにある。符号化ツリーユニットのそのような符号化ツリー表現が図3に示されている。
符号化ユニットの分割は、エンコーダ側において、最小のレート歪みコストを有するCTUのQTBT表現を決定することにあるレート歪み最適化手順を通じて判断される。
QTBT技術では、CUは、方形または矩形の形状を有する。符号化ユニットのサイズは、常に2の累乗、典型的には4から128になる。
符号化ユニットのためのこの様々な矩形の形状に加えて、この新しいCTU表現は、HEVCに比べて以下の異なる特徴を有する。
CTUのQTBT分解は、2つの段階からなる。すなわち最初にCTUが四分木式に分割され、ついて各四分木の葉を二分木式でさらに分割することができる。これは図3の右に示されており、実線は四分木分解フェーズを表し、破線は、四分木の葉に空間的に埋め込まれる二分木分解を表す。
スライス内では、輝度および彩度ブロック区画構造が分離され、独立して判断される。この特徴は、以下で二重木(dual tree)とも呼ばれる。
JVET K0076において提案されている現ピクチャ参照(CPR)は、VTM-3.0(多目的ビデオコード化テストモデル)に一体化されている。CPRがイネーブルであるとき、現在のピクチャは参照ピクチャリストに追加され、Iスライスの代わりにPスライスが使用される。ピクチャ間と同じ予測モードが使用される。
本明細書に記載の一般的な態様によって解決される1つの問題は、CPRコード化ツールが使用され、二重木モードがアクティブ化される場合、彩度ブロックのコード化効率をいかに最大化するか、および二重木がイネーブルであるとき現ピクチャ参照モードにおける彩度成分のためのブロックベクトルをいかに初期化するかである。この問題の変形形態は、コロケートされた輝度サブブロックが4×4であるとき、4×4彩度サブブロック制限にいかに対処するかである。
以下では、「ブロックベクトル」は、現在のピクチャを参照する動きベクトルを表す。
CPRと共に二重木を使用するための従来技術の提案は、以下のものである。
第1の手法、JVET-K0076では、二重木は、現在のピクチャが使用可能な唯一の参照フレームである場合のみ使用される。輝度および彩度について別々の区画木が使用されるとき、彩度CUがCPRモードでコード化され得、対応する彩度ブロックベクトルは、コロケートされた輝度サンプルに関連付けられたコード化モードから導出される。より具体的には、彩度CUの対応する輝度サンプルが、CPRモードによるそれらのサンプルのカバレッジの点でチェックされる。以下の方法は、彩度の別々の符号化ツリーがイネーブルである異なる場合を扱うために提案されている。
・ フルカバレッジ:対応する輝度サブブロック全てがCPRモードでコード化される。この場合、現在の彩度CUを、CPRモードでコード化することができる。各彩度サブブロックについては、そのブロックベクトルがその対応する輝度ブロックのブロックベクトルから導出される。他の使用可能なモード(イントラ、PCMなど)または分割を、考慮されている彩度CUについてさらに選ぶこともできる。
・ カバレッジなし、または部分的なカバレッジ:対応する輝度サブブロックがCPRモードでコード化されない、または一部だけがコード化される。この場合、現在の彩度CUは、使用可能なモード(イントラモード、PCMなど)の1つでコード化されることになり、CPRモードではコード化されず、さらに分割されることもない。
別の手法、JVET-K0450では、CPRが輝度から直接モードで追加される(DM)。
- 現在の彩度ブロックのコロケートされた5つの位置をカバーする輝度ブロックの予測タイプをチェックする。これらの5つの位置は、中央(CR)、左上(TL)、右上(TR)、左下(BL)、および右下(BR)の順でチェックされる。チェックされた位置のうちの少なくとも1つについて輝度においてCPRが使用されている場合には、下記のステップが適用される。
- 輝度と彩度との間の解像度差に従って輝度ブロック間の動きベクトル(MV)をスケーリングする。次いで、復号されている現在のピクチャのDPBコピー内に参照サンプルがあるかどうかチェックするために、スケーリングされたMVが現在の彩度ブロックについて有効であるかどうかチェックする。スケールおよびチェック動作もまた、CR、TL、TR、BL、およびBRの順である。
スケーリング後、CPR輝度ブロックが見つかり、そのMVが現在の彩度ブロックについて有効である場合には、CPRモードが、CCLM(クロスコンポーネント線形モデル:Cross Component Linear Model)モードのすぐ後に候補リスト内に入れられる。そうでない場合、CPRモードはリストに追加されない。これはCPRモードをリスト内に入れるときリストの長さを変更せず、これは、従来のイントラ予測モードが除去されることを意味する。また、CPRモードに関連付けられたMVは、輝度ブロック間から最初にスケーリングされた有効なMVにすぎない。
「Separate coding tree for luma chroma in inter slices」という名称の出願では、彩度のための動きベクトルが、コロケートされた輝度ブロックから導出される。各彩度サブブロックについて、コロケートされた輝度の動きベクトルが使用され、コロケートされた輝度ブロックがイントラ符号化される場合には、図4に示されているように、デフォルトベクトル、すなわち現在のブロック内で見つかる最初の動きベクトル、またはヌルベクトルが使用される。
本明細書に記載の態様の1つの目的は、現ピクチャ参照と共に二重木がイネーブルであるときコード化効率を改善することである。
上記に提示されているJVET-K0076の従来技術の方法では、CPRは、上述の「フルカバレッジ」の場合においてのみ可能にされる。これは、コード化効率の点でCPRツールを最適に満たないものにする可能性がある。実際、CPRを使用しないコロケートされた輝度の小部分を有することにより、考慮されている彩度ブロックについてコーデックがCPRを使用することができない。
したがって、本明細書における提案されている態様の一態様は、いくつかのコロケートされた輝度サブブロックがCPRモードでコード化されない場合でさえ、ブロックベクトルを彩度ブロックに割り当てるための何らかのポリシーを通じて、そのような状況におけるCPRを可能にすることを含む。
2つの影響を受けるコーデックモジュールが、図5の動き推定175、および図6の動き補償275モジュールである。
VTM-3.0では、CPRおよび二重木がイネーブルであるとき、彩度ブロックは、各サブブロックについてコロケートされたブロックベクトルを再使用する。1つの制約が、エンコーダにて検証される。すなわち、全てのコロケートされた輝度サブブロックは、CPRモードを使用するべきである。非準拠のエンコーダは、コロケートされたベクトルが使用可能でない場合ベクトルが使用されないデコーダにて明記されない挙動を生み出し得るビットストリームを生み出し得る。
輝度ブロックベクトルカバレッジが部分的である、またはそれがない彩度現ピクチャ参照
第1の実施形態では、図7に示されているように、コロケートされた輝度ブロックがCPRコード化されない場合、左の彩度サブブロックからの輝度ベクトルが使用され、左の彩度サブブロックがCPRコード化されない場合、上方の彩度サブブロックからの輝度ベクトルが使用され、それが使用可能でない場合、デフォルトベクトルが使用される。このデフォルトベクトルは、(-2*幅,0)に初期化され得る。一変形形態によれば、いくつかの他のデフォルトブロックベクトル値を使用することができ、または値を指定することができる。
図8は、第1の実施形態による彩度ブロックベクトル導出を示す。コロケートされたブロックベクトルは、右下のサブブロックについて使用可能でなく、その結果、彩度ブロックベクトルは、左のサブブロックの彩度ブロックベクトルからコピーされる。
図9では、デフォルトベクトルがブロックの冒頭で使用される別の例が示されている。
図10では、左の彩度サブブロックベクトルが使用可能でないとき上方の彩度サブブロックベクトルが使用される別の例が示されている。
一変形形態では、図11に示されているように、左および上方の彩度サブブロックが、コロケートされた輝度ブロックの外側にとられ得る。この変形形態の一実施形態では、これらのサブブロックは、これらのサブブロックが同じCTU内に位置する場合、コロケートされた輝度ブロックの外側にとられ得、そうでない場合、データは、使用可能でないと考えられる。
Figure 2022507874000002
表1に示されている、提案されている技法の結果は、クラスFおよびTGM(動きのあるテキストおよびグラフィック)シーケンスに対する改善を示す。
輝度区画に依存する彩度ブロックベクトル導出
第2の実施形態では、彩度ブロックベクトルを導出するために、コロケートされた輝度ブロック区画が考慮される。場合によっては、図12のように、同じコロケートされた輝度ブロックに対応する多数の彩度サブブロックが、異なるブロックベクトルを有し得る。
第1の実施形態と同じブロックベクトル導出が使用されるが、この導出は1回だけ行われ、次いで、図13に示されているように、1つの輝度ブロックに対応する全ての彩度サブブロックは、同じブロックベクトルを共有する。この例では、コロケートされた輝度サブブロック内にブロックベクトルが見つからず、その結果、隣り合う(左の)彩度サブブロックからのブロックベクトルが選択される。
コロケートされた輝度サブブロックの1つにおいてブロックベクトルが使用可能である場合、図14に示されているように、このベクトルが選択される。コロケートされたサブブロック位置が1つだけチェックされてもよく(例えば、中央位置)、またはブロックベクトルが見つかるまで、全てのコロケートされたサブブロック位置がチェックされてもよい。
1つの輝度ブロックに対応する全ての彩度サブブロックについて同じベクトルを使用することにより、我々は、輝度と彩度の間で動きの不連続がないことを確実にする。第2の実施形態による彩度ブロックベクトル導出は、図15に示されている。
彩度4×4制限の扱い
JVET-L0265では、彩度成分のためのサブブロックサイズは、アフィンコード化されたブロックの場合、2×2から4×4に拡大される。この制限は、全ての他のコード化モードに拡張することができる。この場合、図16に示されているように、多数のコロケートされた輝度サブブロックからの彩度ブロックベクトルの導出を扱うことが必要とされる。
そのような場合、いくつかの輝度サブブロックと重なり合う彩度サブブロックのブロックベクトルを導出するための提案されている解決策は、考慮されている彩度サブブロックの輝度コロケートベクトルブロックのためのデフォルト位置を使用することである。一例として、現在の彩度サブブロックによってカバーされる輝度エリア内の左上の輝度サブブロックを考慮することができる。
モード調和化
分離された木の輝度/彩度オンまたはオフ間のコード化モードに応じて、調和化が好ましいものとなり得る。上記の解決策を、そのような調和化を得るために使用することができる。
- 第1の変形形態では、サブブロックの彩度ブロックベクトルは、上記の第1の実施形態および第2の実施形態に記載のように体系的に導出される。この変形形態では、輝度モードにかかわらず、彩度のためのCPRモードが使用可能である。
- 第2の変形形態では、彩度CPR動きベクトルを導出するために、輝度の左上のサブブロックだけが使用される。この場合、CPR彩度モードは、このサブブロックの輝度モードと共に条件付きで示すことができることが有利である。典型的には、CPRモードは、輝度成分の左上のモードがCPRコード化モードを使用しないとき示されない。
本明細書に記載の一般的な態様下での方法1800の一実施形態が図18に示されている。この方法は、開始ブロック1801で始まり、制御は、ビデオブロックのコロケートされた輝度ブロックベクトルに対応する彩度ブロックベクトルを得るためのブロック1810に進む。制御は、ブロック1810から、コロケートされた輝度ブロック、左の彩度サブブロック、または上方の彩度サブブロックが現ピクチャ参照モードにおいてコード化されるかどうか順に決定するためのブロック1820に進む。制御は、ブロック1820から、真である決定するステップについて、現在の彩度ブロックベクトルを対応するコロケートされた輝度ブロックベクトル、左の彩度サブブロックベクトル、または上方の彩度サブブロックベクトルにそれぞれ設定するためのブロック1830に進む。制御は、ブロック1830から、彩度ブロックベクトルを使用してビデオブロックを符号化するためのブロック1840に進む。
本明細書に記載の一般的な態様下での方法1900の別の実施形態が図19に示されている。この方法は、開始ブロック1901で始まり、制御は、ビデオブロックのコロケートされた輝度ブロックベクトルに対応する彩度ブロックベクトルを得るためのブロック1910に進む。制御は、ブロック1910から、コロケートされた輝度ブロック、左の彩度サブブロック、または上方の彩度サブブロックが現ピクチャ参照モードにおいてコード化されているかどうか順に決定するためのブロック1920に進む。制御は、ブロック1920から、真である決定するステップについて、現在の彩度ブロックベクトルを対応するコロケートされた輝度ブロックベクトル、左の彩度サブブロックベクトル、または上方の彩度サブブロックベクトルにそれぞれ設定するためのブロック1930に進む。制御は、ブロック1930から、彩度ブロックベクトルを使用してビデオブロックを復号するためのブロック1940に進む。
図20は、隣り合うサンプル依存のパラメトリックモデルに基づくコード化モードの単純化を使用してビデオデータを符号化、復号、圧縮または伸張するための装置2000の実施形態を示す。この装置は、プロセッサ2010を備え、少なくとも1つのポートを通じてメモリ2020に相互接続することができる。プロセッサ2010およびメモリ2020は共に、外部接続に対する1つまたは複数の追加の相互接続を有することもできる。
また、プロセッサ2010は、ビットストリーム内の情報を挿入または受信するように構成され、記載の態様のいずれかを使用して圧縮、符号化または復号する。
本願は、ツール、特徴、実施形態、モデル、手法などを含む様々な態様について記載している。これらの態様の多くは、具体的に記載されており、少なくとも個々の特徴を示すために、しばしば限定的なものに思われ得るように記載されている。しかし、これは説明をわかりやすくするためのものであり、これらの態様の応用または範囲を限定しない。実際、異なる態様の全てを組み合わせ、相互交換し、さらなる態様を提供することができる。さらに、これらの態様は、先の出願に記載の態様とも組み合わせ、相互交換することができる。
本願に記載され企図されている態様は、多数の異なる形態で実装することができる。図5、図6および図17は、いくつかの実施形態を提供しているが、他の実施形態が企図されており、図5、図6および図17の考察は、広い実装を限定しない。これらの態様のうちの少なくとも1つは、一般に、ビデオ符号化および復号に関し、少なくとも1つの他の態様は、一般に、生成または符号化されたビットストリームを送信することに関する。これらおよび他の態様は、方法、装置、記載の方法のいずれかに従ってビデオデータを符号化もしくは復号するための命令を記憶しているコンピュータ可読記憶媒体、および/または記載の方法のいずれかに従って生成されたビットストリームを記憶しているコンピュータ可読記憶媒体として実装することができる。
本願では、「再構築される」および「復号される」という用語は、相互交換可能に使用され得、「画素」および「サンプル」という用語は、相互交換可能に使用され得、「画像」「ピクチャ」および「フレーム」という用語は、相互交換可能に使用され得る。必然的ではないが通常、「再構築される」という用語は、エンコーダ側で使用され、一方、「復号される」は、デコーダ側で使用される。
様々な方法が本明細書に記載されており、方法のそれぞれは、記載の方法を達成するための1つまたは複数のステップまたはアクションを含む。方法の適正な動作のためにステップまたはアクションの特定の順序が必要とされない限り、特定のステップおよび/またはアクションの順序および/または使用は、修正または組み合わされてよい。
本願に記載の様々な方法および他の態様は、モジュール、例えば、図5および図6に示されているビデオエンコーダ100およびデコーダ200のイントラ予測、エントロピー符号化、および/または復号モジュール(160、360、145、330)を修正するために使用することができる。さらに、本態様は、VVCまたはHEVCに限定されず、例えば、以前から存在するか将来開発されるかにかかわらず、他の標準および推奨、および任意のそのような標準および推奨(VVCおよびHEVCを含む)の拡張に適用することができる。別段示されていない限り、または技術的に排除されない限り、本願に記載の態様は、個々に、または組合せで使用することができる。
様々な数値が本願に使用されている。特定の値は、例示的な目的のためのものであり、記載の態様はこれらの特定の値に限定されない。
図5は、エンコーダ100を示す。このエンコーダ100の変形形態が企図されているが、エンコーダ100は、全ての予想される変形形態について記載することなく、わかりやすくするために下記に記載されている。
符号化される前、ビデオシーケンスは、符号化前処理(101)を受けてもよく、例えば、色変換を入力色ピクチャに適用し(例えば、RGB4:4:4からYCbCr4:2:0に変換)、または(例えば、色成分のうちの1つのヒストグラム等化を使用して)信号分布を圧縮に対してより弾力的なものにするために入力ピクチャ成分の再マッピングを実施する。メタデータを前処理に関連付け、ビットストリームに添付することができる。
エンコーダ100では、下記のように、ピクチャがエンコーダ要素によって符号化される。符号化されることになるピクチャは、区画され(partitioned)(102)、例えばCUのユニットで処理される。各ユニットは、例えばイントラモードまたはインターモードを使用して符号化される。ユニットがイントラモードで符号化されるとき、それはイントラ予測(160)を実施する。インターモードでは、動き推定(175)および動き補償(170)が実施される。エンコーダは、ユニットを符号化するためにイントラモードまたはインターモードのどれを使用するか判断し(105)、例えば予測モードフラグによってイントラ/インター判断を示す。予測残差が例えば、予測されたブロックを元の画像ブロックから減じる(110)ことによって計算される。
次いで、予測残差は、変換(125)および量子化(130)される。量子化された変換係数、並びに動きベクトルおよび他のシンタックス要素は、ビットストリームを出力するためにエントロピー符号化される(145)。エンコーダは、変換をスキップし、変換されていない残差信号に量子化を直接適用することができる。エンコーダは、変換および量子化を共にバイパスすることができ、すなわち、残差は、変換処理または量子化処理の適用なしに直接コード化される。
エンコーダは、さらなる予測のための参照を提供するために、符号化されたブロックを復号する。量子化された変換係数は、予測残差を復号するために逆量子化(140)および逆変換(150)される。復号された予測残差および予測されたブロックを組み合わせる(155)と、画像ブロックが再構築される。例えばブロック解除/SAO(サンプル適応オフセット)フィルタリングを実施して符号化アーチファクトを低減するために、ループ内フィルタ(165)が再構築されたピクチャに適用される。フィルタされた画像は、参照ピクチャバッファ(180)に記憶される。
図6は、ビデオデコーダ200のブロック図を示す。デコーダ200では、下記のように、デコーダ要素によってビットストリームが復号される。ビデオデコーダ200は、一般に、図5に記載の符号化パスの逆の復号パスを実施する。また、エンコーダ100は、一般に、ビデオデータを符号化する一部としてビデオ復号を実施する。
具体的には、デコーダの入力は、ビデオエンコーダ100によって生成することができるビデオビットストリームを含む。ビットストリームは、最初に、変換係数、動きベクトル、他のコード化された情報を得るためにエントロピー復号される(230)。ピクチャ区画情報は、ピクチャがどのように区画されているかを示す。したがって、デコーダは、復号されたピクチャ区画情報に従ってピクチャを分割し得る(235)。変換係数は、予測残差を復号するために、逆量子化(240)および逆変換(250)される。復号された予測残差および予測されたブロックを組み合わせる(255)と、画像ブロックが再構築される。予測されたブロックは、イントラ予測(260)または動き補償予測(すなわち、インター予測)(275)から得ることができる(270)。ループ内フィルタ(265)が再構築画像に適用される。フィルタされた画像は、参照ピクチャバッファ(280)に記憶される。
復号されたピクチャは、復号後処理(285)、例えば逆色変換(例えば、YCbCr4:2:0からRGB4:4:4に変換)、または符号化前処理(101)において実施された再マッピング処理の逆を実施する逆再マッピングをさらに受けることができる。復号後処理は、符号化前処理において導出され、ビットストリーム内で示されるメタデータを使用することができる。
図17は、様々な態様および実施形態が実装されるシステムの一例のブロック図を示す。システム1000は、下記の様々なコンポーネントを含むデバイスとして具体化することができ、本書に記載の態様のうちの1つまたは複数を実施するように構成される。そのようなデバイスの例は、それだけには限らないが、パーソナルコンピュータ、ラップトップコンピュータ、スマートフォン、タブレットコンピュータ、デジタルマルチメディアセットトップボックス、デジタルテレビ受信機、パーソナルビデオ録画システム、コネクテッド家電、およびサーバなど様々な電子デバイスを含む。システム1000の要素は、単独または組合せで、単一の集積回路(IC)、複数のIC、および/またはディスクリートコンポーネントで具体化することができる。例えば、少なくとも1つの実施形態では、システム1000の処理およびエンコーダ/デコーダ要素は、複数のICおよび/またはディスクリートコンポーネントにわたって分散される。様々な実施形態では、システム1000は、例えば、通信バスを介して、または専用の入力および/もしくは出力ポートを通じて1つまたは複数の他のシステムまたは他の電子デバイスに通信可能に結合される。様々な実施形態では、システム1000は、本書に記載の態様のうちの1つまたは複数を実装するように構成される。
システム1000は、例えば本書に記載の様々な態様を実装するために、ロードされた命令を実行するように構成された少なくとも1つのプロセッサ1010を含む。プロセッサ1010は、埋込みメモリ、入力出力インターフェース、および当技術分野で知られている様々な他の回路を含むことができる。システム1000は、少なくとも1つのメモリ1020(例えば、揮発性メモリデバイスおよび/または不揮発性メモリデバイス)を含む。システム1000は、それだけには限らないが、電気的消去可能なプログラム可能読出し専用メモリ(EEPROM)、読出し専用メモリ(ROM)、プログラム可能読出し専用メモリ(PROM)、ランダムアクセスメモリ(RAM)、ダイナミックランダムアクセスメモリ(DRAM)、スタチックランダムアクセスメモリ(SRAM)、フラッシュ、磁気ディスクドライブ、および/または光ディスクドライブを含む不揮発性メモリおよび/または揮発性メモリを含むことができる記憶デバイス1040を含む。記憶デバイス1040は、非限定的な例として、内部記憶デバイス、取り付けられた記憶デバイス(取外し可能および非取外し可能記憶デバイスを含む)、および/またはネットワークアクセス可能な記憶デバイスを含むことができる。
システム1000は、例えば、符号化されたビデオまたは復号されたビデオを提供するためにデータを処理するように構成されたエンコーダ/デコーダモジュール1030を含み、エンコーダ/デコーダモジュール1030は、それ自体のプロセッサおよびメモリを含むことができる。エンコーダ/デコーダモジュール1030は、符号化機能および/または復号機能を実施するためのデバイスに含まれ得るモジュールを表す。知られているように、デバイスは、符号化モジュールおよび復号モジュールの一方または両方を含むことができる。さらに、エンコーダ/デコーダモジュール1030は、システム1000の別々の要素として実装することができ、または当業者に知られているようにハードウェアおよびソフトウェアの組合せとしてプロセッサ1010内に組み込むことができる。
本書に記載の様々な態様を実施するためにプロセッサ1010またはエンコーダ/デコーダ1030にロードされることになるプログラムコードは、記憶デバイス1040内に記憶し、その後、プロセッサ1010によって実行するためにメモリ1020上にロードすることができる。様々な実施形態によれば、プロセッサ1010、メモリ1020、記憶デバイス1040、およびエンコーダ/デコーダモジュール1030のうちの1つまたは複数は、本書に記載処理の実施中、様々な項目のうちの1つまたは複数を記憶することができる。そのような記憶される項目は、それだけには限らないが、入力ビデオ、復号されたビデオまたは復号されたビデオの一部分、ビットストリーム、行列、変数、並びに式、公式、演算および動作論理の処理からの中間結果または最終結果を含むことができる。
いくつかの実施形態では、プロセッサ1010および/またはエンコーダ/デコーダモジュール1030内部のメモリは、命令を記憶するために、また符号化または復号中に必要とされる処理のためのワーキングメモリを提供するために使用される。しかし、他の実施形態では、処理デバイス(例えば、処理デバイスは、プロセッサ1010またはエンコーダ/デコーダモジュール1030とすることができる)の外部のメモリがこれらの機能のうちの1つまたは複数のために使用される。外部メモリは、メモリ1020および/または記憶デバイス1040、例えばダイナミック揮発性メモリおよび/または不揮発性フラッシュメモリとすることができる。いくつかの実施形態では、外部不揮発性フラッシュメモリは、例えばテレビジョンのオペレーティングシステムを記憶するために使用される。少なくとも1つの実施形態では、RAMなど高速ダイナミック外部揮発性メモリが、MPEG-2(MPEGは、動画専門家集団を指し、MPEG-2は、ISO/IEC13818とも称され、13818-1は、H.222としても知られ、13818-2は、H.262としても知られる)、HEVC(HEVCは、高効率ビデオコード化を指し、H.265およびMPEG-H Part2としても知られる)、またはVVC(多目的ビデオコード化、JVET、Joint Video Experts Teamによって開発されている新しい標準)用など、ビデオコード化および復号動作のためにワーキングメモリとして使用される。
システム1000の要素に対する入力は、ブロック1130に示されている様々な入力デバイスを通じて提供することができる。そのような入力デバイスは、それだけには限らないが、(i)例えば放送局によって無線で送信されるRF信号を受信する無線周波数(RF)部、(ii)コンポーネント(COMP)入力端子(またはCOMP入力端子のセット)、(iii)USB入力端子、および/または(iv)HDMI(登録商標)入力端子を含む。図17に示されていない他の例は、コンポジットビデオを含む。
様々な実施形態では、ブロック1130の入力デバイスは、当技術分野で知られているように関連のそれぞれの入力処理要素を有する。例えば、RF部は、(i)所望の周波数を選択し(信号を選択すること、または信号を周波数のある帯域に帯域制限することとも称される)、(ii)選択された信号をダウンコンバートし、(iii)(例えば)いくつかの実施形態ではチャネルと称することができる信号周波数帯域を選択するために周波数の狭帯域に再び帯域制限し、(iv)ダウンコンバートおよび帯域制限された信号を復調し、(v)誤り訂正を実施し、(vi)データパケットの所望のストリームを選択するために逆多重化するのに適した要素に関連付けられ得る。様々な実施形態のRF部は、これらの機能を実施するための1つまたは複数の要素、例えば、周波数セレクタ、信号セレクタ、帯域リミッタ、チャネルセレクタ、フィルタ、ダウンコンバータ、復調器、誤り訂正器、およびデマルチプレクサを含む。RF部は、例えば受信された信号をより低い周波数(例えば、中間周波数または近ベースバンド周波数)に、またはベースバンドにダウンコンバートすることを含む、様々なこれらの機能を実施するチューナを含むことができる。1つのセットトップボックス実施形態では、RF部およびその関連の入力処理要素は、有線(例えば、ケーブル)媒体で送信されるRF信号を受信し、フィルタリング、ダウンコンバート、および所望の周波数帯域に再びフィルタリングすることによって周波数選択を実施する。様々な実施形態は、上記の(および他の)要素の順序を再配置し、これらの要素のいくつかを除去し、および/または同様の、もしくは異なる機能を実施する他の要素を追加する。要素を追加することは、例えば増幅器およびアナログ-デジタルコンバータを挿入することなど、既存の要素間に要素を挿入することを含むことができる。様々な実施形態では、RF部は、アンテナを含む。
さらに、USBおよび/またはHDMI端末は、USBおよび/またはHDMI接続を挟んでシステム1000を他の電子デバイスに接続するためのそれぞれのインターフェースプロセッサを含むことができる。入力処理の様々な態様、例えばリードソロモン誤り訂正は、例えば、必要に応じて別々の入力処理IC内またはプロセッサ1010内で実装することができることを理解されたい。同様に、USBまたはHDMIインターフェース処理の態様は、必要に応じて、別々のインターフェースIC内またはプロセッサ1010内で実装することができる。復調され、誤り訂正され、逆多重化されたストリームは、出力デバイス上で提示するための必要に応じてデータストリームを処理するために、例えばメモリおよび記憶要素との組合せで動作するプロセッサ1010およびエンコーダ/デコーダ1030を含む様々な処理要素に提供される。
システム1000の様々な要素は、一体化されたハウジング内に設けることができ、一体化されたハウジング内では、様々な要素は相互接続され、好適な接続構成、例えばインターIC(I2C)バスを含む当技術分野で知られている内部バス、配線、およびプリント回路板を使用して、それらの間でデータを送信することができる。
システム1000は、通信チャネル1060を介して他のデバイスとの通信を可能にする通信インターフェース1050を含む。通信インターフェース1050は、それだけには限らないが、通信チャネル1060でデータを送信および受信するように構成されたトランシーバを含むことができる。通信インターフェース1050は、それだけには限らないが、モデムまたはネットワークカードを含むことができ、通信チャネル1060は、例えば有線および/または無線媒体内で実装することができる。
データは、様々な実施形態では、Wi-Fiネットワーク、例えばIEEE802.11(IEEEは、電気電子学会を指す)など無線ネットワークを使用して、システム1000にストリーミングまたは他の方法で提供される。これらの実施形態のWi-Fi信号は、Wi-Fi通信に適合された通信チャネル1060および通信インターフェース1050で受信される。これらの実施形態の通信チャネル1060は、典型的には、ストリーミングアプリケーションおよび他のオーバーザトップ通信を可能にするインターネットを含む外部ネットワークへのアクセスを提供するアクセスポイントまたはルータに接続される。他の実施形態は、入力ブロック1130のHDMI接続でデータを送るセットトップボックスを使用してストリーミングデータをシステム1000に提供する。さらに他の実施形態は、入力ブロック1130のRF接続を使用してストリーミングデータをシステム1000に提供する。上記のように、様々な実施形態は、データを非ストリーミング式で提供する。さらに、様々な実施形態は、Wi-Fi以外の無線ネットワーク、例えばセルラネットワークまたはBluetoothネットワークを使用する。
システム1000は、ディスプレイ1100、スピーカ1110、および他の周辺デバイス1120を含む様々な出力デバイスに出力信号を提供することができる。様々な実施形態のディスプレイ1100は、例えばタッチスクリーンディスプレイ、有機発光ダイオード(OLED)ディスプレイ、曲面ディスプレイ、および/または折り畳み可能ディスプレイのうちの1つまたは複数を含む。ディスプレイ1100は、テレビジョン、タブレット、ラップトップ、セルフォン(携帯電話)、または他のデバイス用とすることができる。ディスプレイ1100は、他のコンポーネント(例えば、スマートフォン内のように)と一体化することもでき、または別々(例えば、ラップトップ用の外部モニタ)とすることもできる。他の周辺デバイス1120は、実施形態の様々な例では、スタンドアロンのデジタルビデオディスク(またはデジタル他用途ディスク)レコーダ(両用語についてDVR)、ディスクプレーヤ、ステレオシステム、および/または照明システムのうちの1つまたは複数を含む。様々な実施形態は、システム1000の出力に基づいて機能を提供する1つまたは複数の周辺デバイス1120を使用する。例えば、ディスクプレーヤは、システム1000の出力を再生する機能を実施する。
様々な実施形態では、AV.Link、家電制御(CEC)、またはユーザの介在ありまたはなしにデバイス間制御を可能にする他の通信プロトコルなどシグナリングを使用して、制御信号がシステム1000とディスプレイ1100、スピーカ1110、または他の周辺デバイス1120との間で通信される。出力デバイスは、それぞれのインターフェース1070、1080、および1090を通じて専用接続を介してシステム1000に通信可能に結合され得る。あるいは、出力デバイスは、通信インターフェース1050を介して通信チャネル1060を使用してシステム1000に接続され得る。ディスプレイ1100およびスピーカ1110は、例えばテレビジョンなど電子デバイス内のシステム1000の他のコンポーネントと単一のユニットで一体化することができる。様々な実施形態では、ディスプレイインターフェース1070は、例えばタイミングコントローラ(T Con)チップなどディスプレイドライバを含む。
あるいは、ディスプレイ1100およびスピーカ1110は、例えば入力1130のRF部が別々のセットトップボックスの一部である場合、他のコンポーネントのうちの1つまたは複数から別々とすることができる。ディスプレイ1100およびスピーカ1110が外部コンポーネントである様々な実施形態では、出力信号は、例えばHDMIポート、USBポートまたはCOMP出力を含む専用の出力接続を介して提供することができる。
これらの実施形態は、プロセッサ1010によって実装されるコンピュータソフトウェアによって、またはハードウェアによって、またはハードウェアとソフトウェアの組合せによって実施することができる。非限定的な例として、これらの実施形態は、1つまたは複数の集積回路によって実装することができる。メモリ1020は、技術的環境にとって適切な任意のタイプのものとすることができ、非限定的な例として、光メモリデバイス、磁気メモリデバイス、半導体ベースのメモリデバイス、固定メモリ、および取外し式メモリなど任意の適切なデータ記憶技術を使用して実装することができる。プロセッサ1010は、技術的環境にとって適切な任意のタイプのものとすることができ、非限定的な例として、マイクロプロセッサ、汎用コンピュータ、専用コンピュータ、およびマルチコアアーキテクチャに基づくプロセッサのうちの1つまたは複数を包含することができる。
様々な実装は、復号を含む。本願で使用される「復号」は、例えば、表示に適した最終出力を生成するために受信された符号化済みシーケンスに対して実施される処理の全てまたは一部を包含することができる。様々な実施形態では、そのような処理は、典型的にはデコーダによって実施される処理、例えばエントロピー復号、逆量子化、逆変換、および差動復号のうちの1つまたは複数を含む。様々な実施形態では、そのような処理はまた、または代替として、本願に記載の様々な実装のデコーダによって実施される処理を含む。
さらなる例として、一実施形態では、「復号」は、エントロピー復号だけを指し、別の実施形態では、「復号」は、差動復号だけを指し、別の実施形態では、「復号」は、エントロピー復号と差動復号の組合せを指す。「復号処理」という言葉が動作のサブセットを特に指すことが意図されているか、または一般により広い復号処理を指すことが意図されているかは、特定の説明の文脈に基づいて明らかになり、当業者には十分理解されているものと思われる。
様々な実装は、符号化を含む。「復号」についての上記の考察と同様に、本願で使用される「符号化」は、符号化ビットストリームを生成するために例えば入力されたビデオシーケンスに対して実施される処理の全てまたは一部を包含することができる。様々な実施形態では、そのような処理は、典型的にはエンコーダによって実施される処理、例えば区画化、差動符号化、変換、量子化、およびエントロピー符号化のうちの1つまたは複数を含む。様々な実施形態では、そのような処理はまた、または代替として、本願に記載の様々な実装のエンコーダによって実施される処理を含む。
さらなる例として、一実施形態では、「符号化」は、エントロピー符号化だけを指し、別の実施形態では、「符号化」は、差動符号化だけを指し、別の実施形態では、「符号化」は、差動符号化とエントロピー符号化の組合せを指す。「符号化処理」という言葉が動作のサブセットを特に指すことが意図されているか、または一般により広い符号化処理を指すことが意図されているかは、特定の説明の文脈に基づいて明らかになり、当業者には十分理解されているものと思われる。
本明細書で使用されるシンタックス要素は、記述用語であることに留意されたい。したがって、他のシンタックス要素名の使用を排除しない。
図がフロー図として提示されているとき、それは対応する装置のブロック図をも提供することを理解されたい。同様に、図がブロック図として提示されているとき、それは対応する方法/処理のフロー図をも提供することを理解されたい。
様々な実施形態は、パラメトリックモデルまたはレート歪み最適化を指すことがある。具体的には、符号化処理中、しばしば計算複雑さの制約を考えて、レートと歪みとの間のバランスまたは兼ね合いが通常考慮される。それは、レート歪み最適化(RDO)メトリックを通じて、または最小二乗平均(LMS)、平均絶対誤差(MAE)、または他のそのような測定を通じて測定することができる。レート歪み最適化は、通常、レートと歪みの加重和であるレート歪み関数を最小化することとして公式化される。レート歪み最適化問題を解くために、異なる手法がある。例えば、これらの手法は、全ての考慮されているモードまたはコード化パラメータ値を含む全ての符号化選択肢を、それらのコード化コスト、並びにコード化および復号後、再構築された信号の関連の歪みの完全な評価を用いて、広くテストすることに基づいてもよい。符号化の複雑さを省くために、特に、再構築されたものではなく予測または予測残差信号に基づいた近似された歪みの計算を用いて、より速い手法が使用されてもよい。可能な符号化選択肢のいくつかだけについて近似された歪みを使用し、他の符号化選択肢について完全な歪みを使用することによってなど、これら2つの手法の混合を使用することもできる。他の手法は、可能な符号化選択肢のサブセットを評価するだけである。より一般的には、多数の手法が最適化を実施するために様々な技法のいずれかを使用するが、最適化は、必ずしもコード化コストおよび関連の歪み両方の完全な評価ではない。
本明細書に記載の実装および態様は、例えば方法もしくは処理、装置、ソフトウェアプログラム、データストリーム、または信号で実装することができる。実装の単一の形態の文脈で論じられているだけ(例えば、方法としてだけ論じられている)の場合でさえ、論じられている特徴の実装は、他の形態(例えば、装置またはプログラム)で実装することもできる。装置は、例えば適切なハードウェア、ソフトウェア、およびファームウェアで実装することができる。方法は、例えばコンピュータ、マイクロプロセッサ、集積回路、またはプログラム可能な論理デバイスを含めて、例えば一般に処理デバイスを指すプロセッサで実装することができる。プロセッサは、例えばコンピュータ、セルフォン、ポータブル/パーソナルデジタルアシスタント(PDA)、およびエンドユーザ間の情報の通信を容易にする他のデバイスなど、通信デバイスをも含む。
「one embodiment(一実施形態)」または「an embodiment(一実施形態)」または「one implementation(一実装)」または「an implementation(一実装)」、並びにその他の変形形態に言及することは、その実施形態に関連して記載されている特定の特徴、構造、特性などが少なくとも1つの実施形態に含まれることを意味する。したがって、「in one embodiment(一実施形態では)」または「in an embodiment(一実施形態では)」または「in one implementation(一実装では)」または「in an implementation(一実装では)」という言葉、並びに本願を通して様々な場所に現れる任意の他の変形形態が現れることは、必ずしも全てが同じ実施形態を指していない。
また、本願は、様々な情報を「決定する」と称することがある。情報を決定することは、例えば情報を推定すること、情報を計算すること、情報を予測すること、または情報をメモリから取り出すことのうちの1つまたは複数を含むことができる。
また、本願は、様々な情報に「アクセスする」と称することがある。情報にアクセスすることは、例えば情報を受信すること、情報を(例えばメモリから)取り出すこと、情報を記憶すること、情報を移動すること、情報をコピーすること、情報を計算すること、情報を決定すること、情報を予測すること、または情報を推定することのうちの1つまたは複数を含むことができる。
また、本願は、様々な情報を「受信する」と称することがある。受信することは、「アクセスすること」と同様に、広い用語であることが意図されている。情報を受信することは、例えば情報にアクセスすること、または情報を(例えばメモリから)取り出すことのうちの1つまたは複数を含むことができる。また、「受信すること」は、典型的には、情報を記憶すること、情報を処理すること、情報を送信すること、情報を移動すること、情報をコピーすること、情報を消去すること、情報を計算すること、情報を決定すること、情報を予測すること、または情報を推定することなど動作中、いろいろな点で含まれる。
例えば「A/B」、「Aおよび/またはB」、および「AおよびBのうちの少なくとも1つ」の場合における「/」、「および/または」、および「のうちの少なくとも1つ」のいずれかの使用は、第1のリストされている選択肢(A)だけの選択、または第2のリストされている選択肢(B)だけの選択、または両選択肢(AおよびB)の選択を包含することを理解されたい。さらなる例として、「A、Bおよび/またはC」および「A、B、およびCのうちの少なくとも1つ」の場合、そのような言い回しは、第1のリストされている選択肢(A)だけの選択、または第2のリストされている選択肢(B)だけの選択、または第3のリストされている選択肢(C)だけの選択または第1および第2のリストされている選択肢(AおよびB)だけの選択、または第1および第3のリストされている選択肢(AおよびC)だけの選択、または第2および第3のリストされている選択肢(BおよびC)だけの選択、または3つの選択肢全て(AおよびBおよびC)の選択を包含することが意図されている。これは、本技術分野および関連技術分野の当業者には明らかであるように、リストされている多数の項目と同数について拡張され得る。
また、本明細書で使用される「signal(信号、示す、シグナリング)」という語は、とりわけ、対応するデコーダに対して何かを示すことを指す。例えば、いくつかの実施形態では、エンコーダは、複数の変換、コード化モード、またはフラグの特定のものを信号で示す。このようにして、一実施形態では、同じ変換、パラメータ、またはモードがエンコーダ側およびデコーダ側の両方で使用される。したがって、例えば、エンコーダは、デコーダが同じ特定のパラメータを使用することができるように、特定のパラメータをデコーダに送信する(明示的に信号で示す)ことができる。逆に、デコーダが他のものと同様に特定のパラメータをすでに有する場合には、単にデコーダが特定のパラメータを知り、それを選択することを可能にするために、信号で示すことは、送信することなく使用する(暗黙に信号で示す)ことができる。任意の実際の機能の送信を回避することによって、様々な実施形態においてビット節約が実現される。信号で示すことは、様々なやり方で達成することができることを理解されたい。例えば、様々な実施形態において情報を対応するデコーダに信号で示すために、1つまたは複数のシンタックス要素、フラグなどが使用される。前述したことは、「信号」という語の動詞形態に関するが、「信号」という語は、本明細書では名詞としても使用され得る。
当業者には明らかであるように、実装は、例えば記憶または送信することができる情報を搬送するためにフォーマット化された様々な信号を生成することができる。情報は、例えば、方法を実施するための命令、または記載の実装の1つによって生成されるデータを含むことができる。例えば、信号は、記載の実施形態のビットストリームを搬送するためにフォーマット化され得る。そのような信号は、例えば電磁波(例えば、スペクトルの無線周波数部分を使用して)として、またはベースバンド信号としてフォーマット化され得る。フォーマット化は、例えば、データストリームを符号化すること、および搬送波を符号化されたデータストリームで変調することを含むことができる。信号が搬送する情報は、例えばアナログ情報またはデジタル情報とすることができる。信号は、知られているように、様々な異なる有線または無線リンクで送信することができる。信号は、プロセッサ可読媒体上で記憶することができる。
いくつかの実施形態について記載した。これらの実施形態の特徴は、単独または任意の組合せで提供され得る。さらに、実施形態は、様々なクレームカテゴリおよびタイプにわたって、1つまたは複数の以下の特徴、デバイス、または態様を単独または任意の組合せで含むことができる。
・ デコーダおよび/またはエンコーダにおいて適用される彩度成分のためのブロックベクトルを初期化すること。
・ デコーダおよび/またはエンコーダにおいて二重木および現ピクチャ参照をイネーブルにすること。
・ コロケートされた輝度ブロックが現ピクチャ参照を使用してコード化されない場合、輝度ベクトルを隣り合うサブブロックから適用すること。
・ 少なくとも1つの彩度ブロックベクトルをコロケートされた輝度ブロック区画から導出すること。
・ デコーダおよび/またはエンコーダにおいて適用される輝度ブロックに対応する全ての彩度サブブロックについて同じベクトルが使用されることを確実化すること。
・ 記載のシンタックス要素のうちの1つもしくは複数、またはその変形形態を含むビットストリームまたは信号。
・ シグナリングにおいて、エンコーダによって使用されるものに対応するようにコード化モードを決定するためにデコーダをイネーブルにするシンタックス要素を挿入すること。
・ 記載のシンタックス要素のうちの1つもしくは複数、またはその変形形態を含むビットストリームまたは信号を生み出すこと、および/または送信すること、および/または受信すること、および/または復号すること。
・ 記載の実施形態のいずれかによる変換方法を実施するTV、セットトップボックス、セルフォン、タブレット、または他の電子デバイス。
・ 記載の実施形態のいずれかによる変換方法を実施し、得られる画像を(例えば、モニタ、スクリーン、または他のタイプのディスプレイを使用して)表示するTV、セットトップボックス、セルフォン、タブレット、または他の電子デバイス。
・ 符号化された画像を含む信号を受信するためにチャネルに(例えば、チューナを使用して)同調し、記載の実施形態のいずれかによる変換方法を実施するTV、セットトップボックス、セルフォン、タブレット、または他の電子デバイス。
・ 符号化された画像を含む信号を無線で(例えば、アンテナを使用して)受信し、変換方法を実施するTV、セットトップボックス、セルフォン、タブレット、または他の電子デバイス。

Claims (15)

  1. ビデオブロックのコロケートされた輝度ブロックベクトルに対応する彩度ブロックベクトルを得ることと、
    前記コロケートされた輝度ブロック、左の彩度サブブロック、または上方の彩度サブブロックが現ピクチャ参照モードにおいてコード化されるかどうか順に決定することと、
    真である前記決定することについて、現在の彩度ブロックベクトルを前記対応するコロケートされた輝度ブロックベクトル、左の彩度サブブロックベクトル、または上方の彩度サブブロックベクトルにそれぞれ設定することと、
    前記彩度ブロックベクトルを使用して前記ビデオブロックを符号化することと
    を備える方法。
  2. ビデオブロックのコロケートされた輝度ブロックベクトルに対応する彩度ブロックベクトルを得て、
    前記コロケートされた輝度ブロック、左の彩度サブブロック、または上方の彩度サブブロックが現ピクチャ参照モードにおいてコード化されるかどうか順に決定し、
    真である前記決定することについて、現在の彩度ブロックベクトルを前記対応するコロケートされた輝度ブロックベクトル、左の彩度サブブロックベクトル、または上方の彩度サブブロックベクトルにそれぞれ設定し、
    前記彩度ブロックベクトルを使用して前記ビデオブロックを符号化する
    ように構成されたプロセッサ
    を備えた装置。
  3. ビデオブロックのコロケートされた輝度ブロックベクトルに対応する彩度ブロックベクトルを得ることと、
    前記コロケートされた輝度ブロック、左の彩度サブブロック、または上方の彩度サブブロックが現ピクチャ参照モードにおいてコード化されているかどうか順に決定することと、
    真である前記決定することについて、現在の彩度ブロックベクトルを前記対応するコロケートされた輝度ブロック、左の彩度サブブロックベクトル、または上方の彩度サブブロックベクトルにそれぞれ設定することと、
    前記彩度ブロックベクトルを使用して前記ビデオブロックを復号することと
    を備える方法。
  4. ビデオブロックのコロケートされた輝度ブロックベクトルに対応する彩度ブロックベクトルを得て、
    前記コロケートされた輝度ブロック、左の彩度サブブロック、または上方の彩度サブブロックが現ピクチャ参照モードにおいてコード化されているかどうか順に決定し、
    真である前記決定することについて、現在の彩度ブロックベクトルを前記対応するコロケートされた輝度ブロック、左の彩度サブブロックベクトル、または上方の彩度サブブロックベクトルにそれぞれ設定し、
    前記彩度ブロックベクトルを使用して前記ビデオブロックを復号する
    ように構成されたプロセッサ
    を備えた装置。
  5. 二重木モードおよび現ピクチャ参照がイネーブルである、請求項1若しくは3の方法、または請求項2若しくは4の装置。
  6. コロケートされた輝度ブロックが現ピクチャ参照を使用してコード化されない場合、隣接するサブブロックの輝度ベクトルが適用される、請求項1若しくは3の方法、または請求項2若しくは4の装置。
  7. 少なくとも1つの彩度ブロックベクトルは、コロケートされた輝度ブロック区画から導出される、請求項1若しくは3の方法、または請求項2若しくは4の装置。
  8. 同じベクトルは、輝度ブロックに対応する全ての彩度サブブロックに対して適用される、請求項1若しくは3の方法、または請求項2若しくは4の装置。
  9. 左の彩度サブブロックベクトルが利用可能ではないとき、上方の彩度サブブロックベクトルが使用される、請求項1若しくは3の方法、または請求項2若しくは4の装置。
  10. コロケートされた輝度ブロック区画は、前記彩度ブロックベクトルを導出するために使用される、請求項1若しくは3の方法、または請求項2若しくは4の装置。
  11. コロケートされた輝度サブブロックが利用可能ではないとき、ブロックベクトルが見つかるまで別のコロケートされたサブブロック位置がチェックされる、請求項1若しくは3の方法、または請求項2若しくは4の装置。
  12. 請求項4乃至11のいずれか一項の装置と、
    (i)前記ビデオブロックを含む信号を受信するように構成されたアンテナ、(ii)前記受信された信号を、前記ビデオブロックを含む周波数の帯域に制限するように構成されたバンドリミッタ、および(iii)ビデオブロックを表す出力を表示するように構成されたディスプレイのうちの少なくとも1つと
    を備えたデバイス。
  13. プロセッサを使用して再生するための、請求項1、5乃至11のいずれか一項の方法によって、または請求項2、5乃至11のいずれか一項の装置によって、生成されたデータコンテンツを含む非一時的コンピュータ可読媒体。
  14. プロセッサを使用して再生するための、請求項1、5乃至11のいずれか一項の方法によって、または請求項2、5乃至11のいずれか一項の装置によって、生成されたビデオデータを備える信号。
  15. コンピュータによって実行されると、前記コンピュータに請求項1、3、5乃至11のいずれか一項の方法を実行させる命令を備えたコンピュータプログラム製品。
JP2021528451A 2018-11-20 2019-11-19 二重木を伴う現ピクチャ参照ブロックベクトル初期化 Pending JP2022507874A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18306529.1 2018-11-20
EP18306529 2018-11-20
PCT/US2019/062088 WO2020106653A1 (en) 2018-11-20 2019-11-19 Current picture referencing block vector initialization with dual tree

Publications (1)

Publication Number Publication Date
JP2022507874A true JP2022507874A (ja) 2022-01-18

Family

ID=67436928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021528451A Pending JP2022507874A (ja) 2018-11-20 2019-11-19 二重木を伴う現ピクチャ参照ブロックベクトル初期化

Country Status (5)

Country Link
EP (1) EP3884672A1 (ja)
JP (1) JP2022507874A (ja)
CN (1) CN113170153A (ja)
MX (1) MX2021005911A (ja)
WO (1) WO2020106653A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017206803A1 (en) * 2016-05-28 2017-12-07 Mediatek Inc. Method and apparatus of current picture referencing for video coding
WO2018116925A1 (ja) * 2016-12-21 2018-06-28 シャープ株式会社 イントラ予測画像生成装置、画像復号装置、および画像符号化装置
US10448025B1 (en) * 2018-05-11 2019-10-15 Tencent America LLC Method and apparatus for video coding

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11438609B2 (en) * 2013-04-08 2022-09-06 Qualcomm Incorporated Inter-layer picture signaling and related processes
US10230937B2 (en) * 2013-08-13 2019-03-12 Hfi Innovation Inc. Method of deriving default disparity vector in 3D and multiview video coding
US10567759B2 (en) * 2016-03-21 2020-02-18 Qualcomm Incorporated Using luma information for chroma prediction with separate luma-chroma framework in video coding
EP3547687A4 (en) * 2016-11-28 2020-07-15 Electronics and Telecommunications Research Institute IMAGE ENCODING / DECODING METHOD AND DEVICE AND RECORDING MEDIUM WITH STORED BIT CURRENT

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017206803A1 (en) * 2016-05-28 2017-12-07 Mediatek Inc. Method and apparatus of current picture referencing for video coding
WO2018116925A1 (ja) * 2016-12-21 2018-06-28 シャープ株式会社 イントラ予測画像生成装置、画像復号装置、および画像符号化装置
US10448025B1 (en) * 2018-05-11 2019-10-15 Tencent America LLC Method and apparatus for video coding
JP2021518091A (ja) * 2018-05-11 2021-07-29 テンセント・アメリカ・エルエルシー ビデオ符号化のための方法並びにその装置及びコンピュータプログラム

Also Published As

Publication number Publication date
WO2020106653A1 (en) 2020-05-28
CN113170153A (zh) 2021-07-23
US20220021890A1 (en) 2022-01-20
EP3884672A1 (en) 2021-09-29
MX2021005911A (es) 2021-06-30

Similar Documents

Publication Publication Date Title
JP2022532277A (ja) ピクチャの符号化及び復号のための方法及び装置
JP2022506628A (ja) 隣接サンプル依存パラメトリックモデルに基づいたコーディングモードの簡易化
JP2022510878A (ja) マージリストにおける動きベクトル予測子候補の順序付け
US20240089437A1 (en) Chroma quantization parameter adjustment in video encoding and decoding
JP2022510120A (ja) コード化ツールの組み合わせおよび制限の管理
JP2022502959A (ja) 広角イントラ予測のための方向
JP2023543985A (ja) 多用途ビデオコーディングのためのテンプレートマッチング予測
JP2021526329A (ja) 映像のコード化又は映像の復号のためのシンタックス要素
JP2021528893A (ja) 可変重みを使用する複数参照イントラ予測
JP2022500895A (ja) イントラ変換コード化及び広角イントラ予測の調和
EP4078953A1 (en) Subblock merge candidates in triangle merge mode
JP2022507874A (ja) 二重木を伴う現ピクチャ参照ブロックベクトル初期化
US11979585B2 (en) Current picture referencing block vector initialization with dual tree
US20230232045A1 (en) Scaling process for joint chroma coded blocks
US20230336721A1 (en) Combining abt with vvc sub-block-based coding tools
US20220224902A1 (en) Quantization matrices selection for separate color plane mode
US20210344962A1 (en) Method and apparatus for video encoding and decoding with signaling of coding type or coding tree type
US20220038704A1 (en) Method and apparatus for determining chroma quantization parameters when using separate coding trees for luma and chroma
JP2024513657A (ja) ビデオエンコード及びデコードのためのテンプレートマッチング予測
EP3591971A1 (en) Chroma quantization parameter adjustment in video encoding and decoding
EP3664450A1 (en) Method and device for picture encoding and decoding
CN113994693A (zh) 用于基于照明补偿对块进行编码和解码的方法和装置
CN117616750A (zh) 基于模板的帧内模式推导

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240326