JP2021521721A - マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム - Google Patents

マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム Download PDF

Info

Publication number
JP2021521721A
JP2021521721A JP2020560455A JP2020560455A JP2021521721A JP 2021521721 A JP2021521721 A JP 2021521721A JP 2020560455 A JP2020560455 A JP 2020560455A JP 2020560455 A JP2020560455 A JP 2020560455A JP 2021521721 A JP2021521721 A JP 2021521721A
Authority
JP
Japan
Prior art keywords
reference line
frame
reference lines
frame prediction
lines
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020560455A
Other languages
English (en)
Other versions
JP7104178B2 (ja
Inventor
ジャオ,リアン
ジャオ,シン
リ,シアン
リィウ,シャン
Original Assignee
テンセント・アメリカ・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・アメリカ・エルエルシー filed Critical テンセント・アメリカ・エルエルシー
Publication of JP2021521721A publication Critical patent/JP2021521721A/ja
Priority to JP2022109624A priority Critical patent/JP2022133427A/ja
Application granted granted Critical
Publication of JP7104178B2 publication Critical patent/JP7104178B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本出願は、マルチラインフレーム内予測のための方法及び装置を開示している。フレーム内予測を制御するための方法及び装置を提供する。該方法は、参照ラインインデックスに基づき、復号器に第1参照ラインを通知し、第1参照ラインのみに対してフレーム内平滑化を適用するステップであって、複数の参照ラインが符号化ユニットに隣接し、第1参照ラインは前記複数の参照ラインにおける符号化ユニットに最も近接する参照ラインであるステップと、第1参照ラインのみに適用されるフレーム内平滑化に基づき、符号化ユニットに対してフレーム内予測を適用するステップと、フレーム内予測は符号化ユニットに適用されることに基づき、第1参照ラインのみに対して、位置関連フレーム内予測の組み合わせ(PDPC)を適用するステップとを含む。

Description

[関連出願]
本出願は、2018年8月29日にて米国特許及び商標局に提出された米国仮特許出願番号第62/724.575号の優先権を主張し、その全ての内容は本明細書に援用される。
実施形態と一致する方法及び装置は、ビデオ処理に関わり、特にマルチラインフレーム内予測のための方法及び装置に関わる。
図1は、高効率ビデオ符号化(High Efficiency Video Coding、HEVC)において利用されるフレーム内予測モードを示す。HEVCにおいて、合計で35個のフレーム内予測モードが存在し、これらのフレーム内予測モードにおいて、モード10(101)は水平モードであり、モード26(102)は垂直モードであり、モード2(103)、モード18(104)及びモード34(105)は対角線モードである。フレーム内予測モードは3つの最も可能性の高いモード(most probable mode、MPM)と32個の残りモードによりシグナリングされる。
実施形態に基づき、少なくとも1つのプロセッサが実行する、ビデオシーケンスの復号のための、フレーム内予測の制御方法であって、参照ラインインデックスに基づき、復号器に第1参照ラインを通知し、第1参照ラインのみに対してフレーム内平滑化を適用するステップであって、複数の参照ラインが符号化ユニットに隣接し、第1参照ラインは前記複数の参照ラインにおける符号化ユニットに最も近接する参照ラインであるステップと、第1参照ラインのみに適用されるフレーム内平滑化に基づき、符号化ユニットに対してフレーム内予測を適用するステップと、フレーム内予測が符号化ユニットに適用されることに基づき、第1参照ラインのみに対して、位置関連フレーム内予測組み合わせ(position-dependent intra prediction combination、PDPC)を適用するステップとを含む。
実施形態に基づき、ビデオシーケンスの復号のための、フレーム内予測を制御する装置であって、コンピュータプログラムコードを記憶するように構成される少なくとも1つのメモリと、少なくとも1つのメモリにアクセスするとともに、コンピュータプログラムコードに基づき動作するように構成される少なくとも1つのプロセッサと、を備える。コンピュータプログラムコードは、少なくとも1つのプロセッサに、参照ラインインデックスに基づき、復号器に第1参照ラインを通知させ、第1参照ラインのみに対してフレーム内平滑化を適用させるように構成される第1適用コードであって、複数の参照ラインが符号化ユニットに隣接し、第1参照ラインは前記複数の参照ラインにおける符号化ユニットに最も近接する参照ラインである第1適用コードと、少なくとも1つのプロセッサに、第1参照ラインのみに適用されるフレーム内平滑化に基づき、符号化ユニットに対してフレーム内予測を適用させるように構成される第2適用コードと、少なくとも1つのプロセッサに、フレーム内予測が符号化ユニットに適用されることに基づき、第1参照ラインのみに対してPDPCを適用させるように構成される第3適用コードと、を備える。
実施形態に基づき、命令を記憶する非一時的なコンピュータ読み取り可能な記憶媒体であって、該命令はプロセッサに、参照ラインインデックスに基づき、復号器に第1参照ラインを通知し、第1参照ラインのみに対してフレーム内平滑化を適用するステップであって、複数の参照ラインが符号化ユニットに隣接し、前記第1参照ラインは前記複数の参照ラインにおける符号化ユニットに最も近接する参照ラインであるステップと、第1参照ラインのみに適用されるフレーム内平滑化に基づき、符号化ユニットに対してフレーム内予測を適用するステップと、フレーム内予測が符号化ユニットに適用されることに基づき、第1参照ラインのみに対してPDPCを適用するステップと、を実行させる。
HEVCにおけるフレーム内予測モードの図面である。
実施形態に基づく通信システムの簡略化ブロック図である。
実施形態に基づくビデオ符号器とビデオ復号器とのストリーミング環境における配置の図面である。
実施形態に基づくビデオ復号器の機能ブロック図である。
実施形態に基づくビデオ符号器の機能ブロック図である。
次世代ビデオ符号化(Versatile Video Coding、VVC)ドラフト2におけるフレーム内予測モードの図面である。
VVCドラフト2において、1つの4×4ブロック内の(0、0)と(1、0)位置にあるDCモードのPDPC重み(wL、wT、wTL)を示す図面である。
実施形態に基づく、フレーム内予測のための、符号化ブロックユニットに隣接する4つの参照ラインの図面である。
実施形態に基づく、ビデオシーケンスの復号のためのフレーム内予測を制御する方法を示すフローチャートである。
実施形態に基づく、ビデオシーケンスの復号のためのフレーム内予測を制御するための装置の簡略化ブロック図である。
実施形態を実現するためのコンピュータシステムの図面である。
図2は、実施形態に基づく通信システム(200)のブロック図である。通信システム(200)は、ネットワーク(250)を介して互いに接続される少なくとも2つ端末(210−220)を有してもよい。データの一方向伝送に対して、第1端末(210)はローカル位置でビデオデータを符号化することで、ネットワーク(250)を介して他の端末(220)に伝送する。第2端末(220)はネットワーク(250)から他の端末の符号化ビデオデータを受信し、符号化データを復号するとともに、復元されたビデオデータを表示する。一方向データ伝送は、メディアサービスアプリケーションなどにおいてよく見られる。
図2は、第2対端末(230、240)を示し、例えば、ビデオ会議期間に発生する可能性がある符号化ビデオの双方向伝送を支持する。データの双方向伝送に対して、各端末(230、240)はローカル位置で収集されたビデオデータを符号化することで、ネットワーク(250)を介して他の端末に伝送する。各端末(230、240)はさらに、他の端末から伝送され、符号化ビデオデータを受信し、符号化データを復号し、ローカル表示機器において回復されたビデオデータを表示できる。
図2において、端末(210-240)はサーバ、パーソナルコンピュータ及びスマートフォンとして図示されているが、実施形態の原理はこれに限定されない。実施形態はラップトップコンピュータ、タブレット、メディアプレイヤー及び/または専門ビデオ会議機器に適用される。ネットワーク(250)は、端末(210-240)の間で符号化ビデオデータを伝送するための、例えば有線及び/または無線通信ネットワークを含む任意の数のネットワークを示す。通信ネットワーク(250)は回路交換及び/またはパケット交換チャンネルにおいてデータを交換できる。代表的なネットワークは電信ネットワーク、ローカルエリアネットワーク、広域エリアネットワーク及び/またはインターネットを含む。本論述の目的から見れば、以下で説明されない限り、ネットワーク(250)のアーキテクチャ及びトポロジは本実施形態の動作に対して重要ではない。
図3は、実施形態に基づくビデオ符号器とビデオ復号器とのストリーミング環境における配置の図面である。開示されたテーマは等価的にビデオを支持するための他のアプリケーションに適用でき、例えば、ビデオ会議、デジタルTVを含み、CD、DVD、メモリースティックなどを含むデジタル媒体に圧縮ビデオなどを記憶する。
ストリーミングシステムは、キャプチャサブシステム(313)を含み、該キャプチャサブシステムは、例えばデジタルカメラなどのビデオソース(301)を含み、前記ビデオソースは、例えば非圧縮のビデオサンプルストリーム(302)を構築する。符号化ビデオビットストリームに比べて、サンプルストリーム(302)はデータ量が多いことを強調するように太線として描画され、サンプルストリームはカメラ(301)に連結される符号器(303)によって処理される。符号器(303)はハードウェア、ソフトウェアまたはその組み合わせを含むことで、以下により詳しく記載される開示のテーマの各態様を実現または実施する。サンプルストリームに比べて、符号化ビデオビットストリーム(304)は、データ量が少ないことを強調するように細線として描画され、符号化ビデオビットストリームはストリーミングサーバ(305)に記憶されることで、後で使用される。1つまたは複数のストリーミングクライアント(306、308)はストリーミングサーバ(305)にアクセスすることで、符号化ビデオビットストリーム(304)のコピー(307、309)を検索することができる。クライアント(306)はビデオ復号器(310)を有してもよく、該ビデオ復号器は符号化ビデオビットストリーム(307)の入力してくるコピー(307)を復号し、ディスプレイ(312)または他の表示機器(図示せず)に表示される出力するビデオサンプルストリーム(311)を構築する。あるビデオ符号化/圧縮基準に基づきビデオビットストリーム(304、307、309)を符号化できるストリーミングシステムもある。これらの基準の例示はITU-T H.265勧告を含む。開発中のビデオ符号化規格は非公式的にVVCと呼ばれる。開示されたテーマはVVCのコンテキストに適用される。
図4は、実施形態に基づくビデオ復号器(310)の機能ブロック図である。
受信機(410)は、復号器(310)によって復号される1つまたは複数のコーデックビデオシーケンスを受信でき、同一の実施形態または他の実施形態において、1回に1つの符号化ビデオシーケンスを受信し、各符号化ビデオシーケンスの復号は、他の符号化ビデオシーケンスと独立する。チャンネル(412)から符号化ビデオシーケンスを受信し、該チャンネルは符号化ビデオデータを記憶するための記憶機器へのハードウェア/ソフトウェアリンクであってもよい。受信機(410)は符号化ビデオデータ及び他のデータを受信でき、例えば、それぞれの利用エンティティ(図示せず)に転送される符号化オーディオデータ及び/または補助データストリームである。受信機(410)は符号化ビデオシーケンスと他のデータとを分割できる。ネットワークのジッタを阻止するために、バッファメモリ(415)は受信機(410)とエントロピー復号器/パーサー(420)(以下では「パーサー」と呼ばれる)との間に連結される。受信機(410)は十分な帯域幅及び制御可能性を有する記憶/転送機器、または等時性リアルタイムネットワークからデータを受信する際、バッファ(415)を必要としないか、またはバッファが小さくてもよい。インターネットのようなビジネスパケットネットワークで利用するために、バッファ(415)を必要としてよく、バッファは相対的に大きく、有利に自己適応のサイズを有してもよい。
ビデオ復号器(310)はパーサー(420)を有することで、エントロピー符号化ビデオシーケンスに基づき、シンボル(421)を再構築する。これらのシンボルのカテゴリには、復号器(310)の動作を管理するための情報、及び場合によってはディスプレイ(312)のような表示機器を制御するための情報が含まれ、図4に示すように、該ディスプレイは復号器の構成部分ではないが、復号器に連結される。表示機器のための制御情報は、付加情報(SEI(Supplementary Enhancement Information、SEI))メッセージまたはビデオ表示情報(Video Usability Information、VUI)パラメータセットセグメント(図示せず)という形式であってもよい。パーサー(420)は受信された符号化ビデオシーケンスに対して解析/エントロピー復号を行う。符号化ビデオシーケンスの符号化は、ビデオ符号化技術または基準に基づき行うとともに、可変長符号化、ハフマン符号化(Huffmancoding)、コンテキスト感度を有するかまたは有しない算術符号化などのような、当業者にとって公知である各種原理に従う。パーサー(420)はグループに対応する少なくとも1つのパラメータに基づき、符号化ビデオシーケンスから、ビデオ復号器における画素のサブグループのうちの少なくとも1つのサブグループのためのサブグループパラメータセットを抽出する。サブグループは、ピクチャグループ(Group of Picture、GOP)、ピクチャ、タイル、スライス、マクロブロック、符号化ユニット(Coding Unit、CU)、ブロック、変換ユニット(Transform Unit、TU)、予測ユニット(Prediction Unit、PU)などを含んでもよい。エントロピー復号器/パーサーはさらに、符号化ビデオシーケンスから、変換係数、量子化器パラメータ(quantizer parameter、QP)値、動きベクトルなどのような情報を抽出できる。
パーサー(420)は、バッファ(415)から受信されたビデオシーケンスに対してエントロピー復号/解析動作を実行することで、シンボル(421)を構築する。パーサー(420)は符号化データを受信するとともに、選択的に特定のシンボル(421)を復号する。また、パーサー(420)は、特定のシンボル(421)が動き補償予測ユニット(453)、スケーラ/逆変換ユニット(451)、フレーム内予測ユニット(452)またはループフィルタユニット(454)に提供されるかどうかを決定できる。
符号化ビデオピクチャ、または一部の符号化ビデオピクチャ(例えば、フレーム間ピクチャとフレーム内ピクチャ、フレーム間ブロックとフレーム内ブロック)のタイプ、及び他の要因に依存し、シンボル(421)の再構築は、複数の異なるユニットに関わる可能性がある。どのユニットに関わるか、及び関わり方式について、パーサー(420)が符号化ビデオシーケンスに基づき解析したサブグループ制御情報によって制御される。簡潔のために、パーサー(420)と以下の複数ユニットとの間の、このようなサブグループ制御情報ストリームを図示していない。
既に言及された機能ブロック以外、復号器(310)は概念で以下に記載のいくつかの機能ユニットに細分される。商業制約で実行する実際の実現方式において、これらのユニットにおける複数のユニットは互いに密接にインタラクションするとともに、少なくとも部分的に互いに集積されてもよい。ただし、開示されたテーマを記載するという目的から見れば、概念的に以下の機能ユニットに細分されることは適切である。
第1ユニットはスケーラ/逆変換ユニット(451)である。スケーラ/逆変換ユニット(451)はパーサー(420)からシンボル(421)としての量子化変換係数及び制御情報を受信し、どの変換方式を利用するかということ、ブロックのサイズ、量子化因子、量子化スケーリング行列などを含む。スケーラ/逆変換ユニットは、アグリゲーター(455)に入力されるサンプル値が含まれるブロックを出力する。
スケーラ/逆変換(451)の出力サンプルはフレーム内符号化ブロックに適合でき、即ち、前に再構築されたピクチャからの予測的な情報を利用せず、現在ピクチャの前に再構築された部分からの予測的な情報を利用できる。このような予測的な情報はフレーム内ピクチャ予測ユニット(452)から提供される。場合によっては、フレーム内ピクチャ予測ユニット(452)は現在(部分的に再構築された)ピクチャ(456)から抽出され、周囲にある既に再構築された情報を利用して、再構築中のブロックと同じサイズ及び形状のブロックを生成する。場合によっては、アグリゲーター(455)は各サンプルに基づき、フレーム内予測ユニット(452)から生成された予測情報を、スケーラ/逆変換ユニット(451)により提供される出力サンプル情報に追加する。
また、スケーラ/逆変換ユニット(451)の出力サンプルは、フレーム間符号化ブロック、及び場合によっては動き補償ブロックに属してもよい。このような場合、動き補償予測ユニット(453)は参照ピクチャメモリ(457)にアクセスし、予測のためのサンプルを抽出できる。ブロックに属するシンボル(421)に基づき、抽出のサンプルに対して動き補償を行った後、これらのサンプルはアグリゲーター(455)によってスケーラ/逆変換ユニットの出力に追加され(この場合、残差サンプルまたは残差信号と呼ばれる)、出力サンプル情報を生成する。動き補償予測ユニットが予測サンプルを抽出する参照ピクチャメモリ内のアドレスは、動きベクトルによって制御され、動きベクトルはシンボル(421)という形式で、動き補償ユニットに使用され、符号(421)は、例えばX、Yおよび参照ピクチャ成分を有してもよい。動き補償はさらに、サブサンプルによって動きベクトルを正確にする際、参照ピクチャメモリから抽出されたサンプル値の補間、動きベクトル予測メカニズムなどを含んでもよい。
アグリゲーター(455)の出力サンプルは、ループフィルタユニット(454)において、各種のループフィルタリング技術に使用される。ビデオ圧縮技術はループ内フィルタ技術を含んでもよく、該ループ内フィルタ技術は、符号化ビデオビットストリームに含まれるとともに、パーサー(420)からのシンボル(421)として、ループフィルタユニット(454)に用いられるパラメータによって制御されるが、ビデオ圧縮技術はさらに、符号化ピクチャまたは符号化ビデオシーケンスの前の(復号順序に従う)部分を復号する期間で取得したメタ情報、及び前に構築されループフィルタリングを経たサンプル値に応答できる。
ループフィルタユニット(454)の出力は、サンプルストリームであってもよく、前記サンプルストリームは表示機器(312)に出力され、且つ参照ピクチャメモリ(456)に記憶されることで、将来のピクチャ間予測に適用される。
完全に再構成されると、ある符号化ピクチャは参照ピクチャとして、後の予測に用いることができる。符号化ピクチャが完全に再構成され、符号化ピクチャ(例えばパーサー(420)を介して)が参照ピクチャとして認識されると、現在ピクチャ(456)は参照ピクチャメモリ(457)の一部になり、その後の符号化ピクチャを再構成する前に、新たな現在ピクチャバッファを改めて割り当てる。
ビデオ復号器(310)は、例えばITU−T H.265勧告の基準における所定ビデオ圧縮技術に基づき、復号動作を実行することができる。符号化ビデオシーケンスは、ビデオ圧縮技術または基準の文法、及びビデオ圧縮技術または基準に記録されたコンフィグファイルという両者に従うという意味で、符号化ビデオシーケンスは使用中のビデオ圧縮技術または基準が指定する文法に準拠する。準拠性について、符号化ビデオシーケンスの複雑度は、ビデオ圧縮技術または基準のレベルによって限定される範囲内にあるように要求する。ある状況で、レベルは最大ピクチャの大きさ、最大フレームレート、最大再構築サンプリングレート(例えば、百万サンプル/秒で測定される)、最大参照ピクチャの大きさを制限する。ある状況で、レベルにより設定される制限は、仮想参照復号器(HRD)の仕様、及び符号化ビデオシーケンスにおいてシグナリングされたHRDバッファの管理のメタデータを介してさらに限定される。
実施形態において、受信機(410)は追加(冗長)データ及び符号化ビデオを受信できる。追加データは符号化ビデオシーケンスの一部として含まれる。追加データはビデオ復号器(310)によって利用されることで、データを適切に復号し、及び/またはオリジナルビデオデータをより正確に再構築することができる。追加データは、例えば時間、空間または信号対雑音比(SNR)強化層、冗長スライス、冗長ピクチャ、前方誤り訂正符号などの形式であってもよい。
図5は、実施形態に基づくビデオ符号器(303)の機能ブロック図である。
符号器(303)は、ビデオソース(301)(符号器の一部ではない)からビデオサンプルを受信でき、該ビデオソースは符号器(303)によって符号化されるビデオ画像を収集できる。
ビデオソース(301)は、ビデオ符号器(303)によって符号化され、デジタルビデオサンプルストリームの形式であるソースビデオシーケンスを提供でき、デジタルビデオサンプルストリームは任意の適切なビット深度(例えば、8ビット、10ビット、12ビット…)、任意の色空間(例えば、BT.601 Y CrCB、RGB……)、及び任意の適切なサンプリング構成(例えば、Y CrCb 4:2:0、Y CrCb 4:4:4)を有してもよい。メディアサービスシステムにおいて、ビデオソース(301)は、前に準備されたビデオを記憶するための記憶機器であってもよい。ビデオ会議システムにおいて、ビデオソース(301)は、ビデオシーケンスとして、ローカル画像情報をキャプチャするための撮影装置であってもよい。ビデオデータは、順序に応じて見る際、動きが付与された複数の単独のピクチャとして提供されてもよい。ピクチャそのものは、空間画素アレイとして組織され、使用中のサンプリング構成、色空間などに依存し、各画素には1つ又は複数のサンプルが含まれてもよい。画素とサンプルとの間の関係は、当業者にとって容易に理解できる。以下の記載はサンプルに着目する。
実施形態に基づいて、ビデオ符号器(303)は、リアルタイムまたはアプリケーションの必要な任意の他の時間の制約で、ソースビデオシーケンスのピクチャを符号化するとともに、符号化ビデオシーケンス(543)として圧縮する。適切な符号化速度で実行することは、コントローラ(550)の1つの機能である。コントローラ(550)は以下に記載の他の機能ユニットを制御するとともに、これらの他の機能ユニットに機能的に連結される。簡潔のために、該連結を図示していない。コントローラにより設定されるパラメータは、レート制御に関するパラメータ(ピクチャスキップ、量子化器、レート歪み最適化技術のλ値......)、ピクチャの大きさ、ピクチャグループ(GOP)の構成、最大動きベクトルの検索範囲などを含んでもよい。コントローラ(550)は他の適切な機能を有するように構成されてもよく、これらの機能は、あるシステム設計に対して最適化したビデオ符号器(303)に属する。
いくつかの実施例において、ビデオ符号器は符号化ループにおいて動作するように構成される。非常に簡単な記載として、1つの例示において、符号化ループは符号器(530)(以降、ソース符号器と呼ばれる)(例えば、符号化対象となる入力ピクチャと参照ピクチャに基づき、シンボルを生成することを担う)、及びビデオ符号器(303)に埋め込まれる(ローカル)復号器(533)を含む。復号器は、(リモート)復号器がサンプルデータを構築するという方式で、シンボルを再構築し、サンプルデータを構築する(なぜならば、開示のテーマで考慮されるビデオ圧縮技術において、シンボルと符号化ビデオビットストリームとの間の圧縮はいずれも可逆であるからだ)。再構築されたサンプルストリーム(サンプルデータ)を参照ピクチャメモリ(534)に入力する。シンボルストリームの復号は、復号器位置(ローカルまたはリモート)と関係がないビット正確結果を発生させるから、参照ピクチャメモリにおけるコンテンツはローカル符号器とリモート符号器との間でもビット正確である。言い換えれば、符号器の予測部分から「見られる」参照ピクチャサンプルは復号器が復号期間で予測を利用しようとする際に「見られる」サンプル値と完全に同様である。該参照ピクチャの同期性の基本原理は(及び、例えばチャンネル誤差から、同期性を維持できない場合に発生するドリフト)も当業者に知られている。
「ローカル」復号器(533)の動作は、例えば、以上図4を結合し、詳しく記載したビデオ復号器(310)の「リモート」復号器の動作と同様であってもよい。ただし、図4を簡単に参照し、シンボルが利用可能であり、エントロピー符号器(545)及びパーサー(420)がロスレスにシンボルを符号化ビデオシーケンスに符号化/復号することができる場合、チャンネル(412)、受信機(410)、バッファメモリ(415)とパーサー(420)とを含むビデオ復号器(310)のエントロピー復号部分は、ローカル復号器(533)において完全に実現できないおそれがある。
この場合、復号器に存在する解析/エントロピー復号以外の任意の復号器技術も、必然として、基本的に同じ機能という形式で、対応する符号器に存在する。符号器技術と全面的に記載された復号器技術とは反対の処理なので、符号器技術に対する記載を簡略化し得る。より詳しい記載は、ある領域のみに必要であり、以下で提供される。
その動作の一部として、ソース符号器(530)は動き補償予測符号化を実行でき、ビデオシーケンスからの1つまたは複数の符号化フレーム(「参照フレーム」として指定される)を参照し、予測的に入力フレームを符号化する。該方式で、符号化エンジン(532)は入力フレームの画素ブロックと、入力フレームの予測的な参照の参照フレームとして選択される画素ブロックとの間の差を符号化する。
ローカルビデオ復号器(533)は、ソース符号器(530)によって構築されたシンボルに基づき、参照ピクチャとして指定できるピクチャの符号化ビデオデータを復号することができる。符号化エンジン(532)の動作は好ましくは非可逆処理である。符号化ビデオデータがビデオ復号器(図4において図示せず)で復号できると、再構築されたビデオシーケンスは、一般的にある程度誤差を有するソースビデオシーケンスのコピーであってもよい。ローカルビデオ復号器(533)はビデオ復号器が参照ピクチャに対して実行する復号処理をコピーするとともに、再構築された参照ピクチャを参照ピクチャキャッシュ(534)に記憶させる。該方式で、ビデオ符号器(303)は再構築された参照ピクチャのコピーをローカルに記憶し、該コピーは、リモートビデオ復号器によって取得される再構築された参照ピクチャと、共通のコンテンツを有する(伝送誤差がない)。
予測器(535)は、符号化エンジン(532)に対して予測検索を実行することができる。即ち、符号化対象となる新たなフレームに対して、予測器(535)は参照ピクチャメモリ(534)から新たなピクチャとしての適切な予測参照のサンプルデータ(候補参照画素ブロックとして)、またはあるメタデータ、例えば参照ピクチャ動きベクトル、ブロック形状などを検索する。予測器(535)はサンプルブロックに基づき、画素ブロックごとに動作することで、適切な予測参照を見つけることができる。ある状況で、予測器(535)によって取得された検索結果に基づき決定されるように、入力ピクチャは参照ピクチャメモリ(534)に記憶された複数の参照ピクチャから取得される予測参照を有してもよい。
コントローラ(550)は、例えば、ビデオデータを符号化するためのパラメータとサブグループパラメータを設定することを含む、ビデオ符号器(530)の符号化動作を管理できる。
エントロピー符号器(545)において、前記全ての機能ユニットの出力に対してエントロピー符号化を行ってもよい。エントロピー符号器は、当業者の既知技術(例えばハフマン符号化、可変長符号化、算術符号化等)に基づき、シンボルに対して可逆圧縮を行うことで、各種機能ユニットから生成されたシンボルを符号化ビデオシーケンスに変換する。
伝送器(540)は、エントロピー符号器(545)によって構築された符号化ビデオシーケンスをバッファリングすることで、通信チャンネル(560)を介して伝送するように準備し、該通信チャンネルは符号化ビデオデータを記憶するための記憶機器へのハードウェア/ソフトウェアリンクであってもよい。伝送器(540)はビデオ符号器(530)からの符号化ビデオデータと、伝送対象となる他のデータ、例えば符号化オーディオデータ及び/または補助データストリーム(ソースを図示せず)とをマージする。
コントローラ(550)は、ビデオ符号器(303)の動作を管理できる。符号化期間で、コントローラ(550)は各符号化ピクチャに、特定の符号化ピクチャのタイプを指定することができ、相応的なピクチャに適用される符号化技術に影響する可能性がある。例えば、一般的に、ピクチャは以下のフレームタイプのうちの1つとして割り当てられる。
フレーム内ピクチャ(Iピクチャ)であって、シーケンスにおけるいずれの他のピクチャも予測のソースとしていない場合に、符号化及び復号されるピクチャであってもよい。例えばデコーダ復号動作の瞬時リフレッシュピクチャが含まれる異なるタイプのフレーム内ピクチャを許容するビデオコーデックもある。当業者は、Iピクチャの変体及びその相応的な適用、特徴を理解できる。
予測ピクチャ(Pピクチャ)であって、多くても1つの動きベクトル及び参照インデックスによって各ブロックのサンプル値を予測する場合、フレーム内予測またはフレーム間予測を利用して符号化及び復号を行うピクチャであってもよい。
双方向予測ピクチャ(Bピクチャ)であって、多くても2つの動きベクトル及び参照インデックスによって、各ブロックのサンプル値を予測する場合、フレーム内予測またはフレーム間予測を利用して符号化及び復号を行うピクチャであってもよい。同様に、複数の予測ピクチャは、2つより多い参照ピクチャと、関連メタデータとを、単一のブロックの再構築に使用できる。
ソースピクチャは一般的に、複数のサンプルブロック(例えば、4×4、8×8、4×8または16×16個のサンプルのブロック)に空間的に細分できるとともに、ブロックごとに符号化を行う。これらのブロックは、他の(符号化)ブロックを参照し、予測的に符号化を行って、他のブロックはブロックの相応的なピクチャに適用される符号化割当によって決定される。例えば、Iピクチャのブロックに対して非予測符号化を行うか、またはIピクチャのブロックは、同一のピクチャの符号化されたブロックを参照して、予測符号化(空間予測またはフレーム内予測)を行う。Pピクチャの画素ブロックは、前に符号化された1つの参照ピクチャを参照し、空間予測または時間予測を介して予測的に符号化を行ってもよい。Bピクチャのブロックは、前に符号化された1つまたは2つの参照ピクチャを参照し、空間予測または時間予測を介して予測的に符号化を行ってもよい。
ビデオ符号器(303)は例えばITU−T H.265勧告の所定のビデオ符号化技術または基準に基づき符号化動作を実行することができる。その動作において、ビデオ符号器(303)は、入力ビデオシーケンスにおける時間的及び空間的冗長性を利用した予測符号化動作を含む各種の圧縮動作を実行できる。従って、符号化ビデオデータは、使用されるビデオ符号化技術または基準が指定する文法に合う。
実施形態において、伝送器(540)は追加データ及び符号化ビデオを伝送することができる。ソース符号器(530)は符号化ビデオシーケンスの一部として、このようなデータを含んでもよい。追加データは、時間/空間/SNR強化層、冗長ピクチャ及びスライスのような他の形式の冗長データ、付加情報(SEI)メッセージ、ビデオ表示情報(VUI)パラメータセットセグメントなどを含んでもよい。
図6は、VVCドラフト2におけるフレーム内予測モードの図面である。
VVCドラフト2において、合計で87個のフレーム内予測モードがあり、図6に示すように、モード18(601)は水平モードであり、モード50(602)は垂直モードであり、モード2(603)、モード34(604)及びモード66(605)は対角線モードである。モード-1〜10、及びモード67〜76は広角フレーム内予測(Wide-Angle Intra Prediction、WAIP)モードと呼ばれる。
PDPCはシグナリングされる必要がなく、平面モード、DCモード、WAIPモード、水平モード、垂直モード、左下角モード(モード2(603)))とその8つの隣接角モード(モード3〜10)、及び右上角モード(モード66(605)))とその8つの隣接角モード(モード58〜65)というフレーム内モードに適用される。
以下のPDPC表現式に基づき、フレーム内予測モード(DC、平面、角)と参照サンプルとの線型結合を利用して位置(x、y)にある予測サンプルpred(x、y)を予測する。
Figure 2021521721
ここで、Rx,−1,R−1,yはそれぞれ現在サンプル(x、y)のトップ部(T)と左側(L)にある参照サンプルを示し、R−1,1は現在ブロックの左上(top-left、TL)角にある参照サンプルを示す。
DCモードにおいて、幅と高さとのサイズを有するブロックに対して、以下のように重み(wL、wT、wTL)を演算する。
wT=32>>((y<<1)>> シフト)、wL=32>>((x<<1)>> シフト)
WTL=(wL>>4)+(wT>>4)、
(式2)
なお、シフト=(log2(幅)-2)+log2(高さ)-2+2)>>2
平面モードにおいて、wTL=0であり、水平モードにおいて、wTL=wTであり、垂直モードにおいて、wTL=wLである。PDPC重みは、加算とシフトのみを介して演算されてもよい。式1を利用して単一のステップで、pred(x、y)の値を演算してもよい。
図7は、VVCドラフト2において、1つの4×4ブロック内の(0、0)と(1、0)位置にあるDCモードのPDPC重み(wL、wT、wTL)を示す図面である。
図7を参照し、(a)部分は、1つの4×4ブロック内の(0、0)位置にあるDCモードのPDPC重み(wL、wT、wTL)を示す。(b)部分は、1つの4×4ブロック内(1、0)位置にあるDCモードのPDPC重み(wL、wT、wTL)を示す。
PDPCをDCモード、平面モード、水平モード及び垂直モードに適用すると、例えばHEVC DCモード境界フィルタまたは水平/垂直モードエッジフィルタのような他の境界フィルタを必要としない。
図7の(a)部分は、右上角モードまたは対角線モードに適用されるPDPC参照サンプルRx,−1,R−1,y及びR−1,−1に対する定義を示す。予測サンプルpred(x‘,y’)は予測ブロック内の(x‘,y’)にある。参照サンプルRx,−1の座標xはx=x‘+y’+1から与えられ、参照サンプルR−1,yの座標yは類似するように、y=x‘+y’+1から与えられる。
VVCドラフト2からの以下の項目はPDPCを説明する。
8.2.4.2.9位置関連のフレーム内予測の組み合わせ処理
該処理の入力は以下の通りであり、
-フレーム内予測モードPredModeIntra、
-変換ブロックの幅を指定するための変数nTbW、
-変換ブロックの高さを指定するための変数nTbH、
-参照サンプルの幅を指定するための変数refW、
-参照サンプルの高さを指定するための変数refH、
-予測のサンプルpredSamples[x][y]、ここで、x=0..nTbW−1及びy=0..nTbH−1)であり、
-隣接サンプルp[x][y]、ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1)であり、
-現在ブロックの色成分を指定するための変数cldx。
該処理の出力は、補正された予測サンプルpredSamples[x][y]であり、ここで、x=0..nTbW−1、y=0..nTbH−1である。
cldxの値に依存して、関数cliplCmpは以下のように設定され、
-cldxが0に等しいと、cliplCmpはCliplに等しく設定される。
-さもなければ、cliplCmpはCliplに等しく設定される。
変数nScaleは、((Log2(nTbW)+Log2(nTbH)−2)>>2)であるように設定される。
以下のように、参照サンプルアレイmainRef[x]とsidRef[y]を取得し、ここで、x=0..refW及びy=0..refH)である。
Figure 2021521721
以下のように、変数refL[x][y]、refT[x][y]、wT[y]、wL[y]及びwTL[x][y]を取得し、ここで、x=0..nTbW−1、y=0..nTbH−1)であり、
-predModeIntraがINTRA_PLANAR、INTRA_DC、INTRA_ANGULAR18またはINTRA_ANGULAR50に等しいと、以下のように適用され、
Figure 2021521721
-さもなければ、predModeIntraがINTRA_ANGULAR2またはINTRA_ANGULAR66に等しいと、以下のように適用され、
Figure 2021521721
-さもなければ、predModeIntraがINTRA_ANGULAR10の以下であれば、以下のようにソートされたステップが適用され、
-IntraPredModeに基づき、項目8.2.4.2.7に規定したinvAngleを利用して、変数dXPos[y]、dXFrac[y]、dXInt[y]及びdX[y]を取得し、
Figure 2021521721
-以下のように、変数refL[x][y]、refT[x][y]、wT[y]、wL[y]及びwTL[x][y]を取得し、
Figure 2021521721
-さもなければ、predModeIntraがINTRA_ANGULAR58の以上であれば、以下のようにソートされたステップが適用され、
-IntraPredModeに基づき、項目8.2.4.2.7に規定したInvAngleを利用して変数dYPos[x]、dYFrac[x]、dYInt[x]及びdY[x]を取得し、
Figure 2021521721
-以下のように変数refL[x][y]、refT[x][y]、wT[y]、wL[y]及びwTL[x][y]を取得し、
Figure 2021521721
-さもなければ、refL[x][y]、refT[x][y]、wT[y]、wL[y]及びwTL[x][y]はいずれも0に等しく設定される。以下のようにフィルタリングされたサンプルfiltSamples[x][y](ここで、x=0..nTbW−1、y=0..nTbH−1である)の値を取得し、
Figure 2021521721
VVCドラフト2において、輝度成分に対して、生成処理(即ちフレーム内平滑化処理)の前に、フレーム内予測サンプルの生成のための隣接サンプルに対してフィルタリングを行う。フィルタリングは所定のフレーム内予測モードと変換ブロックの大きさにより制御される。フレーム内予測モードがDCモード、または変換ブロックの大きさが4×4に等しいと、隣接サンプルに対してフィルタリングを行わない。所定のフレーム内予測モードと垂直モード(または水平モード)との間の距離は、事前定義された閾値より大きいと、フィルタリング処理を開始させる。隣接サンプルのフィルタリングに対して、[1、2、1]フィルタとバイリニアフィルタを利用する。
VVCドラフト2からの以下の項目は、フレーム内平滑化処理を説明する。
8.2.4.2.4 参照サンプルのフィルタリング処理
該処理の入力は以下の通りであり、
-(フィルタリングされていない)隣接サンプルrefUnfilt[x][y]、ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1であり、
-変換ブロックの幅を指定するための変数nTbW、
-変換ブロックの高さを指定するための変数nTbH、
-参照サンプルの幅を指定するための変数refW、
-参照サンプルの高さを指定するための変数refH、
-現在ブロックの色成分を指定するための変数cIdx。
該処理の出力は参照サンプルp[x][y]であり、ここで、x=−1、y=−1..refH−1であり、及びx=0..refW−1、y=−1である。
変数nTbSは(Log2(nTbW)+Log2(nTbH))>>1に等しく設定される。
変数whRatioはmin(abs(Log2(nTbW/nTbH)),2)に等しく設定される。
以下のように変数wideAngleを取得し、
-以下の条件のうちの全ての条件がいずれも真であれば、wideAngleは1に等しく設定される。
-nTbWはnTbHより大きい
-predModeIntraは2以上である
-predModeIntraは(whRatio>1)?12:8より小さい
-さもなければ、以下の条件のうちの全ての条件がいずれも真であれば、wideAngleは1に等しく設定される。
-nTbHはnTbWより大きい
-predModeIntraは66以下である
-predModeIntraは(whRatio>1)?56:60より大きい
-さもなければ、wideAngleは0に設定される。
以下のように、変数filterFlagを取得し、
-以下の条件のうちの1つまたはより複数の条件が真であれば、filterFlagは0に等しく設定され、
-predModeIntraはINTRA_DCに等しく、
-cIdxは0に等しくない。
-さもなければ、以下のように適用され、
-変数minDistVerHorは、
Min(Abs(predModeIntra−50),Abs(predModeIntra−18))に等しく設定される。
-変数intraHorVerDistThres[nTbS]は、表8-4において詳しく規定される。
-以下のように、変数filterFlagを取得し、
-minDistVerHorがintraHorVerDistThres[nTbS]より大きく、またはwideAngleが1に等しいと、filterFlagは1に等しく設定される。
-さもなければ、filterFlagは0に等しく設定される。
表8-4:各種変換ブロックの大きさのためのintraHorVerDistThres[nTbS]の規定
Figure 2021521721
参照サンプルp[x][y]の取得について、以下のように適用され、
-filterFlagが1に等しいと、以下のように、フィルタリングされたサンプル値p[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)を取得し、
Figure 2021521721
-さもなければ、参照サンプル値p[x][y]は、フィルタリングされていないサンプル値refUnfilt[x][y] に等しく設定され、ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1)である。
VVCドラフト2において、マルチラインフレーム内予測はより多い参照ラインを利用してフレーム内予測を行って、符号器は、どの参照ラインを利用してフレーム内予測器を生成するかを决定するとともに、シグナリングする。フレーム内予測モードの前に、参照ラインインデックスをシグナリングし、非ゼロ参照ラインインデックスをシグナリングする際、フレーム内予測モードから平面モードとDCモードを排除する。
図8は、実施形態に基づく、フレーム内予測のための符号化ブロックユニット(810)に隣接する4つの参照ライン(881〜884)の図面である。
図8を参照し、4つの参照ライン(881〜884)の例示を示し、参照ライン(881〜884)のうちの各々は、6つのセグメントA〜F(820〜870)を有する。ブロックユニット(810)の左上にも、黒で左上参照サンプル(880)を描画する。また、セグメントBとE(830と860)それぞれからの、最も近接するサンプル(890)によってセグメントAとF(820〜870)をパディングする。
再び図6を参照し、通常のフレーム内予測モードによりカバーされる予測方向範囲を超える広角は、点線矢印で示し、それぞれ広角フレーム内予測モードに対応する。以下のような非正方形ブロックはこれらの広角に適用される:
ブロックの幅がブロックの高さより大きいと、右上方向で(HEVCにおけるフレーム内予測モード34)45度以上の角度である。
ブロックの高さがブロックの幅より大きいと、左下方向で(HEVCにおけるフレーム内予測モード2)45度以上の角度である。
元の方法で置換されたモードをシグナリングし、解析の後、置換されたモードを改めて広角フレーム内予測モードのインデックスにマッピングする。フレーム内予測モードの総数は不変で、即ち35であり、フレーム内モードの番号は不変である。
現在、PDPCは全ての参照ラインに適用される。ただし、生成の予測サンプルが似るように、PDPC処理は異なる参照ラインを利用するが、これは望ましい設計ではない。
現在、フレーム内平滑化は全ての参照ラインに適用される。ただし、フレーム内平滑化処理は異なるラインにおける参照サンプルをより近接させ、これは所望の設計ではない。
これらの問題を解決するために、以下は実施形態を検討し、これらの実施形態は単独、または任意の順序で組み合わせて利用されてもよい。以下の記載において、最も近い参照ライン(即ち、図8の参照ライン881)のラインインデックスは0である。シグナリングされる最大の参照ライン番号をNとして示す。また、用語「PDPC」は、VVCドラフト2の項目8.2.4.2.9に記載される簡略化PDPCを指す。
実施形態において、最も近い参照ラインのみに対してPDPCを適用する。
実施形態において、最も近い参照ラインのみに対してフレーム内平滑化処理を適用する。
実施形態において、いくつかの参照ラインのみ(即ち、図8における881〜884)に対して、フレーム内平滑化処理を適用する。実施形態において、フレーム内平滑化処理を参照ライン0(即ち、図8の881)、及び1(即ち、図8の882)のみに適用する。他の実施形態において、フレーム内平滑化処理を参照ライン0及び3(即ち、図8の884)に適用する。他の実施形態において、フレーム内平滑化処理を、参照ライン0及び2(即ち、図8の883)に適用する。他の実施形態において、フレーム内平滑化処理を1つの参照ラインに適用せず、フレーム内平滑化処理を他の全ての参照ラインに適用する。例えば、フレーム内平滑化処理を参照ライン3に適用しない。
実施形態において、選択されたいくつかの参照ラインのみに対してPDPCを適用する。実施形態において、PDPCを参照ライン0及び1のみに適用する。他の実施形態において、PDPCを参照ライン0及び3に適用する。他の実施形態において、PDPCを参照ライン0及び2に適用する。他の実施形態において、PDPCを1つの参照ラインに適用せず、PDPCを他の全ての参照ラインに適用する。例えば、PDPCを参照ライン3に適用しない。
実施形態において、非ゼロ参照ラインのみ(即ち、図8の882〜884)に対してPDPCを適用するが、PDPCが非ゼロ参照ラインに適用される場合、PDPCはいくつかのフレーム内予測モードのみに適用される。以下の実施形態は単独、または任意の順序で組み合わせて適用される。実施形態において、非ゼロ参照ラインを利用する場合、PDPCは平面モード及び/またはDCモードのみに適用される。実施形態において、非ゼロ参照ラインを利用する場合、PDPCを水平モードと垂直モードのみに適用する。他の実施形態において、非ゼロ参照ラインを利用する場合、PDPCを対角線モードのみ(図6に示すモード2または66)に適用する。他の実施形態において、非ゼロ参照ラインを利用する場合、PDPCをモード2とモード66に近接するフレーム内予測モードのみに適用し、例えば、図6に示すモード3〜10、及びモード58〜65である。他の実施形態において、非ゼロ参照ラインを利用する場合、PDPCをWAIPモードのみに適用する。
実施形態において、PDPCとフレーム内平滑化処理の異なる組み合わせを異なる参照ラインに適用する。実施形態において、PDPCとフレーム内平滑化とを参照ライン0に適用し、PDPCのみを参照ライン1に適用し、フレーム内平滑化のみを参照ライン2に適用し、そして、参照ライン3にPDPCも、フレーム内平滑化も適用しない。他の実施形態において、Nが4に等しいと、PDPCとフレーム内平滑化の両者を参照ライン0に適用し、及び/またはPDPCのみ、またはフレーム内平滑化のみを適用し、両者を適用しない少なくとも1つの参照ラインが存在し、及び/またはPDPC、フレーム内平滑化のいずれも適用しない少なくとも1つの参照ラインが存在する。他の実施形態において、Nが3に等しいと、PDPCとフレーム内平滑化の両者を参照ライン0に適用し、PDPCのみを非ゼロ参照ラインのうちの1つの非ゼロ参照ラインに適用し、PDPC、フレーム内平滑化のいずれも参照ラインのうちの1つの参照ラインに適用しない。他の実施形態において、Nが3に等しいと、PDPCとフレーム内平滑化の両者を参照ライン0に適用し、フレーム内平滑化のみを非ゼロ参照ラインのうちの少なくとも1つに適用し、PDPC、フレーム内平滑化のいずれも参照ラインのうちの少なくとも1つに適用しない。
実施形態において、平面モードとDCモードとが非ゼロ参照ラインに適用されるが、異なる参照ラインにおいて、平面モードとDCモードに適用されるPDPCとフレーム内平滑化とは異なる。実施形態において、最も近い参照ラインにおいて、PDPCとフレーム内平滑化とを平面モードとDCモードに適用するとともに、他の参照ラインにおいて、PDPCとフレーム内平滑化とを平面モードとDCモードに適用しない。他の実施形態において、最も近い参照ラインにおいて、PDPCとフレーム内平滑化とを平面モードとDCモードに適用し、非ゼロ参照ラインにおいて、PDPCとフレーム内平滑化のうちのいずれか一つを、平面モードとDCモードに適用し、または、PDPCとフレーム内平滑化のいずれも平面モードとDCモードに適用しない。
実施形態において、非ゼロ参照ラインに対して、PDPCを広角(wide angle)に適用しない。
実施形態において、非ゼロ参照ラインに対して、フレーム内平滑化を広角に適用しない。
実施形態において、フレーム内平滑化は参照ラインに依存する。つまり、異なる参照ラインに対して、フレーム内平滑化を異なるフレーム内予測モードに適用する。どの水平/垂直モードに近接するフレーム内予測モードがフレーム内平滑化から排除されるかを制御するための閾値は、参照ラインインデックスに依存する。実施形態において、特定の参照ラインインデックスに対してフレーム内平滑化を適用するフレーム内予測モードは、小さい参照ラインインデックス値に対してフレーム内平滑化を適用するフレーム内予測モードにより、完全にカバーされ、小さい参照ラインインデックス値は、予測対象となる現在ブロックにより近接する参照ラインを指す。
実施形態において、異なる参照ラインに対して、PDPCを利用するフレーム内予測モードは異なる。実施形態において、参照ライン0のうち、PDPCを垂直方向及び水平方向に適用する。ただし、非ゼロ参照ラインにおいて、PDPCを垂直方向及び水平方向に適用しない。
以下のテキストは、VVCドラフト2に基づく、非ゼロ参照ラインに対してフレーム内平滑化を禁止する実施形態を利用したテキスト変更を記載する(下線と取り消し線を利用する)。
8.2.4.2.1 一般的なフレーム内サンプル予測
該処理の入力は以下の通りであり、
-現在ピクチャの左上サンプルに対する現在変換ブロックの左上サンプルを指定するためのサンプル位置(xTbCmp、yTbCmp)
-フレーム内予測モードを指定するための変数predModeIntra、
-変換ブロックの幅を指定するための変数nTbW、
-変換ブロックの高さを指定するための変数nTbH、
-参照ラインインデックスを指定するための変数refLine、
-現在ブロックの色成分を指定するための変数cIdx。
該処理の出力は予測サンプルpredSamples[x][y]であり、ここで、x=0..nTbW−1、y=0..nTbH−1である。
変数whRatioは、min(abs(Log2(nTbW/nTbH)),2)に等しく設定される。
以下のように変数refWとrefHを取得し、
Figure 2021521721
参照サンプルp[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)の生成に対して、以下の順序付けのステップが適用される:
1.サンプル位置(xTbCmp、yTbCmp)、参照サンプルの幅refW、参照サンプルの高さrefH、色成分インデックスcIdxを入力とし、及び参照サンプルrefUnfilt[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)を出力とし、項目8.2.4.2.2に規定する参照サンプルの可用性マーキング処理を呼び出す。
2.少なくとも1つのサンプルrefUnfilt[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)は「フレーム内予測に利用不可」と標識されると、参照サンプルの幅refW、参照サンプルの高さrefH、参照サンプルrefUnfilt[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)、及び色成分インデックスcIdxを入力とし、補正後の参照サンプルrefUnfilt[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)を出力とし、項目8.2.4.2.3に規定する参照サンプルの置換処理を呼び出す。
3.フィルタリングされていないサンプルrefUnfilt[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)、変換ブロックの幅nTbW、変換ブロックの高さnTbH、参照サンプルの幅refW、参照サンプルの高さrefH、参照ラインインデックスrefLine、及び色成分インデックスcIdxを入力とし、参照サンプルp[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)を出力とし、項目8.2.4.2.4に規定する参照サンプルのフィルタリング処理を呼び出す。
predModeIntraのフレーム内サンプル予測処理に基づき、以下のように適用され、
-predModeIntraがINTRA_PLANARに等しいと、参照サンプルアレイp、変換ブロックの幅nTbW、及び変換ブロックの高さnTbHを入力とし、項目8.2.4.2.5に規定する、対応するフレーム内予測モード処理を呼び出し、出力は予測サンプルアレイpredSamplesである。
-さもなければ、predModeIntraがINTRA_DCに等しいと、変換ブロックの幅nTbW、変換ブロックの高さnTbH、及び参照サンプルアレイpを入力とし、項目8.2.4.2.6に規定する、対応するフレーム内予測モード処理を呼び出し、出力は予測サンプルアレイpredSamplesである。
-さもなければ、predModeIntraがINTRA_CCLMに等しいと、(xTbCmp、yTbCmp)に等しく設定されるサンプル位置(xTbC、yTbC)、予測ブロックの幅nTbW、及び予測ブロックの高さnTbH、参照サンプルアレイpを入力とし、項目8.2.4.2.8に規定する、対応するフレーム内予測モード処理を呼び出し、出力は予測サンプルアレイpredSampesである。
-さもなければ、フレーム内予測モードpredModeIntra、変換ブロックの幅nTbW、変換ブロックの高さnTbH、参照サンプルの幅refW、参照サンプルの高さrefH、及び参照サンプルアレイpを入力とし、補正されたフレーム内予測モードpredModeIntraと予測サンプルアレイpredSamplesを出力とし、項目8.2.4.2.7に規定する、対応するフレーム内予測モード処理を呼び出す。
以下の条件のうちの1つが真であれば、フレーム内予測モードpredModeIntra、変換ブロックの幅nTbW、変換ブロックの高さnTbH、予測サンプルpredSamples[x][y](ここで、x=0..nTbW−1、y=0..nTbH−1である)、参照サンプルの幅refW、参照サンプルの高さrefH、参照サンプルp[x][y](ここで、x=−1、y=−1..refH−1であり、及びx=0..refW−1、y=−1である)、及び色成分インデックスcIdxを入力とし、項目8.2.4.2.9に規定する位置依存予測の組み合わせ処理を呼び出し、出力は補正された予測サンプルアレイpredSamplesである。
-predModeIntraはINTRA_PLANARに等しい
-predModeIntraはINTRA_DCに等しい
-predModeIntraはINTRA_ANGULAR18に等しい
-predModeIntraはINTRA_ANGULAR50に等しい
-predModeIntraはINTRA_ANGULAR10の以下である
-predModeIntraはINTRA_ANGULAR58の以上である。
8.2.4.2.4 参照サンプルのフィルタリング処理
該処理の入力は以下の通りであり、
-(フィルタリングされていない)隣接サンプルrefUnfilt[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)、
-変換ブロックの幅を指定するための変数nTbW、
-変換ブロックの高さを指定するための変数nTbH、
-参照サンプルの幅を指定するための変数refW、
-参照サンプルの高さを指定するための変数refH、
-参照ラインインデックスを指定するための変数refLine、
-現在ブロックの色成分を指定するための変数cIdx。
該処理の出力は参照サンプルp[x][y]である(ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)。
変数nTbSは(Log2(nTbW)+Log2(nTbH))>>1に等しく設定される。
変数whRatioはmin(abs(Log2(nTbW/nTbH)),2)に等しく設定される。
以下のように変数wideAngleを取得し、
-以下の条件のうちの全ての条件がいずれも真であれば、wideAngleは1に等しく設定される。
-nTbWはnTbHより大きい
-predModeIntraは2の以上である
-predModeIntraは(whRatio>1)?12:8より小さい
-さもなければ、以下の条件のうちの全ての条件がいずれも真であれば、wideAngleは1に等しく設定される。
-nTbHはnTbWより大きい
-predModeIntraは66の以下である
-predModeIntraは(whRatio>1)?56:60より大きい
-さもなければ、wideAngleは0に設定される。
以下のように変数filterFlagを取得し、
-以下の条件のうちの1つまたはより複数の条件が真であれば、filterFlagは0に等しく設定され、
-predModeIntraはINTRA_DCに等しい
-cIdxは0に等しくない。
-refLineは0に等しくない
-さもなければ、以下のように適用され、
-変数minDistVerHorは
Min(Abs(predModeIntra−50),Abs(predModeIntra−18))に等しく設定される。
-変数intraHorVerDistThres[nTbS]は表8-4において、詳しく指定される。
-以下のように変数filterFlagを取得し、
-minDistVerHorがintraHorVerDistThres[nTbS]より大きく、またはwideAngleが1に等しいと、filterFlagは1に等しく設定される。
-さもなければ、filterFlagは0に等しく設定される。
表8-4は、各種の変換ブロックの大きさであるintraHorVerDistThres[nTbS]に対する規範である。
Figure 2021521721
参照サンプルp[x][y]の取得に対して、以下のように適用され、
-filterFlagが1に等しいと、以下のようなフィルタリングされたサンプル値p[x][y]を取得する(ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)。
Figure 2021521721
さもなければ、参照サンプル値p[x][y]は、フィルタリングされていないサンプル値refUnfilt[x][y]に等しく設定される(ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)。
以下のテキストは、VVCドラフト2の最新バージョンに基づく、非ゼロ参照ラインに対してPDPCを禁止する実施形態を利用したテキストの変更(下線及び取り消し線を利用する)を記載する。
8.2.4.2.1 一般的なフレーム内サンプル予測
該処理の入力は以下の通りであり、
-現在ピクチャの左上サンプルに対する現在変換ブロックの左上サンプルを指定するためのサンプル位置(xTbCmp、yTbCmp)、
-フレーム内予測モードを指定するための変数predModeIntra、
-変換ブロックの幅を指定するための変数nTbW、
-変換ブロックの高さを指定するための変数nTbH、
-参照ラインインデックスを指定するための変数refLine、
-現在ブロックの色成分を指定するための変数cIdx。
該処理の出力は予測サンプルpredSamples[x][y]である(ここで、x=0..nTbW−1、y=0..nTbH−1である)。
変数whRatioはmin(abs(Log2(nTbW/nTbH)),2)に等しく設定される。
以下のように変数refWとrefHを取得し、
Figure 2021521721
参照サンプルp[x][y](ここで、x=−1..refH−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)の生成に対して、以下の順序付けのステップが適用され、
4.サンプル位置(xTbCmp、yTbCmp)、参照サンプルの幅refW、参照サンプルの高さrefH、色成分インデックスcIdxを入力とし、参照サンプルrefUnfilt[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)を出力とし、項目8.2.4.2.2に規定する参照サンプルの可用性マーキング処理を呼び出す。
5.少なくとも1つのサンプルrefUnfilt[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)は「フレーム内予測に利用不可」と標識されると、参照サンプルの幅refW、参照サンプルの高さrefH、参照サンプルrefUnfilt[x][y](そのち、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)、及び色成分インデックスcIdxを入力とし、及び補正後の参照サンプルrefUnfihf[x][y](ここで、
x=−1、y=−1..refH−1であり、
x=0..refW−1、y=−1である)を出力とし、項目8.2.4.2.3に規定する参照サンプルの置換処理を呼び出す。
6.フィルタリングされていないサンプルrefUnfilt[x][y](ここで、x=−1、y=−1..refH−1であり、
x=0..refW−1、y=−1である)、変換ブロックの幅nTbW、変換ブロックの高さnTbH、参照サンプルの幅refW、参照サンプルの高さrefH、及び色成分インデックスcIdxを入力とし、及び参照サンプルp[x][y](ここで、x=−1、y=−1..refH−1であり、x=0..refW−1、y=−1である)を出力とし、項目8.2.4.2.4に規定する参照サンプルのフィルタリング処理を呼び出す。
predModeIntraのフレーム内サンプル予測処理に基づき、以下のように適用され、
-predModeIntraがINTRA_PLANARに等しいと、参照サンプルアレイp、変換ブロックの幅nTbW、及び変換ブロックの高さnTbHを入力とし、項目8.2.4.2.5に規定する、対応するフレーム内予測モード処理を呼び出し、出力は予測サンプルアレイpredSamplesである。
-さもなければ、predModeIntraがINTRA_DCに等しいと、変換ブロックの幅nTbW、変換ブロックの高さnTbH及び参照サンプルアレイpを入力とし、項目8.2.4.2.6に規定する、対応するフレーム内予測モード処理を呼び出すし、出力は予測サンプルアレイpredSamplesである。
-さもなければ、predModeIntraがINTRA_CCLMに等しいと、(xTbCmp、yTbCmp)に等しく設定されるサンプル位置(xTbC、yTbC)、予測ブロックの幅nTbWと高さnTbH、及び参照サンプルアレイpを入力とし、項目8.2.4.2.8に規定する、対応するフレーム内予測モード処理を呼び出し、出力は予測サンプルアレイpredSampesである。
-さもなければ、フレーム内予測モードpredModeIntra、変換ブロックの幅nTbW、変換ブロックの高さnTbH、参照サンプル幅refW、参照サンプル高さrefH、及び参照サンプルアレイpを入力とし、補正されたフレーム内予測モードpredModeIntraと予測サンプルアレイpredSamplesを出力とし、項目8.2.4.2.7に規定する、対応するフレーム内予測モード処理を呼び出す。
以下の条件のうちの1つが真であれば、フレーム内予測モードpredModeIntra、変換ブロックの幅nTbW、変換ブロックの高さnTbH、予測サンプルpredSamples[x][y](ここで、x=0..nTbW−1、y=0..nTbH−1である)、参照サンプルの幅refW、参照サンプルの高さrefH、参照サンプルp[x][y](ここで、x=−1、y=−1..refH−1、x=0..refW−1、y=−1である)、及び色成分インデックスcIdxを入力とし、項目8.2.4.2.9に規定する位置関連予測の組み合わせ処理を呼び出し、出力は補正された予測サンプルアレイpredSamplesであり、
-predModeIntraがINTRA_PLANARに等しい
-predModeIntraがINTRA_DCに等しい
-predModeIntraがINTRA_ANGULAR18に等しい
-predModeIntraがINTRA_ANGULAR50に等しい
-predModeIntraがINTRA_ANGULAR10の以下である
-predModeIntraがINTRA_ANGULAR58の以上である
refLineは0である。
図9は、実施形態に基づくフレーム内予測の方法(900)を示すフローチャートであり、前記方法はビデオシーケンスの復号に適用される。いくつかの実現方式において、図9の1つまたは複数の処理ブロックは復号器310により実行される。いくつかの実現方式において、図9の1つまたは複数の処理ブロックは、復号器(310)と分けられ、または復号器(310)を含む他の機器または1組の機器(例えば、符号器(303))により実行される。
図9を参照し、第1ブロック(910)において、方法(900)は、参照ラインインデックスに基づき、復号器に第1参照ラインを通知し、第1参照ラインのみに対してフレーム内平滑化を適用するステップを含み、複数の参照ラインが符号化ユニットに隣接し、第1参照ラインは前記複数の参照ラインのうちの、符号化ユニットに最も近接する参照ラインである。
第2ブロック(920)において、方法(900)は、第1参照ラインのみに適用されるフレーム内平滑化に基づき、符号化ユニットに対してフレーム内予測を適用するステップを含む。
第3ブロック(930)において、方法(900)は、フレーム内予測は符号化ユニットに適用されることに基づき、第1参照ラインのみに対してPDPCを適用するステップを含む。
方法(900)はさらに、複数の参照ラインのうちの第2参照ラインに対してフレーム内平滑化を適用するステップを含む。
方法(900)はさらに、複数の参照ラインにおける一つの参照ライン以外に、複数の参照ラインにおける他の参照ラインのみに対してフレーム内平滑化を適用するステップを含む。
方法(900)はさらに、フレーム内予測は符号化ユニットに適用されることに基づき、複数の参照ラインのうちの第2参照ラインに対してPDPCを適用するステップを含む。
方法(900)はさらに、フレーム内予測は符号化ユニットに適用されることに基づき、複数の参照ラインのうちの一つの参照ライン以外に、複数の参照ラインのうちの他の参照ラインのみに対してPDPCを適用するステップを含む。
方法(900)はさらに、フレーム内予測モードに対応するフレーム内予測角度が、符号化ユニットの対角線方向に対応する所定角度より大きいかどうかを決定するステップであって、フレーム内予測モードはビデオシーケンスを復号するために用いられるステップと、フレーム内予測角度が所定角度より大きいと決定されたことに基づき、複数の参照ラインのうちの、第1参照ライン以外の他の参照ラインに対してフレーム内平滑化を適用することを阻止するステップとを含む。
方法(900)はさらに、フレーム内予測モードに対応するフレーム内予測角度が、符号化ユニットの対角線方向に対応する所定角度より大きいかどうかを決定するステップであって、前記フレーム内予測モードは前記ビデオシーケンスを復号するために用いられるステップと、フレーム内予測角度が所定角度より大きいと決定されたことに基づき、複数の参照ラインのうちの、第1参照ライン以外の他の参照ラインに対してPDPCを適用することを阻止するステップとを含む。
方法(900)はさらに、ビデオシーケンスを復号するためのフレーム内予測モードと、少なくとも1つの参照ラインのインデックスに基づき、該少なくとも1つの参照ラインに対してフレーム内平滑化を適用するステップを含み、前記少なくとも1つの参照ラインは前記複数の参照ラインのうちの、前記第1参照ライン以外の他の参照ラインにある。
方法(900)はさらに、複数の参照ラインのうちの第2参照ラインのインデックスに基づき、複数のフレーム内予測モードに対応する閾値インデックスの範囲を決定するステップであって、前記複数のフレーム内予測モードは前記符号化ユニットの水平方向に隣接するステップと、ビデオシーケンスを復号するための現在フレーム内予測モードの現在インデックス値が閾値インデックス範囲内にあるかどうかを決定し、現在インデックス値が閾値インデックス範囲内にあると決定されたことに基づき、第2参照ラインに対してフレーム内平滑化を適用することを阻止するステップとを含む。
方法(900)はさらに、複数の参照ラインのうちの第2参照ラインのインデックスに基づき、複数のフレーム内予測モードに対応する閾値インデックスの範囲を決定するステップであって、前記複数のフレーム内予測モードは前記符号化ユニットの垂直方向に隣接するステップと、ビデオシーケンスを復号するための現在フレーム内予測モードの現在インデックス値が閾値インデックス範囲内にあるかどうかを決定し、現在インデックス値が閾値インデックス範囲内にあると決定されたことに基づき、第2参照ラインに対してフレーム内平滑化を適用することを阻止するステップとを含む。
図9は方法(900)の例示ブロックを示したが、いくつかの実現方式において、図9に示されるこれらのブロックに比べると、方法(900)は追加のブロック、より少ないブロック、異なるブロック、または配置が異なるブロックを有してもよい。付加的、または代わりとして、方法(900)の2つまたは複数のブロックは並行実行されてもよい。
また、提案の方法は、処理回路(例えば、1つまたは複数のプロセッサ、または1つまたは複数の集積回路)で実現されてもよい。例示において、1つまたは複数のプロセッサは、非一時的なコンピュータ読み取り可能な媒体に記憶されるプログラムを実行することで、提案の方法のうちの1つまたは複数の方法を実行する。
図10は、実施形態に基づく、ビデオシーケンスの復号のためのフレーム内予測を制御する装置(1000)の簡略化ブロック図である。
図10を参照し、装置(1000)はビデオシーケンスの復号のために用いられ、第1適用コード(1010)、第2適用コード(1020)及び第3適用コード(1030)を含む。
第1適用コード(1010)は、参照ラインインデックスに基づき、復号器に第1参照ラインを通知し、第1参照ラインのみに対してフレーム内平滑化を適用するように構成され、複数の参照ラインが符号化ユニットに隣接し、第1参照ラインは前記複数の参照ラインにおいて、符号化ユニットに最も近接する参照ラインである。
第2適用コード(1020)は、第1参照ラインのみに適用されるフレーム内平滑化に基づき、符号化ユニットに対してフレーム内予測を適用するように構成される。
選択コード(1030)は、フレーム内予測が符号化ユニットに適用されることに基づき、第1参照ラインのみに対してPDPCを適用するように構成される。
第1適用コード(1010)はさらに、複数の参照ラインのうちの第2参照ラインに対してフレーム内平滑化を適用するように構成される。
第1適用コード(1010)はさらに、複数の参照ラインのうちの一つの参照ライン以外に、複数の参照ラインのうちの他の参照ラインのみに対してフレーム内平滑化を適用するように構成される。
第3適用コード(1030)はさらに、フレーム内予測が符号化ユニットに適用されることに基づき、複数の参照ラインのうちの第2参照ラインに対してPDPCを適用するように構成される。
第3適用コード(1030)はさらに、フレーム内予測が符号化ユニットに適用されることに基づき、複数の参照ラインのうちの一つの参照ライン以外に、複数の参照ラインのうちの他の参照ラインのみに対してPDPCを適用するように構成される。
第1適用コード(1010)はさらに、フレーム内予測モードに対応するフレーム内予測角度が、符号化ユニットの対角線方向に対応する所定角度より大きいかどうかを決定するように構成され、フレーム内予測モードが前記ビデオシーケンスを復号に用いられ、且つフレーム内予測角度が所定角度より大きいと決定されたことに基づき、複数の参照ラインのうちの、前記第1参照ライン以外の他の参照ラインに対してフレーム内平滑化を適用することを阻止するように構成される。
第3適用コード(1030)はさらに、フレーム内予測モードに対応するフレーム内予測角度が、符号化ユニットの対角線方向に対応する所定角度より大きいかどうかを決定するように構成され、前記フレーム内予測モードは前記ビデオシーケンスを復号に用いられ、且つフレーム内予測角度が所定角度より大きいと決定されたことに基づき、複数の参照ラインのうちの、前記第1参照ライン以外の他の参照ラインに対してPDPCを適用することを阻止するように構成される。
第1適用コード(1010)はさらに、ビデオシーケンスを復号するためのフレーム内予測モードと、少なくとも1つの参照ラインのインデックスに基づき、該少なくとも1つの参照ラインに対してフレーム内平滑化を適用するように構成され、前記少なくとも1つの参照ラインは前記複数の参照ラインのうちの、前記第1参照ライン以外の他の参照ラインにある。
第1適用コード(1010)はさらに、複数の参照ラインのうちの第2参照ラインのインデックスに基づき、複数のフレーム内予測モードに対応する閾値インデックスの範囲を決定するように構成され、前記複数のフレーム内予測モードは前記符号化ユニットの水平方向に隣接し、且つビデオシーケンスを復号するための現在フレーム内予測モードの現在インデックス値が閾値インデックス範囲内にあるかどうかを決定し、現在インデックス値が閾値インデックス範囲内にあると決定されたことに基づき、第2参照ラインに対してフレーム内平滑化を適用することを阻止するように構成される。
第1適用コード(1010)はさらに、複数の参照ラインのうちの第2参照ラインのインデックスに基づき、複数のフレーム内予測モードに対応する閾値インデックスの範囲を決定するように構成され、前記複数のフレーム内予測モードは前記符号化ユニットの垂直方向に隣接し、ビデオシーケンスを復号するための現在フレーム内予測モードの現在インデックス値が閾値インデックス範囲内にあるかどうかを決定し、現在インデックス値が閾値インデックス範囲内にあると決定されたことに基づき、第2参照ラインに対してフレーム内平滑化を適用することを阻止するように構成される。
前記技術は、コンピュータ読み取り可能な命令を利用して、コンピュータソフトウェアとして実現され、物理的に1つまたは複数のコンピュータ読み取り可能な媒体に記憶される。
図11は、実施形態を実現するためのコンピュータシステム(1100)の図面である。
コンピュータソフトウェアは任意の適切なマシンコードまたはコンピュータ言語によって符号化を行って、マシンコードまたはコンピュータ言語は編集、コンパイル、リンクなどのメカニズムを介して命令が含まれるコードを構築し、該命令は1つ又は複数のコンピュータ中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)などによって直接的に実行されるか、または解釈、マイクロコード実行などによって実行される。
命令は各種タイプのコンピュータまたはその部材で実行でき、例えばパーソナルコンピュータ、タブレット、サーバ、スマートフォン、ゲーム機器、モノのインターネット機器などを含む。
図11に示すコンピュータシステム(1100)の部材は、本開示内容を実現するための実施例のコンピュータソフトウェアの使用範囲または機能に対して限定せず、本質に例示的である。部材の構成も、コンピュータシステム(1100)の例示の実施例で示した部材におけるいずれかの部材、またはその組み合わせに関する依存性または要求を有するように解釈されるべきではない。
コンピュータシステム(1100)はいくつかのヒューマンマシンインタフェース入力機器を含んでもよい。このようなヒューマンマシンインタフェース入力機器は、1つ又は複数の人間のユーザの、例えば触覚入力(例えば:キーストローク、スライド、データグローブ移動)、オーディオ入力(例えば:音声、拍手)、視覚入力(例えば:姿勢)、嗅覚入力(図示せず)による入力に応答できる。マンマシンインタフェース機器はさらに、必ずしも人間の意識的な入力に直接的に関していない、ある媒体、例えば、オーディオ(例えば:音声、音楽、環境音)、画像(例えば:スキャン画像、静止画像撮影装置から取得された写真画像)、ビデオ(例えば2次元ビデオ、立体ビデオが含まれる3次元ビデオ)をキャプチャできる。
入力マンマシンインタフェース機器は、キーボード(1101)、マウス(1102)、タッチパッド(1103)、タッチパネル(1110)、データグローブ(1104)、ジョイスティック(1105)、マイク(1106)、スキャナ(1107)、撮影装置(1108)のうちの1つ又は複数を有してもよい(記載の各々のうちの1つのみ)。
コンピュータシステム(1100)はさらにマンマシンインタフェース出力機器を有してもよい。このようなマンマシンインタフェース出力機器は、例えば触覚出力、音、光及び匂い/味を介して1つ又は複数の人間のユーザの感覚を刺激できる。このようなマンマシンインタフェース出力機器は触覚出力機器(例えば、タッチパネル(1110)、データグローブ(1104)またはジョイスティック(1105)による触覚フィードバック、但し入力機器として用いられない触覚フィードバック機器も存在する)、オーディオ出力機器(例えば、スピーカー(1109)、ヘッドフォン(図示せず))、視覚出力機器(例えば、スクリーン(1110)、CRTスクリーン、LCDスクリーン、プラズマスクリーン、OLEDスクリーンを含み、各スクリーンはタッチパネル入力能力、触覚フィードバック能力を有してもよく、有してなくてもよく、そのうちのいくつかは、立体画像出力のような手段で、2次元の視覚を出力または3次元以上の出力を行い、バーチャルリアリティ眼鏡(図示せず)、ホログラフィックディスプレイ及びスモークタンク(図示せず)がある)、プリンター(図示せず)を含む。
コンピュータシステム(1100)はさらに人間がアクセスし得る記憶機器及びその関連する媒体を有してもよく、例えば、CD/DVDなどの媒体(1121)を有するCD/DVD ROM/RW(1120)を含む光学媒体、サムドライブ(1122)、取り外し可能なハードドライブまたはソリッドステートドライブ(1123)、磁気テープとフロッピーディスク(図示せず)のような伝統的な磁気媒体、専用ROM/ASIC/PLDに基づく機器、例えばドングル(図示せず)などを含む。
当業者は、現在開示のテーマを結合して、使用される用語「コンピュータ読み取り可能な媒体」には伝送媒体、搬送波または他の瞬間信号が含まれないことを理解できる。
コンピュータシステム(1100)は、さらに1つ又は複数の通信ネットワークのインタフェースを有してもよい。ネットワークは、例えば無線、有線、光学であってもよい。ネットワークはさらに、ローカル、広域、都市用、車両用、工業用、リアルタイム、遅延耐性ネットワークなどであってもよい。ネットワークの例示はイーサネットのようなローカルエリアネットワーク、無線LAN、GSM、3G、4G、5G、LTEなどが含まれたセルラーネットワーク、有線テレビ、衛星テレビ及び地上波テレビが含まれるテレビ有線または無線広域デジタルネットワーク、CANBusが含まれる車両及び工業ネットワークなどを含む。あるネットワークは一般的に、ある汎用データポートまたは周辺バス(1149)(例えば、コンピュータシステム(1100)のUSBポート)に連結される外部ネットワークインタフェースアダプタを必要とし、他のネットワークは一般的に、以下に記載のシステムバス(例えば、PCコンピュータシステムへのイーサネットインタフェース、またはスマートフォンコンピュータシステムへのセルラーネットワークインタフェース)に連結されることで、コンピュータシステム(1100)のコアに集積される。これらのネットワークのうちのいずれかのネットワークを介して、コンピュータシステム(1100)は他のエンティティと通信できる。このような通信は一方向で受信だけ(例えば、放送テレビ)、一方向で送信だけ(例えば、あるCANbus機器へのCANbus)、または双方向である(例えば、ローカルエリアまたは広域デジタルネットワークを介して他のコンピュータシステムへ)。以上に記載のこれらのネットワーク及びネットワークインタフェースのうちの各ネットワーク及びネットワークインタフェースに、特定のプロトコル及びプロトコルスタックを利用できる。
以上に言及されたマンマシンインタフェース機器、人間がアクセスし得る記憶機器及びネットワークインタフェースは、コンピュータシステム(1100)のコア(1140)に連結できる。
コア(1140)は1つ又は複数の中央処理ユニット(CPU)(1141)、グラフィック処理ユニット(GPU)(1142)、フィールドプログラム可能なゲートアレイ(FPGA)(1143)という形式の専門プログラム可能な処理ユニット、あるタスクのためのハードウェアアクセラレータ(1144)などを含む。これらの機器は、読み取り専用メモリ(ROM)(1145)、ランダムアクセスメモリ(1146)、内部のユーザがアクセスできないハードディスクドライブ、SSDなどのような内部大容量記憶装置(1147)とともに、システムバス(1148)を介して接続される。あるコンピュータシステムにおいて、1つ又は複数の物理プラグという形式で、システムバス(1148)にアクセスすることで、別のCPU、GPUなどによって拡張できる。周囲機器は直接的または周辺バス(1149)を介してコアのシステムバス(1148)に連結される。周辺バスのアーキテクチャはPCI、USBなどを含む。
CPU(1141)、GPU(1142)、FPGA(1143)及びアクセラレータ(1144)はいくつかの命令を実行でき、これらの命令を組み合わせて、以上に言及されたコンピュータコードを構成する。該コンピュータコードはROM(1145)またはRAM(1146)に記憶される。移行データはRAM(1146)に記憶され、永久データは、例えば内部大容量記憶装置(1147)に記憶されてもよい。キャッシュメモリによってメモリ機器のうちのいずれかのメモリ機器の快速記憶及び検索を実現でき、該キャッシュメモリは1つ又は複数のCPU(1141)、GPU(1142)、大容量記憶装置(1147)、ROM(1145)、RAM(1146)などに密接に関連できる。
コンピュータ読み取り可能な媒体は、コンピュータが実現する各種動作を実行するためのコンピュータコードを有する。媒体とコンピュータコードとは、本開示内容の目的のために、専門に設計され及び構築された媒体とコンピュータコードであってもよいし、またはコンピュータソフトウェアの当業者にとって、公知且つ利用可能なタイプであってもよい。
限定ではなく例示として、アーキテクチャ(1100)を有するコンピュータシステム、特にコア(1140)は、プロセッサ(CPU、GPU、FPGA、アクセラレータなどを含む)が1つ又は複数の有形コンピュータ読み取り可能な媒体に体現されるソフトウェアを実行することで、機能を提供できる。このようなコンピュータ読み取り可能な媒体は、以上に紹介された、ユーザがアクセスし得る大容量記憶装置に関する媒体、及び非一時的なコア(1140)を有する、コア内部大容量記憶装置(1147)またはROM(1145)のような記憶装置であってもよい。本開示内容を実現するための各種実施例のソフトウェアはこのような機器に記憶され、コア(1140)に実行される。特定の需要に応じて、コンピュータ読み取り可能な媒体には1つ又は複数の記憶機器またはチップが含まれてもよい。ソフトウェアはコア(1140)、特にそのうちのプロセッサ(CPU、GPU、FPGAなどが含まれた)に、本明細書に記載の特定プロセスまたは特定プロセスの特定部分を実行させ、RAM(1146)に記憶されるデータ構成を限定すること、及びソフトウェアにより限定されたプロセスに基づき、このようなデータ構成を修正することが含まれる。また或いは代わりとして、コンピュータシステムは、論理的な固定接続または他の方式で回路(例えば、アクセラレータ(1144))に具現されることで機能を提供し、該回路は、ソフトウェアの代わりとして、またはソフトウェアとともに動作することで、本明細書に記載の特定プロセスまたは特定プロセスの特定部分を実行できる。適切な場合、言及のソフトウェアにはロジックが含まれ、逆に、言及のロジックにはソフトウェアが含まれてもよい。適切な場合、言及のコンピュータ読み取り可能な媒体には、実行するためのソフトウェアが記憶される回路(例えば、集積回路(IC))、実行するためのロジックを体現する回路、或いは両者が含まれてもよい。本開示内容にはハードウェアとソフトウェアとの任意の適切な組み合わせが含まれる。
本開示内容には若干の例示の実施例が記載されているが、本開示内容の範囲内にある変更、置き換え及び種々の置換均等物が存在する。従って、本明細書には明らかに記載されていないが、本開示内容の原理を具現し本開示内容の精神及び範囲内に属する多くのシステム及び方法は、当業者に考案され得る。

Claims (15)

  1. 少なくとも1つのプロセッサが実行する、ビデオシーケンスの復号のための、フレーム内予測を制御する方法であって、
    参照ラインインデックスに基づき、復号器に第1参照ラインをシグナリングし、前記第1参照ラインのみに対してフレーム内平滑化を適用するステップであって、複数の参照ラインが符号化ユニットに隣接しており、前記第1参照ラインは、前記複数の参照ラインのうち、前記符号化ユニットに最も近い参照ラインである、ステップと、 前記第1参照ラインのみに適用される前記フレーム内平滑化に基づき、前記符号化ユニットに対してフレーム内予測を適用するステップと、
    前記符号化ユニットに適用される前記フレーム内予測に基づき、前記第1参照ラインのみに対して位置依存フレーム内予測組み合わせ(PDPC)を適用するステップと、
    を含む方法。
  2. 前記方法はさらに、
    前記複数の参照ラインのうちの、前記第1参照ライン以外の参照ラインに対して前記フレーム内平滑化を適用するステップを含む請求項1に記載の方法。
  3. 前記方法はさらに、
    前記複数の参照ラインのうち、一つだけの参照ラインを除く他の参照ラインに対して、前記フレーム内平滑化を適用するステップを含む請求項1に記載の方法。
  4. 前記方法はさらに、
    前記複数の参照ラインのうちの前記第1の参照ライン以外の参照ラインに対して、前記PDPCを適用しないようにするステップを含む請求項1又は2に記載の方法。
  5. 前記方法はさらに、
    前記符号化ユニットに適用される前記フレーム内予測に基づき、前記複数の参照ラインのうち、一つだけの参照ラインを除く他の参照ラインに対して前記PDPCを適用するステップを含む請求項1又は3に記載の方法。
  6. 前記方法はさらに、
    ビデオシーケンスを復号するためのフレーム内予測モードに対応するフレーム内予測角度が、前記符号化ユニットの対角線方向に対応する所定の角度より大きいかどうかを決定するステップと、
    前記フレーム内予測角度が前記所定の角度より大きいと決定されたことに基づき、前記複数の参照ラインのうちの前記第1参照ライン以外の参照ラインに対して、前記フレーム内平滑化の適用を阻止するステップと、
    を含む請求項1に記載の方法。
  7. 前記方法はさらに、
    ビデオシーケンスを復号するためのフレーム内予測モードに対応するフレーム内予測角度が、前記符号化ユニットの対角線方向に対応する所定の角度より大きいかどうかを決定するステップであって、前記フレーム内予測モードは前記ビデオシーケンスの復号に用いられる、ステップと、
    前記フレーム内予測角度が前記所定の角度より大きいと決定されたことに基づき、前記複数の参照ラインのうちの前記第1参照ライン以外の参照ラインに対して前記PDPCの適用を阻止するステップと、
    を含む請求項1に記載の方法。
  8. 前記方法はさらに、
    前記ビデオシーケンスを復号するためのフレーム内予測モードと、少なくとも1つの参照ラインのインデックスに基づき、前記少なくとも1つの参照ラインに対して前記フレーム内平滑化を適用するステップを含み、前記少なくとも1つの参照ラインは前記複数の参照ラインのうちの前記第1参照ライン以外の参照ラインである請求項1に記載の方法。
  9. 前記方法はさらに、
    前記複数の参照ラインのうちの第2参照ラインのインデックスに基づき、複数のフレーム内予測モードに対応する閾値インデックス範囲を決定するステップであって、前記複数のフレーム内予測モードは前記符号化ユニットの水平方向に隣接する、ステップと、
    前記ビデオシーケンスを復号するための現在フレーム内予測モードの現在インデックス値が前記閾値インデックス範囲内にあるかどうかを決定するステップと、
    前記現在インデックス値が前記閾値インデックス範囲内にあると決定されたことに基づき、前記第2参照ラインに対して前記フレーム内平滑化を適用することを阻止するステップとを含む請求項1に記載の方法。
  10. 前記方法はさらに、
    前記複数の参照ラインのうちの第2参照ラインのインデックスに基づき、複数のフレーム内予測モードに対応する閾値インデックス範囲を決定するステップであって、前記複数のフレーム内予測モードは前記符号化ユニットの垂直方向に隣接する、ステップと、
    前記ビデオシーケンスを復号するための現在フレーム内予測モードの現在インデックス値が前記閾値インデックス範囲内にあるかどうかを決定するステップと、
    前記現在インデックス値が前記閾値インデックス範囲内にあると決定されたことに基づき、前記第2参照ラインに対して前記フレーム内平滑化を適用することを阻止するステップと、
    を含む請求項1に記載の方法。
  11. 前記第1参照ラインのみに対してフレーム内平滑化を提供する前記ステップは、
    前記複数の参照ラインのうちの、前記第1参照ラインを含む1つ以上の第1参照ラインに対して、フレーム内平滑化を適用し、同時に前記複数の参照ラインのうちの、前記1つ以上の第1参照ライン以外の1つ以上の第2参照ラインに対して、前記フレーム内平滑化の適用を阻止するステップを含み、
    前記第1参照ラインのみに対して位置依存フレーム内予測組み合わせ(PDPC)を適用する前記ステップは、
    前記複数の参照ラインのうちの、前記第1参照ラインを含む1つ以上の第3参照ラインに対して、前記PDPCを適用し、同時に前記複数の参照ラインのうちの、前記1つ以上の第3参照ライン以外の1つ以上の第4参照ラインに対して、前記PDPCの適用を阻止するステップを含む、
    請求項1に記載の方法。
  12. 前記1つ以上の第1参照ラインは、前記複数の参照ラインのうちの第2参照ラインをさらに含み、
    前記1つ以上の第3参照ラインは、前記複数の参照ラインのうちの第2参照ラインをさらに含む、
    請求項11に記載の方法。
  13. 前記1つ以上の第1参照ラインは、前記複数の参照ラインのうちの、一つだけの参照ラインを除く、前記第1参照ライン以外の参照ラインをさらに含み、
    前記1つ以上の第3参照ラインは、前記複数の参照ラインのうちの、一つだけの参照ラインを除く、前記第1参照ライン以外の参照ラインをさらに含む、
    請求項11に記載の方法。
  14. ビデオシーケンスの復号のための、フレーム内予測を制御するための装置であって、
    コンピュータプログラムコードを記憶した少なくとも1つのメモリと、
    少なくとも1つのプロセッサとを含み、
    前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサに、請求項1から13の何れか一項に記載の方法を実行させる、
    装置。
  15. コンピュータに請求項1から13の何れか一項に記載の方法を実行させるためのコンピュータプログラム。
JP2020560455A 2018-08-29 2019-07-24 マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム Active JP7104178B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022109624A JP2022133427A (ja) 2018-08-29 2022-07-07 マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862724575P 2018-08-29 2018-08-29
US62/724,575 2018-08-29
US16/199,891 2018-11-26
US16/199,891 US10491893B1 (en) 2018-08-29 2018-11-26 Method and apparatus for multi-line intra prediction
PCT/US2019/043141 WO2020046496A1 (en) 2018-08-29 2019-07-24 Method and apparatus for multi-line intra prediction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022109624A Division JP2022133427A (ja) 2018-08-29 2022-07-07 マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2021521721A true JP2021521721A (ja) 2021-08-26
JP7104178B2 JP7104178B2 (ja) 2022-07-20

Family

ID=68617931

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020560455A Active JP7104178B2 (ja) 2018-08-29 2019-07-24 マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム
JP2022109624A Pending JP2022133427A (ja) 2018-08-29 2022-07-07 マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022109624A Pending JP2022133427A (ja) 2018-08-29 2022-07-07 マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム

Country Status (6)

Country Link
US (5) US10491893B1 (ja)
EP (1) EP3844956A4 (ja)
JP (2) JP7104178B2 (ja)
KR (2) KR102423691B1 (ja)
CN (2) CN116320409A (ja)
WO (1) WO2020046496A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11128872B2 (en) * 2018-07-16 2021-09-21 Qualcomm Incorporated Position dependent intra prediction combination with wide angle intra prediction
US10491893B1 (en) * 2018-08-29 2019-11-26 Tencent America LLC Method and apparatus for multi-line intra prediction
KR20210084567A (ko) * 2018-11-28 2021-07-07 주식회사 윌러스표준기술연구소 화면 내 예측 필터링을 이용한 비디오 신호 처리 방법 및 장치
US11032551B2 (en) 2018-12-04 2021-06-08 Tencent America LLC Simplified most probable mode list generation scheme
PT3881549T (pt) * 2018-12-21 2024-05-20 Huawei Tech Co Ltd Método e aparelho de restrições ao nível do bloco dependente do modo e do tamanho
BR112021006547A2 (pt) * 2018-12-25 2021-07-06 Guangdong Oppo Mobile Telecommunications Corp Ltd método de previsão para decodificação, dispositivo de previsão para decodificação e mídia de armazenamento de computador que armazena um programa de previsão para decodificação
BR112021012949A2 (pt) * 2018-12-29 2021-09-14 Huawei Technologies Co., Ltd. Aparelho, método de predição intra de bloco de imagem, dispositivo para codificar ou decodificar imagem e gravação não transitória
US11425374B2 (en) * 2019-03-12 2022-08-23 FG Innovation Company Limited Device and method for coding video data
CN113597761A (zh) * 2019-03-21 2021-11-02 华为技术有限公司 帧内预测方法和装置
US20220166968A1 (en) * 2019-03-22 2022-05-26 Lg Electronics Inc. Intra prediction method and apparatus based on multi-reference line in image coding system
US11134275B2 (en) 2019-06-04 2021-09-28 Tencent America LLC Method and apparatus for performing primary transform based on filtering of blocks
US11432018B2 (en) 2020-05-11 2022-08-30 Tencent America LLC Semi-decoupled partitioning for video coding
US11259055B2 (en) 2020-07-10 2022-02-22 Tencent America LLC Extended maximum coding unit size
US11206428B1 (en) 2020-07-14 2021-12-21 Tencent America LLC Method and apparatus for frequency-dependent joint component secondary transform
US11432006B2 (en) 2020-08-14 2022-08-30 Tencent America LLC Chroma mode video coding
CN113313511A (zh) * 2021-04-30 2021-08-27 北京奇艺世纪科技有限公司 一种视频流量预测方法、装置、电子设备及介质
CN117813816A (zh) * 2021-08-19 2024-04-02 北京达佳互联信息技术有限公司 用于解码器侧帧内模式推导的方法和设备
WO2023128704A1 (ko) * 2021-12-30 2023-07-06 엘지전자 주식회사 Cclm(cross-component linear model) 인트라 예측에 기반한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장하는 기록 매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019535211A (ja) * 2016-10-14 2019-12-05 インダストリー アカデミー コーオペレイション ファウンデーション オブ セジョン ユニバーシティ 画像の符号化/復号化方法及び装置
JP2020014198A (ja) * 2018-06-29 2020-01-23 財團法人工業技術研究院Industrial Technology Research Institute ビデオコンテンツ符号化における複数参照ラインのイントラ予測に応用する適応フィルタリング方法、それを用いたビデオ符号化デバイスおよびビデオ復号化デバイス

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10425648B2 (en) * 2015-09-29 2019-09-24 Qualcomm Incorporated Video intra-prediction using position-dependent prediction combination for video coding
CN109076241B (zh) * 2016-05-04 2023-06-23 微软技术许可有限责任公司 利用样本值的非相邻参考线进行帧内图片预测
US10645395B2 (en) * 2016-05-25 2020-05-05 Arris Enterprises Llc Weighted angular prediction coding for intra coding
US10484712B2 (en) * 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
EP4319162A3 (en) * 2016-06-24 2024-04-10 KT Corporation Method and apparatus for processing video signal
KR102416257B1 (ko) * 2016-08-03 2022-07-04 주식회사 케이티 비디오 신호 처리 방법 및 장치
US10674165B2 (en) * 2016-12-21 2020-06-02 Arris Enterprises Llc Constrained position dependent intra prediction combination (PDPC)
US10542264B2 (en) * 2017-04-04 2020-01-21 Arris Enterprises Llc Memory reduction implementation for weighted angular prediction
US10742975B2 (en) * 2017-05-09 2020-08-11 Futurewei Technologies, Inc. Intra-prediction with multiple reference lines
US10805641B2 (en) * 2017-06-15 2020-10-13 Qualcomm Incorporated Intra filtering applied together with transform processing in video coding
US10491893B1 (en) * 2018-08-29 2019-11-26 Tencent America LLC Method and apparatus for multi-line intra prediction

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019535211A (ja) * 2016-10-14 2019-12-05 インダストリー アカデミー コーオペレイション ファウンデーション オブ セジョン ユニバーシティ 画像の符号化/復号化方法及び装置
JP2020014198A (ja) * 2018-06-29 2020-01-23 財團法人工業技術研究院Industrial Technology Research Institute ビデオコンテンツ符号化における複数参照ラインのイントラ予測に応用する適応フィルタリング方法、それを用いたビデオ符号化デバイスおよびビデオ復号化デバイス

Also Published As

Publication number Publication date
KR20220104844A (ko) 2022-07-26
CN112997483A (zh) 2021-06-18
KR102653789B1 (ko) 2024-04-03
CN112997483B (zh) 2023-03-10
JP2022133427A (ja) 2022-09-13
EP3844956A4 (en) 2022-07-20
JP7104178B2 (ja) 2022-07-20
US10944964B2 (en) 2021-03-09
US20220329790A1 (en) 2022-10-13
US20200092548A1 (en) 2020-03-19
US10491893B1 (en) 2019-11-26
KR20200132993A (ko) 2020-11-25
CN116320409A (zh) 2023-06-23
EP3844956A1 (en) 2021-07-07
US20210168361A1 (en) 2021-06-03
US11902514B2 (en) 2024-02-13
WO2020046496A1 (en) 2020-03-05
KR102423691B1 (ko) 2022-07-22
US20240146911A1 (en) 2024-05-02
US11418778B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
JP7104178B2 (ja) マルチラインフレーム内予測のための方法、装置、及びコンピュータプログラム
JP7057448B2 (ja) ビデオ圧縮における複数ラインのフレーム内予測のための方法および装置
KR102637562B1 (ko) 비디오 압축에서의 비-정사각형 블록들에 대한 인트라 예측을 위한 방법 및 장치
JP2021518088A (ja) 小ブロックの予測と変換のための方法、装置、及びプログラム
JP2021520749A (ja) マルチラインイントラ予測に対するmpmリスト生成を実現するための方法、装置、及びコンピュータプログラム
JP2022513715A (ja) 無指向性媒体符号化及び復号のためのラップアラウンドパディングの方法
JP7260561B2 (ja) マルチラインイントラ予測のためのイントラ補間フィルタを選択する方法、装置、及びコンピュータプログラム
JP2021521751A (ja) ビデオ符号化において追加中間候補を有するマージモードの方法及び装置
JP2022511851A (ja) 最大変換サイズの制御
JP7011735B2 (ja) コーディングブロックフラグと予測モードの改善されたコンテキスト設計のための方法及び装置、並びにコンピュータプログラム
JP2021520150A (ja) 予測モードおよび符号化ブロックフラグ(cbf)のコンテキスト設計を更に向上する方法および機器
JP2021520173A (ja) ピクチャの復号のための方法、機器及びコンピュータプログラム
JP7066919B2 (ja) 階層的タイル
CN113711586A (zh) 简化的最可能模式列表生成方案
JP2022051929A (ja) ビデオ符号化のための方法、及び装置
JP2021521719A (ja) 映像圧縮における複数ラインイントラ予測の方法、装置及びコンピュータ・プログラム
JP2023126585A (ja) マルチラインイントラ予測のためのモードリストを生成する方法、並びにその装置及びコンピュータプログラム
KR20210089756A (ko) 개선된 최고 확률 모드 리스트 생성 스킴
JP2022526437A (ja) 参照ピクチャー再サンプリングがある場合のラップアラウンド動き補償に関する方法、装置、コンピュータ・プログラム
JP2021516915A (ja) フレキシブルなツリー構造における連結符号化単位
JP7061680B2 (ja) ビデオ符号化において縮減された前のラインバッファを使用するインター予測の方法及び装置
JP2022520855A (ja) Qt/bt/ttサイズの改善されたヘッダシンタックス
JP2021517394A5 (ja)
CN118317101A (en) Video encoding method, apparatus, computer device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220707

R150 Certificate of patent or registration of utility model

Ref document number: 7104178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150