JP2022521980A - イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法 - Google Patents

イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法 Download PDF

Info

Publication number
JP2022521980A
JP2022521980A JP2021549857A JP2021549857A JP2022521980A JP 2022521980 A JP2022521980 A JP 2022521980A JP 2021549857 A JP2021549857 A JP 2021549857A JP 2021549857 A JP2021549857 A JP 2021549857A JP 2022521980 A JP2022521980 A JP 2022521980A
Authority
JP
Japan
Prior art keywords
mode
intra
block
prediction mode
current block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021549857A
Other languages
English (en)
Other versions
JP7267444B2 (ja
Inventor
ビャオ・ワン
セミフ・エセンリク
アナンド・メヘル・コトラ
ハン・ガオ
ジエンレ・チェン
Original Assignee
ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ホアウェイ・テクノロジーズ・カンパニー・リミテッド filed Critical ホアウェイ・テクノロジーズ・カンパニー・リミテッド
Publication of JP2022521980A publication Critical patent/JP2022521980A/ja
Priority to JP2023068786A priority Critical patent/JP7521050B2/ja
Application granted granted Critical
Publication of JP7267444B2 publication Critical patent/JP7267444B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法であって、現在のブロックの左の近隣のブロックのイントラ予測モードを取得するステップ、現在のブロックの上の近隣のブロックのイントラ予測モードを取得するステップ、現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するステップであって、MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含み、つまり、少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、第1の条件が、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードが同じ角度モードであることを含み、angが、左の近隣のブロックのイントラ予測モードまたは上の近隣のブロックのイントラ予測モードを表す、ステップを含む、方法が提供される。

Description

関連出願の相互参照
本特許出願は、2019年2月25日に出願した米国特許仮出願第62/810,323号の優先権を主張するものである。上述の特許出願の開示は、参照によりその全体が本明細書に組み込まれる。
本出願の実施形態は、概して、ピクチャ処理の分野に関し、より詳細には、イントラ予測に関する。
ビデオコーディング(ビデオ符号化および復号)は、広範なデジタルビデオアプリケーション、たとえば、ブロードキャストデジタルTV、インターネットおよびモバイルネットワーク上のビデオ送信、ビデオチャットのようなリアルタイム会話アプリケーション、テレビ会議、DVDおよびブルーレイディスク、ビデオコンテンツ獲得および編集システム、ならびにセキュリティアプリケーションのカムコーダにおいて使用される。
比較的短いビデオでさえも描くために必要とされるビデオデータの量はかなり多くなり得、それが、データが限られた帯域幅の容量を有する通信ネットワークを介してストリーミングされるかまたはそれ以外の方法で伝達されるべきであるときに困難をもたらす可能性がある。したがって、ビデオデータは、概して、現代の通信ネットワークを介して伝達される前に圧縮される。メモリリソースが限られている可能性があるので、ビデオがストレージデバイスに記憶されるとき、ビデオのサイズも問題となりうる。多くの場合、ビデオ圧縮デバイスは、送信または記憶の前にビデオデータをコーディングするために送信元においてソフトウェアおよび/またはハードウェアを使用し、それによって、デジタルビデオ画像を表現するために必要とされるデータの量を削減する。次いで、圧縮されたデータが、ビデオデータを復号するビデオ解凍デバイスによって送信先において受信される。限られたネットワークリソースおよびより高いビデオ品質のますます増加する需要によって、ピクチャ品質をほとんどまたはまったく犠牲にせずに圧縮比を高める改善された圧縮および解凍技術が、望ましい。
詳細には、イントラ予測の処理の文脈でプロセッサの負荷を減らす継続した需要がある。当技術分野においては、イントラ予測モードコーディングのために最確モード(MPM: Most Probable Mode)リストを使用することが知られている。MPMリストは、現在のブロックのイントラ予測モードをコーディングするために必要とされるビットを削減する。現在のブロックのイントラ予測モードがMPMリストのエントリに対応するとき、実際のモードではなくインデックスがコーディングされ、それによって、より少ないビットが必要とされる。しかし、最も効率的なイントラ予測コーディングを考慮してMPMリストの生成のためのエントリを選択することは、いまだに課題となっている。エントリの適切な選択は、MPMリストに基づくイントラ予測モードコーディングの効率に大きな影響を与える。
このことに鑑みて、当該技術と比較してより効率的なコーディングをもたらすMPMリストを生成するための技術を提供することが、本発明の根本的な目的である。
本出願の実施形態は、独立請求項に係る符号化および復号のための装置および方法を提供する。
上述のおよびその他の目的は、独立請求項の主題により達成される。さらなる実装の形態は、従属請求項、明細書、および図面から明らかである。
実施形態によれば、復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法であって、
現在のブロックの左の近隣のブロックのイントラ予測モードを取得するステップ、
現在のブロックの上の近隣のブロックのイントラ予測モードを取得するステップ、
現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを(取得するステップの結果に基づいて)構築するステップであって、MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含み、つまり、
少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、第1の条件が、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードが同じ角度モードであることを含み、angが、左の近隣のブロックのイントラ予測モードまたは上の近隣のブロックのイントラ予測モードを表す、ステップを含む、方法が提供される。言い換えると、angは、左の近隣のブロックのイントラ予測モードまたは上の近隣のブロックのイントラ予測モードを表す値またはインデックスである。angの範囲は、{2-66}であってもよい。
実施形態の実装として、方法は、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードが同じ角度モードであるか否かを調べるステップをさらに含んでもよい。
実際、よく使用されるイントラ予測モードがそのMPMリストに含まれ、したがって、実際のモードをコーディングする必要なしにリストのインデックスによって参照されうるので、そのように生成されたMPMリストは、コーディング効率に関して有利であってもよい。
詳細には、第1の条件および第2の条件が満たされるとき、イントラ予測モードの少なくとも5つのエントリが、MPMリストに含まれてもよく、第2の条件は、現在のブロックが下位区画内(ISP)モードによってコーディングされることを含む。それによって、コーディング効率が、実際の応用に応じてさらに高められることができる。
コーディング効率に関して同様に有利な代替的なMPMリストが、復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法であって、現在のブロックの左の近隣のブロックのイントラ予測モードを取得するステップ、現在のブロックの上の近隣のブロックのイントラ予測モードを取得するステップ、現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを(取得するステップの結果に基づいて)構築するステップであって、MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含み、つまり、
少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、第1の条件が、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードの一方のみが角度モードであることを含み、angが、角度モードを表す、ステップを含む、方法によって提供されうる。言い換えると、angは、角度モードを表す値またはインデックスである。angの範囲は、{2-66}であってもよい。第1の条件は、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードの他方が角度モードでないことを含んでもよい。
代替的な実施形態の実装として、方法は、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードの一方のみが角度モードであるか否かを調べるステップをさらに含んでもよい。
やはり、MPMリストは、第1の条件および第2の条件が満たされるとき、イントラ予測モードの少なくとも5つのエントリを含んでもよく、第2の条件は、現在のブロックがISPモードによってコーディングされることを含む。
さらなる代替によれば、コーディング効率に関して同様に有利であってもよいMPMリストが、復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法であって、
現在のブロックの左の近隣のブロックのイントラ予測モードを取得するステップ、
現在のブロックの上の近隣のブロックのイントラ予測モードを取得するステップ、
少なくとも第1の条件が満たされるとき、現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを(取得するステップの結果に基づいて)構築するステップであって、第1の条件が、左の近隣のブロックのイントラ予測モードと上の近隣のブロックのイントラ予測モードとの両方が角度モードであることを含み、MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含む、つまり、
a) maxAB - minABが1に等しいとき、{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 ), 2 + ( ( minAB + 60 ) % 64 )}を含むか、または
b) maxAB - minABが2に等しいとき、{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 )}を含むか、または
c) maxAB - minABが61を超えているとき、{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 ), 2 + ( minAB % 64 )}を含むか、または
d) それ以外の場合、{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 )}を含み、
above_modeが、上の近隣のブロックのイントラ予測モードを表し、left_modeが、左の近隣のブロックのイントラ予測モードを表し、minABが、above_modeとleft_modeとの間の最小のイントラ予測モードを表し、maxABが、above_modeとleft_modeとの間の最大のイントラ予測モードを表す、ステップを含む、方法によって提供されうる。
代替的な実施形態の実装として、方法は、左の近隣のブロックのイントラ予測モードと上の近隣のブロックのイントラ予測モードとの両方が角度モードであるか否かを調べるステップをさらに含んでもよい。
上述の実施形態のすべてにおいて、現在のブロックのイントラ予測モードは、それぞれ生成されたMPMリストに基づいてコーディングされうる。上述のように、コーディングプロセスのコーディング効率は、当該技術と比較して、それぞれのMPMリストの使用によって高められうる。
上述の実施形態のうちの1つによる方法は、現在のブロックのイントラ予測モードを決定するステップと、現在のブロックの決定されたイントラ予測モードがMPMリストに挙げられているとき、MPMリストの対応するインデックスによって現在のブロックの決定されたイントラ予測モードをコーディングするステップとをさらに含んでもよい。やはり、コーディングプロセスのコーディング効率は、当該技術と比較して、それぞれのMPMリストのインデックスの使用によって高められうる。
実施形態によれば、MPMリストの生成は、PLANARモードを表す第6のリストのエントリを生成することを含む。代替的に、上述の実施形態のうちの1つの方法は、現在のブロックのイントラ予測モードがPLANARモードであるか否かを決定するステップと、現在のブロックのイントラ予測モードがPLANARモードでないと決定されるとき、現在のブロックのイントラ予測モードがPLANARモードでないことをフラグによってシグナリングするステップとを含んでもよい。
したがって、広く使用される重要なPLANARモードが、明示的に考慮に入れられうる。PLANARモードを扱うこれらの代替の間の違いは純粋に編集上のものであり、これらの代替毎に切り替わっていることがはっきりと留意される。
さらなる実施形態によれば、生成されたMPMリストは、上述の少なくとも5つのエントリからなり(つまり、PLANARモードをインデックス付けしない)、方法は、そのように生成されたMPMリストを使用して多参照ライン(multiple reference line)コーディングするステップをさらに含む。やはり、イントラ予測のコーディングの高い効率が、実現されることができる。
別の特定の実施形態によれば、イントラ予測された上の近隣のブロックがない場合、上の近隣のブロックのイントラ予測モードが、PLANARであると決定されてもよく、イントラ予測された左の近隣のブロックがない場合、左の近隣のブロックのイントラ予測モードが、PLANARであると決定される。したがって、イントラ予測された上または左の近隣のブロックが存在しない場合が、デフォルトに基づいて効率的に処理されうる。
さらに、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードのどちらも角度モードでない場合が考慮される。したがって、復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法であって、
現在のブロックの左の近隣のブロックのイントラ予測モードを取得するステップ、
現在のブロックの上の近隣のブロックのイントラ予測モードを取得するステップ、
現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するステップであって、MPMリストが、イントラ予測モードの少なくとも5つのエントリを含み、少なくとも第1の条件が満たされるとき、少なくとも5つのエントリのうちの4つが、VER_IDX、HOR_IDX、VER_IDX - 4、およびVER_ID + 4によって与えられ、第1の条件が、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードのどちらも角度モードでないことを含み、VER_IDXが、垂直イントラ予測モードのインデックスを表し、HOR_IDXが、水平イントラ予測モードのインデックスを表す、ステップを含む、方法が提供される。
代替的な実施形態の実装として、方法は、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードのどちらも角度モードでないか否かを調べるステップをさらに含んでもよい。
発明の方法の上述の実施形態のすべてにおいて、以下のことが成り立ってもよい。左の近隣のブロックの左上の角が、(xCb-1, yCb+cbHeight-1)にあり、上の近隣のブロックの左上の角が、(xCb+cbWidth-1, yCb-1)にあり、xCb、yCb、cbHeight、およびcbWidthが、それぞれ、幅方向の現在のブロックの左上の角の位置、高さ方向の現在のブロックの左上の角の位置、現在のブロックの高さ、および現在のブロックの幅を表す。
上述の実施形態は、エンコーダまたはデコーダにおいて実施されてもよく、上述の同じ利点をもたらす。したがって、上述の実施形態のいずれか1つに係る方法を実行するための処理回路を含むエンコーダが、提供される。同様に、上述の実施形態のいずれか1つに係る方法を実行するための処理回路を含むデコーダが、提供される。
さらに、上述の方法のステップを実行するためのプログラムコードを含むコンピュータプログラム製品が、提供される。
さらに、1つ以上のプロセッサと、
プロセッサに結合され、プロセッサによって実行するためのプログラミングを記憶する非一時的コンピュータ可読ストレージ媒体とを含み、プログラミングが、プロセッサによって実行されるときに、上述の実施形態のいずれかに係る方法を実行するようにエンコーダまたはデコーダを構成するデコーダまたはエンコーダが提供される。
現在のブロックの予測コーディングの発明の方法の上述の実施形態は、画像エンコーダおよび/または画像デコーダにおいて使用するための適切なデバイス内で実施されうる。そのようなデバイスの動作も、上述の利点を提供する。したがって、画像エンコーダおよび/または画像デコーダにおいて使用するためのデバイスであって、
現在のブロックの左の近隣のブロックのイントラ予測モードを取得し、現在のブロックの上の近隣のブロックのイントラ予測モードを取得するように構成された予測モードユニット、
現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを(予測モードユニットからの入力に基づいて)構築するように構成された最確モードユニットであって、MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含み、つまり、
少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、第1の条件が、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードが同じ角度モードであることを含み、angが、左の近隣のブロックのイントラ予測モードまたは上の近隣のブロックのイントラ予測モードを表す、最確モードユニットを含む、デバイスが提供される。言い換えると、angは、左の近隣のブロックのイントラ予測モードまたは上の近隣のブロックのイントラ予測モードを表す値またはインデックスである。angの範囲は、{2-66}であってもよい。
実施形態の実装として、MPMユニットは、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードが同じ角度モードであるか否かを調べるようにさらに構成されてもよい。
MPMリストは、第1の条件および第2の条件が満たされるとき、イントラ予測モードの少なくとも5つのエントリを含んでもよく、第2の条件は、現在のブロックが下位区画内(ISP)モードによってコーディングされることを含む。
さらに、画像エンコーダおよび/または画像デコーダにおいて使用するためのデバイスであって、
現在のブロックの左の近隣のブロックのイントラ予測モードを取得し、現在のブロックの上の近隣のブロックのイントラ予測モードを取得するように構成された予測モードユニット、
現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを(予測モードユニットからの入力に基づいて)構築するように構成された最確モードユニットであって、MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含み、つまり、
少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、第1の条件が、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードの一方のみが角度モードであることを含み、angが、角度モードを表す、最確モードユニットを含む、デバイスが提供される。言い換えると、angは、角度モードを表す値またはインデックスである。angの範囲は、{2-66}であってもよい。
代替的な実施形態の実装として、MPMユニットは、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードの一方のみが角度モードであるか否かを調べるようにさらに構成されてもよい。
やはり、MPMリストは、第1の条件および第2の条件が満たされるとき、イントラ予測モードの少なくとも5つのエントリを含んでもよく、第2の条件は、現在のブロックがISPモードによってコーディングされることを含む。
さらに、画像エンコーダおよび/または画像デコーダにおいて使用するためのデバイスであって、
現在のブロックの左の近隣のブロックのイントラ予測モードを取得し、現在のブロックの上の近隣のブロックのイントラ予測モードを取得するように構成された予測モードユニット、
少なくとも第1の条件が満たされるとき、現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを(予測モードユニットからの入力に基づいて)構築するように構成された最確モードユニットであって、第1の条件が、左の近隣のブロックのイントラ予測モードと上の近隣のブロックのイントラ予測モードとの両方が角度モードであることを含み、MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含む、つまり、
a) maxAB - minABが1に等しいとき、{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 ), 2 + ( ( minAB + 60 ) % 64 )}を含むか、または
b) maxAB - minABが2に等しいとき、{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 )}を含むか、または
c) maxAB - minABが61を超えているとき、{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 ), 2 + ( minAB % 64 )}を含むか、または
d) それ以外の場合、{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 )}を含み、
above_modeが、上の近隣のブロックのイントラ予測モードを表し、left_modeが、左の近隣のブロックのイントラ予測モードを表し、minABが、above_modeとleft_modeとの間の最小のイントラ予測モードを表し、maxABが、above_modeとleft_modeとの間の最大のイントラ予測モードを表す、最確モードユニットを含む、デバイスが提供される。
代替的な実施形態の実装として、MPMユニットは、左の近隣のブロックのイントラ予測モードと上の近隣のブロックのイントラ予測モードとの両方が角度モードであるか否かを調べるようにさらに構成されてもよい。
上述の実施形態のうちの1つに係るデバイスは、生成されたMPMリストに基づいて現在のブロックのイントラ予測モードをコーディングするように構成されたコーディングユニットをさらに含んでもよい。
さらに、上述の実施形態のうちの1つに係るデバイスは、現在のブロックのイントラ予測モードを判定し、現在のブロックの判定されたイントラ予測モードがMPMリストに挙げられているとき、MPMリストの対応するインデックスによって現在のブロックの判定されたイントラ予測モードをコーディングするように構成された判定ユニットをさらに含んでもよい。
実施形態によれば、最確モードユニットは、PLANARモードを表す第6のリストのエントリを生成するように構成される。
実施形態によれば、デバイスは、現在のブロックのイントラ予測モードがPLANARモードであるかどうかを決定するように構成された平面決定ユニットと、現在のブロックのイントラ予測モードがPLANARモードでないと決定されるとき、現在のブロックのイントラ予測モードがPLANARモードでないことをフラグによってシグナリングするように構成されたシグナリングユニットとをさらに含む。
生成されたMPMリストは、少なくとも5つのエントリからなってもよく、上述の実施形態のうちの1つに係るデバイスは、MPMリストを使用して多参照ラインコーディングするように構成された多参照ラインコーディングユニットをさらに含んでもよい。
上述の実施形態のすべてにおいて、予測モードユニットは、イントラ予測された上の近隣のブロックがない場合、上の近隣のブロックのイントラ予測モードがPLANARであると決定するように構成されてもよく、予測モードユニットは、イントラ予測された左の近隣のブロックがない場合、左の近隣のブロックのイントラ予測モードがPLANARであると決定するように構成される。
さらに、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードのどちらも角度モードでない場合が考慮される。したがって、
現在のブロックの左の近隣のブロックのイントラ予測モードを取得し、現在のブロックの上の近隣のブロックのイントラ予測モードを取得するように構成された予測モードユニット(1101)、
現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するように構成された最確モードユニット(1102)であって、MPMリストが、イントラ予測の少なくとも5つのエントリを含み、少なくとも第1の条件が満たされるとき、少なくとも5つのエントリのうちの4つが、VER_IDX、HOR_IDX、VER_IDX - 4、およびVER_ID + 4によって与えられ、第1の条件が、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードのどちらも角度モードでないことを含み、VER_IDXが、垂直イントラ予測モードのインデックスを表し、HOR_IDXが、水平イントラ予測モードのインデックスを表す、最確モードユニット(1102)を含む、画像エンコーダおよび/または画像復号において使用するためのデバイス(1100)が提供される。
概して、以下が成り立ってもよい。左の近隣のブロックの左上の角が、(xCb-1, yCb+cbHeight-1)にあり、上の近隣のブロックの左上の角が、(xCb+cbWidth-1, yCb-1)にあり、xCb、yCb、cbHeight、およびcbWidthが、それぞれ、幅方向の現在のブロックの左上の角の位置、高さ方向の現在のブロックの左上の角の位置、現在のブロックの高さ、および現在のブロックの幅を表す。
上述の実施形態のすべてにおいて、
x % y 法(modulus)。x >= 0およびy > 0である整数xおよびyに関してのみ定義されるx割るyの余り。
上述の実施形態のすべては、現在の予測ブロックにより関連性のあるモードをMPMリストの構築に含めることによってイントラモードコーディングを改善する。
詳細には、左および上のブロックのイントラモードのうちの1つが角度モードであるか、またはそれらのイントラモードの両方が角度モードであって、しかも同じであるとき、MPMリストは、角度モードを含めることと、MPMリスト内のその近隣の角度モードを広げることとによって構築される。
左および上のブロックのイントラモードが角度モードであり、同じでないとき、MPMリストは、左および上のブロックのイントラモードの違いに応じて構築される。
合計で4つのカテゴリが、区別され、MPMリストは、左および上のブロックのイントラモードの近隣の角度モードを追加することによって導出される。
1つ以上の実施形態の詳細が、添付の図面および以下の説明に記載されている。その他の特徴、目的、および利点は、明細書、図面、および特許請求の範囲から明らかになるであろう。
以下で、本発明の実施形態が、添付の図および図面を参照してより詳細に説明される。
本発明の実施形態を実装するように構成されたビデオコーディングシステムの例を示すブロック図である。 本発明の実施形態を実装するように構成されたビデオコーディングシステムの別の例を示すブロック図である。 本発明の実施形態を実装するように構成されたビデオエンコーダの例を示すブロック図である。 本発明の実施形態を実装するように構成されたビデオデコーダの例示的な構造を示すブロック図である。 符号化装置または復号装置の例を示すブロック図である。 符号化装置または復号装置の別の例を示すブロック図である。 多参照ラインコーディングツールの動作を示す図である。 下位区画内コーディングの例を示す図である。 下位区画内コーディングの例を示す図である。 現在のブロックのイントラ予測コーディングが依存する近隣のブロックの位置を示す図である。 本発明に係る復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法の実施形態を示す図である。 本発明に係る画像エンコーダおよび/または画像デコーダにおいて使用するためのデバイスの実施形態を示す図である。 コンテンツ配信サービスを実現するコンテンツ供給システム3100の例示的な構造を示すブロック図である。 端末デバイスの例の構造を示すブロック図である。
以下で、同一の参照符号は、別途明記されない場合、同一のまたは少なくとも機能的に等価な特徴を指す。
以下の説明においては、本開示の一部を形成し、本発明の実施形態の特定の態様または本発明の実施形態が使用されてもよい特定の態様を例として示す添付の図面が参照される。本発明の実施形態は、その他の態様において使用され、図面に示されない構造的または論理的変更を含んでもよいことが理解される。したがって、以下の詳細な説明は、限定的意味に理解されるべきでなく、本発明の範囲は、添付の特許請求の範囲によって定義される。
たとえば、説明される方法に関連する開示は、方法を実行するように構成された対応するデバイスまたはシステムにも当てはまってもよく、その逆もあってよいことが理解される。たとえば、1つ以上の特定の方法のステップが説明される場合、対応するデバイスは、説明される1つ以上の方法のステップを実行するための1つ以上のユニット、たとえば、機能ユニット(たとえば、1つ以上のステップを実行する1つのユニット、または複数のステップのうちの1つ以上をそれぞれが実行する複数のユニット)を、たとえそのような1つ以上のユニットが明示的に説明されないかまたは図に示されないとしても含んでもよい。一方、たとえば、特定の装置が1つ以上のユニット、たとえば、機能ユニットに基づいて説明される場合、対応する方法は、1つ以上のユニットの機能を実行するための1つのステップ(たとえば、1つ以上のユニットの機能を実行する1つのステップ、または複数のユニットのうちの1つ以上の機能をそれぞれが実行する複数のステップ)を、たとえそのような1つ以上のステップが明示的に説明されないかまたは図に示されないとしても含んでもよい。さらに、本明細書において説明される様々な例示的な実施形態および/または態様の特徴は、そうでないことが明記されない限り互いに組み合わされてもよいことが理解される。
ビデオコーディングは、概して、ビデオまたはビデオシーケンスを形成するピクチャのシーケンスの処理を指す。用語「ピクチャ」の代わりに、用語「フレーム」または「画像」が、ビデオコーディングの分野において同義語として使用されてもよい。ビデオコーディング(または概してコーディング)は、2つの部分、ビデオ符号化およびビデオ復号を含む。ビデオ符号化は、送信元の側で実行され、概して、(より効率的な記憶および/または送信のために)ビデオピクチャを表現するために必要とされるデータの量を減らすために元のビデオピクチャを(たとえば、圧縮によって)処理することを含む。ビデオ復号は、送信先の側で実行され、概して、ビデオピクチャを再構築するためにエンコーダと比べて逆の処理を含む。ビデオピクチャ(または概してピクチャ)の「コーディング」に言及する実施形態は、ビデオピクチャまたはそれぞれのビデオシーケンスの「符号化」または「復号」に関すると理解される。符号化部分と復号部分との組み合わせは、コーデック(コーディングおよび復号)とも呼ばれる。
可逆ビデオコーディングの場合、(記憶または送信中に送信損失またはその他のデータ損失がないと仮定して)元のビデオピクチャが再構築されることが可能であり、つまり、再構築されたビデオピクチャは元のビデオピクチャと同じ品質を有する。不可逆ビデオコーディングの場合、ビデオピクチャを表現するデータの量を減らすために、たとえば、量子化によるさらなる圧縮が実行され、これは、デコーダにおいて完全に再構築されえず、つまり、再構築されたビデオピクチャの品質は、元のビデオピクチャの品質に比べてより低いまたはより悪い。
いくつかのビデオコーディング規格は、「不可逆ハイブリッドビデオコーデック」のグループに属する(つまり、サンプル領域(sample domain)における空間および時間予測と変換領域(transform domain)において量子化を適用するための2D変換コーディングとを組み合わせる)。ビデオシーケンスの各ピクチャは、概して、1組の重なり合わないブロックに区分けされ、コーディングは、概して、ブロックレベルで実行される。言い換えると、エンコーダにおいて、ビデオは、概して、たとえば、空間(イントラピクチャ)予測および/または時間(インターピクチャ)予測を使用して予測ブロック(prediction block)を生成し、現在のブロック(現在処理されている/処理されるブロック)から予測ブロックを差し引いて残差ブロックを取得し、残差ブロックを変換し、変換領域において残差ブロックを量子化して送信されるデータの量を削減する(圧縮)ことによってブロック(ビデオブロック)レベルで処理され、つまり、符号化され、一方、デコーダにおいては、表現するために現在のブロックを再構築するために、エンコーダと比べて逆の処理が、符号化されたまたは圧縮されたブロックに適用される。さらに、エンコーダは、後続のブロックを処理する、つまり、コーディングするために両方が同一の予測(たとえば、イントラおよびインター予測)ならびに/または再構築を生成するようにデコーダの処理ループを複製する。
以下で、ビデオコーディングシステム10、ビデオエンコーダ20およびビデオデコーダ30の実施形態が、図1から図3に基づいて説明される。
図1Aは、本出願の技術を利用してもよい例示的なコーディングシステム10、たとえば、ビデオコーディングシステム10(または短くコーディングシステム10)を示す概略的なブロック図である。ビデオコーディングシステム10のビデオエンコーダ20(または短くエンコーダ20)およびビデオデコーダ30(または短くデコーダ30)は、本出願において説明される様々な例による技術を実行するように構成されてもよいデバイスの例を示す。
図1Aに示されるように、コーディングシステム10は、符号化されたピクチャデータ13を復号するために、たとえば、送信先デバイス14に符号化されたピクチャデータ21を提供するように構成された送信元デバイス12を含む。
送信元デバイス12は、エンコーダ20を含み、追加的に、つまり、任意選択で、ピクチャソース16、プリプロセッサ(または前処理ユニット)18、たとえば、ピクチャプリプロセッサ18、および通信インターフェースまたは通信ユニット22を含んでもよい。
ピクチャソース16は、任意の種類のピクチャ撮影デバイス、たとえば、実世界のピクチャを撮影するためのカメラ、ならびに/または任意の種類のピクチャ生成デバイス、たとえば、コンピュータによってアニメーションされるピクチャを生成するためのコンピュータグラフィックスプロセッサ、または実世界のピクチャ、コンピュータによって生成されたピクチャ(たとえば、画面コンテンツ(screen content)、仮想現実(VR)ピクチャ)、および/もしくはそれらの任意の組み合わせ(たとえば、拡張現実(AR)ピクチャ)を取得および/もしくは提供するための任意の種類のその他のデバイスを含むかまたはそのようなデバイスであってもよい。ピクチャソースは、上述のピクチャのいずれかを記憶するための任意の種類のメモリまたはストレージであってもよい。
プリプロセッサ18および前処理ユニット18によって実行される処理と区別して、ピクチャまたはピクチャデータ17は、生ピクチャまたは生ピクチャデータ17とも呼ばれてもよい。
プリプロセッサ18は、(生)ピクチャデータ17を受け取り、ピクチャデータ17に対して前処理を実行して前処理されたピクチャ19または前処理されたピクチャデータ19を取得するように構成される。プリプロセッサ18によって実行される前処理は、たとえば、トリミング、(たとえば、RGBからYCbCrへの)カラーフォーマット変換、色補正、または雑音除去を含んでもよい。前処理ユニット18は、任意選択の構成要素であってもよいことが理解されうる。
ビデオエンコーダ20は、前処理されたピクチャデータ19を受け取り、符号化されたピクチャデータ21を提供するように構成される(さらなる詳細が、下で、たとえば、図2に基づいて説明される)。
送信元デバイス12の通信インターフェース22は、符号化されたピクチャデータ21を受け取り、符号化されたピクチャデータ21(またはその任意のさらに処理されたバージョン)を、記憶するかまたは直接再構築するために別のデバイス、たとえば、送信先デバイス14または任意のその他のデバイスに通信チャネル13を介して送信するように構成されてもよい。
送信先デバイス14は、デコーダ30(たとえば、ビデオデコーダ30)を含み、追加的に、つまり、任意選択で、通信インターフェースまたは通信ユニット28、ポストプロセッサ32(または後処理ユニット32)、およびディスプレイデバイス34を含んでもよい。
送信先デバイス14の通信インターフェース28は、たとえば、送信元デバイス12から直接、または任意のその他のソース、たとえば、ストレージデバイス、たとえば、符号化されたピクチャデータのストレージデバイスから符号化されたピクチャデータ21(またはその任意のさらに処理されたバージョン)を受信し、符号化されたピクチャデータ21をデコーダ30に提供するように構成される。
通信インターフェース22および通信インターフェース28は、送信元デバイス12と送信先デバイス14との間の直接通信リンク、たとえば、直接有線もしくはワイヤレス接続を介して、あるいは任意の種類のネットワーク、たとえば、有線もしくはワイヤレスネットワークもしくはそれらの任意の組み合わせ、または任意の種類のプライベートおよびパブリックネットワーク、またはそれらの任意の種類の組み合わせを介して符号化されたピクチャデータ21または符号化されたデータ13を送信または受信するように構成されてもよい。
通信インターフェース22は、たとえば、符号化されたピクチャデータ21を適切なフォーマット、たとえば、パケットにパッケージングする、および/または通信リンクもしくは通信ネットワークを介して送信するための任意の種類の送信の符号化もしくは処理を使用して符号化されたピクチャデータを処理するように構成されてもよい。
通信インターフェース22の相手先を形成する通信インターフェース28は、たとえば、送信されたデータを受信し、任意の種類の対応する送信の復号もしくは処理および/またはパッケージングの解除を使用して送信データを処理して符号化されたピクチャデータ21を取得するように構成されてもよい。
通信インターフェース22と通信インターフェース28との両方が、送信元デバイス12から送信先デバイス14の方を指す図1Aの通信チャネル13に関する矢印によって示される単方向通信インターフェース、または双方向通信インターフェースとして構成されてもよく、たとえば、接続をセットアップし、通信リンクおよび/またはデータ送信、たとえば、符号化されたピクチャデータの送信に関連する任意のその他の情報を確認し、やりとりするために、たとえば、メッセージを送信および受信するように構成されてもよい。
デコーダ30は、符号化されたピクチャデータ21を受信し、復号されたピクチャデータ31または復号されたピクチャ31を提供するように構成される(さらなる詳細が、下で、たとえば、図3または図5に基づいて説明される)。
送信先デバイス14のポストプロセッサ32は、復号されたピクチャデータ31(再構築されたピクチャデータとも呼ばれる)、たとえば、復号されたピクチャ31を後処理して後処理されたピクチャデータ33、たとえば、後処理されたピクチャ33を取得するように構成される。後処理ユニット32によって実行される後処理は、たとえば、(たとえば、YCbCrからRGBへの)カラーフォーマット変換、色補正、トリミング、またはリサンプリング、またはたとえばディスプレイデバイス34による表示のためにたとえば復号されたピクチャデータ31を準備するための任意のその他の処理を含んでもよい。
送信先デバイス14のディスプレイデバイス34は、たとえば、ユーザまたは視聴者に対してピクチャを表示するために後処理されたピクチャデータ33を受け取るように構成される。ディスプレイデバイス34は、再構築されたピクチャを示すための任意の種類のディスプレイ、たとえば、一体型または外部ディスプレイもしくはモニタであるかまたはそのようなディスプレイもしくはモニタを含んでもよい。ディスプレイは、たとえば、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)ディスプレイ、プラズマディスプレイ、プロジェクタ、マイクロLEDディスプレイ、液晶オンシリコン(LCoS: liquid crystal on silicon)、デジタル光プロセッサ(DLP: digital light processor)、または任意の種類のその他のディスプレイを含んでもよい。
図1Aは送信元デバイス12および送信先デバイス14を別々のデバイスとして示すが、デバイスの実施形態はまた、両方または両方の機能、送信元デバイス12または対応する機能および送信先デバイス14または対応する機能を含んでもよい。そのような実施形態において、送信元デバイス12または対応する機能および送信先デバイス14または対応する機能は、同じハードウェアおよび/もしくはソフトウェアを使用してまたは別々のハードウェアおよび/もしくはソフトウェアまたはそれらの任意の組み合わせによって実装されてもよい。
説明に基づいて当業者に明らかになるように、異なるユニットの機能または図1Aに示される送信元デバイス12および/もしくは送信先デバイス14内の機能の存在および(厳密な)分割は、実際のデバイスおよびアプリケーションに応じて変わってもよい。
エンコーダ20(たとえば、ビデオエンコーダ20)またはデコーダ30(たとえば、ビデオデコーダ30)またはエンコーダ20とデコーダ30との両方は、1つ以上のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ハードウェア、それらのビデオコーディングに専用のまたは任意の組み合わせなどの、図1Bに示された処理回路によって実装されてもよい。エンコーダ20は、図2のエンコーダ20および/または本明細書において説明される任意のその他のエンコーダシステムもしくはサブシステムに関連して検討される様々なモジュールを具現化するために処理回路46によって実装されてもよい。デコーダ30は、図3のデコーダ30および/または本明細書において説明される任意のその他のデコーダシステムもしくはサブシステムに関連して検討される様々なモジュールを具現化するために処理回路46によって実装されてもよい。処理回路は、後で検討される様々な動作を実行するように構成されてもよい。図5に示されるように、技術が部分的にソフトウェアで実装される場合、デバイスは、好適な非一時的コンピュータ可読ストレージ媒体にソフトウェアのための命令を記憶してもよく、本開示の技術を実行するために1つ以上のプロセッサを使用するハードウェアにおいて命令を実行してもよい。ビデオエンコーダ20およびビデオデコーダ30のいずれも、たとえば、図1Bに示されるように単一のデバイス内の組み合わされたエンコーダ/デコーダ(コーデック)の一部として組み込まれてもよい。
送信元デバイス12および送信先デバイス14は、任意の種類のハンドヘルドまたは固定デバイス、たとえば、ノートブックまたはラップトップコンピュータ、モバイル電話、スマートフォン、タブレットまたはタブレットコンピュータ、カメラ、デスクトップコンピュータ、セットトップボックス、テレビ、ディスプレイデバイス、デジタルメディアプレーヤー、ビデオゲームコンソール、(コンテンツサービスサーバまたはコンテンツ配信サーバなどの)ビデオストリーミングデバイス、放送受信機デバイス、放送送信機デバイスなどを含む広範なデバイスのいずれかを含んでもよく、オペレーティングシステムを使用しないかまたは任意の種類のオペレーティングシステムを使用してもよい。場合によっては、送信元デバイス12および送信先デバイス14は、ワイヤレス通信に対応していてもよい。したがって、送信元デバイス12および送信先デバイス14は、ワイヤレス通信デバイスであってもよい。
場合によっては、図1Aに示されたビデオコーディングシステム10は、例であるに過ぎず、本開示の技術は、符号化デバイスと復号デバイスとの間のいかなるデータ通信も含むとは限らないビデオコーディングの状況(たとえば、ビデオの符号化またはビデオの復号)に適用されてもよい。その他の例においては、データが、ローカルメモリから取り出される、またはネットワークを介してストリーミングされる、などである。ビデオ符号化デバイスが、データを符号化し、メモリに記憶してもよく、および/またはビデオ復号デバイスが、メモリからデータを取り出し、復号してもよい。いくつかの例において、符号化および復号が、互いに通信せず、単にメモリにデータを符号化し、および/またはメモリからデータを取り出し、復号するデバイスによって実行される。
説明の便宜上、本発明の実施形態は、たとえば、高効率ビデオコーディング(HEVC: High-Efficiency Video Coding)、または多目的ビデオコーディング(VVC: Versatile Video coding)、ITU-Tビデオコーディング専門家グループ(VCEG: Video Coding Experts Group)およびISO/IEC動画専門家グループ(MPEG: Motion Picture Experts Group)のビデオコーディングに関する共同作業チーム(JCT-VC: Joint Collaboration Team on Video Coding)によって開発された次世代ビデオコーディング規格の参照ソフトウェアを参照することによって本明細書において説明される。当業者は、本発明の実施形態がHEVCまたはVVCに限定されないことを理解するであろう。
エンコーダおよび符号化方法
図2は、本出願の技術を実装するように構成される例示的なビデオエンコーダ20の概略的なブロック図を示す。図2の例において、ビデオエンコーダ20は、入力201(または入力インターフェース201)、残差計算ユニット204、変換処理ユニット206、量子化ユニット208、逆量子化ユニット210、逆変換処理ユニット212、再構築ユニット214、ループフィルタユニット220、復号ピクチャバッファ(DPB: decoded picture buffer)230、モード選択ユニット260、エントロピー符号化ユニット270、および出力272(または出力インターフェース272)を含む。モード選択ユニット260は、インター予測ユニット244、イントラ予測ユニット254、および区分けユニット262を含んでもよい。インター予測ユニット244は、動き推定ユニットおよび動き補償ユニット(図示せず)を含んでもよい。図2に示されたビデオエンコーダ20は、ハイブリッドビデオエンコーダまたはハイブリッドビデオコーデックによるビデオエンコーダとも呼ばれてもよい。
残差計算ユニット204、変換処理ユニット206、量子化ユニット208、モード選択ユニット260は、エンコーダ20の順方向信号経路を形成するとみなされてもよく、一方、逆量子化ユニット210、逆変換処理ユニット212、再構築ユニット214、バッファ216、ループフィルタ220、復号ピクチャバッファ(DPB)230、インター予測ユニット244、およびイントラ予測ユニット254は、ビデオエンコーダ20の逆方向信号経路を形成するとみなされてもよく、ビデオエンコーダ20の逆方向信号経路は、デコーダの信号経路(図3のビデオデコーダ30を参照されたい)に対応する。逆量子化ユニット210、逆変換処理ユニット212、再構築ユニット214、ループフィルタ220、復号ピクチャバッファ(DPB)230、インター予測ユニット244、およびイントラ予測ユニット254は、ビデオエンコーダ20の「内蔵デコーダ」を形成するともみなされる。
ピクチャ&ピクチャの区分け(ピクチャ&ブロック)
エンコーダ20は、たとえば、入力201を介してピクチャ17(またはピクチャデータ17)、たとえば、ビデオまたはビデオシーケンスを形成するピクチャのシーケンスのピクチャを受け取るように構成されてもよい。受け取られたピクチャまたはピクチャデータはまた、前処理されたピクチャ19(または前処理されたピクチャデータ19)であってもよい。簡単にするために、以下の説明は、ピクチャ17に言及する。ピクチャ17は、(詳細には、ビデオコーディングにおいて、現在のピクチャをその他のピクチャ、たとえば、同じビデオシーケンス、つまり、現在のピクチャも含むビデオシーケンスの既に符号化されたおよび/または復号されたピクチャと区別するために)現在のピクチャまたはコーディングされるピクチャとも呼ばれてもよい。
(デジタル)ピクチャは、強度(intensity)値を有するサンプルの二次元配列または行列とみなされるかまたはみなされうる。配列のサンプルは、ピクセル(ピクチャエレメントの短縮形)またはペルとも呼ばれてもよい。配列またはピクチャの水平および垂直方向(または軸)のサンプル数は、ピクチャのサイズおよび/または解像度を定義する。色の表現のために、概して、3つの色成分が使用され、つまり、ピクチャが表現されるかまたは3つのサンプル配列を含んでもよい。RBGフォーマットまたは色空間で、ピクチャは、対応する赤、緑、および青のサンプル配列を含む。しかし、ビデオコーディングにおいて、各ピクセルは、概して、輝度(luminance)およびクロミナンス(chrominance)フォーマットまたは色空間、たとえば、Y(代わりにLが使用されることもある)によって示される輝度成分ならびにCbおよびCrによって示される2つのクロミナンス成分を含むYCbCrで表される。輝度(または短くルマ(luma))成分Yは、明るさまたは(たとえば、グレースケールピクチャと同様の)グレーレベルの強度を表し、一方、2つのクロミナンス(または短くクロマ(chroma))成分CbおよびCrは、色度または色情報成分を表す。したがって、YCbCrフォーマットのピクチャは、輝度サンプル値(Y)の輝度サンプル配列およびクロミナンス値(CbおよびCr)の2つのクロミナンスサンプル配列を含む。RGBフォーマットのピクチャは、YCbCrフォーマットに変換され(converted)または変換され(transformed)てもよく、その逆であってもよく、プロセスは、色変換(transformation)または変換(conversion)としても知られる。ピクチャがモノクロである場合、ピクチャは、輝度サンプル配列のみを含んでもよい。したがって、ピクチャは、たとえば、モノクロフォーマットにおいてはルマサンプルの配列であり、または4:2:0、4:2:2、および4:4:4カラーフォーマットにおいてはルマサンプルの配列およびクロマサンプルの2つの対応する配列であってもよい。
ビデオエンコーダ20の実施形態は、ピクチャ17を複数の(通常は重なり合わない)ピクチャブロック203に区分けするように構成されたピクチャ区分けユニット(図2に示さず)を含んでもよい。これらのブロックは、ルートブロック、マクロブロック(H.264/AVC)、またはコーディングツリーブロック(CTB: coding tree block)もしくはコーディングツリーユニット(CTU: coding tree unit)(H.265/HEVCおよびVVC)とも呼ばれてもよい。ピクチャ区分けユニットは、ビデオシーケンスのすべてのピクチャおよびブロックサイズを定義する対応するグリッドに関して同じブロックサイズを使用するか、あるいはピクチャまたはピクチャのサブセットもしくはグループの間でブロックサイズを変更し、各ピクチャを対応するブロックに区分けするように構成されてもよい。
さらなる実施形態において、ビデオエンコーダは、ピクチャ17のブロック203、たとえば、ピクチャ17を形成する1つの、いくつかの、またはすべてのブロックを直接受け取るように構成されてもよい。ピクチャブロック203は、現在のピクチャブロックまたはコーディングされるピクチャブロックとも呼ばれてもよい。
ピクチャ17と同様に、ピクチャブロック203は、ピクチャ17よりも寸法が小さいが、強度値(サンプル値)を有するサンプルの二次元配列または行列とやはりみなされるかまたはみなされうる。言い換えると、ブロック203は、適用されるカラーフォーマットに応じて、たとえば、1つのサンプル配列(たとえば、モノクロピクチャ17の場合はルマ配列、またはカラーピクチャの場合はルマもしくはクロマ配列)、あるいは3つのサンプル配列(たとえば、カラーピクチャ17の場合はルマおよび2つのクロマ配列)、あるいは任意のその他の数および/または種類の配列を含んでもよい。ブロック203の水平および垂直方向(または軸)のサンプル数は、ブロック203のサイズを定義する。したがって、ブロックは、たとえば、サンプルのMxN(M列×N行)配列または変換係数のMxN配列であってもよい。
図2に示されたビデオエンコーダ20の実施形態は、ピクチャ17をブロック毎に符号化するように構成されてもよく、たとえば、符号化および予測が、ブロック203毎に実行される。
図2に示されるビデオエンコーダ20の実施形態は、スライス(ビデオスライスとも呼ばれる)を使用することによってピクチャを区分けするおよび/または符号化するようにさらに構成されてもよく、ピクチャは、1つ以上の(概して重なり合わない)スライスに区分けされるかまたは1つ以上の(概して重なり合わない)スライスを使用して符号化されてもよく、各スライスは、1つ以上のブロック(たとえば、CTU)を含んでもよい。
図2に示されるビデオエンコーダ20の実施形態は、タイルグループ(ビデオタイルグループとも呼ばれる)および/またはタイル(ビデオタイルとも呼ばれる)を使用することによってピクチャを区分けするおよび/または符号化するようにさらに構成されてもよく、ピクチャは、1つ以上の(概して重なり合わない)タイルグループに区分けされるかまたは1つ以上の(概して重なり合わない)タイルグループを使用して符号化されてもよく、各タイルグループは、たとえば、1つ以上のブロック(たとえば、CTU)または1つ以上のタイルを含んでもよく、各タイルは、たとえば、長方形の形をしていてもよく、1つ以上のブロック(たとえば、CTU)、たとえば、完全なまたは断片的なブロックを含んでもよい。
残差の計算
残差計算ユニット204は、たとえば、サンプル毎に(ピクセル毎に)ピクチャブロック203のサンプル値から予測ブロック265のサンプル値を差し引いてサンプル領域において残差ブロック205を取得することによって、ピクチャブロック203および予測ブロック265(予測ブロック265についてのさらなる詳細は後で与えられる)に基づいて残差ブロック205(残差205とも呼ばれる)を計算するように構成されてもよい。
変換
変換処理ユニット206は、残差ブロック205のサンプル値に対して変換、たとえば、離散コサイン変換(DCT)または離散サイン変換(DST)を適用して変換領域において変換係数207を取得するように構成されてもよい。変換係数207は、変換残差係数とも呼ばれ、変換領域において残差ブロック205を表現してもよい。
変換処理ユニット206は、H.265/HEVCのために規定された変換などのDCT/DSTの整数近似を適用するように構成されてもよい。直交DCT変換と比較して、そのような整数近似は、概して、特定の率でスケーリングされる。順および逆変換によって処理される残差ブロックのノルム(norm)を維持するために、追加的な倍率(scaling factor)が、変換プロセスの一部として適用される。倍率は、概して、倍率がシフト演算のために2の累乗であること、変換係数のビット深度、正確さと実装コストとの間のトレードオフなどのような特定の制約に基づいて選択される。たとえば、特定の倍率が、たとえば、逆変換処理ユニット212による逆変換(およびたとえば、ビデオデコーダ30における逆変換処理ユニット312による対応する逆変換)のために指定され、たとえば、エンコーダ20の変換処理ユニット206による順変換のための対応する倍率が、それに応じて指定されてもよい。
ビデオエンコーダ20(それぞれ、変換処理ユニット206)の実施形態は、たとえば、ビデオデコーダ30が変換パラメータを受信し、復号のために使用してもよいように、たとえば、そのままであるかまたはエントロピー符号化ユニット270によって符号化されるかもしくは圧縮される変換パラメータ、たとえば、ある種の1つの変換または複数の変換を出力するように構成されてもよい。
量子化
量子化ユニット208は、たとえば、スカラー量子化またはベクトル量子化を適用することによって変換係数207を量子化して量子化された係数209を取得するように構成されてもよい。量子化された係数209は、量子化された変換係数209または量子化された残差係数209とも呼ばれてもよい。
量子化プロセスは、変換係数207の一部またはすべてに関連するビット深度を削減してもよい。たとえば、nビットの変換係数が、量子化中にmビットの変換係数に切り捨てられてもよく、nは、mよりも大きい。量子化の度合いは、量子化パラメータ(QP: quantization parameter)を調整することによって修正されてもよい。たとえば、スカラー量子化に関して、より細かいまたはより粗い量子化を達成するために異なるスケーリングが適用されてもよい。より小さな量子化ステップサイズは、より細かい量子化に対応し、一方、より大きな量子化ステップサイズは、より粗い量子化に対応する。適用可能な量子化ステップサイズが、量子化パラメータ(QP)によって示されてもよい。量子化パラメータは、たとえば、適用可能な量子化ステップサイズの予め定義された組へのインデックスであってもよい。たとえば、小さな量子化パラメータが、細かい量子化(小さな量子化ステップサイズ)に対応してもよく、大きな量子化パラメータが、粗い量子化(大きな量子化ステップサイズ)に対応してもよく、またはその逆であってもよい。量子化は、量子化ステップサイズによる除算を含んでもよく、たとえば、逆量子化ユニット210による対応するおよび/または逆量子化解除は、量子化ステップサイズによる乗算を含んでもよい。一部の規格、たとえば、HEVCによる実施形態は、量子化パラメータを使用して量子化ステップサイズを決定するように構成されてもよい。概して、量子化ステップサイズは、除算を含む等式の固定小数点近似(fixed point approximation)を使用して量子化パラメータに基づいて計算されてもよい。量子化ステップサイズおよび量子化パラメータに関する等式の固定小数点近似において使用されるスケーリングが原因で修正されてもよい残差ブロックのノルムを復元するために、量子化および量子化解除に関して追加的な倍率が導入されてもよい。1つの例示的な実装においては、逆変換および量子化解除のスケーリングが、組み合わされてもよい。代替的に、カスタマイズされた量子化テーブルが使用され、たとえば、ビットストリーム内でエンコーダからデコーダにシグナリングされてもよい。量子化は、不可逆演算であり、損失は、量子化ステップサイズが大きくなるにつれて増加する。
ビデオエンコーダ20(それぞれ、量子化ユニット208)の実施形態は、たとえば、ビデオデコーダ30が量子化パラメータを受信し、復号のために適用してもよいように、たとえば、そのままであるかまたはエントロピー符号化ユニット270によって符号化される量子化パラメータ(QP)を出力するように構成されてもよい。
逆量子化
逆量子化ユニット210は、たとえば、量子化ユニット208と同じ量子化ステップサイズに基づいてまたはそれを使用して、量子化ユニット208により適用された量子化方式の逆を適用することによって、量子化された係数に量子化ユニット208の逆量子化を適用して量子化解除された係数211を取得するように構成される。量子化解除された係数211は、量子化解除された残差係数211とも呼ばれ、--量子化による損失が原因で概して変換係数と同一ではないが--変換係数207に対応してもよい。
逆変換
逆変換処理ユニット212は、変換処理ユニット206によって適用された変換の逆変換、たとえば、逆離散コサイン変換(DCT)または逆離散サイン変換(DST)またはその他の逆変換を適用してサンプル領域において再構築された残差ブロック213(または対応する量子化解除された係数213)を取得するように構成される。再構築された残差ブロック213は、変換ブロック(transform block)213とも呼ばれてもよい。
再構築
再構築ユニット214(たとえば、加算器または合算器214)は、たとえば、再構築された残差ブロック213のサンプル値と予測ブロック265のサンプル値とを--サンプル毎に--足すことによって予測ブロック265に変換ブロック213(すなわち、再構築された残差ブロック213)を足してサンプル領域において再構築されたブロック215を取得するように構成される。
フィルタリング
ループフィルタユニット220(または短く「ループフィルタ」220)は、再構築されたブロック215をフィルタリングしてフィルタリングされたブロック221を取得する、または概して、再構築されたサンプルをフィルタリングしてフィルタリングされたサンプルを取得するように構成される。ループフィルタユニットは、たとえば、ピクセルの遷移を平滑化するかまたはそれ以外の方法でビデオの品質を改善するように構成される。ループフィルタユニット220は、デブロッキングフィルタ、サンプル適応オフセット(SAO: sample-adaptive offset)フィルタ、または1つ以上のその他のフィルタ、たとえば、バイラテラルフィルタ、適応ループフィルタ(ALF: adaptive loop filter)、鮮鋭化、平滑化フィルタ、もしくは共同フィルタ(collaborative filter)、もしくはこれらの任意の組み合わせなどの1つ以上のループフィルタを含んでもよい。ループフィルタユニット220は図2にループ内フィルタであるものとして示されるが、その他の構成において、ループフィルタユニット220は、ループ後フィルタとして実装されてもよい。フィルタリングされたブロック221は、フィルタリングされた再構築されたブロック221とも呼ばれてもよい。
ビデオエンコーダ20(それぞれ、ループフィルタユニット220)の実施形態は、たとえば、デコーダ30が同じループフィルタのパラメータまたはそれぞれのループフィルタを受信し、復号のために適用してもよいように、たとえば、そのままであるかまたはエントロピー符号化ユニット270によって符号化される(サンプル適応オフセット情報などの)ループフィルタのパラメータを出力するように構成されてもよい。
復号ピクチャバッファ
復号ピクチャバッファ(DPB)230は、ビデオエンコーダ20によってビデオデータを符号化するための参照ピクチャまたは概して参照ピクチャデータを記憶するメモリであってもよい。DPB230は、同期DRAM(SDRAM)を含むダイナミックランダムアクセスメモリ(DRAM)、磁気抵抗RAM(MRAM)、抵抗変化型RAM(RRAM: resistive RAM)、またはその他の種類のメモリデバイスなどの様々なメモリデバイスのいずれかによって形成されてもよい。復号ピクチャバッファ(DPB)230は、1つ以上のフィルタリングされたブロック221を記憶するように構成されてもよい。復号ピクチャバッファ230は、同じ現在のピクチャまたは異なるピクチャ、たとえば、既に再構築されたピクチャのその他の既にフィルタリングされたブロック、たとえば、既に再構築され、フィルタリングされたブロック221を記憶するようにさらに構成されてもよく、たとえば、インター予測のために、完全な既に再構築された、つまり、復号されたピクチャ(および対応する参照ブロックおよびサンプル)ならびに/または部分的に再構築された現在のピクチャ(および対応する参照ブロックおよびサンプル)を提供してもよい。復号ピクチャバッファ(DPB)230は、たとえば、再構築されたブロック215がループフィルタユニット220によってフィルタリングされない場合、1つ以上のフィルタリングされていない再構築されたブロック215もしくは概してフィルタリングされていない再構築されたサンプルを記憶し、または再構築されたブロックもしくはサンプルの任意のその他のさらに処理されたバージョンを記憶するようにも構成されてもよい。
モード選択(区分け&予測)
モード選択ユニット260は、区分けユニット262、インター予測ユニット244、およびイントラ予測ユニット254を含み、元のピクチャデータ、たとえば、元のブロック203(現在のピクチャ17の現在のブロック203)と、再構築されたピクチャデータ、たとえば、同じ(現在の)ピクチャの、および/またはたとえば復号ピクチャバッファ230もしくはその他のバッファ(たとえば、図示されていないラインバッファ)からの1つ以上の既に復号されたピクチャからのフィルタリングされたおよび/またはフィルタリングされていない再構築されたサンプルまたはブロックとを受け取るかまたは取得するように構成される。再構築されたピクチャデータは、予測ブロック265または予測子(predictor)265を取得するための予測、たとえば、インター予測またはイントラ予測のための参照ピクチャデータとして使用される。
モード選択ユニット260は、(区分けを含まない)現在のブロックの予測モードのための区分けおよび予測モード(たとえば、イントラまたはインター予測モード)を決定するかまたは選択し、残差ブロック205の計算および再構築されたブロック215の再構築のために使用される対応する予測ブロック265を生成するように構成されてもよい。
モード選択ユニット260の実施形態は、最良の一致もしくは言い換えると最小の残差(最小の残差は送信もしくは記憶のためのより優れた圧縮を意味する)または最小のシグナリングオーバーヘッド(最小のシグナリングオーバーヘッドは送信もしくは記憶のためのより優れた圧縮を意味する)を提供する、あるいはそれら両方を考慮するかまたは釣り合いを取る区分けおよび予測モードを(たとえば、モード選択ユニット260によってサポートされるかまたはモード選択ユニット260が利用可能な区分けおよび予測モードから)選択するように構成されてもよい。モード選択ユニット260は、レート歪み最適化(RDO)に基づいて区分けおよび予測モードを決定する、つまり、最小のレート歪みを提供する予測モードを選択するように構成されてもよい。この文脈の「最良の」、「最小の」、「最適な」などのような用語は、必ずしも全体の「最良の」、「最小の」、「最適な」などを指さず、値が閾値を超えることもしくは下回ることのような終了もしくは選択の基準、または潜在的に「準最適な選択」につながるが、複雑さおよび処理時間を削減するその他の制約を満たすことをも指してもよい。
言い換えると、区分けユニット262は、たとえば、四分木区分け(QT)、二分区分け(BT)、または三分木区分け(TT)、またはこれらの任意の組み合わせを反復的に使用してブロック203を(やはりブロックを形成する)より小さなブロックの区画または下位ブロックに区分けし、たとえば、ブロックの区画または下位ブロックの各々に関して予測を実行するように構成されてもよく、モード選択は、区分けされたブロック203の木構造の選択を含み、予測モードは、ブロックの区画または下位ブロックの各々に適用される。
以下で、例示的なビデオエンコーダ20によって実行される(たとえば、区分けユニット260による)区分けならびに(インター予測ユニット244およびイントラ予測ユニット254による)予測処理が、より詳細に説明される。
区分け
区分けユニット262は、現在のブロック203をより小さな区画、たとえば、正方形または長方形のサイズのより小さなブロックに区分け(または分割)してもよい。これらのより小さなブロック(下位ブロックとも呼ばれてもよい)は、より一層小さな区画にさらに区分けされてもよい。これは、木区分けまたは階層的木区分けとも呼ばれ、たとえば、ルートツリーレベル0(階層レベル0、深さ0)のルートブロックが、再帰的に区分けされ、たとえば、次に低いツリーレベルの2つ以上のブロック、たとえば、ツリーレベル1(階層レベル1、深さ1)のノードに区分けされてもよく、これらのブロックが、次に低いレベル、たとえば、ツリーレベル2(階層レベル2、深さ2)の2つ以上のブロックに再び区分けされてもよく、たとえば、終了基準が満たされる、たとえば、最大のツリーの深さまたは最小のブロックサイズが達せられるので区分けが終了されるまで以下同様である。さらに区分けされないブロックは、木の葉ブロックまたは葉ノードとも呼ばれる。2つの区画への区分けを使用する木は、二分木(BT)と呼ばれ、3つの区画への区分けを使用する木は、三分木(TT)と呼ばれ、4つの区画への区分けを使用する木は、四分木(QT)と呼ばれる。
上述のように、本明細書において使用される用語「ブロック」は、ピクチャの一部分、詳細には、正方形または長方形の一部分であってもよい。たとえば、HEVCおよびVVCに関連して、ブロックは、コーディングツリーユニット(CTU)、コーディングユニット(CU: coding unit)、予測ユニット(PU: prediction unit)、および変換ユニット(TU: transform unit)、ならびに/または対応するブロック、たとえば、コーディングツリーブロック(CTB)、コーディングブロック(CB: coding block)、変換ブロック(TB)、または予測ブロック(PB)であるかまたはそれらに対応してもよい。
たとえば、コーディングツリーユニット(CTU)は、ルマサンプルのCTB、3つのサンプル配列を有するピクチャのクロマサンプルの2つの対応するCTB、またはモノクロピクチャもしくはサンプルをコーディングするために使用される3つの別々の色平面(colour plane)およびシンタックス(syntax)構造を使用してコーディングされるピクチャのサンプルのCTBであるかまたはそれらを含んでもよい。それに対応して、コーディングツリーブロック(CTB)は、構成要素のCTBへの分割が区分けであるようなNの何らかの値に関するサンプルのNxNのブロックであってもよい。コーディングユニット(CU)は、ルマサンプルのコーディングブロック、3つのサンプル配列を有するピクチャのクロマサンプルの2つの対応するコーディングブロック、またはモノクロピクチャもしくはサンプルをコーディングするために使用される3つの別々の色平面およびシンタックス構造を使用してコーディングされるピクチャのサンプルのコーディングブロックであるかまたはそれらを含んでもよい。それに対応して、コーディングブロック(CB)は、CTBのコーディングブロックへの分割が区分けであるようなMおよびNの何らかの値に関するサンプルのMxNのブロックであってもよい。
たとえば、HEVCによる実施形態において、コーディングツリーユニット(CTU)は、コーディングツリーとして表される四分木構造を使用することによってCUに分割されてもよい。インターピクチャ(時間)予測を使用してピクチャエリアをコーディングすべきかまたはイントラピクチャ(空間)予測を使用してピクチャエリアをコーディングすべきかの判断は、CUレベルで行われる。各CUは、PU分割タイプに従って1つ、2つ、または4つのPUにさらに分割されうる。1つのPU内では、同じ予測プロセスが適用され、関連する情報がPUに基づいてデコーダに送信される。PU分割タイプに基づいて予測プロセスを適用することによって残差ブロックを取得した後、CUは、CUに関するコーディングツリーと同様の別の四分木構造によって変換ユニット(TU)に区分けされうる。
たとえば、多目的ビデオコーディング(VVC)と呼ばれる現在開発されている最新のビデオコーディング規格による実施形態においては、組み合わされた四分木および二分木(QTBT)区分けが、たとえば、コーディングブロックを区分けするために使用される。QTBTブロック構造において、CUは、正方形かまたは長方形かのいずれかの形状を持つことができる。たとえば、コーディングツリーユニット(CTU)が、まず、四分木構造によって区分けされる。四分木の葉ノードが、二分木または三分(ternary)(または三分(triple))木構造によってさらに区分けされる。区分けツリーの葉ノードは、コーディングユニット(CU)と呼ばれ、そのセグメント分けが、いかなるさらなる区分けもなしに予測および変換処理のために使用される。これは、CU、PU、およびTUがQTBTコーディングブロック構造において同じブロックサイズを有することを意味する。平行して、多区画、たとえば、三分木区画は、QTBTブロック構造と一緒に使用されてもよい。
一例において、ビデオエンコーダ20のモード選択ユニット260は、本明細書において説明される区分け技術の任意の組み合わせを実行するように構成されてもよい。
上述のように、ビデオエンコーダ20は、1組の(たとえば、所定の)予測モードから最良のまたは最適な予測モードを決定するまたは選択するように構成される。1組の予測モードは、たとえば、イントラ予測モードおよび/またはインター予測モードを含んでもよい。
イントラ予測
1組のイントラ予測モードは、たとえばHEVCにおいて定義された35個の異なるイントラ予測モード、たとえば、DC(もしくは平均)モードおよび平面モードのような非方向性モード、または方向性モードを含んでもよく、あるいはたとえばVVCのために定義された67個の異なるイントラ予測モード、たとえば、DC(もしくは平均)モードおよび平面モードのような非方向性モード、または方向性モードを含んでもよい。
イントラ予測ユニット254は、1組のイントラ予測モードのうちのイントラ予測モードによって、同じ現在のピクチャの近隣のブロックの再構築されたサンプルを使用してイントラ予測ブロック265を生成するように構成される。
イントラ予測ユニット254(または概してモード選択ユニット260)は、たとえば、ビデオデコーダ30が予測パラメータを受信し、復号のために使用してもよいように、符号化されたピクチャデータ21に含めるためにシンタックス要素266の形態でエントロピー符号化ユニット270にイントラ予測パラメータ(または概してブロックに関する選択されたイントラ予測モードを示す情報)を出力するようにさらに構成される。
インター予測
1組の(または可能な)インター予測モードは、利用可能な参照ピクチャ(つまり、たとえば、DBP230に記憶された前の少なくとも部分的に復号されたピクチャ)ならびにその他のインター予測パラメータ、たとえば、最もよく一致する参照ブロックを探索するために参照ピクチャ全体が使用されるのかもしくは参照ピクチャの一部のみ、たとえば、現在のブロックのエリアの周りの探索窓(search window)エリアのみが使用されるか、ならびに/またはたとえば、ピクセル補間、たとえば、半/セミペル(half/semi-pel)および/もしくは4分の1ペル補間が適用されるか否かに依存する。
上述の予測モードに加えて、スキップモードおよび/またはダイレクトモードが、適用されてもよい。
インター予測ユニット244は、動き推定(ME)ユニットおよび動き補償(MC)ユニット(どちらも図2に示さず)を含んでもよい。動き推定ユニットは、動き推定のために、ピクチャブロック203(現在のピクチャ17の現在のピクチャブロック203)および復号されたピクチャ231、または少なくとも1つのもしくは複数の既に再構築されたブロック、たとえば、1つ以上のその他の/異なる既に復号されたピクチャ231の再構築されたブロックを受信するかまたは取得するように構成されてもよい。たとえば、ビデオシーケンスは、現在のピクチャおよび既に復号されたピクチャ231を含んでもよく、または言い換えると、現在のピクチャおよび既に復号されたピクチャ231は、ビデオシーケンスを形成するピクチャのシーケンスの一部であるかもしくはそのようなピクチャのシーケンスを形成してもよい。
エンコーダ20は、たとえば、複数のその他のピクチャのうちの同じまたは異なるピクチャの複数の参照ブロックから参照ブロックを選択し、参照ピクチャ(もしくは参照ピクチャインデックス)および/または参照ブロックの位置(x、y座標)と現在のブロックの位置との間のオフセット(空間オフセット)をインター予測パラメータとして動き推定ユニットに提供するように構成されてもよい。このオフセットは、動きベクトル(MV)とも呼ばれる。
動き補償ユニットは、インター予測パラメータを取得、たとえば、受信し、インター予測パラメータに基づいてまたはインター予測パラメータを使用してインター予測を実行してインター予測ブロック265を取得するように構成される。動き補償ユニットによって実行される動き補償は、おそらくはサブピクセルの精度の補間を実行する動き推定によって決定された動き/ブロックベクトルに基づく予測ブロックのフェッチまたは生成を含んでもよい。補間フィルタリングが、知られているピクセルサンプルから追加的なピクセルサンプルを生成してもよく、したがって潜在的に、ピクチャブロックをコーディングするために使用されてもよい候補予測ブロックの数を増やす。現在のピクチャブロックのPUに関する動きベクトルを受信すると、動き補償ユニットは、参照ピクチャリストのうちの1つにおいて動きベクトルが指す予測ブロックを見つけてもよい。
動き補償ユニットは、ビデオスライスのピクチャブロックを復号する際にビデオデコーダ30によって使用するためのブロックおよびビデオスライスに関連するシンタックス要素も生成してもよい。スライスおよびそれぞれのシンタックス要素に加えて、またはスライスおよびそれぞれのシンタックス要素の代替として、タイルグループおよび/またはタイルならびにそれぞれのシンタックス要素が、生成されるかまたは使用されてもよい。
エントロピーコーディング
エントロピー符号化ユニット270は、たとえば、ビデオデコーダ30がパラメータを受信し、復号のために使用してもよいように、たとえば、符号化されたビットストリーム21の形態で出力272を介して出力されうる符号化されたピクチャデータ21を得るために、量子化された係数209、インター予測パラメータ、イントラ予測パラメータ、ループフィルタパラメータ、および/またはその他のシンタックス要素に対して、たとえば、エントロピー符号化アルゴリズムもしくは方式(たとえば、可変長コーディング(VLC: variable length coding)方式、コンテキスト適応VLC方式(CAVLC: context adaptive VLC)、算術コーディング方式、2値化、コンテキスト適応2値算術コーディング(CABAC: context adaptive binary arithmetic coding)、シンタックスに基づくコンテキスト適応2値算術コーディング(SBAC: syntax-based context-adaptive binary arithmetic coding)、確率間隔区分エントロピー(PIPE: probability interval partitioning entropy)コーディング、もしくは別のエントロピー符号化方法もしくは技術)またはバイパス(bypass)(非圧縮)を適用するように構成される。符号化されたビットストリーム21は、ビデオデコーダ30に送信されるか、または後の送信またはビデオデコーダ30による取り出しのためにメモリに記憶されてもよい。
ビデオエンコーダ20のその他の構造の変化形が、ビデオストリームを符号化するために使用されうる。たとえば、変換に基づかないエンコーダ20は、特定のブロックまたはフレームに関して変換処理ユニット206なしに残差信号を直接量子化しうる。別の実装において、エンコーダ20は、単一のユニットに組み合わされた量子化ユニット208および逆量子化ユニット210を持ちうる。
デコーダおよび復号方法
図3は、本出願の技術を実装するように構成されるビデオデコーダ30の例を示す。ビデオデコーダ30は、復号されたピクチャ331を取得するために、たとえば、エンコーダ20によって符号化された符号化されたピクチャデータ21(たとえば、符号化されたビットストリーム21)を受信するように構成される。符号化されたピクチャデータまたはビットストリームは、符号化されたピクチャデータ、たとえば、符号化されたビデオスライス(および/またはタイルグループもしくはタイル)のピクチャブロックならびに関連するシンタックス要素を表すデータを復号するための情報を含む。
図3の例において、デコーダ30は、エントロピー復号ユニット304、逆量子化ユニット310、逆変換処理ユニット312、再構築ユニット314(たとえば、合算器314)、ループフィルタ320、復号ピクチャバッファ(DBP)330、モード適用ユニット360、インター予測ユニット344、およびイントラ予測ユニット354を含む。インター予測ユニット344は、動き補償ユニットであるかまたは動き補償ユニットを含んでもよい。ビデオデコーダ30は、いくつかの例において、図2のビデオエンコーダ100に関連して説明された符号化パスと概して逆である復号パスを実行してもよい。
エンコーダ20に関連して説明されたように、逆量子化ユニット210、逆変換処理ユニット212、再構築ユニット214、ループフィルタ220、復号ピクチャバッファ(DPB)230、インター予測ユニット344、およびイントラ予測ユニット354は、ビデオエンコーダ20の「内蔵デコーダ」を形成するともみなされる。したがって、逆量子化ユニット310は、逆量子化ユニット110と機能的に同一であってもよく、逆変換処理ユニット312は、逆変換処理ユニット212と機能的に同一であってもよく、再構築ユニット314は、再構築ユニット214と機能的に同一であってもよく、ループフィルタ320は、ループフィルタ220と機能的に同一であってもよく、復号ピクチャバッファ330は、復号ピクチャバッファ230と機能的に同一であってもよい。したがって、ビデオ20エンコーダのそれぞれのユニットおよび機能に関して与えられた説明が、ビデオデコーダ30のそれぞれのユニットおよび機能に準用される。
エントロピー復号
エントロピー復号ユニット304は、ビットストリーム21(または概して符号化されたピクチャデータ21)を解析し、たとえば、符号化されたピクチャデータ21にエントロピー復号を実行して、たとえば、量子化された係数309ならびに/あるいは復号されたコーディングパラメータ(図3に示さず)、たとえば、インター予測パラメータ(たとえば、参照ピクチャインデックスおよび動きベクトル)、イントラ予測パラメータ(たとえば、イントラ予測モードもしくはインデックス)、変換パラメータ、量子化パラメータ、ループフィルタパラメータ、および/またはその他のシンタックス要素のいずれかまたはすべてを取得するように構成される。エントロピー復号ユニット304は、エンコーダ20のエントロピー符号化ユニット270に関連して説明された符号化方式に対応する復号アルゴリズムまたは方式を適用するように構成されてもよい。エントロピー復号ユニット304は、インター予測パラメータ、イントラ予測パラメータ、および/またはその他のシンタックス要素をモード適用ユニット360に提供し、その他のパラメータをデコーダ30のその他のユニットに提供するようにさらに構成されてもよい。ビデオデコーダ30は、ビデオスライスのレベルおよび/またはビデオブロックのレベルでシンタックス要素を受信してもよい。スライスおよびそれぞれのシンタックス要素に加えて、またはスライスおよびそれぞれのシンタックス要素の代替として、タイルグループおよび/またはタイルならびにそれぞれのシンタックス要素が、受信されるおよび/または使用されてもよい。
逆量子化
逆量子化ユニット310は、(たとえば、エントロピー復号ユニット304によって、たとえば、解析および/または復号することによって)符号化されたピクチャデータ21から量子化パラメータ(QP)(または概して逆量子化に関連する情報)および量子化された係数を受け取り、復号された量子化された係数309に対して量子化パラメータに基づいて逆量子化を適用して、変換係数311とも呼ばれてもよい量子化解除された係数311を取得するように構成されてもよい。逆量子化プロセスは、量子化の度合いと、同様に、適用されるべき逆量子化の度合いとを決定するために、ビデオスライス(またはタイルまたはタイルグループ)内の各ビデオブロックに関してビデオエンコーダ20によって決定された量子化パラメータを使用することを含んでもよい。
逆変換
逆変換処理ユニット312は、変換係数311とも呼ばれる量子化解除された係数311を受け取り、サンプル領域において再構築された残差ブロック213を取得するために、量子化解除された係数311に変換を適用するように構成されてもよい。再構築された残差ブロック213は、変換ブロック313とも呼ばれてもよい。変換は、逆変換、たとえば、逆DCT、逆DST、逆整数変換、または概念的に同様の逆変換プロセスであってもよい。逆変換処理ユニット312は、量子化解除された係数311に適用される変換を決定するために、(たとえば、エントロピー復号ユニット304によって、たとえば、解析および/または復号することによって)符号化されたピクチャデータ21から変換パラメータまたは対応する情報を受け取るようにさらに構成されてもよい。
再構築
再構築ユニット314(たとえば、加算器または合算器314)は、たとえば、再構築された残差ブロック313のサンプル値と予測ブロック365のサンプル値とを足すことによって予測ブロック365に再構築された残差ブロック313を足してサンプル領域において再構築されたブロック315を取得するように構成されてもよい。
フィルタリング
(コーディングループ内かまたはコーディングループの後かのいずれかの)ループフィルタユニット320は、たとえば、ピクセルの遷移を平滑化するかまたはそれ以外の方法でビデオの品質を改善するために再構築されたブロック315をフィルタリングしてフィルタリングされたブロック321を取得するように構成される。ループフィルタユニット320は、デブロッキングフィルタ、サンプル適応オフセット(SAO)フィルタ、または1つ以上のその他のフィルタ、たとえば、バイラテラルフィルタ、適応ループフィルタ(ALF)、鮮鋭化、平滑化フィルタ、もしくは共同フィルタ、もしくはこれらの任意の組み合わせなどの1つ以上のループフィルタを含んでもよい。ループフィルタユニット320は図3にループ内フィルタであるものとして示されるが、その他の構成において、ループフィルタユニット320は、ループ後フィルタとして実装されてもよい。
復号ピクチャバッファ
次いで、ピクチャの復号されたビデオブロック321は、その他のピクチャに関するその後の動き補償のための参照ピクチャとしておよび/またはディスプレイ上にそれぞれ出力するために復号されたピクチャ331を記憶する復号ピクチャバッファ330に記憶される。
デコーダ30は、復号されたピクチャ311を、ユーザへの提示または視聴のために、たとえば、出力312を介して出力するように構成される。
予測
インター予測ユニット344は、インター予測ユニット244と(詳細には、動き補償ユニットと)同一であってもよく、イントラ予測ユニット354は、インター予測ユニット254と機能的に同一であってもよく、(たとえば、エントロピー復号ユニット304によって、たとえば、解析および/または復号することによって)復号されたピクチャデータ21から受け取られた区分けおよび/または予測パラメータまたはそれぞれの情報に基づいて分割または区分けの判断および予測を実行する。モード適用ユニット360は、予測ブロック365を得るために、(フィルタリングされたまたはフィルタリングされていない)再構築されたピクチャ、ブロック、またはそれぞれのサンプルに基づいてブロック毎に予測(イントラまたはインター予測)を実行するように構成されてもよい。
ビデオスライスがイントラコーディングされた(I)スライスとしてコーディングされるとき、モード適用ユニット360のイントラ予測ユニット354は、シグナリングされたイントラ予測モードおよび現在のピクチャの既に復号されたブロックからのデータに基づいて現在のビデオスライスのピクチャブロックに関する予測ブロック365を生成するように構成される。ビデオピクチャがインターコーディングされた(つまり、BまたはP)スライスとしてコーディングされるとき、モード適用ユニット360のインター予測ユニット344(たとえば、動き補償ユニット)は、エントロピー復号ユニット304から受け取られたモーションベクトルおよびその他のシンタックス要素に基づいて現在のビデオスライスのビデオブロックに関する予測ブロック365を生成するように構成される。インター予測に関して、予測ブロックは、参照ピクチャリストのうちの1つの中の参照ピクチャのうちの1つから生成されてもよい。ビデオデコーダ30は、DPB330に記憶された参照ピクチャに基づいてデフォルトの構築技術を使用して参照フレームリスト、List 0およびList 1を構築してもよい。同じまたは同様のことが、スライス(たとえば、ビデオスライス)に加えてまたはスライス(たとえば、ビデオスライス)の代替としてタイルグループ(たとえば、ビデオタイルグループ)および/またはタイル(たとえば、ビデオタイル)を使用する実施形態のためにまたはそのような実施形態によって適用されてもよく、たとえば、ビデオは、I、P、またはBタイルグループおよび/またはタイルを使用してコーディングされてもよい。
モード適用ユニット360は、動きベクトルまたは関連する情報およびその他のシンタックス要素を解析することによって現在のビデオスライスのビデオブロックに関する予測情報を決定し、予測情報を使用して、復号されている現在のビデオブロックに関する予測ブロックを生成するように構成される。たとえば、モード適用ユニット360は、受信されたシンタックス要素の一部を使用して、ビデオスライスのビデオブロックをコーディングするために使用された予測モード(たとえば、イントラまたはインター予測)、インター予測のスライスタイプ(たとえば、Bスライス、Pスライス、またはGPBスライス)、スライスのための参照ピクチャリストのうちの1つ以上に関する構築情報、スライスのそれぞれのインターコーディングされたビデオブロックに関する動きベクトル、スライスのそれぞれのインター符号化されたビデオブロックに関するインター予測のステータス、および現在のビデオスライス内のビデオブロックを復号するためのその他の情報を決定する。同じまたは同様のことが、スライス(たとえば、ビデオスライス)に加えてまたはスライス(たとえば、ビデオスライス)の代替としてタイルグループ(たとえば、ビデオタイルグループ)および/またはタイル(たとえば、ビデオタイル)を使用する実施形態のためにまたはそのような実施形態によって適用されてもよく、たとえば、ビデオは、I、P、またはBタイルグループおよび/またはタイルを使用してコーディングされてもよい。
図3に示されるビデオデコーダ30の実施形態は、スライス(ビデオスライスとも呼ばれる)を使用することによってピクチャを区分けするおよび/または復号するように構成されてもよく、ピクチャは、1つ以上の(概して重なり合わない)スライスに区分けされるかまたは1つ以上の(概して重なり合わない)スライスを使用して復号されてもよく、各スライスは、1つ以上のブロック(たとえば、CTU)を含んでもよい。
図3に示されるビデオデコーダ30の実施形態は、タイルグループ(ビデオタイルグループとも呼ばれる)および/またはタイル(ビデオタイルとも呼ばれる)を使用することによってピクチャを区分けするおよび/または復号するように構成されてもよく、ピクチャは、1つ以上の(概して重なり合わない)タイルグループに区分けされるかまたは1つ以上の(概して重なり合わない)タイルグループを使用して復号されてもよく、各タイルグループは、たとえば、1つ以上のブロック(たとえば、CTU)または1つ以上のタイルを含んでもよく、各タイルは、たとえば、長方形の形をしていてもよく、1つ以上のブロック(たとえば、CTU)、たとえば、完全なまたは断片的なブロックを含んでもよい。
ビデオデコーダ30のその他の変化形が、符号化されたピクチャデータ21を復号するために使用されうる。たとえば、デコーダ30は、ループフィルタリングユニット320なしで出力ビデオストリームを生成しうる。たとえば、変換に基づかないデコーダ30は、特定のブロックまたはフレームに関して逆変換処理ユニット312なしに残差信号を直接逆量子化しうる。別の実装において、ビデオデコーダ30は、単一のユニットに組み合わされた逆量子化ユニット310および逆変換処理ユニット312を持ちうる。
エンコーダ20およびデコーダ30において、現在のステップの処理結果は、さらに処理され、次いで、次のステップに出力されてもよいことを理解されたい。たとえば、補間フィルタリング、動きベクトルの導出、またはループフィルタリングの後、Clipまたはシフトなどのさらなる演算が、補間フィルタリング、動きベクトルの導出、またはループフィルタリングの処理結果に対して実行されてもよい。
さらなる演算が、(アフィンモードの制御点動きベクトル(control point motion vector)、アフィン、平面、ATMVPモードの下位ブロック動きベクトル、時間動きベクトル(temporal motion vector)などを含むがこれらに限定されない)現在のブロックの導出された動きベクトルに適用されてもよいことに留意されたい。たとえば、動きベクトルの値は、その表現ビットに従って所定の範囲に制約される。動きベクトルの表現ビットがbitDepthである場合、次いで、範囲は、-2^(bitDepth-1)~2^(bitDepth-1)-1であり、「^」は、累乗を意味する。たとえば、bitDepthが16に等しいように設定される場合、範囲は、-32768~32767であり、bitDepthが18に等しいように設定される場合、範囲は、-131072~131071である。たとえば、導出された動きベクトル(たとえば、1つの8×8ブロック内の4つの4×4下位ブロックのMV)の値は、4つの4×4下位ブロックのMVの整数部分の間の最大の差が1ピクセル以下などNピクセル以下であるように制約される。ここでは、bitDepthに応じて動きベクトルを制約するための2つの方法を提供する。
方法1: 流れる演算によってあふれ(overflow)MSB(最上位ビット)を削除する
ux = ( mvx+2bitDepth ) % 2bitDepth (1)
mvx = ( ux >= 2bitDepth-1 ) ? (ux - 2bitDepth ) : ux (2)
uy = ( mvy+2bitDepth ) % 2bitDepth (3)
mvy = ( uy >= 2bitDepth-1 ) ? (uy - 2bitDepth ) : uy (4)
式中、mvxは、画像ブロックまたは下位ブロックの動きベクトルの水平成分であり、mvyは、画像ブロックまたは下位ブロックの動きベクトルの垂直成分であり、uxおよびuyは、中間値を示す。
たとえば、mvxの値が-32769である場合、式(1)および(2)を適用した後、結果として得られる値は、32767である。コンピュータシステムにおいて、10進数は、2の補数として記憶される。-32769の2の補数は、1,0111,1111,1111,1111(17ビット)であり、次いで、MSBが破棄され、したがって、結果として得られる2の補数は、0111,1111,1111,1111(10進数は32767)であり、これは、式(1)および(2)を適用することによる出力と同じである。
ux= ( mvpx + mvdx +2bitDepth ) % 2bitDepth (5)
mvx = ( ux >= 2bitDepth-1 ) ? (ux - 2bitDepth ) : ux (6)
uy= ( mvpy + mvdy +2bitDepth ) % 2bitDepth (7)
mvy = ( uy >= 2bitDepth-1 ) ? (uy - 2bitDepth ) : uy (8)
演算は、式(5)から(8)に示されるように、mvpとmvdとの合計中に適用されてもよい。
方法2: 値をクリッピングすることによってあふれMSBを削除する
vx = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vx)
vy = Clip3(-2bitDepth-1, 2bitDepth-1 -1, vy)
式中、vxは、画像ブロックまたは下位ブロックの動きベクトルの水平成分であり、vyは、画像ブロックまたは下位ブロックの動きベクトルの垂直成分であり、x、y、およびzは、MVのクリッピングプロセスの3つの入力値にそれぞれ対応し、関数Clip3の定義は、以下の通りである。
Figure 2022521980000002
図4は、本開示の実施形態に係るビデオコーディングデバイス400の概略図である。ビデオコーディングデバイス400は、本明細書において説明されるように開示される実施形態を実装するのに好適である。実施形態において、ビデオコーディングデバイス400は、図1Aのビデオデコーダ30などのデコーダまたは図1Aのビデオエンコーダ20などのエンコーダであってもよい。
ビデオコーディングデバイス400は、データを受信するための着信ポート410(または入力ポート410)および受信機ユニット(Rx)420、データを処理するためのプロセッサ、論理ユニット、または中央演算処理装置(CPU)430、データを送信するための送信機ユニット(Tx)440および発信ポート450(または出力ポート450)、ならびにデータを記憶するためのメモリ460を含む。ビデオコーディングデバイス400は、光または電気信号の発信または着信のために着信ポート410、受信機ユニット420、送信機ユニット440、および発信ポート450に結合された光-電気(OE)構成要素および電気-光(EO)構成要素も含んでもよい。
プロセッサ430は、ハードウェアおよびソフトウェアによって実装される。プロセッサ430は、1つ以上のCPUチップ、コア(たとえば、マルチコアプロセッサとして)、FPGA、ASIC、およびDSPとして実装されてもよい。プロセッサ430は、着信ポート410、受信機ユニット420、送信機ユニット440、発信ポート450、およびメモリ460と通信する。プロセッサ430は、コーディングモジュール470を含む。コーディングモジュール470は、上述の開示された実施形態を実装する。たとえば、コーディングモジュール470は、様々なコーディング動作を実装するか、処理するか、準備するか、または提供する。したがって、コーディングモジュール470を含むことは、ビデオコーディングデバイス400の機能を大幅に改善し、ビデオコーディングデバイス400の異なる状態への転換をもたらす。代替的に、コーディングモジュール470は、メモリ460に記憶され、プロセッサ430によって実行される命令として実装される。
メモリ460は、1つ以上のディスク、テープドライブ、およびソリッドステートドライブを含んでもよく、プログラムが実行するために選択されるときにそのようなプログラムを記憶するためならびにプログラムの実行中に読まれる命令およびデータを記憶するためのオーバーフローデータストレージデバイス(over-flow data storage device)として使用されてもよい。メモリ460は、たとえば、揮発性および/または不揮発性であってもよく、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、3値連想メモリ(TCAM: ternary content-addressable memory)、および/またはスタティックランダムアクセスメモリ(SRAM)であってもよい。
図5は、例示的な実施形態に係る、図1の送信元デバイス12および送信先デバイス14のいずれかまたは両方として使用されてもよい装置500の簡略化されたブロック図である。
装置500のプロセッサ502は、中央演算処理装置であることが可能である。代替的に、プロセッサ502は、既存のまたは今後開発される、情報を操作または処理することができる任意のその他の種類の1つのデバイスまたは複数のデバイスであることが可能である。開示される実装は示されるように単一のプロセッサ、たとえば、プロセッサ502によって実施されうるが、2つ以上のプロセッサを使用することによって速度および効率面の利点が実現されうる。
装置500のメモリ504は、実装において、読み出し専用メモリ(ROM)デバイスまたはランダムアクセスメモリ(RAM)デバイスであることが可能である。任意のその他の好適な種類のストレージデバイスが、メモリ504として使用されうる。メモリ504は、バス512を使用してプロセッサ502によってアクセスされるコードおよびデータ506を含みうる。メモリ504は、オペレーティングシステム508およびアプリケーションプログラム510をさらに含むことが可能であり、アプリケーションプログラム510は、プロセッサ502が本明細書において説明される方法を実行すること可能にする少なくとも1つのプログラムを含む。たとえば、アプリケーションプログラム510は、本明細書において説明される方法を実行するビデオコーディングアプリケーションをさらに含むアプリケーション1からNを含みうる。
装置500は、ディスプレイ518などの1つ以上の出力デバイスも含みうる。ディスプレイ518は、一例において、ディスプレイをタッチ入力を感知するように動作可能であるタッチ感知要素と組み合わせるタッチ式ディスプレイであってもよい。ディスプレイ518は、バス512を介してプロセッサ502に結合されうる。
ここでは単一のバスとして示されるが、装置500のバス512は、複数のバスから構成されうる。さらに、二次ストレージ514は、装置500のその他の構成要素に直接結合されることが可能であり、またはネットワークを介してアクセスされることが可能であり、メモリカードなどの単一の統合されたユニットもしくは複数のメモリカードなどの複数のユニットを含むことが可能である。したがって、装置500は、多種多様な構成で実装されうる。
バックグラウンドイントラモードコーディング
現在のVTM 4.0においては、6-MPM(最確モード)リストが、イントラモードコーディングのために構築される。MPMリストは、現在のブロックのイントラ予測モードをコーディングするために必要とされるビットを削減するために導入される。6-MPMリストは、現在のブロックの近隣のブロックのイントラ予測モードに基づいて構築される。現在のブロックのイントラ予測モードがMPMリストに入るとき、実際のモードではなくインデックスがコーディングされ、これはより少ないビットを使用しうる。現在のブロックのイントラ予測モードがMPMリストに入らないとき、トランケーテッドバイナライゼーション(truncated binarization)が、現在のブロックのイントラ予測モードをコーディングするために使用される。MPMリストは、現在のブロックのイントラモードの良好な予測を提供する。
多参照ライン(MRL)のためのMPMリスト。
VTM 4.0においては、多参照ライン(MRL)コーディングツールが、現在のブロックのサンプルを予測するために複数の近隣のラインのうちの1つを使用しうる。MRLラインインデックスの値が0に等しい(つまり、図6に示されるように、最も近い近隣の参照ラインが使用される)とき、平面およびDCを含む通常の6MPMリストが、使用される。MRLラインインデックスの値が0に等しくないときは、平面(つまり、値0)およびDC(つまり、値1)を除いた6-MPMリストが、使用される。
下位区画内コーディングモード(ISP)のためのMPMリスト
下位区画内(ISP)コーディングモードは、VTM 4.0(JVET-M0102)において新たに採用されたツールである。ルマのイントラ予測されるブロックは、表1に示されるように、ブロックサイズの大きさに応じて垂直方向または水平方向に2つまたは4つの下位区画に分割される。図7および図8は、2つの可能性の例を示す。すべての下位区画は、少なくとも16サンプルを有するという条件を満たす。
Figure 2022521980000003
下位区画内コーディングモードが有効化されるとき、VTM 4.0においては、DCモードを除いた別のMPMリストが使用される。下位区画内モードは、多参照ラインインデックスの値が0に等しい(つまり、MRLが現在のイントラ予測ブロックに適用されない)ときに適用されうる。すべての下位区画は、単一のイントラ予測モードを共有し、したがって、MPMリストは、イントラブロックに関して一回構築され、すべての下位区画によって共有される。
MPMの構築は、ISPの分割モードに依存してもよい。2つの分割モード、すなわち、水平または垂直が、決定される。それらの2つの分割モードが図7などに示され、図7においては、水平分割/区分けが上に示され、垂直分割/区分けが下に示されている。
下のテーブルは、VTM 4.0において使用される3MPMリストの特性をまとめる。
Figure 2022521980000004
左および上の近隣をどのようにして決定すべきかについての背景。
VVCのイントラモードコーディングは、近隣のブロックのイントラモードに依存する。つまり、現在のブロックの左および上のブロック。それらの位置が図9に示される。
MPMインデックスのシグナリング
現在のブロックのイントラモードがMPMリスト内にあるか否かを示すために、フラグ(すなわち、MPMフラグ)が使用される。MPMフラグが真(つまり、値1)であるとき、次いで、イントラ予測モードが、MPMインデックスを使用して決定されうる。MPMインデックスは、MPMリストの長さが6であるとき、下の表に示されるようにトランケーテッドユーナリ符号(truncated unary code)を使用してコーディングされる。MPMフラグが真でないとき、現在のブロックのイントラモードは、MPMリスト内になく、モードは、トランケーテッドバイナリ符号(truncated binary code)を使用してコーディングされる。
Figure 2022521980000005
平面モード、DC、水平、垂直モード、および角度モードについての背景: イントラ予測モード平面(値0)およびDC(値1)。その他のイントラ予測モードは、角度予測モードと呼ばれる。
本明細書においては、MPMリストを生成するための、コーディング効率に関して改善された技術が提供される。詳細には、MPMリストを生成するための以下の方式が、提供される。方式は、たとえば、上述のエンコーダ20、図2参照、デコーダ30、図3参照、およびビデオコーディングデバイス400、図4参照、に実装されうる。
MARK I: ISPに最適化されたMPMリスト構築の代替の一式(suite)
本発明の一実施形態(非角度性ブランチ(non-angular branch)、H)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 現在のブロックがISPモードを適用される場合、現在のブロックの分割モードを決定する。
・ステップ5: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeが角度モードでなく、above_modeが角度モードでない。
・現在のブロックがISPモードによってコーディングされる。
・現在のブロックの分割モードが水平方向である。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: DC
MPM[2]: 水平
MPM[3]: 25
MPM[4]: 10
MPM[5]: 65
本発明の一実施形態(非角度性ブランチ、V)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 現在のブロックがISPモードを適用される場合、現在のブロックの分割モードを決定する。
・ステップ5: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeが角度モードでなく、above_modeが角度モードでない。
・現在のブロックがISPモードによってコーディングされる。
・現在のブロックの分割モードが垂直方向である。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: DC
MPM[2]: 垂直
MPM[3]: 43
MPM[4]: 60
MPM[5]: 3
本発明の一実施形態(一角度性ブランチ、1つが角度性、その他は非角度性)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeおよびabove_modeの一方が角度モードであり、他方が非角度モードである。
・現在のブロックがISPモードによってコーディングされる。以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
角度モードをangとして定義し、以下のようにして取得する。
left_modeが角度モードである場合、ang = 左のモード
それ以外の場合(上のモードが角度モード)、ang = 上のモード
MPM[0]: 平面
MPM[1]: ang
MPM[2]: 2 + ( ( ang + 61 ) % 64 )
MPM[3]: 2 + ( ( ang - 1 ) % 64 )
MPM[4]: 2 + ( ( ang + 60 ) % 64 )
MPM[5]: 2 + ( ( ang ) % 64 )
・ステップ6: (MPMインデックスと表記される)インデックスおよび構築されたリストのエントリに従って現在のブロックを予測する。
本発明の一実施形態(一角度性ブランチ、2つが同じ角度性)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeおよびabove_modeが両方とも角度モードであり、それらの角度モードが同じである。
・現在のブロックがISPモードによってコーディングされる。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: left_mode
MPM[2]: 2 + ( ( left_mode + 61 ) % 64 )
MPM[3]: 2 + ( ( left_mode - 1 ) % 64 )
MPM[4]: 2 + ( ( left_mode + 60 ) % 64 )
MPM[5]: 2 + ( ( left_mode ) % 64 )
・ステップ6: (MPMインデックスと表記される)インデックスおよび構築されたリストのエントリに従って現在のブロックを予測する。
本発明の一実施形態(二角度性ブランチ)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeおよびabove_modeが2つの異なる角度モードである。
・現在のブロックがISPモードによってコーディングされる。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: above_mode
MPM[2]: left_mode
- 変数minABおよびmaxABが、以下のように導出される。
minAB = Min(above_mode, left_mode)
maxAB = Max(above_mode, left_mode)
- maxAB - minABが1に等しい場合、以下が適用される。
MPM[3] = 2 + ( ( minAB + 61 ) % 64 ) (8-30)
MPM[4] = 2 + ( ( maxAB - 1 ) % 64 ) (8-31)
MPM[5] = 2 + ( ( minAB + 60 ) % 64 ) (8-32)
- そうでなく、maxAB - minABが2に等しい場合、以下が適用される。
MPM[3] = 2 + ( ( minAB - 1 ) % 64 ) (8-34)
MPM[4] = 2 + ( ( minAB + 61 ) % 64 ) (8-35)
MPM[5] = 2 + ( ( maxAB - 1 ) % 64 ) (8-36)
- そうでなく、maxAB - minABが61を超えている場合、以下が適用される。
MPM[3] = 2 + ( ( minAB - 1 ) % 64 ) (8-38)
MPM[4] = 2 + ( ( maxAB + 61 ) % 64 ) (8-39)
MPM[5] = 2 + ( minAB % 64 ) (8-40)
- それ以外の場合、以下が適用される。
MPM[3] = 2 + ( ( minAB + 61 ) % 64 ) (8-42)
MPM[4] = 2 + ( ( minAB - 1 ) % 64 ) (8-43)
MPM[5] = 2 + ( ( maxAB + 61 ) % 64 ) (8-44)
・ステップ6: (MPMインデックスと表記される)インデックスおよび構築されたリストのエントリに従って現在のブロックを予測する。
MARK II: 非ISPイントラブロックのMPMリスト構築の代替の一式
本発明の一実施形態(非角度性ブランチ)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のブロックのイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: および以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeが角度モードでなく、above_modeが角度モードでない。
・現在のブロックがISPモードを適用されない。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: left_mode
MPM[1]: 左のモードがDCモードである場合、次いで、このエントリは平面モードであり、左のモードが平面モードである場合、次いで、このエントリはDCモードである。
MPM[2]: VER_IDX(つまり、たとえば、値50)
MPM[3]: HOR_IDX(つまり、たとえば、値18)
MPM[4]: VER_IDX - 4(つまり、たとえば、値46)
MPM[5]: VER_IDX + 4(つまり、たとえば、値54)
なお、VER_IDXは、垂直イントラ予測モードのインデックスを表し、HOR_IDXは、水平イントラ予測モードのインデックスを表す。
本発明の一実施形態(一角度性ブランチ、1つが角度性、その他は非角度性)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: および以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeおよびabove_modeの一方が角度モードであり、他方が非角度モードである。
・現在のブロックがISPモードを適用されない。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
角度モードをmaxABとして定義し、以下のようにして取得する。
left_modeが角度モードである場合、maxAB = 左のモード
それ以外の場合(上のモードが角度モード)、maxAB = 上のモード
MPM[0]: 平面
MPM[1]: maxABモード
MPM[2]: DC
MPM[3]: 2 + ( ( maxAB + 61 ) % 64 )
MPM[4]: 2 + ( ( maxAB - 1 ) % 64 )
MPM[5]: 2 + ( ( maxAB + 60 ) % 64 )
・ステップ6: (MPMインデックスと表記される)インデックスおよび構築されたリストのエントリに従って現在のブロックを予測する。
本発明の一実施形態(一角度性ブランチ、2つが同じ角度性)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeおよびabove_modeが両方とも角度モードであり、それらの角度モードが同じである。
・現在のブロックがISPモードを適用されない。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
角度モードをangとして定義し、以下のようにして取得する。
MPM[0]: 左のモード
MPM[1]: 平面
MPM[2]: DC
MPM[3]: 2 + ( ( 左のモード + 61 ) % 64 )
MPM[4]: 2 + ( ( 左のモード - 1 ) % 64 )
MPM[5]: 2 + ( ( 左のモード + 60 ) % 64 )
・ステップ6: (MPMインデックスと表記される)インデックスおよび構築されたリストのエントリに従って現在のブロックを予測する。
本発明の一実施形態(二角度性ブランチ)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeおよびabove_modeが2つの異なる角度モードである。
・現在のブロックがISPモードを適用されない。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: left_mode
MPM[1]: 平面
MPM[2]: above_mode
MPM[3]: DC
- 変数minABおよびmaxABが、以下のように導出される。
minAB = Min(above_mode, left_mode)
maxAB = Max(above_mode, left_mode)
- maxAB - minABが2および62を含んで2から62までの範囲内にある場合、以下が適用される。
candModeList[ 4 ] = 2 + ( ( maxAB + 61 ) % 64 ) (8-26)
candModeList[ 5 ] = 2 + ( ( maxAB - 1 ) % 64 ) (8-27)
- それ以外の場合、以下が適用される。
candModeList[ 4 ] = 2 + ( ( maxAB + 60 ) % 64 ) (8-28)
candModeList[ 5 ] = 2 + ( ( maxAB ) % 64 ) (8-29)
・ステップ6: (MPMインデックスと表記される)インデックスおよび構築されたリストのエントリに従って現在のブロックを予測する。
MARK III: ISPイントラブロックと非ISPイントラブロックとの両方のためのMPMリスト構築の代替の一式
本発明の一実施形態(非角度性ブランチ、H)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 現在のブロックがISPモードを適用される場合、現在のブロックの分割モードを決定する。
・ステップ5: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeが角度モードでなく、above_modeが角度モードでない。
・現在のブロックがISPモードを適用され、分割モードが水平方向である。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: 水平
MPM[2]: 垂直モード
MPM[3]: 25
MPM[4]: 10
MPM[5]: 65
本発明の一実施形態(非角度性ブランチ、V)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 現在のブロックがISPモードを適用される場合、現在のブロックの分割モードを決定する。
・ステップ5: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeが角度モードでなく、above_modeが角度モードでない。
・現在のブロックがISPモードを適用されないか、または現在のブロックがISPモードを適用され、分割モードが垂直方向である。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: 垂直
MPM[2]: 水平
MPM[3]: 43
MPM[4]: 60
MPM[5]: 3
本発明の一実施形態(一角度性ブランチ、1つが角度性、その他は非角度性)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeおよびabove_modeの一方が角度モードであり、他方が非角度モードである。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
角度モードをangとして定義し、以下のようにして取得する。
left_modeが角度モードである場合、ang = 左のモード
それ以外の場合(上のモードが角度モード)、ang = 上のモード
MPM[0]: 平面
MPM[1]: ang
MPM[2]: 2 + ( ( ang + 61 ) % 64 )
MPM[3]: 2 + ( ( ang - 1 ) % 64 )
MPM[4]: 2 + ( ( ang + 60 ) % 64 )
MPM[5]: 2 + ( ( ang ) % 64 )
・ステップ6: (MPMインデックスと表記される)インデックスおよび構築されたリストのエントリに従って現在のブロックを予測する。
本発明の一実施形態(一角度性ブランチ、2つが同じ角度性)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeおよびabove_modeが両方とも角度モードであり、それらの角度モードが同じである。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: 左のモード
MPM[2]: 2 + ( ( 左のモード + 61 ) % 64 )
MPM[3]: 2 + ( ( 左のモード - 1 ) % 64 )
MPM[4]: 2 + ( ( 左のモード + 60 ) % 64 )
MPM[5]: 2 + ( ( 左のモード ) % 64 )
・ステップ6: (MPMインデックスと表記される)インデックスおよび構築されたリストのエントリに従って現在のブロックを予測する。
本発明の一実施形態(二角度性ブランチ)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeおよびabove_modeが2つの異なる角度モードである。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: above_mode
MPM[2]: left_mode
- 変数minABおよびmaxABが、以下のように導出される。
minAB = Min( above_mode, left_mode )
maxAB = Max( above_mode, left_mode )
- maxAB - minABが1に等しい場合、以下が適用される。
MPM[3] = 2 + ( ( minAB + 61 ) % 64 ) (8-30)
MPM[4] = 2 + ( ( maxAB - 1 ) % 64 ) (8-31)
MPM[5] = 2 + ( ( minAB + 60 ) % 64 ) (8-32)
- そうでなく、maxAB - minABが2に等しい場合、以下が適用される。
MPM[3] = 2 + ( ( minAB - 1 ) % 64 ) (8-34)
MPM[4] = 2 + ( ( minAB + 61 ) % 64 ) (8-35)
MPM[5] = 2 + ( ( maxAB - 1 ) % 64 ) (8-36)
- そうでなく、maxAB - minABが61を超えている場合、以下が適用される。
MPM[3] = 2 + ( ( minAB - 1 ) % 64 ) (8-38)
MPM[4] = 2 + ( ( maxAB + 61 ) % 64 ) (8-39)
MPM[5] = 2 + ( minAB % 64 ) (8-40)
- それ以外の場合、以下が適用される。
MPM[3] = 2 + ( ( minAB + 61 ) % 64 ) (8-42)
MPM[4] = 2 + ( ( minAB - 1 ) % 64 ) (8-43)
MPM[5] = 2 + ( ( maxAB + 61 ) % 64 ) (8-44)
・ステップ6: (MPMインデックスと表記される)インデックスおよび構築されたリストのエントリに従って現在のブロックを予測する。
MARK IV: DCを用いるISPイントラブロックと非ISPイントラブロックとの両方のための、ただし、その他のブランチはISPに最適化されたバージョンを既に有するDCがないので非角度性ブランチのためだけのMPMリスト構築の代替の一式。
本発明の一実施形態(非角度性ブランチ、H)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 現在のブロックがISPモードを適用される場合、現在のブロックの分割モードを決定する。
・ステップ5: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeが角度モードでなく、above_modeが角度モードでない。
・現在のブロックがISPモードを適用され、分割モードが水平分割である。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: DC
MPM[2]: 水平
MPM[3]: 25
MPM[4]: 10
MPM[5]: 65
本発明の一実施形態(非角度性ブランチ、V)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 現在のブロックがISPモードを適用される場合、現在のブロックの分割モードを決定する。
・ステップ5: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeが角度モードでなく、above_modeが角度モードでない。
・現在のブロックがISPモードを適用されないか、または現在のブロックがISPモードを適用され、分割モードが垂直方向である。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: DC
MPM[2]: 垂直
MPM[3]: 43
MPM[4]: 60
MPM[5]: 3
実施形態の1つの実装において、Nは、6に等しいように設定される。
実施形態の1つの実装において、Nは、5に等しいように設定される。この場合、イントラ予測モードの前記リストは、上に挙げられた最初の5つのエントリを含み、6番目のエントリを含まない。
実施形態の1つの実装において、Nは、4に等しいように設定される。この場合、イントラ予測モードの前記リストは、上に挙げられた最初の4つのエントリを含み、5番目のエントリおよび6番目のエントリを含まない。
実施形態の1つの実装において、イントラ予測モードの前記リストは、MPMリストと呼ばれる。
1つの実装において、前記リストインデックス(MPMインデックス)は、ビットストリーム内でインジケータとしてシグナリングされる。有利なことに、MPMインデックスは、コンテキスト適応エントロピーコーダ(CABAC: Context Adaptive Entropy Coder)によってコーディングされうる。MPMインデックスは、CABACによって様々な数の確率モデル(言い換えると、コンテキスト)に従ってコーディングされてもよい。
多参照ラインとの相互作用
MPMリストが平面とDCとの両方のモードを含む場合、次いで、構築されたMPMリストから平面およびDCモードを除いたMPMリストが、多参照ラインコーディングツールによって使用される。この場合、4-MPMリストが、多参照ラインのイントラモードコーディングによって使用される。一例において、MPMリストが、MPMリスト構築後に{Planar(値0), DC(値1), VER(値50), HOR(値18), VER-4(値46), VER+4(値54)}であり、次いで、多参照ラインが有効化されるとき、4-MPMリスト{VER, HOR, VER-4, VER+4}が、イントラモードコーディングによって使用される。
MPMリストが平面モードを含むが、DCモードを含まない場合、次いで、構築されたMPMリストから平面を除いたMPMリストが、多参照ラインコーディングツールによって使用される。この場合、5-MPMリストが、多参照ラインのイントラモードコーディングによって使用される。一例においては、MPMリストが、MPMリスト構築後に{Planar, VER, HOR, 43, 60, 3}であり、次いで、多参照ラインが有効化されるとき、5-MPMリスト{VER, HOR, 43, 60, 3}が、イントラモードコーディングによって使用される。
別の例においては、DCモードのないMPMリストに関するシンタックスの修正が必要とされてもよい。MPMリストがDCを含まない場合、おそらく、DCモードは、非MPMブランチにおいて(つまり、MPMフラグが偽である)非常に頻繁に使用される。この場合、新しいシンタックスDC_modeが導入される。1に等しいDC_modeは、現在のブロックのイントラモードがDCモードであることを示す。0に等しいDC_modeは、現在のブロックのイントラモードがDCモードでないことを示す。
つまり、非MPMの古いシンタックスが、
If (mpm_flag)
...
else
intra_mode (using TB)
から
If (mpm_flag)
...
else
DC_mode
If (DC_mode==0)
intra_mode (using TB)
に変更される。
シンタックスDC_modeは、コンテキスト適応エントロピーコーダ(CABAC)によってコーディングされうる。DC_modeは、CABACによって様々な数の確率モデル(言い換えると、コンテキスト)に従ってコーディングされてもよい。DC_modeの導入によって、トランケーテッドバイナリ(truncated binary)の最大値は、60、つまり、67(合計のモードの数) - 6(MPM) - 1(DC)である。DC_modeを導入しないと、トランケーテッドバイナリの最大値は、61、つまり、67(合計のモードの数) - 6(MPM)である。
詳細には、復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの以下の方法が、本明細書において提供される。復号デバイスは、図3のデコーダ30であってもよく、符号化デバイスは、図2のエンコーダ20であってもよい。
実施形態(図10参照)によれば、復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法が、現在のブロックの左の近隣のブロックのイントラ予測モードを取得するステップ1001と、現在のブロックの上の近隣のブロックのイントラ予測モードを取得するステップ1002とを含む(図9参照)。さらに、方法は、取得するステップ1101および1002によって与えられた結果に基づいて、現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築すること1003であって、MPMリストが、イントラ予測モードの少なくとも5つのエントリを含む、構築すること1003を含む。
少なくとも5つのエントリは、少なくとも第1の条件が満たされるとき、たとえば以下、すなわち、
{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}であり、第1の条件は、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードが同じ角度モードであることを含み、angは、左の近隣のブロックのイントラ予測モードまたは上の近隣のブロックのイントラ予測モードを表す。
代替的な例によれば、少なくとも5つのエントリは、少なくとも第1の条件が満たされるとき、以下、すなわち、
{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}であり、第1の条件は、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードの一方が角度モードであることを含み、angは、角度モードを表す。
別の代替的な例によれば、少なくとも5つのエントリは、以下である。
左の近隣のブロックのイントラ予測モードと上の近隣のブロックのイントラ予測モードとの両方が角度モードであり、above_modeが上の近隣のブロックのイントラ予測モードを表し、left_modeが左の近隣のブロックのイントラ予測モードを表し、
minAB = Min( above_mode, left_mode )
maxAB = Max( above_mode, left_mode )
であるとき、
a) maxAB - minABが1に等しい場合、イントラ予測モードの少なくとも5つのエントリは、以下の通り、すなわち、
{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 ), 2 + ( ( minAB + 60 ) % 64 )}であり、または
b) maxAB - minABが2に等しい場合、イントラ予測モードの少なくとも5つのエントリは、以下の通り、すなわち、
{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 )}であり、または
c) maxAB - minABが61を超えている場合、イントラ予測モードの少なくとも5つのエントリは、以下の通り、すなわち、
{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 ), 2 + ( minAB % 64 )}であり、または
d) それ以外の場合、イントラ予測モードの少なくとも5つのエントリは、以下の通り、すなわち、
{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 )}である。
別の実施形態によれば、少なくとも第1の条件が満たされるとき、イントラ予測モードの少なくとも5つのエントリのうちの4つは、VER_IDX、HOR_IDX、VER_IDX - 4、およびVER_ID + 4によって与えられ、第1の条件は、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードのどちらも角度モードでないことを含み、VER_IDXは、垂直イントラ予測モードのインデックスを表し、HOR_IDXは、水平イントラ予測モードのインデックスを表す。
詳細には、MPMリストは、5つのエントリ、たとえば、上の代替的な実施形態において説明された5つのエントリからなってもよい。さらに、PLANARモードが、PLANARモードフラグによってシグナリングされてもよい。
現在のブロックの予測コーディングの上述の方法は、画像エンコーダおよび/または画像デコーダ、たとえば、図2のエンコーダ20および/または図3のデコーダ30において使用するためのデバイスにおいて実施されうる。
図11に示されるように、実施形態に係るデバイス1100は、現在のブロックの左の近隣のブロックのイントラ予測モードを取得し、現在のブロックの上の近隣のブロックのイントラ予測モードを取得するように構成された予測モードユニット1101を含む。さらに、デバイス1100は、少なくとも5つのエントリを含む、現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを(予測モードユニット1101によって供給された結果に基づいて)構築するように構成された最確モードユニット1102を含む。
代替的な実施形態によれば、最確モードユニット1102によって与えられるMPMリストは、以下の通りイントラ予測モードの少なくとも5つのエントリを含み、つまり、
I)
少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、第1の条件は、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードが同じ角度モードであることを含み、angは、左の近隣のブロックのイントラ予測モードもしくは上の近隣のブロックのイントラ予測モードを表すか、または
II)
少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、第1の条件は、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードの一方が角度モードであることを含み、angは、角度モードを表す。
さらなる代替によれば、MPMリストは、以下の通りイントラ予測モードの少なくとも5つのエントリを含む。
左の近隣のブロックのイントラ予測モードと上の近隣のブロックのイントラ予測モードとの両方が角度モードであり、above_modeが上の近隣のブロックのイントラ予測モードを表し、left_modeが左の近隣のブロックのイントラ予測モードを表し、
minAB = Min( above_mode, left_mode )
maxAB = Max( above_mode, left_mode )
であるとき、
a) maxAB - minABが1に等しい場合、イントラ予測モードの少なくとも5つのエントリは、以下の通り、すなわち、
{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 ), 2 + ( ( minAB + 60 ) % 64 )}であり、または
b) maxAB - minABが2に等しい場合、イントラ予測モードの少なくとも5つのエントリは、以下の通り、すなわち、
{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 )}であり、または
c) maxAB - minABが61を超えている場合、イントラ予測モードの少なくとも5つのエントリは、以下の通り、すなわち、
{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 ), 2 + ( minAB % 64 )}であり、または
d) それ以外の場合、イントラ予測モードの少なくとも5つのエントリは、以下の通り、すなわち、
{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 )}である。
別の実施形態によれば、少なくとも第1の条件が満たされるとき、イントラ予測モードの少なくとも5つのエントリのうちの4つは、VER_IDX、HOR_IDX、VER_IDX - 4、およびVER_ID + 4によって与えられ、第1の条件は、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードのどちらも角度モードでないことを含み、VER_IDXは、垂直イントラ予測モードのインデックスを表し、HOR_IDXは、水平イントラ予測モードのインデックスを表す。
詳細には、MPMリストは、5つのエントリ、たとえば、上の代替的な実施形態において説明された5つのエントリからなってもよい。さらに、PLANARモードが、PLANARモードフラグによってシグナリングされてもよい。
以下は、上述の実施形態において示された符号化方法および復号方法の応用ならびにそれらを使用するシステムの説明である。
図12は、コンテンツ配信サービスを実現するためのコンテンツ供給システム3100を示すブロック図である。このコンテンツ供給システム3100は、キャプチャデバイス3102、端末デバイス3106を含み、任意選択でディスプレイ3126を含む。キャプチャデバイス3102は、通信リンク3104を介して端末デバイス3106と通信する。通信リンクは、上述の通信チャネル13を含んでもよい。通信リンク3104は、WIFI、イーサネット、ケーブル、ワイヤレス(3G/4G/5G)、USB、またはこれらの任意の種類の組み合わせなどを含むがこれらに限定されない。
キャプチャデバイス3102は、データを生成し、上の実施形態に示された符号化方法によってデータを符号化してもよい。代替的に、キャプチャデバイス3102は、データをストリーミングサーバ(図示せず)に配信してもよく、サーバが、データを符号化し、符号化されたデータを端末デバイス3106に送信する。キャプチャデバイス3102は、カメラ、スマートフォンもしくはスマートパッド、コンピュータもしくはラップトップ、テレビ会議システム、PDA、車載デバイス、またはこれらのいずれかの組み合わせなどを含むがこれらに限定されない。たとえば、キャプチャデバイス3102は、上述の送信元デバイス12を含んでもよい。データがビデオを含むとき、キャプチャデバイス3102に含まれるビデオエンコーダ20が、ビデオ符号化処理を実際に実行してもよい。データがオーディオ(つまり、声)を含むとき、キャプチャデバイス3102に含まれるオーディオエンコーダが、オーディオ符号化処理を実際に実行してもよい。いくつかの実際のシナリオに関して、キャプチャデバイス3102は、符号化されたビデオおよびオーディオデータを一緒に多重化することによってそれらのデータを配信する。その他の実際のシナリオに関して、たとえば、テレビ会議システムにおいて、符号化されたオーディオデータおよび符号化されたビデオデータは、多重化されない。キャプチャデバイス3102は、符号化されたオーディオデータおよび符号化されたビデオデータを端末デバイス3106に別々に配信する。
コンテンツ供給システム3100において、端末デバイス310は、符号化されたデータを受信し、再生する。端末デバイス3106は、上述の符号化されたデータを復号することができるスマートフォンもしくはスマートパッド3108、コンピュータもしくはラップトップ3110、ネットワークビデオレコーダ(NVR)/デジタルビデオレコーダ(DVR)3112、TV 3114、セットトップボックス(STB)3116、テレビ会議システム3118、ビデオ監視システム3120、携帯情報端末(PDA)3122、車載デバイス3124、またはこれらのいずれかの組み合わせなどの、データ受信および復元能力を有するデバイスであることが可能である。たとえば、端末デバイス3106は、上述の送信先デバイス14を含んでもよい。符号化されたデータがビデオを含むとき、端末デバイスに含まれるビデオデコーダ30が、ビデオの復号を実行するために優先される。符号化されたデータがオーディオを含むとき、端末デバイスに含まれるオーディオデコーダが、オーディオ復号処理を実行するために優先される。
ディスプレイを有する端末デバイス、たとえば、スマートフォンもしくはスマートパッド3108、コンピュータもしくはラップトップ3110、ネットワークビデオレコーダ(NVR)/デジタルビデオレコーダ(DVR)3112、TV 3114、携帯情報端末(PDA)、または車載デバイス3124に関して、端末デバイスは、復号されたデータをその端末デバイスのディスプレイに供給することができる。ディスプレイを備えていない端末デバイス、たとえば、STB 3116、テレビ会議システム3118、またはビデオ監視システム3120に関しては、外部ディスプレイ3126に連絡を取り、復号されたデータが受信され示される。
このシステムの各デバイスが符号化または復号を実行するとき、上述の実施形態において示されたピクチャ符号化デバイスまたはピクチャ復号デバイスが、使用されうる。
図13は、端末デバイス3106の例の構造を示す図である。端末デバイス3106がキャプチャデバイス3102からストリームを受信した後、プロトコル進行ユニット3202が、ストリームの送信プロトコルを分析する。プロトコルは、リアルタイムストリーミングプロトコル(RTSP)、ハイパーテキスト転送プロトコル(HTTP)、HTTPライブストリーミングプロトコル(HLS)、MPEG-DASH、リアルタイムトランスポートプロトコル(RTP)、リアルタイムメッセージングプロトコル(RTMP)、またはこれらの任意の種類の組み合わせなどを含むがこれらに限定されない。
プロトコル進行ユニット3202がストリームを処理した後、ストリームファイルが生成される。ファイルは、多重分離ユニット3204に出力される。多重分離ユニット3204は、多重化されたデータを符号化されたオーディオデータおよび符号化されたビデオデータに分離することができる。上述のように、いくつかの実際のシナリオに関して、たとえば、テレビ会議システムにおいて、符号化されたオーディオデータおよび符号化されたビデオデータは、多重化されない。この状況では、符号化されたデータは、多重分離ユニット3204を通さずにビデオデコーダ3206およびオーディオデコーダ3208に送信される。
多重分離処理によって、ビデオエレメンタリストリーム(ES)、オーディオES、および任意選択で字幕が生成される。上述の実施形態において説明されたビデオデコーダ30を含むビデオデコーダ3206は、上述の実施形態において示された復号方法によってビデオESを復号してビデオフレームを生成し、このデータを同期ユニット3212に供給する。オーディオデコーダ3208は、オーディオESを復号してオーディオフレームを生成し、このデータを同期ユニット3212に供給する。代替的に、ビデオフレームは、そのビデオフレームを同期ユニット3212に供給する前に、(図Yに示されていない)バッファに記憶されてもよい。同様に、オーディオフレームは、そのオーディオフレームを同期ユニット3212に供給する前に、(図Yに示されていない)バッファに記憶されてもよい。
同期ユニット3212は、ビデオフレームとオーディオフレームとを同期し、ビデオ/オーディオをビデオ/オーディオディスプレイ3214に供給する。たとえば、同期ユニット3212は、ビデオ情報およびオーディオ情報の提示を同期する。情報は、コーディングされたオーディオデータおよびビジュアルデータの提示に関するタイムスタンプならびにデータストリームの配信自体に関するタイムスタンプを使用するシンタックスにおいてコーディングしてもよい。
字幕がストリームに含まれる場合、字幕デコーダ3210が、字幕を復号し、その字幕をビデオフレームおよびオーディオフレームと同期し、ビデオ/オーディオ/字幕をビデオ/オーディオ/字幕ディスプレイ3216に供給する。
本発明は、上述のシステムに限定されず、上述の実施形態のピクチャ符号化デバイスかまたはピクチャ復号デバイスかのいずれも、その他のシステム、たとえば、自動車のシステムに組み込まれうる。
数学演算子
本出願において使用される数学演算子は、Cプログラミング言語において使用される数学演算子に似ている。しかし、整数の除算および算術シフト演算の結果は、より厳密に定義され、累乗および実数値の除算などの追加の演算が、定義される。付番およびカウントの規則は、概して0から始まり、たとえば、「第1」は、0番と等価であり、「第2」は、1番と等価であり、以下同様である。
算術演算子
以下の算術演算子が、以下の通り定義される。
+ 加算
- 減算(2引数の演算子として)または否定(単項前置演算子として)
* 行列の乗算を含む乗算
xy 累乗。xのy乗を規定する。その他の文脈で、そのような表記は、累乗として解釈されるように意図されない上付きの書き込みのために使用される。
/ 結果のゼロへの切り捨てを行う整数の除算。たとえば、7 / 4および-7 / -4は、1に切り捨てられ、-7 / 4および7 / -4は、-1に切り捨てられる。
÷ 切り捨てまたは丸めが意図されない数学的方程式の除算を表すために使用される。
Figure 2022521980000006
切り捨てまたは丸めが意図されない数学的方程式の除算を表すために使用される。
Figure 2022521980000007
iがxからyを含んでyまでのすべての整数値を取るf( i )の総和。
x % y 法。x >= 0およびy > 0である整数xおよびyに関してのみ定義されるx割るyの余り。
論理演算子
以下の論理演算子が、以下の通り定義される。
x && y xおよびyのブール論理「積」
x || y xおよびyのブール論理「和」
! ブール論理「否定」
x ? y : z xが真であるかまたは0に等しくない場合、値yと評価され、そうでない場合、値zと評価される。
関係演算子
以下の関係演算子が、以下の通り定義される。
> より大きい
>= 以上
< 未満
<= 以下
== 等しい
!= 等しくない
関係演算子が値「na」(該当なし)を割り当てられたシンタックス要素または変数に適用されるとき、値「na」は、シンタックス要素または変数に関する異なる値として扱われる。値「na」は、いかなるその他の値とも等しくないとみなされる。
ビット演算子
以下のビット演算子が、以下の通り定義される。
& ビット毎の「論理積」。整数引数に対する演算のとき、整数値の2の補数表現に対して作用する。別の引数よりも少ないビットを含む2進数引数に対する演算のとき、より短い引数が、0に等しいさらに上位桁のビットを追加することによって拡張される。
| ビット毎の「論理和」。整数引数に対する演算のとき、整数値の2の補数表現に対して作用する。別の引数よりも少ないビットを含む2進数引数に対する演算のとき、より短い引数が、0に等しいさらに上位桁のビットを追加することによって拡張される。
^ ビット毎の「排他的論理和」。整数引数に対する演算のとき、整数値の2の補数表現に対して作用する。別の引数よりも少ないビットを含む2進数引数に対する演算のとき、より短い引数が、0に等しいさらに上位桁のビットを追加することによって拡張される。
x>>y xの2の補数による整数の表現の、2進数のy桁分の算術右シフト。この関数は、yの非負の整数値に対してのみ定義される。右シフトの結果として最上位ビット(MSB)にシフトされるビットは、シフト演算の前のxのMSBに等しい値を有する。
x<<y xの2の補数による整数の表現の、2進数のy桁分の算術左シフト。この関数は、yの非負の整数値に対してのみ定義される。左シフトの結果として最下位ビット(LSB)にシフトされるビットは、0に等しい値を有する。
代入演算子
以下の算術演算子が、以下の通り定義される。
= 代入演算子
++ インクリメント、つまり、x++は、x = x + 1と等価であり、配列のインデックスに使用されるとき、インクリメント演算の前に変数の値と評価される。
-- デクリメント、つまり、x--は、x = x - 1と等価であり、配列のインデックスに使用されるとき、デクリメント演算の前に変数の値と評価される。
+= 指定された量のインクリメント、つまり、x += 3は、x = x + 3と等価であり、x += (-3)は、x = x + (-3)と等価である。
-= 指定された量のデクリメント、つまり、x -= 3は、x = x - 3と等価であり、x -= (-3)は、x = x - (-3)と等価である。
範囲の表記
以下の表記が、値の範囲を指定するために使用される。
x = y..z xは、x、y、およびzが整数値であり、zがyよりも大きいものとして、yおよびzを含んでyからzまでの整数値を取る。
数学関数
以下の数学関数が、定義される。
Figure 2022521980000008
Asin( x ) -1.0および1.0を含んで-1.0から1.0までの範囲内の引数xに作用し、ラジアンを単位として-π÷2およびπ÷2を含んで-π÷2からπ÷2までの範囲の出力値を有する三角法の逆正弦関数
Atan( x ) 引数xに作用し、ラジアンを単位として-π÷2およびπ÷2を含んで-π÷2からπ÷2までの範囲の出力値を有する三角法の逆正接関数
Figure 2022521980000009
Ceil( x ) x以上の最小の整数。
Clip1Y( x ) = Clip3( 0, ( 1 << BitDepthY ) - 1, x )
Clip1C( x ) = Clip3( 0, ( 1 << BitDepthC ) - 1, x )
Figure 2022521980000010
Cos( x ) ラジアンを単位とする引数xに作用する三角法の余弦関数。
Floor(x) x以下の最大の整数。
Figure 2022521980000011
Ln( x ) xの自然対数(eを底とする対数であり、eは、自然対数の底の定数2.718281828...である)。
Log2( x ) xの2を底とする対数。
Log10( x ) xの10を底とする対数。
Figure 2022521980000012
Round( x ) = Sign( x ) * Floor( Abs( x ) + 0.5 )
Figure 2022521980000013
Sin( x ) ラジアンを単位とする引数xに作用する三角法の正弦関数
Figure 2022521980000014
Tan( x ) ラジアンを単位とする引数xに作用する三角法の正接関数
演算の優先順位
式中の優先順位が括弧を使用して明示されないとき、以下のルールが、適用される。
- より高い優先度の演算は、より低い優先度のいかなる演算よりも前に評価される。
- 同じ優先度の演算は、左から右に順に評価される。
下の表は、最も高い方から最も低い方へ演算の優先度を明示し、表のより上の位置は、より高い優先度を示す。
Cプログラミング言語においても使用される演算子に関して、本明細書において使用される優先順位は、Cプログラミング言語において使用されるのと同じである。
表: (表の一番上の)最も高い方から(表の一番下の)最も低い方への演算の優先度
Figure 2022521980000015
論理演算のテキストの記述
本文中、以下の形態で、すなわち、
if( 条件0 )
ステートメント0
else if( 条件1 )
ステートメント1
...
else /* 残りの条件に関する情報を伝えるコメント */
ステートメントn
の形態で数学的に記述される論理演算のステートメントは、以下のように記述されてもよい。
以下のように... / ...以下が適用される。
- 条件0の場合、ステートメント0
- そうではなく、条件1の場合、ステートメント1
- ...
- それ以外の場合(残りの条件に関する情報を伝えるコメント)、ステートメントn
本文中のそれぞれの「...の場合、...、そうではなく...の場合、...、それ以外の場合、...」のステートメントは、「...の場合、...」が直後に続く「以下のように...」または「...以下が適用される」によって導入される。「...の場合、...、そうではなく...の場合、...、それ以外の場合、...」の最後の条件は、常に「それ以外の場合、...」である。交互に挿入された「...の場合、...、そうではなく...の場合、...、それ以外の場合、...」のステートメントは、「以下のように...」または「...以下が適用される」を終わりの「それ以外の場合、...」とマッチングすることによって特定されうる。
本文中、以下の形態で、すなわち、
if( 条件0a && 条件0b )
ステートメント0
else if( 条件1a || 条件1b )
ステートメント1
...
else
ステートメントn
の形態で数学的に記述される論理演算のステートメントは、以下のように記述されてもよい。
以下のように... / ...以下が適用される。
- 以下の条件のすべてが真である場合、ステートメント0
- 条件0a
- 条件0b
- そうでなく、以下の条件のうちの1つ以上が真である場合、ステートメント1
- 条件1a
- 条件1b
- ...
- それ以外の場合、ステートメントn
本文中、以下の形態で、すなわち、
if( 条件0 )
ステートメント0
if( 条件1 )
ステートメント1
の形態で数学的に記述される論理演算のステートメントは、以下のように記述されてもよい。
条件0のとき、ステートメント0
条件1のとき、ステートメント1
本発明の実施形態が主にビデオコーディングに基づいて説明されたが、コーディングシステム10、エンコーダ20、およびデコーダ30(およびそれに対応してシステム10)の実施形態、ならびに本明細書において説明されたその他の実施形態は、静止ピクチャの処理またはコーディング、つまり、ビデオコーディングと同様のいかなる先行するまたは連続するピクチャからも独立した個々のピクチャの処理またはコーディングのために構成されてもよいことに留意されたい。概して、ピクチャの処理コーディングが単一のピクチャ17に制限される場合、インター予測ユニット244(エンコーダ)および344(デコーダ)のみが、利用可能でなくてもよい。ビデオエンコーダ20およびビデオデコーダ30のすべてのその他の機能(ツールまたはテクノロジーとも呼ばれる)、たとえば、残差計算204/304、変換206、量子化208、逆量子化210/310、(逆)変換212/312、区分け262/362、イントラ予測254/354、および/またはループフィルタ220、320、およびエントロピーコーディング270、およびエントロピー復号304が、静止ピクチャの処理のために等しく使用されてもよい。
たとえば、エンコーダ20およびデコーダ30、ならびにたとえばエンコーダ20およびデコーダ30に関連して本明細書において説明された機能の実施形態は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせで実装されてもよい。ソフトウェアに実装される場合、機能は、1つ以上の命令またはコードとしてコンピュータ可読媒体上に記憶されるかまたは通信媒体上で送信され、ハードウェアに基づく処理ユニットによって実行されてもよい。コンピュータ可読媒体は、データストレージ媒体などの有形の媒体に対応するコンピュータ可読ストレージ媒体、またはたとえば通信プロトコルによるある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含んでもよい。このようにして、概して、コンピュータ可読媒体は、(1)非一時的である有形のコンピュータ可読ストレージ媒体または(2)信号もしくは搬送波などの通信媒体に対応してもよい。データストレージ媒体は、本開示において説明された技術の実装のための命令、コード、および/またはデータ構造を取り出すために1つ以上のコンピュータまたは1つ以上のプロセッサによってアクセスされうる任意の利用可能な媒体であってもよい。コンピュータプログラム製品は、コンピュータ可読媒体を含んでもよい。
限定ではなく例として、そのようなコンピュータ可読ストレージ媒体は、RAM、ROM、EEPROM、CD-ROMもしくはその他の光ディスクストレージ、磁気ディスクストレージもしくはその他の磁気ストレージデバイス、フラッシュメモリ、または命令もしくはデータ構造の形態で所望のプログラムコードを記憶するために使用されることが可能であり、コンピュータによってアクセスされることが可能である任意のその他の媒体を含みうる。また、任意の接続が、適切にコンピュータ可読媒体と呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者線(DSL)、または赤外線、ラジオ波、およびマイクロ波などのワイヤレステクノロジーを用いてウェブサイト、サーバ、またはその他のリモートソースから送信される場合、次いで、同軸ケーブル、光ファイバケーブル、ツイストペア、DSL、または赤外線、ラジオ波、およびマイクロ波などのワイヤレステクノロジーは、媒体の定義に含まれる。しかし、コンピュータ可読ストレージ媒体およびデータストレージ媒体は、接続、搬送波、信号、またはその他の一時的媒体を含まず、その代わりに、非一時的な有形のストレージ媒体を対象とすることを理解されたい。本明細書において使用されるとき、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD: compact disc)、レーザディスク(laser disc)、光ディスク(optical disc)、デジタルバーサタイルディスク(DVD: digital versatile disc)、フロッピーディスク(floppy disk)、およびブルーレイディスク(Blu-ray disc)を含み、ディスク(disk)が、通常、磁気的にデータを再生する一方、ディスク(disc)は、レーザを用いて光学的にデータを再生する。上記のものの組み合わせも、コンピュータ可読媒体の範囲に含まれるべきである。
命令は、1つ以上のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、またはその他の等価な集積もしくはディスクリート論理回路などの1つ以上のプロセッサによって実行されてもよい。したがって、用語「プロセッサ」は、本明細書において使用されるとき、上述の構造または本明細書において説明された技術の実装に好適な任意のその他の構造のいずれかを指してもよい。加えて、一部の態様において、本明細書において説明された機能は、符号化および復号のために構成された専用のハードウェアおよび/もしくはソフトウェアモジュール内に提供されるか、または組み合わされたコーデックに組み込まれてもよい。また、技術は、1つ以上の回路または論理要素にすべて実装されうる。
本開示の技術は、ワイヤレスハンドセット、集積回路(IC)、または1組のIC(たとえば、チップセット)を含む多種多様なデバイスまたは装置に実装されてもよい。様々な構成要素、モジュール、またはユニットが、開示された技術を実行するように構成されたデバイスの機能の態様を強調するために本開示において説明されているが、異なるハードウェアユニットによる実現を必ずしも必要としない。むしろ、上述のように、様々なユニットが、コーデックハードウェアユニットにおいて組み合わされるか、または好適なソフトウェアおよび/もしくはファームウェアと連携した、上述の1つ以上のプロセッサを含む相互運用性のあるハードウェアユニットの集合によって提供されてもよい。
10 ビデオコーディングシステム、コーディングシステム
12 送信元デバイス
13 符号化されたピクチャデータ、通信チャネル
14 送信先デバイス
16 ピクチャソース
17 ピクチャ、ピクチャデータ、生ピクチャ、生ピクチャデータ、モノクロピクチャ、カラーピクチャ、現在のピクチャ
18 プリプロセッサ、前処理ユニット、ピクチャプリプロセッサ
19 前処理されたピクチャ、前処理されたピクチャデータ
20 ビデオエンコーダ、エンコーダ
21 符号化されたピクチャデータ、符号化されたビットストリーム
22 通信インターフェース、通信ユニット
28 通信インターフェース、通信ユニット
30 デコーダ、ビデオデコーダ
31 復号されたピクチャデータ、復号されたピクチャ
32 ポストプロセッサ、後処理ユニット
33 後処理されたピクチャデータ、後処理されたピクチャ
34 ディスプレイデバイス
46 処理回路
100 ビデオエンコーダ
201 入力、入力インターフェース
203 ピクチャブロック、元のブロック、現在のブロック、区分けされたブロック、現在のピクチャブロック
204 残差計算ユニット、残差計算
205 残差ブロック、残差
206 変換処理ユニット、変換
207 変換係数
208 量子化ユニット、量子化
209 量子化された係数、量子化された変換係数、量子化された残差係数
210 逆量子化ユニット、逆量子化
211 逆量子化された係数、逆量子化された残差係数
212 逆変換処理ユニット、(逆)変換
213 再構築された残差ブロック、逆量子化された係数、変換ブロック
214 再構築ユニット、加算器、合算器
215 再構築されたブロック
216 バッファ
220 ループフィルタユニット、ループフィルタ
221 フィルタリングされたブロック、フィルタリングされた再構築されたブロック
230 復号ピクチャバッファ(DPB)
231 復号されたピクチャ
244 インター予測ユニット
254 イントラ予測ユニット、インター予測ユニット、イントラ予測
260 モード選択ユニット
262 区分けユニット、区分け
265 予測ブロック、予測子
266 シンタックス要素
270 エントロピー符号化ユニット、エントロピーコーディング
272 出力、出力インターフェース
304 エントロピー復号ユニット、残差計算、エントロピー復号
309 量子化された係数
310 逆量子化ユニット、逆量子化
311 逆量子化された係数、変換係数
312 逆変換処理ユニット、(逆)変換、出力
313 再構築された残差ブロック
314 再構築ユニット、合算器、加算器
315 再構築されたブロック
320 ループフィルタ、ループフィルタユニット、ループフィルタリングユニット
321 フィルタリングされたブロック、復号されたビデオブロック
330 復号ピクチャバッファ(DPB)、復号ピクチャバッファ(DBP)
331 復号されたピクチャ
344 インター予測ユニット
354 イントラ予測ユニット、イントラ予測
360 モード適用ユニット
362 区分け
365 予測ブロック
400 ビデオコーディングデバイス
410 着信ポート、入力ポート
420 受信機ユニット(Rx)
430 プロセッサ、論理ユニット、中央演算処理装置(CPU)
440 送信機ユニット(Tx)
450 発信ポート、出力ポート
460 メモリ
470 コーディングモジュール
500 装置
502 プロセッサ
504 メモリ
506 データ
508 オペレーティングシステム
510 アプリケーションプログラム
512 バス
514 二次ストレージ
518 ディスプレイ
1100 デバイス
1101 予測モードユニット
1102 最確モードユニット
3100 コンテンツ供給システム
3102 キャプチャデバイス
3104 通信リンク
3106 端末デバイス
3108 スマートフォン、スマートパッド
3110 コンピュータ、ラップトップ
3112 ネットワークビデオレコーダ(NVR)/デジタルビデオレコーダ(DVR)
3114 TV
3116 セットトップボックス(STB)
3118 テレビ会議システム
3120 ビデオ監視システム
3122 携帯情報端末(PDA)
3124 車載デバイス
3126 ディスプレイ
3202 プロトコル進行ユニット
3204 多重分離ユニット
3206 ビデオデコーダ
3208 オーディオデコーダ
3210 字幕デコーダ
3212 同期ユニット
3214 ビデオ/オーディオディスプレイ
3216 ビデオ/オーディオ/字幕ディスプレイ
さらに、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードのどちらも角度モードでない場合が考慮される。したがって、
現在のブロックの左の近隣のブロックのイントラ予測モードを取得し、現在のブロックの上の近隣のブロックのイントラ予測モードを取得するように構成された予測モードユニット(1101)、
現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するように構成された最確モードユニット(1102)であって、MPMリストが、イントラ予測モードの少なくとも5つのエントリを含み、少なくとも第1の条件が満たされるとき、少なくとも5つのエントリのうちの4つが、VER_IDX、HOR_IDX、VER_IDX - 4、およびVER_ID + 4によって与えられ、第1の条件が、左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードのどちらも角度モードでないことを含み、VER_IDXが、垂直イントラ予測モードのインデックスを表し、HOR_IDXが、水平イントラ予測モードのインデックスを表す、最確モードユニット(1102)を含む、画像エンコーダおよび/または画像デコーダにおいて使用するためのデバイス(1100)が提供される。
(デジタル)ピクチャは、強度(intensity)値を有するサンプルの二次元配列または行列とみなされるかまたはみなされうる。配列のサンプルは、ピクセル(ピクチャエレメントの短縮形)またはペルとも呼ばれてもよい。配列またはピクチャの水平および垂直方向(または軸)のサンプル数は、ピクチャのサイズおよび/または解像度を定義する。色の表現のために、概して、3つの色成分が使用され、つまり、ピクチャが表現されるかまたは3つのサンプル配列を含んでもよい。RGBフォーマットまたは色空間で、ピクチャは、対応する赤、緑、および青のサンプル配列を含む。しかし、ビデオコーディングにおいて、各ピクセルは、概して、輝度(luminance)およびクロミナンス(chrominance)フォーマットまたは色空間、たとえば、Y(代わりにLが使用されることもある)によって示される輝度成分ならびにCbおよびCrによって示される2つのクロミナンス成分を含むYCbCrで表される。輝度(または短くルマ(luma))成分Yは、明るさまたは(たとえば、グレースケールピクチャと同様の)グレーレベルの強度を表し、一方、2つのクロミナンス(または短くクロマ(chroma))成分CbおよびCrは、色度または色情報成分を表す。したがって、YCbCrフォーマットのピクチャは、輝度サンプル値(Y)の輝度サンプル配列およびクロミナンス値(CbおよびCr)の2つのクロミナンスサンプル配列を含む。RGBフォーマットのピクチャは、YCbCrフォーマットに変換され(converted)または変換され(transformed)てもよく、その逆であってもよく、プロセスは、色変換(transformation)または変換(conversion)としても知られる。ピクチャがモノクロである場合、ピクチャは、輝度サンプル配列のみを含んでもよい。したがって、ピクチャは、たとえば、モノクロフォーマットにおいてはルマサンプルの配列であり、または4:2:0、4:2:2、および4:4:4カラーフォーマットにおいてはルマサンプルの配列およびクロマサンプルの2つの対応する配列であってもよい。
インター予測
1組の(または可能な)インター予測モードは、利用可能な参照ピクチャ(つまり、たとえば、DPB230に記憶された前の少なくとも部分的に復号されたピクチャ)ならびにその他のインター予測パラメータ、たとえば、最もよく一致する参照ブロックを探索するために参照ピクチャ全体が使用されるのかもしくは参照ピクチャの一部のみ、たとえば、現在のブロックのエリアの周りの探索窓(search window)エリアのみが使用されるか、ならびに/またはたとえば、ピクセル補間、たとえば、半/セミペル(half/semi-pel)および/もしくは4分の1ペル補間が適用されるか否かに依存する。
図3の例において、デコーダ30は、エントロピー復号ユニット304、逆量子化ユニット310、逆変換処理ユニット312、再構築ユニット314(たとえば、合算器314)、ループフィルタ320、復号ピクチャバッファ(DPB)330、モード適用ユニット360、インター予測ユニット344、およびイントラ予測ユニット354を含む。インター予測ユニット344は、動き補償ユニットであるかまたは動き補償ユニットを含んでもよい。ビデオデコーダ30は、いくつかの例において、図2のビデオエンコーダ100に関連して説明された符号化パスと概して逆である復号パスを実行してもよい。
逆変換
逆変換処理ユニット312は、変換係数311とも呼ばれる量子化解除された係数311を受け取り、サンプル領域において再構築された残差ブロック213を取得するために、量子化解除された係数311に変換を適用するように構成されてもよい。再構築された残差ブロック213は、変換ブロック213とも呼ばれてもよい。変換は、逆変換、たとえば、逆DCT、逆DST、逆整数変換、または概念的に同様の逆変換プロセスであってもよい。逆変換処理ユニット312は、量子化解除された係数311に適用される変換を決定するために、(たとえば、エントロピー復号ユニット304によって、たとえば、解析および/または復号することによって)符号化されたピクチャデータ21から変換パラメータまたは対応する情報を受け取るようにさらに構成されてもよい。
MARK I: ISPに最適化されたMPMリスト構築の代替の一式(suite)
本発明の一実施形態(非角度性ブランチ(non-angular branch)、H)によれば、
・ステップ1: 図9に従って左の近隣のブロックのイントラ予測モードおよび上の近隣のブロックのイントラ予測モードを取得する。近隣のブロックのイントラ予測モードが利用可能でない(たとえば、近隣のブロックがピクチャの境界の外にあるかまたは近隣のブロックがインターコーディングされる)場合、近隣のブロックのイントラ予測モードは、平面として設定される。左の近隣のブロックのイントラ予測モードは、left_modeと表記され、上の近隣のブロックのイントラ予測モードは、above_modeと表記される。
・ステップ2: 近隣のブロックのイントラ予測モードが角度モードであるか否かを決定する。
・ステップ3: 現在のブロックがISPモードによってコーディングされるか否かを決定する。
・ステップ4: 現在のブロックがISPモードを適用される場合、現在のブロックの分割モードを決定する。
・ステップ5: 以下の条件(箇条書きの項目)のすべてが真であると評価される場合、
・left_modeが角度モードでなく、above_modeが角度モードでない。
・現在のブロックがISPモードによってコーディングされる。
・現在のブロックの分割モードが水平方向である。
以下のようにイントラ予測モードのN個のエントリを含むイントラ予測モードのリストが、構築される(たとえば、Nは6に等しく、第1のエントリがMPM[0]に対応し、第2のエントリがMPM[1]に対応し、以下同様である)。
MPM[0]: 平面
MPM[1]: DC
MPM[2]: 水平
MPM[3]: 25
MPM[4]: 10
MPM[5]: 65

Claims (28)

  1. 復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法であって、
    前記現在のブロックの左の近隣のブロックのイントラ予測モードを取得するステップ、
    前記現在のブロックの上の近隣のブロックのイントラ予測モードを取得するステップ、
    前記現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するステップであって、前記MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含み、つまり、
    少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、前記第1の条件が、前記左の近隣のブロックの前記イントラ予測モードおよび前記上の近隣のブロックの前記イントラ予測モードが同じ角度モードであることを含み、angが、前記左の近隣のブロックの前記イントラ予測モードまたは前記上の近隣のブロックの前記イントラ予測モードを表す、ステップを含む、方法。
  2. 前記MPMリストが、前記第1の条件および第2の条件が満たされるとき、イントラ予測モードの前記少なくとも5つのエントリを含み、前記第2の条件が、前記現在のブロックが下位区画内(ISP)モードによってコーディングされることを含む請求項1に記載の方法。
  3. 復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法であって、
    前記現在のブロックの左の近隣のブロックのイントラ予測モードを取得するステップ、
    前記現在のブロックの上の近隣のブロックのイントラ予測モードを取得するステップ、
    前記現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するステップであって、前記MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含み、つまり、
    少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、前記第1の条件が、前記左の近隣のブロックの前記イントラ予測モードおよび前記上の近隣のブロックの前記イントラ予測モードの一方のみが角度モードであることを含み、angが、前記角度モードを表す、ステップを含む、方法。
  4. 前記MPMリストが、前記第1の条件および第2の条件が満たされるとき、イントラ予測モードの前記少なくとも5つのエントリを含み、前記第2の条件が、前記現在のブロックがISPモードによってコーディングされることを含む請求項3に記載の方法。
  5. 復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法であって、
    前記現在のブロックの左の近隣のブロックのイントラ予測モードを取得するステップ、
    前記現在のブロックの上の近隣のブロックのイントラ予測モードを取得するステップ、
    少なくとも第1の条件が満たされるとき、前記現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するステップであって、前記第1の条件が、前記左の近隣のブロックの前記イントラ予測モードと前記上の近隣のブロックの前記イントラ予測モードとの両方が角度モードであることを含み、前記MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含む、つまり、
    a) maxAB - minABが1に等しいとき、{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 ), 2 + ( ( minAB + 60 ) % 64 )}を含むか、または
    b) maxAB - minABが2に等しいとき、{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 )}を含むか、または
    c) maxAB - minABが61を超えているとき、{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 ), 2 + ( minAB % 64 )}を含むか、または
    d) それ以外の場合、{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 )}を含み、
    above_modeが、前記上の近隣のブロックの前記イントラ予測モードを表し、left_modeが、前記左の近隣のブロックの前記イントラ予測モードを表し、minABが、前記above_modeと前記left_modeとの間の最小のイントラ予測モードを表し、maxABが、前記above_modeと前記left_modeとの間の最大のイントラ予測モードを表す、ステップを含む、方法。
  6. 前記生成されたMPMリストに基づいて前記現在のブロックの前記イントラ予測モードをコーディングするステップをさらに含む請求項1から5のいずれか一項に記載の方法。
  7. 前記現在のブロックの前記イントラ予測モードを決定するステップと、前記現在のブロックの前記決定されたイントラ予測モードが前記MPMリストに挙げられているとき、前記MPMリストの対応するインデックスによって前記現在のブロックの前記決定されたイントラ予測モードをコーディングするステップとをさらに含む請求項1から6のいずれか一項に記載の方法。
  8. 前記現在のブロックの前記イントラ予測モードがPLANARモードであるか否かを決定するステップと、
    前記現在のブロックの前記イントラ予測モードが前記PLANARモードでないと決定されるとき、前記現在のブロックの前記イントラ予測モードが前記PLANARモードでないことをフラグによってシグナリングするステップとをさらに含む請求項1から6のいずれか一項に記載の方法。
  9. 前記生成されたMPMリストが、前記少なくとも5つのエントリからなり、前記方法が、前記MPMリストを使用して多参照ラインコーディングするステップをさらに含む請求項1から6のいずれか一項に記載の方法。
  10. イントラ予測された上の近隣のブロックがない場合、前記上の近隣のブロックの前記イントラ予測モードがPLANARであると決定され、イントラ予測された左の近隣のブロックがない場合、前記左の近隣のブロックの前記イントラ予測モードがPLANARであると決定される請求項1から9のいずれか一項に記載の方法。
  11. 復号デバイスまたは符号化デバイスによって実施される現在のブロックの予測コーディングの方法であって、
    前記現在のブロックの左の近隣のブロックのイントラ予測モードを取得するステップ、
    前記現在のブロックの上の近隣のブロックのイントラ予測モードを取得するステップ、
    前記現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するステップであって、前記MPMリストが、イントラ予測モードの少なくとも5つのエントリを含み、少なくとも第1の条件が満たされるとき、前記少なくとも5つのエントリのうちの4つが、VER_IDX、HOR_IDX、VER_IDX - 4、およびVER_ID + 4によって与えられ、前記第1の条件が、前記左の近隣のブロックの前記イントラ予測モードおよび前記上の近隣のブロックの前記イントラ予測モードのどちらも角度モードでないことを含み、VER_IDXが、垂直イントラ予測モードのインデックスを表し、HOR_IDXが、水平イントラ予測モードのインデックスを表す、ステップを含む、方法。
  12. 前記左の近隣のブロックの左上の角が、(xCb-1, yCb+cbHeight-1)にあり、前記上の近隣のブロックの左上の角が、(xCb+cbWidth-1, yCb-1)にあり、xCb、yCb、cbHeight、およびcbWidthが、それぞれ、幅方向の前記現在のブロックの左上の角の位置、高さ方向の前記現在のブロックの前記左上の角の位置、前記現在のブロックの高さ、および前記現在のブロックの幅を表す請求項1から11のいずれか一項に記載の方法。
  13. 請求項1から12のいずれか一項に記載の方法を実行するための処理回路を含む、エンコーダ(20)。
  14. 請求項1から12のいずれか一項に記載の方法を実行するための処理回路を含むデコーダ(30)。
  15. 請求項1から12のいずれか一項に記載の方法を実行するためのプログラムコードを含む、コンピュータプログラム製品。
  16. デコーダまたはエンコーダであって、
    1つ以上のプロセッサと、
    前記プロセッサに結合され、前記プロセッサによって実行するためのプログラミングを記憶する非一時的コンピュータ可読ストレージ媒体であって、前記プログラミングが、前記プロセッサによって実行されるときに、請求項1から12のいずれか一項に記載の方法を実行するように前記エンコーダまたはデコーダを構成する、非一時的コンピュータ可読ストレージ媒体と
    を含む、デコーダまたはエンコーダ。
  17. 画像エンコーダおよび/または画像デコーダにおいて使用するためのデバイス(1100)であって、
    現在のブロックの左の近隣のブロックのイントラ予測モードを取得し、前記現在のブロックの上の近隣のブロックのイントラ予測モードを取得するように構成された予測モードユニット(1101)、
    前記現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するように構成された最確モードユニット(1102)であって、前記MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含み、つまり、
    少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、前記第1の条件が、前記左の近隣のブロックの前記イントラ予測モードおよび前記上の近隣のブロックの前記イントラ予測モードが同じ角度モードであることを含み、angが、前記左の近隣のブロックの前記イントラ予測モードまたは前記上の近隣のブロックの前記イントラ予測モードを表す、最確モードユニット(1102)を含む、デバイス(1100)。
  18. 前記MPMリストが、前記第1の条件および第2の条件が満たされるとき、イントラ予測モードの前記少なくとも5つのエントリを含み、前記第2の条件が、前記現在のブロックが下位区画内(ISP)モードによってコーディングされることを含む請求項17に記載のデバイス。
  19. 画像エンコーダおよび/または画像デコーダにおいて使用するためのデバイス(1100)であって、
    現在のブロックの左の近隣のブロックのイントラ予測モードを取得し、前記現在のブロックの上の近隣のブロックのイントラ予測モードを取得するように構成された予測モードユニット(1101)、
    前記現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するように構成された最確モードユニット(1102)であって、前記MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含み、つまり、
    少なくとも第1の条件が満たされるとき、{ang, 2 + ( ( ang + 61 ) % 64 ), 2 + ( ( ang - 1 ) % 64 ), 2 + ( ( ang + 60 ) % 64 ), 2 + ( ( ang ) % 64 )}を含み、前記第1の条件が、前記左の近隣のブロックの前記イントラ予測モードおよび前記上の近隣のブロックの前記イントラ予測モードの一方のみが角度モードであることを含み、angが、前記角度モードを表す、最確モードユニット(1102)を含む、デバイス(1100)。
  20. 前記MPMリストが、前記第1の条件および第2の条件が満たされるとき、イントラ予測モードの前記少なくとも5つのエントリを含み、前記第2の条件が、前記ブロックがISPモードによってコーディングされることを含む請求項19に記載のデバイス(1100)。
  21. 画像エンコーダおよび/または画像デコーダにおいて使用するためのデバイス(1100)であって、
    現在のブロックの左の近隣のブロックのイントラ予測モードを取得し、前記現在のブロックの上の近隣のブロックのイントラ予測モードを取得するように構成された予測モードユニット(1101)、
    少なくとも第1の条件が満たされるとき、前記現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するように構成された最確モードユニット(1102)であって、前記第1の条件が、前記左の近隣のブロックの前記イントラ予測モードと前記上の近隣のブロックの前記イントラ予測モードとの両方が角度モードであることを含み、前記MPMリストが、以下の通り、イントラ予測モードの少なくとも5つのエントリを含む、つまり、
    a) maxAB - minABが1に等しいとき、{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 ), 2 + ( ( minAB + 60 ) % 64 )}を含むか、または
    b) maxAB - minABが2に等しいとき、{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( maxAB - 1 ) % 64 )}を含むか、または
    c) maxAB - minABが61を超えているとき、{above_mode, left_mode, 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 ), 2 + ( minAB % 64 )}を含むか、または
    d) それ以外の場合、{above_mode, left_mode, 2 + ( ( minAB + 61 ) % 64 ), 2 + ( ( minAB - 1 ) % 64 ), 2 + ( ( maxAB + 61 ) % 64 )}を含み、
    above_modeが、前記上の近隣のブロックの前記イントラ予測モードを表し、left_modeが、前記左の近隣のブロックの前記イントラ予測モードを表し、minABが、前記above_modeと前記left_modeとの間の最小のイントラ予測モードを表し、maxABが、前記above_modeと前記left_modeとの間の最大のイントラ予測モードを表す、最確モードユニット(1102)を含む、デバイス(1100)。
  22. 前記生成されたMPMリストに基づいて前記現在のブロックの前記イントラ予測モードをコーディングするように構成されたコーディングユニットをさらに含む請求項17から21のいずれか一項に記載のデバイス(1100)。
  23. 前記現在のブロックの前記イントラ予測モードを決定し、前記現在のブロックの前記決定されたイントラ予測モードが前記MPMリストに挙げられているとき、前記MPMリストの対応するインデックスによって前記現在のブロックの前記決定されたイントラ予測モードをコーディングするように構成された決定ユニットをさらに含む請求項17から22のいずれか一項に記載のデバイス(1100)。
  24. 前記現在のブロックの前記イントラ予測モードがPLANARモードであるか否かを決定するように構成された平面決定ユニットと、
    前記現在のブロックの前記イントラ予測モードが前記PLANARモードでないと決定されるとき、前記現在のブロックの前記イントラ予測モードが前記PLANARモードでないことをフラグによってシグナリングするように構成されたシグナリングユニットとをさらに含む請求項17から21のいずれか一項に記載のデバイス(1100)。
  25. 前記生成されたMPMリストが、前記少なくとも5つのエントリからなり、前記デバイスが、前記MPMリストを使用して多参照ラインコーディングするように構成された多参照ラインコーディングユニットをさらに含む請求項17から21のいずれか一項に記載のデバイス(1100)。
  26. 前記予測モードユニット(1101)が、イントラ予測された上の近隣のブロックがない場合、前記上の近隣のブロックの前記イントラ予測モードがPLANARであると決定するように構成され、前記予測モードユニット(1101)が、イントラ予測された左の近隣のブロックがない場合、前記左の近隣のブロックの前記イントラ予測モードがPLANARであると決定するように構成される請求項17から25のいずれか一項に記載のデバイス(1100)。
  27. 画像エンコーダおよび/または画像デコーダにおいて使用するためのデバイス(1100)であって、
    現在のブロックの左の近隣のブロックのイントラ予測モードを取得し、前記現在のブロックの上の近隣のブロックのイントラ予測モードを取得するように構成された予測モードユニット(1101)、
    前記現在のブロックのためのイントラ予測モードの最確モード(MPM)リストを構築するように構成された最確モードユニット(1102)であって、前記MPMリストが、イントラ予測の少なくとも5つのエントリを含み、少なくとも第1の条件が満たされるとき、前記少なくとも5つのエントリのうちの4つが、VER_IDX、HOR_IDX、VER_IDX - 4、およびVER_ID + 4によって与えられ、前記第1の条件が、前記左の近隣のブロックの前記イントラ予測モードおよび前記上の近隣のブロックの前記イントラ予測モードのどちらも角度モードでないことを含み、VER_IDXが、垂直イントラ予測モードのインデックスを表し、HOR_IDXが、水平イントラ予測モードのインデックスを表す、最確モードユニット(1102)を含む、デバイス(1100)。
  28. 前記左の近隣のブロックの左上の角が、(xCb-1, yCb+cbHeight-1)にあり、前記上の近隣のブロックの左上の角が、(xCb+cbWidth-1, yCb-1)にあり、xCb、yCb、cbHeight、およびcbWidthが、それぞれ、幅方向の前記現在のブロックの左上の角の位置、高さ方向の前記現在のブロックの前記左上の角の位置、前記現在のブロックの高さ、および前記現在のブロックの幅を表す請求項17から27のいずれか一項に記載のデバイス(1100)。
JP2021549857A 2019-02-25 2020-02-21 イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法 Active JP7267444B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023068786A JP7521050B2 (ja) 2019-02-25 2023-04-19 イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962810323P 2019-02-25 2019-02-25
US62/810,323 2019-02-25
PCT/CN2020/076193 WO2020173399A1 (en) 2019-02-25 2020-02-21 An encoder, a decoder and corresponding methods using intra mode coding for intra prediction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023068786A Division JP7521050B2 (ja) 2019-02-25 2023-04-19 イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法

Publications (2)

Publication Number Publication Date
JP2022521980A true JP2022521980A (ja) 2022-04-13
JP7267444B2 JP7267444B2 (ja) 2023-05-01

Family

ID=72239080

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021549857A Active JP7267444B2 (ja) 2019-02-25 2020-02-21 イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法
JP2023068786A Active JP7521050B2 (ja) 2019-02-25 2023-04-19 イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023068786A Active JP7521050B2 (ja) 2019-02-25 2023-04-19 イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法

Country Status (12)

Country Link
US (1) US20210392373A1 (ja)
EP (2) EP4203471A1 (ja)
JP (2) JP7267444B2 (ja)
KR (1) KR20210113399A (ja)
CN (5) CN113574870B (ja)
AU (2) AU2020227859B2 (ja)
CA (1) CA3128913A1 (ja)
ES (1) ES2946058T3 (ja)
HU (1) HUE061648T2 (ja)
MX (1) MX2021009888A (ja)
PL (1) PL3912342T3 (ja)
WO (1) WO2020173399A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109889827B (zh) * 2019-04-11 2021-01-29 腾讯科技(深圳)有限公司 帧内预测编码方法、装置、电子设备及计算机存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020014089A1 (en) * 2018-07-13 2020-01-16 Tencent America Llc. Method and apparatus for most probable mode derivation
WO2020171681A1 (ko) * 2019-02-19 2020-08-27 주식회사 윌러스표준기술연구소 인트라 예측 기반 비디오 신호 처리 방법 및 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10148953B2 (en) * 2014-11-10 2018-12-04 Samsung Electronics Co., Ltd. System and method for intra prediction in video coding
US10448011B2 (en) * 2016-03-18 2019-10-15 Mediatek Inc. Method and apparatus of intra prediction in image and video processing
CN116506607A (zh) * 2016-08-01 2023-07-28 韩国电子通信研究院 图像编码/解码方法和设备以及存储比特流的记录介质
US11743452B2 (en) * 2018-09-03 2023-08-29 Electronics And Telecommunications Research Institute Video encoding/decoding method and device, and recording medium for storing bitstream
EP3691264B1 (en) * 2018-10-05 2023-03-08 LG Electronics Inc. Intra prediction-based video coding method using mpm list, and device therefor
CN117915085A (zh) * 2018-10-07 2024-04-19 三星电子株式会社 用于编码或解码视频信号的视频信号处理方法和设备
US11178396B2 (en) * 2018-11-14 2021-11-16 Tencent America LLC Constrained intra prediction and unified most probable mode list generation
KR20200083315A (ko) * 2018-12-28 2020-07-08 한국전자통신연구원 화면 내 예측 모드 유도 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020014089A1 (en) * 2018-07-13 2020-01-16 Tencent America Llc. Method and apparatus for most probable mode derivation
WO2020171681A1 (ko) * 2019-02-19 2020-08-27 주식회사 윌러스표준기술연구소 인트라 예측 기반 비디오 신호 처리 방법 및 장치

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BENJAMIN BROSS, JIANLE CHEN, AND SHAN LIU: "Versatile Video Coding (Draft 4)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M1001 (version 3), JPN6022047270, 19 February 2019 (2019-02-19), pages 82 - 88, ISSN: 0004919257 *
F. BOSSEN, AND K. MISRA: "Non-CE3: A unified luma intra mode list construction process", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M0528, JPN6022047271, January 2019 (2019-01-01), pages 1 - 3, ISSN: 0004919258 *
JINHO LEE ET AL.: "Non-CE3: Modification of MPM derivation", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JVET-M0239-v1, JPN6022047272, January 2019 (2019-01-01), pages 1 - 3, ISSN: 0004919259 *

Also Published As

Publication number Publication date
EP3912342A4 (en) 2022-08-03
MX2021009888A (es) 2021-09-14
WO2020173399A1 (en) 2020-09-03
CN114007068A (zh) 2022-02-01
EP4203471A1 (en) 2023-06-28
KR20210113399A (ko) 2021-09-15
JP7267444B2 (ja) 2023-05-01
JP7521050B2 (ja) 2024-07-23
JP2023100701A (ja) 2023-07-19
US20210392373A1 (en) 2021-12-16
AU2020227859A1 (en) 2021-08-26
CN113574870B (zh) 2023-02-10
CN116634174A (zh) 2023-08-22
AU2020227859B2 (en) 2023-11-30
EP3912342A1 (en) 2021-11-24
CN114007068B (zh) 2022-12-13
EP3912342B1 (en) 2023-04-26
CN116647700A (zh) 2023-08-25
CN116320486A (zh) 2023-06-23
AU2024201152A1 (en) 2024-03-14
PL3912342T3 (pl) 2023-07-17
CA3128913A1 (en) 2020-09-03
ES2946058T3 (es) 2023-07-12
CN113574870A (zh) 2021-10-29
HUE061648T2 (hu) 2023-07-28

Similar Documents

Publication Publication Date Title
AU2020246733B2 (en) An encoder, a decoder and corresponding methods for intra prediction
WO2020221203A1 (en) An encoder, a decoder and corresponding methods of intra prediction
JP2022529030A (ja) 行列ベースのイントラ予測と二次変換コア選択を調和させるエンコーダ、デコーダ、および対応する方法
JP7436646B2 (ja) ピクチャヘッダのシグナリングを簡略化するためのエンコーダ、デコーダ及び対応する方法
JP7391991B2 (ja) イントラ平滑化のための方法および装置
JP2022526304A (ja) イントラ予測のための方法および装置
JP2024026231A (ja) イントラ予測モードに関連するエンコーダ、デコーダ、および対応する方法
JP2022504383A (ja) マージモードのためのエンコーダ、デコーダ、および対応する方法
JP7372465B2 (ja) シーケンスパラメータセット内でのサブピクチャのシグナリングのためのエンコーダ、デコーダ、および対応する方法
AU2023254981A1 (en) Encoder, decoder and corresponding methods of most probable mode list construction for blocks with multi-hypothesis prediction
AU2024201152A1 (en) An encoder, a decoder and corresponding methods using intra mode coding for intra prediction
JP2022521925A (ja) ビデオコーディングにおけるクロマイントラ予測のための方法及び装置
CA3169481A1 (en) A decoder and corresponding methods to signal picture partitioning information for slices
JP2022520854A (ja) 幾何学的区分けモードのためのサンプルの距離の計算
JP7414976B2 (ja) エンコーダ、デコーダ、および、対応する方法
WO2020182079A1 (en) An encoder, a decoder and corresponding methods using intra mode coding for intra prediction
JP2024150526A (ja) イントラ予測のためのイントラモードコーディングを使用するエンコーダ、デコーダ、および対応する方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230419

R150 Certificate of patent or registration of utility model

Ref document number: 7267444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150