JP2017513361A - ビデオコーディングにおけるイントラブロック複写のためのサーチ領域決定 - Google Patents

ビデオコーディングにおけるイントラブロック複写のためのサーチ領域決定 Download PDF

Info

Publication number
JP2017513361A
JP2017513361A JP2016558077A JP2016558077A JP2017513361A JP 2017513361 A JP2017513361 A JP 2017513361A JP 2016558077 A JP2016558077 A JP 2016558077A JP 2016558077 A JP2016558077 A JP 2016558077A JP 2017513361 A JP2017513361 A JP 2017513361A
Authority
JP
Japan
Prior art keywords
search area
video
current
block
current block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016558077A
Other languages
English (en)
Other versions
JP2017513361A5 (ja
Inventor
パン、チャオ
ソル・ロジャルス、ジョエル
シェ、チェン−テ
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2017513361A publication Critical patent/JP2017513361A/ja
Publication of JP2017513361A5 publication Critical patent/JP2017513361A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/563Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/57Motion estimation characterised by a search window with variable size or shape
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオコーダは、イントラブロック複写(イントラBC)を使用してビデオデータの現在のブロックをコード化するためのサーチ領域を決定し得る。いくつかの例では、ビデオコーダは、サーチ領域の中心点を決定し、この中心点と、サーチ領域の既定のサイズとに基づいて、現在のブロックに対するサーチ領域を決定する。ビデオコーダは、決定されたサーチ領域に基づいて、現在のブロックを含む現在のピクチャからのビデオデータの再構築ブロックをメモリに記憶する。ビデオコーダは、イントラBCにしたがって、サーチ領域内の再構築ブロックのうちの1つを識別する情報をコード化し、再構築ブロックのうちの識別された1つに基づいて現在のブロックをコード化する。【選択図】図2

Description

関連出願
[0001]本願は、内容全体が参照により本明細書に組み込まれる、2014年3月21日に出願された米国特許仮出願61/968,999号の利益を主張する。
[0002]本開示は、ビデオコーディングに関し、より具体的には、ビデオデータを予測するための技法に関する。
[0003]デジタルビデオ能力は、デジタルテレビ、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、デジタルカメラ、デジタルレコーディングデバイス、デジタルメディアプレーヤ、ビデオゲーミングデバイス、ビデオゲームコンソール、セルラまたは衛星無線電話、ビデオテレビ会議デバイス、および同様のものを含む、幅広い範囲のデバイスに組み込まれ得る。デジタルビデオデバイスは、デジタルビデオ情報をより効率的に送信、受信、および記憶するために、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part 10,AVC(Advanced Video Coding)によって定義されている規格、最近開発された高性能ビデオコーディング(HEVC)規格、およびそのような規格の拡張に記載されている技法のようなビデオ圧縮技法を実装する。
[0004]ビデオ圧縮技法は、ビデオシーケンスに内在する冗長性を低減または除去するために、空間予測および/または時間予測を含む。ブロックベースのビデオコーディングの場合、1つのビデオピクチャまたはスライスは、複数のブロックへと分割され得る。各ブロックは、さらに分割され得る。イントラコード化(I)ピクチャまたはスライス内のブロックは、同一のピクチャまたはスライス内の隣接ブロックにおける参照サンプルに対して空間予測を使用して符号化される。インターコード化(PまたはB)ピクチャまたはスライス内のブロックは、同一のピクチャまたはスライス内の隣接ブロックにおける参照サンプルに対して空間予測を使用するか、または他の参照ピクチャ内の参照サンプルに対して時間予測を使用し得る。空間予測または時間予測は、コード化されることとなるブロックについての予測ブロックに帰着する。残差データは、コード化されることとなるオリジナルブロックと予測ブロックとの間のピクセル差分を表す。
[0005]インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指し示す(point to)動きベクトル、およびコード化ブロックと予測ブロックとの間の差分を示す残差データにしたがって符号化される。イントラコード化ブロックは、イントラコード化モードおよび残差データにしたがって符号化される。さらなる圧縮のために、残差データは、ピクセルドメインから変換ドメインに変換され、残差変換係数をもたらし、これは、次に量子化され得る。
[0006]本開示は、イントラブロック複写(イントラBC)のためのサーチ領域を決定することに関する例となる技法を説明する。イントラBCは、現在のピクチャ内のビデオデータの現在のブロックが、同一のピクチャ内のビデオデータの予測ブロックに基づいて予測されるコーディングモードである。サーチ領域は、現在のピクチャからのビデオデータの、前に再構築されたブロックを含み、ブロックベクトルは、サーチ領域内の予測ブロックを識別する。
[0007]本開示の技法に係るいくつかの例では、ビデオコーダ、例えば、ビデオ符号化器および/またはビデオ復号器は、サーチ領域の中心点を決定し、この中心点と、サーチ領域の既定のサイズ(defined size)および/または形状とに基づいて、現在のブロックに対するサーチ領域を決定する。決定されたサーチ領域の一部が利用不可能な場合、ビデオコーダは、サーチ領域を修正し得る。サーチ領域の修正は、例として、サーチ領域をパッディングすること、シフトすること、または制限することを含み得る。本開示のサーチ領域決定技法は、サーチ領域を定義する際により多くの柔軟性を提供し得、これは、いくつかのケースでは、より広いサーチ領域をサポートし得、より優れたコーディング効率へと繋がり得る。
[0009]一例では、ビデオデータをコード化する方法は、ビデオデータの現在のブロックに対するサーチ領域の中心点を決定することと、この中心点と、サーチ領域の既定のサイズとに基づいて現在のブロックに対するサーチ領域を決定することと、決定されたサーチ領域に基づいて、現在のブロックを含む現在のピクチャからのビデオデータの再構築ブロックをメモリに記憶することとを備える。方法はさらに、サーチ領域内の再構築ブロックのうちの1つを識別する情報をコード化することと、再構築ブロックのうちの識別された1つに基づいて現在のブロックをコード化することとをさらに備える。方法は、ビデオ符号化器またはビデオ復号器によって実行され得る。
[0009]別の例では、デバイスは、ビデオコーダを備え、ビデオコーダは、ビデオデータを記憶するように構成されたメモリと、1つまたは複数のプロセッサとを備える。1つまたは複数のプロセッサは、ビデオデータの現在のブロックに対するサーチ領域の中心点を決定することと、この中心点と、サーチ領域の既定のサイズとに基づいて、現在のブロックに対するサーチ領域を決定することと、決定されたサーチ領域に基づいて、現在のブロックを含む現在のピクチャからのビデオデータの再構築ブロックをメモリに記憶することとを行うように構成される。1つまたは複数のプロセッサはさらに、サーチ領域内の再構築ブロックのうちの1つを識別する情報をコード化することと、再構築ブロックのうちの識別された1つに基づいて現在のブロックをコード化することとを行うように構成される。ビデオコーダは、ビデオ符号化器またはビデオ復号器であり得る。
[0010]別の例では、ビデオデータをコード化するためのデバイスは、ビデオデータの現在のブロックに対するサーチ領域の中心点を決定するための手段と、この中心点と、サーチ領域の既定のサイズとに基づいて、現在のブロックに対するサーチ領域を決定するための手段と、決定されたサーチ領域に基づいて、現在のブロックを含む現在のピクチャからのビデオデータの再構築ブロックを記憶するための手段とを備える。デバイスは、サーチ領域内の再構築ブロックのうちの1つを識別する情報をコード化するための手段と、再構築ブロックのうちの識別された1つに基づいて現在のブロックをコード化するための手段をさらに備える。
[0011]別の例では、コンピュータ可読記憶媒体は命令を記憶しており、これらの命令は、実行されると、ビデオデータの現在のブロックに対するサーチ領域の中心点を決定することと、この中心点と、サーチ領域の既定のサイズとに基づいて、現在のブロックに対するサーチ領域を決定することと、決定されたサーチ領域に基づいて、現在のブロックを含む現在のピクチャからのビデオデータの再構築ブロックをメモリに記憶することとを、ビデオコーダの1つまたは複数のプロセッサに行わせる。命令はさらに、サーチ領域内の再構築ブロックのうちの1つを識別する情報をコード化することと、再構築ブロックのうちの識別された1つに基づいて現在のブロックをコード化することとを1つまたは複数のプロセッサに行わせる。
[0012]本開示の1つまたは複数の態様の詳細は、添付の図面および以下の説明において示される。本開示で説明される技術の他の特徴、目的、および利点は、説明および図面からならびに特許請求の範囲から明らかになるであろう。
図1は、本開示の技法を実装し得る例となるビデオ符号化および復号システムを例示するブロック図である。 図2は、イントラブロック複写(BC)モードにしたがってビデオデータの現在のブロックをコード化するための例となるサーチ領域を例示する概念図である。 図3Aは、サーチ領域の一部が境界を跨ぐときにイントラBCモードのためにサーチ領域をシフトすることを例示する概念図である。 図3Bは、サーチ領域の一部が境界を跨ぐときにイントラBCモードのためにサーチ領域をシフトすることを例示する概念図である。 図4は、波面並列処理(WPP)が現在のピクチャをコード化するために使用されるときのサーチ領域の制限を例示する概念図である。 図5は、本開示の技法を実装し得る例となるビデオ符号化器を例示するブロック図である。 図6は、本開示の技法を実装し得る例となるビデオ復号器を例示するブロック図である。 図7は、本開示の技法に係る、イントラBCモードにしたがってビデオデータの現在のブロックを符号化するためのサーチ領域を決定するための例となる方法を例示するフロー図である。 図8は、本開示の技法に係る、イントラBCモードにしたがってビデオデータの現在のブロックを復号するためのサーチ領域を決定するための例となる方法を例示するフロー図である。
発明の詳細な説明
[0021]ビデオシーケンスは一般に、ピクチャのシーケンスとして表される。典型的に、ブロックベースのコーディング技法が、個々のピクチャの各々をコード化するために使用される。すなわち、各ピクチャは複数のブロックへと分割され、ブロックの各々は、個々にコード化される。本開示では、コード化、コーダ、およびコード化すること、という用語は総称的に、(1)符号化、符号化器、および符号化すること、ならびに(2)復号、復号器、および復号すること、のうちのいずれかまたは両方を指すためにそれぞれ使用され得る。
[0022]ビデオデータのブロックをコード化することは一般に、ブロックについての予測値を形成することと、オリジナルブロックと予測値との間の差分である残差値をコード化することとを伴う。具体的に言えば、ビデオデータのオリジナルブロックは、ピクセル値のマトリックスを含み、予測値は、予測ピクセル値のマトリックスを含む。残差値は、オリジナルブロックのピクセル値と予測ピクセル値との間のピクセルごとの差分に対応する。
[0023]ビデオデータのブロックのための予測技法は一般に、イントラ予測またはインター予測に分類される。イントラ予測、すなわち空間予測は、一般に、同一のピクチャ内の隣接ピクセル値からブロックを予測することを伴う。インター予測、すなわち時間予測は、一般に、異なる、前にコード化されたピクチャの、前にコード化されたブロックからブロックを予測することを伴う。
[0024]リモートデスクトップ、リモートゲーミング、ワイヤレスディスプレイ、自動車インフォテインメント、クラウドコンピューティング、等のような多くのアプリケーション用のビデオコンテンツは通常、自然なコンテンツ、テキスト、および人工グラフィックスの組み合わせを含む。テキストおよび人工グラフィックスの領域では、多くの場合、文字、アイコン、シンボル、または同様のものの繰り返しパターンが存在する。結果として、そのような領域内のブロックは、同一のピクチャまたはフレーム内にはあるが、必ずしも典型的にイントラ予測に使用される隣接ピクセル値である必要はないピクセル値に基づいて効率的に予測され得る。
[0025]イントラブロック複写(イントラBC)は、必ずしも現在のブロックに隣接しているわけではない、同一のピクチャ内のビデオデータの予測ブロックから、ビデオデータの現在のブロックを予測するための技法である。イントラBCは、ビデオコーダが、例えば、ピクチャのテキストおよび人工グラフィックスの領域について、イントラピクチャコーディング効率を改善することを可能にし得る。イントラBCの場合、ビデオデータの予測ブロックは、ビデオデータの現在のブロックと同一のピクチャ内のビデオデータの再構築ブロックである。ビデオデータの予測ブロックは、現在のピクチャ内にあるサーチ領域内にある。現在のブロックに対する、ビデオデータの予測ブロックのロケーションは、二次元ベクトルであり得るブロックベクトルによって識別される。
[0026]本開示の技法に係るいくつかの例では、ビデオコーダ、例えば、ビデオ符号化器および/またはビデオ復号器は、サーチ領域の中心点を決定し、この中心点と、サーチ領域の既定のサイズおよび/または形状とに基づいて現在のブロックに対するサーチ領域を決定する。いくつかの例では、ビデオコーダは、イントラBCを使用して前にコード化されたブロックのブロックベクトルに基づいて、現在のブロックに対するサーチ領域の中心点を決定する。サーチ領域のサイズおよび/または形状は、予め定義され、静的であり得るか、あるいは、ブロック、スライス、ピクチャ、シーケンス、または他のレベルで変えられ、シグナリングされ得る。
[0027]決定されたサーチ領域の一部が利用不可能な場合、ビデオコーダは、サーチ領域を修正し得る。サーチ領域の一部は、それが再構築されていない場合、インター予測された場合、またはスライス境界、タイル境界、またはピクチャ境界のような境界を跨ぐ場合、利用不可能であり得る。いくつかの例では、ビデオコーダは、複写されたまたは固定のピクセル値でサーチ領域をパッディングすることでサーチ領域を修正する。既定のサイズおよび形状を有するサーチ領域の一部が境界を跨ぐいくつかの例では、ビデオコーダは、サーチ領域全体が境界の片側にくるように、例えば、サーチ領域のサイズおよび形状を変更することなく、サーチ領域をシフトする。現在のピクチャの複数の行が波面並列処理(WPP)を使用して並行して処理されるいくつかの例では、ビデオコーダは、決定されたサーチ領域を、WPPにしたがって再構築されることとなる領域にそのサーチ領域を制限することで修正する。本開示のサーチ領域決定技法は、サーチ領域を定義する際により多くの柔軟性を提供し得、これは、いくつかのケースでは、より広いサーチ領域をサポートし得、イントラBCのためのより優れたコーディング効率へと繋がり得る。本開示のサーチ領域決定技法はまた、より広いサーチ領域がイントラBCに使用されるときに発生し得る非効率性を克服し得る。
[0028]ビデオコーディング規格には、ITU−T H.261、ISO/IEC MPEG−1 Visual、ITU−T H.262またはISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 Visual、およびスケーラブルビデオコーディング(SVC)およびマルチビュービデオコーディング(MVC)拡張を含むITU−T H.264(ISO/IEC MPEG−4 AVCとしても知られている)が含まれる。最近、新しいビデオコーディング規格、すなわち高効率ビデオコーディング(HEVC)、の設計が、ITU−Tビデオコーディングエキスパートグループ(VCEG)およびISO/IECモーションピクチャエキスパートグループ(MPEG)からなる、ビデオコーディングに関するジョイントコラボレーションチーム(JCT−VC)によってファイナライズされた。最新のHEVCドラフト規格、以降HEVC WDと呼ばれる、は、2014年3月21日付けで、http://phenix.int-evry.fr/jct/doc_end_user/documents/15_Geneva/wg11/JCTVC-O1003-v2.zipから入手可能である。最終の規格は、2014年10月のITU−T勧告(Recommendation)H.265と呼ばれ得る。
[0029]HEVCのレンジエクステンション(Range Extensions)、すなわちRExt、もまた、JCT−VCによって開発されている。HEVCレンジエクステンションの最近のワーキングドラフト(WD)、以降「RExt WD6」または単に「RExt」と呼ばれる、は、2014年3月21日付けで、http://phenix.int-evry.fr/jct/doc_end_user/documents/16_San%20Jose/wg11/JCTVC-P1005-v1.zipから入手可能である。一般に、HEVCのレンジエクステンションは、例えば、8ビットを超える高いビット幅、および、例えば、4:4:4および4:2:2のような高いクロマサンプリングフォーマットといった、厳密には基本のHEVC規格によってサポートされていないビデオフォーマットをサポートし得る。HEVCのレンジエクステンションは、イントラBCを含む様々なビデオコーディングプロセスを含む。本開示の技法は、HEVCのレンジエクステンションに準じたコーディングに適用可能で有り得、スクリーンコンテンツコーディングにも適用可能で有り得る。しかしながら、本開示の技法が、これらのコンテキストに制限されず、一般に、規格ベースのまたは非規格ベースのビデオコーディングを含むビデオコーディング技法に適用可能であり得ることは理解されるべきである。
[0030]図1は、本開示の技法を実装し得る例となるビデオ符号化および復号システム10を例示するブロック図である。図1に示されるように、システム10は、宛先デバイス14によって後に復号されることとなる符号化ビデオデータを提供するソースデバイス12を含む。具体的には、ソースデバイス12は、ビデオデータを、コンピュータ可読媒体16を介して宛先デバイス14に提供する。ソースデバイス12および宛先デバイス14は、デスクトップコンピュータ、ノートブック(すなわち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンのような電話ハンドセット、いわゆる「スマート」パッド、テレビ、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲーミングコンソール、ビデオストリーミングデバイス、または同様のものを含む、幅広い範囲の任意のデバイスを備え得る。いくつかのケースでは、ソースデバイス12および宛先デバイス14は、ワイヤレス通信の能力があり得る(equipped for)。
[0031]宛先デバイス14は、復号されることとなる符号化ビデオデータを、コンピュータ可読媒体16を介して受信し得る。コンピュータ可読媒体16は、符号化ビデオデータをソースデバイス12から宛先デバイス14に動かすことができる任意のタイプの媒体またはデバイスを備え得る。一例では、コンピュータ可読媒体16は、ソースデバイス12が、符号化ビデオデータを宛先デバイス14にリアルタイムで直接送信することを可能にする通信媒体を備え得る。符号化ビデオデータは、ワイヤレス通信プロトコルのような通信規格にしたがって変調され、宛先デバイス14に送信され得る。通信媒体は、無線周波数(RF)スペクトルまたは1つまたは複数の物理的な伝送回線のような任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、広域ネットワーク、またはインターネットのようなグローバルネットワークといったパケットベースのネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス12から宛先デバイス14への通信を容易にするのに有益であり得る任意の他の機器を含み得る。
[0032]いくつかの例では、符号化データは、ソースデバイス12の出力インターフェース22から記憶デバイス32に出力され得る。同様に、符号化データは、宛先デバイス14の入力インターフェース28によって記憶デバイス32からアクセスされ得る。記憶デバイス32は、ハードドライブ、ブルーレイディスク、DVD、CD−ROM、フラッシュメモリ、揮発性または非揮発性メモリ、あるいは符号化ビデオデータを記憶するための任意の他の適切な(suitable)デジタル記憶媒体のような、任意の様々な分配型のまたはローカルにアクセスされるデータ記憶媒体を含み得る。さらなる例では、記憶デバイス32は、ソースデバイス12によって生成(generate)される符号化ビデオを格納し得るファイルサーバまたは別の中間記憶デバイスに対応し得る。
[0033]宛先デバイス14は、記憶されているビデオデータに、ストリーミングまたはダウンロードを介して記憶デバイス32からアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶することと、符号化ビデオデータを宛先デバイス14に送信することとができる任意のタイプのサーバであり得る。例となるファイルサーバには、ウェブサーバ(例えば、ウェブサイト用)、FTPサーバ、ネットワーク接続記憶(NAS)デバイス、またはローカルディスクドライブが含まれる。宛先デバイス14は、インターネット接続を含む、任意の標準的なデータ接続を通じて符号化ビデオデータにアクセスし得る。これは、ワイヤレスチャネル(例えば、Wi−Fi接続)、ワイヤード接続(例えば、DSL、ケーブルモデム、等)、または、ファイルサーバ上に記憶されている符号化ビデオデータにアクセスするのに適切な両方の組み合わせを含み得る。記憶デバイスからの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはそれらの組み合わせであり得る。
[0034]本開示の技法は、必ずしも、ワイヤレスアプリケーションまたはセッティングに限定されない。本技法は、無線経由テレビブロードキャスト、ケーブルテレビ送信、衛星テレビ送信、動的適応型ストリーミングオーバHTTP(DASH)のようなインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されるデジタルビデオ、データ記憶媒体上に記憶されているデジタルビデオの復号、または他のアプリケーションのような任意の様々なマルチメディアアプリケーションを支持するビデオコーディングに適用され得る。いくつかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、および/またはビデオ電話のようなアプリケーションをサポートするために、単方向または双方向のビデオ送信をサポートするように構成され得る。
[0035]図1の例では、ソースデバイス12は、ビデオソース18、ビデオ符号化器20、出力インターフェース22を含む。宛先デバイス14は、入力インターフェース28、ビデオ復号器30、およびディスプレイデバイス31を含む。本開示にしたがって、ソースデバイス12のビデオ符号化器20および宛先デバイス14のビデオ復号器30は、イントラBCにしたがってビデオブロックを符号化または復号するためのサーチ領域を決定するための技法を適用するように構成され得る。他の例では、ソースデバイスおよび宛先デバイスは、他の構成要素または配列を含み得る。例えば、ソースデバイス12は、外部のカメラのような外部のビデオソース18からビデオデータを受信し得る。同様に、宛先デバイス14は、統合ディスプレイデバイスを含むのではなく、外部のディスプレイデバイスとインターフェースし得る。
[0036]例示される図1のシステム10は、一例にすぎない。イントラBCにしたがってビデオブロックを符号化および復号するためのサーチ領域を決定するための技法は、任意のデジタルビデオ符号化および/または復号デバイスによって実行され得る。一般に本開示の技法はビデオ符号化または復号デバイスによって実行されるが、この技法は、ビデオコーデックによっても実行され得る。さらに、本開示の技法はまた、ビデオプリプロセッサによっても実行され得る。ソースデバイス12および宛先デバイス14は、ソースデバイス12が宛先デバイス14への送信用にコード化ビデオデータを生成するそのようなコーディングデバイスの例にすぎない。いくつかの例では、デバイス12、14は、デバイス12、14の各々がビデオ符号化および復号構成要素を含むように、実質的に対称的な方法で動作し得る。ゆえに、システム10は、例えば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、またはビデオ電話のために、ビデオデバイス12、14間の単方向または双方向のビデオ送信をサポートし得る。
[0037]ソースデバイス12のビデオソース18は、ビデオカメラのようなビデオキャプチャデバイス、前にキャプチャされたビデオを含むビデオアーカイブ、および/またはビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースを含み得る。さらなる代替例として、ビデオソース18は、ソースビデオのようなコンピュータグラフィックスベースのデータ、またはライブビデオ、アーカイブされたビデオ、およびコンピュータ生成されたビデオの組み合わせを生成し得る。いくつかのケースでは、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラ電話またはビデオ電話を形成し得る。しかしながら、上述したように、本開示で説明される技法は、一般に、ビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤードアプリケーションに適用可能であり得る。各々のケースでは、キャプチャされた、事前にキャプチャされた、またはコンピュータ生成されたビデオは、ビデオ符号化器20によって符号化され得る。次に、符号化ビデオ情報は、コンピュータ可読媒体16および/または記憶デバイス32上に出力インターフェース22によって出力され得る。
[0038]宛先デバイス14の入力インターフェース28は、コンピュータ可読媒体16または記憶デバイス32から情報を受信する。コンピュータ可読媒体16または記憶デバイス32の情報は、ブロックおよび他のコード化単位の特徴および/または処理を説明するシンタックス要素を含む、ビデオ符号化器20によって定義されるシンタックス情報を含み得、これは、ビデオ復号器30によっても使用される。ディスプレイデバイス31は、復号ビデオデータをユーザに表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイのような任意の様々なディスプレイデバイスまたは別のタイプのディスプレイデバイスを備え得る。
[0039]ビデオ符号化器20およびビデオ復号器30は各々、1つまたは複数のマイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理回路、ソフトウェア、ハードウェア、ファームウェア、またはそれらの任意の組み合わせのような、任意の様々な適切な符号化器または復号器回路として適宜実装され得る。本技法がソフトウェアで部分的に実装される場合、デバイスは、このソフトウェアのための命令を、適切かつ非一時的なコンピュータ可読媒体に記憶し、これらの命令を、1つまたは複数のプロセッサを使用してハードウェアで実行して、本開示の技法を実行し得る。ビデオ符号化器20およびビデオ復号器30の各々は、1つまたは複数の符号化器または復号器に含まれ得、これらはいずれも、複合(combined)ビデオ符号化器/復号器(コーデック)の一部として統合され得る。ビデオ符号化器20および/またはビデオ復号器30を含むデバイスは、集積回路、マイクロプロセッサ、および/またはセルラ電話のようなワイヤレス通信デバイスを備え得る。
[0040]図1には示されていないが、いくつかの態様では、ビデオ符号化器20およびビデオ復号器30は各々、オーディオ符号化器および復号器と統合され得、共通のデータストリームまたは別個のデータストリームにおいてオーディオおよびビデオの両方の符号化を処理するために、適切な(appropriate)MUX−DEMUXユニットまたは他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)のような他のプロトコルに準拠し得る。
[0041]本開示は一般に、ビデオ復号器30のような別のデバイスに特定の情報を「シグナリングする」ビデオ符号化器20を参照し得る。しかしながら、ビデオ符号化器20が、特定のシンタックス要素をビデオデータの様々な符号化部分と関連付けることで情報をシグナリングし得ることは理解されるべきである。すなわち、ビデオ符号化器20は、特定のシンタックス要素を、ビデオデータの様々な符号化部分のヘッダに記憶することで、データを「シグナリング」し得る。いくつかのケースでは、そのようなシンタックス要素は、ビデオ復号器30によって受け取られる(receive)および復号される前に、符号化および記憶(例えば、記憶デバイス32に記憶)され得る。ゆえに、「シグナリング」という用語は一般に、圧縮ビデオデータを復号するためのシンタックスまたは他のデータの通信が、リアルタイムでまたはほぼリアルタイムで生じる場合であっても、ある長さの時間にわたって生じる場合、例えば、符号化時に媒体にシンタックス要素を記憶する際に生じ得、これは、この媒体に記憶された後はいつでも復号デバイスによって取り出され得る、であっても、そのような通信を指し得る。
[0042]ビデオ符号化器20およびビデオ復号器30は、HEVC規格のようなビデオ圧縮規格にしたがって動作し得る。本開示の技法は、任意の特定のコーディング規格に限定されないが、この技法は、HEVC規格に、特に、RExt拡張またはスクリーンコンテンツコーディングのようなHEVC規格の拡張に関連性があり得る。HEVC規格化の取り組みは、HEVCテストモデル(HM)と呼ばれる、ビデオコーディングデバイスのモデルに基づく。
[0043]一般に、HMのワーキングモデルは、ビデオピクチャが、ルーマサンプルおよびクロマサンプル両方を含むコーディングツリー単位(CTU)のシーケンスに分割され得ることを説明する。ビットストリーム内のシンタックスデータは、ピクセル数の観点でCTUが持ち得る最大サイズ、例えば、64×64、である最大コーディング単位(LCU)サイズを定義し得る。CTUのサイズは、HEVCメインプロファイルでは16×16〜64×64の範囲であり得る(技術的には、8×8のCTUサイズがサポート得るが)。1つのビデオピクチャは、1つまたは複数のスライスへと分割され得、これらは各々、多数の連続したCTUを含み得る。CTUの各々は、ルーマサンプルからなるCTBと、クロマサンプルからなる2つの対応するCTBと、それらCTBのサンプルをコード化するために使用されるシンタックス構造とを備え得る。モノクロマピクチャ、または、3つの別個の色平面を有するピクチャでは、CTUは、単一のCTBと、そのCTBのサンプルをコード化するために使用されるシンタックス構造とを備え得る。
[0044]各CTUは、四分木にしたがってコーディング単位(CU)へと分割され得る。一般に、四分木データ構造は、1つのCUにつき1つのノードを含み、ここで、根ノード(root node)は、CTBに対応する。1つのCUが4つのサブCUへと分割される場合、このCUに対応するノードは、各々がサブCUのうちの1つに対応する4つの葉ノード(leaf node)を含む。CUは、ルーマサンプルからなるコーディングブロックと、ルーマサンプルアレイ、Cbサンプルアレイ、およびCrサンプルアレイを有するピクチャのクロマサンプルからなる2つの対応するコーディングブロックと、それらコーディングブロックのサンプルをコード化するために使用されるシンタックス構造とを備え得る。モノクロマピクチャ、または、3つの別個の色平面を有するピクチャでは、CUは、単一のコーディングブロックと、そのコーディングブロックのサンプルをコード化するために使用されるシンタックス構造とを備え得る。コーディングブロックは、CTBのサンプルからなるNxNのブロックである。各CUは、1つのモードで、例えば、イントラ予測、インター予測、またはイントラBCのうちの1つで、コード化される。
[0045]四分木データ構造の各ノードは、対応するCUにシンタックスデータを提供し得る。例えば、四分木内のノードは、このノードに対応するCUが複数のサブCUへと分割されるかどうかを示す分割フラグ(split flag)を含み得る。CUについてのシンタックス要素は、再帰的に定義され得、CUが複数のサブCUに分割されるかどうかに依存し得る。CUがこれ以上分割されない場合、これは、葉CU(leaf-CU)と呼ばれる。本開示では、葉CUの4つのサブCUは、オリジナルの葉CUの明示的な分割がない場合であっても、葉CUと呼ばれるだろう。例えば、16×16のサイズのCUがこれ以上分割されない場合、この16×16のCUは一度も分割されなかったが、4つの8×8のサブCUも葉CUと呼ばれるだろう。
[0046]一般に、CUは、CUがサイズ区別を有さない点を除き、H.264規格のマクロブロックと同様の目的を有する。例えば、CUは、4つの子ノード(サブCUとも呼ばれる)へと分割され得、次に、各子ノードが親ノードになり、別の4つの子ノードに分割され得る。四分木の葉ノードとも呼ばれる、最終の分割されていない子ノードは、葉CUとも呼ばれるコーディングノードを備える。コード化ビットストリームに関連付けられたシンタックスデータは、最大CU深度と呼ばれる、CTBが分割され得る最大回数を定義し得、コーディングノードの最小サイズも定義し得る。したがって、ビットストリームは、最小コーディング単位(SCU)も定義し得る。本開示は、HEVCのコンテキストにおいて、CTU、CTB、CU、コーディングブロック、予測単位(PU)、または変換単位(TU)のいずれかを指すか、または他の規格(例えば、H.264/AVCにおけるマクロブロックおよびそのサブブロック)のコンテキストにおいて同様のデータ構造を指すために「ブロック」、「ビデオブロック」、「ビデオデータのブロック」という用語または同様の用語を使用する。
[0047]CUは、コーディングノードと、このコーディングノードに関連付けられたTUおよびPUとを含む。CUのサイズは、コーディングノードのサイズに対応し、形状は正方形でなければならない。CUのサイズは、8×8のピクセルから、最大で64×64のピクセル以上であるCTBのサイズまでの範囲であり得る。各CUは、1つまたは複数のPUおよび1つまたは複数のTUを含み得る。各CUは、1つのモードで、例えば、イントラ予測、インター予測、またはイントラBCのうちの1つでコード化される。
[0048]一般に、PUは、対応するCUの全体または一部に対応する空間エリアを表し、このPUについての予測サンプルを取り出すためのデータを含み得る。さらに、PUは、予測に関連するデータを含む。例えば、CUがイントラモード符号化されるとき、1つまたは複数のPUについてのデータは、残差四分木(RQT)に含まれ得、これは、このPUに対応するTUについてのイントラ予測モードを説明するデータを含み得る。別の例として、CUがインターモード符号化されるとき、1つまたは複数のPUは、このPUに関する1つまたは複数の動きベクトルを定義するデータを含み得る。別の例として、CUが、イントラBCにしたがって符号化されるとき、1つまたは複数のPUは、このPUに関する1つまたは複数のブロックベクトルを定義するデータを含み得る。
[0049]予測ブロックは、同一の予測が適用されるサンプルからなる長方形(すなわち、正方形または非正方形)のブロックであり得る。CUのPUは、ルーマサンプルからなる予測ブロックと、ピクチャのクロマサンプルからなる2つの対応する予測ブロックと、それら予測ブロックサンプルを予測するために使用されるシンタックス構造とを備え得る。モノクロマピクチャ、または、3つの別個の色平面を有するピクチャでは、PUは、単一の予測ブロックと、予測ブロックサンプルを予測するために使用されるシンタックス構造とを備え得る。2つのPUが1つのCUに存在するとき、それらは、半分のサイズの長方形であり得るか、または、サイズがCUの1/4または3/4という2つの長方形サイズであり得る。
[0050]TUは、例えば、離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に類似した変換のような変換の残差ビデオデータへの適用に続いて、変換ドメインに係数を含み得る。残差データは、コード化されていないピクチャのピクセルと、PUに対応する予測値との間のピクセル差分に対応し得る。ビデオ符号化器20は、CUについての残差データを含むTUを形成し、次に、これらのTUを変換して、CUについての変換係数を生成(produce)し得る。変換ブロックは、同一の変換が適用されるサンプルからなる長方形のブロックであり得る。CUの変換単位(TU)は、ルーマサンプルからなる変換ブロックと、クロマサンプルからなる2つの対応する変換ブロックと、これら変換ブロックサンプルを変換するために使用されるシンタックス構造とを備え得る。モノクロマピクチャ、または、3つの別個の色平面を有するピクチャでは、TUは、単一の変換ブロックと、変換ブロックサンプルを変換するために使用されるシンタックス構造とを備え得る。
[0051]変換に続いて、ビデオ符号化器20は、変換係数の量子化を実行し得る。量子化は一般に、変換係数を表現するのに使用されるデータ量をできる限り低減するためにその係数が量子化されるプロセスを指し、これは、さらなる圧縮を提供する。量子化プロセスは、これらの係数のうちのいくつかまたはすべてに関連付けられたビット深度を低減し得る。例えば、nビット値は、量子化中にmビット値へと端数が切り捨てられ得、ここで、nはmよりも大きい。
[0052]ビデオ符号化器20は、変換係数をスキャンし得、量子化された変換係数を含む二次元マトリックスから一次元ベクトルを生成する。スキャンは、より高いエネルギ(したがって、より低い周波数)の係数を、アレイの前方に置き、より低いエネルギ(したがって、より高い周波数)の係数をアレイの後方に置くように設計され得る。いくつかの例では、ビデオ符号化器20は、エントロピー符号化されることができる直列ベクトルを生成するために、予め定義されたスキャン順序を利用して、量子化された変換係数をスキャンし得る。別の例では、ビデオ符号化器20は、適応スキャンを実行し得る。
[0053]量子化された変換係数をスキャンして、一次元ベクトルを形成した後、ビデオ符号化器20は、例えば、コンテキスト適応可変長コーディング(CAVLC)、コンテキスト適応二進演算コーディング(CABAC)、シンタックスベースのコンテキスト適応二進演算コーディング(SBAC)、確率間隔区分化エントロピー(PIPE)コーディング、または別のエントロピー符号化方法にしたがって、その一次元のベクトルをエントロピー符号化し得る。ビデオ符号化器20はまた、ビデオデータを復号する際にビデオ復号器30が使用する符号化ビデオデータに関連付けられたシンタックス要素をエントロピー符号化し得る。
[0054]加えて、ビデオ符号化器20は、例えば、残差データを逆量子化および逆変換することならびに残差データを予測データと組み合わせることで、予測ピクチャを再構築し得る。このように、ビデオ符号化器20は、ビデオ復号器30によって実行される再構築プロセスをシミュレートすることができる。したがって、ビデオ符号化器20およびビデオ復号器30の両方は、イントラピクチャ、インターピクチャ、またはイントラBC予測での使用ため、実質的に同一の再構築ビデオデータ、例えば、ピクチャまたはピクチャからのブロックへのアクセスを有するだろう。
[0055]ビデオ符号化器20は、符号化ビデオデータ、ビデオデータの特定のブロックをどのように復号するかをビデオ復号器に知らせるシンタックス要素、またはそれらのグループ化に加えて、符号化ビデオビットストリームを含み得る。ビデオ符号化器20は、例えば、それが参照するビデオ構造のタイプ(例えば、シーケンス、ピクチャ、スライス、ブロック)、および、その値が変化し得る頻度に依存して、様々なシンタックス構造内にシンタックス要素を含め得る。例えば、ビデオ符号化器20は、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、またはピクチャパラメータセット(PPS)のようなパラメータセット内にシンタックス要素を含め得る。他の例では、ビデオ符号化器20は、SEIメッセージおよびスライスヘッダ内にシンタックス要素を含め得る。
[0056]一般に、ビデオ復号器30は、ビデオ符号化器によって実行される符号化プロセスの逆である復号プロセスを実行し得る。例えば、ビデオ復号器30は、量子化されたビデオデータをエントロピー符号化するためにビデオ符号化器によって使用されるエントロピー符号化技法の逆を使用してエントロピー復号を実行し得る。ビデオ復号器30は、ビデオ符号化器20によって用いられる量子化技法の逆を使用してビデオデータをさらに逆量子化し得、ビデオ符号化器20によって使用される変換の逆を実行して、量子化された変換係数を生成し得る。次に、ビデオ復号器30は、結果として得られた残差ブロックを、隣接した参照ビデオデータに(イントラ予測)に、別のピクチャからの予測ブロックに(インター予測)、または同一のピクチャからの予測ブロックに(イントラBC)適用して、最終的な表示用のビデオブロックを生成し得る。ビデオ復号器30は、ビデオ復号器30によって受信されるビットストリーム内の符号化ビデオデータとともに、ビデオ符号化器20によって提供されるシンタックス要素に基づいて、ビデオ符号化器20によって実行される様々なプロセスの逆を実行するように構成、命令、制御、または指示され得る。
[0057]各ピクチャは、1つのルーマ成分と、1つまたは複数のクロマ成分とを備え得る。したがって、本明細書で説明されるブロックベースの符号化および復号動作は、ルーマまたはクロマピクセル値を含むかそれに関連付けられたブロックに等しく適用可能であり得る。
[0058]図2は、イントラBCモードにしたがってビデオデータ40の現在のブロックをコード化するための例となるサーチ領域48を例示する概念図である。図2によって例示されるように、現在のブロック40に対するサーチ領域48は、現在のブロック40と同一のピクチャ42、すなわち、現在のピクチャ42、内にある。サーチ領域48は、現在のピクチャ52内の、予測ブロック46を含む、ビデオデータの複数の前に再構築されたブロックを含む。ビデオコーダ、例えば、ビデオ符号化器20および/またはビデオ復号器30は、イントラBCモードにしたがって現在のブロック40を予測または再構築するために、予測ブロック46を使用し得る。
[0059]ビデオ符号化器20は、現在のピクチャ42内のビデオデータの、前に再構築されたブロックのセットから現在のブロック40を予測するための予測ブロック46を選択する。ビデオ符号化器20は、符号化ビデオビットストリームにも含まれるビデオデータを逆量子化および逆変換し、結果として得られた残差ブロックに、ビデオデータの再構築ブロックを予測するために使用される予測ブロックを加算することで、ビデオデータのブロックを再構築する。ビデオ符号化器20は、以下でより詳細に説明される様々な方法でピクチャ42内のサーチ領域48を定義し得る。ビデオ符号化器20は、サーチ領域48内の様々なビデオブロックに基づいて現在のビデオブロック40を予測およびコード化することの相対的な効率および精度の分析に基づいてサーチ領域48内の複数のビデオブロックの中から現在のビデオブロック40を予測するための予測ブロック46を選択し得る。ビデオコーダ、例えば、ビデオ符号化器20および/またはビデオ復号器30は、予測信号がインループフィルタリングに影響されないように、デブロッキングおよびサンプル適応オフセット(SAO)フィルタリングのようなインループフィルタリングの前に、サーチ領域48内の再構築ブロックをバッファまたはメモリに記憶し得る。インループフィルタリングされていない予測ブロックを使用することは、イントラBCについてのコーディング効率および予測の精度を増加させ得る。
[0060]ビデオ符号化器20は、オフセットベクトル、変位ベクトル、または動きベクトルとも呼ばれ得、かつ、現在のビデオブロック40に対する予測ビデオブロック46のロケーションまたは変位を表すブロックベクトル50を決定する。ビデオ符号化器20は、ブロックベクトル50を識別または定義する1つまたは複数のシンタックス要素を符号化ビデオビットストリーム内に含め得る。ビデオ復号器30は、1つまたは複数のシンタックス要素を復号してブロックベクトル50を決定し、この決定されたベクトルを使用して、現在のビデオブロック40についての予測ビデオブロック46を識別し得る。ビデオ符号化器はまた、符号化ビデオビットストリームにおいて、予測ブロック46と現在のブロック40との間の残差差分を符号化し得る。ビデオ復号器30は、予測ブロック46を識別するための情報とともに、そのビットストリームから残差差分を復号し、その残差を予測ブロックと加算して、現在のブロック40を再構築し得る。
[0061]いくつかの例では、ブロックベクトル50の解像度は、整数ピクセルであり得、例えば、整数ピクセル解像度に制約され得る。そのような例では、ビデオ符号化器20およびビデオ復号器30は、現在のビデオブロック40についての予測を決定するために、予測ビデオブロック46のピクセル値を補間する必要はない。別の例では、ブロックベクトル50の平行変位成分および垂直変位成分のうちの一方または両方の解像度は、サブピクセルであり得、例えば、部分的なピクセル精度を提供する。
[0062]いくつかの例では、コーディング効率をさらに増加させるために、ビデオ符号化器20およびビデオ復号器30は、ブロックベクトル50を予測し得る。いくつかの例では、ビデオコーダは、各CTBの初めに、ブロックベクトル予測子を(−w,0)に設定し、ここで、wは、ビデオデータの現在のブロックの幅である。ビデオコーダは、イントラBCモードでコード化された最後のCUのブロックベクトルとなるようにブロックベクトル予測子を更新する。CUがイントラBCでコード化されない場合、ブロックベクトル予測子は変化しないままである。ブロックベクトル予測の後、ブロックベクトル差分が、HEVC規格で規定されているような動きベクトル差分コーディング方法を使用してコード化される。
[0063]現在のビデオブロック40は、CU、またはCUのPU、および、より具体的には、CUまたはPUに対応するルーマまたはクロマサンプルのブロックであり得る。いくつかの例では、ビデオコーダ、例えば、ビデオ符号化器20および/またはビデオ復号器30は、イントラBCにしたがって予測されるCUを多数のPUへと分割し得る。そのような例では、ビデオコーダは、CUのPUの各々について、それぞれの(例えば、異なる)ブロックベクトル50を決定し得る。例えば、ビデオコーダは、2N×2NのCUを、2つの2N×NのPU、2つのN×2NのPU、または4つのN×NのPUに分割し得る。
[0064]ビデオ符号化器20およびビデオ復号器30は、本開示の技法にしたがって、現在のブロック40に対するサーチ領域48、例えば、サーチ領域のロケーション、サイズ、および形状を決定する。本開示の技法は、ビデオ符号化器20に、サーチ領域48を定義する際により多くの柔軟性を提供し得、これは、特に、ビデオ復号器30において、実装および処理複雑性の増加を制限しつつ、コーディング効率を増加させ得る。いくつかのケースでは、イントラBCのためのサーチ領域が拡大されると、ビデオコーダは、実装および処理複雑性の増加を制限するために、本明細書で説明された制限または他の技法を適用し得る。
[0065]図2に例示されているように、現在のブロック40は、現在のCTU44内にある。例示を簡潔にするために図2には例示されていないが、サーチ領域48は、現在のCTU44の任意の再構築部分を含み得る。サーチ領域48は、追加的にまたは代替的に、1つまたは複数の隣接再構築CTUおよび/または1つまたは複数の隣接CTUの再構築部分を含み得る。
[0066]いくつかの例では、図2に例示されているように、ビデオコーダは、現在のCTU44のW×Hの隣接長方形領域の既定のサイズであり得る、サーチ領域の既定のサイズに基づいてサーチ領域48を決定する。例えば、ビデオコーダは、サーチ領域48が、W×Hの長方形領域の再構築部分を含むと決定し得る。図2に例示されているように、現在のCTU44の左のCTU高さ×WL幅の領域は再構築されているため、ビデオコーダは、その領域をサーチ領域48内に含める。他方で、現在のCTU44の右のCTU高さ×WR幅の領域52は再構築されていないため、ビデオコーダは、その領域52をサーチ領域48内に含めない。ビデオコーダはまた、現在のCTU44よりも上のW×HTの領域内の任意の部分をサーチ領域内に含め得る。
[0067]いくつかの例では、サーチ領域48のサイズおよび/または形状、例えば、図2に例示されているW×Hの長方形領域のような、再構築部分がサーチ領域48である領域のサイズおよび/または形状は、予め定義され、固定であり、ビデオ符号化器20およびビデオ復号器30の両方に知られている。他の例では、ビデオ符号化器20は、領域のサイズおよび/または形状を変え得、ビデオ復号器30がサーチ領域のサイズおよび/または形状を決定することを可能にする情報をビデオ復号器30にシグナリングし得る。このような例では、ビデオ符号化器20は、ブロック単位で、スライス単位で、ピクチャ単位で、またはシーケンス単位で領域のサイズおよび/または形状を変え、このサイズおよび/または形状を、スライスヘッダ、PPS、VPS、SEIメッセージ、またはビデオ利用性情報(VUI)シンタックス構造といった対応シンタックス構造においてシグナリングし得る。いくつかの例では、サーチ領域48のサイズおよび/または形状は、ビデオ符号化器20およびビデオ復号器30の両方に知られている方法で、ピクチャ42内の現在のCTU44のロケーションに基づいて変わり、ビデオコーダは、このCTUロケーションに基づいてサーチ領域48のサイズおよび/または形状を決定する。
[0068]任意のケースでは、サイズは、CTUまたはLCUサイズの観点で、または、ピクセル単位の観点で定義され得る。例えば、W×Hの長方形領域のサイズは、5×LCUWidthのように、CTUまたはLCU幅の倍数として定義され得、長方形領域の高さは、4×LCUHeightのように、CTBまたはLCU高さの倍数として定義され得る。別の例として、W×Hの長方形領域のサイズは、320×256ピクセル単位として定義され得る。いくつかの例では、CTUまたはLCUの高さおよび/または幅の倍数といったサイズは、ビデオ復号器30に、ビデオ符号化器20によってシグナリングされ得る。
[0069]図2に例示されているように、W×Hの長方形領域は、中心点54を含む。いくつかの例では、ビデオコーダ、例えば、ビデオ符号化器20および/またはビデオ復号器30は、中心点54を決定し、この中心点54と、サーチ領域48の既定のサイズおよび/または形状とに基づいて現在のブロック40に対するサーチ領域48を決定する。図2では、現在のCTU44に対して水平に中心が置かれ、現在のCTU44を含むCTUの最も下の(bottom)行に及ぶものと例示されているが、そのような例では、サーチ領域は、中心点54の決定されたロケーションに依存して、両方向に水平に、および/または、現在のCTU44を含むCTUの最も下の行よりも上に垂直にずらされ得る。現在のCTU44または現在のブロック40に対して中心点54のロケーションを変えることは、より正確な予測ブロック46の識別(identification)を可能にし得、これは、コーディング効率を増加させ得る。
[0070]いくつかの例では、ビデオコーダは、前にコード化されたビデオブロックの、前のブロックベクトルに基づいて中心点54を決定する。例えば、ビデオコーダは、現在のCTU44の第1のブロックベクトルを識別し、第1のブロックベクトルが指し示すロケーションに基づいて中心点54を決定し得る。現在のCTU44の第1のブロックベクトルは、イントラBCモードを使用してコード化された現在のCTU44の第1のCUのブロックベクトルであり得る。
[0071]別の例として、ビデオコーダは、隣接ブロックのブロックベクトルを識別し、隣接ブロックのブロックベクトルが指し示すロケーションに基づいて中心点54を決定し得る。隣接ブロックは、現在のブロック40のまたは現在のCTU44の空間的または時間的な隣接ブロックであり得る。いくつかの例では、現在のブロック40に対するサーチ領域48の中心点54を決定するためにどの隣接ブロックが使用されるかは固定であり、ビデオ符号化器20およびビデオ復号器30の両方に知られている。他の例では、ビデオ符号化器20およびビデオ復号器30は、既定のプロセスを使用して候補隣接ブロックのリストを構築し得、ビデオ符号化器20は、ブロックベクトルが中心点54を決定するために使用される候補隣接ブロックを、符号化ビデオビットストリームにおいてビデオ復号器にシグナリングし得る。
[0072]いくつかの例では、ビデオ符号化器20は、中心点54の現在のピクチャ42内のロケーションを、符号化ビデオビットストリーム内でビデオ復号器30にシグナリングし得る。そのような例では、ビデオ符号化器20は、ブロック単位でまたはスライス単位で中心点54のロケーションを変え、スライスヘッダのようなシンタックス構造においてロケーションをシグナリングし得る。ビデオコーダは、例えば、インループフィルタリングされていない再構築ビデオブロックを、決定されたサーチ領域48に基づいてバッファまたは他のメモリ内に記憶する。中心ロケーション54ならびに/あるいはサーチ領域48のサイズおよび/または形状がブロック単位でまたはスライス単位で変えられる例では、ビデオコーダは、あるブロックに対するサーチ領域の一部ではなかったため後続のコード化ブロックのサーチ領域に利用可能なままである再構築ビデオブロックを記憶する必要があり得る。
[0073]いくつかのケースでは、例えば、図2に関連して説明された技法にしたがって決定されるサーチ領域の一部がイントラBC予測に利用可能でない可能性がある。例えば、スライス、タイル、または現在のブロックを含むピクチャの境界を跨ぐサーチ領域の一部は、利用不可能であり得る。別の例では、並行して、ピクチャ内のCTUの複数の行をコード化するためにWPPが使用されるとき、WPPに関するCTU遅延によって処理されていない上方のCTU行内のCTUは、利用不可能であり得る。別の例では、再構築されていないサーチ領域の任意の部分、あるいは、強制の(constrained)イントラ予測が有効なときに、インター予測されるサーチ領域の任意の部分は利用不可能である。
[0074]いくつかの例では、サーチ領域の一部が、現在のビデオブロックのイントラBCコーディングに利用不可能であるとビデオコーダが決定すると、ビデオコーダは、決定されたサーチ領域を修正するために、本明細書で説明された技法のうちの1つまたは複数のいずれかを適用し得る。いくつかの例では、ビデオコーダは、決定されたサーチ領域を利用可能な領域に制限することで、それを修正する。いくつかの例では、ビデオコーダは、サーチ領域の利用不可能な部分をパッディングすることで、決定されたサーチ領域を修正する。
[0075]ビデオコーダは、例えば、インター参照フレームについてHEVC規格で説明されているパッディング技法を使用して、利用不可能な部分をパッディングし得る。いくつかの例では、ビデオコーダは、近接した、例えば、最も近くの、利用可能なサンプルの複写のような、サンプルの水平複写および/または垂直複写によって利用不可能な部分をパッディングし得る。いくつかの例では、ビデオコーダは、例えば、0,1<<(B−1)に準じた固定のサンプル値、例えば、このセットからのサンプルを用いて、利用不可能な部分を充填することで利用不可能な部分をパッディングし得、ここで、Bは、サンプルビット幅である。いくつかの例では、ビデオコーダは、現在のブロックに対するサーチ領域をパッディングするために複写および充填を組み合わせて使用し得、例えば、ビデオコーダは、近接サンプルが複写に利用可能できないとき固定値を用いた充填を使用し得る。
[0076]図3Aおよび3Bは、サーチ領域の一部が境界を跨ぐときにイントラBCのためにサーチ領域をシフトすることを例示する概念図である。いくつかの例では、サーチ領域の一部は、それが、現在のビデオブロックとは、スライス境界、タイル境界、またはピクチャ境界のような境界の異なる側にあるため、利用不可能であり得る。スライス境界およびタイル境界を跨ぐサーチ領域の一部は、異なるスライスまたはタイルの個別処理および/または並列処理により、あるいは、異なるスライスまたはタイルのためのビデオデータが、異なるネットワーク抽象レイヤユニットで送信され得るため、利用不可能であるとみなされ得、これは、例えば、別のスライスまたはタイルのためのデータが失われ得る尤度を増加させる。
[0077]いくつかの例では、例えば、図2に関連して説明された技法にしたがって決定されたサーチ領域の一部が現在のブロックのとは境界の異なる側にあるとビデオコーダが決定すると、ビデオコーダは、サーチ領域全体が現在のブロックと境界の同じ側にくるようにサーチ領域をシフトし得る。いくつかの例では、ビデオコーダは、サーチ領域のサイズおよび/または形状を変更することなしに、例えば、W×Hの長方形領域のサイズおよび/または形状を変更することなしに、サーチ領域をシフトし得る。一般に、サーチ領域をシフトすることは、ピクチャ内のピクセル値をシフトすることを指しているわけではなく、むしろ、シフト後のサーチ領域の新しいロケーションにしたがって、現在のピクチャの再構築ブロックのバッファに異なるブロックを記憶すること、または、バッファから、記憶されている異なるブロックを取り出すことを含み得る。
[0078]図3Aの例は、現在のCTU64内の現在のビデオブロックに対するサーチ領域68を例示する。図2のサーチ領域48と同様に、ビデオコーダは、図2の現在のCTU44に関連して例示された方法で現在のCTU64に対して中心が置かれるW×Hの長方形に基づいてサーチ領域68を決定し得る。しかしながら、図2の現在のCTU44に関連して例示された方法でサーチ領域68の中心を置くことは、サーチ領域68の一部を、スライス境界、タイル境界、またはピクチャ境界であり得る境界60上に配置するだろう。
[0079]いくつかの例では、図3Aで例示されているように、ビデオコーダ、例えば、ビデオ符号化器20および/またはビデオ復号器30は、サーチ領域68全体が境界60の右側に位置するように、サーチ領域68を右へとシフトし得る。図3Aに例示されているように、現在のCTU64の右にあるCTU高さ×(WR+WL)幅の領域72は再構築されていないため、ビデオコーダは、その領域72をサーチ領域68に含めない。ビデオコーダはまた、現在のCTU64よりも上のW×HTの領域を有する任意の部分をサーチ領域に含め得る。
[0080]図3Bの例は、現在のCTU84内の現在のビデオブロックに対するサーチ領域88を例示する。図2のサーチ領域48と同様に、ビデオコーダは、図2の現在のCTU44に関連して例示された方法で現在のCTU84に対して中心が置かれるW×Hの長方形に基づいてサーチ領域88を決定し得る。しかしながら、図2の現在のCTU44に関連して例示された方法でサーチ領域88の中心を置くことは、サーチ領域88の一部を、スライス境界、タイル境界、またはピクチャ境界であり得る境界80上に配置するだろう。そのような例では、図3Bで例示されているように、ビデオコーダ、例えば、ビデオ符号化器20および/またはビデオ復号器30は、サーチ領域88全体が境界80の左側に位置するように、サーチ領域88を左へとシフトし得る。
[0081]上述したように、並行して、ピクチャ内の複数のCTUの行をコード化するためにWPPが使用されるとき、WPPに関するCTU遅延によって処理されていない上方のCTU行内のCTUは、利用不可能であり得る。一般に、WPPが有効であるとき、ビデオコーダは、スライスをCTUの複数の行へと分割し、これらの行を、ラグと並行して垂直方向に行単位で処理する。例えば、ビデオコーダは、第1のまたは最も上の行を処理し、遅延の後にのみ、例えば、第1の行において2つのCTUが処理された後に、第2の行の処理を開始し得る。ビデオコーダは、遅延の後にのみ、例えば、第2の行において2つのCTUが処理された後に、第3の行を処理し得る。各行におけるエントロピーコーダのコンテキストモデルは、2つのCTU処理ラグを用いて先行の行内のものから推測される。WPPは、例えば、スライス内で、一層細かいレベルの粒度で一種の処理平行性を提供する。WPPは、多くの場合、タイルよりも優れた圧縮性能を提供し得、タイルを使用することでもたらされるいくつかの視覚アーチファクトを回避し得る。
[0082]図4は、現在のピクチャ92をコード化するために波面並列処理(WPP)が使用されるときの、現在のCTU94L内の現在のビデオブロックに対するサーチ領域98の制限を例示する概念図である。図4は、行96A−96C(総称して「行96」とする)に配列されたCTU94A−94L(総称して「CTU94」とする)を例示する。行96の各々に例示されているCTU94の数はまた、ピクチャ92のWPPの場合、行96Aから行96Cへと垂直に行から行への(from row-to-row)2つのCTUラグを例示する。WPPが使用されるとき、ラブによりまたは異なる行の異なる処理速度により、予測するのに利用可能な場合もそうでない場合もある、例えば、図2の技法にしたがって長方形領域に基づいて決定される、サーチ領域のエリアが存在し得る。
[0083]いくつかの例では、ビデオコーダ、例えば、ビデオ符号化器20および/またはビデオ復号器30は、現在のピクチャ92をコード化するためにWPPが使用されると決定し、現在のピクチャをコード化するためにWPPが使用されるとの決定に基づいて、現在のCTU94L内の現在のブロックに対するサーチ領域98を制限し得る。例えば、ビデオコーダは、サーチ領域98を、現在のブロックを含む現在のCTU94Lの左にあり、かつ、それの現在の行96CにあるCTU、すなわちCTU94K、に制限し得る。別の例では、ビデオコーダは、サーチ領域98を、現在のCTU94Lに対して、左にあるか、対角上に左上にあるか、または上にあるCTU、例えば、CTU94A、94B、94G、94H、および94Kに制限し得る。別の例として、図4に例示されるように、ビデオコーダは、サーチ領域98を、現在のCTUに対して、左にあるか、対角上に左上にあるか、または上にあるCTU、および、現在の行よりも上の行について、WPPに関するコーディング遅延にしたがい現在の行よりも上の1行につき2つの追加の右側のCTU、すなわち、CTU94A−94K、に制限し得る。
[0084]本開示の技法に係るいくつかの例では、現在のピクチャ内の任意のブロックのイントラBCコーディングのためのサーチ領域は、ピクチャの再構築部分全体であり、これは、実質的に、再構築ピクチャ全体であり得る。サーチ領域がこの方法で拡大されると、ピクチャの再構築ブロックを記憶するのに適したバッファを提供するために追加のメモリが必要とされ得る。イントラBCのための再構築ピクチャ全体を記憶するための追加のメモリは、ビデオ符号化器20、そして特にビデオ復号器30とぃったビデオコーダにとって重荷となり得る。
[0085]ピクチャまたはフレームバッファはすでに、インター予測に使用されている。イントラBCのための追加のフレームバッファを回避するために、ビデオコーダは、中間フレーム(inter frame)に対して1つの参照フレームを記憶するのに使用される1つのバッファを、イントラBC予測に使用される再構築ピクチャを記憶するのに再利用(repurpose)し得る。ビデオコーダは、任意の様々な方法で、このフレームバッファの対立する使用に対処し得る。
[0086]例えば、ビデオコーダは、インター予測も実行されるフレームについてイントラBCを無効にし得る。しかしながら、中間フレームに対してイントラBCを無効にすることは、性能の観点でいくつかの損失をもたらし得る。別の例では、そのような損失を低減するために、ビデオコーダは、インター予測が実行されないフレームについては、イントラBCのためのサーチ領域としてフルフレームを使用し、インター予測が実行されるフレームについては、例えば、図2−4に関連して上述された技法にしたがって決定されるより小さいサーチ領域を使用し得る。他の例では、参照フレームの数が、インター予測が実行される対象のフレームを含むすべてのフレームについて1だけ低減され、ビデオコーダは、インター予測について残りの参照フレームだけを使用し得る。
[0087]図5は、本開示で説明されるイントラBCのためのサーチ領域を決定するための技法を使用し得るビデオ符号化器20の例を例示するブロック図である。ビデオ符号化器20は、例示を目的としてHEVCコーディングのコンテキストにおいて、しかしながら他のコーディング規格に関して本開示を制限することなく、説明されるであろう。さらに、ビデオ符号化器20は、HEVCへのレンジエクステンション(RExt)またはスクリーンコンテンツコーディング(SCC)拡張にしたがって技法を実装するように構成され得る。
[0088]ビデオ符号化器20は、ビデオスライス内のビデオブロックのイントラおよびインターコーディングを実行し得る。イントラコーディングは、所与のビデオピクチャ内のビデオにおける空間冗長性を低減または除去するために、空間予測に依存する。インターコーディングは、ビデオシーケンスの隣接ピクチャ内のビデオにおける時間的な冗長を低減または除去するために、または、他のビューにおけるビデオとの冗長性を低減または除去するために、時間予測またはインタービュー予測に依存する。イントラモード(Iモード)は、いくつかの空間ベースの圧縮モードのうちのいずれかを指し得る。単方向予測(Pモード)または双予測(Bモード)のようなインターモードは、いくつかの時間ベースの圧縮モードのうちのいずれかを指し得る。ビデオ符号化器20はまた、本明細書で説明されたように、同一のピクチャからのビデオデータの他の再構築ブロックに基づいてビデオデータのブロックを予測するために、イントラBCモードへと構成され得る。
[0089]図5の例では、ビデオ符号化器20は、ビデオデータメモリ140、予測処理ユニット142、サーチ領域メモリ164、フィルタ処理ユニット166、参照ピクチャメモリ168、加算器150、変換処理ユニット152、量子化処理ユニット154、およびエントロピー符号化ユニット156を含み得る。次に、予測処理ユニット142は、動き推定ユニット144、動き補償ユニット146、イントラ予測処理ユニット148、およびイントラBC処理ユニット149を含む。ビデオブロック再構築のために、ビデオ符号化器20はまた、逆量子化処理ユニット158、逆変換処理ユニット160、および加算器162を含む。
[0090]様々な例では、ビデオ符号化器20のユニットに、本開示の技法を実行するタスクが課せられ得る。また、いくつかの例では、本開示の技法は、ビデオ符号化器20のユニットのうちの1つまたは複数の間で分割され得る。例えば、イントラBC処理ユニット149は、本開示の技法を、単独でまたはビデオ符号化器20の他のユニット、例えば、動き推定ユニット144、動き補償ユニット146、イントラ予測処理ユニット148、サーチ領域メモリ164、エントロピー符号化ユニット156との組み合わせで実行し得る。
[0091]ビデオデータメモリ140は、ビデオ符号化器20の構成要素によって符号化されることとなるビデオデータを記憶し得る。ビデオデータメモリ140に記憶されるビデオデータは、例えば、ビデオソース18から、取得され得る。サーチ領域メモリ164および参照ピクチャメモリ168は、ビデオ符号化器20によってビデオデータを符号化する際に使用するための参照ビデオデータを記憶するバッファの例である(例えば、イントラまたはインター予測コーディングモードとも呼ばれるイントラまたはインターコーディングモード、およびイントラBCモードにおいて)。ビデオデータメモリ140、サーチ領域メモリ164、および参照ピクチャメモリ168は、同期DRAM(SDRAM)、磁気抵抗性RAM(MRAM)、抵抗性RAM(RRAM(登録商標))を含むダイナミックランダムアクセスメモリ(DRAM)のような任意の様々なメモリデバイスあるいは他のタイプのメモリデバイスによって形成され得る。ビデオデータメモリ140、サーチ領域メモリ164、および参照ピクチャメモリ168は、同一のメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、ビデオデータメモリ140は、ビデオ符号化器20の他の構成要素とともにオンチップであり得るか、それらの構成要素に対してオフチップであり得る。
[0092]符号化プロセス中、ビデオ符号化器20は、コード化されることとなるビデオピクチャまたはスライスを受け取る。ピクチャまたはスライスは、複数のビデオブロックへと分割され得る。図5には例示されていないが、ビデオ符号化器20は、データをビデオブロックへと分割する分割ユニットを含み得る。この分割はまた、ビデオブロック分割に加え、例えば、CTUおよびCUの四分木構造にしたがって、スライス、タイル、または他のより大きな単位へと分割することを含み得る。
[0093]動き推定ユニット144および動き補償ユニット146は、時間圧縮を提供するためにまたはインタービュー圧縮を提供するために、1つまたは複数の参照ピクチャ内の1つまたは複数のブロックに対して、受け取ったビデオブロックのインター予測コーディングを実行する。イントラ予測処理ユニット148は、代替的に、空間圧縮を提供するために、コード化されることとなるブロックと同一のピクチャまたはスライス内の1つまたは複数の隣接ブロックに対して、受け取ったビデオブロックのイントラ予測コーディングを実行し得る。ビデオ符号化器20は、(例えば、ビデオデータの各ブロックについて適切なコーディングモードを選択するために)複数のコーディングパスを実行し得る。
[0094]予測処理ユニット142は、エラー結果に基づいて、例えば、イントラ、インター、またはイントラBCのようなコーディングモードのうちの1つを選択し得、結果として得られたコード化ブロックを、残差ブロックデータを生成するために加算器150に提供し、サーチ領域内でおよび/または参照ピクチャとして使用するための符号化ブロックを再構築するために加算器162に提供し得る。予測処理ユニット142はまた、動きベクトル、イントラモードインジケータ、分割情報、ブロックベクトルのようなシンタックス情報、並びに、任意の他のシンタックス情報を、エントロピー符号化ユニット156に提供する。
[0095]動き推定ユニット144および動き補償ユニット146は、高度に統合され得るが、概念上の目的で別個に例示されている。動き推定ユニット144によって実行される動き推定は、動きベクトルを精製するプロセスであり、それは、ビデオブロックに関する動きを推定する。動きベクトルは、例えば、現在のピクチャ(または、他のコード化単位)内のコード化されている現在のブロックに対する、参照ピクチャ(または、他のコード化単位)内の予測ブロックに関連した、現在のビデオピクチャ内のビデオブロックのPUの変位を示し得る。予測ブロックは、絶対差分値(SAD)の和、正方差(SSD)の和、または他の差分メトリックによって決定され得るピクセル差分の観点で、コード化されることとなるブロックに厳密に一致することが認められるブロックである。いくつかの例では、ビデオ符号化器20は、参照ピクチャメモリ168に記憶されている参照ピクチャのサブ整数ピクセル位置についての値を算出し得る。例えば、ビデオ符号化器20は、参照ピクチャの4分の1ピクセル位置、8分の1ピクセル位置、または他の分数ピクセル位置の値を補間し得る。したがって、動き推定ユニット144は、フルピクセル位置および分数ピクセル位置に対して動きサーチを実行し、分数ピクセル精度で動きベクトルを出力する。
[0096]動き推定ユニット144は、PUの位置を参照ピクチャの予測ブロックの位置と比較することで、インターコード化スライス内のビデオブロックのPUに関する動きベクトルを算出する。参照ピクチャは、第1の参照ピクチャリスト(リスト0)または第2の参照ピクチャリスト(リスト1)から選択され得、これらの各々は、参照ピクチャメモリ168に記憶されている1つまたは複数の参照ピクチャを識別する。動き推定ユニット144は、算出された動きベクトルをエントロピー符号化ユニット156および動き補償ユニット146に送る。
[0097]動き補償ユニット146によって実行される動き補償は、動き推定ユニット144によって決定された動きベクトルに基づいて、予測ブロックをフェッチすることまたは生成することを伴い得る。この場合も、動き推定ユニット144および動き補償ユニット146は、いくつかの例では、機能的に統合され得る。現在のビデオブロックのPUに関する動きベクトルを受け取ると、動き補償ユニット146は、参照ピクチャリストのうちの1つ内の、動きベクトルが指し示す予測ブロックを位置特定(locate)し得る。加算器150は、以下で説明されるように、コード化されている現在のビデオブロックのピクセル値から予測ブロックのピクセル値を差し引くことで残差ビデオブロックを形成し、ピクセル差分値を形成する。一般に、動き推定ユニット144は、ルーマ成分に対して動き推定を実行し、動き補償ユニット146は、クロマ成分とルーマ成分の両方ついて、このルーマ成分に基づいて算出された動きベクトルを使用する。予測処理ユニット142はまた、ビデオスライスのビデオブロックを復号する際にビデオ復号器30によって使用されるためのビデオブロックおよびビデオスライスに関連付けられたシンタックス要素を生成し得る。
[0098]イントラ予測処理ユニット148は、上述したような、動き推定ユニット144および動き補償ユニット146によって実行されるインター予測への代替として、現在のブロックをイントラ予測し得る。具体的には、イントラ予測処理ユニット148は、現在のブロックを符号化するために使用するイントラ予測モードを決定し得る。いくつかの例では、イントラ予測処理ユニット148は、例えば、別個の符号化パスの間に、様々なイントラ予測モードを使用して現在のブロックを符号化し、イントラ予測ユニット148は、使用する適切なイントラ予測モードを、テストされたモードから選択し得る。
[0099]例えば、イントラ予測処理ユニット148は、テストされた様々なイントラ予測モードについてレート歪み分析を使用してレート歪み値を算出し、テストされたモードの中から最良のレート歪み特性を有するイントラ予測モードを選択し得る。レート歪み分析は一般に、符号化ブロックと、この符号化ブロックを生成するために符号化されたオリジナルの符号化されていないブロックとの間の歪み(または、エラー)量に加え、符号化ブロックを生成するために使用されるビットレート(すなわち、ビット数)を決定する。イントラ予測処理ユニット148は、様々な符号化ブロックについて歪みおよびレートから比を算出して、そのブロックについてどのイントラ予測モードが最良のレート歪み値を示すかを決定し得る。
[0100]いくつかの例では、イントラBC処理ユニット149は、動きベクトル、動き推定ユニット144、および動き補償ユニット146に関連して上述されたものに類似した方法で、ブロックベクトルを生成し、予測ブロックをフェッチし得るが、それら予測ブロックは、現在のブロックと同一のピクチャまたはフレーム内にあり、より具体的には、現在のピクチャ内のサーチ領域内にある。インターおよびイントラ予測に類似して、イントラBCの場合、予測ブロックは、SAD、SSD、または他の差分メトリックによって決定され得るピクセル差分の観点で、コード化されることとなるブロックに厳密に一致することが認められるブロックであり得、ブロックの識別は、サブ整数ピクセル位置についての値の算出を含み得る。いくつかの例では、ビデオ符号化器20の予測処理ユニット142は、インター予測、イントラ予測、またはイントラBC予測のどれが所与のブロックを予測するために使用されるかを、例えば、SAD、SSD、または他の差分またはコーディング効率メトリックが反映された各モードの結果に基づいて選択し得る。予測処理ユニット142が、インター予測、イントラ予測、またはイントラBC予測を介して現在のビデオブロックについての予測ブロックを生成した後、ビデオ符号化器20は、例えば、加算器150を介して、現在のビデオブロックから予測ブロックを差し引くことで、残差ビデオブロックを形成する。
[0101]残差ブロック内の残差ビデオデータは、1つまたは複数のTUに含まれ、変換処理ユニット152に適用され得る。変換処理ユニット152は、離散コサイン変換(DCT)のような変換または概念的に類似する変換を残差ブロックに適用して、残差変換係数値を備えるビデオブロックを生成する。変換処理ユニット152は、DCTに概念的に類似する他の変換を実行し得る。ウェーブレット変換、整数変換、サブ帯域変換、または他のタイプの変換もまた使用され得る。いずれのケースでも、変換処理ユニット152は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報をピクセル値ドメインから周波数ドメインのような変換ドメインに変換し得る。
[0102]変換処理ユニット152は、結果として得られた変換係数を量子化処理ユニット154に送り得る。量子化処理ユニット154は、ビットレートをさらに低減するために変換係数を量子化する。量子化プロセスは、いくつかのまたはすべての係数に関連付けられたビット深度を低減し得る。量子化の度合いは、量子化パラメータを調整することで修正され得る。いくつかの例では、次に、量子化処理ユニット154は、量子化された変換係数を含むマトリックスのスキャンを実行し得る。代替的に、エントロピー符号化ユニット156は、スキャンを実行し得る。
[0103]量子化に続いて、エントロピー符号化ユニット156は、量子化された変換係数をエントロピー符号化する。例えば、エントロピー符号化ユニット156は、CAVLC、CABAC、SBAC、PIPEコーディング、または別のエントロピーコーディング技法を実行し得る。コンテキストベースのエントロピーコーディングのケースでは、コンテキストは、隣接ブロックに基づき得る。エントロピー符号化ユニット156によるエントロピーコーディングに続いて、符号化ビットストリームは、別のデバイス(例えば、ビデオ復号器30)に送信され得るか、または後の送信または取り出し用にアーカイブされ得る。
[0104]逆量子化処理ユニット158および逆変換処理ユニット160は、ピクセルドメインにおいて残差ブロックを再構築するために、それぞれ逆量子化および逆変換を適用する。加算器162は、再構築残差ブロックを予測ブロックに加えて、サーチ領域メモリ164および参照ピクチャメモリ168の一方または両方への記憶用の再構築ビデオブロックを生成する。再構築ビデオブロックは、動き推定ユニット144および動き補償ユニット146によって、後続のビデオピクチャ内のブロックをインターコード化するために予測ブロックとして、または、イントラBC処理ユニット149によって、現在のピクチャ内の後続のブロックのイントラBCコーディングのための予測ブロックとして、使用され得る。
[0105]サーチ領域メモリ164は、本明細書で説明された技法のいずれかを使用して、ビデオ符号化器20、例えば、イントラBC処理ユニット149による現在のビデオブロックのイントラBCのためのサーチ領域の決定または定義にしたがって再構築ビデオブロックを記憶する。サーチ領域メモリ164は、フィルタ処理ユニット166によってインループフィルタリングされていない再構築ビデオブロックを記憶し得る。加算器162は、サーチ領域メモリ164と並行して、フィルタ処理ユニット166に再構築ビデオブロックを提供し得る。イントラBC処理ユニット149は、イントラBC予測モードにしたがって現在のビデオブロックを予測するために、現在のビデオブロックと同一のピクチャ内の予測ビデオブロックを求めて、サーチ領域メモリ164内の再構築ビデオブロックをサーチし得る。いくつかの例では、上述したように、実質的にピクチャまたはフレーム全体の再構築ビデオデータをバッファするのに十分なメモリが、参照ピクチャメモリ168からサーチ領域メモリ164に割り振られ得る。
[0106]フィルタ処理ユニット166は、再構築ビデオブロックに対してインループフィルタリングを実行し得る。インループフィルタリングは、再構築ビデオからブロッキネスアーチファクト(blockiness artifact)を取り除くためにブロック境界をフィルタリングするデブロックフィルタリング(deblock filtering)を含み得る。インループフィルタリングはまた、再構築ビデオを改善するためにSAOフィルタリングを含み得る。再構築ブロックは、そのいくつかがインループフィルタリングされ得、参照ピクチャとして参照ピクチャメモリ168に記憶され得る。参照ピクチャは、後続のビデオフレームまたはピクチャ内のブロックをインター予測するために、予測ブロックとして動き推定ユニット144および動き補償ユニット144によって使用され得る再構築ブロックを含み得る。図7では、フィルタ処理ユニット166はサーチ領域メモリ164から情報を受け取ると例示されているが、フィルタ処理ユニット166は、必ずしも、サーチ領域メモリから再構築ビデオブロックを受け取るのではなく、サーチ領域メモリとは異なるブロックまたは他のデータ、例えば、サーチ領域メモリ164に一度も含まれたことがないブロックを受け取り得る。
[0107]このように、ビデオ符号化器20は、本開示で説明された1つまたは複数の例となる技法を実装するように構成され得る。例えば、ビデオ符号化器20、例えば、イントラBC処理ユニット149は、ビデオデータの現在のブロックをイントラブロック複写コード化するためのサーチ領域の中心点を決定することと、この中心点と、サーチ領域の既定のサイズとに基づいて現在のブロックに対するサーチ領域を決定することと、決定されたサーチ領域に基づいて、現在のブロックを含む現在のピクチャからのビデオデータの再構築ブロックをメモリに、例えば、サーチ領域メモリ164内に、記憶することとを行うように構成され得る。ビデオ符号化器20は、ビデオデータを含む符号化ビデオビットストリームにおいて、サーチ領域内の再構築ブロックのうちの1つを識別する情報を符号化することと、イントラブロック複写にしたがって再構築ブロックのうちの識別された1つに基づいて現在のブロックを符号化することとを行うように構成され得る。
[0108]図6は、本開示で説明された技法を実装し得るビデオ復号器30の例を例示するブロック図である。この場合も、ビデオ復号器30は、例示を目的としてHEVCコーディングのコンテキストにおいて、しかしながら他のコーディング規格に関して本開示を制限することなく、説明されるであろう。さらに、ビデオ復号器30は、レンジエクステンション(RExt)またはスクリーンコンテンツコーディング(SCC)拡張にしたがって技法を実装するように構成され得る。
[0109]図6の例では、ビデオ復号器30は、ビデオデータメモリ169、エントロピー復号ユニット170、予測処理ユニット171、逆量子化処理ユニット176、逆変換処理ユニット178、加算器180、サーチ領域メモリ182、フィルタ処理ユニット184、および参照ピクチャメモリ186を含み得る。予測処理ユニット171は、動き補償ユニット172、イントラ予測ユニット174、およびイントラBC処理ユニット175を含む。ビデオ復号器30は、いくつかの例では、一般に、図5のビデオ符号化器20に関連して説明された符号化パスとは逆の復号パスを実行し得る。
[0110]様々な例では、ビデオ復号器30のユニットに、本開示の技法を実行するタスクが課せられ得る。また、いくつかの例では、本開示の技法は、ビデオ復号器30のユニットのうちの1つまたは複数の間で分割され得る。例えば、イントラBC処理ユニット175は、本開示の技法を、単独でまたはビデオ復号器30の他のユニット、例えば、動き補償ユニット172、イントラ予測処理ユニット174、サーチ領域メモリ182、およびエントロピー復号ユニット170のようなとの組み合わせで実行し得る。
[0111]ビデオデータメモリ169は、符号化ビデオビットストリームのような、ビデオ復号器30の構成要素によって復号されることとなるビデオデータを記憶し得る。ビデオデータメモリ169に記憶されるビデオデータは、例えば、記憶デバイス32から、カメラのようなローカルビデオソースから、ビデオデータのワイヤードまたはワイヤレスネットワーク通信を介して、あるいは、物理的なデータ記憶媒体にアクセスすることで取得され得る。ビデオデータメモリ169は、符号化ビデオビットストリームからの符号化ビデオデータを記憶するコード化ピクチャバッファ(CPB)を形成し得る。
[0112]サーチ領域メモリ182および参照ピクチャメモリ186は、ビデオ復号器30によってビデオデータを復号する際に使用するための参照ビデオデータを記憶する復号ピクチャバッファ(DPB)の例である(例えば、イントラコーディング、インターコーディング、またはイントラBCモードにおいて)。ビデオデータメモリ169、サーチ領域メモリ182、および参照ピクチャメモリ186は、同期DRAM(SDRAM)、磁気抵抗性RAM(MRAM)、抵抗性RAM(RRAM)を含むダイナミックランダムアクセスメモリ(DRAM)のような任意の様々なメモリデバイスあるいは他のタイプのメモリデバイスによって形成され得る。ビデオデータメモリ169、サーチ領域メモリ182、および参照ピクチャメモリ186は、同一のメモリデバイスまたは別個のメモリデバイスによって提供され得る。様々な例では、ビデオデータメモリ169は、ビデオ復号器30の他の構成要素とともにオンチップであり得るか、それらの構成要素に対してオフチップであり得る。
[0113]復号プロセス中、ビデオ復号器30は、ビデオ符号化器20からの、符号化ビデオスライスのビデオブロックを表す符号化ビデオビットストリームと関連シンタックス要素とを受け取る。ビデオ復号器30のエントロピー復号ユニット170は、このビットストリームをエントロピー復号して、量子化された係数、動きベクトル、ブロックベクトル、またはイントラ予測モードインジケータ、および、本開示の技法に関連して本明細書で説明された任意の他のシンタックス要素を生成し得る。エントロピー復号ユニット170は、シンタックス要素を予測処理ユニット171に送出する。ビデオ復号器30は、ビデオスライスレベルで、ビデオブロックレベルで、あるいはピクチャまたはシーケンスレベルのようなより高いレベルでシンタックス要素を受け取り得る。
[0114]ビデオスライスが、イントラコード化(I)スライスとしてコード化されると、イントラ予測処理ユニット174は、シグナリングされたイントラ予測モードと、現在のピクチャの、前に復号されたブロックからのデータとに基づいて、現在のビデオスライスのビデオブロックについての予測データを生成し得る。ビデオピクチャがインターコード化(すなわち、BまたはP)スライスとしてコード化されると、動き補償ユニット172は、動きベクトルと、エントロピー復号ユニット170から受け取った他のシンタックス要素とに基づいて、現在のビデオスライスのビデオブロックについての予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから生成され得る。ビデオ復号器30は、参照ピクチャメモリ186内に記憶されている参照ピクチャに基づいて、デフォルト構築技法を使用して、参照ピクチャリスト、リスト0およびリスト1を構築し得る。
[0115]動き補償ユニット172は、動きベクトルおよび他のシンタックス要素を解析することで、現在のビデオスライスのビデオブロックについての予測情報を決定し、この予測情報を使用して、復号されている現在のビデオブロックについての予測ブロックを生成する。例えば、動き補償ユニット172は、ビデオスライスのビデオブロックをコード化するために使用される予測モード(例えば、イントラまたはインター予測)を決定するための、受け取ったシンタックス要素、インター予測スライスタイプ(例えば、BスライスまたはPスライス)、スライスに関する参照ピクチャリストのうちの1つまたは複数についての構築情報、スライスの各インター符号化ビデオブロックに関する動きベクトル、スライスの各インターコード化ビデオブロックについてのインター予測ステータス、あるいは現在のビデオスライス内のビデオブロックを復号するための他の情報のうちのいくつかを使用する。
[0116]動き補償ユニット172はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット172は、ビデオブロックの符号化中にビデオ符号化器20によって使用されるような補間フィルタを使用して、参照ブロックのサブ整数ピクセルについての補間値を算出し得る。このケースでは、動き補償ユニット172は、受け取ったシンタックス要素から、ビデオ符号化器20によって使用された補間フィルタを決定し、この補間フィルタを使用して、予測ブロックを生成し得る。
[0117]ビデオブロックが、本明細書で説明されたイントラBCモードにしたがってコード化されると、予測処理ユニット171のイントラBC処理ユニット175は、ブロックベクトルと、エントロピー復号ユニット170から受け取った他のシンタックス要素とに基づいて、現在のビデオブロックについての予測ブロックを生成する。予測ブロックは、現在のビデオブロックと同一のピクチャ内のサーチ領域内にあり、サーチ領域メモリ182から取り出され得る。イントラBC処理ユニット175は、本明細書で説明された技法のいずれかを使用してサーチ領域を決定し得る。
[0118]逆量子化処理ユニット176は、ビットストリームにおいて提供され、かつ、エントロピー復号ユニット170によって復号された、量子化された変換係数を逆量子化、すなわち、反量子化(de quantize)する。逆量子化プロセスは、ビデオスライス内のビデオブロックごとにビデオ復号器30によって算出された量子化パラメータQPを使用して、量子化の度合いと、同じく、適用されるべき逆量子化の度合いとを決定することを含み得る。
[0119]逆変換処理ユニット178は、ピクセルドメインにおいて残差ブロックを生成するために、例えば、逆DCT、逆整数変換のような逆変換または概念的に類似する逆変換プロセスを変換係数に適用する。ビデオ復号器30は、逆変換処理ユニット178からの残差ブロックに、予測処理ユニット171によって生成された対応する予測ブロックを加算することで、復号ビデオブロックを形成する。加算器180は、この加算演算(summation operation)を実行する1つまたは複数の構成要素を表す。
[0120]サーチ領域メモリ182は、本明細書で説明された技法を使用したイントラBC処理ユニット175による現在のビデオブロックのイントラBCコーディングのためのサーチ領域の決定にしたがって再構築ビデオブロックを記憶する。例えば、イントラBC処理ユニット175は、ビデオデータの現在のブロックに対するサーチ領域の中心点を決定し、その中心点と、サーチ領域の既定のサイズとに基づいて、現在のブロックに対するサーチ領域を決定し得る。サーチ領域メモリ182は、決定されたサーチ領域に基づいて、現在のブロックを含む現在のピクチャからのビデオデータの再構築ブロックを記憶し得る。サーチ領域メモリ182は、フィルタ処理ユニット184によってインループフィルタリングされていない再構築ビデオブロックを記憶し得る。加算器180は、サーチ領域メモリ182と並行して、フィルタ処理ユニット184に再構築ビデオブロックを提供し得る。イントラBC処理ユニット175は、サーチ領域メモリ182から、現在のビデオブロックについての予測ビデオブロックを取り出す。
[0121]フィルタ処理ユニット184は、再構築ビデオブロックに対してインループフィルタリングを実行し得る。インループフィルタリングは、再構築ビデオからブロッキネスアーチファクトを取り除くためにブロック境界をフィルタリングするデブロックフィルタリングを含み得る。インループフィルタリングはまた、再構築ビデオを改善するためにSAOフィルタリングを含み得る。再構築ブロックは、そのいくつかがインループフィルタリングされ得、参照ピクチャとして参照ピクチャメモリ186に記憶され得る。参照ピクチャは、後続のビデオフレームまたはピクチャ内のブロックをインター予測するために、予測ブロックとして動き補償ユニット172によって使用され得る再構築ブロックを含み得る。参照ピクチャメモリ186はまた、図1のディスプレイデバイス31のようなディスプレイデバイス上での後の表示用に、復号ビデオを記憶する。
[0122]このように、ビデオ復号器30は、本開示で説明された1つまたは複数の例となる技法を実装するように構成され得る。例えば、ビデオ復号器30、例えば、イントラBC処理ユニット175は、ビデオデータの現在のブロックをイントラブロック複写コード化するためのサーチ領域の中心点を決定することと、この中心点と、サーチ領域の既定のサイズとに基づいて現在のブロックに対するサーチ領域を決定することと、決定されたサーチ領域に基づいて、現在のブロックを含む現在のピクチャからのビデオデータの再構築ブロックをメモリに、例えば、サーチ領域メモリ182内に、記憶することとを行うように構成され得る。ビデオ復号器30はまた、ビデオデータを含む符号化ビデオビットストリームからの、サーチ領域内の再構築ブロックのうちの1つを識別する情報を復号することと、イントラブロック複写にしたがって再構築ブロックのうちの識別された1つに基づいて現在のブロックを再構築することとを行うように構成され得る。
[0123]図7は、本開示の技法に係る、イントラBCモードにしたがってビデオデータの現在のブロックを符号化するためのサーチ領域を決定するための例となる方法を例示するフロー図である。図7の例となる技法は、イントラBC処理ユニット149を含むビデオ符号化器20のようなビデオ符号化器によって実装され得る。
[0124]図7の例によれば、ビデオ符号化器20は、イントラBCを使用して、現在のビデオブロックを符号化するためのサーチ領域の中心点54を決定する(200)。例えば、ビデオ符号化器20は、イントラBCを使用してコード化された現在のCTUの第1のブロックのような、イントラBCを使用して前にコード化されたビデオブロックのブロックベクトル50、あるいは、現在のCTUまたは現在のビデオブロックの空間的または時間的に隣接したブロックのブロックベクトル50に基づいて中心点を決定し得る。ビデオ符号化器20は、中心点と、サーチ領域の既定のサイズおよび/または形状とに基づいて、現在のブロックに対するサーチ領域を決定する(202)。いくつかの例では、ビデオ符号化器20は、所望のサーチ領域を決定し、所望のサーチ領域の中心点を決定し、ロケーションまたは隣接ブロックといった、ビデオ復号器30が中心点を決定し得る情報を、符号化ビデオビットストリームにおいてシグナリンし得る。
[0125]図7の例によれば、ビデオ符号化器20は、決定されたサーチ領域の一部が、イントラBCにしたがった現在のビデオブロックの予測に使用されるのに利用不可能かどうかを決定する(204)。サーチ領域の一部が利用不可能な場合、ビデオ符号化器20は、例えば、本明細書で説明された技法のいずれかにしたがってサーチ領域を制限、パッディング、またはシフトすることで、サーチ領域を修正し得る(206)。本明細書で説明されたように、制限することは、サーチ領域を、WPPにしたがって処理されたことが確実なブロックに制限することを含み得、シフトすることは、サーチ領域のサイズまたは形状の変更なしに境界の片側にシフトすることを含み得、パッディングすることは、複写された値または固定の値でパッディングすることを含み得る。サーチ領域が修正されようがされまいが、ビデオ符号化器20は、決定された(そして、いくつかのケースでは、修正された)サーチ領域に基づいて、再構築ブロックを、例えば、サーチ領域メモリ164内に記憶する(208)。
[0126]ビデオ符号化器20は、このサーチ領域から予測ブロック46を選択する(210)。ビデオ符号化器20は、予測ブロックに関するブロックベクトル50を決定し、現在のおよび予測ブロックに基づいて残差ブロックを決定する。ビデオ符号化器20は、ビデオ復号器30がブロックベクトルおよび残差ブロックを決定し得る、符号化ビデオビットストリーム内のシンタックス情報と、ビデオ復号器が、サーチ領域、例えば、中心点のロケーション、そのブロックベクトルから中心点が決定され得る隣接ブロック、あるいはサーチ領域のサイズおよび/または形状を決定し得るシンタックス情報のような、本開示の技法に関連する任意の他のシンタックス情報とを符号化する(212)。
[0127]図8は、本開示の技法に係る、イントラBCモードにしたがってビデオデータの現在のブロックを復号するためのサーチ領域を決定するための例となる方法を例示するフロー図である。図8の例となる技法は、イントラBC処理ユニット175を含むビデオ復号器30のようなビデオ復号器によって実装され得る。
[0128]図8の例によれば、ビデオ復号器30は、イントラBCを使用して、現在のビデオブロックを符号化するためのサーチ領域の中心点54を決定する(220)。例えば、ビデオ復号器30は、イントラBCを使用してコード化された現在のCTUの第1のブロックのような、イントラBCを使用して前にコード化されたビデオブロックのブロックベクトル50、あるいは、現在のCTUまたは現在のビデオブロックの空間的または時間的に隣接したブロックのブロックベクトル50に基づいて中心点を決定し得る。ビデオ復号器30は、中心点と、サーチ領域の既定のサイズおよび/または形状とに基づいて、現在のブロックに対するサーチ領域を決定する(222)。いくつかの例では、ビデオ復号器30は、符号化ビデオビットストリームからの、例えば、座標またはベクトルのような、中心点を特定するシンタックス情報、および/または、LCUサイズのような、例えば、ピクセル値または既知の値の倍数をシグナリングする、サーチ領域のサイズまたは形状のようなシンタックス情報を復号し得る。
[0129]図8の例によれば、ビデオ復号器30は、決定されたサーチ領域の一部が、イントラBCにしたがった現在のビデオブロックの予測に使用されるのに利用不可能であるかどうかを決定する(224)。サーチ領域の一部が利用不可能な場合、ビデオ復号器30は、例えば、本明細書で説明された技法のいずれかにしたがってサーチ領域を制限、パッディング、またはシフトすることで、サーチ領域を修正し得る(226)。サーチ領域が修正されようがされまいが、ビデオ復号器30は、決定された(そして、いくつかのケースでは、修正された)サーチ領域に基づいて、再構築ブロックを、例えば、サーチ領域メモリ182内に記憶する(228)。
[0130]ビデオ復号器30は、例えば、現在のビデオブロックに関するブロックベクトル50を識別する、符号化ビデオビットストリーム内のシンタックス情報に基づいて、サーチ領域から予測ブロック46を識別する(230)。ブロックベクトルは、予測ブロックの左上の、右上の、左下の、右下の、または中央のピクセルといった、現在のブロックに対する、現在のピクチャにおける予測ブロックのロケーションを指し示す。ビデオ復号器30はまた、符号化ビデオビットストリームに基づいて残差ブロックを決定し、予測ブロックと残差ブロックとを加算して、現在のビデオブロックを再構築する(232)。
[0131]本開示の特定の態様は、例示の目的で、HEVC規格とその拡張に関連して説明されている。しかしながら、本開示で説明された技法は、他の規格または未だ開発されていない所有権のあるビデオコーディングプロセスを含む他のビデオコーディング処理にも有益であり得る。
[0132]ビデオコーダは、本開示で説明されるように、ビデオ符号化器またはビデオ復号器を指し得る。同様に、ビデオコーディングユニットは、ビデオ符号化器またはビデオ復号器を指し得る。同様に、ビデオコーディングは、適宜、ビデオ符号化またはビデオ復号を指し得る。
[0133]この例に依存して、本明細書で説明された任意の技法のある特定の動作(act)またはイベントが、異なる順序で実行され得ること、追加、融合、またはまとめて省略され得ること(例えば、説明されたすべての動作またはイベントが、本技法の実施に必要とは限らない)は認識されるべきである。さらに、特定の例では、動作またはイベントは、例えば、マルチスレッド処理、割り込み処理、または複数のプロセッサを通じて、順次にというよりはむしろ同時に行われ得る。
[0134]1つまたは複数の例では、説明された機能は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの任意の組み合わせで実装され得る。ソフトウェアで実装される場合、これら機能は、1つまたは複数の命令またはコードとして、コンピュータ可読媒体に記憶されるか、または、コンピュータ可読媒体を通して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、データ記憶媒体のような有形の媒体に対応するコンピュータ可読記憶媒体、または、例えば、通信プロトコルにしたがって、ある場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体を含み得る。
[0135]このように、コンピュータ可読媒体は一般に、(1)非一時的である有形のコンピュータ可読記憶媒体、または(2)信号または搬送波のような通信媒体に対応し得る。データ記憶媒体は、本開示で説明された技法を実装するための命令、コード、および/またはデータ構造を取り出すために、1つまたは複数のコンピュータまたは1つまたは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品は、コンピュータ可読媒体を含み得る。
[0136]限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMまたは他の光学ディスク記憶装置、磁気ディスク記憶装置または他の磁気記憶デバイス、フラッシュメモリ、あるいは、命令またはデータ構造の形式で所望のプログラムコードを記憶するために使用され得、かつ、コンピュータによってアクセスされ得る任意の他の媒体を備え得る。また、任意の接続は厳密にはコンピュータ可読媒体と称され得る。例えば、命令が、ウェブサイト、サーバ、または他のリモートソースから、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、電波、およびマイクロ波のようなワイヤレス技術を使用して送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、電波、およびマイクロ波のようなワイヤレス技術は、媒体の定義に含まれる。
[0137]しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体が、接続、搬送波、信号、または他の一時的な媒体を含まず、代わりとして非一時的な有形の記憶媒体を対象としていることは理解されるべきである。本明細書で使用される場合、ディスク(disk)およびディスク(disc)は、コンパクトディスク(CD)、レーザーディスク(登録商標)、光ディスク、デジタル多用途ディスク(DVD)、フロッピー(登録商標)ディスク、およびブルーレイディスクを含み、ここで、ディスク(disk)は通常磁気的にデータを再生し、ディスク(disc)は、レーザーを用いて光学的にデータを再生する。上記の組み合わせもまた、コンピュータ可読媒体の範囲内に含まれるべきである。
[0138]命令は、1つまたは複数のデジタルシグナルプロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価的な集積回路またはディスクリートな論理回路のような1つまたは複数のプロセッサによって実行され得る。したがって、本明細書で使用される場合、「プロセッサ」という用語は、前述の構造または本明細書で説明された技法の実装に適切な任意の他の構造のいずれかを指し得る。加えて、いくつかの態様では、本明細書で説明された機能は、符号化および復号用に構成された専用のハードウェアおよび/またはソフトウェアモジュール内で提供され得るか、または、組み合わせられたコーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素において十分に実装され得る。
[0139]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(例えば、チップセット)を含む、幅広い種類のデバイスまたは装置において実装され得る。開示された技法を実行するように構成されたデバイスの機能的な態様を強調するために、様々な構成要素、モジュール、またはユニットが本開示では説明されているが、必ずしも、異なるハードウェアユニットによる実現を必要とするわけではない。むしろ、上述したように、様々なユニットは、コーデックハードウェアユニットへと組み合わせられるか、あるいは、適切なソフトウェアおよび/またはファームウェアと併せて、上述された1つまたは複数のプロセッサを含む相互動作するハードウェアユニットの一群によって提供され得る。
[0140]様々な例が説明されている。これらの例および他の例は、以下の特許請求の範囲の範囲内である。
[0140]様々な例が説明されている。これらの例および他の例は、以下の特許請求の範囲の範囲内である。
以下に本願発明の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータをコード化するための方法であって、
前記ビデオデータの現在のブロックに対するサーチ領域の中心点を決定することと、
前記中心点と、前記サーチ領域の既定のサイズとに基づいて、前記現在のブロックに対する前記サーチ領域を決定することと、
前記決定されたサーチ領域に基づいて、前記現在のブロックを含む現在のピクチャからの前記ビデオデータの再構築ブロックをメモリに記憶することと、
前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化することと、
前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化することと
を備える方法。
[C2]
前記サーチ領域の前記中心点を決定することは、
前記現在のブロックを含む現在のコーディングツリー単位(CTU)のブロックベクトルを識別することと、
前記識別されたブロックベクトルに基づいて、前記サーチ領域の前記中心点を決定することと
を備える、C1に記載の方法。
[C3]
前記サーチ領域の前記中心点を決定することは、
前記現在のブロックまたは前記現在のブロックを含む現在のコーディングツリー単位(CTU)のうちの少なくとも1つ、の隣接ブロックのブロックベクトルを識別することと、
前記識別されたブロックベクトルに基づいて、前記サーチ領域の前記中心点を決定することと
を備える、C1に記載の方法。
[C4]
前記現在のピクチャ内の前記中心点のロケーションは、前記ビデオデータを含む符号化ビデオビットストリームにおいてシグナリングされる、
C1に記載の方法。
[C5]
前記サーチ領域の前記サイズは、予め定義されるか、または前記ビデオデータを含む符号化ビデオビットストリームにおいてシグナリングされるかのうちの1つである、
C1に記載の方法。
[C6]
前記サーチ領域の前記サイズは、幅および高さによって定義され、前記幅は、コーディングツリー単位(CTU)幅の倍数として定義され、前記高さは、CTU高さの倍数として定義される、
C5に記載の方法。
[C7]
前記サーチ領域の前記サイズは、ピクセル単位の観点で幅および高さによって定義される、
C5に記載の方法。
[C8]
前記現在のブロックをコード化するのに利用不可能な前記決定されたサーチ領域の一部を識別することと、
前記サーチ領域の前記利用不可能な部分に近似のサンプル値を複写すること、または
固定のサンプル値を使用すること
のうちの少なくとも1つによって、サンプル値を用いて前記サーチ領域の前記利用不可能な部分をパッディングすることと
をさらに備える、C1に記載の方法。
[C9]
固定のサンプル値を使用することは、0,1,<<(B−1)にしたがって前記固定のサンプル値を決定することを備え、ここで、Bは、サンプルビット深度である、
C8に記載の方法。
[C10]
前記決定されたサーチ領域の一部が、前記現在のブロックとは、境界の異なる側にあると決定すること、ここにおいて、前記境界は、スライス境界、タイル境界、または前記現在のピクチャの境界のうちの少なくとも1つを備える、と、
前記サーチ領域の全体が、前記現在のブロックと、前記境界の同じ側にくるように前記決定されたサーチ領域をシフトすることと
をさらに備える、C1に記載の方法。
[C11]
波面並列処理(WPP)が前記現在のピクチャをコード化するために使用されると決定することと、
WPPが前記現在のピクチャをコード化するために使用されるとの前記決定に基づいて、前記現在のブロックに対する前記決定されたサーチ領域を制限することと
をさらに備える、C1に記載の方法。
[C12]
WPPが前記現在のピクチャをコード化するために使用されるとの前記決定に基づいて、前記現在のブロックに対する前記決定されたサーチ領域を制限することは、
前記現在のブロックを含む現在のCTUの左にあり、かつ、それの現在の行にあるコーディングツリー単位(CTU)、
前記現在のCTUに対して、左にあるか、斜め左上にあるか、または上にあるCTU、あるいは
前記現在のCTUに対して、左にあるか、斜め左上にあるか、または上にあるCTU、および、前記現在の行よりも上の行について、WPPに関するエントロピーコーディング遅延にしたがい前記現在の行の上の1行につき2つの追加の右側のCTU
のうちの1つに前記決定されたサーチ領域を制限することを備える、C11に記載の方法。
[C13]
前記サーチ領域の前記中心点を決定することは、前記ビデオデータの前記現在のブロックを復号するための前記サーチ領域の前記中心点を決定することを備え、
前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化することは、前記ビデオデータを含む符号化ビデオビットストリームからの前記情報を復号することを備え、
前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化することは、前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックを再構築することを備える、
C1に記載の方法。
[C14]
前記サーチ領域の前記中心点を決定することは、前記ビデオデータの前記現在のブロックを符号化するための前記サーチ領域の前記中心点を決定することを備え、
前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化することは、前記ビデオデータを含む符号化ビデオビットストリーム内の前記情報を符号化することを備え、
前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化することは、前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックを符号化することを備える、
C1に記載の方法。
[C15]
ビデオコーダを備えるデバイスであって、前記ビデオコーダは、
ビデオデータを記憶するように構成されたメモリと、
1つまたは複数のプロセッサと、
を備え、前記1つまたは複数のプロセッサは、
前記ビデオデータの現在のブロックに対するサーチ領域の中心点を決定することと、
前記中心点と、前記サーチ領域の既定のサイズとに基づいて、前記現在のブロックに対する前記サーチ領域を決定することと、
前記決定されたサーチ領域に基づいて、前記現在のブロックを含む現在のピクチャからの前記ビデオデータの再構築ブロックを前記メモリに記憶することと、
前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化することと、
前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化することと
を行うように構成される、デバイス。
[C16]
前記1つまたは複数のプロセッサは、
前記現在のブロックを含む現在のコーディングツリー単位(CTU)のブロックベクトルを識別することと、
前記識別されたブロックベクトルに基づいて、前記サーチ領域の前記中心点を決定することと
を行うように構成される、C15に記載のデバイス。
[C17]
前記1つまたは複数のプロセッサは、
前記現在のブロックまたは前記現在のブロックを含む現在のコーディングツリー単位(CTU)のうちの少なくとも1つ、の隣接ブロックのブロックベクトルを識別することと、
前記識別されたブロックベクトルに基づいて、前記サーチ領域の前記中心点を決定することと
を行うように構成される、C15に記載のデバイス。
[C18]
前記現在のピクチャ内の前記中心点のロケーションは、前記ビデオデータを含む符号化ビデオビットストリームにおいてシグナリングされる、
C15に記載のデバイス。
[C19]
前記サーチ領域の前記サイズは、予め定義されるか、または前記ビデオデータを含む符号化ビデオビットストリームにおいてシグナリングされるかのうちの1つである、
C15に記載のデバイス。
[C20]
前記サーチ領域の前記サイズは、幅および高さによって定義され、前記幅は、コーディングツリー単位(CTU)幅の倍数として定義され、前記高さは、CTU高さの倍数として定義される、
C19に記載のデバイス。
[C21]
前記サーチ領域の前記サイズは、ピクセル単位の観点で幅および高さによって定義される、
C19に記載のデバイス。
[C22]
前記1つまたは複数のプロセッサは、
前記現在のブロックをコード化するのに利用不可能な前記決定されたサーチ領域の一部を識別することと、
前記サーチ領域の前記利用不可能な部分に近似のサンプル値を複写すること、または
固定のサンプル値を使用すること
のうちの少なくとも1つによって、サンプル値を用いて前記サーチ領域の前記利用不可能な部分をパッディングすることと
を行うように構成される、C15に記載のデバイス。
[C23]
前記1つまたは複数のプロセッサは、0,1,<<(B−1)にしたがって前記固定のサンプル値を決定するように構成され、ここで、Bは、サンプルビット深度である、
C22に記載のデバイス。
[C24]
前記1つまたは複数のプロセッサは、
前記決定されたサーチ領域の一部が、前記現在のブロックとは、境界の異なる側にあると決定すること、ここにおいて、前記境界は、スライス境界、タイル境界、または前記現在のピクチャの境界のうちの少なくとも1つを備える、と、
前記サーチ領域の全体が、前記現在のブロックと、前記境界の同じ側にくるように前記決定されたサーチ領域をシフトすることと
を行うように構成される、C15に記載のデバイス。
[C25]
前記1つまたは複数のプロセッサは、
波面並列処理(WPP)が前記現在のピクチャをコード化するために使用されると決定することと、
WPPが前記現在のピクチャをコード化するために使用されるとの前記決定に基づいて、前記現在のブロックに対する前記決定されたサーチ領域を制限することと
を行うように構成される、C15に記載のデバイス。
[C26]
前記1つまたは複数のプロセッサは、WPPが前記現在のピクチャをコード化するために使用されるとの前記決定に基づいて、
前記現在のブロックを含む現在のCTUの左にあり、かつ、それの現在の行にあるコーディングツリー単位(CTU)、
前記現在のCTUに対して、左にあるか、斜め左上にあるか、または上にあるCTU、あるいは
前記現在のCTUに対して、左にあるか、斜め左上にあるか、または上にあるCTU、および、前記現在の行よりも上の行について、WPPに関するエントロピーコーディング遅延にしたがい前記現在の行の上の1行につき2つの追加の右側のCTU
のうちの1つに前記現在のブロックに対する前記決定されたサーチ領域を制限するように構成される、
C25に記載のデバイス。
[C27]
前記ビデオコーダはビデオ復号器を備え、前記1つまたは複数のプロセッサは、
前記ビデオデータの前記現在のブロックを復号するための前記サーチ領域の前記中心点を決定することと、
前記ビデオデータを含む符号化ビデオビットストリームからの、前記サーチ領域内の前記再構築ブロックのうちの1つを識別する前記情報を復号することと、
前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックを再構築することと
を行うように構成される、C15に記載のデバイス。
[C28]
前記ビデオコーダはビデオ符号化器を備え、前記1つまたは複数のプロセッサは、
前記ビデオデータの前記現在のブロックを符号化するための前記サーチ領域の前記中心点を決定することと、
前記ビデオデータを含む符号化ビデオビットストリーム内の、前記サーチ領域内の前記再構築ブロックのうちの1つを識別する前記情報を符号化することと、
前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックを符号化することと
を行うように構成される、C15に記載のデバイス。
[C29]
ビデオデータをコード化するためのデバイスであって、
前記ビデオデータの現在のブロックに対するサーチ領域の中心点を決定するための手段と、
前記中心点と、前記サーチ領域の既定のサイズとに基づいて、前記現在のブロックに対する前記サーチ領域を決定するための手段と、
前記決定されたサーチ領域に基づいて、前記現在のブロックを含む現在のピクチャからの前記ビデオデータの再構築ブロックを記憶するための手段と、
前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化するための手段と、
前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化するための手段と
を備えるデバイス。
[C30]
命令を記憶しているコンピュータ可読記憶媒体であって、前記命令は、実行されると、ビデオコーダの1つまたは複数のプロセッサに、
前記ビデオデータの現在のブロックに対するサーチ領域の中心点を決定することと、
前記中心点と、前記サーチ領域の既定のサイズとに基づいて、前記現在のブロックに対する前記サーチ領域を決定することと、
前記決定されたサーチ領域に基づいて、前記現在のブロックを含む現在のピクチャからの前記ビデオデータの再構築ブロックをメモリに記憶することと、
前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化することと、
前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化することと
を行わせる、コンピュータ可読記憶媒体。

Claims (30)

  1. ビデオデータをコード化するための方法であって、
    前記ビデオデータの現在のブロックに対するサーチ領域の中心点を決定することと、
    前記中心点と、前記サーチ領域の既定のサイズとに基づいて、前記現在のブロックに対する前記サーチ領域を決定することと、
    前記決定されたサーチ領域に基づいて、前記現在のブロックを含む現在のピクチャからの前記ビデオデータの再構築ブロックをメモリに記憶することと、
    前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化することと、
    前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化することと
    を備える方法。
  2. 前記サーチ領域の前記中心点を決定することは、
    前記現在のブロックを含む現在のコーディングツリー単位(CTU)のブロックベクトルを識別することと、
    前記識別されたブロックベクトルに基づいて、前記サーチ領域の前記中心点を決定することと
    を備える、請求項1に記載の方法。
  3. 前記サーチ領域の前記中心点を決定することは、
    前記現在のブロックまたは前記現在のブロックを含む現在のコーディングツリー単位(CTU)のうちの少なくとも1つ、の隣接ブロックのブロックベクトルを識別することと、
    前記識別されたブロックベクトルに基づいて、前記サーチ領域の前記中心点を決定することと
    を備える、請求項1に記載の方法。
  4. 前記現在のピクチャ内の前記中心点のロケーションは、前記ビデオデータを含む符号化ビデオビットストリームにおいてシグナリングされる、
    請求項1に記載の方法。
  5. 前記サーチ領域の前記サイズは、予め定義されるか、または前記ビデオデータを含む符号化ビデオビットストリームにおいてシグナリングされるかのうちの1つである、
    請求項1に記載の方法。
  6. 前記サーチ領域の前記サイズは、幅および高さによって定義され、前記幅は、コーディングツリー単位(CTU)幅の倍数として定義され、前記高さは、CTU高さの倍数として定義される、
    請求項5に記載の方法。
  7. 前記サーチ領域の前記サイズは、ピクセル単位の観点で幅および高さによって定義される、
    請求項5に記載の方法。
  8. 前記現在のブロックをコード化するのに利用不可能な前記決定されたサーチ領域の一部を識別することと、
    前記サーチ領域の前記利用不可能な部分に近似のサンプル値を複写すること、または
    固定のサンプル値を使用すること
    のうちの少なくとも1つによって、サンプル値を用いて前記サーチ領域の前記利用不可能な部分をパッディングすることと
    をさらに備える、請求項1に記載の方法。
  9. 固定のサンプル値を使用することは、0,1,<<(B−1)にしたがって前記固定のサンプル値を決定することを備え、ここで、Bは、サンプルビット深度である、
    請求項8に記載の方法。
  10. 前記決定されたサーチ領域の一部が、前記現在のブロックとは、境界の異なる側にあると決定すること、ここにおいて、前記境界は、スライス境界、タイル境界、または前記現在のピクチャの境界のうちの少なくとも1つを備える、と、
    前記サーチ領域の全体が、前記現在のブロックと、前記境界の同じ側にくるように前記決定されたサーチ領域をシフトすることと
    をさらに備える、請求項1に記載の方法。
  11. 波面並列処理(WPP)が前記現在のピクチャをコード化するために使用されると決定することと、
    WPPが前記現在のピクチャをコード化するために使用されるとの前記決定に基づいて、前記現在のブロックに対する前記決定されたサーチ領域を制限することと
    をさらに備える、請求項1に記載の方法。
  12. WPPが前記現在のピクチャをコード化するために使用されるとの前記決定に基づいて、前記現在のブロックに対する前記決定されたサーチ領域を制限することは、
    前記現在のブロックを含む現在のCTUの左にあり、かつ、それの現在の行にあるコーディングツリー単位(CTU)、
    前記現在のCTUに対して、左にあるか、斜め左上にあるか、または上にあるCTU、あるいは
    前記現在のCTUに対して、左にあるか、斜め左上にあるか、または上にあるCTU、および、前記現在の行よりも上の行について、WPPに関するエントロピーコーディング遅延にしたがい前記現在の行の上の1行につき2つの追加の右側のCTU
    のうちの1つに前記決定されたサーチ領域を制限することを備える、請求項11に記載の方法。
  13. 前記サーチ領域の前記中心点を決定することは、前記ビデオデータの前記現在のブロックを復号するための前記サーチ領域の前記中心点を決定することを備え、
    前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化することは、前記ビデオデータを含む符号化ビデオビットストリームからの前記情報を復号することを備え、
    前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化することは、前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックを再構築することを備える、
    請求項1に記載の方法。
  14. 前記サーチ領域の前記中心点を決定することは、前記ビデオデータの前記現在のブロックを符号化するための前記サーチ領域の前記中心点を決定することを備え、
    前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化することは、前記ビデオデータを含む符号化ビデオビットストリーム内の前記情報を符号化することを備え、
    前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化することは、前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックを符号化することを備える、
    請求項1に記載の方法。
  15. ビデオコーダを備えるデバイスであって、前記ビデオコーダは、
    ビデオデータを記憶するように構成されたメモリと、
    1つまたは複数のプロセッサと、
    を備え、前記1つまたは複数のプロセッサは、
    前記ビデオデータの現在のブロックに対するサーチ領域の中心点を決定することと、
    前記中心点と、前記サーチ領域の既定のサイズとに基づいて、前記現在のブロックに対する前記サーチ領域を決定することと、
    前記決定されたサーチ領域に基づいて、前記現在のブロックを含む現在のピクチャからの前記ビデオデータの再構築ブロックを前記メモリに記憶することと、
    前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化することと、
    前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化することと
    を行うように構成される、デバイス。
  16. 前記1つまたは複数のプロセッサは、
    前記現在のブロックを含む現在のコーディングツリー単位(CTU)のブロックベクトルを識別することと、
    前記識別されたブロックベクトルに基づいて、前記サーチ領域の前記中心点を決定することと
    を行うように構成される、請求項15に記載のデバイス。
  17. 前記1つまたは複数のプロセッサは、
    前記現在のブロックまたは前記現在のブロックを含む現在のコーディングツリー単位(CTU)のうちの少なくとも1つ、の隣接ブロックのブロックベクトルを識別することと、
    前記識別されたブロックベクトルに基づいて、前記サーチ領域の前記中心点を決定することと
    を行うように構成される、請求項15に記載のデバイス。
  18. 前記現在のピクチャ内の前記中心点のロケーションは、前記ビデオデータを含む符号化ビデオビットストリームにおいてシグナリングされる、
    請求項15に記載のデバイス。
  19. 前記サーチ領域の前記サイズは、予め定義されるか、または前記ビデオデータを含む符号化ビデオビットストリームにおいてシグナリングされるかのうちの1つである、
    請求項15に記載のデバイス。
  20. 前記サーチ領域の前記サイズは、幅および高さによって定義され、前記幅は、コーディングツリー単位(CTU)幅の倍数として定義され、前記高さは、CTU高さの倍数として定義される、
    請求項19に記載のデバイス。
  21. 前記サーチ領域の前記サイズは、ピクセル単位の観点で幅および高さによって定義される、
    請求項19に記載のデバイス。
  22. 前記1つまたは複数のプロセッサは、
    前記現在のブロックをコード化するのに利用不可能な前記決定されたサーチ領域の一部を識別することと、
    前記サーチ領域の前記利用不可能な部分に近似のサンプル値を複写すること、または
    固定のサンプル値を使用すること
    のうちの少なくとも1つによって、サンプル値を用いて前記サーチ領域の前記利用不可能な部分をパッディングすることと
    を行うように構成される、請求項15に記載のデバイス。
  23. 前記1つまたは複数のプロセッサは、0,1,<<(B−1)にしたがって前記固定のサンプル値を決定するように構成され、ここで、Bは、サンプルビット深度である、
    請求項22に記載のデバイス。
  24. 前記1つまたは複数のプロセッサは、
    前記決定されたサーチ領域の一部が、前記現在のブロックとは、境界の異なる側にあると決定すること、ここにおいて、前記境界は、スライス境界、タイル境界、または前記現在のピクチャの境界のうちの少なくとも1つを備える、と、
    前記サーチ領域の全体が、前記現在のブロックと、前記境界の同じ側にくるように前記決定されたサーチ領域をシフトすることと
    を行うように構成される、請求項15に記載のデバイス。
  25. 前記1つまたは複数のプロセッサは、
    波面並列処理(WPP)が前記現在のピクチャをコード化するために使用されると決定することと、
    WPPが前記現在のピクチャをコード化するために使用されるとの前記決定に基づいて、前記現在のブロックに対する前記決定されたサーチ領域を制限することと
    を行うように構成される、請求項15に記載のデバイス。
  26. 前記1つまたは複数のプロセッサは、WPPが前記現在のピクチャをコード化するために使用されるとの前記決定に基づいて、
    前記現在のブロックを含む現在のCTUの左にあり、かつ、それの現在の行にあるコーディングツリー単位(CTU)、
    前記現在のCTUに対して、左にあるか、斜め左上にあるか、または上にあるCTU、あるいは
    前記現在のCTUに対して、左にあるか、斜め左上にあるか、または上にあるCTU、および、前記現在の行よりも上の行について、WPPに関するエントロピーコーディング遅延にしたがい前記現在の行の上の1行につき2つの追加の右側のCTU
    のうちの1つに前記現在のブロックに対する前記決定されたサーチ領域を制限するように構成される、
    請求項25に記載のデバイス。
  27. 前記ビデオコーダはビデオ復号器を備え、前記1つまたは複数のプロセッサは、
    前記ビデオデータの前記現在のブロックを復号するための前記サーチ領域の前記中心点を決定することと、
    前記ビデオデータを含む符号化ビデオビットストリームからの、前記サーチ領域内の前記再構築ブロックのうちの1つを識別する前記情報を復号することと、
    前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックを再構築することと
    を行うように構成される、請求項15に記載のデバイス。
  28. 前記ビデオコーダはビデオ符号化器を備え、前記1つまたは複数のプロセッサは、
    前記ビデオデータの前記現在のブロックを符号化するための前記サーチ領域の前記中心点を決定することと、
    前記ビデオデータを含む符号化ビデオビットストリーム内の、前記サーチ領域内の前記再構築ブロックのうちの1つを識別する前記情報を符号化することと、
    前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックを符号化することと
    を行うように構成される、請求項15に記載のデバイス。
  29. ビデオデータをコード化するためのデバイスであって、
    前記ビデオデータの現在のブロックに対するサーチ領域の中心点を決定するための手段と、
    前記中心点と、前記サーチ領域の既定のサイズとに基づいて、前記現在のブロックに対する前記サーチ領域を決定するための手段と、
    前記決定されたサーチ領域に基づいて、前記現在のブロックを含む現在のピクチャからの前記ビデオデータの再構築ブロックを記憶するための手段と、
    前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化するための手段と、
    前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化するための手段と
    を備えるデバイス。
  30. 命令を記憶しているコンピュータ可読記憶媒体であって、前記命令は、実行されると、ビデオコーダの1つまたは複数のプロセッサに、
    前記ビデオデータの現在のブロックに対するサーチ領域の中心点を決定することと、
    前記中心点と、前記サーチ領域の既定のサイズとに基づいて、前記現在のブロックに対する前記サーチ領域を決定することと、
    前記決定されたサーチ領域に基づいて、前記現在のブロックを含む現在のピクチャからの前記ビデオデータの再構築ブロックをメモリに記憶することと、
    前記サーチ領域内の前記再構築ブロックのうちの1つを識別する情報をコード化することと、
    前記再構築ブロックのうちの前記識別された1つに基づいて前記現在のブロックをコード化することと
    を行わせる、コンピュータ可読記憶媒体。
JP2016558077A 2014-03-21 2015-03-20 ビデオコーディングにおけるイントラブロック複写のためのサーチ領域決定 Pending JP2017513361A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461968999P 2014-03-21 2014-03-21
US61/968,999 2014-03-21
US14/663,161 2015-03-19
US14/663,161 US10477232B2 (en) 2014-03-21 2015-03-19 Search region determination for intra block copy in video coding
PCT/US2015/021789 WO2015143346A1 (en) 2014-03-21 2015-03-20 Search region determination for intra block copy in video coding

Publications (2)

Publication Number Publication Date
JP2017513361A true JP2017513361A (ja) 2017-05-25
JP2017513361A5 JP2017513361A5 (ja) 2018-04-05

Family

ID=54143335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016558077A Pending JP2017513361A (ja) 2014-03-21 2015-03-20 ビデオコーディングにおけるイントラブロック複写のためのサーチ領域決定

Country Status (7)

Country Link
US (1) US10477232B2 (ja)
EP (1) EP3120558A1 (ja)
JP (1) JP2017513361A (ja)
KR (1) KR20160135226A (ja)
CN (1) CN106134196A (ja)
BR (1) BR112016023401A2 (ja)
WO (1) WO2015143346A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7358487B2 (ja) 2019-06-18 2023-10-10 テンセント・アメリカ・エルエルシー イントラ画像ブロック補償のためのデコードされたブロックベクトルの変換

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102275639B1 (ko) 2013-10-14 2021-07-08 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 비디오 및 영상 코딩 및 디코딩에 대한 기본 색상 인덱스 맵 모드의 특징
AU2013403224B2 (en) 2013-10-14 2018-10-18 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
CN105659602B (zh) 2013-10-14 2019-10-08 微软技术许可有限责任公司 用于视频和图像编码的帧内块复制预测模式的编码器侧选项
WO2015100726A1 (en) 2014-01-03 2015-07-09 Microsoft Corporation Block vector prediction in video and image coding/decoding
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
US10432928B2 (en) 2014-03-21 2019-10-01 Qualcomm Incorporated Using a current picture as a reference for video coding
KR102311815B1 (ko) 2014-06-19 2021-10-13 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 통합된 인트라 블록 카피 및 인터 예측 모드
EP4002851A1 (en) * 2014-06-20 2022-05-25 Sony Group Corporation Image encoding device and method, and image decoding device and method
JP2017535145A (ja) * 2014-09-30 2017-11-24 マイクロソフト テクノロジー ライセンシング,エルエルシー 波面並列処理が可能にされた場合のピクチャ内予測モードに関する規則
GB2531003A (en) * 2014-10-06 2016-04-13 Canon Kk Method and apparatus for vector encoding in video coding and decoding
GB2531001B (en) * 2014-10-06 2019-06-05 Canon Kk Method and apparatus for vector encoding in video coding and decoding
US10165292B2 (en) * 2015-02-02 2018-12-25 Mediatek Inc. Method and apparatus for intra block copy mode in video coding system with pipeline architecture
AU2016269362A1 (en) * 2015-05-28 2017-12-07 Hfi Innovation Inc. Method and apparatus for using a current picture as a reference picture
CN107683606B (zh) * 2015-06-05 2021-11-05 索尼公司 图像处理装置和图像处理方法
WO2016197314A1 (en) 2015-06-09 2016-12-15 Microsoft Technology Licensing, Llc Robust encoding/decoding of escape-coded pixels in palette mode
US10368073B2 (en) * 2015-12-07 2019-07-30 Qualcomm Incorporated Multi-region search range for block prediction mode for display stream compression (DSC)
US10645362B2 (en) * 2016-04-11 2020-05-05 Gopro, Inc. Systems, methods and apparatus for compressing video content
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US10506230B2 (en) * 2017-01-04 2019-12-10 Qualcomm Incorporated Modified adaptive loop filter temporal prediction for temporal scalability support
WO2018146151A1 (en) * 2017-02-08 2018-08-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Predictive coding concept using template matching
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
KR102302797B1 (ko) * 2017-04-13 2021-09-16 엘지전자 주식회사 영상의 부호화/복호화 방법 및 이를 위한 장치
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10848761B2 (en) * 2017-06-29 2020-11-24 Qualcomm Incorporated Reducing seam artifacts in 360-degree video
US20190005709A1 (en) * 2017-06-30 2019-01-03 Apple Inc. Techniques for Correction of Visual Artifacts in Multi-View Images
US10754242B2 (en) 2017-06-30 2020-08-25 Apple Inc. Adaptive resolution and projection format in multi-direction video
JP7330184B2 (ja) * 2017-11-29 2023-08-21 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 画像復号化方法、画像符号化方法及びビットストリーム伝送方法
US11349753B2 (en) * 2017-12-28 2022-05-31 Intel Corporation Converged routing for distributed computing systems
US10607484B2 (en) 2017-12-28 2020-03-31 Intel Corporation Privacy-preserving distributed visual data processing
US10778412B2 (en) 2017-12-28 2020-09-15 Intel Corporation Multi-domain convolutional neural network
US10986349B2 (en) * 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
US11012715B2 (en) * 2018-02-08 2021-05-18 Qualcomm Incorporated Intra block copy for video coding
CN110365987B (zh) * 2018-04-09 2022-03-25 杭州海康威视数字技术股份有限公司 一种运动矢量确定方法、装置及其设备
WO2019199045A1 (ko) * 2018-04-11 2019-10-17 엘지전자 주식회사 제한된 참조 영역이 설정된 인터 예측을 이용한 영상 코딩 방법 및 그 장치
CN112602324A (zh) 2018-06-22 2021-04-02 Op方案有限责任公司 块水平几何划分
US11019331B2 (en) * 2018-07-16 2021-05-25 Tencent America LLC Method and apparatus for video coding with prediction information
US10848782B2 (en) * 2018-09-21 2020-11-24 Tencent America LLC Method and apparatus for video coding
US11477476B2 (en) 2018-10-04 2022-10-18 Qualcomm Incorporated Affine restrictions for the worst-case bandwidth reduction in video coding
US20200112717A1 (en) * 2018-10-05 2020-04-09 Qualcomm Incorporated Intra block copy prediction restrictions in video coding
US11509919B2 (en) * 2018-10-17 2022-11-22 Tencent America Reference sample memory size restrictions for intra block copy
US11418796B2 (en) * 2018-10-27 2022-08-16 Qualcomm Incorporated Intra block copy prediction restrictions in video coding
WO2020113156A1 (en) * 2018-11-30 2020-06-04 Tencent America LLC Method and apparatus for video coding
JP7482536B2 (ja) * 2019-01-28 2024-05-14 オーピー ソリューションズ, エルエルシー 適応的な数の領域を伴う幾何学的分割のための形状適応離散コサイン変換
KR20210118154A (ko) 2019-01-28 2021-09-29 오피 솔루션즈, 엘엘씨 적응형 개수의 영역들을 갖는 기하학적 파티셔닝에서의 인터 예측
WO2020156549A1 (en) * 2019-02-02 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Buffer access methods for intra block copy in video coding
EP3915265A4 (en) 2019-03-01 2022-06-22 Beijing Bytedance Network Technology Co., Ltd. DIRECTION-BASED PREDICTION FOR INTRA BLOCK COPY IN VIDEO CODING
CN113508581B (zh) 2019-03-04 2023-11-14 北京字节跳动网络技术有限公司 视频编解码中的帧内块复制中的实施方式方面
CA3131692A1 (en) * 2019-03-09 2020-09-17 Tencent America LLC Determination of block vector for a block in a region of a coding tree block
WO2020197264A1 (ko) * 2019-03-25 2020-10-01 엘지전자 주식회사 비디오 신호를 처리하기 위한 방법 및 장치
JP7338262B2 (ja) * 2019-06-21 2023-09-05 株式会社Jvcケンウッド 画像符号化装置、画像符号化方法及び画像符号化プログラム
BR112022000358A2 (pt) 2019-07-10 2022-05-10 Beijing Bytedance Network Tech Co Ltd Método e aparelho para processar dados de vídeo e meios de armazenamento e gravação não transitórios legíveis por computador
CN115315942A (zh) * 2020-03-17 2022-11-08 字节跳动有限公司 视频编解码中的图片输出标志指示
WO2022114770A1 (ko) * 2020-11-24 2022-06-02 현대자동차주식회사 기하학적 변환에 기반하는 블록 복사를 이용하는 인트라 예측방법과 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0220988A (ja) * 1988-07-08 1990-01-24 Fujitsu Ltd 動画像符号化装置における動ベクトル検出方式

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7120196B2 (en) * 2002-04-29 2006-10-10 Ess Technology, Inc. Intra-prediction using intra-macroblock motion compensation
US7440500B2 (en) * 2003-07-15 2008-10-21 Lsi Logic Corporation Supporting motion vectors outside picture boundaries in motion estimation process
US9357228B2 (en) * 2010-05-27 2016-05-31 The Hong Kong University Of Science And Technology Motion estimation of images
US20120163456A1 (en) 2010-12-22 2012-06-28 Qualcomm Incorporated Using a most probable scanning order to efficiently code scanning order information for a video block in video coding
UA109312C2 (uk) 2011-03-04 2015-08-10 Імпульсно-кодова модуляція з квантуванням при кодуванні відеоінформації
US9693070B2 (en) * 2011-06-24 2017-06-27 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
US9838684B2 (en) * 2012-04-11 2017-12-05 Qualcomm Incorporated Wavefront parallel processing for video coding
US9467692B2 (en) * 2012-08-31 2016-10-11 Qualcomm Incorporated Intra prediction improvements for scalable video coding
US10904551B2 (en) * 2013-04-05 2021-01-26 Texas Instruments Incorporated Video coding using intra block copy
TWI536811B (zh) * 2013-12-27 2016-06-01 財團法人工業技術研究院 影像處理方法與系統、解碼方法、編碼器與解碼器
US20150264383A1 (en) * 2014-03-14 2015-09-17 Mitsubishi Electric Research Laboratories, Inc. Block Copy Modes for Image and Video Coding
US9591325B2 (en) * 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0220988A (ja) * 1988-07-08 1990-01-24 Fujitsu Ltd 動画像符号化装置における動ベクトル検出方式

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
BIN LI, ET AL.: "Description of screen content coding technology proposal by Microsoft", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, JPN6019000768, 19 March 2014 (2014-03-19), pages p. 6 *
C. ROSEWARNE, ET AL.: "HEVC Range extensions test model 6 encoder description", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, JPN6019000765, 23 February 2014 (2014-02-23), pages pp. 9-12, 18-20 *
IL-KOO KIM, ET AL.: "High Efficiency Video Coding (HEVC) Test Model 13 (HM13) Encoder Description", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 15TH, JPN6019000772, 7 January 2014 (2014-01-07), pages pp. 31-32 *
J. CHEN, ET AL.: "Description of screen content coding technology proposal by Qualcomm", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, JPN6019000770, 18 March 2014 (2014-03-18), pages pp. 5-6 *
J. SOLE, ET AL.: "RCE3: Summary report on HEVC Range Extensions Core Experiment 3 (RCE3) on Intra block copy refinemen", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, JPN6019000767, 8 January 2014 (2014-01-08), pages pp. 1-14 *
MADHUKAR BUDAGAVI AND DO-KYOUNG KWON: "Intra motion compensation and entropy codingimprovements for HEVC screen content coding", 2013 PICTURE CODING SYMPOSIUM (PCS), JPN6019000773, 13 February 2014 (2014-02-13), pages pp. 365-368 *
POLIN LAI, ET AL.: "Description of screen content coding technology proposal by MediaTek", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, JPN6019000774, 18 March 2014 (2014-03-18), pages pp. 5-6 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7358487B2 (ja) 2019-06-18 2023-10-10 テンセント・アメリカ・エルエルシー イントラ画像ブロック補償のためのデコードされたブロックベクトルの変換

Also Published As

Publication number Publication date
WO2015143346A1 (en) 2015-09-24
BR112016023401A2 (pt) 2018-06-19
EP3120558A1 (en) 2017-01-25
US20150271517A1 (en) 2015-09-24
US10477232B2 (en) 2019-11-12
KR20160135226A (ko) 2016-11-25
CN106134196A (zh) 2016-11-16

Similar Documents

Publication Publication Date Title
US10477232B2 (en) Search region determination for intra block copy in video coding
TWI782904B (zh) 合併用於視訊寫碼之用於多類別區塊之濾波器
JP6356346B2 (ja) イントラブロックコピーのためのデブロックフィルタ処理
JP6700323B2 (ja) スケーラブルビデオコーディングのための予測モード情報アップサンプリング
US10313682B2 (en) Determining regions when performing intra block copying
JP6297670B2 (ja) ハイレベルシンタックスのみのスケーラブルビデオコーディングのための、レイヤ間参照ピクチャ制限
KR102334126B1 (ko) 인트라 블록 복사를 위한 레지듀얼 예측
JP5932049B2 (ja) ビデオコード化のデブロッキングフィルタリングのための境界強度値の決定
JP6162212B2 (ja) マージシグナリングおよびループフィルタオン/オフシグナリング
US20150071357A1 (en) Partial intra block copying for video coding
KR20190042579A (ko) 크로스-컴포넌트 필터
JP6352314B2 (ja) 異なるアスペクト比を伴う空間スケーラビリティのためのレイヤ間の参照ピクチャの構築
AU2016332326A1 (en) Intra block copy merge mode and padding of unavailable IBC reference region
TWI527440B (zh) 在視訊寫碼中針對高效率視訊寫碼(hevc)延伸之多層之低複雜度支援
JP2019519141A (ja) フィルタ処理情報のシグナリング
TW201711461A (zh) 片級內部區塊複製及其他視訊寫碼改善
JP2017523685A (ja) イントラブロックコピーイングのためのブロックベクトルコーディング
JP2017513343A (ja) イントラブロックコピーのためのハッシュベース符号化器探索
JP2016508011A (ja) ビデオ情報のスケーラブルコード化のための機器及び方法
CN116193131A (zh) 一种用于视频编码的方法、电子装置及存储介质
JP2016518769A (ja) Shvcのための複数のベースレイヤ参照ピクチャ
US9270991B2 (en) Inter-layer reference picture generation for HLS-only scalable video coding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190917