JP2015502093A - イントラモードコーディングにおける参照モード選択 - Google Patents

イントラモードコーディングにおける参照モード選択 Download PDF

Info

Publication number
JP2015502093A
JP2015502093A JP2014542495A JP2014542495A JP2015502093A JP 2015502093 A JP2015502093 A JP 2015502093A JP 2014542495 A JP2014542495 A JP 2014542495A JP 2014542495 A JP2014542495 A JP 2014542495A JP 2015502093 A JP2015502093 A JP 2015502093A
Authority
JP
Japan
Prior art keywords
mode
maximum likelihood
intra prediction
prediction mode
actual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014542495A
Other languages
English (en)
Other versions
JP5866453B2 (ja
Inventor
チェン、ウェイ−ジュン
コバン、ムハンメド・ゼイド
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2015502093A publication Critical patent/JP2015502093A/ja
Application granted granted Critical
Publication of JP5866453B2 publication Critical patent/JP5866453B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオコーダは、現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定し、第1および第2の最尤イントラ予測モードに基づいて、現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を決定できる。実際のイントラ予測モードの推定値は、第1の最尤モードおよび第2の最尤モードの両方が、異なる角度的予測モードであることに応答して、実際のイントラ予測モードの推定値として、第1の最尤モードおよび第2の最尤モードの一方を選択することによって決定され得る。差情報に加えて、実際のイントラ予測モードの推定値は、現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードを識別するために使用され得る。【選択図】図6

Description

関連出願
本出願は、各々の全内容が参照により本明細書に組み込まれる、2011年11月18日に出願された米国仮出願第61/561,803号、および2011年11月18日に出願された米国仮出願第61/561,819号の恩恵を主張する。
本開示は、ビデオコーディングに関し、より詳細には、コード化ビデオデータについてのイントラ予測モードのシグナリングに関する。
デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラー電話または衛星無線電話、ビデオ遠隔会議デバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、デジタルビデオ情報をより効率的に送信および受信するために、MPEG−2、MPEG−4、ITU−T H.263またはITU−T H.264/MPEG−4,Part10,Advanced Video Coding(AVC)によって定義された規格、およびそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実装する。
ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために空間的予測および/または時間的予測を実行する。ブロックベースのビデオコーディングの場合、ビデオフレームまたはスライスはビデオブロックに区分され得る。各ビデオブロックはさらに区分され得る。イントラコード化(I)フレームまたはスライス中のビデオブロックは、隣接ビデオブロックに対する空間的予測を使用して符号化される。インターコード化(PまたはB)フレームまたはスライス中のビデオブロックは、同じフレームまたはスライス中の隣接マクロブロックまたはコーディングユニットに関する空間的予測、あるいは他の参照フレームに関する時間的予測を使用し得る。
一般に、本開示は、コード化ビデオデータに対するコーディング特性の、シグナリングおよびシグナリングを処理するための技法を説明し、より詳細には、本開示は、ビデオデータの符号化ビットストリーム内でイントラ予測モードの、シグナリングおよびシグナリングを処理するための技法を説明する。ビデオコーディングでは、現在コード化されている(符号化されているか復号されているかのいずれか)ビデオデータのブロックは、前にコード化されたピクチャのビデオブロックから予測され得る(すなわち、インター予測(inter prediction))か、または同じピクチャについてすでにコード化されているビデオブロックから予測され得る(すなわち、イントラ予測(intra prediction))。ビデオブロックがイントラ予測であるとき、イントラ予測のモードは、時々、実際のイントラ予測モードが明白にシグナリングされるのとは対照的に、推定された実際のイントラ予測モードと、実際のイントラ予測モードとの間の差としてシグナリングされる。実際のイントラ予測モードが、通常、推定されるイントラ予測モードに近いものと仮定すると、可変長コーディング(VLC)技法を使用して、実際のイントラ予測モードは比較的少ないビットを使用してシグナリングされ得る。いくつかの例では、本開示の技法は、いくつかのコーディングシナリオにおいて、実際のイントラ予測モードにより近い推定されたイントラ予測モードを決定することによって、ビデオデータのブロックをイントラコーディングするために使用されるイントラ予測モードのシグナリングのための効率を改善し得る。
一例では、ビデオデータをコーディングするための方法は、現在のビデオブロックに対して、第1の最尤イントラ予測モード(first most probable intra prediction)と第2の最尤イントラ予測モード(second most probable intra prediction mode)とを決定することと、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとに基づいて、現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めることとを含む。実際のイントラ予測モードの推定値を決定することは、第1の最尤モードが角度的イントラ予測モード(angular intra prediction mode)であることおよび第2の最尤モードが非角度的イントラ予測モード(non-angular intra prediction mode)であることに応答して、実際のイントラ予測モードの推定値として第1の最尤モードを選択すること、ならびに第1の最尤モードと第2の最尤モードの両方が異なる角度的予測モードであることに応答して、実際のイントラ予測の推定値として第1の最尤モードおよび第2の最尤モードの一方を選択することを含む。
別の例では、ビデオデータをコーディングするためのデバイスは、現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定し、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとに基づいて、現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めるように構成されたビデオコーダを含む。ビデオコーダは、第1の最尤モードが角度的イントラ予測モードであることおよび第2の最尤モードが非角度的イントラ予測モードであることに応答して、実際のイントラ予測モードの推定値として第1の最尤モードを選択すること、ならびに第1の最尤モードと第2の最尤モードの両方が異なる角度的予測モードであることに応答して、実際のイントラ予測の推定値として第1の最尤モードおよび第2の最尤モードの一方を選択することによって、実際のイントラ予測モードの推定値を決定するように構成される。
別の例では、ビデオデータをコーディングするための装置は、現在のビデオブロックに対して第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定するための手段と、第1の最尤イントラ予測モードおよび第2の最尤イントラ予測モードに基づいて、現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めるための手段とを含む。実際のイントラ予測モードの推定値を求めるための手段は、第1の最尤モードが角度的イントラ予測モードであることおよび第2の最尤モードが非角度的イントラ予測モードであることに応答して、実際のイントラ予測モードの推定値として第1の最尤モードを選択するための手段と、第1の最尤モードと第2の最尤モードの両方が異なる角度的予測モードであることに応答して、実際のイントラ予測の推定値として第1の最尤モードおよび第2の最尤モードの一方を選択するための手段とを含む。
別の例では、コンピュータ可読記憶媒体が、1つまたは複数のプロセッサに、現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定させ、第1の最尤イントラ予測モードおよび第2の最尤イントラ予測モードに基づいて、現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めさせるように動作可能な命令を記憶する。命令は、1つまたは複数のプロセッサに、第1の最尤モードが角度的イントラ予測モードであることおよび第2の最尤モードが非角度的イントラ予測モードであることに応答して、実際のイントラ予測モードの推定値として第1の最尤モードを選択すること、ならびに第1の最尤モードと第2の最尤モードの両方が異なる角度的予測モードであることに応答して、実際のイントラ予測の推定値として第1の最尤モードおよび第2の最尤モードの一方を選択することによって、実際のイントラ予測モードの推定値を決定させる。
1つまたは複数の例の詳細は、添付の図面および以下の説明に記載されている。他の特徴、目的、および利点は、その説明および図面、ならびに特許請求の範囲から明らかになろう。
本開示の技法を利用し得る例示的なビデオ符号化および復号システムを示すブロック図。 イントラ予測モードを示す情報をコーディングするための技法を実装し得るビデオエンコーダの一例を示すブロック図。 イントラ予測モードの一例を示す図。 最尤イントラ予測モードおよび推定された実際のイントラ予測モードの一例を示す図。 最尤イントラ予測モードおよび推定された実際のイントラ予測モードの一例を示す図。 現在ブロックに対する最尤モードを決定するために使用され得る現在ブロックおよび隣接ブロックの一例を示す図。 イントラ予測モードを示す情報を復号するための技法を実装し得るビデオデコーダの一例を示すブロック図。 本開示の技法によるイントラ予測モードをシグナリングする例示的な方法を示すフローチャート。
詳細な説明
一般に、本開示は、コード化ビデオデータに対するコーディング特性の、シグナリングおよびシグナリングを処理するための技法を説明し、より詳細には、本開示は、ビデオデータの符号化ビットストリーム内でイントラ予測モードの、シグナリングおよびシグナリングを処理するための技法を説明する。ビデオコーディングでは、現在コード化されている(たとえば、符号化されているか復号されているかのいずれか)ビデオデータのブロックは、前にコード化されているピクチャのビデオブロックから予測され得る(すなわち、インター予測)か、または同じピクチャについてすでにコード化されているビデオブロックから予測され得る(すなわち、イントラ予測)。ビデオブロックがイントラ予測であるとき、イントラ予測のモードは、時々、実際のイントラ予測モードが明白にシグナリングされるのとは対照的に、本開示で実際のイントラ予測モードの推定値とも呼ばれる参照モードと、実際のイントラ予測モードとの間の差としてシグナリングされる。以下でより詳細に説明されるように、イントラ予測の異なるモードは概括的に予測の異なる角度に対応するが、いくつかのモードは非角度的であるものとみなされる。
実際のイントラ予測モードが、通常、推定されるイントラ予測モードに近いものと仮定すると、可変長コーディング(VLC)技法を使用して、実際のイントラ予測モードは比較的少ないビットを使用してシグナリングされ得る。いくつかの例では、本開示の技法は、いくつかのコーディングシナリオにおいて、実際のイントラ予測モードにより近い推定されたイントラ予測モードを決定することによって、ビデオデータのブロックをイントラコーディングするために使用されるイントラ予測モードのシグナリングのための効率を改善し得る。
現在ブロックに対する推定されたイントラ予測モードは、ブロックに対する最尤イントラ予測モードに基づいて決定され得る。これらの最尤イントラ予測モードは、本開示では、時として、単に最尤モードと呼ばれ得る。以下でより詳細に説明するように、現在のビデオブロックに対する最尤モードが、少なくとも部分的に、すでにコード化されている隣接ブロックのイントラ予測モードに基づいて選択され得る。たとえば、現在ブロックは、現在ブロックの上のブロックをコーディングするために使用されるイントラ予測モードと、現在ブロックの左のブロックをコーディングするために使用されるイントラ予測モードとに対応する2つの最尤モードを有し得る。ビデオブロックがラスタ走査順(たとえば、左から右でかつ上から下)にコード化されるものと仮定すると、現在ブロックの上のビデオブロックおよび現在ブロックの左のビデオブロックは、現在ブロックの前にコード化され、したがって、それらのブロックのイントラ予測モードは、現在ブロックをコーディングするより前にビデオコーダに知られる。また、現在ブロックは、隣接ブロックに基づいて同様に決定されるかまたはいくつかの他の方式で決定される追加の最尤モード(たとえば、第3の最尤モード、第4の最尤モードなど)を有し得る。
2つの最尤モードを仮定し、最尤イントラ予測モードのうちの1つが現在ブロックに対する実際のイントラ予測モードであるとき、実際のイントラ予測モードは、ブロックが最尤モードのうちの1つを使用してコード化されていることを示すために、2ビットの符号語(codeword)を使用してシグナリングされ得る。符号語「00」は、たとえば、ブロックに対する実際のイントラ予測モードが第1の最尤モードであることをシグナリングするために使用され、符号語「01」は、ブロックに対する実際のイントラ予測モードが第2の最尤モードであることをシグナリングするために使用され得る。3つ以上の最尤モードを使用する場合、いくつかの例では、追加のビットが、どの最尤モードが実際のモードであるかをシグナリングするために使用され得る。
実際のモードまたは選択されたモードとも呼ばれる、使用のために選択されたモードが、最尤モードのうちの1つとは異なる場合の例では、実際のモードは、直接シグナリングされ得るか、または実際のモードと実際のモードの推定値との間の差情報(differential information)を使用してシグナリングされ得るかのいずれかである。これらの例では、実際のイントラ予測モードは、その符号語を最尤モードに対する符号語と区別するために、「1」で始まる符号語を使用してシグナリングされ得る。上の例は、最尤モードがビデオブロックのイントラ予測モードをシグナリングするために使用され得る多くのコーディング構造のうちの1つである。本開示の技法は、最尤モードを利用するためのいずれか1つの特定の構造に限定されない。
イントラ予測モードを推定されたモードと実際のモードとの間の差としてシグナリングするとき、差情報は、符号化ビットストリーム内の符号語としてビデオエンコーダからデコーダにシグナリングされ得る。たとえば、符号語は、実際のモードの推定値と実際のモードとの間の連続的モード順序における差に対応する、可変長符号語であってよい。可変長のコード名を使用する場合、たとえば、より短い符号語がより頻繁に発生する差に割り当てられ、一方、より長い符号語がより少ない頻度で発生する差に割り当てられる。たとえば、より頻繁に発生する差はより短い差であり、一方、より少ない頻度で発生する差はより長い距離である。したがって、実際のイントラ予測モードの推定値が実際のイントラ予測モードから遠いときよりも、実際のイントラ予測モードの推定値が実際の予測に近いときに、より少ないビットが、概して、差情報をシグナリングするために使用される。以下の例でより詳細に説明するように、2つのイントラ予測モード間の距離は、概して、それらの連続的モード順序における差の絶対値であるものとみなされ得る。したがって、連続的モード順序が3のモードと15のモードとは、連続的モード順序が8のモードと6のモードとよりも遠く離れているものとみなされ得る。
現在の技法によれば、最尤モードセット内の2つのモードが角度的(すなわち、非角度的とは対照的に)であるとき、推定されるモードは、2つの最尤モードの角度の平均値または中央値として求められる。しかしながら、いくつかの例では、この推定されたモードは、たとえば連続的モード順序の観点から、現在のビデオブロックのために使用される実際のモードに近いもののすべてであるとは限らない。したがって、2つの最尤モードの平均値または中央値を使用する代わりに、実際のモードの推定値として最尤モードのうちの1つを使用することの方が、より正確であり得る。たとえば、エッジが隣接ブロック内に存在する場合、最尤モードは、かなり正確に情報を伝え得る。エッジは、最尤モードのうちの1つから1つまたは2つの角度だけシフトし得るが、エッジは、特に、2つの最尤モードの角度が大きい量で異なるときは、2つの最尤モードの中間の角度にシフトすることはできそうにない。言い換えれば、2つの最尤モードが比較的大きい角度差を有する場合、それら2つの最尤モードの平均値または中央値に基づく推定値は、実際のモードである可能性が小さいモードに対してより短い符号語を、所望の頻度より高い頻度で割り当てることがあり、そのことが、コーディング効率を低下させる。本開示は、全体的に、2つの最尤モードのうちの1つを実際のイントラ予測モードの推定値となるように選択することによって、実際のイントラ予測モードの推定値を求めるための技法を説明する。
実際のイントラ予測モードの推定値は、たとえば、ビデオデータのブロックをコーディングするために使用される実際のイントラ予測モードを識別するために、差情報と連動して使用され得る。したがって、ビデオエンコーダおよびビデオデコーダが、実際のイントラ予測モードに対して同じ推定値を両方が求めるように構成される場合、ビデオデコーダが、ビデオデータのブロックをコーディングするために使用されるイントラ予測モードを決定するために、実際のイントラ予測モードの推定値と実際のイントラ予測モードとの間の差だけが、符号化ビットストリーム内で伝えられる必要がある。
図1は、本開示の技法に従って、ビデオデータのブロックに対するイントラ予測モードを表すシンタックスデータをコーディングするための技法を利用し得る例示的なビデオ符号化および復号システム10を示すブロック図である。図1に示すように、システム10は、通信チャネル16を介して符号化ビデオを宛先デバイス14に送信するソースデバイス12を含む。ソースデバイス12および宛先デバイス14は、広範囲のデバイスのいずれかを備えることができる。場合によっては、ソースデバイス12および宛先デバイス14は、いわゆるセルラー電話または衛星無線電話のワイヤレスハンドセットなどのワイヤレス通信デバイス、または通信チャネル16を介してビデオ情報を通信することができ、その場合、通信チャネル16がワイヤレスである任意のワイヤレスデバイスを備え得る。
ただし、ビデオデータのブロックについてのイントラ予測モードを表すシンタックスデータのコード化に関係する本開示の技法は、必ずしもワイヤレスアプリケーションまたは設定に限定されるとは限らない。たとえば、これらの技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、インターネットビデオ送信、記憶媒体上に符号化される符号化デジタルビデオ、または他のシナリオに適用し得る。したがって、通信チャネル16は、符号化ビデオデータの送信に好適なワイヤレスまたはワイヤード媒体の任意の組合せを備え得る。その上、通信チャネル16は、ビデオ符号化デバイスがビデオ復号デバイスにデータを送信し得る多くの方法のうちのただ1つを表すためのものである。たとえば、システム10の他の構成では、ソースデバイス12は、宛先デバイス14による復号のために符号化ビデオを生成し、必要に応じて、符号化ビデオが宛先デバイス14によってアクセスされ得るように、記憶媒体またはファイルサーバ上に符号化ビデオを記憶し得る。
図1の例では、ソースデバイス12は、ビデオソース18と、ビデオエンコーダ20と、変調器/復調器(モデム)22と、送信機24とを含む。宛先デバイス14は、受信機26と、モデム28と、ビデオデコーダ30と、ディスプレイデバイス32とを含む。他の例では、ソースデバイスおよび宛先デバイスは他の構成要素または構成を含み得る。たとえば、ソースデバイス12は、外部カメラなどの外部ビデオソース18からビデオデータを受信し得る。同様に、宛先デバイス14は、内蔵ディスプレイデバイスを含むのではなく、外部ディスプレイデバイスとインターフェースし得る。ビデオエンコーダ20およびビデオデコーダ30は、同様に、本開示の技法を実行するように構成され得る。たとえば、ビデオエンコーダ20およびビデオデコーダ30は、最尤モードおよび推定されたモードが符号化ビデオのビットストリーム内で明白にシグナリングされる必要がないように、同じ技法を使用して最尤モードと推定されるモードとを求めるように構成され得る。
図1の図示のシステム10は一例にすぎない。ビデオデータのブロックについてのイントラ予測モードを表すシンタックスデータのコード化のための技法は、任意のデジタルビデオ符号化および/または復号デバイスによって実行され得る。概して、本開示の技法はビデオ符号化デバイスによって実行されるが、本技法は、一般に「コーデック」と呼ばれるビデオエンコーダ/デコーダによっても実行され得る。その上、本開示の技法はまた、ビデオプリプロセッサによって実行され得る。ソースデバイス12および宛先デバイス14は、ソースデバイス12が宛先デバイス14に送信するためのコード化ビデオデータを生成するような、コーディングデバイスの例にすぎない。いくつかの例では、デバイス12、14は、デバイス12、14の各々がビデオ符号化構成要素とビデオ復号構成要素とを含むように、実質的に対称的に動作し得る。したがって、システム10は、たとえば、ビデオストリーミング、ビデオ再生、ビデオブロードキャストまたはビデオ電話のための、ビデオデバイス12とビデオデバイス14との間の一方向または双方向のビデオ送信をサポートできる。
ソースデバイス12のビデオソース18は、ビデオカメラなどのビデオキャプチャデバイス、以前にキャプチャされたビデオを含んでいるビデオアーカイブ、および/またはビデオコンテンツプロバイダからのビデオフィードを含み得る。さらなる代替として、ビデオソース18は、ソースビデオとしてのコンピュータグラフィックスベースのデータ、またはライブビデオとアーカイブビデオとコンピュータ生成ビデオとの組合せを生成し得る。場合によっては、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、いわゆるカメラ付き携帯電話またはビデオ電話を形成できる。ただし、上述のように、本開示で説明する技法は、概してビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤード適用例に適用され得る。各々の場合において、キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータで生成されたビデオは、ビデオエンコーダ20によって符号化され得る。符号化されたビデオ情報は、次いで、通信規格に従ってモデム22によって変調され、送信機24を介して宛先デバイス14に送信され得る。モデム22は、信号変調のために設計された様々なミキサ、フィルタ、増幅器または他の構成要素を含むことができる。送信機24は、増幅器、フィルタ、および1つまたは複数のアンテナを含む、データを送信するために設計された回路を含むことができる。
宛先デバイス14の受信機26はチャネル16を介して情報を受信し、モデム28は情報を復調する。この場合も、ビデオ符号化プロセスは、ビデオデータのブロックについてのイントラ予測モードを表すシンタックスデータをコード化するために、本明細書で説明する技法のうちの1つまたは複数を実施できる。チャネル16を介して通信される情報は、ビデオエンコーダ20によって定義され、またビデオデコーダ30によって使用される、マクロブロックおよび他のコード化ユニット、たとえば、GOPの特性および/または処理を記述するシンタックス要素を含む、シンタックス情報を含み得る。ディスプレイデバイス32は、復号されたビデオデータをユーザに対して表示し、陰極線管(CRT)、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
図1の例では、通信チャネル16は、無線周波数(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体、あるいはワイヤレス媒体とワイヤード媒体との任意の組合せを備え得る。通信チャネル16は、ローカルエリアネットワーク、ワイドエリアネットワーク、またはインターネットなどのグローバルネットワークなど、パケットベースのネットワークの一部を形成できる。通信チャネル16は、概して、ワイヤード媒体またはワイヤレス媒体の任意の好適な組合せを含む、ビデオデータをソースデバイス12から宛先デバイス14に送信するのに好適な任意の通信媒体、または様々な通信媒体の集合体を表す。通信チャネル16は、ソースデバイス12から宛先デバイス14への通信を可能にするのに有用なルータ、スイッチ、基地局、または任意の他の機器を含むことができる。
ビデオエンコーダ20およびビデオデコーダ30は、代替的にMPEG−4、Part 10、Advanced Video Coding(AVC)と呼ばれるITU−T H.264規格など、ビデオ圧縮規格に従って動作し得る。ただし、本開示の技法は、いかなる特定のコーディング規格にも限定されない。他の例にはMPEG−2およびITU−T H.263がある。図1には示されていないが、いくつかの態様では、ビデオエンコーダ20およびビデオデコーダ30は、それぞれオーディオエンコーダおよびデコーダと統合され得、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含んで、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理し得る。適用可能な場合、MUX−DEMUXユニットはITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠できる。
ITU−T H.264/MPEG−4(AVC)規格は、Joint Video Team(JVT)として知られる共同パートナーシップの成果として、ISO/IEC Moving Picture Experts Group(MPEG)とともにITU−T Video Coding Experts Group(VCEG)によって策定された。いくつかの態様では、本開示で説明する技法は、一般にH.264規格に準拠するデバイスに適用できる。H.264規格は、ITU−T研究グループによる2005年3月付けのITU−T勧告H.264「Advanced Video Coding for generic audiovisual services」に記載されており、本明細書ではH.264規格またはH.264仕様、あるいはH.264/AVC規格または仕様と呼ぶ。Joint Video Team(JVT)はH.264/MPEG−4 AVCへの拡張に取り組み続けている。
ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダ回路のいずれか、あるいはそれらの任意の組合せとして実装され得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも複合エンコーダ/デコーダ(コーデック)の一部としてそれぞれのカメラ、コンピュータ、モバイルデバイス、加入者デバイス、ブロードキャストデバイス、セットトップボックス、サーバなどに統合され得る。
ビデオシーケンスは、一般に一連のビデオフレームを含む。ピクチャのグループ(GOP:group of pictures)は、概して、一連の1つまたは複数のビデオフレームを備える。GOPは、GOP中に含まれるいくつかのフレームを記述するシンタックスデータを、GOPのヘッダ中、GOPの1つまたは複数のフレームのヘッダ中、または他の場所に含み得る。各フレームは、それぞれのフレームの符号化モードを記述するフレームシンタックスデータを含み得る。ビデオエンコーダ20は、一般に、ビデオデータを符号化するために、個々のビデオフレーム内のビデオブロックに対して動作する。ビデオブロックは、マクロブロックまたはマクロブロックのパーティションに対応し得る。ビデオブロックは、サイズを固定することも変更することもでき、指定のコーディング規格に応じてサイズが異なることがある。各ビデオフレームは複数のスライスを含み得る。各スライスは複数のマクロブロックを含み得、それらはサブブロックとも呼ばれるパーティションに配置され得る。
一例として、ITU−T H.264規格は、ルーマ成分については16×16、8×8、または4×4、およびクロマ成分については8×8など、様々なブロックサイズのイントラ予測をサポートし、ならびにルーマ成分については16×16、16×8、8×16、8×8、8×4、4×8および4×4、およびクロマ成分については対応するスケーリングされたサイズなど、様々なブロックサイズのインター予測をサポートする。本開示では、「N×(x)N」と「N×(by)N」は、垂直寸法および水平寸法に関するブロックのピクセル寸法、たとえば、16×(x)16ピクセルまたは16×(by)16ピクセルを指すために互換的に使用され得る。一般に、16×16ブロックは、垂直方向に16ピクセルを有し(y=16)、水平方向に16ピクセルを有する(x=16)。同様に、N×Nブロックは、一般に、垂直方向にNピクセルを有し、水平方向にNピクセルを有し、ただし、Nは非負整数値を表す。ブロック中のピクセルは行と列に構成され得る。その上、ブロックは、必ずしも、水平方向において垂直方向と同じ数のピクセルを有する必要があるとは限らない。たとえば、ブロックはN×Mピクセルを備え得る一方で、Mは必ずしもNに等しいとは限らない。16×16より小さいブロックサイズは、ITU−T H.264における16×16マクロブロックの区画と呼ばれ得る。
ビデオブロックは、ピクセル領域中のピクセルデータのブロックを備え得、あるいは、たとえば、コード化ビデオブロックと予測ビデオブロックとの間のピクセル差分を表す残差ビデオブロックデータ(residual video block data)への離散コサイン変換(DCT)、整数変換、ウェーブレット変換、または概念的に同様の変換などの変換の適用後の、変換領域中の変換係数のブロックを備え得る。場合によっては、ビデオブロックは、変換領域中の量子化変換係数のブロックを備え得る。
ビデオブロックは、小さいほどより良い解像度が得られ、高い詳細レベルを含むビデオフレームの位置決めに使用できる。概して、マクロブロック、およびサブブロックと呼ばれることがある様々なパーティションは、ビデオブロックとみなされ得る。さらに、スライスは、マクロブロックおよび/またはサブブロックなど、複数のビデオブロックであるとみなされ得る。各スライスはビデオフレームの単独で復号可能なユニットであり得る。代替的に、フレーム自体を復号可能なユニットとすることができるか、またはフレームの他の部分を復号可能なユニットとして定義できる。「コード化ユニット」という用語は、フレーム全体、フレームのスライス、シーケンスとも呼ばれるピクチャのグループ(GOP)など、ビデオフレームの単独で復号可能な任意のユニット、または適用可能なコーディング技法に従って定義される別の単独で復号可能なユニットを指すことがある。
高効率ビデオコーディング(HEVC)と現在呼ばれる、新しいビデオコーディング規格を開発するための取組みが現在進行中である。新興のHEVC規格はH.265と呼ばれることもあり得る。この規格化の取組みは、HEVCテストモデル(HM:HEVC Test Model)と呼ばれるビデオコーディングデバイスのモデルに基づく。HMは、たとえばITU−T H.264/AVCに従ってデバイスを介したビデオコーディングデバイスのいくつかの能力を仮定する。たとえば、H.264は9つのイントラ予測モードを与えるが、HMは、たとえば、イントラ予測コード化されるブロックのサイズに基づいて、33個ものイントラ予測モードを与える。「HEVC Working Draft 9」または「WD9」と呼ばれるHEVC規格の最近のドラフトは、文書JCTVC−K1003、Brossら、「High efficiency video coding (HEVC) text specification draft 9」、ITU−T SG16 WP3とISO/IEC JTC1/SC29/WG11のJoint Collaborative Team on Video Coding(JCT−VC)、第11回会合:中国上海、2012年10月10−19日の中で説明されており、文書は、2012年11月13日の時点で下記のリンク: http://phenix.int−evry.fr/jct/doc_end_user/document/11_Shanghai/wg11/JCTVC−K1003−v7.zipからダウンロード可能である。
HMは、ビデオデータのブロックをコーディングユニット(CU)と称する。ビットストリーム内のシンタックスデータが、ピクセルの数に関して最大のコーディングユニットである最大コーディングユニット(LCU:largest coding unit)を定義し得る。概して、CUは、CUがサイズの差異を有しないことを除いて、H.264のマクロブロックと同様の目的を有する。したがって、CUはサブCUに分割され得る。概して、本開示におけるCUへの言及は、ピクチャの最大コーディングユニットまたはLCUのサブCUを指すことがある。LCUはサブCUに分割され得、各サブCUはサブCUに分割され得る。ビットストリームのシンタックスデータは、CU深度と呼ばれる、LCUが分割され得る最大回数を定義し得る。それに応じて、ビットストリームは最小コーディングユニット(SCU:smallest coding unit)をも定義し得る。本開示ではまた、CU、予測ユニット(PU)、または変換ユニット(TU)のいずれかを指すために「ブロック」という用語を使用する。
LCUは4分木データ構造に関連付けられ得る。概して、4分木データ構造はCUごとに1つのノードを含み、ルートノードはLCUに対応する。CUが4つのサブCUに分割された場合、CUに対応するノードは4つのリーフノードを含み、リーフノードの各々はサブCUのうちの1つに対応する。4分木データ構造の各ノードは、対応するCUのシンタックスデータを与え得る。たとえば、4分木のノードは、そのノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグ(split flag)を含み得る。CUのシンタックス要素は、再帰的に定義され得、CUがサブCUに分割されるかどうかに依存し得る。
分割されないCUは、1つまたは複数の予測ユニット(PU)を含み得る。一般に、PUは、対応するCUの全部または一部分を表し、そのPUの参照サンプルを取り出すためのデータを含む。たとえば、PUがイントラモード符号化されるとき、PUは、PUのイントラ予測モードを記述するデータを含み得る。別の例として、PUがインターモード符号化されるとき、PUは、PUのための動きベクトルを定義するデータを含み得る。動きベクトルを定義するデータは、たとえば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(たとえば、1/4ピクセル精度もしくは1/8ピクセル精度)、動きベクトルが指す参照フレーム、および/または動きベクトルの参照リスト(たとえば、リスト0もしくはリスト1)を記述し得る。(1つまたは複数の)PUを定義するCUのデータはまた、たとえば、CUを1つまたは複数のPUに区分することを記述し得る。区分モードは、CUがコード化されないか、イントラ予測モード符号化されるか、またはインター予測モード符号化されるかによって異なり得る。
1つまたは複数のPUを有するCUはまた、1つまたは複数の変換ユニット(TU)を含み得る。PUを使用した予測の後に、ビデオエンコーダは、PUに対応するCUの部分の残差値(residual value)を計算し得る。残差値のセットは、変換され、走査され、量子化されて、変換係数のセットが定義され得る。TUは、変換係数を含むデータ構造を定義する。TUは、必ずしもPUのサイズに制限されるとは限らない。したがって、TUは、同じCUの対応するPUよりも大きいことも小さいこともある。いくつかの例では、TUの最大サイズは、対応するCUのサイズに対応し得る。
本開示の技法によれば、ビデオエンコーダ20は、イントラ予測モード符号化を使用してビデオデータのいくつかのブロックを符号化し、ブロックを符号化するために使用される選択された(すなわち、実際の)イントラ予測モードを示す情報を提供し得る。ビデオエンコーダ20は、PフレームまたはPスライス、およびBフレームまたはBスライスに加えて、たとえば、IフレームまたはIスライスなど、イントラ予測モードを使用して、任意のタイプのフレームまたはスライスのブロックをイントラ予測符号化し得る。あるブロックがイントラ予測モード符号化されるべきであることをビデオエンコーダ20が決定したとき、ビデオエンコーダ20は、最も適切なイントラ予測モードを選択するためにレートひずみ分析(rate-distortion analysis)を実行できる。たとえば、ビデオエンコーダ20は、1つまたは複数のイントラ予測モードについてのレートひずみ値を計算し、受容できるレートひずみ特性を有するモードのうちの1つを選択できる。
ビデオエンコーダ20は、ブロックの符号化コンテキストを決定するように構成することもできる。コンテキストは、たとえば、ピクセル寸法で決定され得るブロックのサイズ、たとえばHEVCの例における2N×2N、N×2N、2N×N、N×Nなどの予測ユニット(PU)タイプ、2N×N/2、N/2×2N、2N×1、1×2Nなどの短距離イントラ予測(SDIP)タイプ、H.264の例におけるマクロブロックタイプ、ブロックについてのコーディングユニット(CU)深さ、またはビデオデータのブロックについてのサイズの他の測定値など、ブロックの様々な特性を含むことができる。いくつかの例では、コンテキストは、上に隣接するブロック、左に隣接するブロック、左上に隣接するブロック、右上に隣接するブロック、または他の隣接するブロックに対して、コーディングモードなどの情報に基づいて決定され得る。いくつかの例では、コンテキストは、1つまたは複数のブロックについてのイントラ予測モードと、符号化されている現在ブロックのサイズ情報の両方を含み得る。
いずれの場合も、ビデオエンコーダ20は、ブロックのコンテキストを現在ブロックについての様々なコーディング特性にマッピングする構成データを含み得る。たとえば、ブロックのコンテキストに基づいて、構成データは、1つまたは複数の最尤イントラ予測モード、および/または1つまたは複数の可変長符号(VLC)テーブルを示し得る。上で紹介したように、VLCテーブルは、符号語を異なる値にマッピングし得る。たとえば、異なる値は、実際のモードと推定されるモードとの間の連続的モード順序(sequential mode order)における差であり得る。
ビデオエンコーダ20は、いくつかの例では、コンテキストに基づいて、最尤モードでイントラ予測モードの選択のための分析を開始するように構成され得る。最尤モードが適切なレートひずみ特性を達成するとき、いくつかの例では、ビデオエンコーダ20は、最尤モードを選択できる。他の例では、ビデオエンコーダ20は、最尤モードで選択プロセスを開始する必要はない。
予測データと残差データとを生成するためのイントラ予測コーディングまたはインター予測コーディングの後、および変換係数を生成するための(H.264/AVCで使用される4×4または8×8整数変換、あるいは離散コサイン変換DCTなどの)任意の変換の後、変換係数の量子化が実行され得る。量子化は、概して、係数を表すために使用されるデータ量をできるだけ低減するために変換係数を量子化するプロセスを指す。量子化プロセスは、係数の一部または全部に関連するビット深度(bit depth)を低減できる。たとえば、量子化中にnビット値がmビット値に切り捨てられ得、nはmよりも大きい。
量子化の後に、たとえば、コンテンツ適応型可変長コーディング(CAVLC:content adaptive variable length coding)、コンテキスト適応型バイナリ算術コーディング(CABAC:context adaptive binary arithmetic coding)、または別のエントロピーコーディング方法に従って、量子化データのエントロピーコーディングが実行され得る。エントロピーコーディング用に構成された処理ユニットまたは別の処理ユニットは、量子化係数のゼロランレングスコーディング、および/またはコード化ブロックパターン(CBP)値、マクロブロックタイプ、コーディングモード、(フレーム、スライス、マクロブロック、またはシーケンスなどの)コード化ユニットの最大マクロブロックサイズなどのシンタックス情報の生成など、他の処理機能を実行し得る。
ビデオデコーダ30は、最終的に、符号化ビデオデータを、たとえばモデム28から受信し、受信機26は、記憶媒体のための、または何らかの他の方式におけるファイルサーバから受信する。本開示の技法によれば、ビデオデコーダ30は、ビデオデータのブロックを符号化するために使用されるイントラ予測モードを識別するシンタックス要素を表す符号語を受信し得る。ビデオデコーダ30は、ビデオエンコーダ20と実質的に同様の方法でブロックのコーディングコンテキストを判断するように構成され得る。その上、ビデオデコーダ30は、ビデオエンコーダ20に対するのと類似の構成データ、たとえば隣接ブロックのモードに基づいて最尤モードを決定するための情報を含み得る。ビデオデコーダ30は、ビデオエンコーダ20に対するのと類似の方式で実際のイントラ予測モードに対する推定値を求め得る。すなわち、ビデオデコーダ30は、最尤モードと実際のイントラ予測モードの推定値とを決定するために、ビデオエンコーダ20によって使用されるプロセスと同等または類似のプロセスを適用するように構成され得る。このようにして、ビデオデコーダ30は、ビデオエンコーダ20と同じ最尤モードと、同じ実際のイントラ予測モードの推定値とを決定する。受信された符号語に基づいて、ビデオデコーダ30は、次いで、推定されたイントラ予測モードと実際のイントラ予測モードとの間の差を求め得る。したがって、符号語および推定されたイントラ予測モードに基づいて、ビデオデコーダ30は、実際のイントラ予測モードを決定し得る。一例では、ビデオデコーダ30は、復号される現在ブロックに対する実際のイントラ予測モードを示す値を作成するために、符号語によって示される差の値と、推定されたイントラ予測モードによって示される値とを合計する。
ビデオエンコーダ20およびビデオデコーダ30はそれぞれ、適用可能なとき、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理回路、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダまたはデコーダ回路のいずれか、あるいはそれらの任意の組合せとして実装され得る。ビデオエンコーダ20およびビデオデコーダ30の各々は1つまたは複数のエンコーダまたはデコーダ中に含まれ得、そのいずれも複合ビデオエンコーダ/デコーダ(コーデック)の一部として統合され得る。ビデオエンコーダ20および/またはビデオデコーダ30を含む装置は、集積回路、マイクロプロセッサ、および/またはセルラー電話などのワイヤレス通信デバイスを備え得る。
図2は、イントラ予測モードを示す情報をコーディングするための技法を実装し得るビデオエンコーダ20の一例を示すブロック図である。ビデオエンコーダ20は、ビデオフレーム内のビデオブロックのイントラコーディングおよびインターコーディングを実行し得る。イントラコーディングは、所与のビデオフレーム内のビデオの空間的冗長性を低減または除去するために空間的予測に依拠する。インターコーディングは時間的予測を利用して、ビデオシーケンスの隣接フレーム内のビデオの時間的冗長性を低減または除去する。イントラ予測モード(Iモード)は、いくつかの空間ベースの圧縮モードのいずれかを指し、単方向予測(Pモード)または双方向予測(Bモード)などのインター予測モードは、いくつかの時間ベースの圧縮モードのいずれかを指し得る。
図2に示すように、ビデオエンコーダ20は、符号化されるべきビデオフレーム内の現在のビデオブロックを受信する。図2の例では、ビデオエンコーダ20は、動き補償ユニット44と、動き推定ユニット42と、メモリ64と、加算器50と、変換処理ユニット52と、量子化ユニット54と、エントロピーコーディングユニット56とを含む。ビデオブロック復元のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換処理ユニット60と、加算器62とを含む。図2に示されていないが、非ブロック化フィルタ、サンプル適応型オフセットフィルタ、および適応型ループフィルタなど、1つまたは複数のループフィルタは、同様に、再構築されたビデオブロックをフィルタ処理するために含まれ得る。所望される場合、1つまたは複数のループフィルタは、一般に、加算器62の出力をフィルタ処理することになる。
符号化プロセス中に、ビデオエンコーダ20は、コード化されるビデオフレームまたはスライスを受信する。フレームまたはスライスは、複数のビデオブロックに分割され得る。動き推定ユニット42および動き補償ユニット44は、時間圧縮を行うために、1つまたは複数の参照フレーム中の1つまたは複数のブロックに対する受信したビデオブロックのインター予測コーディングを実行する。イントラ予測ユニット46は、空間圧縮を行うためにコード化されるブロックと同じフレームまたはスライス中の1つまたは複数の隣接ブロックに対する受信したビデオブロックのイントラ予測コーディングを実行し得る。
モード選択ユニット40は、たとえば、誤差結果に基づいて、およびコード化されている現在ブロックを含むフレームまたはスライスについてのフレームタイプまたはスライスタイプに基づいて、コーディングモード、すなわち、イントラまたはインターのうちの1つを選択し、残差ブロックデータを生成するために、得られたイントラコード化ブロックまたはインターコード化ブロックを加算器50に与え、参照フレームまたは参照スライス中で使用するための符号化ブロックを再構成するために、得られたイントラコード化ブロックまたはインターコード化ブロックを加算器62に供給し得る。概して、イントラ予測は、隣接する、前にコード化されたブロック内のピクセルサンプルに対して現在ブロックを予測することを伴い、一方、インター予測は、現在ブロックを時間的に予測するために動き推定および動き補償を伴う。
動き推定ユニット42と動き補償ユニット44とは、ビデオエンコーダ20のインター予測要素を表す。動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示してある。動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、たとえば、現在のフレーム(または、他のコード化ユニット)内のコード化されている現在ブロックに対する予測参照フレーム(predictive reference frame)(または、他のコード化ユニット)内の予測ブロックの変位を示し得る。予測ブロックは、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、または他の差分メトリックによって判断され得るピクセル差分に関して、コード化されるべきブロックにぴったり一致することがわかるブロックである。動きベクトルはまた、マクロブロックのパーティションの変位を示し得る。動き補償は、動き推定によって決定された動きベクトルに基づいて予測ブロックをフェッチまたは生成することに関与し得る。この場合も、いくつかの例では、動き推定ユニット42と動き補償ユニット44とは機能的に統合され得る。
動き推定ユニット42は、ビデオブロックをメモリ64中の参照フレームのビデオブロックと比較することによってインターコード化フレームのビデオブロックの動きベクトルを計算する。動き補償ユニット44はまた、参照フレーム、たとえば、IフレームまたはPフレームのサブ整数ピクセルを補間し得る。例として、ITU H.264規格およびHEVC規格には、符号化されている現在フレームよりも前の表示順序を有する参照フレームを含むリスト0、および符号化されている現在フレームよりも後の表示順序を有する参照フレームを含むリスト1という2つの参照ピクチャリストの使用が記載されている。したがって、メモリ64に記憶されたデータは、これらのリストに従って編成され得る。
動き推定ユニット42は、メモリ64からの1つまたは複数の参照フレームのブロックを、現在のフレーム、たとえば、PフレームまたはBフレームの符号化されるべきブロックと比較する。メモリ64中の参照フレームがサブ整数ピクセルの値を含むとき、動き推定ユニット42によって計算される動きベクトルは参照フレームのサブ整数ピクセルロケーションを参照し得る。動き推定ユニット42および/または動き補償ユニット44はまた、サブ整数ピクセル位置の値がメモリ64に記憶されていない場合、メモリ64に記憶された参照フレームのサブ整数ピクセル位置の値を計算するように構成され得る。動き推定ユニット42は、計算された動きベクトルをエントロピーコーディングユニット56と動き補償ユニット44とに送る。動きベクトルによって識別される参照フレームブロックは予測ブロックと呼ばれることがある。動き補償ユニット44は、インター予測ブロックに基づいて予測データを計算し得る。
イントラ予測ユニット46は、上記で説明したように、動き推定ユニット42と動き補償ユニット44とによって実行されるインター予測の代替として、現在ブロックをイントラ予測し得る。特に、イントラ予測ユニット46は、現在ブロックを符号化するために使用すべきイントラ予測モードを判断し得る。いくつかの例では、イントラ予測ユニット46は、たとえば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在ブロックを符号化し得、イントラ予測ユニット46(または、いくつかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。たとえば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードのためのレートひずみ分析を使用してレートひずみ値を計算し、テストされたモードの中で最良のレートひずみ特性を有するイントラ予測モードを選択し得る。レートひずみ分析は、概して、符号化ブロックと、符号化ブロックを生成するために符号化された元の符号化されていないブロックとの間のひずみ(または誤差)の量、ならびに符号化ブロックを生成するために使用されるビットレート(すなわち、ビット数)を判断する。イントラ予測モジュール46は、どのイントラ予測モードがブロックについての最良のレートひずみ値を呈するかを判断するために、様々な符号化ブロックについてのひずみおよびレートから比を計算し得る。
本開示の技法は、HEVCなどの符号化規格および技法に適用され得る。いくつかの例では、たとえばHEVCにおいて、使用可能なイントラ予測モードの数は、コード化されているブロックのサイズ(たとえば、HEVCでの「コーディングユニット」または「CU」)に依存し得る。各イントラ予測モードに対して、モードインデックスが割り当てられ得る。図3Aに、HEVCとともに使用され得るイントラ予測モード、および対応するモードインデックスの例を示す。図3Aの矢印は予測方向を表し、番号はモードインデックスを表す。図3Aに示されるモードインデックスは、他の図において使用される任意の参照番号に対応するものと仮定されるべきではない。
図3Bおよび図3Cの例に示されるように、各モードはまた、モードインデックスとは異なる連続的モード順序を有し得る。一般に、2種類のイントラ予測モードがある。(1)イントラ予測が一定の方向に沿って実行される角度的モード、および(2)DC予測および平面予測などの非角度的モードである。最尤モードセット内の両モードが角度的であるとき、現在知られている技法に従う実際のモードの推定値は、図3Bおよび図3Cの例に示されるように、その角度の平均値または中央値であり得る。本開示は、実際のイントラ予測モードの推定値を求めるための新しい技法を説明する。
図3Bは、最尤モードセット内の2つのモードの一例を示す。図3Bのモードは、2つの異なる方式でと標示されている。円内にない番号は、イントラ予測モードインデックスに対応する。たとえば、イントラ予測モードインデックスは、コーディングにおいて使用されるために、いかに頻繁にモードが予想されるかに対応し得るが、必ずしもそのような相関関係が必要であるとは限らない。円内の番号は、連続的モード順序を表す。連続的モード順序付けは、それらの予測の角度に基づくモードの順序付けに対応する。連続的モード順序付けにおいて、たとえば、連続的モード順序6を有するモードの角度は、連続的モード順序5を有するモードの角度と連続的モード順序7を有するモードの角度との間にある。図3Bの例では、2つの最尤モードは、モードインデックス11および13を有するイントラ予測モードである。たとえば、これらの2つの最尤モードは、2つの隣接ブロックをコーディングするために使用されるモードに対応し得る。
従来技術の技法によれば、2つの最尤モードに基づく実際のイントラ予測モードの推定値は、2つの最尤モードの連続的モード順序の平均値または中央値であってよい。したがって、従来技術の技法による図3Bの例では、連続的モード順序4は連続的モード順序6と連続的モード順序2との平均値であるので、実際のイントラ予測モードの推定値は、イントラ予測モード12となり得る。しかしながら、本開示の技法によれば、平均値または中央値ではない2つの最尤モードの一方が、実際のイントラ予測モードの推定値として選択され得る。したがって、本開示の技法によれば、実際のイントラ予測モードの推定値は、イントラ予測モード12ではなく、イントラ予測モード11かまたはイントラ予測モード13のいずれかであり得る。イントラ予測モード11およびイントラ予測モード13のどちらが実際のイントラ予測モードの推定値として使用されるかを選択するための技法は、以下でより詳細に説明される。
図3Cは、最尤モードセット内の2つの最尤モードが遠く離れている(すなわち、角度において大きい差を有する)ときに、実際のイントラ予測モードの推定値を求めるために使用され得る代替の従来技術の技法の例を示す。図3Cの例では、2つの最尤モードは、モードインデックス13および16を有するイントラ予測モードである。従来技術の一技法によれば、2つの最尤モード間の角度が大きいとき、平均値または中央値は2つの最尤モードに対して求められ、実際のイントラ予測モードの推定値は、90度だけ調整された平均値または中央値であり得る(たとえば、モード10から90度回転された、図3Cの例におけるモード17)。代替として、平均値または中央値は、1つの最尤モードと他の最尤モードの鏡映方向(mirrored direction)との間で求められ得る。しかしながら、本開示の技法によれば、実際のイントラ予測モードの推定値は、最尤モードが遠く離れているときでも、最尤モードのうちの1つであり得る。したがって、図3Cの例では、実際のイントラ予測モードの推定値は、イントラ予測モード17ではなく、イントラ予測モード16かまたはイントラ予測モード13のいずれかであり得る。イントラ予測モード16およびイントラ予測モード13のどちらが実際のイントラ予測モードの推定値として使用されるかを選択するための技法は、以下でより詳細に説明される。
図3Bおよび図3Cにおける最尤モードは、すでにコード化されている隣接ブロックのモードに対応し得る。図3Bおよび図3Cは、2つの例を表すことを意図されており、これらの例における特定の最尤モードが、説明のためにランダムに選択されている。図3Bおよび図3Cに示される任意の2つのモードは、潜在的に、本開示の技法による最尤モードであり得る。
以下の表1は、CUのサイズと、そのサイズのCUを符号化するために利用可能なイントラ予測モードの番号との間の、潜在的な対応の一例を示す。表1の例によってわかるように、8×8、16×16、および32×32のCUは、図3Aに示される35のイントラ予測モードを使用することができ、一方、4×4および64×64のCUは、イントラ予測モードのより小さいセットを使用する。
Figure 2015502093
いずれの場合にも、ブロックのためのイントラ予測モードを選択した後に、イントラ予測ユニット46は、ブロックのための選択されたイントラ予測モードを示す情報をエントロピーコーディングユニット56に与え得る。エントロピーコーディングユニット56は、本開示の技法に従って、実際のイントラ予測モードを示す情報を符号化し得る。たとえば、ビデオエンコーダ20は、現在ブロックに対する実際のイントラ予測モードと実際のイントラ予測モードの推定値との間の差を識別する差情報を符号化ビットストリーム内でシグナリングできる。上記で説明したように、実際のイントラ予測は、レートひずみ分析に基づいて決定される一方で、最尤イントラ予測モードは、すでにコード化された隣接ブロックをコーディングするために使用されるモードなど、コンテキスト情報に基づいて決定され得る。
本開示の技法によれば、イントラ予測ユニット46は、1つまたは複数の異なる規準による最尤モードに基づいて実際のモードの推定値を求め得る。最尤モードは、隣接ブロックをコーディングするために使用されるモードおよび/または隣接ブロックのサイズなど、1つまたは複数の隣接ブロックに関連するデータから導出されるコンテキストに基づいて決定され得る。
図4は、現在ブロックに対する最尤モードを決定するために使用され得る現在ブロックおよび隣接ブロックの一例を示す。ブロック402は、現在コード化されているブロックの一例を表す。ブロック404は、左上の隣接ブロックの一例を表す。ブロック406は、上の隣接ブロックの一例を表す。ブロック408は、右上の隣接ブロックの一例を表し、ブロック410は、左の隣接ブロックの一例を表す。ブロックが、左から右でかつ上から下のラスタ走査順でコード化されているものと仮定すると、ブロック404、ブロック406、ブロック408およびブロック410は、ブロック402がコード化される前にコード化される。したがって、これらの隣接ブロックのコーディングモードは、ブロック402がコード化される前に知られている。ブロック404、ブロック406、ブロック408およびブロック410、ならびに図示されない他のすでにコード化された隣接ブロックのうちのいずれかが、ブロック402に対する最尤モードを決定するために使用され得る。
例として、ブロック406およびブロック410が、ブロック402に対する最尤モードを決定するために使用されるものと仮定する。追加として、ブロック402は、3つの最尤モードを有するものと仮定する。ブロック406およびブロック410が同じ角度的モードを使用してコード化される場合の例では、3つの最尤モードは、ブロック406およびブロック410をコーディングするために使用される角度的モード、ならびにそのモードに隣接する2つの角度的モードであり得る。ブロック406およびブロック410が異なる角度的モードを使用してコード化される場合の例では、それらの角度的モードのそれぞれが、最尤モードとして使用されてよく、第3の最尤モードは、非角度的モード(たとえば、平面またはDC)のうちの1つから選択され得る。ブロック406およびブロック410の一方が角度的モードを使用してコード化され、他方が非角度的モードを使用してコード化される場合の例では、角度的モードと非角度的モードの両方が最尤モードとして使用され得、第3の最尤モードが、最尤モードとしてすでに使用された非角度的モードとは異なる非角度的モードとなるように選択され得るか、またはいくつかの他のモードとなるように選択され得る。これらの例は、ビデオエンコーダ20およびビデオデコーダ30が最尤モードを決定し得る多くの方法のうちのほんの少数を表す。
上記で説明したように、最尤モードが決定された後、イントラ予測ユニット46は、コード化されているブロックに対する実際のイントラ予測モードが最尤モードのうちの1つであるかどうかを示す1つまたは複数のシンタックス要素を生成し得る。実際のイントラ予測モードが最尤モードのうちの1つでない場合、イントラ予測ユニット46は、最尤モードに基づいて実際のモードに対する推定値を求め、実際のイントラ予測モードと実際のイントラ予測モードの推定値との間の差を示すシンタックス要素を生成し得る。ビデオエンコーダ20が、図4を参照して上記で説明した例における3つの最尤モードなど、3つ以上の最尤モードを決定するように構成される場合の例では、ビデオエンコーダ20は、最尤モードのすべてより少ない最尤モードを使用して実際の予測の推定値を求め得る。一例として、ビデオエンコーダ20は、第3の最尤モードを使用せずに2つの隣接ブロックのモードに対応する2つの最尤モードを使用して実際のイントラ予測モードの推定値を求め得る。
本開示の技法によれば、1つの最尤モードが角度的予測モードであり、別の最尤モードが非角度的予測モードであるとき、イントラ予測ユニット46は、角度的最尤モードを使用することによって、実際のイントラ予測モードの推定値として実際のイントラ予測モードの推定値を求め得る。
両方の最尤モードが角度的予測モードであるとき、実際のモードの推定値は、最尤モードのうちの1つであり得る。第1の最尤モードおよび第2の最尤モードがいずれも角度的モードであるが同じモードではない場合の例では、イントラ予測ユニット46は、2つの最尤モードの平均値または中央値を実際のイントラ予測モードの推定値として使用するのとは対照的に、2つの最尤モードの一方を実際のモードの推定値となるように選択し得る。たとえば、これは、2つの隣接ブロックが、いずれも角度的モードであるが異なる角度的モードを有するときに発生する。隣接ブロックが同じ角度的モードを有する場合の例では、その角度的モードは最尤モードのうちの1つであり得、実際のイントラ予測モードがブロックをコーディングするために使用されない場合、イントラ予測ユニット46は、その角度的モードを実際のイントラ予測モードの推定値として使用し得る。
第1の最尤モードおよび第2の最尤モードが異なる角度的モードである場合の例において、どの最尤モードを実際のモードの推定値として使用するかを選択するために、以下の技法のうちの1つまたは複数が使用され得る。一例では、イントラ予測ユニット46は、垂直角(たとえば、図3Bおよび図3Cのイントラ予測モード0)により近い予測の角度を有する最尤モードを、実際のイントラ予測モードの推定値として選択し得る。別の例では、イントラ予測ユニット46は、垂直角(たとえば、モード0)と水平角(たとえば、図3Bおよび図3Cのイントラ予測モード1)との間にない最尤モードを、実際のイントラ予測モードの推定値として選択し得る。言い換えれば、2つの最尤モードの一方が、イントラ予測モード0とイントラ予測モード1との間のイントラ予測モードである場合、イントラ予測ユニット46は、イントラ予測モード0とイントラ予測モード1との間にない最尤イントラ予測モードのうちの1つを実際のイントラ予測モードの推定値として選択するように構成され得る。
他の例では、イントラ予測ユニット46は、最尤モードのうちの1つを実際のイントラ予測モードの推定値として選択し、その選択をシグナリングし得る。どの最尤モードが実際のモードの推定値であるかのシグナリングは、たとえば、符号語内に含まれ得、それにより、符号語は、実際のモードの推定値と、実際のモードの推定値と実際のモードとの間の差の両方を識別する。
一例では、イントラ予測ユニット46は、より小さいイントラモード番号を有する最尤モードを、実際のイントラ予測モードの推定値として選択し得る。たとえば、図3Bを参照すると、イントラ予測モード0は、モード1よりも好ましい。代替として、連続的モード順序付け、選好(preference)の個別の順序付け、または何らかの他の順序付けが使用され得る。
一例では、イントラ予測ユニット46は、隣接ブロックの情報に基づいて、最尤モードを実際のイントラ予測モードの推定値として選択し得る。たとえば、イントラ予測ユニット46は、左上のブロックのイントラ予測モードをチェックし、次いで、左上のブロックのイントラ予測モードにより近い最尤モードを、実際のモードの推定値として取り上げることができる。たとえば、上の隣接ブロックおよび左の隣接ブロックが最尤モードを決定するために使用される場合、左上のブロックは、この状況において、どの最尤モードを実際のモードの推定値として使用するかを選択するために使用され得る。一例として図4を使用して、ブロック406およびブロック410のモードが最尤モードとして使用される場合、ブロック404のイントラ予測モードは、ブロック406およびブロック410のどちらが、実際のイントラ予測モードの推定値として使用されるべきかを判断するために使用され得る。具体的には、一例では、連続的モード順序に基づいてブロック404のモードに数値的に最も近いブロック406または410のモードが、実際のイントラ予測モードの推定値として選択される。
一例では、イントラ予測ユニット46は、最尤モードブロックの情報に基づいて、最尤モードを実際のイントラ予測モードの推定値として選択し得る。たとえば、1つの最尤モードが上の隣接ブロックからであり、1つの最尤モードが左の隣接ブロックからである場合、イントラ予測ユニット46は、現在ブロックと類似のサイズを有するブロックに属する最尤モードを実際のモードの推定値として選択し得る。これらの規準の追加または代替として、PU深さ、インター/イントラモード、または何らかの他のタイプのブロック情報もまた使用され得る。
本開示の追加の技法によれば、ビデオエンコーダ20は、推定される実際のイントラ予測モードとして両方の最尤モードを使用して、推定される実際のイントラ予測モードを求め得る。たとえば、ビデオエンコーダ20は、連続的モード順序によって測定される、最尤モードのうちの1つまでの最短距離(shortest distance)を使用することによってイントラ予測モードに対する差を計算し得る。符号語は、概してより小さい距離に対して使用されるより短い符号語を用いて分類される距離に基づいて割り当てられ得る。そのような技法を使用すると、いくつかのモードが同じ距離を有することがある。したがって、本開示は、同じ距離を有するモード間を区別するための技法を説明する。たとえば、技法は、好適な最尤モード、好適な予測方向、および/または隣接ブロックの情報に基づくことができる。このコンテキストでは、「好適な」は、イントラ予測モードをシグナリングするために、特定の最尤モードまたは特定の予測方向の選択におけるビデオエンコーダの好適性を指し、必ずしも、最良のコーディング性能を提供する最尤モードまたは予測方向と同じであるとは限らない。
一例として、最尤モード0が、最尤モード1に対して好適なモードであるものと仮定すると、最尤モードと実際のモードとの間の距離は、以下の、MPM0_+1、MPM0_−1、MPM1_+1、MPM1_−1、MPM0_+2、MPM0_−2、MPM1_+2、MPM1_−2などのように分類され得、MPM0が第1の最尤モードに対応し、MPM1が第2の最尤モードに対応する。MPM0_+1は、第1の最尤モードから(連続的モード順序に基づいて)+1の距離を表し、MPM_−1は、第1の最尤モードから−1の距離を表す。代替として、分類される距離は、MPM0_−1、MPM0_+1、MPM1_−1、MPM1_+1、MPM0_−2、MPM0_+2、MPM1_−2、MPM1_+2などであり得る。これらの分類順序は、多くの可能性のある分類順序のうちの2つを表すにすぎない。これらの分類順序は、概して、最小符号語から最長符号語までの各距離に割り当てられる符号語の長さに対応する。したがって、上で示された第1の分類順序に対して、MPM0_+1が最短の符号語を有する一方で、MPM1_−2はより長い符号語を有し得る。上で示された第2の分類順序では、MPM0_−1が最短の符号語を有し得る。
たとえば、イントラ予測またはインター予測を使用して、現在ブロックを予測した後、ビデオエンコーダ20は、コード化されている元のビデオブロックから、動き補償ユニット44またはイントラ予測ユニット46によって計算された予測データを減算することによって残差ビデオブロックを形成し得る。加算器50は、この減算演算を実行する1つまたは複数の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)または概念的に同様の変換などの変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換処理ユニット52は、概念的にDCTと同様である、H.264規格によって定義される変換など、他の変換を実行し得る。ウェーブレット変換、整数変換、サブバンド変換または他のタイプの変換も使用され得る。いずれの場合も、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報をピクセル値領域から周波数領域などの変換領域に変換し得る。量子化ユニット54は、ビットレートをさらに低減するために残差変換係数を量子化する。量子化プロセスは、係数の一部または全部に関連するビット深度を低減できる。量子化の程度は、量子化パラメータを調整することによって変更され得る。
量子化の後、エントロピーコーディングユニット56が量子化変換係数をエントロピーコーディングする。たとえば、エントロピーコーディングユニット56は、コンテンツ適応型可変長コーディング(CAVLC)、コンテキスト適応型バイナリ算術コーディング(CABAC)、または別のエントロピーコーディング技法を実行し得る。エントロピーコーディングユニット56によるエントロピーコーディングの後、符号化ビデオは、別のデバイスに送信されるか、あるいは後で送信するかまたは取り出すためにアーカイブされ得る。コンテキスト適応型バイナリ算術コーディングの場合、コンテキストは隣接ブロックおよび/またはブロックサイズに基づき得る。
場合によっては、エントロピーコーディングユニット56またはビデオエンコーダ20の別のユニットは、上で説明したように、エントロピーコーディングおよびイントラ予測モードのコーディングに加えて他のコーディング機能を実行するように構成され得る。たとえば、エントロピーコーディングユニット56は、ブロックおよびパーティションのためのコード化ブロックパターン(CBP:coded block pattern)値を判断するように構成され得る。また、場合によっては、エントロピーコーディングユニット56は、マクロブロックまたはそれのパーティション中の係数のランレングスコーディングを実行し得る。特に、エントロピーコーディングユニット56は、マクロブロックまたはパーティション中の変換係数をスキャンするためにジグザグスキャンまたは他のスキャンパターンを適用し、さらなる圧縮のためにゼロのランを符号化し得る。エントロピーコーディングユニット56はまた、符号化ビデオビットストリーム中での送信のために適切なシンタックス要素とともにヘッダ情報を構成し得る。
逆量子化ユニット58および逆変換処理ユニット60は、それぞれ逆量子化および逆変換を適用して、たとえば、参照ブロックとして後で使用するために、ピクセル領域中で残差ブロックを再構成する。動き補償ユニット44は、残差ブロックをメモリ64のフレームのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、再構成された残差ブロックに1つまたは複数の補間フィルタを適用して、動き推定において使用するサブ整数ピクセル値を計算し得る。加算器62は、再構成された残差ブロックを、動き補償ユニット44によって生成された動き補償予測ブロックに加算して、メモリ64に記憶するための再構成されたビデオブロックを生成する。再構成されたビデオブロックは、後続のビデオフレーム中のブロックをインターコーディングするために動き推定ユニット42および動き補償ユニット44によって参照ブロックとして使用され得る。
このようにして、ビデオエンコーダ20は、現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定し、第1の最尤イントラ予測モードおよび第2の最尤イントラ予測モードに基づいて、現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めるように構成されたビデオデコーダの一例を表す。ビデオエンコーダ20は、第1の最尤モードが角度的イントラ予測モードであることおよび第2の最尤モードが非角度的イントラ予測モードであることに応答して、実際のイントラ予測モードの推定値として第1の最尤モードを選択することによって、ならびに、第1の最尤モードと第2の最尤モードの両方が異なる角度的予測モードであることに応答して、実際のイントラ予測の推定値として第1の最尤モードおよび第2の最尤モードの一方を選択することによって、実際のイントラ予測モードの推定値を求め得る。
図5は、符号化ビデオシーケンスを復号するビデオデコーダ30の一例を示すブロック図である。図5の例では、ビデオデコーダ30は、エントロピー復号ユニット70と、動き補償ユニット72と、イントラ予測ユニット74と、逆量子化ユニット76と、逆変換ユニット78と、メモリ82と、加算器80とを含む。ビデオデコーダ30は、いくつかの例では、ビデオエンコーダ20(図2)に関して説明した符号化パスとは概して逆の復号パスを実行し得る。動き補償ユニット72は、エントロピー復号ユニット70から受信した動きベクトルに基づいて予測データを生成し得る。動き補償ユニット72は、ビットストリーム中で受信された動きベクトルを使用して、メモリ82中の参照フレーム中の予測ブロックを識別し得る。イントラ予測ユニット74は、ビットストリーム中で受信されたイントラ予測モードを使用して、空間的に隣接するブロックから予測ブロックを形成し得る。
本開示の技法の一例では、エントロピー復号ユニット70は、ビデオデータの符号化ブロックを復号するために使用するためのイントラ予測モードを表す符号語を受信する。符号語は異なる値にマッピングし、差異値は、実際のイントラ予測モードの推定値と実際のイントラ予測モードとの間の差を識別し得る。イントラ予測ユニット74は、たとえば、符号化ブロックに対して左に隣接するブロックおよび上に隣接するブロックのイントラ予測モード、および/または符号化ブロックのサイズに基づいて、符号化ブロックのコンテキストを判断し得る。コンテキストに基づいて、イントラ予測ユニット74は、ブロックの復号に使用するために、1つまたは複数の最尤イントラ予測モードを決定し得る。最尤モードに基づいて、イントラ予測ユニット74は、符号化ブロックに対して推定された実際のイントラ予測モードを決定し得る。推定された実際のイントラ予測モードおよび符号化ビットストリーム内でシグナリングされた差異値に基づいて、イントラ予測ユニット74は、符号化ブロックを符号化するために使用される実際のイントラ予測モードを決定し得る。
イントラ予測ユニット74は、たとえば、隣接する、以前復号されたブロックのピクセルを使用して、符号化ブロックをイントラ予測するためにイントラ予測モードの指示を使用できる。ブロックがインター予測モード符号化される例では、動き補償ユニット72は、符号化ブロックについての動き補償予測データを取り出すために、動きベクトルを定義する情報、ならびに予測方向と参照ピクチャインデックスとを示す情報を受信できる。いずれの場合も、動き補償ユニット72またはイントラ予測ユニット74は、予測ブロックを定義する情報を加算器80に与え得る。
イントラ予測ユニット74は、概して、最尤モードと推定された実際のイントラ予測モードとを決定するために、図2のイントラ予測ユニット46を参照して以前に説明したものと同じ技法を実施し得る。たとえば、以前に説明したのと類似する方式で、イントラ予測ユニット74は、すでに復号されている隣接ブロックに基づいて復号されるビデオブロックに対して最尤モードを決定し得る。最尤モードが決定された後、イントラ予測ユニット74は、コード化されているブロックに対する実際のイントラ予測モードが最尤モードのうちの1つであるかどうかを示すシンタックス要素をパースできる。実際のイントラ予測モードが最尤イントラ予測モードのうちの1つでない場合、イントラ予測ユニット74は、最尤モードに基づいて実際のモードに対する推定値を求め、実際のイントラ予測モードと実際のイントラ予測モードの推定値との間の差を示すシンタックスをパースできる。たとえば、ビデオデコーダ30は、符号化ビデオビットストリーム内の差情報を受信し、差情報および実際のイントラ予測モードの推定値に基づいて、現在のビデオブロックに対する実際のイントラ予測モードを決定し得る。
本開示の技法によれば、1つの最尤モードが角度的予測モードであり、もう1つの最尤モードが非角度的予測モードであるとき、イントラ予測ユニット74は、角度的最尤モードを実際のイントラ予測モードの推定値として使用することによって、実際のイントラ予測モードの推定値を求め得る。
両方の最尤モードが角度的予測モードであるとき、実際のモードの推定値は、最尤モードのうちの1つであり得る。第1の最尤モードおよび第2の最尤モードが同じイントラ予測モードである場合の例では、イントラ予測ユニット72は、実際のイントラ予測モードの推定値としてそのイントラ予測モードを使用し得る。第1の最尤モードおよび第2の最尤モードがいずれも角度的モードであるが同じモードではない場合の例では、イントラ予測ユニット72は、2つの最尤モードの平均値または中央値を実際のイントラ予測モードの推定値として使用するのとは対照的に、2つの最尤モードの一方を実際のモードの推定値となるように選択し得る。
第1の最尤モードおよび第2の最尤モードが異なる角度的モードである場合の例において、どの最尤モードを実際のモードの推定値として使用するかを選択するために、以下の技法のうちの1つまたは複数が使用され得る。一例では、イントラ予測ユニット72は、垂直角(たとえば、図3Bおよび図3Cのイントラ予測モード0)により近い予測の角度を有する最尤モードを、実際のイントラ予測モードの推定値として選択し得る。別の例では、イントラ予測ユニット72は、垂直角と水平角(たとえば、図3Bおよび図3Cのイントラ予測モード1)との間にない最尤モードを、実際のイントラ予測モードの推定値として選択し得る。言い換えれば、2つの最尤モードの一方が、イントラ予測モード0とイントラ予測モード1との間のイントラ予測モードである場合、イントラ予測ユニット72は、イントラ予測モード0とイントラ予測モード1との間にない最尤イントラ予測モードのうちの1つを実際のイントラ予測モードの推定値として選択するように構成され得る。
他の例では、イントラ予測ユニット72は、最尤モードのうちの1つを実際のイントラ予測モードの推定値として選択し、その選択をシグナリングし得る。どの最尤モードが実際のモードの推定値であるかのシグナリングは、たとえば、符号語内に含まれ得、それにより、符号語は、実際のモードの推定値と、実際のモードの推定値と実際のモードとの間の差の両方を識別する。
一例では、イントラ予測ユニット72は、より小さいイントラモード番号を有する最尤モードを、実際のイントラ予測モードの推定値として選択し得る。たとえば、図3Bを参照すると、イントラ予測モード0は、モード1よりも好ましい。代替として、連続的モード順序付け、選好の個別の順序付け、または何らかの他の順序付けが使用され得る。
一例では、イントラ予測ユニット72は、隣接ブロックの情報に基づいて、最尤モードを実際のイントラ予測モードの推定値として選択し得る。たとえば、イントラ予測ユニット72は、左上のブロックのイントラ予測モードをチェックし、次いで、左上のブロックのイントラ予測モードにより近い最尤モードを、実際のモードの推定値として取り上げることができる。たとえば、上の隣接ブロックおよび左の隣接ブロックが最尤モードを決定するために使用される場合、左上のブロックは、この状況において、どの最尤モードを実際のモードの推定値として使用するかを選択するために使用され得る。一例として図4を使用して、ブロック406およびブロック410のモードが最尤モードとして使用される場合、ブロック404のイントラ予測は、ブロック406およびブロック410のどちらが、実際のイントラ予測モードの推定値として使用されるかを判断するために使用され得る。
一例では、イントラ予測ユニット72は、最尤モードブロックの情報に基づいて、最尤モードを実際のイントラ予測モードの推定値として選択し得る。たとえば、1つの最尤モードが上の隣接ブロックからであり、1つの最尤モードが左の隣接ブロックからである場合、イントラ予測ユニット72は、現在ブロックのサイズと同等かまたは類似のサイズを有するブロックに属する最尤モードを実際のモードの推定値として選択し得る。たとえば、現在コード化されているブロックが16×16のブロックであり、2つの隣接ブロックがそれぞれ、4×4および8×8のブロックである場合、8×8のブロックはコード化されているブロックにサイズがより近いので、8×8のブロックのモードが実際のイントラ予測モードの推定値として選択され得る。これらの規準の追加または代替として、PU深さ、インター/イントラモード、または何らかの他のタイプのブロック情報もまた使用され得る。たとえば、2つの最尤モードの間で選択するとき、コード化されているブロックと同じかまたは最も近いPU深さを有するブロックに関連する最尤モードが、実際のイントラ予測モードの推定値として選択され得る。
本開示の追加の技法によれば、イントラ予測ユニット72は、推定される実際のイントラ予測モードとして両方の最尤モードを使用して、推定される実際のイントラ予測モードを求め得る。たとえば、イントラ予測ユニット72は、最尤モードまでの最短距離を使用することによってイントラ予測モードに対する差を計算し得る。符号語は、概してより小さい距離に対して使用されるより短い符号語を用いて分類された距離に基づいて割り当てられ得る。そのような技法を使用すると、いくつかのモードが同じ距離を有することがある。したがって、本開示は、同じ距離を有するモード間を区別するための技法を説明する。たとえば、技法は、好適な最尤モード、好適な予測方向、および/または隣接ブロック情報に基づくことができる。
逆量子化ユニット76は、ビットストリーム中で与えられ、エントロピー復号ユニット70によって復号された量子化ブロック係数を逆量子化(inverse quantize)、すなわち、逆量子化(de-quantize)する。逆量子化プロセスは、たとえば、H.264復号規格によって定義されるかまたはHEVCテストモデルによって実行される、従来のプロセスを含み得る。逆量子化プロセスはまた、量子化の程度を判断し、同様に、適用する逆量子化の程度を判断するための、各マクロブロックについてエンコーダ20によって計算される量子化パラメータQPYの使用を含み得る。
逆変換処理ユニット58は、ピクセル領域において残差ブロックを生成するために、逆変換、たとえば、逆DCT、逆整数変換、または概念的に同様の逆変換プロセスを変換係数に適用する。動き補償ユニット72は、動き補償ブロックを生成し、場合によっては、補間フィルタに基づいて補間を実行する。サブピクセル精度をもつ動き推定に使用されるべき補間フィルタの識別子がシンタックス要素中に含まれ得る。動き補償ユニット72は、ビデオブロックの符号化中にビデオエンコーダ20によって使用された補間フィルタを使用して、参照ブロックのサブ整数ピクセルの補間値を計算し得る。動き補償ユニット72は、受信されたシンタックス情報に従って、ビデオエンコーダ20によって使用された補間フィルタを判断し、その補間フィルタを使用して予測ブロックを生成し得る。
動き補償ユニット72は、シンタックス情報のいくつかを使用して、符号化ビデオシーケンスの(1つまたは複数の)フレームを符号化するために使用されるブロックのサイズと、符号化ビデオシーケンスのフレームまたはスライスの各ブロックがどのように区分されるかを記述するパーティション情報と、各パーティションがどのように符号化されるかを示すモードと、各インター符号化ブロックまたはパーティションのための1つまたは複数の参照フレーム(および参照フレームリスト)と、符号化ビデオシーケンスを復号するための他の情報とを判断する。
加算器80は、残差ブロックを、動き補償ユニット72またはイントラ予測ユニット74によって生成される対応する予測ブロックと加算して、復号ブロックを形成する。必要に応じて、ブロッキネスアーティファクトを除去するために、デブロッキングフィルタを適用して、復号ブロックをフィルタリングすることもできる。復号ビデオブロックは、次いで、メモリ82に記憶され、メモリ82は、参照ブロックを後続の動き補償に供給し、また、(図1のディスプレイデバイス32などの)ディスプレイデバイス上での提示のために復号ビデオを生成する。
このようにして、ビデオエンコーダ30は、現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定し、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとに基づいて、現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を決定するように構成されたビデオデコーダの一例を表す。ビデオデコーダ30は、第1の最尤モードが角度的イントラ予測モードであることおよび第2の最尤モードが非角度的イントラ予測モードであることに応答して、実際のイントラ予測モードの推定値として第1の最尤モードを選択することによって、ならびに、第1の最尤モードと第2の最尤モードの両方が異なる角度的予測モードであることに応答して、実際のイントラ予測の推定値として第1の最尤モードおよび第2の最尤モードの一方を選択することによって、実際のイントラ予測モードの推定値を求め得る。
図6は、本開示の技法によるイントラ予測モードをシグナリングする例示的な方法を示すフローチャートである。図6の技法は、ビデオエンコーダ20およびビデオデコーダ30など、ビデオエンコーダまたはビデオデコーダのいずれかであリ得る一般的なビデオコーダを参照して説明される。
ビデオコーダは、現在のビデオブロックに対する第1の最尤イントラ予測モード(first most probable intra prediction mode)と第2の最尤イントラ予測モード(second most probable intra prediction mode)とを決定し得る(602)。第1および第2の最尤イントラ予測モードは、たとえば、コード化される現在ブロックに隣接する上の隣接ブロックに割り当てられるイントラ予測モード、およびコード化される現在ブロックに隣接する左の隣接ブロックに割り当てられるモードとして選択され得る。第1の最尤モードおよび第2の最尤モードのうちの1つが角度的であり、もう1つが非角度的である(604、はい)場合、ビデオコーダは、現在のビデオブロックの実際のイントラ予測モードの推定値として、角度的である最尤モードを選択し得る(606)。第1の最尤モードおよび第2の最尤モードが、いずれも角度的モードであり(604、いいえ)かつ同じである(608、はい)場合、ビデオコーダは、実際のイントラ予測モードの推定値としてそのモードを選択し得る(610)。第1の最尤モードおよび第2の最尤モードが、いずれも角度的モードである(604、いいえ)が同じではない(608、いいえ)場合、ビデオコーダは、実際のイントラ予測モードの推定値として、第1の最尤モードおよび第2の最尤モードの一方を選択し得る(612)。この場合、ビデオコーダは、上記で説明した技法のうちの1つまたは複数を使用して、第1の最尤モードおよび第2の最尤モードのどちらを実際のイントラ予測モードの推定値として使用するかを選択し得る。
図6のビデオコーダがビデオエンコーダである場合の例では、ビデオコーダは、求められた実際のイントラ予測モードの推定値とビデオデータのブロックをコーディングするために使用された実際のイントラ予測モードとの間の差を求め、符号化ビデオデータのビットストリーム内に差の指示を含めることができる。図6のビデオコーダがビデオデコーダである場合の例では、ビデオコーダは、実際のイントラ予測モードの推定値と符号化ビデオデータのビットストリーム内の実際のイントラ予測モードとの間の差の指示を受信し、ビデオデータのブロックをコーディングするために使用される実際のイントラ予測モードを決定するために、差情報と求められた実際のイントラ予測モードの推定値とを使用できる。
図6を参照して説明されたビデオコーダはまた、3つ以上の最尤イントラ予測モードを決定し得るが、この例の目的として、実際のイントラ予測モードの推定値は、第1の最尤モードおよび第2の最尤モードの一方であるように選択され得る。
1つまたは複数の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。ソフトウェアで実装される場合、機能は、1つまたは複数の命令またはコードとしてコンピュータ可読媒体上に記憶されるか、あるいはコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、たとえば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含むデータ記憶媒体または通信媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、あるいは(2)信号または搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実装のための命令、コードおよび/またはデータ構造を取り出すために1つまたは複数のコンピュータあるいは1つまたは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD−ROMまたは他の光ディスクストレージ、磁気ディスクストレージ、または他の磁気ストレージデバイス、フラッシュメモリ、あるいは命令またはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。たとえば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、または他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。ただし、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)およびディスク(disc)は、コンパクトディスク(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
命令は、1つまたは複数のデジタル信号プロセッサ(DSP)などの1つまたは複数のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路またはディスクリート論理回路によって実行され得る。したがって、本明細書で使用する「プロセッサ」という用語は、前述の構造、または本明細書で説明する技法の実装に好適な他の構造のいずれかを指す。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用のハードウェアおよび/またはソフトウェアモジュール内に与えられ得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素中に十分に実装され得る。
本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置において実装され得る。本開示では、開示する技法を実行するように構成されたデバイスの機能的態様を強調するために様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットを、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作ハードウェアユニットの集合によって与えられ得る。
様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
様々な例について説明した。これらおよび他の例は以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータをコーディングするための方法であって、
現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定することと、
前記第1の最尤イントラ予測モードと前記第2の最尤イントラ予測モードとに基づいて、前記現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めることとを備え、前記実際のイントラ予測モードの前記推定値を求めることが、
前記第1の最尤モードが角度的イントラ予測モードであることおよび前記第2の最尤モードが非角度的イントラ予測モードであることに応答して、前記実際のイントラ予測モードの前記推定値として前記第1の最尤モードを選択することと、
前記第1の最尤モードと前記第2の最尤モードの両方が、異なる角度的予測モードであることに応答して、前記実際のイントラ予測の前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方を選択することとを備える、方法。
[C2]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、
前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角により近い角度を有する最尤モードであるかを判断することと、
前記垂直角により近い前記角度を有する前記最尤モードを、前記実際のイントラ予測モードの前記推定値として選択することとを備える、C1に記載の方法。
[C3]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角と水平角との間にないかを選択することを備える、C1に記載の方法。
[C4]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方を、シグナリングすることを備える、C1に記載の方法。
[C5]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードのどちらがより小さいイントラモード番号を有するかを選択することを備える、C1に記載の方法。
[C6]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、1つまたは複数の隣接する情報のブロックに少なくとも部分的に基づく、C1に記載の方法。
[C7]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、前記第1の最尤モードおよび前記第2の最尤モードのどちらが、前記現在のビデオブロックにサイズがより近いビデオデータのブロックに関連するかを選択することを備える、C1に記載の方法。
[C8]
ビデオデコーダによって実行され、
差情報を受信することと、
前記差情報および前記実際のイントラ予測モードの前記推定値に基づいて、前記現在のビデオブロックに対する実際のイントラ予測モードを決定することとをさらに備える、C1に記載の方法。
[C9]
前記実際のイントラ予測モードを使用して再構成ビデオブロックを生成することをさらに備える、C8に記載の方法。
[C10]
ビデオエンコーダによって実行され、
差情報を符号化ビットストリーム内でシグナリングすることをさらに備え、前記差情報が、前記現在ブロックに対する実際のイントラ予測モードと前記実際のイントラ予測モードの前記推定値との間の差を識別する、C1に記載の方法。
[C11]
ビデオデータをコーディングするためのデバイスであって、
現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定し、
前記第1の最尤イントラ予測モードおよび前記第2の最尤イントラ予測モードに基づいて、前記現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めるように構成されたビデオコーダを備え、前記実際のイントラ予測モードの前記推定値を求めることが、
前記第1の最尤モードが角度的イントラ予測モードであることおよび前記第2の最尤モードが非角度的イントラ予測モードであることに応答して、前記実際のイントラ予測モードの前記推定値として前記第1の最尤モードを選択することと、
前記第1の最尤モードと前記第2の最尤モードの両方が、異なる角度的予測モードであることに応答して、前記実際のイントラ予測の前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方を選択することとを備える、デバイス。
[C12]
前記ビデオコーダが、前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角により近い角度を有する最尤モードであるかを判断すること、ならびに前記垂直角により近い前記角度を有する前記最尤モードを前記実際のイントラ予測モードの前記推定値として選択することによって、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、C11に記載のデバイス。
[C13]
前記ビデオコーダが、前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角と水平角との間にないかを選択することによって、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、C11に記載のデバイス。
[C14]
前記ビデオコーダが、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方をシグナリングすることによって、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、C11に記載のデバイス。
[C15]
前記ビデオコーダが、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードのどちらがより小さいイントラモード番号を有するかを選択することによって、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、C11に記載のデバイス。
[C16]
前記ビデオコーダが、1つまたは複数の隣接する情報のブロックに少なくとも部分的に基づいて、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、C11に記載のデバイス。
[C17]
前記ビデオコーダが、前記第1の最尤モードおよび前記第2の最尤モードのどちらが、前記現在のビデオブロックにサイズがより近いビデオデータのブロックに関連するかを選択することによって、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、C11に記載のデバイス。
[C18]
前記ビデオコーダがビデオデコーダであり、前記ビデオコーダが、
差情報を受信し、
前記差情報および前記実際のイントラ予測モードの前記推定値に基づいて、前記現在のビデオブロックに対する実際のイントラ予測モードを決定するようにさらに構成される、C11に記載のデバイス。
[C19]
前記ビデオコーダが、
前記実際のイントラ予測モードを使用して再構成ビデオブロックを生成するようにさらに構成される、C18に記載のデバイス。
[C20]
前記ビデオコーダがビデオエンコーダを備え、前記ビデオコーダが、
差情報を符号化ビットストリーム内でシグナリングするようにさらに構成され、前記差情報が、前記現在ブロックに対する実際のイントラ予測モードと前記実際のイントラ予測モードの前記推定値との間の差を識別する、C18に記載のデバイス。
[C21]
集積回路と、
マイクロプロセッサと、
前記ビデオコーダを含むワイヤレス通信デバイスとのうちの少なくとも1つを備える、C11に記載のデバイス。
[C22]
ビデオデータをコーディングするための装置であって、
現在のビデオブロックに対する第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定するための手段と、
前記第1の最尤イントラ予測モードおよび前記第2の最尤イントラ予測モードに基づいて、前記現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めるための手段とを備え、前記実際のイントラ予測モードの前記推定値を求めるための前記手段が、
前記第1の最尤モードが角度的イントラ予測モードであることおよび前記第2の最尤モードが非角度的イントラ予測モードであることに応答して、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードを選択するための手段と、
前記第1の最尤モードおよび前記第2の最尤モードの両方が、異なる角度的予測モードであることに応答して、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方を選択するための手段とを備える、装置。
[C23]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、
前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角により近い角度を有する最尤モードであるかを判断するための手段と、
前記垂直角により近い前記角度を有する前記最尤モードを、前記実際のイントラ予測モードの前記推定値として選択するための手段とを備える、C22に記載の装置。
[C24]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角と水平角との間にないかを選択するための手段を備える、C22に記載の装置。
[C25]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方をシグナリングするための手段を備える、C22に記載の装置。
[C26]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードのどちらがより小さいイントラモード番号を有するかを選択するための手段を備える、C22に記載の装置。
[C27]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、1つまたは複数の隣接する情報のブロックに少なくとも部分的に基づいて、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択する、C22に記載の装置。
[C28]
前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、前記第1の最尤モードおよび前記第2の最尤モードのどちらが、前記現在のビデオブロックにサイズがより近いビデオデータのブロックに関連するかを選択するための手段を備える、C22に記載の装置。
[C29]
ビデオデコーダを備え、
差情報を受信するための手段と、
前記差情報および前記実際のイントラ予測モードの前記推定値に基づいて、前記現在のビデオブロックに対する実際のイントラ予測モードを決定するための手段とをさらに備える、C22に記載の装置。
[C30]
前記実際のイントラ予測モードを使用して再構成ビデオブロックを生成するための手段をさらに備える、C29に記載の装置。
[C31]
ビデオエンコーダを備え、
差情報を符号化ビットストリーム内でシグナリングするための手段をさらに備え、前記差情報が、前記現在ブロックに対する実際のイントラ予測モードと前記実際のイントラ予測モードの前記推定値との間の差を識別する、C22に記載の装置。
[C32]
命令を記憶するコンピュータ可読記憶媒体であって、前記命令が、1つまたは複数のプロセッサに、
現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定させ、
前記第1の最尤イントラ予測モードおよび前記第2の最尤イントラ予測モードに基づいて、前記現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めさせるように動作可能であり、前記命令が、前記1つまたは複数のプロセッサに、
前記第1の最尤モードが角度的イントラ予測モードであることおよび前記第2の最尤モードが非角度的イントラ予測モードであることに応答して、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードを選択することと、
前記第1の最尤モードと前記第2の最尤モードの両方が、異なる角度的予測モードであることに応答して、前記実際のイントラ予測の前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方を選択することとによって、前記実際のイントラ予測モードの前記推定値を求めさせる、コンピュータ可読記憶媒体。

Claims (32)

  1. ビデオデータをコーディングするための方法であって、
    現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定することと、
    前記第1の最尤イントラ予測モードと前記第2の最尤イントラ予測モードとに基づいて、前記現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めることとを備え、前記実際のイントラ予測モードの前記推定値を求めることが、
    前記第1の最尤モードが角度的イントラ予測モードであることおよび前記第2の最尤モードが非角度的イントラ予測モードであることに応答して、前記実際のイントラ予測モードの前記推定値として前記第1の最尤モードを選択することと、
    前記第1の最尤モードと前記第2の最尤モードの両方が、異なる角度的予測モードであることに応答して、前記実際のイントラ予測の前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方を選択することとを備える、方法。
  2. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、
    前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角により近い角度を有する最尤モードであるかを判断することと、
    前記垂直角により近い前記角度を有する前記最尤モードを、前記実際のイントラ予測モードの前記推定値として選択することとを備える、請求項1に記載の方法。
  3. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角と水平角との間にないかを選択することを備える、請求項1に記載の方法。
  4. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方を、シグナリングすることを備える、請求項1に記載の方法。
  5. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードのどちらがより小さいイントラモード番号を有するかを選択することを備える、請求項1に記載の方法。
  6. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、1つまたは複数の隣接する情報のブロックに少なくとも部分的に基づく、請求項1に記載の方法。
  7. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択することが、前記第1の最尤モードおよび前記第2の最尤モードのどちらが、前記現在のビデオブロックにサイズがより近いビデオデータのブロックに関連するかを選択することを備える、請求項1に記載の方法。
  8. ビデオデコーダによって実行され、
    差情報を受信することと、
    前記差情報および前記実際のイントラ予測モードの前記推定値に基づいて、前記現在のビデオブロックに対する実際のイントラ予測モードを決定することとをさらに備える、請求項1に記載の方法。
  9. 前記実際のイントラ予測モードを使用して再構成ビデオブロックを生成することをさらに備える、請求項8に記載の方法。
  10. ビデオエンコーダによって実行され、
    差情報を符号化ビットストリーム内でシグナリングすることをさらに備え、前記差情報が、前記現在ブロックに対する実際のイントラ予測モードと前記実際のイントラ予測モードの前記推定値との間の差を識別する、請求項1に記載の方法。
  11. ビデオデータをコーディングするためのデバイスであって、
    現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定し、
    前記第1の最尤イントラ予測モードおよび前記第2の最尤イントラ予測モードに基づいて、前記現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めるように構成されたビデオコーダを備え、前記実際のイントラ予測モードの前記推定値を求めることが、
    前記第1の最尤モードが角度的イントラ予測モードであることおよび前記第2の最尤モードが非角度的イントラ予測モードであることに応答して、前記実際のイントラ予測モードの前記推定値として前記第1の最尤モードを選択することと、
    前記第1の最尤モードと前記第2の最尤モードの両方が、異なる角度的予測モードであることに応答して、前記実際のイントラ予測の前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方を選択することとを備える、デバイス。
  12. 前記ビデオコーダが、前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角により近い角度を有する最尤モードであるかを判断すること、ならびに前記垂直角により近い前記角度を有する前記最尤モードを前記実際のイントラ予測モードの前記推定値として選択することによって、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、請求項11に記載のデバイス。
  13. 前記ビデオコーダが、前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角と水平角との間にないかを選択することによって、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、請求項11に記載のデバイス。
  14. 前記ビデオコーダが、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方をシグナリングすることによって、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、請求項11に記載のデバイス。
  15. 前記ビデオコーダが、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードのどちらがより小さいイントラモード番号を有するかを選択することによって、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、請求項11に記載のデバイス。
  16. 前記ビデオコーダが、1つまたは複数の隣接する情報のブロックに少なくとも部分的に基づいて、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、請求項11に記載のデバイス。
  17. 前記ビデオコーダが、前記第1の最尤モードおよび前記第2の最尤モードのどちらが、前記現在のビデオブロックにサイズがより近いビデオデータのブロックに関連するかを選択することによって、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するように構成される、請求項11に記載のデバイス。
  18. 前記ビデオコーダがビデオデコーダであり、前記ビデオコーダが、
    差情報を受信し、
    前記差情報および前記実際のイントラ予測モードの前記推定値に基づいて、前記現在のビデオブロックに対する実際のイントラ予測モードを決定するようにさらに構成される、請求項11に記載のデバイス。
  19. 前記ビデオコーダが、
    前記実際のイントラ予測モードを使用して再構成ビデオブロックを生成するようにさらに構成される、請求項18に記載のデバイス。
  20. 前記ビデオコーダがビデオエンコーダを備え、前記ビデオコーダが、
    差情報を符号化ビットストリーム内でシグナリングするようにさらに構成され、前記差情報が、前記現在ブロックに対する実際のイントラ予測モードと前記実際のイントラ予測モードの前記推定値との間の差を識別する、請求項18に記載のデバイス。
  21. 集積回路と、
    マイクロプロセッサと、
    前記ビデオコーダを含むワイヤレス通信デバイスとのうちの少なくとも1つを備える、請求項11に記載のデバイス。
  22. ビデオデータをコーディングするための装置であって、
    現在のビデオブロックに対する第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定するための手段と、
    前記第1の最尤イントラ予測モードおよび前記第2の最尤イントラ予測モードに基づいて、前記現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めるための手段とを備え、前記実際のイントラ予測モードの前記推定値を求めるための前記手段が、
    前記第1の最尤モードが角度的イントラ予測モードであることおよび前記第2の最尤モードが非角度的イントラ予測モードであることに応答して、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードを選択するための手段と、
    前記第1の最尤モードおよび前記第2の最尤モードの両方が、異なる角度的予測モードであることに応答して、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方を選択するための手段とを備える、装置。
  23. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、
    前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角により近い角度を有する最尤モードであるかを判断するための手段と、
    前記垂直角により近い前記角度を有する前記最尤モードを、前記実際のイントラ予測モードの前記推定値として選択するための手段とを備える、請求項22に記載の装置。
  24. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、前記第1の最尤モードおよび前記第2の最尤モードのどちらが垂直角と水平角との間にないかを選択するための手段を備える、請求項22に記載の装置。
  25. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方をシグナリングするための手段を備える、請求項22に記載の装置。
  26. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードのどちらがより小さいイントラモード番号を有するかを選択するための手段を備える、請求項22に記載の装置。
  27. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、1つまたは複数の隣接する情報のブロックに少なくとも部分的に基づいて、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択する、請求項22に記載の装置。
  28. 前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの前記一方を選択するための前記手段が、前記第1の最尤モードおよび前記第2の最尤モードのどちらが、前記現在のビデオブロックにサイズがより近いビデオデータのブロックに関連するかを選択するための手段を備える、請求項22に記載の装置。
  29. ビデオデコーダを備え、
    差情報を受信するための手段と、
    前記差情報および前記実際のイントラ予測モードの前記推定値に基づいて、前記現在のビデオブロックに対する実際のイントラ予測モードを決定するための手段とをさらに備える、請求項22に記載の装置。
  30. 前記実際のイントラ予測モードを使用して再構成ビデオブロックを生成するための手段をさらに備える、請求項29に記載の装置。
  31. ビデオエンコーダを備え、
    差情報を符号化ビットストリーム内でシグナリングするための手段をさらに備え、前記差情報が、前記現在ブロックに対する実際のイントラ予測モードと前記実際のイントラ予測モードの前記推定値との間の差を識別する、請求項22に記載の装置。
  32. 命令を記憶するコンピュータ可読記憶媒体であって、前記命令が、1つまたは複数のプロセッサに、
    現在のビデオブロックに対して、第1の最尤イントラ予測モードと第2の最尤イントラ予測モードとを決定させ、
    前記第1の最尤イントラ予測モードおよび前記第2の最尤イントラ予測モードに基づいて、前記現在のビデオブロックをコーディングするために使用される実際のイントラ予測モードの推定値を求めさせるように動作可能であり、前記命令が、前記1つまたは複数のプロセッサに、
    前記第1の最尤モードが角度的イントラ予測モードであることおよび前記第2の最尤モードが非角度的イントラ予測モードであることに応答して、前記実際のイントラ予測モードの前記推定値として、前記第1の最尤モードを選択することと、
    前記第1の最尤モードと前記第2の最尤モードの両方が、異なる角度的予測モードであることに応答して、前記実際のイントラ予測の前記推定値として、前記第1の最尤モードおよび前記第2の最尤モードの一方を選択することとによって、前記実際のイントラ予測モードの前記推定値を求めさせる、コンピュータ可読記憶媒体。
JP2014542495A 2011-11-18 2012-11-16 イントラモードコーディングにおける参照モード選択 Expired - Fee Related JP5866453B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161561819P 2011-11-18 2011-11-18
US201161561803P 2011-11-18 2011-11-18
US61/561,803 2011-11-18
US61/561,819 2011-11-18
US13/678,334 US9628789B2 (en) 2011-11-18 2012-11-15 Reference mode selection in intra mode coding
US13/678,334 2012-11-15
PCT/US2012/065532 WO2013074935A1 (en) 2011-11-18 2012-11-16 Reference mode selection in intra mode coding

Publications (2)

Publication Number Publication Date
JP2015502093A true JP2015502093A (ja) 2015-01-19
JP5866453B2 JP5866453B2 (ja) 2016-02-17

Family

ID=48426919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014542495A Expired - Fee Related JP5866453B2 (ja) 2011-11-18 2012-11-16 イントラモードコーディングにおける参照モード選択

Country Status (6)

Country Link
US (1) US9628789B2 (ja)
EP (1) EP2781094B1 (ja)
JP (1) JP5866453B2 (ja)
KR (1) KR101632130B1 (ja)
CN (1) CN103947205B (ja)
WO (1) WO2013074935A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101507344B1 (ko) * 2009-08-21 2015-03-31 에스케이 텔레콤주식회사 가변 길이 부호를 이용한 인트라 예측모드 부호화 방법과 장치, 및 이를 위한기록 매체
WO2014190468A1 (en) 2013-05-27 2014-12-04 Microsoft Corporation Video encoder for images
CN105359531B (zh) 2014-03-17 2019-08-06 微软技术许可有限责任公司 用于针对屏幕内容编码的编码器侧判定的方法和系统
US10924743B2 (en) 2015-02-06 2021-02-16 Microsoft Technology Licensing, Llc Skipping evaluation stages during media encoding
US10038917B2 (en) * 2015-06-12 2018-07-31 Microsoft Technology Licensing, Llc Search strategies for intra-picture prediction modes
US10136132B2 (en) 2015-07-21 2018-11-20 Microsoft Technology Licensing, Llc Adaptive skip or zero block detection combined with transform size decision
EP3442232A4 (en) 2016-04-06 2019-12-04 KT Corporation METHOD AND APPARATUS FOR PROCESSING VIDEO SIGNAL
US10721489B2 (en) * 2016-09-06 2020-07-21 Qualcomm Incorporated Geometry-based priority for the construction of candidate lists
EP3301915A1 (en) * 2016-09-30 2018-04-04 Thomson Licensing Method and apparatus for omnidirectional video coding with adaptive intra most probable modes
US10958903B2 (en) * 2016-10-04 2021-03-23 Electronics And Telecommunications Research Institute Method and apparatus for encoding/decoding image and recording medium storing bit stream
US10694202B2 (en) * 2016-12-01 2020-06-23 Qualcomm Incorporated Indication of bilateral filter usage in video coding
EP3399754A1 (en) * 2017-05-04 2018-11-07 Thomson Licensing Method and apparatus for most probable mode (mpm) reordering for intra prediction
CN111373750A (zh) * 2017-10-24 2020-07-03 韦勒斯标准与技术协会公司 视频信号处理方法和装置
KR20230107907A (ko) 2018-06-29 2023-07-18 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 확장 기준 인트라 화면 예측
BR112021003679A2 (pt) * 2018-08-27 2021-05-18 Huawei Technologies Co., Ltd. método, codificador e decodificador para predição intra
US11405638B2 (en) * 2019-03-17 2022-08-02 Tencent America LLC Method and apparatus for video coding by determining intra prediction direction based on coded information of neighboring blocks

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005528047A (ja) * 2002-05-28 2005-09-15 シャープ株式会社 画像符号化システム、画像復号システム、及び画像を分割したブロックの画素値の予測方法
US20100086034A1 (en) * 2008-10-06 2010-04-08 Lg Electronics Inc. method and an apparatus for processing a video signal
WO2010090749A1 (en) * 2009-02-06 2010-08-12 Thomson Licensing Methods and apparatus for implicit and semi-implicit intra mode signaling for video encoders and decoders

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI103003B (fi) * 1997-06-13 1999-03-31 Nokia Corp Suodatusmenetelmä, suodatin ja kannettava päätelaite
JP2001027986A (ja) * 1999-05-10 2001-01-30 Canon Inc データ処理装置及び処理部選択方法
US7386048B2 (en) 2002-05-28 2008-06-10 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode organization
US7289674B2 (en) * 2002-06-11 2007-10-30 Nokia Corporation Spatial prediction based intra coding
US20070036215A1 (en) 2003-03-03 2007-02-15 Feng Pan Fast mode decision algorithm for intra prediction for advanced video coding
KR100750145B1 (ko) 2005-12-12 2007-08-21 삼성전자주식회사 영상의 인트라 예측 부호화, 복호화 방법 및 장치
EP1995967A4 (en) * 2006-03-16 2009-11-11 Huawei Tech Co Ltd METHOD AND APPARATUS FOR ADAPTIVE QUANTIFICATION IN AN ENCODING PROCEDURE
EP3410706B1 (en) * 2007-06-29 2021-12-01 Velos Media International Limited Image encoding device and image decoding device
US8611435B2 (en) * 2008-12-22 2013-12-17 Qualcomm, Incorporated Combined scheme for interpolation filtering, in-loop filtering and post-loop filtering in video coding
WO2011031332A1 (en) 2009-09-14 2011-03-17 Thomson Licensing Methods and apparatus for efficient video encoding and decoding of intra prediction mode
EP2388999B1 (en) 2010-05-17 2021-02-24 Lg Electronics Inc. New intra prediction modes
US20110317757A1 (en) 2010-06-25 2011-12-29 Qualcomm Incorporated Intra prediction mode signaling for finer spatial prediction directions
US9025661B2 (en) 2010-10-01 2015-05-05 Qualcomm Incorporated Indicating intra-prediction mode selection for video coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005528047A (ja) * 2002-05-28 2005-09-15 シャープ株式会社 画像符号化システム、画像復号システム、及び画像を分割したブロックの画素値の予測方法
US20100086034A1 (en) * 2008-10-06 2010-04-08 Lg Electronics Inc. method and an apparatus for processing a video signal
WO2010090749A1 (en) * 2009-02-06 2010-08-12 Thomson Licensing Methods and apparatus for implicit and semi-implicit intra mode signaling for video encoders and decoders

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JPN6013043738; Sandeep Kanumuri et al.: 'Enhancements to Intra Coding' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-D235, 201101, pp.1-7, 4th Meeting: Daegu, KR *
JPN6015000701; Wei-Jung Chien et al.: 'Parsing friendly intra mode coding' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F459r2, 201107, pp.1-5, 6th Meeting: Torino, IT *
JPN6015000702; Tzu-Der Chuang et al.: 'Luma Intra Prediction Mode Coding' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F062_r1, 201107, pp.1-5, 6th Meeting: Torino, IT *
JPN6015001255; Mei Guo et al.: 'Improved Intra Mode Coding' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-D166, 201101, pp.1-7, 4th Meeting: Daegu, Korea *
JPN6015047976; Jinho Lee et.al.: 'Intra-Mixture Prediction Mode and Enhanced Most Probable Mode Estimation for Intra Coding in H.264/A' Fifth International Joint Conference on INC, IMS and IDC , 200908, pp.1619 - 1622, IEEE *
JPN6015047979; Robert Cohen et al.: 'Non-CE6: Coding of luma intra prediction modes that are not in the MPM set' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-G359, 20111109, pp.1-11, 7th Meeting: Geneva, CH *

Also Published As

Publication number Publication date
US9628789B2 (en) 2017-04-18
EP2781094A1 (en) 2014-09-24
WO2013074935A1 (en) 2013-05-23
KR20140092405A (ko) 2014-07-23
US20130128964A1 (en) 2013-05-23
CN103947205A (zh) 2014-07-23
CN103947205B (zh) 2017-09-22
EP2781094B1 (en) 2018-07-11
KR101632130B1 (ko) 2016-06-20
JP5866453B2 (ja) 2016-02-17

Similar Documents

Publication Publication Date Title
US11166016B2 (en) Most probable transform for intra prediction coding
JP5866453B2 (ja) イントラモードコーディングにおける参照モード選択
US10264280B2 (en) Enhanced intra-prediction mode signaling for video coding using neighboring mode
JP6042470B2 (ja) ビデオコーディングのための適応動き解像度
JP5886440B2 (ja) イントラ予測ビデオコーディングにおける非正方形変換
US9787982B2 (en) Non-square transform units and prediction units in video coding
US9025661B2 (en) Indicating intra-prediction mode selection for video coding
JP5823526B2 (ja) ビデオ符号化のための適応動きベクトル解像度信号伝達
US8913662B2 (en) Indicating intra-prediction mode selection for video coding using CABAC
JP6174123B2 (ja) ビデオコーディングにおける量子化パラメータ(qp)コーディング
JP5587508B2 (ja) ビデオコード化のためのイントラ平滑化フィルタ
JP2015156647A (ja) マッピングされた変換と走査モードとを使用するビデオコード化
JP2014525170A (ja) ビデオコード化のための複数領域走査順序
JP2015516766A (ja) ビデオコーディングのための変換係数のコーディングにおけるグループフラグ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160104

R150 Certificate of patent or registration of utility model

Ref document number: 5866453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees