JP5784752B2 - ビデオコード化のための単一参照ピクチャリスト構成 - Google Patents

ビデオコード化のための単一参照ピクチャリスト構成 Download PDF

Info

Publication number
JP5784752B2
JP5784752B2 JP2013551258A JP2013551258A JP5784752B2 JP 5784752 B2 JP5784752 B2 JP 5784752B2 JP 2013551258 A JP2013551258 A JP 2013551258A JP 2013551258 A JP2013551258 A JP 2013551258A JP 5784752 B2 JP5784752 B2 JP 5784752B2
Authority
JP
Japan
Prior art keywords
reference picture
video
picture
list
picture list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013551258A
Other languages
English (en)
Other versions
JP2014506084A (ja
Inventor
チェン、ペイソン
チエン、ウェイ−ジュン
カークゼウィックズ、マルタ
チェン、イン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014506084A publication Critical patent/JP2014506084A/ja
Application granted granted Critical
Publication of JP5784752B2 publication Critical patent/JP5784752B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Description

本出願は、それぞれの内容全体が参照により本明細書に組み込まれる、2011年1月24日に出願された米国仮出願第61/435,496号、2011年2月22日に出願された米国仮出願第61/445,476号、及び2011年3月8日に出願された米国仮出願第61/450,550号の利益を主張する。
本開示は、ビデオコード化に関し、より詳細には、ビデオインターコード化技法に関する。
デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップ又はデスクトップコンピュータ、デジタルカメラ、デジタル記録装置、デジタルメディアプレーヤ、ビデオゲーム機器、ビデオゲームコンソール、セルラー電話又は衛星無線電話、ビデオ遠隔会議機器などを含む、広範囲にわたる機器に組み込まれ得る。デジタルビデオ機器は、デジタルビデオ情報をより効率的に送信及び受信するための、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part10,Advanced Video Coding(AVC)によって定義された規格、又は新生の高効率ビデオコード化(HEVC:High Efficiency Video Coding)規格、及びそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実施する。
ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減又は除去するために空間的予測及び/又は時間的予測を実行する。ブロックベースのビデオコード化では、ビデオピクチャ又はスライスがビデオブロック又はコード化単位(CU:coding unit)に区分され得る。イントラコード化(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロックに関する空間的予測を使用して符号化される。インターコード化(P又はB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロックに関する空間的予測、又は他の参照ピクチャに関する時間的予測を使用し得る。ビデオコード化機器は、インターピクチャコード化中に使用するための参照ピクチャのリストをメモリに記憶する。現在コード化ピクチャの前の表示時間をもつ参照ピクチャのリストはリスト0と呼ばれ、現在コード化ピクチャの後の表示時間をもつ参照ピクチャのリストはリスト1と呼ばれる。
Pスライス中のビデオブロックは、リスト0中の過去参照ピクチャを指し示す単一動きベクトルを用いる単方向予測を使用して符号化され得る。Bスライス中のビデオブロックは、それぞれ、(a)リスト0中の過去参照ピクチャを指し示す単一動きベクトルを用いる単方向予測、(b)リスト1中の未来参照ピクチャを指し示す単一動きベクトルを用いる単方向予測、(c)又はリスト0及びリスト1中の過去及び未来参照ピクチャを指し示す2つの動きベクトルを用いる双方向予測を使用して符号化され得る。P及びBスライス分類は、以降、リスト0及びリスト1が同じ時間方向又は異なる時間方向における参照ピクチャを含み得ることを除いて、ビデオブロックがBスライスとして符号化される、一般化P/B(GPB)スライスを含むように拡張された。GPBスライスの特定の一例では、リスト0とリスト1とは同一であり得る。
参照ピクチャリスト情報を示すように定義されたシンタックス要素は、符号化され、コード化ビデオスライスのスライスヘッダ中で復号機器に信号伝達される。コード化ビデオスライス及びそれの関連するシンタックス要素を受信すると、デコーダは、シンタックス要素に基づいてリスト0及びリスト1のための参照ピクチャリスト構成を実行する。Bスライスでは、各コード化ビデオブロックは、ビデオブロックが双方向予測(Bi)されるのか、リスト0から順方向において単方向予測(Pred_L0)されるのか、又はリスト1から逆方向において単方向予測(Pred_L1)されるのかを示すための関連するシンタックス要素、即ち、inter_pred_idcを有し得る。従って、Bスライスのためのinter_pred_idcシンタックス要素は、Bi、Pred_L0、又はPred_L1の3つのステータスのうちの1つを示すために2ビットを消費する。
概して、本開示は、ビデオブロックが双方向予測を使用してインターコード化されるのか、単方向予測を使用してインターコード化されるのかにかかわらず、ビデオコーダがビデオピクチャのビデオブロックをコード化し得る、単一参照ピクチャリストを構成するための技法に関する。例えば、単一参照ピクチャリストのみを用いて、ビデオコーダは、単一参照ピクチャリスト中に両方とも含まれる2つの参照ピクチャに関する双方向予測を使用してビデオブロックをコード化し得る。単一参照ピクチャリスト中の参照ピクチャは、現在ピクチャに対して全て時間的に前であるか、時間的に後であるか、又は時間的に前と後の両方であり得る。幾つかの例では、ビデオコーダはまた、ビデオシーケンス、ビデオピクチャ、又はビデオスライス中の全てのビデオブロックのコード化が、ただ1つの参照ピクチャに関する単方向予測に限定されるかどうかを示す情報をコード化し得、これにより、あまり複雑でないコード化技法を実施し得る。
ビデオピクチャの各コード化ビデオブロックは、ビデオブロックが単一参照ピクチャリストから双方向予測(Bi)されるのか、単一参照ピクチャリストから単方向予測(Uni)されるのかを示すための関連するシンタックス要素を有し得る。従って、本技法は、ビデオブロックが双方向予測されるのか単方向予測されるのかにかかわらず、ビデオピクチャ中のビデオブロックについてのインター予測ステータスをコード化するコストを低減することになる。例えば、双方向予測ビデオブロックと単方向予測ビデオブロックの両方をインターコード化するために単一参照ピクチャリストのみが必要とされることがあるので、複数の参照ピクチャリスト(例えば、従来のリスト0及びリスト1)の構成は必要とされないことがあり、これは、必要とされる計算リソースの量を低減し得る。更に、このようにして、単方向予測ビデオブロックをインターコード化するために単一参照ピクチャリストのみが必要とされ、追加の参照ピクチャリストは必要とされないことがあるので、ビデオコーダは、単方向予測ビデオブロックがリスト0に関して予測されるのか、リスト1に関して予測されるのか(例えば、従来のシンタックス要素Pred_L0及びPred_L1)を指定する必要がなく、これは、信号伝達される必要があるシンタックス要素の量を低減し得る。
一例では、本開示では、ビデオコーダを用いて、復号された参照ピクチャを記憶するメモリからの1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成することを含む、ビデオデータをコード化する方法について説明する。本方法はまた、ビデオコーダを用いて、単一参照ピクチャリスト中で識別された参照ピクチャのうちの2つに関する双方向予測と、単一参照ピクチャリスト中で識別された参照ピクチャのうちの1つに関する単方向予測とのうちの1つを使用して、現在ピクチャのビデオブロックをコード化することを含む。
別の例では、本開示では、復号された参照ピクチャを記憶するように動作可能なメモリを含むビデオコード化機器について説明する。本ビデオコード化機器はまた、メモリに記憶された1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成するように動作可能なビデオコーダを含む。ビデオコーダはまた、単一参照ピクチャリスト中で識別された参照ピクチャのうちの2つに関する双方向予測と、単一参照ピクチャリスト中で識別された参照ピクチャのうちの1つに関する単方向予測とのうちの1つを使用して、現在ピクチャのビデオブロックをコード化するように動作可能である。
別の例では、本開示では、復号された参照ピクチャを記憶するメモリからの1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成するための手段を含むビデオコード化機器について説明する。本ビデオコード化機器はまた、単一参照ピクチャリスト中で識別された参照ピクチャのうちの2つに関する双方向予測と、単一参照ピクチャリスト中で識別された参照ピクチャのうちの1つに関する単方向予測とのうちの1つを使用して、現在ピクチャのビデオブロックをコード化するための手段を含む。
別の例では、本開示では、ビデオコーダ中で実行されると、復号された参照ピクチャを記憶するメモリからの1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成することと、単一参照ピクチャリスト中で識別された参照ピクチャのうちの2つに関する双方向予測と、単一参照ピクチャリスト中で識別された参照ピクチャのうちの1つに関する単方向予測とのうちの1つを使用して、現在ピクチャのビデオブロックをコード化することとをビデオコーダに行わせる、ビデオデータをコード化するための命令を備えるコンピュータ可読記憶媒体について説明する。
1つ以上の例の詳細を添付の図面及び以下の説明に記載する。他の特徴、目的、及び利点は、その説明及び図面、ならびに特許請求の範囲から明らかになろう。
ビデオブロックの双方向予測と単方向予測の両方のための単一参照ピクチャリストを効率的にコード化し、構成するための技法を利用し得る例示的なビデオ符号化及び復号システムを示すブロック図。 ビデオピクチャを表示順序で含む例示的なビデオシーケンスを示す概念図。 本開示の1つ以上の態様による技法を実施し得る例示的なビデオエンコーダを示すブロック図。 本開示の1つ以上の態様による技法を実施し得る例示的なビデオデコーダを示すブロック図。 本開示の1つ以上の態様による、ビデオブロックをコード化する例示的な動作を示すフローチャート。 本開示の1つ以上の態様による、単一参照ピクチャリストを構成するためのデフォルト構成技法を実施するための例示的な動作を示すフローチャート。 本開示の1つ以上の態様による、単一参照ピクチャリストを構成するためのデフォルト構成技法を実施するための例示的な動作を示すフローチャート。
本開示では、単一参照ピクチャリストのみの中の参照ピクチャに関する双方向予測又は単方向予測のいずれかを使用してスライスのビデオブロックをコード化、例えば、復号又は符号化するための例示的な技法について説明する。例えば、ビデオコーダは、同じ単一参照ピクチャリスト中に含まれる1つ又は2つの参照ピクチャを指し示す2つの動きベクトルを用いる双方向予測を使用して、Bスライスのビデオブロックをコード化し得る。幾つかの例では、2つの動きベクトルの各々は同じ参照ピクチャを指し示し得る。幾つかの他の例では、2つの動きベクトルの各々は2つの異なる参照ピクチャを指し示し得る。簡潔のために、例の多くでは、2つの動きベクトルが2つの異なる参照ピクチャを指し示す場合について説明するが、本開示の態様はそのように限定されない。
ビデオコーダは、単一参照ピクチャリスト中に含まれる1つの参照ピクチャを指し示す1つの動きベクトルを用いる単方向予測を使用してBスライス又はPスライスのビデオブロックをコード化し得る。同様に、ビデオコーダは、単一参照ピクチャリスト中に含まれる1つ又は2つの参照ピクチャを使用して、一般化P/B(GPB)スライスのビデオブロックをコード化し得る。
本開示で説明する1つ以上の例示的な技法によれば、ビデオコーダは、ビデオブロックがBスライスであるのか、Pスライスであるのか、GPBスライスであるのかにかかわらず、そのビデオブロックが2つの動きベクトルに関してコード化される(例えば、1つ又は2つの参照ピクチャに関して双方向予測される)とき、又はそのビデオブロックが1つの動きベクトルに関してコード化される(例えば、1つの参照ピクチャを用いて単方向予測される)とき、ビデオブロックをコード化するために単一参照ピクチャリストのみを利用し得る。言い換えれば、ビデオコーダ、例えば、ビデオエンコーダ又はビデオデコーダは、全てのタイプのインターコード化ビデオスライスのビデオブロックをコード化、例えば、符号化又は復号するための単一参照リストを構成し得る。これらの例示的な技法のうちの1つ又は複数によれば、ビデオブロックが双方向予測されるのか単方向予測されるのか(例えば、双方向予測又は単方向予測Bスライス、単方向予測Pスライス、若しくは双方向予測又は単方向予測GPBスライス)にかかわらず、他の参照ピクチャリストは、ビデオブロックをコード化するために必要とされない。
本開示で使用する「スライス」という用語は、ピクチャの一部分を指すが、ピクチャの全体を包含し得る。本開示で使用する「ピクチャ」という用語は、ビデオコンテンツの例を指す。例えば、連続ピクチャを迅速に表示すると、ビデオ再生が滑らかになる。幾つかの部分では、「ピクチャ」という用語は、「フレーム」という用語と互換的に使用され得る。
単一参照ピクチャリストは、スライスのビデオブロックをコード化するために使用される1つ以上の参照ピクチャを識別する識別子を含む。これらの参照ピクチャは、ビデオコード化機器のメモリに記憶され得る。1つ以上の参照ピクチャのための識別子は、参照ピクチャに割り当てられたピクチャ順序カウント(POC:picture order count)値及び/又はピクチャ数値であり得る。POC値は、ビデオシーケンス又はグループ・オブ・ピクチャ(GOP)中のピクチャの表示順序を示し得る。ピクチャ数値は、ビデオシーケンス又はGOP中のピクチャのコード化順序を示し得る。一例として、別のピクチャと比較してより小さいPOC値をもつピクチャは、より早く表示されるが、必ずしもより早くコード化されるとは限らない。別のピクチャと比較してより小さいピクチャ数値をもつピクチャは、より早くコード化されるが、必ずしもより早く表示されるとは限らない。参照ピクチャは、現在ピクチャからの参照ピクチャの時間距離に基づいて、単一参照ピクチャリスト中で編成され得る。時間距離は、例えば、所与の参照ピクチャと現在符号化されているピクチャとのPOC値及び/又はピクチャ数値間の差として定義され得る。
一例として、ビデオコーダは、Pスライスのビデオブロックを予測するために、又はただ1つの参照ピクチャに関してコード化されるBスライス若しくはGPBスライスのビデオブロックを単方向予測するために、単一参照ピクチャリストを利用し得る。ビデオコーダはまた、2つの異なる参照ピクチャに関してコード化されるBスライスを双方向予測するために、同じ単一参照ピクチャリストを利用し得る。この場合、2つの異なる参照ピクチャの両方が単一参照ピクチャリスト中で識別される。これは、ビデオコーダが、Pスライス、Bスライス、及び/又はGPBスライスを処理する方法の類似度を高め、それにより、ビデオコーダの処理効率が高まり得る。言い換えれば、ビデオブロックが1つ又は2つの参照ピクチャに関してコード化されるとき、ビデオコーダは、任意のタイプのインターコード化スライスのビデオブロックをコード化するために、2つ以上の参照ピクチャリストを構成する必要がないことがある。
本開示で説明する例示的な技法のうちの1つ以上では、これらのスライスタイプのビデオブロックが、それぞれ、ただ1つの参照ピクチャリスト(例えば、単一参照ピクチャリスト)中で識別された(1つ以上の)参照ピクチャを用いてコード化され得るので、ビデオコーダは、インターコード化スライスがPスライスであるのか、Bスライスであるのか、更にはGPBスライスであるのかを示すか又は場合によっては認識する(例えば、決定する)必要がないことがある。これは、コード化される必要がある情報の量を低減し得る。例えば、全てのタイプのインターコード化スライス中のビデオブロックは、同じ単一参照ピクチャリストに関してコード化され、また、ビデオブロックを予測するために使用される参照ピクチャの数にかかわらず、同じ単一参照ピクチャリストに関してコード化されるので、ビデオエンコーダは、インターコード化スライスの特定タイプを示すシンタックス情報を符号化する必要がなく、ビデオデコーダは、インターコード化スライスの特定タイプを示す情報を復号する必要がないことがある。
幾つかの例では、ビデオデコーダは、単一参照ピクチャリストを構成するためのデフォルト構成技法を実施し得る。単一参照ピクチャリストを構成するためのデフォルト構成技法は、ビデオデコーダが単一参照ピクチャリストを構成するための設定された定義された方法を指す。概して、ビデオデコーダは、ビデオエンコーダによって信号伝達されるコード化命令を受信することなしに、単一参照ピクチャリストを構成するためのデフォルト構成技法を実施し得る。
単一参照ピクチャリストを構成するためのデフォルト構成技法は、概して、現在ピクチャのビデオブロックをコード化するために使用される参照ピクチャと現在ピクチャとの間の時間距離に基づき得る。一例として、参照ピクチャと現在ピクチャとの間の時間距離はプレゼンテーション時間の差であり得る。上記で説明したように、各ピクチャは、ピクチャが表示、即ち提示される順序を示すピクチャ順序カウント(POC)値を割り当てられ得、プレゼンテーション時間の差は、1つ以上の参照ピクチャと現在ピクチャとのPOC値の差であり得る。
別の例として、参照ピクチャと現在ピクチャとの間の時間距離はコード化時間の差であり得る。上記で説明したように、各ピクチャは、ピクチャがコード化、例えば復号される順序を示すピクチャ数値を割り当てられ得、コード化時間の差は、1つ以上の参照ピクチャと現在ピクチャとのピクチャ数値の差であり得る。説明及び明快のために、本開示の技法について、時間距離がプレゼンテーション時間の差であるコンテキストにおいて説明する。但し、本開示の態様はそのように限定されず、時間距離はコード化時間(例えば、復号時間)の差であり得る。
デフォルト構成技法の一部として、ビデオデコーダは、現在ピクチャまでの参照ピクチャの時間距離に基づいて、単一参照ピクチャリスト中に参照ピクチャのための識別子を含め得る。参照ピクチャのための識別子は、参照ピクチャのPOC値、又はピクチャ数値であり得る。2つの参照ピクチャと現在ピクチャとの間の時間距離が等しい場合、デフォルト構成技法は、以下でより詳細に説明するように、2つの参照ピクチャのいずれが、他の参照ピクチャの前に単一参照ピクチャリスト中に含まれるべきであるかを定義し得る。
単一参照ピクチャリストを構成するためのデフォルト構成技法は、コード化される情報の量を更に低減し得る。例えば、デフォルト構成技法を用いると、ビデオデコーダは、単一参照ピクチャリストを構成すべき方法を示す情報を復号する必要がない。そうではなく、ビデオデコーダは、単一参照ピクチャリストの各エントリ中に追加されるべき各参照ピクチャなど、単一参照ピクチャリストをどのように構成するかを明示的に示す情報の受信に依拠しないデフォルト構成技法を実施するようにプログラム又は場合によっては構成され得る。このようにして、ビデオエンコーダは、ビデオデコーダが単一参照ピクチャリストを構成すべきである方法でビデオデコーダに命令するシンタックス情報を信号伝達する必要がないことがある。
コード化される情報の量を低減するために、幾つかの例では、ビデオエンコーダは、ピクチャのスライス、ピクチャの全体、又はピクチャのセットが単方向予測コード化に限定されるかどうかを示すシンタックス要素を符号化し得る。単方向予測コード化は、ただ1つの参照ピクチャに関するコード化を意味する。より詳細に説明するように、コード化が単方向予測コード化に限定されることを示すシンタックス要素をuni_pred_onlyシンタックス要素と呼ぶ。
一例として、インターコード化スライスの各ビデオブロックは、1つの参照ピクチャ又は2つの参照ピクチャに関してコード化され得る。所与のスライス中の全てのビデオブロックが1つの参照ピクチャに関してコード化されるとき、ビデオエンコーダは、スライスがPスライスであるのか、Bスライスであるのか、GPBスライスであるのかにかかわらず、スライスがただ1つの参照ピクチャに関してコード化されることを示すためにuni_pred_onlyシンタックス要素を符号化し得る。ビデオデコーダは、uni_pred_onlyシンタックス要素を復号して、現在スライス中の全てのビデオブロックがただ1つの参照ピクチャに関して符号化されることを認識(例えば、決定)し得る。
この例では、現在スライス中の各ビデオブロックについて、ビデオデコーダは、ビデオブロックを符号化するために使用された単一参照ピクチャリスト中の単一の参照ピクチャを示すシンタックス要素を復号することを予想し得、必ずしも、他の参照ピクチャがビデオブロックを符号化するために使用されたかどうかを示す追加のシンタックス要素を待つ必要があるとは限らないであろう。このようにして、コード化が単方向予測コード化に限定されることを示すシンタックス要素は、ビデオデコーダが全てのインターコード化スライスを処理する方法で類似度を更に促進し、ならびにビデオデコーダの計算効率を更に促進し(例えば、スライスを復号することに関連する複雑さを低下させ)得る。
ビデオエンコーダは、各スライスに付加されたヘッダ中で、予測が単方向予測コード化に限定されるかどうかを示すこの新しいシンタックス要素(例えば、uni_pred_onlyシンタックス要素)を信号伝達し得る。スライスヘッダ中に埋め込まれるものとして説明したが、この新しいシンタックス要素は、ピクチャパラメータセット(PPS)又はシーケンスパラメータセット(SPS)など、別個に信号伝達されるパラメータセット中に埋め込まれ得る。
コード化が単方向予測コード化に限定されるとき、ビデオコーダは、スライス中のビデオブロックが単方向予測されるのみであることを意味する「真」を示す1に等しい値をもつuni_pred_onlyシンタックス要素をコード化し得る。そうでない場合、ビデオコーダは、スライス中のビデオブロックが双方向予測又は単方向予測され得ることを意味する「偽」を示す0に等しい値をもつuni_pred_onlyシンタックス要素をコード化するか、又はuni_pred_onlyシンタックス要素をまったくコード化しない。
コード化が単方向予測コード化に限定されない場合、ビデオエンコーダはまた、1つ又は2つの参照ピクチャに関する双方向予測を使用して符号化されるスライスのブロックの割合を示す情報を信号伝達し得る。幾つかの例では、双方向予測を使用して符号化されるスライスのブロックの割合を示す情報を信号伝達することに加えて又はその代わりに、ビデオエンコーダは、双方向予測を使用して符号化されるスライス内のエリアの割合を示す情報を信号伝達し得る。双方向予測されるスライスのブロックの割合又は双方向予測されるスライスのエリアの割合を示す情報は、スライスヘッダ中に埋め込まれるか、PPS又はSPS中に別個に埋め込まれるか、あるいは、より低いレベルに準拠するデコーダが、双方向予測(bi-prediction)を使用する、より少ないパーセントのコード化単位(CU)を有し得、従って、より少ない復号計算を必要とするように、レベル定義中に埋め込まれ得る。
図1は、本開示の例による、ビデオブロックの双方向予測と単方向予測の両方のための単一参照ピクチャリストを効率的にコード化し、構成するための技法を利用し得る例示的なビデオ符号化及び復号システム10を示すブロック図である。概して、単一参照ピクチャリストは、代替的に単一参照フレームリストと呼ばれることがある。図1に示すように、システム10は、宛先機器14によって復号するための符号化ビデオを生成する発信源12を含む。発信源12及び宛先機器14は、それぞれビデオコード化機器の一例であり得る。発信源12は、通信チャネル16を介して宛先機器14に符号化ビデオを送信し得、又は、符号化ビデオが必要に応じて宛先機器14によってアクセスされ得るように、符号化ビデオを記憶媒体17又はファイルサーバ19に記憶し得る。
発信源12及び宛先機器14は、デスクトップコンピュータ、ノートブック(即ち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、所謂スマートフォンなどの電話ハンドセット、テレビジョン、カメラ、表示装置、デジタルメディアプレーヤ、ビデオゲームコンソールなどを含む、広範囲にわたる機器のいずれかを備え得る。多くの場合、そのような機器はワイヤレス通信が可能であり得る。従って、通信チャネル16は、符号化ビデオデータの送信に好適なワイヤレスチャネル、ワイヤードチャネル、又はワイヤレスチャネルとワイヤードチャネルとの組合せを備え得る。同様に、ファイルサーバ19は、インターネット接続を含む任意の標準データ接続を介して宛先機器14によってアクセスされ得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(例えば、Wi−Fi接続)、ワイヤード接続(例えば、DSL、ケーブルモデムなど)、又は両方の組合せを含み得る。
本開示の例による、任意のタイプのスライスのビデオブロックをコード化するための単一参照ピクチャリストを構成するための技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、例えばインターネットを介したストリーミングビデオ送信、データ記憶媒体に記憶するためのデジタルビデオの符号化、データ記憶媒体に記憶されたデジタルビデオの復号、又は他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコード化に適用され得る。幾つかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、及び/又はビデオテレフォニーなどの適用例をサポートするために、一方向又は双方向のビデオ送信をサポートするように構成され得る。
図1の例では、発信源12は、ビデオソース18と、ビデオエンコーダ20と、変調器/復調器(モデム)22と、出力インターフェース24とを含む。発信源12において、ビデオソース18は、ビデオカメラなどの撮像装置、以前に撮影されたビデオを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェース、及び/又はソースビデオとしてコンピュータグラフィックスデータを生成するためのコンピュータグラフィックスシステムなどのソース、若しくはそのようなソースの組合せを含み得る。一例として、ビデオソース18がビデオカメラである場合、発信源12及び宛先機器14は、所謂カメラ付き携帯電話又はビデオ電話を形成し得る。但し、本開示で説明する技法は、概してビデオコード化に適用可能であり得、ワイヤレス及び/又はワイヤード適用例に適用され得る。
撮影されたビデオ、以前に撮影されたビデオ、又はコンピュータ生成ビデオはビデオエンコーダ20によって符号化され得る。符号化されたビデオ情報は、ワイヤレス通信プロトコルなどの通信規格に従ってモデム22によって変調され、出力インターフェース24を介して宛先機器14に送信され得る。モデム22は、信号変調のために設計された様々なミキサ、フィルタ、増幅器又は他の構成要素を含み得る。出力インターフェース24は、増幅器、フィルタ、及び1つ以上のアンテナを含む、データを送信するために設計された回路を含み得る。
ビデオエンコーダ20によって符号化された、撮影されたビデオ、以前に撮影されたビデオ、又はコンピュータ生成ビデオはまた、後で消費するために記憶媒体17又はファイルサーバ19に記憶され得る。記憶媒体17は、ブルーレイ(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、又は符号化ビデオを記憶するための他の好適なデジタル記憶媒体を含み得る。記憶媒体17に記憶された符号化ビデオは、次いで、復号及び再生のために宛先機器14によってアクセスされ得る。
ファイルサーバ19は、符号化ビデオを記憶することと、その符号化ビデオを宛先機器14に送信することとが可能な任意のタイプのサーバであり得る。例示的なファイルサーバは、(例えば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)機器、ローカルディスクドライブ、又は符号化ビデオデータを記憶することと、符号化ビデオデータを宛先機器に送信することとが可能な他タイプの機器を含む。ファイルサーバ19からの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、又は両方の組合せであり得る。ファイルサーバ19は、インターネット接続を含む任意の標準データ接続を介して宛先機器14によってアクセスされ得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(例えば、Wi−Fi接続)、ワイヤード接続(例えば、DSL、ケーブルモデム、イーサネット(登録商標)、USBなど)、又は両方の組合せを含み得る。
図1の例では、宛先機器14は、入力インターフェース26と、モデム28と、ビデオデコーダ30と、表示装置32とを含む。宛先機器14の入力インターフェース26はチャネル16を介して情報を受信し、モデム28はその情報を復調して、ビデオデコーダ30のための復調されたビットストリームを生成する。復調されたビットストリームは、ビデオデータを復号する際にビデオデコーダ30が使用する、ビデオエンコーダ20によって生成された様々なシンタックス情報を含み得る。そのようなシンタックスはまた、記憶媒体17又はファイルサーバ19に記憶された符号化ビデオデータとともに含まれ得る。一例として、シンタックスは符号化ビデオデータとともに埋め込まれ得るが、本開示の態様は、そのような要件に限定されるものと見なすべきではない。ビデオデコーダ30によっても使用される、ビデオエンコーダ20によって定義されるシンタックス情報は、予測単位(PU:prediction unit)、コード化単位(CU)又はコード化ビデオの他の単位、例えば、ビデオスライス、ビデオピクチャ、及びビデオシーケンス又はグループ・オブ・ピクチャ(GOP)の特性及び/又は処理を記述するシンタックス要素を含み得る。ビデオエンコーダ20及びビデオデコーダ30の各々は、ビデオデータを符号化又は復号することが可能であるそれぞれのエンコーダデコーダ(コーデック)の一部を形成し得る。
表示装置32は、宛先機器14と一体化されるか又はその外部にあり得る。幾つかの例では、宛先機器14は、一体型表示装置を含み、また、外部表示装置とインターフェースするように構成され得る。他の例では、宛先機器14は表示装置であり得る。概して、表示装置32は、復号されたビデオデータをユーザに対して表示し、液晶表示器(LCD)、プラズマ表示器、有機発光ダイオード(OLED)表示器、又は別のタイプの表示装置など、様々な表示装置のいずれかを備え得る。
図1の例では、通信チャネル16は、無線周波数(RF)スペクトル又は1つ以上の物理伝送線路など、任意のワイヤレス又はワイヤード通信媒体、若しくはワイヤレス媒体とワイヤード媒体との任意の組合せを備え得る。通信チャネル16は、ローカルエリアネットワーク、ワイドエリアネットワーク、又はインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信チャネル16は、概して、ワイヤード媒体又はワイヤレス媒体の任意の好適な組合せを含む、ビデオデータを発信源12から宛先機器14に送信するのに好適な任意の通信媒体、又は様々な通信媒体の集合体を表す。通信チャネル16は、発信源12から宛先機器14への通信を可能にするのに有用であり得るルータ、スイッチ、基地局、又は任意の他の機器を含み得る。
ビデオエンコーダ20及びビデオデコーダ30は、新生の高効率ビデオコード化(HEVC)規格又は代替的にMPEG−4,Part10,Advanced Video Coding(AVC)とも呼ばれるITU−T H.264規格など、ビデオ圧縮規格に従って動作し得る。HEVC規格は、ITU−T/ISO/IEC Joint Collaborative Team on Video Coding(JCT−VC)によって現在開発中である。但し、本開示の技法は、いかなる特定のコード化規格にも限定されない。他の例には、MPEG−2及びITU−T H.263がある。
図1には示されていないが、幾つかの態様では、ビデオエンコーダ20及びビデオデコーダ30は、それぞれオーディオエンコーダ及びオーディオデコーダと統合され得、また、共通のデータストリーム又は別個のデータストリーム中のオーディオとビデオの両方の符号化を処理するための適切なMUX−DEMUXユニット、又は他のハードウェア及びソフトウェアを含み得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、又はユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
ビデオエンコーダ20及びビデオデコーダ30はそれぞれ、1つ以上のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダ回路のいずれか、又はそれらの任意の組合せとして実施され得る。本技法がソフトウェアで部分的に実施されるとき、機器は、好適な非一時的コンピュータ可読媒体にソフトウェアの命令を記憶し、1つ以上のプロセッサを使用してその命令をハードウェアで実行して、本開示の技法を実行し得る。
ビデオエンコーダ20及びビデオデコーダ30の各々は1つ以上のエンコーダ又はデコーダ中に含まれ得、そのいずれも、それぞれの機器において複合エンコーダ/デコーダ(コーデック)の一部として統合され得る。幾つかの事例では、ビデオエンコーダ20及びビデオデコーダ30は、一般に、情報(例えば、ピクチャ及びシンタックス要素)をコード化するビデオコーダと呼ばれることがある。情報のコード化は、ビデオコーダがビデオエンコーダ20に対応するときには符号化を指し得る。情報のコード化は、ビデオコーダがビデオデコーダ30に対応するときには復号を指し得る。
更に、本開示で説明する技法は、ビデオエンコーダ20がシンタックス要素などの情報を信号伝達することを指し得る。ビデオエンコーダ20が情報を信号伝達するとき、本開示の技法は、概して、ビデオエンコーダ20が情報を与える方法を指す。例えば、ビデオエンコーダ20がビデオデコーダ30にシンタックス要素を信号伝達するとき、それは、ビデオエンコーダ20が、出力インターフェース24及び通信チャネル16を介してビデオデコーダ30にシンタックス要素を送信したこと、又はビデオエンコーダ20が、ビデオデコーダ30による最終的な受信のために、出力インターフェース24を介してシンタックス要素を記憶媒体17及び/又はファイルサーバ19に記憶したことを意味し得る。このようにして、ビデオエンコーダ20からビデオデコーダ30への信号伝達は、ビデオデコーダ30によって直ちに受信されるビデオエンコーダ20からの送信が可能であり得るが、これを必要とするものと解釈されるべきではない。そうではなく、ビデオエンコーダ20からビデオデコーダ30への信号伝達は、ビデオエンコーダ20が、ビデオデコーダ30による最終的な受信のために情報を与える技法として解釈されるべきである。
本開示の例では、ビデオエンコーダ20は、イントラ予測又はインター予測を使用して、ビデオブロックと呼ばれる、ビデオデータのピクチャの一部分を符号化し得る。ビデオブロックはスライスの一部分であり得、スライスはピクチャの一部分であり得る。説明のために、本開示で説明する例示的な技法について、概して、スライスのビデオブロックに関して説明する。例えば、スライスのイントラ予測ビデオブロックは、スライス内のビデオブロックがイントラ予測されること(例えば、スライス内又はスライスを含むピクチャ内の隣接ブロックに関して予測されること)を意味する。同様に、スライスのインター予測ビデオブロックは、スライス内のビデオブロックがインター予測されること(例えば、1つ以上の参照ピクチャの1つ又は2つのビデオブロックに関して予測されること)を意味する。
イントラコード化ビデオブロックと呼ばれるイントラ予測ビデオブロックの場合、ビデオエンコーダ20は、ピクチャ内の他の部分に関してビデオブロックを予測し、符号化する。ビデオデコーダ30は、ビデオデータの他のピクチャを参照することなしにイントラコード化ビデオブロックを復号し得る。インターコード化ビデオブロックと呼ばれるインター予測ビデオブロックの場合、ビデオエンコーダ20は、1つ又は2つのピクチャ内の1つ又は2つの部分に関してビデオブロックを予測し、符号化する。これらの他のピクチャは参照ピクチャと呼ばれ、参照ピクチャはまた、更に他の1つ以上の参照ピクチャに関して予測されるピクチャ、又はイントラ予測ピクチャであり得る。
スライス内のインター予測ビデオブロックは、1つの参照ピクチャを指し示す1つの動きベクトル、又は2つの異なる参照ピクチャを指し示す2つの動きベクトルに関して予測されるビデオブロックを含み得る。ビデオブロックが、1つの参照ピクチャを指し示す1つの動きベクトルに関して予測されるとき、そのビデオブロックは単方向予測されると見なされる。ビデオブロックが、2つの異なる参照ピクチャを指し示す2つの動きベクトルに関して予測されるとき、そのビデオブロックは双方向予測されると見なされる。幾つかの例では、動きベクトルはまた、参照ピクチャ情報(例えば、動きベクトルがどの参照ピクチャを指し示すかを示す情報)を含み得る。但し、本開示の態様はそのように限定されない。
例えば、Pスライスは、表示順序において、スライスを含むピクチャに対して時間的に前に発生する1つの参照ピクチャに関して予測されるビデオブロックを含み得る。Bスライスは、表示順序において、スライスを含むピクチャに対して時間的に前に発生する1つの参照ピクチャに関して予測されるか、表示順序において、スライスを含むピクチャに対して時間的に後に発生する1つの参照ピクチャに関して予測されるか、又は、それぞれ表示順序において、スライスを含むピクチャに対して時間的に前の1つの参照ピクチャと時間的に後の1つの参照ピクチャとに関して予測されるビデオブロックを含み得る。
幾つかの例では、Pスライス及びBスライス分類は一般化P/B(GPB)スライスに拡張される。GPBスライスでは、ビデオブロックはBスライスとして符号化される。2つの参照ピクチャから予測されるGPBスライスのビデオブロックでは、幾つかの例では、参照ピクチャの両方が、表示順序において、スライスを含むピクチャに対して時間的に前であるか、又は、表示順序において、スライスを含むピクチャに対して時間的に後であり得る。Bスライスと同様に、2つの参照ピクチャから予測されるGPBスライスのビデオブロックでは、表示順序において、スライスを含むピクチャに対して、一方の参照ピクチャは時間的に後であり得、他方の参照ピクチャは時間的に前であり得る。
例えば、単方向予測ビデオブロックは、1つの参照ピクチャを指し示す1つの動きベクトルから予測されるビデオブロックであり、Pスライス、Bスライス、又はGPBスライスの単方向予測ビデオブロックであり得る。双方向予測ビデオブロックは、2つの異なる参照ピクチャをそれぞれ指し示す2つの動きベクトルから予測されるビデオブロックであり、Bスライス又はGPBスライスの双方向予測ビデオブロックであり得る。より詳細に説明するように、ビデオエンコーダ20及びビデオデコーダ30は単一参照ピクチャリストを利用し、幾つかの例では、ビデオブロックがPスライスの一部であるのか、Bスライスの一部であるのか、GPBスライスの一部であるのかにかかわらず、単方向予測ビデオブロックと双方向予測ビデオブロックの両方を符号化又は復号するために単一参照ピクチャリストのみを利用し得る。
例えば、インター予測ビデオブロックでは、ビデオエンコーダ20は、ビデオエンコーダ20が現在ビデオブロックを予測するためにどの参照ピクチャを利用したかを示す参照ピクチャリストを構成するものと見なされ得る。ビデオデコーダ30も、ビデオエンコーダ20が現在ビデオブロックを符号化するためにどの参照ピクチャを利用したかを示す参照ピクチャリストを構成し得るので、ビデオデコーダ30は、ビデオエンコーダ20によって利用された参照ピクチャに基づいて現在ビデオブロックを復号することができる。
より詳細に説明するように、本開示で説明する例示的な技法では、ビデオエンコーダ20がビデオブロックを予測した方法にかかわらず、ビデオエンコーダ20がビデオブロックを予測するためにどの参照ピクチャを利用したかを示す単一参照ピクチャリストをビデオデコーダ30が構成する方法について説明する。ビデオデコーダ30は、この単一参照ピクチャリストを利用して、ビデオブロックがインター予測される方法にかかわらず、インター予測ビデオブロックを復号し得る。幾つかの例では、ビデオエンコーダ20は、ビデオエンコーダ20がビデオブロックを予測するためにどの参照ピクチャを利用すべきであるかを示すそれ自体の単一参照ピクチャリストを使用して、ビデオブロックを予測し得る。
任意のタイプのスライスのためのビデオブロックの例には、コード化単位(CU)、予測単位(PU)、又は変換単位(TU)がある。現在ビデオブロックを予測するために、ビデオエンコーダ20は、現在ビデオブロックと同様のコンテンツを含む1つ又は2つの参照ピクチャのブロックを識別する。ビデオエンコーダ20は、各識別されたブロックについて、現在ビデオブロックのブロックの位置と、参照ピクチャの各々中の一致する1つ以上のブロックの位置との差を識別する動きベクトルを決定する。
幾つかの例では、ビデオエンコーダ20及びビデオデコーダ30は、Pスライス、Bスライス、又はGPBスライスのビデオブロックを予測するためにどの参照ピクチャが利用されるかを示す単一参照ピクチャリストをそれぞれ構成し得る。代替的に、一方のみ、例えば、ビデオエンコーダ20ではなくビデオデコーダ30が単一参照ピクチャリストを構成し得る。ビデオエンコーダ20も同様の方法で単一参照ピクチャリストを構成し得るという了解の下で、ビデオデコーダ30が単一参照ピクチャリストを構成することに関する様々な例について説明する。但し、本開示の幾つかの部分では、理解を助けるために、単一参照ピクチャリストの構成についてビデオエンコーダ20の観点から説明する。
単一参照ピクチャリスト中の1つ以上の参照ピクチャのための識別子は、参照ピクチャに割り当てられたピクチャ順序カウント(POC)値及び/又はピクチャ数値であり得る。POC値は、ビデオシーケンス又はグループ・オブ・ピクチャ(GOP)中のピクチャの表示順序を示し得る。ピクチャ数値は、ビデオシーケンス又はGOP中のピクチャのコード化順序を示し得る。一例として、別のピクチャと比較してより小さいPOC値をもつピクチャは、より早く表示されるが、必ずしもより早くコード化されるとは限らない。別のピクチャと比較してより小さいピクチャ数値をもつピクチャは、より早くコード化されるが、必ずしもより早く表示されるとは限らない。
例えば、ビデオデコーダ30は、スライスのビデオブロックを復号するために使用される、例えば、POC値又はピクチャ数値を用いて参照ピクチャを示し得る、それの単一参照ピクチャリストを構成し得る。1つ以上の例示的な技法では、ビデオデコーダ30は、この単一参照ピクチャリストを使用して、ビデオブロックが予測される方法にかかわらず、例えば、ビデオブロックが単方向予測されるのか双方向予測されるのかにかかわらず、ビデオブロックを復号し得る。
その上、ビデオデコーダ30は、ビデオブロックを符号化するために使用される参照ピクチャの数にかかわらず、単一参照ピクチャリストを使用してビデオブロックを復号し得る。例えば、Pスライスのビデオブロックが1つの参照ピクチャに関して予測されると仮定すると、この例では、単一参照ピクチャリストは、Pスライスのビデオブロックを予測するために使用される参照ピクチャのための識別子を含む。GPBスライスのビデオブロックが2つの異なる参照ピクチャに関して予測されると仮定すると、この例では、単一参照ピクチャリストは、Pスライスのビデオブロックを予測するために使用される参照ピクチャのための識別子を含み、GPBスライスのビデオブロックを予測するために使用される参照ピクチャの両方のための識別子を含む。
ビデオデコーダ30は、スライスのビデオブロックが予測された方法にかかわらず、そのスライスのビデオブロックを復号するために単一参照ピクチャリストを利用するので、この単一参照ピクチャリストは、異なるスライスタイプ間の一般化を更に促進し得る。例えば、従来の技法は、リスト0と呼ばれる第1の参照ピクチャリストの構成と、リスト1と呼ばれる第2の参照ピクチャリストの構成とを必要とした。これらの従来の技法では、Pスライスのビデオブロックの場合、ビデオデコーダ30は、ビデオブロックをPスライスのビデオブロックであるものとして識別するシンタックス情報を復号するであろう。ビデオデコーダ30は、次いで、Pスライスのビデオブロックを予測するために使用される参照ピクチャのための識別子がリスト0中のどこに位置するかを示すシンタックス情報を復号するであろう。
これらの従来の技法では、Bスライスのビデオブロックの場合、ビデオデコーダ30は、ビデオブロックをBスライスのビデオブロックであるものとして識別するシンタックス情報を復号するであろう。ビデオデコーダ30は、次いで、ビデオブロックが、リスト0中で識別されたただ1つの参照ピクチャから予測されるのか、リスト1中で識別されたただ1つの参照ピクチャから予測されるのか、又は、一方のピクチャはリスト0中で識別され、他方のピクチャはリスト1中で識別される、2つの参照ピクチャから予測されるのかを示すシンタックス情報を復号するであろう。ビデオデコーダ30は、次いで、Bスライスのビデオブロックを予測するために使用される1つ以上の参照ピクチャのための識別子が、リスト0、リスト1、又はリスト0とリスト1の両方中のどこに位置するかを示すシンタックス情報を復号するであろう。
従来の技法では、GPBスライスのビデオブロックの場合、ビデオデコーダ30はリスト1とリスト0とを構成するであろう。しかしながら、幾つかの特殊な状況では、ビデオデコーダ30は、特定のGPBスライスについてリスト1とリスト0とが同一であることを示すシンタックス情報を復号するであろう。これらの状況では、ビデオデコーダ30は、リスト0を構成し、リスト1を作成するためにリスト0の複製を作成し、又はその逆も同様である。Bスライスと同様に、これらの状況でも、従来の技法では、ビデオデコーダ30は、GBPスライスのビデオブロックが、リスト0中で識別されたただ1つの参照ピクチャから予測されるのか、リスト1中で識別されたただ1つの参照ピクチャから予測されるのか、又は、一方のピクチャはリスト0中で識別され、他方のピクチャはリスト1中で識別される、2つの参照ピクチャから予測されるのかを示すシンタックス情報を復号するであろう。ビデオデコーダ30は、次いで、GBPスライスのビデオブロックを予測するために使用される1つ以上の参照ピクチャのための識別子が、リスト0、リスト1、又はリスト0とリスト1の両方中のどこに位置するかを示すシンタックス情報を復号するであろう。
本開示で説明する例示的な実施形態では、ビデオデコーダ30は、Pスライス、Bスライス、又はGPBスライスのビデオブロックを復号するために第1及び第2の参照ピクチャリスト(例えば、リスト0及びリスト1)に依拠する必要がないことがあり、むしろ、任意のスライスタイプのビデオブロックを復号するために同じ単一参照ピクチャリストを利用し得る。例えば、本開示で説明する例示的な実施形態では、ビデオブロックが1つの参照ピクチャに関して符号化される場合、ビデオデコーダ30は、参照ピクチャのための識別子が単一参照ピクチャリスト中のどこに位置するかを示すシンタックス情報を復号し得る。また、本開示で説明する例示的な実施形態では、ビデオブロックが2つの参照ピクチャ(例えば、第1の参照ピクチャ及び第2の参照ピクチャ)に関して符号化される場合、ビデオデコーダ30は、第1の参照ピクチャのための識別子が単一参照ピクチャリスト中のどこに位置するかを示すシンタックス情報を復号し得、第2の参照ピクチャのための識別子が、同じ単一参照ピクチャリスト中のどこに位置するかを示すシンタックス情報を復号し得る。
幾つかの例では、第1及び第2の参照ピクチャは同じ参照ピクチャであり得る。これらの例では、ビデオデコーダ30は、依然として、第1の参照ピクチャのための識別子が単一参照ピクチャリスト中のどこに位置するかを示すシンタックス情報を復号し得、第2の参照ピクチャのための識別子が、同じ単一参照ピクチャリスト中のどこに位置するかを示すシンタックス情報を復号し得る。しかしながら、この例では、第1及び第2の参照ピクチャのための識別子が単一参照ピクチャリスト中のどこに位置するかを示す復号されたシンタックス情報は、同じシンタックス情報であり得る。
また、本開示で説明する1つ以上の例では、ビデオデコーダ30は、Pスライス、Bスライス、又はGPBスライスのビデオブロックを復号するために単一参照ピクチャリストのみを構成し得るので、ビデオエンコーダ20は、ビデオブロックがPスライスのためのビデオブロックであるのか、Bスライスのためのビデオブロックであるのか、GPBスライスのためのビデオブロックであるのかに関する情報を信号伝達する(例えば、示す)必要がないことがある。言い換えれば、幾つかの例では、任意のスライスタイプのビデオブロックを復号するための参照ピクチャリストは、同じ単一参照ピクチャリストであり、幾つかの例では、唯一の単一参照ピクチャリストであるので、スライスタイプの指示はあまり関連性はない。このようにして、本開示で説明する例示的な実施形態では、ビデオエンコーダ20によって生成されるビットストリーム中のシンタックス要素の量を低減し、ビデオデコーダ30によって受信されるビットストリーム中のシンタックス要素の量を低減し得る。
コード化、例えば、符号化又は復号されるシンタックス要素の量を更に低減するために、幾つかの例では、ビデオデコーダ30は、単一参照ピクチャリストを構成するためのデフォルト構成技法を実施し得る。例えば、単一参照ピクチャリストを構成するためのデフォルト構成技法は、ビデオデコーダ30が単一参照ピクチャリストを構成すべきである方法を示すシンタックス要素をビデオデコーダ30が受信することを必要としない。これらの例では、ビデオエンコーダ20は、ビデオデコーダ30が単一参照ピクチャリストを構成すべきである方法でビデオデコーダ30に命令するシンタックス要素を符号化せず、それにより、信号伝達される必要があるシンタックス要素の量を更に低減し得る。
単一参照ピクチャリストを構成するためのデフォルト構成技法は、ビデオデコーダ30が単一参照ピクチャリストを構成するための設定された定義された方法を指す。以下でより詳細に説明するように、デフォルト構成技法の様々な例示的な実施形態があり得る。いずれの場合も、ビデオエンコーダ20は、どの参照ピクチャが単一参照ピクチャリスト内に属するかを示すために、例示的な実施形態のうちの少なくとも1つを利用し得る。次いで、ビデオデコーダ30は、任意のスライスタイプのビデオブロックを復号するために、どの参照ピクチャが単一参照ピクチャリスト内に属するかを示すためにビデオエンコーダ20が利用したのと同じ例示的な実施形態を利用して単一参照ピクチャリストを構成し得る。
単一参照ピクチャリストを構成するためのデフォルト構成技法は、概して、現在ピクチャのビデオブロックを予測するために使用される参照ピクチャと現在ピクチャとの間の時間距離に基づき得る。これらの参照ピクチャは、前に復号されていることがある。例えば、ビデオデコーダ30は、前に復号された参照ピクチャを用いてビデオブロックを復号し得る。ビデオデコーダ30は、前に復号された参照ピクチャを内部バッファ又はメモリに記憶し得る。
一例として、参照ピクチャと現在ピクチャ(例えば、予測されたビデオブロックを含むピクチャ)との間の時間距離はプレゼンテーション時間の差であり得る。上記で説明したように、各ピクチャは、ピクチャが表示、即ち提示される順序を示すピクチャ順序カウント(POC)値を割り当てられ得る。この例では、2つのピクチャ間の時間距離は、2つのピクチャのPOC値の差の絶対値であり得る。例えば、表示順序が現在ピクチャの直前にくる参照ピクチャと現在ピクチャとのPOC値の差の絶対値は1になるので、その参照ピクチャと現在ピクチャとの間の時間距離は1である。別の例として、表示順序が現在ピクチャのすぐ隣のピクチャの直後にくる参照ピクチャと現在ピクチャとのPOC値の差の絶対値は2になるので、その参照ピクチャと現在ピクチャとの間の時間距離は2である。
単一参照ピクチャリストを構成するためのデフォルト構成技法の一例では、ビデオデコーダ30は、現在ピクチャまでの参照ピクチャの時間距離に基づいて、参照ピクチャの各々のための識別子を単一参照ピクチャリストに昇順で含め得る。例えば、ビデオデコーダ30は、単一参照ピクチャリスト中の、現在ピクチャから時間的により遠い(例えば、POC値の差がより大きい)参照ピクチャのための識別子よりも早い位置において、現在ピクチャに時間的により近い(例えば、POC値の差がより小さい)参照ピクチャのための識別子を配置し得る。この例では、参照ピクチャが、現在ピクチャに対して時間的に前であるのか時間的に後であるのかは無関係であり得る。また、この例では、参照ピクチャのための識別子は、参照ピクチャのピクチャ数値又はPOC値であり得る。
単一参照ピクチャリストを構成するためのデフォルト構成技法の別の例では、ビデオデコーダ30は、現在ピクチャまでの参照ピクチャの時間距離に基づいて、参照ピクチャの各々のための識別子を単一参照ピクチャリストに降順で含め得る。例えば、ビデオデコーダ30は、単一参照ピクチャリスト中の、現在ピクチャに時間的により近い参照ピクチャのための識別子よりも早い位置において、現在ピクチャから時間的により遠い参照ピクチャのための識別子を配置し得る。上記と同様に、この例では、参照ピクチャが、現在ピクチャに対して時間的に前であるのか時間的に後であるのかは無関係であり得る。また、上記と同様に、このオプションでは、参照ピクチャのための識別子は、参照ピクチャのピクチャ数値又はPOC値であり得る。
幾つかの事例では、2つの参照ピクチャと現在ピクチャとの間の時間距離が等しいことが可能であり得る。例えば、第1の参照ピクチャは、現在ピクチャの直前にくるピクチャであり得、第2の参照ピクチャは、現在ピクチャの直後にくるピクチャであり得る。この例では、現在ピクチャと第1の参照ピクチャとの間の時間距離は、現在ピクチャと第2の参照ピクチャとの間の時間距離と同じである。
2つの参照ピクチャと現在ピクチャとの間の時間距離が等しい場合、ビデオデコーダ30は、単一参照ピクチャリスト中のより早い位置において、より早いプレゼンテーション時間、例えば、より小さいPOC値をもつ参照ピクチャのための識別子を含め、単一参照ピクチャリスト中のより遅い位置において、より遅いプレゼンテーション時間、例えば、より大きいPOC値をもつ参照ピクチャのための識別子を含め得る。代替例として、ビデオデコーダ30は、単一参照ピクチャリスト中のより早い位置において、より遅いプレゼンテーション時間、例えば、より大きいPOC値をもつ参照ピクチャのための識別子を含め、単一参照ピクチャリスト中のより遅い位置において、より早いプレゼンテーション時間、例えば、より小さいPOC値をもつ参照ピクチャのための識別子を含め得る。
いずれの例でも、参照ピクチャのための識別子は、POC値又はピクチャ数値であり得る。例えば、ビデオデコーダ30は、どの参照ピクチャが単一参照ピクチャリスト中で最初に含まれるかを決定するためにPOC値を利用し得る。しかしながら、ビデオデコーダ30は、参照ピクチャのための識別子としてPOC値又はピクチャ数値を単一参照ピクチャリストに含め得る。
上記の例では、時間距離をプレゼンテーション順序の関数であるものとして説明したが、本開示の態様はそのように限定されない。代替例では、時間距離はコード化順序の関数であり得る。この場合も、コード化順序はピクチャ数値によって識別され得る。これらの代替例では、ビデオデコーダ30は、現在ピクチャと参照ピクチャとのピクチャ数値間の差の絶対値に基づいて時間距離を決定し得る。ビデオデコーダ30は、上記で説明したように、昇順又は降順で、但し、POC値ではなくピクチャ数値の差に基づいて、参照ピクチャのための識別子をリストし得る。この例では、参照ピクチャのための識別子は、ピクチャ数値又はPOC値であり得る。
また、これらの代替例では、2つの参照ピクチャと現在ピクチャとの間のピクチャ数値の差が同じである場合、ビデオデコーダ30は、上記の例で説明したように、単一の参照ピクチャ中で一方の参照ピクチャを他方よりも早く配置し得る。この状況では、ビデオデコーダ30は、ピクチャ数値に基づいて、単一参照ピクチャリスト中に参照ピクチャを配置し得る。簡潔のために、本開示の技法はそのように限定されないという理解の下で、本開示の技法について、時間距離がPOC値に基づくコンテキストにおいて説明する。
単に例示のために上記の例について説明した。概して、ビデオデコーダ30は、ビデオデコーダ30が、ビデオブロックを符号化するために使用される参照ピクチャの数にかかわらず、任意のスライスのビデオブロックを復号することができる単一参照ピクチャリストを構成するための任意のデフォルト構成技法を採用し得る。本開示の態様は、上記で説明した例に限定されるものと解釈すべきではない。
デフォルト構成技法は並べ替えステップをも含み得るが、並べ替えステップは、デフォルト構成技法のあらゆる例において必要とされるとは限らない。並べ替えより前に、単一参照ピクチャリストは初期化されたピクチャリストと見なされ得る。並べ替えの後に、単一参照ピクチャリストは参照ピクチャのための同じ識別子を含み得るが、単一参照ピクチャリスト中の参照ピクチャのこれらの識別子の位置は変化していることがある。
例えば、単一参照ピクチャリストは、複数の位置をもつ配列と見なされ得る。配列内の各位置は、それのインデックス値で識別され得、参照ピクチャのうちの1つのための識別子を格納し得る。並べ替えを用いて、ビデオデコーダ30は、単一参照ピクチャリストの少なくとも1つのインデックス値が参照ピクチャの異なる識別子に関連付けられるように、単一参照ピクチャリスト内の参照ピクチャのための識別子の位置を変更し得る。
幾つかの例では、ビデオエンコーダ20は、ピクチャのスライス又は全体のビデオブロックの予測を単方向予測(例えば、ただ1つの参照ピクチャに関する予測)に制限し得る。そのような制約は、任意のスライスタイプのビデオブロックについてただ1つの動きベクトルがあることを示すために単方向予測コード化と呼ばれることがある。例えば、そのような制約がある場合、Bスライス及びGPBスライスのビデオブロックは、2つ以上の参照ピクチャを用いて符号化され得ない。概して、1つ又は2つの参照ピクチャを指し示す2つの動きベクトルに関して予測されるスライスのビデオブロックを符号化及び復号することは、1つの参照ピクチャを指し示すただ1つの動きベクトルから予測されるスライスのビデオブロックを符号化及び復号することと比較して、より複雑であり得る。例えば、補償複雑さは、単方向予測スライスと比較して、双方向予測スライスでは2倍になり得る。
ビデオエンコーダ20は、スライスのビデオブロックが単方向予測コード化に制約されるかどうかを示すシンタックス要素を符号化し得る。説明のために、このシンタックス要素を「uni_pred_only」と呼ぶ。uni_pred_onlyシンタックス要素が「1」(例えば、真)であるとき、それは、スライス内のビデオブロックの全てが単方向予測コード化に制約されることを示す。uni_pred_onlyシンタックス要素が「0」(例えば、偽)であるとき、それは、スライスのビデオブロックが1つ又は2つの参照ピクチャに関してコード化されることが可能であることを示す。言い換えれば、uni_pred_onlyが0である場合、スライス内の1つ以上のビデオブロックは、場合によっては、2つ以上の参照ピクチャに関してコード化され得るが、依然として、適切な参照ピクチャを選択した結果として、いずれのビデオブロックも2つ以上の参照ピクチャに関して予測されないことが可能であり得る。
幾つかの例では、uni_pred_onlyシンタックス要素はスライスのヘッダの一部であり得る。これらの例では、ビデオエンコーダ20は、各予測されたスライスに付加されたヘッダ中でuni_pred_onlyシンタックス要素を信号伝達し得る。代替例では、uni_pred_onlyシンタックス要素は、必ずしも各予測されたスライスのヘッダの一部であるとは限らない。例えば、ピクチャ全体が単方向予測コード化のみに制約されることが可能であり得る。これらの例では、uni_pred_onlyシンタックス要素は、ピクチャ全体のヘッダの一部であり得、必ずしもスライスレベルにあるとは限らない。
幾つかの代替例では、ビデオエンコーダ20は、スライス又はピクチャとは別個にuni_pred_onlyシンタックス要素を信号伝達し得る。例えば、グループ・オブ・ピクチャ(GOP)内のピクチャが全て単方向予測される場合、ビデオエンコーダ20は、ピクチャパラメータセット(PPS)又はシーケンスパラメータセット(SPS)中でuni_pred_onlyシンタックス要素を信号伝達し得る。また、GOP内のピクチャの全てが単方向予測されるとは限らない例でも、ビデオエンコーダ20が、あるスライス又はピクチャについて、PPS又はSPS中でuni_pred_onlyシンタックスを信号伝達することが可能であり得る。
ピクチャが単方向予測に制約されない例では、ビデオエンコーダ20は、スライス内のいくつのビデオブロックが2つの参照ピクチャに関して符号化されるかを示す情報を信号伝達し得る。例えば、ビデオエンコーダ20は、2つの参照ピクチャに関して符号化されるスライス内のビデオブロック、例えば、予測ユニットの割合を示すシンタックス要素を信号伝達し得る。2つの参照ピクチャに関して符号化されるビデオブロックの割合を示すシンタックス要素を信号伝達することに加えて又はその代わりに、ビデオエンコーダ20は、2つの複数ピクチャに関して符号化されるビデオブロックによってピクチャのどのくらいが包含されるかを示すシンタックス要素を信号伝達し得る。一例として、ビデオエンコーダ20は、ピクチャ内のビデオブロックの10%が2つの参照ピクチャに関して符号化されることを示すシンタックス要素を信号伝達し、及び/又は、2つの参照ピクチャに関して符号化されるビデオブロックがピクチャの25%を包含することを示すシンタックス要素を信号伝達し得る。ビデオエンコーダ20は、スライスヘッダ又はピクチャヘッダ中で、若しくはPPS又はSPSの一部として別個に、そのようなシンタックス要素を信号伝達し得る。
上記で説明したシンタックス要素は、説明のために与えたものであり、本開示のあらゆる例において必要であるとは限らない。例えば、ビデオエンコーダ20は、任意のスライスタイプのビデオブロックを予測するためにどの参照ピクチャが使用されたかを示す単一参照ピクチャリストを構成し得る。ビデオブロックについて、ビデオエンコーダ20は、ビデオブロックを予測するために使用される1つ以上の動きベクトルを信号伝達し、1つ以上の参照ピクチャの識別子が単一参照ピクチャリスト中に位置する位置を識別するインデックス値を信号伝達し得る。動きベクトル及びインデックス値に加えて、ビデオエンコーダ20は、場合によっては、uni_pred_onlyシンタックス要素などのシンタックス要素を信号伝達し得る。更に、ビデオエンコーダ20は、場合によっては、(例えば、ピクチャ内のビデオブロックの割合として、及び/又はピクチャにおけるビデオブロックによって包含されるエリアの割合として)いくつのビデオブロックが複数の参照ピクチャに関してコード化されるかを示すシンタックス要素を信号伝達し得る。
幾つかの例では、ビデオブロックの動きベクトルを信号伝達する代わりに、ビデオエンコーダ20は、1つ以上の動き予測子を信号伝達し得る。動きベクトルは、1つ以上の動き予測子から予測され得る。例えば、動き予測子の平均が動きベクトルになり得る。例えば、ある動きベクトルのためにN個の動き予測子が使用される場合、N個の動き予測子の平均がその動きベクトルになり得る。
ビデオデコーダ30は、通信チャネル16を介して発信源12から直接、又は記憶媒体17若しくはファイルサーバ19から、この情報の全てを受信し得る。ビデオデコーダ30は、次いで、それ自体の単一参照ピクチャリストを構成し得る。一例として、ビデオデコーダ30は、デフォルト構成技法を実施することによって(例えば、単一参照ピクチャリストをどのように構成するかについての情報を受信することなしに)、それ自体の単一参照ピクチャリストを構成し得る。次いで、ビデオエンコーダ20が、単一参照ピクチャリストを並べ替えるようにビデオデコーダ30に命令する情報を信号伝達した場合、ビデオデコーダ30は単一参照ピクチャリストを並べ替え得る。
任意のスライスタイプのビデオブロックを復号するために、ビデオデコーダ30は、1つ以上の動きベクトル情報と1つ以上のインデックス値とを復号し得る。1つ以上のインデックス値を用いて、ビデオデコーダ30は、ビデオブロックが単方向予測されるのか双方向予測されるのかにかかわらず、またビデオブロックがPスライスであるのか、Bスライスであるのか、GPBスライスであるのかにかかわらず、単一参照ピクチャリストから1つ以上の参照ピクチャを識別し得る。ビデオデコーダ30は、それのメモリから識別された1つ以上の参照ピクチャを取り出し、取り出された1つ以上の参照ピクチャと復号された1つ以上の動きベクトル情報とを用いてビデオブロックを復号し得る。この場合も、ビデオブロックを復号するために使用される1つ以上の参照ピクチャは、前に復号され記憶された1つ以上の参照ピクチャである。
ビデオエンコーダ20が、uni_pred_onlyシンタックス要素などのシンタックス要素、及び/又は複数の参照ピクチャに関して符号化されるビデオブロックの割合などの追加のシンタックス要素を信号伝達する例では、ビデオデコーダ30は、復号のためにこれらのシンタックス要素を利用し得る。例えば、uni_pred_onlyが1(例えば、真)であることをビデオエンコーダ20が示した場合、ビデオデコーダ30は、2つ以上の参照ピクチャに関して符号化されたビデオブロックを復号するために必要とされ得る初期化ステップをバイパスし得る。例えば、ビデオデコーダ30は、ビデオブロックを含むスライスについてuni_pred_onlyフラグが真であるとき、そのビデオブロックを復号するために、単一参照ピクチャリスト内の2つのインデックス値を待つべきでないことを認識し得る。このようにして、uni_pred_onlyシンタックス要素はビデオデコーダ30の計算効率を高め得る。
いくつのビデオブロック、例えば、予測ユニットが複数の参照ピクチャに関してコード化されるかを示すシンタックス要素は、効率的なビデオデコーダ30処理を同様に促進し得る。例えば、そのようなシンタックス要素を用いて、ビデオデコーダ30は、いくつのビデオブロックが単一参照ピクチャリスト内の2つ以上のインデックス値を必要とするか(例えば、2つの参照ピクチャに関して符号化されるビデオブロックの割合)に関して知り得る。これはビデオデコーダ30の計算効率を高め得る。例えば、幾つかの事例では、上記で説明したように、双方向予測は単方向予測よりも計算量的に複雑であり得る。いくつのビデオブロックが単一参照ピクチャリスト内の2つ以上のインデックス値を必要とするかについての指示を用いて、ビデオデコーダ30は、予測がどのくらい複雑になるかに関して知り得、双方向予測及び単方向予測スライスを復号するために適切なリソースを割り振ることが可能になり得る。
上記で説明したように、JCT−VCは、将来のH.265規格と呼ばれることがあるHEVC規格の開発に取り組んでいる。以下は、理解を助けるためのHEVC規格のより詳細な説明である。但し、上記のように、本開示の技法は、HEVC規格に限定されず、ビデオコード化全般に適用可能であり得る。
HEVCの規格化の取り組みは、HEVCテストモデル(HM)と呼ばれるビデオコード化機器のモデルに基づく。HMは、例えば、ITU−T H.264/AVCによる既存の機器に対してビデオコード化機器の幾つかの追加の能力を仮定する。例えば、H.264は9つのイントラ予測符号化モードを与えるが、HMは33個ものイントラ予測符号化モードを与える。
HMでは、ビデオデータのブロックをコード化ユニット(CU)と呼ぶ。ビットストリーム内のシンタックスデータが、画素の数に関して最大のコード化ユニットである最大コード化ユニット(LCU:largest coding unit)を定義し得る。概して、CUは、CUがサイズ差異を有しないことを除いて、H.264に従ってコード化されたマクロブロックと同様の目的を有する。従って、CUはサブCUに分割され得る。概して、本開示におけるCUへの言及は、ピクチャの最大コード化ユニット又はLCUのサブCUを指すことがある。LCUはサブCUに分割され得、各サブCUは、更にサブCUに分割され得る。ビットストリームのシンタックスデータは、CU深さと呼ばれる、LCUが分割され得る最大回数を定義し得る。それに応じて、ビットストリームは最小コード化ユニット(SCU:smallest coding unit)をも定義し得る。
更に分割されないCUは、1つ以上の予測ユニット(PU)を含み得る。概して、PUは、対応するCUの全部又は一部分を表し、そのPUの参照サンプルを取り出すためのデータを含む。例えば、PUがイントラモード符号化、即ち、イントラ予測されるとき、PUは、PUのイントラ予測モードを記述するデータを含み得る。別の例として、PUがインターモード符号化、即ち、インター予測されるとき、PUは、PUの動きベクトルを定義するデータを含み得る。
PUの動きベクトルを定義するデータは、例えば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(例えば、1/4画素精度もしくは1/8画素精度)、動きベクトルが指し示す参照ピクチャ、及び/又は動きベクトルの参照ピクチャリストを記述し得る。(1つ又は複数の)PUを定義するCUのデータはまた、例えば、CUを1つ以上のPUに区分することを記述し得る。区分モードは、CUが、スキップモード符号化又はダイレクトモード符号化されるか、イントラ予測モード符号化されるか、若しくはインター予測モード符号化されるかによって異なり得る。
1つ以上のPUを有するCUはまた、1つ以上の変換単位(TU:transform unit)を含み得る。PUを使用した予測の後に、ビデオエンコーダ20は、PUに対応するCUの部分の残差値を計算し得る。残差値は、エントロピーコード化のためのシリアル化変換係数(serialized transform coefficient)を生成するために、変換係数に変換され、量子化され、走査され得る画素差分値に対応する。TUは、必ずしもPUのサイズに制限されるとは限らない。従って、TUは、同じCUの対応するPUよりも大きいことも小さいこともある。幾つかの例では、TUの最大サイズは、対応するCUのサイズであり得る。本開示では、CU、PU、又はTUのいずれかを指すために「ビデオブロック」という用語を使用する。
ビデオシーケンスは、一般に一連のビデオピクチャを含む。グループ・オブ・ピクチャ(GOP)は、概して、一連の1つ以上のビデオピクチャを備える。GOPは、GOP中に含まれる幾つかのピクチャを記述するシンタックスデータを、GOPのヘッダ中、GOPの1つ以上のピクチャのヘッダ中、又は他の場所に含み得る。各ピクチャは、それぞれのピクチャのための符号化モードを記述するピクチャシンタックスデータを含み得る。ビデオエンコーダ20は、一般に、ビデオデータを符号化するために、個々のビデオピクチャ内のビデオブロックに対して動作する。ビデオブロックは、コード化単位(CU)又はCUの区分単位(PU:partition unit)に対応し得る。ビデオブロックは、固定サイズ又は可変サイズを有し得、指定のコード化規格に応じてサイズが異なり得る。各ビデオピクチャは複数のスライスを含み得る。各スライスは、1つ以上のPUを含み得る、複数のCUを含み得る。
一例として、HEVCテストモデル(HM)は、様々なCUサイズでの予測をサポートする。LCUのサイズはシンタックス情報によって定義され得る。特定のCUのサイズが2N×2Nであると仮定すると、HMは、2N×2N又はN×Nのサイズでのイントラ予測をサポートし、2N×2N、2N×N、N×2N、又はN×Nの対称サイズでのインター予測をサポートする。HMはまた、2N×nU、2N×nD、nL×2N、及びnR×2Nのインター予測のための非対称分割をサポートする。非対称分割では、CUの一方向は分割されないが、他の方向が25%と75%とに分割される。25%の分割に対応するCUの部分は、「n」と、その後ろに付く「Up」、「Down」、「Left」、又は「Right」という指示とによって示される。従って、例えば「2N×nU」は、上部の2N×0.5N PUと下部の2N×1.5N PUとで水平方向に分割される2N×2N CUを指す。
本開示では、「N×N(NxN)」と「N×N(N by N)」とは、垂直寸法と水平寸法とに関するビデオブロック(例えば、CU、PU、又はTU)の画素寸法、例えば、16×16(16x16)画素又は16×16(16 by 16)画素を指すために互換的に使用され得る。一般に、16×16ブロックは、垂直方向に16画素を有し(y=16)、水平方向に16画素を有する(x=16)。同様に、N×Nブロックは、一般に、垂直方向にN画素を有し、水平方向にN画素を有し、Nは非負整数値を表す。ブロック中の画素は行と列に構成され得る。その上、ブロックは、必ずしも、水平方向において垂直方向と同じ数の画素を有する必要があるとは限らない。例えば、ブロックはN×M画素を備え得、Mは必ずしもNに等しいとは限らない。
イントラ予測コード化又はインター予測コード化を行ってCUのためのPUを生成した後、ビデオエンコーダ20は、残差データを計算して、CUのための1つ以上の変換単位(TU)を生成し得る。CUのPUは、(画素領域とも呼ばれる)空間領域において画素データを備え得、一方、CUのTUは、例えば、残差ビデオデータへの離散コサイン変換(DCT:discrete cosine transform)、整数変換、ウェーブレット変換、又は概念的に同様の変換などの変換の適用後に、変換領域において係数を備え得る。残差データは、符号化されていないピクチャの画素と、CUのPUの予測値との間の画素差分に対応し得る。ビデオエンコーダ20は、CUのための残差データを含む1つ以上のTUを形成し得る。ビデオエンコーダ20は、次いで、変換係数を生成するために、それらのTUを変換し得る。
変換係数を生成するための変換の後、変換係数の量子化が実行され得る。量子化は、概して、係数を表すために使用されるデータの量をできるだけ低減して、さらなる圧縮を行うために、変換係数を量子化するプロセスを指す。量子化プロセスは、係数の一部又は全部に関連するビット深度を低減し得る。例えば、量子化中にnビット値がmビット値に切り捨てられ得、nはmよりも大きい。
幾つかの例では、ビデオエンコーダ20は、エントロピー符号化され得るシリアル化ベクトルを生成するために、予め定義された走査順序を利用して量子化変換係数を走査し得る。他の例では、ビデオエンコーダ20は適応型走査を実行し得る。量子化変換係数を走査して1次元ベクトルを形成した後、ビデオエンコーダ20は、例えば、コンテキスト適応型可変長コード化(CAVLC:context adaptive variable length coding)、コンテキスト適応型バイナリ算術コード化(CABAC:context adaptive binary arithmetic coding)、シンタックスベースコンテキスト適応型バイナリ算術コード化(SBAC:syntax-based context-adaptive binary arithmetic coding)、又は別のエントロピー符号化方法に従って1次元ベクトルをエントロピー符号化し得る。
CABACを実行するために、ビデオエンコーダ20は、送信されるべきシンボルを符号化するために、あるコンテキストに適用すべきコンテキストモデルを選択し得る。コンテキストは、例えば、隣接値が非0か否かに関係し得る。CAVLCを実行するために、ビデオエンコーダ20は、送信されるべきシンボルの可変長コードを選択し得る。VLCにおけるコードワードは、比較的短いコードが優勢シンボルに対応し、より長いコードが劣勢シンボルに対応するように構成され得る。このようにして、VLCの使用は、例えば、送信されるべき各シンボルのために等長コードワードを使用するよりも、ビット節約を達成し得る。確率決定は、シンボルに割り当てられたコンテキストに基づき得る。
ビデオデコーダ30は、ビデオエンコーダ20の方法と本質的に対称的な方法で動作し得る。例えば、ビデオデコーダ30は、ビデオピクチャの符号化されたCUを表す、エントロピー符号化されたデータを受信し得る。ビデオデコーダ30は、インター予測CUを復号するためにどの参照ピクチャが必要とされるかを識別するために、デフォルト構成技法を利用して単一参照ピクチャリストを構成し得る。
図2は、ピクチャ34、35A、36A、38A、35B、36B、38B、及び35Cを表示順序で含む、例示的なビデオシーケンス33を示す概念図である。これらのピクチャのうちの1つ又は複数は、Pスライス、Bスライス、又はGPBスライスを含み得る。場合によっては、ビデオシーケンス33はグループ・オブ・ピクチャ(GOP)と呼ばれることがある。ピクチャ39は、シーケンス33の後に発生するシーケンスの表示順序における最初のピクチャである。図2は、概して、ビデオシーケンスの例示的な予測構造を表し、単に、様々なインター予測スライスタイプを符号化するために使用されるピクチャ参照を示すものである。実際のビデオシーケンスは、異なる表示順序で様々なスライスタイプを含むより多い又はより少ないビデオピクチャを含んでいることがある。
ブロックベースビデオコード化では、シーケンス33中に含まれるビデオピクチャの各々はビデオブロック又はコード化ユニット(CU)に区分され得る。ビデオピクチャの各CUは、1つ以上の予測ユニット(PU)を含み得る。イントラ予測ピクチャ中のビデオブロック又はPUは、同じピクチャ中の隣接ブロックに関する空間的予測を使用して符号化される。インター予測ピクチャ中のビデオブロック又はPUは、同じピクチャ中の隣接ブロックに関する空間的予測、又は他の参照ピクチャに関する時間的予測を使用し得る。
Bスライス又はGPBスライス中のビデオブロックは、単一参照ピクチャリスト中で識別された2つの参照ピクチャから2つの動きベクトルを計算するために、双方向予測コード化を使用して符号化され得る。Pスライスのビデオブロック、及び場合によっては、Bスライス又はGPBスライスのビデオブロックは、単一参照ピクチャリスト中で識別された1つの参照ピクチャからの単方向予測コード化を使用して符号化され得る。本開示で説明する1つ以上の例によれば、図2に示す1つ以上のピクチャのインター予測ビデオブロックは、ビデオブロックがインター予測される方法にかかわらず(例えば、ビデオブロックがPスライスの一部であるのか、Bスライスの一部であるのか、GPBスライスの一部であるのかにかかわらず)、また、ビデオブロックを符号化するために使用される参照ピクチャの数にかかわらず(例えば、ビデオブロックが単方向予測されるのか双方向予測されるのかにかかわらず)、単一参照ピクチャリスト中で示された参照ピクチャに関してインター予測され得る。
図2の例では、最初のピクチャ34は、イントラモードコード化のためにIピクチャに指定される。他の例では、最初のピクチャ34は、前のシーケンスの最初のピクチャに関するインターモードコード化を用いて、例えば、Pピクチャ、Bピクチャ、又はGPBピクチャとしてコード化され得る。ビデオピクチャ35A〜35C(総称して「ビデオピクチャ35」)は、過去ピクチャと未来ピクチャとに関する双方向予測を使用するコード化のためにBピクチャ又はGPBピクチャに指定される。図示の例では、ピクチャ35Aは、ピクチャ34とピクチャ36Aとからビデオピクチャ35Aへの矢印によって示されるように、最初のピクチャ34とピクチャ36Aとに関するBピクチャ又はGPBピクチャとして符号化される。ピクチャ35B及び35Cは同様に符号化される。
ビデオピクチャ36A〜36B(総称して「ビデオピクチャ36」)は、過去ピクチャに関する単方向予測を使用するコード化のために、Pピクチャ、Bピクチャ、又はGPBピクチャに指定され得る。図示の例では、ピクチャ36Aは、ピクチャ34からビデオピクチャ36Aへの矢印によって示されるように、最初のピクチャ34に関するPピクチャ、Bピクチャ、又はGPBピクチャとして符号化される。ピクチャ36Bは、ピクチャ38Aからビデオピクチャ36Bへの矢印によって示されるように、ピクチャ38Aに関するPピクチャ、Bピクチャ、又はGPBピクチャとして同様に符号化される。
ビデオピクチャ38A〜38B(総称して「ビデオピクチャ38」)は、同じ過去ピクチャに関する単方向予測を使用するコード化のために、Pピクチャ、Bピクチャ、又はGPBピクチャに指定され得る。図示の例では、ピクチャ38Aは、ピクチャ36Aからビデオピクチャ38Aへの2つの矢印によって示されるように、ピクチャ36Aへの2つの参照を用いて符号化される。ピクチャ38Bは同様に符号化される。
図3は、本開示の1つ以上の態様による技法を実施し得るビデオエンコーダ20の一例を示すブロック図である。ビデオエンコーダ20はまた、スライス又はピクチャのビデオブロックが単方向予測に制約されるかどうかを示すシンタックス要素、いくつのビデオブロックが複数の参照ピクチャを用いて符号化されるかを示すシンタックス要素、及び/又はピクチャのどのくらいが複数の参照ピクチャを用いて符号化されるかを示すシンタックス要素を信号伝達するための技法を随意に実施し得る。ビデオエンコーダ20は、ビデオピクチャ内のビデオブロックのイントラ及びインターコード化を実行し得る。イントラコード化は、所与のビデオピクチャ内のビデオの空間的冗長性を低減又は除去するために空間的予測に依拠する。インターコード化は、ビデオシーケンスの隣接ピクチャ内のビデオの時間的冗長性を低減又は除去するために時間的予測に依拠する。イントラモード(Iモード)は、幾つかの空間ベースの圧縮モードのいずれかを指し得る。単方向予測(Pモード)、双方向予測(Bモード)、又は一般化P及びB予測などのインターモードは、幾つかの時間ベースの圧縮モードのいずれかを指し得る。
図3の例では、ビデオエンコーダ20は、モード選択ユニット40と、予測ユニット41と、参照ピクチャメモリ64と、加算器50と、変換ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56とを含む。予測ユニット41は、動き推定ユニット42と、動き補償ユニット44と、イントラ予測ユニット46とを含む。ビデオブロック再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。再構成されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタ処理するデブロッキングフィルタ(図3に図示せず)も含まれ得る。所望される場合、デブロッキングフィルタは、一般に、加算器62の出力をフィルタ処理することになる。
図3に示すように、ビデオエンコーダ20は、符号化されるべきビデオピクチャ又はスライス内の現在ビデオブロックを受信する。ピクチャ又はスライスは、一例として、複数のビデオブロック又はCUに分割され得るが、PU及びTUも含み得る。モード選択ユニット40は、誤差結果に基づいて、現在ビデオブロックのためのコード化モードのうちの1つ、即ち、イントラ又はインターを選択し得、予測ユニット41は、残差ブロックデータを生成するために、得られたイントラ又はインターコード化ブロックを加算器50に与え、参照ピクチャとして使用する符号化ブロックを再構成するために、得られたイントラ又はインターコード化ブロックを加算器62に与え得る。
予測ユニット41内のイントラ予測ユニット46は、空間圧縮を行うために、コード化されるべき現在ブロックと同じピクチャ又はスライス中の1つ以上の隣接ブロックに対する現在ビデオブロックのイントラ予測コード化を実行し得る。予測ユニット41内の動き推定ユニット42及び動き補償ユニット44は、時間圧縮を行うために、1つ以上の参照ピクチャ中の1つ以上の予測ブロックに対する現在ビデオブロックのインター予測コード化を実行する。1つ以上の参照ピクチャは単一参照ピクチャリスト66から選択され得る。ビデオエンコーダ20は、参照ピクチャメモリ64に記憶された復号された参照ピクチャに基づいて単一参照ピクチャリスト66を構成し得る。
動き推定ユニット42は、ビデオシーケンスの所定のパターンに従ってビデオピクチャのためのインター予測モードを決定するように構成され得る。所定のパターンは、シーケンス中のビデオピクチャ又はスライスをPピクチャ又はPスライス、Bピクチャ又はBスライス、及びGPBピクチャ又はGPBスライスに指定し得る。動き推定ユニット42は、ビデオスライスのビデオブロックをPスライスとして符号化すべきか、Bスライスとして符号化すべきか、GPBスライスとして符号化すべきかを決定し得る。
動き推定ユニット42と動き補償ユニット44とは、高度に統合され得るが、概念的な目的のために別々に示してある。動き推定ユニット42によって実行される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、例えば、参照ピクチャ内の予測ブロックに対する現在ビデオピクチャ内のビデオブロックの変位を示し得る。予測ブロックは、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、又は他の差分メトリックによって決定され得る画素差分に関して、コード化されるべきビデオブロックにぴったり一致することがわかるブロックである。幾つかの例では、ビデオエンコーダ20は、参照ピクチャメモリ64に記憶された参照ピクチャのサブ整数画素位置の値を計算し得る。例えば、ビデオエンコーダ20は、参照ピクチャの1/4画素位置、1/8画素位置、又は他の分数画素位置の値を計算し得る。従って、動き推定ユニット42は、フル画素位置と分数画素位置とに対する動き探索を実行し、分数画素精度で動きベクトルを出力し得る。
動き推定ユニット42は、ビデオブロックの位置を単一参照ピクチャリスト66中の参照ピクチャの予測ブロックの位置と比較することによって、インターコード化ビデオブロックのビデオブロックの動きベクトルを計算する。例えば、ビデオブロックが単方向予測されるとき、動き推定ユニット42は、ビデオブロックに対して単方向予測コード化を使用し、参照ピクチャのための識別子(例えば、参照ピクチャのPOC値又はピクチャ数値)を含む単一参照ピクチャリスト66中で示された1つの参照ピクチャから単一の動きベクトルを計算し得る。この例では、ビデオブロックは、Pスライス、Bスライス、又はGPBスライスのビデオブロックであり得る。別の例では、ビデオスライスが双方向予測されるとき、動き推定ユニット42は、ビデオブロックに対して双方向予測コード化を使用し、2つの参照ピクチャのための識別子を含む単一参照ピクチャリスト66中で示された2つの異なる参照ピクチャから2つの動きベクトルを計算し得る。この例では、ビデオブロックは、Bスライス又はGPBスライスのビデオブロックであり得る。
言い換えれば、単一参照ピクチャリスト66は、双方向予測ビデオブロックを予測するために使用される参照ピクチャの両方を識別する識別子を含み得、単一参照ピクチャリスト66は、単方向予測ビデオブロックを予測するために使用される参照ピクチャを識別する識別子を含み得る。このようにして、単一参照ピクチャリスト66は、(例えば、ビデオブロックが単方向予測され、Pスライス、Bスライス、又はGPBスライスのビデオブロックである場合)時間的に前の参照ピクチャのみのための識別子、(例えば、ビデオブロックが単方向予測され、Bスライス又はGPBスライスのビデオブロックである場合)時間的に後の参照ピクチャのみのための識別子、又は(例えば、ビデオブロックが双方向予測され、Bスライス又はGPBスライスのビデオブロックである場合)時間的に後の参照ピクチャと時間的に前の参照ピクチャの両方のための識別子を含み得る。この例では、時間的に後の参照ピクチャは、予測されたビデオブロックを含むピクチャの後に表示される参照ピクチャを指す。また、この例では、時間的に前の参照ピクチャは、予測されたビデオブロックを含むピクチャより前に表示される参照ピクチャを指す。
動き推定ユニット42は、計算された動きベクトルをエントロピー符号化ユニット56と動き補償ユニット44とに送る。動き補償ユニット44によって実行される動き補償は、動き推定によって決定された動きベクトルに基づいて予測ブロックをフェッチ又は生成することを伴い得る。より詳細には、インター予測ブロックの場合、動き補償ユニット44は、参照ピクチャメモリ64に記憶された復号された参照ピクチャから単一参照ピクチャリスト66を構成し得る。現在ビデオブロックのための動きベクトルを受信すると、動き補償ユニット44は、動きベクトルが単一参照ピクチャリスト66中で指し示す予測ブロックの位置を特定し得る。ビデオエンコーダ20は、コード化されている現在ビデオブロックの画素値から予測ブロックの画素値を減算して、画素差分値を形成することによって、残差ビデオブロックを形成する。画素差分値は、ブロックのための残差データを形成し、ルーマ差分成分とクロマ差分成分の両方を含み得る。加算器50は、この減算演算を実行する1つ以上の構成要素を表す。
ビデオブロックが2つの参照ピクチャから予測される(例えば、双方向予測される)幾つかの例では、動き補償ユニット44は、動き予測子を一緒に使用して2つの動きベクトルを符号化し得、2つの動きベクトルの各々は、それらのそれぞれの参照ピクチャを指し示す。動き予測子の使用は、あらゆる例のために必要であるとは限らず、単に例示のために説明するものである。説明しやすいように、それらのそれぞれの参照ピクチャを指し示す2つの動きベクトルを第1及び第2の動きベクトルと呼ぶ。
動き補償ユニット44は、第2の動きベクトルを表すために従来使用されるシンタックス要素を低減又は削除することによって、動きベクトルを信号伝達するために使用されるビットを低減し得る。ビデオエンコーダ20は、次いで、第1の動きベクトルと第2の動きベクトルとをジョイント符号化する。例えば、ビデオエンコーダ20は、動き予測子に対して第1の動きベクトルを従来の方法で符号化し、次いで、第1の動きベクトルに対して第2の動きベクトルを符号化し得る。ビデオエンコーダ20は、一例として、ビデオブロックレベルにおいて、各双方向予測ビデオブロックについての他の予測シンタックスとともに、ジョイント符号化された動きベクトルをビデオデコーダ30に信号伝達する。
動き補償ユニット44は、動き推定ユニット42から現在ビデオブロックのための第1の動きベクトルと第2の動きベクトルとを受信する。動き補償ユニット44は、次いで、隣接ビデオブロックの動きベクトルから第1の動きベクトルのための第1の動き予測子を生成する。例えば、現在ビデオブロックのための第1の動きベクトルは、リスト66からの単一の参照ピクチャ中の予測ブロックを指し示し得る。従って、第1の動き予測子は、リスト66からの同じ単一の参照ピクチャ中の別のブロックを指し示す、符号化されるべき現在ビデオブロックに隣接する隣接ビデオブロックの動きベクトルから生成され得る。
動き補償ユニット44は、第1の動き予測子に対する第1の動きベクトルを表すためのシンタックス要素を生成する。例えば、動き補償ユニット44は、第1の動きベクトルと第1の動き予測子との間の差を示すように定義された第1のシンタックス要素、即ち、mvdと、第1の動き予測子がそこから生成された参照ピクチャの単一参照ピクチャリスト66中のインデックスを示すように定義された第2のシンタックス要素、即ち、ref_idxとを生成する。このようにして、ビデオエンコーダ20は、動き補償ユニット44によって生成されたシンタックス要素を用いて、第1の動き予測子に対して第1の動きベクトルを従来の方法で符号化し得る。
動き補償ユニット44は、隣接ビデオブロックからの第2の動きベクトルのための第2の動き予測子を生成しないことがあるが、代わりに第2の動き予測子として第1の動きベクトルを使用する。ビデオエンコーダ20は、次いで、第1の動きベクトルに対して、ビデオブロックのための第2の動きベクトルを符号化する。このようにして、第2の動きベクトルは、第1の動きベクトルと第2の動きベクトルとの間の差として符号化され得る。幾つかの例では、動き補償ユニット44は、第2の動きベクトルについてのいかなるシンタックス要素も生成しないことがある。他の例では、動き補償ユニット44は、第2の動きベクトルと第1の動きベクトルとの間の差を示すように定義される第1のシンタックス要素のみを生成し得る。
場合によっては、動きベクトルが同じ参照ピクチャ又は実質的に同様の参照ピクチャを指し示すとき、ビデオエンコーダ20は、第1の動きベクトルと第2の動きベクトルとを単にジョイント符号化し得る。第1の動きベクトルと第2の動きベクトルとが同じ参照ピクチャをポイントしないとき、第2の動き予測子として第1の動きベクトルを使用する前に、第1の動きベクトルは、第1の動きベクトルと第2の動きベクトルとの間の時間距離に従ってスケーリングされ得る。
幾つかの例では、現在ブロックの動きベクトルのための動き予測子は、隣接ブロックの複数の動きベクトルから生成され得る。この場合、動き補償ユニット44は、隣接ビデオブロックの複数の候補動きベクトルから、現在ビデオブロックの第1の動きベクトルのための第1の動き予測子を生成し得る。動き補償ユニット44はまた、第1の動きベクトル又は第1の動き予測子を含む複数の候補動きベクトルから、現在ビデオブロックの第2の動きベクトルのための第2の動き予測子を生成し得る。この場合、第2の動きベクトルは、依然として、限定はしないが第1の動きベクトルに基づいて(例えば、また第1の動き予測子に基づき得る)、第1の動きベクトルに対して符号化され得る。動き補償ユニット44が複数の候補動きベクトルから動き予測子を生成する例では、これらの複数の候補動きベクトルは、動き予測子を生成するために処理され得る(平均、メディアンフィルタ、多数決原理、又は他の技法など)。例えば、動き補償ユニット44は、動き予測子を生成するために、平均化された4つの候補動きベクトルを利用し得る。
動き補償ユニット44はまた、ビデオシーケンスレベル、ビデオピクチャレベル、ビデオスライスレベル、ビデオコード化単位レベル、又はビデオ予測単位レベルのうちの1つ又は複数における予測情報を表すように定義されたシンタックス要素を生成し得る。例えば、動き補償ユニット44は、予測が単方向予測コード化に制約されるかどうかを示すシンタックス要素を生成し得る。例えば、動き補償ユニット44は、Pスライス、Bスライス、又はGPBスライスのためのビデオブロックを、ただ1つの参照ピクチャから予測されるように(例えば、単方向予測に)制約し得る。これらの状況では、動き補償ユニット44は、動き補償ユニット44が予測を単方向予測のみに制約したかどうかを示す、uni_pred_onlyと呼ばれるシンタックス要素を生成し得る。uni_pred_onlyシンタックス要素は、1ビット(例えば、真の場合は「1」、及び偽の場合は「0」)によって表される、真及び偽の2つの状態をもつフラグと見なされ得る。
真のとき、uni_pred_onlyは、予測が単方向予測に限定される(例えば、ただ1つの参照ピクチャが、特定のビデオブロックを符号化又は復号するために使用される)ことを示す。この場合、スライスのビデオブロックは、1つの参照ピクチャから予測される。しかしながら、これは、ビデオブロックの全てが同じ参照ピクチャから予測されることが可能であり得るが、それを意味しない。そうではなく、スライスのあるビデオブロックはある参照ピクチャから予測され得、スライスの別のビデオブロックは別の参照ピクチャから予測され得、但し、これらのビデオブロックの両方は、ただ1つの参照ピクチャから予測される。偽のとき、uni_pred_onlyは、予測が単方向予測に限定されないことを示す。この場合、スライスの一部又は全部のブロックは、依然として、1つの参照ピクチャに関して予測され得ることが可能であり得る。
動き補償ユニット44はまた、スライスのビデオブロックが予測された方法を示す追加のシンタックス要素を随意に含め得る。例えば、動き補償ユニット44は、uni_pred_onlyが偽であるとき、スライス(例えば、Bスライス又はGPBスライス)のいくつのビデオブロックが2つ以上の参照ピクチャに関して予測されるかを示し得る。そのような指示は割合として信号伝達され得る。別の例として、動き補償ユニット44は、uni_pred_onlyが偽であるとき、ピクチャのどのくらいが2つ以上の参照ピクチャに関して予測されるかを示し得る。そのような指示も割合として信号伝達され得る。
動き補償ユニット44は、これらのシンタックス要素を、スライス又はピクチャのヘッダ中に、又はスライス及びピクチャとは別個に含め得る。例えば、シーケンスパラメータセット(SPS)又はピクチャパラメータセット(PPS)中のピクチャのビデオブロックの全てが単方向予測される場合、動き補償ユニット44は、SPS又はPPSの一部としてuni_pred_onlyシンタックス要素を含め得る。動き補償ユニット44は、同様に、いくつのスライスが2つの参照ピクチャに関してインター予測されるかを示すシンタックス要素と、ピクチャのどのくらいが2つの参照ピクチャに関してインター予測されるかを示すシンタックス要素とを含め得る。幾つかの例では、動き補償ユニット44はまた、ビデオブロックが双方向予測を使用してコード化、例えば、予測されるのか、単方向予測を使用してコード化、例えば、予測されるのかを示す1つ以上のシンタックス要素を含め得る。
以下の表1〜表3に、動き補償ユニット44が、それぞれSPS、PPS、及びスライスヘッダの一部としてuni_pred_onlyシンタックス要素を含める方法を示す擬似コードを与える。
Figure 0005784752
Figure 0005784752
Figure 0005784752
表1〜表3の例示的な擬似コードでは、(例えば、表1及び表2の)uni_pred_onlyフラグが1に等しいとき、又は(例えば、表3の)non_uni_predict_flagが0に等しいとき、インター予測ビデオブロックは、ただ1つの参照ピクチャを用いて予測される。例えば、uni_pred_only_flagは、真を表す「1」又は偽を表す「0」のいずれかのバイナリ値であり得、non_uni_predict_flagは、uni_pred_only_flagとは逆のブーリアン値であり得る。表3の例では、num_ref_idx_active_minus1は、ビデオデコーダ30がスライスを復号するために利用することができる単一参照ピクチャリスト66のための最大参照インデックスを指定する。幾つかの例では、動き補償ユニット44は、更に、スライスを符号化するために使用される参照ピクチャの数を示すnum_predictors_puシンタックス要素を含め得る。
動き補償ユニット44はまた、動き補償ユニット44がビデオブロックをインター予測した方法を示し得る追加のシンタックス要素を含め得る。例えば、動き補償ユニット44は、ピクチャのいくつのスライスが複数の参照ピクチャに関して予測される(双方向予測される)かを示すシンタックス要素を含め得る。別の例として、動き補償ユニット44は、ピクチャのどのくらいのエリアが複数の参照ピクチャに関して予測されるかを示すシンタックス要素を含め得る。uni_pred_onlyシンタックス要素及びこれらの追加のシンタックス要素は、上記で説明したように、スライス又はピクチャを符号化及び/又は復号することの複雑さを低減し得る。
概して、動き補償ユニット44は、現在ビデオブロックがそこから予測される各参照ピクチャについての動きベクトル情報又は動き予測子情報を信号伝達する。単に説明及び簡潔のために、動き補償ユニット44は動きベクトル情報を信号伝達すると仮定する。動き補償ユニット44はまた、参照ピクチャのための1つ以上の識別子が単一参照ピクチャリスト中のどこに位置するかを示す、ビデオデコーダ30によって構成される単一参照ピクチャリストの1つ以上のインデックス値についての情報を信号伝達する。
ビデオブロックが単一の参照ピクチャに関して予測される例では、動き補償ユニット44は、ビデオブロックと、参照ピクチャの一致するブロックとの間の残差を信号伝達する。ビデオブロックが2つの参照ピクチャに関して予測される例では、動き補償ユニット44は、ビデオブロックと、参照ピクチャの各々の一致するブロックとの間の残差を信号伝達し得る。動き補償ユニット44は、ビデオデコーダ30がそこからビデオブロックを復号するこの1つ以上の残差を信号伝達し得る。
動き補償ユニット44は、任意のスライスタイプのビデオブロックのための単一参照ピクチャリスト66を構成し得る。代替例では、動き補償ユニット44以外のビデオエンコーダ20のユニットが単一参照ピクチャリスト66を構成し得る。しかしながら、例示のために、動き補償ユニット44が単一参照ピクチャリスト66を構成することに関する例について説明する。
単一参照ピクチャリスト66は、動き補償ユニット44が任意のスライスタイプのビデオブロックを符号化するために利用した1つ以上の参照ピクチャのための識別子を含み得る。言い換えれば、単一参照ピクチャリスト66中に格納された参照ピクチャのための識別子は、ビデオブロックがPスライスの部分であるのか、Bスライスの部分であるのか、GPBスライスの部分であるのかにかかわらず、参照ピクチャの識別子であり得る。また、Bスライス又はGPBスライスのビデオブロックが2つの参照ピクチャに関して符号化されるとき、単一参照ピクチャリスト66は参照ピクチャの各々のための識別子を含む。このようにして、ビデオブロックが2つ以上の参照ピクチャに関して符号化されるときを含めて、任意のスライスタイプのビデオブロックを符号化するためにどの参照ピクチャが利用されたかを識別するために、単一参照ピクチャリスト66のみが必要とされ得る。
幾つかの例では、動き補償ユニット44は、単一参照ピクチャリスト66を構成するためのデフォルト構成技法を利用し得る。例えば、現在ピクチャのビデオブロックについて、動き補償ユニット44は、現在ピクチャと、ビデオブロックを符号化するために使用される1つ以上の参照ピクチャとの間の時間差を決定し得る。一例では、動き補償ユニット44は、単一参照ピクチャリスト66中の位置において、現在ピクチャから時間的により遠い1つ以上の参照ピクチャのための識別子よりも早く、現在ピクチャに時間的により近い1つ以上の参照ピクチャのための識別子を含め得る。代替例として、動き補償ユニット44は、単一参照ピクチャリスト66中の位置において、現在ピクチャに時間的により近い1つ以上の参照ピクチャのための識別子よりも早く、現在ピクチャから時間的により遠い1つ以上の参照ピクチャのための識別子を含め得る。
現在ピクチャと1つ以上の参照ピクチャとの間の時間距離は、それらのそれぞれのPOC値又はピクチャ数値に基づき得る。例示及び簡潔のために、本技法についてPOC値に関して説明するが、本技法は、代わりにピクチャ数値を同様に使用し得る。
一例として、現在ピクチャと第1の参照ピクチャとの間のPOC値の差の絶対値が、現在ピクチャと第2の参照ピクチャとの間のPOC値の差の絶対値よりも小さい場合、第1の参照ピクチャは、第2の参照ピクチャよりも時間的に近いと見なされる。また、この例では、第1の参照ピクチャと第2の参照ピクチャとが両方とも時間的に前の参照ピクチャであるのか時間的に後の参照ピクチャであるのか、又は、一方が時間的に前の参照ピクチャであり、他方が時間的に後の参照ピクチャであるのかは関係しない。動き補償ユニット44が単一参照ピクチャリスト66に含める識別子は、1つ以上の参照ピクチャのPOC値又はピクチャ数値であり得る。
2つの参照ピクチャ間の時間距離が等しい例では、動き補償ユニット44は、より低いPOC値をもつ参照ピクチャのための識別子を単一参照ピクチャリスト66に最初に含め、より高いPOC値をもつ参照ピクチャを2番目に挿入し得る。代替例として、動き補償ユニット44は、より高いPOC値をもつ参照ピクチャのための識別子を単一参照ピクチャリスト66に最初に含め、より低いPOC値をもつ参照ピクチャを2番目に挿入し得る。
各ビデオブロックについて、動き補償ユニット44は、各1つ以上の参照ピクチャに関連する1つ以上の動きベクトルを示す情報と、各動きベクトルに関連する1つ以上の参照ピクチャが、ビデオデコーダ30が構成する単一参照ピクチャ中のどこに位置するかをビデオデコーダ30に示すインデックス値とを信号伝達し得る。例えば、ビデオブロックが2つの参照ピクチャに関してコード化されるとき、動き補償ユニット44は、2つの参照ピクチャの各々のための識別子が、ビデオデコーダ30が構成する唯一の単一参照ピクチャリスト内のどこに位置するかを示す情報を信号伝達し得る。他の参照ピクチャリストは、ビデオブロックを復号するために必要とされないので、動き補償ユニット44は、そのような他の参照ピクチャリストのためのインデックス値は信号伝達しないことがある。インデックス値情報は、以下でより詳細に説明するようにエントロピー符号化ユニット56によって符号化され得る。
幾つかの例では、動き補償ユニット44は、ビデオデコーダ30がそれの単一参照ピクチャリストを構成すべきである方法を示すシンタックス要素を含める必要がないことがある。ビデオデコーダ30側で構成される単一の参照ピクチャは、所与のビデオブロックについて単一参照ピクチャリスト66中の参照ピクチャと同一である参照ピクチャのための識別子を含み得る。ビデオデコーダ30がそれの単一参照ピクチャリストを構成すべきである方法を示すシンタックス要素を信号伝達しないことによって、動き補償ユニット44は、信号伝達される必要がある情報の量を低減し得る。
幾つかの例では、動き補償ユニット44によって信号伝達されるシンタックス要素はまた、単一参照ピクチャリスト66中の参照ピクチャに適用される予測重み及びオフセットを表すように定義されるシンタックス要素を含み得る。予測重み及びオフセットを表すシンタックス要素は、関連する参照ピクチャリストの各参照ピクチャにある重み及びオフセット値を適用するようにデコーダ30に命令するテーブルを備え得る。場合によっては、予測重み及びオフセットテーブルは、参照ピクチャのルーマ部分とクロマ部分とに異なる重み及びオフセットを与え得る。表4は、予測重みテーブルシンタックスのための例示的な擬似コードを含む。
Figure 0005784752
幾つかの例では、動き補償ユニット44は、ビデオデコーダ30のローカルで構成された単一参照ピクチャリストをビデオデコーダ30に並べ替えさせるシンタックス要素を含め得る。これらの例では、動き補償ユニット44は、ビデオブロックを復号するために使用される参照ピクチャが、並べ替えられた単一参照ピクチャリスト中のどこに位置するかを表すインデックス値を与え得る。ビデオデコーダ30の単一の参照ピクチャの並べ替えは、あらゆる例において必要であるとは限らない。表5に、ビデオデコーダ30の単一参照ピクチャリストを並べ替えるようにビデオデコーダ30に命令するために動き補償ユニット44が信号伝達し得る例示的な擬似コードを示す。
Figure 0005784752
表5の擬似コードでは、ref_pic_list_reodering_flagは、ビデオデコーダ30が、特定のビデオブロックのためのそれの構成された単一参照ピクチャリストを並べ替えるべきかどうかを示す。例えば、ref_pic_list_reordering_flagが「0」に等しい場合、ビデオデコーダ30は、それの構成された参照ピクチャリストを並べ替えないように命令される。
ref_pic_list_reordering_flagが「1」に等しい場合、ビデオデコーダ30は、それの構成された単一参照ピクチャリストを並べ替えるように命令される。それの単一参照ピクチャリストを再構成するために、ビデオデコーダ30は、ビデオデコーダ30がそれの単一参照ピクチャリストを並べ替えるべきである方法をその値が命令する変数であるreordering_of_pic_nums_idcを復号することを予想する。幾つかの例では、ref_pic_list_reordering_flagが「1」に等しいとき、ref_pic_list_reordering_flagに続くreordering_of_pic_nums_idcが3に等しくならない回数は、num_ref_idx_active_minus1+1を超え得ない。
概して、並べ替えシンタックス要素は、並べ替えられた参照ピクチャリストが、単一参照ピクチャリスト66の短期参照ピクチャであるのか、単一参照ピクチャリスト66の長期参照ピクチャであるのかと、参照ピクチャがどのように並べ替えられるかとを定義し得る。例えば、シンタックス要素は、短期参照ピクチャ並べ替えの場合には、予測ブロックのピクチャからのオフセットを定義し得、長期参照ピクチャ並べ替えの場合には、ピクチャに新しいインデックス番号を割り当て得る。
表6に、ビデオデコーダ30がそれを用いてビデオブロックを復号し得る、ビデオブロックのための擬似コードを与える。表6の例示的な擬似コードでは、任意のインターコード化スライスタイプのビデオブロックが、ビデオデコーダ30側で構成された同じ単一参照ピクチャリストに基づいて復号されるので、動き補償ユニット44は、インターコード化スライスの特定のタイプを示すシンタックス要素を含める必要がないことがある。動き補償ユニット44は、ビデオブロックが双方向予測を使用してコード化、例えば、予測されるのか、単方向予測を使用してコード化、例えば、予測されるのかを示すシンタックス要素を含め得る。これは、ビデオデコーダ30が、予測ビデオブロックを復号し始める前に追加の動きベクトル又はインデックス値を待つ必要があるかどうかをビデオデコーダ30が決定することを可能にし得る。
例えば、ビデオブロックが双方向予測される場合、ビデオデコーダ30は、ビデオブロックを復号するために、2つの動きベクトルのためのシンタックス要素と2つの参照ピクチャのためのインデックス値とを復号し得る。ビデオブロックが単方向予測される場合、ビデオデコーダ30は、ビデオデコーダ30が、参照ピクチャのための1つの動きベクトル情報と1つのインデックス値とを復号した後にビデオブロックを復号することができることを知り得、これは処理効率を促進し得る。ビデオブロックが双方向予測を使用してコード化されるのか、単方向予測を使用してコード化されるのかを示すシンタックス要素は、そのような処理効率を促進し得る。また、表6の例示的な擬似コードでは、ビデオデコーダ30は、1つの参照ピクチャ又は2つの参照ピクチャに関して符号化されたビデオブロックを復号するために単一参照ピクチャリストのみを使用するので、動き補償ユニット44は、異なる参照ピクチャリスト(例えば、従来のリスト0及びリスト1)を区別する必要がないことがある。
Figure 0005784752
Figure 0005784752
Figure 0005784752
Figure 0005784752
表6の例示的な擬似コードにおいて、bi_pred_flagは、現在ビデオブロックが単方向予測されるのか双方向予測されるのかを示し得る。言い換えれば、bi_pred_flagは、ビデオブロックが双方向予測を使用してコード化されるのか単方向予測を使用してコード化されるのかを示すシンタックス要素であり得る。例えば、bi_pred_flagが「1」に等しい場合、現在ビデオブロックは双方向予測コード化される(例えば、2つの参照ピクチャに関してコード化される)。この場合、ビデオデコーダ30は、2つの動きベクトルについての情報を復号することを予想する。bi_pred_flagが「0」に等しい場合、現在ビデオブロックは単方向予測である。この場合、ビデオデコーダ30は、ただ1つの動きベクトルについての情報を復号することを予想し、ビデオブロックを復号する前に別の動きベクトルを待つ必要がないことがある。
本開示で説明する技法に関連して、bi_pred_flagは、従来の技法と比較して、信号伝達される必要がある情報の量の低減を可能にし得る。例えば、従来の技法では、ビデオエンコーダは、ビデオブロックが双方向予測されるのか単方向予測されるのかを示すフラグを信号伝達し、単方向予測されるとき、ビデオエンコーダは、ビデオブロックが従来のリスト0中の参照ピクチャから予測されるのか、従来のリスト1中の参照ピクチャから予測されるのかを信号伝達するであろう。本開示で説明する1つ以上の例示的な技法では、(従来のリスト0及びリスト1ではなく)単一参照ピクチャリストのみがビデオブロックを予測するために必要とされ得るので、bi_pred_flagが、ビデオブロックが単方向予測されることを示す「0」に等しいとき、ビデオエンコーダ20は、ビデオブロックを予測するために使用されたピクチャのための識別子をどのピクチャリストが含むかを示す情報を信号伝達する必要がないことがある。
動き補償ユニット44が、現在ビデオブロックのための予測ブロックを生成した後、ビデオエンコーダ20は、現在ビデオブロックから予測ブロックを減算することによって残差ビデオブロックを形成する。変換ユニット52は、残差ブロックから1つ以上の変換ユニット(TU)を形成し得る。変換ユニット52は、離散コサイン変換(DCT)又は概念的に同様の変換など、変換をTUに適用し、残差変換係数を備えるビデオブロックを生成する。変換は、残差ブロックを画素領域から周波数領域などの変換領域に変換し得る。
変換ユニット52は、得られた変換係数を量子化ユニット54に送り得る。量子化ユニット54は、ビットレートを更に低減するために変換係数を量子化する。量子化プロセスは、係数の一部又は全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。幾つかの例では、量子化ユニット54は、次いで、量子化変換係数を含む行列の走査を実行し得る。代替的に、エントロピー符号化ユニット56が走査を実行し得る。
量子化の後、エントロピー符号化ユニット56は、量子化変換係数をエントロピーコード化する。例えば、エントロピー符号化ユニット56は、コンテキスト適応型可変長コード化(CAVLC)、コンテキスト適応型バイナリ算術コード化(CABAC)、又は別のエントロピー符号化技法を実行し得る。エントロピー符号化ユニット56によるエントロピー符号化の後、符号化されたビットストリームは、ビデオデコーダ30などのビデオデコーダに送信されるか、あるいは後で送信するか又は取り出すためにアーカイブされ得る。
エントロピー符号化ユニット56はまた、コード化されている現在ビデオピクチャのための動きベクトルと他の予測シンタックス要素とをエントロピー符号化し得る。例えば、エントロピー符号化ユニット56は、符号化されたビットストリーム中で送信するために動き補償ユニット44によって生成された適切なシンタックス要素を含むヘッダ情報を構成し得る。シンタックス要素をエントロピー符号化するために、エントロピー符号化ユニット56は、CABACを実行し、コンテキストモデルに基づいてシンタックス要素を1つ以上のバイナリビットに2値化し得る。エントロピー符号化ユニットはまた、CAVLCを実行し、コンテキストに基づく確率に従ってシンタックス要素をコードワードとして符号化し得る。
ビデオブロックが2つの参照ピクチャから予測される幾つかの例では、エントロピー符号化ユニット56は、他の参照ピクチャを指し示す動きベクトルに基づいて、参照ピクチャのうちの1つを指し示す動きベクトルを符号化し得る。エントロピー符号化ユニット56はまた、ビデオデコーダ30によって構成される単一参照ピクチャリスト中のどこに他の参照ピクチャが位置するかを示す情報に基づいて、ビデオデコーダ30によって構成される単一参照ピクチャリスト中のどこに参照ピクチャのうちの1つが位置するかを示す情報を符号化し得る。但し、エントロピー符号化ユニット56は、あらゆる例においてそのような符号化を実行する必要があるとは限らず、そのような符号化は、単に例示のために与えたものである。
逆量子化ユニット58及び逆変換ユニット60は、それぞれ逆量子化及び逆変換を適用して、参照ピクチャの参照ブロックとして後で使用するために、画素領域において残差ブロックを再構成する。動き補償ユニット44は、残差ブロックを単一参照ピクチャリスト66内の参照ピクチャのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、再構成された残差ブロックに1つ以上の補間フィルタを適用して、動き推定において使用するサブ整数画素値を計算し得る。加算器62は、再構成された残差ブロックを動き補償ユニット44によって生成された動き補償予測ブロックに加算して、参照ピクチャメモリ64に記憶するための参照ブロックを生成する。参照ブロックは、後続のビデオピクチャ中のブロックをインター予測するために、動き推定ユニット42及び動き補償ユニット44によって参照ブロックとして使用され得る。
図4は、本開示の1つ以上の態様による技法を実施し得る例示的なビデオデコーダを示すブロック図である。図4の例では、ビデオデコーダ30は、エントロピー復号ユニット80と、予測ユニット81と、逆量子化ユニット86と、逆変換ユニット88と、加算器90と、参照ピクチャメモリ92とを含む。予測ユニット81は、動き補償ユニット82とイントラ予測ユニット84とを含む。ビデオデコーダ30は、幾つかの例では、ビデオエンコーダ20(図3)に関して説明した符号化パスとは概して逆の復号パスを実行し得る。
復号プロセス中に、ビデオデコーダ30は、符号化ビデオブロックと、ビデオエンコーダ20などのビデオエンコーダからのコード化情報を表すシンタックス要素とを含む符号化ビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット80は、量子化係数、動きベクトル、及び他の予測シンタックスを生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット80は、予測ユニット81に動きベクトルと他の予測シンタックスとを転送する。ビデオデコーダ30は、ビデオ予測ユニットレベル、ビデオコード化ユニットレベル、ビデオスライスレベル、ビデオピクチャレベル、及び/又はビデオシーケンスレベルにおいてシンタックス要素を受信し得る。
ビデオスライスがイントラコード化(I)スライスとしてコード化されるとき、予測ユニット81のイントラ予測ユニット84は、信号伝達されたイントラ予測モードと、現在ピクチャの前に復号されたブロックからのデータとに基づいて、現在ビデオピクチャのビデオブロックについての予測データを生成し得る。ビデオブロックがインター予測されるとき、予測ユニット81の動き補償ユニット82は、エントロピー復号ユニット80から受信された1つ以上の動きベクトルと予測シンタックスとに基づいて、現在ビデオピクチャのビデオブロックの予測ブロックを生成する。予測ブロックは単一の参照ピクチャ94から生成され得る。単一参照ピクチャリスト94は、参照ピクチャメモリ92に記憶された参照ピクチャに基づいて構成され得る。上記で説明したように、例示的な技法では、動き補償ユニット82は、同じ単一参照ピクチャリスト94を使用して任意のタイプのビデオブロックを復号し得、他の参照ピクチャリストを使用する必要がないことがある。また、動き補償ユニット82は、ビデオブロックが1つの参照ピクチャに関して符号化されるのか、2つの参照ピクチャに関して符号化されるのかにかかわらず、同じ単一参照ピクチャリストを使用してビデオブロックを復号し得る。
動き補償ユニット82は、動きベクトルと予測シンタックスとを構文解析することによって現在ビデオブロックについての予測情報を決定し、予測情報使用して、復号されている現在ビデオブロックのための予測ブロックを生成する。例えば、動き補償ユニット82は、受信されたシンタックス要素の幾つかを使用して、現在ピクチャを符号化するために使用されたCUのサイズと、ピクチャの各CUがどのように分割されるかを記述する分割情報と、各分割がどのように符号化されたかを示すモード(例えば、イントラ予測又はインター予測)と、ピクチャの各インター予測ビデオブロックの動きベクトルと、ピクチャの各インター予測ビデオブロックの動き予測方向と、現在ビデオピクチャを復号するための他の情報とを決定する。
動き補償ユニット82はまた、補間フィルタに基づいて補間を実行し得る。動き補償ユニット82は、ビデオブロックの符号化中にビデオエンコーダ20によって使用された補間フィルタを使用して、参照ブロックのサブ整数画素の補間値を計算し得る。動き補償ユニット82は、受信されたシンタックス要素からビデオエンコーダ20によって使用された補間フィルタを決定し、その補間フィルタを使用して予測ブロックを生成し得る。
本開示の技法によれば、ビデオデコーダ30は、単一参照ピクチャリスト94のみを構成することによって、ビデオブロックをコード化するコストを低減し得る。例えば、ビデオデコーダ30は、単一参照ピクチャリスト94を構成するためのデフォルト構成技法を実施し得る。また、ビデオデコーダ30は他の参照ピクチャリストを構成する必要がないことがある。ビデオデコーダ30は、ビデオエンコーダ20の単一参照ピクチャリスト66を構成するためにビデオエンコーダ20が実施した同じデフォルト構成技法を実施し得る。また、ビデオデコーダ30は、ビデオブロックを含むスライスタイプにかかわらず、またビデオブロックが単方向予測されるのか双方向予測されるのか(例えば、それぞれ、1つの参照ピクチャから予測されるのか2つの参照ピクチャから予測されるのか)にかかわらず、単一参照ピクチャリスト94中で示された参照ピクチャを使用して、インター予測されたビデオブロックを復号し得る。
例えば、ビデオデコーダ30は、現在ピクチャのビデオブロックと、参照ピクチャメモリ92に記憶された1つ以上の参照ピクチャとの間の時間距離を決定し得る。参照ピクチャメモリ92に記憶された参照ピクチャは、前に復号された参照ピクチャであり得る。一例では、ビデオデコーダ30は、単一参照ピクチャリスト94中の、現在ピクチャから時間的により遠い参照ピクチャの識別子よりも早い位置において、現在ピクチャに時間的により近い参照ピクチャの識別子(例えば、POC値又はピクチャ数値)を含め得る。代替例では、ビデオデコーダ30は、単一参照ピクチャリスト84中の、現在ピクチャに時間的により近い参照ピクチャの識別子よりも早い位置において、現在ピクチャから時間的により遠い参照ピクチャの識別子を含め得る。現在ピクチャと1つ以上の参照ピクチャとの間の時間距離は、現在ピクチャのPOC値又はピクチャ数値と、1つ以上の参照ピクチャのPOC値又はピクチャ数値との間の差の絶対値に基づき得る。これらの例では、参照ピクチャが、時間的に前の参照ピクチャであるのか時間的に後の参照ピクチャであるのかは関係しない。
2つの参照ピクチャと現在ピクチャとの間の時間距離が同じである場合、ビデオデコーダ30は、単一参照ピクチャリスト94のより早い位置において、より小さいPOC値又はピクチャ数値をもつ参照ピクチャのための識別子を含め、単一参照ピクチャリスト94中のより遅い位置において、より大きいPOC値又はピクチャ数値をもつ参照ピクチャのための識別子を含め得る。代替例では、2つの参照ピクチャと現在ピクチャとの間の時間距離が同じであるとき、ビデオデコーダ30は、単一参照ピクチャリスト94中のより早い位置において、より大きいPOC値又はピクチャ数値をもつ参照ピクチャのための識別子を含め、単一参照ピクチャリスト94中のより遅い位置において、より小さいPOC値又はピクチャ数値をもつ参照ピクチャのための識別子を含め得る。
エントロピー復号ユニット80によって復号されたシンタックス要素が、単一参照ピクチャリスト94中の識別子を並べ替えるようにビデオデコーダ30に命令した場合、ビデオデコーダは、単一参照ピクチャリスト94を並べ替え得る。受信された並べ替えシンタックス要素は、ビデオデコーダ30が単一参照ピクチャリスト94中の参照ピクチャの識別子を並べ替えるべきである方法でビデオデコーダ30に命令し得、ビデオデコーダ30は、命令されたように単一参照ピクチャリスト94を並べ替え得る。
エントロピー復号ユニット80によって復号されたシンタックス要素は、動きベクトル情報と、動きベクトル情報に関連する参照ピクチャの識別子のインデックス値とを含み得る。インデックス値は、参照ピクチャのための識別子が単一参照ピクチャリスト94中のどこに位置するかを示す単一参照ピクチャリスト94のインデックス値であり得る。復号のために他の参照ピクチャリストを利用する必要がないことがあるので、エントロピー復号ユニット80は、単一参照ピクチャリスト94以外の他の参照ピクチャリストのためのインデックス値を復号する必要がないことがある。
インデックス値を用いて、動き補償ユニット82は、それが単一参照ピクチャリスト94からビデオブロックを復号するために使用すべきである1つ以上の参照ピクチャを識別し、それらの1つ以上の参照ピクチャを参照ピクチャメモリ92から取り出し得る。動きベクトル情報は、動き補償ユニット82が、ビデオブロックを復号するために、1つ以上の参照ピクチャのどの1つ以上のブロックを利用すべきであるかを動き補償ユニット82に示す。動き補償ユニット82は、次いで、ビデオブロックを最終的に復号するための予測ブロックを生成し得る。
例示的な例として、エントロピー復号ユニット80は、1つの参照ピクチャに関して符号化(例えば、単方向予測)され得るか又は2つの参照ピクチャに関して符号化(例えば、双方向予測)され得る現在ビデオブロックを復号するための情報を復号し得る。この例では、現在ビデオブロックが2つの参照ピクチャに関して符号化されると仮定する。復号された情報は、2つの参照ピクチャのための識別子が単一参照ピクチャリスト94中のどこに位置するかを表すインデックス値、及び、現在ビデオブロックに一致する、一致するブロックが2つの参照ピクチャ中のどこに位置するかを示す動きベクトル情報を示し得る。
動き補償ユニット82は、次いで、インデックス値に基づいて、単一参照ピクチャリスト94内に格納された2つの参照ピクチャのための識別子を決定し得る。動き補償ユニット82は、決定された識別子に基づいて参照ピクチャメモリ92から参照ピクチャを受信し得る。動き補償ユニット82は、次いで、参照ピクチャと動きベクトル情報とに基づいて現在ビデオブロックを復号し得る。
別の例示的な例として、現在ビデオブロックが1つの参照ピクチャのみに関して符号化されると仮定する。この例では、復号された情報は、ただ1つの参照ピクチャのためのインデックス値とただ1つの参照ピクチャのための動きベクトルとを示し得る。動き補償ユニット82は、次いで、前の例と同様に現在ビデオブロックを復号し得るが、動き補償ユニット82は、現在ビデオブロックを復号するためにただ1つの参照ピクチャを利用し得る。
上記の例示的な例のいずれでも、動き補償ユニット82は、単一参照ピクチャリスト94中で示された参照ピクチャのみに基づいてビデオブロックを復号することができるので、ビデオブロックがPスライスの一部であるのか、Bスライスの一部であるのか、GPBスライスの一部であるのかは重要でないことがある。従来の技法では、動き補償ユニット82は、2つの異なるリストを必要とし、また、動き補償ユニット82が2つのリストのいずれを使用すべきかを知るように、ビデオブロックがPスライスの一部であるのか、Bスライスの一部であるのか、GPBスライスの一部であるのかに関する指示を必要とした。
また、上記の例示的な例のいずれでも、ビデオブロックが1つの参照ピクチャに関して符号化されるのか、2つの参照ピクチャに関して符号化されるのかは重要でないことがある。動き補償ユニット82は、ビデオブロックが1つの参照ピクチャに関して符号化されるとき、そのビデオブロックを符号化するためにどの参照ピクチャが利用されたかを決定するために単一参照ピクチャリスト94のみを使用する。動き補償ユニット82はまた、ビデオブロックが2つの参照ピクチャに関して符号化されるとき、そのビデオブロックを符号化するためにどの参照ピクチャが利用されたかを決定するために同じ単一参照ピクチャリスト94を使用する。言い換えれば、復号のためにどの1つ以上の参照ピクチャを使用すべきかを決定するために動き補償ユニット82が使用する復号されたインデックス値は、これらの例では、単一参照ピクチャリスト94のみに関するものであり得、他の参照ピクチャリストに関するものではない。
ビデオデコーダ30はまた、参照ピクチャの重み及びオフセット値を示すシンタックス要素を使用して、単一参照ピクチャリスト94中の参照ピクチャに予測重み及びオフセットを適用し得る。予測重み及びオフセットを表すシンタックス要素は、単一参照ピクチャリスト94の各参照ピクチャにある重み及びオフセット値を適用するようにデコーダ30に命令するテーブルを備え得る。
逆量子化ユニット86は、ビットストリーム中で与えられ、エントロピー復号ユニット80によって復号された量子化変換係数を逆量子化(inverse quantize)、即ち、逆量子化(de-quantize)する。逆量子化プロセスは、量子化の程度を決定し、同様に、適用されるべき逆量子化の程度を決定するための、各ビデオブロック又はCUについてビデオエンコーダ20によって計算された量子化パラメータQPYの使用を含み得る。逆変換ユニット88は、逆変換、例えば、逆DCT、逆整数変換、又は概念的に同様の逆変換プロセスを変換係数に適用して、画素領域において残差ブロックを生成する。
動き補償ユニット82が、動きベクトルと予測シンタックス要素とに基づいて現在ビデオブロックのための予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット88からの残差ブロックを動き補償ユニット82によって生成された対応する予測ブロックと加算することによって、復号ビデオブロックを形成する。加算器90は、この加算演算を実行する1つ以上の構成要素を表す。所望される場合、ブロッキネスアーティファクトを除去するために、デブロッキングフィルタを適用して復号ブロックをフィルタ処理することもある。復号ビデオブロックは、次いで、参照ピクチャメモリ92に記憶され、参照ピクチャメモリ92は、その後の動き補償のための参照ピクチャの参照ブロックを与える。参照ピクチャメモリ92はまた、図1の表示装置32などの表示装置上での表示のために復号ビデオを生成する。
幾つかの例では、エントロピー復号ユニット80はまた、(例えば、uni_pred_onlyフラグを用いて)ビデオブロック、ビデオスライス、ビデオピクチャ、又はピクチャグループのための符号化が単方向予測に制約されるかどうかを示すシンタックス要素を復号し得る。uni_pred_onlyシンタックス要素は動き補償ユニット82の計算効率を高め得る。例えば、uni_pred_onlyシンタックス要素が真であるとき、動き補償ユニット82は、それが復号のためにどの参照ピクチャを使用すべきかを決定するために、2つの異なるインデックス値を待つ必要がないことを知り得る。そうではなく、動き補償ユニット82は、uni_pred_onlyシンタックス要素が真であるとき、単一の参照ピクチャのためのインデックス値と動きベクトル情報とを受信した直後に現在ビデオブロックの復号を開始し得る。
図5は、本開示の1つ以上の態様による、ビデオブロックをコード化する例示的な動作を示すフローチャートである。理解しやすいように、図5のフローチャートはビデオコーダを指す。「ビデオコーダ」という用語は、ビデオエンコーダ20又はビデオデコーダ30への共通の参照であり得る。言い換えれば、図5のフローチャートに示す機能は、ビデオエンコーダ20又はビデオデコーダ30のいずれか、あるいはビデオエンコーダ20とビデオデコーダ30の両方によって実行され得る。また、図5で使用する「コード化」という用語は、ビデオコーダがビデオエンコーダ20に対応するときには符号化を指し、ビデオコーダがビデオデコーダ30に対応するときには復号を指す。
ビデオコーダは、1つ以上の参照ピクチャのための識別子を含む単一参照ピクチャリストを構成する(100)。幾つかの例では、ビデオコーダは、1つ以上の参照ピクチャをビデオコード化機器(例えば、発信源12又は宛先機器14)のメモリに記憶するか、又はビデオコーダ内(例えば、参照ピクチャメモリ64又は参照ピクチャメモリ92)に記憶し得る。ビデオコーダは、上記で説明し、図6及び図7に更に示すように、単一参照ピクチャリストを構成するためのデフォルト構成技法を実施し得る。幾つかの例では、ビデオコーダは、単一参照ピクチャリスト以外(例えば、単一参照ピクチャリスト66又は単一参照ピクチャリスト94以外)の他の参照ピクチャリストを構成しないことがある。
ビデオコーダは、ビデオブロックが1つの参照ピクチャに関してコード化されるかどうかを決定する(102)。例えば、ビデオエンコーダ20は、Pスライス、Bスライス、又はGPBスライスのビデオブロックがただ1つの参照ピクチャに関して符号化されるかどうか、あるいはBスライス又はGPBスライスのビデオブロックが2つの参照ピクチャに関して符号化されるかどうかを決定し得る。同様に、ビデオデコーダ30は、Pスライス、Bスライス、又はGPBスライスのビデオブロックがただ1つの参照ピクチャに関して復号されるかどうか、若しくはBスライス又はGPBスライスのビデオブロックが2つの参照ピクチャに関して復号されるかどうかを決定し得る。
2つの参照ピクチャに関してコード化されるとき(102のいいえ分岐)、ビデオコーダは、識別子が単一参照ピクチャリスト中のどこに位置するかを示すインデックス値をコード化する(105)。例えば、ビデオブロックが2つの異なる参照ピクチャに関してコード化されるとき、ビデオデコーダ30は、参照ピクチャの各々のための識別子が単一参照ピクチャリスト94中のどこに格納されるかを示すインデックス値を復号し得る。ビデオコーダは、他の参照ピクチャリストのためのインデックス値をコード化しないことがある。この場合も、ビデオコーダによって構成される単一参照ピクチャリスト中に格納される参照ピクチャのための識別子は、現在ピクチャのビデオブロックをコード化するために必要とされ得る参照ピクチャの全てを識別するのに十分であり得る。ビデオコーダは、単一参照ピクチャリストのみ中で識別された少なくとも2つの参照ピクチャを使用して現在ピクチャのビデオブロックをコード化する(106)。
ただ1つの参照ピクチャに関してコード化されるとき(102のはい分岐)、ビデオコーダは、識別子が単一参照ピクチャリスト中のどこに位置するかを示すインデックス値をコード化する(103)。例えば、ビデオブロックが1つの参照ピクチャに関してコード化されるとき、ビデオデコーダ30は、ビデオブロックを予測するために使用された参照ピクチャのための識別子が単一参照ピクチャリスト94中のどこに格納されるかを示すインデックス値を復号し得る。ビデオコーダは、他の参照ピクチャリストのためのインデックス値をコード化しないことがある。ビデオコーダは、単一参照ピクチャリストのみ中で識別された参照ピクチャのうちの1つを使用して現在ピクチャのビデオブロックをコード化する(104)。
例えば、いずれの状況(例えば、図5のブロック104又はブロック106)でも、ビデオコーダは、従来のリスト0及びリスト1、又はリスト0及びリスト0の複製を使用してビデオブロックをコード化する必要がないことがある。そうではなく、単一参照ピクチャリストは、ビデオブロックがただ1つの参照ピクチャに関してコード化されるときに、参照ピクチャのための識別子を与えるのに十分であり、ビデオブロックが2つの異なる参照ピクチャに関してコード化されるときに、参照ピクチャのための識別子を与えるのに十分であり得る。また、2つの参照ピクチャに関してコード化されるとき、2つの参照ピクチャは、表示順序が現在ピクチャに対して全て時間的に前、全て時間的に後、及び時間的に前と時間的に後の両方であり得る。このようにして、ビデオブロックがPスライスのビデオブロックであるのか、Bスライスのビデオブロックであるのか、GPBスライスのビデオブロックであるのかは重要でないことがある。
図6及び図7は、本開示の1つ以上の態様による、単一参照ピクチャリストを構成するためのデフォルト構成技法を実施するための例示的な動作を示すフローチャートである。図5と同様に、図6及び図7のフローチャートについてビデオコーダに関して説明する。ビデオコーダの例には、ビデオエンコーダ20及びビデオデコーダ30がある。概して、図6及び図7の例では、ビデオコーダは、コード化ビデオブロックを含む現在ピクチャと単一参照ピクチャリスト中に含まれる参照ピクチャの各々との間の距離に基づいて単一参照ピクチャリストを構成し得る。
図6の例では、ビデオコーダは、単一参照ピクチャリスト中の参照ピクチャを昇順で順序付け得る。例えば、ビデオコーダは、単一参照ピクチャリスト中の位置において、表示順序又はコード化順序が現在ピクチャからより遠い参照ピクチャよりも早く、表示順序又はコード化順序が現在ピクチャにより近い参照ピクチャのための識別子を含め得る。
例えば、ビデオコーダは、現在ピクチャと第1の参照ピクチャとの間の第1の時間距離を決定し(110)、現在ピクチャと第2の参照ピクチャとの間の第2の時間距離を決定する(112)。時間距離を決定するために、ビデオコーダは、現在ピクチャと第1のピクチャとのPOC間又はピクチャ数値間の差の絶対値と、現在ピクチャと第2のピクチャとのPOC間又はピクチャ数値間の差の絶対値とを決定し得る。
ビデオコーダは、第1の時間距離が第2の時間距離よりも小さいかどうかを決定する(114)。第1の時間距離が第2の時間距離よりも小さいとき(114のはい分岐)、ビデオコーダは、単一参照ピクチャリスト中のより早い位置において第1の参照ピクチャのための識別子を含め、単一参照ピクチャリスト中のより遅い位置において第2の参照ピクチャのための識別子を含める(116)。
第1の時間距離が第2の時間距離以上であるとき(114のいいえ分岐)、ビデオコーダは、第1の時間距離が第2の時間距離に等しいかどうかを決定する(118)。この場合、第1の時間距離が第2の時間距離に等しくないとき(118のいいえ分岐)、第2の時間距離は第1の時間距離よりも小さい。第2の時間距離が第1の時間距離よりも小さいとき、ビデオコーダは、単一参照ピクチャリスト中のより早い位置において第2の参照ピクチャのための識別子を含め、単一参照ピクチャリスト中のより遅い位置において第1の参照ピクチャのための識別子を含める(120)。
第1の時間距離が第2の時間距離に等しいとき(118のはい分岐)、ビデオコーダは、第1の参照ピクチャ及び第2の参照ピクチャのそれぞれのPOC又はピクチャ数値に基づいて、第1の参照ピクチャが第2の参照ピクチャよりも表示順序又はコード化順序が早いかどうかを決定する(122)。第1の参照ピクチャが第2の参照ピクチャよりも表示順序又はコード化順序が早いとき(122のはい分岐)、ビデオコーダは、単一参照ピクチャリスト中の、第2の参照ピクチャのための識別子よりも早い位置において第1の参照ピクチャのための識別子を含める(124)。第2の参照ピクチャが第1の参照ピクチャよりも表示順序又はコード化順序が早いとき(122のいいえ分岐)、ビデオコーダは、単一参照ピクチャリスト中の、第1の参照ピクチャのための識別子よりも早い位置において第2の参照ピクチャのための識別子を含める(126)。
図7の例では、ビデオコーダは、単一参照ピクチャリスト中の参照ピクチャを降順で順序付け得る。例えば、ビデオコーダは、単一参照ピクチャリスト中の位置において、表示順序又はコード化順序が現在ピクチャにより近い参照ピクチャよりも早く、表示順序又はコード化順序が現在ピクチャからより遠い参照ピクチャのための識別子を含め得る。例えば、図6と同様に、ビデオコーダは、現在ピクチャと第1の参照ピクチャとの間の第1の時間距離を決定し(130)、現在ピクチャと第2の参照ピクチャとの間の第2の時間距離を決定する(132)。
ビデオコーダは、第1の時間距離が第2の時間距離よりも小さいかどうかを決定する(134)。第1の時間距離が第2の時間距離よりも小さいとき(134のはい分岐)、ビデオコーダは、単一参照ピクチャリスト中のより早い位置において第2の参照ピクチャのための識別子を含め、単一参照ピクチャリスト中のより遅い位置において第1の参照ピクチャのための識別子を含める(136)。
第1の時間距離が第2の時間距離以上であるとき(134のいいえ分岐)、ビデオコーダは、第1の時間距離が第2の時間距離に等しいかどうかを決定する(138)。この場合、第1の時間距離が第2の時間距離に等しくないとき(138のいいえ分岐)、第2の時間距離は第1の時間距離よりも小さい。第2の時間距離が第1の時間距離よりも小さいとき、ビデオコーダは、単一参照ピクチャリスト中のより早い位置において第1の参照ピクチャのための識別子を含め、単一参照ピクチャリスト中のより遅い位置において第2の参照ピクチャのための識別子を含める(140)。
第1の時間距離が第2の時間距離に等しいとき(138のはい分岐)、ビデオコーダは、第1の参照ピクチャ及び第2の参照ピクチャのそれぞれのPOC又はピクチャ数値に基づいて、第1の参照ピクチャが第2の参照ピクチャよりも表示順序又はコード化順序が早いかどうかを決定する(142)。第1の参照ピクチャが第2の参照ピクチャよりも表示順序又はコード化順序が早いとき(142のはい分岐)、ビデオコーダは、単一参照ピクチャリスト中の、第1の参照ピクチャのための識別子よりも早い位置において第2の参照ピクチャのための識別子を含める(144)。第2の参照ピクチャが第1の参照ピクチャよりも表示順序が早いとき(142のいいえ分岐)、ビデオコーダは、単一参照ピクチャリスト中の、第2の参照ピクチャのための識別子よりも早い位置において第1の参照ピクチャのための識別子を含める(146)。
1つ以上の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せで実施され得る。ソフトウェアで実施した場合、機能は、1つ以上の命令又はコードとしてコンピュータ可読媒体上に記憶されるか、又はコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、例えば、通信プロトコルに従ってある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含むデータ記憶媒体又は通信媒体など、有形媒体に対応するコンピュータ可読記憶媒体を含み得る。このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、又は(2)信号若しくは搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実施のための命令、コード及び/又はデータ構造を取り出すために1つ以上のコンピュータあるいは1つ以上のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD−ROM又は他の光ディスクストレージ、磁気ディスクストレージ、若しくは他の磁気ストレージ機器、フラッシュメモリ、又は命令若しくはデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。例えば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、又は赤外線、無線、及びマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、又は他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、又は赤外線、無線、及びマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。但し、コンピュータ可読記憶媒体及びデータ記憶媒体は、接続、搬送波、信号、又は他の一時媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)及びディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(disc)(登録商標)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)、及びブルーレイディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
命令は、1つ以上のデジタル信号プロセッサ(DSP)などの1つ以上のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路又はディスクリート論理回路によって実行され得る。従って、本明細書で使用する「プロセッサ」という用語は、前述の構造、又は本明細書で説明した技法の実施に好適な他の構造のいずれかを指し得る。更に、幾つかの態様では、本明細書で説明した機能は、符号化及び復号のために構成された専用ハードウェア及び/又はソフトウェアモジュール内に与えられ得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つ以上の回路又は論理要素において完全に実施され得る。
本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、又はICのセット(例えば、チップセット)を含む、多種多様な機器又は装置において実施され得る。本開示では、開示した技法を実行するように構成された機器の機能的態様を強調するために、様々な構成要素、モジュール、又はユニットについて説明したが、それらの構成要素、モジュール、又はユニットを必ずしも異なるハードウェアユニットによって実現する必要はない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェア及び/又はファームウェアとともに、上記で説明した1つ以上のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、又は相互動作ハードウェアユニットの集合によって与えられ得る。
様々な例について説明した。これら及び他の例は以下の特許請求の範囲内に入る。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] ビデオデータをコード化する方法であって、ビデオコーダが、復号された参照ピクチャを記憶するメモリからの1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成することと、前記ビデオコーダが、前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの2つに関する双方向予測と、前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの1つに関する単方向予測とのうちの1つを使用して、現在ピクチャのビデオブロックをコード化することとを備える方法。
[2] 前記ビデオブロックが双方向予測を使用してコード化されるのか単方向予測を使用してコード化されるのかを示す1つ以上のシンタックス要素をコード化することを更に備える、[1]に記載の方法。
[3] 前記単一参照ピクチャリスト中で識別された前記1つ以上の参照ピクチャは、表示順序が前記現在ビデオピクチャに対して全て時間的に前である参照ピクチャと、前記現在ビデオピクチャに対して全て時間的に後である参照ピクチャと、前記現在ビデオピクチャに対して時間的に前と時間的に後の両方である参照ピクチャとのうちの1つを備える、[1]に記載の方法。
[4] 前記現在ピクチャの前記ビデオブロックをコード化することが、前記現在ピクチャの前記ビデオブロックを復号することを備え、他の参照ピクチャリスト中の参照ピクチャのためのインデックス値をコード化することなしに、前記現在ピクチャが双方向予測を使用してコード化されるときに、前記2つの参照ピクチャが前記単一参照ピクチャリストのみ内のどこに位置するかを示すインデックス値を復号することを更に備える、[1]に記載の方法。
[5] 前記単一参照ピクチャリストを構成することが、他の参照ピクチャリストを構成することなしに前記単一参照ピクチャリストのみを構成することを備える、[1]に記載の方法。
[6] 前記単一参照ピクチャリストを構成することが、前記現在ピクチャと前記単一参照ピクチャリスト中に含まれる前記参照ピクチャの各々との間の時間距離に基づいて前記単一参照ピクチャリストを構成することを備える、[1]に記載の方法。
[7] 前記単一参照ピクチャリストを構成することは、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャからより遠い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャにより近い参照ピクチャのための識別子を含めることを備える、[1]に記載の方法。
[8] 前記単一参照ピクチャリストを構成することは、前記現在ピクチャと第1の参照ピクチャとの間の第1の時間距離を決定することと、前記現在ピクチャと第2の参照ピクチャとの間の第2の時間距離を決定することと、前記第1の時間距離が前記第2の時間距離よりも小さいときには、前記単一参照ピクチャリスト中のより早い位置において前記第1の参照ピクチャのための識別子を含めることと、前記単一参照ピクチャリスト中のより遅い位置において前記第2の参照ピクチャのための識別子を含めることと、前記第2の時間距離が前記第1の時間距離よりも小さいときには、前記単一参照ピクチャリスト中の前記より早い位置において前記第2の参照ピクチャのための前記識別子を含めることと、前記単一参照ピクチャリスト中の前記より遅い位置において前記第1の参照ピクチャのための前記識別子を含めることとを備える、[1]に記載の方法。
[9] 前記第1の時間距離が前記第2の時間距離に等しいとき、前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いかどうかを決定することと、前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第2の参照ピクチャのための前記識別子よりも早い位置において前記第1の参照ピクチャのための前記識別子を含めることと、前記第2の参照ピクチャが前記第1の参照ピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第1の参照ピクチャのための前記識別子よりも早い位置において前記第2の参照ピクチャのための前記識別子を含めることとを更に備える、[8]に記載の方法。
[10] 前記第1の時間距離を決定することが、前記現在ピクチャと前記第1のピクチャとのピクチャ順序カウント値間の差の絶対値を決定することを備え、前記第2の時間距離を決定することが、前記現在ピクチャと前記第2のピクチャとのピクチャ順序カウント値間の差の絶対値を決定することを備える、[8]に記載の方法。
[11] 前記単一参照ピクチャリストを構成することは、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャにより近い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャからより遠い参照ピクチャのための識別子を含めることを備える、[1]に記載の方法。
[12] 前記単一参照ピクチャリストを構成することは、前記現在ピクチャと第1の参照ピクチャとの間の第1の時間距離を決定することと、前記現在ピクチャと第2の参照ピクチャとの間の第2の時間距離を決定することと、前記第1の時間距離が前記第2の時間距離よりも小さいときには、前記単一参照ピクチャリスト中のより早い位置において前記第2の参照ピクチャのための識別子を含めることと、前記単一参照ピクチャリスト中のより遅い位置において前記第1の参照ピクチャのための識別子を含めることと、前記第2の時間距離が前記第1の時間距離よりも小さいときには、前記単一参照ピクチャリスト中の前記より早い位置において前記第1の参照ピクチャのための前記識別子を含めることと、前記単一参照ピクチャリスト中の前記より遅い位置において前記第2の参照ピクチャのための前記識別子を含めることとを備える、[1]に記載の方法。
[13] 前記第1の時間距離が前記第2の時間距離に等しいとき、前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いかどうかを決定することと、前記第1の参照ピクチャが前記第2のピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第1の参照ピクチャのための前記識別子よりも早い位置において前記第2の参照ピクチャのための前記識別子を含めることと、前記第2の参照ピクチャが前記第1の参照ピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第2の参照ピクチャのための前記識別子よりも早い位置において前記第1の参照ピクチャのための前記識別子を含めることとを更に備える、[12]に記載の方法。
[14] 前記方法がビデオ復号の方法を備え、ビデオシーケンス、ビデオピクチャ、及びビデオスライスのうちの少なくとも1つ内の全てのビデオブロックについてコード化が単方向予測に制約されることを示す1つ以上のシンタックス要素を復号することと、前記単一参照ピクチャリスト中で識別されたただ1つの参照ピクチャに関する単方向予測を使用して前記ビデオブロックを復号することとを更に備える、[1]に記載の方法。
[15] 前記単一参照ピクチャリスト中の2つの参照ピクチャに関する双方向予測を使用してコード化される前記現在ピクチャ内のビデオブロックの数を示す1つ以上のシンタックス要素をコード化することを更に備える、[1]に記載の方法。
[16] 前記単一参照ピクチャリスト中の2つの参照ピクチャに関する双方向予測を使用してコード化される前記現在ピクチャのエリアを示す1つ以上のシンタックス要素をコード化することを更に備える、[1]に記載の方法。
[17] 復号された参照ピクチャを記憶するように動作可能なメモリと、前記メモリに記憶された1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成することと、前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの2つに関する双方向予測と、前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの1つに関する単方向予測とのうちの1つを使用して、現在ピクチャのビデオブロックをコード化することとを行うように動作可能なビデオコーダとを備えるビデオコード化装置。
[18] 前記ビデオコーダは、前記ビデオブロックが双方向予測を使用してコード化されるのか単方向予測を使用してコード化されるのかを示す1つ以上のシンタックス要素をコード化するように更に動作可能である、[17]に記載のビデオコード化装置。
[19] 前記単一参照ピクチャリスト中で識別された前記1つ以上の参照ピクチャは、表示順序が前記現在ビデオピクチャに対して全て時間的に前である参照ピクチャと、前記現在ビデオピクチャに対して全て時間的に後である参照ピクチャと、前記現在ビデオピクチャに対して時間的に前と時間的に後の両方である参照ピクチャとのうちの1つを備える、[17]に記載のビデオコード化装置。
[20] 前記ビデオコーダが、前記現在ピクチャの前記ビデオブロックを復号するビデオデコーダを備え、前記ビデオデコーダは、他の参照ピクチャリスト中の参照ピクチャのためのインデックス値をコード化することなしに、前記現在ピクチャが双方向予測を使用してコード化されるときに、前記2つの参照ピクチャが前記単一参照ピクチャリストのみ内のどこに位置するかを示すインデックス値を復号するように更に動作可能である、[17]に記載のビデオコード化装置。
[21] 前記ビデオコーダが、他の参照ピクチャリストを構成するように動作可能であることなしに、前記単一参照ピクチャリストのみを構成するように動作可能である、[17]に記載のビデオコード化装置。
[22] 前記ビデオコーダが、前記現在ピクチャと前記単一参照ピクチャリスト中に含まれる前記参照ピクチャの各々との間の時間距離に基づいて前記単一参照ピクチャリストを構成するように動作可能である、[17]に記載のビデオコード化装置。
[23] 前記ビデオコーダは、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャからより遠い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャにより近い参照ピクチャのための識別子を含めるように動作可能である、[17]に記載のビデオコード化装置。
[24] 前記単一参照ピクチャリストを構成するために、前記ビデオコーダは、前記現在ピクチャと第1の参照ピクチャとの間の第1の時間距離を決定することと、前記現在ピクチャと第2の参照ピクチャとの間の第2の時間距離を決定することと、前記第1の時間距離が前記第2の時間距離よりも小さいときには、前記単一参照ピクチャリスト中のより早い位置において前記第1の参照ピクチャのための識別子を含めることと、前記単一参照ピクチャリスト中のより遅い位置において前記第2の参照ピクチャのための識別子を含めることと、前記第2の時間距離が前記第1の時間距離よりも小さいときには、前記単一参照ピクチャリスト中の前記より早い位置において前記第2の参照ピクチャのための前記識別子を含めることと、前記単一参照ピクチャリスト中の前記より遅い位置において前記第1の参照ピクチャのための前記識別子を含めることとを行うように動作可能である、[17]に記載のビデオコード化装置。
[25] 前記第1の時間距離が前記第2の時間距離に等しいとき、前記ビデオコーダは、前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いかどうかを決定することと、前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第2の参照ピクチャのための前記識別子よりも早い位置において前記第1の参照ピクチャのための前記識別子を含めることと、前記第2の参照ピクチャが前記第1の参照ピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第1の参照ピクチャのための前記識別子よりも早い位置において前記第2の参照ピクチャのための前記識別子を含めることとを行うように動作可能である、[24]に記載のビデオコード化装置。
[26] 前記ビデオコーダが、前記第1の時間距離を決定するために前記現在ピクチャと前記第1のピクチャとのピクチャ順序カウント値間の差の絶対値を決定することと、前記第2の時間距離を決定するために前記現在ピクチャと前記第2のピクチャとのピクチャ順序カウント値間の差の絶対値を決定することとを行うように動作可能である、[24]に記載のビデオコード化装置。
[27] 前記ビデオコーダは、前記単一参照ピクチャリストを構成するために、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャにより近い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャからより遠い参照ピクチャのための識別子を含めるように動作可能である、[17]に記載のビデオコード化装置。
[28] 前記単一参照ピクチャリストを構成するために、前記ビデオコーダは、前記現在ピクチャと第1の参照ピクチャとの間の第1の時間距離を決定することと、前記現在ピクチャと第2の参照ピクチャとの間の第2の時間距離を決定することと、前記第1の時間距離が前記第2の時間距離よりも小さいときには、前記単一参照ピクチャリスト中のより早い位置において前記第2の参照ピクチャのための識別子を含めることと、前記単一参照ピクチャリスト中のより遅い位置において前記第1の参照ピクチャのための識別子を含めることと、前記第2の時間距離が前記第1の時間距離よりも小さいときには、前記単一参照ピクチャリスト中の前記より早い位置において前記第1の参照ピクチャのための前記識別子を含めることと、前記単一参照ピクチャリスト中の前記より遅い位置において前記第2の参照ピクチャのための前記識別子を含めることとを行うように動作可能である、[17]に記載のビデオコード化装置。
[29] 前記第1の時間距離が前記第2の時間距離に等しいとき、前記ビデオコーダは、前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いかどうかを決定することと、前記第1の参照フレームが前記第2の参照フレームよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第1の参照ピクチャのための前記識別子よりも早い位置において前記第2の参照ピクチャのための前記識別子を含めることと、前記第2の参照フレームが前記第1の参照フレームよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第2の参照ピクチャのための前記識別子よりも早い位置において前記第1の参照ピクチャのための前記識別子を含めることとを行うように動作可能である、[28]に記載のビデオコード化装置。
[30] 前記ビデオコーダがビデオデコーダを備え、前記ビデオデコーダは、ビデオシーケンス、ビデオピクチャ、及びビデオスライスのうちの少なくとも1つ内の全てのビデオブロックについてコード化が単方向予測に制約されることを示す1つ以上のシンタックス要素を復号することと、前記単一参照ピクチャリスト中で識別されたただ1つの参照ピクチャに関する単方向予測を使用して前記ビデオブロックを復号することとを行うように更に動作可能である、[17]に記載のビデオコード化装置。
[31] 前記ビデオコーダが、前記単一参照ピクチャリスト中の2つの参照ピクチャに関する双方向予測を使用してコード化される前記現在ピクチャ内のビデオブロックの数を示す1つ以上のシンタックス要素をコード化するように更に動作可能である、[17]に記載のビデオコード化装置。
[32] 前記ビデオコーダが、前記単一参照ピクチャリスト中の2つの参照ピクチャに関する双方向予測を使用してコード化される前記現在ピクチャのエリアを示す1つ以上のシンタックス要素をコード化するように更に動作可能である、[17]に記載のビデオコード化装置。
[33] 前記ビデオコーダが、ビデオデコーダ及びビデオエンコーダのうちの1つを備える、[17]に記載のビデオコード化装置。
[34] 復号された参照ピクチャを記憶するメモリからの1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成するための手段と、前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの2つに関する双方向予測と、前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの1つに関する単方向予測とのうちの1つを使用して、現在ピクチャのビデオブロックをコード化するための手段とを備えるビデオコード化装置。
[35] 前記ビデオブロックが双方向予測を使用してコード化されるのか単方向予測を使用してコード化されるのかを示す1つ以上のシンタックス要素をコード化するための手段を更に備える、[34]に記載のビデオコード化装置。
[36] 前記単一参照ピクチャリストを構成するための前記手段は、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャからより遠い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャにより近い参照ピクチャのための識別子を含めるための手段を備える、[34]に記載のビデオコード化装置。
[37] 前記単一参照ピクチャリストを構成するための前記手段は、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャにより近い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャからより遠い参照ピクチャのための識別子を含めるための手段を備える、[34]に記載のビデオコード化装置。
[38] ビデオコーダ中で実行されると、復号された参照ピクチャを記憶するメモリからの1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成することと、前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの2つに関する双方向予測と、前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの1つに関する単方向予測とのうちの1つを使用して、現在ピクチャのビデオブロックをコード化することとを前記ビデオコーダに行わせる、ビデオデータをコード化するための命令を備える非一時的コンピュータ可読記憶媒体。
[39] 前記ビデオブロックが双方向予測を使用してコード化されるのか単方向予測を使用してコード化されるのかを示す1つ以上のシンタックス要素をコード化することを前記ビデオコーダに行わせる命令を更に備える、[38]に記載の非一時的コンピュータ可読記憶媒体。

Claims (39)

  1. ビデオデータをコード化する方法であって、
    ビデオコーダが、復号された参照ピクチャを記憶するメモリからの1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成することと、前記単一参照ピクチャリストの参照ピクチャが双方向予測ビデオブロックをコード化するために使用され、かつ他の参照ピクチャリストの参照ピクチャは使用されず、同じ前記単一参照ピクチャリストが単方向予測ビデオブロックをコード化するために使用される、
    前記ビデオコーダが、現在ピクチャのビデオブロックが単方向予測される場合、前記単一参照ピクチャリストのうちの1つのインデックス値を、及び前記現在ピクチャの前記ビデオブロックが双方向予測される場合、前記単一参照ピクチャリストのうちの2つのインデックス値をコード化することと、
    前記ビデオコーダが、前記単一参照ピクチャリスト中の1つ以上の参照ピクチャを用い、他の参照ピクチャリスト中の参照ピクチャは用いずに、前記現在ピクチャの前記ビデオブロックをコード化することと、前記ビデオブロックが双方向予測されるとき、前記ビデオブロックは、前記2つのインデックス値によって前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの2つに関してコード化され、前記ビデオブロックが単方向予測されるとき、前記ビデオブロックは、前記1つのインデックス値によって同じ前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの1つに関してコード化される、を備える方法。
  2. 前記ビデオブロックが双方向予測を使用してコード化されるのか単方向予測を使用してコード化されるのかを示す1つ以上のシンタックス要素をコード化することを更に備える、請求項1に記載の方法。
  3. 前記単一参照ピクチャリスト中で識別された前記1つ以上の参照ピクチャは、表示順序が現在ビデオピクチャに対して全て時間的に前である参照ピクチャと、前記現在ビデオピクチャに対して全て時間的に後である参照ピクチャと、前記現在ビデオピクチャに対して時間的に前と時間的に後の両方である参照ピクチャとのうちの1つを備える、請求項1に記載の方法。
  4. 前記現在ピクチャの前記ビデオブロックをコード化することが、前記現在ピクチャの前記ビデオブロックを復号することを備え、
    いずれの他の参照ピクチャリスト中の参照ピクチャのためのインデックス値をコード化することなしに、前記現在ピクチャが双方向予測を使用してコード化されるときに、前記2つの参照ピクチャが前記単一参照ピクチャリスト内のどこに位置するかを示すインデックス値を復号することを更に備える、請求項1に記載の方法。
  5. 前記単一参照ピクチャリストを構成することが、その他の参照ピクチャリストを構成することなしに前記単一参照ピクチャリストを構成することを備える、請求項1に記載の方法。
  6. 前記単一参照ピクチャリストを構成することが、前記現在ピクチャと前記単一参照ピクチャリスト中に含まれる前記参照ピクチャの各々との間の時間距離に基づいて前記単一参照ピクチャリストを構成することを備える、請求項1に記載の方法。
  7. 前記単一参照ピクチャリストを構成することは、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャからより遠い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャにより近い参照ピクチャのための識別子を含めることを備える、請求項1に記載の方法。
  8. 前記単一参照ピクチャリストを構成することは、
    前記現在ピクチャと第1の参照ピクチャとの間の第1の時間距離を決定することと、
    前記現在ピクチャと第2の参照ピクチャとの間の第2の時間距離を決定することと、
    前記第1の時間距離が前記第2の時間距離よりも小さいときには、前記単一参照ピクチャリスト中のより早い位置において前記第1の参照ピクチャのための識別子を含めることと、前記単一参照ピクチャリスト中のより遅い位置において前記第2の参照ピクチャのための識別子を含めることと、
    前記第2の時間距離が前記第1の時間距離よりも小さいときには、前記単一参照ピクチャリスト中の前記より早い位置において前記第2の参照ピクチャのための前記識別子を含めることと、前記単一参照ピクチャリスト中の前記より遅い位置において前記第1の参照ピクチャのための前記識別子を含めることとを備える、請求項1に記載の方法。
  9. 前記第1の時間距離が前記第2の時間距離に等しいとき、
    前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いかどうかを決定することと、
    前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第2の参照ピクチャのための前記識別子よりも早い位置において前記第1の参照ピクチャのための前記識別子を含めることと、
    前記第2の参照ピクチャが前記第1の参照ピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第1の参照ピクチャのための前記識別子よりも早い位置において前記第2の参照ピクチャのための前記識別子を含めることとを更に備える、請求項8に記載の方法。
  10. 前記第1の時間距離を決定することが、前記現在ピクチャと前記第1のピクチャとのピクチャ順序カウント値間の差の絶対値を決定することを備え、前記第2の時間距離を決定することが、前記現在ピクチャと前記第2のピクチャとのピクチャ順序カウント値間の差の絶対値を決定することを備える、請求項8に記載の方法。
  11. 前記単一参照ピクチャリストを構成することは、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャにより近い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャからより遠い参照ピクチャのための識別子を含めることを備える、請求項1に記載の方法。
  12. 前記単一参照ピクチャリストを構成することは、
    前記現在ピクチャと第1の参照ピクチャとの間の第1の時間距離を決定することと、
    前記現在ピクチャと第2の参照ピクチャとの間の第2の時間距離を決定することと、
    前記第1の時間距離が前記第2の時間距離よりも小さいときには、前記単一参照ピクチャリスト中のより早い位置において前記第2の参照ピクチャのための識別子を含めることと、前記単一参照ピクチャリスト中のより遅い位置において前記第1の参照ピクチャのための識別子を含めることと、
    前記第2の時間距離が前記第1の時間距離よりも小さいときには、前記単一参照ピクチャリスト中の前記より早い位置において前記第1の参照ピクチャのための前記識別子を含めることと、前記単一参照ピクチャリスト中の前記より遅い位置において前記第2の参照ピクチャのための前記識別子を含めることとを備える、請求項1に記載の方法。
  13. 前記第1の時間距離が前記第2の時間距離に等しいとき、
    前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いかどうかを決定することと、
    前記第1の参照ピクチャが前記第2のピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第1の参照ピクチャのための前記識別子よりも早い位置において前記第2の参照ピクチャのための前記識別子を含めることと、
    前記第2の参照ピクチャが前記第1の参照ピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第2の参照ピクチャのための前記識別子よりも早い位置において前記第1の参照ピクチャのための前記識別子を含めることとを更に備える、請求項12に記載の方法。
  14. 前記方法がビデオ復号の方法を備え、
    ビデオシーケンス、ビデオピクチャ、及びビデオスライスのうちの少なくとも1つ内の全てのビデオブロックについてコード化が単方向予測に制約されることを示す1つ以上のシンタックス要素を復号することと、
    前記単一参照ピクチャリスト中で識別されたただ1つの参照ピクチャに関する単方向予測を使用して前記ビデオブロックを復号することとを更に備える、請求項1に記載の方法。
  15. 前記単一参照ピクチャリスト中の2つの参照ピクチャに関する双方向予測を使用してコード化される前記現在ピクチャ内のビデオブロックの数を示す1つ以上のシンタックス要素をコード化することを更に備える、請求項1に記載の方法。
  16. 前記単一参照ピクチャリスト中の2つの参照ピクチャに関する双方向予測を使用してコード化される前記現在ピクチャのエリアを示す1つ以上のシンタックス要素をコード化することを更に備える、請求項1に記載の方法。
  17. 復号された参照ピクチャを記憶するように構成されたメモリと、
    前記メモリに記憶された1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成することと、前記単一参照ピクチャリストの参照ピクチャが双方向予測ビデオブロックをコード化するために使用され、かつ他の参照ピクチャリストの参照ピクチャは使用されず、同じ前記単一参照ピクチャリストが単方向予測ビデオブロックをコード化するために使用される、
    現在ピクチャのビデオブロックが単方向予測される場合、前記単一参照ピクチャリストのうちの1つのインデックス値を、及び前記現在ピクチャの前記ビデオブロックが双方向予測される場合、前記単一参照ピクチャリストのうちの2つのインデックス値をコード化することと、
    前記単一参照ピクチャリスト中の1つ以上の参照ピクチャを用い、他の参照ピクチャリスト中の参照ピクチャは用いずに、前記現在ピクチャの前記ビデオブロックをコード化することと、を行うように構成されるビデオコーダとを備え、前記ビデオブロックが双方向予測されるとき、前記ビデオブロックは、前記2つのインデックス値によって前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの2つに関してコード化され、前記ビデオブロックが単方向予測されるとき、前記ビデオブロックは、前記1つのインデックス値によって同じ前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの1つに関してコード化される、ビデオコード化装置。
  18. 前記ビデオコーダは、前記ビデオブロックが双方向予測を使用してコード化されるのか単方向予測を使用してコード化されるのかを示す1つ以上のシンタックス要素をコード化するように更に構成される、請求項17に記載のビデオコード化装置。
  19. 前記単一参照ピクチャリスト中で識別された前記1つ以上の参照ピクチャは、表示順序が現在ビデオピクチャに対して全て時間的に前である参照ピクチャと、前記現在ビデオピクチャに対して全て時間的に後である参照ピクチャと、前記現在ビデオピクチャに対して時間的に前と時間的に後の両方である参照ピクチャとのうちの1つを備える、請求項17に記載のビデオコード化装置。
  20. 前記ビデオコーダが、前記現在ピクチャの前記ビデオブロックを復号するビデオデコーダを備え、前記ビデオデコーダは、その他の参照ピクチャリスト中の参照ピクチャのためのインデックス値をコード化することなしに、前記現在ピクチャが双方向予測を使用してコード化されるときに、前記2つの参照ピクチャが前記単一参照ピクチャリスト内のどこに位置するかを示すインデックス値を復号するように更に構成される、請求項17に記載のビデオコード化装置。
  21. 前記ビデオコーダが、その他の参照ピクチャリストを構成するように構成されることなしに、前記単一参照ピクチャリストを構成するように構成される、請求項17に記載のビデオコード化装置。
  22. 前記ビデオコーダが、前記現在ピクチャと前記単一参照ピクチャリスト中に含まれる前記参照ピクチャの各々との間の時間距離に基づいて前記単一参照ピクチャリストを構成するように構成される、請求項17に記載のビデオコード化装置。
  23. 前記ビデオコーダは、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャからより遠い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャにより近い参照ピクチャのための識別子を含めるように構成される、請求項17に記載のビデオコード化装置。
  24. 前記単一参照ピクチャリストを構成するために、前記ビデオコーダは、
    前記現在ピクチャと第1の参照ピクチャとの間の第1の時間距離を決定することと、
    前記現在ピクチャと第2の参照ピクチャとの間の第2の時間距離を決定することと、
    前記第1の時間距離が前記第2の時間距離よりも小さいときには、前記単一参照ピクチャリスト中のより早い位置において前記第1の参照ピクチャのための識別子を含めることと、前記単一参照ピクチャリスト中のより遅い位置において前記第2の参照ピクチャのための識別子を含めることと、
    前記第2の時間距離が前記第1の時間距離よりも小さいときには、前記単一参照ピクチャリスト中の前記より早い位置において前記第2の参照ピクチャのための前記識別子を含めることと、前記単一参照ピクチャリスト中の前記より遅い位置において前記第1の参照ピクチャのための前記識別子を含めることとを行うように構成される、請求項17に記載のビデオコード化装置。
  25. 前記第1の時間距離が前記第2の時間距離に等しいとき、前記ビデオコーダは、
    前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いかどうかを決定することと、
    前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第2の参照ピクチャのための前記識別子よりも早い位置において前記第1の参照ピクチャのための前記識別子を含めることと、
    前記第2の参照ピクチャが前記第1の参照ピクチャよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第1の参照ピクチャのための前記識別子よりも早い位置において前記第2の参照ピクチャのための前記識別子を含めることとを行うように構成される、請求項24に記載のビデオコード化装置。
  26. 前記ビデオコーダが、前記第1の時間距離を決定するために前記現在ピクチャと前記第1のピクチャとのピクチャ順序カウント値間の差の絶対値を決定することと、前記第2の時間距離を決定するために前記現在ピクチャと前記第2のピクチャとのピクチャ順序カウント値間の差の絶対値を決定することとを行うように構成される、請求項24に記載のビデオコード化装置。
  27. 前記ビデオコーダは、前記単一参照ピクチャリストを構成するために、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャにより近い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャからより遠い参照ピクチャのための識別子を含めるように構成される、請求項17に記載のビデオコード化装置。
  28. 前記単一参照ピクチャリストを構成するために、前記ビデオコーダは、
    前記現在ピクチャと第1の参照ピクチャとの間の第1の時間距離を決定することと、
    前記現在ピクチャと第2の参照ピクチャとの間の第2の時間距離を決定することと、
    前記第1の時間距離が前記第2の時間距離よりも小さいときには、前記単一参照ピクチャリスト中のより早い位置において前記第2の参照ピクチャのための識別子を含めることと、前記単一参照ピクチャリスト中のより遅い位置において前記第1の参照ピクチャのための識別子を含めることと、
    前記第2の時間距離が前記第1の時間距離よりも小さいときには、前記単一参照ピクチャリスト中の前記より早い位置において前記第1の参照ピクチャのための前記識別子を含めることと、前記単一参照ピクチャリスト中の前記より遅い位置において前記第2の参照ピクチャのための前記識別子を含めることとを行うように構成される、請求項17に記載のビデオコード化装置。
  29. 前記第1の時間距離が前記第2の時間距離に等しいとき、前記ビデオコーダは、
    前記第1の参照ピクチャが前記第2の参照ピクチャよりも表示順序が早いかどうかを決定することと、
    前記第1の参照フレームが前記第2の参照フレームよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第1の参照ピクチャのための前記識別子よりも早い位置において前記第2の参照ピクチャのための前記識別子を含めることと、
    前記第2の参照フレームが前記第1の参照フレームよりも表示順序が早いときには、前記単一参照ピクチャリスト中の、前記第2の参照ピクチャのための前記識別子よりも早い位置において前記第1の参照ピクチャのための前記識別子を含めることとを行うように構成される、請求項28に記載のビデオコード化装置。
  30. 前記ビデオコーダがビデオデコーダを備え、前記ビデオデコーダは、ビデオシーケンス、ビデオピクチャ、及びビデオスライスのうちの少なくとも1つ内の全てのビデオブロックについてコード化が単方向予測に制約されることを示す1つ以上のシンタックス要素を復号することと、前記単一参照ピクチャリスト中で識別されたただ1つの参照ピクチャに関する単方向予測を使用して前記ビデオブロックを復号することとを行うように更に構成される、請求項17に記載のビデオコード化装置。
  31. 前記ビデオコーダが、前記単一参照ピクチャリスト中の2つの参照ピクチャに関する双方向予測を使用してコード化される前記現在ピクチャ内のビデオブロックの数を示す1つ以上のシンタックス要素をコード化するように更に構成される、請求項17に記載のビデオコード化装置。
  32. 前記ビデオコーダが、前記単一参照ピクチャリスト中の2つの参照ピクチャに関する双方向予測を使用してコード化される前記現在ピクチャのエリアを示す1つ以上のシンタックス要素をコード化するように更に構成される、請求項17に記載のビデオコード化装置。
  33. 前記ビデオコーダが、ビデオデコーダ及びビデオエンコーダのうちの1つを備える、請求項17に記載のビデオコード化装置。
  34. 復号された参照ピクチャを記憶するメモリからの1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成するための手段と、前記単一参照ピクチャリストの参照ピクチャが双方向予測ビデオブロックをコード化するために使用され、かつ他の参照ピクチャリストの参照ピクチャは使用されず、同じ前記単一参照ピクチャリストが単方向予測ビデオブロックをコード化するために使用される、
    現在ピクチャのビデオブロックが単方向予測される場合、前記単一参照ピクチャリストのうちの1つのインデックス値を、及び前記現在ピクチャの前記ビデオブロックが双方向予測される場合、前記単一参照ピクチャリストのうちの2つのインデックス値をコード化するための手段と、
    前記単一参照ピクチャリスト中の1つ以上の参照ピクチャを用い、他の参照ピクチャリスト中の参照ピクチャは用いずに、前記現在ピクチャの前記ビデオブロックをコード化するための手段と、を備え、前記ビデオブロックが双方向予測されるとき、前記ビデオブロックは、前記2つのインデックス値によって前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの2つに関してコード化され、前記ビデオブロックが単方向予測されるとき、前記ビデオブロックは、前記1つのインデックス値によって同じ前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの1つに関してコード化される、ビデオコード化装置。
  35. 前記ビデオブロックが双方向予測を使用してコード化されるのか単方向予測を使用してコード化されるのかを示す1つ以上のシンタックス要素をコード化するための手段を更に備える、請求項34に記載のビデオコード化装置。
  36. 前記単一参照ピクチャリストを構成するための前記手段は、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャからより遠い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャにより近い参照ピクチャのための識別子を含めるための手段を備える、請求項34に記載のビデオコード化装置。
  37. 前記単一参照ピクチャリストを構成するための前記手段は、前記単一参照ピクチャリスト中の、表示順序が前記現在ピクチャにより近い参照ピクチャよりも早い位置において、表示順序が前記現在ピクチャからより遠い参照ピクチャのための識別子を含めるための手段を備える、請求項34に記載のビデオコード化装置。
  38. ビデオコーダ中で実行されると、
    復号された参照ピクチャを記憶するメモリからの1つ以上の参照ピクチャの各々のための識別子を含む単一参照ピクチャリストを構成することと、前記単一参照ピクチャリストの参照ピクチャが双方向予測ビデオブロックをコード化するために使用され、かつ他の参照ピクチャリストの参照ピクチャは使用されず、同じ前記単一参照ピクチャリストが単方向予測ビデオブロックをコード化するために使用される、
    現在ピクチャのビデオブロックが単方向予測される場合、前記単一参照ピクチャリストのうちの1つのインデックス値を、及び前記現在ピクチャの前記ビデオブロックが双方向予測される場合、前記単一参照ピクチャリストのうちの2つのインデックス値をコード化することと、
    前記単一参照ピクチャリスト中の1つ以上の参照ピクチャを用い、他の参照ピクチャリスト中の参照ピクチャは用いずに、前記現在ピクチャの前記ビデオブロックをコード化することと、を前記ビデオコーダに行わせる、ビデオデータをコード化するための命令を備え、前記ビデオブロックが双方向予測されるとき、前記ビデオブロックは、前記2つのインデックス値によって前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの2つに関してコード化され、前記ビデオブロックが単方向予測されるとき、前記ビデオブロックは、前記1つのインデックス値によって同じ前記単一参照ピクチャリスト中で識別された前記参照ピクチャのうちの1つに関してコード化される、コンピュータ可読記憶媒体。
  39. 前記ビデオブロックが双方向予測を使用してコード化されるのか単方向予測を使用してコード化されるのかを示す1つ以上のシンタックス要素をコード化することを前記ビデオコーダに行わせる命令を更に備える、請求項38に記載のコンピュータ可読記憶媒体。
JP2013551258A 2011-01-24 2012-01-20 ビデオコード化のための単一参照ピクチャリスト構成 Expired - Fee Related JP5784752B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201161435496P 2011-01-24 2011-01-24
US61/435,496 2011-01-24
US201161445476P 2011-02-22 2011-02-22
US61/445,476 2011-02-22
US201161450550P 2011-03-08 2011-03-08
US61/450,550 2011-03-08
US13/353,625 US9008181B2 (en) 2011-01-24 2012-01-19 Single reference picture list utilization for interprediction video coding
US13/353,625 2012-01-19
PCT/US2012/022102 WO2012102973A1 (en) 2011-01-24 2012-01-20 Single reference picture list construction for video coding

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015103010A Division JP2015188231A (ja) 2011-01-24 2015-05-20 ビデオコード化のための単一参照ピクチャリスト構成

Publications (2)

Publication Number Publication Date
JP2014506084A JP2014506084A (ja) 2014-03-06
JP5784752B2 true JP5784752B2 (ja) 2015-09-24

Family

ID=46544160

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013551258A Expired - Fee Related JP5784752B2 (ja) 2011-01-24 2012-01-20 ビデオコード化のための単一参照ピクチャリスト構成
JP2015103010A Pending JP2015188231A (ja) 2011-01-24 2015-05-20 ビデオコード化のための単一参照ピクチャリスト構成

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015103010A Pending JP2015188231A (ja) 2011-01-24 2015-05-20 ビデオコード化のための単一参照ピクチャリスト構成

Country Status (7)

Country Link
US (1) US9008181B2 (ja)
EP (2) EP2668781A1 (ja)
JP (2) JP5784752B2 (ja)
KR (1) KR101547413B1 (ja)
CN (1) CN103339936B (ja)
BR (1) BR112013018734A2 (ja)
WO (1) WO2012102973A1 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8385404B2 (en) 2008-09-11 2013-02-26 Google Inc. System and method for video encoding using constructed reference frame
KR101825768B1 (ko) 2010-11-24 2018-02-05 벨로스 미디어 인터내셔널 리미티드 움직임 벡터 산출 방법, 화상 부호화 방법, 화상 복호 방법, 움직임 벡터 산출 장치 및 화상 부호화 복호 장치
EP2665271A4 (en) 2011-01-12 2014-06-18 Panasonic Corp VIDEO ENCODING METHOD AND VIDEO DECODING METHOD
JP6108309B2 (ja) * 2011-02-22 2017-04-05 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号方法、および、動画像復号装置
JP5358746B2 (ja) 2011-03-03 2013-12-04 パナソニック株式会社 動画像符号化方法、動画像符号化装置及びプログラム
GB2488816A (en) * 2011-03-09 2012-09-12 Canon Kk Mapping motion vectors from a plurality of reference frames to a single reference frame
JP5801908B2 (ja) * 2011-03-11 2015-10-28 サムスン エレクトロニクス カンパニー リミテッド 映像の符号化方法及びその装置、その復号化方法及びその装置
US8934552B2 (en) * 2011-03-31 2015-01-13 Qualcomm Incorporated Combined reference picture list construction and mapping
US8638854B1 (en) 2011-04-07 2014-01-28 Google Inc. Apparatus and method for creating an alternate reference frame for video compression using maximal differences
CN108391136B (zh) 2011-06-15 2022-07-19 韩国电子通信研究院 可伸缩解码方法/设备、可伸缩编码方法/设备和介质
CN107529709B (zh) 2011-06-16 2019-05-07 Ge视频压缩有限责任公司 解码器、编码器、解码和编码视频的方法及存储介质
EP2724537A1 (en) * 2011-06-22 2014-04-30 Motorola Mobility LLC Construction of combined list using temporal distance
USRE47366E1 (en) 2011-06-23 2019-04-23 Sun Patent Trust Image decoding method and apparatus based on a signal type of the control parameter of the current block
US8743969B2 (en) 2011-06-23 2014-06-03 Panasonic Corporation Image decoding method and apparatus based on a signal type of the control parameter of the current block
TWI581615B (zh) 2011-06-24 2017-05-01 Sun Patent Trust A decoding method, a coding method, a decoding device, an encoding device, and a coding / decoding device
CN103535036B (zh) * 2011-06-24 2017-04-05 太阳专利托管公司 解码方法和解码装置
EP4270950A3 (en) 2011-06-27 2024-02-14 Sun Patent Trust Encoding apparatus and decoding apparatus
BR112013030181B1 (pt) 2011-06-28 2022-09-27 Sun Patent Trust Método de decodificação para decodificar um parâmetro de controle para controlar decodificação de uma imagem, e método de codificação para codificar um parâmetro de controle para controlar codificação de uma imagem
KR102006032B1 (ko) 2011-06-29 2019-07-31 선 페이턴트 트러스트 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치
MX2013015397A (es) * 2011-06-30 2014-03-31 Ericsson Telefon Ab L M Señalizacion de imagenes de referencia.
AU2012277220B2 (en) 2011-06-30 2016-08-11 Sun Patent Trust Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
KR102060619B1 (ko) 2011-06-30 2019-12-30 선 페이턴트 트러스트 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치
MX2013013941A (es) 2011-07-11 2014-01-31 Panasonic Corp Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
UA114674C2 (uk) 2011-07-15 2017-07-10 ДЖ.І. ВІДІЕУ КЕМПРЕШН, ЛЛСі Ініціалізація контексту в ентропійному кодуванні
EP4017006B1 (en) * 2011-09-22 2023-09-20 LG Electronics, Inc. Method and apparatus for signaling image information, and decoding method and apparatus using same
US9451284B2 (en) * 2011-10-10 2016-09-20 Qualcomm Incorporated Efficient signaling of reference picture sets
KR20130050149A (ko) * 2011-11-07 2013-05-15 오수미 인터 모드에서의 예측 블록 생성 방법
CN103220508B (zh) * 2012-01-20 2014-06-11 华为技术有限公司 编解码方法和装置
JP6012014B2 (ja) * 2012-03-30 2016-10-25 サン パテント トラスト 画像符号化方法および画像復号方法
US9426459B2 (en) 2012-04-23 2016-08-23 Google Inc. Managing multi-reference picture buffers and identifiers to facilitate video data coding
US9609341B1 (en) * 2012-04-23 2017-03-28 Google Inc. Video data encoding and decoding using reference picture lists
US9516308B2 (en) 2012-04-27 2016-12-06 Qualcomm Incorporated Parameter set updates in video coding
US9736476B2 (en) 2012-04-27 2017-08-15 Qualcomm Incorporated Full random access from clean random access pictures in video coding
CN103796021B (zh) * 2012-10-29 2018-03-16 浙江大学 视频编解码方法及装置
WO2014092434A2 (ko) * 2012-12-10 2014-06-19 한국전자통신연구원 비디오 부호화 방법 및 비디오 복호화 방법과 이를 이용하는 장치
JP6149151B2 (ja) * 2013-04-02 2017-06-14 ヴィド スケール インコーポレイテッド スケーラブルビデオコーディングのための拡張時間的動きベクトル予測
US9756331B1 (en) 2013-06-17 2017-09-05 Google Inc. Advance coded reference prediction
KR20150009468A (ko) * 2013-07-15 2015-01-26 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
CN105379277B (zh) 2013-07-15 2019-12-17 株式会社Kt 用于编码/解码可伸缩视频信号的方法和装置
CN105379276A (zh) 2013-07-15 2016-03-02 株式会社Kt 可伸缩视频信号编码/解码方法和装置
US9813718B2 (en) * 2013-10-03 2017-11-07 Samsung Display Co., Ltd. Apparatus and method for compact bit-plane data compression
US9300991B2 (en) 2013-11-13 2016-03-29 International Business Machines Corporation Use of simultaneously received videos by a system to generate a quality of experience value
CN105850126B (zh) 2013-12-24 2019-03-26 株式会社Kt 用于对多层视频信号进行编码/解码的方法和装置
WO2015134360A1 (en) * 2014-03-03 2015-09-11 Sony Corporation Strong intra smoothing for in rext
US10432928B2 (en) 2014-03-21 2019-10-01 Qualcomm Incorporated Using a current picture as a reference for video coding
WO2015147427A1 (ko) 2014-03-24 2015-10-01 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
US10412387B2 (en) 2014-08-22 2019-09-10 Qualcomm Incorporated Unified intra-block copy and inter-prediction
US9918105B2 (en) * 2014-10-07 2018-03-13 Qualcomm Incorporated Intra BC and inter unification
CN107005692B (zh) 2014-11-27 2020-11-17 株式会社Kt 对视频信号进行解码或编码的方法及设备
CN104811721B (zh) * 2015-05-26 2017-09-22 珠海全志科技股份有限公司 视频解码数据存储方法及运动向量数据的计算方法
JP6626319B2 (ja) * 2015-11-18 2019-12-25 キヤノン株式会社 符号化装置、撮像装置、符号化方法、及びプログラム
CN115037929A (zh) * 2016-02-03 2022-09-09 Oppo广东移动通信有限公司 运动图像解码装置、编码装置、以及预测图像生成装置
EP3646600A1 (en) * 2017-06-26 2020-05-06 InterDigital VC Holdings, Inc. Method and apparatus for intra prediction with multiple weighted references
JP2018007278A (ja) * 2017-10-11 2018-01-11 株式会社東芝 復号方法及び復号装置
JP2018007279A (ja) * 2017-10-11 2018-01-11 株式会社東芝 復号方法及び復号装置
MX2021002488A (es) 2018-09-04 2021-07-16 Huawei Tech Co Ltd Método de obtención de trama de referencia y aparato aplicado a la interpredicción bidireccional.
AU2019339411B2 (en) * 2018-09-12 2023-05-25 Huawei Technologies Co., Ltd. Signaling a sign value and an absolute value for a delta picture order count
US11196988B2 (en) * 2018-12-17 2021-12-07 Apple Inc. Reference picture management and list construction
CN114175655B (zh) * 2019-07-27 2024-01-02 北京字节跳动网络技术有限公司 根据参考图片类型使用工具的限制
US10972749B2 (en) 2019-08-29 2021-04-06 Disney Enterprises, Inc. Systems and methods for reconstructing frames
US11012718B2 (en) * 2019-08-30 2021-05-18 Disney Enterprises, Inc. Systems and methods for generating a latent space residual
US11611778B2 (en) * 2020-05-20 2023-03-21 Sharp Kabushiki Kaisha Systems and methods for signaling general constraint information in video coding
US11800092B2 (en) 2021-11-17 2023-10-24 Tencent America LLC Joint signaling method for motion vector difference

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102025991B (zh) * 2001-09-14 2017-12-29 株式会社Ntt都科摩 编码方法、译码方法、编码装置、译码装置和图像处理系统
KR100506864B1 (ko) 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
US7515637B2 (en) * 2004-05-21 2009-04-07 Broadcom Advanced Compression Group, Llc Video decoding for motion compensation with weighted prediction
US7041511B2 (en) 2004-08-20 2006-05-09 Sharp Laboratories Of America, Inc. Pt/PGO etching process for FeRAM applications
US20060083298A1 (en) 2004-10-14 2006-04-20 Nokia Corporation Reference picture management in video coding
KR20060063604A (ko) * 2004-12-06 2006-06-12 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
KR100714696B1 (ko) 2005-06-24 2007-05-04 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
EP2025170B1 (en) 2006-03-30 2015-01-07 LG Electronics Inc. A method and apparatus for decoding/encoding a video signal
CN101653001A (zh) * 2006-10-13 2010-02-17 汤姆逊许可公司 用于多视点视频编码的参考图像列表管理语法
CN102761744B (zh) * 2006-10-13 2015-10-28 汤姆逊许可公司 用于多视点视频编码的参考图像列表管理语法
US20080101474A1 (en) * 2006-11-01 2008-05-01 Yi-Jen Chiu Optimizing the storage and reducing the computation of reference picture list processing in video decoding
JP2011501497A (ja) * 2007-10-15 2011-01-06 ノキア コーポレイション マルチビュー映像コンテンツのための動きスキップおよびシングルループ符号化
US20100008419A1 (en) 2008-07-10 2010-01-14 Apple Inc. Hierarchical Bi-Directional P Frames
US20100296579A1 (en) 2009-05-22 2010-11-25 Qualcomm Incorporated Adaptive picture type decision for video coding
WO2011075096A1 (en) 2009-12-15 2011-06-23 Thomson Licensing Method and apparatus for bi-directional prediction within p-slices
CA2784515A1 (en) * 2009-12-17 2011-06-23 Telefonaktiebolaget L M Ericsson (Publ) Method and arrangement for video coding

Also Published As

Publication number Publication date
KR20130118381A (ko) 2013-10-29
CN103339936B (zh) 2017-02-08
KR101547413B1 (ko) 2015-08-25
JP2014506084A (ja) 2014-03-06
WO2012102973A1 (en) 2012-08-02
US9008181B2 (en) 2015-04-14
EP2668781A1 (en) 2013-12-04
US20120189058A1 (en) 2012-07-26
BR112013018734A2 (pt) 2016-10-25
CN103339936A (zh) 2013-10-02
EP4047931A1 (en) 2022-08-24
JP2015188231A (ja) 2015-10-29

Similar Documents

Publication Publication Date Title
JP5784752B2 (ja) ビデオコード化のための単一参照ピクチャリスト構成
US10834419B2 (en) Conformance constraint for collocated reference index in video coding
JP6543716B2 (ja) 適応型成分間残差予測
JP5551317B2 (ja) ビデオコーディング中の動きベクトルコーディング
US9008176B2 (en) Combined reference picture list construction for video coding
US9549182B2 (en) Repositioning of prediction residual blocks in video coding
EP2989796B1 (en) Repositioning of prediction residual blocks in video coding
US9854234B2 (en) Reference picture status for video coding
US20130070855A1 (en) Hybrid motion vector coding modes for video coding
US20130272409A1 (en) Bandwidth reduction in video coding through applying the same reference index
CN111213376A (zh) 使用基于编码结构的候选列表构建对视频数据的运动信息进行编码
US9392274B2 (en) Inter layer texture prediction for video coding
US20130215974A1 (en) Coding of loop filter parameters using a codebook in video coding
JP2014511653A (ja) 復号ピクチャバッファ管理
WO2013155428A1 (en) Common spatial candidate blocks for parallel motion estimation
JP2015529065A (ja) スケーラブルビデオコーディングおよび3dビデオコーディングのための多重仮説動き補償
WO2013155424A1 (en) Common motion information candidate list construction process
US20130188716A1 (en) Temporal motion vector predictor candidate
US9674527B2 (en) Implicit derivation of parallel motion estimation range size

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140930

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150520

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150722

R150 Certificate of patent or registration of utility model

Ref document number: 5784752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees