JP5805850B2 - ビデオコード化における動きベクトル予測 - Google Patents

ビデオコード化における動きベクトル予測 Download PDF

Info

Publication number
JP5805850B2
JP5805850B2 JP2014506587A JP2014506587A JP5805850B2 JP 5805850 B2 JP5805850 B2 JP 5805850B2 JP 2014506587 A JP2014506587 A JP 2014506587A JP 2014506587 A JP2014506587 A JP 2014506587A JP 5805850 B2 JP5805850 B2 JP 5805850B2
Authority
JP
Japan
Prior art keywords
motion vector
block
vector predictor
current block
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014506587A
Other languages
English (en)
Other versions
JP2014514862A (ja
Inventor
チェン、イン
チェン、ペイソン
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014514862A publication Critical patent/JP2014514862A/ja
Application granted granted Critical
Publication of JP5805850B2 publication Critical patent/JP5805850B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Description

本開示は、その両方の内容全体が参照により組み込まれる、2011年4月20日に出願された米国仮出願第61/477,561号、及び2011年7月28日に出願された米国仮出願第61/512,765号の優先権を主張する。
本開示は、ビデオコード化に関する。
デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップ又はデスクトップコンピュータ、タブレットコンピュータ、電子ブックリーダ、デジタルカメラ、デジタル記録機器、デジタルメディアプレーヤ、ビデオゲーム機器、ビデオゲームコンソール、セルラー又は衛星無線電話、所謂「スマートフォン」、ビデオ遠隔会議機器、ビデオストリーミング機器などを含む、広範囲にわたる機器に組み込まれ得る。デジタルビデオ機器は、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part10,Advanced Video Coding(AVC)、現在開発中の高効率ビデオコード化(HEVC:High Efficiency Video Coding)規格によって定義された規格、及びそのような規格の拡張に記載されているビデオ圧縮技法など、ビデオ圧縮技法を実施する。ビデオ機器は、そのようなビデオ圧縮技法を実施することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、及び/又は記憶し得る。
ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減又は除去するために空間的(イントラピクチャ)予測及び/又は時間的(インターピクチャ)予測を実行する。ブロックベースのビデオコード化の場合、ビデオスライス(即ち、ピクチャ又はピクチャの一部分)は、ツリーブロック、コード化単位(CU)及び/又はコード化ノードと呼ばれることもあるビデオブロックに区分され得る。ピクチャのイントラコード化(I)スライス中のビデオブロックは、同じピクチャ中の近隣ブロックにおける参照サンプルに関する空間的予測を使用して符号化される。ピクチャのインターコード化(P又はB)スライス中のビデオブロックは、同じピクチャ中の近隣ブロックにおける参照サンプルに関する空間的予測、又は他の参照ピクチャ中の参照サンプルに関する時間的予測を使用し得る。
空間的予測又は時間的予測は、コード化されるべきブロックのための予測ブロックを生じる。残差データは、コード化されるべき元のブロックと予測ブロックとの間の画素差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトルと、コード化ブロックと予測ブロックとの間の差をポイントする残差データとに従って符号化され得る。イントラコード化ブロックは、イントラコード化モードと残差データとに従って符号化される。更なる圧縮のために、残差データは、画素領域から変換領域に変換され得、次いで量子化され得る残差変換係数を生じる。最初に2次元アレイに構成された量子化変換係数は、変換係数の1次元ベクトルを生成するために走査され得、なお一層の圧縮を達成するためにエントロピーコード化が適用され得る。
概して、本開示では、ビデオデータをコード化するための技法について説明する。本開示では、マルチビュービデオコード化(MVC)においてインターモードコード化する(即ち、他のピクチャのブロックに対して現在ブロックをコード化する)ときに動きベクトル予測、動き推定及び動き補償を実行するための技法について説明する。概して、MVCは、ビデオデータの複数のビューをカプセル化するためのビデオコード化規格である。各ビューは、共通のシーンの対応するビデオデータが撮影された異なる奥行き(perspective)、又は角度に対応し得る。本開示の技法は、概して、マルチビュービデオコード化のコンテキストにおいて動き予測データを予測することを含む。即ち、例えば、本開示の技法によれば、現在コード化されているブロックと同じ又は異なるビュー中のブロックからの視差(disparity)動きベクトルが、現在ブロックの動きベクトルを予測するために使用され得る。別の例では、本開示の技法によれば、現在コード化されているブロックと同じ又は異なるビュー中のブロックからの時間(temporal)動きベクトルが、現在ブロックの動きベクトルを予測するために使用され得る。
一例では、本開示の態様はビデオデータをコード化する方法に関し、本方法は、第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、第1のブロックが第1の視差動きベクトルに関連する、ビデオデータの第2のブロックに関連する第2の動きベクトルについての動きベクトル予測子を決定することと、動きベクトル予測子が第1の視差動きベクトルに基づき、第2の動きベクトルが視差動きベクトルを備えるとき、動きベクトル予測子を決定することが、基準化された動きベクトル予測子(scaled motion vector predictor)を生成するために第1の視差動きベクトルを基準化することを備え、第1の視差動きベクトルを基準化することが、第1の動きベクトルのビュー距離によって除算された第2の視差動きベクトルのビュー距離を備える基準化ファクタ(scaling factor)を第1の視差動きベクトルに適用することを備える、基準化された動きベクトル予測子を使用して第2のブロックについての予測データをコード化することとを備える。
別の例では、本開示の態様は、1つ以上のプロセッサを備えるビデオデータをコード化するための装置に関し、1つ以上のプロセッサが、第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、第1のブロックが第1の視差動きベクトルに関連する、ビデオデータの第2のブロックに関連する第2の動きベクトルについての動きベクトル予測子を決定することと、動きベクトル予測子が第1の視差動きベクトルに基づき、第2の動きベクトルが視差動きベクトルを備えるとき、1つ以上のプロセッサが、基準化された動きベクトル予測子を生成するために第1の視差動きベクトルを基準化することによって動きベクトル予測子を決定するように構成され、第1の視差動きベクトルを基準化することが、第1の動きベクトルのビュー距離によって除算された第2の視差動きベクトルのビュー距離を備える基準化ファクタを第1の視差動きベクトルに適用することを備える、基準化された動きベクトル予測子に基づいて第2のブロックについての予測データをコード化することとを行うように構成される。
別の例では、本開示の態様は、第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別するための手段と、第1のブロックが第1の視差動きベクトルに関連する、ビデオデータの第2のブロックに関連する第2の動きベクトルについての動きベクトル予測子を決定するための手段と、動きベクトル予測子が第1の視差動きベクトルに基づき、第2の動きベクトルが視差動きベクトルを備えるとき、動きベクトル予測子を決定するための手段が、基準化された動きベクトル予測子を生成するために第1の視差動きベクトルを基準化することによって動きベクトル予測子を決定するように構成され、第1の視差動きベクトルを基準化することが、第1の動きベクトルのビュー距離によって除算された第2の視差動きベクトルのビュー距離を備える基準化ファクタを第1の視差動きベクトルに適用することを備える、基準化された動きベクトル予測子に基づいて第2のブロックについての予測データをコード化するための手段とを備える、ビデオデータをコード化するための装置に関する。
別の例では、本開示の態様は、実行されると、1つ以上のプロセッサに、第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、第1のブロックが第1の視差動きベクトルに関連する、ビデオデータの第2のブロックに関連する第2の動きベクトルについての動きベクトル予測子を決定することと、動きベクトル予測子が第1の視差動きベクトルに基づき、第2の動きベクトルが視差動きベクトルを備えるとき、1つ以上のプロセッサに、基準化された動きベクトル予測子を生成するために第1の視差動きベクトルを基準化することによって動きベクトル予測子を決定させ、第1の視差動きベクトルを基準化することが、第1の動きベクトルのビュー距離によって除算された第2の視差動きベクトルのビュー距離を備える基準化ファクタを第1の視差動きベクトルに適用することを備える、基準化された動きベクトル予測子に基づいて第2のブロックについての予測データをコード化することとを行わせる命令を記憶したコンピュータ可読記憶媒体に関する。
別の例では、本開示の態様はビデオデータをコード化する方法に関し、本方法は、第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、ビデオデータの第1のブロックが第1の時間動きベクトルに関連する、ビデオデータの第2のブロックに関連する第2の動きベクトルが時間動きベクトルを備え、第2のブロックが第2のビューからであるとき、第1の時間動きベクトルに基づいて第2の動きベクトルについての動きベクトル予測子を決定することと、動きベクトル予測子を使用して第2のブロックについての予測データをコード化することとを備える。
別の例では、本開示の態様は、第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、ビデオデータの第1のブロックが第1の時間動きベクトルに関連する、ビデオデータの第2のブロックに関連する第2の動きベクトルが時間動きベクトルを備え、第2のブロックが第2のビューからであるとき、第1の時間動きベクトルに基づいて第2の動きベクトルについての動きベクトル予測子を決定することと、動きベクトル予測子を使用して第2のブロックについての予測データをコード化することとを行うように構成された1つ以上のプロセッサを備える、ビデオデータをコード化するための装置に関する。
別の例では、本開示の態様は、第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別するための手段と、ビデオデータの第1のブロックが第1の時間動きベクトルに関連する、ビデオデータの第2のブロックに関連する第2の動きベクトルが時間動きベクトルを備え、第2のブロックが第2のビューからであるとき、第1の時間動きベクトルに基づいて第2の動きベクトルについての動きベクトル予測子を決定するための手段と、動きベクトル予測子を使用して第2のブロックについての予測データをコード化するための手段とを備える、ビデオデータをコード化するための装置に関する。
一例では、本開示の態様は、実行されると、1つ以上のプロセッサに、第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、ビデオデータの第1のブロックが第1の時間動きベクトルに関連する、ビデオデータの第2のブロックに関連する第2の動きベクトルが時間動きベクトルを備え、第2のブロックが第2のビューからであるとき、第1の時間動きベクトルに基づいて第2の動きベクトルについての動きベクトル予測子を決定することと、動きベクトル予測子を使用して第2のブロックについての予測データをコード化することとを行わせる命令を記憶したコンピュータ可読記憶媒体に関する。
本開示の1つ以上の態様の詳細について添付の図面及び以下の説明において述べる。本開示で説明する技法の他の特徴、目的、及び利点は、これらの説明及び図面、ならびに特許請求の範囲から明らかになろう。
本開示で説明する技法を利用し得る例示的なビデオ符号化及び復号システムを示すブロック図。 本開示で説明する技法を実施し得る例示的なビデオエンコーダを示すブロック図。 本開示で説明する技法を実施し得る例示的なビデオデコーダを示すブロック図。 例示的なマルチビュービデオコード化(MVC)予測パターンを示す概念図。 動きベクトル予測子候補についての例示的な位置を示すブロック図。 本開示の態様による、動きベクトル予測子を生成すること及び基準化することを示す概念図。 本開示の態様による、動きベクトル予測子を生成すること及び基準化することを示す別の概念図。 本開示の態様による、動きベクトル予測子を生成すること及び基準化することを示す別の概念図。 ビデオデータのブロックについての予測情報をコード化する例示的な方法を示す流れ図。 現在ブロックとは異なるビュー中のブロックから動きベクトル予測子を生成することを示す概念図。 現在ブロックとは異なるビュー中のブロックから動きベクトル予測子を生成する例示的な方法を示す流れ図。
幾つかのビデオコード化システムによれば、データ圧縮を達成するように、ビデオシーケンスにおける時間的冗長性を低減するために、動き推定及び動き補償が使用され得る。この場合、ビデオデータの予測ブロック、例えば、コード化されている現在ビデオブロックの値を予測するために使用され得る別のビデオピクチャ又はスライスからのブロックを識別する動きベクトルが生成され得る。残差データのブロックを生成するために、予測ビデオブロックの値が現在ビデオブロックの値から減算される。動き情報(例えば、動きベクトル、動きベクトルインデックス、予測方向、又は他の情報)が、残差データとともにビデオエンコーダからビデオデコーダに通信される。デコーダは、残差データを予測ブロックのデータと組み合わせることによって、(動きベクトルに基づいて)同じ予測ブロックの位置を特定し、符号化されたビデオブロックを再構成することができる。
幾つかの場合には、動きベクトルの予測コード化はまた、動きベクトルを通信するために必要とされるデータの量を更に低減するために適用される。動きベクトルが確立されるとき、動きベクトルはターゲットピクチャから参照ピクチャまでである。動きベクトルは、空間的又は時間的に予測され得る。空間的に予測される動きベクトルは、利用可能な空間ブロック(同じタイムインスタンスのブロック)に関連する。時間的に予測される動きベクトルは、利用可能な時間ブロック(異なるタイムインスタンスのブロック)に関連する。動きベクトル予測の場合、エンコーダは、動きベクトル自体を符号化及び通信するのではなく、周知の(又は知り得る)動きベクトルに対する動きベクトル差分(MVD)を符号化し、通信する。H.264/AVCでは、現在動きベクトルを定義するためにMVDとともに使用され得る周知の動きベクトルは、所謂動きベクトル予測子(MVP)によって定義され得る。有効なMVPであるために、動きベクトルは、MVP及びMVDによって現在コード化されている動きベクトルと同じピクチャをポイントしなければならない。
ビデオコーダは、MVPのための候補として空間的及び時間的方向における幾つかの隣接ブロックを含む動きベクトル予測子候補リストを構築し得る。この場合、ビデオエンコーダは、符号化レート及び歪みの分析に基づいて(例えば、レート歪みコスト分析又は他のコード化効率分析を使用して)候補セットから最も正確な予測子を選択し得る。MVPをどこに配置すべきかをデコーダに通知するために、動きベクトル予測子インデックス(mvp_idx)がビデオデコーダに送信され得る。MVDも通信される。デコーダは、動きベクトルを再構成するように、MVDを(動きベクトル予測子インデックスによって定義された)MVPと組み合わせ得る。
コード化されている現在ビデオブロックのために隣接ビデオブロックの動き情報(動きベクトル、参照ピクチャインデックス、予測方向、又は他の情報)が継承される、所謂「マージモード」も利用可能であり得る。現在ビデオブロックがそれの動き情報をそこから引き継ぐ隣接を識別するために、インデックス値が使用され得る。
マルチビュービデオコード化(MVC)は、ビデオデータの複数のビューをカプセル化するためのビデオコード化規格である。概して、各ビューは、共通のシーンの対応するビデオデータが撮影された異なる奥行き、又は角度に対応する。MVCは、メタデータのセット、即ち、ビューについての記述データを集合的に、個別に与える。
コード化されたビューがビデオデータの3次元(3D)表示器のために使用され得る。例えば、2つのビュー(例えば、視聴者の左眼のビュー及び右眼のビュー)は、光の異なる偏光を使用して同時又はほぼ同時に表示され得、視聴者の眼の各々がビューの各々を受け取るように、視聴者は受動的偏光眼鏡を着用し得る。代替的に、視聴者は、各眼を別個に遮断する能動的眼鏡を着用し得、表示器は、眼鏡と同期して各眼の画像間を高速に交互に入れ替わる。
MVCでは、特定のビューの特定のピクチャはビューコンポーネントと呼ばれる。即ち、ビューのビューコンポーネントは、ビューの特定のタイムインスタンスに対応する。一般に、2つのビューの同じ又は対応する被写体は同一位置にされない。「視差ベクトル」という用語は、異なるビュー中の対応する被写体に対するあるビューのピクチャ中の被写体の変位を示すベクトルを指すために使用され得る。そのようなベクトルは「変位ベクトル」と呼ばれることもある。視差ベクトルは、ピクチャのビデオデータの画素又はブロックにも適用可能であり得る。例えば、第1のビューのピクチャ中の画素は、第1のビュー及び第2のビューがそこから撮影される異なるカメラ位置に関係する特定の視差だけ、第2のビューのピクチャ中の対応する画素に関して変位させられ得る。幾つかの例では、視差は、1つのビューから別のビューまでの動きベクトルを予測するために使用され得る。
MVCのコンテキストでは、1つのビューのピクチャが別のビューのピクチャから予測され得る。例えば、ビデオデータのブロックが、同じタイムインスタンスであるが、異なるビューの参照ピクチャ中のビデオデータのブロックに対して予測され得る。一例では、現在コード化されているブロックを「現在ブロック」と呼ぶことがある。異なるビュー中にあるが同じタイムインスタンス中のブロックから現在ブロックを予測する動きベクトルを、「視差動きベクトル」と呼ぶ。視差動きベクトルは、一般に、2つ以上のビューが利用可能であり得るマルチビュービデオコード化のコンテキストにおいて適用可能である。本開示によれば、視差動きベクトルについての「ビュー距離」は、参照ピクチャのビューとターゲットピクチャのビューとの間の変換差を指し得る。即ち、ビュー距離は、参照ピクチャのビュー識別子とターゲットピクチャのビュー識別子との間のビュー識別子差として表され得る。
別のタイプの動きベクトルは「時間動きベクトル」である。マルチビュービデオコード化のコンテキストにおいて、時間動きベクトルは、異なるタイムインスタンス中にあるが、同じビュー内のブロックから現在ブロックを予測する動きベクトルを指す。本開示によれば、時間動きベクトルの「時間距離」は、参照ピクチャからターゲットピクチャまでのピクチャ順序カウント(POC)距離を指し得る。
本開示の幾つかの技法は、マルチビュー設定におけるビデオデータのブロックに関連する動き情報(例えば、動きベクトル、動きベクトルインデックス、予測方向、又は他の情報)を使用して現在コード化されているブロックの動き情報を予測することを対象とする。例えば、本開示の態様によれば、異なるビューから予測された動きベクトルは、現在ブロックの動きベクトル予測のために使用される1つ以上の動きベクトルリストのための候補として追加され得る。幾つかの例では、ビデオコーダは、現在コード化されているブロックとは異なるビュー中のブロックに関連する視差動きベクトルを使用して現在ブロックについての動きベクトルを予測し得、予測された視差動きベクトルを候補動きベクトルリストに追加し得る。他の例では、ビデオコーダは、現在コード化されているブロックとは異なるビュー中のブロックに関連する時間動きベクトルを使用して、現在ブロックについての動きベクトルを予測し得、予測された時間動きベクトルを候補動きベクトルリストに追加し得る。
本開示の態様によれば、視差動きベクトルは、現在コード化されているブロックについての動きベクトル予測子として使用される前に基準化され得る。例えば、視差動きベクトルが、予測されている現在動きベクトルと同じビュー識別子を有する参照ピクチャを識別し、視差動きベクトルが、予測されている現在動きベクトルと同じビュー識別子をもつターゲットピクチャを有する場合、視差動きベクトルは、現在ブロックについての動きベクトルを予測するために使用される前に基準化され得ない。他の例では、視差動きベクトルは、現在ブロックについての動きベクトルを予測するために使用される前に基準化され得る。
別の例では、視差動きベクトルは、空間的に隣接するブロックに関連する視差動きベクトルから予測され得る。この例では、視差動きベクトルの参照ピクチャのビュー識別子が、予測されるべき動きベクトル(例えば、現在予測されているブロックに関連する動きベクトル)の参照ピクチャのビュー識別子と同じである場合、基準化は必要とされ得ない。そうでない場合、視差動きベクトルは、ビデオデータを撮影するために使用されたカメラのカメラ位置に基づいて基準化され得る。即ち、例えば、予測のために使用されている視差動きベクトルは、視差動きベクトルの参照ピクチャのビュー識別子と動きベクトルのターゲットピクチャのビュー識別子との間の差に応じて基準化され得る。幾つかの例では、視差動きベクトル基準化は、ビューの変換に基づいて基準化され得る。
別の例では、視差動きベクトルは、時間的に隣接するブロックに関連する視差動きベクトルから予測され得る。この例では、視差動きベクトルの参照ピクチャのビュー識別子が予測されるべき動きベクトルの参照ピクチャのビュー識別子と同じであり、視差動きベクトルのターゲットピクチャのビュー識別子が予測されるべき動きベクトルの参照ピクチャのビュー識別子と同じである場合、基準化は必要とされ得ない。そうでない場合、前の例に関して説明したように、視差動きベクトルは、ビュー識別子の差に基づいて基準化され得る。
時間動きベクトル予測に関して、本開示の態様によれば、第2の異なるビュー中にターゲットピクチャを有する時間動きベクトルを予測するために、第1のビュー中にターゲットピクチャを有する時間動きベクトルが使用され得る。幾つかの例では、予測のために使用されている時間動きベクトルのターゲットピクチャ中のブロックは、異なるビュー中の現在予測されているブロックと同一位置にされ得る。他の例では、予測のために使用されている時間動きベクトルのターゲットピクチャ中のブロックは、2つのビュー間の視差により、現在ブロックからオフセットされ得る。
幾つかの例では、異なるビューから予測されている動きベクトルが時間動きベクトルであるとき、動きベクトルはピクチャ順序カウント(POC)距離の差に基づいて基準化され得る。例えば、本開示の態様によれば、予測のために使用されている時間動きベクトルの参照ピクチャが、予測されている現在動きベクトルの参照ピクチャと同じPOC値を有し、予測のために使用されている時間動きベクトルのターゲットピクチャが、予測されている現在動きベクトルの参照ピクチャと同じPOC値を有する場合、予測のために使用されている動きベクトルは基準化され得ない。しかしながら、そうでない場合、予測のために使用されている動きベクトルは、予測のために使用されている動きベクトルの参照ピクチャと現在予測されている動きベクトルの参照ピクチャとの間のPOC値の差に基づいて基準化され得る。
本開示の幾つかの態様によれば、異なるビューからの時間及び/又は視差動きベクトルは、MVP候補として使用され得る。例えば、時間及び/又は視差動きベクトルは、現在ブロックについてのMVDを計算するために使用され得る。本開示の他の態様によれば、異なるビューからの時間及び/又は視差動きベクトルは、マージ候補として使用され得る。例えば、時間及び/又は視差動きベクトルは、現在ブロックのために継承され得る。そのような例では、現在ビデオブロックがそれの動き情報をそこから継承する隣接を識別するために、インデックス値が使用され得る。いずれの場合も、MVP又はマージ候補として使用される異なるビューからの視差及び/又は時間動きベクトルは、MVP又はマージ候補として使用される前に基準化され得る。
図1は、マルチビューコード化における動きベクトル予測のための技法を利用し得る例示的なビデオ符号化及び復号システム10を示すブロック図である。図1に示すように、システム10は、宛先機器14によって後で復号されるべき符号化されたビデオデータを与える発信源12を含む。特に、発信源12は、コンピュータ可読媒体16を介して宛先機器14にビデオデータを与える。発信源12及び宛先機器14は、デスクトップコンピュータ、ノートブック(即ち、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、所謂「スマート」フォン、所謂「スマート」パッドなどの電話ハンドセット、テレビジョン、カメラ、表示装置、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミング機器などを含む、広範囲にわたる機器のいずれかを備え得る。場合によっては、発信源12及び宛先機器14は、ワイヤレス通信のために装備され得る。
宛先機器14は、コンピュータ可読媒体16を介して復号されるべき符号化されたビデオデータを受信し得る。コンピュータ可読媒体16は、発信源12から宛先機器14に符号化されたビデオデータを移動させることができる任意のタイプの媒体又は機器を備え得る。一例では、コンピュータ可読媒体16は、発信源12が、符号化されたビデオデータをリアルタイムで宛先機器14に直接送信することを可能にするための通信媒体を備え得る。
符号化されたビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先機器14に送信され得る。通信媒体は、無線周波数(RF)スペクトル又は1つ以上の物理伝送線路など、任意のワイヤレス又は有線通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワーク、又はインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信媒体は、発信源12から宛先機器14への通信を可能にするのに有用であり得るルータ、スイッチ、基地局、又は任意の他の機器を含み得る。
幾つかの例では、符号化されたデータは、出力インターフェース22から記憶装置に出力され得る。同様に、符号化されたデータは、入力インターフェースによって記憶装置からアクセスされ得る。記憶装置は、ハードドライブ、ブルーレイ(登録商標)ディスク、DVD、CD−ROM、フラッシュメモリ、揮発性又は不揮発性メモリ、若しくは符号化されたビデオデータを記憶するための任意の他の好適なデジタル記憶媒体などの様々な分散された又はローカルにアクセスされたデータ記憶媒体のいずれかを含み得る。更なる一例では、記憶装置は、ファイルサーバ、又は発信源12によって生成された符号化されたビデオを記憶し得る別の中間記憶装置に対応し得る。
宛先機器14は、ストリーミング又はダウンロードを介して記憶装置から記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化されたビデオデータを記憶し、その符号化されたビデオデータを宛先機器14に送信することができる任意のタイプのサーバであり得る。例示的なファイルサーバは、(例えば、ウェブサイトのための)ウェブサーバ、FTPサーバ、ネットワーク接続ストレージ(NAS)機器、又はローカルディスクドライブを含む。宛先機器14は、インターネット接続を含む、任意の標準のデータ接続を介して符号化されたビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化されたビデオデータにアクセスするのに好適である、ワイヤレスチャネル(例えば、Wi−Fi接続)、有線接続(例えば、DSL、ケーブルモデムなど)、又は両方の組合せを含み得る。記憶装置からの符号化されたビデオデータの送信は、ストリーミング送信、ダウンロード送信、又はそれらの組合せであり得る。
本開示の技法は、必ずしもワイヤレス適用例又は設定に限定されるとは限らない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されるデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、又は他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコード化に適用され得る。幾つかの例では、システム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、及び/又はビデオテレフォニーなどの適用例をサポートするために、単方向又は二方向のビデオ送信をサポートするように構成され得る。
図1の例では、発信源12は、ビデオ発信源18と、ビデオエンコーダ20と、出力インターフェース22とを含む。宛先機器14は、入力インターフェース28と、ビデオデコーダ30と、表示装置32とを含む。本開示によれば、発信源12のビデオエンコーダ20は、マルチビューコード化における動きベクトル予測のための技法を適用するように構成され得る。他の例では、発信源及び宛先機器は、他の構成要素又は構成を含み得る。例えば、発信源12は、外部カメラなど、外部ビデオ発信源18からビデオデータを受信し得る。同様に、宛先機器14は、内蔵表示装置を含むのではなく、外部表示装置とインターフェースし得る。
図1の図示されたシステム10は一例にすぎない。マルチビューコード化における動きベクトル予測のための技法は、任意のデジタルビデオ符号化及び/又は復号機器によって実行され得る。概して、本開示の技法はビデオ符号化機器によって実行されるが、本技法は、一般に「コーデック」と呼ばれるビデオエンコーダ/デコーダによっても実行され得る。更に、本開示の技法は、ビデオプリプロセッサによっても実行され得る。発信源12及び宛先機器14は、発信源12が宛先機器14に送信するためのコード化ビデオデータを生成するような、コード化機器の例にすぎない。幾つかの例では、機器12、14の各々がビデオ符号化構成要素と復号構成要素とを含むので、機器12、14は、実質的に対称的に動作し得る。従って、システム10は、例えば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、又はビデオテレフォニーのための、ビデオ機器12とビデオ機器14との間の一方向又は双方向のビデオ送信をサポートし得る。
発信源12のビデオ発信源18は、ビデオカメラなどの撮像装置、予め撮影されたビデオを含んでいるビデオアーカイブ、及び/又はビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェースを含み得る。更なる代替として、ビデオ発信源18は、発信源ビデオとしてのコンピュータグラフィックスベースのデータ、又はライブビデオとアーカイブビデオとコンピュータ生成ビデオとの組合せを生成し得る。場合によっては、ビデオ発信源18がビデオカメラである場合、発信源12及び宛先機器14は、所謂カメラ付き携帯電話又はビデオ電話を形成し得る。但し、上述のように、本開示で説明する技法は、概してビデオコード化に適用可能であり得、ワイヤレス及び/又は有線アプリケーションに適用され得る。各場合において、撮影されたビデオ、以前に撮影されたビデオ、又はコンピュータ生成ビデオはビデオエンコーダ20によって符号化され得る。符号化されたビデオ情報は、次いで、出力インターフェース22によってコンピュータ可読媒体16上に出力され得る。
コンピュータ可読媒体16は、ワイヤレスブロードキャスト又は有線ネットワーク送信などの一時媒体、又はハードディスク、フラッシュドライブ、コンパクトディスク、デジタルビデオディスク、ブルーレイディスク、又は他のコンピュータ可読媒体などの記憶メディア(即ち、非一時的記憶媒体)を含み得る。幾つかの例では、ネットワークサーバ(図示せず)は、例えば、ネットワーク送信を介して、発信源12から符号化されたビデオデータを受信し、宛先機器14に符号化されたビデオデータを与え得る。同様に、ディスクスタンピング機能など、媒体生成機能のコンピューティング機器は、発信源12から符号化されたビデオデータを受信し、符号化されたビデオデータを含んでいるディスクを生成し得る。従って、様々な例では、コンピュータ可読媒体16は、様々な形態の1つ以上のコンピュータ可読媒体を含むと理解され得る。
宛先機器14の入力インターフェース28は、コンピュータ可読媒体16から情報を受信する。コンピュータ可読媒体16の情報は、ブロック及び他のコード化ユニット、例えば、GOPの特性及び/又は処理を記述するシンタックス要素を含む、ビデオデコーダ30によっても使用される、ビデオエンコーダ20によって定義されるシンタックス情報を含み得る。表示装置32は、復号されたビデオデータをユーザに対して表示し、陰極線管(CRT)、液晶表示器(LCD)、プラズマ表示器、有機発光ダイオード(OLED)表示器、又は別のタイプの表示装置など、様々な表示装置のいずれかを備え得る。
ビデオエンコーダ20及びビデオデコーダ30は、現在開発中の高効率ビデオコード化(HEVC)規格など、ビデオコード化規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオエンコーダ20及びビデオデコーダ30は、代替的にMPEG−4,Part 10,Advanced Video Coding(AVC)と呼ばれるITU−T H.264規格など、他のプロプライエタリ規格又は業界規格、又はそのような規格の拡張に従って動作し得る。但し、本開示の技法は特定のコード化規格に限定されない。ビデオコード化規格の他の例は、MPEG−2及びITU−T H.263を含む。図1には示されていないが、幾つかの態様では、ビデオエンコーダ20及びビデオデコーダ30は、それぞれオーディオエンコーダ及びデコーダと統合され得、適切なMUX−DEMUXユニット、又は他のハードウェア及びソフトウェアを含んで、共通のデータストリーム又は別個のデータストリーム中のオーディオとビデオの両方の符号化を処理し得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、又はユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
ITU−T H.264/MPEG−4(AVC)規格は、Joint Video Team(JVT)として知られる共同パートナーシップの成果として、ISO/IECのMoving Picture Experts Group(MPEG)とともにITU−TのVideo Coding Experts Group(VCEG)によって公式化された。幾つかの態様では、本開示で説明する技法は、概してH.264規格に準拠する機器に適用され得る。H.264規格は、ITU−T Study Groupによる2005年3月付けのITU−T勧告H.264「Advanced Video Coding for generic audiovisual services」に記載されており、本明細書ではH.264規格又はH.264仕様、若しくはH.264/AVC規格又は仕様と呼ばれ得る。Joint Video Team(JVT)はH.264/MPEG−4 AVCへの拡張に取り組み続けている。
JCT−VCは、HEVC規格の開発に取り組んでいる。HEVCの規格化の取り組みは、HEVCテストモデル(HM)と呼ばれるビデオコード化機器の発展的モデルに基づく。HMは、例えば、ITU−T H.264/AVCに従う既存の機器に対してビデオコード化機器の幾つかの追加の能力を仮定する。例えば、H.264は9つのイントラ予測符号化モードを提供するが、HMは33個ものイントラ予測符号化モードを提供し得る。
一般に、HMの作業モデルは、ビデオピクチャ(又は「フレーム」)が、ルーマとクロマの両方のサンプルを含む一連のツリーブロック又は最大コード化単位(LCU)に分割され得ることを記載する。ビットストリーム内のシンタックスデータが、画素の数に関して最大コード化単位であるLCUのサイズを定義し得る。スライスは、幾つかの連続的なツリーブロックをコード化順に含む。ピクチャは、1つ以上のスライスに区分され得る。各ツリーブロックは、4分木に従ってコード化単位(CU)に分割され得る。概して、4分木データ構造はCUごとに1つのノードを含み、ルートノードはツリーブロックに対応する。CUが4つのサブCUに分割された場合、CUに対応するノードは4つのリーフノードを含み、リーフノードの各々はサブCUのうちの1つに対応する。
4分木データ構造の各ノードは、対応するCUのシンタックスデータを与え得る。例えば、4分木のノードは、そのノードに対応するCUがサブCUに分割されるかどうかを示す分割フラグを含み得る。CUのシンタックス要素は、再帰的に定義され得、CUがサブCUに分割されるかどうかに依存し得る。CUが更に分割されない場合、そのCUはリーフCUと呼ばれる。本開示では、元のリーフCUの明示的分割が存在しない場合でも、リーフCUの4つのサブCUをリーフCUとも呼ぶ。例えば、16×16サイズのCUが更に分割されない場合、この16×16CUが決して分割されなくても、4つの8×8サブCUをリーフCUとも呼ぶ。
CUは、CUがサイズ差異を有さないことを除いて、H.264規格のマクロブロックと同様の目的を有する。例えば、ツリーブロックは、4つの子ノード(サブCUとも呼ぶ)に分割され得、各子ノードは、次に、親ノードとなり、別の4つの子ノードに分割され得る。4分木のリーフノードと呼ばれる、最終的な、分割されていない子ノードは、コード化ノードを備え、リーフCUとも呼ばれる。コード化されたビットストリームに関連付けられたシンタックスデータは、最大CU深さと呼ばれる、ツリーブロックが分割され得る最大回数を定義し得、コード化ノードの最小サイズをも定義し得る。従って、ビットストリームは最小コード化単位(SCU)をも定義し得る。本開示では、HEVCのコンテキストにおけるCU、PU、又はTUのいずれか、又は他の規格のコンテキストにおける同様のデータ構造(例えば、H.264/AVCにおけるそれのマクロブロック及びサブブロック)を指すために、「ブロック」という用語を使用する。
CUは、コード化ノードと、コード化ノードに関連付けられた予測単位(PU)及び変換単位(TU)とを含む。CUのサイズは、コード化ノードのサイズに対応し、正方形でなければならない。CUのサイズは、8×8画素から最大64×64以上の画素を有するツリーブロックのサイズまでに及び得る。各CUは、1つ以上のPUと、1つ以上のTUとを含み得る。CUに関連付けられたシンタックスデータは、例えば、CUを1つ以上のPUに区分することを記述し得る。区分モードは、CUが、スキップモード符号化又はダイレクトモード符号化されるか、イントラ予測モード符号化されるか、又はインター予測モード符号化されるかによって異なり得る。PUは、非正方形に区分され得る。CUに関連付けられたシンタックスデータは、例えば、4分木に従って、CUを1つ以上のTUに区分することも記述し得る。TUは、形状が正方形又は非正方形(例えば、矩形)であり得る。
HEVC規格は、CUごとに異なり得るTUに従う変換を可能にする。TUは、一般に、区分されたLCUについて定義された所与のCU内のPUのサイズに基づいてサイズ決定されるが、常にそうであるとは限らない。TUは、一般に、PUと同じサイズであるか又はそれよりも小さくなり得る。幾つかの例では、CUに対応する残差サンプルは、「残差4分木」(RQT)として知られる4分木構造を使用してより小さい単位に再分割され得る。RQTのリーフノードは変換単位(TU)と呼ばれることがある。TUに関連する画素差分値は、量子化され得る変換係数を生成するために変換され得る。
リーフCUは、1つ以上の予測単位(PU)を含み得る。概して、PUは、対応するCUの全部又は一部分に対応する空間エリアを表し、そのPUの参照サンプルを取り出すためのデータを含み得る。更に、PUは、予測に関係するデータを含む。例えば、PUがイントラモード符号化されるとき、PUについてのデータは、PUに対応するTUについてのイントラ予測モードを記述するデータを含み得る残差4分木(RQT)中に含まれ得る。別の例として、PUがインターモード符号化されるとき、PUは、PUについての1つ以上の動きベクトルを定義するデータを含み得る。PUについての動きベクトルを定義するデータは、例えば、動きベクトルの水平成分、動きベクトルの垂直成分、動きベクトルの解像度(例えば、1/4画素精度又は1/8画素精度)、動きベクトルがポイントする参照ピクチャ、及び/又は動きベクトルの参照ピクチャリスト(例えば、リスト0、又はリスト1、又はリスト0)を記述し得る。
1つ以上のPUを有するリーフCUは、1つ以上の変換単位(TU)をも含み得る。変換単位は、上記で説明したように、RQT(TU4分木構造とも呼ばれる)を使用して指定され得る。例えば、分割フラグは、リーフCUが4つの変換単位に分割されるかどうかを示し得る。次いで、各変換単位は更にサブTUに分割され得る。TUが更に分割されないとき、そのTUはリーフTUと呼ばれることがある。概して、イントラコード化の場合、リーフCUに属する全てのリーフTUは同じイントラ予測モードを共有する。即ち、概して、リーフCUの全てのTUの予測値を計算するために同じイントラ予測モードが適用される。イントラコード化の場合、ビデオエンコーダ20は、イントラ予測モードを使用して各リーフTUの残差値をTUに対応するCUの一部と元のブロックとの間の差として計算し得る。TUは、必ずしもPUのサイズに制限されるとは限らない。従って、TUは、PUよりも大きいことも小さいこともある。イントラコード化の場合、PUは、同じCUの対応するリーフTUと同一位置にされ得る。幾つかの例では、リーフTUの最大サイズは、対応するリーフCUのサイズに対応し得る。
更に、リーフCUのTUも、残差4分木(RQT)と呼ばれるそれぞれの4分木データ構造に関連付けられ得る。即ち、リーフCUは、リーフCUがどのようにTUに区分されるかを示す4分木を含み得る。TU4分木のルートノードは概してリーフCUに対応し、CU4分木のルートノードは概してツリーブロック(又はLCU)に対応する。分割されないRQTのTUはリーフTUと呼ばれる。概して、本開示では、特に明記しない限り、リーフCU及びリーフTUに言及するためにそれぞれCU及びTUという用語を使用する。
ビデオシーケンスは、一般に一連のピクチャを含む。本明細書で説明する「ピクチャ」及び「フレーム」という用語は互換的に使用され得る。即ち、ビデオデータを含んでいるピクチャはビデオフレーム又は単に「フレーム」と呼ばれることがある。ピクチャのグループ(GOP)は、一般に、一連の1つ以上のビデオフレームを備える。GOPは、GOP中に含まれる幾つかのピクチャを記述するシンタックスデータを、GOPのヘッダ中、1つ以上のピクチャのヘッダ中、又は他の場所に含み得る。ピクチャの各スライスは、それぞれのスライスについての符号化モードを記述するスライスシンタックスデータを含み得る。ビデオエンコーダ20は、一般的に、ビデオデータを符号化するために、個々のビデオスライス内のビデオブロックに対して動作する。ビデオブロックは、CU内のコード化ノードに対応し得る。ビデオブロックは、固定サイズ又は変動サイズを有し得、指定のコード化規格に応じてサイズが異なり得る。
例として、HMは、様々なPUサイズでの予測をサポートする。特定のCUのサイズが2N×2Nであると仮定すると、HMは、2N×2N又はN×NのPUサイズでのイントラ予測をサポートし、2N×2N、2N×N、N×2N、又はN×Nの対称的なPUサイズでのインター予測をサポートする。HMはまた、2N×nU、2N×nD、nL×2N、及びnR×2NのPUサイズでのインター予測のための非対称区分をサポートする。非対称区分では、CUの単方向は区分されないが、他の方向が25%と75%とに区分される。25%の区分に対応するCUの部分は、「n」とその後ろに付く「Up」、「Down」、「Left」、又は「Right」という表示によって示される。従って、例えば「2N×nU」は、上部に2N×0.5N PUと下部に2N×1.5N PUとで水平方向に区分される2N×2N CUを指す。
本開示では、「N×N(NxN)」及び「N×N(N by N)」は、垂直寸法及び水平寸法に関するビデオブロックの画素寸法、例えば、16×16(16x16)画素又は16×16(16 by 16)画素を指すために互換的に使用され得る。概して、16×16ブロックは、垂直方向に16画素を有し(y=16)、水平方向に16画素を有する(x=16)。同様に、N×Nブロックは、概して、垂直方向にN画素を有し、水平方向にN画素を有し、Nは非負整数値を表す。ブロック中の画素は行と列に構成され得る。更に、ブロックは、必ずしも、水平方向において垂直方向と同じ数の画素を有する必要があるとは限らない。例えば、ブロックは、N×M画素を備え得、Mは必ずしもNに等しいとは限らない。
CUのPUを使用したイントラ予測コード化又はインター予測コード化の後、ビデオエンコーダ20は、CUのTUのための残差データを計算し得る。PUは、(画素領域とも呼ばれる)空間領域において予測画素データを生成する方法又はモードを記述するシンタックスデータを備え得、TUは、例えば、残差ビデオデータへの離散コサイン変換(DCT)、整数変換、ウェーブレット変換、又は概念的に同様の変換などの変換の適用後に、変換領域において係数を備え得る。残差データは、符号化されていないピクチャの画素と、PUに対応する予測値との間の画素差分に対応し得る。ビデオエンコーダ20は、CUのための残差データを含むTUを形成し、次いで、TUを変換して、CUのための変換係数を生成し得る。
変換係数を生成するための任意の変換の後、ビデオエンコーダ20は、変換係数の量子化を実行し得る。量子化は、概して、更なる圧縮を提供する、係数を表すために使用されるデータの量をできるだけ低減するために変換係数を量子化するプロセスを指す。量子化プロセスは、係数の一部又は全部に関連するビット深度を低減し得る。例えば、量子化中にnビット値がmビット値に切り捨てられ得、nはmよりも大きい。
量子化の後に、ビデオエンコーダは、変換係数を走査して、量子化された変換係数を含む2次元行列から1次元ベクトルを生成し得る。走査は、アレイの前部により高いエネルギー(従って、より低い周波数)係数を配置し、アレイの後部により低いエネルギー(従って、より高い周波数)係数を配置するように設計され得る。幾つかの例では、ビデオエンコーダ20は、エントロピー符号化され得るシリアル化ベクトルを生成するために、量子化変換係数を走査するために予め定義された走査順序を利用し得る。他の例では、ビデオエンコーダ20は適応走査を実行し得る。量子化変換係数を走査して1次元ベクトルを形成した後、ビデオエンコーダ20は、例えば、コンテキスト適応型可変長コード化(CAVLC:context adaptive variable length coding)、コンテキスト適応型バイナリ算術コード化(CABAC:context adaptive binary arithmetic coding)、シンタックスベースコンテキスト適応型2値算術コード化(SBAC:syntax-based context-adaptive binary arithmetic coding)、確率区間区分エントロピー(PIPE:Probability Interval Partitioning Entropy)コード化、又は別のエントロピー符号化方法に従って1次元ベクトルをエントロピー符号化し得る。また、ビデオエンコーダ20は、ビデオデータの復号の際に、ビデオデコーダ30によって使用するために符号化されたビデオデータに関連付けられたシンタックス要素をエントロピー符号化し得る。
CABACを実行するために、ビデオエンコーダ20は、送信されるべきシンボルに、コンテキストモデル内のコンテキストを割り当て得る。コンテキストは、例えば、シンボルの隣接値が非0か否かに関係し得る。CAVLCを実行するために、ビデオエンコーダ20は、送信されるべきシンボルの可変長コードを選択し得る。VLCにおけるコードワードは、比較的短いコードが優勢シンボルに対応し、より長いコードが劣勢シンボルに対応するように構成され得る。このようにして、VLCの使用は、例えば、送信されるべき各シンボルのために等長コードワードを使用するよりも、ビット節約を達成し得る。確率決定は、シンボルに割り当てられるコンテキストに基づき得る。
ビデオエンコーダ20は、ブロックベースのシンタックスデータ、ピクチャベースのシンタックスデータ、及びGOPベースのシンタックスデータなどのシンタックスデータを、例えば、ピクチャヘッダ、ブロックヘッダ、スライスヘッダ、又はGOPヘッダ中でビデオデコーダ30に更に送り得る。GOPシンタックスデータは、それぞれのGOP中の幾つかのピクチャを記述し得、ピクチャシンタックスデータは、対応するピクチャを符号化するために使用される符号化/予測モードを示し得る。
ビデオエンコーダ20及びビデオデコーダ30はそれぞれ、適用可能なとき、1つ以上のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理回路、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適なエンコーダ又はデコーダ回路のいずれか、又はそれらの任意の組合せとして実施され得る。ビデオエンコーダ20及びビデオデコーダ30の各々は1つ以上のエンコーダ又はデコーダ中に含まれ得、そのいずれも複合ビデオエンコーダ/デコーダ(コーデック)の一部として統合され得る。ビデオエンコーダ20及び/又はビデオデコーダ30を含む機器は、集積回路、マイクロプロセッサ、及び/又はセルラー電話などのワイヤレス通信機器を備え得る。
図2は、マルチビューコード化において動きベクトルを予測するための本開示で説明する技法を実施し得る例示的なビデオエンコーダ20を示すブロック図である。ビデオエンコーダ20は、ビデオスライス内のビデオブロックのイントラコード化及びインターコード化を実行し得る。イントラコード化は、所与のピクチャ内のビデオの空間的冗長性を低減又は除去するために空間的予測に依拠する。インターコード化は時間的予測を利用して、ビデオシーケンスの隣接ピクチャ又はピクチャ内のビデオの時間的冗長性を低減又は除去する。イントラモード(Iモード)は、幾つかの空間ベースの圧縮モードのいずれかを指し得る。単方向予測(Pモード)又は双方向予測(Bモード)などのインターモードは、幾つかの時間ベースの圧縮モードのいずれかを指し得る。
図2に示すように、ビデオエンコーダ20は、符号化すべきビデオデータを受信する。図2の例では、ビデオエンコーダ20は、モード選択ユニット40と、加算器50と、変換ユニット52と、量子化ユニット54と、エントロピー符号化ユニット56と、参照ピクチャメモリ64とを含む。次に、モード選択ユニット40は、動き推定ユニット42と、動き補償ユニット44と、イントラ予測ユニット46と、区分ユニット48とを含む。ビデオブロック再構成のために、ビデオエンコーダ20はまた、逆量子化ユニット58と、逆変換ユニット60と、加算器62とを含む。再構成されたビデオからブロッキネスアーティファクトを除去するためにブロック境界をフィルタ処理するデブロッキングフィルタ(図2に図示せず)も含まれ得る。所望される場合、デブロッキングフィルタは、一般に、加算器62の出力をフィルタ処理するであろう。追加のループフィルタ(ループ内又はループ後)もデブロッキングフィルタに加えて使用され得る。そのようなフィルタは、簡潔のために示されていないが、所望される場合、(ループ内フィルタとして)加算器50の出力をフィルタ処理し得る。
符号化プロセス中に、ビデオエンコーダ20は、コード化されるべきピクチャ又はスライスを受信する。ピクチャ又はスライスは複数のビデオブロックに分割され得る。動き推定ユニット42及び動き補償ユニット44は、時間圧縮を行うために、1つ以上の参照ピクチャ中の1つ以上のブロックに対する受信したビデオブロックのインター予測コード化を実行する。イントラ予測ユニット46は、代替的に、空間圧縮を行うために、コード化されるべきブロックと同じピクチャ又はスライス中の1つ以上の隣接ブロックに対する受信したビデオブロックのイントラ予測コード化を実行し得る。ビデオエンコーダ20は、例えば、ビデオデータの各ブロックに適切なコード化モードを選択するために、複数のコード化パスを実行し得る。
更に、区分ユニット48は、前のコード化パスにおける前の区分方式の評価に基づいてビデオデータのブロックをサブブロックに区分し得る。例えば、区分ユニット48は、初めにピクチャ又はスライスをLCUに区分し、レート歪み分析(例えば、レート歪み最適化)に基づいてLCUの各々をサブCUに区分し得る。モード選択ユニット40は、LCUをサブCUに区分することを示す4分木データ構造を更に生成し得る。4分木のリーフノードCUは、1つ以上のPU及び1つ以上のTUを含み得る。
モード選択ユニット40は、例えば、誤差結果に基づいてコード化モード、即ち、イントラ又はインターのうちの1つを選択し、残差ブロックデータを生成するために、得られたイントラコード化ブロック又はインターコード化ブロックを加算器50に与え、参照ピクチャとして使用するための符号化ブロックを再構成するために、得られたイントラコード化ブロック又はインターコード化ブロックを加算器62に与え得る。モード選択ユニット40はまた、動きベクトル、イントラモードインジケータ、区分情報、及び他のそのようなシンタックス情報など、シンタックス要素をエントロピーコード化ユニット56に与える。
動き推定ユニット42、動きベクトル予測ユニット43、及び動き補償ユニット44は、高度に統合され得るが、概念的な目的のために別々に示してある。動き推定ユニット42によって実行される動き推定は、ビデオブロックの動きを推定する動きベクトルを生成するプロセスである。動きベクトルは、例えば、現在ピクチャ(又は他のコード化単位)内のコード化されている現在ブロックに対する参照ピクチャ(又は他のコード化単位)内の予測ブロックに対する、現在ピクチャ内のビデオブロックのPUの変位を示し得る。
予測ブロックは、絶対値差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、又は他の差分メトリックによって決定され得る画素差分に関して、コード化されるべきブロックにぴったり一致することがわかるブロックである。幾つかの例では、ビデオエンコーダ20は、参照ピクチャバッファと呼ばれることもある参照ピクチャメモリ64に記憶された参照ピクチャのサブ整数画素位置の値を計算し得る。例えば、ビデオエンコーダ20は、参照ピクチャの1/4画素位置、1/8画素位置、又は他の分数画素位置の値を補間し得る。従って、動き推定ユニット42は、フル画素位置と分数画素位置とに対する動き探索を実行し、分数画素精度で動きベクトルを出力し得る。
動き推定ユニット42は、PUの位置を参照ピクチャの予測ブロックの位置と比較することによって、インターコード化スライスにおけるビデオブロックのPUについての動きベクトルを計算する。従って、概して、動きベクトルについてのデータは、参照ピクチャリストと、参照ピクチャリストへのインデックス(ref_idx)と、水平成分と、垂直成分とを含み得る。参照ピクチャは、第1の参照ピクチャリスト(リスト0)、第2の参照ピクチャリスト(リスト1)、又は結合された参照ピクチャリスト(リストc)から選択され得、それらの各々が、参照ピクチャメモリ64に記憶された1つ以上の参照ピクチャを識別する。
動き推定ユニット42は、参照ピクチャの予測ブロックを識別する動きベクトルを生成し、エントロピー符号化ユニット56と動き補償ユニット44とに送り得る。即ち、動き推定ユニット42は、予測ブロックを含んでいる参照ピクチャリストを識別する動きベクトルデータと、予測ブロックのピクチャを識別する参照ピクチャリストへのインデックスと、識別されたピクチャ内の予測ブロックの位置を特定するための水平及び垂直コンポーネントとを生成し、送り得る。
幾つかの例では、現在のPUについての実際の動きベクトルを送るのではなく、動きベクトル予測ユニット43は、動きベクトルを通信するために必要とされるデータの量を更に低減するために、動きベクトルを予測し得る。この場合、動きベクトル自体を符号化及び通信するのではなく、動きベクトル予測ユニット43は、周知の(又は知り得る)動きベクトルに対する動きベクトル差分(MVD)を生成し得る。現在動きベクトルを定義するためにMVDとともに使用され得る周知の動きベクトルは、所謂動きベクトル予測子(MVP)によって定義され得る。概して、有効なMVPであるために、予測のために使用されている動きベクトルは、現在コード化されている動きベクトルと同じ参照ピクチャをポイントしなければならない。
幾つかの例では、以下の図5に関してより詳細に説明するように、動きベクトル予測ユニット43は、MVPのための候補として空間的及び/又は時間的方向における幾つかの隣接するブロックを含む動きベクトル予測子候補リストを構築し得る。本開示の態様によれば、以下でより詳細に説明するように、動きベクトル予測子候補はまた、(例えば、マルチビューコード化において)異なるビューのピクチャにおいて識別され得る。複数の動きベクトル予測子候補が(複数の候補ブロックから)利用可能なとき、動きベクトル予測ユニット43は、所定の選択基準に従って現在ブロックについての動きベクトル予測子を決定し得る。例えば、動きベクトル予測ユニット43は、符号化レート及び歪みの分析に基づいて(例えば、レート歪みコスト分析又は他のコード化効率分析を使用して)、候補セットから最も正確な予測子を選択し得る。他の例では、動きベクトル予測ユニット43は、動きベクトル予測子候補の平均を生成し得る。動きベクトル予測子を選択する他の方法も可能である。
動きベクトル予測子を選択するときに、動きベクトル予測ユニット43は、MVP候補ブロックを含んでいる参照ピクチャリスト中のどこにMVPを配置すべきかを(例えば、ビデオデコーダ30などの)ビデオデコーダに通知するために使用され得る動きベクトル予測子インデックス(mvp_flag)を決定し得る。動きベクトル予測ユニット43はまた、現在ブロックと選択されたMVPとの間のMVDを決定し得る。MVPインデックス及びMVDは、動きベクトルを再構成するために使用され得る。
幾つかの例では、動きベクトル予測ユニット43は、代わりに、所謂「マージモード」を実施し得、マージモードでは、動きベクトル予測ユニット43は、予測ビデオブロックの(動きベクトル、参照ピクチャインデックス、予測方向、又は他の情報などの)動き情報を現在ビデオブロックと「マージ」し得る。従って、マージモードに関して、現在ビデオブロックは、別の周知の(又は知り得る)ビデオブロックから動き情報を引き継ぐ。動きベクトル予測ユニット43は、マージモードのための候補として空間的及び/又は時間的方向における幾つかの隣接ブロックを含むマージモード候補リストを構築し得る。動きベクトル予測ユニット43は、マージング候補ブロックを含んでいる参照ピクチャリスト中のどこにマージングビデオブロックを配置すべきかを(例えば、ビデオデコーダ30などの)ビデオデコーダに通知するために使用され得るインデックス値(例えば、merge_idx)を決定し得る。
本開示の態様によれば、動きベクトル予測ユニット43は、マルチビューコード化において、例えば、MVDを生成又はマージするために、動きベクトル予測子を識別し得る。例えば、動きベクトル予測ユニット43は、現在ブロックについての動きベクトルを予測するために、現在ブロックとは異なるビューコンポーネント中のブロックから視差動きベクトルを識別し得る。他の例では、動きベクトル予測ユニット43は、現在ブロックについての動きベクトルを予測するために、現在ブロックとは異なるビューコンポーネント中のブロックから時間動きベクトルを識別し得る。
視差動きベクトル予測に関して、動きベクトル予測ユニット43は、現在コード化されているビデオブロック(「現在ブロック」と呼ぶ)についての動きベクトルを予測するために、候補ブロックから視差動きベクトル候補を識別し得る。現在ブロックは、候補ブロックと同じピクチャ中にあり得(例えば、候補ブロックに空間的に隣接する)、又は候補ブロックと同じビュー内の別のピクチャ中にあり得る。幾つかの例では、動きベクトル予測ユニット43は、現在ブロックについての動きベクトルとは異なるビュー中の参照ピクチャを指す動きベクトル予測子を識別し得る。そのような場合、本開示の技法によれば、動きベクトル予測ユニット43は、2つのビュー(例えば、動きベクトル予測子によって指されたビューと現在動きベクトルによって指されたビューとの)間のカメラ位置の差に基づいて、動きベクトル予測子を基準化し得る。例えば、動きベクトル予測ユニット43は、2つのビュー間の差に従って視差動きベクトル予測子を基準化し得る。幾つかの例では、2つのビュー間の差は、ビューに関連するビュー識別子(view_id)間の差によって表され得る。
時間動きベクトル予測に関して、動きベクトル予測ユニット43は、現在ブロックについての動きベクトルを予測するために、現在ブロックとは異なるビュー中の候補ブロックから時間動きベクトル候補を識別し得る。例えば、動きベクトル予測ユニット43は、第1のビューの別の時間位置におけるピクチャ中のブロックを指す、第1のビュー中の時間動きベクトル予測子候補を識別し得る。本開示の態様によれば、動きベクトル予測ユニット43は、識別された時間動きベクトル予測子候補を使用して第2の異なるビュー中の現在ブロックに関連する動きベクトルを予測し得る。(動きベクトル予測子候補を含む)候補ブロック及び現在ブロックは、同一位置とされ得る。しかしながら、2つのビュー間の視差により、候補ブロックの相対位置が現在ブロックからオフセットされることがある。
本開示の態様によれば、動きベクトル予測ユニット43は、MVPインデックス(mvp_flag)及びMVDを生成し得るか、又はマージインデックス(merge_idx)を生成し得る。例えば、動きベクトル予測ユニット43は、MVP又はマージ候補のリストを生成し得る。本開示の態様によれば、MVP及び/又はマージ候補は、現在復号されているビデオブロックとは異なるビュー中にある1つ以上のビデオブロックを含む。
動き補償ユニット44によって実行される動き補償は、動き推定ユニット42によって決定された動きベクトル及び/又は動きベクトル予測ユニット43からの情報に基づいて、予測ブロックを取り込むこと又は生成することを含み得る。この場合も、動き推定ユニット42と、動きベクトル予測ユニット43と、動き補償ユニット44とは、幾つかの例では、機能的に統合され得る。現在ビデオブロックのPUについての動きベクトルを受信すると、動き補償ユニット44は、動きベクトルが参照ピクチャリストのうちの1つにおいてポイントする予測ブロックの位置を特定し得る。
加算器50は、以下で説明するように、コード化されている現在ビデオブロックの画素値から予測ブロックの画素値を減算し、画素差分値を形成することによって、残差ビデオブロックを形成する。概して、動き推定ユニット42はルーマ成分に対する動き推定を実行し、動き補償ユニット44はクロマ成分とルーマ成分の両方のためにルーマ成分に基づいて計算された動きベクトルを使用する。また、モード選択ユニット40は、ビデオスライスのビデオブロックを復号する際にビデオデコーダ30が使用するための、ビデオブロック及びビデオスライスに関連付けられたシンタックス要素を生成し得る。
イントラ予測ユニット46は、上記で説明したように、動き推定ユニット42と動き補償ユニット44とによって実行されるインター予測の代替として、現在ブロックをイントラ予測し得る。特に、イントラ予測ユニット46は、現在ブロックを符号化するために使用すべきイントラ予測モードを決定し得る。幾つかの例では、イントラ予測ユニット46は、例えば、別個の符号化パス中に、様々なイントラ予測モードを使用して現在ブロックを符号化し得、イントラ予測ユニット46(又は、幾つかの例では、モード選択ユニット40)は、テストされたモードから使用するのに適切なイントラ予測モードを選択し得る。
例えば、イントラ予測ユニット46は、様々なテストされたイントラ予測モードのためのレート歪み分析を使用してレート歪み値を計算し、テストされたモードの中で最良のレート歪み特性を有するイントラ予測モードを選択し得る。レート歪み分析は、概して、符号化されたブロックと、符号化されたブロックを生成するために符号化された元の符号化されていないブロックとの間の歪み(又は誤差)の量、及び符号化されたブロックを生成するために使用されたビットレート(即ち、ビット数)を決定する。イントラ予測ユニット46は、どのイントラ予測モードがブロックにとって最良のレート歪み値を呈するかを決定するために、様々な符号化されたブロックについての歪み及びレートから比を計算し得る。
ブロックのためにイントラ予測モードを選択した後に、イントラ予測ユニット46は、ブロックのための選択されたイントラ予測モードを示す情報をエントロピーコード化ユニット56に与え得る。エントロピーコード化ユニット56は、選択されたイントラ予測モードを示す情報を符号化し得る。ビデオエンコーダ20は、送信されたビットストリーム中に構成データを含み得、そのデータは複数のイントラ予測モードインデックステーブル及び複数の変更されたイントラ予測モードインデックステーブル(コードワードマッピングテーブルとも呼ばれる)と、様々なブロックのコンテキストを符号化する定義と、コンテキストの各々のために使用すべき最優勢イントラ予測モード、イントラ予測モードインデックステーブル、及び変更されたイントラ予測モードインデックステーブルの指示とを含み得る。
ビデオエンコーダ20は、コード化されている元のビデオブロックから、モード選択ユニット40からの予測データを減算することによって残差ビデオブロックを形成する。加算器50は、この減算演算を実行する1つ以上の構成要素を表す。変換処理ユニット52は、離散コサイン変換(DCT)又は概念的に同様の変換など、変換を残差ブロックに適用し、残差変換係数値を備えるビデオブロックを生成する。変換処理ユニット52は、概念的にDCTと同様である他の変換を実行し得る。ウェーブレット変換、整数変換、サブバンド変換又は他のタイプの変換も使用され得る。いずれの場合も、変換処理ユニット52は、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、残差情報を画素値領域から周波数領域などの変換領域に変換し得る。
変換処理ユニット52は、量子化ユニット54に得られた変換係数を送り得る。量子化ユニット54は、ビットレートを更に低減するために変換係数を量子化する。量子化プロセスは、係数の一部又は全部に関連するビット深度を低減し得る。量子化の程度は、量子化パラメータを調整することによって変更され得る。幾つかの例では、量子化ユニット54は、次いで、量子化された変換係数を含む行列の走査を実行し得る。代替的に、エントロピー符号化ユニット56が走査を実行し得る。
量子化の後、エントロピーコード化ユニット56が量子化変換係数をエントロピーコード化する。例えば、エントロピーコード化ユニット56は、コンテキスト適応型可変長コード化(CAVLC)、コンテキスト適応型バイナリ算術コード化(CABAC)、シンタックスベースコンテキスト適応型バイナリ算術コード化(SBAC)、確率間隔区分エントロピー(PIPE)コード化、又は別のエントロピーコード化技法を実行し得る。コンテキストベースのエントロピーコード化の場合、コンテキストは、隣接するブロックに基づき得る。エントロピーコード化ユニット56によるエントロピーコード化の後、符号化されたビットストリームは、別の機器(例えば、ビデオデコーダ30)に送信されるか、あるいは後の送信又は検索のためにアーカイブされ得る。
逆量子化ユニット58及び逆変換ユニット60は、それぞれ逆量子化及び逆変換を適用して、例えば参照ブロックとして後で使用するために、画素領域において残差ブロックを再構成する。動き補償ユニット44は、残差ブロックを参照ピクチャメモリ64のピクチャのうちの1つの予測ブロックに加算することによって参照ブロックを計算し得る。動き補償ユニット44はまた、再構成された残差ブロックに1つ以上の補間フィルタを適用して、動き推定において使用するサブ整数画素値を計算し得る。加算器62は、再構成された残差ブロックを、動き補償ユニット44によって生成された動き補償予測ブロックに加算して、参照ピクチャメモリ64に記憶するための再構成されたビデオブロックを生成する。再構成されたビデオブロックは、後続のピクチャ中のブロックをインターコード化するために動き推定ユニット42及び動き補償ユニット44によって参照ブロックとして使用され得る。
図3は、マルチビューコード化において動きベクトルを予測するための本開示で説明する技法を実施し得る例示的なビデオデコーダ30を示すブロック図である。図3の例では、ビデオデコーダ30は、エントロピー復号ユニット80と、予測ユニット81と、逆量子化ユニット86と、逆変換ユニット88と、加算器90と、参照ピクチャメモリ92とを含む。予測ユニット81は、動き補償ユニット82と、イントラ予測ユニット84とを含む。
復号プロセス中に、ビデオデコーダ30は、ビデオエンコーダ20から、符号化されたビデオスライスのビデオブロックと、関連するシンタックス要素とを表す符号化されたビデオビットストリームを受信する。ビデオデコーダ30のエントロピー復号ユニット80は、量子化係数、動きベクトル、及び他のシンタックス要素を生成するためにビットストリームをエントロピー復号する。エントロピー復号ユニット80は、予測ユニット81に動きベクトルと他のシンタックス要素とを転送する。ビデオデコーダ30は、ビデオスライスレベル及び/又はビデオブロックレベルでシンタックス要素を受信し得る。
例えば、背景として、ビデオデコーダ30は、ネットワークを介した、所謂「ネットワークアブストラクションレイヤユニット(network abstraction layer unit)」又はNALユニットへの送信のために圧縮された圧縮ビデオデータを受信し得る。各NALユニットは、NALユニットに記憶されるデータのタイプを識別するヘッダを含み得る。一般にNALユニットに記憶されるデータの2つのタイプがある。NALユニットに記憶されるデータの第1のタイプはビデオコード化レイヤ(VCL)データであり、これは圧縮ビデオデータを含む。NALユニットに記憶されるデータの第2のタイプは非VCLデータと呼ばれ、これは、多数のNALユニットに共通のヘッダデータを定義するパラメータセットなどの追加情報、及び補足エンハンスメント情報(SEI)を含む。
例えば、パラメータセットは、(例えば、シーケンスパラメータセット(SPS)中の)シーケンスレベルヘッダ情報と、(例えば、ピクチャパラメータセット(PPS)中の)まれに変化するピクチャレベルヘッダ情報とを含み得る。パラメータセット中に含まれている、まれに変化する情報は、シーケンス又はピクチャごとに繰り返される必要がなく、それによりコード化効率が改善される。更に、パラメータセットの使用はヘッダ情報の帯域外送信を可能にし、それにより誤り耐性のための冗長送信の必要が回避される。
ビデオスライスがイントラコード化された(I)スライスとしてコード化されるとき、予測ユニット81のイントラ予測ユニット84は、信号伝達されたイントラ予測モードと、現在ピクチャの、前に復号されたブロックからのデータとに基づいて、現在ビデオスライスのビデオブロックについての予測データを生成し得る。ピクチャがインターコード化された(即ちB、P又はGPB)スライスとしてコード化されるとき、予測ユニット81の動き補償ユニット82は、エントロピー復号ユニット80から受信した動きベクトルと他のシンタックス要素とに基づいて、現在ビデオスライスのビデオブロックの予測ブロックを生成する。予測ブロックは、参照ピクチャリストのうちの1つ内の参照ピクチャのうちの1つから生成され得る。ビデオデコーダ30は、参照ピクチャメモリ92に記憶された参照ピクチャに基づいて、デフォルト構成技法を使用して、参照ピクチャリスト、リスト0及びリスト1を構成し得る。
動き補償ユニット82は、動きベクトルと他のシンタックス要素とを解析することによって現在ビデオスライスのビデオブロックについての予測情報を決定し、予測情報を使用して、復号されている現在ビデオブロックのための予測ブロックを生成する。例えば、動き補償ユニット82は、ビデオスライスのビデオブロックをコード化するために使用される予測モード(例えば、イントラ又はインター予測)、インター予測スライスタイプ(例えば、Bスライス、Pスライス、又はGPBスライス)、スライスのための参照ピクチャリストの1つ又は複数についての構成情報、スライスのインター符号化されたビデオブロックごとの動きベクトル、スライスのインターコード化されたビデオブロックごとのインター予測状況、及び現在ビデオスライスにおけるビデオブロックを復号するための他の情報を決定するために、受信されたシンタックス要素の幾つかを使用する。幾つかの例では、動き補償ユニット82は、動きベクトル予測ユニット83からいくらかの動き情報を受信し得る。
本開示の態様によれば、動きベクトル予測ユニット83は、現在ブロックのための動き情報を取り出すべき場所を示す予測データを受信し得る。例えば、動きベクトル予測ユニット83は、MVPインデックス(mvp_flag)、MVD、マージフラグ(merge_flag)、及び/又はマージインデックス(merge_idx)などの動きベクトル予測情報を受信し、そのような情報を使用して、現在ブロックを予測するために使用される動き情報を識別し得る。即ち、ビデオエンコーダ20に関して上述したように、本開示の態様によれば、動きベクトル予測ユニット83は、MVPインデックス(mvp_flag)及びMVDを受信し得、そのような情報を使用して、現在ブロックを予測するために使用される動きベクトルを決定し得る。動きベクトル予測ユニット83は、MVP又はマージ候補のリストを生成し得る。本開示の態様によれば、MVP及び/又はマージ候補は、現在復号されているビデオブロックとは異なるビュー中にある1つ以上のビデオブロックを含み得る。
動きベクトル予測ユニット83は、MVP又はマージインデックスを使用して、現在ブロックの動きベクトルを予測するために使用される動き情報を識別し得る。即ち、例えば、動きベクトル予測ユニット83は、MVPインデックス(mvp_flag)を使用して参照ピクチャのリストからMVPを識別し得る。動きベクトル予測ユニット83は、現在ブロックについての動きベクトルを決定するために、識別されたMVPを受信したMVDと組み合わせ得る。他の例では、動きベクトル予測ユニット83は、現在ブロックについての動き情報を決定するために、マージインデックス(merge_idx)を使用して参照ピクチャのリストからマージ候補を識別し得る。いずれの場合も、現在ブロックについての動き情報を決定した後に、動きベクトル予測ユニット83は、現在ブロックのための予測ブロックを生成し得る。
本開示の態様によれば、動きベクトル予測ユニット83は、マルチビューコード化において、動きベクトル予測子を決定し得る。例えば、動きベクトル予測ユニット83は、現在ブロックとは異なるビューコンポーネント中のブロックから視差動きベクトルを指定する情報を受信し得、その情報は、現在ブロックについての動きベクトルを予測するために使用される。他の例では、動きベクトル予測ユニット83は、現在ブロックとは異なるビューコンポーネント中のブロックから時間動きベクトルを識別する情報を受信し得、その情報は現在ブロックについての動きベクトルを予測するために使用される。
視差動きベクトル予測に関して、動きベクトル予測ユニット83は、候補ブロックから現在ブロックについての視差動きベクトルを予測し得る。候補ブロックは、(例えば、候補ブロックに空間的に隣接する)現在ブロックと同じピクチャ中にあり得、又は現在ブロックと同じビュー内の別のピクチャ中にあり得る。候補ブロックはまた、異なるビューのピクチャ中にあるが、現在ブロックと同じタイムインスタンス中にあり得る。
例えば、MVP又はマージモードのいずれかに関して、予測されるべき現在ブロックの視差動きベクトル「A」のターゲットピクチャ及び参照ピクチャは知られている(以前に決定された)。説明のために、候補ブロックからの動きベクトルは「B」であると仮定する。本開示の態様によれば、動きベクトルBが視差動きベクトルでない場合、動きベクトル予測ユニット83は、候補ブロックを利用不可能である(例えば、動きベクトルAを予測するために利用可能でない)と見なし得る。即ち、動きベクトル予測ユニット83は、動きベクトル予測のために候補ブロックを使用する能力を無効化し得る。
動きベクトルBが視差動きベクトルであり、動きベクトルBの参照ピクチャが視差動きベクトルAの参照ピクチャのビューと同じビューに属し、動きベクトルBのターゲットピクチャが視差動きベクトルAのターゲットピクチャと同じビューに属する場合、動きベクトル予測ユニット83は、ベクトルAの候補予測子として直接動きベクトルBを使用し得る。そうでない場合、動きベクトル予測ユニット83は、視差動きベクトルBが動きベクトルAの候補予測子として使用され得る前に視差動きベクトルBを基準化し得る。そのような場合、本開示の技法によれば、動きベクトル予測ユニット83は、動きベクトルAのビュー距離と動きベクトルBのビュー距離とに基づいて視差動きベクトルを基準化し得る。例えば、動きベクトル予測ユニット83は、動きベクトルBのビュー距離で除算された動きベクトルAのビュー距離に等しい基準化ファクタによって、視差動きベクトルBを基準化し得る。幾つかの例では、動きベクトル予測ユニット83は、参照ピクチャ及びターゲットピクチャのビュー識別子を使用してそのような基準化を実行し得る。
時間動きベクトル予測に関して、動きベクトル予測ユニット83は、現在ブロックのビューとは異なるビュー中の候補ブロックから現在ブロックについての時間動きベクトルを予測し得る。例えば、動きベクトル予測ユニット83は、第1のビュー中にターゲットピクチャを有する時間動きベクトル予測子候補を識別し、第1のビューの別の時間位置における参照ピクチャ中のブロックを指し得る。本開示の態様によれば、動きベクトル予測ユニット83は、識別された時間動きベクトル予測子候補を使用して第2の異なるビュー中の現在ブロックに関連する動きベクトルを予測し得る。
例えば、MVP又はマージモードのいずれかに関して、予測されるべき現在ブロックの時間動きベクトル「A」のターゲットピクチャ及び参照ピクチャは知られている(以前に決定された)。説明のために、候補ブロックからの動きベクトルは「B」であると仮定する。本開示の態様によれば、候補ブロックからの動きベクトルBが時間動きベクトルでない場合、動きベクトル予測ユニット83は、候補ブロックを利用不可能である(例えば、動きベクトルAを予測するために利用可能でない)と見なし得る。即ち、幾つかの例では、動きベクトル予測ユニット83は、動きベクトル予測のために候補ブロックを使用する能力を無効化し得る。
動きベクトルBが時間動きベクトルであり、動きベクトルBの参照ピクチャのPOCが動きベクトルAの参照ピクチャと同じであり、動きベクトルBのターゲットピクチャのPOCが動きベクトルBのターゲットピクチャと同じである場合、動きベクトル予測ユニット83は、動きベクトルAの候補予測子として直接動きベクトルBを使用し得る。そうでない場合、動きベクトル予測ユニット83は、時間距離に基づいて時間動きベクトルBを基準化し得る。(動きベクトル予測子候補を含む)候補ブロックと、現在ブロックとは、異なるビュー中にコロケートされ得る。しかしながら、2つのビュー間の視差により、候補ブロックの相対位置が現在ブロックからオフセットされることがある。
逆量子化ユニット86は、ビットストリーム中で与えられ、エントロピー復号ユニット80によって復号された、量子化変換係数を逆量子化(inverse quantize)、即ち、逆量子化(de-quantize)する。逆量子化プロセスは、各ビデオブロックについてビデオエンコーダ20によって計算される量子化パラメータを使用して量子化の程度を決定し、同様に、適用すべき逆量子化の程度を決定することを含み得る。
逆変換ユニット88は、画素領域において残差ブロックを生成するために、逆変換、例えば逆DCT、逆整数変換、又は概念的に同様の逆変換プロセスを変換係数に適用する。本開示の態様によれば、逆変換ユニット88は、変換が残差データに適用された方法を決定し得る。即ち、例えば、逆変換ユニット88は、変換(例えば、DCT、整数変換、ウェーブレット変換、又は1つ以上の他の変換)が、受信したビデオデータのブロックに関連する残差ルーマサンプルと残差クロマサンプルとに適用された方法を表すRQTを決定し得る。
動き補償ユニット82が、動きベクトルと他のシンタックス要素とに基づいて現在ビデオブロックのための予測ブロックを生成した後、ビデオデコーダ30は、逆変換ユニット88からの残差ブロックを動き補償ユニット82によって生成された対応する予測ブロックと加算することによって、復号されたビデオブロックを形成する。加算器90は、この加算演算を実行する1つ以上の構成要素を表す。必要に応じて、ブロック歪み(blockiness artifacts)を除去するために、デブロッキングフィルタを適用して復号ブロックをフィルタ処理し得る。画素遷移を平滑化するために、又は場合によってはビデオ品質を改善するために、他のループフィルタが(コード化ループ中又はコード化ループ後のいずれかで)使用され得る。次いで、所与のピクチャ中の復号されたビデオブロックは、その後の動き補償に使用される参照ピクチャを記憶する参照ピクチャメモリ92に記憶される。参照ピクチャメモリ92はまた、図1の表示装置32などの表示装置上での後の表示のための、復号されたビデオを記憶する。
図4は、例示的なMVC予測パターンを示す概念図である。図4の例では、8つのビューが示され、各ビューについて12個の時間位置が示されている。概して、図4中の各行はビューに対応し、各列は時間位置を示す。ビューの各々は、他のビューに対する相対的なカメラ位置を示すために使用され得るビュー識別子(「view_id」)を使用して識別され得る。図4に示す例では、ビューIDは「S0」〜「S7」として示されているが、数字のビューIDも使用され得る。更に、時間位置の各々は、ピクチャの表示順序を示すピクチャ順序カウント(POC)値を使用して識別され得る。図4に示す例では、POC値は「T0」〜「T11」として示されている。
MVCは、H.264/AVCデコーダによって復号可能である所謂ベースビューを有し、ステレオビューペアがMVCによってサポートされ得るが、MVCは、3Dビデオ入力として3つ以上のビューをサポートし得る。従って、MVCデコーダを有するクライアントのレンダラ(renderer)は、複数のビューを用いて3Dビデオコンテンツを予想し得る。
図4中のピクチャは、対応するピクチャがイントラコード化される(即ち、Iフレームである)のか、又は一方向に(即ち、Pフレームとして)インターコード化されるのか、複数の方向に(即ち、Bフレームとして)インターコード化されるのかを指定する、文字を含む影付きブロックを使用して示される。概して、予測は矢印によって示され、ここで矢印の終点のピクチャは、予測参照のために矢印の始点の被写体を使用する。例えば、時間位置T0におけるビューS2のPフレームは、時間位置T0におけるビューS0のIフレームから予測される。
シングルビュービデオ符号化の場合と同様に、マルチビュービデオシーケンスのピクチャは、異なる時間位置におけるピクチャに関して予測符号化され得る。例えば、時間位置T1におけるビューS0のbフレームは、時間位置T0におけるビューS0のIフレームからそのbフレームに向けられた矢印を有し、その矢印は、bフレームがIフレームから予測されることを示す。しかしながら、更に、マルチビュービデオ符号化のコンテキストにおいて、ピクチャはビュー間予測され得る。即ち、ビューコンポーネントは、参照のために他のビュー中のビューコンポーネントを使用することができる。MVCでは、例えば、別のビュー中のビューコンポーネントがインター予測参照であるかのように、ビュー間予測が実現される。潜在的なビュー間参照は、シーケンスパラメータセット(SPS)MVC拡張において信号伝達され得、インター予測又はビュー間予測参照のフレキシブルな順序付けを可能にする参照ピクチャリスト構成プロセスによって変更され得る。
図4は、ビュー間予測の様々な例を与える。図4の例では、ビューS1のピクチャは、ビューS1の異なる時間位置におけるピクチャから予測されるものとして、及び同じ時間位置におけるビューS0及びS2のピクチャのうちのピクチャからビュー間予測されるものとして示されている。例えば、時間位置T1におけるビューS1のbフレームは、時間位置T0及びT2におけるビューS1のBフレームの各々、並びに時間位置T1におけるビューS0及びS2のbフレームから予測される。
図4の例では、大文字の「B」及び小文字の「b」は、異なる符号化方法ではなく、ピクチャ間の異なる階層関係を示すものとする。概して、大文字の「B」フレームは、小文字の「b」フレームよりも予測階層が比較的高い。図4はまた、異なるレベルの陰影を使用して予測階層の変形体を示し、より大きい量の陰影の(即ち、比較的より暗い)ピクチャは、より少ない陰影を有する(即ち、比較的より明るい)それらのピクチャよりも予測階層が高い。例えば、図4中の全てのIフレームは、完全陰影を用いて示されるが、Pフレームは、いくぶんより明るい陰影を有し、Bフレーム(及び小文字のbフレーム)は、互いに様々なレベルの陰影を有するが、Pフレーム及びIフレームの陰影よりも常に明るい。
概して、階層が比較的高いそれらのピクチャが、階層が比較的低いピクチャの復号中に参照ピクチャとして使用され得るように、予測階層が比較的高いピクチャは、階層が比較的低いピクチャを復号する前に復号されるべきであるという点で、予測階層はビュー順序インデックスに関係する。ビュー順序インデックスは、アクセスユニット中のビューコンポーネントの復号順序を示すインデックスである。ビュー順序インデックスは、SPSなど、パラメータセット中で暗示され得ない。
このようにして、参照ピクチャとして使用されるピクチャは、その参照ピクチャを参照して符号化されたピクチャを復号する前に復号され得る。ビュー順序インデックスは、アクセスユニット中のビューコンポーネントの復号順序を示すインデックスである。各ビュー順序インデックスiについて、対応するview_idが信号伝達される。ビューコンポーネントの復号は、ビュー順序インデックスの昇順に従う。全てのビューが提示された場合、ビュー順序インデックスのセットは、0からビューの全数よりも1つ少ない数までの連続的な順序付きセットを備える。
MVCでは、全ビットストリームのサブセットが抽出されて、依然としてMVCに準拠するサブビットストリームが形成され得る。例えば、サーバによって与えられるサービス、1つ以上のクライアントのデコーダの容量、サポート、及び能力、及び/又は1つ以上のクライアントの選好に基づいて、特定の適用例が必要とし得る、多くの可能なサブビットストリームがある。例えば、あるクライアントが3つのビューのみを必要とし得、2つのシナリオがあり得る。一例では、あるクライアントは、滑らかな視聴体験(viewing experience)を必要とし、view_id値S0、S1、及びS2のビューを選好し得、別の他のクライアントは、ビュースケーラビリティを必要とし、view_id値S0、S2、及びS4のビューを選好し得る。これらのサブビットストリームの両方が、独立したMVCビットストリームとして復号され、同時にサポートされ得ることに留意されたい。
図5は、(マージモードを含む)動きベクトル予測を実行するときに潜在的な動きベクトル予測子候補を示すブロック図である。即ち、現在コード化されているブロック100について、隣接ブロックA0、A1、B0、B1、及びB2からの動き情報(例えば、水平成分と垂直成分とを備える動きベクトル、動きベクトルインデックス、予測方向、又は他の情報)が、ブロック100についての動き情報を予測するために使用され得る。更に、コロケートブロックCOLに関連する動き情報も、ブロック100についての動き情報を予測するために使用され得る。隣接ブロックA0、A1、B0、B1、B2及び同一位置のブロックCOLを、動きベクトル予測のコンテキストにおいて、概して、以下動きベクトル予測子候補と呼ぶ。
幾つかの例では、図5に示す動きベクトル予測子候補は、動きベクトル予測を実行する(例えば、MVDを生成するかマージモードを実行する)ときに識別され得る。他の例では、マージモード及び動きベクトル予測を実行するときに、異なる候補が識別され得る。即ち、ビデオコーダは、動きベクトル予測を実行するためのものとは異なる、マージモードを実行するための動きベクトル予測子候補のセットを識別し得る。
マージモードを実行するために、一例では、ビデオエンコーダ(ビデオエンコーダ20など)は、初めに、動きベクトル予測子候補からのどの動きベクトルがブロック100とマージするために利用可能であるかを決定し得る。即ち、幾つかの事例では、例えば、動きベクトル予測子候補がイントラコード化されているか、コード化されていないか、又は存在しない(例えば、動きベクトル予測子候補のうちの1つ以上が別のピクチャ又はスライス中にある)ために、動きベクトル予測子候補のうちの1つ以上からの動き情報が利用不可能であり得る。ビデオエンコーダ20は、利用可能な動きベクトル予測子候補ブロックの各々を含む動きベクトル予測子候補リストを構成し得る。
候補リストを構成した後に、ビデオエンコーダ20は、現在ブロック100についての動きベクトルとして使用されるべき動きベクトルを候補リストから選択し得る。幾つかの例では、ビデオエンコーダ20は、ブロック100についての動きベクトルに最もよく一致する動きベクトルを候補リストから選択し得る。即ち、ビデオエンコーダ20は、レート歪み分析に従って動きベクトルを候補リストから選択し得る。
ビデオエンコーダ20は、ブロック100がマージモードを使用して符号化されるという指示を与え得る。例えば、ビデオエンコーダ20は、ブロック100についての動きベクトルがマージモードを使用して予測されることを示すフラグ又は他のシンタックス要素を設定し得る。一例では、ビデオエンコーダ20は、merge_flag[x0][y0]を設定することによって、ブロック100についてのインター予測パラメータが動きベクトル予測子候補から推測されることを示し得る。この例では、アレイインデックスx0、y0は、ピクチャ(又はスライス)の左上ルーマサンプルに対する予測ブロックの左上ルーマサンプルの位置(x0,y0)を指定し得る。
更に、幾つかの例では、ビデオエンコーダ20は、ブロック100がそれの動きベクトルをそこから継承するマージング候補を識別するインデックスを与え得る。例えば、merge_idx[x0][y0]は、マージング候補リスト中のピクチャを識別するマージング候補インデックスを指定し得、x0、y0は、ピクチャ(又はスライス)の左上ルーマサンプルに対する予測ブロックの左上ルーマサンプルの位置(x0,y0)を指定する。
(ビデオデコーダ30などの)ビデオデコーダは、ブロック100を復号するときに適切なマージ候補を識別するために同様のステップを実行し得る。例えば、ビデオデコーダ30は、ブロック100がマージモードを使用して予測されるという指示を受信し得る。一例では、ビデオデコーダ30は、merge_flag[x0][y0]を受信し得、(x0,y0)は、ピクチャ(又はスライス)の左上ルーマサンプルに対する予測ブロックの左上ルーマサンプルの位置を指定する。
更に、ビデオデコーダ30はマージ候補リストを構成し得る。例えば、ビデオデコーダ30は、動きベクトル予測のために利用可能なビデオブロックを示す1つ以上のシンタックス要素(例えば、フラグ)を受信し得る。ビデオデコーダ30は、受信したフラグに基づいてマージ候補リストを構成し得る。幾つかの例によれば、ビデオデコーダ30は、以下のシーケンスに従ってマージ候補リスト(例えば、mergeCandList)を構成し得る。
1 availableFlagA1が1に等しい場合、A1
2 availableFlagB1が1に等しい場合、B1
3 availableFlagB0が1に等しい場合、B0
4 availableFlagA0が1に等しい場合、A0
5 availableFlagB2が1に等しい場合、B2
6 availableFlagColが1に等しい場合、Col
幾つかのマージング候補が同じ動きベクトルと同じ参照インデックスとを有する場合、マージング候補はリストから削除され得る。
ビデオデコーダ30は、受信したインデックスに従って適切なマージ候補を識別し得る。例えば、ビデオデコーダ30は、ブロック100がそれの動きベクトルをそこから引き継ぐマージング候補を識別するインデックスを受信し得る。一例では、merge_idx[x0][y0]は、マージング候補リスト中のピクチャを識別するマージング候補インデックスを指定し得、x0、y0は、ピクチャ(又はスライス)の左上ルーマサンプルに対する予測ブロックの左上ルーマサンプルの位置(x0,y0)を指定する。
幾つかの例では、ビデオデコーダ30は、ブロック100に候補ブロックの動き情報をマージする前に、動きベクトル予測子を基準化し得る。例えば、時間動きベクトル予測子に関して、動きベクトル予測子が、ブロック100によって参照された予測ブロックとは異なる時間位置にある参照ピクチャ中の予測ブロックを指す場合(例えば、ブロック100についての実際の動きベクトル)、ビデオデコーダ30は、動きベクトル予測子を基準化し得る。例えば、ビデオデコーダ30は、動きベクトル予測子がブロック100のための参照ピクチャと同じ参照ピクチャを指すように動きベクトル予測子を基準化し得る。幾つかの例では、ビデオデコーダ30は、ピクチャ順序カウント(POC)値における差に従って動きベクトル予測子を基準化し得る。即ち、ビデオデコーダ30は、候補ブロックと動きベクトル予測子によって指される予測ブロックとの間のPOC距離と、ブロック100と(例えば、ブロック100についての実際の動きベクトルによって指される)現在参照ピクチャとの間のPOC距離との差に基づいて、動きベクトル予測子を基準化し得る。適切な動きベクトル予測子を選択した後に、ビデオデコーダ30は、動きベクトル予測子に関連する動き情報をブロック100についての動き情報にマージし得る。
ビデオデータの現在ブロックについての動きベクトル予測を実行するために、同様のプロセスがビデオエンコーダ20及びビデオデコーダ30によって実施され得る。例えば、ビデオエンコーダ20は、初めに、動きベクトル予測子候補からのどの動きベクトルがMVPとして使用されるために利用可能であるかを決定し得る。例えば、動きベクトル予測子候補がイントラコード化されているか、まだコード化されていないか、存在しないために、動きベクトル予測子候補のうちの1つ以上からの動き情報が利用不可能であり得る。
動きベクトル予測子候補のうちのどれが利用可能であるかを決定するために、ビデオエンコーダ20は、次に所定の優先度ベースの方式に従って動きベクトル予測子候補の各々を分析し得る。例えば、各動きベクトル予測子候補について、ビデオエンコーダ20は、動きベクトル予測子がブロック100についての実際の動きベクトルと同じ参照ピクチャを指すかどうかを決定し得る。動きベクトル予測子が同じ参照ピクチャを指す場合、ビデオエンコーダ20は、MVP候補リストに動きベクトル予測子候補を追加し得る。動きベクトル予測子が同じ参照ピクチャを指さない場合、動きベクトル予測子は、MVP候補リストに追加される前に基準化され得る(例えば、上記で説明したように、POC距離に基づいて基準化され得る)。
同一位置のブロックCOLに関して、同一位置のブロックが2つ以上の動きベクトル予測子を含む(例えば、COLがBフレームとして予測される)場合、ビデオエンコーダ20は、(ブロック100のための)現在リストと現在参照ピクチャとに従って時間動きベクトル予測子のうちの1つを選択し得る。次いで、ビデオエンコーダ20は、選択された時間動きベクトル予測子を動きベクトル予測子候補リストに追加し得る。
ビデオエンコーダ20は、enable_temporal_mvp_flagを設定することによって、1つ以上の動きベクトル予測子が利用可能であることを信号伝達し得る。候補リストを構築した後に、ビデオエンコーダ20は、ブロック100についての動きベクトル予測子として使用されるべき動きベクトルを候補から選択し得る。幾つかの例では、ビデオエンコーダ20は、レート歪み分析に従って候補動きベクトルを選択し得る。
ビデオエンコーダ20は、候補リスト中のMVPを識別するMVPインデックス(mvp_flag)を使用して、選択された動きベクトル予測子を信号伝達し得る。例えば、ビデオエンコーダ20は、リスト0の動きベクトル予測子インデックスを指定するためにmvp_l0_flag[x0][y0]を設定し得、x0、y0は、ピクチャの左上ルーマサンプルに対する候補ブロックの左上ルーマサンプルの位置(x0,y0)を指定する。別の例では、ビデオエンコーダ20は、リスト1の動きベクトル予測子インデックスを指定するためにmvp_l1_flag[x0][y0]を設定し得、x0、y0は、ピクチャの左上ルーマサンプルに対する候補ブロックの左上ルーマサンプルの位置(x0,y0)を指定する。更に別の例では、ビデオエンコーダ20は、リストcの動きベクトル予測子インデックスを指定するためにmvp_lc_flag[x0][y0]を設定し得、x0、y0は、ピクチャの左上ルーマサンプルに対する候補ブロックの左上ルーマサンプルの位置(x0,y0)を指定する。
ビデオエンコーダ20はまた、動きベクトル差分値(MVD)を生成し得る。MVDは、選択された動きベクトル予測子とブロック100についての実際の動きベクトルとの間の差を構成し得る。ビデオエンコーダ20は、MVPインデックスを用いてMVDを信号伝達し得る。
ビデオデコーダ30は、動きベクトル予測子を使用して、現在ブロックについての動きベクトルを決定するために同様の動作を実行し得る。例えば、ビデオデコーダ30は、動きベクトル予測が1つ以上のピクチャのために使用可能であることを示す指示をパラメータセット(例えば、ピクチャパラメータセット(PPS))中で受信し得る。即ち、一例では、ビデオデコーダ30は、PPS中でenable_temporal_mvp_flagを受信し得る。特定のピクチャが、0に等しいenable_temporal_mvp_flagを有するPPSを参照するとき、参照ピクチャメモリ中の参照ピクチャは「時間動きベクトル予測のために未使用」としてマークされ得る。
動きベクトル予測が実施される場合、ブロック100を受信すると、ビデオデコーダ30はMVP候補リストを構成し得る。ビデオデコーダ30は、ビデオエンコーダ20に関して上述した方式と同じ方式を使用してMVP候補リストを構成し得る。幾つかの事例では、ビデオデコーダ30は、ビデオエンコーダ20に関して上述したものと同様の動きベクトル基準化を実行し得る。例えば、動きベクトル予測子がブロック100と同じ参照ピクチャを指さない場合、動きベクトル予測子は、MVP候補リストに追加される前に基準化され得る(例えば、上記で説明したように、POC距離に基づいて基準化され得る)。ビデオデコーダ30は、候補リスト中のMVPを識別する受信したMVPインデックス(mvp_flag)を使用して、ブロック100のための適切な動きベクトル予測子を識別し得る。次いで、ビデオデコーダ30は、MVPと受信したMVDとを使用してブロック100についての動きベクトルを生成し得る。
図5に、概して、シングルビューにおけるマージモードと動きベクトル予測とを示す。図5に示す動きベクトル予測子候補ブロックは単に例として与えたものにすぎず、より多い、より少ない、又は異なるブロックが動き情報を予測するために使用され得ることを理解されたい。本開示の態様によれば、以下で説明するように、マージモード及び動きベクトル予測はまた、(MVCにおいてなど)2つ以上のビューがコード化されるときに適用され得る。そのような場合、動きベクトル予測子及び予測ブロックは、ブロック100とは異なるビュー中にあり得る。
図6は、マルチビューコード化において動きベクトル予測子を生成及び基準化することを示す概念図である。例えば、本開示の態様によれば、ビデオコーダ(ビデオエンコーダ20又はビデオデコーダ30など)は、現在ブロック126についての動きベクトル予測子124(mv’)を生成するために、視差動きベクトル予測子候補ブロック122(「候補ブロック」)からの視差動きベクトル120(mv)を基準化し得る。図6についてビデオデコーダ30に関して説明するが、本開示の技法は、他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)などのハードウェアベースのコード化ユニットなどを含む様々な他のビデオコーダによって行われ得ることを理解されたい。
図6の例では、候補ブロック122は、ビューコンポーネント2(view_id 2)中で現在ブロック126に空間的に隣接する。候補ブロック122は、インター予測され、ビューコンポーネント0(view_id 0)中の予測ブロックを参照する(又は「指し示す」)動きベクトル120を含む。例えば、動きベクトル120は、ビュー2(view_id 2)中のターゲットピクチャと、ビュー0(view_id 0)中の参照ピクチャとを有する。現在ブロック126も、インター予測され、ビューコンポーネント1(view_id 1)中の予測ブロックを指す実際の動きベクトル(図示せず)を含む。即ち、例えば、現在ブロック126についての実際の動きベクトルは、ビュー2(view_id 2)中のターゲットピクチャと、ビュー1(view_id 1)中の参照ブロックとを有する。
本開示の態様によれば、ビデオデコーダ30は、動きベクトル120の基準化されたバージョンを使用して現在ブロック126についての動きベクトル予測子124を生成し得る。例えば、ビデオデコーダ30は、動きベクトル120と現在ブロック126についての実際の動きベクトルとの間のビュー距離の差に基づいて動きベクトル120を基準化し得る。即ち、ビデオデコーダ30は、候補ブロック122のための(参照ピクチャ中の)予測ブロックと、現在ブロック126のための(参照ピクチャ中の)予測ブロックとを撮影するために使用されたカメラのカメラ位置の差に基づいて動きベクトル120を基準化し得る。従って、ビデオデコーダ30は、候補ブロック122についての動きベクトル120によって指し示されたビューコンポーネントと、現在ブロック126についての実際の動きベクトルによって指し示されたビューコンポーネントとの差に応じて、視差動きベクトル120(例えば、予測のために使用されている動きベクトル)を基準化し得る。
一例では、ビデオデコーダ30は、以下に示す式(1)に従って、現在ブロックについての基準化された動きベクトル予測子を生成し得る。
式中、ViewDistance(mv)は、動きベクトル120の参照ピクチャのビューID(例えば、ViewId(RefPic(mv))と、動きベクトル120のターゲットピクチャのビューID(例えば、ViewId(TargetPic(mv))との間の差に等しく、ViewDistance(mv’)は、動きベクトル予測子124の参照ピクチャのビューID(例えば、ViewId(RefPic(mv’))と、動きベクトル予測子124のターゲットピクチャのビューID(例えば、ViewId(TargetPic(mv’))との間の差に等しい。従って、この例では、動きベクトル予測子124の参照ピクチャ、RefPic(mv’)は新しいターゲットビューに属し、動きベクトル予測子124のターゲットピクチャ、TargetPic(mv’)は現在ビューに属する。同様に、動きベクトル120の参照ピクチャ、RefPic(mv)は候補動きベクトルが指すビューに属し、動きベクトル120のターゲットピクチャ、TargetPic(mv)は現在ビューに属する。従って、ビデオデコーダ30は、以下の式(2)に従って、基準化された動きベクトル予測子を生成し得る。
式中、mv’は現在ブロックについての基準化された動きベクトル予測子を表し、mvは候補ブロックについての動きベクトルを表し、ViewID(NewTarget)は現在ブロックについての実際の動きベクトルによって指されたビューコンポーネントであり、ViewID(Current)は現在ブロックのビューコンポーネントであり、ViewID(Candidate)は候補ブロックのビューコンポーネントである。式(2)を図6の例に適用すると、mv’は現在ブロック126についての基準化された動きベクトル予測子を表し、mvは動きベクトル120を表し、ViewID(NewTarget)は動きベクトル124によって指されたビューコンポーネントであり、ViewID(Current)は現在ブロック126のビューコンポーネントであり、ViewID(Candidate)は候補ブロック122のビューコンポーネントである。従って、図4に示す例では、動きベクトル予測子124は、1/2倍に基準化された動きベクトル120である(例えば、
)。即ち、ビデオデコーダ30は、現在ブロック126についての動きベクトル予測子124を生成するために、動きベクトル120の水平変位成分と垂直変位成分の両方を1/2倍だけ基準化し得る。
図6に関して説明する動きベクトル基準化は、マージすることと動きベクトル予測との両方のために実行され得る。即ち、例えば、ビデオデコーダ30は、現在ブロック126についての動き情報に動きベクトル120をマージする前に動きベクトル120を基準化し得る。別の例では、ビデオデコーダ30は、動きベクトル予測子124と現在ブロック126についての実際の動きベクトルとの間の差に応じて、動きベクトル差分値(MVD)を計算する前に動きベクトル120を基準化し得る。
図6の例に示すように、候補ブロック122と現在ブロック126とは同じビューコンポーネント中にあり得る。しかしながら、他の例では、図7及び図8に関してより詳細に説明するように、候補ブロックは、現在ブロックとは異なるビューコンポーネント中にあり得る。
図7は、動きベクトル予測子を生成及び基準化することを示す別の概念図である。例えば、本開示の態様によれば、ビデオコーダ(ビデオエンコーダ20又はビデオデコーダ30など)は、現在ブロック136(x,y)についての動きベクトル予測子134(mv’)を生成するために、視差動きベクトル予測子候補ブロック132(x’,y’)からの視差動きベクトル130(mv)を基準化し得、候補ブロック132は現在ブロック136とは異なるビューコンポーネントに属する。従って、図7に関して図示及び説明するプロセスは、概して、ビュー間視差動きベクトル予測と呼ばれることがある。図7についてビデオデコーダ30に関して説明するが、本開示の技法は、他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)などのハードウェアベースのコード化ユニットなどを含む様々な他のビデオコーダによって行われ得ることを理解されたい。
図7に示す例では、候補ブロック132はビューコンポーネント1(view_id 1)中にある。候補ブロック132は、インター予測され、ビューコンポーネント0(view_id 0)中の予測ブロックを指す動きベクトル130(mv)を含む。例えば、動きベクトル130は、ビュー1(view_id 1)中のターゲットピクチャと、ビュー0(view_id 0)中の参照ピクチャとを有する。現在ブロック136は、候補ブロック132とコロケートされ、ビューコンポーネント2(view_id 2)中にある。以下でより詳細に説明するように、幾つかの例では、現在ブロック136は、第1の参照ビュー(view_id 1)中のブロックを識別する実際の動きベクトル(図示せず)を含み得る。即ち、例えば、現在ブロック136についての実際の動きベクトルは、ビュー2(view_id 2)中のターゲットピクチャを有し、ビュー1(view_id 1)中の参照ブロックを有し得る。他の例では、現在ブロックは、第2の参照ビュー(view_id 0)中のブロックを識別する実際の動きベクトルを含み得る。即ち、例えば、現在ブロック136についての実際の動きベクトルは、ビュー2(view_id 2)中のターゲットピクチャを有し、ビュー0(view_id 0)中の参照ブロックを有し得る。従って、動きベクトル予測子134(mv’)は、第1の参照ビュー(view_id 1)中のブロックを指し得る。別の例では、第2の動きベクトル予測子138(mv’’)は、第2の参照ビュー(view_id 0)中のブロックを指し得る。
幾つかの例では、第2の動きベクトル予測子138が動きベクトル予測のために利用可能でないことがある。例えば、第2の動きベクトル予測子138は、第2の参照ビュー中の予測ブロックが直接ビュー間予測のために利用可能である場合のみ生成され得る。第2の参照ビュー中の予測ブロックの利用可能性は、例えば、(シーケンスパラメータセット(SPS)又はピクチャパラメータセット(PPS)などの)パラメータセット又は現在ブロック136に関連するスライスヘッダ中で指定され得る。
本開示の態様によれば、ビデオデコーダは、マージモードを使用して、又は動きベクトル予測を使用して、ビュー間視差動きベクトル予測を実行し得る。マージモードに関して、ビデオデコーダ30は、初めに、現在ブロック136についての「ターゲットビュー」を選択し得る。概して、ターゲットビューは、現在ブロック136のための予測ブロックを含む。幾つかの例では、ターゲットビューは、(view_id 1として図7に示す)第1の参照ビューであり得る。他の例では、ターゲットビューは、(view_id 0として図7に示す)第2の参照ビューであり得る。しかしながら、上述のように、幾つかの例では、ビュー間予測のために使用されるために第2の参照ビュー中の予測ブロックが利用可能である場合、第2の参照ビューはターゲットビューとしてのみ使用され得る。
幾つかの例では、ビデオデコーダ30は、第1の参照ビューをターゲットビューとして選択し得る。他の例では、ビデオデコーダ30は、利用可能なとき、第2の参照ビューをターゲットビューとして選択し得る。ターゲットビューの選択は、例えば、予測ブロック及び/又は所定の選択アルゴリズムの利用可能性に基づいて決定され得る。現在ブロック136の参照インデックス(ref_idx)は、現在ブロック136の参照ピクチャリストに追加されるターゲットビューの予測ブロックを含んでいるピクチャのインデックスに対応する。
ターゲットビューを選択した後に、ビデオデコーダ30は、候補ブロック132の位置を特定し得る。一例では、説明のために、現在ブロック136の左上ルーマサンプルが座標(x,y)のピクチャ(又はスライス)中にあると仮定する。ビデオデコーダ30は、候補ブロック132についてのビューコンポーネント1中の同一位置の座標を決定し得る。更に、幾つかの例では、ビデオデコーダ30は、現在ブロック136のビューコンポーネント(ビューコンポーネント2)と候補ブロック132のビューコンポーネント(ビューコンポーネント1)との間の視差に基づいて、座標を調整し得る。従って、ビデオデコーダ30は、候補ブロック132の座標を(x’,y’)として決定し得、(x’,y’)=(x,y)+視差である。幾つかの例では、視差は、SPS、PPS、スライスヘッダ、CUシンタックス、及び/又はPUシンタックス中に含まれ及び/又は計算され得る。
候補ブロック132の位置を特定した後に、ビデオデコーダ30は、動きベクトル130と現在ブロック136についての実際の動きベクトルとの間のビュー距離の差に基づいて、候補ブロック132についての動きベクトル130を基準化し得る。即ち、ビデオデコーダ30は、候補ブロック132のための予測ブロックと、現在ブロック136のための予測ブロック(例えば、ターゲットビュー中の予測ブロック)とを撮影するために使用されたカメラのカメラ位置の差に基づいて、動きベクトル130を基準化し得る。即ち、ビデオデコーダ30は、候補ブロック132についての動きベクトル130によって指されたビューコンポーネントと、ターゲットビューのビューコンポーネントとの間の差に応じて、視差動きベクトル130(例えば、予測のために使用されている動きベクトル)を基準化し得る。
一例では、ビデオデコーダ30は、以下に示す式(3)に従って、現在ブロックについての基準化された動きベクトル予測子を生成し得る。
式中、mv’は現在ブロックについての基準化された動きベクトル予測子を表し、mvは候補ブロックについての動きベクトルを表し、ViewID(Target)は選択されたターゲットビューのビューコンポーネントであり、ViewID(Current)は現在ブロックのビューコンポーネントであり、ViewID(SecondReference)は(利用可能な場合)第2の参照ビューのビューコンポーネントであり、ViewID(Reference)は第1の参照ビューのビューコンポーネントである。幾つかの例では、ViewID(Target)−ViewID(Current)は、動きベクトル予測子134のビュー距離と呼ばれることがあり、ViewID(SecondReference)−ViewID(Reference)は、動きベクトル130のビュー距離と呼ばれることがある。即ち、動きベクトル予測子134のビュー距離は、動きベクトル予測子134のターゲットピクチャ(view_id 1)と参照ピクチャ(view_id 2)との間の差であり、動きベクトル130のビュー距離は、動きベクトル130のターゲットピクチャ(view_id 0)と参照ピクチャ(view_id 1)との間の差である。式(3)を図7の例に適用すると、mv’は、どのビューコンポーネントがターゲットビューのために選択されるかに応じて、基準化された動きベクトル予測子134又は基準化された動きベクトル予測子138のいずれかを表す。例えば、第1の参照ビュー(view_id 1)がターゲットビューとして選択される場合、mv’は基準化された動きベクトル予測子134を表し、mvは動きベクトル130を表し、ViewID(Target)は動きベクトル予測子134によって指されたビューコンポーネントであり、ViewID(Current)は現在ブロック136のビューコンポーネントであり、ViewID(SecondReference)は第2の参照ビュー(view_id 0)のビューコンポーネントであり、ViewID(Reference)は第1の参照ビュー(view_id 1)のビューコンポーネントである。従って、図7に示す例では、動きベクトル予測子134は、1倍に基準化された動きベクトル130である(例えば、
)。即ち、動きベクトル130の水平変位成分及び垂直変位成分は、動きベクトル予測子134の水平変位成分及び垂直変位成分と同じであり得る。代替的に、第2の参照ビュー(view_id 0)がターゲットビューのために選択される場合、mv’は基準化された動きベクトル予測子138を表し、mvは動きベクトル130を表し、ViewID(Target)は動きベクトル予測子138によって指されたビューコンポーネントであり、ViewID(Current)は現在ブロック136のビューコンポーネントであり、ViewID(SecondReference)は第2の参照ビュー(view_id 0)のビューコンポーネントであり、ViewID(Rreference)は第1の参照ビュー(view_id 1)のビューコンポーネントである。従って、図7に示す例では、動きベクトル予測子138は、2倍に基準化された動きベクトル130である(例えば、
)。即ち、ビデオデコーダ30は、現在ブロック136についての動きベクトル予測子138を生成するために、動きベクトル130の水平変位成分と垂直変位成分の両方を2倍に拡大し得る。
本開示の態様によれば、ビデオデコーダ30は、動きベクトル予測を実行する(例えば、MVPを生成する)ときに同様のステップを実行し得る。例えば、ビデオデコーダ30は、第1の参照ビュー(view_id 1)又は第2の参照ビュー(view_id 0)であり得るターゲットビューを選択し得る。しかしながら、現在ブロックのための予測ブロックを含んでいるビュー成分の参照ピクチャがビュー間予測のために利用可能でない場合、対応する予測子は使用され得ない。従って、ターゲットビューの選択は、例えば、予測ブロック及び/又は所定の選択アルゴリズムの利用可能性に基づいて決定され得る。
現在ブロック136のための予測ブロックが、第1の参照ビュー(view_id 1)又は第2の参照ビュー(view_id 0)のいずれかにおいて直接のビュー間予測のために使用されるために利用可能でない場合、ビデオデコーダ30は、動きベクトル予測を実行し得ない。少なくとも1つの予測ブロックが利用可能な場合、ビデオデコーダ30は、現在ブロック136についての実際の動きベクトルに関連する予測ブロックを含む参照ビューを選択し得る。
ターゲットビューを選択した後、次いで、ビデオデコーダ30は、マージモードに関して上述したステップを繰り返し得る。例えば、ビデオデコーダ30は、候補ブロック132の位置を特定し得る。即ち、ビデオデコーダ30は、候補ブロック132についてのビューコンポーネント1中のコロケート座標を決定し得る。更に、幾つかの例では、ビデオデコーダ30は、現在ブロック136のビューコンポーネント(ビューコンポーネント2)と候補ブロック132のビューコンポーネント(ビューコンポーネント1)との間の視差に基づいて、座標を調整し得る。
更に、候補ブロック132の位置を特定した後に、ビデオデコーダ30は、候補ブロック132のための予測ブロックと、現在ブロック136のための予測ブロック(例えば、ターゲットビュー中の予測ブロック)とを撮影するために使用されたカメラのカメラ位置の差に基づいて、候補ブロック132についての動きベクトル130を基準化し得る。即ち、ビデオデコーダ30は、候補ブロック132についての動きベクトル130によって指されたビューコンポーネントと、ターゲットビューのビューコンポーネントとの間の差に応じて、視差動きベクトル130(例えば、予測のために使用されている動きベクトル)を基準化し得る。幾つかの例では、ビデオデコーダ30は、上記の式(2)を使用して動きベクトル予測子基準化を実行し得る。他の例では、以下で図8に関して説明するように、動きベクトル予測子基準化は他のビューに拡張され得る。
ビデオデコーダ30は、(例えば、上記で図5に関して説明した)マージモード及び/又は動きベクトル予測を実行するときに候補リストに候補ブロック132を追加し得る。本開示の態様によれば、候補ブロックは、様々な方法で(例えば、マージモード又はMVP用いた動きベクトル予測のいずれかのための)動きベクトル予測子候補リストに追加され得る。例えば、ビデオデコーダ30は、以下の方式に従ってマージモード候補の位置を特定することによって候補リストを構成し得る。
1 availableFlagA1が1に等しい場合、A1
2 availableFlagVが1に等しい場合、V
3 availableFlagB1が1に等しい場合、B1
4 availableFlagB0が1に等しい場合、B0
5 availableFlagA0が1に等しい場合、A0
6 availableFlagB2が1に等しい場合、B2
7 availableFlagColが1に等しい場合、Col
式中、Vは候補ブロック132を表す。他の例では、候補ブロック132は、位置を特定され、候補リストの他の位置において候補リストに追加され得る。
図8は、本開示の態様による、動きベクトル予測子を生成及び基準化することを示す別の概念図である。例えば、本開示の態様によれば、ビデオコーダ(ビデオエンコーダ20又はビデオデコーダ30など)は、現在ブロック146についての動きベクトル予測子144(mv’)を生成するために、視差動きベクトル予測子候補ブロック142からの視差動きベクトル140(mv)を基準化し得、候補ブロック142は現在ブロック146とは異なるビューコンポーネントに属する。図8についてビデオデコーダ30に関して説明するが、本開示の技法は、他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)などのハードウェアベースのコード化ユニットなどを含む様々な他のビデオコーダによって行われ得ることを理解されたい。
図8に示す例は、図7に関して図示及び説明した動きベクトル予測を4つ以上のビューを含む環境に拡張する。例えば、図8に示すように、候補ブロック142はビューコンポーネント2(view_id 2)中にある。候補ブロック142は、インター予測され、ビューコンポーネント1(view_id 1)中の予測ブロックを指す動きベクトル140(mv)を含む。例えば、動きベクトル140は、ビュー2(view_id 2)中のターゲットピクチャと、ビュー1(view_id 1)中の参照ピクチャとを有する。現在ブロック146は、候補ブロック142とコロケートされ、ビューコンポーネント3(view_id 3)中にある。
本開示の態様によれば、ビデオデコーダ30は、現在ブロック146についてのターゲットビューをビューコンポーネント0(view_id 0)として選択し得る。例えば、ターゲットビューは、概して、現在ブロックのための予測ブロックを含む。予測ブロックを含んでいるピクチャがビュー間参照ピクチャであり、現在ブロック146のための予測ブロックが第3の参照ビュー(view_id 0)中にある場合、ビデオデコーダ30は、第3の参照ビューをターゲットビューとして選択し得る。
ターゲットビューを選択した後に、ビデオデコーダ30は、候補ブロック142の位置を特定し得る。例えば、現在ブロック146の左上ルーマサンプルがビューコンポーネント3中の座標(x,y)にあるピクチャ(又はスライス)中にあると仮定すると、ビデオデコーダ30は、候補ブロック142についてのビューコンポーネント2中の同一位置の座標を決定し得る。更に、上述のように、ビデオデコーダ30は、現在ブロック146のビューコンポーネント(ビューコンポーネント3)と候補ブロック142のビューコンポーネント(ビューコンポーネント2)との間の視差に基づいて、座標を調整し得る。
候補ブロック142の位置を特定した後に、ビデオデコーダ30は、動きベクトル140と現在ブロック146についての実際の動きベクトルとの間のビュー距離の差に基づいて、候補ブロック142についての動きベクトル140を基準化し得る。即ち、ビデオデコーダ30は、候補ブロック142のための予測ブロックと、現在ブロック146のための予測ブロック(例えば、ターゲットビュー中の予測ブロック)とを撮影するために使用されたカメラのカメラ位置の差に基づいて、動きベクトル130を基準化し得る。即ち、ビデオデコーダ30は、候補ブロック142についての動きベクトル140によって指されたビューコンポーネントと、ターゲットビューのビューコンポーネント(view_id 0)との間の差に応じて、視差動きベクトル140(例えば、予測のために使用されている動きベクトル)を基準化し得る。
一例では、ビデオデコーダ30は、以下に示す式(4)に従って、現在ブロックについての基準化された動きベクトル予測子を生成し得る。
式中、mv’は現在ブロックについての基準化された動きベクトル予測子を表し、mvは候補ブロックについての動きベクトルを表し、ViewID(Third)は第3の参照ビューのビューコンポーネントであり、ViewID(Current)は現在ブロックのビューコンポーネントであり、ViewID(SecondReference)は(利用可能な場合)第2の参照ビューのビューコンポーネントであり、ViewID(Reference)は第1の参照ビューのビューコンポーネントである。幾つかの例では、ViewID(Third)−ViewIDは、動きベクトル予測子144のビュー距離と呼ばれることがあり、ViewID(SecondReference)−ViewID(Reference)は、動きベクトル140のビュー距離と呼ばれることがある。即ち、動きベクトル予測子144のビュー距離は、動きベクトル予測子144のターゲットピクチャ(view_id 0)と参照ピクチャ(view_id 3)との間の差であり、動きベクトル140のビュー距離は、動きベクトル140のターゲットピクチャ(view_id 1)と参照ピクチャ(view_id 2)との間の差である。式(3)を図8の例に適用すると、mv’は基準化された動きベクトル予測子144を表す。例えば、ViewID(Third)は第3の参照ビュー(view_id 0)を表し、mv’は基準化された動きベクトル予測子144を表し、mvは動きベクトル140を表し、ViewID(Current)は現在ブロック146のビューコンポーネントであり、ViewID(SecondReference)は第2の参照ビュー(view_id 1)のビューコンポーネントであり、ViewID(Reference)は第1の参照ビュー(view_id 2)のビューコンポーネントである。従って、図8に示す例では、動きベクトル予測子144は、3倍に基準化された動きベクトル140である(例えば、
)。即ち、ビデオデコーダ30は、動きベクトル予測子144を形成するために、動きベクトル140の水平変位成分と垂直変位成分とを3倍に拡大し得る。
図7〜図8はビュー間視差動きベクトル予測に関する例を与えるが、そのような例は単に説明のために与えたものにすぎないことを理解されたい。即ち、視差動きベクトル予測のための技法は、図示のビューよりも多い又は少ないビューに適用され得る。追加又は代替として、視差動きベクトル予測のための技法は、ビューが異なるビュー識別子を有する状況において適用され得る。
図9は、ビデオデータのブロックについての予測情報をコード化する例示的な方法を示す流れ図である。図9に示す例は、概して、ビデオコーダによって実行されるものとして説明する。幾つかの例では、図9の方法は、上述したビデオエンコーダ20(図1及び図2)又はビデオデコーダ30(図1及び図3)によって行われ得ることを理解されたい。他の例では、図9の方法は、様々な他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)などのハードウェアベースのコード化ユニットなどによって実行され得る。
図9に示す例示的な方法によれば、ビデオコーダは、第1のビュー中のビデオデータの第1のブロックを識別し、ビデオデータの第1のブロックは第1の視差動きベクトルに関連する(160)。例えば、ビデオデータの第1のブロックについて動きベクトルは、別のビューコンポーネント中の参照ブロックを識別する視差動きベクトルであり得る。次いで、ビデオコーダは、ビデオデータの第2のブロックに関連する第2の動きベクトルが視差動きベクトルであるかどうかを決定する(162)。
第2の動きベクトルが視差動きベクトルでない場合(ステップ162のNOブランチ)、ビデオコーダは異なる動きベクトル予測子候補を識別する(164)。即ち、本開示の幾つかの態様によれば、時間動きベクトル(例えば、第2の動きベクトルが時間動きベクトルであるとき、第2の動きベクトル)を予測するために視差動きベクトル(例えば、第1の動きベクトル)を使用する能力は、使用不能であり得る。そのような場合、ビデオコーダは、動きベクトル予測のために使用されるために利用不可能であるものとして第1の動きベクトルを識別し得る。
第2の動きベクトルが視差動きベクトルである場合(ステップ162のYESブランチ)、ビデオコーダは、第2の動きベクトルについての動きベクトル予測子を生成するために第1の動きベクトルを基準化する(166)。例えば、本開示の態様によれば、ビデオコーダは、第1の視差動きベクトルと第2の動きベクトルとに関連するビュー距離の差に基づいて、視差動きベクトル予測子を生成するために第1の動きベクトルを基準化し得る。即ち、幾つかの例では、ビデオコーダは、カメラ位置に基づいて第2のブロックについての動きベクトル予測子を基準化し得る。例えば、ビデオコーダは、図6〜図8に関して図示及び説明したように、ビュー識別子の差に応じて第2の動きベクトルを基準化し得る。
次いで、ビデオコーダは、基準化された動きベクトル予測子を使用して第2のブロックについての予測データをコード化する(168)。例えば、ビデオコーダは、マージモードを使用して又は動きベクトル予測を使用して、第2のブロックについての予測データをコード化し得る。マージモードの場合、ビデオコーダは、基準化された第2の動きベクトル予測子を使用して第2のブロックについての予測データを直接コード化し得る。動きベクトル予測の場合、ビデオコーダは、MVDを生成することによって第2のブロックについての予測データをコード化し得る。MVDは、第1の動きベクトルと基準化された第2の動きベクトルとの間の差を含み得る。
また、図9に関して図示及び説明したステップは一例として与えたものにすぎないことを理解されたい。即ち、図9の方法のステップは、必ずしも図9に示した順序で実行される必要があるとは限らず、より少数の、追加の、又は代替のステップが実行され得る。
図10は、現在ブロックとは異なるビュー中のブロックから動きベクトル予測子を生成することを示す概念図である。例えば、本開示の態様によれば、ビデオコーダ(ビデオエンコーダ20又はビデオデコーダ30など)は、時間動きベクトル予測子候補ブロック182からの時間動きベクトル180(mv)を使用して現在ブロック186についての動きベクトル予測子184(mv’)を生成し得、候補ブロック182は、現在ブロック186とは異なるビューコンポーネントに属する。図10についてビデオデコーダ30に関して説明するが、本開示の技法は、他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)などのハードウェアベースのコード化ユニットなどを含む様々な他のビデオコーダによって行われ得ることを理解されたい。
図10に示すように、現在ブロック186はビューコンポーネント1(view_id 1)中にある。候補ブロック182はビューコンポーネント0(view_id 0)中にある。候補ブロック182は、時間的に予測され、同じビューコンポーネント内の異なる時間位置中の予測ブロックを指す動きベクトル180(mv)を含む。即ち、図10に示す例では、動きベクトル180は、変数iに等しい参照インデックス(ref_idx=i)を有するピクチャ中の予測ブロックを識別する。
現在ブロック186の左上ルーマサンプルが座標(x,y)のピクチャ(又はスライス)中にあると仮定する。ビデオデコーダ30は、候補ブロック182についてのビューコンポーネント0中の同一位置の座標を決定することによって、候補ブロック182の位置を特定し得る。幾つかの例では、ビデオデコーダ30は、現在ブロック186のビューコンポーネント(view_id 1)と候補ブロック182のビューコンポーネント(view_id 0)との間の視差に基づいて候補ブロック182の座標を調整し得る。従って、ビデオデコーダ30は、候補ブロック182の座標を(x’,y’)として決定し得、(x’,y’)=(x,y)+視差である。幾つかの例では、視差は、SPS、PPS、スライスヘッダ、CUシンタックス、及び/又はPUシンタックス中に含まれ及び/又は計算され得る。
本開示の態様によれば、ビデオデコーダ30は、次いで、予測のために使用されている動きベクトル180の参照インデックスを再マッピングし得る。概して、上述のように、動きベクトルについてのデータは、参照ピクチャリストと、参照ピクチャリストへのインデックス(ref_idxと呼ぶ)と、水平成分と、垂直成分とを含む。HEVCでは、2つの通常の参照ピクチャリスト(例えば、リスト0及びリスト1)と、合成参照ピクチャリスト(例えば、リストc)とがあり得る。一般性の損失なしに、現在参照ピクチャリストが(リスト0、リスト1、又はリストcのいずれかに対応し得る)リストtであると仮定する。図10に示す例によれば、候補ブロック182についての動きベクトル180は、POC値2と、iに等しいref_idxとを有するビューコンポーネント0(view_id 0)中にあるピクチャ中の予測ブロックを識別し得る。本開示の態様によれば、ビデオデコーダ30は、現在ブロック186と同じタイムインスタンス中の現在ブロック186についてのコロケート予測ブロックを識別し得る。即ち、候補ブロック182のための予測ブロック及び現在ブロック186のための予測ブロックは、同じ時間位置を有するが、2つの異なるビューのピクチャ中にある。
一例では、現在ブロック186のための識別された予測ブロックが現在ピクチャについての参照ピクチャリストt中のj番目の参照ピクチャに対応する場合、ビデオデコーダ30は、現在ブロック186についての参照インデックス(ref_idx)をjとして予測し得、ビデオデコーダ30は、動きベクトル予測子184を動きベクトル180と同じ値に設定し得る。従って、ビデオデコーダ30は、現在ブロック186についての参照インデックスをref_idx iからref_idx jに効果的に再マッピングする。即ち、ビデオデコーダ30は、現在ブロック186についての動きベクトル予測子184が候補ブロック182と同じ参照ピクチャリストと水平成分と垂直成分とを有すると決定し、しかしながら、動きベクトル予測子184は、参照ピクチャリスト中のi番目の参照ピクチャではなく参照ピクチャリスト中のj番目の参照ピクチャを指す。
本開示の態様によれば、幾つかの例では、ビデオデコーダはまた、動きベクトル予測子184を基準化し得る。例えば、現在ブロック186のための識別された予測ブロックを含んでいるピクチャが参照ピクチャリストt中に含まれない場合、ビデオデコーダ30は、参照ピクチャリストt中の最も近い第2のピクチャを識別し得る。幾つかの例では、2つのピクチャが、現在ブロック186のための識別された予測ブロックを含んでいるピクチャまで等しい距離を有する場合、ビデオデコーダ30は、現在ブロック186を含んでいるピクチャにより近いピクチャを第2のピクチャとして選択し得る。説明のために、識別されたピクチャが参照インデックスkを有すると仮定する。この例では、ビデオデコーダ30は、次いで、動きベクトル予測子184の参照インデックスをkとして予測し得、ビデオデコーダ30は、ピクチャ順序カウント(POC)における差に基づいて動きベクトル予測子184を基準化し得る。即ち、ビデオデコーダ30は、現在ブロック186と参照インデックスjにおけるピクチャとの間の距離と、現在ブロック186と参照インデックスkにおけるピクチャとの間の距離との間の差に基づいて動きベクトル予測子184を基準化し得る。
幾つかの例によれば、ビデオデコーダ30は、動きベクトル予測を実行するときに同じプロセスを実行し得る。しかしながら、動きベクトル予測子184を決定した後に、ビデオデコーダ30は、MVDを使用して現在ブロック186についての動きベクトルを生成し得る。動きベクトル予測は同じプロセスを使用し得る。別の例では、動きベクトル予測に関して、現在ブロック186のための予測ブロックの位置が特定され得ない(上記で参照インデックスjにあると識別された)場合、ビデオデコーダ30は、現在ブロック186についてマージモード又は動きベクトル予測を実行し得ない。即ち、ビデオデコーダ30は、動きベクトル予測子184を基準化するのではなく、動きベクトル予測子184が利用不可能であると見なし得る。
ビデオデコーダ30は、(例えば、上記で図5に関して説明した)マージモード及び/又は動きベクトル予測を実行するための候補リストに候補ブロック182を追加し得る。本開示の態様によれば、候補ブロック182は、様々な方法で(例えば、マージモード又はMVP用いた動きベクトル予測のいずれかのための)動きベクトル予測子候補リストに追加され得る。例えば、ビデオデコーダ30は、以下の方式に従って候補の位置を特定することによって候補リストを構成し得る。
1 availableFlagA1が1に等しい場合、A1
2 availableFlagVが1に等しい場合、V
3 availableFlagB1が1に等しい場合、B1
4 availableFlagB0が1に等しい場合、B0
5 availableFlagA0が1に等しい場合、A0
6 availableFlagB2が1に等しい場合、B2
7 availableFlagColが1に等しい場合、Col
式中、Vは候補ブロック182を表す。他の例では、候補ブロック132は、位置を特定され、候補リストの他の位置において候補リストに追加され得る。
図11は、動きベクトル予測子を生成する例示的な方法を示す流れ図である。図11に示す例は、概して、ビデオコーダによって実行されるものとして説明する。幾つかの例では、図11の方法は、上述したビデオエンコーダ20(図1及び図2)又はビデオデコーダ30(図1及び図3)によって行われ得ることを理解されたい。他の例では、図11の方法は、様々な他のプロセッサ、処理ユニット、エンコーダ/デコーダ(コーデック)などのハードウェアベースのコード化ユニットなどによって実行され得る。
図11に示す例によれば、ビデオコーダは、第1のビューの第1の時間位置中のビデオデータの第1のブロックを識別し、第1のブロックは、第1の時間動きベクトルに関連する(202)。本開示の態様によれば、ビデオデータの第2のブロックに関連する第2の動きベクトルが時間動きベクトルであり、第2のブロックが第1のブロックとは異なる第2のビューからであるとき(ステップ204のYESブランチ)、ビデオコーダは、第1の動きベクトルに基づいて動きベクトル予測子を決定する(206)。即ち、例えば、ビデオコーダは、第1の動きベクトルから第2の動きベクトルを予測するための動きベクトル予測子を決定し得る。ビデオコーダはまた、動きベクトル予測子を使用して第2のブロックについての予測データをコード化する(208)。例えば、ビデオコーダは、動きベクトル予測子をマージモードで使用するか、又はMVD値を生成するために使用し得る。
第2の動きベクトルが時間動きベクトルでない、及び/又はビデオデータの第2のブロックがビデオデータの第1のブロックとは異なるビューからでない場合(ステップ204のNOブランチ)、ビデオコーダは、第2の動きベクトルが視差動きベクトルであるかどうかを決定する(210)。本開示の態様によれば、第2の動きベクトルが視差動きベクトルでない場合(ステップ210のNOブランチ)、ビデオコーダは異なる動きベクトル予測子候補を識別する(212)。即ち、ビデオコーダは、幾つかの例では、第2の動きベクトルを予測するために第1の動きベクトルを使用し得ない。
第2の動きベクトルが視差動きベクトルである場合(ステップ210のYESブランチ)、ビデオコーダは、視差動きベクトル予測が使用不能であるかどうかを決定する(214)。即ち、本開示の幾つかの態様によれば、視差動きベクトル(例えば、第2の動きベクトルが視差動きベクトルであるとき、第2の動きベクトル)を予測するために時間動きベクトル(例えば、第1の動きベクトル)を使用する能力は使用不能であり得る。そのような場合、ビデオコーダは、異なる動きベクトル予測子候補を識別する(212)(ステップ214のNOブランチ)。
ビデオコーダは、視差動きベクトル予測が使用可能である(例えば、又はそのような機能を有効化/無効化する能力が存在しない)と決定した場合、ビデオコーダは、第1の動きベクトルに基づいて第2の動きベクトルについての動きベクトル予測子を決定する(206)(ステップ214のYESブランチ)。更に、ビデオコーダはまた、動きベクトル予測子を使用して第2のブロックについての予測データをコード化する(208)。例えば、ビデオコーダは、動きベクトル予測子をマージモードで使用するか、又はMVD値を生成するために使用し得る。
また、図11に関して図示及び説明するステップは一例として与えたものにすぎないことを理解されたい。即ち、図11の方法のステップは、必ずしも図11に示した順序で実行される必要があるとは限らず、より少数の、追加の、又は代替のステップが実行され得る。
例に応じて、本明細書で説明した方法のうちのいずれかの幾つかの行為又はイベントは、異なるシーケンスで実行され得、互いに付加、マージ、又は除外され得る(例えば、全ての説明した行為又はイベントが、方法の実施のために必要であるとは限らない)ことを理解されたい。更に、幾つかの例では、行為又はイベントは、連続的にではなく、例えば、マルチスレッド処理、割込み処理、又は複数のプロセッサを介して、同時に実行され得る。更に、本開示の幾つかの態様は、明快のために単一のモジュール又はユニットによって実行されるものとして説明したが、本開示の技法は、ビデオコーダに関連するユニット又はモジュールの組合せによって実行され得ることを理解されたい。
1つ以上の例では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せで実施され得る。ソフトウェアで実施される場合、機能は、1つ以上の命令又はコードとしてコンピュータ可読媒体上に記憶されるか、又はコンピュータ可読媒体を介して送信され、ハードウェアベースの処理ユニットによって実行され得る。コンピュータ可読媒体は、例えば、通信プロトコルに従って、ある場所から別の場所へのコンピュータプログラムの転送を可能にする任意の媒体を含むデータ記憶媒体又は通信媒体などの有形媒体に対応するコンピュータ可読記憶媒体を含み得る。
このようにして、コンピュータ可読媒体は、概して、(1)非一時的である有形コンピュータ可読記憶媒体、又は(2)信号又は搬送波などの通信媒体に対応し得る。データ記憶媒体は、本開示で説明した技法の実施のための命令、コード及び/又はデータ構造を取り出すために1つ以上のコンピュータあるいは1つ以上のプロセッサによってアクセスされ得る任意の利用可能な媒体であり得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得る。
限定ではなく例として、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM、CD−ROM又は他の光ディスクストレージ、磁気ディスクストレージ、又は他の磁気記憶装置、フラッシュメモリ、あるいは命令又はデータ構造の形態の所望のプログラムコードを記憶するために使用され得、コンピュータによってアクセスされ得る、任意の他の媒体を備えることができる。また、いかなる接続もコンピュータ可読媒体と適切に呼ばれる。例えば、命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、又は赤外線、無線、及びマイクロ波などのワイヤレス技術を使用して、ウェブサイト、サーバ、又は他のリモートソースから送信される場合、同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、又は赤外線、無線、及びマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。
但し、コンピュータ可読記憶媒体及びデータ記憶媒体は、接続、搬送波、信号、又は他の一時媒体を含まないが、代わりに非一時的有形記憶媒体を対象とすることを理解されたい。本明細書で使用するディスク(disk)及びディスク(disc)は、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)及びブルーレイディスク(disc)を含み、ディスク(disk)は、通常、データを磁気的に再生し、ディスク(disc)は、データをレーザーで光学的に再生する。上記の組合せもコンピュータ可読媒体の範囲内に含めるべきである。
命令は、1つ以上のデジタル信号プロセッサ(DSP)などの1つ以上のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路又はディスクリート論理回路によって実行され得る。従って、本明細書で使用する「プロセッサ」という用語は、前述の構造、又は本明細書で説明した技法の実施に好適な他の構造のいずれかを指すことがある。更に、幾つかの態様では、本明細書で説明した機能は、符号化及び復号のために構成された専用のハードウェア及び/又はソフトウェアモジュール内に与えられ得、あるいは複合コーデックに組み込まれ得る。また、本技法は、1つ以上の回路又は論理要素中に十分に実施され得る。
本開示の技法は、ワイヤレスハンドセット、集積回路(IC)、又はICのセット(例えば、チップセット)を含む、多種多様な機器又は装置において実施され得る。本開示では、開示する技法を実行するように構成された機器の機能的態様を強調するために様々な構成要素、モジュール、又はユニットについて説明したが、それらの構成要素、モジュール、又はユニットを、必ずしも異なるハードウェアユニットによって実現する必要があるとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェア及び/又はファームウェアとともに、上記で説明した1つ以上のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、又は相互動作ハードウェアユニットの集合によって与えられ得る。
本開示の様々な態様について説明した。これら及び他の態様は以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
ビデオデータをコード化する方法であって、
第1のビューからの第1の時間ロケーション中のビデオデータの第1のブロックを識別することと、ビデオデータの前記第1のブロックが第1の時間動きベクトルに関連する、
ビデオデータの第2のブロックに関連する第2の動きベクトルが時間動きベクトルを備え、前記第2のブロックが第2のビューからであるとき、前記第1の時間動きベクトルに基づいて前記第2の動きベクトルについての動きベクトル予測子を決定することと、
前記動きベクトル予測子を使用して前記第2のブロックについての予測データをコード化することと、
を備える、方法。
[C2]
前記第2の動きベクトルが視差動きベクトルであるとき、前記第1の動きベクトルから前記動きベクトル予測子を決定する能力を無効化することを備える、C1に記載の方法。
[C3]
前記第2の動きベクトルが時間動きベクトルであり、前記第2のビューが前記第1のビューと異なるとき、前記第1の時間動きベクトルに基づいて前記第2の動きベクトルについての動きベクトル予測子を決定することをさらに備える、C1に記載の方法。
[C4]
前記第2の動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのピクチャ順序カウント(POC)値と同じであるとき、前記動きベクトル予測子を基準化することなく、前記動きベクトル予測子を決定することをさらに備える、C3に記載の方法。
[C5]
前記第2の動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのPOCとは異なるとき、前記動きベクトル予測子を決定する前に、前記第1の時間動きベクトルと前記第2の時間動きベクトルとの間の時間距離の差に基づいて前記第1の動きベクトルを基準化することをさらに備える、C3に記載の方法。
[C6]
前記時間距離は、動きベクトルのターゲットピクチャと参照ピクチャとの間のPOCの差を備える、C5に記載の方法。
[C7]
前記第2の動きベクトルの参照ピクチャが前記第2の動きベクトルの参照ピクチャのPOCと同じであるとき、前記第1の時間動きベクトルに基づいて前記動きベクトル予測子を決定する能力を無効化することをさらに備える、C3に記載の方法。
[C8]
前記予測データをコード化することは、前記動きベクトル予測子を使用して動きベクトル差分値をコード化することを備える、C1に記載の方法。
[C9]
前記第2のビューが前記第1のビューと異なるとき、前記第1のビューの前記第1のブロックと前記第2のビューの前記第2のブロックとの間の視差に従って調整される前記第1のブロックの位置と同一位置とされる前記第2のビューのピクチャ中の位置を識別することによって、前記第2のブロックの位置を特定することをさらに備える、C1に記載の方法。
[C10]
ビデオデータの前記第2のブロック及びビデオデータの1つまたは複数の他のブロックを含むピクチャを識別するデータを含んでいる候補リストを構成することをさらに備える、C1に記載の方法。
[C11]
ビデオデータの前記第2のブロックを含む前記ピクチャを識別することは、前記候補リストへのインデックスを使用して、前記候補リスト中のビデオデータの前記第2のブロックを含む前記ピクチャの位置を特定することを備える、C10に記載の方法。
[C12]
ビデオデータの前記第2のブロックをコード化することは、前記第2のブロックを符号化することを備える、C1に記載の方法。
[C13]
ビデオデータの前記第2のブロックをコード化することは、前記第2のブロックを復号することを備える、C1に記載の方法。
[C14]
1つ以上のプロセッサを備えるビデオデータをコード化するための装置であって、前記1つ以上のプロセッサは、
第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別し、ビデオデータの前記第1のブロックが第1の時間動きベクトルと関連し、
ビデオデータの第2のブロックに関連する第2の動きベクトルが時間動きベクトルを備え、前記第2のブロックが第2のビューからであるとき、前記第1の時間動きベクトルに基づいて前記第2の動きベクトルについての動きベクトル予測子を決定し、
前記動きベクトル予測子を使用して前記第2のブロックについての予測データをコード化する、
ように構成される、装置。
[C15]
前記1つ以上のプロセッサは、前記第2の動きベクトルが視差動きベクトルであるとき、前記第1の動きベクトルから前記動きベクトル予測子を決定する能力を無効化するようにさらに構成される、C14に記載の装置。
[C16]
前記1つ以上のプロセッサは、前記第2の動きベクトルが時間動きベクトルであり、前記第2のビューが前記第1のビューと異なるとき、前記第1の時間動きベクトルに基づいて前記第2の動きベクトルについての動きベクトル予測子を決定するようにさらに構成される、C15に記載の装置。
[C17]
前記1つ以上のプロセッサは、前記第2の動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのピクチャ順序カウント(POC)値と同じであるとき、前記動きベクトル予測子を基準化することなく、前記動きベクトル予測子を決定するようにさらに構成される、C16に記載の装置。
[C18]
前記1つ以上のプロセッサは、前記第2の動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのPOCとは異なるとき、前記動きベクトル予測子を決定する前に、前記第1の時間動きベクトルと前記第2の時間動きベクトルとの間の時間距離の差に基づいて前記第1の動きベクトルを基準化するようにさらに構成される、C16に記載の装置。
[C19]
前記時間距離は、動きベクトルのターゲットピクチャと参照ピクチャとの間のPOCの差を備える、C18に記載の装置。
[C20]
前記1つ以上のプロセッサは、前記第2の動きベクトルの参照ピクチャが前記第2の動きベクトルの参照ピクチャのPOCと同じであるとき、前記第1の時間動きベクトルに基づいて前記動きベクトル予測子を決定する能力を無効化するようにさらに構成される、C16に記載の装置。
[C21]
前記1つ以上のプロセッサは、前記動きベクトル予測子を使用して動きベクトル差分値をコード化することによって前記予測データをコード化するように構成される、C14に記載の装置。
[C22]
前記1つ以上のプロセッサは、前記第2のビューが前記第1のビューと異なるとき、前記第1のビューの前記第1のブロックと前記第2のビューの前記第2のブロックとの間の視差に従って調整される前記第1のブロックの位置と同一位置とされる前記第2のビューのピクチャ中の位置を識別することによって、前記第2のブロックの位置を特定するようにさらに構成される、C14に記載の装置。
[C23]
前記1つ以上のプロセッサは、ビデオデータの前記第2のブロック及びビデオデータの1つ以上の他のブロックを含むピクチャを識別するデータを含んでいる候補リストを構成するようにさらに構成される、C14に記載の装置。
[C24]
ビデオデータの前記第2のブロックを含む前記ピクチャを識別するために、前記1つ以上のプロセッサは、前記候補リストへのインデックスを使用して、前記候補リスト中のビデオデータの前記第2のブロックを含む前記ピクチャの位置を特定するように構成される、C23に記載の装置。
[C25]
ビデオデータの前記第2のブロックをコード化するために、前記1つ以上のプロセッサは前記第2のブロックを符号化するように構成される、C14に記載の装置。
[C26]
ビデオデータの前記第2のブロックをコード化するために、前記1つ以上のプロセッサは前記第2のブロックを復号するように構成される、C14に記載の装置。
[C27]
ビデオデータをコード化するための装置であって、
第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別するための手段と、ビデオデータの前記第1のブロックが第1の時間動きベクトルに関連する、
ビデオデータの第2のブロックに関連する第2の動きベクトルが時間動きベクトルを備え、前記第2のブロックが第2のビューからであるとき、前記第1の時間動きベクトルに基づいて前記第2の動きベクトルについての動きベクトル予測子を決定するための手段と、
前記動きベクトル予測子を使用して前記第2のブロックについての予測データをコード化するための手段と、
を備える、装置。
[C28]
前記第2の動きベクトルが視差動きベクトルであるとき、前記第1の動きベクトルから前記動きベクトル予測子を決定する能力を無効化するための手段をさらに備える、C27に記載の装置。
[C29]
前記第2の動きベクトルが時間動きベクトルであり、前記第2のビューが前記第1のビューと異なるとき、前記第1の時間動きベクトルに基づいて前記第2の動きベクトルについての動きベクトル予測子を決定するための手段をさらに備える、C28に記載の装置。
[C30]
前記第2の動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのピクチャ順序カウント(POC)値と同じであるとき、前記動きベクトル予測子を基準化することなく、前記動きベクトル予測子を決定するための手段をさらに備える、C28に記載の装置。
[C31]
前記第2の動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのPOCとは異なるとき、前記動きベクトル予測子を決定する前に、前記第1の時間動きベクトルと前記第2の時間動きベクトルとの間の時間距離の差に基づいて前記第1の動きベクトルを基準化するための手段をさらに備える、C28に記載の方法。
[C32]
前記時間距離は、動きベクトルのターゲットピクチャと参照ピクチャとの間のPOCの差を備える、C31に記載の装置。
[C33]
前記第2の動きベクトルの参照ピクチャが前記第2の動きベクトルの参照ピクチャのPOCと同じであるとき、前記第1の時間動きベクトルに基づいて前記動きベクトル予測子を決定する能力を無効化するための手段をさらに備える、C28に記載の装置。
[C34]
前記予測データをコード化するための手段は、前記動きベクトル予測子を使用して動きベクトル差分値をコード化するための手段を備える、C27に記載の装置。
[C35]
前記第2のビューが前記第1のビューと異なるとき、前記第1のビューの前記第1のブロックと前記第2のビューの前記第2のブロックとの間の視差に従って調整される前記第1のブロックの位置と同一位置とされる前記第2のビューのピクチャ中の位置を識別することによって、前記第2のブロックの位置を特定するための手段をさらに備える、C27に記載の装置。
[C36]
ビデオデータの前記第2のブロック及びビデオデータの1つ以上の他のブロックを含むピクチャを識別するデータを含んでいる候補リストを構成するための手段をさらに備える、C27に記載の装置。
[C37]
前記候補リストへのインデックスを使用して、前記候補リスト中のビデオデータの前記第2のブロックを含む前記ピクチャの位置を特定するための手段をさらに備える、C36に記載の装置。
[C38]
ビデオデータの前記第2のブロックをコード化するための手段は、前記第2のブロックを符号化するための手段を備える、C27に記載の装置。
[C39]
ビデオデータの前記第2のブロックをコード化するための手段は、前記第2のブロックを復号するための手段を備える、C27に記載の装置。
[C40]
命令を記憶したコンピュータ可読記憶媒体であって、前記命令は、実行されたとき、1つ以上のプロセッサに、
第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、ビデオデータの前記第1のブロックが第1の時間動きベクトルに関連する、
ビデオデータの第2のブロックに関連する第2の動きベクトルが時間動きベクトルを備え、前記第2のブロックが第2のビューからであるとき、前記第1の時間動きベクトルに基づいて前記第2の動きベクトルについての動きベクトル予測子を決定することと、
前記動きベクトル予測子を使用して前記第2のブロックについての予測データをコード化することと、
を行わせる、コンピュータ可読記憶媒体。
[C41]
前記第2の動きベクトルが視差動きベクトルであるとき、前記1つ以上のプロセッサに、前記第1の動きベクトルから前記動きベクトル予測子を決定する能力を無効化させる命令をさらに備える、C40に記載のコンピュータ可読記憶媒体。
[C42]
前記1つ以上のプロセッサに、前記第2の動きベクトルが時間動きベクトルであり、前記第2のビューが前記第1のビューと異なるとき、前記第1の時間動きベクトルに基づいて前記第2の動きベクトルについての動きベクトル予測子を決定させる命令をさらに備える、C41に記載のコンピュータ可読記憶媒体。
[C43]
前記第2の動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのピクチャ順序カウント(POC)値と同じであるとき、前記1つ以上のプロセッサに、前記動きベクトル予測子を基準化することなく、前記動きベクトル予測子を決定させる命令をさらに備える、C42に記載のコンピュータ可読記憶媒体。
[C44]
前記第2の動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのPOCとは異なるとき、前記1つ以上のプロセッサに、前記動きベクトル予測子を決定する前に、前記第1の時間動きベクトルと前記第2の時間動きベクトルとの間の時間距離の差に基づいて前記第1の動きベクトルを基準化させる命令をさらに備える、C42に記載のコンピュータ可読記憶媒体。
[C45]
前記時間距離は、動きベクトルのターゲットピクチャと参照ピクチャとの間のPOCの差を備える、C44に記載のコンピュータ可読記憶媒体。
[C46]
前記第2の動きベクトルの参照ピクチャが前記第2の動きベクトルの参照ピクチャのPOCと同じであるとき、前記1つ以上のプロセッサに、前記第1の時間動きベクトルに基づいて前記動きベクトル予測子を決定する能力を無効化させる命令をさらに備える、C42に記載のコンピュータ可読記憶媒体。
[C47]
前記1つ以上のプロセッサに、前記予測データをコード化させる命令は、前記1つ以上のプロセッサに、前記動きベクトル予測子を使用して動きベクトル差分値をコード化させる命令を備える、C40に記載のコンピュータ可読記憶媒体。
[C48]
前記1つ以上のプロセッサに、前記第2のビューが前記第1のビューと異なるとき、前記第1のビューの前記第1のブロックと前記第2のビューの前記第2のブロックとの間の視差に従って調整される前記第1のブロックの位置と同一位置とされる前記第2のビューのピクチャ中の位置を識別することによって、前記第2のブロックの位置を特定させる命令をさらに備える、C40に記載のコンピュータ可読記憶媒体。
[C49]
前記1つ以上のプロセッサに、ビデオデータの前記第2のブロック及びビデオデータの1つ以上の他のブロックを含むピクチャを識別するデータを含んでいる候補リストを構成させる命令をさらに備える、C40に記載のコンピュータ可読記憶媒体。
[C50]
前記1つ以上のプロセッサに、前記候補リストへのインデックスを使用して、前記候補リスト中のビデオデータの前記第2のブロックを含む前記ピクチャの位置を特定させる命令をさらに備える、C49に記載のコンピュータ可読記憶媒体。
[C51]
前記1つ以上のプロセッサにビデオデータの前記第2のブロックをコード化させる命令は、前記1つ以上のプロセッサに前記第2にブロックを符号化させる命令を備える、C40に記載のコンピュータ可読記憶媒体。
[C52]
前記1つ以上のプロセッサにビデオデータの前記第2のブロックをコード化させる命令は、前記1つ以上のプロセッサに前記第2にブロックを復号させる命令を備える、C40に記載のコンピュータ可読記憶媒体。

Claims (32)

  1. ビデオデータの現在ブロックについての予測データを符号化する方法であって、
    第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、ビデオデータの前記第1のブロックが前記現在ブロックとは異なるビューからのものであり、第1の時間動きベクトルに関連する、
    ビデオデータの前記現在ブロックに関連する動きベクトルが時間動きベクトルであることに基づいて、前記第1の時間動きベクトルに基づいて前記現在ブロックの前記動きベクトルについての動きベクトル予測子を決定し、動きベクトル予測子候補リスト中に決定された前記動きベクトル予測子を識別するデータを含めることと、決定された前記動きベクトル予測子を識別する前記データは、ビデオデータの前記第1のブロックを含む第1のピクチャおよび前記第1のピクチャ中のデータの前記第1のブロックの前記第1の時間位置を識別するデータを含み、前記動きベクトル予測子候補リストは、ビデオデータの1つ以上の他のブロックを識別するデータをさらに備える、
    前記動きベクトル予測子候補リストから動きベクトル予測子を選択することと、
    前記動きベクトル予測子候補リストから選択された前記動きベクトル予測子を使用して前記現在ブロックについての予測データを符号化することと、を備える、方法。
  2. ビデオデータの現在ブロックについての予測データを復号する方法であって、
    第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、ビデオデータの前記第1のブロックが前記現在ブロックとは異なるビューからのものであり、第1の時間動きベクトルに関連する、
    ビデオデータの前記現在ブロックに関連する動きベクトルが時間動きベクトルであることに基づいて、前記第1の時間動きベクトルに基づいて前記現在ブロックの前記動きベクトルについての動きベクトル予測子を決定し、動きベクトル予測子候補リスト中に決定された前記動きベクトル予測子を識別するデータを含めることと、決定された前記動きベクトル予測子を識別する前記データは、ビデオデータの前記第1のブロックを含む前第1のピクチャ、および前記第1のピクチャ中のデータの前記第1のブロックの前記第1の時間位置を識別するデータを含み、前記動きベクトル予測子候補リストは、ビデオデータの1つ以上の他のブロックを識別するデータをさらに備える、
    前記動きベクトル予測子候補リストから動きベクトル予測子を選択することと、
    前記動きベクトル予測子候補リストから選択された前記動きベクトル予測子を使用して前記現在ブロックについての予測データを復号することと、を備える、方法。
  3. 前記現在ブロックについての前記動きベクトルが時間動きベクトルでないことに基づいて、前記方法は、前記第1の動きベクトルを識別するデータが前記動きベクトル予測子候補リストに追加されないように前記第1の動きベクトルから動きベクトル予測子を決定する能力を無効化することをさらに備える、請求項1または請求項2に記載の方法。
  4. 前記現在ブロックについての前記動きベクトルの参照ピクチャのピクチャ順序カウント(POC)値が前記第1の動きベクトルの参照ピクチャのPOC値と同じであるとき、前記動きベクトル予測子を基準化することなく、前記動きベクトル予測子を決定することをさらに備える、請求項1または請求項2に記載の方法。
  5. 前記現在ブロックについての前記動きベクトルの参照ピクチャのPOC値が前記第1の動きベクトルの参照ピクチャのPOC値とは異なるとき、前記動きベクトル予測子を決定する前に、前記第1のブロックと前記現在ブロックとの間の時間距離の差に基づいて前記第1の動きベクトルを基準化することをさらに備える、請求項1または請求項2に記載の方法。
  6. 前記時間距離は、ターゲットピクチャのPOC値と参照ピクチャのPOC値との間のPOCの差を備える、請求項5に記載の方法。
  7. 前記現在ブロックについての前記動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのPOCと同じであるとき、前記第1の時間動きベクトルに基づいて前記動きベクトル予測子を決定する能力を無効化することをさらに備える、請求項1または請求項2に記載の方法。
  8. 前記第1のビューの前記第1のブロックと前記現在ブロックとの間の視差に従って調整され、前記現在ブロックの位置と同一位置とされる前記第1のピクチャ中の位置を識別することによって、前記第1のブロックの位置を特定することをさらに備える、請求項1または請求項2に記載の方法。
  9. 1つ以上のプロセッサを備えるビデオデータの現在ブロックについての予測データを符号化するための装置であって、前記1つ以上のプロセッサは、
    第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別し、ビデオデータの前記第1のブロックが前記現在ブロックとは異なるビューからのものであり、第1の時間動きベクトルと関連し、
    ビデオデータの前記現在ブロックに関連する動きベクトルが時間動きベクトルであることに基づいて、前記第1の時間動きベクトルに基づいて前記現在ブロックの前記動きベクトルについての動きベクトル予測子を決定し、動きベクトル予測子候補リスト中に決定された前記動きベクトル予測子を識別するデータを符号化し、決定された前記動きベクトル予測子を識別する前記データは、ビデオデータの前記第1のブロックを含む第1のピクチャ、および前記第1のピクチャ中のデータの前記第1のブロックの前記第1の時間位置を識別するデータを含み、前記動きベクトル予測子候補リストは、ビデオデータの1つ以上の他のブロックを識別するデータをさらに備える、
    前記動きベクトル予測子候補リストから動きベクトル予測子を選択し、
    前記動きベクトル予測子候補リストから選択された前記動きベクトル予測子を使用して前記現在ブロックについての予測データを符号化する、
    ように構成される、装置。
  10. 1つ以上のプロセッサを備えるビデオデータの現在ブロックについての予測データを復号するための装置であって、前記1つ以上のプロセッサは、
    第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別し、ビデオデータの前記第1のブロックが前記現在ブロックとは異なるビューからのものであり、第1の時間動きベクトルと関連し、
    ビデオデータの前記現在ブロックに関連する動きベクトルが時間動きベクトルであることに基づいて、前記第1の時間動きベクトルに基づいて前記現在ブロックの前記動きベクトルについての動きベクトル予測子を決定し、動きベクトル予測子候補リスト中に決定された前記動きベクトル予測子を識別するデータを符号化し、決定された前記動きベクトル予測子を識別する前記データは、ビデオデータの前記第1のブロックを含む第1のピクチャ、および前記第1のピクチャ中のデータの前記第1のブロックの前記第1の時間位置を識別するデータを含み、前記動きベクトル予測子候補リストは、ビデオデータの1つ以上の他のブロックを識別するデータをさらに備える、
    前記動きベクトル予測子候補リストから動きベクトル予測子を選択し、
    前記動きベクトル予測子候補リストから選択された前記動きベクトル予測子を使用して前記現在ブロックについての予測データを復号する、
    ように構成される、装置。
  11. 前記1つ以上のプロセッサは、前記現在ブロックについての前記動きベクトルが時間動きベクトルでないことに基づいて、前記第1の動きベクトルを識別するデータが前記動きベクトル予測子候補リストに追加されないように前記第1の動きベクトルから動きベクトル予測子を決定する能力を無効化するようにさらに構成される、請求項9または請求項10に記載の装置。
  12. 前記1つ以上のプロセッサは、前記現在ブロックについての前記動きベクトルの参照ピクチャのピクチャ順序カウント(POC)値が前記第1の動きベクトルの参照ピクチャのPOC値と同じであるとき、前記動きベクトル予測子を基準化することなく、前記動きベクトル予測子を決定するようにさらに構成される、請求項9または請求項10に記載の装置。
  13. 前記1つ以上のプロセッサは、前記現在ブロックについての前記動きベクトルの参照ピクチャのPOC値が前記第1の動きベクトルの参照ピクチャのPOC値とは異なるとき、前記動きベクトル予測子を決定する前に、前記第1のブロックと前記現在ブロックとの間の時間距離の差に基づいて前記第1の動きベクトルを基準化するようにさらに構成される、請求項9または請求項10に記載の装置。
  14. 前記時間距離は、ターゲットピクチャのPOC値と参照ピクチャのPOC値との間のPOCの差を備える、請求項13に記載の装置。
  15. 前記1つ以上のプロセッサは、前記現在ブロックについての前記動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのPOCと同じであるとき、前記第1の時間動きベクトルに基づいて前記動きベクトル予測子を決定する能力を無効化するようにさらに構成される、請求項9または請求項10に記載の装置。
  16. 前記1つ以上のプロセッサは、前記第1のビューの前記第1のブロックと前記現在ブロックとの間の視差に従って調整され、前記現在ブロックの位置と同一位置とされる前記第1のピクチャ中の位置を識別することによって、前記第1のブロックの位置を特定するようにさらに構成される、請求項9または請求項10に記載の装置。
  17. ビデオデータの現在ブロックについての予測データを符号化するための装置であって、
    第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別するための手段と、ビデオデータの前記第1のブロックが前記現在ブロックとは異なるビューからのものであり、第1の時間動きベクトルに関連する、
    ビデオデータの前記現在ブロックに関連する動きベクトルが時間動きベクトルであることに基づいて、前記第1の時間動きベクトルに基づいて前記現在ブロックの前記動きベクトルについての動きベクトル予測子を決定し、動きベクトル予測子候補リスト中に決定された前記動きベクトル予測子を識別するデータを含めるための手段と、決定された前記動きベクトル予測子を識別する前記データは、ビデオデータの前記第1のブロックを含む第1のピクチャ、および前記第1のピクチャ中のデータの前記第1のブロックの前記第1の時間位置を識別するデータを含み、前記動きベクトル予測子候補リストは、ビデオデータの1つ以上の他のブロックを識別するデータをさらに備える、
    前記動きベクトル予測子候補リストから動きベクトル予測子を選択するための手段と、
    前記動きベクトル予測子候補リストから選択された前記動きベクトル予測子を使用して前記現在ブロックについての予測データを符号化するための手段と、を備える、装置。
  18. ビデオデータの現在ブロックについての予測データを復号するための装置であって、
    第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別するための手段と、ビデオデータの前記第1のブロックが前記現在ブロックとは異なるビューからのものであり、第1の時間動きベクトルに関連する、
    ビデオデータの前記現在ブロックに関連する動きベクトルが時間動きベクトルであることに基づいて、前記第1の時間動きベクトルに基づいて前記現在ブロックの前記動きベクトルについての動きベクトル予測子を決定し、動きベクトル予測子候補リスト中に決定された前記動きベクトル予測子を識別するデータを含めるための手段と、決定された前記動きベクトル予測子を識別する前記データは、ビデオデータの前記第1のブロックを含む第1のピクチャ、および前記第1のピクチャ中のデータの前記第1のブロックの前記第1の時間位置を識別するデータを含み、前記動きベクトル予測子候補リストは、ビデオデータの1つ以上の他のブロックを識別するデータをさらに備える、
    前記動きベクトル予測子候補リストから動きベクトル予測子を選択するための手段と、
    前記動きベクトル予測子候補リストから選択された前記動きベクトル予測子を使用して前記現在ブロックについての予測データを復号するための手段と、を備える、装置。
  19. 前記現在ブロックについての前記動きベクトルが時間動きベクトルでないことに基づいて、前記第1の動きベクトルを識別するデータが前記動きベクトル予測子候補リストに追加されないように前記第1の動きベクトルから動きベクトル予測子を決定する能力を無効化するための手段をさらに備える、請求項17または請求項18に記載の装置。
  20. 前記現在ブロックについての前記動きベクトルの参照ピクチャのピクチャ順序カウント(POC)値が前記第1の動きベクトルの参照ピクチャのPOC値と同じであるとき、前記動きベクトル予測子を基準化することなく、前記動きベクトル予測子を決定するための手段をさらに備える、請求項17または請求項18に記載の装置。
  21. 前記現在ブロックについての前記動きベクトルの参照ピクチャのPOC値が前記第1の動きベクトルの参照ピクチャのPOC値とは異なるとき、前記動きベクトル予測子を決定する前に、前記第1のブロックと前記現在ブロックとの間の時間距離の差に基づいて前記第1の動きベクトルを基準化するための手段をさらに備える、請求項17または請求項18に記載の装置。
  22. 前記時間距離は、ターゲットピクチャのPOC値と参照ピクチャのPOC値との間のPOCの差を備える、請求項18または請求項21に記載の装置。
  23. 前記現在ブロックについての前記動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのPOCと同じであるとき、前記第1の時間動きベクトルに基づいて前記動きベクトル予測子を決定する能力を無効化するための手段をさらに備える、請求項17または請求項18に記載の装置。
  24. 前記第1のビューの前記第1のブロックと前記現在ブロックとの間の視差に従って調整され、前記現在ブロックの位置と同一位置とされる前記第1のピクチャ中の位置を識別することによって、前記第1のブロックの位置を特定するための手段をさらに備える、請求項17または請求項18に記載の装置。
  25. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は、実行されたとき、1つ以上のプロセッサに、
    第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、ビデオデータの前記第1のブロックが前記現在ブロックとは異なるビューからのものであり、第1の時間動きベクトルに関連する、
    ビデオデータの前記現在ブロックに関連する動きベクトルが時間動きベクトルであることに基づいて、前記第1の時間動きベクトルに基づいて前記現在ブロックの前記動きベクトルについての動きベクトル予測子を決定し、動きベクトル予測子候補リスト中に決定された前記動きベクトル予測子を識別するデータを含めることと、決定された前記動きベクトル予測子を識別する前記データは、ビデオデータの前記第1のブロックを含む第1のピクチャ、および前記第1のピクチャ中のデータの前記第1のブロックの前記第1の時間位置を識別するデータを含み、前記動きベクトル予測子候補リストは、ビデオデータの1つ以上の他のブロックを識別するデータをさらに備える、
    前記動きベクトル予測子候補リストから動きベクトル予測子を選択することと、
    前記動きベクトル予測子候補リストから選択された前記動きベクトル予測子を使用して前記現在ブロックについての予測データを符号化することと、を行わせる、コンピュータ可読記憶媒体。
  26. 命令を記憶したコンピュータ可読記憶媒体であって、前記命令は、実行されたとき、1つ以上のプロセッサに、
    第1のビューからの第1の時間位置中のビデオデータの第1のブロックを識別することと、ビデオデータの前記第1のブロックが前記現在ブロックとは異なるビューからのものであり、第1の時間動きベクトルに関連する、
    ビデオデータの前記現在ブロックに関連する動きベクトルが時間動きベクトルであることに基づいて、前記第1の時間動きベクトルに基づいて前記現在ブロックの前記動きベクトルについての動きベクトル予測子を決定し、動きベクトル予測子候補リスト中に決定された前記動きベクトル予測子を識別するデータを含めることと、決定された前記動きベクトル予測子を識別する前記データは、ビデオデータの前記第1のブロックを含む第1のピクチャ、および前記第1のピクチャ中のデータの前記第1のブロックの前記第1の時間位置を識別するデータを含み、前記動きベクトル予測子候補リストは、ビデオデータの1つ以上の他のブロックを識別するデータをさらに備える、
    前記動きベクトル予測子候補リストから動きベクトル予測子を選択することと、
    前記動きベクトル予測子候補リストから選択された前記動きベクトル予測子を使用して前記現在ブロックについての予測データを復号することと、を行わせる、コンピュータ可読記憶媒体。
  27. 前記現在ブロックについての前記動きベクトルが時間動きベクトルでないことに基づいて、前記1つ以上のプロセッサに、前記第1の動きベクトルを識別するデータが前記動きベクトル予測子候補リストに追加されないように前記第1の動きベクトルから動きベクトル予測子を決定する能力を無効化させる命令をさらに備える、請求項25または請求項26に記載のコンピュータ可読記憶媒体。
  28. 前記現在ブロックについての前記動きベクトルの参照ピクチャのピクチャ順序カウント(POC)値が前記第1の動きベクトルの参照ピクチャのPOC値と同じであるとき、前記1つ以上のプロセッサに、前記動きベクトル予測子を基準化することなく、前記動きベクトル予測子を決定させる命令をさらに備える、請求項25または請求項26に記載のコンピュータ可読記憶媒体。
  29. 前記現在ブロックについての前記動きベクトルの参照ピクチャのPOC値が前記第1の動きベクトルの参照ピクチャのPOC値とは異なるとき、前記1つ以上のプロセッサに、前記動きベクトル予測子を決定する前に、前記第1のブロックと前記現在ブロックとの間の時間距離の差に基づいて前記第1の動きベクトルを基準化させる命令をさらに備える、請求項25または請求項26に記載のコンピュータ可読記憶媒体。
  30. 前記時間距離は、ターゲットピクチャのPOC値と参照ピクチャのPOC値との間のPOCの差を備える、請求項29に記載のコンピュータ可読記憶媒体。
  31. 前記現在ブロックについての前記動きベクトルの参照ピクチャが前記第1の動きベクトルの参照ピクチャのPOCと同じであるとき、前記1つ以上のプロセッサに、前記第1の時間動きベクトルに基づいて前記動きベクトル予測子を決定する能力を無効化させる命令をさらに備える、請求項25または請求項26に記載のコンピュータ可読記憶媒体。
  32. 前記1つ以上のプロセッサに、前記第1のビューの前記第1のブロックと第2のビューの前記現在ブロックとの間の視差に従って調整され、前記現在ブロックについての前記ブロックの位置と同一位置とされる前記第1のピクチャ中の位置を識別することによって、前記第1のブロックの位置を特定させる命令をさらに備える、請求項25または請求項26に記載のコンピュータ可読記憶媒体。
JP2014506587A 2011-04-20 2012-04-20 ビデオコード化における動きベクトル予測 Active JP5805850B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201161477561P 2011-04-20 2011-04-20
US61/477,561 2011-04-20
US201161512765P 2011-07-28 2011-07-28
US61/512,765 2011-07-28
US13/451,204 US9247249B2 (en) 2011-04-20 2012-04-19 Motion vector prediction in video coding
US13/451,204 2012-04-19
PCT/US2012/034516 WO2012145670A1 (en) 2011-04-20 2012-04-20 Motion vector prediction in video coding

Publications (2)

Publication Number Publication Date
JP2014514862A JP2014514862A (ja) 2014-06-19
JP5805850B2 true JP5805850B2 (ja) 2015-11-10

Family

ID=47021330

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2014506587A Active JP5805850B2 (ja) 2011-04-20 2012-04-20 ビデオコード化における動きベクトル予測
JP2014506584A Active JP5805849B2 (ja) 2011-04-20 2012-04-20 ビデオコード化における動きベクトル予測
JP2015172710A Active JP6552923B2 (ja) 2011-04-20 2015-09-02 ビデオコード化における動きベクトル予測

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2014506584A Active JP5805849B2 (ja) 2011-04-20 2012-04-20 ビデオコード化における動きベクトル予測
JP2015172710A Active JP6552923B2 (ja) 2011-04-20 2015-09-02 ビデオコード化における動きベクトル予測

Country Status (15)

Country Link
US (3) US9485517B2 (ja)
EP (2) EP2700227A1 (ja)
JP (3) JP5805850B2 (ja)
KR (2) KR101658694B1 (ja)
CN (2) CN103503460B (ja)
AU (1) AU2012245299B2 (ja)
BR (1) BR112013026961A2 (ja)
CA (1) CA2833302C (ja)
ES (1) ES2633150T3 (ja)
HU (1) HUE034333T2 (ja)
IL (1) IL228804A (ja)
MY (1) MY185037A (ja)
SG (2) SG194058A1 (ja)
TW (2) TWI526055B (ja)
WO (2) WO2012145663A1 (ja)

Families Citing this family (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8107535B2 (en) * 2003-06-10 2012-01-31 Rensselaer Polytechnic Institute (Rpi) Method and apparatus for scalable motion vector coding
AU2011362447B2 (en) * 2011-03-14 2015-09-24 Hfi Innovation Inc. Method and apparatus for deriving temporal motion vector prediction
JP5664762B2 (ja) * 2011-03-17 2015-02-04 富士通株式会社 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム
US9485517B2 (en) 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding
WO2012167711A1 (en) * 2011-06-10 2012-12-13 Mediatek Inc. Method and apparatus of scalable video coding
WO2012177052A2 (ko) 2011-06-21 2012-12-27 한국전자통신연구원 인터 예측 방법 및 그 장치
KR20120140592A (ko) * 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
HUE056547T2 (hu) 2011-06-28 2022-02-28 Lg Electronics Inc Eljárás mozgásvektor-prediktor levezetésére
WO2013001749A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置および画像符号化復号装置
US11245912B2 (en) 2011-07-12 2022-02-08 Texas Instruments Incorporated Fast motion estimation for hierarchical coding structures
US9819963B2 (en) 2011-07-12 2017-11-14 Electronics And Telecommunications Research Institute Inter prediction method and apparatus for same
EP2705668A1 (en) * 2011-07-12 2014-03-12 Huawei Technologies Co., Ltd Pixel-based intra prediction for coding in hevc
MX365013B (es) * 2011-08-29 2019-05-20 Ibex Pt Holdings Co Ltd Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp).
KR101626683B1 (ko) * 2011-08-30 2016-06-01 인텔 코포레이션 멀티뷰 비디오 코딩 방안
KR20130030181A (ko) * 2011-09-16 2013-03-26 한국전자통신연구원 움직임 벡터 예측기를 이용한 움직임 벡터 부호화/복호화 방법 및 장치
US9712819B2 (en) * 2011-10-12 2017-07-18 Lg Electronics Inc. Image encoding method and image decoding method
JP5768662B2 (ja) * 2011-10-31 2015-08-26 富士通株式会社 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
US9571833B2 (en) 2011-11-04 2017-02-14 Nokia Technologies Oy Method for coding and an apparatus
WO2013068548A2 (en) 2011-11-11 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Efficient multi-view coding using depth-map estimate for a dependent view
IN2014KN00990A (ja) 2011-11-11 2015-10-09 Fraunhofer Ges Forschung
EP3739886A1 (en) * 2011-11-18 2020-11-18 GE Video Compression, LLC Multi-view coding with efficient residual handling
CA2841058C (en) 2011-12-16 2021-03-23 Panasonic Corporation Video image coding method, video image coding device, video image decoding method, video image decoding device and video image coding/decoding device
WO2013109093A1 (ko) * 2012-01-19 2013-07-25 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
US9729873B2 (en) 2012-01-24 2017-08-08 Qualcomm Incorporated Video coding using parallel motion estimation
US9445076B2 (en) 2012-03-14 2016-09-13 Qualcomm Incorporated Disparity vector construction method for 3D-HEVC
US9525861B2 (en) 2012-03-14 2016-12-20 Qualcomm Incorporated Disparity vector prediction in video coding
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US9549180B2 (en) 2012-04-20 2017-01-17 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding
JP6361847B2 (ja) * 2012-05-02 2018-07-25 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US9860555B2 (en) * 2012-05-22 2018-01-02 Lg Electronics Inc. Method and apparatus for processing video signal
AU2013284038B2 (en) * 2012-06-28 2015-11-05 Hfi Innovation Inc. Method and apparatus of disparity vector derivation in 3D video coding
US9325990B2 (en) 2012-07-09 2016-04-26 Qualcomm Incorporated Temporal motion vector prediction in video coding extensions
PL400344A1 (pl) * 2012-08-13 2014-02-17 Politechnika Poznanska Sposób wyznaczania predyktora wektora ruchu
US20140071235A1 (en) * 2012-09-13 2014-03-13 Qualcomm Incorporated Inter-view motion prediction for 3d video
CN104769949B (zh) 2012-09-19 2018-03-13 高通股份有限公司 用于视差向量导出的图片的选择的方法和装置
WO2014050675A1 (ja) * 2012-09-28 2014-04-03 ソニー株式会社 画像処理装置および方法
US9253486B2 (en) * 2012-09-28 2016-02-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for motion field backward warping using neighboring blocks in videos
US9264691B2 (en) * 2012-09-28 2016-02-16 Mitsubishi Electric Research Laboratories, Inc. Method and system for backward 3D-view synthesis prediction using neighboring blocks
KR102257542B1 (ko) 2012-10-01 2021-05-31 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
US10075728B2 (en) * 2012-10-01 2018-09-11 Inria Institut National De Recherche En Informatique Et En Automatique Method and device for motion information prediction refinement
KR101706318B1 (ko) * 2012-10-03 2017-02-15 에이치에프아이 이노베이션 인크. 3차원 비디오 코딩을 위한 모션 데이터 버퍼 감소 방법 및 장치
CN102883163B (zh) * 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
EP2966868B1 (en) * 2012-10-09 2018-07-18 HFI Innovation Inc. Method for motion information prediction and inheritance in video coding
WO2014073173A1 (ja) * 2012-11-06 2014-05-15 日本電気株式会社 映像符号化方法、映像符号化装置および映像符号化プログラム
US9819965B2 (en) * 2012-11-13 2017-11-14 Intel Corporation Content adaptive transform coding for next generation video
US9948939B2 (en) 2012-12-07 2018-04-17 Qualcomm Incorporated Advanced residual prediction in scalable and multi-view video coding
US9350970B2 (en) 2012-12-14 2016-05-24 Qualcomm Incorporated Disparity vector derivation
US9674542B2 (en) 2013-01-02 2017-06-06 Qualcomm Incorporated Motion vector prediction for video coding
WO2014120368A1 (en) 2013-01-30 2014-08-07 Intel Corporation Content adaptive entropy coding for next generation video
US10616607B2 (en) * 2013-02-25 2020-04-07 Lg Electronics Inc. Method for encoding video of multi-layer structure supporting scalability and method for decoding same and apparatus therefor
US9800857B2 (en) 2013-03-08 2017-10-24 Qualcomm Incorporated Inter-view residual prediction in multi-view or 3-dimensional video coding
US9609347B2 (en) * 2013-04-04 2017-03-28 Qualcomm Incorporated Advanced merge mode for three-dimensional (3D) video coding
US9930363B2 (en) 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
US9800895B2 (en) * 2013-06-27 2017-10-24 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
WO2015006922A1 (en) * 2013-07-16 2015-01-22 Mediatek Singapore Pte. Ltd. Methods for residual prediction
WO2015009092A1 (ko) * 2013-07-18 2015-01-22 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US9426465B2 (en) * 2013-08-20 2016-08-23 Qualcomm Incorporated Sub-PU level advanced residual prediction
US9832479B2 (en) * 2013-10-04 2017-11-28 Ati Technologies Ulc Motion estimation apparatus and method for multiview video
US10110895B2 (en) * 2013-12-13 2018-10-23 Qualcomm Incorporated Signaling of simplified depth coding (SDC) for depth intra- and inter-prediction modes in 3D video coding
US9967592B2 (en) * 2014-01-11 2018-05-08 Qualcomm Incorporated Block-based advanced residual prediction for 3D video coding
US20170180755A1 (en) * 2014-03-20 2017-06-22 Lg Electronics Inc. 3d video encoding/decoding method and device
US10645404B2 (en) * 2014-03-24 2020-05-05 Qualcomm Incorporated Generic use of HEVC SEI messages for multi-layer codecs
CN105208396B (zh) * 2014-06-20 2019-01-15 联想(北京)有限公司 一种视频帧的编码及解码方法和装置
US9924191B2 (en) * 2014-06-26 2018-03-20 Qualcomm Incorporated Filters for advanced residual prediction in video coding
EP3140988B1 (en) * 2014-06-26 2019-09-11 Huawei Technologies Co., Ltd. Method and device for reducing a computational load in high efficiency video coding
WO2016048834A1 (en) * 2014-09-26 2016-03-31 Vid Scale, Inc. Intra block copy coding with temporal block vector prediction
WO2016050219A1 (en) * 2014-09-30 2016-04-07 Mediatek Inc. Method of adaptive motion vetor resolution for video coding
US9992512B2 (en) * 2014-10-06 2018-06-05 Mediatek Inc. Method and apparatus for motion vector predictor derivation
CN107113442B (zh) * 2014-10-31 2020-08-07 三星电子株式会社 用于对运动矢量进行编码/解码的方法和装置
US10602176B2 (en) * 2016-04-15 2020-03-24 Google Llc Coding interpolation filter type
CN116708784A (zh) * 2016-07-12 2023-09-05 韩国电子通信研究院 图像编码/解码方法以及用于该方法的记录介质
US11496747B2 (en) * 2017-03-22 2022-11-08 Qualcomm Incorporated Intra-prediction mode propagation
CN109089119B (zh) 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
US10687077B2 (en) * 2017-06-26 2020-06-16 Qualcomm Incorporated Motion information propagation in video coding
US11082702B2 (en) 2017-07-03 2021-08-03 Lg Electronics Inc. Inter prediction mode-based image processing method and device therefor
CN111095926A (zh) 2017-09-12 2020-05-01 三星电子株式会社 用于对运动信息进行编码和解码的方法以及用于对运动信息进行编码和解码的装置
US11212547B2 (en) * 2017-09-19 2021-12-28 Samsung Electronics Co., Ltd. Method for encoding and decoding motion information, and apparatus for encoding and decoding motion information
US10856003B2 (en) * 2017-10-03 2020-12-01 Qualcomm Incorporated Coding affine prediction motion information for video coding
EP3780608A4 (en) 2018-04-02 2021-12-01 SZ DJI Technology Co., Ltd. IMAGE PROCESSING PROCESS AND IMAGE PROCESSING DEVICE
US11146796B2 (en) * 2018-04-06 2021-10-12 Arris Enterprises Llc Reducing motion vector information transmission in bi-directional temporal prediction
US10587885B2 (en) * 2018-06-04 2020-03-10 Tencent America LLC Method and apparatus for merge mode with additional middle candidates in video coding
US10638145B2 (en) * 2018-06-19 2020-04-28 Novatek Microelectronics Corp. Video encoding apparatus and operating method thereof
CN111107354A (zh) 2018-10-29 2020-05-05 华为技术有限公司 一种视频图像预测方法及装置
CN113273205A (zh) * 2018-12-21 2021-08-17 北京字节跳动网络技术有限公司 使用更高比特深度精度的运动矢量推导
CN111213381B (zh) * 2018-12-29 2021-11-12 深圳市大疆创新科技有限公司 视频处理方法和设备
MX2022003940A (es) * 2019-10-03 2022-04-25 Huawei Tech Co Ltd Proceso de codificacion para modo de particion geometrica.
JP2023511276A (ja) * 2020-01-14 2023-03-17 華為技術有限公司 マージ・モードのための候補の数をシグナリングする方法及び装置
CN117221604A (zh) * 2020-04-03 2023-12-12 北京达佳互联信息技术有限公司 用于视频编解码中的高级语法的方法和设备

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4344924A1 (de) 1993-12-30 1995-08-10 Thomson Brandt Gmbh Verfahren und Vorrichtung zur Bewegungsschätzung
JP2004023458A (ja) 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
KR100584603B1 (ko) 2004-08-03 2006-05-30 학교법인 대양학원 다시점 영상의 다이렉트 모드 움직임 예측 방법 및 장치
US20070014346A1 (en) 2005-07-13 2007-01-18 Nokia Corporation Coding dependency indication in scalable video coding
JP5020953B2 (ja) 2005-07-18 2012-09-05 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート 時間及び視点間参照映像バッファを活用した予測符号化/復号化装置及びその方法
US8644386B2 (en) * 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
EP1929783B1 (en) * 2005-09-29 2017-06-21 Samsung Electronics Co., Ltd. Method and apparatus for encoding a multi-view picture using disparity vectors, and computer readable recording medium storing a program for executing the method
KR101276720B1 (ko) 2005-09-29 2013-06-19 삼성전자주식회사 카메라 파라미터를 이용하여 시차 벡터를 예측하는 방법,그 방법을 이용하여 다시점 영상을 부호화 및 복호화하는장치 및 이를 수행하기 위한 프로그램이 기록된 기록 매체
ZA200805337B (en) 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
WO2007081177A1 (en) 2006-01-12 2007-07-19 Lg Electronics Inc. Processing multiview video
CN101945277B (zh) 2006-01-12 2013-08-14 Lg电子株式会社 处理多视图视频
KR100959538B1 (ko) 2006-03-30 2010-05-27 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
BRPI0714022A2 (pt) 2006-07-06 2012-12-04 Thomson Licensing método e aparelho para separar o número do quadro e /ou a contagem de ordem de imagem (poc) para codificação e decodificação de vìdeo multi-visão
EP2052546A4 (en) 2006-07-12 2010-03-03 Lg Electronics Inc METHOD AND DEVICE FOR SIGNAL PROCESSING
KR101336204B1 (ko) * 2006-08-18 2013-12-03 주식회사 케이티 다시점 비디오에서 전역변이를 이용하여 상이한 시점의 화면들을 압축 또는 복호하는 인코더와 인코딩하는 방법 및디코더와 디코딩하는 방법
CA2663084C (en) 2006-09-20 2014-08-12 Nippon Telegraph And Telephone Corporation Image encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
BRPI0717321A2 (pt) 2006-10-13 2013-10-22 Thomson Licensing Método para gerenciamento de imagens de referência envolvendo codificação de vídeo com mútiplas visualizações
ES2702704T3 (es) 2006-10-16 2019-03-05 Nokia Technologies Oy Sistema y procedimiento para implementar una administración eficiente de memoria intermedia decodificada en codificación de video de vistas múltiples
JP2010507975A (ja) 2006-10-24 2010-03-11 トムソン ライセンシング 多視点映像符号化のための画像の管理
JP4999859B2 (ja) 2006-10-30 2012-08-15 日本電信電話株式会社 予測参照情報生成方法、動画像符号化及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体
ES2439444T3 (es) 2006-10-30 2014-01-23 Nippon Telegraph And Telephone Corporation Método de codificación y método de descodificación de vídeo, aparatos para los mismos, programas para los mismos y medios de almacenamiento que almacenan los programas
JP5023739B2 (ja) 2007-02-28 2012-09-12 ソニー株式会社 画像情報符号化装置及び符号化方法
EP2135454A4 (en) 2007-03-02 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
US10298952B2 (en) * 2007-08-06 2019-05-21 Interdigital Madison Patent Holdings Methods and apparatus for motion skip move with multiple inter-view reference pictures
EP2177036A2 (en) * 2007-08-15 2010-04-21 Thomson Licensing Methods and apparatus for motion skip mode in multi-view coded video using regional disparity vectors
KR101712915B1 (ko) 2007-10-16 2017-03-07 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR101385884B1 (ko) 2008-01-30 2014-04-16 고려대학교 산학협력단 다시점 동영상의 부호화 및 복호화 방법 및 장치
ES2812473T3 (es) 2008-03-19 2021-03-17 Nokia Technologies Oy Vector de movimiento combinado y predicción de índice de referencia para la codificación de vídeo
KR101727311B1 (ko) * 2008-04-25 2017-04-14 톰슨 라이센싱 깊이 정보에 기초한 디스패리티 예측을 구비한 다중 시점 비디오 코딩
US20100086063A1 (en) 2008-10-02 2010-04-08 Apple Inc. Quality metrics for coded video using just noticeable difference models
WO2010043773A1 (en) 2008-10-17 2010-04-22 Nokia Corporation Sharing of motion vector in 3d video coding
WO2010086500A1 (en) 2009-01-28 2010-08-05 Nokia Corporation Method and apparatus for video coding and decoding
US20100246683A1 (en) 2009-03-27 2010-09-30 Jennifer Lois Harmon Webb Error Resilience in Video Decoding
JP5429034B2 (ja) * 2009-06-29 2014-02-26 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
US9060176B2 (en) 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
KR101768207B1 (ko) 2010-01-19 2017-08-16 삼성전자주식회사 축소된 예측 움직임 벡터의 후보들에 기초해 움직임 벡터를 부호화, 복호화하는 방법 및 장치
WO2012096164A1 (ja) 2011-01-12 2012-07-19 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
US20120189060A1 (en) * 2011-01-20 2012-07-26 Industry-Academic Cooperation Foundation, Yonsei University Apparatus and method for encoding and decoding motion information and disparity information
US9749657B2 (en) 2011-01-21 2017-08-29 Sharp Kabushiki Kaisha Buffer compression for motion vector competition
KR20120095610A (ko) 2011-02-21 2012-08-29 삼성전자주식회사 다시점 비디오의 부호화 방법 및 장치, 그 복호화 방법 및 장치
JP5664762B2 (ja) 2011-03-17 2015-02-04 富士通株式会社 動画像復号方法、動画像符号化方法、動画像復号装置及び動画像復号プログラム
KR20120118780A (ko) 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9485517B2 (en) 2011-04-20 2016-11-01 Qualcomm Incorporated Motion vector prediction with motion vectors from multiple views in multi-view video coding
EP2745513B1 (en) 2011-08-19 2020-03-11 Telefonaktiebolaget LM Ericsson (publ) Motion vector processing
RU2583040C2 (ru) 2011-08-30 2016-05-10 Нокиа Текнолоджиз Ой Устройство, способ и компьютерная программа для кодирования и декодирования видеосигналов
US9503720B2 (en) 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
US10200709B2 (en) 2012-03-16 2019-02-05 Qualcomm Incorporated High-level syntax extensions for high efficiency video coding

Also Published As

Publication number Publication date
JP2016026435A (ja) 2016-02-12
JP2014514862A (ja) 2014-06-19
EP2700227A1 (en) 2014-02-26
JP6552923B2 (ja) 2019-07-31
AU2012245299A1 (en) 2013-10-24
TWI543591B (zh) 2016-07-21
AU2012245299B2 (en) 2015-12-24
US20130272408A1 (en) 2013-10-17
KR101658694B1 (ko) 2016-09-21
BR112013026961A2 (pt) 2017-01-10
EP2700228B1 (en) 2017-04-12
US20120269270A1 (en) 2012-10-25
US9584823B2 (en) 2017-02-28
JP2014514861A (ja) 2014-06-19
JP5805849B2 (ja) 2015-11-10
CN103503460B (zh) 2017-08-25
WO2012145670A1 (en) 2012-10-26
RU2013151612A (ru) 2015-05-27
US20120269271A1 (en) 2012-10-25
HUE034333T2 (en) 2018-02-28
KR101600154B1 (ko) 2016-03-14
TW201249215A (en) 2012-12-01
US9247249B2 (en) 2016-01-26
SG10201602588RA (en) 2016-05-30
MY185037A (en) 2021-04-30
WO2012145663A1 (en) 2012-10-26
KR20140018968A (ko) 2014-02-13
CN103650505B (zh) 2018-01-23
CN103503460A (zh) 2014-01-08
US9485517B2 (en) 2016-11-01
TWI526055B (zh) 2016-03-11
CA2833302A1 (en) 2012-10-26
EP2700228A1 (en) 2014-02-26
CA2833302C (en) 2018-07-03
ES2633150T3 (es) 2017-09-19
IL228804A0 (en) 2013-12-31
SG194058A1 (en) 2013-11-29
KR20140018967A (ko) 2014-02-13
CN103650505A (zh) 2014-03-19
IL228804A (en) 2016-11-30
TW201249214A (en) 2012-12-01

Similar Documents

Publication Publication Date Title
JP6552923B2 (ja) ビデオコード化における動きベクトル予測
JP6585200B2 (ja) ビデオコード化における視差ベクトル予測
CN112956190B (zh) 仿射运动预测
JP6359549B2 (ja) 3次元ビデオコーディングにおける適応ルミナンス補償
JP6215344B2 (ja) 非対称空間解像度を有するテクスチャビューコンポーネントおよび深度ビューコンポーネントの中での内部ビュー動き予測
JP6046246B2 (ja) 3dビデオコーディングのための深度マップのイントラコーディング
JP6336987B2 (ja) 3d映像に関するインタービュー動き予測
US9998727B2 (en) Advanced inter-view residual prediction in multiview or 3-dimensional video coding
JP6615606B2 (ja) 3d−hevcに関する視差ベクトル構築方法
JP6215295B2 (ja) Hevcおよびその拡張における動きベクトルのコーディングおよび双予測
JP6337025B2 (ja) 3dビデオコード化における隣接ブロック視差ベクトル導出
JP6227678B2 (ja) 3dビデオコーディングにおける導出視差ベクトル
US20130258052A1 (en) Inter-view residual prediction in 3d video coding
JP2018530246A (ja) ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測
JP2018522468A (ja) 空間および/または時間動き情報を使用するサブ予測ユニット動きベクトル予測
JP2016519518A (ja) 後方ビュー合成予測

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150902

R150 Certificate of patent or registration of utility model

Ref document number: 5805850

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250