JP5844392B2 - ビデオコード化における双方向予測インターモードのための動きベクトル予測子(mvp) - Google Patents

ビデオコード化における双方向予測インターモードのための動きベクトル予測子(mvp) Download PDF

Info

Publication number
JP5844392B2
JP5844392B2 JP2013557717A JP2013557717A JP5844392B2 JP 5844392 B2 JP5844392 B2 JP 5844392B2 JP 2013557717 A JP2013557717 A JP 2013557717A JP 2013557717 A JP2013557717 A JP 2013557717A JP 5844392 B2 JP5844392 B2 JP 5844392B2
Authority
JP
Japan
Prior art keywords
motion vector
video
mvp
frame
video block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013557717A
Other languages
English (en)
Other versions
JP2014511648A (ja
Inventor
ジェン、ユンフェイ
チエン、ウェイ−ジュン
カークゼウィックズ、マルタ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014511648A publication Critical patent/JP2014511648A/ja
Application granted granted Critical
Publication of JP5844392B2 publication Critical patent/JP5844392B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Description

本開示は、ビデオデータを圧縮するために使用されるビデオコード化技法に関し、より詳細には、ビデオ圧縮において使用される適応動きベクトル予測(AMVP:adaptive motion vector prediction)に関する。
デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレス電話ハンドセットなどのワイヤレス通信機器、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップ又はデスクトップコンピュータ、タブレットコンピュータ、デジタルカメラ、デジタル記録機器、ビデオゲーム機器、ビデオゲーム機、パーソナルマルチメディアプレーヤなどを含む、広範囲にわたる機器に組み込まれ得る。そのようなビデオ機器は、ビデオデータを圧縮するために、MPEG−2、MPEG−4、又はITU−T H.264/MPEG−4,Part10、最新ビデオコード化(AVC:Advanced Video Coding)に記載されているビデオ圧縮技法などのビデオ圧縮技法を実施し得る。ビデオ圧縮技法では、ビデオシーケンスに固有の冗長性を低減又は除去するために空間的及び/又は時間的予測を実行する。MPEGとITU−Tとのコラボレーションである「Joint Collaborative Team−Video Coding」(JCTVC)によって開発されている高効率ビデオコード化(HEVC:High Efficiency Video Coding)規格など、新しいビデオ規格が出現し、発展し続けている。新生HEVC規格は、H.265と呼ばれることがある。
これら及び他のビデオコード化規格及び技法は、ブロックベースのビデオコード化を使用する。ブロックベースのビデオコード化技法は、ビデオフレームのビデオデータ(又はそれの一部分)をビデオブロックに分割し、次いで予測ブロックベースの圧縮技法を使用してビデオブロックを符号化する。ビデオブロックは、更にビデオブロック区分に分割され得る。ビデオブロック(又はそれらの区分)は、コード化単位(CU)又は予測単位(PU)と呼ばれることがあり、1つ以上のビデオ固有の符号化技法ならびに一般的なデータ圧縮技法を使用して符号化され得る。ビデオブロックをコード化するために、異なるモードが選択され、使用され得る。
新生HEVC規格では、最大コード化単位(LCU)が4分木区分方式(quadtree partitioning scheme)に従ってますます小さいCUに分割され得る。CUは、所謂PUに基づいて予測され得、PUは、複数のPUが所与のCUを予測するために使用され得るように、CUのサイズに対応するパーティションブロックサイズ、又はCUのサイズよりも小さいパーティションブロックサイズを有することができる。
CUを符号化するために、異なるモードが使用され得る。例えば、ビデオフレーム内の空間的冗長性を活用するために、同じフレーム又はスライス内の予測データに基づいてCUをコード化するために異なるイントラコード化モードが使用され得る。代替的に、ビデオシーケンスのフレーム上の時間的冗長性を活用するために、別のフレーム又はスライスからの予測データに基づいてCUをコード化するためにインターコード化モードが使用され得る。予測コード化が選択されたモードに従って実行された後、次いで、離散コサイン変換(DCT)、整数変換などの変換コード化が実行され得る。HEVCの場合、変換コード化は変換単位(TU)に対して行われ得、TUはまた、HEVC規格において変動する変換サイズを有することができる。また、変換係数の量子化、量子化変換係数の走査、及びエントロピーコード化が実行され得る。ビデオデータをどのように復号すべきかをデコーダに知らせるために、例えば、ビデオスライスヘッダ又はビデオブロックヘッダ中で、シンタックス情報が、符号化ビデオデータとともに信号伝達される。特に、シンタックス情報は、異なるビデオブロックのビデオコード化において使用されたモードを識別し得る。
本出願は、その内容全体が参照により本明細書に組み込まれる、2011年3月8日に出願された米国仮出願第61/450,537号の利益を主張する。
本開示では、適応動きベクトル予測(AMVP)を使用する双方向予測インターモードに適用可能なビデオ符号化及び復号技法について説明する。特に、本開示では、双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するためにAMVPが使用される、ビデオデータを符号化又は復号するための技法について説明する。より詳細には、本開示では、双方向予測ビデオブロックの1つの動きベクトルが、双方向予測ビデオブロックの別の動きベクトルを予測するための候補動きベクトル予測子(MVP)を定義するために使用され得る技法について説明する。多くの例では、双方向予測ビデオブロックの第1の動きベクトルのスケーリングバージョンが、双方向予測ビデオブロックの第2の動きベクトルのためのMVPとして使用される。このようにして、双方向予測ビデオブロックの第2の動きベクトルのための追加のMVP候補を定義することによって、圧縮の改善が達成され得る。
一例では、本開示では、双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するためにAMVPが使用される、ビデオデータを復号する方法について説明する。本方法は、第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信することと、第1のMVPを識別する第1のインデックスを受信することと、第1のMVDと第1のMVPとに基づいて第1の動きベクトルを生成することとを備える。本方法はまた、第2の動きベクトルに関連する第2のMVDを受信することと、第2のMVPを識別する第2のインデックスを受信することであって、第2のMVPが、第1の動きベクトルに基づいて定義された、受信することと、第2のMVDと第2のMVPとに基づいて第2の動きベクトルを生成することとを備える。
別の例では、本開示では、双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するためにAMVPが使用される、ビデオデータを符号化する方法について説明する。本方法は、現在ビデオブロックを双方向予測インターモードでコード化するために使用されるべき第1の動きベクトルを決定することと、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1のMVPを識別することと、第1のMVPを識別する第1のインデックスを生成することと、第1の動きベクトルと第1のMVPとに基づいて第1のMVDを生成することとを備える。本方法はまた、現在ビデオブロックを双方向予測インターモードでコード化するために使用されるべき第2の動きベクトルを決定することと、動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで動きベクトルの第2のセットが、隣接ビデオブロックの1つ以上に関連する動きベクトルと、第1の動きベクトルに基づく候補とを含む、第2のMVPを識別する第2のインデックスを生成することと、第2の動きベクトルと第2のMVPとに基づいて第2のMVDを生成することと、現在ビデオブロックについての符号化ビットストリームの一部として、第1のインデックスと第1のMVDと第2のインデックスと第2のMVDとを出力することとを備える。
別の例では、本開示では、ビデオデータを復号するビデオ復号機器について説明する。本ビデオ復号機器は、第1の動きベクトルに関連する第1のMVDを受信することと、第1のMVPを識別する第1のインデックスを受信することと、第1のMVDと第1のMVPとに基づいて第1の動きベクトルを生成することとを行うように構成されたビデオデコーダを備える。ビデオデコーダはまた、第2の動きベクトルに関連する第2のMVDを受信することと、第2のMVPを識別する第2のインデックスを受信することと、ここで第2のMVPが、第1の動きベクトルに基づいて定義される、第2のMVDと第2のMVPとに基づいて第2の動きベクトルを生成することとを行うように構成される。
別の例では、本開示では、ビデオデータを符号化するビデオ符号化機器について説明する。本ビデオ符号化機器は、現在ビデオブロックを双方向予測インターモードでコード化するために使用されるべき第1の動きベクトルを決定することと、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1のMVPを識別することと、第1のMVPを識別する第1のインデックスを生成することと、第1の動きベクトルと第1のMVPとに基づいて第1のMVDを生成することとを行うように構成されたビデオエンコーダを備える。ビデオエンコーダはまた、現在ビデオブロックを双方向予測インターモードでコード化するために使用されるべき第2の動きベクトルを決定することと、動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで動きベクトルの第2のセットが、隣接ビデオブロックのうちの1つ以上に関連する動きベクトルと、第1の動きベクトルに基づく候補とを含む、第2のMVPを識別する第2のインデックスを生成することと、第2の動きベクトルと第2のMVPとに基づいて第2のMVDを生成することと、現在ビデオブロックについての符号化ビットストリームの一部として、第1のインデックスと第1のMVDと第2のインデックスと第2のMVDとを出力することとを行うように構成される。
別の例では、本開示では、双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するためにAMVPが使用される、ビデオデータを復号するための機器について説明する。本機器は、第1の動きベクトルに関連する第1のMVDを受信するための手段と、第1のMVPを識別する第1のインデックスを受信するための手段と、第1のMVDと第1のMVPとに基づいて第1の動きベクトルを生成するための手段と、第2の動きベクトルに関連する第2のMVDを受信するための手段と、第2のMVPを識別する第2のインデックスを受信するための手段と、ここで第2のMVPが、第1の動きベクトルに基づいて定義される、第2のMVDと第2のMVPとに基づいて第2の動きベクトルを生成するための手段とを備える。
別の例では、本開示では、双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するためにAMVPが使用される、ビデオデータを符号化するための機器について説明する。本機器は、現在ビデオブロックを双方向予測インターモードでコード化するために使用されるべき第1の動きベクトルを決定するための手段と、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1のMVPを識別するための手段と、第1のMVPを識別する第1のインデックスを生成するための手段と、第1の動きベクトルと第1のMVPとに基づいて第1のMVDを生成するための手段と、現在ビデオブロックを双方向予測インターモードでコード化するために使用されるべき第2の動きベクトルを決定するための手段と、動きベクトルの第2のセットに基づいて第2のMVPを識別するための手段と、ここで動きベクトルの第2のセットが、隣接ビデオブロックの1つ以上に関連する動きベクトルと、第1の動きベクトルに基づく候補とを含む、第2のMVPを識別する第2のインデックスを生成するための手段と、第2の動きベクトルと第2のMVPとに基づいて第2のMVDを生成するための手段と、現在ビデオブロックについての符号化ビットストリームの一部として、第1のインデックスと第1のMVDと第2のインデックスと第2のMVDとを出力するための手段とを備える。
本開示で説明する技法は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せで実施され得る。例えば、様々な技法が、1つ以上のプロセッサによって実施又は実行され得る。本明細書で使用するプロセッサは、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、又は他の等価の集積又はディスクリート論理回路を指すことがある。ソフトウェアは、1つ以上のプロセッサによって実行され得る。本技法を実行する命令を備えるソフトウェアは、最初にコンピュータ可読媒体に記憶され、プロセッサによってロードされ、実行され得る。
従って、本開示はまた、プロセッサに、本開示で説明するいずれかの技法を実行させる命令を備えるコンピュータ可読記憶媒体を企図する。場合によっては、コンピュータ可読記憶媒体はコンピュータプログラム記憶製品の一部を形成し得、コンピュータプログラム記憶製品は、製造業者に販売され、及び/又は機器中で使用され得る。コンピュータプログラム製品はコンピュータ可読媒体を含み得、場合によってはパッケージング材料をも含み得る。
特に、本開示ではまた、双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するためにAMVPが使用される、実行されると、プロセッサにビデオデータを復号させる命令を備えるコンピュータ可読媒体について説明する。命令はプロセッサに、第1の動きベクトルに関連する第1のMVDを受信すると、及び第1のMVPを識別する第1のインデックスを受信すると、第1のMVDと第1のMVPとに基づいて第1の動きベクトルを生成することを行わせる。更に、命令はプロセッサに、第2の動きベクトルに関連する第2のMVDを受信すると、及び第1の動きベクトルに基づいて定義された第2のMVPを識別する第2のインデックスを受信すると、第2のMVDと第2のMVPとに基づいて第2の動きベクトルを生成することを行わせる。
更に別の例では、本開示では、双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するためにAMVPが使用される、実行されると、プロセッサにビデオデータを復号させる命令を備えるコンピュータ可読媒体について説明する。命令はプロセッサに、現在ビデオブロックを双方向予測インターモードでコード化するために使用されるべき第1の動きベクトルを決定することと、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1のMVPを識別することと、第1のMVPを識別する第1のインデックスを生成することと、第1の動きベクトルと第1のMVPとに基づいて第1のMVDを生成することと、現在ビデオブロックを双方向予測インターモードでコード化するために使用されるべき第2の動きベクトルを決定することと、動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで動きベクトルの第2のセットが、隣接ビデオブロックの1つ以上に関連する動きベクトルと、第1の動きベクトルに基づく候補とを含む、第2のMVPを識別する第2のインデックスを生成することと、第2の動きベクトルと第2のMVPとに基づいて第2のMVDを生成することと、現在ビデオブロックについての符号化ビットストリームの一部として、第1のインデックスと第1のMVDと第2のインデックスと第2のMVDとを出力することとを行わせる。
本開示の1つ以上の態様の詳細を添付の図面及び以下の説明に記載する。本開示で説明する技法の他の特徴、目的、及び利点は、これらの説明及び図面、ならびに特許請求の範囲から明らかになろう。
本開示の技法の1つ以上を実施し得る1つの例示的なビデオ符号化及び復号システムを示すブロック図。 本開示の技法に一致する、コード化ユニット(CU)の4分木区分を示す概念図。 本開示の技法を実施し得るビデオエンコーダを示すブロック図。 本開示の1つ以上の例に一致するエンコーダの例示的な予測ユニットを示すブロック図。 本開示の技法を実施し得るビデオデコーダを示すブロック図。 現在ビデオブロックが、本開示に一致する、双方向予測インターモードで1つ以上の異なる隣接ビデオブロックの情報を使用し得るような、現在ビデオブロックに対する異なる隣接ビデオブロックのロケーションを示す概念図。 現在ビデオブロックが、本開示に一致する、双方向予測インターモードで1つ以上の異なる隣接ビデオブロックの情報を使用し得るような、現在ビデオブロックに対する隣接ビデオブロックを示す別の概念図。 双方向予測されたビデオブロックの1つの動きベクトルが、双方向予測されたビデオブロックの別の動きベクトルのための候補MVPを定義するためにどのように使用され得るかを示す概念図。 双方向予測されたビデオブロックの1つの動きベクトルが、双方向予測されたビデオブロックの別の動きベクトルのための候補MVPを定義するためにどのように使用され得るかを示す概念図。 双方向予測されたビデオブロックの1つの動きベクトルが、双方向予測されたビデオブロックの別の動きベクトルのための候補MVPを定義するためにどのように使用され得るかを示す概念図。 双方向予測されたビデオブロックの1つの動きベクトルが、双方向予測されたビデオブロックの別の動きベクトルのための候補MVPを定義するためにどのように使用され得るかを示す概念図。 双方向予測されたビデオブロックの1つの動きベクトルが、双方向予測されたビデオブロックの別の動きベクトルのための候補MVPを定義するためにどのように使用され得るかを示す概念図。 本開示に一致する技法を示す流れ図。 本開示に一致する技法を示す流れ図。
本開示では、適応動きベクトル予測(AMVP)を使用する双方向予測インターモードに適用可能なビデオ符号化及び復号技法について説明する。AMVPの場合、動きベクトルは、隣接ブロックに関連する動きベクトルなど、他の動きベクトルに対する差分値(即ち、デルタ)として符号化される。AMVPに従って現在動きベクトルを符号化するためにどの隣接ビデオブロックが使用されるかを定義するために、インデックスが使用され得る。特に、本開示では、AMVPが、双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために使用される、ビデオデータを符号化又は復号するための技法について説明する。双方向予測インターモードは、ビデオブロックが、2つの予測ビデオブロックに関連する2つの異なる動きベクトルに基づいてコード化される、任意のビデオコード化モードを指す。
より詳細には、本開示では、双方向予測ビデオブロックの1つの動きベクトルが、双方向予測ビデオブロックの別の動きベクトルを予測するための候補動きベクトル予測子(MVP)を定義するために使用され得る技法について説明する。多くの例では、双方向予測ビデオブロックの第1の動きベクトルのスケーリングバージョンが、双方向予測ビデオブロックの第2の動きベクトルのためのMVPとして使用される。このようにして、双方向予測ビデオブロックの第2の動きベクトルのための追加のMVP候補を定義することによって、圧縮の改善が達成され得る。
たいていのビデオコード化システムでは、データ圧縮を達成するために、ビデオシーケンス中の時間的冗長性を低減するために動き推定及び動き補償が使用される。この場合、動きベクトルは、コード化されている現在ビデオブロックの値を予測するために使用され得る、例えば、別のビデオフレーム又はスライスからビデオデータの予測ブロックを識別するように生成され得る。予測ビデオブロックの値が、現在ビデオブロックの値から減算されて、残差データのブロックが生成される。動きベクトルは、残差データとともにエンコーダからデコーダに通信される。デコーダは、(動きベクトルに基づいて)同じ予測ブロックを配置し、残差データを予測ブロックのデータと組み合わせることによって符号化されたビデオブロックを再構成することができる。ビデオ圧縮を更に改善するために、変換及びエントロピーコード化などの多くの他の圧縮技法も使用され得る。
動き推定プロセスは、通常エンコーダにおいて行われる。動き情報(動きベクトル、動きベクトルインデックス、予測方向、又は他の情報など)は、デコーダによって記憶及びアクセスされるか、又はエンコーダからデコーダに送信され得る符号化ビットストリーム中に含まれ得る。符号化ビットストリーム中の動き情報に基づいて、デコーダは、所与のビデオブロックを符号化するために使用される予測ブロックを識別することができる。
場合によっては、動きベクトルの予測コード化は、動きベクトルを通信するために必要なデータの量を更に低減するために適用される。この場合、動きベクトル自体を符号化し、通信するのではなく、エンコーダは、知られている(又は知り得る)動きベクトルに対する動きベクトル差分(MVD)を符号化し、通信する。場合によっては、現在動きベクトルを定義するためにMVDとともに使用され得る、知られている動きベクトルは、(図6に示すネイバーブロックX、Y、及びZなどの)隣接ブロックに関連する動きベクトルの中央値として導出され得る、所謂動きベクトル予測子(MVP)によって定義され得る。有効な候補MVPであるために、所与の動きベクトルが、MVPとMVDとによって現在コード化されている動きベクトルと同じビデオフレームを指す必要があり得る。
MVPのための候補として空間的及び時間的方向において幾つかの隣接ブロックを含むことによって動きベクトル候補セットを構築するために、適応動きベクトル予測(AMVP)と呼ばれるより高度な技法が提案されている。この場合、エンコーダは、符号化レートと歪みとの分析に基づいて(例えば、所謂レート歪みコスト分析(rate-distortion cost analysis)を使用して)候補セットから最も正確な予測子を選択することができる。MVPをどこに配置すべきかをデコーダに通知するために、動きベクトル予測子インデックス(mvp_idx)がデコーダに送信され得る。インデックスは、概して、MVP候補のセットからMVPを識別する情報を指す。MVDも通信される。デコーダは、動きベクトルを再構成するために、MVDを(動きベクトル予測子インデックスによって定義された)MVPと組み合わせることができる。デコーダは、(エンコーダのように)インデックスが様々な基準に基づいて適用される候補MVPのセットを定義することができる。エンコーダ及びデコーダは、インデックスがどのようにMVP候補にマッピングしているかがわかるようにプログラムされ得、これらのマッピングは、例えば、AMVPを使用する、前にコード化されたビデオブロックの統計値に基づいて経時的に一層適応し得る。
幾つかのビデオコード化モードは、1つのビデオブロックを予測するために2つの異なる動きベクトルを提供する。所謂双方向予測は、例えば、2つの異なる予測ビデオブロックの(時々重み付けされた)組合せに基づく予測ビデオブロックの作成を可能にし得る。従って、そのような双方向予測インターモードの場合、2つの異なる動きベクトルが予測プロセスのために使用される。
本開示では、双方向予測ビデオブロックの1つの動きベクトルが、双方向予測ビデオブロックの別の動きベクトルを予測するための候補MVPを定義するために使用され得る技法について説明する。多くの例では、双方向予測ビデオブロックの第1の動きベクトルのスケーリングバージョンが、双方向予測ビデオブロックの第2の動きベクトルのためのMVPとして使用される。このようにして、双方向予測ビデオブロックの第2の動きベクトルのための追加のMVP候補を定義することによって、圧縮の改善が達成され得る。
図1は、本開示の技法を実施し得る例示的なビデオ符号化及び復号システム10を示すブロック図である。図1に示すように、システム10は、通信チャネル15を介して符号化ビデオを宛先機器16に送信する発信源12を含む。発信源12及び宛先機器16は、広範囲にわたる機器のいずれかを備え得る。場合によっては、発信源12及び宛先機器16は、所謂セルラー無線電話又は衛星無線電話などのワイヤレス通信機器ハンドセットを備え得る。但し、概して双方向予測インターモードでのビデオブロックの符号化及び復号に適用される本開示の技法は、ビデオ符号化及び/又は復号能力を含む非ワイヤレス機器に適用され得る。発信源12及び宛先機器16は、本明細書で説明する技法をサポートすることができるコード化機器の例にすぎない。例えば、本技法は、符号化ビットストリームを記憶するために、符号化機器によって適用され得るか、又は本技法は、復号機器によって、記憶又は通信された(例えば、ストリーミング)ビットストリームに適用され得る。
図1の例では、発信源12は、ビデオ発信源20と、ビデオエンコーダ22と、変調器/復調器(モデム)23と、送信機24とを含み得る。宛先機器16は、受信機26と、モデム27と、ビデオデコーダ28と、表示装置30とを含み得る。本開示によれば、発信源12のビデオエンコーダ22は、双方向予測インターモードに従って1つ以上のビデオブロックを符号化するように構成され得る。AMVPを使用する双方向予測インターモードの場合、2つの異なる動きベクトルに基づいて、ビデオブロックが予測され得る。動きベクトルは、動きベクトルについてのMVPを定義するインデックス値によって、及びMVPに対する動きベクトルの差(又はデルタ)を定義する動きベクトル差分(MVD)によって定義され得る。デコーダは、所与の動きベクトルを定義するために、MVPを、対応するMVDと組み合わせることができる。MVPについてのインデックスを識別するために、及び異なる予測された動きベクトルのためのMVDを定義するために、ビデオエンコーダ22においてシンタックス要素が生成され得る。ビデオデコーダは、シンタックス要素によって定義されたMVPとMVDとに基づいて双方向予測ビデオブロックを再構成することができる。
より詳細には、ビデオエンコーダ22は、現在ビデオブロックを符号化するために、ならびに動きベクトルのために使用される2つの異なるMVPを識別するために双方向予測インターモードを選択し得る。ビデオエンコーダ22は、動きベクトルと、その動きベクトルをコード化するために使用される対応するMVPとの間の差としてMVDを生成し得る。ビデオエンコーダ22は、ビデオデコーダへのMVPとMVDとを識別するために、1つ以上のシンタックス要素を生成し得る。同じく、本開示では、双方向予測ビデオブロックの1つの動きベクトルが、双方向予測ビデオブロックの別の動きベクトルを予測するための候補MVPを定義するために使用され得る技法について説明する。例えば、双方向予測ビデオブロックの第1の動きベクトルのスケーリングバージョンが、双方向予測ビデオブロックの第2の動きベクトルのためのMVPとして使用され、それにより、データ圧縮が改善され得る。幾つかの異なるスケーリング技法について、以下で更に詳細に説明する。
ビデオ発信源20は、ビデオカメラ、前に撮影されたビデオを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからのビデオフィード、又はビデオの別の発信源など、撮像装置を備え得る。さらなる代替として、ビデオ発信源20は、発信源ビデオとしてのコンピュータグラフィックスベースのデータ、又はライブビデオとアーカイブビデオとコンピュータ生成ビデオとの組合せを生成し得る。場合によっては、ビデオ発信源20がビデオカメラである場合、発信源12及び宛先機器16は、所謂カメラフォン又はビデオフォンを形成し得る。各場合において、撮影されたビデオ、事前撮影されたビデオ又はコンピュータ生成ビデオは、ビデオエンコーダ22によって符号化され得る。
ビデオデータがビデオエンコーダ22によって符号化されると、符号化されたビデオ情報は、次いで、例えば、符号分割多元接続(CDMA)、直交周波数分割多重化(OFDM)あるいは他の通信規格又は技法などの通信規格に従ってモデム23によって変調され得る。次いで、符号化及び変調されたデータは、送信機24を介して宛先機器16に送信され得る。モデム23は、信号変調のために設計された様々なミキサ、フィルタ、増幅器又は他の構成要素を含み得る。送信機24は、増幅器、フィルタ、及び1つ以上のアンテナを含む、データを送信するために設計された回路を含み得る。宛先機器16の受信機26はチャネル15を介して情報を受信し、モデム27はその情報を復調する。
ビデオデコーダ28によって実行されるビデオ復号プロセスは、ビデオエンコーダ22によって実行される符号化技法とは逆の技法を含み得る。特に、ビデオデコーダ28は、現在ビデオブロックについての1つ以上のシンタックス要素を受信し得、現在ビデオブロックは双方向予測インターモードに従って符号化され、ビデオデコーダ28は、1つ以上のシンタックス要素に基づいてMVPとMVDとを識別し得る。ビデオデコーダは、双方向予測インターモードに従って現在ビデオブロックを復号するために、受信したMVPとMVDとを使用し得る。
通信チャネル15は、説明のために示されているにすぎず、多くの例では必要でない。図1では、通信チャネル15は、無線周波数(RF)スペクトル又は1つ以上の物理伝送線路など、任意のワイヤレス又はワイヤード通信媒体、又はワイヤレス媒体とワイヤード媒体との任意の組合せを備え得る。通信チャネル15は、ローカルエリアネットワーク、ワイドエリアネットワーク、又はインターネットなどのグローバルネットワークなど、パケットベースネットワークの一部を形成し得る。通信チャネル15は、一般に、ビデオデータを発信源12から宛先機器16に送信するのに好適な任意の通信媒体、又は様々な通信媒体の集合体を表す。この場合も、図1は例にすぎず、本開示の技法は、符号化機器と復号機器との間のデータ通信を必ずしも含むとは限らないビデオコード化設定(例えば、ビデオ符号化又はビデオ復号)に適用され得る。他の例では、データがローカルメモリから取り出されること、ネットワークを介してストリーミングされることなどが行われ得る。
場合によっては、ビデオエンコーダ22及びビデオデコーダ28は、新生のHVEC規格などのビデオ圧縮規格に実質的に従って動作し得る。しかしながら、本開示の技法はまた、幾つかの古い規格、又は新しい若しくは新生の規格を含む、様々な他のビデオコード化規格のコンテキストにおいて適用され得る。図1には示されていないが、場合によっては、ビデオエンコーダ22及びビデオデコーダ28は、それぞれオーディオエンコーダ及びデコーダと統合され得、適切なMUX−DEMUXユニット、又は他のハードウェア及びソフトウェアを含んで、共通のデータストリーム又は別個のデータストリーム中のオーディオとビデオの両方の符号化を処理し得る。適用可能な場合、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、又はユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
ビデオエンコーダ22及びビデオデコーダ28はそれぞれ、1つ以上のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェア、又はそれらの組合せとして実施され得る。ビデオエンコーダ22及びビデオデコーダ28の各々は1つ以上のエンコーダ又はデコーダ中に含まれ得、そのいずれも複合エンコーダ/デコーダ(コーデック)の一部としてそれぞれのモバイル機器、加入者機器、ブロードキャスト機器、サーバなどに統合され得る。本開示では、コーダという用語はエンコーダ、デコーダ、又はコーデックを指し、コーダ、エンコーダ、デコーダ、及びコーデックという用語はすべて、本開示に一致するビデオデータのコード化(符号化及び/又は復号)のために設計された特定の機械を指す。
場合によっては、機器12、16は、実質的に対称的に動作し得る。例えば、機器12、16の各々は、ビデオ符号化構成要素とビデオ復号構成要素とを含み得る。従って、システム10は、例えば、ビデオストリーミング、ビデオ再生、ビデオブロードキャスト、又はビデオテレフォニーのためのビデオ機器12とビデオ機器16との間の一方向又は双方向のビデオ送信をサポートし得る。
符号化プロセス中に、ビデオエンコーダ22は、幾つかのコード化技法又は演算を実行し得る。概して、ビデオエンコーダ22は、HEVC規格に一致するビデオデータのブロック上で動作する。HEVCに従って、ビデオブロックは、コード化ユニット(CU)と呼ばれ、多くのCUは、個々のビデオフレーム(又は、スライスなど、ビデオの他の単独で定義されたユニット)内に存在する。フレーム、スライス、フレームの部分、ピクチャグループ、又は他のデータ構造は、複数のCUを含むビデオ情報のユニットとして定義され得る。CUは、HEVC規格に従って変動するサイズを有し得、ビットストリームは、最大コード化ユニット(LCU)をCUの最大サイズとして定義し得る。双方向予測インターモードは、LCU、CU、又は場合によっては他のタイプのビデオブロックを符号化するために使用され得る。HEVC規格では、LCUが4分木区分方式に従ってますます小さいCUに分割され得、その方式において定義されている様々なCUは、更に、所謂予測ユニット(PU)に区分され得る。LCU、CU、及びPUは、すべて、本開示の意味内のビデオブロックである。
ビデオエンコーダ22は、コード化されているビデオブロック(例えば、LCU内のCUのPU)が、予測ブロックを識別するために1つ以上の予測候補と比較される、予測コード化を実行し得る。予測コード化のこのプロセスは、イントラ(その場合、予測データは、同じビデオフレーム又はスライス内の近隣イントラデータに基づいて生成される)、又はインター(その場合、予測データは、前又は後続のフレーム又はスライス中のビデオデータに基づいて生成される)であり得る。多くの異なるコード化モードがサポートされ得、ビデオエンコーダ22は、望ましいビデオコード化モードを選択し得る。本開示によれば、少なくとも幾つかのビデオブロックは、本明細書で説明する双方向予測インターモードを使用してコード化され得る。双方向予測インターモードは、2つの動きベクトルによって識別された2つの予測ブロックに対する異なるブロックサイズ又は異なる重み付け割振りのために別様に定義され得る幾つかの可能な双方向予測インターモードのいずれかを指すことがある。
双方向予測インターモードの場合、予測ブロックは、2つの予測ブロックの組合せ、例えば、場合によっては重み付けされた組合せとして生成され得る。第1の予測ブロックは、第1の動きベクトルに基づいて生成され、第2の予測ブロックは、第2の動きベクトルに基づいて生成される。第1の動きベクトルは、MVPとMVDとを定義するインデックスによって定義されるが、第2の動きベクトルは、別のMVPと別のMVDとを定義する別のインデックスによって定義される。本開示によれば、第2の動きベクトルのためのMVP候補のうちの少なくとも1つは、第1の動きベクトルに基づいて生成され得る。
予測ブロックを生成した後に、コード化されている現在のビデオブロックと予測ブロックとの間の差は残差ブロックとしてコード化され、予測ブロックを識別するために予測シンタックスが使用される。本明細書で説明する双方向予測インターモードの場合、予測シンタックス(例えば、シンタックス要素)は、ビデオデコーダへのMVDとMVPとを識別し得る。従って、デコーダは、双方向予測インターモードに従って現在ビデオブロックを復号するためにMVDとMVPとを使用することができる。
残差ブロックは、変換され、量子化され得る。変換技法は、DCTプロセス又は概念的に同様のプロセス、整数変換、ウェーブレット変換、又は他のタイプの変換を備え得る。DCTプロセスでは、一例として、変換プロセスは、画素値(例えば、残差画素値)のセットを、周波数領域における画素値のエネルギーを表し得る変換係数に変換する。HEVC規格は、CUごとに異なり得る変換単位(TU)に従う変換を可能にする。特に、CUに対応する残差サンプルは、「残差4分木」(RQT:residual quad tree)として知られる4分木構造を使用して、より小さい単位に再分割され得る。RQTのリーフノードはTUと呼ばれることがある。TUは、変換され、量子化され得る。
量子化は、変換係数に適用され得、概して、所与の変換係数に関連するビット数を制限するプロセスを必要とする。より詳細には、量子化は、LCUレベルで定義される量子化パラメータ(QP)に従って適用され得る。従って、同じレベルの量子化が、LCU内のCUの異なるPUに関連するTU中のすべての変換係数に適用され得る。但し、QP自体を信号伝達するのではなく、前のLCUの変化に対するQPの変化を示すために、QPの変化(即ち、デルタ)がLCUとともに信号伝達され得る。
変換及び量子化の後に、量子化及び変換された残差ビデオブロックに対してエントロピーコード化が実行され得る。また、シンタックス要素がエントロピーコード化ビットストリーム中に含まれ得る。概して、エントロピーコード化は、量子化変換係数のシーケンス及び/又は他のシンタックス情報をまとめて圧縮する、1つ以上のプロセスを備える。2次元ビデオブロックから係数の1つ以上のシリアル化1次元ベクトルを定義するために、量子化変換係数に対して走査技法が実行され得る。走査された係数は次いで、例えば、コンテンツ適応型可変長コード化(CAVLC:content adaptive variable length coding)、コンテキスト適応型バイナリ算術コード化(CABAC:context adaptive binary arithmetic coding)、又は別のエントロピーコード化プロセスによって、任意のシンタックス情報とともにエントロピーコード化される。
符号化プロセスの一部として、符号化されたビデオブロックは、後続のビデオブロックの後続の予測ベースコード化のために使用されるビデオデータを生成するために復号され得る。これは、しばしば、符号化プロセスの復号ループと呼ばれ、概して、デコーダ機器によって実行される復号を模倣する。エンコーダ又はデコーダの復号ループでは、ビデオ品質を改善し、例えば、画素境界を平滑化し、場合によっては、復号されたビデオからアーティファクトを除去するために、フィルタ処理技法が使用され得る。このフィルタ処理はループ内又はループ後であり得る。ループ内フィルタ処理の場合、コード化ループ中で再構成ビデオデータのフィルタ処理が行われ、これは、フィルタ処理されたデータが、後続の画像データの予測において後で使用するためにエンコーダ又はデコーダによって記憶されることを意味する。対照的に、ループ後フィルタ処理の場合、コード化ループの外で再構成ビデオデータのフィルタ処理が行われ、これは、データのフィルタ処理されていないバージョンが、後続の画像データの予測において後で使用するためにエンコーダ又はデコーダによって記憶されることを意味する。ループ内フィルタ処理又はループ後フィルタ処理は、しばしば、ビデオブロック境界に現れるブロック歪み(blockiness artifacts)を除去するために、一般に、隣接するビデオブロックの境界上に又はその近くにある画素にフィルタ処理を適用する別のデブロックフィルタ処理プロセスに続く。また、デブロックフィルタ処理は、ループ内又はループ後に実行され得る。
前のコード化規格と比較して、新生HEVC規格は、ビデオブロックについての新しい用語及びブロックサイズを導入している。特に、HEVCは、4分木区分方式に従って区分され得るコード化ユニット(CU)を指す。「LCU」は、所与の状況においてサポートされる最大サイズのコード化ユニット(例えば、「最大コード化ユニット」)を指す。LCUサイズは、それ自体が、ビットストリームの一部として、例えば、シーケンスレベルシンタックスとして信号伝達され得る。LCUは、より小さいCUに区分され得る。CUは、予測のために予測ユニット(PU)に区分され得る。PUは正方形又は長方形の形状を有し得るが、他の形状も使用され得る。変換は、新生HEVC規格において固定されていないが、所与のCUと同じサイズであるか、又は場合によってはより小さくなり得る変換ユニット(TU)サイズに応じて定義される。所与のCUについての残差データは、TU中で通信され得る。シンタックス要素は、LCUレベル、CUレベル、PUレベル及びTUレベルにおいて定義され得る。
HEVC規格に従ってビデオブロックを示すために、図2は、深さ64×64のLCUを概念的に示しており、次いで、LCUは、4分木区分方式に従ってより小さいCUに区分される。「分割フラグ」と呼ばれる要素が、所与のCU自体が更に4つのCUに再分割されるかどうかを示すためのCUレベルシンタックスとして含まれ得る。図2では、CU0はLCUを備え得、CU1〜CU4はLCUのサブCUを備え得る。双方向予測インターモードシンタックス要素は、本開示で説明するように、CUレベル(又は場合によっては、LCUがより小さいCUに分割されていない場合、LCUレベル)で定義され得る。また、幾つかの例では、双方向予測インターモードは、CUのPUのためにサポートされ得る。
図3は、本開示に一致するビデオエンコーダ50を示すブロック図である。ビデオエンコーダ50は、機器20のビデオエンコーダ22、又は異なる機器のビデオエンコーダに対応し得る。図3に示すように、ビデオエンコーダ50は、予測符号化ユニット32と、4分木区分ユニット31と、加算器48及び51と、メモリ34とを含む。ビデオエンコーダ50はまた、変換ユニット38及び量子化ユニット40、ならびに逆量子化ユニット42及び逆変換ユニット44を含む。ビデオエンコーダ50はまた、エントロピーコード化ユニット46とフィルタユニット47とを含み、フィルタユニット47は、デブロックフィルタと、ループ後フィルタ及び/又はループ内フィルタとを含み得る。符号化の方法を定義する符号化ビデオデータ及びシンタックス情報は、エントロピー符号化ユニット46に通信され得、エントロピー符号化ユニット46はビットストリームに対してエントロピー符号化を実行する。
図3に示すように、予測符号化ユニット32は、ビデオブロックの符号化において複数の異なるコード化モード35をサポートし得る。モード35は、異なるビデオフレーム(又はスライス)から予測データを定義するインターコード化モードを含み得る。インターコード化モードは双方向予測であり得、これは、予測データの2つの異なるリスト(例えば、リスト0及びリスト1)(並びに一般に2つの異なる動きベクトル)が、予測データを識別するために使用されることを意味する。インターコード化モードは、代替的に単予測であり得、これは、予測データの1つのリスト(例えば、リスト0)(及び一般に1つの動きベクトル)が、予測データを識別するために使用されることを意味する。補間、オフセット又は他の技法が、予測データの生成と併せて実行され得る。別のフレーム(又はスライス)の同位置配置ブロック(co-located block)に関連する動き情報を継承する、所謂SKIPモード及びDIRECTモードもサポートされ得る。SKIPモードブロックは残差情報を含まないが、DIRECTモードブロックは残差情報を含む。隣接ビデオブロックから動き情報を継承し得るMERGEモードもサポートされ得る。
更に、モード35は、コード化されているビデオフレーム(又はスライス)と同じビデオフレーム内のデータに基づいて予測データを定義するインターコード化モードを含み得る。イントラコード化モードは、同じフレーム内の特定の方向におけるデータに基づいて予測データを定義する指向性モード、及び近隣データの平均又は重み付き平均に基づいて予測データを定義するDC及び/又は平面モードを含み得る。予測符号化ユニット32は、レート歪み分析、又はブロックサイズ、テクスチャ若しくは他の特性などのブロックの何らかの特性に基づいてなど、何らかの基準に基づいて所与のブロックのためのモードを選択し得る。
本開示によれば、予測符号化ユニット32は双方向予測インターモード35Xをサポートする。説明する双方向予測インターモード35Xの場合、コード化されているビデオブロックが、2つの異なる予測ビデオブロックに関連する予測データに基づいて双方向予測される。2つの予測ビデオブロックは、平均されるか、又は異なる画素値の何らかの重み付け和を介してなど、別の方法で組み合わせられ得る。2つの予測ビデオブロックは、それら自体がMVPに基づいて予測される2つの異なる動きベクトルによって識別され得る。従って、双方向予測インターモード35Xの場合、予測符号化ユニット32は、MVPの各々を識別するためのインデックスを生成し得、コード化されている動きベクトルと、動きベクトルをコード化するために使用される対応するMVPとの間の差を表すMVDを生成し得る。双方向予測インターモード35Xは、2つの動きベクトルによって識別された2つの予測ブロックに対する異なるブロックサイズ又は異なる重み付け割振りのために別様に定義され得る、多くの双方向予測インターモードのうちの1つに実際に対応し得る。言い換えれば、図3は、1つの双方向予測インターモード35Xを示しているが、多くはサポートされ得、そのようなモードの一部又は全部は本開示の技法を使用し得る。
その上、本開示によれば、MVP候補は、双方向予測インターモード35Xでコード化された2つの動きベクトルのうちの少なくとも1つのために拡張され得る。例えば、動きベクトルのうちの第1の動きベクトルは、1つ以上の隣接ビデオブロックの動きベクトルによって定義されたMVP候補に基づいてコード化され得る。しかしながら、動きベクトルのうちの第1の動きベクトルがコード化されると、その動きベクトル自体は、現在ビデオブロックの動きベクトルのうちの第2の動きベクトルを双方向予測インターモード35Xでコード化するための更に別のMVP候補を定義するために使用され得る。このようにして、第2の動きベクトルをコード化するために使用されるMVP候補の数は拡張され、その結果、場合によってはビデオ圧縮が改善される。第2の動きベクトルをコード化するための新しいMVP候補は、第1の動きベクトル、又は場合によっては第1の動きベクトルのスケーリングバージョンを備え得る。スケーリングは、2つの動きベクトルが予測ビデオデータの同じリストを指さない場合に実行され得る。スケーリングは、第1の動きベクトルに対するMVPの長さを拡張し得、及び/又は異なる方向(例えば、逆方向ではなく順方向)において動きベクトルを拡張し得る。双方向予測インターモードに関連する予測ブロックを(場合によっては重み係数を使用して)組み合わせて1つの双方向予測ブロックを形成し得、双方向予測ブロックは、双方向予測インターモードでコード化されたブロックに関連する残差データを定義するために、コード化されている現在ブロックから(加算器48を介して)減算され得る。
双方向予測インターモード35Xを適用する際に、予測符号化ユニット32は、現在ビデオブロックを双方向予測インターモードでコード化するために使用されるべき第1の動きベクトルを決定することと、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1のMVPを識別することと、第1のMVPを識別する第1のインデックスを生成することと、第1の動きベクトルと第1のMVPとに基づいて第1のMVDを生成することとを行い得る。更に、予測符号化ユニット32は、現在ビデオブロックを双方向予測インターモードでコード化するために使用されるべき第2の動きベクトルを決定することと、動きベクトルの第2のセットに基づいて第2のMVPを識別することであって、動きベクトルの第2のセットが、隣接ビデオブロックの1つ以上に関連する動きベクトルと、第1の動きベクトルに基づく候補とを含む、識別することと、第2のMVPを識別する第2のインデックスを生成することと、第2の動きベクトルと第2のMVPとに基づいて第2のMVDを生成することとを行い得る。予測符号化ユニット32は、現在ビデオブロックについての符号化ビットストリームの一部として、第1のインデックスと第1のMVDと第2のインデックスと第2のMVDとを出力し得る。第2の動きベクトルのMVPコード化のために、第1の動きベクトルに基づく候補がどのように定義され得るかを示す幾つかの例について、以下で説明する。
HEVCの場合、コード化されている現在ビデオブロックは、4分木区分方式に従ってLCUに対して定義された、所謂CUを備え得る。この場合、4分木区分ユニット31は、4分木区分方式を定義するLCUシンタックスデータを生成し得、予測符号化ユニット32は、双方向予測インターモードを定義するCUについてのモード情報を生成し得、(MVPとMVDとを識別する)1つ以上のシンタックス要素は、CUについてのモード情報中に含まれる。説明する双方向予測インターモードは、2つの双方向予測動きベクトルのうちの1つをコード化するコンテキストにおいて使用され得るMVP候補の数を増加させ得る。
概して、符号化プロセス中に、ビデオエンコーダ50は、入力ビデオデータを受信する。予測符号化ユニット32は、ビデオブロック(例えば、CU及びPU)に対して予測コード化技法を実行する。4分木区分ユニット31は、図2に関して上記で説明したHEVC区分に従ってLCUをより小さいCUとPUとに分け得る。インターコード化の場合、予測符号化ユニット32は、予測ブロックを定義するために、CU又はPUを、1つ以上のビデオ参照フレーム又はスライス(例えば、参照データの1つ以上の「リスト」)中の様々な予測候補と比較する。イントラコード化の場合、予測符号化ユニット32は、同じビデオフレーム又はスライス内の近隣データに基づいて予測ブロックを生成する。予測符号化ユニット32は予測ブロックを出力し、加算器48は、残差ブロックを生成するために、コード化されているCU又はPUから予測ブロックを減算する。この場合も、少なくとも幾つかのビデオブロックは、本明細書で説明する双方向予測インターモードを使用してコード化され得る。
図4に、ビデオエンコーダ50の予測符号化ユニット32の一例をより詳細に示す。予測符号化ユニット32は、双方向予測インターモード35Xを候補として含むモード35から所望のモードを選択するモード選択ユニット75を含み得る。インターコード化の場合、予測符号化ユニット32は、予測データを指す1つ以上の動きベクトルを識別し、1つ以上の動きベクトルに基づいて予測ブロックを生成する、動き推定(ME)ユニット76と動き補償(MC)ユニット77とを備え得る。一般に、動き推定は、動きを推定する、1つ以上の動きベクトルを生成するプロセスと考えられる。例えば、1つ以上の動きベクトルは、現在のフレーム内のコード化されている現在のブロックに対する予測フレーム内の1つ以上の予測ブロックの変位を示し得る。双方向予測インターモード35Xの場合、双方向予測を作成するために、2つの動きベクトルが組み合わせられる。本開示の技法は、詳細には、動きベクトル自体がコード化され、例えば、動きベクトルのうちの一方が、動きベクトルのうちの他方を予測するためのMVPを定義するために使用されることを可能にする方法に関係する。この場合も、双方向予測インターモード35Xは、2つの動きベクトルによって識別された2つの予測ブロックに対する異なるブロックサイズ又は異なる重み付け割振りのために別様に定義され得る、多くの双方向予測インターモードのうちの1つに実際に対応し得る。言い換えれば、図4は、1つの双方向予測インターモード35Xを示しているが、多くはサポートされ得、そのようなモードの一部又は全部は本開示の技法を使用し得る。
動き補償は、一般に、動き推定によって決定された1つ以上の動きベクトルに基づいて(1つ又は複数の)予測ブロックを取り込み又は生成するプロセスと考えられる。場合によっては、インターコード化の場合の動き補償は、サブ画素解像度への補間を含み得、それにより、動き推定プロセスがビデオブロックの動きをそのようなサブ画素解像度まで推定することを可能にする。2つのブロックの重み付けされた組合せも(双方向予測の場合)使用され得る。
イントラコード化の場合、予測符号化ユニット32は、イントラ予測ユニット78を備え得る。この場合、予測データは、(例えば、コード化されているビデオブロックに隣接する)現在ビデオブロック内のデータに基づいて生成され得る。同じく、イントラコード化モードは、同じフレーム内の特定の方向におけるデータに基づいて予測データを定義する指向性モード、及び近隣データの平均又は重み付き平均に基づいて予測データを定義するDC及び/又は平面モードを含み得る。
レート歪み(R−D)ユニット79は、異なるモードでのビデオブロック(例えば、CU又はPU)のコード化結果を比較し得る。更に、R−Dユニット79は、補間、オフセット、量子化パラメータ、又はコード化レートに影響を及ぼすことがある他のファクタに対する調整など、他のタイプのパラメータ調整を可能にし得る。モード選択ユニット75は、ビデオブロックのためのモード選択を行うために、コード化レート(即ち、ブロックに必要なコード化ビット)と、(例えば、元のブロックに対するコード化ブロックのビデオ品質を表す)歪みとに関してコード化結果を分析することができる。このようにして、R−Dユニット79は、モード選択ユニット75が、異なるビデオブロックのための所望のモードを選択することを可能にするために、異なるモードの結果の分析を行う。本開示に従って、双方向予測インターモード35Xは、R−Dユニット79が、例えば、コード化利得又はコード化効率により、双方向予測インターモード35Xを所与のビデオブロックのための所望のモードとして識別したとき選択され得る。
再び図3を参照すると、予測符号化ユニット32が予測ブロックを出力し、加算器48が、残差画素値の残差ブロックを生成するために、コード化されているビデオブロックから予測ブロックを減算した後に、変換ユニット38が残差ブロックに変換を適用する。変換は、離散コサイン変換(DCT)、又はITU H.264規格又はHEVC規格によって定義された変換など、概念的に同様の変換を備え得る。変換を実行するために、所謂「バタフライ」構造が定義され得るか、又は行列ベースの乗算も使用され得る。幾つかの例では、HEVC規格に従って、変換のサイズは、例えば、所与のLCUに関して行われる区分のレベルに応じて、異なるCUに対して変動し得る。変換単位(TU)は、変換ユニット38によって適用される変換サイズを設定するために定義され得る。ウェーブレット変換、整数変換、サブバンド変換又は他のタイプの変換も使用され得る。いずれの場合も、変換ユニットは、変換を残差ブロックに適用し、残差変換係数のブロックを生成する。変換は、概して、残差情報を画素領域から周波数領域に変換し得る。
次いで、量子化ユニット40が、ビットレートを更に低減するために残差変換係数を量子化する。量子化ユニット40は、例えば、係数の各々をコード化するために使用されるビット数を制限し得る。特に、量子化ユニット40は、(ΔQPを、前のLCUのQP又は何らかの他の知られているQPと組み合わせることなどによって)適用すべき量子化レベルを定義するために、LCUについて定義されたΔQPを適用し得る。残差サンプルに対して量子化が実行された後に、エントロピーコード化ユニット46は、データを走査し、エントロピー符号化し得る。
CAVLCは、エントロピーコード化ユニット46によってベクトル化ベースで適用され得る、ITU H.264規格と新生のHEVC規格とによってサポートされるエントロピーコード化技法の1つのタイプである。CAVLCは、係数及び/又はシンタックス要素のシリアル化「ラン」を効果的に圧縮するように可変長コード化(VLC)テーブルを使用する。CABACは、エントロピーコード化ユニット46によってベクトル化ベースで適用され得る、ITU H.264規格又はHEVC規格によってサポートされる別のタイプのエントロピーコード化技法である。CABACは、2値化、コンテキストモデル選択、及びバイナリ算術コード化を含む幾つかの段を必要とし得る。この場合、エントロピーコード化ユニット46は、CABACに従って係数及びシンタックス要素をコード化する。多くの他のタイプのエントロピーコード化技法も存在し、新しいエントロピーコード化技法が将来出現する可能性がある。本開示は、いかなる特定のエントロピーコード化技法にも限定されない。
エントロピー符号化ユニット46によるエントロピーコード化の後に、符号化ビデオは、別の機器に送信されるか、又は後で送信するか又は取り出すためにアーカイブされ得る。符号化ビデオは、エントロピーコード化ベクトルと、(双方向予測インターモードとMVPインデックスとMVDとを定義するシンタックス情報を含む)様々なシンタックス情報とを備え得る。そのような情報は、復号プロセスを適切に構成するためにデコーダによって使用され得る。逆量子化ユニット42及び逆変換ユニット44が、それぞれ逆量子化及び逆変換を適用して、画素領域において残差ブロックを再構成する。加算器51は、再構成された残差ブロックを、予測符号化ユニット32によって生成された予測ブロックに加算して、メモリ34に記憶するための再構成されたビデオブロックを生成する。しかしながら、そのような記憶より前に、フィルタユニット47は、ビデオ品質を改善するためにビデオブロックにフィルタ処理を適用し得る。フィルタユニット47によって適用されるフィルタ処理は、アーティファクトを低減し、画素境界を平滑化し得る。更に、フィルタ処理は、コード化されているビデオブロックへの緊密な一致を備える予測ビデオブロックを生成することによって、圧縮を改善し得る。
本開示によれば、双方向予測インターモード35Xがサポートされ、動きベクトルのうちの少なくとも一方は、動きベクトルのうちの他方によって定義されたMVPに基づいて予測される。このようにして、MVP候補は、双方向予測インターモード35Xでコード化された2つの動きベクトルのうちの少なくとも1つのために拡張され得る。例えば、動きベクトルのうちの第1の動きベクトルは、1つ以上の隣接ビデオブロックの動きベクトルによって定義されたMVP候補に基づいてコード化され得る。しかしながら、動きベクトルのうちの第1の動きベクトルがコード化されると、その動きベクトル自体は、現在ビデオブロックの動きベクトルのうちの第2の動きベクトルを双方向予測インターモード35Xでコード化するための更に別のMVP候補を定義するために使用され得る。このようにして、第2の動きベクトルをコード化するために使用されるMVP候補の数は拡張され、その結果、場合によってはビデオ圧縮が改善される。第2の動きベクトルをコード化するための新しいMVP候補は、第1の動きベクトル、又は場合によっては第1の動きベクトルのスケーリングバージョンを備え得る。様々なタイプのスケーリングの追加詳細について、以下で更に詳細に説明する。いずれの場合も、R−Dユニット79(図4)は、他のモードと比較して、このモードによって達成されるコード化利得のために、双方向予測インター35Xを最も望ましいコード化モードとして識別し得る。そのような場合、モード選択ユニット75は、所与のビデオブロックをコード化するために双方向予測インターモード35Xを選択し得る。
図5は、本明細書で説明する方法で符号化されたビデオシーケンスを復号するビデオデコーダ60の一例を示すブロック図である。本開示の技法は、幾つかの例ではビデオデコーダ60によって実行され得る。特に、ビデオデコーダ60は、双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するためにAMVPが使用される、ビデオデータを復号し得る。この場合、ビデオデコーダ60は、第1の動きベクトルに関連する第1のMVDを受信することと、第1のMVPを識別する第1のインデックスを受信することと、第1のMVDと第1のMVPとに基づいて第1の動きベクトルを生成することと、第2の動きベクトルに関連する第2のMVDを受信することと、第2のMVPを識別する第2のインデックスを受信することであって、第2のMVPが、第1の動きベクトルに基づいて定義された、受信することと、第2のMVDと第2のMVPとに基づいて第2の動きベクトルを生成することとを行い得る。
ビデオデコーダ60において受信されるビデオシーケンスは、画像フレームの符号化されたセット、フレームスライスのセット、一般にコード化されたピクチャグループ(GOP)を備え得、又は符号化されたLCU(又は他のビデオブロック)と、そのようなLCUをどのように復号すべきかを定義するシンタックス情報とを含むビデオ情報の多種多様なユニットを備え得る。LCUを復号するプロセスは、本明細書で説明する双方向予測インターモードであり得るコード化モードの指示を復号することを含み得る。
ビデオデコーダ60は、図2のエントロピー符号化ユニット46によって実行される符号化の相互復号機能を実行するエントロピー復号ユニット52を含む。特に、エントロピー復号ユニット52は、CAVLC又はCABAC復号、あるいはビデオエンコーダ50によって使用された他のタイプのエントロピー復号を実行し得る。エントロピー復号ユニット52は、エントロピーコード化データを含むビットストリームを受信し得る。エントロピー復号ユニット52は、本開示で説明するインデックスとMVDとを含む様々なシンタックス要素を生成するために、データを構文解析する。
ビデオデコーダ60はまた、予測復号ユニット54と、逆量子化ユニット56と、逆変換ユニット58と、メモリ62と、加算器64とを含む。特に、ビデオエンコーダ50と同様に、ビデオデコーダ60は、予測復号ユニット54とフィルタユニット57とを含む。ビデオデコーダ60の予測復号ユニット54は、動き補償ユニット86を含み得、動き補償ユニット86は、インターコード化ブロックを復号し、場合によっては、動き補償プロセスにおけるサブ画素補間のための1つ以上の補間フィルタを含む。予測復号ユニット54はまた、イントラモードを復号するためのイントラ予測ユニットを含み得る。予測復号ユニット54は、双方向予測インターモード55Xを含む複数のモード35をサポートし得る。フィルタユニット57は、加算器64の出力をフィルタ処理し得、ループフィルタ処理において適用されるフィルタ係数を定義するために、エントロピー復号されたフィルタ情報を受信し得る。双方向予測インターモード55Xは、実際に、予測復号ユニット54によってサポートされる多くの双方向予測インターモードのうちの1つに対応し得る。異なる双方向予測インターモードは、例えば、2つの動きベクトルによって識別された2つの予測ブロックに対する異なるブロックサイズ又は異なる重み付け割振りのために別様に定義され得る。従って、図5は、1つの双方向予測インターモード55Xを示しているが、多くはサポートされ得、そのようなモードの一部又は全部は本開示の技法を使用し得る。
符号化ビデオデータを受信すると、エントロピー復号ユニット52は、(図4のエンコーダ50の)エントロピー符号化ユニット46によって実行される符号化とは逆の復号を実行する。デコーダにおいて、エントロピー復号ユニット52は、LCUと、LCUに関連する対応する区分とを決定するためにビットストリームを構文解析する。幾つかの例では、LCU、又はLCUのCUは、使用されたコード化モードを定義し得、これらのコード化モードは双方向予測インターモードを含み得る。従って、エントロピー復号ユニット52は、シンタックス情報を、双方向予測インターモードを識別する予測ユニットに転送し得る。この場合、シンタックス情報は、MVPとMVDとを識別する1つ以上のシンタックス要素を含み得る。予測復号ユニット54のMCユニット86は、予測ブロックを再構成するためにMVPとMVDとを使用し得る。即ち、MCユニット86は、MVPとMVDとに基づいて2つの動きベクトルを再構成し、次いで、動きベクトルによって識別された予測データを取り込みし得る。現在ビデオブロックを双方向予測インターモードで復号するための予測ビデオブロックを定義するために、取り込みされたデータは、MCユニット86によって(場合によっては何らかの重み付けされた方式で)組み合わせられ得る。
本明細書で説明したように、MVPのための候補として空間的及び時間的方向において幾つかの隣接ブロックを含むことによって動きベクトル候補セットを構築するために、AMVPが使用され得る。エンコーダは、符号化レートと歪みとの分析に基づいて(例えば、所謂レート歪みコスト分析を使用して)候補セットから最も正確な予測子を選択することができる。MVPをどこに配置すべきかをデコーダに通知するために、動きベクトル予測子インデックス(mvp_idx)がデコーダに送信され得る。MVDも通信される。デコーダは、動きベクトルを再構成するために、MVDを(動きベクトル予測子インデックスによって定義された)MVPと組み合わせることができる。デコーダは、(エンコーダのように)インデックスが様々な基準に基づいて適用される候補MVPのセットを定義することができる。エンコーダ及びデコーダは、インデックスがどのようにMVP候補にマッピングしているかがわかるようにプログラムされ得、これらのマッピングは、例えば、AMVPを使用する、前にコード化されたビデオブロックの統計値に基づいて経時的に一層適応し得る。
図6は、MVPを定義するために使用され得る可能な隣接ブロック(ネイバーX、Y、及びZ)の一例を示す概念図である。候補MVPはまた、異なる(すでに符号化された/復号された)フレーム中にあるブロック、例えば、1つ以上の前にコード化されたフレームからのブロックEに対するコロケートブロックの動きベクトルから定義され得る。AMVPモードでは、候補MVPは、隣接ブロックの動きベクトルに基づいて定義され得る。
図7は、所謂「上部予測子」のためのMVPを定義するために使用され得る可能なブロック(A、B、C、D及びE)と、所謂「左予測子」のためのMVPを定義するために使用され得る可能なブロック(I、H、G及びF)とを示す別の概念図である。単方向予測の場合、AMVPに関連するMVPの候補セット全体は、3つの候補を含み得る。第1の潜在的な候補MVPは、上部予測子を備え得、コード化されている現在動きベクトルと同じ参照リスト及び同じ参照インデックスを有する(従って同じ参照フレームを指す)、A、B、C、D又はEからの第1の識別された動きベクトルを備え得る。第2の潜在的な候補MVPは左予測子であり、コード化されている現在動きベクトルと同じ参照リスト及び同じ参照インデックスを有する、ブロックF、G、H又はIに関連する第1の動きベクトルを備える。第3の潜在的な候補MVPは、現在ビデオブロックの動きベクトルに対するコロケートブロックに関連する動きベクトルであり、同位置配置ブロックは、別の(例えば、前にコード化された)フレーム中にある。他の候補のように、コロケートブロックに関連する候補は、有効な候補であるために、コード化されている現在動きベクトルと同じ参照リスト及び同じ参照インデックスを定義する必要があり得る。
潜在的なMVP候補のいずれもが、コード化されている現在動きベクトルと同じビデオフレームを指さない場合(即ち、潜在的なMVP候補のいずれもが、コード化されている現在動きベクトルと同じ参照リスト及び同じ参照インデックスを有しない場合)、MVPは、0などの何らかのデフォルト値に設定され得る。この場合(例えば、MVPのためのデフォルト値が0に設定された場合)、MVDはその動きベクトルに対応することになり、動きベクトルに適用される予測技法はデータ圧縮を生じないことになる。
場合によっては、1つのビデオブロックに関連するデータを予測するために、2つの異なる動きベクトルが使用され得る。これは、一般に、双方向予測又は双方向予測と呼ばれる。双方向予測という句は、時々、双方向予測と同義的に使用されるが、「双方向予測」という句は、2つの動きベクトルが一般にいかなる指向性要件にも限定されない限り、しばしば、誤称である。言い換えれば、双方向予測(双方向予測)の場合、2つの動きベクトルは、1つ以上の前のビデオフレーム及び/又は1つ以上の後続のビデオフレームに関連するデータを指すことを可能にされ得る。
H.264/AVCでは、予測フレームは、2つの参照リストに編成される。例えば、リスト0は、予測ビデオデータの順方向リストを備え得、リスト1は、予測データの逆方向リストを備え得る。但し、同じく、リスト0及びリスト1は、場合によっては、予測データの2つの異なる順方向リスト、2つの異なる逆方向リスト、又は場合によっては2つの同等のリストさえをも指し得る。
図8は、双方向予測されたビデオブロックの1つの動きベクトルが、双方向予測されたビデオブロックの別の動きベクトルのための候補MVPを定義するためにどのように使用され得るかを示す概念図である。図8の左部分に示すように、3つの連続するビデオフレームは、フレーム0、4、及び8として標示される。従って、図8に示すそのようなフレームの表示順序は、0−>4−>8である。これは、フレーム0が表示順序でフレーム4の前であり、フレーム8が表示順序でフレーム4の後であることを意味する。但し、符号化中に、符号化順序は、表示順序とは異なることがある。例えば、図8に示すフレームの符号化順序は、より良いコード化性能を達成するために0−>8−>4であり得る。
図8の右部分に、表示順序で中間フレームであり、符号化順序で最後のフレームであり得るフレーム4の符号化を概念的に示す。この場合、2つの参照フレーム、即ち、フレーム0及びフレーム8がある。2つの参照フレーム(又はそれらの部分)は、2つの参照リスト(リストL0及びリストL1)に編成され得るが、図8に示すように、データは、異なる参照インデックス(Refidx)とともに記憶され得る。
フレーム4中の現在ビデオブロックは、リストL0からのデータから予測されるか、リストL1からのデータから予測されるか、又は両方のリスト中のデータの組合せから予測され得る。予測が、2つの異なる参照リストからの予測の組合せである場合、そのモードは双方向予測インターモードと呼ばれることがある。双方向予測インターモードでは、2つの異なるリストからの対応する2つの予測を示すために、2つの動きベクトルがデコーダに送られる。その上、動きベクトルを符号化するためにAMVPが使用された場合、MVPは、2つの動きベクトルの各々のための候補MVPの中から選択され得、MVPのインデックスは、符号化ビットストリームの一部として符号化され得る。
本開示の技法は、双方向予測ビデオブロックの他の動きベクトルのためのMVPを定義するための、双方向予測ビデオブロックの1つの動きベクトルの使用について説明する。例えば、図8を参照すると、mv1を予測するために、mv0のスケーリングバージョンが使用され得る。この例では、スケーリングは、(例えば、mv1が参照フレーム0を指しているが、mv2が参照フレーム8を指している図8の場合)参照フレーム0ではなく参照フレーム8を指すようにMVPの配向及び方向を変更することができる。スケーリングは、ピクチャオーダーカウント(POC:picture order count)数、参照インデックス、予測のローカルピクチャ構造、又はmv0自体に依存し得る。このようにして、双方向予測モードで、データ圧縮の改善が達成され得る。
本開示の技法は、AMVPの場合にMVPを決定することに関するAMVPフレームワークに基づく。但し、本開示では、AMVPの場合のMVP候補のリストを拡張するための技法について説明する。拡張することにより、動きベクトルの圧縮を改善することができる。
より詳細には、本開示は、双方向予測ビデオブロックの1つの動きベクトルのスケーリングバージョンが、双方向予測ビデオブロックの別の動きベクトルを予測するためのMVPとして使用され得る技法について説明する。例えば、双方向予測ビデオブロックの第1の動きベクトルのスケーリングバージョンが、双方向予測の第2の動きベクトルのためのMVPとして使用され得る。
双方向予測ビデオブロックは、ITU−H.264規格、又は高効率ビデオコード化(HEVC)などの別の新生規格に一致する、所謂Bビデオブロックを備え得る。代替又は追加として、双方向予測ビデオブロックは、BビデオブロックとPビデオブロックとの態様を組み合わせるために提案されたブロックのタイプである、所謂GPBブロックを備え得る。GPBブロックは予測データの2つのリストに基づいて予測されるが、リストは同等であり得る。
図9は、双方向予測されたビデオブロックの1つの動きベクトルが、双方向予測されたビデオブロックの別の動きベクトルのための候補MVPを定義するためにどのように使用され得るかを示す別の概念図である。図9に示すように、2つの異なる動きベクトル(例えば、リスト0に関連する動きベクトル及びリスト1に関連する動きベクトル)は、それぞれ、mv0及びmv1によって示される。mv0動きベクトルは、最初に符号化又は復号され得、通常のAMVP技法を介して予測され得る。次に、mv1が符号化又は復号され得る(それはmv0の符号化又は復号の後に行われる)。
図9の例では、mv0は、前のフレーム(即ち、ピクチャオーダーカウント(POC)0によって識別されたフレーム)に関連するデータを指すが、mv1は、後続のフレーム(即ち、POC8によって識別されたフレーム)に関連するデータを指す。特に、mv0は、POC0における前のフレームのデータを指す、リスト0のrefidx0におけるデータを識別し得るが、mv1は、POC0における後続のフレームのデータを指す、リスト1のrefidx0におけるデータを識別し得る。この場合、第1の動きベクトルは、前のフレームに関連するデータを指し、第2の動きベクトルは、後続のフレームに関連するデータを指す。従って、第2のMVP(第2の動きベクトルを予測するために使用されるMVP)は、第1の動きベクトルのスケーリングバージョンを備え得、現在フレームに対する前のフレームの時間距離は、現在フレームに対する後続のフレームの時間距離と同じである。
また、図9の例と同様に、第1の動きベクトルは、後続のフレームに関連するデータを指すことができ、第2の動きベクトルは、前のフレームに関連するデータを指すことができることが可能である。この場合、第2のMVP(第2の動きベクトルを予測するために使用されるMVP)は、第1の動きベクトルのスケーリングバージョンを備え得、現在フレームに対する後続のフレームの時間距離は、現在フレームに対する前のフレームの時間距離と同じである。
図10は、双方向予測されたビデオブロックの1つの動きベクトルが、双方向予測されたビデオブロックの別の動きベクトルのための候補MVPを定義するためにどのように使用され得るかを示す別の概念図である。この例では、第1の動きベクトル(mv0)及び第2の動きベクトル(mv1)は、同じ予測フレームに関連するデータ(即ち、前のフレームのデータ)を指す。この場合、第2のMVP(第2の動きベクトルを予測するために使用されるMVP)は、第1の動きベクトルを備え得る。また、mv0とmv1の両方が、表示順序で現在フレームの後である同じ予測フレームに関連するデータを指すときに、同様の技法が適用され得る。
図11は、双方向予測されたビデオブロックの1つの動きベクトルが、双方向予測されたビデオブロックの別の動きベクトルのための候補MVPを定義するためにどのように使用され得るかを示す別の概念図である。この例では、第1の動きベクトル(mv0)は、前のフレームに関連するデータを指し、第2の動きベクトル(mv1)は、別の前のフレームに関連するデータを指す。この場合、第2のMVP(第2の動きベクトルを予測するために使用されるMVP)は、第1の動きベクトルのスケーリングバージョンを備え得、スケーリングは、(図11の「スケーリング」によって示されるように)現在フレームに対する前のフレームの第2の動きベクトル方向に対してMVPを拡張する。また、mv0とmv1の両方が、表示順序で現在フレームの後である同じ予測フレームに関連するデータを指すときに、同様の技法が適用され得る。
図12は、双方向予測されたビデオブロックの1つの動きベクトルが、双方向予測されたビデオブロックの別の動きベクトルのための候補MVPを定義するためにどのように使用され得るかを示す別の概念図である。この例では、第1の動きベクトル(mv0)は、前のフレームに関連するデータを指し、第2の動きベクトル(mv1)は、後続のフレームに関連するデータを指す。但し、この場合、現在フレームに対する前のフレームの時間距離は、現在フレームに対する後続のフレームの時間距離とは異なる。即ち、後続のフレームは、前のフレームの現在フレームに対する時間距離よりも、現在フレームからの時間距離が遠い。この場合、第2のMVP(第2の動きベクトルを予測するために使用されるMVP)は、第1の動きベクトルのスケーリングバージョンを備え得、スケーリングは、第1の動きベクトルに対する第2のMVPの方向を変更することと、また、第1の動きベクトルに対する第2のMVPの距離を拡張することの両方を行う。また、第1の動きベクトル(mv0)が、後続のフレームに関連するデータを指し、第2の動きベクトル(mv1)が、前のフレームに関連するデータを指し、現在フレームに対する後続のフレームの時間距離が、現在フレームに対する前のフレームの時間距離とは異なるとき、同様の技法が適用され得る。
再び図8及び図9を参照すると、現在フレームがPOC=4を定義する(即ち、現在フレームPOC数は4である)と仮定する。この場合、mv0は(5,2)であり得、refPOC_L0は0であり得る(これは、mv0の参照フレームPOC数が0であり、リスト0予測がフレーム0に由来することを意味する)。また、この場合、mv1は(−8,−1)であり得、refPOC_L1は8であり得る(これは、mv1の参照フレームPOC数が8であり、リスト1予測がフレーム8に由来することを意味する)。
MVP_mv1={(0,0),(−1,−6)}(即ち、mv1の2つの予測子候補がある)と仮定する。この場合、mv0が符号化又は復号されると、mv0は、mv1を予測するためのMVPを定義するように、POC数の距離に従ってスケーリングされ得る。従って、mv1のためのMVP候補として使用されるmv0のスケーリングバージョンは、次のように表され得る。
Scaled_mv0 = (RefPoc_L1-CurPoc )*mv0/( RefPoc_L0-CurPoc) = (8-4)*mv0/(0-4)= -mv0 = (-5, -2)
次いで、MVP_mv1は、MVP候補としてscaled_mv0を追加することによって更新され得、MVP_mv1は、可能なMVP候補のリストを次のように拡張する。
MVP_mv1 = {(0,0), (-1, -6), (-5,-2)}.
従って、mv1は、新しい候補リストMVP_mv1に基づいて符号化され得る。この場合、エンコーダが3つの候補のMVD(mv1MVP_mv1(i),i=0,1,2)を比較した場合、MVDの結果は{(−8,−1),(−7,5),(−3,1)}のように表され得る。従って、この例では、付加予測子(即ち、mv1を予測するために使用されるmv0のスケーリングバージョン)は、最も小さいMVDを与え、それにより、コード化効率が改善され得る。従って、scaled_mv0が、他の可能なMVP候補に対する最も良好な圧縮を達成した場合、デコーダが、mv1を予測するためにscaled_mv0を識別、生成及び使用することができるように、インデックスが、符号化ビットストリームの一部として出力され得る。
図13は、本開示に一致する復号技法を示す流れ図である。図13について図5のビデオデコーダ60の観点から説明するが、他の機器でも同様の技法を実行し得る。図13に示すように、予測復号ユニット54のMCユニット86は、第1のMVDを受信し(1301)、第1のMVPを識別する第1のインデックスを受信する(1302)。MCユニット86は、第1のMVDと第1のMVPとに基づいて第1の動きベクトル(MV)を生成する(1303)。更に、予測復号ユニット54のMCユニット86は、第2のMVDを受信し(1304)、第2のMVPを識別する第2のインデックスを受信する(1305)。次いで、MCユニット86は、第1のMVDと第1のMVPとに基づいて第2のMVを生成する(1306)。本開示で説明したように、第2のインデックスによって識別された第2のMVPは、第1のMVに基づき得る。
次いで、ビデオデコーダ60は、第1のMVと第2のMVとに基づいて現在ビデオブロックを復号する(1307)。特に、MCユニット86は、第1のMVと第2のMVとに基づいて予測データを生成し、(場合によっては、重み付けされた方式で)このデータを組み合わせて予測ブロックを形成することができる。予測ブロックは、加算器64によって残差ブロックと組み合わされ、その結果は、メモリ62に記憶するために再構成されたビデオブロックを生成するために、フィルタユニット57によってフィルタ処理され得る。次いで、再構成されたビデオブロックは、ビデオシーケンスの復号されたビデオフレームの一部として提示するためにレンダリング機器に出力され得る。
図14は、本開示に一致する符号化技法を示す流れ図である。図14の技法について図3のビデオエンコーダ50の観点から説明するが、他の機器でも同様の技法を実行し得る。図14に示すように、予測符号化ユニット32は、第1のMVを決定し(1401)、ネイバーに関連するMVの第1のセットに基づいて第1のMVPを決定する(1402)。特に、第1のMVPは、第1のMVに最もぴったり近似するMVの第1のセット中の候補として定義され得る。予測符号化ユニット32は、第1のMVPを識別するために、第1のインデックスを生成し(1403)、第1のMVと第1のMVPとに基づいて第1のMVDを生成する(1404)。特に、第1のMVDは、第1のMVと第1のMVPとの間の差分値(又はデルタ)を備え得る。
次に、予測符号化ユニット32は、第2のMVを決定し(1405)、MVの第2のセットに基づいて第2のMVPを決定し、MVの第2のセットは、隣に関連するMVと、第1のMVに基づく候補とを含む(1406)。本明細書で説明したように、第1のMVに基づくMVの第2のセットの候補を定義するために、スケーリングが使用され得る。第2のMVPは、第2のMVに最もぴったり近似するMVの第2のセット中の候補として定義され得る。予測符号化ユニット32は、第2のMVPを識別するために第2のインデックスを生成し(1407)、第2のMVと第2のMVPとに基づいて第2のMVDを生成する(1408)。特に、第2のMVDは、第2のMVと第2のMVPとの間の差分値(又はデルタ)を備え得る。ビデオエンコーダ50は、符号化ビットストリームの一部として、第1のインデックスと第1のMVDと第2のインデックスと第2のMVPとを出力し得る。特に、予測ユニット32は、エントロピー符号化ユニット46に対して第1のインデックスと第1のMVDと第2のインデックスと第2のMVPとを出力し得る。エントロピー符号化ユニット46は、別の機器に記憶又は送信するために出力され得る符号化ビットストリームを生成するために、(予測符号化ユニット32からの他のシンタックス情報、及び量子化ユニット40からの残差データとともに)第1のインデックスと第1のMVDと第2のインデックスと第2のMVPとに対してエントロピーコード化を実行し得る。このようにして、ビデオエンコーダ50は、符号化ビットストリームの一部として第1のMVPと第1のMVDと第2のMVPと第2のMVDとを出力する(1409)。
本開示の技法は、ワイヤレスハンドセット、及び集積回路(IC)又はICのセット(即ち、チップセット)を含む、多種多様な機器又は装置において実現され得る。機能的態様を強調するために与えられた任意の構成要素、モジュール又はユニットについて説明したが、異なるハードウェアユニットによる実現を必ずしも必要とするとは限らない。
従って、本明細書で説明する技法は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せで実施され得る。モジュール又は構成要素として説明する任意の機能は、集積論理機器に一緒に、又は個別であるが相互運用可能な論理機器として別々に実施され得る。ソフトウェアで実施する場合、これらの技法は、実行されると、上記で説明した方法の1つ又は複数を実行する命令を備えるコンピュータ可読媒体によって、少なくとも部分的に実現され得る。コンピュータ可読データ記憶媒体は、パッケージング材料を含むことがあるコンピュータプログラム製品の一部を形成し得る。
コンピュータ可読媒体は、同期ダイナミックランダムアクセスメモリ(SDRAM)などのランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM)、フラッシュメモリ、磁気又は光学データ記憶媒体などの有形コンピュータ可読記憶媒体を備え得る。本技法は、追加又は代替として、命令又はデータ構造の形態でコードを搬送又は通信し、コンピュータによってアクセスされ、読み取られ、及び/又は実行され得るコンピュータ可読通信媒体によって少なくとも部分的に実現され得る。
命令は、1つ以上のデジタル信号プロセッサ(DSP)などの1つ以上のプロセッサ、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、あるいは他の等価な集積回路又はディスクリート論理回路によって実行され得る。本明細書で使用する「プロセッサ」という用語は、前述の構造、又は本明細書で説明した技法の実施に好適な他の構造のいずれかを指し得る。更に、幾つかの態様では、本明細書で説明した機能は、符号化及び復号のために構成された専用のソフトウェアモジュール又はハードウェアモジュール内に提供され得、あるいは複合ビデオエンコーダ/デコーダ(コーデック)に組み込まれ得る。また、本技法は、1つ以上の回路又は論理要素中に十分に実施され得る。
本開示の様々な態様について説明した。これら及び他の態様は以下の特許請求の範囲内に入る。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを復号する方法であって、前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信することと、第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信することと、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第2の動きベクトルに関連する第2のMVDを受信することと、第2のMVPを識別する第2のインデックスを受信することと、ここで前記第2のMVPが、前記第1の動きベクトルに基づいて定義される、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することとを備える、方法。
[2] 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルである、請求項1に記載の方法。
[3] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備える、請求項1に記載の方法。
[4] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備える、請求項1に記載の方法。
[5] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項1に記載の方法。
[6] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項1に記載の方法。
[7] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項1に記載の方法。
[8] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項1に記載の方法。
[9] 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)を備え、前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義され、前記4分木区分方式を定義するLCUシンタックスデータを受信することと、前記双方向予測インターモードを定義する、前記CUについてのモード情報を受信することとを更に備える、請求項1に記載の方法。
[10] 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)の予測単位(PU)を備え、前記双方向予測インターモードを定義する、前記PUについてのモード情報を受信することとを更に備える、請求項1に記載の方法。
[11] 前記第1の動きベクトルと前記第2の動きベクトルとに基づいて前記現在ビデオブロックを予測的に復号することを更に備える、請求項1に記載の方法。
[12] 双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを符号化する方法であって、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定することと、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別することと、前記第1のMVPを識別する第1のインデックスを生成することと、前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定することと、動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで動きベクトルの前記第2のセットが、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含む、前記第2のMVPを識別する第2のインデックスを生成することと、前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成することと、前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することとを備える、方法。
[13] 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が前記第1の動きベクトルである、請求項12に記載の方法。
[14] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備える、請求項12に記載の方法。
[15] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備える、請求項12に記載の方法。
[16] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項12に記載の方法。
[17] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項12に記載の方法。
[18] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項12に記載の方法。
[19] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項12に記載の方法。
[20] 前記現在ビデオブロックは、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)と、ここで前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義される、前記HEVC規格に従って定義された前記CUの予測単位(PU)とのうちの1つを備える、請求項12に記載の方法。
[21] ビデオデータを復号するビデオ復号装置であって、前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信することと、第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信することと、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第2の動きベクトルに関連する第2のMVDを受信することと、第2のMVPを識別する第2のインデックスを受信することと、ここで前記第2のMVPが、前記第1の動きベクトルに基づいて定義される、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することとを行うように構成されたビデオデコーダを備える、ビデオ復号装置。
[22] 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルである、請求項21に記載のビデオ復号装置。
[23] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備える、請求項21に記載のビデオ復号装置。
[24] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備える、請求項21に記載のビデオ復号装置。
[25] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項21に記載のビデオ復号装置。
[26] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項21に記載のビデオ復号装置。
[27] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項21に記載のビデオ復号装置。
[28] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項21に記載のビデオ復号装置。
[29] 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)を備え、前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義され、前記4分木区分方式を定義するLCUシンタックスデータを受信することと、前記双方向予測インターモードを定義する、前記CUについてのモード情報を受信することとを更に備える、請求項21に記載のビデオ復号装置。
[30] 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)の予測単位(PU)を備え、前記ビデオデコーダが、前記双方向予測インターモードを定義する、前記PUについてのモード情報を受信する、請求項21に記載のビデオ復号装置。
[31] 前記ビデオデコーダが、前記第1の動きベクトルと前記第2の動きベクトルとに基づいて前記現在ビデオブロックを予測的に復号する、請求項21に記載のビデオ復号装置。
[32] 前記ビデオデコーダが、前記第1のMVDと前記第1のインデックスと前記第2のMVDと前記第2のインデックスとを受信し、エントロピー復号するように構成されたエントロピー復号ユニットと、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成し、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成するように構成された予測ユニットとを含む、請求項21に記載のビデオ復号装置。
[33] 集積回路と、マイクロプロセッサと、ビデオデコーダを含むワイヤレス通信機器とのうちの少なくとも1つを備える、請求項21に記載のビデオ復号装置。
[34] ビデオデータを符号化するビデオ符号化装置であって、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用される前記第1の動きベクトルを決定することと、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別することと、前記第1のMVPを識別する第1のインデックスを生成することと、前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用される前記第2の動きベクトルを決定することと、動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで動きベクトルの前記第2のセットが、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含む、前記第2のMVPを識別する第2のインデックスを生成することと、前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成することと、前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することとを行うように構成されたビデオエンコーダを備える、ビデオ符号化装置。
[35] 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が前記第1の動きベクトルである、請求項34に記載のビデオ符号化装置。
[36] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備える、請求項34に記載のビデオ符号化装置。
[37] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備える、請求項34に記載のビデオ符号化装置。
[38] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項34に記載のビデオ符号化装置。
[39] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項34に記載のビデオ符号化装置。
[40] 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項34に記載のビデオ符号化装置。
[41] 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が、前記第1の動きベクトルのスケーリングバージョンを備え、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項34に記載のビデオ符号化装置。
[42] 前記現在ビデオブロックは、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)と、ここで前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義される、前記HEVC規格に従って定義された前記CUの予測単位(PU)とのうちの1つを備える、請求項34に記載のビデオ符号化装置。
[43] 集積回路と、マイクロプロセッサと、ビデオエンコーダを含むワイヤレス通信機器とのうちの少なくとも1つを備える、請求項34に記載のビデオ符号化装置。
[44] 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを復号するための装置であって、前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信するための手段と、第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信するための手段と、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成するための手段と、前記第2の動きベクトルに関連する第2のMVDを受信するための手段と、第2のMVPを識別する第2のインデックスを受信するための手段と、ここで前記第2のMVPが、前記第1の動きベクトルに基づいて定義される、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成するための手段とを備える、装置。
[45] 双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを符号化するための装置であって、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定するための手段と、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別するための手段と、前記第1のMVPを識別する第1のインデックスを生成するための手段と、前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成するための手段と、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定するための手段と、動きベクトルの第2のセットに基づいて第2のMVPを識別するための手段と、ここで動きベクトルの前記第2のセットが、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含む、前記第2のMVPを識別する第2のインデックスを生成するための手段と、前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成するための手段と、前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力するための手段とを備える、装置。
[46] 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、実行されると、プロセッサにビデオデータを復号させる命令を備えるコンピュータ可読媒体であって、前記命令は前記プロセッサに、前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信すると、及び第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信すると、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第2の動きベクトルに関連する第2のMVDを受信すると、及び前記第1の動きベクトルに基づいて定義された第2のMVPを識別する第2のインデックスを受信すると、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することとを行わせる、コンピュータ可読媒体。
[47] 実行されると、双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用されるプロセッサにビデオデータを符号化させる命令を備えるコンピュータ可読媒体であって、前記命令は前記プロセッサに、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定することと、1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別することと、前記第1のMVPを識別する第1のインデックスを生成することと、前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定することと、動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで動きベクトルの前記第2のセットが、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含む、前記第2のMVPを識別する第2のインデックスを生成することと、前記第1の動きベクトルと前記第1のMVPとに基づいて第2のMVDを生成することと、前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することとを行わせる、コンピュータ可読媒体。

Claims (47)

  1. 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを復号する方法であって、
    前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信することと、
    動きベクトルの第1のセットから選択される第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信することと、
    前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第1の動きベクトルは、前記現在ビデオブロックと第1の隣接ビデオブロックとに関連する
    前記第2の動きベクトルに関連する第2のMVDを受信することと、
    第2のMVPを識別する第2のインデックスを受信することと、ここで前記第2のMVP動きベクトルの第2のセットから選択され、前記動きベクトルの第2のセットは、前記現在ビデオブロックから前記第1の隣接ビデオブロックへの時間距離および前記現在ビデオブロックから第2の隣接ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される候補と、隣接ビデオブロックの1つ以上に関連する動きベクトルとを含む、
    前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することと、前記第2の動きベクトルは、前記現在ビデオブロックおよび前記第2の隣接ビデオブロックに関連する、
    を備える、方法。
  2. 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルである、請求項1に記載の方法。
  3. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指す、請求項1に記載の方法。
  4. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指す、請求項1に記載の方法。
  5. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項1に記載の方法。
  6. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項1に記載の方法。
  7. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項1に記載の方法。
  8. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項1に記載の方法。
  9. 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)を備え、前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義され、
    前記4分木区分方式を定義するLCUシンタックスデータを受信することと、
    前記双方向予測インターモードを定義する、前記CUについてのモード情報を受信することと
    を更に備える、請求項1に記載の方法。
  10. 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)の予測単位(PU)を備え、
    前記双方向予測インターモードを定義する、前記PUについてのモード情報を受信することと
    を更に備える、請求項1に記載の方法。
  11. 前記第1の動きベクトルと前記第2の動きベクトルとに基づいて前記現在ビデオブロックを予測的に復号すること
    を更に備える、請求項1に記載の方法。
  12. 双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを符号化する方法であって、
    前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定することと、ここで、前記第1の動きベクトルは、第1の参照ビデオブロックの関数であり、
    1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて動きベクトルの第1のセットから選択された第1の動きベクトル予測子(MVP)を識別することと、ここで、前記動きベクトルの第1のセットは、前記第1の動きベクトルを含む、
    前記第1のMVPを識別する第1のインデックスを生成することと、
    前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、
    前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定することと、
    動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで前記動きベクトルの第2のセット、隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含み、前記第1の動きベクトルに基づ前記候補は、前記現在ビデオブロックから前記第1の参照ビデオブロックへの時間距離および前記現在ビデオブロックから第2の参照ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される、
    前記第2のMVPとして前記スケーリングされた第1の動きベクトルを識別する第2のインデックスを生成することと、
    前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成することと、
    前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することと
    を備える、方法。
  13. 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が前記第1の動きベクトルである、請求項12に記載の方法。
  14. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指す、請求項12に記載の方法。
  15. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指す、請求項12に記載の方法。
  16. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項12に記載の方法。
  17. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項12に記載の方法。
  18. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項12に記載の方法。
  19. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項12に記載の方法。
  20. 前記現在ビデオブロックは、
    高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)と、ここで前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義される、
    前記HEVC規格に従って定義された前記CUの予測単位(PU)と
    のうちの1つを備える、請求項12に記載の方法。
  21. ビデオデータを復号するビデオ復号装置であって、
    第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信することと、
    動きベクトルの第1のセットから選択される、第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信することと、
    前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第1の動きベクトルは、現在ビデオブロックと第1の隣接ビデオブロックとに関連する、
    第2の動きベクトルに関連する第2のMVDを受信することと、
    第2のMVPを識別する第2のインデックスを受信することと、ここで前記第2のMVP動きベクトルの第2のセットから選択され、前記動きベクトルの第2のセットは、前記現在ビデオブロックから前記第1の隣接ビデオブロックへの時間距離および前記現在ビデオブロックから第2の隣接ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される候補と、前記隣接ビデオブロックの1つ以上に関連する動きベクトルとを含む、
    前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することと、前記第2の動きベクトルは、前記現在ビデオブロックおよび第2の隣接ビデオブロックに関連する、
    を行うように構成されたビデオデコーダを備える、ビデオ復号装置。
  22. 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第2のMVPが前記第1の動きベクトルである、請求項21に記載のビデオ復号装置。
  23. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指す、請求項21に記載のビデオ復号装置。
  24. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指す、請求項21に記載のビデオ復号装置。
  25. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項21に記載のビデオ復号装置。
  26. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項21に記載のビデオ復号装置。
  27. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項21に記載のビデオ復号装置。
  28. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項21に記載のビデオ復号装置。
  29. 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)を備え、前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義され、
    前記ビデオデコーダは、前記4分木区分方式を定義するLCUシンタックスデータを受信することと、
    双方向予測インターモードを定義する、前記CUについてのモード情報を受信することと
    を行うように更に構成される、請求項21に記載のビデオ復号装置。
  30. 前記現在ビデオブロックが、高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)の予測単位(PU)を備え、前記ビデオデコーダが、
    双方向予測インターモードを定義する、前記PUについてのモード情報を受信する、請求項21に記載のビデオ復号装置。
  31. 前記ビデオデコーダが、前記第1の動きベクトルと前記第2の動きベクトルとに基づいて前記現在ビデオブロックを予測的に復号する、請求項21に記載のビデオ復号装置。
  32. 前記ビデオデコーダが、
    前記第1のMVDと前記第1のインデックスと前記第2のMVDと前記第2のインデックスとを受信し、エントロピー復号するように構成されたエントロピー復号ユニットと、
    前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成し、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成するように構成された予測ユニットと
    を含む、請求項21に記載のビデオ復号装置。
  33. 集積回路と、
    マイクロプロセッサと、
    ビデオデコーダを含むワイヤレス通信機器と
    のうちの1つ以上を備える、請求項21に記載のビデオ復号装置。
  34. 現在ビデオブロックでビデオデータを符号化するビデオ符号化装置であって、
    現在ビデオブロックを双方向予測インターモードでコード化するために使用される第1の動きベクトルを決定することと、ここで、前記第1の動きベクトルは第1の参照ビデオブロックの関数である、
    1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別することと、ここで、前記動きベクトルの第1のセットは、前記第1の動きベクトルを含む、
    前記第1のMVPを識別する第1のインデックスを生成することと、
    前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、
    前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用される第2の動きベクトルを決定することと、
    動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで前記動きベクトルの第2のセット、隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルに基づく候補とを含み、ここで、前記第1の動きベクトルに基づ前記候補は、前記現在ビデオブロックから前記第1の参照ビデオブロックへの時間距離および前記現在ビデオブロックから第2の参照ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される、
    前記第2のMVPとして前記スケーリングされた第1の動きベクトルを識別する第2のインデックスを生成することと、
    前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成することと、
    前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することと
    を行うように構成されたビデオエンコーダ
    を備える、ビデオ符号化装置。
  35. 前記第1の動きベクトルと前記第2の動きベクトルとが、同じ予測フレームに関連するデータを指し、前記第1の動きベクトルに基づく前記候補が前記第1の動きベクトルである、請求項34に記載のビデオ符号化装置。
  36. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、別の前のフレームに関連するデータを指す、請求項34に記載のビデオ符号化装置。
  37. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、別の後続のフレームに関連するデータを指す、請求項34に記載のビデオ符号化装置。
  38. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離と同じである、請求項34に記載のビデオ符号化装置。
  39. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離と同じである、請求項34に記載のビデオ符号化装置。
  40. 前記第1の動きベクトルが、前のフレームに関連するデータを指し、前記第2の動きベクトルが、後続のフレームに関連するデータを指し、現在フレームに対する前記前のフレームの時間距離が、前記現在フレームに対する前記後続のフレームの時間距離とは異なる、請求項34に記載のビデオ符号化装置。
  41. 前記第1の動きベクトルが、後続のフレームに関連するデータを指し、前記第2の動きベクトルが、前のフレームに関連するデータを指し、現在フレームに対する前記後続のフレームの時間距離が、前記現在フレームに対する前記前のフレームの時間距離とは異なる、請求項34に記載のビデオ符号化装置。
  42. 前記現在ビデオブロックは、
    高効率ビデオコード化(HEVC)規格に従って定義されたコード化単位(CU)と、ここで前記CUが、4分木区分方式に従って最大コード化単位(LCU)に対して定義される、
    前記HEVC規格に従って定義された前記CUの予測単位(PU)と
    のうちの1つを備える、請求項34に記載のビデオ符号化装置。
  43. 集積回路と、
    マイクロプロセッサと、
    ビデオエンコーダを含むワイヤレス通信機器と
    のうちの1つ以上を備える、請求項34に記載のビデオ符号化装置。
  44. 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを復号するための装置であって、
    前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信するための手段と、
    第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信するための手段と、前記第1のMVPは、動きベクトルの第1のセットから選択される、
    前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成するための手段と、前記第1の動きベクトルは、前記現在ビデオブロックと第1の隣接ビデオブロックとに関連する
    前記第2の動きベクトルに関連する第2のMVDを受信するための手段と、
    第2のMVPを識別する第2のインデックスを受信するための手段と、ここで前記第2のMVP動きベクトルの第2のセットから選択され、前記動きベクトルの第2のセットは、前記現在ビデオブロックから前記第1の隣接ビデオブロックへの時間距離および前記現在ビデオブロックから第2の隣接ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される候補と、隣接ビデオブロックの1つ以上に関連する動きベクトルとを含む、
    前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成するための手段と、前記第2の動きベクトルは、前記現在ビデオブロックおよび第2の隣接ビデオブロックに関連する、
    を備える、装置。
  45. 双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、ビデオデータを符号化するための装置であって、
    前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定するための手段と、ここで前記動きベクトルの第1のセットは、前記第1の動きベクトルを含む、
    1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて動きベクトルの第1のセットから選択される第1の動きベクトル予測子(MVP)を識別するための手段と、
    前記第1のMVPを識別する第1のインデックスを生成するための手段と、
    前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成するための手段と、
    前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定するための手段と、
    動きベクトルの第2のセットに基づいて第2のMVPを識別するための手段と、ここで前記動きベクトルの第2のセット、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルのスケーリングバージョンに基づく候補とを含み、前記第1の動きベクトルに基づ前記候補は、前記現在ビデオブロックから第1の参照ビデオブロックへの時間距離および前記現在ビデオブロックから第2の参照ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される、
    前記第2のMVPとしてスケーリングされた前記第1の動きベクトルを識別する第2のインデックスを生成するための手段と、
    前記第2の動きベクトルと前記第2のMVPとに基づいて第2のMVDを生成するための手段と、
    前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力するための手段と
    を備える、装置。
  46. 双方向予測インターモードでコード化された現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用される、実行されると、プロセッサにビデオデータを復号させる命令を記憶するコンピュータ可読記憶媒体であって、前記命令は前記プロセッサに、
    前記第1の動きベクトルに関連する第1の動きベクトル差分(MVD)を受信すると、及び第1の動きベクトル予測子(MVP)を識別する第1のインデックスを受信すると、前記第1のMVDと前記第1のMVPとに基づいて前記第1の動きベクトルを生成することと、前記第1のMVPは動きベクトルの第1のセットから選択され、前記第1の動きベクトルは、前記現在ビデオブロックと第1の隣接ビデオブロックとに関連する
    前記第2の動きベクトルに関連する第2のMVDを受信すると、及び第2のMVPを識別する第2のインデックスを受信すると、ここで、前記第2のMVPは動きベクトルの第2のセットから選択され、前記動きベクトルの第2のセットは、前記現在ビデオブロックから前記第1の隣接ビデオブロックへの時間距離および前記現在ビデオブロックから第2の隣接ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成される候補と隣接ビデオブロックの1つ以上に関連する動きベクトルとを含み、前記第2のMVDと前記第2のMVPとに基づいて前記第2の動きベクトルを生成することと、前記第2の動きベクトルは、前記現在ビデオブロックと第2の隣接ビデオブロックに関連する、
    を行わせる、コンピュータ可読記憶媒体。
  47. 実行されると、双方向予測インターモードに従って現在ビデオブロックに関連する第1の動きベクトルと第2の動きベクトルとをコード化するために適応動きベクトル予測(AMVP)が使用されるプロセッサにビデオデータを符号化させる命令を記憶するコンピュータ可読記憶媒体であって、前記命令は前記プロセッサに、
    前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第1の動きベクトルを決定することと、ここで、前記第1の動きベクトルは第1の参照ビデオブロックの関数であり、
    1つ以上の隣接ビデオブロックに関連する動きベクトルの第1のセットに基づいて第1の動きベクトル予測子(MVP)を識別することと、ここで前記動きベクトルの第1のセットは、前記第1の動きベクトルを含む、
    前記第1のMVPを識別する第1のインデックスを生成することと、
    前記第1の動きベクトルと前記第1のMVPとに基づいて第1の動きベクトル差分(MVD)を生成することと、
    前記現在ビデオブロックを前記双方向予測インターモードでコード化するために使用されるべき前記第2の動きベクトルを決定することと、
    動きベクトルの第2のセットに基づいて第2のMVPを識別することと、ここで前記動きベクトルの第2のセット、前記隣接ビデオブロックの1つ以上に関連する動きベクトルと、前記第1の動きベクトルのスケーリングバージョンに基づく候補とを含み、前記第1の動きベクトルに基づく前記候補は、前記現在ビデオブロックから前記第1の参照ビデオブロックへの時間距離および前記現在ビデオブロックから第2の参照ビデオブロックへの時間距離の関数であるスケールファクタによって前記第1の動きベクトルをスケーリングすることによって形成され、
    前記第2のMVPとしてスケーリングされた前記第1の動きベクトルを識別する第2のインデックスを生成することと、
    前記第1の動きベクトルと前記第1のMVPとに基づいて第2のMVDを生成することと、
    前記現在ビデオブロックについての符号化ビットストリームの一部として、前記第1のインデックスと前記第1のMVDと前記第2のインデックスと前記第2のMVDとを出力することと
    を行わせる、コンピュータ可読記憶媒体。
JP2013557717A 2011-03-08 2012-01-19 ビデオコード化における双方向予測インターモードのための動きベクトル予測子(mvp) Expired - Fee Related JP5844392B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201161450537P 2011-03-08 2011-03-08
US61/450,537 2011-03-08
US13/352,175 US9288501B2 (en) 2011-03-08 2012-01-17 Motion vector predictors (MVPs) for bi-predictive inter mode in video coding
US13/352,175 2012-01-17
PCT/US2012/021885 WO2012121808A1 (en) 2011-03-08 2012-01-19 MOTION VECTOR PREDICTORS (MVPs) FOR BI-PREDICTIVE INTER MODE IN VIDEO CODING

Publications (2)

Publication Number Publication Date
JP2014511648A JP2014511648A (ja) 2014-05-15
JP5844392B2 true JP5844392B2 (ja) 2016-01-13

Family

ID=46795563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013557717A Expired - Fee Related JP5844392B2 (ja) 2011-03-08 2012-01-19 ビデオコード化における双方向予測インターモードのための動きベクトル予測子(mvp)

Country Status (6)

Country Link
US (1) US9288501B2 (ja)
EP (1) EP2684356B1 (ja)
JP (1) JP5844392B2 (ja)
CN (1) CN103430540B (ja)
TW (1) TW201238358A (ja)
WO (1) WO2012121808A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107105291B (zh) * 2010-12-13 2020-04-07 韩国电子通信研究院 基于帧间预测对视频信号进行解码的方法
KR101820997B1 (ko) 2011-01-12 2018-01-22 선 페이턴트 트러스트 동화상 부호화 방법 및 동화상 복호화 방법
JP5358746B2 (ja) * 2011-03-03 2013-12-04 パナソニック株式会社 動画像符号化方法、動画像符号化装置及びプログラム
JP5982734B2 (ja) 2011-03-11 2016-08-31 ソニー株式会社 画像処理装置および方法
WO2012172668A1 (ja) * 2011-06-15 2012-12-20 株式会社 東芝 動画像符号化方法及び装置並びに動画復号化方法及び装置
MX365013B (es) * 2011-08-29 2019-05-20 Ibex Pt Holdings Co Ltd Metodo para generar un bloque de prediccion en modo de prediccion de vector de movimiento avanzada (amvp).
CA2853002C (en) * 2011-10-18 2017-07-25 Kt Corporation Method for encoding image, method for decoding image, image encoder, and image decoder
KR102257542B1 (ko) * 2012-10-01 2021-05-31 지이 비디오 컴프레션, 엘엘씨 향상 레이어에서 변환 계수 블록들의 서브블록-기반 코딩을 이용한 스케일러블 비디오 코딩
US9538180B2 (en) 2012-12-17 2017-01-03 Qualcomm Incorporated Motion vector prediction in video coding
US9826244B2 (en) * 2013-01-08 2017-11-21 Qualcomm Incorporated Device and method for scalable coding of video information based on high efficiency video coding
JP5983430B2 (ja) * 2013-01-25 2016-08-31 富士通株式会社 動画像符号化装置、動画像符号化方法及び動画像復号装置ならびに動画像復号方法
MX2016004705A (es) 2013-10-14 2016-07-18 Microsoft Technology Licensing Llc Caracteristicas del modo de prediccion copia de bloque interno para codificacion y decodificacion de imagen y video.
US11109036B2 (en) 2013-10-14 2021-08-31 Microsoft Technology Licensing, Llc Encoder-side options for intra block copy prediction mode for video and image coding
RU2666635C2 (ru) 2013-10-14 2018-09-11 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Характеристики режима индексной карты основных цветов для кодирования и декодирования видео и изображения
JP6654434B2 (ja) * 2013-11-01 2020-02-26 ソニー株式会社 画像処理装置および方法
CN111193930B (zh) * 2013-12-16 2021-11-30 浙江大学 一种前向双假设编码图像块的编解码方法和装置
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
WO2015100726A1 (en) * 2014-01-03 2015-07-09 Microsoft Corporation Block vector prediction in video and image coding/decoding
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
JP2017512026A (ja) 2014-03-04 2017-04-27 マイクロソフト テクノロジー ライセンシング,エルエルシー イントラブロックコピー予測におけるブロック反転及びスキップモード
KR20160132862A (ko) * 2014-03-13 2016-11-21 퀄컴 인코포레이티드 3d-hevc 를 위한 단순화된 진보된 잔차 예측
US20150271512A1 (en) * 2014-03-18 2015-09-24 Texas Instruments Incorporated Dynamic frame padding in a video hardware engine
US10944983B2 (en) 2014-04-01 2021-03-09 Mediatek Inc. Method of motion information coding
CN105493505B (zh) 2014-06-19 2019-08-06 微软技术许可有限责任公司 统一的帧内块复制和帧间预测模式
EP3158753B1 (en) * 2014-06-19 2021-12-08 VID SCALE, Inc. Intra block copy coding with block vector derivation
EP3202150B1 (en) 2014-09-30 2021-07-21 Microsoft Technology Licensing, LLC Rules for intra-picture prediction modes when wavefront parallel processing is enabled
EP3202143B8 (en) 2014-11-18 2019-09-25 MediaTek Inc. Method of bi-prediction video coding based on motion vectors from uni-prediction and merge candidate
US9591325B2 (en) 2015-01-27 2017-03-07 Microsoft Technology Licensing, Llc Special case handling for merged chroma blocks in intra block copy prediction mode
CN106664405B (zh) 2015-06-09 2020-06-09 微软技术许可有限责任公司 用调色板模式对经逸出编码的像素的稳健编码/解码
US10271064B2 (en) * 2015-06-11 2019-04-23 Qualcomm Incorporated Sub-prediction unit motion vector prediction using spatial and/or temporal motion information
EP3430809A4 (en) * 2016-03-18 2019-01-30 Telefonaktiebolaget LM Ericsson (publ) SUCCESSIVE FOR MOTION VECTOR RECONSTRUCTION
CN106358041B (zh) * 2016-08-30 2019-05-10 北京奇艺世纪科技有限公司 一种帧间预测编码方法及装置
US10448010B2 (en) * 2016-10-05 2019-10-15 Qualcomm Incorporated Motion vector prediction for affine motion models in video coding
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10412410B2 (en) * 2017-08-14 2019-09-10 Google Llc Compound motion-compensated prediction
CN111095926A (zh) 2017-09-12 2020-05-01 三星电子株式会社 用于对运动信息进行编码和解码的方法以及用于对运动信息进行编码和解码的装置
EP3457695A1 (en) 2017-09-18 2019-03-20 Thomson Licensing Method and apparatus for motion vector predictor adaptation for omnidirectional video
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction
CN112040244B (zh) * 2018-03-29 2021-06-29 华为技术有限公司 一种双向帧间预测方法及装置
CN110636296B (zh) * 2018-06-22 2022-05-27 腾讯美国有限责任公司 视频解码方法、装置、计算机设备以及存储介质
WO2020024966A1 (en) * 2018-07-31 2020-02-06 Mediatek Inc. Method and apparatus of merge with motion vector difference for video coding
KR102602827B1 (ko) 2018-09-04 2023-11-15 후아웨이 테크놀러지 컴퍼니 리미티드 양방향 인터 예측에 적용되는 참조 프레임 획득 방법 및 장치
US20200112715A1 (en) * 2018-10-05 2020-04-09 Qualcomm Incorporated History-based motion vector prediction for inter prediction coding
WO2020117013A1 (ko) * 2018-12-06 2020-06-11 엘지전자 주식회사 인터 예측을 기반으로 비디오 신호를 처리하기 위한 방법 및 장치
US11197017B2 (en) * 2018-12-06 2021-12-07 Tencent America LLC Methods and apparatuses for video coding
CN113728643A (zh) 2019-03-11 2021-11-30 Vid拓展公司 对称合并模式运动向量编码
US20220279204A1 (en) * 2021-02-26 2022-09-01 Qualcomm Incorporated Efficient video encoder architecture
US11854264B2 (en) 2021-06-18 2023-12-26 Kyndryl, Inc. Speculative actions based on predicting negative circumstances
US20230086949A1 (en) * 2021-09-15 2023-03-23 Tencent America LLC Method and Apparatus for Improved Signaling of Motion Vector Difference

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3936335B2 (ja) * 2001-11-30 2007-06-27 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、プログラム及びプログラムを記憶したコンピュータ読み取り可能な記録媒体
CN100581259C (zh) 2002-01-09 2010-01-13 松下电器产业株式会社 移动向量编码方法和移动向量编码装置
JP4130783B2 (ja) * 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
JP2004023458A (ja) 2002-06-17 2004-01-22 Toshiba Corp 動画像符号化/復号化方法及び装置
KR100774296B1 (ko) 2002-07-16 2007-11-08 삼성전자주식회사 움직임 벡터 부호화 방법, 복호화 방법 및 그 장치
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
KR100506864B1 (ko) 2002-10-04 2005-08-05 엘지전자 주식회사 모션벡터 결정방법
JP4373702B2 (ja) 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
CN1225128C (zh) 2003-12-31 2005-10-26 中国科学院计算技术研究所 直接编码模式下确定参考图像块的方法
CN1306821C (zh) 2004-07-30 2007-03-21 联合信源数字音视频技术(北京)有限公司 一种视频图像中运动矢量预测生成的方法及其装置
JP2007028393A (ja) 2005-07-20 2007-02-01 Matsushita Electric Ind Co Ltd 双方向予測符号化ピクチャの直接モードブロックの動きベクトルを求める方法
KR100955396B1 (ko) * 2007-06-15 2010-04-29 성균관대학교산학협력단 양-예측 부호화 방법 및 장치, 양-예측 복호화 방법 및장치 및 기록매체
WO2008153262A1 (en) * 2007-06-15 2008-12-18 Sungkyunkwan University Foundation For Corporate Collaboration Bi-prediction coding method and apparatus, bi-prediction decoding method and apparatus, and recording midium
KR101712915B1 (ko) * 2007-10-16 2017-03-07 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
US20100086031A1 (en) 2008-10-03 2010-04-08 Qualcomm Incorporated Video coding with large macroblocks
US8917769B2 (en) 2009-07-03 2014-12-23 Intel Corporation Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US9060176B2 (en) 2009-10-01 2015-06-16 Ntt Docomo, Inc. Motion vector prediction in video coding
KR101348613B1 (ko) * 2009-12-23 2014-01-10 한국전자통신연구원 영상의 부호화/복호화 장치 및 그 방법
KR101456499B1 (ko) 2010-07-09 2014-11-03 삼성전자주식회사 움직임 벡터의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US9124898B2 (en) 2010-07-12 2015-09-01 Mediatek Inc. Method and apparatus of temporal motion vector prediction
WO2012008040A1 (ja) 2010-07-15 2012-01-19 株式会社 東芝 画像符号化方法及び画像復号化方法
US20120039383A1 (en) * 2010-08-12 2012-02-16 Mediatek Inc. Coding unit synchronous adaptive loop filter flags

Also Published As

Publication number Publication date
JP2014511648A (ja) 2014-05-15
EP2684356A1 (en) 2014-01-15
CN103430540B (zh) 2016-12-21
TW201238358A (en) 2012-09-16
US20120230392A1 (en) 2012-09-13
EP2684356B1 (en) 2016-01-13
CN103430540A (zh) 2013-12-04
US9288501B2 (en) 2016-03-15
WO2012121808A1 (en) 2012-09-13

Similar Documents

Publication Publication Date Title
JP5844392B2 (ja) ビデオコード化における双方向予測インターモードのための動きベクトル予測子(mvp)
JP5897698B2 (ja) ビデオコーディングにおける単予測ネイバーに基づく双予測マージモード
US9906790B2 (en) Deblock filtering using pixel distance
JP5792319B2 (ja) ビデオデータのブロック係数のモード依存型スキャニング
EP2380351B1 (en) Combined scheme for interpolation filtering, in-loop filtering and post-loop filtering in video coding
KR101377883B1 (ko) 비디오 인코딩에서 넌-제로 라운딩 및 예측 모드 선택 기법들
US20110249754A1 (en) Variable length coding of coded block pattern (cbp) in video compression
US20150373362A1 (en) Deblocking filter design for intra block copy
US20140341275A1 (en) Signaling picture size in video coding
JP2014511618A (ja) 動き予測ビデオブロックの階層
US8665959B2 (en) Block and partition signaling techniques for video coding
KR20230150284A (ko) 효율적인 비디오 인코더 아키텍처
CA2830242C (en) Bi-predictive merge mode based on uni-predictive neighbors in video coding
CN116601959A (zh) 重叠块运动补偿

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151118

R150 Certificate of patent or registration of utility model

Ref document number: 5844392

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees