JP2015533462A - ビデオコーディングのための参照ピクチャステータス - Google Patents
ビデオコーディングのための参照ピクチャステータス Download PDFInfo
- Publication number
- JP2015533462A JP2015533462A JP2015539594A JP2015539594A JP2015533462A JP 2015533462 A JP2015533462 A JP 2015533462A JP 2015539594 A JP2015539594 A JP 2015539594A JP 2015539594 A JP2015539594 A JP 2015539594A JP 2015533462 A JP2015533462 A JP 2015533462A
- Authority
- JP
- Japan
- Prior art keywords
- picture
- video
- video block
- motion vector
- status information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 120
- 239000013598 vector Substances 0.000 claims description 227
- 230000007774 longterm Effects 0.000 claims description 40
- 238000003860 storage Methods 0.000 claims description 30
- 238000004891 communication Methods 0.000 claims description 15
- 230000002123 temporal effect Effects 0.000 description 115
- 238000013139 quantization Methods 0.000 description 24
- 230000006835 compression Effects 0.000 description 17
- 238000007906 compression Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 238000005192 partition Methods 0.000 description 12
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 9
- 230000003044 adaptive effect Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000000638 solvent extraction Methods 0.000 description 6
- 239000000872 buffer Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
以下に、出願当初の特許請求の範囲を付記する。
[付記1]
ビデオデータをコーディングするための方法であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける、前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを備える、方法。
[付記2]
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとをさらに備え、
前記第2のピクチャ内の前記ビデオブロックをコーディングすることが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングすることを備える、付記1に記載の方法。
[付記3]
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶することを備える、付記1に記載の方法。
[付記4]
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶することを備える、付記1に記載の方法。
[付記5]
前記参照ステータス情報を記憶することが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、付記1に記載の方法。
[付記6]
前記参照ステータス情報を記憶することが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、付記1に記載の方法。
[付記7]
前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、付記1に記載の方法。
[付記8]
前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、付記1に記載の方法。
[付記9]
前記第1のピクチャの前記ビデオブロックの前記動きベクトルが前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、付記8に記載の方法。
[付記10]
記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオエンコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが符号化される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
コーディングすることが、前記第1のピクチャが符号化された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオエンコーダを用いて符号化することを備える、付記1に記載の方法。
[付記11]
記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオデコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが復号される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
コーディングすることが、前記第1のピクチャが復号された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオデコーダを用いて復号することを備える、付記1に記載の方法。
[付記12]
ビデオデータをコーディングするための装置であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行うように構成されたビデオコーダを備える、装置。
[付記13]
前記ビデオコーダが、
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行うように構成され、
前記第2のピクチャ内の前記ビデオブロックをコーディングするために、前記ビデオコーダが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするように構成される、付記12に記載の装置。
[付記14]
前記ビデオコーダが、
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶するように構成される、付記12に記載の装置。
[付記15]
前記ビデオコーダが、
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶するように構成される、付記12に記載の装置。
[付記16]
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、付記12に記載の装置。
[付記17]
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、付記12に記載の装置。
[付記18]
前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、付記12に記載の装置。
[付記19]
前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、付記12に記載の装置。
[付記20]
前記第1のピクチャの前記ビデオブロックの前記動きベクトルが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記ビデオコーダが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために、拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、付記19に記載の装置。
[付記21]
前記ビデオコーダがビデオデコーダを備え、前記ビデオデコーダが、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを復号することとを行うように構成される、付記12に記載の装置。
[付記22]
前記ビデオコーダがビデオエンコーダを備え、前記ビデオエンコーダが、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを符号化することとを行うように構成される、付記12に記載の装置。
[付記23]
前記装置が、
ワイヤレス通信デバイスと、
マイクロプロセッサと、
集積回路とのうちの1つを備える、付記12に記載の装置。
[付記24]
ビデオデータをコーディングするための装置であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶するための手段と、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングするための手段とを備える、装置。
[付記25]
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断するための手段と、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断するための手段と、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断するための手段とをさらに備え、
前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段が、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段を備える、付記24に記載の装置。
[付記26]
命令を記憶されたコンピュータ可読記憶媒体であって、前記命令が、実行されると1つまたは複数のプロセッサに、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行わせる、コンピュータ可読記憶媒体。
[付記27]
前記1つまたは複数のプロセッサに、
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行わせる命令をさらに備え、
前記1つまたは複数のプロセッサに前記第2のピクチャ内の前記ビデオブロックをコーディングさせる前記命令が、前記1つまたは複数のプロセッサに、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングさせる命令を備える、付記26に記載のコンピュータ可読記憶媒体。
Claims (27)
- ビデオデータをコーディングするための方法であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける、前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを備える、方法。 - 前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとをさらに備え、
前記第2のピクチャ内の前記ビデオブロックをコーディングすることが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングすることを備える、請求項1に記載の方法。 - 前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶することを備える、請求項1に記載の方法。 - 前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶することを備える、請求項1に記載の方法。 - 前記参照ステータス情報を記憶することが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、請求項1に記載の方法。
- 前記参照ステータス情報を記憶することが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、請求項1に記載の方法。
- 前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、請求項1に記載の方法。
- 前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、請求項1に記載の方法。
- 前記第1のピクチャの前記ビデオブロックの前記動きベクトルが前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、請求項8に記載の方法。
- 記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオエンコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが符号化される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
コーディングすることが、前記第1のピクチャが符号化された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオエンコーダを用いて符号化することを備える、請求項1に記載の方法。 - 記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオデコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが復号される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
コーディングすることが、前記第1のピクチャが復号された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオデコーダを用いて復号することを備える、請求項1に記載の方法。 - ビデオデータをコーディングするための装置であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行うように構成されたビデオコーダを備える、装置。 - 前記ビデオコーダが、
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行うように構成され、
前記第2のピクチャ内の前記ビデオブロックをコーディングするために、前記ビデオコーダが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするように構成される、請求項12に記載の装置。 - 前記ビデオコーダが、
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶するように構成される、請求項12に記載の装置。 - 前記ビデオコーダが、
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶するように構成される、請求項12に記載の装置。 - 前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、請求項12に記載の装置。
- 前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、請求項12に記載の装置。
- 前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、請求項12に記載の装置。
- 前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、請求項12に記載の装置。
- 前記第1のピクチャの前記ビデオブロックの前記動きベクトルが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記ビデオコーダが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために、拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、請求項19に記載の装置。
- 前記ビデオコーダがビデオデコーダを備え、前記ビデオデコーダが、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを復号することとを行うように構成される、請求項12に記載の装置。 - 前記ビデオコーダがビデオエンコーダを備え、前記ビデオエンコーダが、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを符号化することとを行うように構成される、請求項12に記載の装置。 - 前記装置が、
ワイヤレス通信デバイスと、
マイクロプロセッサと、
集積回路とのうちの1つを備える、請求項12に記載の装置。 - ビデオデータをコーディングするための装置であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶するための手段と、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングするための手段とを備える、装置。 - 前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断するための手段と、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断するための手段と、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断するための手段とをさらに備え、
前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段が、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段を備える、請求項24に記載の装置。 - 命令を記憶されたコンピュータ可読記憶媒体であって、前記命令が、実行されると1つまたは複数のプロセッサに、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行わせる、コンピュータ可読記憶媒体。 - 前記1つまたは複数のプロセッサに、
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行わせる命令をさらに備え、
前記1つまたは複数のプロセッサに前記第2のピクチャ内の前記ビデオブロックをコーディングさせる前記命令が、前記1つまたは複数のプロセッサに、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングさせる命令を備える、請求項26に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261718629P | 2012-10-25 | 2012-10-25 | |
US61/718,629 | 2012-10-25 | ||
US13/803,736 | 2013-03-14 | ||
US13/803,736 US9854234B2 (en) | 2012-10-25 | 2013-03-14 | Reference picture status for video coding |
PCT/US2013/058276 WO2014065947A1 (en) | 2012-10-25 | 2013-09-05 | Reference picture status for video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015533462A true JP2015533462A (ja) | 2015-11-24 |
JP2015533462A5 JP2015533462A5 (ja) | 2016-10-20 |
Family
ID=49237609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015539594A Pending JP2015533462A (ja) | 2012-10-25 | 2013-09-05 | ビデオコーディングのための参照ピクチャステータス |
Country Status (6)
Country | Link |
---|---|
US (1) | US9854234B2 (ja) |
EP (1) | EP2912847A1 (ja) |
JP (1) | JP2015533462A (ja) |
KR (1) | KR20150076235A (ja) |
CN (1) | CN104756499B (ja) |
WO (1) | WO2014065947A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4020991A1 (en) * | 2014-12-26 | 2022-06-29 | Sony Group Corporation | Image processing apparatus and image processing method |
WO2017043734A1 (ko) * | 2015-09-07 | 2017-03-16 | 엘지전자(주) | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN107071481A (zh) * | 2015-12-14 | 2017-08-18 | 联发科技股份有限公司 | 一种视频编码解码方法及装置 |
WO2020003278A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Update of look up table: fifo, constrained fifo |
EP3797516A1 (en) | 2018-06-29 | 2021-03-31 | Beijing Bytedance Network Technology Co. Ltd. | Interaction between lut and amvp |
CN110662056B (zh) | 2018-06-29 | 2022-06-07 | 北京字节跳动网络技术有限公司 | 哪个查找表需要更新或不更新 |
CN110662057B (zh) | 2018-06-29 | 2022-06-21 | 北京字节跳动网络技术有限公司 | 视频处理方法、装置、设备以及存储比特流的方法 |
KR20210024502A (ko) | 2018-06-29 | 2021-03-05 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Hmvp 후보를 병합/amvp에 추가할 때의 부분/풀 프루닝 |
TWI723444B (zh) | 2018-06-29 | 2021-04-01 | 大陸商北京字節跳動網絡技術有限公司 | 使用一個或多個查找表來按順序存儲先前編碼的運動信息並使用它們來編碼後面的塊的概念 |
EP3791588A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Checking order of motion candidates in lut |
JP7460617B2 (ja) | 2018-06-29 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | Lut更新条件 |
EP4307679A3 (en) | 2018-07-02 | 2024-06-19 | Beijing Bytedance Network Technology Co., Ltd. | Luts with intra prediction modes and intra mode prediction from non-adjacent blocks |
TW202025760A (zh) | 2018-09-12 | 2020-07-01 | 大陸商北京字節跳動網絡技術有限公司 | 要檢查多少個hmvp候選 |
CN111416981B (zh) * | 2019-01-07 | 2023-06-02 | 浙江大学 | 视频图像解码、编码方法及装置 |
CN113273186A (zh) | 2019-01-10 | 2021-08-17 | 北京字节跳动网络技术有限公司 | Lut更新的调用 |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
CN113302937B (zh) | 2019-01-16 | 2024-08-02 | 北京字节跳动网络技术有限公司 | 运动候选推导 |
CN113615193B (zh) | 2019-03-22 | 2024-06-25 | 北京字节跳动网络技术有限公司 | Merge列表构建和其他工具之间的交互 |
CN113689430B (zh) * | 2021-10-26 | 2022-02-15 | 紫东信息科技(苏州)有限公司 | 肠镜检查状态监测的图像处理方法与装置 |
CN115118977B (zh) * | 2022-08-29 | 2022-11-04 | 华中科技大学 | 针对360度视频的帧内预测编码方法、系统及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012019462A (ja) * | 2010-07-09 | 2012-01-26 | Panasonic Corp | 画像復号装置および画像復号方法 |
US20120250773A1 (en) * | 2011-03-31 | 2012-10-04 | Qualcomm Incorporated | Combined reference picture list construction and mapping |
JP2012191298A (ja) * | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100934674B1 (ko) * | 2006-03-30 | 2009-12-31 | 엘지전자 주식회사 | 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치 |
JP4810298B2 (ja) | 2006-05-09 | 2011-11-09 | キヤノン株式会社 | 画像符号化装置及び符号化方法並びに画像復号化装置及び復号化方法 |
WO2008048515A2 (en) | 2006-10-13 | 2008-04-24 | Thomson Licensing | Method for reference picture management involving multiview video coding |
CA2666452C (en) | 2006-10-16 | 2014-12-16 | Nokia Corporation | System and method for implementing efficient decoded buffer management in multi-view video coding |
KR101385808B1 (ko) | 2006-10-16 | 2014-04-17 | 톰슨 라이센싱 | 비디오 동작 동안 nal 유닛을 이용하여 동시 디코딩 리프레시를 시그널링하는 방법 |
US20100027615A1 (en) * | 2006-10-24 | 2010-02-04 | Purvin Bibhas Pandit | Picture identification for multi-view video coding |
TW201121331A (en) | 2009-12-10 | 2011-06-16 | Novatek Microelectronics Corp | Picture decoder |
EP2630799A4 (en) | 2010-10-20 | 2014-07-02 | Nokia Corp | METHOD AND DEVICE FOR VIDEO CODING AND DECODING |
US20120230409A1 (en) | 2011-03-07 | 2012-09-13 | Qualcomm Incorporated | Decoded picture buffer management |
US9143795B2 (en) * | 2011-04-11 | 2015-09-22 | Texas Instruments Incorporated | Parallel motion estimation in video coding |
-
2013
- 2013-03-14 US US13/803,736 patent/US9854234B2/en not_active Expired - Fee Related
- 2013-09-05 JP JP2015539594A patent/JP2015533462A/ja active Pending
- 2013-09-05 EP EP13766755.6A patent/EP2912847A1/en not_active Withdrawn
- 2013-09-05 WO PCT/US2013/058276 patent/WO2014065947A1/en active Application Filing
- 2013-09-05 KR KR1020157013714A patent/KR20150076235A/ko not_active Application Discontinuation
- 2013-09-05 CN CN201380055112.0A patent/CN104756499B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012019462A (ja) * | 2010-07-09 | 2012-01-26 | Panasonic Corp | 画像復号装置および画像復号方法 |
JP2012191298A (ja) * | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
US20120250773A1 (en) * | 2011-03-31 | 2012-10-04 | Qualcomm Incorporated | Combined reference picture list construction and mapping |
Non-Patent Citations (4)
Title |
---|
B. BROSS ET AL.: "High efficiency video coding (HEVC) text specification draft 7", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 9TH M, vol. JCTVC-I1003_d4, JPN6017023394, 12 June 2012 (2012-06-12), pages 119 - 140, ISSN: 0003701129 * |
Y.CHEN ET AL.: "Temporal motion vector prediction hook for MV-HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-K0239, JPN6017023391, 19 October 2012 (2012-10-19), ISSN: 0003701131 * |
Y.CHEN, ET AL.: "AHG10: Motion related hooks for HEVC multiview/3D extension based on long-term reference pictures", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 10TH, vol. JCTVC-J0121r1, JPN6017023393, 20 July 2012 (2012-07-20), SW, ISSN: 0003701128 * |
Y.TAKAHASHI ET AL.: "High-level Syntax: Motion vector prediction issue for long-term reference picture", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-J0071, JPN6017023392, 2 July 2012 (2012-07-02), SW, ISSN: 0003701130 * |
Also Published As
Publication number | Publication date |
---|---|
EP2912847A1 (en) | 2015-09-02 |
US20140119447A1 (en) | 2014-05-01 |
KR20150076235A (ko) | 2015-07-06 |
CN104756499A (zh) | 2015-07-01 |
WO2014065947A1 (en) | 2014-05-01 |
US9854234B2 (en) | 2017-12-26 |
CN104756499B (zh) | 2018-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11431968B2 (en) | Variable number of intra modes for video coding | |
CN111164973B (zh) | 译码用于视频译码的仿射预测运动信息 | |
RU2697744C2 (ru) | Объединенное предсказание межкадровое и с внутрикадровой копией блока | |
JP6720153B2 (ja) | イントラbcとインターの統合 | |
US9854234B2 (en) | Reference picture status for video coding | |
JP6092222B2 (ja) | ビデオコード化のための動きベクトル決定 | |
EP3849182B1 (en) | Restriction of prediction units in b slices to uni-directional inter prediction | |
US9325991B2 (en) | Motion vector rounding | |
US20130272409A1 (en) | Bandwidth reduction in video coding through applying the same reference index | |
US9143781B2 (en) | Weighted prediction parameter coding | |
CN111213376A (zh) | 使用基于编码结构的候选列表构建对视频数据的运动信息进行编码 | |
JP2018530246A (ja) | ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測 | |
US20130258052A1 (en) | Inter-view residual prediction in 3d video coding | |
JP2018537908A (ja) | ビデオデータの符号情報をコーディングすること | |
JP2017513332A (ja) | ビデオコーディングの参照として現在のピクチャを使用すること | |
JP2015510358A (ja) | Bスライス中の予測単位の単方向インター予測への制限 | |
KR20140018967A (ko) | 비디오 코딩에서의 모션 벡터 예측 | |
JP2015532554A (ja) | ビデオプロパティの指示 | |
JP6526574B2 (ja) | レイヤ間シンタックス予測制御 | |
US9338452B2 (en) | Motion vector difference coding extension for enhancement layer | |
JP2015508952A (ja) | 並列動き推定範囲サイズの暗黙的導出 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160808 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180717 |