JP2015533462A - ビデオコーディングのための参照ピクチャステータス - Google Patents
ビデオコーディングのための参照ピクチャステータス Download PDFInfo
- Publication number
- JP2015533462A JP2015533462A JP2015539594A JP2015539594A JP2015533462A JP 2015533462 A JP2015533462 A JP 2015533462A JP 2015539594 A JP2015539594 A JP 2015539594A JP 2015539594 A JP2015539594 A JP 2015539594A JP 2015533462 A JP2015533462 A JP 2015533462A
- Authority
- JP
- Japan
- Prior art keywords
- picture
- video
- video block
- motion vector
- status information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
以下に、出願当初の特許請求の範囲を付記する。
[付記1]
ビデオデータをコーディングするための方法であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける、前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを備える、方法。
[付記2]
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとをさらに備え、
前記第2のピクチャ内の前記ビデオブロックをコーディングすることが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングすることを備える、付記1に記載の方法。
[付記3]
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶することを備える、付記1に記載の方法。
[付記4]
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶することを備える、付記1に記載の方法。
[付記5]
前記参照ステータス情報を記憶することが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、付記1に記載の方法。
[付記6]
前記参照ステータス情報を記憶することが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、付記1に記載の方法。
[付記7]
前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、付記1に記載の方法。
[付記8]
前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、付記1に記載の方法。
[付記9]
前記第1のピクチャの前記ビデオブロックの前記動きベクトルが前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、付記8に記載の方法。
[付記10]
記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオエンコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが符号化される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
コーディングすることが、前記第1のピクチャが符号化された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオエンコーダを用いて符号化することを備える、付記1に記載の方法。
[付記11]
記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオデコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが復号される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
コーディングすることが、前記第1のピクチャが復号された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオデコーダを用いて復号することを備える、付記1に記載の方法。
[付記12]
ビデオデータをコーディングするための装置であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行うように構成されたビデオコーダを備える、装置。
[付記13]
前記ビデオコーダが、
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行うように構成され、
前記第2のピクチャ内の前記ビデオブロックをコーディングするために、前記ビデオコーダが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするように構成される、付記12に記載の装置。
[付記14]
前記ビデオコーダが、
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶するように構成される、付記12に記載の装置。
[付記15]
前記ビデオコーダが、
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶するように構成される、付記12に記載の装置。
[付記16]
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、付記12に記載の装置。
[付記17]
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、付記12に記載の装置。
[付記18]
前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、付記12に記載の装置。
[付記19]
前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、付記12に記載の装置。
[付記20]
前記第1のピクチャの前記ビデオブロックの前記動きベクトルが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記ビデオコーダが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために、拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、付記19に記載の装置。
[付記21]
前記ビデオコーダがビデオデコーダを備え、前記ビデオデコーダが、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを復号することとを行うように構成される、付記12に記載の装置。
[付記22]
前記ビデオコーダがビデオエンコーダを備え、前記ビデオエンコーダが、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを符号化することとを行うように構成される、付記12に記載の装置。
[付記23]
前記装置が、
ワイヤレス通信デバイスと、
マイクロプロセッサと、
集積回路とのうちの1つを備える、付記12に記載の装置。
[付記24]
ビデオデータをコーディングするための装置であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶するための手段と、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングするための手段とを備える、装置。
[付記25]
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断するための手段と、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断するための手段と、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断するための手段とをさらに備え、
前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段が、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段を備える、付記24に記載の装置。
[付記26]
命令を記憶されたコンピュータ可読記憶媒体であって、前記命令が、実行されると1つまたは複数のプロセッサに、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行わせる、コンピュータ可読記憶媒体。
[付記27]
前記1つまたは複数のプロセッサに、
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行わせる命令をさらに備え、
前記1つまたは複数のプロセッサに前記第2のピクチャ内の前記ビデオブロックをコーディングさせる前記命令が、前記1つまたは複数のプロセッサに、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングさせる命令を備える、付記26に記載のコンピュータ可読記憶媒体。
Claims (27)
- ビデオデータをコーディングするための方法であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける、前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを備える、方法。 - 前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとをさらに備え、
前記第2のピクチャ内の前記ビデオブロックをコーディングすることが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングすることを備える、請求項1に記載の方法。 - 前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶することを備える、請求項1に記載の方法。 - 前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築することをさらに備え、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
前記参照ステータス情報を記憶することが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶することを備える、請求項1に記載の方法。 - 前記参照ステータス情報を記憶することが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、請求項1に記載の方法。
- 前記参照ステータス情報を記憶することが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶することを備える、請求項1に記載の方法。
- 前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、請求項1に記載の方法。
- 前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、請求項1に記載の方法。
- 前記第1のピクチャの前記ビデオブロックの前記動きベクトルが前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、請求項8に記載の方法。
- 記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオエンコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが符号化される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
コーディングすることが、前記第1のピクチャが符号化された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオエンコーダを用いて符号化することを備える、請求項1に記載の方法。 - 記憶することが、前記第1のピクチャの1つまたは複数の参照ピクチャの前記参照ステータス情報をビデオデコーダを用いて記憶することを備え、前記参照ステータス情報が、前記第1のピクチャが復号される前記インスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示し、
コーディングすることが、前記第1のピクチャが復号された前記インスタンスにおける、前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記記憶された参照ステータス情報に基づいて、前記第2のピクチャ内の前記ビデオブロックを前記ビデオデコーダを用いて復号することを備える、請求項1に記載の方法。 - ビデオデータをコーディングするための装置であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行うように構成されたビデオコーダを備える、装置。 - 前記ビデオコーダが、
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行うように構成され、
前記第2のピクチャ内の前記ビデオブロックをコーディングするために、前記ビデオコーダが、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするように構成される、請求項12に記載の装置。 - 前記ビデオコーダが、
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの少なくとも1つを識別し、
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの前記少なくとも1つに対する参照ステータス情報を記憶するように構成される、請求項12に記載の装置。 - 前記ビデオコーダが、
前記第1のピクチャに対して少なくとも1つの参照ピクチャリストを構築するように構成され、ここにおいて、前記少なくとも1つの参照ピクチャリストが、前記第1のピクチャの前記1つまたは複数の参照ピクチャを識別し、
前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記少なくとも1つの参照ピクチャリスト内で識別された前記第1のピクチャの前記1つまたは複数の参照ピクチャのすべてに対する参照ステータス情報を記憶するように構成される、請求項12に記載の装置。 - 前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャが長期参照に使用されるとして指定されるかまたは長期参照に使用されるとして指定されないかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、請求項12に記載の装置。
- 前記参照ステータス情報を記憶するために、前記ビデオコーダが、前記参照ピクチャのピクチャ順序カウント(POC)値が前記第1のピクチャのPOC値と同じPOC値であるかまたは前記参照ピクチャの前記POC値が前記第1のピクチャの前記POC値と異なるかを示す前記第1のピクチャの前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャに対する値を記憶するように構成される、請求項12に記載の装置。
- 前記第1のピクチャがコーディングされた前記インスタンスにおける前記1つまたは複数の参照ピクチャのうちの1つの参照ピクチャの参照ステータスが、前記第2のピクチャがコーディングされるインスタンスにおける前記参照ピクチャの参照ステータスとは異なる、請求項12に記載の装置。
- 前記第1のピクチャのビデオブロックの動きベクトルが、前記第1のピクチャの前記参照ステータスが前記第1のピクチャ内の前記ビデオブロックによって示される前記第1のピクチャの前記参照ピクチャの前記記憶された参照ステータスとは異なる場合、前記第2のピクチャの前記ビデオブロックの動きベクトルを予測するために使用されない、請求項12に記載の装置。
- 前記第1のピクチャの前記ビデオブロックの前記動きベクトルが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルを予測するために使用されないことが、前記ビデオコーダが、前記第2のピクチャの前記ビデオブロックの前記動きベクトルの予測のために、拡張型動きベクトル予測(AMVP)候補リストまたはマージ候補リスト内の候補として、前記第1のピクチャの前記ビデオブロックの前記動きベクトルを追加しないことを備える、請求項19に記載の装置。
- 前記ビデオコーダがビデオデコーダを備え、前記ビデオデコーダが、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを復号することとを行うように構成される、請求項12に記載の装置。 - 前記ビデオコーダがビデオエンコーダを備え、前記ビデオエンコーダが、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの前記参照ステータス情報を記憶することと、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、前記第2の異なるピクチャ内の前記ビデオブロックを符号化することとを行うように構成される、請求項12に記載の装置。 - 前記装置が、
ワイヤレス通信デバイスと、
マイクロプロセッサと、
集積回路とのうちの1つを備える、請求項12に記載の装置。 - ビデオデータをコーディングするための装置であって、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶するための手段と、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングするための手段とを備える、装置。 - 前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断するための手段と、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断するための手段と、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断するための手段とをさらに備え、
前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段が、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングするための手段を備える、請求項24に記載の装置。 - 命令を記憶されたコンピュータ可読記憶媒体であって、前記命令が、実行されると1つまたは複数のプロセッサに、
第1のピクチャの1つまたは複数の参照ピクチャの参照ステータス情報を記憶することと、前記参照ステータス情報が、前記第1のピクチャがコーディングされるインスタンスにおける前記1つまたは複数の参照ピクチャの前記参照ステータス情報を示す、
前記第1のピクチャの前記1つまたは複数の参照ピクチャの、前記第1のピクチャがコーディングされた前記インスタンスにおける前記記憶された参照ステータス情報に基づいて、第2の異なるピクチャ内のビデオブロックをコーディングすることとを行わせる、コンピュータ可読記憶媒体。 - 前記1つまたは複数のプロセッサに、
前記第1のピクチャ内のビデオブロックと、前記第1のピクチャ内の前記ビデオブロックの動きベクトルとを判断することと、ここにおいて、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックに対する前記動きベクトルの参照インデックスに基づいて、前記第1のピクチャの前記1つまたは複数の参照ピクチャからの1つの参照ピクチャを指す、
前記第2のピクチャ内の前記ビデオブロックに対する動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるかどうかを判断することと、
前記第2のピクチャ内の前記ビデオブロックに対する前記動きベクトルが、前記第1のピクチャ内の前記ビデオブロックの前記動きベクトルから導出されるべきであるとき、前記記憶された参照ステータス情報に基づいて、前記第1のピクチャがコーディングされた前記インスタンスにおける前記参照ピクチャの参照ステータスを判断することとを行わせる命令をさらに備え、
前記1つまたは複数のプロセッサに前記第2のピクチャ内の前記ビデオブロックをコーディングさせる前記命令が、前記1つまたは複数のプロセッサに、前記参照ステータスに基づいて前記第2のピクチャ内の前記ビデオブロックをコーディングさせる命令を備える、請求項26に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261718629P | 2012-10-25 | 2012-10-25 | |
US61/718,629 | 2012-10-25 | ||
US13/803,736 US9854234B2 (en) | 2012-10-25 | 2013-03-14 | Reference picture status for video coding |
US13/803,736 | 2013-03-14 | ||
PCT/US2013/058276 WO2014065947A1 (en) | 2012-10-25 | 2013-09-05 | Reference picture status for video coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015533462A true JP2015533462A (ja) | 2015-11-24 |
JP2015533462A5 JP2015533462A5 (ja) | 2016-10-20 |
Family
ID=49237609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015539594A Pending JP2015533462A (ja) | 2012-10-25 | 2013-09-05 | ビデオコーディングのための参照ピクチャステータス |
Country Status (6)
Country | Link |
---|---|
US (1) | US9854234B2 (ja) |
EP (1) | EP2912847A1 (ja) |
JP (1) | JP2015533462A (ja) |
KR (1) | KR20150076235A (ja) |
CN (1) | CN104756499B (ja) |
WO (1) | WO2014065947A1 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4020991A1 (en) * | 2014-12-26 | 2022-06-29 | Sony Group Corporation | Image processing apparatus and image processing method |
WO2017043734A1 (ko) * | 2015-09-07 | 2017-03-16 | 엘지전자(주) | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN107071481A (zh) * | 2015-12-14 | 2017-08-18 | 联发科技股份有限公司 | 一种视频编码解码方法及装置 |
TWI719525B (zh) | 2018-06-29 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | Lut與amvp之間的交互 |
CN110662056B (zh) | 2018-06-29 | 2022-06-07 | 北京字节跳动网络技术有限公司 | 哪个查找表需要更新或不更新 |
CN110662053B (zh) | 2018-06-29 | 2022-03-25 | 北京字节跳动网络技术有限公司 | 使用查找表的视频处理方法、装置和存储介质 |
KR102646649B1 (ko) | 2018-06-29 | 2024-03-13 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
JP7256265B2 (ja) | 2018-06-29 | 2023-04-11 | 北京字節跳動網絡技術有限公司 | ルックアップテーブルの更新:fifo、制限されたfifo |
BR112020024142A2 (pt) | 2018-06-29 | 2021-03-02 | Beijing Bytedance Network Technology Co., Ltd. | método para processamento de vídeo, aparelho para codificação de dados de vídeo, meio de armazenamento e meio de gravação legíveis por computador não transitório |
GB2588531B (en) | 2018-06-29 | 2023-02-01 | Beijing Bytedance Network Tech Co Ltd | Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks |
JP7460617B2 (ja) | 2018-06-29 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | Lut更新条件 |
GB2589241B (en) | 2018-07-02 | 2023-06-07 | Beijing Bytedance Network Tech Co Ltd | Update of look-up tables |
TW202025760A (zh) | 2018-09-12 | 2020-07-01 | 大陸商北京字節跳動網絡技術有限公司 | 要檢查多少個hmvp候選 |
CN111416981B (zh) * | 2019-01-07 | 2023-06-02 | 浙江大学 | 视频图像解码、编码方法及装置 |
KR102648159B1 (ko) | 2019-01-10 | 2024-03-18 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut 업데이트의 호출 |
WO2020143824A1 (en) | 2019-01-13 | 2020-07-16 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and shared merge list |
WO2020147773A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Inserting order of motion candidates in lut |
WO2020192611A1 (en) | 2019-03-22 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between merge list construction and other tools |
CN113689430B (zh) * | 2021-10-26 | 2022-02-15 | 紫东信息科技(苏州)有限公司 | 肠镜检查状态监测的图像处理方法与装置 |
CN115118977B (zh) * | 2022-08-29 | 2022-11-04 | 华中科技大学 | 针对360度视频的帧内预测编码方法、系统及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012019462A (ja) * | 2010-07-09 | 2012-01-26 | Panasonic Corp | 画像復号装置および画像復号方法 |
US20120250773A1 (en) * | 2011-03-31 | 2012-10-04 | Qualcomm Incorporated | Combined reference picture list construction and mapping |
JP2012191298A (ja) * | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100934671B1 (ko) * | 2006-03-30 | 2009-12-31 | 엘지전자 주식회사 | 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치 |
JP4810298B2 (ja) | 2006-05-09 | 2011-11-09 | キヤノン株式会社 | 画像符号化装置及び符号化方法並びに画像復号化装置及び復号化方法 |
BRPI0717321A2 (pt) | 2006-10-13 | 2013-10-22 | Thomson Licensing | Método para gerenciamento de imagens de referência envolvendo codificação de vídeo com mútiplas visualizações |
KR101385808B1 (ko) | 2006-10-16 | 2014-04-17 | 톰슨 라이센싱 | 비디오 동작 동안 nal 유닛을 이용하여 동시 디코딩 리프레시를 시그널링하는 방법 |
EP2642756B1 (en) | 2006-10-16 | 2018-09-26 | Nokia Technologies Oy | System and method for implementing efficient decoded buffer management in multi-view video coding |
US20100027615A1 (en) * | 2006-10-24 | 2010-02-04 | Purvin Bibhas Pandit | Picture identification for multi-view video coding |
TW201121331A (en) | 2009-12-10 | 2011-06-16 | Novatek Microelectronics Corp | Picture decoder |
US20120269275A1 (en) | 2010-10-20 | 2012-10-25 | Nokia Corporation | Method and device for video coding and decoding |
US20120230409A1 (en) | 2011-03-07 | 2012-09-13 | Qualcomm Incorporated | Decoded picture buffer management |
US9143795B2 (en) * | 2011-04-11 | 2015-09-22 | Texas Instruments Incorporated | Parallel motion estimation in video coding |
-
2013
- 2013-03-14 US US13/803,736 patent/US9854234B2/en not_active Expired - Fee Related
- 2013-09-05 KR KR1020157013714A patent/KR20150076235A/ko not_active Application Discontinuation
- 2013-09-05 JP JP2015539594A patent/JP2015533462A/ja active Pending
- 2013-09-05 WO PCT/US2013/058276 patent/WO2014065947A1/en active Application Filing
- 2013-09-05 CN CN201380055112.0A patent/CN104756499B/zh not_active Expired - Fee Related
- 2013-09-05 EP EP13766755.6A patent/EP2912847A1/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012019462A (ja) * | 2010-07-09 | 2012-01-26 | Panasonic Corp | 画像復号装置および画像復号方法 |
JP2012191298A (ja) * | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
US20120250773A1 (en) * | 2011-03-31 | 2012-10-04 | Qualcomm Incorporated | Combined reference picture list construction and mapping |
Non-Patent Citations (4)
Title |
---|
B. BROSS ET AL.: "High efficiency video coding (HEVC) text specification draft 7", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 9TH M, vol. JCTVC-I1003_d4, JPN6017023394, 12 June 2012 (2012-06-12), pages 119 - 140, ISSN: 0003701129 * |
Y.CHEN ET AL.: "Temporal motion vector prediction hook for MV-HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-K0239, JPN6017023391, 19 October 2012 (2012-10-19), ISSN: 0003701131 * |
Y.CHEN, ET AL.: "AHG10: Motion related hooks for HEVC multiview/3D extension based on long-term reference pictures", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 10TH, vol. JCTVC-J0121r1, JPN6017023393, 20 July 2012 (2012-07-20), SW, ISSN: 0003701128 * |
Y.TAKAHASHI ET AL.: "High-level Syntax: Motion vector prediction issue for long-term reference picture", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-J0071, JPN6017023392, 2 July 2012 (2012-07-02), SW, ISSN: 0003701130 * |
Also Published As
Publication number | Publication date |
---|---|
CN104756499A (zh) | 2015-07-01 |
WO2014065947A1 (en) | 2014-05-01 |
KR20150076235A (ko) | 2015-07-06 |
CN104756499B (zh) | 2018-12-21 |
US9854234B2 (en) | 2017-12-26 |
US20140119447A1 (en) | 2014-05-01 |
EP2912847A1 (en) | 2015-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11431968B2 (en) | Variable number of intra modes for video coding | |
CN111164973B (zh) | 译码用于视频译码的仿射预测运动信息 | |
RU2697744C2 (ru) | Объединенное предсказание межкадровое и с внутрикадровой копией блока | |
JP6720153B2 (ja) | イントラbcとインターの統合 | |
US9854234B2 (en) | Reference picture status for video coding | |
JP6092222B2 (ja) | ビデオコード化のための動きベクトル決定 | |
EP3849182B1 (en) | Restriction of prediction units in b slices to uni-directional inter prediction | |
US9325991B2 (en) | Motion vector rounding | |
US20130272409A1 (en) | Bandwidth reduction in video coding through applying the same reference index | |
CN111213376A (zh) | 使用基于编码结构的候选列表构建对视频数据的运动信息进行编码 | |
JP2018530246A (ja) | ビデオコーディングのために位置依存の予測組合せを使用する改善されたビデオイントラ予測 | |
US20130258052A1 (en) | Inter-view residual prediction in 3d video coding | |
JP2018537908A (ja) | ビデオデータの符号情報をコーディングすること | |
JP2017513332A (ja) | ビデオコーディングの参照として現在のピクチャを使用すること | |
JP2015510358A (ja) | Bスライス中の予測単位の単方向インター予測への制限 | |
KR20140018967A (ko) | 비디오 코딩에서의 모션 벡터 예측 | |
JP2015532554A (ja) | ビデオプロパティの指示 | |
WO2013151765A1 (en) | Weighted prediction parameter coding | |
JP6526574B2 (ja) | レイヤ間シンタックス予測制御 | |
US9338452B2 (en) | Motion vector difference coding extension for enhancement layer | |
JP2015508952A (ja) | 並列動き推定範囲サイズの暗黙的導出 | |
CN110868613B (zh) | 基于历史候选列表的图像编码方法、图像解码方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160808 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180717 |