JP2014526838A - 予測動きベクトル誘導方法及びその方法を使用する装置 - Google Patents
予測動きベクトル誘導方法及びその方法を使用する装置 Download PDFInfo
- Publication number
- JP2014526838A JP2014526838A JP2014530596A JP2014530596A JP2014526838A JP 2014526838 A JP2014526838 A JP 2014526838A JP 2014530596 A JP2014530596 A JP 2014530596A JP 2014530596 A JP2014530596 A JP 2014530596A JP 2014526838 A JP2014526838 A JP 2014526838A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- candidate prediction
- block
- prediction motion
- spatial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title claims abstract description 2045
- 230000033001 locomotion Effects 0.000 title claims abstract description 1989
- 238000000034 method Methods 0.000 title claims abstract description 150
- 230000006698 induction Effects 0.000 claims abstract description 5
- 230000002123 temporal effect Effects 0.000 claims description 276
- 230000008569 process Effects 0.000 claims description 27
- 238000010276 construction Methods 0.000 claims description 12
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 17
- 238000013139 quantization Methods 0.000 description 8
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 238000007619 statistical method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/13—Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【解決手段】映像復号化方法は、予測対象ブロックの周辺予測ブロックから複数個の空間的候補予測動きベクトル関連情報を決定するステップ及び複数個の空間的候補予測動きベクトル関連情報に基づいて時間的候補予測動きベクトル関連情報を決定するステップを含むことができる。したがって、最適の予測動きベクトルを誘導時に発生する複雑度を減らして符号化効率を上げることができる。
Description
前記空間的候補予測動きベクトル関連情報は、第1の空間的候補予測動きベクトル可用性情報及び第1の空間的候補予測動きベクトルのうち少なくとも一つ、ならびに第2の空間的候補予測動きベクトル可用性情報及び第2の空間的候補予測動きベクトルのうち少なくとも一つを含む情報であり、前記時間的候補予測動きベクトル関連情報は、時間的候補予測動きベクトル可用性情報及び前記時間的候補予測動きベクトルのうち少なくとも一つを含む情報である。
前記予測部は、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと第2の空間的候補予測動きベクトルが異なるとき、前記時間的候補予測動きベクトル可用性情報を前記時間的候補予測動きベクトルが可用しないと決定する。
前記予測部は、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルのうち少なくとも一つが可用しないとき、又は前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じとき、前記時間的候補予測動きベクトル関連情報の導出過程を実行して前記時間的候補予測動きベクトル関連情報を決定する。
前記予測部は前記候補予測動きベクトルリストを、前記第1の空間的候補予測動きベクトル可用性情報に基づいて前記第1の空間的候補予測動きベクトルが可用するとき、前記第1の空間的候補予測動きベクトルと、前記第2の空間的候補予測動きベクトル可用性情報に基づいて前記第2の空間的候補予測動きベクトルが可用するとき、前記第2の空間的候補予測動きベクトルと、前記時間的候補予測動きベクトル可用性情報に基づいて前記時間的候補予測動きベクトルが可用するとき、前記時間的候補予測動きベクトルと、を含んで構成する。
前記予測部は、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じとき、前記第2の空間的候補予測動きベクトルを除去して前記候補予測動きベクトルリストを再構成する。
前記予測部は、前記候補予測動きベクトルリストに含まれている候補予測動きベクトルの個数が前記候補予測動きベクトルリストに含まれるべき候補予測動きベクトルの最大数より小さいかどうかを判断し、判断結果に基づいて候補予測動きベクトルを追加又は除去して前記候補予測動きベクトルリストを再構成する。
前記予測部は、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より小さいとき、前記候補予測動きベクトルリストに零ベクトルを追加し、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より大きいとき、前記候補予測動きベクトルの最大数が前記候補予測動きベクトルリストに含まれるように前記候補予測動きベクトルリストから候補予測動きベクトルを除去する。
本発明の一態様によれば、映像復号化方法が提供される。この映像復号化方法は、予測対象ブロックの近隣予測ブロックから複数個の空間的候補予測動きベクトル関連情報を決定するステップ;前記複数個の空間的候補予測動きベクトル関連情報に基づいて時間的候補予測動きベクトル関連情報を決定するステップ;前記空間的候補予測動きベクトル関連情報及び前記時間的候補予測動きベクトル関連情報に基づいて候補予測動きベクトルリストを構成するステップ;及び、前記候補予測動きベクトルリスト内の最終予測動きベクトルに関するインデックス情報に基づいて動きベクトルを決定し、前記決定された動きベクトルに基づいて予測ブロックを生成するステップ;を含んでもよい。
前記複数個の空間的候補予測動きベクトル関連情報を決定するステップは、第1の空間的候補予測動きベクトル可用性情報及び第1の空間的候補予測動きベクトルを決定するステップ及び第2の空間的候補予測動きベクトル可用性情報及び第2の空間的候補予測動きベクトルを決定するステップを含み、前記時間的候補予測動きベクトル関連情報を決定するステップは、時間的候補予測動きベクトル可用性情報及び時間的候補予測動きベクトルを決定するステップを含む。
前記時間的候補予測動きベクトル関連情報を決定するステップは、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが異なるかどうかを判断するステップ;及び、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと第2の空間的候補予測動きベクトルが異なるとき、前記時間的候補予測動きベクトル可用性情報を前記時間的候補予測動きベクトルが可用しないと決定するステップ;を含む。
前記時間的候補予測動きベクトル関連情報を決定するステップは、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが異なるかどうかを判断するステップ;及び、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルのうち少なくとも一つが可用しないとき、又は前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じとき、前記時間的候補予測動きベクトル関連情報の導出過程を実行して前記時間的候補予測動きベクトル関連情報を決定するステップ;を含む。
前記候補予測動きベクトルリストは、前記第1の空間的候補予測動きベクトルが可用するとき、前記第1の空間的候補予測動きベクトルと、前記第2の空間的候補予測動きベクトルが可用するとき、前記第2の空間的候補予測動きベクトルと、前記時間的候補予測動きベクトルが可用するとき、前記時間的候補予測動きベクトルと、を含んで構成する。
前記映像復号化方法は、前記第1の空間的候補予測動きベクトルと前記候補予測動きベクトルリスト内の前記第2の空間的候補予測動きベクトルが同じとき、前記第2の空間的候補予測動きベクトルを前記候補予測動きベクトルリストから除去するステップをさらに含んでもよい。
前記映像復号化方法は、前記候補予測動きベクトルリストに含まれている候補予測動きベクトルの個数が前記候補予測動きベクトルリストに含まれるべき候補予測動きベクトルの最大数より小さいかどうかを判断するステップ;及び、判断結果に基づいて、前記候補予測動きベクトルリストに候補予測動きベクトルを追加し、又は前記候補予測動きベクトルリストから候補予測動きベクトルを除去するステップ;をさらに含んでもよい。
前記判断結果に基づいて候補予測動きベクトルを追加又は除去するステップは、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より小さいとき、前記候補予測動きベクトルリストに零ベクトルを追加するステップ;及び、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より大きいとき、前記候補予測動きベクトルの最大数が前記候補予測動きベクトルリストに含まれるように前記候補予測動きベクトルリストから候補予測動きベクトルを除去するステップ;を含む。
前記第1の空間的候補予測動きベクトル可用性情報は、第1の空間的候補予測ブロックグループに含まれている第1のブロック又は第2のブロックに第1の動きベクトルが存在するかどうかを判断するステップ;前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第2の動きベクトルが存在するかどうかを判断するステップ;前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトル又は前記第2の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第3の動きベクトルが存在するかどうかを判断するステップ;及び、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトル、前記第2の動きベクトル又は前記第3の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第4の動きベクトルが存在するかどうかを判断するステップ;を介して導出される。
前記第1の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び同じ参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第2の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと同じ参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第3の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第4の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第1のブロック又は前記第2のブロックから導出される。
前記第2の空間的候補予測動きベクトル可用性情報は、第2の空間的候補予測ブロックグループに含まれている第3のブロック、第4のブロック又は第5のブロックに第1の動きベクトルが存在するかどうかを判断するステップ;前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第2の動きベクトルが存在するかどうかを判断するステップ;前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトル又は第2の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第3の動きベクトルが存在するかどうかを判断するステップ;及び、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトル、前記第2の動きベクトル又は前記第3の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第4の動きベクトルが存在するかどうかを判断するステップ;を介して導出される。
前記第1の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び同じ参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第2の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと同じ参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第3の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第4の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出される。
本発明の一態様によれば、映像符号化装置が提供される。この映像符号化装置は、候補予測動きベクトルリストに含まれている候補予測動きベクトルのうち予測対象ブロックに対する画面間予測を実行するために使われる予測動きベクトルに関する情報を符号化するエントロピー符号化部;及び、前記予測対象ブロックの近隣予測ブロックから複数個の空間的候補予測動きベクトル関連情報を決定し、前記複数個の空間的候補予測動きベクトル関連情報に基づいて時間的候補予測動きベクトル関連情報を決定して前記候補予測動きベクトルリストを生成する予測部;を含む。
前記空間的候補予測動きベクトル関連情報は、第1の空間的候補予測動きベクトル可用性情報及び第1の空間的候補予測動きベクトルのうち少なくとも一つ、ならびに第2の空間的候補予測動きベクトル可用性情報及び第2の空間的候補予測動きベクトルのうち少なくとも一つを含む情報であり、前記時間的候補予測動きベクトル関連情報は、時間的候補予測動きベクトル可用性情報及び前記時間的候補予測動きベクトルのうち少なくとも一つを含む情報である。
前記予測部は、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと第2の空間的候補予測動きベクトルが異なるとき、前記時間的候補予測動きベクトル可用性情報を前記時間的候補予測動きベクトルが可用しないと決定する。
前記予測部は、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルのうち少なくとも一つが可用しないとき、又は前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じとき、前記時間的候補予測動きベクトル関連情報の導出過程を実行して前記時間的候補予測動きベクトル関連情報を決定する。
前記予測部は前記候補予測動きベクトルリストを、前記第1の空間的候補予測動きベクトル可用性情報に基づいて前記第1の空間的候補予測動きベクトルが可用するとき、前記第1の空間的候補予測動きベクトルと、前記第2の空間的候補予測動きベクトル可用性情報に基づいて前記第2の空間的候補予測動きベクトルが可用するとき、前記第2の空間的候補予測動きベクトルと、前記時間的候補予測動きベクトル可用性情報に基づいて前記時間的候補予測動きベクトルが可用するとき、前記時間的候補予測動きベクトルと、を含んで構成する。
前記予測部は、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じとき、前記第2の空間的候補予測動きベクトルを除去して前記候補予測動きベクトルリストを再構成する。
前記予測部は、前記候補予測動きベクトルリストに含まれている候補予測動きベクトルの個数が前記候補予測動きベクトルリストに含まれるべき候補予測動きベクトルの最大数より小さいかどうかを判断し、判断結果に基づいて候補予測動きベクトルを追加又は除去して前記候補予測動きベクトルリストを再構成する。
前記予測部は、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より小さいとき、前記候補予測動きベクトルリストに零ベクトルを追加し、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より大きいとき、前記候補予測動きベクトルの最大数が前記候補予測動きベクトルリストに含まれるように前記候補予測動きベクトルリストから候補予測動きベクトルを除去する。
前記複数個の空間的候補予測動きベクトル関連情報を決定するステップは、第1の空間的候補予測動きベクトル可用性情報及び第1の空間的候補予測動きベクトルを決定するステップ及び第2の空間的候補予測動きベクトル可用性情報及び第2の空間的候補予測動きベクトルを決定するステップを含み、前記時間的候補予測動きベクトル関連情報を決定するステップは、時間的候補予測動きベクトル可用性情報及び時間的候補予測動きベクトルを決定するステップを含む。
前記時間的候補予測動きベクトル関連情報を決定するステップは、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが異なるかどうかを判断するステップ;及び、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと第2の空間的候補予測動きベクトルが異なるとき、前記時間的候補予測動きベクトル可用性情報を前記時間的候補予測動きベクトルが可用しないと決定するステップ;を含む。
前記時間的候補予測動きベクトル関連情報を決定するステップは、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが異なるかどうかを判断するステップ;及び、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルのうち少なくとも一つが可用しないとき、又は前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じとき、前記時間的候補予測動きベクトル関連情報の導出過程を実行して前記時間的候補予測動きベクトル関連情報を決定するステップ;を含む。
前記候補予測動きベクトルリストは、前記第1の空間的候補予測動きベクトルが可用するとき、前記第1の空間的候補予測動きベクトルと、前記第2の空間的候補予測動きベクトルが可用するとき、前記第2の空間的候補予測動きベクトルと、前記時間的候補予測動きベクトルが可用するとき、前記時間的候補予測動きベクトルと、を含んで構成する。
前記映像復号化方法は、前記第1の空間的候補予測動きベクトルと前記候補予測動きベクトルリスト内の前記第2の空間的候補予測動きベクトルが同じとき、前記第2の空間的候補予測動きベクトルを前記候補予測動きベクトルリストから除去するステップをさらに含んでもよい。
前記映像符号化方法は、前記候補予測動きベクトルリストに含まれている候補予測動きベクトルの個数が前記候補予測動きベクトルリストに含まれるべき候補予測動きベクトルの最大数より小さいかどうかを判断するステップ;及び、判断結果に基づいて、前記候補予測動きベクトルリストに候補予測動きベクトルを追加し、又は前記候補予測動きベクトルリストから候補予測動きベクトルを除去するステップ;をさらに含んでもよい。
前記判断結果に基づいて候補予測動きベクトルを追加又は除去するステップは、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より小さいとき、前記候補予測動きベクトルリストに零ベクトルを追加するステップ;及び、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より大きいとき、前記候補予測動きベクトルの最大数が前記候補予測動きベクトルリストに含まれるように前記候補予測動きベクトルリストから候補予測動きベクトルを除去するステップ;を含む。
前記第1の空間的候補予測動きベクトル可用性情報は、第1の空間的候補予測ブロックグループに含まれている第1のブロック又は第2のブロックに第1の動きベクトルが存在するかどうかを判断するステップ;前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第2の動きベクトルが存在するかどうかを判断するステップ;前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトル又は前記第2の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第3の動きベクトルが存在するかどうかを判断するステップ;及び、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトル、前記第2の動きベクトル又は前記第3の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第4の動きベクトルが存在するかどうかを判断するステップ;を介して導出される。
前記第1の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び同じ参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第2の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと同じ参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第3の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第4の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第1のブロック又は前記第2のブロックから導出される。
前記第2の空間的候補予測動きベクトル可用性情報は、第2の空間的候補予測ブロックグループに含まれている第3のブロック、第4のブロック又は第5のブロックに第1の動きベクトルが存在するかどうかを判断するステップ;前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第2の動きベクトルが存在するかどうかを判断するステップ;前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトル又は第2の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第3の動きベクトルが存在するかどうかを判断するステップ;及び、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトル、前記第2の動きベクトル又は前記第3の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第4の動きベクトルが存在するかどうかを判断するステップ;を介して導出される。
前記第1の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び同じ参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第2の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと同じ参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第3の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第4の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出される。
本発明の一態様によれば、コンピュータによって実行される映像復号化用プログラムを記録したコンピュータ可読記録媒体が提供される。このプログラムは、予測対象ブロックの近隣予測ブロックから複数個の空間的候補予測動きベクトル関連情報を決定する動作;前記複数個の空間的候補予測動きベクトル関連情報に基づいて時間的候補予測動きベクトル関連情報を決定する動作;前記空間的候補予測動きベクトル関連情報及び前記時間的候補予測動きベクトル関連情報に基づいて候補予測動きベクトルリストを構成する動作;及び、前記候補予測動きベクトルリスト内の最終予測動きベクトルに関するインデックス情報に基づいて動きベクトルを決定し、前記決定された動きベクトルに基づいて予測ブロックを生成する動作;を含んでもよい。
前記複数個の空間的候補予測動きベクトル関連情報を決定する動作は、第1の空間的候補予測動きベクトル可用性情報及び第1の空間的候補予測動きベクトルを決定する動作及び第2の空間的候補予測動きベクトル可用性情報及び第2の空間的候補予測動きベクトルを決定する動作を含み、前記時間的候補予測動きベクトル関連情報を決定する動作は、時間的候補予測動きベクトル可用性情報及び時間的候補予測動きベクトルを決定する動作を含む。
前記時間的候補予測動きベクトル関連情報を決定する動作は、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが異なるかどうかを判断する動作;及び、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと第2の空間的候補予測動きベクトルが異なるとき、前記時間的候補予測動きベクトル可用性情報を前記時間的候補予測動きベクトルが可用しないと決定する動作;を含む。
前記時間的候補予測動きベクトル関連情報を決定する動作は、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが異なるかどうかを判断する動作;及び、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルのうち少なくとも一つが可用しないとき、又は前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じとき、前記時間的候補予測動きベクトル関連情報の導出過程を実行して前記時間的候補予測動きベクトル関連情報を決定する動作;を含む。
前記候補予測動きベクトルリストは、前記第1の空間的候補予測動きベクトルが可用するとき、前記第1の空間的候補予測動きベクトルと、前記第2の空間的候補予測動きベクトルが可用するとき、前記第2の空間的候補予測動きベクトルと、前記時間的候補予測動きベクトルが可用するとき、前記時間的候補予測動きベクトルと、を含んで構成する。
前記プログラムは、前記第1の空間的候補予測動きベクトルと前記候補予測動きベクトルリスト内の前記第2の空間的候補予測動きベクトルが同じとき、前記第2の空間的候補予測動きベクトルを前記候補予測動きベクトルリストから除去する動作をさらに含んでもよい。
前記プログラムは、前記候補予測動きベクトルリストに含まれている候補予測動きベクトルの個数が前記候補予測動きベクトルリストに含まれるべき候補予測動きベクトルの最大数より小さいかどうかを判断する動作;及び、判断結果に基づいて、前記候補予測動きベクトルリストに候補予測動きベクトルを追加し、又は前記候補予測動きベクトルリストから候補予測動きベクトルを除去する動作;をさらに含んでもよい。
前記判断結果に基づいて候補予測動きベクトルを追加又は除去する動作は、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より小さいとき、前記候補予測動きベクトルリストに零ベクトルを追加する動作;及び、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より大きいとき、前記候補予測動きベクトルの最大数が前記候補予測動きベクトルリストに含まれるように前記候補予測動きベクトルリストから候補予測動きベクトルを除去する動作;を含んでもよい。
前記第1の空間的候補予測動きベクトル可用性情報は、第1の空間的候補予測ブロックグループに含まれている第1のブロック又は第2のブロックに第1の動きベクトルが存在するかどうかを判断する動作;前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第2の動きベクトルが存在するかどうかを判断する動作;前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトル又は前記第2の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第3の動きベクトルが存在するかどうかを判断する動作;及び、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトル、前記第2の動きベクトル又は前記第3の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第4の動きベクトルが存在するかどうかを判断する動作;を介して導出される。
前記第1の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び同じ参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第2の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと同じ参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第3の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第4の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第1のブロック又は前記第2のブロックから導出される。
前記第2の空間的候補予測動きベクトル可用性情報は、第2の空間的候補予測ブロックグループに含まれている第3のブロック、第4のブロック又は第5のブロックに第1の動きベクトルが存在するかどうかを判断する動作;前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第2の動きベクトルが存在するかどうかを判断する動作;前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトル又は第2の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第3の動きベクトルが存在するかどうかを判断する動作;及び、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトル、前記第2の動きベクトル又は前記第3の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第4の動きベクトルが存在するかどうかを判断する動作;を介して導出される。
前記第1の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び同じ参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第2の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと同じ参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第3の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第4の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出される。
本発明の一態様によれば、コンピュータにより実行される映像符号化用プログラムを記録したコンピュータ可読記録媒体が提供される。このプログラムは、予測対象ブロックの近隣予測ブロックから複数個の空間的候補予測動きベクトル関連情報を決定する動作;前記複数個の空間的候補予測動きベクトル関連情報に基づいて時間的候補予測動きベクトル関連情報を決定する動作;及び、前記空間的候補予測動きベクトル関連情報及び前記時間的候補予測動きベクトル関連情報に基づいて候補予測動きベクトルリストを構成する動作;を含む。
前記複数個の空間的候補予測動きベクトル関連情報を決定する動作は、第1の空間的候補予測動きベクトル可用性情報及び第1の空間的候補予測動きベクトルを決定する動作及び第2の空間的候補予測動きベクトル可用性情報及び第2の空間的候補予測動きベクトルを決定する動作を含み、前記時間的候補予測動きベクトル関連情報を決定する動作は、時間的候補予測動きベクトル可用性情報及び時間的候補予測動きベクトルを決定する動作を含む。
前記時間的候補予測動きベクトル関連情報を決定する動作は、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが異なるかどうかを判断する動作;及び、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと第2の空間的候補予測動きベクトルが異なるとき、前記時間的候補予測動きベクトル可用性情報を前記時間的候補予測動きベクトルが可用しないと決定する動作;を含む。
前記時間的候補予測動きベクトル関連情報を決定する動作は、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが異なるかどうかを判断する動作;及び、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルのうち少なくとも一つが可用しないとき、又は前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じとき、前記時間的候補予測動きベクトル関連情報の導出過程を実行して前記時間的候補予測動きベクトル関連情報を決定する動作;を含む。
前記候補予測動きベクトルリストは、前記第1の空間的候補予測動きベクトルが可用するとき、前記第1の空間的候補予測動きベクトルと、前記第2の空間的候補予測動きベクトルが可用するとき、前記第2の空間的候補予測動きベクトルと、前記時間的候補予測動きベクトルが可用するとき、前記時間的候補予測動きベクトルと、を含んで構成する。
前記プログラムは、前記第1の空間的候補予測動きベクトルと前記候補予測動きベクトルリスト内の前記第2の空間的候補予測動きベクトルが同じとき、前記第2の空間的候補予測動きベクトルを前記候補予測動きベクトルリストから除去する動作をさらに含んでもよい。
前記プログラムは、前記候補予測動きベクトルリストに含まれている候補予測動きベクトルの個数が前記候補予測動きベクトルリストに含まれるべき候補予測動きベクトルの最大数より小さいかどうかを判断する動作;及び、判断結果に基づいて、前記候補予測動きベクトルリストに候補予測動きベクトルを追加し、又は前記候補予測動きベクトルリストから候補予測動きベクトルを除去する動作;をさらに含んでもよい。
前記判断結果に基づいて候補予測動きベクトルを追加又は除去する動作は、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より小さいとき、前記候補予測動きベクトルリストに零ベクトルを追加する動作;及び、前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルの最大数より大きいとき、前記候補予測動きベクトルの最大数が前記候補予測動きベクトルリストに含まれるように前記候補予測動きベクトルリストから候補予測動きベクトルを除去する動作;を含む。
前記第1の空間的候補予測動きベクトル可用性情報は、第1の空間的候補予測ブロックグループに含まれている第1のブロック又は第2のブロックに第1の動きベクトルが存在するかどうかを判断する動作;前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第2の動きベクトルが存在するかどうかを判断する動作;前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトル又は前記第2の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第3の動きベクトルが存在するかどうかを判断する動作;及び、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに前記第1の動きベクトル、前記第2の動きベクトル又は前記第3の動きベクトルが存在しないとき、前記第1の空間的候補予測ブロックグループ内の前記第1のブロック又は前記第2のブロックに第4の動きベクトルが存在するかどうかを判断する動作;を介して導出される。
前記第1の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び同じ参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第2の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと同じ参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第3の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第1のブロック又は前記第2のブロックから導出され、前記第4の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第1のブロック又は前記第2のブロックから導出される。
前記第2の空間的候補予測動きベクトル可用性情報は、第2の空間的候補予測ブロックグループに含まれている第3のブロック、第4のブロック又は第5のブロックに第1の動きベクトルが存在するかどうかを判断する動作;前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第2の動きベクトルが存在するかどうかを判断する動作;前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトル又は第2の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第3の動きベクトルが存在するかどうかを判断する動作;及び、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトル、前記第2の動きベクトル又は前記第3の動きベクトルが存在しないとき、前記第2の空間的候補予測ブロックグループ内の前記第3のブロック、前記第4のブロック又は前記第5のブロックに第4の動きベクトルが存在するかどうかを判断する動作;を介して導出される。
前記第1の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び同じ参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第2の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと同じ参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第3の動きベクトルは、前記予測対象ブロックと同じ参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出され、前記第4の動きベクトルは、前記予測対象ブロックと異なる参照映像リスト及び前記予測対象ブロックと異なる参照映像を使う前記第3のブロック、前記第4のブロック又は前記第5のブロックから導出される。
Claims (20)
- 予測対象ブロックの周辺予測ブロックから複数個の空間的候補予測動きベクトル関連情報を決定するステップ;及び、
前記複数個の空間的候補予測動きベクトル関連情報に基づいて時間的候補予測動きベクトル関連情報を決定するステップ;を含む候補予測動きベクトルリスト構成方法。 - 前記空間的候補予測動きベクトル関連情報は、空間的候補予測動きベクトルが誘導されるかどうかを示す空間的候補予測動きベクトル可用性情報及び前記空間的候補予測動きベクトルのうち少なくとも一つを含む情報であり、
前記時間的候補予測動きベクトル関連情報は、時間的候補予測動きベクトルが誘導されるかどうかを示す時間的候補予測動きベクトル可用性情報及び前記時間的候補予測動きベクトルのうち少なくとも一つを含む情報である請求項1に記載の候補予測動きベクトルリスト構成方法。 - 前記予測対象ブロックの周辺予測ブロックから複数個の空間的候補予測動きベクトル関連情報を決定するステップは、
第1の空間的候補予測動きベクトル可用性情報及び第1の空間的候補予測動きベクトルを決定するステップ;及び、
第2の空間的候補予測動きベクトル可用性情報及び第2の空間的候補予測動きベクトルを決定するステップ;を含む請求項1に記載の候補予測動きベクトルリスト構成方法。 - 前記複数個の空間的候補予測動きベクトル可用性情報及び前記複数個の空間的候補予測動きベクトルに基づいて時間的候補予測動きベクトル関連情報を決定するステップは、
前記第1の空間的候補予測動きベクトル可用性情報、前記第2の空間的候補予測動きベクトル可用性情報、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルに基づいて、
前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが異なるかどうかを判断するステップ;及び、
前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと第2の空間的候補予測動きベクトルが異なる場合、時間的候補予測動きベクトル可用性情報を前記時間的候補予測動きベクトルが可用しないと決定するステップ;を含み、
前記時間的候補予測動きベクトル関連情報は、前記時間的候補予測動きベクトル可用性情報及び時間的候補予測動きベクトルのうち少なくとも一つを含む情報である請求項3に記載の候補予測動きベクトルリスト構成方法。 - 前記複数個の空間的候補予測動きベクトル可用性情報及び前記複数個の空間的候補予測動きベクトルに基づいて時間的候補予測動きベクトル関連情報を決定するステップは、
前記第1の空間的候補予測動きベクトル可用性情報、前記第2の空間的候補予測動きベクトル可用性情報、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルに基づいて、
前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが異なるかどうかを判断するステップ;及び、
前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルのうち少なくとも一つの空間的候補予測動きベクトルが可用しない場合、又は前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じ場合、前記時間的候補予測動きベクトル関連情報の誘導過程を実行して前記時間的候補予測動きベクトル関連情報を決定するステップ;を含み、
前記時間的候補予測動きベクトル関連情報は、時間的候補予測動きベクトル可用性情報及び時間的候補予測動きベクトルのうち少なくとも一つを含む情報である請求項3に記載の候補予測動きベクトルリスト構成方法。 - 前記候補予測動きベクトルリストは、
前記第1の空間的候補予測動きベクトル可用性情報に基づいて前記第1の空間的候補予測動きベクトルが可用な場合、前記第1の空間的候補予測動きベクトルと、前記第2の空間的候補予測動きベクトル可用性情報に基づいて前記第2の空間的候補予測動きベクトルが可用な場合、前記第2の空間的候補予測動きベクトルと、時間的候補予測動きベクトル可用性情報に基づいて時間的候補予測動きベクトルが可用な場合、前記時間的候補予測動きベクトルと、を含んで構成し、
前記時間的候補予測動きベクトル関連情報は、時間的候補予測動きベクトル可用性情報及び時間的候補予測動きベクトルのうち少なくとも一つを含む情報である請求項3に記載の候補予測動きベクトルリスト構成方法。 - 前記候補予測動きベクトルリストを構成する前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じ場合、前記第2の空間的候補予測動きベクトルを前記候補予測動きベクトルリストから除去するステップをさらに含む請求項6に記載の候補予測動きベクトルリスト構成方法。
- 前記候補予測動きベクトルリストに含まれている候補予測動きベクトルの個数が前記候補予測動きベクトルリストに含まれることができる前記候補予測動きベクトルの最大個数である最大候補予測動きベクトル数より小さいかどうかを判断するステップ;及び、
前記判断結果に基づいて前記候補予測動きベクトルリストに候補予測動きベクトルを追加又は除去するステップ;をさらに含む請求項7に記載の候補予測動きベクトルリスト構成方法。 - 前記判断結果に基づいて前記候補予測動きベクトルリストに候補予測動きベクトルを追加又は除去するステップは、
前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記最大候補予測動きベクトル数より小さい場合、前記候補予測動きベクトルリストに零ベクトルを追加するステップ;及び、
前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記最大候補予測動きベクトル数より大きい又は同じ場合、前記候補予測動きベクトルが前記最大候補予測動きベクトル数ほど前記候補予測動きベクトルリストに含まれるように前記候補予測動きベクトルのうち一部の候補予測動きベクトルを前記候補予測動きベクトルリストから除去するステップ;を含む請求項8に記載の候補予測動きベクトルリスト構成方法。 - 前記第1の空間的候補予測動きベクトル可用性情報は、
第1の空間的候補予測ブロックグループに含まれている第1のブロック又は第2のブロックに第1の動きベクトルが存在するかどうかを判断するステップ;
前記第1の空間的候補予測ブロックグループに含まれている前記第1のブロック又は前記第2のブロックに前記第1の動きベクトルが存在しない場合、前記第1の空間的候補予測ブロックグループの前記第1のブロックと前記第2のブロックに第2の動きベクトルが存在するかどうかを判断するステップ;
前記第1の空間的候補予測ブロックグループに含まれている前記第1のブロック又は前記第2のブロックに前記第1の動きベクトル又は前記第2の動きベクトルが存在しない場合、前記第1の空間的候補予測ブロックグループの前記第1のブロックと前記第2のブロックに第3の動きベクトルが存在するかどうかを判断するステップ;及び、
前記第1の空間的候補予測ブロックグループに含まれている前記第1のブロック又は前記第2のブロックに前記第1の動きベクトル、前記第2の動きベクトル又は前記第3の動きベクトルが存在しない場合、前記第1の空間的候補予測ブロックグループの前記第1のブロックと前記第2のブロックに第4の動きベクトルが存在するかどうかを判断するステップ;を介して算出される情報である請求項3に記載の候補予測動きベクトルリスト構成方法。 - 前記第2の空間的候補予測動きベクトル可用性情報は、
第2の空間的候補予測ブロックグループに含まれている第3のブロック、第4のブロック又は第5のブロックに第1の動きベクトルが存在するかどうかを判断するステップ;
前記第2の空間的候補予測ブロックグループに含まれている前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトルが存在しない場合、前記第2の空間的候補予測ブロックグループの前記第3のブロック、前記第4のブロック又は前記第5のブロックに第2の動きベクトルが存在するかどうかを判断するステップ;
前記第2の空間的候補予測ブロックグループに含まれている前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトル又は前記第2の動きベクトルが存在しない場合、前記第2の空間的候補予測ブロックグループの前記第3のブロック、前記第4のブロック又は前記第5のブロックに第3の動きベクトルが存在するかどうかを判断するステップ;及び、
前記第2の空間的候補予測ブロックグループに含まれている前記第3のブロック、前記第4のブロック又は前記第5のブロックに前記第1の動きベクトル、前記第2の動きベクトル又は前記第3の動きベクトルが存在しない場合、前記第2の空間的候補予測ブロックグループの前記第3のブロック、前記第4のブロック又は前記第5のブロックに第4の動きベクトルが存在するかどうかを判断するステップ;を介して算出される情報である請求項3に記載の候補予測動きベクトルリスト構成方法。 - 候補予測動きベクトルリストに含まれている候補予測動きベクトルのうち予測対象ブロックに対する画面間予測を実行するために使われる予測動きベクトルに対する情報を復号化するエントロピー復号化部;及び、
前記予測対象ブロックの周辺予測ブロックから複数個の空間的候補予測動きベクトル関連情報を決定し、前記複数個の空間的候補予測動きベクトル関連情報に基づいて時間的候補予測動きベクトル関連情報を決定して前記候補予測動きベクトルリストを生成する予測部;を含む映像復号化装置。 - 前記空間的候補予測動きベクトル関連情報は、空間的候補予測動きベクトル可用性情報及び前記空間的候補予測動きベクトルのうち少なくとも一つを含む情報であり、前記時間的候補予測動きベクトル関連情報は、時間的候補予測動きベクトル可用性情報及び前記時間的候補予測動きベクトルのうち少なくとも一つを含む情報である請求項12に記載の映像復号化装置。
- 前記複数個の空間的候補予測動きベクトル関連情報は、
第1の空間的候補予測動きベクトル可用性情報及び第1の空間的候補予測動きベクトルのうち少なくとも一つの情報;及び、
第2の空間的候補予測動きベクトル可用性情報及び第2の空間的候補予測動きベクトルのうち少なくとも一つの情報;である請求項12に記載の映像復号化装置。 - 前記時間的候補予測動きベクトル関連情報は、
時間的候補予測動きベクトル可用性情報及び時間的候補予測動きベクトルのうち少なくとも一つを含み、前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと第2の空間的候補予測動きベクトルが異なる場合、前記時間的候補予測動きベクトル可用性情報を前記時間的候補予測動きベクトルが可用しないと決定する請求項14に記載の映像復号化装置。 - 前記時間的候補予測動きベクトル関連情報は、
前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルのうち少なくとも一つの空間的候補予測動きベクトルが可用しない場合、又は前記第1の空間的候補予測動きベクトル及び前記第2の空間的候補予測動きベクトルの両方ともが可用し、前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じ場合、前記時間的候補予測動きベクトル関連情報の誘導過程を実行して決定され、
前記時間的候補予測動きベクトル関連情報は、前記時間的候補予測動きベクトル可用性情報及び時間的候補予測動きベクトルのうち少なくとも一つを含む請求項14に記載の映像復号化装置。 - 前記候補予測動きベクトルリストは、
前記第1の空間的候補予測動きベクトル可用性情報に基づいて前記第1の空間的候補予測動きベクトルが可用な場合、前記第1の空間的候補予測動きベクトル、前記第2の空間的候補予測動きベクトル可用性情報に基づいて前記第2の空間的候補予測動きベクトルが可用な場合、前記第2の空間的候補予測動きベクトル、時間的候補予測動きベクトル可用性情報に基づいて時間的候補予測動きベクトルが可用な場合、前記時間的候補予測動きベクトルを含んで構成し、
前記時間的候補予測動きベクトル関連情報は、時間的候補予測動きベクトル可用性情報及び時間的候補予測動きベクトルのうち少なくとも一つを含む情報である請求項14に記載の映像復号化装置。 - 前記候補予測動きベクトルリストは、
前記第1の空間的候補予測動きベクトルと前記第2の空間的候補予測動きベクトルが同じ場合、前記第2の空間的候補予測動きベクトルを除去して再構成されるリストである請求項17に記載の映像復号化装置。 - 前記候補予測動きベクトルリストは、
前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記候補予測動きベクトルリストに含まれることができる前記候補予測動きベクトルの最大個数である最大候補予測動きベクトル数より小さいかどうかを判断し、前記判断結果に基づいて候補予測動きベクトルを追加又は除去して再構成されるリストである請求項18に記載の映像復号化装置。 - 前記候補予測動きベクトルリストは、
前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記最大候補予測動きベクトル数より小さい場合、前記候補予測動きベクトルリストに零ベクトルが追加されて再構成され、
前記候補予測動きベクトルリストに含まれている前記候補予測動きベクトルの個数が前記最大候補予測動きベクトル数より大きい又は同じ場合、前記候補予測動きベクトルが前記最大候補予測動きベクトル数ほど前記候補予測動きベクトルリストに含まれるように前記候補予測動きベクトルのうち一部の候補予測動きベクトルが前記候補予測動きベクトルリストから除去されて再構成される請求項19に記載の映像復号化装置。
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20110093564 | 2011-09-16 | ||
KR10-2011-0093564 | 2011-09-16 | ||
KR20110106108 | 2011-10-17 | ||
KR10-2011-0106108 | 2011-10-17 | ||
KR1020120005916A KR20130030181A (ko) | 2011-09-16 | 2012-01-18 | 움직임 벡터 예측기를 이용한 움직임 벡터 부호화/복호화 방법 및 장치 |
KR10-2012-0005916 | 2012-01-18 | ||
KR1020120102214A KR101419011B1 (ko) | 2011-09-16 | 2012-09-14 | 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치 |
KR10-2012-0102214 | 2012-09-14 | ||
PCT/KR2012/007388 WO2013039356A2 (ko) | 2011-09-16 | 2012-09-14 | 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016132662A Division JP6416156B2 (ja) | 2011-09-16 | 2016-07-04 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014526838A true JP2014526838A (ja) | 2014-10-06 |
JP6046142B2 JP6046142B2 (ja) | 2016-12-14 |
Family
ID=48179853
Family Applications (9)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014530596A Active JP6046142B2 (ja) | 2011-09-16 | 2012-09-14 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2016132662A Active JP6416156B2 (ja) | 2011-09-16 | 2016-07-04 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2018103674A Pending JP2018152901A (ja) | 2011-09-16 | 2018-05-30 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2018103677A Active JP6855413B2 (ja) | 2011-09-16 | 2018-05-30 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2018103678A Active JP6855414B2 (ja) | 2011-09-16 | 2018-05-30 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2018103676A Active JP6855412B2 (ja) | 2011-09-16 | 2018-05-30 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2018103675A Active JP6855411B2 (ja) | 2011-09-16 | 2018-05-30 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2020189819A Pending JP2021036718A (ja) | 2011-09-16 | 2020-11-13 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2024007606A Pending JP2024026898A (ja) | 2011-09-16 | 2024-01-22 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
Family Applications After (8)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016132662A Active JP6416156B2 (ja) | 2011-09-16 | 2016-07-04 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2018103674A Pending JP2018152901A (ja) | 2011-09-16 | 2018-05-30 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2018103677A Active JP6855413B2 (ja) | 2011-09-16 | 2018-05-30 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2018103678A Active JP6855414B2 (ja) | 2011-09-16 | 2018-05-30 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2018103676A Active JP6855412B2 (ja) | 2011-09-16 | 2018-05-30 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2018103675A Active JP6855411B2 (ja) | 2011-09-16 | 2018-05-30 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2020189819A Pending JP2021036718A (ja) | 2011-09-16 | 2020-11-13 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
JP2024007606A Pending JP2024026898A (ja) | 2011-09-16 | 2024-01-22 | 予測動きベクトル誘導方法及びその方法を使用する装置 |
Country Status (11)
Country | Link |
---|---|
US (8) | US9451281B2 (ja) |
EP (4) | EP3258692B1 (ja) |
JP (9) | JP6046142B2 (ja) |
KR (14) | KR20130030181A (ja) |
CN (6) | CN103988509B (ja) |
BR (2) | BR112014006320B1 (ja) |
CA (8) | CA2994619C (ja) |
DK (1) | DK3258692T3 (ja) |
ES (1) | ES2970751T3 (ja) |
PL (1) | PL3637774T3 (ja) |
WO (1) | WO2013039356A2 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107105281B (zh) * | 2010-12-14 | 2019-11-12 | M&K控股株式会社 | 用于解码运动画面的设备 |
EP3139611A1 (en) * | 2011-03-14 | 2017-03-08 | HFI Innovation Inc. | Method and apparatus for deriving temporal motion vector prediction |
KR20130030181A (ko) * | 2011-09-16 | 2013-03-26 | 한국전자통신연구원 | 움직임 벡터 예측기를 이용한 움직임 벡터 부호화/복호화 방법 및 장치 |
KR20140121315A (ko) | 2013-04-04 | 2014-10-15 | 한국전자통신연구원 | 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치 |
WO2014168443A1 (ko) * | 2013-04-11 | 2014-10-16 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
US10313765B2 (en) | 2015-09-04 | 2019-06-04 | At&T Intellectual Property I, L.P. | Selective communication of a vector graphics format version of a video content item |
WO2018117546A1 (ko) | 2016-12-22 | 2018-06-28 | 주식회사 케이티 | 비디오 신호 처리 방법 및 장치 |
KR102185370B1 (ko) * | 2017-09-13 | 2020-12-01 | 삼성전자주식회사 | 기본 움직임 벡터를 이용하여 움직임 벡터를 부호화하는 장치 및 방법, 및 복호화 장치 및 방법 |
US11425390B2 (en) | 2018-01-26 | 2022-08-23 | Electronics And Telecommunications Research Institute | Method and apparatus for image encoding and image decoding using temporal motion information |
WO2019147067A1 (ko) | 2018-01-26 | 2019-08-01 | 한국전자통신연구원 | 시간적 움직임 정보를 이용하는 영상 부호화 및 영상 복호화를 위한 방법 및 장치 |
US11240528B2 (en) | 2018-01-30 | 2022-02-01 | Sharp Kabushiki Kaisha | Systems and methods for performing motion vector prediction for video coding using motion vector predictor origins |
US11146793B2 (en) * | 2018-03-27 | 2021-10-12 | Kt Corporation | Video signal processing method and device |
WO2020005046A1 (ko) * | 2018-06-30 | 2020-01-02 | 김기백 | 영상 부호화/복호화 방법 및 장치 |
EP3833020A4 (en) * | 2018-07-27 | 2022-04-27 | Samsung Electronics Co., Ltd. | METHOD AND DEVICE FOR ENCODING THE IMAGE, AND METHOD AND DEVICE FOR DECODING THE IMAGE BASED ON SUB-BLOCKS |
CN117692632A (zh) * | 2018-07-31 | 2024-03-12 | 寰发股份有限公司 | 用于视频编解码的利用运动向量差的合并方法和装置 |
WO2020031912A1 (ja) | 2018-08-06 | 2020-02-13 | 株式会社小糸製作所 | 車両用表示システム及び車両 |
US11019357B2 (en) * | 2018-08-07 | 2021-05-25 | Qualcomm Incorporated | Motion vector predictor list generation |
US10958932B2 (en) | 2018-09-12 | 2021-03-23 | Qualcomm Incorporated | Inter-prediction coding of video data using generated motion vector predictor list including non-adjacent blocks |
CN113016186A (zh) * | 2018-09-21 | 2021-06-22 | Vid拓展公司 | 用于基于仿射模型的视频译码的仿射运动估计 |
US10893291B2 (en) * | 2018-09-28 | 2021-01-12 | Qualcomm Incorporated | Ultimate motion vector expression with adaptive directional information set |
US11284066B2 (en) * | 2018-10-10 | 2022-03-22 | Tencent America LLC | Method and apparatus for intra block copy in intra-inter blending mode and triangle prediction unit mode |
CN111131830B (zh) | 2018-10-31 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 重叠块运动补偿的改进 |
CN113366831B (zh) * | 2019-01-13 | 2024-04-05 | 北京字节跳动网络技术有限公司 | 重叠块运动补偿和其他工具之间的协调 |
US10904553B2 (en) * | 2019-01-22 | 2021-01-26 | Tencent America LLC | Method and apparatus for video coding |
JP7198949B2 (ja) * | 2019-06-13 | 2023-01-04 | ベイジン、ターチア、インターネット、インフォメーション、テクノロジー、カンパニー、リミテッド | ビデオ符号化のための動きベクトル予測 |
CN113727119B (zh) * | 2020-05-20 | 2023-03-17 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器以及计算机存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110013697A1 (en) * | 2009-07-20 | 2011-01-20 | Samsung Electronics Co., Ltd. | Motion vector prediction method, and apparatus and method for encoding and decoding image using the same |
KR20110113583A (ko) * | 2010-04-09 | 2011-10-17 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
WO2012128540A2 (ko) * | 2011-03-21 | 2012-09-27 | 엘지전자 주식회사 | 움직임 벡터 예측자 선택 방법 및 이를 이용하는 장치 |
WO2012173415A2 (ko) * | 2011-06-14 | 2012-12-20 | 삼성전자 주식회사 | 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5748231A (en) * | 1992-10-13 | 1998-05-05 | Samsung Electronics Co., Ltd. | Adaptive motion vector decision method and device for digital image stabilizer system |
EP1128678A1 (en) * | 2000-02-24 | 2001-08-29 | Koninklijke Philips Electronics N.V. | Motion estimation apparatus and method |
JP4114859B2 (ja) | 2002-01-09 | 2008-07-09 | 松下電器産業株式会社 | 動きベクトル符号化方法および動きベクトル復号化方法 |
KR100492127B1 (ko) | 2002-02-23 | 2005-06-01 | 삼성전자주식회사 | 적응형 움직임 추정장치 및 추정 방법 |
US9426490B2 (en) * | 2002-11-01 | 2016-08-23 | Godo Kaisha Ip Bridge 1 | Moving picture encoding method and motion picture decoding method |
CN1723477A (zh) * | 2002-12-11 | 2006-01-18 | 皇家飞利浦电子股份有限公司 | 视频编码方法和相应的计算机程序 |
EP1897376A2 (en) | 2005-06-23 | 2008-03-12 | Koninklijke Philips Electronics N.V. | Motion estimation |
JP2010509799A (ja) * | 2006-11-03 | 2010-03-25 | サムスン エレクトロニクス カンパニー リミテッド | 映像の予測符号化方法及び装置、その復号化方法及び装置 |
KR101366241B1 (ko) * | 2007-03-28 | 2014-02-21 | 삼성전자주식회사 | 영상 부호화, 복호화 방법 및 장치 |
EP2210421A4 (en) * | 2007-10-16 | 2013-12-04 | Lg Electronics Inc | METHOD AND APPARATUS FOR PROCESSING A VIDEO SIGNAL |
JP5194833B2 (ja) * | 2008-01-23 | 2013-05-08 | ソニー株式会社 | 符号化装置および方法、記録媒体、並びにプログラム |
ES2812473T3 (es) * | 2008-03-19 | 2021-03-17 | Nokia Technologies Oy | Vector de movimiento combinado y predicción de índice de referencia para la codificación de vídeo |
JP5406465B2 (ja) * | 2008-04-24 | 2014-02-05 | 株式会社Nttドコモ | 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム |
JP4697275B2 (ja) * | 2008-07-30 | 2011-06-08 | ソニー株式会社 | 動きベクトル検出装置、動きベクトル検出方法及びプログラム |
CN101686393B (zh) * | 2008-09-28 | 2012-10-17 | 华为技术有限公司 | 应用于模板匹配的快速运动搜索方法及装置 |
KR101377527B1 (ko) * | 2008-10-14 | 2014-03-25 | 에스케이 텔레콤주식회사 | 복수 개의 참조 픽처의 움직임 벡터 부호화/복호화 방법 및장치와 그를 이용한 영상 부호화/복호화 장치 및 방법 |
US20100166073A1 (en) * | 2008-12-31 | 2010-07-01 | Advanced Micro Devices, Inc. | Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors |
US9113168B2 (en) * | 2009-05-12 | 2015-08-18 | Lg Electronics Inc. | Method and apparatus of processing a video signal |
US8824558B2 (en) * | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
CN106060563B (zh) * | 2011-01-07 | 2019-06-21 | Lg电子株式会社 | 编码和解码图像信息的方法和使用该方法的装置 |
US9485517B2 (en) * | 2011-04-20 | 2016-11-01 | Qualcomm Incorporated | Motion vector prediction with motion vectors from multiple views in multi-view video coding |
EP2717579B1 (en) * | 2011-05-31 | 2020-01-22 | Sun Patent Trust | Video decoding method and video decoding device |
MX2013013029A (es) | 2011-06-30 | 2013-12-02 | Panasonic Corp | Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, dispositivo de decodificacion de imagenes, dispositivo de codificacion de imagenes y dispositivo de codificacion/decodifi cacion de imagenes. |
KR20130030181A (ko) | 2011-09-16 | 2013-03-26 | 한국전자통신연구원 | 움직임 벡터 예측기를 이용한 움직임 벡터 부호화/복호화 방법 및 장치 |
-
2012
- 2012-01-18 KR KR1020120005916A patent/KR20130030181A/ko unknown
- 2012-09-14 EP EP17175667.9A patent/EP3258692B1/en active Active
- 2012-09-14 CN CN201280056452.0A patent/CN103988509B/zh active Active
- 2012-09-14 CN CN201810151534.2A patent/CN108366269B/zh active Active
- 2012-09-14 CA CA2994619A patent/CA2994619C/en active Active
- 2012-09-14 EP EP19203924.6A patent/EP3637774B1/en active Active
- 2012-09-14 WO PCT/KR2012/007388 patent/WO2013039356A2/ko active Application Filing
- 2012-09-14 CA CA2849004A patent/CA2849004C/en active Active
- 2012-09-14 EP EP12832262.5A patent/EP2757784A4/en not_active Ceased
- 2012-09-14 EP EP23201363.1A patent/EP4336831A3/en active Pending
- 2012-09-14 CN CN201810151523.4A patent/CN108366266B/zh active Active
- 2012-09-14 BR BR112014006320-6A patent/BR112014006320B1/pt active IP Right Grant
- 2012-09-14 BR BR122014015724-0A patent/BR122014015724B1/pt active IP Right Grant
- 2012-09-14 PL PL19203924.6T patent/PL3637774T3/pl unknown
- 2012-09-14 ES ES19203924T patent/ES2970751T3/es active Active
- 2012-09-14 CA CA2994621A patent/CA2994621C/en active Active
- 2012-09-14 CA CA2994623A patent/CA2994623C/en active Active
- 2012-09-14 CN CN201810151395.3A patent/CN108391124B/zh active Active
- 2012-09-14 JP JP2014530596A patent/JP6046142B2/ja active Active
- 2012-09-14 CA CA3114709A patent/CA3114709C/en active Active
- 2012-09-14 CA CA3214829A patent/CA3214829A1/en active Pending
- 2012-09-14 KR KR1020120102214A patent/KR101419011B1/ko active IP Right Grant
- 2012-09-14 CN CN201810151532.3A patent/CN108377395B/zh active Active
- 2012-09-14 DK DK17175667.9T patent/DK3258692T3/da active
- 2012-09-14 CN CN201810151404.9A patent/CN108391138B/zh active Active
- 2012-09-14 CA CA2994625A patent/CA2994625C/en active Active
- 2012-09-14 US US14/344,105 patent/US9451281B2/en active Active
- 2012-09-14 CA CA2994615A patent/CA2994615C/en active Active
-
2013
- 2013-09-03 KR KR1020130105562A patent/KR101879447B1/ko active IP Right Grant
- 2013-09-03 KR KR1020130105559A patent/KR101419012B1/ko active IP Right Grant
- 2013-09-03 KR KR1020130105561A patent/KR101879446B1/ko active IP Right Grant
-
2016
- 2016-07-04 JP JP2016132662A patent/JP6416156B2/ja active Active
- 2016-08-23 US US15/244,579 patent/US10194168B2/en active Active
- 2016-08-23 US US15/244,527 patent/US10194167B2/en active Active
-
2018
- 2018-05-30 JP JP2018103674A patent/JP2018152901A/ja active Pending
- 2018-05-30 JP JP2018103677A patent/JP6855413B2/ja active Active
- 2018-05-30 JP JP2018103678A patent/JP6855414B2/ja active Active
- 2018-05-30 JP JP2018103676A patent/JP6855412B2/ja active Active
- 2018-05-30 JP JP2018103675A patent/JP6855411B2/ja active Active
- 2018-07-11 KR KR1020180080804A patent/KR101983123B1/ko active IP Right Grant
- 2018-07-11 KR KR1020180080801A patent/KR101973487B1/ko active IP Right Grant
- 2018-07-11 KR KR1020180080808A patent/KR101983124B1/ko active IP Right Grant
- 2018-12-10 US US16/214,805 patent/US10708615B2/en active Active
- 2018-12-10 US US16/214,725 patent/US10750202B2/en active Active
- 2018-12-10 US US16/214,663 patent/US10743022B2/en active Active
-
2019
- 2019-05-22 KR KR1020190059912A patent/KR102115003B1/ko active IP Right Grant
-
2020
- 2020-05-19 KR KR1020200059872A patent/KR102244085B1/ko active IP Right Grant
- 2020-07-13 US US16/927,003 patent/US11871031B2/en active Active
- 2020-11-13 JP JP2020189819A patent/JP2021036718A/ja active Pending
-
2021
- 2021-04-19 KR KR1020210050657A patent/KR102357774B1/ko active IP Right Grant
-
2022
- 2022-01-26 KR KR1020220011342A patent/KR102482553B1/ko active IP Right Grant
- 2022-12-26 KR KR1020220183937A patent/KR102594969B1/ko active IP Right Grant
-
2023
- 2023-10-24 KR KR1020230142692A patent/KR20230150929A/ko not_active Application Discontinuation
- 2023-11-22 US US18/517,335 patent/US20240098302A1/en active Pending
-
2024
- 2024-01-22 JP JP2024007606A patent/JP2024026898A/ja active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110013697A1 (en) * | 2009-07-20 | 2011-01-20 | Samsung Electronics Co., Ltd. | Motion vector prediction method, and apparatus and method for encoding and decoding image using the same |
US20130022127A1 (en) * | 2010-04-09 | 2013-01-24 | Lg Electronics Inc. | Method and apparatus for processing video signal |
CN102835113A (zh) * | 2010-04-09 | 2012-12-19 | Lg电子株式会社 | 处理视频信号的方法和设备 |
KR20110113583A (ko) * | 2010-04-09 | 2011-10-17 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
EP2557796A2 (en) * | 2010-04-09 | 2013-02-13 | LG Electronics Inc. | Method and apparatus for processing video signal |
WO2012128540A2 (ko) * | 2011-03-21 | 2012-09-27 | 엘지전자 주식회사 | 움직임 벡터 예측자 선택 방법 및 이를 이용하는 장치 |
JP2014514811A (ja) * | 2011-03-21 | 2014-06-19 | エルジー エレクトロニクス インコーポレイティド | 動きベクトル予測子の選択方法及び動きベクトル予測子の選択方法を利用する装置 |
WO2012173415A2 (ko) * | 2011-06-14 | 2012-12-20 | 삼성전자 주식회사 | 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
KR20120138706A (ko) * | 2011-06-14 | 2012-12-26 | 삼성전자주식회사 | 움직임 정보의 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
CN103733625A (zh) * | 2011-06-14 | 2014-04-16 | 三星电子株式会社 | 用于对运动信息进行编码的方法和设备以及用于对运动信息进行解码的方法和设备 |
EP2723076A2 (en) * | 2011-06-14 | 2014-04-23 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding motion information and method and apparatus for decoding same |
US20140140408A1 (en) * | 2011-06-14 | 2014-05-22 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding motion information and method and apparatus for decoding same |
JP2014520453A (ja) * | 2011-06-14 | 2014-08-21 | サムスン エレクトロニクス カンパニー リミテッド | 動き情報の符号化方法及びその装置、その復号化方法及びその装置 |
Non-Patent Citations (2)
Title |
---|
JIANLE CHEN ET AL.: "MVP index parsing with fixed number of candidates [online]", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH M, JPN6015018131, 12 July 2011 (2011-07-12), pages 1 - 17, ISSN: 0003068338 * |
YUNFEI ZHENG ET AL.: "CE9: Unified Merge and AMVP candidates selection (UNI03) [online]", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH M, JPN6015018135, 14 July 2011 (2011-07-14), pages 1 - 11, ISSN: 0003421388 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6416156B2 (ja) | 予測動きベクトル誘導方法及びその方法を使用する装置 | |
KR102620624B1 (ko) | 영상 복호화 방법 및 컴퓨터로 읽을 수 있는 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140519 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140617 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150811 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160704 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6046142 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |