JP2023052491A - 動画像処理方法および装置 - Google Patents
動画像処理方法および装置 Download PDFInfo
- Publication number
- JP2023052491A JP2023052491A JP2023006258A JP2023006258A JP2023052491A JP 2023052491 A JP2023052491 A JP 2023052491A JP 2023006258 A JP2023006258 A JP 2023006258A JP 2023006258 A JP2023006258 A JP 2023006258A JP 2023052491 A JP2023052491 A JP 2023052491A
- Authority
- JP
- Japan
- Prior art keywords
- block
- motion vector
- image block
- current image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 29
- 230000033001 locomotion Effects 0.000 claims abstract description 1436
- 239000013598 vector Substances 0.000 claims abstract description 1427
- 238000000034 method Methods 0.000 claims abstract description 255
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 82
- 230000009466 transformation Effects 0.000 claims description 47
- 230000007774 longterm Effects 0.000 claims description 31
- 230000002123 temporal effect Effects 0.000 abstract description 27
- 238000012545 processing Methods 0.000 description 225
- 230000008569 process Effects 0.000 description 48
- 238000005516 engineering process Methods 0.000 description 33
- 238000010276 construction Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 17
- 238000004590 computer program Methods 0.000 description 15
- 238000006073 displacement reaction Methods 0.000 description 9
- 238000012360 testing method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 108091026890 Coding region Proteins 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
Description
本特許文献に開示されている内容には著作権保護の対象となる材料が含まれている。該著作権は著作権所有者が所有する。著作権所有者は、これらの特許書類または特許開示の何人による複製に対しても、特許庁の公式レコードまたはファイルに表示される通りであれば異議を唱えない。
現在画像ブロックの予め設定されたM個の近傍ブロックのうち、Mよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、
前記現在画像ブロックと前記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロック中の各サブ画像ブロックと1対1に対応させることと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを含む。
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、前記現在画像ブロックのM個の近傍ブロックを確定することと、
前記M個の近傍ブロックのうち、Mより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、
前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、
前記特定候補を用いることを確定した場合、前記現在画像ブロックと前記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロックの各サブ画像ブロックに1対1に対応させることと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを含む。
現在画像ブロックの予め設定されたM個の近傍ブロックのうちMよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、前記現在画像ブロックと前記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロック中の各サブ画像ブロックと1対1に対応させることとのために用いられる構築モジュールと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む。
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、前記現在画像ブロックのM個の近傍ブロックを確定することと、前記M個の近傍ブロックのうちMより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、前記特定候補を用いることを確定した場合、前記現在画像ブロックと前記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロックの各サブ画像ブロックに1対1に対応させることとのために用いられる構築モジュールと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む。
前記参照画像は長期参照画像であること、
前記参照画像は構造参照画像であること、
前記参照画像は非出力画像であることであり、
前記参照画像は非出力画像の場合、さらに前記参照画像が構造参照画像であると判断する。
図9は本出願の実施例によって提供される動画像処理装置900の概略的ブロック図である。該装置900は図7に示される方法の実施例を実行するために用いられる。該装置900は以下のユニットを含む。
現在画像ブロックを複数のサブ画像ブロックに分割することと、
対象近傍ブロックの動きベクトルに基づき、現在画像ブロックの参照画像においてサブ画像ブロックの関連ブロックを確定することのために用いられ、現在画像ブロックの関連ブロックはサブ画像ブロックの関連ブロックを含む。
ここでは、処理後の関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである。
現在画像ブロックの予め設定されたM個の近傍ブロック中のN個の近傍ブロックを順次走査し、走査結果に基づいて対象近傍ブロックを確定し、NはMより小さく、Mは4以下であり、前記対象近傍ブロックの動きベクトル、前記現在の画像ブロックおよび前記現在の画像ブロックの参照画像に基づいて、前記現在画像ブロックの関連ブロックを確定する方法1と、
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づいて現在画像ブロックのM個の近傍ブロックを確定し、該M個の近傍ブロック中のN個の近傍ブロックを順次走査し、走査結果に基づいて対象近傍ブロックを確定し、NはMより小さく、Mは4以下であり、該対象近傍ブロックの動きベクトル、現在の画像ブロックおよび現在の画像ブロックの参照画像に基づいて、前記現在の画像ブロックの関連ブロックを確定する方法2とが含まれる。ここでは、動きベクトル第2候補リスト中のM個の候補とは、現在画像ブロックのM個の近傍ブロックを指してもよい。
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順に応じて第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む。
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づいて前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトルの第1候補リストに入れることと、を含む。
CP1に対し、取得の優先順位は、B2->B3->A2である。B2が利用可能な場合、B2のMVを用いてコントロールポイントCP1のMVとし、B2が利用不可なば場合、B3のMVを用いてコントロールポイントCP1のMVとし、B2とB3がすべて利用不可な場合、A1のMVを用いてコントロールポイントCP1のMVとし、B2、B3とA1がすべて利用不可な場合、コントロールポイントCP1の動き情報が得られない。
4パラメータaffineモデルを用いる場合、4つのコントロールポイントのMVのうちの2つを組み合わせると、1つまたは複数の候補を得ることができ、その中の2つの組み合わせ方式、つまり{CP1、CP2}、{CP1、CP3}を選択する。ここでは、組み合わせ方式{CP1、CP3}では、4パラメータモデルに基づいて、選択された2つのコントロールポイントのMVを現在CUの左上隅と右上隅のコントロールポイントのMV(CP1とCP2)に変換する必要がある。
一例において、異なる組み合わせのMV(2個または3個)に使用される参照フレームが異なれば、該組み合わせによって構築された候補が使用不可であると考えられる。
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュール1620とを含む。
前記候補を採用すると確定した場合、前記予測モジュールは前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる。
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中に対応するサブ画像ブロックの動きベクトルとすることを含む。
前記少なくとも1つの候補中の候補を採用することを確定する場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる。
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む。
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとのために用いられる。
前記現在画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記現在画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む。
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトルの第1候補リストに入れることとのために用いられる。
前記一部のコントロールポイントにおける各コントロールポイントに対し、第三走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む。
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる。
動きベクトル第2候補リストを構築し、ここでは、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定するために用いられる。
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む。
前記現在画像ブロックの現在画像上での複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを含む。
予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れるために用いられる。
前記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄するために用いられる。
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む。
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む。
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む。
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む。
前記特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにし、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることを含む。
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む。
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含む。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む。
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定するために用いられる。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュール1720とを含む。
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む。
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む。
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む。
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む。
前記特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにし、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることを含む。
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む。
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含む。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中に対応するサブ画像ブロックの動きベクトルとすることを含む。
前記現在画像ブロックの関連ブロックの代表動きベクトルを前記特定候補として前記動きベクトル第1候補リストに入れることを含む。
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる。
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む。
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れるために用いられる。
前記現在画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記現在画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む。
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトルの第1候補リストに入れることとのために用いられる。
前記一部のコントロールポイントにおける各コントロールポイントに対し、第三走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む。
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定するために用いられる。
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む。
前記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる前記M個の候補を確定することを含む。
前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指す。
[項目1]
動画像処理方法であって、
現在画像ブロックの予め設定されたM個の近傍ブロックのうち、Mよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
上記対象近傍ブロックの動きベクトル、上記現在画像ブロック、および上記現在画像ブロックの参照画像に基づき、上記現在画像ブロックの関連ブロックを確定することと、
上記現在画像ブロックと上記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、上記現在画像ブロック中の各サブ画像ブロックは、上記関連ブロック中の各サブ画像ブロックと1対1に対応させることと、
上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、上記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することとを含む、動画像処理方法。
[項目2]
Nは1または2に等しい、項目1に記載の方法。
[項目3]
上記の上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ上記現在画像ブロック中の対応するサブ画像ブロックを予測する前に、
上記関連ブロックの代表動きベクトルを候補として動きベクトル第1候補リストに入れることと、
上記候補を採用すると確定した場合、上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、上記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することとをさらに含むことを特徴する項目1または2に記載の方法。
[項目4]
上記の上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、上記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することは、
上記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ上記現在画像ブロック中の対応するサブ画像ブロックの動きベクトルとすることを含む、項目3に記載の方法。
[項目5]
上記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、項目3に記載の方法。
[項目6]
上記関連ブロックの代表動きベクトルは上記関連ブロックの中央位置の動きベクトルを含む、項目3に記載の方法。
[項目7]
上記方法は、
上記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出た場合、上記関連ブロックの代表動きベクトルを上記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、上記現在画像ブロック中の対応するサブ画像ブロックを予測することをさらに含む、項目3に記載の方法。
[項目8]
上記方法は、
上記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ上記関連ブロックの代表動きベクトルが取得不可な場合、上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき上記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを放棄することをさらに含む、項目7に記載の方法。
[項目9]
上記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、上記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出たことを確定する、項目8に記載の方法。
[項目10]
上記方法は、
他の候補を確定し、上記他の候補を上記動きベクトル第1候補リストに入れることをさらに含み、上記他の候補中の少なくとも1つの候補はサブ画像ブロックの動きベクトルを含む、項目3に記載の方法。
[項目11]
上記方法は、
上記他の候補のうちの1つの候補を採用することを確定した場合、上記採用した候補に基づき上記現在画像ブロック中のサブ画像ブロックの動きベクトルを確定することをさらに含む、項目10に記載の方法。
[項目12]
上記少なくとも1つの候補は一組のコントロールポイントの動きベクトルを含む、項目10または11に記載の方法。
[項目13]
上記方法は、
上記少なくとも1つの候補中の候補を採用することを確定する場合、アフィン変換モデルに基づき上記採用した候補にアフィン変換を行うことと、
上記アフィン変換後の候補に基づき上記現在画像ブロック中のサブ画像ブロックを予測することとをさらに含む、項目10~12のいずれか一項に記載の方法。
[項目14]
上記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、上記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
上記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、上記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、項目13に記載の方法。
[項目15]
上記方法は、
上記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として上記動きベクトル第1候補リストに入れることとをさらに含む、項目3~14のいずれか一項に記載の方法。
[項目16]
上記の上記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
上記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
上記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
上記第1近傍ブロックのコントロールポイントの動きベクトル群と上記第2近傍ブロックのコントロールポイントの動きベクトル群を上記動きベクトルの第1候補リストに入れることと、を含む、項目15に記載の方法。
[項目17]
上記方法は、
上記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき上記一部のコントロールポイントの動きベクトルを構築することと、
上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることとをさらに含む、項目3~14のいずれか一項に記載の方法。
[項目18]
上記の上記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき上記一部のコントロールポイントの動きベクトルを構築することは、
上記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で上記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを上記コントロールポイントの動きベクトルとすることを含む項目17に記載の方法。
[項目19]
上記方法は、
上記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることを放棄することをさらに含む、項目17または18に記載の方法。
[項目20]
上記方法は、
上記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることを放棄することをさらに含む、項目17または18に記載の方法。
[項目21]
上記方法は、
動きベクトル第2候補リストを構築し、上記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
上記動きベクトル第2候補リスト中の候補を採用することを確定した場合、上記候補の動きベクトルに基づき上記現在画像ブロックの動きベクトルを確定することをさらに含む、項目3~15のいずれか一項に記載方法。
[項目22]
上記の上記候補の動きベクトルに基づき上記現在画像ブロックの動きベクトルを確定することは、
上記の採用することを確定した候補を上記現在画像ブロックの動きベクトルとし、または上記採用することを確定した候補をスケーリングした後に上記現在画像ブロックの動きベクトルとすることを含む、項目21に記載の方法。
[項目23]
上記の動きベクトル第2候補リストを構築することは、
上記現在画像ブロックの現在画像での複数の近傍ブロックの動きベクトルに基づき上記動きベクトル第2候補リストに入れる候補を確定することを含む、項目21に記載の方法。
[項目24]
上記現在画像ブロックの現在画像での複数の近傍ブロックは上記予め設定されたM個の近傍ブロックを含む、項目23に記載の方法。
[項目25]
予め設定された順で順に上記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、上記動きベクトル第2候補リストに入れ、
上記N個の近傍ブロックとは、上記予め設定された順で最初に確定されたN個の近傍ブロックを指す、項目24に記載の方法。
[項目26]
上記方法は、
上記M個の近傍ブロックのうちの1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、上記1つのまたは複数の近傍ブロックの動きベクトルに基づき上記動きベクトル第2候補リストに入れる候補を確定することを放棄することをさらに含む、項目24に記載の方法。
[項目27]
上記の上記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
上記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ上記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、項目1または26に記載の方法。
[項目28]
上記の上記走査した上記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
上記1つ目の事前設定条件に符合する近傍ブロックを上記対象近傍ブロックとすることを含む、項目19に記載の方法。
[項目29]
上記事前設定条件は、
近傍ブロックの参照画像と上記現在画像ブロックの参照画像が同じであることを含む、項目19または28に記載の方法。
[項目30]
上記方法は、
上記N個の近傍ブロック中に上記事前設定条件に符合する近傍ブロックが走査されていない場合、上記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測することをさらに含む、項目27~29のいずれか一項に記載の方法。
[項目31]
上記の上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測することは、
上記スケーリング処理後の動きベクトルと上記現在画像ブロックの参照画像に基づき上記現在画像ブロックの参照ブロックを確定することを含む、項目30に記載の方法。
[項目32]
上記特定近傍ブロックは上記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、項目30に記載の方法。
[項目33]
上記の上記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測することは、
上記特定近傍ブロックの動きベクトルにスケーリング処理を行って、上記スケーリング処理後の動きベクトルが指す参照フレームが上記現在画像ブロックの参照画像と同じになるようにすることと、
上記スケーリング処理後の動きベクトルの上記現在画像ブロックの参照画像中で指す画像ブロックを上記現在画像ブロックの参照ブロックとすることとを含む、項目30に記載の方法。
[項目34]
上記方法は、
上記N個の近傍ブロック中に上記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを上記現在画像ブロックの参照ブロックとすることをさらに含む、項目27~30のいずれか一項に記載の方法。
[項目35]
上記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、項目34に記載の方法。
[項目36]
上記サブ画像ブロックのサイズおよび/または上記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、項目1~35のいずれか一項に記載の方法。
[項目37]
上記サブ画像ブロックのサイズおよび/または上記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、項目36に記載の方法。
[項目38]
現在画像ブロックは1つの符号化ユニットCUである、項目1~37のいずれか一項に記載の方法。
[項目39]
上記の上記対象近傍ブロックの動きベクトル、上記現在画像ブロックおよび上記現在画像ブロックの参照画像に基づき、上記現在画像ブロックの関連ブロックを確定することは、
上記対象近傍ブロックの動きベクトル、上記現在画像ブロックの参照画像において、上記現在画像ブロックの関連ブロックを確定することを含む、項目1~38のいずれか一項に記載方法。
[項目40]
上記近傍ブロックは上記現在画像において上記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、項目1~39のいずれか一項に記載の方法。
[項目41]
上記の上記関連ブロックの動きベクトルに基づき上記現在画像ブロックを予測することは、
上記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の上記関連ブロックの動きベクトルと上記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
上記処理後の上記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、項目1~40のいずれか一項に記載の方法。
[項目42]
上記処理後の上記関連ブロックの動きベクトルは、
数値が1の縮尺で上記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした上記関連ブロックの動きベクトルを含む、項目41に記載の方法。
[項目43]
上記の上記関連ブロックの動きベクトルに基づき上記現在画像ブロックを予測することは、
上記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である場合、上記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、項目1~40のいずれか一項に記載の方法。
[項目44]
上記方法は、
上記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の上記関連ブロックの動きベクトルと上記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することをさらに含み、
上記処理後の上記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、項目1~43のいずれか一項に記載の方法。
[項目45]
上記処理後の上記関連ブロックの動きベクトルは、
数値が1の縮尺で上記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした上記関連ブロックの動きベクトルを含む、項目44に記載の方法。
[項目46]
Mは4以下である、項目1~45のいずれか一項に記載の方法。
[項目47]
動画像処理方法であって、
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、上記現在画像ブロックのM個の近傍ブロックを確定することと、
上記M個の近傍ブロックのうち、Mより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
上記対象近傍ブロックの動きベクトル、上記現在画像ブロック、および上記現在画像ブロックの参照画像に基づき、上記現在画像ブロックの関連ブロックを確定することと、
上記現在画像ブロックの関連ブロックに基づき上記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、
上記特定候補を用いることを確定した場合、上記現在画像ブロックと上記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、上記現在画像ブロック中の各サブ画像ブロックは、上記関連ブロックの各サブ画像ブロックに1対1に対応させることと、
上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、上記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを含む、動画像処理方法。
[項目48]
上記動きベクトル第1候補リストの少なくとも1つの候補がサブ画像ブロックの動きベクトルを含み、上記動きベクトル第2候補リストの各候補が画像ブロックの動きベクトルを含む、項目47に記載の方法。
[項目49]
Nは1または2に等しい、項目47または48に記載の方法。
[項目50]
上記M個の候補は上記現在画像ブロックの現在画像でのM個の近傍ブロックの動きベクトルを含む、項目47~49のいずれか一項に記載の方法。
[項目51]
上記の上記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
上記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ上記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、項目50に記載の方法。
[項目52]
上記の上記走査した上記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
上記1つ目の事前設定条件に符合する近傍ブロックを上記対象近傍ブロックとすることを含む、項目50に記載の方法。
[項目53]
上記事前設定条件は、
近傍ブロックの参照画像と上記現在画像ブロックの参照画像が同じであることを含む、項目51または52に記載の方法。
[項目54]
上記方法は、
上記N個の近傍ブロック中に上記事前設定条件に符合する近傍ブロックが走査されていない時、上記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測することをさらに含む、項目51~53のいずれか一項に記載の方法。
[項目55]
上記の上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測することは、
上記スケーリング処理後の動きベクトルと上記現在画像ブロックの参照画像に基づき上記現在画像ブロックの参照ブロックを確定することを含む、項目54に記載の方法。
[項目56]
上記特定近傍ブロックは上記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、項目54に記載の方法。
[項目57]
上記の上記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測することは、
上記特定近傍ブロックの動きベクトルにスケーリング処理を行って、上記スケーリング処理後の動きベクトルが指す参照フレームが上記現在画像ブロックの参照画像と同じになるようにすることと、
上記スケーリング処理後の動きベクトルの上記現在画像ブロックの参照画像中で指す画像ブロックを上記現在画像ブロックの参照ブロックとすることとを含む、項目54に記載の方法。
[項目58]
上記方法は、
上記N個の近傍ブロック中に上記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを上記現在画像ブロックの参照ブロックとすることをさらに含む、項目51~53のいずれか一項に記載の方法。
[項目59]
上記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、項目58に記載の方法。
[項目60]
上記サブ画像ブロックのサイズおよび/または上記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、項目47~59のいずれか一項に記載の方法。
[項目61]
上記サブ画像ブロックのサイズおよび/または上記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、項目60に記載の方法。
[項目62]
上記現在画像ブロックは1つの符号化ユニットCUである、項目47~61のいずれか一項に記載の方法。
[項目63]
上記の上記対象近傍ブロックの動きベクトル、上記現在画像ブロックおよび上記現在画像ブロックの参照画像に基づき、上記現在画像ブロックの関連ブロックを確定することは、
上記対象近傍ブロックの動きベクトル、上記現在画像ブロックの参照画像において、上記現在画像ブロックの関連ブロックを確定することを含む、項目47~62のいずれか一項に記載方法。
[項目64]
上記近傍ブロックは上記現在画像上で上記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、項目47~63のいずれか一項に記載の方法。
[項目65]
上記の上記関連ブロックの動きベクトルに基づき上記現在画像ブロックを予測することは、
上記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の上記関連ブロックの動きベクトルと上記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
上記処理後の上記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、項目47~64のいずれか一項に記載の方法。
[項目66]
上記処理後の上記関連ブロックの動きベクトルは、
数値が1の縮尺で上記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした上記関連ブロックの動きベクトルを含む、項目65に記載の方法。
[項目67]
上記の上記関連ブロックの動きベクトルに基づき上記現在画像ブロックを予測することは、
上記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、上記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、項目47~64のいずれか一項に記載の方法。
[項目68]
上記方法は、
上記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である時、処理後の上記関連ブロックの動きベクトルと上記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することをさらに含み、
上記処理後の上記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、項目47~67のいずれか一項に記載の方法。
[項目69]
上記処理後の上記関連ブロックの動きベクトルは、
数値が1の縮尺で上記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした上記関連ブロックの動きベクトルを含む、項目68に記載の方法。
[項目70]
上記の上記関連ブロック中における各サブ画像ブロックの動きベクトルに基づきそれぞれ上記現在画像ブロック中における対応するサブ画像ブロックを予測することは、
上記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ上記現在画像ブロック中に対応するサブ画像ブロックの動きベクトルとすることを含む、項目47~69のいずれか一項に記載の方法。
[項目71]
上記の上記現在画像ブロックの関連ブロックに基づき上記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することは、
上記現在画像ブロックの関連ブロックの代表動きベクトルを上記特定候補として上記動きベクトル第1候補リストに入れることを含む、項目47~69のいずれか一項に記載の方法。
[項目72]
上記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、項目71に記載の方法。
[項目73]
上記関連ブロックの代表動きベクトルは上記関連ブロックの中央位置の動きベクトルを含む、項目71に記載の方法。
[項目74]
上記方法は、
上記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出た場合、上記関連ブロックの代表動きベクトルを上記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、上記現在画像ブロック中の対応するサブ画像ブロックを予測することをさらに含む、項目71に記載の方法。
[項目75]
上記方法は、
上記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ上記関連ブロックの代表動きベクトルが取得不可である場合、上記関連ブロック中各サブ画像ブロックの動きベクトルに基づきそれぞれ上記現在画像ブロック中の対応するサブ画像ブロックを予測することを放棄することをさらに含む、項目74に記載の方法。
[項目76]
上記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、該関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出たことを確定する、項目74に記載の方法。
[項目77]
上記方法は、
上記動きベクトル第2候補リスト中の上記特定候補以外のそのうちの1つの候補を採用することを確定する場合、アフィン変換モデルに基づき上記採用した候補にアフィン変換を行うことと、
上記アフィン変換後の候補に基づき上記現在画像ブロック中のサブ画像ブロックを予測することとをさらに含む、項目47~76のいずれか一項に記載方法。
[項目78]
上記動きベクトル第2候補リスト中の上記特定候補以外の少なくとも1つの候補において、各候補は一組のコントロールポイントの動きベクトルを含む、項目77に記載の方法。
[項目79]
上記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、上記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
上記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、上記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、項目78に記載の方法。
[項目80]
上記方法は、
上記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として上記動きベクトル第1候補リストに入れることとをさらに含む、項目47~79のいずれか一項に記載の方法。
[項目81]
上記の上記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
上記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
上記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
上記第1近傍ブロックのコントロールポイントの動きベクトル群と上記第2近傍ブロックのコントロールポイントの動きベクトル群を上記動きベクトルの第1候補リストに入れることと、を含む、項目80に記載の方法。
[項目82]
上記方法は、
上記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき上記一部のコントロールポイントの動きベクトルを構築することと、
上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることをさらに含む、項目47~81のいずれか一項に記載の方法。
[項目83]
上記の上記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき上記一部のコントロールポイントの動きベクトルを構築することは、
上記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で上記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを上記コントロールポイントの動きベクトルとすることを含む項目82に記載の方法。
[項目84]
上記方法は、
上記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることを放棄することをさらに含む、項目82または83に記載の方法。
[項目85]
上記方法は、
上記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることを放棄することをさらに含む、項目82または83に記載の方法。
[項目86]
上記方法は、
動きベクトル第2候補リストを構築し、ここでは、上記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
上記動きベクトル第2候補リスト中の候補を採用することを確定した場合、上記候補の動きベクトルに基づき上記現在画像ブロックの動きベクトルを確定することをさらに含む、項目49~61に記載の方法。
[項目87]
上記の上記候補の動きベクトルに基づき上記現在画像ブロックの動きベクトルを確定することは、
上記の採用することを確定した候補を上記現在画像ブロックの動きベクトルとし、または上記採用することを確定した候補をスケーリングした後に上記現在画像ブロックの動きベクトルとすることを含む、項目86に記載の方法。
[項目88]
上記の動きベクトル第2候補リストを構築することは、
上記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルに基づき上記動きベクトル第2候補リストに入れる上記M個の候補を確定することを含む、項目86に記載の方法。
[項目89]
予め設定された順で順に上記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、上記動きベクトル第2候補リストに入れ、上記N個の近傍ブロックとは、上記予め設定された順で最初に確定されたN個の近傍ブロックを指すこと、
および/または
上記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、上記1つのまたは複数の近傍ブロックの動きベクトルに基づき上記動きベクトル第2候補リストに入れる候補を確定することを放棄する、項目88に記載の方法。
[項目90]
Mは4以下である、項目47~89のいずれか一項に記載の方法。
[項目91]
動画像処理装置であって、
現在画像ブロックの予め設定されたM個の近傍ブロックのうちMよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、上記対象近傍ブロックの動きベクトル、上記現在画像ブロック、および上記現在画像ブロックの参照画像に基づき、上記現在画像ブロックの関連ブロックを確定することと、上記現在画像ブロックと上記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、上記現在画像ブロック中の各サブ画像ブロックは、上記関連ブロック中の各サブ画像ブロックと1対1に対応させることとのために用いられる構築モジュールと、
上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、上記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む、動画像処理装置。
[項目92]
Nは1または2に等しい、項目91に記載の動画像処理装置。
[項目93]
上記予測モジュールはさらに、
上記の上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ上記現在画像ブロック中の対応するサブ画像ブロックを予測する前に上記関連ブロックの代表動きベクトルを候補として動きベクトル第1候補リストに入れ、
上記候補を採用すると確定した場合、上記予測モジュールは上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、上記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる、項目91または92に記載の動画像処理装置。
[項目94]
上記の上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ上記現在画像ブロック中における対応するサブ画像ブロックを予測することは、
上記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ上記現在画像ブロック中の対応するサブ画像ブロックの動きベクトルとすることを含む、項目93に記載の動画像処理装置。
[項目95]
上記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、項目93に記載の動画像処理装置。
[項目96]
上記関連ブロックの代表動きベクトルは上記関連ブロックの中央位置の動きベクトルを含む、項目93に記載の動画像処理装置。
[項目97]
上記予測モジュールはさらに、
上記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出た場合、上記関連ブロックの代表動きベクトルを上記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、上記現在画像ブロック中の対応するサブ画像ブロックを予測するために用いられる、項目93に記載の動画像処理装置。
[項目98]
上記予測モジュールはさらに、
上記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ上記関連ブロックの代表動きベクトルが取得不可である場合、上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ上記現在画像ブロック中の対応するサブ画像ブロックを予測することを放棄するために用いられる、項目97に記載の動画像処理装置。
[項目99]
上記予測モジュールはさらに、
上記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、該関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出たことを確定するために用いられる、項目98に記載の動画像処理装置。
[項目100]
上記構築モジュールはさらに、
他の候補を確定し、上記他候補を上記動きベクトル第1候補リストに入れるために用いられ、上記他の候補中の少なくとも1つの候補はサブ画像ブロックの動きベクトルをさらに含む、項目93に記載の動画像処理装置。
[項目101]
上記構築モジュールはさらに、
上記他の候補のうちの1つの候補を採用することを確定する場合、上記採用した候補に基づき上記現在画像ブロック中のサブ画像ブロックの動きベクトルを確定するために用いられる、項目100に記載の動画像処理装置。
[項目102]
上記少なくとも1つの候補は一組のコントロールポイントの動きベクトルを含む、項目100または101に記載の動画像処理装置。
[項目103]
上記予測モジュールはさらに、
上記少なくとも1つの候補中の候補を採用することを確定する場合、アフィン変換モデルに基づき上記採用した候補にアフィン変換を行うことと、
上記アフィン変換後の候補に基づき上記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる、項目100~102のいずれか一項に記載の動画像処理装置。
[項目104]
上記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、上記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
上記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、上記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、項目103に記載の動画像処理装置。
[項目105]
上記構築モジュールはさらに、
上記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として上記動きベクトル第1候補リストに入れることとのために用いられる、項目93~104のいずれか一項に記載の動画像処理装置。
[項目106]
上記の上記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
上記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
上記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
上記第1近傍ブロックのコントロールポイントの動きベクトル群と上記第2近傍ブロックのコントロールポイントの動きベクトル群を上記動きベクトルの第1候補リストに入れることと、を含む、項目105に記載の動画像処理装置。
[項目107]
上記構築モジュールはさらに、
上記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき上記一部のコントロールポイントの動きベクトルを構築することと、
上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることのために用いられる、項目93~104のいずれか一項に記載の動画像処理装置。
[項目108]
上記の上記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき上記一部のコントロールポイントの動きベクトルを構築することは、
上記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で上記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを上記コントロールポイントの動きベクトルとすることを含む項目107に記載の動画像処理装置。
[項目109]
上記構築モジュールはさらに、
上記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることを放棄するために用いられる、項目107または108に記載の動画像処理装置。
[項目110]
上記構築モジュールはさらに、
上記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることを放棄するために用いられる、項目107または108のいずれか一項に記載の動画像処理装置。
[項目111]
上記構築モジュールはさらに、
動きベクトル第2候補リストを構築し、ここでは、上記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
上記動きベクトル第2候補リスト中の候補を採用することを確定した場合、上記候補の動きベクトルに基づき上記現在画像ブロックの動きベクトルを確定するために用いられる、項目93~105のいずれか一項に記載の動画像処理装置。
[項目112]
上記の上記候補の動きベクトルに基づき上記現在画像ブロックの動きベクトルを確定することは、
上記の採用することを確定した候補を上記現在画像ブロックの動きベクトルとし、または上記採用することを確定した候補をスケーリングした後に上記現在画像ブロックの動きベクトルとすることを含む、項目111に記載の動画像処理装置。
[項目113]
上記構築動きベクトル第2候補リストは、
上記現在画像ブロックの現在画像上での複数の近傍ブロックの動きベクトルに基づき上記動きベクトル第2候補リストに入れる候補を確定することを含む、項目111に記載の動画像処理装置。
[項目114]
上記現在画像ブロックの現在画像上での複数の近傍ブロックは上記予め設定されたM個の近傍ブロックを含む、項目113に記載の動画像処理装置。
[項目115]
上記構築モジュールはさらに、
予め設定された順で順に上記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、上記動きベクトル第2候補リストに入れるために用いられ、
上記N個の近傍ブロックとは、上記予め設定された順で最初に確定されたN個の近傍ブロックを指す、項目114に記載の動画像処理装置。
[項目116]
上記構築モジュールはさらに、
上記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、上記1つのまたは複数の近傍ブロックの動きベクトルに基づき上記動きベクトル第2候補リストに入れる候補を確定することを放棄するために用いられる、項目114に記載の動画像処理装置。
[項目117]
上記の上記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
上記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ上記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、項目91または116に記載の動画像処理装置。
[項目118]
上記の上記走査した上記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
上記1つ目の事前設定条件に符合する近傍ブロックを上記対象近傍ブロックとすることを含む、項目109に記載の動画像処理装置。
[項目119]
上記事前設定条件は、
近傍ブロックの参照画像と上記現在画像ブロックの参照画像が同じであることを含む、項目109または118に記載の動画像処理装置。
[項目120]
上記構築モジュールはさらに、
上記N個の近傍ブロック中に上記事前設定条件に符合する近傍ブロックが走査されていない時、上記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行うために用いられ、
上記予測モジュールはさらに、上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測するために用いられる、項目117~119のいずれか一項に記載の動画像処理装置。
[項目121]
上記の上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測することは、
上記スケーリング処理後の動きベクトルと上記現在画像ブロックの参照画像に基づき上記現在画像ブロックの参照ブロックを確定することを含む、項目120に記載の動画像処理。
[項目122]
上記特定近傍ブロックは上記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、項目120に記載の動画像処理装置。
[項目123]
上記の上記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測することは、
上記特定近傍ブロックの動きベクトルにスケーリング処理を行い、上記スケーリング処理後の動きベクトルが指す参照フレームが上記現在画像ブロックの参照画像と同じになるようにし、
上記スケーリング処理後の動きベクトルの上記現在画像ブロックの参照画像中で指す画像ブロックを上記現在画像ブロックの参照ブロックとすることを含む、項目120に記載の動画像処理装置。
[項目124]
上記N個の近傍ブロック中に上記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを上記現在画像ブロックの参照ブロックとする、項目117~120のいずれか一項に記載の動画像処理装置。
[項目125]
上記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、項目124に記載の動画像処理装置。
[項目126]
上記サブ画像ブロックのサイズおよび/または上記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、項目91~125のいずれか一項に記載の動画像処理装置。
[項目127]
上記サブ画像ブロックのサイズおよび/または上記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、項目126に記載の動画像処理装置。
[項目128]
上記現在画像ブロックは1つの符号化ユニットCUである、項目91~127のいずれか一項に記載の動画像処理装置。
[項目129]
上記の上記対象近傍ブロックの動きベクトル、上記現在画像ブロックおよび上記現在画像ブロックの参照画像に基づき、上記現在画像ブロックの関連ブロックを確定することは、
上記対象近傍ブロックの動きベクトル、上記現在画像ブロックの参照画像において、上記現在画像ブロックの関連ブロックを確定することを含む、項目91~128のいずれか一項に記載の動画像処理装置。
[項目130]
上記近傍ブロックは上記現在画像上で上記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、項目91~129のいずれか一項に記載の動画像処理装置。
[項目131]
上記の上記関連ブロックの動きベクトルに基づき上記現在画像ブロックを予測することは、
上記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の上記関連ブロックの動きベクトルと上記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
上記処理後の上記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、項目91~130のいずれか一項に記載の動画像処理装置。
[項目132]
上記処理後の上記関連ブロックの動きベクトルは、
数値が1の縮尺で上記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした上記関連ブロックの動きベクトルを含む、項目131に記載の動画像処理装置。
[項目133]
上記の上記関連ブロックの動きベクトルに基づき上記現在画像ブロックを予測することは、
上記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、上記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、項目91~130のいずれか一項に記載の動画像処理装置。
[項目134]
上記構築モジュールはさらに、
上記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の上記関連ブロックの動きベクトルと上記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定するために用いられ、
上記処理後の上記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、項目91~133のいずれか一項に記載の動画像処理装置。
[項目135]
上記処理後の上記関連ブロックの動きベクトルは、
数値が1の縮尺で上記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした上記関連ブロックの動きベクトルを含む、項目134に記載の動画像処理装置。
[項目136]
Mは4以下である、項目91~135のいずれか一項に記載の動画像処理装置。
[項目137]
動画像処理装置であって、
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、上記現在画像ブロックのM個の近傍ブロックを確定することと、上記M個の近傍ブロックのうちMより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、上記対象近傍ブロックの動きベクトル、上記現在画像ブロック、および上記現在画像ブロックの参照画像に基づき、上記現在画像ブロックの関連ブロックを確定することと、上記現在画像ブロックの関連ブロックに基づき上記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、上記特定候補を用いることを確定した場合、上記現在画像ブロックと上記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、上記現在画像ブロック中の各サブ画像ブロックは、上記関連ブロックの各サブ画像ブロックに1対1に対応させることとのために用いられる構築モジュールと、
上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、上記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む、動画像処理装置。
[項目138]
上記動きベクトル第1候補リスト中の少なくとも1つの候補はサブ画像ブロックの動きベクトルを含み、上記動きベクトル第2候補リストののうちの各候補は画像ブロックの動きベクトルを含む、項目137に記載の動画像処理装置。
[項目139]
Nは1または2に等しい、項目137または138に記載の動画像処理装置。
[項目140]
上記M個の候補は上記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルを含む、項目137~139のいずれか一項に記載の動画像処理装置。
[項目141]
上記の上記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
上記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ上記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、140に記載の動画像処理装置。
[項目142]
上記の上記走査した上記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
上記1つ目の事前設定条件に符合する近傍ブロックを上記対象近傍ブロックとすることを含む、項目140に記載の動画像処理装置。
[項目143]
上記事前設定条件は、
近傍ブロックの参照画像と上記現在画像ブロックの参照画像が同じであることを含む、項目141または142のいずれか一項に記載の動画像処理装置。
[項目144]
上記構築モジュールはさらに、上記N個の近傍ブロック中に上記事前設定条件に符合する近傍ブロックが走査されていない場合、上記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行うために用いられ、
上記予測モジュールはさらに、上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測するために用いられる、項目141~143のいずれか一項に記載の動画像処理装置。
[項目145]
上記の上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測することは、
上記スケーリング処理後の動きベクトルと上記現在画像ブロックの参照画像に基づき上記現在画像ブロックの参照ブロックを確定することを含む、項目144に記載の動画像処理装置。
[項目146]
上記特定近傍ブロックは上記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、項目144に記載の動画像処理装置。
[項目147]
上記の上記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、上記スケーリング処理後の動きベクトルに基づき上記現在画像ブロックを予測することは、
上記特定近傍ブロックの動きベクトルにスケーリング処理を行い、上記スケーリング処理後の動きベクトルが指す参照フレームが上記現在画像ブロックの参照画像と同じになるようにすることと、
上記スケーリング処理後の動きベクトルの上記現在画像ブロックの参照画像中で指す画像ブロックを上記現在画像ブロックの参照ブロックとすることとを含む、項目144に記載の動画像処理装置。
[項目148]
上記N個の近傍ブロック中に上記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを上記現在画像ブロックの参照ブロックとする、項目141~143のいずれか一項に記載の動画像処理装置。
[項目149]
上記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、項目148に記載の動画像処理装置。
[項目150]
上記サブ画像ブロックのサイズおよび/または上記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、項目137~149のいずれか一項に記載の動画像処理装置。
[項目151]
上記サブ画像ブロックのサイズおよび/または上記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、項目150に記載の動画像処理装置。
[項目152]
上記現在画像ブロックは1つの符号化ユニットCUである、項目137~151のいずれか一項に記載の動画像処理装置。
[項目153]
上記の上記対象近傍ブロックの動きベクトル、上記現在画像ブロックおよび上記現在画像ブロックの参照画像に基づき、上記現在画像ブロックの関連ブロックを確定することは、
上記対象近傍ブロックの動きベクトル、上記現在画像ブロックの参照画像において、上記現在画像ブロックの関連ブロックを確定することを含む、項目137~152のいずれか一項に記載の動画像処理装置。
[項目154]
上記近傍ブロックは上記現在画像上で上記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、項目137~153のいずれか一項に記載の動画像処理装置。
[項目155]
上記の上記関連ブロックの動きベクトルに基づき上記現在画像ブロックを予測することは、
上記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の上記関連ブロックの動きベクトルと上記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
上記処理後の上記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、項目137~154のいずれか一項に記載の動画像処理装置。
[項目156]
上記処理後の上記関連ブロックの動きベクトルは、
数値が1の縮尺で上記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした上記関連ブロックの動きベクトルを含む、項目155に記載の動画像処理装置。
[項目157]
上記の上記関連ブロックの動きベクトルに基づき上記現在画像ブロックを予測することは、
上記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である場合、上記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、項目137~154のいずれか一項に記載の動画像処理装置。
[項目158]
上記構築モジュールはさらに、
上記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の上記関連ブロックの動きベクトルと上記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定するために用いられ、
上記処理後の上記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、項目137~157のいずれか一項に記載の動画像処理装置。
[項目159]
上記処理後の上記関連ブロックの動きベクトルは、
数値が1の縮尺で上記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした上記関連ブロックの動きベクトルを含む、項目158に記載の動画像処理装置。
[項目160]
上記の上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ上記現在画像ブロック中における対応するサブ画像ブロックを予測することは、
上記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ上記現在画像ブロック中の対応するサブ画像ブロックの動きベクトルとすることを含む、項目137~159のいずれか一項に記載の動画像処理装置。
[項目161]
上記の上記現在画像ブロックの関連ブロックに基づき上記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することは、
上記現在画像ブロックの関連ブロックの代表動きベクトルを上記特定候補として上記動きベクトル第1候補リストに入れることを含む、項目137~159のいずれか一項に記載の動画像処理装置。
[項目162]
上記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、項目161に記載の動画像処理装置。
[項目163]
上記関連ブロックの代表動きベクトルは上記関連ブロックの中央位置の動きベクトルを含む、項目161に記載の動画像処理装置。
[項目164]
上記予測モジュールはさらに、
上記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックがで出ると、上記関連ブロックの代表動きベクトルを上記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、上記現在画像ブロック中の対応するサブ画像ブロックを予測するするために用いられる、項目161に記載の動画像処理装置。
[項目165]
上記予測モジュールはさらに、
上記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ上記関連ブロックの代表動きベクトルが取得不可である場合、上記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ上記現在画像ブロック中の対応するサブ画像ブロックを予測することを放棄するために用いられる、項目164に記載の動画像処理装置。
[項目166]
上記予測モジュールはさらに、
上記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、該関連ブロックに動きベクトルが取得不可なサブ画像ブロックが出たを確定するために用いられる、項目164に記載の動画像処理装置。
[項目167]
上記予測モジュールはさらに、
上記動きベクトル第2候補リスト中の上記特定候補以外のそのうちの1つの候補を採用することを確定した場合、アフィン変換モデルに基づき上記採用した候補にアフィン変換を行うことと、
上記アフィン変換後の候補に基づき上記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる、項目137~166のいずれか一項に記載の動画像処理装置。
[項目168]
上記動きベクトル第2候補リスト中の上記特定候補以外の少なくとも1つの候補において、各候補は一組のコントロールポイントの動きベクトルを含む、項目167に記載の動画像処理装置。
[項目169]
上記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、上記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
上記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、上記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、項目168に記載の動画像処理装置。
[項目170]
上記構築モジュールはさらに、
上記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として上記動きベクトル第1候補リストに入れることとのために用いられる、項目137~169のいずれか一項に記載の動画像処理装置。
[項目171]
上記の上記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
上記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
上記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
上記第1近傍ブロックのコントロールポイントの動きベクトル群と上記第2近傍ブロックのコントロールポイントの動きベクトル群を上記動きベクトルの第1候補リストに入れることと、を含む、項目170に記載の動画像処理装置。
[項目172]
上記構築モジュールはさらに、
上記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき上記一部のコントロールポイントの動きベクトルを構築することと、
上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れるために用いられる、項目137~171のいずれか一項に記載の動画像処理装置。
[項目173]
上記の上記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき上記一部のコントロールポイントの動きベクトルを構築することは、
上記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で上記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを上記コントロールポイントの動きベクトルとすることを含む項目172に記載の動画像処理装置。
[項目174]
上記構築モジュールはさらに、
上記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることを放棄するために用いられる、項目172または173に記載の動画像処理装置。
[項目175]
上記構築モジュールはさらに、
上記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、上記現在画像ブロックの一部のコントロールポイントの動きベクトルを上記動きベクトル第1候補リストに入れることを放棄するために用いられる、項目172または173に記載の動画像処理装置。
[項目176]
上記構築モジュールはさらに、
動きベクトル第2候補リストを構築し、ここでは、上記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
上記動きベクトル第2候補リスト中の候補を採用することを確定した場合、上記候補の動きベクトルに基づき上記現在画像ブロックの動きベクトルを確定するために用いられる、項目139~151のいずれか一項に記載の動画像処理装置。
[項目177]
上記の上記候補の動きベクトルに基づき上記現在画像ブロックの動きベクトルを確定することは、
上記の採用することを確定した候補を上記現在画像ブロックの動きベクトルとし、または上記採用することを確定した候補をスケーリングした後に上記現在画像ブロックの動きベクトルとすることを含む、項目176に記載の動画像処理装置。
[項目178]
上記の動きベクトル第2候補リストを構築することは、
上記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルに基づき上記動きベクトル第2候補リストに入れる上記M個の候補を確定することを含む、項目176に記載の動画像処理装置。
[項目179]
上記構築モジュールはさらに、予め設定された順で順に上記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、上記動きベクトル第2候補リストに入れるために用いられ、上記N個の近傍ブロックとは、上記予め設定された順で最初に確定されたN個の近傍ブロックを指すること、
および/または
上記構築モジュールはさらに、上記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、上記1つのまたは複数の近傍ブロックの動きベクトルに基づき上記動きベクトル第2候補リストに入れる候補を確定することを放棄するために用いられる、項目178に記載の動画像処理装置。
[項目180]
Mは4以下である、項目137~179のいずれか一項に記載の動画像処理装置。
[項目181]
動画像処理装置であって、メモリとプロセッサを含み、上記メモリは命令を記憶するために用いられ、上記プロセッサは上記メモリに記憶された命令を実行し、上記メモリに記憶された命令を実行することによって、上記プロセッサは項目1~46のいずれか一項に記載の方法を実行するために用いられる、動画像処理装置。
[項目182]
動画像処理装置であって、メモリとプロセッサを含み、上記メモリは命令を記憶するために用いられ、上記プロセッサは上記メモリに記憶された命令を実行し、上記メモリに記憶された命令を実行することによって、上記プロセッサは項目47~90のいずれか一項に記載の方法を実行するために用いられる、動画像処理装置。
[項目183]
コンピュータ記憶媒体であって、それにコンピュータプログラムが記憶され、上記コンピュータプログラムはコンピュータに実行されると、上記コンピュータに項目1~46のいずれか一項に記載の方法を実行させる、コンピュータ記憶媒体。
[項目184]
コンピュータ記憶媒体であって、それにコンピュータプログラムが記憶され、上記コンピュータプログラムはコンピュータに実行されると、上記コンピュータに項目47~90のいずれか一項に記載の方法を実行させる、コンピュータ記憶媒体。
[項目185]
命令を含むコンピュータプログラム製品であって、上記命令がコンピュータに実行されると、コンピュータに項目1~46のいずれか一項に記載の方法を実行させる、コンピュータプログラム製品。
[項目186]
命令を含むコンピュータプログラム製品であって、上記命令がコンピュータに実行されると、コンピュータに項目47~90のいずれか一項に記載の方法を実行させる、コンピュータプログラム製品。
Claims (10)
- 対象近傍ブロック、現在画像ブロック、及び前記現在画像ブロックの同位フレームの動きベクトルに従って、前記現在画像ブロックの関連ブロックを確定する段階と、
前記現在画像ブロックの前記関連ブロックの前記動きベクトルに従って、前記現在画像ブロックを復号化する段階と、
前記現在画像ブロックの一部のコントロールポイントの前記対象近傍ブロックに従って、前記一部のコントロールポイントの動きベクトルを構築する段階と、
前記現在画像ブロックの動きベクトル候補リストに前記現在画像ブロックの前記一部のコントロールポイントの前記動きベクトルを追加する段階と
を備える動画像処理方法。 - 前記現在画像ブロックを複数のサブブロックに分割する段階と、
前記対象近傍ブロックの動きベクトルに従って、前記現在画像ブロックの前記同位フレームにおける前記複数のサブブロックの関連ブロックを確定する段階と、
前記複数のサブブロックの前記関連ブロックの前記動きベクトルに従って前記現在画像ブロックを復号化する段階と
を備える、請求項1に記載の動画像処理方法。 - 前記現在画像ブロックを複数のサブブロックに分割する段階と、
前記対象近傍ブロックの動きベクトルに従って、前記現在画像ブロックの前記同位フレームにおける前記複数のサブブロックの関連ブロックを確定する段階と、
利用できない動きベクトルを有するサブブロックが存在することに応じて、前記現在画像ブロックの前記関連ブロックの代表動きベクトルを使用して、前記利用できない動きベクトルを置き換えて、前記現在画像ブロックにおける対応する前記サブブロックを予測する段階と
を備える、請求項1に記載の動画像処理方法。 - 前記現在画像ブロックの動きベクトル候補リストに前記現在画像ブロックの前記一部のコントロールポイントの前記動きベクトルが追加される前に、前記動きベクトル候補リストの候補の数量が予め定められた数値に達したかどうかを判断する段階と、
前記動きベクトル候補リストの候補の数量が前記予め定められた数値に達していない場合、前記動きベクトル候補リストに前記現在画像ブロックの前記一部のコントロールポイントの前記動きベクトルを追加する段階と
を備える、請求項1に記載の動画像処理方法。 - 特定走査順でアフィン変換モードを採用して予測を行う前記現在画像ブロックの一または複数の前記対象近傍ブロックのそれぞれのコントロールポイント動きベクトル群を確定する段階と、
前記対象近傍ブロックの確定された前記コントロールポイント動きベクトル群を候補として前記動きベクトル候補リストに追加する段階と
を備え、
それぞれの前記コントロールポイント動きベクトル群は、近傍ブロックの2または3のコントロールポイントの動きベクトルを含む、請求項1に記載の動画像処理方法。 - 特定走査順でアフィン変換モードを採用して予測を行う前記現在画像ブロックの一または複数の前記対象近傍ブロックのそれぞれのコントロールポイント動きベクトル群を確定する前記段階は、
第1走査順に従って前記現在画像ブロックの左側近傍ブロックを走査し、前記アフィン変換モードを採用して予測を行う第1左側近傍ブロックに達することに応じて前記第1左側近傍ブロックのコントロールポイント動きベクトル群を確定する段階と、
第2走査順に従って前記現在画像ブロックの上側近傍ブロックを走査し、前記アフィン変換モードを採用して予測を行う第1上側近傍ブロックに達することに応じて前記第1上側近傍ブロックのコントロールポイント動きベクトル群を確定する段階と
を含み、
前記対象近傍ブロックの確定された前記コントロールポイント動きベクトル群を候補として前記動きベクトル候補リストに追加する前記段階は、
前記第1左側近傍ブロックの前記コントロールポイント動きベクトル群及び前記第1上側近傍ブロックの前記コントロールポイント動きベクトル群を、候補として前記現在画像ブロックの前記動きベクトル候補リストに追加する段階を含む、請求項5に記載の動画像処理方法。 - 前記動きベクトルにより指定される参照画像と、前記参照画像に位置付けられる前記同位フレームとの間の距離と、前記同位フレームと前記現在画像ブロックが位置付けられる現在フレームとの間の距離とに従って、前記現在画像ブロックの前記関連ブロックの前記動きベクトルのスケーリングファクタを確定する段階と、
前記スケーリングファクタに基づいて前記現在画像ブロックの前記関連ブロックの前記動きベクトルをスケーリングする段階と
を備える、請求項1に記載の動画像処理方法。 - 前記現在画像ブロックの前記関連ブロックの前記動きベクトルが長期参照画像を指定する、または前記現在画像ブロックの前記同位フレームが長期参照画像である場合、前記関連ブロックの前記動きベクトルを1のスケーリングファクタに従ってスケーリングする段階、または前記スケーリングする段階をスキップする段階をさらに備える、請求項1に記載の動画像処理方法。
- 命令を格納するメモリと、
前記命令を実行することで、
対象近傍ブロック、現在画像ブロック、及び前記現在画像ブロックの同位フレームの動きベクトルに従って、前記現在画像ブロックの関連ブロックを確定し、
前記現在画像ブロックの前記関連ブロックの前記動きベクトルに従って、前記現在画像ブロックを復号化し、
前記現在画像ブロックの一部のコントロールポイントの前記対象近傍ブロックに従って、前記一部のコントロールポイントの動きベクトルを構築し、
前記現在画像ブロックの動きベクトル候補リストに前記現在画像ブロックの前記一部のコントロールポイントの前記動きベクトルを追加する、ように構成されるプロセッサと
を備える動画像処理装置。 - 対象近傍ブロック、現在画像ブロック、及び前記現在画像ブロックの同位フレームの動きベクトルに従って、前記現在画像ブロックの関連ブロックを確定する段階と、
前記現在画像ブロックの前記関連ブロックの前記動きベクトルに従って、前記現在画像ブロックを復号化する段階と、
前記現在画像ブロックの一部のコントロールポイントの前記対象近傍ブロックに従って、前記一部のコントロールポイントの動きベクトルを構築する段階と、
前記現在画像ブロックの動きベクトル候補リストに前記現在画像ブロックの前記一部のコントロールポイントの前記動きベクトルを追加する段階と
を含む動画像符号化方法によって得られる符号化データを格納するコンピュータ可読記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024085959A JP2024116183A (ja) | 2018-04-02 | 2024-05-28 | 動画像処理方法、動画処理装置、およびビットストリーム生成方法 |
Applications Claiming Priority (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/081652 WO2019191890A1 (zh) | 2018-04-02 | 2018-04-02 | 用于图像处理的方法和图像处理装置 |
CNPCT/CN2018/081652 | 2018-04-02 | ||
PCT/CN2018/095710 WO2019192102A1 (zh) | 2018-04-02 | 2018-07-13 | 用于图像运动补偿的方法和装置 |
CNPCT/CN2018/095710 | 2018-07-13 | ||
PCT/CN2018/103693 WO2019192141A1 (zh) | 2018-04-02 | 2018-08-31 | 用于图像运动补偿的方法和装置 |
CNPCT/CN2018/103693 | 2018-08-31 | ||
CNPCT/CN2018/107436 | 2018-09-25 | ||
PCT/CN2018/107436 WO2019192152A1 (zh) | 2018-04-02 | 2018-09-25 | 获取视频图像运动矢量的方法与装置 |
PCT/CN2018/112805 WO2019192170A1 (zh) | 2018-04-02 | 2018-10-30 | 视频图像处理方法与装置 |
JP2020553586A JP7216109B2 (ja) | 2018-04-02 | 2018-10-30 | 動画像処理方法、動画像処理装置、及びコンピュータプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553586A Division JP7216109B2 (ja) | 2018-04-02 | 2018-10-30 | 動画像処理方法、動画像処理装置、及びコンピュータプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024085959A Division JP2024116183A (ja) | 2018-04-02 | 2024-05-28 | 動画像処理方法、動画処理装置、およびビットストリーム生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023052491A true JP2023052491A (ja) | 2023-04-11 |
JP7497948B2 JP7497948B2 (ja) | 2024-06-11 |
Family
ID=68099733
Family Applications (12)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553616A Active JP7088606B2 (ja) | 2018-04-02 | 2018-04-02 | 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス |
JP2020553636A Pending JP2021520124A (ja) | 2018-04-02 | 2018-07-13 | 画像動き補償方法及び装置 |
JP2020553654A Active JP7388659B2 (ja) | 2018-04-02 | 2018-08-31 | 動画処理方法、ビットストリーム生成方法、動画処理装置、及びプログラム |
JP2020553580A Active JP7294753B2 (ja) | 2018-04-02 | 2018-09-25 | 動画像処理方法、及び動画像処理装置 |
JP2020553586A Active JP7216109B2 (ja) | 2018-04-02 | 2018-10-30 | 動画像処理方法、動画像処理装置、及びコンピュータプログラム |
JP2020553581A Active JP7533945B2 (ja) | 2018-04-02 | 2019-03-13 | 動画像処理方法、及び動画像処理装置 |
JP2022182636A Active JP7525236B2 (ja) | 2018-04-02 | 2022-11-15 | 動画処理方法、エンコーダ、非一時的なコンピュータ可読記憶媒体、及びプログラム |
JP2023006258A Active JP7497948B2 (ja) | 2018-04-02 | 2023-01-19 | 動画像処理方法および装置 |
JP2023092773A Active JP7534039B2 (ja) | 2018-04-02 | 2023-06-05 | 動画像処理方法、動画処理装置、及びビットストリーム生成方法 |
JP2023190720A Pending JP2024010198A (ja) | 2018-04-02 | 2023-11-08 | 動画処理方法、ビットストリーム生成方法、及び動画処理装置 |
JP2024025977A Pending JP2024057014A (ja) | 2018-04-02 | 2024-02-22 | 動画像符号化方法、動画像符号化装置、及びビットストリーム生成方法 |
JP2024085959A Pending JP2024116183A (ja) | 2018-04-02 | 2024-05-28 | 動画像処理方法、動画処理装置、およびビットストリーム生成方法 |
Family Applications Before (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553616A Active JP7088606B2 (ja) | 2018-04-02 | 2018-04-02 | 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス |
JP2020553636A Pending JP2021520124A (ja) | 2018-04-02 | 2018-07-13 | 画像動き補償方法及び装置 |
JP2020553654A Active JP7388659B2 (ja) | 2018-04-02 | 2018-08-31 | 動画処理方法、ビットストリーム生成方法、動画処理装置、及びプログラム |
JP2020553580A Active JP7294753B2 (ja) | 2018-04-02 | 2018-09-25 | 動画像処理方法、及び動画像処理装置 |
JP2020553586A Active JP7216109B2 (ja) | 2018-04-02 | 2018-10-30 | 動画像処理方法、動画像処理装置、及びコンピュータプログラム |
JP2020553581A Active JP7533945B2 (ja) | 2018-04-02 | 2019-03-13 | 動画像処理方法、及び動画像処理装置 |
JP2022182636A Active JP7525236B2 (ja) | 2018-04-02 | 2022-11-15 | 動画処理方法、エンコーダ、非一時的なコンピュータ可読記憶媒体、及びプログラム |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023092773A Active JP7534039B2 (ja) | 2018-04-02 | 2023-06-05 | 動画像処理方法、動画処理装置、及びビットストリーム生成方法 |
JP2023190720A Pending JP2024010198A (ja) | 2018-04-02 | 2023-11-08 | 動画処理方法、ビットストリーム生成方法、及び動画処理装置 |
JP2024025977A Pending JP2024057014A (ja) | 2018-04-02 | 2024-02-22 | 動画像符号化方法、動画像符号化装置、及びビットストリーム生成方法 |
JP2024085959A Pending JP2024116183A (ja) | 2018-04-02 | 2024-05-28 | 動画像処理方法、動画処理装置、およびビットストリーム生成方法 |
Country Status (6)
Country | Link |
---|---|
US (19) | US11330294B2 (ja) |
EP (6) | EP3780608A4 (ja) |
JP (12) | JP7088606B2 (ja) |
KR (2) | KR20240110905A (ja) |
CN (16) | CN117294837A (ja) |
WO (4) | WO2019191890A1 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116962717A (zh) * | 2018-03-14 | 2023-10-27 | Lx 半导体科技有限公司 | 图像编码/解码方法、存储介质和发送方法 |
EP3780608A4 (en) | 2018-04-02 | 2021-12-01 | SZ DJI Technology Co., Ltd. | IMAGE PROCESSING PROCESS AND IMAGE PROCESSING DEVICE |
CN115250350B (zh) * | 2018-09-03 | 2024-04-09 | 华为技术有限公司 | 运动矢量的获取方法、装置、计算机设备及存储介质 |
WO2020084552A1 (en) | 2018-10-24 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate derivation based on spatial neighboring block in sub-block motion vector prediction |
US11838540B2 (en) * | 2018-12-21 | 2023-12-05 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and device, and recording medium in which bitstream is stored |
EP3903495A4 (en) * | 2018-12-28 | 2022-03-16 | Telefonaktiebolaget Lm Ericsson (Publ) | GENERATION OF A LIST OF MOTION VECTOR PREDICTORS |
KR20220016075A (ko) | 2019-06-04 | 2022-02-08 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 모션 후보 리스트 구성 프로세스의 조건부 구현 |
WO2020244571A1 (en) | 2019-06-04 | 2020-12-10 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate list construction using neighboring block information |
EP3967040A4 (en) | 2019-06-06 | 2022-11-30 | Beijing Bytedance Network Technology Co., Ltd. | CONSTRUCTION OF MOTION CANDIDATE LISTS FOR VIDEO ENCODING |
CN114128295B (zh) | 2019-07-14 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 视频编解码中几何分割模式候选列表的构建 |
EP3984227A4 (en) * | 2019-07-27 | 2022-08-17 | Beijing Bytedance Network Technology Co., Ltd. | TOOL USE RESTRICTIONS BASED ON TYPES OF REFERENCE IMAGES |
EP4000265A4 (en) | 2019-08-20 | 2022-10-26 | Beijing Bytedance Network Technology Co., Ltd. | USING DEFAULT AND CUSTOM SCALING MATRICES |
CN114402591B (zh) | 2019-09-13 | 2024-08-02 | 北京字节跳动网络技术有限公司 | 并置运动矢量的推导 |
KR20220066045A (ko) | 2019-09-19 | 2022-05-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 비디오 코딩의 스케일링 윈도우 |
CN117615155A (zh) | 2019-09-19 | 2024-02-27 | 北京字节跳动网络技术有限公司 | 视频编解码中的参考样点位置推导 |
CN117596389A (zh) | 2019-09-28 | 2024-02-23 | 北京字节跳动网络技术有限公司 | 视频编解码中的几何分割模式 |
EP4026336A4 (en) | 2019-10-05 | 2022-12-07 | Beijing Bytedance Network Technology Co., Ltd. | LEVEL-BASED SIGNALING OF VIDEO CODING TOOLS |
WO2021068956A1 (en) | 2019-10-12 | 2021-04-15 | Beijing Bytedance Network Technology Co., Ltd. | Prediction type signaling in video coding |
JP7414980B2 (ja) | 2019-10-13 | 2024-01-16 | 北京字節跳動網絡技術有限公司 | 参照ピクチャリサンプリングと映像コーディングツールとの間の相互作用 |
BR112022012807A2 (pt) | 2019-12-27 | 2022-09-27 | Beijing Bytedance Network Tech Co Ltd | Método de processamento de vídeo, aparelho para processar dados de vídeo e meios não transitórios legíveis por computador |
CN113727119B (zh) * | 2020-05-20 | 2023-03-17 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器以及计算机存储介质 |
CN111724422B (zh) * | 2020-06-29 | 2024-01-09 | 深圳市慧鲤科技有限公司 | 图像处理方法及装置、电子设备及存储介质 |
CN112132732B (zh) * | 2020-09-10 | 2023-06-02 | 宁波大学科学技术学院 | 立体图像的像素预测方法、可逆信息隐藏提取方法、终端及存储介质 |
WO2022141278A1 (zh) * | 2020-12-30 | 2022-07-07 | 深圳市大疆创新科技有限公司 | 视频处理方法和编码装置 |
US20230224474A1 (en) * | 2022-01-12 | 2023-07-13 | Tencent America LLC | Adjustment based local illumination compensation |
WO2023192335A1 (en) * | 2022-03-28 | 2023-10-05 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and devices for candidate derivation for affine merge mode in video coding |
WO2024005456A1 (ko) * | 2022-06-27 | 2024-01-04 | 현대자동차주식회사 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
WO2024005616A1 (ko) * | 2022-07-01 | 2024-01-04 | 엘지전자 주식회사 | 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체 |
WO2024117533A1 (ko) * | 2022-11-29 | 2024-06-06 | 현대자동차주식회사 | 아핀 모델 기반의 예측을 이용하는 비디오 코딩방법 및 장치 |
US20240314343A1 (en) * | 2023-03-13 | 2024-09-19 | Tencent America LLC | Block based weighting factor for joint motion vector difference coding mode |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150085929A1 (en) * | 2013-09-26 | 2015-03-26 | Qualcomm Incorporated | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
WO2017133243A1 (zh) * | 2016-02-06 | 2017-08-10 | 华为技术有限公司 | 图像编解码方法及装置 |
JP2020145486A (ja) * | 2017-07-28 | 2020-09-10 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
Family Cites Families (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2435757C (en) * | 2001-11-29 | 2013-03-19 | Matsushita Electric Industrial Co., Ltd. | Video coding distortion removal method and apparatus using a filter |
JP4130783B2 (ja) * | 2002-04-23 | 2008-08-06 | 松下電器産業株式会社 | 動きベクトル符号化方法および動きベクトル復号化方法 |
KR100491530B1 (ko) * | 2002-05-03 | 2005-05-27 | 엘지전자 주식회사 | 모션 벡터 결정 방법 |
US20050013498A1 (en) * | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
US7660354B2 (en) | 2005-05-11 | 2010-02-09 | Fang Shi | Temporal error concealment for bi-directionally predicted frames |
ZA200900857B (en) * | 2006-07-06 | 2010-05-26 | Thomson Licensing | Method and apparatus for decoupling frame number and/or picture order count (POC) for multi-view video encoding and decoding |
JP2010509799A (ja) * | 2006-11-03 | 2010-03-25 | サムスン エレクトロニクス カンパニー リミテッド | 映像の予測符号化方法及び装置、その復号化方法及び装置 |
JP2009118221A (ja) * | 2007-11-07 | 2009-05-28 | Toshiba Corp | ディジタル画像復号装置及びディジタル画像復号方法 |
CN101873500B (zh) * | 2009-04-24 | 2012-05-23 | 华为技术有限公司 | 帧间预测编码方法、帧间预测解码方法及设备 |
JP5367098B2 (ja) * | 2010-02-09 | 2013-12-11 | 日本電信電話株式会社 | 動きベクトル予測符号化方法,動きベクトル予測復号方法,動画像符号化装置,動画像復号装置およびそれらのプログラム |
KR20120009861A (ko) * | 2010-07-22 | 2012-02-02 | 에스케이 텔레콤주식회사 | 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치 |
KR20120016991A (ko) | 2010-08-17 | 2012-02-27 | 오수미 | 인터 프리딕션 방법 |
KR20140139615A (ko) * | 2010-10-08 | 2014-12-05 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 블록 분할 및 블록 병합을 지원하는 픽처 코딩 |
US8824558B2 (en) * | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
US8976873B2 (en) * | 2010-11-24 | 2015-03-10 | Stmicroelectronics S.R.L. | Apparatus and method for performing error concealment of inter-coded video frames |
CN107105280B (zh) | 2010-12-14 | 2020-01-03 | M&K控股株式会社 | 用于编码运动画面的设备 |
US9635382B2 (en) | 2011-01-07 | 2017-04-25 | Texas Instruments Incorporated | Method, system and computer program product for determining a motion vector |
CN102611881B (zh) * | 2011-01-19 | 2014-06-25 | 华为技术有限公司 | 参考运动矢量获取方法、模块及编、解码装置 |
US8755437B2 (en) * | 2011-03-17 | 2014-06-17 | Mediatek Inc. | Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate |
KR101484171B1 (ko) * | 2011-01-21 | 2015-01-23 | 에스케이 텔레콤주식회사 | 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법 |
ES2900107T3 (es) * | 2011-03-21 | 2022-03-15 | Lg Electronics Inc | Método para seleccionar un predictor de vector de movimiento |
US9247249B2 (en) * | 2011-04-20 | 2016-01-26 | Qualcomm Incorporated | Motion vector prediction in video coding |
JP5786478B2 (ja) | 2011-06-15 | 2015-09-30 | 富士通株式会社 | 動画像復号装置、動画像復号方法、及び動画像復号プログラム |
EP3849192B1 (en) * | 2011-06-28 | 2023-01-11 | LG Electronics, Inc. | Method for deriving a motion vector for video decoding and video encoding |
KR20140043242A (ko) * | 2011-06-30 | 2014-04-08 | 가부시키가이샤 제이브이씨 켄우드 | 화상 부호화 장치, 화상 부호화 방법, 화상 부호화 프로그램, 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램 |
WO2013002342A1 (ja) * | 2011-06-30 | 2013-01-03 | ソニー株式会社 | 画像処理装置および方法 |
MX2014002347A (es) | 2011-08-29 | 2014-04-25 | Ibex Pt Holdings Co Ltd | Aparato para decodificar informacion de movimiento de modo de fusion. |
CN102447904A (zh) * | 2011-10-24 | 2012-05-09 | 成都虢电智能电力科技有限公司 | 一种快速对视频序列进行运动估计的方法 |
RU2604679C2 (ru) * | 2011-10-27 | 2016-12-10 | Сан Пэтент Траст | Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений и устройство декодирования изображений |
CN107948656B (zh) | 2011-10-28 | 2021-06-01 | 太阳专利托管公司 | 图像解码方法及图像解码装置 |
KR101935976B1 (ko) | 2011-10-28 | 2019-01-07 | 선 페이턴트 트러스트 | 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치 |
TWI569634B (zh) | 2011-10-31 | 2017-02-01 | Jvc Kenwood Corp | Dynamic image decoding device, dynamic image decoding method and dynamic image decoding program |
BR122015021739A2 (pt) * | 2011-11-08 | 2019-08-27 | Samsung Electronics Co Ltd | método para decodificar uma imagem |
EP3576412B1 (en) | 2011-11-08 | 2021-09-01 | Nokia Technologies Oy | Reference picture handling |
CN107566836B (zh) | 2011-12-23 | 2020-04-07 | 韩国电子通信研究院 | 图像解码方法、图像编码方法和记录介质 |
RU2658146C9 (ru) | 2012-04-12 | 2018-12-12 | ДжейВиСи КЕНВУД КОРПОРЕЙШН | Устройство декодирования движущегося изображения и способ декодирования движущегося изображения |
JP2013223049A (ja) * | 2012-04-13 | 2013-10-28 | Sharp Corp | 画像復号装置、および画像符号化装置 |
US9979958B2 (en) * | 2012-04-20 | 2018-05-22 | Qualcomm Incorporated | Decoded picture buffer processing for random access point pictures in video sequences |
RU2673846C1 (ru) | 2012-07-02 | 2018-11-30 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для прогнозирования вектора движения для кодирования видео или декодирования видео |
US9325990B2 (en) | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
CN102883161B (zh) * | 2012-09-19 | 2015-09-30 | 华为技术有限公司 | 视频编码和解码的处理方法和装置 |
US20150350684A1 (en) * | 2012-09-20 | 2015-12-03 | Sony Corporation | Image processing apparatus and method |
US9538180B2 (en) * | 2012-12-17 | 2017-01-03 | Qualcomm Incorporated | Motion vector prediction in video coding |
JP6352248B2 (ja) * | 2013-04-04 | 2018-07-04 | シャープ株式会社 | 画像復号装置、および画像符号化装置 |
SG10201913539SA (en) * | 2013-04-07 | 2020-02-27 | Dolby Int Ab | Signaling change in output layer sets |
US9591321B2 (en) * | 2013-04-07 | 2017-03-07 | Dolby International Ab | Signaling change in output layer sets |
US9930363B2 (en) | 2013-04-12 | 2018-03-27 | Nokia Technologies Oy | Harmonized inter-view and view synthesis prediction for 3D video coding |
CN105210370B (zh) * | 2013-07-10 | 2019-04-12 | 夏普株式会社 | 运动图像解码装置 |
US9894369B2 (en) * | 2013-07-30 | 2018-02-13 | Kt Corporation | Image encoding and decoding method supporting plurality of layers and apparatus using same |
US10104362B2 (en) * | 2013-10-08 | 2018-10-16 | Sharp Kabushiki Kaisha | Image decoding device, image coding device, and coded data |
EP3091741B1 (en) | 2014-01-02 | 2021-10-27 | Intellectual Discovery Co., Ltd. | Method for decoding multi-view video |
WO2015102042A1 (en) * | 2014-01-02 | 2015-07-09 | Sharp Kabushiki Kaisha | Parameter set signaling |
US20170019666A1 (en) * | 2014-03-13 | 2017-01-19 | Sharp Kabushiki Kaisha | Constrained reference picture parameters |
US9756355B2 (en) * | 2014-06-20 | 2017-09-05 | Qualcomm Incorporated | Value ranges for syntax elements in video coding |
KR20170066457A (ko) * | 2014-09-26 | 2017-06-14 | 브이아이디 스케일, 인크. | 시간적 블록 벡터 예측을 갖는 인트라 블록 카피 코딩 |
EP4418654A2 (en) * | 2014-10-31 | 2024-08-21 | Samsung Electronics Co., Ltd | Video encoding device and video decoding device using high-precision skip encoding and method thereof |
US9872296B2 (en) | 2015-01-06 | 2018-01-16 | Qualcomm Incorporated | Techniques for beam shaping at a millimeter wave base station and a wireless device and fast antenna subarray selection at a wireless device |
WO2016165069A1 (en) * | 2015-04-14 | 2016-10-20 | Mediatek Singapore Pte. Ltd. | Advanced temporal motion vector prediction in video coding |
KR102164062B1 (ko) * | 2015-09-08 | 2020-10-13 | 미디어텍 인크. | 인트라 블록 복사 모드를 위한 디코딩된 픽처 버퍼의 방법 및 시스템 |
CN106534858B (zh) | 2015-09-10 | 2019-09-06 | 展讯通信(上海)有限公司 | 真实运动估计方法及装置 |
CN114449287A (zh) * | 2016-03-16 | 2022-05-06 | 联发科技股份有限公司 | 视频编码的样式基础的运动向量推导之方法及装置 |
US10659801B2 (en) | 2016-03-24 | 2020-05-19 | Lg Electronics Inc. | Method and apparatus for inter prediction in video coding system |
US10560718B2 (en) | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
CA3025334C (en) | 2016-05-25 | 2021-07-13 | Arris Enterprises Llc | Binary ternary quad tree partitioning for jvet coding of video data |
KR102191846B1 (ko) | 2016-08-15 | 2020-12-17 | 노키아 테크놀로지스 오와이 | 비디오 인코딩 및 디코딩 |
US11409855B2 (en) * | 2016-08-22 | 2022-08-09 | Lenovo (Singapore) Pte. Ltd. | Gesture based CAPTCHA test |
CN107820095B (zh) * | 2016-09-14 | 2020-01-03 | 北京金山云网络技术有限公司 | 一种长期参考图像选择方法及装置 |
US10812791B2 (en) * | 2016-09-16 | 2020-10-20 | Qualcomm Incorporated | Offset vector identification of temporal motion vector predictor |
EP3301914A1 (en) | 2016-09-30 | 2018-04-04 | Thomson Licensing | Method and apparatus for encoding and decoding a large field of view video |
EP3343925A1 (en) | 2017-01-03 | 2018-07-04 | Thomson Licensing | Method and apparatus for encoding and decoding motion information |
EP3343924A1 (en) | 2017-01-03 | 2018-07-04 | Thomson Licensing | Method and apparatus for encoding and decoding motion information |
US10542280B2 (en) | 2017-01-09 | 2020-01-21 | QUALCOMM Incorpated | Encoding optimization with illumination compensation and integer motion vector restriction |
US20180199057A1 (en) | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
JP7036628B2 (ja) * | 2017-03-10 | 2022-03-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
CN109089119B (zh) | 2017-06-13 | 2021-08-13 | 浙江大学 | 一种运动矢量预测的方法及设备 |
KR102233964B1 (ko) * | 2017-09-12 | 2021-03-30 | 삼성전자주식회사 | 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치 |
CN107682705B (zh) * | 2017-09-26 | 2020-05-12 | 杭州电子科技大学 | 基于mv-hevc框架的立体视频b帧错误隐藏方法 |
US20190141320A1 (en) * | 2017-11-07 | 2019-05-09 | Qualcomm Incorporated | Enhanced reference picture management in video coding |
WO2019107916A1 (ko) | 2017-11-30 | 2019-06-06 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치 |
US11323705B2 (en) | 2018-03-09 | 2022-05-03 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and apparatus using sample filtering |
JP2021517797A (ja) | 2018-04-01 | 2021-07-26 | エルジー エレクトロニクス インコーポレイティド | アフィン動き予測に基づく映像コーディング方法及び装置 |
WO2019194514A1 (ko) * | 2018-04-01 | 2019-10-10 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
EP3780608A4 (en) | 2018-04-02 | 2021-12-01 | SZ DJI Technology Co., Ltd. | IMAGE PROCESSING PROCESS AND IMAGE PROCESSING DEVICE |
CN114501018B (zh) * | 2018-08-17 | 2024-01-09 | 华为技术有限公司 | 参考图像管理的解码方法、设备和系统 |
-
2018
- 2018-04-02 EP EP18913497.6A patent/EP3780608A4/en active Pending
- 2018-04-02 CN CN202311156567.3A patent/CN117294837A/zh active Pending
- 2018-04-02 CN CN201880012597.8A patent/CN110419217B/zh active Active
- 2018-04-02 WO PCT/CN2018/081652 patent/WO2019191890A1/zh unknown
- 2018-04-02 CN CN202311161948.0A patent/CN117135346A/zh active Pending
- 2018-04-02 JP JP2020553616A patent/JP7088606B2/ja active Active
- 2018-04-02 CN CN202311161992.1A patent/CN117061738A/zh active Pending
- 2018-07-13 JP JP2020553636A patent/JP2021520124A/ja active Pending
- 2018-07-13 CN CN201880012589.3A patent/CN110419220B/zh active Active
- 2018-07-13 CN CN202311002352.6A patent/CN116781928A/zh active Pending
- 2018-07-13 WO PCT/CN2018/095710 patent/WO2019192102A1/zh unknown
- 2018-07-13 EP EP18913581.7A patent/EP3783897A4/en not_active Withdrawn
- 2018-07-13 CN CN202311004591.5A patent/CN116760999A/zh active Pending
- 2018-08-31 EP EP18913876.1A patent/EP3780614A4/en active Pending
- 2018-08-31 JP JP2020553654A patent/JP7388659B2/ja active Active
- 2018-08-31 WO PCT/CN2018/103693 patent/WO2019192141A1/zh unknown
- 2018-08-31 CN CN201880042138.4A patent/CN110786012B/zh active Active
- 2018-09-25 CN CN202111284624.7A patent/CN113824966B/zh active Active
- 2018-09-25 CN CN201880011514.3A patent/CN110326295B/zh active Active
- 2018-09-25 JP JP2020553580A patent/JP7294753B2/ja active Active
- 2018-09-25 CN CN202111283215.5A patent/CN113852828B/zh active Active
- 2018-09-25 EP EP18913372.1A patent/EP3780618A4/en not_active Withdrawn
- 2018-09-25 WO PCT/CN2018/107436 patent/WO2019192152A1/zh unknown
- 2018-10-30 CN CN201880016545.8A patent/CN110495169B/zh not_active Expired - Fee Related
- 2018-10-30 JP JP2020553586A patent/JP7216109B2/ja active Active
- 2018-10-30 CN CN202111455033.1A patent/CN114125440A/zh active Pending
- 2018-10-30 EP EP18913678.1A patent/EP3780615A4/en not_active Withdrawn
-
2019
- 2019-03-13 KR KR1020247022895A patent/KR20240110905A/ko active Application Filing
- 2019-03-13 JP JP2020553581A patent/JP7533945B2/ja active Active
- 2019-03-13 EP EP19781713.3A patent/EP3780619A4/en active Pending
- 2019-03-13 CN CN202210376602.1A patent/CN114938452A/zh active Pending
- 2019-03-13 CN CN201980002813.5A patent/CN110720219B/zh active Active
- 2019-03-13 KR KR1020207031587A patent/KR102685009B1/ko active IP Right Grant
- 2019-03-13 CN CN202210376345.1A patent/CN115037942A/zh active Pending
-
2020
- 2020-09-30 US US17/039,924 patent/US11330294B2/en active Active
- 2020-09-30 US US17/039,862 patent/US11490118B2/en active Active
- 2020-09-30 US US17/039,903 patent/US11190798B2/en active Active
- 2020-09-30 US US17/039,939 patent/US11368714B2/en active Active
- 2020-09-30 US US17/039,841 patent/US11363294B2/en active Active
- 2020-09-30 US US17/039,879 patent/US11323742B2/en active Active
-
2021
- 2021-03-08 US US17/195,626 patent/US11350124B2/en active Active
- 2021-04-01 US US17/220,822 patent/US11381839B2/en active Active
- 2021-04-01 US US17/220,797 patent/US11343534B2/en active Active
- 2021-04-01 US US17/220,756 patent/US11490120B2/en active Active
- 2021-04-02 US US17/221,275 patent/US11159821B2/en active Active
- 2021-11-29 US US17/456,815 patent/US11997312B2/en active Active
-
2022
- 2022-05-23 US US17/664,642 patent/US11949911B2/en active Active
- 2022-06-20 US US17/844,669 patent/US11949912B2/en active Active
- 2022-07-05 US US17/857,485 patent/US11871032B2/en active Active
- 2022-11-15 JP JP2022182636A patent/JP7525236B2/ja active Active
-
2023
- 2023-01-19 JP JP2023006258A patent/JP7497948B2/ja active Active
- 2023-06-05 JP JP2023092773A patent/JP7534039B2/ja active Active
- 2023-11-08 JP JP2023190720A patent/JP2024010198A/ja active Pending
- 2023-12-18 US US18/544,106 patent/US20240236365A9/en active Pending
-
2024
- 2024-02-22 JP JP2024025977A patent/JP2024057014A/ja active Pending
- 2024-04-01 US US18/623,779 patent/US20240259592A1/en active Pending
- 2024-04-01 US US18/623,747 patent/US20240251099A1/en active Pending
- 2024-05-24 US US18/674,297 patent/US20240314356A1/en active Pending
- 2024-05-28 JP JP2024085959A patent/JP2024116183A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150085929A1 (en) * | 2013-09-26 | 2015-03-26 | Qualcomm Incorporated | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
JP2016537839A (ja) * | 2013-09-26 | 2016-12-01 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Hevcにおけるサブ予測ユニット(pu)ベースの時間的動きベクトル予測および3d−hevcにおけるサブpu設計 |
WO2017133243A1 (zh) * | 2016-02-06 | 2017-08-10 | 华为技术有限公司 | 图像编解码方法及装置 |
US20180376161A1 (en) * | 2016-02-06 | 2018-12-27 | Huawei Technologies Co., Ltd. | Image encoding method and apparatus, and image decoding method and apparatus |
JP2019506089A (ja) * | 2016-02-06 | 2019-02-28 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 画像符号化方法及び装置、並びに画像復号方法及び装置 |
JP2020145486A (ja) * | 2017-07-28 | 2020-09-10 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
Non-Patent Citations (1)
Title |
---|
JIANLE CHEN, ET AL.: "Algorithm Description of Joint Exploration Test Model 7 (JEM 7)", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 7TH MEETING: T, vol. JVET-G1001-v1, JPN6022053276, 19 August 2017 (2017-08-19), pages 1 - 44, ISSN: 0005222543 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7216109B2 (ja) | 動画像処理方法、動画像処理装置、及びコンピュータプログラム | |
US20170150172A1 (en) | Picture encoding device, picture encoding method, picture encoding program, picture decoding device, picture decoding method, and picture decoding program | |
TW202025763A (zh) | 視訊編碼系統中結合多重預測子用於區塊預測之方法和裝置 | |
TWI729497B (zh) | 在視頻編解碼系統中組合多個預測子進行塊預測的方法和裝置 | |
WO2019192301A1 (zh) | 视频图像处理方法与装置 | |
CN115152233A (zh) | 包括dpb管理处理的图像解码方法及其设备 | |
WO2019192170A1 (zh) | 视频图像处理方法与装置 | |
JP2024147810A (ja) | 動画像処理方法、動画処理装置、及びビットストリーム生成方法 | |
CN118104234A (zh) | 基于帧内预测模式导出的帧内预测方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240430 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240528 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7497948 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |