JP2021520121A - 動画像処理方法および装置 - Google Patents
動画像処理方法および装置 Download PDFInfo
- Publication number
- JP2021520121A JP2021520121A JP2020553586A JP2020553586A JP2021520121A JP 2021520121 A JP2021520121 A JP 2021520121A JP 2020553586 A JP2020553586 A JP 2020553586A JP 2020553586 A JP2020553586 A JP 2020553586A JP 2021520121 A JP2021520121 A JP 2021520121A
- Authority
- JP
- Japan
- Prior art keywords
- block
- motion vector
- image block
- current image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 29
- 239000013598 vector Substances 0.000 claims abstract description 1378
- 238000000034 method Methods 0.000 claims abstract description 285
- 238000012545 processing Methods 0.000 claims description 229
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 80
- 230000008569 process Effects 0.000 claims description 76
- 230000009466 transformation Effects 0.000 claims description 64
- 238000010276 construction Methods 0.000 claims description 49
- 238000004590 computer program Methods 0.000 claims description 17
- 238000005516 engineering process Methods 0.000 description 44
- 230000007774 longterm Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 15
- 238000006073 displacement reaction Methods 0.000 description 9
- 239000002245 particle Substances 0.000 description 9
- 238000012360 testing method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 108091026890 Coding region Proteins 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000155 isotopic effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
Description
本特許文献に開示されている内容には著作権保護の対象となる材料が含まれている。該著作権は著作権所有者が所有する。著作権所有者は、これらの特許書類または特許開示の何人による複製に対しても、特許庁の公式レコードまたはファイルに表示される通りであれば異議を唱えない。
現在画像ブロックの予め設定されたM個の近傍ブロックのうち、Mよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、
前記現在画像ブロックと前記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロック中の各サブ画像ブロックと1対1に対応させることと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを含む。
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、前記現在画像ブロックのM個の近傍ブロックを確定することと、
前記M個の近傍ブロックのうち、Mより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、
前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、
前記特定候補を用いることを確定した場合、前記現在画像ブロックと前記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロックの各サブ画像ブロックに1対1に対応させることと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを含む。
現在画像ブロックの予め設定されたM個の近傍ブロックのうちMよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、前記現在画像ブロックと前記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロック中の各サブ画像ブロックと1対1に対応させることとのために用いられる構築モジュールと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む。
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、前記現在画像ブロックのM個の近傍ブロックを確定することと、前記M個の近傍ブロックのうちMより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、前記特定候補を用いることを確定した場合、前記現在画像ブロックと前記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロックの各サブ画像ブロックに1対1に対応させることとのために用いられる構築モジュールと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む。
前記参照画像は長期参照画像であること、
前記参照画像は構造参照画像であること、
前記参照画像は非出力画像であることであり、
前記参照画像は非出力画像の場合、さらに前記参照画像が構造参照画像であると判断する。
図9は本出願の実施例によって提供される動画像処理装置900の概略的ブロック図である。該装置900は図7に示される方法の実施例を実行するために用いられる。該装置900は以下のユニットを含む。
現在画像ブロックを複数のサブ画像ブロックに分割することと、
対象近傍ブロックの動きベクトルに基づき、現在画像ブロックの参照画像においてサブ画像ブロックの関連ブロックを確定することのために用いられ、現在画像ブロックの関連ブロックはサブ画像ブロックの関連ブロックを含む。
ここでは、処理後の関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである。
現在画像ブロックの予め設定されたM個の近傍ブロック中のN個の近傍ブロックを順次走査し、走査結果に基づいて対象近傍ブロックを確定し、NはMより小さく、Mは4以下であり、前記対象近傍ブロックの動きベクトル、前記現在の画像ブロックおよび前記現在の画像ブロックの参照画像に基づいて、前記現在画像ブロックの関連ブロックを確定する方法1と、
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づいて現在画像ブロックのM個の近傍ブロックを確定し、該M個の近傍ブロック中のN個の近傍ブロックを順次走査し、走査結果に基づいて対象近傍ブロックを確定し、NはMより小さく、Mは4以下であり、該対象近傍ブロックの動きベクトル、現在の画像ブロックおよび現在の画像ブロックの参照画像に基づいて、前記現在の画像ブロックの関連ブロックを確定する方法2とが含まれる。ここでは、動きベクトル第2候補リスト中のM個の候補とは、現在画像ブロックのM個の近傍ブロックを指してもよい。
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順に応じて第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む。
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づいて前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトルの第1候補リストに入れることと、を含む。
CP1に対し、取得の優先順位は、B2−>B3−>A2である。B2が利用可能な場合、B2のMVを用いてコントロールポイントCP1のMVとし、B2が利用不可なば場合、B3のMVを用いてコントロールポイントCP1のMVとし、B2とB3がすべて利用不可な場合、A1のMVを用いてコントロールポイントCP1のMVとし、B2、B3とA1がすべて利用不可な場合、コントロールポイントCP1の動き情報が得られない。
4パラメータaffineモデルを用いる場合、4つのコントロールポイントのMVのうちの2つを組み合わせると、1つまたは複数の候補を得ることができ、その中の2つの組み合わせ方式、つまり{CP1、CP2}、{CP1、CP3}を選択する。ここでは、組み合わせ方式{CP1、CP3}では、4パラメータモデルに基づいて、選択された2つのコントロールポイントのMVを現在CUの左上隅と右上隅のコントロールポイントのMV(CP1とCP2)に変換する必要がある。
一例において、異なる組み合わせのMV(2個または3個)に使用される参照フレームが異なれば、該組み合わせによって構築された候補が使用不可であると考えられる。
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュール1620とを含む。
前記候補を採用すると確定した場合、前記予測モジュールは前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる。
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中に対応するサブ画像ブロックの動きベクトルとすることを含む。
前記少なくとも1つの候補中の候補を採用することを確定する場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる。
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む。
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとのために用いられる。
前記現在画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記現在画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む。
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトルの第1候補リストに入れることとのために用いられる。
前記一部のコントロールポイントにおける各コントロールポイントに対し、第三走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む。
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる。
動きベクトル第2候補リストを構築し、ここでは、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定するために用いられる。
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む。
前記現在画像ブロックの現在画像上での複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを含む。
予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れるために用いられる。
前記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄するために用いられる。
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む。
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む。
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む。
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む。
前記特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにし、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることを含む。
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む。
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含む。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む。
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定するために用いられる。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュール1720とを含む。
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む。
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む。
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む。
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む。
前記特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにし、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることを含む。
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む。
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含む。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中に対応するサブ画像ブロックの動きベクトルとすることを含む。
前記現在画像ブロックの関連ブロックの代表動きベクトルを前記特定候補として前記動きベクトル第1候補リストに入れることを含む。
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる。
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む。
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れるために用いられる。
前記現在画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記現在画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む。
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトルの第1候補リストに入れることとのために用いられる。
前記一部のコントロールポイントにおける各コントロールポイントに対し、第三走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む。
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定するために用いられる。
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む。
前記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる前記M個の候補を確定することを含む。
前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指す。
Claims (186)
- 動画像処理方法であって、
現在画像ブロックの予め設定されたM個の近傍ブロックのうち、Mよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、
前記現在画像ブロックと前記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロック中の各サブ画像ブロックと1対1に対応させることと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することとを含む、動画像処理方法。 - Nは1または2に等しい、請求項1に記載の方法。
- 前記の前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中の対応するサブ画像ブロックを予測する前に、
前記関連ブロックの代表動きベクトルを候補として動きベクトル第1候補リストに入れることと、
前記候補を採用すると確定した場合、前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することとをさらに含むことを特徴する請求項1または2に記載の方法。 - 前記の前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することは、
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中の対応するサブ画像ブロックの動きベクトルとすることを含む、請求項3に記載の方法。 - 前記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、請求項3に記載の方法。
- 前記関連ブロックの代表動きベクトルは前記関連ブロックの中央位置の動きベクトルを含む、請求項3に記載の方法。
- 前記方法は、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出た場合、前記関連ブロックの代表動きベクトルを前記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、前記現在画像ブロック中の対応するサブ画像ブロックを予測することをさらに含む、請求項3に記載の方法。 - 前記方法は、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ前記関連ブロックの代表動きベクトルが取得不可な場合、前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを放棄することをさらに含む、請求項7に記載の方法。 - 前記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出たことを確定する、請求項8に記載の方法。
- 前記方法は、
他の候補を確定し、前記他の候補を前記動きベクトル第1候補リストに入れることをさらに含み、前記他の候補中の少なくとも1つの候補はサブ画像ブロックの動きベクトルを含む、請求項3に記載の方法。 - 前記方法は、
前記他の候補のうちの1つの候補を採用することを確定した場合、前記採用した候補に基づき前記現在画像ブロック中のサブ画像ブロックの動きベクトルを確定することをさらに含む、請求項10に記載の方法。 - 前記少なくとも1つの候補は一組のコントロールポイントの動きベクトルを含む、請求項10または11に記載の方法。
- 前記方法は、
前記少なくとも1つの候補中の候補を採用することを確定する場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとをさらに含む、請求項10〜12のいずれか一項に記載の方法。 - 前記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、請求項13に記載の方法。 - 前記方法は、
前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとをさらに含む、請求項3〜14のいずれか一項に記載の方法。 - 前記の前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む、請求項15に記載の方法。 - 前記方法は、
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることとをさらに含む、請求項3〜14のいずれか一項に記載の方法。 - 前記の前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することは、
前記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む請求項17に記載の方法。 - 前記方法は、
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄することをさらに含む、請求項17または18に記載の方法。 - 前記方法は、
前記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄することをさらに含む、請求項17または18に記載の方法。 - 前記方法は、
動きベクトル第2候補リストを構築し、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することをさらに含む、請求項3〜15のいずれか一項に記載方法。 - 前記の前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することは、
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む、請求項21に記載の方法。 - 前記の動きベクトル第2候補リストを構築することは、
前記現在画像ブロックの現在画像での複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを含む、請求項21に記載の方法。 - 前記現在画像ブロックの現在画像での複数の近傍ブロックは前記予め設定されたM個の近傍ブロックを含む、請求項23に記載の方法。
- 予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れ、
前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指す、請求項24に記載の方法。 - 前記方法は、
前記M個の近傍ブロックのうちの1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄することをさらに含む、請求項24に記載の方法。 - 前記の前記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、請求項1または26に記載の方法。 - 前記の前記走査した前記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む、請求項19に記載の方法。 - 前記事前設定条件は、
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む、請求項19または28に記載の方法。 - 前記方法は、
前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することをさらに含む、請求項27〜29のいずれか一項に記載の方法。 - 前記の前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む、請求項30に記載の方法。 - 前記特定近傍ブロックは前記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、請求項30に記載の方法。
- 前記の前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記特定近傍ブロックの動きベクトルにスケーリング処理を行って、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにすることと、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることとを含む、請求項30に記載の方法。 - 前記方法は、
前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを前記現在画像ブロックの参照ブロックとすることをさらに含む、請求項27〜30のいずれか一項に記載の方法。 - 前記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、請求項34に記載の方法。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、請求項1〜35のいずれか一項に記載の方法。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、請求項36に記載の方法。
- 現在画像ブロックは1つの符号化ユニットCUである、請求項1〜37のいずれか一項に記載の方法。
- 前記の前記対象近傍ブロックの動きベクトル、前記現在画像ブロックおよび前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することは、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む、請求項1〜38のいずれか一項に記載方法。 - 前記近傍ブロックは前記現在画像において前記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、請求項1〜39のいずれか一項に記載の方法。
- 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項1〜40のいずれか一項に記載の方法。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項41に記載の方法。 - 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である場合、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、請求項1〜40のいずれか一項に記載の方法。 - 前記方法は、
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することをさらに含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項1〜43のいずれか一項に記載の方法。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項44に記載の方法。 - Mは4以下である、請求項1〜45のいずれか一項に記載の方法。
- 動画像処理方法であって、
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、前記現在画像ブロックのM個の近傍ブロックを確定することと、
前記M個の近傍ブロックのうち、Mより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、
前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、
前記特定候補を用いることを確定した場合、前記現在画像ブロックと前記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロックの各サブ画像ブロックに1対1に対応させることと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを含む、動画像処理方法。 - 前記動きベクトル第1候補リストの少なくとも1つの候補がサブ画像ブロックの動きベクトルを含み、前記動きベクトル第2候補リストの各候補が画像ブロックの動きベクトルを含む、請求項47に記載の方法。
- Nは1または2に等しい、請求項47または48に記載の方法。
- 前記M個の候補は前記現在画像ブロックの現在画像でのM個の近傍ブロックの動きベクトルを含む、請求項47〜49のいずれか一項に記載の方法。
- 前記の前記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、請求項50に記載の方法。 - 前記の前記走査した前記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む、請求項50に記載の方法。 - 前記事前設定条件は、
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む、請求項51または52に記載の方法。 - 前記方法は、
前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない時、前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することをさらに含む、請求項51〜53のいずれか一項に記載の方法。 - 前記の前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む、請求項54に記載の方法。 - 前記特定近傍ブロックは前記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、請求項54に記載の方法。
- 前記の前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記特定近傍ブロックの動きベクトルにスケーリング処理を行って、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにすることと、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることとを含む、請求項54に記載の方法。 - 前記方法は、
前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを前記現在画像ブロックの参照ブロックとすることをさらに含む、請求項51〜53のいずれか一項に記載の方法。 - 前記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、請求項58に記載の方法。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、請求項47〜59のいずれか一項に記載の方法。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、請求項60に記載の方法。
- 前記現在画像ブロックは1つの符号化ユニットCUである、請求項47〜61のいずれか一項に記載の方法。
- 前記の前記対象近傍ブロックの動きベクトル、前記現在画像ブロックおよび前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することは、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む、請求項47〜62のいずれか一項に記載方法。 - 前記近傍ブロックは前記現在画像上で前記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、請求項47〜63のいずれか一項に記載の方法。
- 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項47〜64のいずれか一項に記載の方法。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項65に記載の方法。 - 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、請求項47〜64のいずれか一項に記載の方法。 - 前記方法は、
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することをさらに含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項47〜67のいずれか一項に記載の方法。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項68に記載の方法。 - 前記の前記関連ブロック中における各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中における対応するサブ画像ブロックを予測することは、
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中に対応するサブ画像ブロックの動きベクトルとすることを含む、請求項47〜69のいずれか一項に記載の方法。 - 前記の前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することは、
前記現在画像ブロックの関連ブロックの代表動きベクトルを前記特定候補として前記動きベクトル第1候補リストに入れることを含む、請求項47〜69のいずれか一項に記載の方法。 - 前記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、請求項71に記載の方法。
- 前記関連ブロックの代表動きベクトルは前記関連ブロックの中央位置の動きベクトルを含む、請求項71に記載の方法。
- 前記方法は、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出た場合、前記関連ブロックの代表動きベクトルを前記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、前記現在画像ブロック中の対応するサブ画像ブロックを予測することをさらに含む、請求項71に記載の方法。 - 前記方法は、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ前記関連ブロックの代表動きベクトルが取得不可である場合、前記関連ブロック中各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中の対応するサブ画像ブロックを予測することを放棄することをさらに含む、請求項74に記載の方法。 - 前記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、該関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出たことを確定する、請求項74に記載の方法。
- 前記方法は、
前記動きベクトル第2候補リスト中の前記特定候補以外のそのうちの1つの候補を採用することを確定する場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとをさらに含む、請求項47〜76のいずれか一項に記載方法。 - 前記動きベクトル第2候補リスト中の前記特定候補以外の少なくとも1つの候補において、各候補は一組のコントロールポイントの動きベクトルを含む、請求項77に記載の方法。
- 前記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、請求項78に記載の方法。 - 前記方法は、
前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとをさらに含む、請求項47〜79のいずれか一項に記載の方法。 - 前記の前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む、請求項80に記載の方法。 - 前記方法は、
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることをさらに含む、請求項47〜81のいずれか一項に記載の方法。 - 前記の前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することは、
前記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む請求項82に記載の方法。 - 前記方法は、
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄することをさらに含む、請求項82または83に記載の方法。 - 前記方法は、
前記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄することをさらに含む、請求項82または83に記載の方法。 - 前記方法は、
動きベクトル第2候補リストを構築し、ここでは、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することをさらに含む、請求項49〜61に記載の方法。 - 前記の前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することは、
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む、請求項86に記載の方法。 - 前記の動きベクトル第2候補リストを構築することは、
前記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる前記M個の候補を確定することを含む、請求項86に記載の方法。 - 予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れ、前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指すこと、
および/または
前記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄する、請求項88に記載の方法。 - Mは4以下である、請求項47〜89のいずれか一項に記載の方法。
- 動画像処理装置であって、
現在画像ブロックの予め設定されたM個の近傍ブロックのうちMよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、前記現在画像ブロックと前記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロック中の各サブ画像ブロックと1対1に対応させることとのために用いられる構築モジュールと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む、動画像処理装置。 - Nは1または2に等しい、請求項91に記載の動画像処理装置。
- 前記予測モジュールはさらに、
前記の前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中の対応するサブ画像ブロックを予測する前に前記関連ブロックの代表動きベクトルを候補として動きベクトル第1候補リストに入れ、
前記候補を採用すると確定した場合、前記予測モジュールは前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる、請求項91または92に記載の動画像処理装置。 - 前記の前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中における対応するサブ画像ブロックを予測することは、
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中の対応するサブ画像ブロックの動きベクトルとすることを含む、請求項93に記載の動画像処理装置。 - 前記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、請求項93に記載の動画像処理装置。
- 前記関連ブロックの代表動きベクトルは前記関連ブロックの中央位置の動きベクトルを含む、請求項93に記載の動画像処理装置。
- 前記予測モジュールはさらに、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出た場合、前記関連ブロックの代表動きベクトルを前記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、前記現在画像ブロック中の対応するサブ画像ブロックを予測するために用いられる、請求項93に記載の動画像処理装置。 - 前記予測モジュールはさらに、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ前記関連ブロックの代表動きベクトルが取得不可である場合、前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中の対応するサブ画像ブロックを予測することを放棄するために用いられる、請求項97に記載の動画像処理装置。 - 前記予測モジュールはさらに、
前記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、該関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出たことを確定するために用いられる、請求項98に記載の動画像処理装置。 - 前記構築モジュールはさらに、
他の候補を確定し、前記他候補を前記動きベクトル第1候補リストに入れるために用いられ、前記他の候補中の少なくとも1つの候補はサブ画像ブロックの動きベクトルをさらに含む、請求項93に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記他の候補のうちの1つの候補を採用することを確定する場合、前記採用した候補に基づき前記現在画像ブロック中のサブ画像ブロックの動きベクトルを確定するために用いられる、請求項100に記載の動画像処理装置。 - 前記少なくとも1つの候補は一組のコントロールポイントの動きベクトルを含む、請求項100または101に記載の動画像処理装置。
- 前記予測モジュールはさらに、
前記少なくとも1つの候補中の候補を採用することを確定する場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる、請求項100〜102のいずれか一項に記載の動画像処理装置。 - 前記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、請求項103に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとのために用いられる、請求項93〜104のいずれか一項に記載の動画像処理装置。 - 前記の前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む、請求項105に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることのために用いられる、請求項93〜104のいずれか一項に記載の動画像処理装置。 - 前記の前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することは、
前記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む請求項107に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる、請求項107または108に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる、請求項107または108のいずれか一項に記載の動画像処理装置。 - 前記構築モジュールはさらに、
動きベクトル第2候補リストを構築し、ここでは、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定するために用いられる、請求項93〜105のいずれか一項に記載の動画像処理装置。 - 前記の前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することは、
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む、請求項111に記載の動画像処理装置。 - 前記構築動きベクトル第2候補リストは、
前記現在画像ブロックの現在画像上での複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを含む、請求項111に記載の動画像処理装置。 - 前記現在画像ブロックの現在画像上での複数の近傍ブロックは前記予め設定されたM個の近傍ブロックを含む、請求項113に記載の動画像処理装置。
- 前記構築モジュールはさらに、
予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れるために用いられ、
前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指す、請求項114に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄するために用いられる、請求項114に記載の動画像処理装置。 - 前記の前記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、請求項91または116に記載の動画像処理装置。 - 前記の前記走査した前記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む、請求項109に記載の動画像処理装置。 - 前記事前設定条件は、
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む、請求項109または118に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない時、前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行うために用いられ、
前記予測モジュールはさらに、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測するために用いられる、請求項117〜119のいずれか一項に記載の動画像処理装置。 - 前記の前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む、請求項120に記載の動画像処理。 - 前記特定近傍ブロックは前記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、請求項120に記載の動画像処理装置。
- 前記の前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにし、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることを含む、請求項120に記載の動画像処理装置。 - 前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを前記現在画像ブロックの参照ブロックとする、請求項117〜120のいずれか一項に記載の動画像処理装置。
- 前記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、請求項124に記載の動画像処理装置。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、請求項91〜125のいずれか一項に記載の動画像処理装置。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、請求項126に記載の動画像処理装置。
- 前記現在画像ブロックは1つの符号化ユニットCUである、請求項91〜127のいずれか一項に記載の動画像処理装置。
- 前記の前記対象近傍ブロックの動きベクトル、前記現在画像ブロックおよび前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することは、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む、請求項91〜128のいずれか一項に記載の動画像処理装置。 - 前記近傍ブロックは前記現在画像上で前記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、請求項91〜129のいずれか一項に記載の動画像処理装置。
- 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項91〜130のいずれか一項に記載の動画像処理装置。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項131に記載の動画像処理装置。 - 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、請求項91〜130のいずれか一項に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定するために用いられ、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項91〜133のいずれか一項に記載の動画像処理装置。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項134に記載の動画像処理装置。 - Mは4以下である、請求項91〜135のいずれか一項に記載の動画像処理装置。
- 動画像処理装置であって、
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、前記現在画像ブロックのM個の近傍ブロックを確定することと、前記M個の近傍ブロックのうちMより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、前記特定候補を用いることを確定した場合、前記現在画像ブロックと前記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロックの各サブ画像ブロックに1対1に対応させることとのために用いられる構築モジュールと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む、動画像処理装置。 - 前記動きベクトル第1候補リスト中の少なくとも1つの候補はサブ画像ブロックの動きベクトルを含み、前記動きベクトル第2候補リストののうちの各候補は画像ブロックの動きベクトルを含む、請求項137に記載の動画像処理装置。
- Nは1または2に等しい、請求項137または138に記載の動画像処理装置。
- 前記M個の候補は前記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルを含む、請求項137〜139のいずれか一項に記載の動画像処理装置。
- 前記の前記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、140に記載の動画像処理装置。 - 前記の前記走査した前記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む、請求項140に記載の動画像処理装置。 - 前記事前設定条件は、
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む、請求項141または142のいずれか一項に記載の動画像処理装置。 - 前記構築モジュールはさらに、前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行うために用いられ、
前記予測モジュールはさらに、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測するために用いられる、請求項141〜143のいずれか一項に記載の動画像処理装置。 - 前記の前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む、請求項144に記載の動画像処理装置。 - 前記特定近傍ブロックは前記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、請求項144に記載の動画像処理装置。
- 前記の前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにすることと、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることとを含む、請求項144に記載の動画像処理装置。 - 前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを前記現在画像ブロックの参照ブロックとする、請求項141〜143のいずれか一項に記載の動画像処理装置。
- 前記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、請求項148に記載の動画像処理装置。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、請求項137〜149のいずれか一項に記載の動画像処理装置。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、請求項150に記載の動画像処理装置。
- 前記現在画像ブロックは1つの符号化ユニットCUである、請求項137〜151のいずれか一項に記載の動画像処理装置。
- 前記の前記対象近傍ブロックの動きベクトル、前記現在画像ブロックおよび前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することは、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む、請求項137〜152のいずれか一項に記載の動画像処理装置。 - 前記近傍ブロックは前記現在画像上で前記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、請求項137〜153のいずれか一項に記載の動画像処理装置。
- 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項137〜154のいずれか一項に記載の動画像処理装置。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項155に記載の動画像処理装置。 - 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である場合、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、請求項137〜154のいずれか一項に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定するために用いられ、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項137〜157のいずれか一項に記載の動画像処理装置。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項158に記載の動画像処理装置。 - 前記の前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中における対応するサブ画像ブロックを予測することは、
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中の対応するサブ画像ブロックの動きベクトルとすることを含む、請求項137〜159のいずれか一項に記載の動画像処理装置。 - 前記の前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することは、
前記現在画像ブロックの関連ブロックの代表動きベクトルを前記特定候補として前記動きベクトル第1候補リストに入れることを含む、請求項137〜159のいずれか一項に記載の動画像処理装置。 - 前記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、請求項161に記載の動画像処理装置。
- 前記関連ブロックの代表動きベクトルは前記関連ブロックの中央位置の動きベクトルを含む、請求項161に記載の動画像処理装置。
- 前記予測モジュールはさらに、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックがで出ると、前記関連ブロックの代表動きベクトルを前記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、前記現在画像ブロック中の対応するサブ画像ブロックを予測するするために用いられる、請求項161に記載の動画像処理装置。 - 前記予測モジュールはさらに、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ前記関連ブロックの代表動きベクトルが取得不可である場合、前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中の対応するサブ画像ブロックを予測することを放棄するために用いられる、請求項164に記載の動画像処理装置。 - 前記予測モジュールはさらに、
前記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、該関連ブロックに動きベクトルが取得不可なサブ画像ブロックが出たを確定するために用いられる、請求項164に記載の動画像処理装置。 - 前記予測モジュールはさらに、
前記動きベクトル第2候補リスト中の前記特定候補以外のそのうちの1つの候補を採用することを確定した場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる、請求項137〜166のいずれか一項に記載の動画像処理装置。 - 前記動きベクトル第2候補リスト中の前記特定候補以外の少なくとも1つの候補において、各候補は一組のコントロールポイントの動きベクトルを含む、請求項167に記載の動画像処理装置。
- 前記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、請求項168に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとのために用いられる、請求項137〜169のいずれか一項に記載の動画像処理装置。 - 前記の前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む、請求項170に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れるために用いられる、請求項137〜171のいずれか一項に記載の動画像処理装置。 - 前記の前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することは、
前記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む請求項172に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる、請求項172または173に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる、請求項172または173に記載の動画像処理装置。 - 前記構築モジュールはさらに、
動きベクトル第2候補リストを構築し、ここでは、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定するために用いられる、請求項139〜151のいずれか一項に記載の動画像処理装置。 - 前記の前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することは、
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む、請求項176に記載の動画像処理装置。 - 前記の動きベクトル第2候補リストを構築することは、
前記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる前記M個の候補を確定することを含む、請求項176に記載の動画像処理装置。 - 前記構築モジュールはさらに、予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れるために用いられ、前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指すること、
および/または
前記構築モジュールはさらに、前記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄するために用いられる、請求項178に記載の動画像処理装置。 - Mは4以下である、請求項137〜179のいずれか一項に記載の動画像処理装置。
- 動画像処理装置であって、メモリとプロセッサを含み、前記メモリは命令を記憶するために用いられ、前記プロセッサは前記メモリに記憶された命令を実行し、前記メモリに記憶された命令を実行することによって、前記プロセッサは請求項1〜46のいずれか一項に記載の方法を実行するために用いられる、動画像処理装置。
- 動画像処理装置であって、メモリとプロセッサを含み、前記メモリは命令を記憶するために用いられ、前記プロセッサは前記メモリに記憶された命令を実行し、前記メモリに記憶された命令を実行することによって、前記プロセッサは請求項47〜90のいずれか一項に記載の方法を実行するために用いられる、動画像処理装置。
- コンピュータ記憶媒体であって、それにコンピュータプログラムが記憶され、前記コンピュータプログラムはコンピュータに実行されると、前記コンピュータに請求項1〜46のいずれか一項に記載の方法を実行させる、コンピュータ記憶媒体。
- コンピュータ記憶媒体であって、それにコンピュータプログラムが記憶され、前記コンピュータプログラムはコンピュータに実行されると、前記コンピュータに請求項47〜90のいずれか一項に記載の方法を実行させる、コンピュータ記憶媒体。
- 命令を含むコンピュータプログラム製品であって、前記命令がコンピュータに実行されると、コンピュータに請求項1〜46のいずれか一項に記載の方法を実行させる、コンピュータプログラム製品。
- 命令を含むコンピュータプログラム製品であって、前記命令がコンピュータに実行されると、コンピュータに請求項47〜90のいずれか一項に記載の方法を実行させる、コンピュータプログラム製品。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023006258A JP2023052491A (ja) | 2018-04-02 | 2023-01-19 | 動画像処理方法および装置 |
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNPCT/CN2018/081652 | 2018-04-02 | ||
PCT/CN2018/081652 WO2019191890A1 (zh) | 2018-04-02 | 2018-04-02 | 用于图像处理的方法和图像处理装置 |
PCT/CN2018/095710 WO2019192102A1 (zh) | 2018-04-02 | 2018-07-13 | 用于图像运动补偿的方法和装置 |
CNPCT/CN2018/095710 | 2018-07-13 | ||
CNPCT/CN2018/103693 | 2018-08-31 | ||
PCT/CN2018/103693 WO2019192141A1 (zh) | 2018-04-02 | 2018-08-31 | 用于图像运动补偿的方法和装置 |
PCT/CN2018/107436 WO2019192152A1 (zh) | 2018-04-02 | 2018-09-25 | 获取视频图像运动矢量的方法与装置 |
CNPCT/CN2018/107436 | 2018-09-25 | ||
PCT/CN2018/112805 WO2019192170A1 (zh) | 2018-04-02 | 2018-10-30 | 视频图像处理方法与装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023006258A Division JP2023052491A (ja) | 2018-04-02 | 2023-01-19 | 動画像処理方法および装置 |
Publications (4)
Publication Number | Publication Date |
---|---|
JP2021520121A true JP2021520121A (ja) | 2021-08-12 |
JP2021520121A5 JP2021520121A5 (ja) | 2021-12-09 |
JPWO2019192170A5 JPWO2019192170A5 (ja) | 2022-09-14 |
JP7216109B2 JP7216109B2 (ja) | 2023-01-31 |
Family
ID=68099733
Family Applications (11)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553616A Active JP7088606B2 (ja) | 2018-04-02 | 2018-04-02 | 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス |
JP2020553636A Pending JP2021520124A (ja) | 2018-04-02 | 2018-07-13 | 画像動き補償方法及び装置 |
JP2020553654A Active JP7388659B2 (ja) | 2018-04-02 | 2018-08-31 | 動画処理方法、ビットストリーム生成方法、動画処理装置、及びプログラム |
JP2020553580A Active JP7294753B2 (ja) | 2018-04-02 | 2018-09-25 | 動画像処理方法、及び動画像処理装置 |
JP2020553586A Active JP7216109B2 (ja) | 2018-04-02 | 2018-10-30 | 動画像処理方法、動画像処理装置、及びコンピュータプログラム |
JP2020553581A Pending JP2021520120A (ja) | 2018-04-02 | 2019-03-13 | 動画像処理方法および装置 |
JP2022182636A Pending JP2023017981A (ja) | 2018-04-02 | 2022-11-15 | 動画処理方法、エンコーダ、非一時的なコンピュータ可読記憶媒体、及びプログラム |
JP2023006258A Pending JP2023052491A (ja) | 2018-04-02 | 2023-01-19 | 動画像処理方法および装置 |
JP2023092773A Pending JP2023110048A (ja) | 2018-04-02 | 2023-06-05 | 動画像処理方法、動画処理装置、及びビットストリーム生成方法 |
JP2023190720A Pending JP2024010198A (ja) | 2018-04-02 | 2023-11-08 | 動画処理方法、ビットストリーム生成方法、及び動画処理装置 |
JP2024025977A Pending JP2024057014A (ja) | 2018-04-02 | 2024-02-22 | 動画像符号化方法、動画像符号化装置、及びビットストリーム生成方法 |
Family Applications Before (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553616A Active JP7088606B2 (ja) | 2018-04-02 | 2018-04-02 | 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス |
JP2020553636A Pending JP2021520124A (ja) | 2018-04-02 | 2018-07-13 | 画像動き補償方法及び装置 |
JP2020553654A Active JP7388659B2 (ja) | 2018-04-02 | 2018-08-31 | 動画処理方法、ビットストリーム生成方法、動画処理装置、及びプログラム |
JP2020553580A Active JP7294753B2 (ja) | 2018-04-02 | 2018-09-25 | 動画像処理方法、及び動画像処理装置 |
Family Applications After (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553581A Pending JP2021520120A (ja) | 2018-04-02 | 2019-03-13 | 動画像処理方法および装置 |
JP2022182636A Pending JP2023017981A (ja) | 2018-04-02 | 2022-11-15 | 動画処理方法、エンコーダ、非一時的なコンピュータ可読記憶媒体、及びプログラム |
JP2023006258A Pending JP2023052491A (ja) | 2018-04-02 | 2023-01-19 | 動画像処理方法および装置 |
JP2023092773A Pending JP2023110048A (ja) | 2018-04-02 | 2023-06-05 | 動画像処理方法、動画処理装置、及びビットストリーム生成方法 |
JP2023190720A Pending JP2024010198A (ja) | 2018-04-02 | 2023-11-08 | 動画処理方法、ビットストリーム生成方法、及び動画処理装置 |
JP2024025977A Pending JP2024057014A (ja) | 2018-04-02 | 2024-02-22 | 動画像符号化方法、動画像符号化装置、及びビットストリーム生成方法 |
Country Status (6)
Country | Link |
---|---|
US (14) | US11330294B2 (ja) |
EP (6) | EP3780608A4 (ja) |
JP (11) | JP7088606B2 (ja) |
KR (1) | KR20200134319A (ja) |
CN (16) | CN117135346A (ja) |
WO (4) | WO2019191890A1 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116962717A (zh) * | 2018-03-14 | 2023-10-27 | Lx 半导体科技有限公司 | 图像编码/解码方法、存储介质和发送方法 |
JP7088606B2 (ja) | 2018-04-02 | 2022-06-21 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス |
WO2020084554A1 (en) | 2018-10-24 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Searching based motion candidate derivation for sub-block motion vector prediction |
WO2020130710A1 (ko) * | 2018-12-21 | 2020-06-25 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
CN113455002A (zh) * | 2018-12-28 | 2021-09-28 | 瑞典爱立信有限公司 | 生成运动向量预测器列表 |
CN117395397A (zh) | 2019-06-04 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 使用临近块信息的运动候选列表构建 |
CN114097228B (zh) | 2019-06-04 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 具有几何分割模式编解码的运动候选列表 |
JP7460661B2 (ja) | 2019-06-06 | 2024-04-02 | 北京字節跳動網絡技術有限公司 | 映像符号化のための動き候補リストの構成 |
CN114175636B (zh) | 2019-07-14 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 自适应参数集中的自适应环路滤波的指示 |
WO2021018031A1 (en) * | 2019-07-27 | 2021-02-04 | Beijing Bytedance Network Technology Co., Ltd. | Restrictions of usage of tools according to reference picture types |
WO2021032162A1 (en) | 2019-08-20 | 2021-02-25 | Beijing Bytedance Network Technology Co., Ltd. | Signaling for transform skip mode |
EP4011077A4 (en) | 2019-09-13 | 2022-11-30 | Beijing Bytedance Network Technology Co., Ltd. | SAMPLE WEIGHTED BIDIRECTIONAL PREDICTION IN VIDEO CODING |
KR20220061108A (ko) | 2019-09-19 | 2022-05-12 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 비디오 코딩에서 레퍼런스 샘플 위치 유도 |
KR20220066045A (ko) | 2019-09-19 | 2022-05-23 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 비디오 코딩의 스케일링 윈도우 |
WO2021057996A1 (en) | 2019-09-28 | 2021-04-01 | Beijing Bytedance Network Technology Co., Ltd. | Geometric partitioning mode in video coding |
EP4026336A4 (en) | 2019-10-05 | 2022-12-07 | Beijing Bytedance Network Technology Co., Ltd. | LEVEL-BASED SIGNALING OF VIDEO CODING TOOLS |
CN114556918A (zh) * | 2019-10-12 | 2022-05-27 | 北京字节跳动网络技术有限公司 | 细化视频编解码工具的使用和信令 |
JP7414980B2 (ja) | 2019-10-13 | 2024-01-16 | 北京字節跳動網絡技術有限公司 | 参照ピクチャリサンプリングと映像コーディングツールとの間の相互作用 |
CN113727119B (zh) * | 2020-05-20 | 2023-03-17 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器以及计算机存储介质 |
CN111724422B (zh) * | 2020-06-29 | 2024-01-09 | 深圳市慧鲤科技有限公司 | 图像处理方法及装置、电子设备及存储介质 |
CN112132732B (zh) * | 2020-09-10 | 2023-06-02 | 宁波大学科学技术学院 | 立体图像的像素预测方法、可逆信息隐藏提取方法、终端及存储介质 |
WO2022141278A1 (zh) * | 2020-12-30 | 2022-07-07 | 深圳市大疆创新科技有限公司 | 视频处理方法和编码装置 |
WO2023192335A1 (en) * | 2022-03-28 | 2023-10-05 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and devices for candidate derivation for affine merge mode in video coding |
WO2024005456A1 (ko) * | 2022-06-27 | 2024-01-04 | 현대자동차주식회사 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
WO2024005616A1 (ko) * | 2022-07-01 | 2024-01-04 | 엘지전자 주식회사 | 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150085929A1 (en) * | 2013-09-26 | 2015-03-26 | Qualcomm Incorporated | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
WO2017133243A1 (zh) * | 2016-02-06 | 2017-08-10 | 华为技术有限公司 | 图像编解码方法及装置 |
JP2020145486A (ja) * | 2017-07-28 | 2020-09-10 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
Family Cites Families (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1452039B1 (en) | 2001-11-29 | 2008-12-31 | Panasonic Corporation | Coding distortion removal method and video encoding and decoding methods |
JP4130783B2 (ja) * | 2002-04-23 | 2008-08-06 | 松下電器産業株式会社 | 動きベクトル符号化方法および動きベクトル復号化方法 |
KR100491530B1 (ko) * | 2002-05-03 | 2005-05-27 | 엘지전자 주식회사 | 모션 벡터 결정 방법 |
US20050013498A1 (en) * | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
US7660354B2 (en) | 2005-05-11 | 2010-02-09 | Fang Shi | Temporal error concealment for bi-directionally predicted frames |
ZA200900102B (en) * | 2006-07-06 | 2010-05-26 | Thomson Licensing | Method and apparatus for decoupling frame number and/or picture order count (poc) for multi-view video encoding and decoding |
JP2010509799A (ja) * | 2006-11-03 | 2010-03-25 | サムスン エレクトロニクス カンパニー リミテッド | 映像の予測符号化方法及び装置、その復号化方法及び装置 |
JP2009118221A (ja) * | 2007-11-07 | 2009-05-28 | Toshiba Corp | ディジタル画像復号装置及びディジタル画像復号方法 |
CN101873500B (zh) * | 2009-04-24 | 2012-05-23 | 华为技术有限公司 | 帧间预测编码方法、帧间预测解码方法及设备 |
ES2652337T3 (es) * | 2010-02-09 | 2018-02-01 | Nippon Telegraph And Telephone Corporation | Procedimiento de codificación predictiva para vector de movimiento, procedimiento de decodificación predictiva para vector de movimiento, dispositivo de codificación de imagen, dispositivo de decodificación de imagen, y programas para ello |
KR20120009861A (ko) * | 2010-07-22 | 2012-02-02 | 에스케이 텔레콤주식회사 | 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치 |
KR20120016991A (ko) | 2010-08-17 | 2012-02-27 | 오수미 | 인터 프리딕션 방법 |
KR20240034886A (ko) * | 2010-10-08 | 2024-03-14 | 지이 비디오 컴프레션, 엘엘씨 | 블록 분할 및 블록 병합을 지원하는 픽처 코딩 |
US8824558B2 (en) * | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
US8976873B2 (en) * | 2010-11-24 | 2015-03-10 | Stmicroelectronics S.R.L. | Apparatus and method for performing error concealment of inter-coded video frames |
CN107071460B (zh) | 2010-12-14 | 2020-03-06 | M&K控股株式会社 | 用于编码运动画面的设备 |
US9635383B2 (en) | 2011-01-07 | 2017-04-25 | Texas Instruments Incorporated | Method, system and computer program product for computing a motion vector |
US8755437B2 (en) * | 2011-03-17 | 2014-06-17 | Mediatek Inc. | Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate |
CN102611881B (zh) * | 2011-01-19 | 2014-06-25 | 华为技术有限公司 | 参考运动矢量获取方法、模块及编、解码装置 |
KR101484171B1 (ko) * | 2011-01-21 | 2015-01-23 | 에스케이 텔레콤주식회사 | 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법 |
EP3627839B1 (en) * | 2011-03-21 | 2021-10-20 | LG Electronics Inc. | Method for selecting motion vector predictor |
US9247249B2 (en) | 2011-04-20 | 2016-01-26 | Qualcomm Incorporated | Motion vector prediction in video coding |
JP5786478B2 (ja) | 2011-06-15 | 2015-09-30 | 富士通株式会社 | 動画像復号装置、動画像復号方法、及び動画像復号プログラム |
ES2715613T3 (es) * | 2011-06-28 | 2019-06-05 | Lg Electronics Inc | Método para fijar una lista de vectores de movimiento |
BR122015001004B1 (pt) * | 2011-06-30 | 2022-07-26 | Sony Corporation | Dispositivo e método de processamento de imagem |
KR102004113B1 (ko) * | 2011-06-30 | 2019-07-25 | 가부시키가이샤 제이브이씨 켄우드 | 화상 부호화 장치, 화상 부호화 방법, 화상 부호화 프로그램, 화상 복호 장치, 화상 복호 방법 및 화상 복호 프로그램 |
CN105376576B (zh) | 2011-08-29 | 2017-07-28 | 苗太平洋控股有限公司 | 用于解码合并模式下的运动信息的装置 |
CN102447904A (zh) * | 2011-10-24 | 2012-05-09 | 成都虢电智能电力科技有限公司 | 一种快速对视频序列进行运动估计的方法 |
RU2604679C2 (ru) * | 2011-10-27 | 2016-12-10 | Сан Пэтент Траст | Способ кодирования изображений, способ декодирования изображений, устройство кодирования изображений и устройство декодирования изображений |
PL2773111T3 (pl) | 2011-10-28 | 2020-06-29 | Sun Patent Trust | Sposób kodowania obrazów, sposób dekodowania obrazów, urządzenie do kodowania obrazów i urządzenie do dekodowania obrazów |
CN107948656B (zh) | 2011-10-28 | 2021-06-01 | 太阳专利托管公司 | 图像解码方法及图像解码装置 |
TWI569634B (zh) | 2011-10-31 | 2017-02-01 | Jvc Kenwood Corp | Dynamic image decoding device, dynamic image decoding method and dynamic image decoding program |
ES2898887T3 (es) | 2011-11-08 | 2022-03-09 | Nokia Technologies Oy | Manejo de imágenes de referencia |
RU2566973C2 (ru) | 2011-11-08 | 2015-10-27 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для определения вектора движения в кодировании или декодировании видео |
CN107659813B (zh) | 2011-12-23 | 2020-04-17 | 韩国电子通信研究院 | 图像解码方法、图像编码方法和记录介质 |
DK3716621T3 (da) * | 2012-04-12 | 2021-12-06 | Jvc Kenwood Corp | Indretning til kodning af levende billeder, fremgangsmåde til kodning af levende billeder, program til kodning af levende billeder og indretning til afkodning af levende billeder, fremgangsmåde til afkodning af levende billeder, program til afkodning af levende billeder |
JP2013223049A (ja) * | 2012-04-13 | 2013-10-28 | Sharp Corp | 画像復号装置、および画像符号化装置 |
US9979958B2 (en) * | 2012-04-20 | 2018-05-22 | Qualcomm Incorporated | Decoded picture buffer processing for random access point pictures in video sequences |
CN108055551A (zh) * | 2012-07-02 | 2018-05-18 | 三星电子株式会社 | 用于预测对视频进行编码或解码的运动矢量的方法和设备 |
US9325990B2 (en) * | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
CN102883161B (zh) * | 2012-09-19 | 2015-09-30 | 华为技术有限公司 | 视频编码和解码的处理方法和装置 |
US20150350684A1 (en) * | 2012-09-20 | 2015-12-03 | Sony Corporation | Image processing apparatus and method |
US9538180B2 (en) * | 2012-12-17 | 2017-01-03 | Qualcomm Incorporated | Motion vector prediction in video coding |
CN105075269B (zh) * | 2013-04-04 | 2018-07-03 | 夏普株式会社 | 图像解码装置、图像编码装置及计算机可读取的记录介质 |
WO2014167817A1 (en) * | 2013-04-07 | 2014-10-16 | Sharp Kabushiki Kaisha | Signaling change in output layer sets |
US9591321B2 (en) * | 2013-04-07 | 2017-03-07 | Dolby International Ab | Signaling change in output layer sets |
US9930363B2 (en) | 2013-04-12 | 2018-03-27 | Nokia Technologies Oy | Harmonized inter-view and view synthesis prediction for 3D video coding |
EP3021589A4 (en) * | 2013-07-10 | 2017-02-15 | Sharp Kabushiki Kaisha | Image decoding device and image encoding device |
US9894369B2 (en) * | 2013-07-30 | 2018-02-13 | Kt Corporation | Image encoding and decoding method supporting plurality of layers and apparatus using same |
WO2015053286A1 (ja) * | 2013-10-08 | 2015-04-16 | シャープ株式会社 | 画像復号装置、画像符号化装置、及び、符号化データ |
WO2015102042A1 (en) * | 2014-01-02 | 2015-07-09 | Sharp Kabushiki Kaisha | Parameter set signaling |
KR101658192B1 (ko) * | 2014-01-02 | 2016-09-20 | 인텔렉추얼디스커버리 주식회사 | 다시점 영상을 위한 움직임 벡터를 부호화/복호화하는 방법 및 그 장치 |
US20170019666A1 (en) * | 2014-03-13 | 2017-01-19 | Sharp Kabushiki Kaisha | Constrained reference picture parameters |
US9788007B2 (en) * | 2014-06-20 | 2017-10-10 | Qualcomm Incorporated | Profile, tier, level for the 0-th output layer set in video coding |
EP3198872A1 (en) * | 2014-09-26 | 2017-08-02 | VID SCALE, Inc. | Intra block copy coding with temporal block vector prediction |
CN112188204B (zh) | 2014-10-31 | 2024-04-05 | 三星电子株式会社 | 使用高精度跳过编码的视频编码设备和视频解码设备及其方法 |
US9872296B2 (en) | 2015-01-06 | 2018-01-16 | Qualcomm Incorporated | Techniques for beam shaping at a millimeter wave base station and a wireless device and fast antenna subarray selection at a wireless device |
WO2016165069A1 (en) * | 2015-04-14 | 2016-10-20 | Mediatek Singapore Pte. Ltd. | Advanced temporal motion vector prediction in video coding |
EP3342165B1 (en) * | 2015-09-08 | 2021-11-10 | MediaTek Inc. | Method and system of decoded picture buffer for intra block copy mode |
CN106534858B (zh) | 2015-09-10 | 2019-09-06 | 展讯通信(上海)有限公司 | 真实运动估计方法及装置 |
CN114449288A (zh) * | 2016-03-16 | 2022-05-06 | 联发科技股份有限公司 | 视频编码的样式基础的运动向量推导之方法及装置 |
CN108886618A (zh) | 2016-03-24 | 2018-11-23 | Lg 电子株式会社 | 视频编码系统中的帧间预测方法和装置 |
US10560718B2 (en) | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
WO2017205700A1 (en) | 2016-05-25 | 2017-11-30 | Arris Enterprises Llc | Binary, ternary and quad tree partitioning for jvet coding of video data |
EP3497932A4 (en) * | 2016-08-15 | 2020-03-25 | Nokia Technologies Oy | VIDEO CODING AND DECODING |
US11409855B2 (en) * | 2016-08-22 | 2022-08-09 | Lenovo (Singapore) Pte. Ltd. | Gesture based CAPTCHA test |
CN107820095B (zh) * | 2016-09-14 | 2020-01-03 | 北京金山云网络技术有限公司 | 一种长期参考图像选择方法及装置 |
US10812791B2 (en) * | 2016-09-16 | 2020-10-20 | Qualcomm Incorporated | Offset vector identification of temporal motion vector predictor |
EP3301914A1 (en) | 2016-09-30 | 2018-04-04 | Thomson Licensing | Method and apparatus for encoding and decoding a large field of view video |
EP3343924A1 (en) | 2017-01-03 | 2018-07-04 | Thomson Licensing | Method and apparatus for encoding and decoding motion information |
EP3343925A1 (en) | 2017-01-03 | 2018-07-04 | Thomson Licensing | Method and apparatus for encoding and decoding motion information |
US10542280B2 (en) | 2017-01-09 | 2020-01-21 | QUALCOMM Incorpated | Encoding optimization with illumination compensation and integer motion vector restriction |
US20180199057A1 (en) | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
JP7036628B2 (ja) | 2017-03-10 | 2022-03-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
CN109089119B (zh) | 2017-06-13 | 2021-08-13 | 浙江大学 | 一种运动矢量预测的方法及设备 |
KR102408258B1 (ko) * | 2017-09-12 | 2022-06-13 | 삼성전자주식회사 | 움직임 정보의 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치 |
CN107682705B (zh) * | 2017-09-26 | 2020-05-12 | 杭州电子科技大学 | 基于mv-hevc框架的立体视频b帧错误隐藏方法 |
US20190141320A1 (en) * | 2017-11-07 | 2019-05-09 | Qualcomm Incorporated | Enhanced reference picture management in video coding |
US11057640B2 (en) | 2017-11-30 | 2021-07-06 | Lg Electronics Inc. | Image decoding method and apparatus based on inter-prediction in image coding system |
US11323705B2 (en) | 2018-03-09 | 2022-05-03 | Electronics And Telecommunications Research Institute | Image encoding/decoding method and apparatus using sample filtering |
KR102502175B1 (ko) * | 2018-04-01 | 2023-02-21 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
EP3761644A4 (en) | 2018-04-01 | 2021-01-20 | LG Electronics Inc. | PICTURE ENCODING PROCESS ON THE BASIS OF AN APPEAL MOTION PREDICTION AND DEVICE FOR IT |
JP7088606B2 (ja) | 2018-04-02 | 2022-06-21 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス |
CN114697663B (zh) * | 2018-08-17 | 2024-01-30 | 华为技术有限公司 | 对编码视频位流进行解码的方法,解码设备以及译码系统 |
-
2018
- 2018-04-02 JP JP2020553616A patent/JP7088606B2/ja active Active
- 2018-04-02 CN CN202311161948.0A patent/CN117135346A/zh active Pending
- 2018-04-02 WO PCT/CN2018/081652 patent/WO2019191890A1/zh unknown
- 2018-04-02 CN CN202311161992.1A patent/CN117061738A/zh active Pending
- 2018-04-02 EP EP18913497.6A patent/EP3780608A4/en active Pending
- 2018-04-02 CN CN201880012597.8A patent/CN110419217B/zh active Active
- 2018-04-02 CN CN202311156567.3A patent/CN117294837A/zh active Pending
- 2018-07-13 WO PCT/CN2018/095710 patent/WO2019192102A1/zh unknown
- 2018-07-13 CN CN202311002352.6A patent/CN116781928A/zh active Pending
- 2018-07-13 CN CN201880012589.3A patent/CN110419220B/zh active Active
- 2018-07-13 CN CN202311004591.5A patent/CN116760999A/zh active Pending
- 2018-07-13 EP EP18913581.7A patent/EP3783897A4/en not_active Withdrawn
- 2018-07-13 JP JP2020553636A patent/JP2021520124A/ja active Pending
- 2018-08-31 WO PCT/CN2018/103693 patent/WO2019192141A1/zh unknown
- 2018-08-31 CN CN201880042138.4A patent/CN110786012B/zh active Active
- 2018-08-31 JP JP2020553654A patent/JP7388659B2/ja active Active
- 2018-08-31 EP EP18913876.1A patent/EP3780614A4/en active Pending
- 2018-09-25 CN CN202111283215.5A patent/CN113852828B/zh active Active
- 2018-09-25 EP EP18913372.1A patent/EP3780618A4/en not_active Withdrawn
- 2018-09-25 CN CN201880011514.3A patent/CN110326295B/zh active Active
- 2018-09-25 CN CN202111284624.7A patent/CN113824966B/zh active Active
- 2018-09-25 WO PCT/CN2018/107436 patent/WO2019192152A1/zh unknown
- 2018-09-25 JP JP2020553580A patent/JP7294753B2/ja active Active
- 2018-10-30 EP EP18913678.1A patent/EP3780615A4/en not_active Withdrawn
- 2018-10-30 CN CN201880016545.8A patent/CN110495169B/zh active Active
- 2018-10-30 JP JP2020553586A patent/JP7216109B2/ja active Active
- 2018-10-30 CN CN202111455033.1A patent/CN114125440A/zh active Pending
-
2019
- 2019-03-13 CN CN202210376345.1A patent/CN115037942A/zh active Pending
- 2019-03-13 JP JP2020553581A patent/JP2021520120A/ja active Pending
- 2019-03-13 KR KR1020207031587A patent/KR20200134319A/ko active IP Right Grant
- 2019-03-13 CN CN202210376602.1A patent/CN114938452A/zh active Pending
- 2019-03-13 EP EP19781713.3A patent/EP3780619A4/en active Pending
- 2019-03-13 CN CN201980002813.5A patent/CN110720219B/zh active Active
-
2020
- 2020-09-30 US US17/039,924 patent/US11330294B2/en active Active
- 2020-09-30 US US17/039,903 patent/US11190798B2/en active Active
- 2020-09-30 US US17/039,862 patent/US11490118B2/en active Active
- 2020-09-30 US US17/039,841 patent/US11363294B2/en active Active
- 2020-09-30 US US17/039,939 patent/US11368714B2/en active Active
- 2020-09-30 US US17/039,879 patent/US11323742B2/en active Active
-
2021
- 2021-03-08 US US17/195,626 patent/US11350124B2/en active Active
- 2021-04-01 US US17/220,797 patent/US11343534B2/en active Active
- 2021-04-01 US US17/220,756 patent/US11490120B2/en active Active
- 2021-04-01 US US17/220,822 patent/US11381839B2/en active Active
- 2021-04-02 US US17/221,275 patent/US11159821B2/en active Active
-
2022
- 2022-05-23 US US17/664,642 patent/US11949911B2/en active Active
- 2022-06-20 US US17/844,669 patent/US11949912B2/en active Active
- 2022-07-05 US US17/857,485 patent/US11871032B2/en active Active
- 2022-11-15 JP JP2022182636A patent/JP2023017981A/ja active Pending
-
2023
- 2023-01-19 JP JP2023006258A patent/JP2023052491A/ja active Pending
- 2023-06-05 JP JP2023092773A patent/JP2023110048A/ja active Pending
- 2023-11-08 JP JP2023190720A patent/JP2024010198A/ja active Pending
-
2024
- 2024-02-22 JP JP2024025977A patent/JP2024057014A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150085929A1 (en) * | 2013-09-26 | 2015-03-26 | Qualcomm Incorporated | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
JP2016537839A (ja) * | 2013-09-26 | 2016-12-01 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Hevcにおけるサブ予測ユニット(pu)ベースの時間的動きベクトル予測および3d−hevcにおけるサブpu設計 |
WO2017133243A1 (zh) * | 2016-02-06 | 2017-08-10 | 华为技术有限公司 | 图像编解码方法及装置 |
US20180376161A1 (en) * | 2016-02-06 | 2018-12-27 | Huawei Technologies Co., Ltd. | Image encoding method and apparatus, and image decoding method and apparatus |
JP2019506089A (ja) * | 2016-02-06 | 2019-02-28 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 画像符号化方法及び装置、並びに画像復号方法及び装置 |
JP2020145486A (ja) * | 2017-07-28 | 2020-09-10 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
Non-Patent Citations (1)
Title |
---|
JIANLE CHEN, ET AL.: "Algorithm Description of Joint Exploration Test Model 7 (JEM 7)", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 7TH MEETING: T, vol. JVET-G1001-v1, JPN6022053276, 19 August 2017 (2017-08-19), pages 1 - 44, ISSN: 0004947808 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7216109B2 (ja) | 動画像処理方法、動画像処理装置、及びコンピュータプログラム | |
WO2019192301A1 (zh) | 视频图像处理方法与装置 | |
WO2019192170A1 (zh) | 视频图像处理方法与装置 | |
US11997312B2 (en) | Method and device for video image processing | |
US20240137559A1 (en) | Method and device for image motion compensation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211029 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220906 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7216109 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |