JP2021520121A - 動画像処理方法および装置 - Google Patents
動画像処理方法および装置 Download PDFInfo
- Publication number
- JP2021520121A JP2021520121A JP2020553586A JP2020553586A JP2021520121A JP 2021520121 A JP2021520121 A JP 2021520121A JP 2020553586 A JP2020553586 A JP 2020553586A JP 2020553586 A JP2020553586 A JP 2020553586A JP 2021520121 A JP2021520121 A JP 2021520121A
- Authority
- JP
- Japan
- Prior art keywords
- block
- motion vector
- image block
- current image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 29
- 239000013598 vector Substances 0.000 claims abstract description 1378
- 238000000034 method Methods 0.000 claims abstract description 285
- 238000012545 processing Methods 0.000 claims description 229
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 80
- 230000008569 process Effects 0.000 claims description 76
- 230000009466 transformation Effects 0.000 claims description 64
- 238000010276 construction Methods 0.000 claims description 49
- 238000004590 computer program Methods 0.000 claims description 17
- 238000005516 engineering process Methods 0.000 description 44
- 230000007774 longterm Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 15
- 238000006073 displacement reaction Methods 0.000 description 9
- 239000002245 particle Substances 0.000 description 9
- 238000012360 testing method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 108091026890 Coding region Proteins 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000155 isotopic effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/129—Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/573—Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/58—Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/96—Tree coding, e.g. quad-tree coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
Description
本特許文献に開示されている内容には著作権保護の対象となる材料が含まれている。該著作権は著作権所有者が所有する。著作権所有者は、これらの特許書類または特許開示の何人による複製に対しても、特許庁の公式レコードまたはファイルに表示される通りであれば異議を唱えない。
現在画像ブロックの予め設定されたM個の近傍ブロックのうち、Mよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、
前記現在画像ブロックと前記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロック中の各サブ画像ブロックと1対1に対応させることと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを含む。
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、前記現在画像ブロックのM個の近傍ブロックを確定することと、
前記M個の近傍ブロックのうち、Mより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、
前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、
前記特定候補を用いることを確定した場合、前記現在画像ブロックと前記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロックの各サブ画像ブロックに1対1に対応させることと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを含む。
現在画像ブロックの予め設定されたM個の近傍ブロックのうちMよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、前記現在画像ブロックと前記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロック中の各サブ画像ブロックと1対1に対応させることとのために用いられる構築モジュールと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む。
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、前記現在画像ブロックのM個の近傍ブロックを確定することと、前記M個の近傍ブロックのうちMより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、前記特定候補を用いることを確定した場合、前記現在画像ブロックと前記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロックの各サブ画像ブロックに1対1に対応させることとのために用いられる構築モジュールと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む。
前記参照画像は長期参照画像であること、
前記参照画像は構造参照画像であること、
前記参照画像は非出力画像であることであり、
前記参照画像は非出力画像の場合、さらに前記参照画像が構造参照画像であると判断する。
図9は本出願の実施例によって提供される動画像処理装置900の概略的ブロック図である。該装置900は図7に示される方法の実施例を実行するために用いられる。該装置900は以下のユニットを含む。
現在画像ブロックを複数のサブ画像ブロックに分割することと、
対象近傍ブロックの動きベクトルに基づき、現在画像ブロックの参照画像においてサブ画像ブロックの関連ブロックを確定することのために用いられ、現在画像ブロックの関連ブロックはサブ画像ブロックの関連ブロックを含む。
ここでは、処理後の関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである。
現在画像ブロックの予め設定されたM個の近傍ブロック中のN個の近傍ブロックを順次走査し、走査結果に基づいて対象近傍ブロックを確定し、NはMより小さく、Mは4以下であり、前記対象近傍ブロックの動きベクトル、前記現在の画像ブロックおよび前記現在の画像ブロックの参照画像に基づいて、前記現在画像ブロックの関連ブロックを確定する方法1と、
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づいて現在画像ブロックのM個の近傍ブロックを確定し、該M個の近傍ブロック中のN個の近傍ブロックを順次走査し、走査結果に基づいて対象近傍ブロックを確定し、NはMより小さく、Mは4以下であり、該対象近傍ブロックの動きベクトル、現在の画像ブロックおよび現在の画像ブロックの参照画像に基づいて、前記現在の画像ブロックの関連ブロックを確定する方法2とが含まれる。ここでは、動きベクトル第2候補リスト中のM個の候補とは、現在画像ブロックのM個の近傍ブロックを指してもよい。
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順に応じて第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む。
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づいて前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトルの第1候補リストに入れることと、を含む。
CP1に対し、取得の優先順位は、B2−>B3−>A2である。B2が利用可能な場合、B2のMVを用いてコントロールポイントCP1のMVとし、B2が利用不可なば場合、B3のMVを用いてコントロールポイントCP1のMVとし、B2とB3がすべて利用不可な場合、A1のMVを用いてコントロールポイントCP1のMVとし、B2、B3とA1がすべて利用不可な場合、コントロールポイントCP1の動き情報が得られない。
4パラメータaffineモデルを用いる場合、4つのコントロールポイントのMVのうちの2つを組み合わせると、1つまたは複数の候補を得ることができ、その中の2つの組み合わせ方式、つまり{CP1、CP2}、{CP1、CP3}を選択する。ここでは、組み合わせ方式{CP1、CP3}では、4パラメータモデルに基づいて、選択された2つのコントロールポイントのMVを現在CUの左上隅と右上隅のコントロールポイントのMV(CP1とCP2)に変換する必要がある。
一例において、異なる組み合わせのMV(2個または3個)に使用される参照フレームが異なれば、該組み合わせによって構築された候補が使用不可であると考えられる。
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュール1620とを含む。
前記候補を採用すると確定した場合、前記予測モジュールは前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる。
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中に対応するサブ画像ブロックの動きベクトルとすることを含む。
前記少なくとも1つの候補中の候補を採用することを確定する場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる。
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む。
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとのために用いられる。
前記現在画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記現在画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む。
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトルの第1候補リストに入れることとのために用いられる。
前記一部のコントロールポイントにおける各コントロールポイントに対し、第三走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む。
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる。
動きベクトル第2候補リストを構築し、ここでは、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定するために用いられる。
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む。
前記現在画像ブロックの現在画像上での複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを含む。
予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れるために用いられる。
前記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄するために用いられる。
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む。
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む。
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む。
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む。
前記特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにし、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることを含む。
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む。
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含む。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む。
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定するために用いられる。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュール1720とを含む。
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む。
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む。
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む。
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む。
前記特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにし、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることを含む。
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む。
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含む。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む。
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む。
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中に対応するサブ画像ブロックの動きベクトルとすることを含む。
前記現在画像ブロックの関連ブロックの代表動きベクトルを前記特定候補として前記動きベクトル第1候補リストに入れることを含む。
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる。
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む。
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れるために用いられる。
前記現在画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記現在画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイント動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む。
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトルの第1候補リストに入れることとのために用いられる。
前記一部のコントロールポイントにおける各コントロールポイントに対し、第三走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む。
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定するために用いられる。
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む。
前記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる前記M個の候補を確定することを含む。
前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指す。
Claims (186)
- 動画像処理方法であって、
現在画像ブロックの予め設定されたM個の近傍ブロックのうち、Mよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、
前記現在画像ブロックと前記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロック中の各サブ画像ブロックと1対1に対応させることと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することとを含む、動画像処理方法。 - Nは1または2に等しい、請求項1に記載の方法。
- 前記の前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中の対応するサブ画像ブロックを予測する前に、
前記関連ブロックの代表動きベクトルを候補として動きベクトル第1候補リストに入れることと、
前記候補を採用すると確定した場合、前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することとをさらに含むことを特徴する請求項1または2に記載の方法。 - 前記の前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することは、
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中の対応するサブ画像ブロックの動きベクトルとすることを含む、請求項3に記載の方法。 - 前記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、請求項3に記載の方法。
- 前記関連ブロックの代表動きベクトルは前記関連ブロックの中央位置の動きベクトルを含む、請求項3に記載の方法。
- 前記方法は、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出た場合、前記関連ブロックの代表動きベクトルを前記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、前記現在画像ブロック中の対応するサブ画像ブロックを予測することをさらに含む、請求項3に記載の方法。 - 前記方法は、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ前記関連ブロックの代表動きベクトルが取得不可な場合、前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを放棄することをさらに含む、請求項7に記載の方法。 - 前記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出たことを確定する、請求項8に記載の方法。
- 前記方法は、
他の候補を確定し、前記他の候補を前記動きベクトル第1候補リストに入れることをさらに含み、前記他の候補中の少なくとも1つの候補はサブ画像ブロックの動きベクトルを含む、請求項3に記載の方法。 - 前記方法は、
前記他の候補のうちの1つの候補を採用することを確定した場合、前記採用した候補に基づき前記現在画像ブロック中のサブ画像ブロックの動きベクトルを確定することをさらに含む、請求項10に記載の方法。 - 前記少なくとも1つの候補は一組のコントロールポイントの動きベクトルを含む、請求項10または11に記載の方法。
- 前記方法は、
前記少なくとも1つの候補中の候補を採用することを確定する場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとをさらに含む、請求項10〜12のいずれか一項に記載の方法。 - 前記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、請求項13に記載の方法。 - 前記方法は、
前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとをさらに含む、請求項3〜14のいずれか一項に記載の方法。 - 前記の前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む、請求項15に記載の方法。 - 前記方法は、
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることとをさらに含む、請求項3〜14のいずれか一項に記載の方法。 - 前記の前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することは、
前記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む請求項17に記載の方法。 - 前記方法は、
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄することをさらに含む、請求項17または18に記載の方法。 - 前記方法は、
前記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄することをさらに含む、請求項17または18に記載の方法。 - 前記方法は、
動きベクトル第2候補リストを構築し、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することをさらに含む、請求項3〜15のいずれか一項に記載方法。 - 前記の前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することは、
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む、請求項21に記載の方法。 - 前記の動きベクトル第2候補リストを構築することは、
前記現在画像ブロックの現在画像での複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを含む、請求項21に記載の方法。 - 前記現在画像ブロックの現在画像での複数の近傍ブロックは前記予め設定されたM個の近傍ブロックを含む、請求項23に記載の方法。
- 予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れ、
前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指す、請求項24に記載の方法。 - 前記方法は、
前記M個の近傍ブロックのうちの1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄することをさらに含む、請求項24に記載の方法。 - 前記の前記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、請求項1または26に記載の方法。 - 前記の前記走査した前記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む、請求項19に記載の方法。 - 前記事前設定条件は、
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む、請求項19または28に記載の方法。 - 前記方法は、
前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することをさらに含む、請求項27〜29のいずれか一項に記載の方法。 - 前記の前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む、請求項30に記載の方法。 - 前記特定近傍ブロックは前記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、請求項30に記載の方法。
- 前記の前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記特定近傍ブロックの動きベクトルにスケーリング処理を行って、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにすることと、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることとを含む、請求項30に記載の方法。 - 前記方法は、
前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを前記現在画像ブロックの参照ブロックとすることをさらに含む、請求項27〜30のいずれか一項に記載の方法。 - 前記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、請求項34に記載の方法。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、請求項1〜35のいずれか一項に記載の方法。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、請求項36に記載の方法。
- 現在画像ブロックは1つの符号化ユニットCUである、請求項1〜37のいずれか一項に記載の方法。
- 前記の前記対象近傍ブロックの動きベクトル、前記現在画像ブロックおよび前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することは、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む、請求項1〜38のいずれか一項に記載方法。 - 前記近傍ブロックは前記現在画像において前記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、請求項1〜39のいずれか一項に記載の方法。
- 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項1〜40のいずれか一項に記載の方法。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項41に記載の方法。 - 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である場合、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、請求項1〜40のいずれか一項に記載の方法。 - 前記方法は、
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することをさらに含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項1〜43のいずれか一項に記載の方法。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項44に記載の方法。 - Mは4以下である、請求項1〜45のいずれか一項に記載の方法。
- 動画像処理方法であって、
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、前記現在画像ブロックのM個の近傍ブロックを確定することと、
前記M個の近傍ブロックのうち、Mより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、
前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、
前記特定候補を用いることを確定した場合、前記現在画像ブロックと前記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロックの各サブ画像ブロックに1対1に対応させることと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測することを含む、動画像処理方法。 - 前記動きベクトル第1候補リストの少なくとも1つの候補がサブ画像ブロックの動きベクトルを含み、前記動きベクトル第2候補リストの各候補が画像ブロックの動きベクトルを含む、請求項47に記載の方法。
- Nは1または2に等しい、請求項47または48に記載の方法。
- 前記M個の候補は前記現在画像ブロックの現在画像でのM個の近傍ブロックの動きベクトルを含む、請求項47〜49のいずれか一項に記載の方法。
- 前記の前記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、請求項50に記載の方法。 - 前記の前記走査した前記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む、請求項50に記載の方法。 - 前記事前設定条件は、
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む、請求項51または52に記載の方法。 - 前記方法は、
前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない時、前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することをさらに含む、請求項51〜53のいずれか一項に記載の方法。 - 前記の前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む、請求項54に記載の方法。 - 前記特定近傍ブロックは前記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、請求項54に記載の方法。
- 前記の前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記特定近傍ブロックの動きベクトルにスケーリング処理を行って、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにすることと、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることとを含む、請求項54に記載の方法。 - 前記方法は、
前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを前記現在画像ブロックの参照ブロックとすることをさらに含む、請求項51〜53のいずれか一項に記載の方法。 - 前記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、請求項58に記載の方法。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、請求項47〜59のいずれか一項に記載の方法。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、請求項60に記載の方法。
- 前記現在画像ブロックは1つの符号化ユニットCUである、請求項47〜61のいずれか一項に記載の方法。
- 前記の前記対象近傍ブロックの動きベクトル、前記現在画像ブロックおよび前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することは、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む、請求項47〜62のいずれか一項に記載方法。 - 前記近傍ブロックは前記現在画像上で前記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、請求項47〜63のいずれか一項に記載の方法。
- 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項47〜64のいずれか一項に記載の方法。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項65に記載の方法。 - 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、請求項47〜64のいずれか一項に記載の方法。 - 前記方法は、
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することをさらに含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項47〜67のいずれか一項に記載の方法。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項68に記載の方法。 - 前記の前記関連ブロック中における各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中における対応するサブ画像ブロックを予測することは、
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中に対応するサブ画像ブロックの動きベクトルとすることを含む、請求項47〜69のいずれか一項に記載の方法。 - 前記の前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することは、
前記現在画像ブロックの関連ブロックの代表動きベクトルを前記特定候補として前記動きベクトル第1候補リストに入れることを含む、請求項47〜69のいずれか一項に記載の方法。 - 前記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、請求項71に記載の方法。
- 前記関連ブロックの代表動きベクトルは前記関連ブロックの中央位置の動きベクトルを含む、請求項71に記載の方法。
- 前記方法は、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出た場合、前記関連ブロックの代表動きベクトルを前記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、前記現在画像ブロック中の対応するサブ画像ブロックを予測することをさらに含む、請求項71に記載の方法。 - 前記方法は、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ前記関連ブロックの代表動きベクトルが取得不可である場合、前記関連ブロック中各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中の対応するサブ画像ブロックを予測することを放棄することをさらに含む、請求項74に記載の方法。 - 前記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、該関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出たことを確定する、請求項74に記載の方法。
- 前記方法は、
前記動きベクトル第2候補リスト中の前記特定候補以外のそのうちの1つの候補を採用することを確定する場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとをさらに含む、請求項47〜76のいずれか一項に記載方法。 - 前記動きベクトル第2候補リスト中の前記特定候補以外の少なくとも1つの候補において、各候補は一組のコントロールポイントの動きベクトルを含む、請求項77に記載の方法。
- 前記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、請求項78に記載の方法。 - 前記方法は、
前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとをさらに含む、請求項47〜79のいずれか一項に記載の方法。 - 前記の前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む、請求項80に記載の方法。 - 前記方法は、
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることをさらに含む、請求項47〜81のいずれか一項に記載の方法。 - 前記の前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することは、
前記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む請求項82に記載の方法。 - 前記方法は、
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄することをさらに含む、請求項82または83に記載の方法。 - 前記方法は、
前記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄することをさらに含む、請求項82または83に記載の方法。 - 前記方法は、
動きベクトル第2候補リストを構築し、ここでは、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することをさらに含む、請求項49〜61に記載の方法。 - 前記の前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することは、
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む、請求項86に記載の方法。 - 前記の動きベクトル第2候補リストを構築することは、
前記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる前記M個の候補を確定することを含む、請求項86に記載の方法。 - 予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れ、前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指すこと、
および/または
前記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄する、請求項88に記載の方法。 - Mは4以下である、請求項47〜89のいずれか一項に記載の方法。
- 動画像処理装置であって、
現在画像ブロックの予め設定されたM個の近傍ブロックのうちMよりも小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、前記現在画像ブロックと前記関連ブロックを同じ方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロック中の各サブ画像ブロックと1対1に対応させることとのために用いられる構築モジュールと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む、動画像処理装置。 - Nは1または2に等しい、請求項91に記載の動画像処理装置。
- 前記予測モジュールはさらに、
前記の前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中の対応するサブ画像ブロックを予測する前に前記関連ブロックの代表動きベクトルを候補として動きベクトル第1候補リストに入れ、
前記候補を採用すると確定した場合、前記予測モジュールは前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる、請求項91または92に記載の動画像処理装置。 - 前記の前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中における対応するサブ画像ブロックを予測することは、
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中の対応するサブ画像ブロックの動きベクトルとすることを含む、請求項93に記載の動画像処理装置。 - 前記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、請求項93に記載の動画像処理装置。
- 前記関連ブロックの代表動きベクトルは前記関連ブロックの中央位置の動きベクトルを含む、請求項93に記載の動画像処理装置。
- 前記予測モジュールはさらに、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出た場合、前記関連ブロックの代表動きベクトルを前記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、前記現在画像ブロック中の対応するサブ画像ブロックを予測するために用いられる、請求項93に記載の動画像処理装置。 - 前記予測モジュールはさらに、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ前記関連ブロックの代表動きベクトルが取得不可である場合、前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中の対応するサブ画像ブロックを予測することを放棄するために用いられる、請求項97に記載の動画像処理装置。 - 前記予測モジュールはさらに、
前記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、該関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出たことを確定するために用いられる、請求項98に記載の動画像処理装置。 - 前記構築モジュールはさらに、
他の候補を確定し、前記他候補を前記動きベクトル第1候補リストに入れるために用いられ、前記他の候補中の少なくとも1つの候補はサブ画像ブロックの動きベクトルをさらに含む、請求項93に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記他の候補のうちの1つの候補を採用することを確定する場合、前記採用した候補に基づき前記現在画像ブロック中のサブ画像ブロックの動きベクトルを確定するために用いられる、請求項100に記載の動画像処理装置。 - 前記少なくとも1つの候補は一組のコントロールポイントの動きベクトルを含む、請求項100または101に記載の動画像処理装置。
- 前記予測モジュールはさらに、
前記少なくとも1つの候補中の候補を採用することを確定する場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる、請求項100〜102のいずれか一項に記載の動画像処理装置。 - 前記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、請求項103に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとのために用いられる、請求項93〜104のいずれか一項に記載の動画像処理装置。 - 前記の前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む、請求項105に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることのために用いられる、請求項93〜104のいずれか一項に記載の動画像処理装置。 - 前記の前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することは、
前記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む請求項107に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる、請求項107または108に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる、請求項107または108のいずれか一項に記載の動画像処理装置。 - 前記構築モジュールはさらに、
動きベクトル第2候補リストを構築し、ここでは、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定するために用いられる、請求項93〜105のいずれか一項に記載の動画像処理装置。 - 前記の前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することは、
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む、請求項111に記載の動画像処理装置。 - 前記構築動きベクトル第2候補リストは、
前記現在画像ブロックの現在画像上での複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを含む、請求項111に記載の動画像処理装置。 - 前記現在画像ブロックの現在画像上での複数の近傍ブロックは前記予め設定されたM個の近傍ブロックを含む、請求項113に記載の動画像処理装置。
- 前記構築モジュールはさらに、
予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れるために用いられ、
前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指す、請求項114に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄するために用いられる、請求項114に記載の動画像処理装置。 - 前記の前記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、請求項91または116に記載の動画像処理装置。 - 前記の前記走査した前記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む、請求項109に記載の動画像処理装置。 - 前記事前設定条件は、
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む、請求項109または118に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない時、前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行うために用いられ、
前記予測モジュールはさらに、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測するために用いられる、請求項117〜119のいずれか一項に記載の動画像処理装置。 - 前記の前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む、請求項120に記載の動画像処理。 - 前記特定近傍ブロックは前記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、請求項120に記載の動画像処理装置。
- 前記の前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにし、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることを含む、請求項120に記載の動画像処理装置。 - 前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを前記現在画像ブロックの参照ブロックとする、請求項117〜120のいずれか一項に記載の動画像処理装置。
- 前記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、請求項124に記載の動画像処理装置。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、請求項91〜125のいずれか一項に記載の動画像処理装置。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、請求項126に記載の動画像処理装置。
- 前記現在画像ブロックは1つの符号化ユニットCUである、請求項91〜127のいずれか一項に記載の動画像処理装置。
- 前記の前記対象近傍ブロックの動きベクトル、前記現在画像ブロックおよび前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することは、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む、請求項91〜128のいずれか一項に記載の動画像処理装置。 - 前記近傍ブロックは前記現在画像上で前記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、請求項91〜129のいずれか一項に記載の動画像処理装置。
- 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項91〜130のいずれか一項に記載の動画像処理装置。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項131に記載の動画像処理装置。 - 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である時、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、請求項91〜130のいずれか一項に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定するために用いられ、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項91〜133のいずれか一項に記載の動画像処理装置。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項134に記載の動画像処理装置。 - Mは4以下である、請求項91〜135のいずれか一項に記載の動画像処理装置。
- 動画像処理装置であって、
現在画像ブロックの動きベクトル第2候補リスト中のM個の候補に基づき、前記現在画像ブロックのM個の近傍ブロックを確定することと、前記M個の近傍ブロックのうちMより小さいN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することと、前記対象近傍ブロックの動きベクトル、前記現在画像ブロック、および前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することと、前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することと、前記特定候補を用いることを確定した場合、前記現在画像ブロックと前記関連ブロックを同じの方法で複数のサブ画像ブロックに分割し、前記現在画像ブロック中の各サブ画像ブロックは、前記関連ブロックの各サブ画像ブロックに1対1に対応させることとのために用いられる構築モジュールと、
前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づき、前記現在画像ブロック中の対応するサブ画像ブロックをそれぞれ予測するために用いられる予測モジュールとを含む、動画像処理装置。 - 前記動きベクトル第1候補リスト中の少なくとも1つの候補はサブ画像ブロックの動きベクトルを含み、前記動きベクトル第2候補リストののうちの各候補は画像ブロックの動きベクトルを含む、請求項137に記載の動画像処理装置。
- Nは1または2に等しい、請求項137または138に記載の動画像処理装置。
- 前記M個の候補は前記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルを含む、請求項137〜139のいずれか一項に記載の動画像処理装置。
- 前記の前記M個の近傍ブロックのうちのN個の近傍ブロックを順次走査し、走査結果に基づき対象近傍ブロックを確定することは、
前記N個の近傍ブロックを順次走査し、1つ目の事前設定条件に符合する近傍ブロックまで走査すると、走査を停止し、かつ前記走査した1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することを含む、140に記載の動画像処理装置。 - 前記の前記走査した前記1つ目の事前設定条件に符合する近傍ブロックに基づき対象近傍ブロックを確定することは、
前記1つ目の事前設定条件に符合する近傍ブロックを前記対象近傍ブロックとすることを含む、請求項140に記載の動画像処理装置。 - 前記事前設定条件は、
近傍ブロックの参照画像と前記現在画像ブロックの参照画像が同じであることを含む、請求項141または142のいずれか一項に記載の動画像処理装置。 - 前記構築モジュールはさらに、前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行うために用いられ、
前記予測モジュールはさらに、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測するために用いられる、請求項141〜143のいずれか一項に記載の動画像処理装置。 - 前記の前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記スケーリング処理後の動きベクトルと前記現在画像ブロックの参照画像に基づき前記現在画像ブロックの参照ブロックを確定することを含む、請求項144に記載の動画像処理装置。 - 前記特定近傍ブロックは前記N個の近傍ブロックのうち、走査順で得られた1つ目の近傍ブロックまたは最後の近傍ブロックである、請求項144に記載の動画像処理装置。
- 前記の前記M個の近傍ブロック中の特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルに基づき前記現在画像ブロックを予測することは、
前記特定近傍ブロックの動きベクトルにスケーリング処理を行い、前記スケーリング処理後の動きベクトルが指す参照フレームが前記現在画像ブロックの参照画像と同じになるようにすることと、
前記スケーリング処理後の動きベクトルの前記現在画像ブロックの参照画像中で指す画像ブロックを前記現在画像ブロックの参照ブロックとすることとを含む、請求項144に記載の動画像処理装置。 - 前記N個の近傍ブロック中に前記事前設定条件に符合する近傍ブロックが走査されていない場合、デフォルトブロックを前記現在画像ブロックの参照ブロックとする、請求項141〜143のいずれか一項に記載の動画像処理装置。
- 前記デフォルトブロックは動きベクトル(0,0)が指す画像ブロックである、請求項148に記載の動画像処理装置。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは64以上の画素に固定される、請求項137〜149のいずれか一項に記載の動画像処理装置。
- 前記サブ画像ブロックのサイズおよび/または前記サブ画像ブロックの関連ブロックのサイズは8×8画素、または16×4画素または4×16画素に固定される、請求項150に記載の動画像処理装置。
- 前記現在画像ブロックは1つの符号化ユニットCUである、請求項137〜151のいずれか一項に記載の動画像処理装置。
- 前記の前記対象近傍ブロックの動きベクトル、前記現在画像ブロックおよび前記現在画像ブロックの参照画像に基づき、前記現在画像ブロックの関連ブロックを確定することは、
前記対象近傍ブロックの動きベクトル、前記現在画像ブロックの参照画像において、前記現在画像ブロックの関連ブロックを確定することを含む、請求項137〜152のいずれか一項に記載の動画像処理装置。 - 前記近傍ブロックは前記現在画像上で前記現在画像ブロックの位置に隣接しまたはある位置ピッチを有する画像ブロックである、請求項137〜153のいずれか一項に記載の動画像処理装置。
- 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在画像ブロックの参照画像が特定参照画像である時、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定することを含み、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項137〜154のいずれか一項に記載の動画像処理装置。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項155に記載の動画像処理装置。 - 前記の前記関連ブロックの動きベクトルに基づき前記現在画像ブロックを予測することは、
前記関連ブロックの参照画像が特定参照画像、または現在のブロックの参照画像が特定参照画像である場合、前記関連ブロックの動きベクトルに基づき現在画像ブロックの参照ブロックを確定することを放棄することを含む、請求項137〜154のいずれか一項に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記近傍ブロックの動きベクトルが特定参照画像を指し、または現在画像ブロックの参照画像が特定参照画像である場合、処理後の前記関連ブロックの動きベクトルと前記現在画像ブロックの参照画像に基づき現在画像ブロックの参照ブロックを確定するために用いられ、
前記処理後の前記関連ブロックの動きベクトルと処理前の関連ブロックの動きベクトルは同じである、請求項137〜157のいずれか一項に記載の動画像処理装置。 - 前記処理後の前記関連ブロックの動きベクトルは、
数値が1の縮尺で前記関連ブロックの動きベクトルをスケーリングした後に得られた動きベクトル、または、
スケーリングステップをスキップした前記関連ブロックの動きベクトルを含む、請求項158に記載の動画像処理装置。 - 前記の前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中における対応するサブ画像ブロックを予測することは、
前記関連ブロック中の各サブ画像ブロックの動きベクトルを、それぞれ前記現在画像ブロック中の対応するサブ画像ブロックの動きベクトルとすることを含む、請求項137〜159のいずれか一項に記載の動画像処理装置。 - 前記の前記現在画像ブロックの関連ブロックに基づき前記現在画像ブロックの動きベクトル第1候補リスト中の特定候補を確定することは、
前記現在画像ブロックの関連ブロックの代表動きベクトルを前記特定候補として前記動きベクトル第1候補リストに入れることを含む、請求項137〜159のいずれか一項に記載の動画像処理装置。 - 前記関連ブロックの代表動きベクトルを1つ目の候補として動きベクトル第1候補リストに入れる、請求項161に記載の動画像処理装置。
- 前記関連ブロックの代表動きベクトルは前記関連ブロックの中央位置の動きベクトルを含む、請求項161に記載の動画像処理装置。
- 前記予測モジュールはさらに、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックがで出ると、前記関連ブロックの代表動きベクトルを前記動きベクトルが取得不可なサブ画像ブロックの動きベクトルとし、前記現在画像ブロック中の対応するサブ画像ブロックを予測するするために用いられる、請求項161に記載の動画像処理装置。 - 前記予測モジュールはさらに、
前記関連ブロック中に動きベクトルが取得不可なサブ画像ブロックが出ており、かつ前記関連ブロックの代表動きベクトルが取得不可である場合、前記関連ブロック中の各サブ画像ブロックの動きベクトルに基づきそれぞれ前記現在画像ブロック中の対応するサブ画像ブロックを予測することを放棄するために用いられる、請求項164に記載の動画像処理装置。 - 前記予測モジュールはさらに、
前記関連ブロック中のサブ画像ブロックが取得不可であり、または関連ブロック中のサブ画像ブロックがフレーム内符号化モードを用いる場合、該関連ブロックに動きベクトルが取得不可なサブ画像ブロックが出たを確定するために用いられる、請求項164に記載の動画像処理装置。 - 前記予測モジュールはさらに、
前記動きベクトル第2候補リスト中の前記特定候補以外のそのうちの1つの候補を採用することを確定した場合、アフィン変換モデルに基づき前記採用した候補にアフィン変換を行うことと、
前記アフィン変換後の候補に基づき前記現在画像ブロック中のサブ画像ブロックを予測することとのために用いられる、請求項137〜166のいずれか一項に記載の動画像処理装置。 - 前記動きベクトル第2候補リスト中の前記特定候補以外の少なくとも1つの候補において、各候補は一組のコントロールポイントの動きベクトルを含む、請求項167に記載の動画像処理装置。
- 前記アフィン変換モデルは4パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は2つのコントロールポイントの動きベクトルを含み、
前記アフィン変換モデルは6パラメータアフィン変換モデルを含む場合、前記少なくとも1つの候補において、各候補は3つのコントロールポイントの動きベクトルを含む、請求項168に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することと、
それぞれの確定された近傍ブロックのコントロールポイント動きベクトル群を1つの候補として前記動きベクトル第1候補リストに入れることとのために用いられる、請求項137〜169のいずれか一項に記載の動画像処理装置。 - 前記の前記現在画像ブロックの近傍ブロックから、特定走査順でアフィン変換モードを採用して予測を行う近傍ブロックのコントロールポイント動きベクトル群を確定することは、
前記現在の画像ブロックの左側近傍ブロックにおいて第1走査順で第1近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記現在の画像ブロックの上側近傍ブロックにおいて第2走査順で第2近傍ブロックのコントロールポイントの動きベクトル群を確定することと、
前記第1近傍ブロックのコントロールポイントの動きベクトル群と前記第2近傍ブロックのコントロールポイントの動きベクトル群を前記動きベクトルの第1候補リストに入れることと、を含む、請求項170に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することと、
前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れるために用いられる、請求項137〜171のいずれか一項に記載の動画像処理装置。 - 前記の前記現在画像ブロックの一部のコントロールポイントの近傍ブロックに基づき前記一部のコントロールポイントの動きベクトルを構築することは、
前記一部のコントロールポイントにおける各コントロールポイントに対し、第3走査順で前記コントロールポイントの特定近傍ブロックを順次走査し、事前設定条件を満たす特定近傍ブロックの動きベクトルを前記コントロールポイントの動きベクトルとすることを含む請求項172に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記一部のコントロールポイントの動きベクトルがそれぞれ異なる参照フレームを指す時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる、請求項172または173に記載の動画像処理装置。 - 前記構築モジュールはさらに、
前記動きベクトル第1候補リスト中の候補の数量が予め設定された数値より大きい時、前記現在画像ブロックの一部のコントロールポイントの動きベクトルを前記動きベクトル第1候補リストに入れることを放棄するために用いられる、請求項172または173に記載の動画像処理装置。 - 前記構築モジュールはさらに、
動きベクトル第2候補リストを構築し、ここでは、前記動きベクトル第2候補リストに入れる候補は1つの画像ブロックの動きベクトルであり、
前記動きベクトル第2候補リスト中の候補を採用することを確定した場合、前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定するために用いられる、請求項139〜151のいずれか一項に記載の動画像処理装置。 - 前記の前記候補の動きベクトルに基づき前記現在画像ブロックの動きベクトルを確定することは、
前記の採用することを確定した候補を前記現在画像ブロックの動きベクトルとし、または前記採用することを確定した候補をスケーリングした後に前記現在画像ブロックの動きベクトルとすることを含む、請求項176に記載の動画像処理装置。 - 前記の動きベクトル第2候補リストを構築することは、
前記現在画像ブロックの現在画像上でのM個の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる前記M個の候補を確定することを含む、請求項176に記載の動画像処理装置。 - 前記構築モジュールはさらに、予め設定された順で順に前記予め設定されたM個の近傍ブロックの動きベクトルをそれぞれM個の候補として、前記動きベクトル第2候補リストに入れるために用いられ、前記N個の近傍ブロックとは、前記予め設定された順で最初に確定されたN個の近傍ブロックを指すること、
および/または
前記構築モジュールはさらに、前記M個の近傍ブロック中の1つのまたは複数の近傍ブロックの動きベクトルが取得不可である場合、前記1つのまたは複数の近傍ブロックの動きベクトルに基づき前記動きベクトル第2候補リストに入れる候補を確定することを放棄するために用いられる、請求項178に記載の動画像処理装置。 - Mは4以下である、請求項137〜179のいずれか一項に記載の動画像処理装置。
- 動画像処理装置であって、メモリとプロセッサを含み、前記メモリは命令を記憶するために用いられ、前記プロセッサは前記メモリに記憶された命令を実行し、前記メモリに記憶された命令を実行することによって、前記プロセッサは請求項1〜46のいずれか一項に記載の方法を実行するために用いられる、動画像処理装置。
- 動画像処理装置であって、メモリとプロセッサを含み、前記メモリは命令を記憶するために用いられ、前記プロセッサは前記メモリに記憶された命令を実行し、前記メモリに記憶された命令を実行することによって、前記プロセッサは請求項47〜90のいずれか一項に記載の方法を実行するために用いられる、動画像処理装置。
- コンピュータ記憶媒体であって、それにコンピュータプログラムが記憶され、前記コンピュータプログラムはコンピュータに実行されると、前記コンピュータに請求項1〜46のいずれか一項に記載の方法を実行させる、コンピュータ記憶媒体。
- コンピュータ記憶媒体であって、それにコンピュータプログラムが記憶され、前記コンピュータプログラムはコンピュータに実行されると、前記コンピュータに請求項47〜90のいずれか一項に記載の方法を実行させる、コンピュータ記憶媒体。
- 命令を含むコンピュータプログラム製品であって、前記命令がコンピュータに実行されると、コンピュータに請求項1〜46のいずれか一項に記載の方法を実行させる、コンピュータプログラム製品。
- 命令を含むコンピュータプログラム製品であって、前記命令がコンピュータに実行されると、コンピュータに請求項47〜90のいずれか一項に記載の方法を実行させる、コンピュータプログラム製品。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023006258A JP7497948B2 (ja) | 2018-04-02 | 2023-01-19 | 動画像処理方法および装置 |
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/081652 WO2019191890A1 (zh) | 2018-04-02 | 2018-04-02 | 用于图像处理的方法和图像处理装置 |
CNPCT/CN2018/081652 | 2018-04-02 | ||
PCT/CN2018/095710 WO2019192102A1 (zh) | 2018-04-02 | 2018-07-13 | 用于图像运动补偿的方法和装置 |
CNPCT/CN2018/095710 | 2018-07-13 | ||
CNPCT/CN2018/103693 | 2018-08-31 | ||
PCT/CN2018/103693 WO2019192141A1 (zh) | 2018-04-02 | 2018-08-31 | 用于图像运动补偿的方法和装置 |
CNPCT/CN2018/107436 | 2018-09-25 | ||
PCT/CN2018/107436 WO2019192152A1 (zh) | 2018-04-02 | 2018-09-25 | 获取视频图像运动矢量的方法与装置 |
PCT/CN2018/112805 WO2019192170A1 (zh) | 2018-04-02 | 2018-10-30 | 视频图像处理方法与装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023006258A Division JP7497948B2 (ja) | 2018-04-02 | 2023-01-19 | 動画像処理方法および装置 |
Publications (4)
Publication Number | Publication Date |
---|---|
JP2021520121A true JP2021520121A (ja) | 2021-08-12 |
JP2021520121A5 JP2021520121A5 (ja) | 2021-12-09 |
JPWO2019192170A5 JPWO2019192170A5 (ja) | 2022-09-14 |
JP7216109B2 JP7216109B2 (ja) | 2023-01-31 |
Family
ID=68099733
Family Applications (10)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553616A Active JP7088606B2 (ja) | 2018-04-02 | 2018-04-02 | 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス |
JP2020553636A Pending JP2021520124A (ja) | 2018-04-02 | 2018-07-13 | 画像動き補償方法及び装置 |
JP2020553654A Active JP7388659B2 (ja) | 2018-04-02 | 2018-08-31 | 動画処理方法、ビットストリーム生成方法、動画処理装置、及びプログラム |
JP2020553580A Active JP7294753B2 (ja) | 2018-04-02 | 2018-09-25 | 動画像処理方法、及び動画像処理装置 |
JP2020553586A Active JP7216109B2 (ja) | 2018-04-02 | 2018-10-30 | 動画像処理方法、動画像処理装置、及びコンピュータプログラム |
JP2020553581A Pending JP2021520120A (ja) | 2018-04-02 | 2019-03-13 | 動画像処理方法および装置 |
JP2022182636A Pending JP2023017981A (ja) | 2018-04-02 | 2022-11-15 | 動画処理方法、エンコーダ、非一時的なコンピュータ可読記憶媒体、及びプログラム |
JP2023092773A Pending JP2023110048A (ja) | 2018-04-02 | 2023-06-05 | 動画像処理方法、動画処理装置、及びビットストリーム生成方法 |
JP2023190720A Pending JP2024010198A (ja) | 2018-04-02 | 2023-11-08 | 動画処理方法、ビットストリーム生成方法、及び動画処理装置 |
JP2024025977A Pending JP2024057014A (ja) | 2018-04-02 | 2024-02-22 | 動画像符号化方法、動画像符号化装置、及びビットストリーム生成方法 |
Family Applications Before (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553616A Active JP7088606B2 (ja) | 2018-04-02 | 2018-04-02 | 動画処理方法、画像処理装置、プログラム、符号化デバイス、及び復号化デバイス |
JP2020553636A Pending JP2021520124A (ja) | 2018-04-02 | 2018-07-13 | 画像動き補償方法及び装置 |
JP2020553654A Active JP7388659B2 (ja) | 2018-04-02 | 2018-08-31 | 動画処理方法、ビットストリーム生成方法、動画処理装置、及びプログラム |
JP2020553580A Active JP7294753B2 (ja) | 2018-04-02 | 2018-09-25 | 動画像処理方法、及び動画像処理装置 |
Family Applications After (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020553581A Pending JP2021520120A (ja) | 2018-04-02 | 2019-03-13 | 動画像処理方法および装置 |
JP2022182636A Pending JP2023017981A (ja) | 2018-04-02 | 2022-11-15 | 動画処理方法、エンコーダ、非一時的なコンピュータ可読記憶媒体、及びプログラム |
JP2023092773A Pending JP2023110048A (ja) | 2018-04-02 | 2023-06-05 | 動画像処理方法、動画処理装置、及びビットストリーム生成方法 |
JP2023190720A Pending JP2024010198A (ja) | 2018-04-02 | 2023-11-08 | 動画処理方法、ビットストリーム生成方法、及び動画処理装置 |
JP2024025977A Pending JP2024057014A (ja) | 2018-04-02 | 2024-02-22 | 動画像符号化方法、動画像符号化装置、及びビットストリーム生成方法 |
Country Status (6)
Country | Link |
---|---|
US (16) | US11368714B2 (ja) |
EP (6) | EP3780608A4 (ja) |
JP (10) | JP7088606B2 (ja) |
KR (1) | KR20200134319A (ja) |
CN (16) | CN117135346A (ja) |
WO (4) | WO2019191890A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190108506A (ko) * | 2018-03-14 | 2019-09-24 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
CN117135346A (zh) | 2018-04-02 | 2023-11-28 | 深圳市大疆创新科技有限公司 | 用于图像处理的方法和图像处理装置 |
CN115250350B (zh) * | 2018-09-03 | 2024-04-09 | 华为技术有限公司 | 运动矢量的获取方法、装置、计算机设备及存储介质 |
WO2020084553A1 (en) | 2018-10-24 | 2020-04-30 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidate derivation based on multiple information in sub-block motion vector prediction |
WO2020130710A1 (ko) * | 2018-12-21 | 2020-06-25 | 한국전자통신연구원 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
EP3903495A4 (en) * | 2018-12-28 | 2022-03-16 | Telefonaktiebolaget Lm Ericsson (Publ) | GENERATION OF A LIST OF MOTION VECTOR PREDICTORS |
EP3963890A4 (en) | 2019-06-04 | 2022-11-02 | Beijing Bytedance Network Technology Co., Ltd. | BUILDING A LIST OF MOVEMENT CANDIDATES USING NEIGHBOR BLOCK INFORMATION |
CN114097228B (zh) | 2019-06-04 | 2023-12-15 | 北京字节跳动网络技术有限公司 | 具有几何分割模式编解码的运动候选列表 |
CN113994699B (zh) | 2019-06-06 | 2024-01-12 | 北京字节跳动网络技术有限公司 | 视频编解码的运动候选列表构建 |
EP3984215A4 (en) | 2019-07-14 | 2022-08-24 | Beijing Bytedance Network Technology Co., Ltd. | TRANSFORM BLOCK SIZE RESTRICTION IN VIDEO CODING |
CN117560490A (zh) * | 2019-07-27 | 2024-02-13 | 北京字节跳动网络技术有限公司 | 根据参考图片类型使用工具的限制 |
CN114270838B (zh) | 2019-08-20 | 2024-04-12 | 北京字节跳动网络技术有限公司 | 变换跳过模式的信令通知 |
JP7323710B2 (ja) | 2019-09-13 | 2023-08-08 | 北京字節跳動網絡技術有限公司 | 映像符号化における重み付けサンプルの双予測 |
CN114503574A (zh) | 2019-09-19 | 2022-05-13 | 北京字节跳动网络技术有限公司 | 视频编解码中的缩放窗口 |
BR112022005293A2 (pt) | 2019-09-19 | 2022-09-20 | Beijing Bytedance Network Tech Co Ltd | Método de processamento de vídeo, aparelho para processar dados de vídeo e meios de armazenamento e de gravação não transitórios legíveis por computador |
WO2021057996A1 (en) | 2019-09-28 | 2021-04-01 | Beijing Bytedance Network Technology Co., Ltd. | Geometric partitioning mode in video coding |
KR20220070437A (ko) | 2019-10-05 | 2022-05-31 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 비디오 코딩 툴의 레벨 기반 시그널링 |
EP4042678A4 (en) | 2019-10-12 | 2023-01-18 | Beijing Bytedance Network Technology Co., Ltd. | USE AND REPORTING OF REFINEMENT VIDEO CODING TOOLS |
JP7414980B2 (ja) | 2019-10-13 | 2024-01-16 | 北京字節跳動網絡技術有限公司 | 参照ピクチャリサンプリングと映像コーディングツールとの間の相互作用 |
CN113727119B (zh) * | 2020-05-20 | 2023-03-17 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器以及计算机存储介质 |
CN111724422B (zh) * | 2020-06-29 | 2024-01-09 | 深圳市慧鲤科技有限公司 | 图像处理方法及装置、电子设备及存储介质 |
CN112132732B (zh) * | 2020-09-10 | 2023-06-02 | 宁波大学科学技术学院 | 立体图像的像素预测方法、可逆信息隐藏提取方法、终端及存储介质 |
WO2022141278A1 (zh) * | 2020-12-30 | 2022-07-07 | 深圳市大疆创新科技有限公司 | 视频处理方法和编码装置 |
WO2023192335A1 (en) * | 2022-03-28 | 2023-10-05 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and devices for candidate derivation for affine merge mode in video coding |
WO2024005456A1 (ko) * | 2022-06-27 | 2024-01-04 | 현대자동차주식회사 | 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 |
WO2024005616A1 (ko) * | 2022-07-01 | 2024-01-04 | 엘지전자 주식회사 | 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150085929A1 (en) * | 2013-09-26 | 2015-03-26 | Qualcomm Incorporated | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
WO2017133243A1 (zh) * | 2016-02-06 | 2017-08-10 | 华为技术有限公司 | 图像编解码方法及装置 |
JP2020145486A (ja) * | 2017-07-28 | 2020-09-10 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
Family Cites Families (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2754625T3 (es) * | 2001-11-29 | 2020-04-20 | Godo Kaisha Ip Bridge 1 | Método de extracción de distorsión de codificación |
JP4130783B2 (ja) * | 2002-04-23 | 2008-08-06 | 松下電器産業株式会社 | 動きベクトル符号化方法および動きベクトル復号化方法 |
KR100491530B1 (ko) * | 2002-05-03 | 2005-05-27 | 엘지전자 주식회사 | 모션 벡터 결정 방법 |
US20050013498A1 (en) * | 2003-07-18 | 2005-01-20 | Microsoft Corporation | Coding of motion vector information |
US7660354B2 (en) | 2005-05-11 | 2010-02-09 | Fang Shi | Temporal error concealment for bi-directionally predicted frames |
ZA200900102B (en) * | 2006-07-06 | 2010-05-26 | Thomson Licensing | Method and apparatus for decoupling frame number and/or picture order count (poc) for multi-view video encoding and decoding |
JP2010509799A (ja) * | 2006-11-03 | 2010-03-25 | サムスン エレクトロニクス カンパニー リミテッド | 映像の予測符号化方法及び装置、その復号化方法及び装置 |
JP2009118221A (ja) * | 2007-11-07 | 2009-05-28 | Toshiba Corp | ディジタル画像復号装置及びディジタル画像復号方法 |
CN101873500B (zh) * | 2009-04-24 | 2012-05-23 | 华为技术有限公司 | 帧间预测编码方法、帧间预测解码方法及设备 |
EP2536150B1 (en) * | 2010-02-09 | 2017-09-13 | Nippon Telegraph And Telephone Corporation | Predictive coding method for motion vector, predictive decoding method for motion vector, video coding device, video decoding device, and programs therefor |
KR20120009861A (ko) * | 2010-07-22 | 2012-02-02 | 에스케이 텔레콤주식회사 | 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치 |
KR20120016991A (ko) | 2010-08-17 | 2012-02-27 | 오수미 | 인터 프리딕션 방법 |
KR101952103B1 (ko) * | 2010-10-08 | 2019-02-27 | 지이 비디오 컴프레션, 엘엘씨 | 블록 분할 및 블록 병합을 지원하는 픽처 코딩 |
US8824558B2 (en) | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
US8976873B2 (en) * | 2010-11-24 | 2015-03-10 | Stmicroelectronics S.R.L. | Apparatus and method for performing error concealment of inter-coded video frames |
CN107071459B (zh) | 2010-12-14 | 2020-01-03 | M&K控股株式会社 | 用于编码运动画面的设备 |
US9635383B2 (en) | 2011-01-07 | 2017-04-25 | Texas Instruments Incorporated | Method, system and computer program product for computing a motion vector |
US8755437B2 (en) * | 2011-03-17 | 2014-06-17 | Mediatek Inc. | Method and apparatus for derivation of spatial motion vector candidate and motion vector prediction candidate |
CN102611881B (zh) * | 2011-01-19 | 2014-06-25 | 华为技术有限公司 | 参考运动矢量获取方法、模块及编、解码装置 |
KR101484171B1 (ko) * | 2011-01-21 | 2015-01-23 | 에스케이 텔레콤주식회사 | 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법 |
HRP20230425T1 (hr) * | 2011-03-21 | 2023-07-07 | Lg Electronics, Inc. | Odabir prediktora vektora kretanja |
US9247249B2 (en) * | 2011-04-20 | 2016-01-26 | Qualcomm Incorporated | Motion vector prediction in video coding |
JP5786478B2 (ja) | 2011-06-15 | 2015-09-30 | 富士通株式会社 | 動画像復号装置、動画像復号方法、及び動画像復号プログラム |
EP3481066B1 (en) * | 2011-06-28 | 2021-05-19 | LG Electronics Inc. | Method for deriving a motion vector predictor |
CN105430390B (zh) * | 2011-06-30 | 2017-04-12 | Jvc建伍株式会社 | 图像解码装置、图像解码方法、接收装置及接收方法 |
BR122015001002B1 (pt) * | 2011-06-30 | 2022-07-26 | Sony Corporation | Dispositivo e método de processamento de imagem |
CN107360432A (zh) | 2011-08-29 | 2017-11-17 | 苗太平洋控股有限公司 | 用于解码合并模式下的运动信息的装置 |
CN102447904A (zh) * | 2011-10-24 | 2012-05-09 | 成都虢电智能电力科技有限公司 | 一种快速对视频序列进行运动估计的方法 |
JP5320525B1 (ja) * | 2011-10-27 | 2013-10-23 | パナソニック株式会社 | 予測動きベクトル導出方法および予測動きベクトル導出装置 |
ES2780188T3 (es) | 2011-10-28 | 2020-08-24 | Sun Patent Trust | Método de codificación de imagen, método de decodificación de imagen, aparato de codificación de imagen y aparato de decodificación de imagen |
EP2773111B1 (en) | 2011-10-28 | 2020-01-01 | Sun Patent Trust | Image encoding method, image decoding method, image encoding device, and image decoding device |
TWI569634B (zh) | 2011-10-31 | 2017-02-01 | Jvc Kenwood Corp | Dynamic image decoding device, dynamic image decoding method and dynamic image decoding program |
ES2898887T3 (es) * | 2011-11-08 | 2022-03-09 | Nokia Technologies Oy | Manejo de imágenes de referencia |
BR112014010966A2 (pt) * | 2011-11-08 | 2017-06-06 | Samsung Electronics Co Ltd | método para determinar vetor de movimento para previsão inter, aparelho determinador de vetor de movimento para previsão inter, e mídia de gravação legível por computador |
CN107659813B (zh) | 2011-12-23 | 2020-04-17 | 韩国电子通信研究院 | 图像解码方法、图像编码方法和记录介质 |
ES2951398T3 (es) | 2012-04-12 | 2023-10-20 | Jvckenwood Corp | Construcción de listas de candidatos a fusión |
JP2013223049A (ja) * | 2012-04-13 | 2013-10-28 | Sharp Corp | 画像復号装置、および画像符号化装置 |
US10051264B2 (en) * | 2012-04-20 | 2018-08-14 | Qualcomm Incorporated | Marking reference pictures in video sequences having broken link pictures |
RU2624578C2 (ru) | 2012-07-02 | 2017-07-04 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для прогнозирования вектора движения для кодирования видео или декодирования видео |
US9325990B2 (en) | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
CN102883161B (zh) * | 2012-09-19 | 2015-09-30 | 华为技术有限公司 | 视频编码和解码的处理方法和装置 |
WO2014045954A1 (ja) * | 2012-09-20 | 2014-03-27 | ソニー株式会社 | 画像処理装置および方法 |
US9538180B2 (en) * | 2012-12-17 | 2017-01-03 | Qualcomm Incorporated | Motion vector prediction in video coding |
JP6352248B2 (ja) * | 2013-04-04 | 2018-07-04 | シャープ株式会社 | 画像復号装置、および画像符号化装置 |
CN109379603A (zh) * | 2013-04-07 | 2019-02-22 | 杜比国际公司 | 用信号通知输出层集的改变 |
US9591321B2 (en) * | 2013-04-07 | 2017-03-07 | Dolby International Ab | Signaling change in output layer sets |
US9930363B2 (en) | 2013-04-12 | 2018-03-27 | Nokia Technologies Oy | Harmonized inter-view and view synthesis prediction for 3D video coding |
US20160191933A1 (en) * | 2013-07-10 | 2016-06-30 | Sharp Kabushiki Kaisha | Image decoding device and image coding device |
US9894369B2 (en) * | 2013-07-30 | 2018-02-13 | Kt Corporation | Image encoding and decoding method supporting plurality of layers and apparatus using same |
CN105612745A (zh) * | 2013-10-08 | 2016-05-25 | 夏普株式会社 | 图像解码装置、图像编码装置以及编码数据 |
DK3958572T3 (da) * | 2014-01-02 | 2024-03-04 | Dolby Laboratories Licensing Corp | Fremgangsmåde til kodning af multi-visnings-video, fremgangsmåde til afkodning af multi-visnings-video og lagringsmedium dertil |
US20170026655A1 (en) * | 2014-01-02 | 2017-01-26 | Sharp Kabushiki Kaisha | Parameter set signaling |
US20170019666A1 (en) * | 2014-03-13 | 2017-01-19 | Sharp Kabushiki Kaisha | Constrained reference picture parameters |
US9788007B2 (en) * | 2014-06-20 | 2017-10-10 | Qualcomm Incorporated | Profile, tier, level for the 0-th output layer set in video coding |
JP2017532885A (ja) * | 2014-09-26 | 2017-11-02 | ヴィド スケール インコーポレイテッド | 時間ブロックベクトル予測を用いたイントラブロックコピー符号化 |
CN107113440B (zh) * | 2014-10-31 | 2020-10-13 | 三星电子株式会社 | 一种由视频解码装置执行的视频解码方法 |
US9872296B2 (en) | 2015-01-06 | 2018-01-16 | Qualcomm Incorporated | Techniques for beam shaping at a millimeter wave base station and a wireless device and fast antenna subarray selection at a wireless device |
WO2016165069A1 (en) * | 2015-04-14 | 2016-10-20 | Mediatek Singapore Pte. Ltd. | Advanced temporal motion vector prediction in video coding |
US10462468B2 (en) * | 2015-09-08 | 2019-10-29 | Mediatek Inc. | Method and system of decoded picture buffer for intra block copy mode |
CN106534858B (zh) | 2015-09-10 | 2019-09-06 | 展讯通信(上海)有限公司 | 真实运动估计方法及装置 |
CN114466193A (zh) * | 2016-03-16 | 2022-05-10 | 联发科技股份有限公司 | 视频编码的样式基础的运动向量推导之方法及装置 |
WO2017164441A1 (ko) | 2016-03-24 | 2017-09-28 | 엘지전자 주식회사 | 비디오 코딩 시스템에서 인터 예측 방법 및 장치 |
US10560718B2 (en) | 2016-05-13 | 2020-02-11 | Qualcomm Incorporated | Merge candidates for motion vector prediction for video coding |
CA3025334C (en) | 2016-05-25 | 2021-07-13 | Arris Enterprises Llc | Binary ternary quad tree partitioning for jvet coding of video data |
WO2018033661A1 (en) | 2016-08-15 | 2018-02-22 | Nokia Technologies Oy | Video encoding and decoding |
US11409855B2 (en) * | 2016-08-22 | 2022-08-09 | Lenovo (Singapore) Pte. Ltd. | Gesture based CAPTCHA test |
CN107820095B (zh) * | 2016-09-14 | 2020-01-03 | 北京金山云网络技术有限公司 | 一种长期参考图像选择方法及装置 |
US10812791B2 (en) * | 2016-09-16 | 2020-10-20 | Qualcomm Incorporated | Offset vector identification of temporal motion vector predictor |
EP3301914A1 (en) | 2016-09-30 | 2018-04-04 | Thomson Licensing | Method and apparatus for encoding and decoding a large field of view video |
EP3343924A1 (en) | 2017-01-03 | 2018-07-04 | Thomson Licensing | Method and apparatus for encoding and decoding motion information |
EP3343925A1 (en) | 2017-01-03 | 2018-07-04 | Thomson Licensing | Method and apparatus for encoding and decoding motion information |
US10542280B2 (en) | 2017-01-09 | 2020-01-21 | QUALCOMM Incorpated | Encoding optimization with illumination compensation and integer motion vector restriction |
US20180199057A1 (en) | 2017-01-12 | 2018-07-12 | Mediatek Inc. | Method and Apparatus of Candidate Skipping for Predictor Refinement in Video Coding |
JP7036628B2 (ja) * | 2017-03-10 | 2022-03-15 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
CN109089119B (zh) * | 2017-06-13 | 2021-08-13 | 浙江大学 | 一种运动矢量预测的方法及设备 |
EP3651463A4 (en) * | 2017-09-12 | 2021-05-19 | Samsung Electronics Co., Ltd. | MOVEMENT INFORMATION CODING AND DECODING PROCESS AND MOVEMENT INFORMATION CODING AND DECODING DEVICE |
CN107682705B (zh) * | 2017-09-26 | 2020-05-12 | 杭州电子科技大学 | 基于mv-hevc框架的立体视频b帧错误隐藏方法 |
US20190141320A1 (en) * | 2017-11-07 | 2019-05-09 | Qualcomm Incorporated | Enhanced reference picture management in video coding |
KR102387363B1 (ko) * | 2017-11-30 | 2022-04-18 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인터 예측에 따른 영상 디코딩 방법 및 장치 |
EP3764645A4 (en) | 2018-03-09 | 2021-12-08 | Electronics and Telecommunications Research Institute | METHOD AND APPARATUS FOR IMAGE CODING / DECODING USING SAMPLE FILTER |
WO2019194514A1 (ko) | 2018-04-01 | 2019-10-10 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN116684638A (zh) | 2018-04-01 | 2023-09-01 | Lg电子株式会社 | 图像编码/解码方法、视频数据发送方法和存储介质 |
CN117135346A (zh) | 2018-04-02 | 2023-11-28 | 深圳市大疆创新科技有限公司 | 用于图像处理的方法和图像处理装置 |
EP3831064B1 (en) * | 2018-08-17 | 2024-02-07 | Huawei Technologies Co., Ltd. | Reference picture management in video coding |
-
2018
- 2018-04-02 CN CN202311161948.0A patent/CN117135346A/zh active Pending
- 2018-04-02 CN CN201880012597.8A patent/CN110419217B/zh active Active
- 2018-04-02 WO PCT/CN2018/081652 patent/WO2019191890A1/zh unknown
- 2018-04-02 EP EP18913497.6A patent/EP3780608A4/en active Pending
- 2018-04-02 CN CN202311156567.3A patent/CN117294837A/zh active Pending
- 2018-04-02 JP JP2020553616A patent/JP7088606B2/ja active Active
- 2018-04-02 CN CN202311161992.1A patent/CN117061738A/zh active Pending
- 2018-07-13 CN CN201880012589.3A patent/CN110419220B/zh active Active
- 2018-07-13 CN CN202311002352.6A patent/CN116781928A/zh active Pending
- 2018-07-13 EP EP18913581.7A patent/EP3783897A4/en not_active Withdrawn
- 2018-07-13 CN CN202311004591.5A patent/CN116760999A/zh active Pending
- 2018-07-13 JP JP2020553636A patent/JP2021520124A/ja active Pending
- 2018-07-13 WO PCT/CN2018/095710 patent/WO2019192102A1/zh unknown
- 2018-08-31 CN CN201880042138.4A patent/CN110786012B/zh active Active
- 2018-08-31 WO PCT/CN2018/103693 patent/WO2019192141A1/zh unknown
- 2018-08-31 EP EP18913876.1A patent/EP3780614A4/en active Pending
- 2018-08-31 JP JP2020553654A patent/JP7388659B2/ja active Active
- 2018-09-25 CN CN201880011514.3A patent/CN110326295B/zh active Active
- 2018-09-25 CN CN202111283215.5A patent/CN113852828B/zh active Active
- 2018-09-25 WO PCT/CN2018/107436 patent/WO2019192152A1/zh unknown
- 2018-09-25 JP JP2020553580A patent/JP7294753B2/ja active Active
- 2018-09-25 EP EP18913372.1A patent/EP3780618A4/en not_active Withdrawn
- 2018-09-25 CN CN202111284624.7A patent/CN113824966B/zh active Active
- 2018-10-30 JP JP2020553586A patent/JP7216109B2/ja active Active
- 2018-10-30 EP EP18913678.1A patent/EP3780615A4/en not_active Withdrawn
- 2018-10-30 CN CN202111455033.1A patent/CN114125440A/zh active Pending
- 2018-10-30 CN CN201880016545.8A patent/CN110495169B/zh active Active
-
2019
- 2019-03-13 CN CN201980002813.5A patent/CN110720219B/zh active Active
- 2019-03-13 CN CN202210376345.1A patent/CN115037942A/zh active Pending
- 2019-03-13 JP JP2020553581A patent/JP2021520120A/ja active Pending
- 2019-03-13 KR KR1020207031587A patent/KR20200134319A/ko active IP Right Grant
- 2019-03-13 CN CN202210376602.1A patent/CN114938452A/zh active Pending
- 2019-03-13 EP EP19781713.3A patent/EP3780619A4/en active Pending
-
2020
- 2020-09-30 US US17/039,939 patent/US11368714B2/en active Active
- 2020-09-30 US US17/039,841 patent/US11363294B2/en active Active
- 2020-09-30 US US17/039,903 patent/US11190798B2/en active Active
- 2020-09-30 US US17/039,924 patent/US11330294B2/en active Active
- 2020-09-30 US US17/039,879 patent/US11323742B2/en active Active
- 2020-09-30 US US17/039,862 patent/US11490118B2/en active Active
-
2021
- 2021-03-08 US US17/195,626 patent/US11350124B2/en active Active
- 2021-04-01 US US17/220,756 patent/US11490120B2/en active Active
- 2021-04-01 US US17/220,822 patent/US11381839B2/en active Active
- 2021-04-01 US US17/220,797 patent/US11343534B2/en active Active
- 2021-04-02 US US17/221,275 patent/US11159821B2/en active Active
- 2021-11-29 US US17/456,815 patent/US11997312B2/en active Active
-
2022
- 2022-05-23 US US17/664,642 patent/US11949911B2/en active Active
- 2022-06-20 US US17/844,669 patent/US11949912B2/en active Active
- 2022-07-05 US US17/857,485 patent/US11871032B2/en active Active
- 2022-11-15 JP JP2022182636A patent/JP2023017981A/ja active Pending
-
2023
- 2023-06-05 JP JP2023092773A patent/JP2023110048A/ja active Pending
- 2023-11-08 JP JP2023190720A patent/JP2024010198A/ja active Pending
- 2023-12-18 US US18/544,106 patent/US20240137559A1/en active Pending
-
2024
- 2024-02-22 JP JP2024025977A patent/JP2024057014A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150085929A1 (en) * | 2013-09-26 | 2015-03-26 | Qualcomm Incorporated | Sub-prediction unit (pu) based temporal motion vector prediction in hevc and sub-pu design in 3d-hevc |
JP2016537839A (ja) * | 2013-09-26 | 2016-12-01 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | Hevcにおけるサブ予測ユニット(pu)ベースの時間的動きベクトル予測および3d−hevcにおけるサブpu設計 |
WO2017133243A1 (zh) * | 2016-02-06 | 2017-08-10 | 华为技术有限公司 | 图像编解码方法及装置 |
US20180376161A1 (en) * | 2016-02-06 | 2018-12-27 | Huawei Technologies Co., Ltd. | Image encoding method and apparatus, and image decoding method and apparatus |
JP2019506089A (ja) * | 2016-02-06 | 2019-02-28 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | 画像符号化方法及び装置、並びに画像復号方法及び装置 |
JP2020145486A (ja) * | 2017-07-28 | 2020-09-10 | シャープ株式会社 | 動画像符号化装置及び動画像復号装置 |
Non-Patent Citations (1)
Title |
---|
JIANLE CHEN, ET AL.: "Algorithm Description of Joint Exploration Test Model 7 (JEM 7)", JOINT VIDEO EXPLORATION TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 7TH MEETING: T, vol. JVET-G1001-v1, JPN6022053276, 19 August 2017 (2017-08-19), pages 1 - 44, ISSN: 0004947808 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7216109B2 (ja) | 動画像処理方法、動画像処理装置、及びコンピュータプログラム | |
WO2019192301A1 (zh) | 视频图像处理方法与装置 | |
JP7497948B2 (ja) | 動画像処理方法および装置 | |
WO2019192170A1 (zh) | 视频图像处理方法与装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211029 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220906 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7216109 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |