JP6825765B2 - ブロッキングアーティファクトを除去するためのフィルタリング方法および装置 - Google Patents
ブロッキングアーティファクトを除去するためのフィルタリング方法および装置 Download PDFInfo
- Publication number
- JP6825765B2 JP6825765B2 JP2018539821A JP2018539821A JP6825765B2 JP 6825765 B2 JP6825765 B2 JP 6825765B2 JP 2018539821 A JP2018539821 A JP 2018539821A JP 2018539821 A JP2018539821 A JP 2018539821A JP 6825765 B2 JP6825765 B2 JP 6825765B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- sub
- motion vector
- adjacent
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001914 filtration Methods 0.000 title claims description 349
- 238000000034 method Methods 0.000 title claims description 163
- 230000000903 blocking effect Effects 0.000 title description 36
- 230000033001 locomotion Effects 0.000 claims description 861
- 239000013598 vector Substances 0.000 claims description 595
- 108010001267 Protein Subunits Proteins 0.000 claims description 326
- 102000002067 Protein Subunits Human genes 0.000 claims description 106
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 38
- 238000009795 derivation Methods 0.000 claims description 18
- 238000005070 sampling Methods 0.000 claims description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 description 36
- 238000013139 quantization Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000001788 irregular Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 108020001572 subunits Proteins 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/43—Hardware specially adapted for motion estimation or compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/583—Motion compensation with overlapping blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Filtering Of Dispersed Particles In Gases (AREA)
- Compounds Of Unknown Constitution (AREA)
- Filters And Equalizers (AREA)
Description
図2は、本発明の実施形態に係る、ブロッキングアーティファクトを除去するためのフィルタリング方法のフローチャートである。方法は、図1において示されているフィルタリング装置によって実行され、画像ブロックに対してフィルタリング処理を実行するために用いられる。画像ブロックは、少なくとも1つの予測単位および少なくとも1つの変換単位に分割される。予測単位は、非並進運動予測単位を含む。
図6は、本発明の実施形態に係るフィルタリング装置10の構造図である。フィルタリング装置10は、画像ブロックに対してフィルタリング処理を実行するように構成される。画像ブロックは、少なくとも1つの予測単位および少なくとも1つの変換単位に分割される。予測単位は、非並進運動予測単位を含む。フィルタリング装置は、ビデオ符号化装置またはビデオ復号装置であってよい。ビデオ符号化装置またはビデオ復号装置は、例えば、ノートブックコンピュータ、タブレットコンピュータ、パーソナルコンピュータ、携帯電話、またはビデオサーバなどの、ビデオを出力または記憶する必要がある任意の装置であってよい。図6において示されているように、フィルタリング装置10は、各予測単位を少なくとも2つのサブ単位に分割するように構成される分割ユニット101であって、各サブ単位は、N×N個の画素を含み、Nは、1より大きいかまたはそれに等しい整数である、分割ユニット101と、分割ユニットにより分割によって取得された少なくとも2つのサブ単位のそれぞれをトラバースし、予め設定された規則に基づき、少なくとも2つのサブ単位の少なくとも1つのフィルタリング境界を決定するように構成される決定ユニット102と、第1のサブ単位の第1の画素値および第2のサブ単位の第1の画素値を取得するように構成される取得ユニット103であって、第1のサブ単位および第2のサブ単位は、フィルタリング境界に隣接する、取得ユニット103と、取得ユニット103により取得された第1のサブ単位の第1の画素値および第2のサブ単位の第1の画素値に基づき、フィルタリング境界に隣接する画素に対してフィルタリング処理を実行するように構成されるフィルタリングユニット104とを備えてよい。
本願によれば、以下の各項目もまた開示される。
[項目1]
画像ブロックに対してフィルタリング処理を実行するための方法であって、上記画像ブロックは、非並進運動予測単位であり、上記方法は、
上記非並進運動予測単位を2つまたはそれより多いサブ単位に分割する段階であって、各サブ単位は、複数の画素を含む、段階と、
予め設定された規則に基づき、上記2つまたはそれより多いサブ単位の中で少なくとも1つのフィルタリング境界を決定する段階と、
上記少なくとも1つのフィルタリング境界のうち任意の1つに対して、第1のサブ単位の画素値および第2のサブ単位の画素値を取得する段階であって、上記第1のサブ単位および上記第2のサブ単位は、上記フィルタリング境界に隣接し、上記第1のサブ単位および上記第2のサブ単位は、上記2つまたはそれより多いサブ単位に含まれる、段階と、
上記第1のサブ単位の上記画素値および上記第2のサブ単位の上記画素値に基づき、上記フィルタリング境界に隣接する画素に対してフィルタリング処理を実行する段階と
を備える、
方法。
[項目2]
予め設定された規則に基づき、上記2つまたはそれより多いサブ単位の中で少なくとも1つのフィルタリング境界を決定する上記段階は、
サブ単位が上記非並進運動予測単位に含まれる場合、上記サブ単位の各境界がフィルタリング境界であると決定する段階を含む、
項目1に記載の方法。
[項目3]
第1のサブ単位の画素値を取得する上記段階は、
上記第1のサブ単位の動きベクトルに基づき、上記第1のサブ単位の第1の予測画素値を取得する段階と、
上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する段階であって、Mは任意の整数であり、1≦M≦4である、段階と、
上記M個のサブ単位の上記動きベクトルに基づき、上記第1のサブ単位のM個の第2の予測画素値を取得する段階と、
上記第1のサブ単位の上記第1の予測画素値および上記M個の第2の予測画素値に基づき、上記第1のサブ単位の上記第1の画素値を取得する段階と
を含む、
項目1または2に記載の方法。
[項目4]
M=4であり、上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する上記段階は、
上記第1のサブ単位が上記非並進運動予測単位の下境界もしくは右境界に隣接するサブ単位である場合、非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記上サブ単位、上記下サブ単位、上記左サブ単位、および上記右サブ単位のそれぞれの上記動きベクトルを導出する段階
を含む、
項目3に記載の方法。
[項目5]
M=4であり、上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する上記段階は、
上記第1のサブ単位が上記非並進運動予測単位の上境界に隣接するサブ単位である場合、予め設定された非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記下サブ単位、上記左サブ単位、および上記右サブ単位という3つのサブ単位の動きベクトルを導出する段階と、
上記第1のサブ単位に隣接する上記上サブ単位の動きベクトルが利用可能な場合、上記上サブ単位の上記動きベクトルを取得する段階、または、
上記第1のサブ単位に隣接する上記上サブ単位の動きベクトルが利用できない場合、上記非並進運動モデルに基づき、上記上サブ単位の上記動きベクトルを導出する段階と
を含む、
項目3に記載の方法。
[項目6]
M=4であり、上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する上記段階は、
上記第1のサブ単位が上記非並進運動予測単位の左境界に隣接するサブ単位である場合、予め設定された非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記下サブ単位、上記上サブ単位、および上記右サブ単位という3つのサブ単位の動きベクトルを導出する段階と、
上記第1のサブ単位に隣接する上記左サブ単位の動きベクトルが利用可能な場合、上記左サブ単位の上記動きベクトルを取得する段階、または、
上記第1のサブ単位に隣接する上記左サブ単位の動きベクトルが利用できない場合、上記非並進運動モデルに基づき、上記左サブ単位の上記動きベクトルを導出する段階と
を含む、
項目3に記載の方法。
[項目7]
上記フィルタリング境界に隣接する第1のサブ単位の画素値を取得する上記段階は、
上記第1のサブ単位(P)の第1の予測画素値を取得する段階と、
非並進運動モデルに基づき、上記第1のサブ単位(P)の第1の頂点(1)に隣接する上座標(1.1)、下座標(1.2)、左座標(1.3)、および右座標(1.4)におけるM組の座標の動きベクトルと、上記第1のサブ単位(P)の第2の頂点(2)に隣接する上座標(2.1)、下座標(2.2)、左座標(2.3)、および右座標(2.4)におけるM組の座標の動きベクトルとを導出する段階であって、上記第1の頂点(1)および上記第2の頂点(2)は上記第1のサブ単位(P)の任意の2つの異なる頂点であり、Mは任意の整数であり、1≦M≦4である、段階と、
上記第1のサブ単位(P)の上記第1の頂点(1)に隣接する上記上座標(1.1)、上記下座標(1.2)、上記左座標(1.3)、および上記右座標(1.4)における上記M組の座標の上記動きベクトルと、上記第1のサブ単位(P)の上記第2の頂点(2)に隣接する上記上座標(2.1)、上記下座標(2.2)、上記左座標(2.3)、および上記右座標(2.4)における上記M組の座標の上記動きベクトルとをグループ化することによって、M個の動きベクトルペアを取得する段階であって、上記M個の動きベクトルペアにおける第1の動きベクトルペアは、上記第1のサブ単位(P)の上記第1の頂点(1)に隣接する第1の座標の動きベクトルと、上記第1のサブ単位(P)の上記第2の頂点(2)に隣接する第1の座標の動きベクトルとを含み、上記第1の座標は、上座標であり、または下座標であり、または左座標であり、または右座標である、段階と、
上記非並進運動モデルに基づき、上記M個の動きベクトルペアに対して計算を実行し、上記第1のサブ単位(P)のM個の動きベクトルを取得する段階と、
上記第1のサブ単位(P)の上記M個の動きベクトルに基づき、上記第1のサブ単位(P)のM個の第2の予測画素値を取得する段階と、
上記第1のサブ単位(P)の上記第1の予測画素値および上記M個の第2の予測画素値に基づき、上記第1のサブ単位(P)の上記画素値を取得する段階と
を含む、
項目1または2に記載の方法。
[項目8]
上記第1のサブ単位の上記第1の画素値および上記第2のサブ単位の上記第1の画素値に基づき、上記フィルタリング境界に隣接する画素に対してフィルタリング処理を実行する上記段階の前に、上記方法はさらに、
上記フィルタリング境界の境界強度値を決定する段階を備え、
上記第1のサブ単位の上記画素値および上記第2のサブ単位の上記画素値に基づき、上記フィルタリング境界に隣接する画素に対してフィルタリング処理を実行する上記段階は、
上記フィルタリング境界の上記境界強度値と、初期閾値β 0 およびt 0 と、上記フィルタリング境界に隣接する、上記第1のサブ単位および上記第2のサブ単位における複数の画素の画素値間の画素差とに基づき、第2の予め設定されたアルゴリズムを用いることによって、上記フィルタリング境界に隣接する上記画素に対してフィルタリング処理を実行する段階
を含む、
項目1から7のいずれか一項に記載の方法。
[項目9]
上記フィルタリング境界の境界強度値を決定する上記段階は、
以下の条件(1)から(3)のうち任意の1つが真の条件であるとき、上記フィルタリング境界の上記境界強度値を1に設定し、そうでなければ、上記フィルタリング境界の上記境界強度値を0に設定する段階であって、
(1)上記第1のサブ単位が1つの動きベクトルを有し、上記第2のサブ単位が1つの動きベクトルを有し、上記第1のサブ単位の上記動きベクトルおよび上記第2のサブ単位の上記動きベクトルの水平成分または垂直成分間の動きベクトル差が動きベクトル差閾値Tより大きいかまたはそれに等しく、
(2)上記第1のサブ単位が2つの動きベクトルを有し、上記2つの動きベクトルにより示された参照画像が異なり、上記第2のサブ単位が2つの動きベクトルを有し、上記2つの動きベクトルにより示された参照画像が異なり、2つの動きベクトルの水平成分または垂直成分間の動きベクトル差が動きベクトル差閾値Tより大きいかまたはそれに等しく、および、
(3)上記第1のサブ単位が2つの動きベクトルを有し、上記2つの動きベクトルにより示された参照画像が同じであり、上記第2のサブ単位が2つの動きベクトルを有し、上記2つの動きベクトルにより示された参照画像が同じであり、かつ、以下の2つの条件aおよびbが真の条件であり、
(a)前方参照候補リストlist0を示す2つの動きベクトルの水平成分または垂直成分間の差が動きベクトル差閾値Tより大きいかまたはそれに等しいか、または後方参照候補リストlist1を示す2つの動きベクトルの水平成分または垂直成分間の差が動きベクトル差閾値Tより大きいかまたはそれに等しく、および、
(b)前方参照候補リストlist0を示す、上記第1のサブ単位の動きベクトルと、後方参照候補リストlist1を示す、上記第2のサブ単位の動きベクトルとの水平成分または垂直成分間の差が動きベクトル差閾値Tより大きいかまたはそれに等しいか、または後方参照候補リストlist1を示す、上記第1のサブ単位の動きベクトルと、前方参照候補リストlist0を示す、上記第2のサブ単位の動きベクトルとの水平成分または垂直成分間の差が動きベクトル差閾値Tより大きいかまたはそれに等しい、段階
を含む、
項目8に記載の方法。
[項目10]
上記動きベクトル差閾値Tは、4個の1/4の輝度サンプリング精度であり、または、
上記第1のサブ単位および上記第2のサブ単位の動きモデルが異なる場合、上記動きベクトル差閾値Tは、1/4の輝度サンプリング精度であり、もしくは、上記第1のサブ単位および上記第2のサブ単位の動きモデルが同じである場合、上記動きベクトル差閾値Tは、4個の1/4の輝度サンプリング精度である、
項目9に記載の方法。
[項目11]
画像ブロックに対してフィルタリング処理を実行するための装置であって、上記画像ブロックは、非並進運動予測単位であり、上記装置は、
上記非並進運動予測単位を2つまたはそれより多いサブ単位に分割するように構成される分割ユニットであって、各サブ単位は、複数の画素を含む、分割ユニットと、
予め設定された規則に基づき、上記2つまたはそれより多いサブ単位の中で少なくとも1つのフィルタリング境界を決定するように構成される決定ユニットと、
上記少なくとも1つのフィルタリング境界のうち任意の1つに対して、第1のサブ単位の画素値および第2のサブ単位の画素値を取得するように構成される取得ユニットであって、上記第1のサブ単位および上記第2のサブ単位は、上記フィルタリング境界に隣接し、上記第1のサブ単位および上記第2のサブ単位は、上記2つまたはそれより多いサブ単位に含まれる、取得ユニットと、
上記第1のサブ単位の上記画素値および上記第2のサブ単位の上記画素値に基づき、上記フィルタリング境界に隣接する画素に対してフィルタリング処理を実行するように構成されるフィルタリングユニットと
を備える、
装置。
[項目12]
上記決定ユニットは、
上記2つまたはそれより多いサブ単位のうちのサブ単位の各境界がフィルタリング境界であると決定するように構成される、
項目11に記載の装置。
[項目13]
上記取得ユニットは、
上記第1のサブ単位の動きベクトルに基づき、上記第1のサブ単位の第1の予測画素値を取得すること、
上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得することであって、Mは、任意の整数であり、1≦M≦4である、取得すること、
上記M個のサブ単位の上記動きベクトルに基づき、上記第1のサブ単位のM個の第2の予測画素値を取得すること、および、
上記第1のサブ単位の上記第1の予測画素値および上記M個の第2の予測画素値に基づき、上記第1のサブ単位の上記第1の画素値を取得すること
を行うように構成される、
項目11または12に記載の装置。
[項目14]
上記取得ユニットは、
上記第1のサブ単位が上記非並進運動予測単位の下境界もしくは右境界に隣接するサブ単位である場合、非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記上サブ単位、上記下サブ単位、上記左サブ単位、および上記右サブ単位のそれぞれの動きベクトルを導出するように構成される、
項目13に記載の装置。
[項目15]
M=4であり、上記取得ユニットは、
上記第1のサブ単位が上記非並進運動予測単位の上境界に隣接するサブ単位である場合、予め設定された非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記下サブ単位、上記左サブ単位、および上記右サブ単位という3つのサブ単位の動きベクトルを導出すること、および、
上記第1のサブ単位に隣接する上記上サブ単位の動きベクトルが利用可能な場合、上記上サブ単位の上記動きベクトルを取得するか、または、
上記第1のサブ単位に隣接する上記上サブ単位の動きベクトルが利用できない場合、上記非並進運動モデルに基づき、上記上サブ単位の上記動きベクトルを導出すること
を行うように構成される、
項目13に記載の装置。
[項目16]
M=4であり、上記取得ユニットは、
上記第1のサブ単位が上記非並進運動予測単位の左境界に隣接するサブ単位である場合、予め設定された非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記下サブ単位、上記上サブ単位、および上記右サブ単位という3つのサブ単位の動きベクトルを導出すること、および、
上記第1のサブ単位に隣接する上記左サブ単位の動きベクトルが利用可能な場合、上記左サブ単位の上記動きベクトルを取得すること、または、
上記第1のサブ単位に隣接する上記左サブ単位の動きベクトルが利用できない場合、上記非並進運動モデルに基づき、上記左サブ単位の上記動きベクトルを導出すること
を行うように構成される、
項目13に記載の装置。
[項目17]
上記取得ユニットは、
上記第1のサブ単位(P)の第1の予測画素値を取得すること、
非並進運動モデルに基づき、上記第1のサブ単位(P)の第1の頂点(1)に隣接する上座標(1.1)、下座標(1.2)、左座標(1.3)、および右座標(1.4)におけるM組の座標の動きベクトルと、上記第1のサブ単位(P)の第2の頂点(2)に隣接する上座標(2.1)、下座標(2.2)、左座標(2.3)、および右座標(2.4)におけるM組の座標の動きベクトルとを導出することであって、上記第1の頂点(1)および上記第2の頂点(2)は、上記第1のサブ単位(P)の任意の2つの異なる頂点であり、Mは、任意の整数であり、1≦M≦4である、導出すること、
上記第1のサブ単位(P)の上記第1の頂点(1)に隣接する上記上座標(1.1)、上記下座標(1.2)、上記左座標(1.3)、および上記右座標(1.4)における上記M組の座標の上記動きベクトルと、上記第1のサブ単位(P)の上記第2の頂点(2)に隣接する上記上座標(2.1)、上記下座標(2.2)、上記左座標(2.3)、および上記右座標(2.4)における上記M組の座標の上記動きベクトルとをグループ化することによって、M個の動きベクトルペアを取得することであって、上記M個の動きベクトルペアにおける第1の動きベクトルペアは、上記第1のサブ単位(P)の上記第1の頂点(1)に隣接する第1の座標の動きベクトルと、上記第1のサブ単位(P)の上記第2の頂点(2)に隣接する第1の座標の動きベクトルとを含み、上記第1の座標は、上座標であり、または下座標であり、または左座標であり、または右座標である、取得すること、
上記非並進運動モデルに基づき、上記M個の動きベクトルペアに対して計算を実行し、上記第1のサブ単位(P)のM個の動きベクトルを取得すること、
上記第1のサブ単位(P)の上記M個の動きベクトルに基づき、上記第1のサブ単位(P)のM個の第2の予測画素値を取得すること、および、
上記第1のサブ単位(P)の上記第1の予測画素値および上記M個の第2の予測画素値に基づき、上記第1のサブ単位(P)の上記画素値を取得すること
を行うように構成される、
項目11または12に記載の装置。
[項目18]
上記決定ユニットはさらに、
上記フィルタリングユニットが、上記第1のサブ単位の上記第1の画素値および上記第2のサブ単位の上記第1の画素値に基づき、上記フィルタリング境界に隣接する上記画素に対してフィルタリング処理を実行する前に、上記フィルタリング境界の境界強度値を決定するように構成され、
上記フィルタリングユニットは、上記決定ユニットにより決定された上記フィルタリング境界の上記境界強度値と、初期閾値β 0 およびt 0 と、上記フィルタリング境界に隣接する、上記第1のサブ単位および上記第2のサブ単位における複数の画素の画素値間の画素差とに基づき、第2の予め設定されたアルゴリズムを用いることによって、上記フィルタリング境界に隣接する上記画素に対してフィルタリング処理を実行するように構成される、
項目11から17のいずれか一項に記載の装置。
[項目19]
上記決定ユニットは、
以下の条件(1)から(3)のうち任意の1つが真の条件であるとき、上記フィルタリング境界の上記境界強度値を1に設定し、そうでなければ、上記フィルタリング境界の上記境界強度値を0に設定するように構成され、
(1)上記第1のサブ単位が1つの動きベクトルを有し、上記第2のサブ単位が1つの動きベクトルを有し、上記第1のサブ単位の上記動きベクトルおよび上記第2のサブ単位の上記動きベクトルの水平成分または垂直成分間の動きベクトル差が動きベクトル差閾値Tより大きいかまたはそれに等しく、
(2)上記第1のサブ単位が2つの動きベクトルを有し、上記2つの動きベクトルにより示された参照画像が異なり、上記第2のサブ単位が2つの動きベクトルを有し、上記2つの動きベクトルにより示された参照画像が異なり、2つの動きベクトルの水平成分または垂直成分間の動きベクトル差が動きベクトル差閾値Tより大きいかまたはそれに等しく、および、
(3)上記第1のサブ単位が2つの動きベクトルを有し、上記2つの動きベクトルにより示された参照画像が同じであり、上記第2のサブ単位が2つの動きベクトルを有し、上記2つの動きベクトルにより示された参照画像が同じであり、かつ、以下の2つの条件aおよびbが真の条件であり、
(a)前方参照候補リストlist0を示す2つの動きベクトルの水平成分もしくは垂直成分間の差が、動きベクトル差閾値Tより大きいかまたはそれに等しいか、または、後方参照候補リストlist1を示す2つの動きベクトルの水平成分もしくは垂直成分間の差が、動きベクトル差閾値Tより大きいかまたはそれに等しく、および、
(b)前方参照候補リストlist0を示す、上記第1のサブ単位の動きベクトル、および後方参照候補リストlist1を示す、上記第2のサブ単位の動きベクトルの水平成分もしくは垂直成分間の差が、動きベクトル差閾値Tより大きいかまたはそれに等しいか、または、後方参照候補リストlist1を示す、上記第1のサブ単位の動きベクトル、および前方参照候補リストlist0を示す、上記第2のサブ単位の動きベクトルの水平成分もしくは垂直成分間の差が、動きベクトル差閾値Tより大きいかまたはそれに等しい、
項目18に記載の装置。
[項目20]
上記動きベクトル差閾値Tは、4個の1/4の輝度サンプリング精度であり、または、
上記第1のサブ単位および上記第2のサブ単位の動きモデルが異なる場合、上記動きベクトル差閾値Tは、1/4の輝度サンプリング精度であり、もしくは、上記第1のサブ単位および上記第2のサブ単位の動きモデルが同じである場合、上記動きベクトル差閾値Tは、4個の1/4の輝度サンプリング精度である、
項目19に記載の装置。
[項目21]
画像ブロックのインター予測のための方法であって、上記画像ブロックは、非並進運動予測単位であり、上記非並進運動予測単位は、2つまたはそれより多いサブ単位に分割され、上記方法は、
第1のサブ単位の動きベクトルに基づき、上記第1のサブ単位の第1の予測画素値を取得する段階であって、上記第1のサブ単位は、上記2つまたはそれより多いサブ単位のうち任意の1つである、段階と、
上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する段階であって、Mは、任意の整数であり、1≦M≦4である、段階と、
上記M個のサブ単位の上記動きベクトルに基づき、上記第1のサブ単位のM個の第2の予測画素値を取得する段階と、
上記第1のサブ単位の上記第1の予測画素値および上記M個の第2の予測画素値に基づき、上記第1のサブ単位の上記第1の画素値を取得する段階と
を備える、
方法。
[項目22]
M=4であり、上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する上記段階は、
上記第1のサブ単位が上記非並進運動予測単位の下境界または右境界に隣接するサブ単位である場合、非並進運動モデルに基づき、上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位のそれぞれの上記動きベクトルを導出する段階を含む、
項目21に記載の方法。
[項目23]
M=4であり、上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する上記段階は、
上記第1のサブ単位が上記非並進運動予測単位の上境界に隣接するサブ単位である場合、予め設定された非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記下サブ単位、上記左サブ単位、および上記右サブ単位という3つのサブ単位の動きベクトルを導出する段階と、
上記第1のサブ単位に隣接する上記上サブ単位の動きベクトルが利用可能な場合、上記上サブ単位の上記動きベクトルを取得する段階、または、
上記第1のサブ単位に隣接する上記上サブ単位の動きベクトルが利用できない場合、上記非並進運動モデルに基づき、上記上サブ単位の上記動きベクトルを導出する段階とを含む、
項目21に記載の方法。
[項目24]
M=4であり、上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する上記段階は、
上記第1のサブ単位が上記非並進運動予測単位の左境界に隣接するサブ単位である場合、予め設定された非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記下サブ単位、上記上サブ単位、および上記右サブ単位という3つのサブ単位の動きベクトルを導出する段階と、
上記第1のサブ単位に隣接する上記左サブ単位の動きベクトルが利用可能な場合、上記左サブ単位の上記動きベクトルを取得する段階、または、
上記第1のサブ単位に隣接する上記左サブ単位の動きベクトルが利用できない場合、上記非並進運動モデルに基づき、上記左サブ単位の上記動きベクトルを導出する段階とを含む、
項目21に記載の方法。
[項目25]
画像ブロックのインター予測のための装置であって、上記画像ブロックは、非並進運動予測単位であり、上記非並進運動予測単位は、2つまたはそれより多いサブ単位に分割され、上記装置は、
第1のサブ単位の動きベクトルに基づき、上記第1のサブ単位の第1の予測画素値を取得することであって、上記第1のサブ単位は、上記2つまたはそれより多いサブ単位のうち任意の1つである、取得すること、
上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得することであって、Mは任意の整数であり、1≦M≦4である、取得すること、
上記M個のサブ単位の上記動きベクトルに基づき、上記第1のサブ単位のM個の第2の予測画素値を取得すること、および、
上記第1のサブ単位の上記第1の予測画素値および上記M個の第2の予測画素値に基づき、上記第1のサブ単位の上記第1の画素値を取得すること
を行うように構成されるプロセッサ
を備える、
装置。
[項目26]
M=4であり、上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得することに対して、上記プロセッサは、
上記第1のサブ単位が上記非並進運動予測単位の下境界または右境界に隣接するサブ単位である場合、非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記上サブ単位、上記下サブ単位、上記左サブ単位、および上記右サブ単位のそれぞれの上記動きベクトルを導出するように構成される、
項目25に記載の装置。
[項目27]
M=4であり、上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得することに対して、上記プロセッサは、
上記第1のサブ単位が上記非並進運動予測単位の上境界に隣接するサブ単位である場合、予め設定された非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記下サブ単位、上記左サブ単位、および上記右サブ単位という3つのサブ単位の動きベクトルを導出すること、および、
上記第1のサブ単位に隣接する上記上サブ単位の動きベクトルが利用可能な場合、上記上サブ単位の上記動きベクトルを取得すること、または、
上記第1のサブ単位に隣接する上記上サブ単位の動きベクトルが利用できない場合、上記非並進運動モデルに基づき、上記上サブ単位の上記動きベクトルを導出すること
を行うように構成される、
項目25に記載の装置。
[項目28]
M=4であり、上記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得することに対して、上記プロセッサは、
上記第1のサブ単位が上記非並進運動予測単位の左境界に隣接するサブ単位である場合、予め設定された非並進運動モデルに基づき、上記第1のサブ単位に隣接する上記下サブ単位、上記上サブ単位、および上記右サブ単位という3つのサブ単位の動きベクトルを導出すること、および、
上記第1のサブ単位に隣接する上記左サブ単位の動きベクトルが利用可能な場合、上記左サブ単位の上記動きベクトルを取得すること、または、
上記第1のサブ単位に隣接する上記左サブ単位の動きベクトルが利用できない場合、上記非並進運動モデルに基づき、上記左サブ単位の上記動きベクトルを導出すること
を行うように構成される、
項目25に記載の装置。
[項目29]
プロセッサ上で実行されたとき、上記プロセッサに項目1から10および21から24のいずれか一項に記載の方法を実行させる命令を記憶するコンピュータ可読媒体。
Claims (19)
- 画像ブロックに対してフィルタリング処理を実行するための方法であって、前記画像ブロックは、アフィン画像ブロックであり、前記方法は、
前記アフィン画像ブロックを2つまたはそれより多いサブ単位に分割する段階であって、各サブ単位は、複数の画素を含む、段階と、
前記アフィン画像ブロックに含まれる各サブ単位のために、前記サブ単位の少なくとも1つの境界をフィルタリング境界として決定する段階と、
前記少なくとも1つのフィルタリング境界のうち任意の1つに対して、第1のサブ単位の複数の画素値および第2のサブ単位の複数の画素値を取得する段階であって、前記第1のサブ単位および前記第2のサブ単位は、前記フィルタリング境界に隣接し、前記第1のサブ単位および前記第2のサブ単位は、前記2つまたはそれより多いサブ単位に含まれる、段階と、
前記第1のサブ単位の前記複数の画素値および前記第2のサブ単位の前記複数の画素値に基づき、前記フィルタリング境界に隣接する画素に対してフィルタリング処理を実行する段階と
を備え、
前記2つまたはそれより多いサブ単位は、アフィン運動モデルを使用するアフィン運動サブ単位である、
方法。 - 第1のサブ単位の複数の画素値を取得する前記段階は、
前記第1のサブ単位の動きベクトルに基づき、前記第1のサブ単位の第1の予測画素値を取得する段階と、
前記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する段階であって、Mは任意の整数であり、1≦M≦4である、段階と、
前記M個のサブ単位の前記動きベクトルに基づき、前記第1のサブ単位のM個の第2の予測画素値を取得する段階と、
前記第1のサブ単位の前記第1の予測画素値および前記M個の第2の予測画素値に基づき、前記第1のサブ単位の前記複数の画素値を取得する段階と
を含む、
請求項1に記載の方法。 - M=4であり、前記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する前記段階は、
前記第1のサブ単位が前記アフィン画像ブロックの下境界もしくは右境界に隣接するサブ単位である場合、アフィン運動モデルに基づき、前記第1のサブ単位に隣接する前記上サブ単位、前記下サブ単位、前記左サブ単位、および前記右サブ単位のそれぞれの前記動きベクトルを導出する段階
を含む、
請求項2に記載の方法。 - M=4であり、前記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する前記段階は、
前記第1のサブ単位が前記アフィン画像ブロックの上境界に隣接するサブ単位である場合、予め設定されたアフィン運動モデルに基づき、前記第1のサブ単位に隣接する前記下サブ単位、前記左サブ単位、および前記右サブ単位という3つのサブ単位の動きベクトルを導出する段階と、
前記第1のサブ単位に隣接する前記上サブ単位の動きベクトルが利用可能な場合、前記上サブ単位の前記動きベクトルを取得する段階、または、
前記第1のサブ単位に隣接する前記上サブ単位の動きベクトルが利用できない場合、前記アフィン運動モデルに基づき、前記上サブ単位の前記動きベクトルを導出する段階と
を含む、
請求項2に記載の方法。 - M=4であり、前記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得する前記段階は、
前記第1のサブ単位が前記アフィン画像ブロックの左境界に隣接するサブ単位である場合、予め設定されたアフィン運動モデルに基づき、前記第1のサブ単位に隣接する前記下サブ単位、前記上サブ単位、および前記右サブ単位という3つのサブ単位の動きベクトルを導出する段階と、
前記第1のサブ単位に隣接する前記左サブ単位の動きベクトルが利用可能な場合、前記左サブ単位の前記動きベクトルを取得する段階、または、
前記第1のサブ単位に隣接する前記左サブ単位の動きベクトルが利用できない場合、前記アフィン運動モデルに基づき、前記左サブ単位の前記動きベクトルを導出する段階と
を含む、
請求項2に記載の方法。 - 前記フィルタリング境界に隣接する第1のサブ単位の複数の画素値を取得する前記段階は、
前記第1のサブ単位(P)の第1の予測画素値を取得する段階と、
アフィン運動モデルに基づき、第1の頂点(1)を有する前記第1のサブ単位(P)に、上、下、左、右に隣接するサブ単位の中の前記第1の頂点(1)に対応する座標(1.1、1.2、1.3、1.4)におけるM組の座標の動きベクトルと、第2の頂点(2)を有する前記第1のサブ単位(P)に、上、下、左、右に隣接する前記サブ単位の中の前記第2の頂点(2)に対応する座標(2.1、2.2、2.3、2.4)におけるM組の座標の動きベクトルとを導出する段階であって、前記第1の頂点(1)および前記第2の頂点(2)は前記第1のサブ単位(P)の任意の2つの異なる頂点であり、Mは任意の整数であり、1≦M≦4である、段階と、
前記第1の頂点(1)を有する前記第1のサブ単位(P)に、上、下、左、右に隣接する前記サブ単位の中の前記第1の頂点(1)に対応する前記座標(1.1、1.2、1.3、1.4)における前記M組の座標の前記動きベクトルと、前記第2の頂点(2)を有する前記第1のサブ単位(P)に、上、下、左、右に隣接する前記サブ単位の中の前記第2の頂点(2)に対応する前記座標(2.1、2.2、2.3、2.4)における前記M組の座標の前記動きベクトルとをグループ化することによって、M個の動きベクトルペアを取得する段階であって、前記M個の動きベクトルペアにおける第1の動きベクトルペアは、前記第1のサブ単位(P)の前記第1の頂点(1)に対応する第1の座標の動きベクトルと、前記第1のサブ単位(P)の前記第2の頂点(2)に対応する第1の座標の動きベクトルとを含み、前記第1の座標は、上座標であり、または下座標であり、または左座標であり、または右座標である、段階と、
前記アフィン運動モデルに基づき、前記M個の動きベクトルペアに対して計算を実行し、前記第1のサブ単位(P)のM個の動きベクトルを取得する段階と、
前記第1のサブ単位(P)の前記M個の動きベクトルに基づき、前記第1のサブ単位(P)のM個の第2の予測画素値を取得する段階と、
前記第1のサブ単位(P)の前記第1の予測画素値および前記M個の第2の予測画素値に基づき、前記第1のサブ単位(P)の前記複数の画素値を取得する段階と
を含む、
請求項1に記載の方法。 - 前記第1のサブ単位の前記複数の画素値および前記第2のサブ単位の前記複数の画素値に基づき、前記フィルタリング境界に隣接する画素に対してフィルタリング処理を実行する前記段階の前に、前記方法はさらに、
前記フィルタリング境界の境界強度値を決定する段階を備え、
前記第1のサブ単位の前記複数の画素値および前記第2のサブ単位の前記複数の画素値に基づき、前記フィルタリング境界に隣接する画素に対してフィルタリング処理を実行する前記段階は、
前記フィルタリング境界の前記境界強度値と、初期閾値β0およびt0と、前記フィルタリング境界に隣接する、前記第1のサブ単位および前記第2のサブ単位における複数の画素の画素値間の画素差とに基づき、第2の予め設定されたアルゴリズムを用いることによって、前記フィルタリング境界に隣接する前記画素に対してフィルタリング処理を実行する段階
を含む、
請求項1から6のいずれか一項に記載の方法。 - 前記フィルタリング境界の境界強度値を決定する前記段階は、
以下の条件(1)から(3)のうち任意の1つが真の条件であるとき、前記フィルタリング境界の前記境界強度値を1に設定し、そうでなければ、前記フィルタリング境界の前記境界強度値を0に設定する段階であって、
(1)前記第1のサブ単位が1つの動きベクトルを有し、前記第2のサブ単位が1つの動きベクトルを有し、前記第1のサブ単位の前記動きベクトルおよび前記第2のサブ単位の前記動きベクトルの水平成分または垂直成分間の動きベクトル差が動きベクトル差閾値Tより大きいかまたはそれに等しく、
(2)前記第1のサブ単位が2つの動きベクトルを有し、前記2つの動きベクトルにより示された参照画像が異なり、前記第2のサブ単位が2つの動きベクトルを有し、前記2つの動きベクトルにより示された参照画像が異なり、2つの動きベクトルの水平成分または垂直成分間の動きベクトル差が動きベクトル差閾値Tより大きいかまたはそれに等しく、および、
(3)前記第1のサブ単位が2つの動きベクトルを有し、前記2つの動きベクトルにより示された参照画像が同じであり、前記第2のサブ単位が2つの動きベクトルを有し、前記2つの動きベクトルにより示された参照画像が同じであり、かつ、以下の2つの条件aおよびbが真の条件であり、
(a)前方参照候補リストlist0を示す2つの動きベクトルの水平成分または垂直成分間の差が動きベクトル差閾値Tより大きいかまたはそれに等しいか、または後方参照候補リストlist1を示す2つの動きベクトルの水平成分または垂直成分間の差が動きベクトル差閾値Tより大きいかまたはそれに等しく、および、
(b)前方参照候補リストlist0を示す、前記第1のサブ単位の動きベクトルと、後方参照候補リストlist1を示す、前記第2のサブ単位の動きベクトルとの水平成分または垂直成分間の差が動きベクトル差閾値Tより大きいかまたはそれに等しいか、または後方参照候補リストlist1を示す、前記第1のサブ単位の動きベクトルと、前方参照候補リストlist0を示す、前記第2のサブ単位の動きベクトルとの水平成分または垂直成分間の差が動きベクトル差閾値Tより大きいかまたはそれに等しい、段階
を含む、
請求項7に記載の方法。 - 前記動きベクトル差閾値Tは、4個の1/4の輝度サンプリング精度であり、または、
前記第1のサブ単位および前記第2のサブ単位の動きモデルが異なる場合、前記動きベクトル差閾値Tは、1/4の輝度サンプリング精度であり、もしくは、前記第1のサブ単位および前記第2のサブ単位の動きモデルが同じである場合、前記動きベクトル差閾値Tは、4個の1/4の輝度サンプリング精度である、
請求項8に記載の方法。 - 画像ブロックに対してフィルタリング処理を実行するための装置であって、前記画像ブロックは、アフィン画像ブロックであり、前記装置は、
前記アフィン画像ブロックを2つまたはそれより多いサブ単位に分割するように構成される分割ユニットであって、各サブ単位は、複数の画素を含む、分割ユニットと、
前記アフィン画像ブロックに含まれる各サブ単位のために、前記サブ単位の少なくとも1つの境界をフィルタリング境界として決定するように構成される決定ユニットと、
前記少なくとも1つのフィルタリング境界のうち任意の1つに対して、第1のサブ単位の複数の画素値および第2のサブ単位の複数の画素値を取得するように構成される取得ユニットであって、前記第1のサブ単位および前記第2のサブ単位は、前記フィルタリング境界に隣接し、前記第1のサブ単位および前記第2のサブ単位は、前記2つまたはそれより多いサブ単位に含まれる、取得ユニットと、
前記第1のサブ単位の前記複数の画素値および前記第2のサブ単位の前記複数の画素値に基づき、前記フィルタリング境界に隣接する画素に対してフィルタリング処理を実行するように構成されるフィルタリングユニットと
を備え、
前記2つまたはそれより多いサブ単位は、アフィン運動モデルを使用するアフィン運動サブ単位である、
装置。 - 前記取得ユニットは、
前記第1のサブ単位の動きベクトルに基づき、前記第1のサブ単位の第1の予測画素値を取得すること、
前記第1のサブ単位に隣接する上サブ単位、下サブ単位、左サブ単位、および右サブ単位におけるM個のサブ単位の動きベクトルを取得することであって、Mは、任意の整数であり、1≦M≦4である、取得すること、
前記M個のサブ単位の前記動きベクトルに基づき、前記第1のサブ単位のM個の第2の予測画素値を取得すること、および、
前記第1のサブ単位の前記第1の予測画素値および前記M個の第2の予測画素値に基づき、前記第1のサブ単位の前記複数の画素値を取得すること
を行うように構成される、
請求項10に記載の装置。 - 前記取得ユニットは、
前記第1のサブ単位が前記アフィン画像ブロックの下境界もしくは右境界に隣接するサブ単位である場合、アフィン運動モデルに基づき、前記第1のサブ単位に隣接する前記上サブ単位、前記下サブ単位、前記左サブ単位、および前記右サブ単位のそれぞれの動きベクトルを導出するように構成される、
請求項11に記載の装置。 - M=4であり、前記取得ユニットは、
前記第1のサブ単位が前記アフィン画像ブロックの上境界に隣接するサブ単位である場合、予め設定されたアフィン運動モデルに基づき、前記第1のサブ単位に隣接する前記下サブ単位、前記左サブ単位、および前記右サブ単位という3つのサブ単位の動きベクトルを導出すること、および、
前記第1のサブ単位に隣接する前記上サブ単位の動きベクトルが利用可能な場合、前記上サブ単位の前記動きベクトルを取得するか、または、
前記第1のサブ単位に隣接する前記上サブ単位の動きベクトルが利用できない場合、前記アフィン運動モデルに基づき、前記上サブ単位の前記動きベクトルを導出すること
を行うように構成される、
請求項11に記載の装置。 - M=4であり、前記取得ユニットは、
前記第1のサブ単位が前記アフィン画像ブロックの左境界に隣接するサブ単位である場合、予め設定されたアフィン運動モデルに基づき、前記第1のサブ単位に隣接する前記下サブ単位、前記上サブ単位、および前記右サブ単位という3つのサブ単位の動きベクトルを導出すること、および、
前記第1のサブ単位に隣接する前記左サブ単位の動きベクトルが利用可能な場合、前記左サブ単位の前記動きベクトルを取得すること、または、
前記第1のサブ単位に隣接する前記左サブ単位の動きベクトルが利用できない場合、前記アフィン運動モデルに基づき、前記左サブ単位の前記動きベクトルを導出すること
を行うように構成される、
請求項11に記載の装置。 - 前記取得ユニットは、
前記第1のサブ単位(P)の第1の予測画素値を取得すること、
アフィン運動モデルに基づき、第1の頂点(1)を有する前記第1のサブ単位(P)に、上、下、左、右に隣接するサブ単位の中の前記第1の頂点(1)に対応する座標(1.1、1.2、1.3、1.4)におけるM組の座標の動きベクトルと、第2の頂点(2)を有する前記第1のサブ単位(P)に、上、下、左、右に隣接する前記サブ単位の中の前記第2の頂点(2)に対応する座標(2.1、2.2、2.3、2.4)におけるM組の座標の動きベクトルとを導出することであって、前記第1の頂点(1)および前記第2の頂点(2)は、前記第1のサブ単位(P)の任意の2つの異なる頂点であり、Mは、任意の整数であり、1≦M≦4である、導出すること、
前記第1の頂点(1)を有する前記第1のサブ単位(P)に、上、下、左、右に隣接する前記サブ単位の中の前記第1の頂点(1)に対応する前記座標(1.1、1.2、1.3、1.4)における前記M組の座標の前記動きベクトルと、前記第2の頂点(2)を有する前記第1のサブ単位(P)に、上、下、左、右に隣接する前記サブ単位の中の前記第2の頂点(2)に対応する座標(2.1、2.2、2.3、2.4)における前記M組の座標の前記動きベクトルとをグループ化することによって、M個の動きベクトルペアを取得することであって、前記M個の動きベクトルペアにおける第1の動きベクトルペアは、前記第1のサブ単位(P)の前記第1の頂点(1)に対応する第1の座標の動きベクトルと、前記第1のサブ単位(P)の前記第2の頂点(2)に対応する第1の座標の動きベクトルとを含み、前記第1の座標は、上座標であり、または下座標であり、または左座標であり、または右座標である、取得すること、
前記アフィン運動モデルに基づき、前記M個の動きベクトルペアに対して計算を実行し、前記第1のサブ単位(P)のM個の動きベクトルを取得すること、
前記第1のサブ単位(P)の前記M個の動きベクトルに基づき、前記第1のサブ単位(P)のM個の第2の予測画素値を取得すること、および、
前記第1のサブ単位(P)の前記第1の予測画素値および前記M個の第2の予測画素値に基づき、前記第1のサブ単位(P)の前記複数の画素値を取得すること
を行うように構成される、
請求項10に記載の装置。 - 前記決定ユニットはさらに、
前記フィルタリングユニットが、前記第1のサブ単位の前記複数の画素値および前記第2のサブ単位の前記複数の画素値に基づき、前記フィルタリング境界に隣接する前記画素に対してフィルタリング処理を実行する前に、前記フィルタリング境界の境界強度値を決定するように構成され、
前記フィルタリングユニットは、前記決定ユニットにより決定された前記フィルタリング境界の前記境界強度値と、初期閾値β0およびt0と、前記フィルタリング境界に隣接する、前記第1のサブ単位および前記第2のサブ単位における複数の画素の画素値間の画素差とに基づき、第2の予め設定されたアルゴリズムを用いることによって、前記フィルタリング境界に隣接する前記画素に対してフィルタリング処理を実行するように構成される、
請求項10から15のいずれか一項に記載の装置。 - 前記決定ユニットは、
以下の条件(1)から(3)のうち任意の1つが真の条件であるとき、前記フィルタリング境界の前記境界強度値を1に設定し、そうでなければ、前記フィルタリング境界の前記境界強度値を0に設定するように構成され、
(1)前記第1のサブ単位が1つの動きベクトルを有し、前記第2のサブ単位が1つの動きベクトルを有し、前記第1のサブ単位の前記動きベクトルおよび前記第2のサブ単位の前記動きベクトルの水平成分または垂直成分間の動きベクトル差が動きベクトル差閾値Tより大きいかまたはそれに等しく、
(2)前記第1のサブ単位が2つの動きベクトルを有し、前記2つの動きベクトルにより示された参照画像が異なり、前記第2のサブ単位が2つの動きベクトルを有し、前記2つの動きベクトルにより示された参照画像が異なり、2つの動きベクトルの水平成分または垂直成分間の動きベクトル差が動きベクトル差閾値Tより大きいかまたはそれに等しく、および、
(3)前記第1のサブ単位が2つの動きベクトルを有し、前記2つの動きベクトルにより示された参照画像が同じであり、前記第2のサブ単位が2つの動きベクトルを有し、前記2つの動きベクトルにより示された参照画像が同じであり、かつ、以下の2つの条件aおよびbが真の条件であり、
(a)前方参照候補リストlist0を示す2つの動きベクトルの水平成分もしくは垂直成分間の差が、動きベクトル差閾値Tより大きいかまたはそれに等しいか、または、後方参照候補リストlist1を示す2つの動きベクトルの水平成分もしくは垂直成分間の差が、動きベクトル差閾値Tより大きいかまたはそれに等しく、および、
(b)前方参照候補リストlist0を示す、前記第1のサブ単位の動きベクトル、および後方参照候補リストlist1を示す、前記第2のサブ単位の動きベクトルの水平成分もしくは垂直成分間の差が、動きベクトル差閾値Tより大きいかまたはそれに等しいか、または、後方参照候補リストlist1を示す、前記第1のサブ単位の動きベクトル、および前方参照候補リストlist0を示す、前記第2のサブ単位の動きベクトルの水平成分もしくは垂直成分間の差が、動きベクトル差閾値Tより大きいかまたはそれに等しい、
請求項16に記載の装置。 - 前記動きベクトル差閾値Tは、4個の1/4の輝度サンプリング精度であり、または、
前記第1のサブ単位および前記第2のサブ単位の動きモデルが異なる場合、前記動きベクトル差閾値Tは、1/4の輝度サンプリング精度であり、もしくは、前記第1のサブ単位および前記第2のサブ単位の動きモデルが同じである場合、前記動きベクトル差閾値Tは、4個の1/4の輝度サンプリング精度である、
請求項17に記載の装置。 - プロセッサ上で実行されたとき、前記プロセッサに請求項1から9のいずれか一項に記載の方法を実行させる命令を記憶するコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610064753.8 | 2016-01-29 | ||
CN201610064753.8A CN107027040B9 (zh) | 2016-01-29 | 2016-01-29 | 一种去除块效应的滤波方法及装置 |
PCT/CN2016/089797 WO2017128634A1 (zh) | 2016-01-29 | 2016-07-12 | 一种去除块效应的滤波方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019503629A JP2019503629A (ja) | 2019-02-07 |
JP6825765B2 true JP6825765B2 (ja) | 2021-02-03 |
Family
ID=59397220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018539821A Active JP6825765B2 (ja) | 2016-01-29 | 2016-07-12 | ブロッキングアーティファクトを除去するためのフィルタリング方法および装置 |
Country Status (11)
Country | Link |
---|---|
US (2) | US11265572B2 (ja) |
EP (2) | EP3407609B1 (ja) |
JP (1) | JP6825765B2 (ja) |
KR (4) | KR102438246B1 (ja) |
CN (2) | CN107027040B9 (ja) |
ES (1) | ES2960755T3 (ja) |
HU (1) | HUE062914T2 (ja) |
PL (1) | PL3407609T3 (ja) |
PT (1) | PT3407609T (ja) |
SG (2) | SG11201806449SA (ja) |
WO (1) | WO2017128634A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3340620A4 (en) * | 2015-08-23 | 2019-04-17 | LG Electronics Inc. | IMAGE PROCESSING METHOD BASED ON INTER-PREDICTION MODE AND APPARATUS THEREOF |
CN109495759B (zh) * | 2018-11-27 | 2021-04-27 | 深圳大学 | 图像处理方法及装置 |
KR20200073124A (ko) | 2018-12-13 | 2020-06-23 | 에스케이텔레콤 주식회사 | 필터링 방법 및 영상 복호화 장치 |
CN118042171A (zh) * | 2018-12-13 | 2024-05-14 | Sk电信有限公司 | 滤波方法、视频解码设备和发送方法 |
CN109889853A (zh) * | 2019-02-26 | 2019-06-14 | 北京大学深圳研究生院 | 一种去块效应滤波方法、系统、设备及计算机可读介质 |
CN113475082A (zh) | 2019-02-27 | 2021-10-01 | 瑞典爱立信有限公司 | 使用子像素运动矢量阈值的去块 |
CN110267036B (zh) * | 2019-03-11 | 2020-07-10 | 杭州海康威视数字技术股份有限公司 | 一种滤波方法及设备 |
KR20240044064A (ko) | 2022-09-28 | 2024-04-04 | 삼성전자주식회사 | 3차원 반도체 소자 및 그의 제조 방법 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI246338B (en) * | 2004-04-09 | 2005-12-21 | Asustek Comp Inc | A hybrid model sprite generator and a method to form a sprite |
CN101653008A (zh) * | 2007-04-09 | 2010-02-17 | Lg电子株式会社 | 用于处理视频信号的方法和装置 |
KR101611437B1 (ko) * | 2009-10-28 | 2016-04-26 | 삼성전자주식회사 | 복수의 프레임을 참조하여 영상을 부호화, 복호화하는 방법 및 장치 |
KR101457396B1 (ko) * | 2010-01-14 | 2014-11-03 | 삼성전자주식회사 | 디블로킹 필터링을 이용한 비디오 부호화 방법과 그 장치, 및 디블로킹 필터링을 이용한 비디오 복호화 방법 및 그 장치 |
JP5793511B2 (ja) * | 2010-02-05 | 2015-10-14 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | デブロッキングフィルタリング制御 |
WO2011129619A2 (ko) * | 2010-04-13 | 2011-10-20 | 삼성전자 주식회사 | 트리 구조 부호화 단위에 기반한 디블록킹 필터링을 수행하는 비디오 부호화 방법과 그 장치 및 복호화 방법과 그 장치 |
KR20110125153A (ko) | 2010-05-12 | 2011-11-18 | 에스케이 텔레콤주식회사 | 영상의 필터링 방법 및 장치와 그를 이용한 부호화/복호화를 위한 방법 및 장치 |
US9883203B2 (en) | 2011-11-18 | 2018-01-30 | Qualcomm Incorporated | Adaptive overlapped block motion compensation |
US9270993B2 (en) * | 2012-09-10 | 2016-02-23 | Apple Inc. | Video deblocking filter strength derivation |
CN103916676B (zh) * | 2012-12-31 | 2017-09-29 | 华为技术有限公司 | 一种边界强度确定方法、去块效应滤波方法、及装置 |
US9854252B2 (en) | 2013-05-20 | 2017-12-26 | Texas Instruments Incorporated | Method and apparatus of HEVC de-blocking filter |
JP6399433B2 (ja) * | 2013-05-31 | 2018-10-03 | サン パテント トラスト | 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置 |
US9667996B2 (en) * | 2013-09-26 | 2017-05-30 | Qualcomm Incorporated | Sub-prediction unit (PU) based temporal motion vector prediction in HEVC and sub-PU design in 3D-HEVC |
US9621917B2 (en) * | 2014-03-10 | 2017-04-11 | Euclid Discoveries, Llc | Continuous block tracking for temporal prediction in video encoding |
US20150271514A1 (en) * | 2014-03-18 | 2015-09-24 | Panasonic Intellectual Property Management Co., Ltd. | Prediction image generation method, image coding method, image decoding method, and prediction image generation apparatus |
CN103957425B (zh) * | 2014-04-23 | 2018-01-23 | 华为技术有限公司 | 图像处理方法及系统 |
WO2016008157A1 (en) * | 2014-07-18 | 2016-01-21 | Mediatek Singapore Pte. Ltd. | Methods for motion compensation using high order motion model |
CN107734335B (zh) * | 2014-09-30 | 2020-11-06 | 华为技术有限公司 | 图像预测方法及相关装置 |
CN106303543B (zh) * | 2015-05-15 | 2018-10-30 | 华为技术有限公司 | 视频图像编码和解码的方法、编码设备和解码设备 |
-
2016
- 2016-01-29 CN CN201610064753.8A patent/CN107027040B9/zh active Active
- 2016-07-12 SG SG11201806449SA patent/SG11201806449SA/en unknown
- 2016-07-12 WO PCT/CN2016/089797 patent/WO2017128634A1/zh active Application Filing
- 2016-07-12 SG SG10202100279XA patent/SG10202100279XA/en unknown
- 2016-07-12 EP EP16887513.6A patent/EP3407609B1/en active Active
- 2016-07-12 EP EP23175530.7A patent/EP4304172A1/en active Pending
- 2016-07-12 KR KR1020217035045A patent/KR102438246B1/ko active IP Right Grant
- 2016-07-12 PL PL16887513.6T patent/PL3407609T3/pl unknown
- 2016-07-12 KR KR1020187024722A patent/KR102214937B1/ko active IP Right Grant
- 2016-07-12 KR KR1020217003574A patent/KR102320733B1/ko active IP Right Grant
- 2016-07-12 KR KR1020227029544A patent/KR102495550B1/ko active IP Right Grant
- 2016-07-12 PT PT168875136T patent/PT3407609T/pt unknown
- 2016-07-12 CN CN201680080487.6A patent/CN108605144B/zh active Active
- 2016-07-12 ES ES16887513T patent/ES2960755T3/es active Active
- 2016-07-12 HU HUE16887513A patent/HUE062914T2/hu unknown
- 2016-07-12 JP JP2018539821A patent/JP6825765B2/ja active Active
-
2018
- 2018-07-27 US US16/047,325 patent/US11265572B2/en active Active
-
2022
- 2022-02-01 US US17/590,580 patent/US11889102B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN107027040B (zh) | 2020-03-20 |
WO2017128634A1 (zh) | 2017-08-03 |
KR102320733B1 (ko) | 2021-11-03 |
US11265572B2 (en) | 2022-03-01 |
CN107027040A (zh) | 2017-08-08 |
HUE062914T2 (hu) | 2023-12-28 |
CN107027040B9 (zh) | 2020-08-28 |
KR102214937B1 (ko) | 2021-02-10 |
KR102495550B1 (ko) | 2023-02-06 |
SG11201806449SA (en) | 2018-08-30 |
US20220159292A1 (en) | 2022-05-19 |
KR102438246B1 (ko) | 2022-08-30 |
PL3407609T3 (pl) | 2023-12-11 |
KR20210134073A (ko) | 2021-11-08 |
PT3407609T (pt) | 2023-11-02 |
EP3407609A4 (en) | 2019-08-14 |
SG10202100279XA (en) | 2021-02-25 |
US20180359484A1 (en) | 2018-12-13 |
KR20220123341A (ko) | 2022-09-06 |
EP3407609A1 (en) | 2018-11-28 |
EP4304172A1 (en) | 2024-01-10 |
KR20210016649A (ko) | 2021-02-16 |
JP2019503629A (ja) | 2019-02-07 |
ES2960755T3 (es) | 2024-03-06 |
CN108605144A (zh) | 2018-09-28 |
CN108605144B (zh) | 2021-01-29 |
KR20180107778A (ko) | 2018-10-02 |
US11889102B2 (en) | 2024-01-30 |
EP3407609B1 (en) | 2023-09-06 |
BR112018015476A2 (pt) | 2018-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6825765B2 (ja) | ブロッキングアーティファクトを除去するためのフィルタリング方法および装置 | |
US11902561B2 (en) | Convolutional-neutral-network based filter for video coding | |
CN108886621B (zh) | 非本地自适应环路滤波方法 | |
TWI677239B (zh) | 結合多個去雜訊化技術及並行分組圖像補塊的非局部適應性環路濾波器 | |
KR102502216B1 (ko) | 영상의 부호화/복호화 방법 및 장치 | |
KR20220045045A (ko) | 비디오 신호의 행렬 가중된 인트라 예측 | |
US11363280B2 (en) | Method and apparatus for encoding/decoding image signal | |
US11909990B2 (en) | Method and apparatus for encoding/decoding image signals using weight prediction parameter sets based on neighboring regions | |
JP2023063506A (ja) | 構築されたアフィンマージ候補を導出する方法 | |
WO2023048646A9 (en) | Methods and systems for performing combined inter and intra prediction | |
WO2022095783A1 (en) | Offset-based refinement of intra prediction (orip) of video coding | |
WO2023277810A2 (en) | Methods and systems for cross-component adaptive loop filter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180904 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6825765 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |