JP6073445B2 - エッジオフセットを適用する方法 - Google Patents

エッジオフセットを適用する方法 Download PDF

Info

Publication number
JP6073445B2
JP6073445B2 JP2015206035A JP2015206035A JP6073445B2 JP 6073445 B2 JP6073445 B2 JP 6073445B2 JP 2015206035 A JP2015206035 A JP 2015206035A JP 2015206035 A JP2015206035 A JP 2015206035A JP 6073445 B2 JP6073445 B2 JP 6073445B2
Authority
JP
Japan
Prior art keywords
edge
quantization parameter
block
sample
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015206035A
Other languages
English (en)
Other versions
JP2016012943A (ja
Inventor
ミン ジャン
ミン ジャン
Original Assignee
インフォブリッジ ピーティーイー. エルティーディー.
インフォブリッジ ピーティーイー. エルティーディー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インフォブリッジ ピーティーイー. エルティーディー., インフォブリッジ ピーティーイー. エルティーディー. filed Critical インフォブリッジ ピーティーイー. エルティーディー.
Publication of JP2016012943A publication Critical patent/JP2016012943A/ja
Application granted granted Critical
Publication of JP6073445B2 publication Critical patent/JP6073445B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Analogue/Digital Conversion (AREA)
  • Diaphragms For Electromechanical Transducers (AREA)
  • Mechanical Treatment Of Semiconductor (AREA)
  • Crystals, And After-Treatments Of Crystals (AREA)
  • Electron Beam Exposure (AREA)
  • Image Analysis (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、原本サンプルと復元サンプルとの間の差分値を減らすためのサンプル適応的オフセット方法に関し、より詳しくは、現在サンプルと隣接サンプルとの間の差分値に基づいて復元サンプルに適応的にオフセットを適用する方法に関する。
映像データを符号化するために、複数個の映像標準が開発されてきた。前記映像標準は、例えば、MPEG−2、MPEG−4及びH.264/MPEG−4 AVCなどである。H.264/MPEG−4 AVCの後続標準として、HEVC(High Efficiency Video Coding)がISO/IEC Moving Picture Experts Group(MPEG)とITU−T Video Coding Expert Group(VCEG)により共同開発中である。
HEVCによると、一つのピクチャが複数個の最大コーディングユニット(LCU)に分割され、イントラ予測又はインター予測を利用して予測ブロックを生成することによって各最大コーディングユニットの一つ以上のコーディングユニットを符号化する。原本ブロックと予測ブロックとの間の残差ブロックが変換されて変換ブロックを生成し、変換ブロックは、量子化パラメータと予め決められた量子化マトリクスを利用して量子化される。量子化ブロックの量子化係数は、スキャンパターンを利用してスキャンされ、エントロピー符号化される。前記量子化係数は、逆量子化及び逆変換されて残差ブロックを生成する。前記残差ブロックは、予測ブロックと結合して復元映像を生成する。復元映像は、ブロッキングアーチファクトを除去するための一つ以上のデブロッキングフィルタを利用して適応的にフィルタリングされる。
しかし、H.264及び標準化進行中であるHEVCに記述されたデブロッキングフィルタ技術は、あまりにも複雑であるため、復号化装置における復号化性能を劣化させる。また、ブロックエッジにデブロッキングフィルタが適用されるとしても、原本サンプルとフィルタリングされたサンプルとの間の差分値は、依然として存在する。前記差分値を補償するために、サンプル適応的オフセット(SAO:Sample Adaptive Offset)過程が紹介される。しかし、現在のSAO過程によると、最適のエッジインデックスが決定できないため、原本サンプルとフィルタリングされたサンプルとの間の差分値が増加する問題がある。
したがって、後処理の性能を向上させ、且つ後処理の複雑度を減少させる新たな技術が要求される。
本発明が達成しようとする目的は、原本サンプルと復元サンプルとの間の差分値を減らし、前記差分値を補償するために使われるビット量を減らす方法を提供することである。
本発明によるエッジオフセットを適用する方法は、現在サンプルのエッジインデックスを生成し、現在サンプルに前記エッジインデックスに対応するエッジオフセットを適用することを特徴とする。前記エッジインデックスは、現在サンプルとエッジオフセットタイプにより決定される現在サンプルに隣接した2個のサンプルとの間の差分値を利用して生成される。
例えば、本願発明は以下の項目を提供する。
(項目1)
エッジオフセットを適用する方法において、
現在サンプルのエッジインデックスを生成するステップ;及び、
現在サンプルに前記エッジインデックスに対応するエッジオフセットを適用するステップ;を含み、
前記エッジインデックスは、以下の式により生成され、
edgeIdx=2+sign3(recPicture(x)−recPicture(x−1))+sign3(recPicture(x)−recPicture(x+1)
ここで、sign3(y)は、y値が0より大きい場合に1であり、y値が0より小さい場合に−1であり、及びy値が0の場合に0であり、recPicture(x)は、現在サンプル値を示し、recPicture(x−1)及びrecPicture(x+1)は、2個の隣接サンプルを示すことを特徴とする方法。
(項目2)
前記2個の隣接サンプルは、現在領域のエッジオフセットタイプにより決定されることを特徴とする項目1に記載の方法。
(項目3)
前記エッジオフセットは、前記エッジインデックスに基づいて正の値又は負の値に設定されることを特徴とする項目1に記載の方法。
(項目4)
前記エッジインデックスが0又は1の場合、前記エッジオフセットは、正の値に設定されることを特徴とする項目3に記載の方法。
(項目5)
前記エッジインデックスが3又は4の場合、前記エッジオフセットは、負の値に設定されることを特徴とする項目3に記載の方法。
(項目6)
前記エッジインデックスが2の場合、前記エッジオフセットは、0に設定されることを特徴とする項目1に記載の方法。
本発明による方法では、現在サンプルのエッジインデックスを生成し、現在サンプルに前記エッジインデックスに対応するエッジオフセットを適用することを特徴とする。前記エッジインデックスは、現在サンプルとエッジオフセットタイプにより決定される現在サンプルに隣接した2個のサンプルとの間の差分値を利用して生成される。したがって、最適のエッジインデックスを生成することによって原本サンプルと復元サンプルとの間の差分値を効果的に減少させる。また、オフセットの符号を正の値又は負の値に固定することによって前記差分値を減らすために要求されるビット量を減らすことができる。
本発明による動画符号化装置を説明するブロック図である。 本発明による動画復号化装置を説明するブロック図である。 本発明によるデブロッキングフィルタリング過程を説明するフローチャートである。 本発明による境界強度を決定する方法を説明する概念図である。 本発明による4−サンプルエッジを説明する概念図である。 本発明によるピクチャを複数個の領域に分割する方法を説明する概念図である。 本発明によるエッジタイプを説明する概念図である。 本発明によるエッジインデックスを説明する概念図である。
以下、本発明の多様な実施例を例示図面を参照して詳細に説明する。本発明は、多様な変更を加えることができ、多様な実施例を有することができ、本発明を特定の実施形態に対して限定するものではなく、本発明の思想及び技術範囲に含まれる全ての変更、均等物乃至代替物を含むと理解しなければならない。各図面の説明において、類似の構成要素に対して類似の参照符号を使用した。
本発明による映像符号化装置及び映像復号化装置は、パソコン、個人携帯端末、移動マルチメディアプレーヤー、スマートフォン又は無線通信ターミナルなどのようにユーザターミナルである。前記映像符号化装置及び映像復号化装置は、多様な機器と通信する通信ユニットと、映像を符号化又は復号化するために多様なプログラムとデータを格納するためのメモリとを具備する。
図1は、本発明による動画符号化装置1000を示すブロック図である。
図1を参照すると、前記動画符号化装置1000は、ピクチャ分割部1010、変換部1020、量子化部1030、スキャニング部1040、エントロピー符号化部1050、イントラ予測部1060、インター予測部1070、逆量子化部1080、逆変換部1090、後処理部1100、ピクチャ格納部1110、減算部1120及び加算部1130を含む。
ピクチャ分割部1010は、ピクチャ又はスライスを複数個のLCU(Largest Coding Unit)に分割し、前記各々のLCUを一つ以上のコーディングユニットに分割する。LCUのサイズは、32×32、64×64又は128×128である。ピクチャ分割部1010は、各コーディングユニットの予測モード及び分割モード(partitioning mode)を決定する。
一つのLCUは、一個又は複数個のコーディングユニット(coding unit)を含む。前記LCUは、分割構造を示すために、再帰的クワッドツリー構造(recursive quadtree structure)を有する。コーディングユニットの最大サイズ及び最小サイズを示す情報がシーケンスパラメータセット(sequence parameter set)に含まれる。前記分割構造は、一個又は複数個の分割コーディングユニットフラグ(split_cu_flag)を利用して特定される。コーディングユニットは、2N×2Nのサイズを有する。LCUのサイズが64×64であり、且つ最小コーディングユニット(SCU:smallest coding unit)が8×8の場合、コーディングユニットは、64×64、32×32、16×16又は8×8である。
コーディングユニットは、一個又は複数個の予測ユニット(prediction unit)を含む。イントラ予測において、前記予測ユニットのサイズは、2N×2N又はN×Nである。インター予測において、前記予測ユニットのサイズは、前記分割モードにより特定される。コーディングユニットが対称に分割されると、分割モードは、2N×2N、2N×N、N×2N及びN×Nのうち一つである。コーディングユニットが非対称に分割されると、分割モードは、2N×nU、2N×nD、nL×2N及びnR×2Nのうち一つである。
コーディングユニットは、一個又は複数個の変換ユニット(transform unit)を含む。変換ユニットは、コーディングユニットの分割構造を示すために、再帰的クワッドツリー構造(recursive quadtree structure)を有する。分割構造は、一個又は複数個の分割変換ユニットフラグにより表現される。変換ユニットの最大サイズ及び最小サイズを示すパラメータがシーケンスパラメータセットに含まれる。
変換部1020は、残差ブロックを変換して変換ブロックを生成する。残差信号は、変換ユニット単位に変換される。前記残差信号は、イントラ予測部1060又はインター予測部1070により生成される予測ブロックを原本ブロックから減算して誘導される。
予測モード(イントラ予測モード又はインター予測モード)に応じて変換マトリクスが変わることができる。また、イントラ予測モードでは、変換マトリクスがイントラ予測モードに基づいて適応的に決定されることができる。変換ユニットは、2個の1次元変換マトリクス(水平マトリクス及び垂直マトリクス)を利用して変換される。例えば、水平イントラ予測モードでは、残差信号が垂直方向性を有するため、DCTベースの整数マトリクスが垂直方向に適用され、DSTベース又はKLTベースの整数マトリクスが水平方向に適用されることができる。垂直イントラ予測モードでは、DCTベースの整数マトリクスが水平方向に適用され、DSTベース又はKLTベースの整数マトリクスが垂直方向に適用されることができる。一方、変換マトリクスの種類が変換ユニットのサイズにより決定されることもできる。
量子化部1030は、前記変換ブロックを量子化するための量子化パラメータを決定する。量子化パラメータは、量子化ステップサイズを意味する。量子化パラメータは、量子化ユニット毎に決定される。量子化ユニットは、予め決められたサイズより大きい又は同じコーディングユニットである。前記予め決められたサイズは、量子化ユニットの最小サイズである。前記最小サイズを有する量子化ユニットを最小量子化ユニットという。コーディングユニットのサイズが量子化ユニットの最小サイズより大きい又は同じ場合、前記コーディングユニットは、量子化ユニットになる。複数個のコーディングユニットが最小量子化ユニットに含まれることもできる。前記最小量子化ユニットは、8×8ブロック又は16×16ブロックである。前記最小サイズは、ピクチャ毎に決定されることができる。
量子化部1030は、量子化パラメータ予測子を生成し、量子化パラメータから量子化パラメータ予測子を減算して差分量子化パラメータを生成する。前記差分量子化パラメータは、符号化される。
前記量子化パラメータ予測子は、下記のように生成される。
[第1の実施例]
左側コーディングユニット、上側コーディングユニット及び左上側コーディングユニットの量子化パラメータは、前記順序通りに検索される。前記量子化パラメータ予測子は、一個又は二個の利用可能な量子化パラメータを利用して生成される。例えば、1番目の利用可能な量子化パラメータが前記量子化パラメータ予測子に設定される。または、最初の2個の利用可能な量子化パラメータの平均値を量子化パラメータ予測子に設定し、一つの量子化パラメータのみが利用可能な場合は、前記利用可能な量子化パラメータが量子化パラメータ予測子に設定される。
[第2の実施例]
現在ブロックの左側コーディングユニット、上側コーディングユニット及び左上側コーディングユニットが存在しない。しかし、符号化の順序上、現在コーディングユニットの以前コーディングユニットは存在することができる。したがって、現在コーディングユニットに隣接した隣接コーディングユニットと以前コーディングユニットの量子化パラメータが前記量子化パラメータ予測子の生成に使われることができる。前記量子化パラメータは、次の順序、即ち、1)左側隣接コーディングユニットの量子化パラメータ、2)上側隣接コーディングユニットの量子化パラメータ、3)左上側隣接コーディングユニットの量子化パラメータ、及び、4)以前コーディングユニットの量子化パラメータの順に検索される。
他の例として、量子化パラメータは、次の順序、即ち、1)左側隣接コーディングユニットの量子化パラメータ、2)上側隣接コーディングユニットの量子化パラメータ、及び、3)以前コーディングユニットの量子化パラメータの順に検索される。
少なくとも2個の量子化パラメータが利用可能な場合、前記順序に検索される最初の2個の利用可能な量子化パラメータの平均値を量子化パラメータ予測子に設定し、一つの量子化パラメータのみが利用可能な場合は、前記利用可能な量子化パラメータが量子化パラメータ予測子に設定される。例えば、前記左側及び上側コーディングユニットの量子化パラメータが利用可能な場合、前記左側及び上側量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記左側及び上側コーディングユニットの量子化パラメータのうち一つのみが利用可能な場合、前記利用可能な量子化パラメータと前記以前コーディングユニットの量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記左側及び上側コーディングユニットの量子化パラメータが両方とも利用可能でない場合、前記以前コーディングユニットの量子化パラメータが前記量子化パラメータ予測子に設定される。前記平均値は、四捨五入した値である。
量子化部1030は、量子化マトリクス及び量子化パラメータを利用して変換ブロックを量子化して量子化ブロックを生成する。量子化ブロックは、逆量子化部1080及びスキャニング部1040に提供される。
スキャニング部1040は、前記量子化ブロックにスキャンパターンを適用し、量子化係数をスキャンして1次元の量子化係数成分に変換する。
イントラ予測では、イントラ予測モード及び変換ユニットのサイズによって量子化係数の分布が変わる。したがって、スキャンパターンがイントラ予測モード及び変換ユニットのサイズに基づいて決定される。スキャンパターンは、ジグザグスキャン、垂直スキャン及び水平スキャンの中から決定されることができる。ジグザグスキャンは、対角線スキャンに代替されることができる。
例えば、変換ユニットのサイズが8×8より小さい又は同じ場合、垂直モード及び前記垂直モードに隣接した予め決められた個数のイントラ予測モードでは水平スキャンが選択され、水平モード及び前記水平モードに隣接した予め決められた個数のイントラ予測モードでは垂直スキャンが選択され、残りのイントラ予測モードではジグザグスキャン又は対角線スキャンが選択される。変換ユニットの大きさが8×8より大きい場合、全てのイントラ予測モードでジグザグスキャン又は対角線スキャンが選択される。
インター予測では、予め決められたスキャンパターンが使われる。前記予め決められたスキャンパターンは、ジグザグスキャン又は対角線スキャンである。
変換ユニットのサイズが予め決められたサイズより大きい場合、前記量子化ブロックは、複数個のサブセットに分割されてスキャンされる。前記予め決められたサイズは4×4である。サブセットをスキャンするスキャンパターンは、各サブセット内の量子化係数をスキャンするスキャンパターンと同じである。各サブセット内の量子化係数は、逆方向にスキャンされる。サブセットも逆方向にスキャンされる。
0でない最後の係数位置を示すパラメータが符号化され、復号器に送信される。前記0でない最後の係数位置は、変換ユニット内の0でない最後の量子化係数の位置を示す。サブセット内の0でない最後の量子化係数の位置を示すパラメータも復号器に送信されることができる。
逆量子化部1080は、前記量子化係数を逆量子化する。逆変換部1090は、逆量子化された係数を逆変換して残差信号を生成する。
加算部1130は、逆変換部1090により生成される残差信号とイントラ予測部1060又はインター予測部1070により生成される予測信号を加える。減算部1120は、原本サンプルから予測サンプルを減算して残差信号を生成する。
後処理部1100は、デブロッキングフィルタリング(deblocking filtering)過程、サンプル適応的オフセット(sample adaptive offset)過程及び適応的ループフィルタリング(adaptive loop filtering)過程を実行する。
デブロッキングフィルタリング過程は、復元ピクチャ内に示すブロッキングアーチファクトを除去するために実行される。
サンプル適応的オフセット過程は、デブロッキングフィルタリング過程後に原本サンプルと復元サンプルとの間の差を減らすために実行される。サンプル適応的オフセット過程を実行するかどうかは、ピクチャ又はスライス毎に決定される。ピクチャ又はスライスは、複数個のオフセット領域に分けられ、各領域に対してオフセットタイプが決定されることができる。4個のエッジオフセットタイプと2個のバンドオフセットタイプが存在する。オフセットタイプがエッジオフセットタイプのうち一つの場合、前記オフセット領域内の各サンプル毎にエッジタイプが決定される。前記エッジタイプは、現在サンプルと2個の隣接したサンプルを比較して決定される。
適応的ループフィルタリング過程は、フィルタ係数を取得するために復元された映像と原本映像を比較して実行される。フィルタ係数は、4×4ブロック又は8×8ブロック内の全てのサンプルに適用される。したがって、ループフィルタのサイズ及び係数は、コーディングユニット単位に変更されることができる。
ピクチャ格納部1110は、後処理部1100から復元ピクチャを受信し、それらをメモリに格納する。ピクチャは、フレームベースのピクチャ又はフィールドベースのピクチャである。
インター予測部1070は、ピクチャ格納部1110に格納されている一つ以上の参照ピクチャを利用して動き予測を実行し、一つ以上の参照ピクチャを特定する一つ以上の参照ピクチャインデックスと一つ以上の動きベクトルを決定する。インター予測部1070は、前記一つ以上の参照ピクチャインデックス及び一つ以上の動きベクトルを利用して予測ブロックを生成する。
イントラ予測部1060は、現在予測ユニットのイントラ予測モードを決定し、前記イントラ予測モードを利用して予測ブロックを生成する。
エントロピー符号化部1050は、スキャニング部1040から受信される量子化された係数成分、イントラ予測部1060から受信されるイントラ予測情報、インター予測部1070から受信される動き情報などをエントロピー符号化する。
図2は、本発明による動画復号化装置2000を説明するブロック図である。
図2に示すように、本発明による動画復号化装置2000は、エントロピー復号化部2010、逆スキャニング部2020、逆量子化部2030、逆変換部2040、イントラ予測部2050、インター予測部2060、後処理部2070、ピクチャ格納部2080及び加算部2090を含む。
エントロピー復号化部2010は、受信されたビットストリームからイントラ予測情報、インター予測情報及び量子化係数成分を抽出してエントロピー復号化する。エントロピー復号化部2010は、インター予測情報をインター予測部2060に送信し、イントラ予測情報をイントラ予測部2050に送信し、量子化係数成分を逆スキャニング部2020に送信する。
逆スキャニング部2020は、逆スキャンパターンを利用して前記量子化係数成分を2次元の量子化ブロックに変換する。
イントラ予測では、イントラ予測モード及び変換ユニットのサイズに基づいて逆スキャンパターンが選択される。逆スキャンパターンは、ジグザグスキャン、垂直スキャン及び水平スキャンの中から選択されることができる。ジグザグスキャンは、対角線スキャンに代替されることができる。
例えば、変換ユニットのサイズが8×8より小さい又は同じ場合、垂直モード及び前記垂直モードに隣接した予め決められた個数のイントラ予測モードでは水平スキャンが選択され、水平モード及び前記水平モードに隣接した予め決められた個数のイントラ予測モードでは垂直スキャンが選択され、残りのイントラ予測モードではジグザグスキャン又は対角線スキャンが選択される。変換ユニットの大きさが8×8より大きい場合、全てのイントラ予測モードでジグザグスキャン又は対角線スキャンが選択される。
インター予測では、予め決められたスキャンパターンが使われる。前記予め決められたスキャンパターンは、ジグザグスキャン又は対角線スキャンである。
変換ユニットのサイズが予め決められたサイズより大きい場合、前記量子化係数成分は、サブセット単位に逆スキャンされて量子化ブロックを構成する。前記サブセットは、予め決められたサイズを有する。前記予め決められたサイズは、4×4である。変換ユニットのサイズと前記予め決められたサイズが同じ場合、前記量子化係数成分が逆スキャンされて変換ユニットを構成する。前記量子化係数成分がサブセット単位に逆スキャンされる時、同じ逆スキャンパターンが各サブセットの量子化係数成分に適用されることができる。
複数個のサブセットは、逆方向に逆スキャンされる。前記量子化係数成分も逆方向に逆スキャンされる。サブセットを構成するために、量子化係数成分に適用される逆スキャンパターンと複数個の生成された逆スキャンサブセットに適用される逆スキャンパターンが同じである。逆スキャニング部2020は、変換ユニットの0でない最後の量子化係数の位置を示すパラメータを使用して逆スキャンを実行する。
逆量子化部2030は、エントロピー復号化部2010から差分量子化パラメータを受信し、量子化パラメータ予測子を生成して現在コーディングユニットの量子化パラメータを生成する。
前記量子化パラメータ予測子は、下記のように生成される。
[第1の実施例]
左側コーディングユニット、上側コーディングユニット及び左上側コーディングユニットの量子化パラメータは、前記順序通りに検索される。前記量子化パラメータ予測子は、一個又は二個の利用可能な量子化パラメータを利用して生成される。例えば、1番目の利用可能な量子化パラメータが前記量子化パラメータ予測子に設定される。または、最初の2個の利用可能な量子化パラメータの平均値を量子化パラメータ予測子に設定し、一つの量子化パラメータのみが利用可能な場合は、前記利用可能な量子化パラメータが量子化パラメータ予測子に設定される。
[第2の実施例]
現在ブロックの左側コーディングユニット、上側コーディングユニット及び左上側コーディングユニットが存在しない。しかし、符号化の順序上、現在コーディングユニットの以前コーディングユニットは存在することができる。したがって、現在コーディングユニットに隣接した隣接コーディングユニットと以前コーディングユニットの量子化パラメータが前記量子化パラメータ予測子の生成に使われることができる。前記量子化パラメータは、次の順序、即ち、1)左側隣接コーディングユニットの量子化パラメータ、2)上側隣接コーディングユニットの量子化パラメータ、3)左上側隣接コーディングユニットの量子化パラメータ、及び、4)以前コーディングユニットの量子化パラメータの順に検索される。
他の例として、量子化パラメータは、次の順序、即ち、1)左側隣接コーディングユニットの量子化パラメータ、2)上側隣接コーディングユニットの量子化パラメータ、及び、3)以前コーディングユニットの量子化パラメータの順に検索される。
少なくとも2個の量子化パラメータが利用可能な場合、前記順序に検索される最初の2個の利用可能な量子化パラメータの平均値を量子化パラメータ予測子に設定し、一つの量子化パラメータのみが利用可能な場合は、前記利用可能な量子化パラメータが量子化パラメータ予測子に設定される。例えば、前記左側及び上側コーディングユニットの量子化パラメータが利用可能な場合、前記左側及び上側量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記左側及び上側コーディングユニットの量子化パラメータのうち一つのみが利用可能な場合、前記利用可能な量子化パラメータと前記以前コーディングユニットの量子化パラメータの平均値が前記量子化パラメータ予測子に設定される。前記左側及び上側コーディングユニットの量子化パラメータが両方とも利用可能でない場合、前記以前コーディングユニットの量子化パラメータが前記量子化パラメータ予測子に設定される。前記平均値は、四捨五入した値である。
逆量子化部2030は、前記差分量子化パラメータと前記量子化パラメータ予測子を加えて現在コーディングユニットの量子化パラメータを生成する。現在コーディングユニットの差分量子化パラメータが符号器側から受信されない場合、前記差分量子化パラメータは、0に設定される。前記量子化パラメータは、量子化ユニット毎に生成される。
逆量子化部2030は、量子化ブロックを逆量子化する。
逆変換部2040は、前記逆量子化されたブロックを逆変換して残差ブロックを生成する。逆変換タイプは、予測モード(イントラ予測モード及びインター予測モード)及び変換ユニットのサイズに基づいて決定される。
加算部2090は、前記残差ブロックと予測ブロックを加えて復元サンプルを生成する。
イントラ予測部2050は、エントロピー復号化部2010から受信されたイントラ予測情報に基づいて現在予測ユニットのイントラ予測モードを復元し、前記復元されたイントラ予測モードに応じて予測ブロックを生成する。
インター予測部2060は、エントロピー復号化部2010から受信されるインター予測情報に基づいて一つ以上の参照ピクチャインデックスと一つ以上の動きベクトルを復元し、前記一つ以上の参照ピクチャインデックスと一つ以上の動きベクトルを利用して予測ブロックを生成する。
後処理部2070の動作は、図1の後処理部1100の動作と同様である。
ピクチャ格納部2080は、後処理部2070から後処理されたピクチャを格納する。
図3は、本発明によるデブロッキングフィルタリング過程を説明するフローチャートである。
デブロッキングフィルタリング過程は、図1に示す動画符号化装置の後処理部1100及び図2に示す動画復号化装置の後処理部2070により実行される。
デブロッキングフィルタリングがスライスに実行されると決定されると、デブロッキングフィルタリング過程が前記スライスに適用される。動画復号化装置は、デブロッキングフィルタリングが実行されるかどうかをスライス毎に決定するために、ビットストリームから受信されたフラグ(diable_deblocking_filter_flag)を利用する。
デブロッキングフィルタリングは、コーディングユニット単位に実行される。まず、コーディングユニットの左側エッジ部から始まって右側方向に垂直エッジがフィルタリングされる。次に、コーディングユニットの上側エッジ部から始まって下側方向に水平エッジがフィルタリングされる。
デブロッキングフィルタは、予測ユニットエッジと変換ユニットエッジにのみ適用される。予測ユニット又は変換ユニットのサイズの幅又は高さが8−サンプル長さより小さい場合、デブロッキングフィルタは、8×8サンプルグリッドに置かれているエッジに対してのみ適用される。
8×8サンプルグリッドに置かれている4−サンプルエッジに対して境界強度(bS)が決定される(S110)。
図4は、本発明による境界強度(bS)を決定するための方法を説明する概念図である。
図4に示すように、境界強度は、8×8サンプルグリッドに置かれている4−サンプルエッジに対して決定される。そして、連続的な2個の境界強度を利用して8×8ブロックエッジに対して境界強度が決定される。
したがって、本発明によると、境界強度を決定するために要求される演算複雑度は、標準化が進行中であるHEVCに比べて50%が減少する。また、境界強度を決定するために要求されるメモリ容量と帯域幅も50%を減らすことができる。結果的に、本発明は、映像品質の劣化無しでハードウェア及びソフトウェアの複雑度を減らすようになる。
図5は、本発明による4−サンプルエッジを説明する概念図である。図5に示すように、4−サンプルエッジは、サンプルp0を含むPブロックとサンプルq0を含むQブロックとの間に位置する。サンプルp0は、サンプルp0〜p0のうち一つに対応し、サンプルq0は、サンプルq0〜q0のうち一つに対応する。ブロックPとQは、予測ユニット又は変換ユニットである。
前記境界強度は、下記のように決定される。境界強度は、4−サンプルエッジ毎に決定される。
サンプルp0を含む予測ユニット又はサンプルq0を含む予測ユニットがイントラ予測符号化された場合は、4−サンプルエッジの境界強度が2に設定される。4−サンプルエッジは、予測ユニットのエッジである。即ち、ブロックPとブロックQがインター符号化されると、境界強度は、0又は1に設定される。
下記の条件のうち一つ以上を満たす場合、境界強度は、1に設定される。
1)4−サンプルエッジが変換ユニットエッジであり、サンプルp0を含む変換ユニット又はサンプルq0を含む変換ユニットが少なくとも一つの0でない変換係数を含む場合。
2)4−サンプルエッジが予測ユニットエッジであり、サンプルp0を含む予測ユニット及びサンプルq0を含む予測ユニットがインター予測符号化され、サンプルp0を含む予測ユニット及びサンプルq0を含む予測ユニットが互いに異なる参照ピクチャを有し、又は互いに異なる個数の動きベクトルを有する場合。
3)サンプルp0を含む予測ユニット及びサンプルq0を含む予測ユニットがインター予測符号化され、サンプルp0を含む予測ユニット及びサンプルq0を含む予測ユニットが各々一つの動きベクトルを有し、前記動きベクトルの水平又は垂直成分間の差の絶対値が予め決められた値(例えば、1サンプル)より大きい又は同じ場合。前記エッジは、LCUの水平境界の一部ではない。
4)サンプルp0を含む予測ユニット及びサンプルq0を含む予測ユニットがインター予測符号化され、サンプルp0を含む予測ユニット及びサンプルq0を含む予測ユニットが各々2個の動きベクトルを有し、サンプルp0を含む予測ユニット及びサンプルq0を含む予測ユニットが少なくとも一つの同じ参照ピクチャを有し、同じ参照ピクチャに対応する2個の動きベクトルの水平又は垂直成分間の差の絶対値が前記予め決められた値より大きい又は同じ場合。前記エッジは、LCUの水平境界の一部ではない。
前述したように、4−サンプルエッジが8×8サンプルグリッドに置かれていない場合、境界強度は、0に設定される。
一方、前記エッジがLCU水平境界であり、サンプルp0を含む予測ユニットがLCU水平境界の上側に位置すると、サンプルp0を含む予測ユニットの動き情報は、サンプルp0を含む予測ユニットの大きさ及び/又は現在予測ユニットの位置に基づいて、サンプルp0を含む予測ユニットの左側又は上側隣接予測ユニットの動き情報に代替されることができる。
次に、4−サンプルエッジにデブロッキングフィルタリングが実行されるかどうかが決定される(S120)。
各4−サンプルエッジに対して、下記の二つの条件を満たす場合、デブロッキングフィルタリングが実行される。
1)bS>0
2)d<β
bSは、境界強度を示す。変数βの値は、境界量子化パラメータQPに基づいて決定される。
前記変数dは、下記のように定義される。
1)d=dp0+dq0+dp3+dq3
2)dpk=|p2−2・p1+p0|であり、dqk=|q2−2・q1+q0
次に、デブロッキングフィルタリングが4−サンプルエッジに適用されると決定されると、ストロングフィルタ(strong filter)とウィークフィルタ(weak filter)の中から一つのデブロッキングフィルタが選択される。しかし、デブロッキングフィルタリングが4−サンプルエッジに適用されないと決定されると、前記エッジに対するデブロッキングフィルタリング過程が終了される。図5に示すように、4−サンプルエッジに対して一つのフィルタが選択される。
下記の条件を満たす場合、ストロングフィルタが選択される。
1)d<(β>>2)
2)|p3−p0|+|q3−q0|<(β>>3) for each i、i=0,3
3)|p0−q0|<(5*t+1)>>1 for each i、i=0,3
又は
1)d<(β>>1) for each i、i=0,3
2)|p3−p0|+|q3−q0|<(β>>3) for each i、i=0,3
3)|p0−q0|<(5*t+1)>>1 for each i、i=0,3
そうでない場合、ウィークフィルタが選択される。変数tは、前記境界量子化パラメータQPに基づいて決定される。
次に、デブロッキングフィルタが選択されると、前記エッジは、前記デブロッキングフィルタを使用してフィルタリングされる(S140)。
ストロングフィルタは、下記の通りである。
′=(p+2*p+2*p+2*q+q+4)>>3)
′=(p+p+p+q+2)>>2
′=(2*p+3*p+p+p+q+4)>>3
′=(p+2*p+2*q+2*q+q+4)>>3
′=(p+q+q+q+2)>>2
′=(p+q+q+3*q+2*q+4)>>3
ウィークフィルタは、下記の通りである。
△=Clip3(−t,t,△)
′=Clip1(p+△)
′=Clip1(q−△)
△p=Clip3(−(t>>1)、t>>1、(((p+p+1)>>1)−p+△)>>1)
′=Clip1(p+△p)
△q=Clip3(−(t>>1)、t>>1、(((q+q+1)>>1)−q−△)>>1)
′=Clip1(q+△q)
変数β及びtは、前記境界量子化パラメータ(QP)により決定され、前記境界量子化パラメータ(QP)が増加するほど同じ又は大きくなる。変数βとt及び前記境界量子化パラメータ間の関係は、テーブルとして定義される。
前記境界量子化パラメータ(QP)は、サンプルp0を含むPブロックの量子化パラメータ(QP)とサンプルq0を含むQブロックの量子化パラメータ(QP)の平均値である。前記平均値は、四捨五入した値である。PブロックとQブロックのうち少なくとも一つがイントラ符号化されると、前記境界量子化パラメータ(QP)が1ずつ増加するほど、前記変数tは、0、1又は2ずつ増加する。
以下、本発明によるサンプル適応的オフセット過程に対して説明する。サンプル適応的オフセット過程は、図1に示す動画符号化装置1000の後処理部1100及び図2に示す動画復号化装置2000の後処理部2070により実行される。
図6は、本発明によるピクチャを複数個の領域に分割する方法を説明する概念図である。SAOタイプは、各領域毎に定義される。図6に示すように、ピクチャをクワッドツリー構造に分割して前記領域が生成される。前記領域は、LCUであってもよい。三つの種類のSAOタイプが存在する。SAOタイプが最初のタイプ(OFF)の場合、対応する領域にはSAO過程が実行されない。SAOタイプがバンドオフセット(BO)を示す場合、対応領域内の各サンプルにバンドオフセットが加えられる。SAOタイプがエッジオフセット(EO)の場合、エッジインデックスにより決定されるエッジオフセットが対応する領域内の各サンプルに加えられる。
図7は、本発明によるエッジタイプを説明する概念図である。
図7に示すように、エッジオフセットには4個のエッジタイプが存在する。前記エッジタイプは、エッジインデックスを誘導するために使われる隣接サンプルの位置により決定される。1番目のエッジタイプは、1D 0−degreeエッジタイプであり、2番目のエッジタイプは、1D 90−degreeエッジタイプであり、3番目のエッジタイプは、1D 135−degreeエッジタイプであり、4番目のエッジタイプは、1D 90−degreeエッジタイプである。サンプルCは、現在サンプルを示し、斜線で表示された2個のサンプルは、エッジタイプによって決定される2個の隣接サンプルを示す。
前記オフセットタイプが前記四つのオフセットタイプのうち一つを示す時、本発明によるサンプル適応的オフセット過程は、下記のように行われる。
第一に、現在サンプルと2個の隣接サンプルとの間の差分値を利用してエッジインデックスが誘導される。2個の隣接サンプルは、現在領域のエッジオフセットタイプによって決定される。現在領域内の各サンプルに対してエッジインデックスが誘導される。エッジインデックスは、下記のように誘導される。
edgeIdx=2+sign3(recPicture(x)−recPicture(x−1))+sign3(recPicture(x)−recPicture(x+1))
関数sign3(y)は、y値が0より大きい場合に1であり、y値が0より小さい場合に−1であり、及びy値が0の場合に0の値を有する。
変数recPicture(x)は、現在サンプル値を示し、変数recPicture(x−1)及び変数recPicture(x+1)は、2個の隣接サンプル値を示す。前記2個の隣接サンプルは、現在領域のエッジオフセットタイプにより決定される。
図8は、本発明によるエッジインデックスを説明する概念図である。図8において、水平軸はサンプル位置を示し、垂直軸はサンプル値を示す。
図8に示すように、前記2個の隣接サンプル値が両方とも現在サンプル値より大きい場合、前記エッジインデックスは、0に設定され、前記2個の隣接サンプル値のうち一つは、現在サンプル値より大きく、他の一つは、現在サンプル値と同じ場合、前記エッジインデックスは、1に設定され、前記2個の隣接サンプル値のうち一つは、現在サンプル値より大きく、他の一つは、現在サンプル値より小さい場合、前記エッジインデックスは、2に設定され、前記2個の隣接サンプル値のうち一つは、現在サンプル値より小さく、他の一つは、現在サンプル値と同じ場合、前記エッジインデックスは、3に設定され、前記2個の隣接サンプル値が両方とも現在サンプル値より小さい場合、前記エッジインデックスは、4に設定される。前記2個の隣接サンプル値が両方とも現在サンプル値と同じ場合も、2に設定される。
一方、前記2個の隣接サンプルのうち一つが他のLCUに属すると、前記現在サンプルにオフセットが適用されない、又は現在LCU内の他の隣接サンプルが前記他のLCUに属する隣接サンプルの代わりに利用されることができる。
次に、エッジオフセットが現在サンプルに以下のように加えられる。
recSaoPicture(x)=recPicture(x)+Edge_Offset[edgeIdx]
エッジオフセットは、エッジインデックスに基づいて決定される。動画復号化装置では、動画符号化装置1000から送信されたビットストリームから前記エッジオフセットを取得する。動画符号化装置1000は、四つ又は五つの種類のエッジオフセットを送信することができる。四つの種類のエッジオフセットが送信されると、前記四つの種類のエッジオフセットは、各々、エッジインデックス0、1、3、4に対応し、エッジオフセットは、0と見なされることができる。
エッジオフセットは、正の値又は負の値を有することができる。前記領域が大きくなるにつれて四つの種類のエッジオフセットを送信するために要求されるビット量が増加する。本発明によるビット量を減少させる方法は、下記の通りである。
[第1の実施例]
エッジインデックス0には正のオフセットが適用され、エッジインデックス4には負のオフセットが適用される。即ち、前記2個のエッジオフセットの絶対値のみが送信されてビット量を減らすことができる。エッジインデックス1と3に対してはエッジオフセットの絶対値と符号が送信される。
[第2の実施例]
エッジインデックス0及び1に正のオフセットが適用され、エッジインデックス3及び4に負のオフセットが適用される。即ち、四つの種類のオフセットの絶対値のみが送信されてビット量を減らすことができる。
追加に、現在サンプルと一つの隣接サンプルとの差分値が閾値より大きい場合、現在サンプルにオフセットが加えられない。例えば、現在サンプルと一つの隣接サンプルとの差分値が前記閾値より大きい場合、オフセット値は、0に設定される。そうでない場合、正のオフセット又は負のオフセットが使われる。
以上、実施例を参照して説明したが、該当技術分野の熟練された当業者は、特許請求の範囲に記載された本発明の思想及び領域から外れない範囲内で本発明を多様に修正及び変更可能であることを理解することができる。
1100 後処理部

Claims (11)

  1. 映像を復元する方法であって、
    量子化係数成分を逆スキャンして量子化ブロックを生成するステップ;
    量子化パラメータを利用して前記量子化ブロックを逆量子化して変換ブロックを生成するステップ;
    前記変換ブロックを逆変換して残差ブロックを生成するステップ;
    インター予測またはイントラ予測によって予測ブロックを生成するステップ;
    前記残差ブロックと前記予測ブロックを利用して復元ブロックを生成するステップ;
    予測ブロックのエッジまたは変換ブロックのエッジであって8×8サンプルグリッド上に位置する4−サンプルエッジ毎に境界強度を決定するステップ;
    前記境界強度及び境界量子化パラメータを利用して、前記4−サンプルエッジにデブロッキングフィルタを適用するかどうかを決定するステップ;及び
    前記決定に従って、前記4−サンプルエッジにデブロッキングフィルタを適用するステップ;を含み、
    前記境界量子化パラメータは、前記4−サンプルエッジの両側ブロックであるPブロックの量子化パラメータとQブロックの量子化パラメータの平均値に設定され、
    前記Pブロックの量子化パラメータは、前記Pブロックの量子化パラメータ予測子及び差分量子化パラメータを利用して生成され、
    前記Pブロックの量子化パラメータ予測子は、前記Pブロックの左側量子化パラメータ、上側量子化パラメータ及び以前量子化パラメータのうち予め決められた順序に決定される利用可能な2個の量子化パラメータの平均値に設定され、
    前記左側及び上側量子化パラメータのうち一つのみが利用可能な場合、前記Pブロックの量子化パラメータ予測子は、前記利用可能な一つの量子化パラメータと以前量子化パラメータの平均値に設定されることを特徴とする方法。
  2. 前記デブロッキングフィルタを適用するステップ以後に、サンプル適応的オフセットタイプの指示に従って、オフセットを適用するステップを含むことを特徴とする請求項1に記載の方法。
  3. 前記サンプル適応的オフセットタイプがエッジオフセットを指示する場合、
    前記オフセットを適用するステップは、
    現在サンプルのエッジインデックスを生成するステップ;及び
    前記エッジインデックスに対応するエッジオフセットを前記現在サンプルに適用するステップ;を含むことを特徴とする請求項2に記載の方法。
  4. 前記エッジインデックスは、数式edgeIdx=2+sign3(recPicture(x)−recPicture(x−1))+sign3(recPicture(x)−recPicture(x+1))により生成され、前記数式において、sign3(y)は、y値が0より大きい場合に1であり、y値が0より小さい場合に−1であり、及びy値が0の場合に0であり、recPicture(x)は、現在サンプル値を示し、recPicture(x−1)及びrecPicture(x+1)は、2個の隣接サンプルを示すことを特徴とする請求項3に記載の方法。
  5. 前記エッジオフセットは、前記エッジインデックスに基づいて正の値または負の値に設定されることを特徴とする請求項3に記載の方法。
  6. 前記エッジインデックスが0または1の場合、前記エッジオフセットは、正の値に設定されることを特徴とする請求項5に記載の方法。
  7. 前記エッジインデックスが3または4の場合、前記エッジオフセットは、負の値に設定されることを特徴とする請求項5に記載の方法。
  8. 前記エッジインデックスが2の場合、前記エッジオフセットは、0に設定されることを特徴とする請求項5に記載の方法。
  9. 前記2個の隣接サンプルのうち一つが他のLCUに属すると、現在サンプルにエッジオフセットを適用しないことを特徴とする請求項4に記載の方法。
  10. 前記左側及び上側量子化パラメータが両方とも利用可能でない場合、前記Pブロックの量子化パラメータ予測子は、前記以前量子化パラメータの値に設定されることを特徴とする請求項1に記載の方法。
  11. 前記残差ブロックを生成するステップにおいて、予測モード及び変換ユニットのサイズに基づいて逆変換タイプが決定されることを特徴とする請求項1に記載の方法。
JP2015206035A 2012-01-17 2015-10-20 エッジオフセットを適用する方法 Active JP6073445B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120005334 2012-01-17
KR10-2012-0005334 2012-01-17

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014543766A Division JP5828967B2 (ja) 2012-01-17 2013-01-08 エッジオフセットを適用する方法

Publications (2)

Publication Number Publication Date
JP2016012943A JP2016012943A (ja) 2016-01-21
JP6073445B2 true JP6073445B2 (ja) 2017-02-01

Family

ID=48756391

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2014543766A Active JP5828967B2 (ja) 2012-01-17 2013-01-08 エッジオフセットを適用する方法
JP2015206032A Active JP6073442B2 (ja) 2012-01-17 2015-10-20 エッジオフセットを適用する方法
JP2015206034A Active JP6073444B2 (ja) 2012-01-17 2015-10-20 エッジオフセットを適用する方法
JP2015206033A Active JP6073443B2 (ja) 2012-01-17 2015-10-20 エッジオフセットを適用する方法
JP2015206035A Active JP6073445B2 (ja) 2012-01-17 2015-10-20 エッジオフセットを適用する方法
JP2017000212A Active JP6302577B2 (ja) 2012-01-17 2017-01-04 エッジオフセットを適用する方法

Family Applications Before (4)

Application Number Title Priority Date Filing Date
JP2014543766A Active JP5828967B2 (ja) 2012-01-17 2013-01-08 エッジオフセットを適用する方法
JP2015206032A Active JP6073442B2 (ja) 2012-01-17 2015-10-20 エッジオフセットを適用する方法
JP2015206034A Active JP6073444B2 (ja) 2012-01-17 2015-10-20 エッジオフセットを適用する方法
JP2015206033A Active JP6073443B2 (ja) 2012-01-17 2015-10-20 エッジオフセットを適用する方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017000212A Active JP6302577B2 (ja) 2012-01-17 2017-01-04 エッジオフセットを適用する方法

Country Status (17)

Country Link
US (7) US9172961B2 (ja)
EP (5) EP3998773A1 (ja)
JP (6) JP5828967B2 (ja)
KR (3) KR20140057391A (ja)
CN (7) CN107888919B (ja)
AU (1) AU2013211395B2 (ja)
BR (5) BR112014008256B1 (ja)
CA (4) CA2849038C (ja)
IL (5) IL231708A (ja)
IN (1) IN2014CN03867A (ja)
MX (6) MX340366B (ja)
MY (6) MY195625A (ja)
PH (4) PH12016502086A1 (ja)
RU (5) RU2686010C2 (ja)
SG (2) SG11201400670XA (ja)
TW (2) TWI558212B (ja)
WO (1) WO2013107314A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102835114B (zh) * 2010-04-13 2016-06-15 松下电器(美国)知识产权公司 图像解码方法及图像解码装置
KR20120140181A (ko) 2011-06-20 2012-12-28 한국전자통신연구원 화면내 예측 블록 경계 필터링을 이용한 부호화/복호화 방법 및 그 장치
KR20130049523A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 장치
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
AR092786A1 (es) * 2012-01-09 2015-05-06 Jang Min Metodos para eliminar artefactos de bloque
JP5828967B2 (ja) * 2012-01-17 2015-12-09 インフォブリッジ ピーティーイー. エルティーディー. エッジオフセットを適用する方法
CN104243985B (zh) * 2014-09-29 2018-05-08 北方工业大学 Hevc中的样本自适应补偿
EP3206403A4 (en) * 2014-11-04 2017-11-01 Samsung Electronics Co., Ltd. Video encoding method and apparatus therefor, and video decoding method and apparatus therefor, in which edge type offset is applied
EP3220643A1 (en) * 2016-03-14 2017-09-20 Thomson Licensing Method and device for encoding at least one image unit, and method and device for decoding a stream representative of at least one image unit
KR20180021942A (ko) 2016-08-22 2018-03-06 광운대학교 산학협력단 보안 카메라용 영상 코덱에서 블록 분할 정보 전송 방법 및 장치
CN110365988B (zh) * 2018-04-11 2022-03-25 瑞芯微电子股份有限公司 一种h.265编码方法和装置
GB2575119B (en) * 2018-06-29 2021-11-24 Canon Kk Methods and devices for performing sample adaptive offset (SAO) filtering
EP3595308A1 (en) 2018-07-12 2020-01-15 THOMSON Licensing Method and apparatus for encoding an image
WO2020141880A1 (ko) * 2019-01-02 2020-07-09 엘지전자 주식회사 영상 코딩 시스템에서 디블록킹 필터링을 사용하는 영상 디코딩 방법 및 장치
WO2020141885A1 (ko) * 2019-01-02 2020-07-09 엘지전자 주식회사 디블록킹 필터링을 사용하는 영상 코딩 방법 및 장치
KR20240074918A (ko) 2019-01-25 2024-05-28 후아웨이 테크놀러지 컴퍼니 리미티드 인코더, 디코더 및 디블로킹 필터 적응 방법
BR112022001077A2 (pt) 2019-07-19 2022-03-15 Lg Electronics Inc Método e dispositivo de codificação/decodificação de imagem usando filtragem e método para transmitir fluxo de bits
WO2021025597A1 (en) * 2019-08-07 2021-02-11 Huawei Technologies Co., Ltd. Method and apparatus of sample adaptive offset in-loop filter with application region size constraint
US11245896B1 (en) * 2021-02-26 2022-02-08 Realtek Semiconductor Corporation Deblocking filter level decision method
CN113613004A (zh) * 2021-09-14 2021-11-05 百果园技术(新加坡)有限公司 图像编码方法、装置、电子设备及存储介质

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7450641B2 (en) * 2001-09-14 2008-11-11 Sharp Laboratories Of America, Inc. Adaptive filtering based upon boundary strength
MXPA04002265A (es) * 2002-07-11 2004-06-29 Matsushita Electric Ind Co Ltd Metodo de determinacion de resistencia de filtracion, metodo de codificacion de pelicula y metodo de decodificacion de pelicula.
US7227901B2 (en) * 2002-11-21 2007-06-05 Ub Video Inc. Low-complexity deblocking filter
US7636642B2 (en) * 2003-06-19 2009-12-22 Teradyne, Inc. Direct jitter analysis of binary sampled data
EP1513350A1 (en) * 2003-09-03 2005-03-09 Thomson Licensing S.A. Process and arrangement for encoding video pictures
US7724827B2 (en) * 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7689051B2 (en) * 2004-04-15 2010-03-30 Microsoft Corporation Predictive lossless coding of images and video
US7551322B2 (en) * 2004-06-29 2009-06-23 Intel Corporation Image edge filtering
US8116379B2 (en) * 2004-10-08 2012-02-14 Stmicroelectronics, Inc. Method and apparatus for parallel processing of in-loop deblocking filter for H.264 video compression standard
JP2007006390A (ja) * 2005-06-27 2007-01-11 Sony Corp 画像処理装置、画像処理方法及びプログラム
CN101375594B (zh) * 2006-01-12 2011-09-07 Lg电子株式会社 处理多视图视频
CN101491095B (zh) * 2006-03-30 2013-07-10 Lg电子株式会社 用于解码/编码视频信号的方法和装置
WO2008083296A2 (en) * 2006-12-28 2008-07-10 Vidyo, Inc. System and method for in-loop deblocking in scalable video coding
US20080298472A1 (en) * 2007-06-04 2008-12-04 Texas Instruments Incorporated Throughput Performance When Applying Deblocking Filters On Reconstructed Image Frames
CN101321277A (zh) * 2007-06-09 2008-12-10 华为技术有限公司 去块效应的方法及装置
CN100562114C (zh) * 2007-08-30 2009-11-18 上海交通大学 视频解码方法与解码装置
CN101389016B (zh) * 2007-09-13 2010-10-20 华为技术有限公司 获得块边界强度和去除块效应的方法和装置
CN100531392C (zh) * 2007-09-20 2009-08-19 上海交通大学 H.264去块效应滤波器的硬件实现方法
US8542730B2 (en) * 2008-02-22 2013-09-24 Qualcomm, Incorporated Fast macroblock delta QP decision
US7924317B2 (en) * 2008-03-12 2011-04-12 Aptina Imaging Corporation Method and apparatus for reducing motion blur in digital images
US20110002395A1 (en) * 2008-03-31 2011-01-06 Nec Corporation Deblocking filtering processor and deblocking filtering method
US9042457B2 (en) * 2008-06-10 2015-05-26 Panasonic Intellectual Property Management Co., Ltd. Image decoding apparatus and image coding apparatus wth parallel decoding
CN102113326A (zh) * 2008-08-04 2011-06-29 杜比实验室特许公司 重叠块差异估计和补偿体系结构
KR101690291B1 (ko) * 2009-02-05 2016-12-27 톰슨 라이센싱 적응형 모드 비디오 인코딩 및 디코딩 방법 및 장치
US9185430B2 (en) 2010-03-15 2015-11-10 Mediatek Singapore Pte. Ltd. Deblocking filtering method and deblocking filter
CN101841722B (zh) * 2010-06-08 2011-08-31 上海交通大学 滤波边界强度的检测装置的检测方法
PL4024865T3 (pl) * 2010-06-10 2024-05-06 Interdigital Vc Holdings, Inc. Sposoby i urządzenie do określania elementów predykcji parametrów kwantyzacji z wielu sąsiadujących parametrów kwantyzacji
CN102316318B (zh) * 2010-07-07 2013-07-03 中国科学院微电子研究所 一种基于h.264标准的去块滤波边界强度计算装置及方法
US9055305B2 (en) * 2011-01-09 2015-06-09 Mediatek Inc. Apparatus and method of sample adaptive offset for video coding
WO2012092787A1 (en) * 2011-01-09 2012-07-12 Mediatek Inc. Apparatus and method of efficient sample adaptive offset
US9161041B2 (en) * 2011-01-09 2015-10-13 Mediatek Inc. Apparatus and method of efficient sample adaptive offset
JP5539258B2 (ja) 2011-04-25 2014-07-02 株式会社イトーキ
EP4199513A1 (en) 2011-06-23 2023-06-21 Huawei Technologies Co., Ltd. Offset decoding device, offset coding device, image filtering device, and data structure
US9854275B2 (en) * 2011-06-25 2017-12-26 Qualcomm Incorporated Quantization in video coding
US9167269B2 (en) * 2011-10-25 2015-10-20 Qualcomm Incorporated Determining boundary strength values for deblocking filtering for video coding
KR102138907B1 (ko) * 2011-11-04 2020-07-29 엘지전자 주식회사 영상 정보 인코딩/디코딩 방법 및 장치
EP2801195B1 (en) * 2012-01-05 2018-03-07 Google Technology Holdings LLC Devices and methods for sample adaptive offset coding and selection of edge offset parameters
JP5828967B2 (ja) * 2012-01-17 2015-12-09 インフォブリッジ ピーティーイー. エルティーディー. エッジオフセットを適用する方法

Also Published As

Publication number Publication date
US20150365705A1 (en) 2015-12-17
JP2016012943A (ja) 2016-01-21
EP2749028A1 (en) 2014-07-02
CN107835425B (zh) 2021-11-19
BR122020018114A8 (pt) 2022-10-04
MX340366B (es) 2016-07-07
CA2996158A1 (en) 2013-07-25
BR112014008256B1 (pt) 2023-11-28
EP4013052A1 (en) 2022-06-15
CN107888919A (zh) 2018-04-06
CA3090780A1 (en) 2013-07-25
JP6073444B2 (ja) 2017-02-01
SG11201400670XA (en) 2014-04-28
PH12016502086B1 (en) 2017-03-27
BR122020018118A8 (pt) 2022-10-04
MX340367B (es) 2016-07-07
RU2014113084A (ru) 2016-03-20
CN107888918B (zh) 2022-04-19
RU2016140522A (ru) 2018-04-18
CN107888921B (zh) 2022-06-17
US20150365667A1 (en) 2015-12-17
US9491489B2 (en) 2016-11-08
WO2013107314A1 (en) 2013-07-25
JP2015502715A (ja) 2015-01-22
CN103209324B (zh) 2018-01-02
BR122020018114A2 (ja) 2020-11-03
JP2016029829A (ja) 2016-03-03
RU2016140521A (ru) 2018-12-14
CN107888921A (zh) 2018-04-06
AU2013211395A1 (en) 2014-04-17
JP2016012942A (ja) 2016-01-21
JP6073443B2 (ja) 2017-02-01
IL231708A0 (en) 2014-05-28
MY166250A (en) 2018-06-22
BR122020018118B1 (pt) 2023-11-21
RU2686008C2 (ru) 2019-04-23
US9485522B2 (en) 2016-11-01
RU2016140523A (ru) 2018-12-17
BR122020018116A8 (pt) 2022-10-04
CN107888920B (zh) 2021-11-26
RU2686007C2 (ru) 2019-04-23
CN107743229A (zh) 2018-02-27
CA2849038A1 (en) 2013-07-25
CN107888920A (zh) 2018-04-06
IL259929B (en) 2019-03-31
US10063859B2 (en) 2018-08-28
CN107743229B (zh) 2020-07-24
EP4002840A1 (en) 2022-05-25
BR112014008256A2 (pt) 2017-04-18
RU2016140521A3 (ja) 2019-02-19
EP3998773A1 (en) 2022-05-18
CN107835425A (zh) 2018-03-23
MX336661B (es) 2016-01-27
SG10201608492RA (en) 2016-12-29
BR122020018116A2 (ja) 2020-11-03
US9503758B2 (en) 2016-11-22
JP2016028524A (ja) 2016-02-25
TW201701652A (zh) 2017-01-01
US9491488B2 (en) 2016-11-08
CA3206389A1 (en) 2013-07-25
BR122020018119A2 (ja) 2020-11-17
IL259929A (en) 2018-07-31
IL276270B (en) 2021-05-31
IL276270A (en) 2020-09-30
RU2602986C2 (ru) 2016-11-20
US20170064307A1 (en) 2017-03-02
MX340368B (es) 2016-07-07
MY195621A (en) 2023-02-02
EP2749028A4 (en) 2016-01-06
JP2017092975A (ja) 2017-05-25
US20150110179A1 (en) 2015-04-23
IL265035B (en) 2020-08-31
US20150365704A1 (en) 2015-12-17
PH12016502088A1 (en) 2017-04-03
EP4002839A1 (en) 2022-05-25
CA2996158C (en) 2020-10-27
MY195661A (en) 2023-02-03
RU2016140524A3 (ja) 2019-02-20
IN2014CN03867A (ja) 2015-10-16
PH12016502086A1 (en) 2017-03-27
RU2686819C2 (ru) 2019-04-30
CA3090780C (en) 2023-08-29
MY195625A (en) 2023-02-02
RU2016140523A3 (ja) 2019-02-20
US20150365668A1 (en) 2015-12-17
BR122020018119B1 (pt) 2023-11-21
KR20140103903A (ko) 2014-08-27
US20150103930A1 (en) 2015-04-16
TWI604733B (zh) 2017-11-01
JP6073442B2 (ja) 2017-02-01
BR122020018116B1 (pt) 2023-11-21
IL252379B (en) 2018-10-31
PH12016502088B1 (en) 2017-04-03
PH12016502087B1 (en) 2017-03-27
US9516348B2 (en) 2016-12-06
MY195620A (en) 2023-02-02
BR122020018119A8 (pt) 2022-10-04
CA2849038C (en) 2018-04-03
IL252379A0 (en) 2017-07-31
MY195624A (en) 2023-02-02
AU2013211395B2 (en) 2015-08-13
RU2016140524A (ru) 2018-12-14
RU2686010C2 (ru) 2019-04-23
JP5828967B2 (ja) 2015-12-09
PH12016502089A1 (en) 2017-04-03
TW201345264A (zh) 2013-11-01
CN107888918A (zh) 2018-04-06
BR122020018118A2 (ja) 2020-11-03
BR122020018114B1 (pt) 2023-11-21
CN103209324A (zh) 2013-07-17
MX350560B (es) 2017-09-11
US9172961B2 (en) 2015-10-27
PH12016502089B1 (en) 2017-04-03
TWI558212B (zh) 2016-11-11
JP6302577B2 (ja) 2018-03-28
KR20140057391A (ko) 2014-05-12
MX2014004103A (es) 2014-09-15
KR20140067133A (ko) 2014-06-03
CN107888919B (zh) 2021-11-26
PH12016502087A1 (en) 2017-03-27
IL231708A (en) 2017-11-30
BR112014008256A8 (pt) 2022-10-04
RU2016140522A3 (ja) 2019-02-19

Similar Documents

Publication Publication Date Title
JP6302577B2 (ja) エッジオフセットを適用する方法
JP6285486B2 (ja) ブロッキングアーチファクトを除去する方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20160810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170104

R150 Certificate of patent or registration of utility model

Ref document number: 6073445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250