JP6371800B2 - 映像符号化装置 - Google Patents

映像符号化装置 Download PDF

Info

Publication number
JP6371800B2
JP6371800B2 JP2016123339A JP2016123339A JP6371800B2 JP 6371800 B2 JP6371800 B2 JP 6371800B2 JP 2016123339 A JP2016123339 A JP 2016123339A JP 2016123339 A JP2016123339 A JP 2016123339A JP 6371800 B2 JP6371800 B2 JP 6371800B2
Authority
JP
Japan
Prior art keywords
intra prediction
prediction mode
mode
unit
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016123339A
Other languages
English (en)
Other versions
JP2016197880A (ja
Inventor
オ,ス−ミ
ヤン,ムノク
Original Assignee
エム アンド ケー ホールディングス インコーポレイテッド
エム アンド ケー ホールディングス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=45605532&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6371800(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from KR1020110064301A external-priority patent/KR20120058384A/ko
Application filed by エム アンド ケー ホールディングス インコーポレイテッド, エム アンド ケー ホールディングス インコーポレイテッド filed Critical エム アンド ケー ホールディングス インコーポレイテッド
Publication of JP2016197880A publication Critical patent/JP2016197880A/ja
Application granted granted Critical
Publication of JP6371800B2 publication Critical patent/JP6371800B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Description

本発明は、イントラ予測復号化方法に係り、さらに詳細には、イントラ予測モードを復元して原信号に近い予測ブロックを生成し、残差信号を復号して残差ブロックを生成し、前記予測された予測ブロック及び残差ブロックを用いて復元ブロックを生成するイントラ予測復号化方法に関する。
MPEG−1、MPEG−2、MPEG−4 H.264/MPEG−4 AVC(Advanced Video coding)などの映像圧縮方式では、映像を符号化するために一つのピクチャーをマクロブロックに分ける。そして、インター予測(inter prediction)またはイントラ予測(intra prediction)を用いてそれぞれのマクロブロックを符号化する。
このうち、イントラ予測は、現在ピクチャーのブロックを符号化するために参照ピクチャーを参照するものではなく、符号化しようとする現在ブロックと空間的に隣接している画素値を用いて符号化を行う。まず、隣接している画素値を用いて原本マクロブロックと比べ、歪曲の少ないイントラ予測モードを選択する。次いで、選択されたイントラ予測モード及び隣接している画素値を用いて符号化しようとする現在ブロックについての予測値を計算し、予測値と原本現在ブロックの画素値との差を求めた後、これを変換符号化、量子化、エントロピー符号化により符号化する。そして、予測モードも符号化される。
従来の技術による4×4イントラ予測モードには、垂直(vertical)モード、水平(horizontal)モード、DC(direct current)モード、対角線左側(diagonal down−left)モード、対角線右側(diagonal down−right)モード、垂直右側(vertical right)モード、垂直左側(vertical left)モード、水平上側(horizontal−up)モード及び水平下側(horizontal−down)モードの総9種のモードが存在する。
H.264標準案によれば、4×4映像の符号化に当って9種のモードのうちいずれか一つで現在ブロックの予測ブロックを生成して符号化する。また、最近標準化進行中のHEVCでは、ブロックのサイズによって17種または34種のイントラ予測モードが存在する。
しかし、現在ブロックに含まれた画素に隣接している画素値のうち一部または全部が存在していないか、または符号化されていない場合には、イントラ予測モードのうち一部または全部を適用できないという問題点が発生する。適用可能なイントラモードから選択してイントラ予測を行えば、現在ブロックと予測ブロックとの間の残差信号(residue)が大きくなるので、映像圧縮の効率が落ちる。
また、イントラ予測モードの数が増加するにつれて、既存のイントラ予測モードを符号化する方法より効果的な予測モードを符号化する方式が必要であり、これに対応して効果的にイントラ予測モードを復号化して復元ブロックを生成する方式が必要である。
本発明が解決しようとする課題は、イントラ予測モードによって原本映像と類似した予測ブロックを生成し、残差信号を復号化して残差ブロックを生成し、前記生成された残差ブロック及び予測ブロックを用いて復元ブロックを生成する方法を提供するところにある。
本発明によるイントラ予測復号化方法は、イントラ予測情報及び残差信号を逆多重化し、前記イントラ予測情報及び現在予測ユニットに隣接している予測ユニットのイントラ予測モードを用いて、現在予測ユニットのイントラ予測モードを復号し、現在予測ユニットの利用不可能な参照画素が存在する場合、一つ以上の利用可能な参照画素を用いて参照画素を生成し、前記復号されたイントラ予測モードに基づいて前記参照画素をフィルタリングし、前記復号されたイントラ予測モード及び前記参照画素を用いて予測ブロックを生成し、前記逆多重化された残差信号を復号化して残差ブロックを生成し、前記予測ブロック及び残差ブロックを用いて復元ブロックを生成することを特徴とする。
本発明によるイントラ予測復号化方法は、原本映像に類似した予測ブロックを生成するために、現在予測ユニットのイントラ予測モードを復号化し、前記復号化されたイントラ予測モードによって参照画素を適応的にフィルタリングして予測ブロックを生成する。また、残差信号をイントラ予測モードによって適応的に復号化することで残差ブロックを生成する。したがって、原本映像に近い前記予測ブロックと前記残差ブロックとを欠陷することで復元ブロックを生成する。よって、イントラ予測モードの数の増加につれて発生する追加の符号化量を効果的に低減させる予測モード符号化方式に対応する予測モード復号化方式を提供できるだけでなく、原本映像に近い予測ブロックを生成することで符号化量を低減させる符号化方式に対応する復号化方式を提供して、動画の符号化/復号化時の高性能圧縮及び再生効率を奏する効果がある。
本発明による動画符号化装置を示すブロック図である。 本発明による動画符号化装置のイントラ予測部の構成を示すブロック図である。 本発明によるイントラ予測に使われる参照画素の位置を示す図面である。 本発明による方向性イントラ予測モードを示す図面である。 本発明による動画復号化装置の構成を示すブロック図である。 本発明によるイントラ予測復号化装置のイントラ予測部の構成を示すブロック図である。 本発明によるイントラ予測モードの復号化過程を示す図面である。 本発明による第1イントラ予測モードグループ内の予測モードの数が可変的な場合の、本発明によるイントラ予測モードを復元する過程を示す図面である。 本発明による第1イントラ予測モードグループ内の予測モードの数が固定的な場合の、本発明によるイントラ予測モードを復元する過程を示す図面である。
以下、本発明のいろいろな実施形態を、例示的な図面により詳細に説明する。本発明は多様な変更を加え、かついろいろな実施形態を持つことができるところ、本発明を特定の実施形態に限定しようとするものではなく、本発明の思想及び技術範囲に含まれるすべての変更、均等物ないし代替物を含むと理解されねばならない。各図面を説明するに際して、類似した構成要素には類似した参照符号を付した。
図1は、本発明による動画符号化装置を示すブロック図である。図1を参照すれば、本発明による動画符号化装置100は、ピクチャー分割部110、変換部120、量子化部130、スキャニング部131、エントロピー符号化部140、イントラ予測部150、インター予測部160、逆量子化部135、逆変換部125、後処理部170、ピクチャー保存部180、減算部190及び加算部195を備える。
ピクチャー分割部110は、入力されるビデオ信号を分析し、ピクチャーを最大のコーディングユニットごとに所定サイズのコーディングユニットに分割して予測モードを定め、前記コーディングユニット別に予測ユニットのサイズを定める。そして、ピクチャー分割部110は、符号化する予測ユニットを、予測モードによってイントラ予測部150またはインター予測部160に送る。また、ピクチャー分割部110は、符号化する予測ユニットを減算部190に送る。
変換部120は、入力された予測ユニットの原本ブロックと、イントラ予測部150またはインター予測部160で生成された予測ブロックとの残差信号である残差ブロックを変換する。前記残差ブロックは、コーディングユニットで構成される。コーディングユニットで構成された残差ブロックは、最適の変換ユニットに分割されて変換される。予測モード(イントラまたはインター)によって互いに異なる変換マトリックスが定められる。また、イントラ予測の残差信号は、イントラ予測モードによって方向性を持つため、イントラ予測モードによって適応的に変換マトリックスが定められる。変換単位は、2個(水平、垂直)の1次元変換マトリックスによって変換される。例えば、インター予測の場合には、既定の1つの変換マトリックスが定められる。一方、イントラ予測の場合、イントラ予測モードが水平である場合には、残差ブロックが垂直方向への方向性を持つ確率が高くなるので、垂直方向にはDCT基盤の定数マトリックスを適用し、水平方向にはDST基盤またはKLT基盤の定数マトリックスを適用する。イントラ予測モードが垂直である場合には、垂直方向にはDST基盤またはKLT基盤の定数マトリックスを、水平方向にはDCT基盤の定数マトリックスを適用する。DCモードの場合には、双方向ともDCT基盤定数マトリックスを適用する。また、イントラ予測の場合、変換単位のサイズによって変換マトリックスが適応的に定められてもよい。
量子化部130は、前記変換マトリックスによって変換された残差ブロックの係数を量子化するための量子化ステップサイズを、コーディングユニット別に定める。量子化ステップサイズは、既定のサイズ以上の符号化単位別に定められる。前記既定のサイズは、8×8または16×16である。そして、定められた量子化ステップサイズ及び予測モードによって定められる量子化マトリックスを用いて、前記変換ブロックの係数を量子化する。量子化部130は、現在符号化単位の量子化ステップサイズ予測子として、現在符号化単位に隣接している符号化単位の量子化ステップサイズを用いる。
量子化部130は、現在符号化単位の左側符号化単位、上側符号化単位、左上側符号化単位の順序で検索し、1つまたは2つの有効な量子化ステップサイズを用いて現在符号化単位の量子化ステップサイズ予測子を生成する。例えば、前記順序で検索された有効な最初の量子化ステップサイズを、量子化ステップサイズ予測子と定める。また、前記順序で検索された有効な2つの量子化ステップサイズの平均値を、量子化ステップサイズ予測子と定めてもよく、1つのみ有効な場合には、これを量子化ステップサイズ予測子と定める。前記量子化ステップサイズ予測子が定められれば、現在符号化単位の量子化ステップサイズと前記量子化ステップサイズ予測子との差分値をエントロピー符号化部140に伝送する。
一方、現在コーディングユニットの左側コーディングユニット、上側コーディングユニット、左上側コーディングユニットがいずれも存在しない可能性がある。一方、最大コーディングユニット内の符号化順序上、以前に存在するコーディングユニットが存在する可能性がある。したがって、現在コーディングユニットに隣接しているコーディングユニットと前記最大コーディングユニット内では、符号化順序上、直前のコーディングユニットが候補者になる。この場合、1)現在コーディングユニットの左側コーディングユニット、2)現在コーディングユニットの上側コーディングユニット、3)現在コーディングユニットの左上側コーディングユニット、4)符号化順序上、直前のコーディングユニット順序で優先順位を置く。前記順序は変わってもよく、前記左上側コーディングユニットは省略されてもよい。
前記量子化された変換ブロックは、逆量子化部135及びスキャニング部131に提供される。スキャニング部131は、量子化された変換ブロックの係数をスキャニングして1次元の量子化係数に変換する。量子化後の変換ブロックの係数分布がイントラ予測モードに依存的でありうるので、スキャニング方式は、イントラ予測モードによって定められる。また、係数スキャニング方式は、変換単位のサイズによって異なって定められてもよい。前記スキャンパターンは、方向性イントラ予測モードによって変わりうる。量子化係数のスキャン順序は、逆方向にスキャンする。
前記量子化された係数が複数のサブセットに分割された場合には、それぞれのサブセット内の量子化係数に同じスキャンパターンを適用する。前記複数のサブセットは、一つのメインサブセットと少なくとも一つ以上の残余サブセットとで構成される。メインサブセットは、DC係数を含む左上側に位置し、前記残余サブセットは、メインサブセット以外の領域をカバーする。
サブセット間のスキャンパターンは、ジグザグスキャンを適用する。スキャンパターンは、メインサブセットから順方向に残余サブセットにスキャンすることが望ましいが、その逆方向も可能である。また、サブセット内の量子化された係数のスキャンパターンと同じくサブセット間のスキャンパターンを設定してもよい。この場合、サブセット間のスキャンパターンが、イントラ予測モードによって定められる。一方、符号器は、前記変換ユニット内の0ではない最後の量子化係数の位置を示す情報を復号器に伝送する。各サブセット内の0ではない最後の量子化係数の位置を示す情報も復号器に伝送する。前記情報は、それぞれのサブセット内の0ではない最後の量子化係数の位置を示す情報である。
逆量子化部135は、前記量子化された量子化係数を逆量子化する。逆変換部125は、逆量子化された変換係数を空間領域の残差ブロックに復元する。加算器は、前記逆変換部によって復元された残差ブロックと、イントラ予測部150またはインター予測部160からの予測ブロックとを合わせて復元ブロックを生成する。
後処理部170は、復元されたピクチャーに発生するブロッキング効果を除去するためのデブロッキングフィルタリング過程、画素単位で原本映像との差値を補うための適応的オフセット適用過程、及びコーディングユニットで原本映像との差値を補うための適応的ループフィルタリング過程を行う。
デブロッキングフィルタリング過程は、既定のサイズ以上のサイズを持つ予測ユニット及び変換ユニットの境界に適用することが望ましい。前記サイズは8×8でありうる。前記デブロッキングフィルタリング過程は、フィルタリングする境界(boundary)を定める段階、前記境界に適用する境界フィルタリング強度(bounary filtering strength)を定める段階、デブロッキングフィルターの適用如何を定める段階、前記デブロッキングフィルターを適用することで定められた場合、前記境界に適用するフィルターを選択する段階を含む。
前記デブロッキングフィルターの適用如何は、i)前記境界フィルタリング強度が0より大きいかどうか、及びii)前記フィルタリングする境界に隣接している2個のブロック(Pブロック、Qブロック)境界部分でのピクセル値の変化程度を示す値が、量子化パラメータによって定められる第1基準値より小さいかどうかによって定められる。
前記フィルターは、少なくとも2つ以上であることが望ましい。ブロック境界に位置している2個の画素間の差値の絶対値が第2基準値より大きいか、または同じである場合には、相対的に弱いフィルタリングを行うフィルターを選択する。前記第2基準値は、前記量子化パラメータ及び前記境界フィルタリング強度によって定められる。
適応的オフセット適用過程は、デブロッキングフィルターが適用された映像内の画素と原本画素との差値(distortion)を低減させるためのものである。ピクチャーまたはスライス単位で前記適応的オフセット適用過程を行うかどうかが定められる。ピクチャーまたはスライスは、複数のオフセット領域に分割され、各オフセット領域別にオフセットタイプが定められる。オフセットタイプは、既定の数(例えば、4個)のエッジオフセットタイプと2個のバンドオフセットタイプとを含む。オフセットタイプがエッジオフセットタイプである場合には、各画素が属するエッジタイプを定め、これに対応するオフセットを適用する。前記エッジタイプは、現在画素に隣接している2個の画素値の分布を基準として定める。
適応的ループフィルタリング過程は、デブロッキングフィルタリング過程または適応的オフセット適用過程を経た復元された映像と原本映像とを比較した値に基づいてフィルタリングを行える。適応的ループフィルタリングは、前記定められた4×4サイズまたは8×8サイズのブロックに含まれた画素全体に適用される。適応的ループフィルターの適用如何は、コーディングユニット別に定められる。各コーディングユニットによって適用されるループフィルターのサイズ及び係数は変わる。コーディングユニット別に前記適応的ループフィルターの適用如何を示す情報は、各スライスヘッダに含まれる。色差信号の場合には、ピクチャー単位で適応的ループフィルターの適用如何を定める。ループフィルターの形態も、輝度とは異なって長方形でありうる。
適応的ループフィルタリングは、スライス別に適用如何を定める。したがって、現在スライスに適応的ループフィルタリングが適用されるかどうかを示す情報は、スライスヘッダまたはピクチャーヘッダに含まれる。現在スライスに適応的ループフィルタリングが適用されることを示せば、スライスヘッダまたはピクチャーヘッダはさらに、適応的ループフィルタリング過程に使われる輝度成分の水平及び/または垂直方向のフィルター長を示す情報を含む。
スライスヘッダまたはピクチャーヘッダは、フィルターセットの数を示す情報を含む。この時、フィルターセットの数が2以上ならば、フィルター係数が予測方法を使って符号化される。したがって、スライスヘッダまたはピクチャーヘッダは、フィルター係数が予測方法で符号化されるかどうかを示す情報を含み、予測方法が使われる場合には、予測されたフィルター係数を含む。
一方、輝度だけでなく、色差成分で適応的にフィルタリングされる。したがって、色差成分それぞれがフィルタリングされるかどうかを示す情報を、スライスヘッダまたはピクチャーヘッダが含む。この場合、ビット数を低減させるために、Cr及びCbについてのフィルタリング如何を示す情報をジョイントコーディング(すなわち、多重化コーディング)できる。この時、色差成分の場合には、複雑度を低減させるためにCrとCbとをいずれもフィルタリングしない場合が最も頻繁な可能性が高いので、CrとCbとをいずれもフィルタリングしない場合に、最も小さなインデックスを割り当ててエントロピー符号化を行う。そして、Cr及びCbをいずれもフィルタリングする場合に、最も大きいインデックスを割り当ててエントロピー符号化を行う。
ピクチャー保存部180は、後処理された映像データを後処理部160から入力され、ピクチャー単位で映像を復元して保存する。ピクチャーは、フレーム単位の映像であるか、またはフィールド単位の映像である。ピクチャー保存部180は、複数のピクチャーを保存できるバッファ(図示せず)を備える。
インター予測部160は、前記ピクチャー保存部180に保存された少なくとも一つ以上の参照ピクチャーを用いて動き推定を行い、参照ピクチャーを示す参照ピクチャーインデックス及び動きベクトルを定める。そして、定められた参照ピクチャーインデックス及び動きベクトルによって、ピクチャー保存部180に保存された複数の参照ピクチャーのうち動き推定に用いられた参照ピクチャーから、符号化しようとする予測ユニットに対応する予測ブロックを抽出して出力する。
イントラ予測部150は、現在予測ユニットが含まれるピクチャー内部の再構成された画素値を用いてイントラ予測符号化を行う。イントラ予測部150は、予測符号化する現在予測ユニットを入力され、現在ブロックのサイズによって予め設定された数のイントラ予測モードのうち一つを選択してイントラ予測を行う。イントラ予測部は、イントラ予測ブロックを生成するために参照ピクセルを適応的にフィルタリングする。参照画素が利用不可能な場合には、利用可能な参照画素を用いて参照画素を生成する。
エントロピー符号化部140は、量子化部130によって量子化された量子化係数、イントラ予測部140から受信されたイントラ予測情報、インター予測部150から受信された動き情報などをエントロピー符号化する。
図2は、本発明による符号化装置100のイントラ予測部150を示すブロック図である。図2を参照すれば、イントラ予測部150は、参照画素生成部151、参照画素フィルタリング部152、予測ブロック生成部153、予測モード決定部154及び予測モード符号化部155を備える。
参照画素生成部151は、イントラ予測のための参照画素の生成如何を判断し、生成される必要がある場合に参照画素を生成する。
図3は、現在予測ユニットのイントラ予測に使われる参照画素の位置を示す図面である。図3に示したように、現在予測ユニットの上側参照画素は、上側参照画素、左側参照画素及びコーナー参照画素で構成される。現在予測ユニットの上側参照画素は、現在予測ユニットの横長の2倍にわたって存在する画素(領域C、D)であり、現在予測ユニットの左側参照画素は、現在予測ユニットの縦長の2倍にわたって存在する画素(領域A、B)である。現在予測ユニットのコーナー参照画素は、(x=−1,y=−1)に位置する。
参照画素生成部151は、参照画素が利用可能(available)かどうかを判断する。参照画素の一部が利用不可能な場合には、利用可能な参照画素を用いて利用不可能な位置の参照画素を生成する。
現在予測ユニットがピクチャーまたはスライスの上側境界に位置する場合には、現在予測ユニットの上側参照画素(領域C、D)及びコーナー参照画素が存在しない。同様に、現在予測ユニットがピクチャーまたはスライスの左側境界に位置する場合には、左側参照画素(領域A、B)及びコーナー参照画素が存在しない。このように、いずれか一方の参照画素及びコーナー参照画素が利用不可能な場合、最も隣接している利用可能な参照画素をコピーして参照画素を生成できる。前者の場合、最も隣接している利用可能な参照画素は、左側最上側の参照画素(すなわち、領域Aの最上側参照画素)である。後者の場合、最も隣接している利用可能な参照画素は、上側の最左側の参照画素(すなわち、領域Cの最左側の参照画素)である。
次いで、符号化する現在予測ユニットの上側または左側の参照画素のうち一部分が利用不可能な場合について説明する。利用不可能な参照画素を基準として、1)一方向のみに利用可能な参照画素が存在する場合と、2)双方向とも利用可能な参照画素が存在する場合の2種が存在する。
先ず、利用不可能な参照画素を基準として一方向のみに利用可能な参照画素が存在する場合について説明する。
現在予測ユニットの上側に隣接している参照画素(領域C)は有効であるが、右上側参照画素(領域D)が有効でないことがある。現在予測ユニットがピクチャーまたはスライスの右側境界または最大コーディングユニットの右側境界に位置する場合には、領域Dの参照画素が利用不可能である。この場合には、一つ以上の上側参照画素を用いて右上側参照画素(領域D)を生成する。望ましくは、上側催右側参照画素をコピーする。また、2つ以上の上側参照画素を用いて右上側参照画素を生成してもよい。
現在予測ブロックの左側に隣接している参照画素(領域A)は有効であるが、左下側参照画素(領域B)が有効でないこともある。現在予測ユニットがピクチャーまたはスライスの下側境界または最大コーディングユニットの下側境界に位置する場合には、領域Bの参照画素が利用不可能である。この場合には、一つ以上の左側参照画素を用いて左下側参照画素(領域B)を生成する。望ましくは、左側最下側参照画素をコピーする。また、2個以上の左側参照画素を用いて左下側参照画素を生成してもよい。
前記場合のように、利用不可能な参照画素を基準として一方向のみに利用可能な参照画素が存在する場合には、最も近い位置に存在する利用可能な参照画素をコピーして参照画素を生成する。さらに他の方法として、最も近い位置に存在する複数の利用可能な参照画素を用いて参照画素を生成してもよい。
次いで、利用不可能な参照画素を基準として、双方向とも利用可能な参照画素が存在する場合について説明する。
例えば、現在予測ユニットがスライスの上側境界に位置し、前記現在予測ユニットの右上側予測ユニットが利用可能な場合、現在予測ユニットの領域Cに対応する参照画素は利用不可能であるが、領域A及び領域Dに位置する参照画素は利用可能である。このように双方向とも利用可能な参照画素が存在する場合には、各方向に最も近い位置に存在する利用可能な参照画素1つずつを選択し、これら(すなわち、領域Aの最上側参照画素と領域Dの最左側参照画素)を用いて利用不可能な位置の参照画素を生成する。
前記2個の参照画素(各方向に最も近い位置に存在する画素)の四捨五入した平均値を、参照画素値として生成してもよい。しかし、前記2個の参照画素値の差が大きい可能性があるので、線形補間方法を使って参照画素を生成してもよい。具体的に利用可能な2個の参照画素との位置を考慮して、現在位置の利用不可能な参照画素を生成する。
参照画素フィルタリング部152は、現在予測ユニットの参照画素を適応的にフィルタリングする。図4を参照して、参照画素フィルタリング部152の動作を説明する。図4は、本発明による方向性イントラ予測モードを示す図面である。
参照画素フィルタリング部152は、イントラ予測モード及び参照画素の位置によって適応的にフィルタリングする。
予測モードが、垂直(モード0)、水平(モード1)、DC(モード2)である場合には、参照画素にフィルターを適用しない。それ以外の方向性モードについては、適応的に参照画素をフィルタリングする。また、現在予測ユニットの上側の参照画素のうち最右側の参照画素(すなわち、(x=2N−1,y=−1)に位置する参照画素)と、現在予測ユニットの左側の参照画素のうち最下側に位置する参照画素(すなわち、(x=−1,y=2N−1)に位置する参照画素)とをフィルタリングせず、残りの画素は、隣接している2個の画素を用いてフィルタリングする。
前記フィルタリングは、参照画素間の画素値の変化量をスムージングするためのものであり、ローパスフィルターを適用する。ローパスフィルターは、3タップフィルターである[1,2,1]、または5タップフィルターである[1,2,4,2,1]である。
前記ローパスフィルターは、現在予測ユニットのサイズ及びイントラ予測モードによって適応的に適用される。
イントラ予測方向が水平または垂直方向に対して45°傾いたモード(モード3、6、9)については、予測ユニットのサイズによって適応的にフィルターを適用する。この場合、既定のサイズより小さな予測ユニットについては、第1フィルターを、既定のサイズ以上の予測ユニットについては、スムージング効果がさらに大きい第2フィルターを使える。前記既定のサイズは16×16である。
そして、前記垂直または水平モードと、前記水平または垂直モードに対して45°角度を持つモードとの間に存在するモードについては、予測ユニットのサイズによって適応的にフィルターを適用する。この場合、前記水平または垂直モードに対して45°角度を持つモードに隣接している既定数のモードでのみフィルターを適用できる。方向性イントラ予測モードの数が同じ予測ユニットについては、前記既定数は、予測ユニットが大きいほど増加する。すなわち、8×8予測ユニットについては、水平または垂直モードに対して45°角度を持つモードと、これに隣接している第1個数のモードとでフィルタリングを行い、16×16予測ユニットについては、水平または垂直モードに対して45°角度を持つモードと、これに隣接している第2個数のモードとでフィルタリングを行い、32×32予測ユニットについては、水平または垂直モードに対して45°角度を持つモードと、これに隣接している第3個数のモードとでフィルタリングを行う。ここで、第1個数は第2個数より小さいか、または同一であり、第2個数は第3個数より小さいか、または同一である。
予測ブロック生成部153は、イントラ予測モードに対応する予測ブロックを生成する。前記予測ブロックは、イントラ予測モードに基づいて参照画素を用いる。
DCモードの場合には、予測ブロックが参照画素の平均値からなるため、参照画素に隣接している予測ブロック内の画素間には段差が発生する。したがって、参照画素に隣接している予測ブロック内の上側ラインの画素及び左側ラインの画素は、参照画素を用いてフィルタリングする。具体的に、予測ブロック内の左上側コーナーに位置する画素は、隣接する参照画素が2個(上側参照画素と左側参照画素)であるので、3タップフィルターを用いて前記左上側コーナーの画素をフィルタリング(またはスムージング)する。そして、それ以外の画素(すなわち、予測ブロック内の上側ラインの画素及び左側ラインの画素)は、隣接する参照画素が1つであるので、2タップフィルターを用いてフィルタリングする。
平面モードでは、コーナー参照画素、左側参照画素及び上側参照画素を用いて予測ブロックの参照画素を生成する。生成しようとする参照画素の位置が(a,b)である場合に生成される参照画素X(a,b)は、コーナー参照画素C(x=−1,y=−1)、上側参照画素T(x=a,y=−1)及び左側参照画素L(x=−1,y=b)を用いる。平面モードでは、予測ブロックをフィルタリングしない。
垂直モード(モード番号0)では、上側参照画素をそのままコピーする場合、予測ブロック内の左側画素と、これに隣接している左側参照画素との間に相関関係(correlation)が落ちる。上側から遠くなるほど相関関係が低減する。同様に、水平モード(モード番号1)では、予測ブロック内の上側画素と上側参照ピクセルとの関係も、右側へ行くほど相関関係が落ちる。これにより、垂直モードでは、予測ブロックの下方へ行くほど原本予測ユニットとの差値が大きくなる。
したがって、前記差値を低減させるために、垂直モードの場合には、予測ブロックの左側部分のピクセルを、予測ブロックの生成に用いられない左側参照ピクセルを用いてフィルタリングする。同様に、水平モードの場合には、予測ブロックの上側部分のピクセルを、予測ブロックの生成に用いられない上側参照ピクセルを用いてフィルタリングする。
モード番号0と6との間の方向性を持つイントラ予測モード(モード番号22、12、23、5、24、13、25)、及びモード番号6を持つイントラ予測モードの場合、現在予測ユニットの上側参照ピクセルのみを用いて予測ブロックが生成されれば、参照ピクセルに隣接している、生成された予測ブロックの左側ラインのピクセルと前記参照ピクセルとの段差は、下方へ行くほど大きくなる。
同様に、モード番号1と9との間の方向性を持つイントラ予測モード(モード番号30、16、31、8、32、17、33)、及びモード番号9を持つイントラ予測モードの場合、現在予測ユニットの左側参照ピクセルのみを用いて予測ブロックが生成されれば、参照ピクセルに隣接している、生成された予測ブロックの上側ラインのピクセルと前記参照ピクセルとの段差は、右側へ行くほど段差が大きくなる。
したがって、前記段差を補うために、DC以外の方向性モードについても適応的に予測ブロックの一部画素をフィルタリングする。または、前記段差を補うために、予測ブロック生成のために上側及び左側参照ピクセルをいずれも用いてもよい。
先ず、予測ブロックの一部画素をフィルタリングする方法について説明する。
モード番号が6である場合には、上側参照画素を用いて予測ブロックを生成し、前記左側参照画素に隣接している、生成された予測ブロック内の左側画素をフィルタリングする。現在予測ユニットのサイズによって生成された予測ブロック内のフィルタリングする画素の領域が変わる。すなわち、予測ユニットのサイズによって、フィルタリングされるラインの数とライン内のフィルタリングされるピクセルとの割合が変わる。予測ユニットのサイズが大きくなるほど、フィルタリングされるラインの数が同一または増加する。また、ライン内のフィルタリングされるピクセルの割合が低減する。また、参照ピクセルから遠くなるほどフィルタリング強度を低められる。
例えば、4×4予測ユニットについては、生成された予測ブロック内の左側第1ラインに位置するピクセル、すなわち、(x=0,y=0〜3)に位置するピクセルのみをフィルタリングする。8×8予測ユニットについては、左側第1ラインに位置するすべてのピクセル及び第2ラインに位置する一部ピクセルをフィルタリングする。前記一部のピクセルは、例えば、(x=1,y=4〜7)に位置するピクセルである。16×16予測ユニットについては、左側第1ラインに位置するすべてのピクセル、第2ラインに位置する第1個数のピクセル、第3ラインに位置する第2個数のピクセルをフィルタリングする。前記第1個数のピクセルは、例えば、(x=1,y=4〜7)に位置するピクセルである。前記第2個数のピクセルは、例えば、(x=2,y=8〜15)に位置するピクセルである。また、32×32予測ユニットについては、左側第1ラインに位置するすべてのピクセル、第2ラインに位置する第1個数のピクセル、第3ラインに位置する第2個数のピクセル及び第4ラインの第3個数のピクセルをフィルタリングする。第3個数のピクセルは、(x=3,y=16〜31)に位置するピクセルである。
モード番号0と6との間の方向性を持つモードのうち、モード番号6に近い方向性を持つ所定数のモードについても、モード番号6と同じ方法でフィルタリングを行える。この場合、モード番号6から遠いモードであるほどフィルタリングせねばならない画素の数が同一または小さくなる。モード番号0と6との間の方向性を持つモードのうち、モード番号0に近い方向性を持つ所定数のモードについては、垂直モードと同じ方法でフィルタリングが行われてもよい。
モード番号が9である場合にも、モード番号6と同じ方法を適用する。そして、前記モード番号1と9との間の方向性を持つモードについては、モード番号0と6との間の方向性を持つモードと同じ方法を適用する。
一方、モード番号6及びこれに隣接している所定数のモードについては、前記予測ブロックの一部画素をフィルタリングする方法を適用せず、上側及び左側参照ピクセルをいずれも用いて予測ブロックを生成する。同様に、モード番号9とこれに隣接している所定数のモードについても同一である。
前記予測ブロックの一部画素をフィルタリングする方法は、予測ブロックの生成時にフィルタリング効果と同じ効果を持つように、予測ブロックの画素の位置(すなわち、フィルタリングする画素の位置)によって互いに異なる方式で予測ピクセルを生成する。
予測モード決定部154は、現在予測ユニットのイントラ予測モードを定める。予測モード決定部154は、各イントラ予測モードに対する残差ブロックの符号化量が最小になるモードを、現在予測ユニットのイントラ予測モードと定める。
予測モード符号化部155は、予測モード決定部154によって定められた現在予測ユニットのイントラ予測モードを符号化する。予測モード符号化部155は、イントラ予測部150に含まれて行われてもよく、エントロピー符号化部140で行われてもよい。
予測モード符号化部155は、現在予測ユニットに隣接している予測ユニットのイントラ予測モードを用いて、現在予測ユニットのイントラ予測モードを符号化する。現在予測ユニットに許容されるイントラ予測モード(例えば、35個のモード)を、複数のイントラ予測モードグループに分類する。そして、現在予測ユニットのイントラ予測モードが属するグループ、及びグループ内の現在予測ユニットのイントラ予測モードに対応するインデックスを符号化する。前記それぞれのグループは、少なくとも一つ以上のイントラ予測モードを含む。前記イントラ予測モードグループの数は、2個または3個であることが望ましい。
以下、イントラ予測モードグループが2個である場合について説明する。
先ず、現在予測ユニットに隣接している予測ユニットのイントラ予測モードを誘導する。前記モードは、現在予測ユニットの上側予測ユニット及び左側予測ユニットのイントラ予測モードである。現在予測ユニットの上側予測ユニットが複数存在する場合には、既定の方向(例えば、左から右へ)にスキャンしつつ、有効な最初の予測ユニットのイントラ予測モードを上側イントラ予測モードと設定する。現在予測ユニットの左側予測ユニットが複数存在する場合にも、既定の方向(例えば、上から下へ)にスキャンしつつ、有効な最初の予測ユニットのイントラ予測モードを左側イントラ予測モードと設定する。または、複数の有効な予測ユニットのモード番号のうち最も小さなモード番号を上側イントラ予測モードと設定する。
次いで、誘導されたイントラ予測モードのモード番号が、現在予測ユニットに許容されるイントラ予測モードの数より大きいか、または同一であれば、前記誘導されたイントラ予測モードを、現在予測ユニットで許容するイントラ予測モードのうち一つにマッピングする。
次いで、前記誘導またはマッピングされたイントラ予測モードを用いて、第1イントラ予測モードグループを形成する。
前記誘導またはマッピングされたイントラ予測モード及び前記イントラ予測モードによって、既定の順序の候補者イントラ予測モードを用いて第1イントラ予測モードグループを形成する。前記誘導またはマッピングされたイントラ予測モードが方向性モードである場合には、前記既定の候補者イントラ予測モードは、前記誘導またはマッピングされたイントラ予測モードの方向性に最も隣接している少なくとも一つ以上のイントラ予測モードである。
次いで、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに含まれるかどうかを判断する。
現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに含まれれば、前記第1イントラ予測モードグループを示す情報と、前記第1イントラ予測モードグループ内の対応するインデックスとを符号化する。
しかし、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに含まれていなければ、第2イントラ予測モードグループを示す情報と、前記第2イントラ予測モードグループ内の対応するインデックスとを符号化する。前記第2イントラ予測モードグループに属するイントラ予測モードは、第1イントラ予測モードグループに属するイントラ予測モードを除いたイントラ予測モードである。
前記現在予測ユニットの上側及び左側予測ユニットのイントラ予測モードがいずれも有効でない場合には、少なくとも一つ以上のイントラ予測モードが前記第1イントラ予測モードグループに追加される。例えば、一つのモードが追加される場合には、DCモードまたは平面モードが追加される。2つのモードが追加される場合には、DCモードと、平面モードまたは垂直モードとが追加される。3つのモードが追加される場合には、DCモードと、平面モード、垂直モード及び水平モードのうち2つが追加される。
前記左側及び上側予測ユニットのイントラ予測モードのうち一つのみ有効であるか、または同じ場合には、少なくとも1つまたは2つのイントラ予測モードが前記第1イントラ予測モードグループに追加される。
1つが追加される場合には、DCモードと平面モードのうち一つが追加される。2つが追加される場合には、前記有効なイントラ予測モードが方向性モードであるかどうかによって変わる。前記有効なイントラ予測モードが非方向性予測モード(DCモードまたは平面モード)である場合には、垂直モードと水平モードまたは他の一つの非方向性モード(平面モードまたはDCモード)と垂直モードが追加される。前記有効なイントラ予測モードが方向性モードである場合には、前記有効なイントラ予測モードと最も隣接している両方のイントラ予測モードが追加される。しかし、前記有効なイントラ予測モードの一方のみに方向性モードが存在するモード(モード6またはモード9)である場合には、隣接する一つのモード(モード25またはモード33)とDCモードまたは平面モードが追加される。
現在予測ユニットのイントラ予測モードが前記第2イントラ予測モードグループに属する場合には、前記最後の予測モードグループに含まれたイントラ予測モードを再整列したモード番号に対応するインデックスを符号化する。この場合、一つのVLCテーブルを使う。
以上では、イントラ予測モードグループが2個である場合を例示として挙げたが、イントラ予測モードグループが3個である場合も可能である。この場合には、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに属していなければ、第2イントラ予測モードグループに属するかどうかを判断する。そして、第2イントラ予測モードグループに属すれば、前記第2イントラ予測モードグループを示す情報と、前記第2イントラ予測モードグループ内の対応するインデックスとを符号化する。しかし、第2イントラ予測モードグループに属していなければ、第3イントラ予測モードグループを示す情報と、前記第3イントラ予測モードグループ内の対応するインデックスとを符号化する。この場合、前記第2イントラ予測モードグループは、現在予測ユニットの左側及び上側予測ユニットのイントラ予測モードに基づいて生成される。
また、予測モード符号化部155は、現在予測ユニットのイントラ予測モードを次のように符号化してもよい。先ず、現在予測ユニットのイントラ予測モードが、隣接する以前ブロックのイントラ予測モードのうちいずれか一つと同じかどうかを定める。現在予測ユニットのイントラ予測モードが、隣接する以前ブロックのイントラ予測モードのうちいずれか一つと同一であれば、これを示すフラグpred_flagの値を1と設定し、前記隣接する左側または上側の利用可能な(available)モードを用いて現在予測ユニットのイントラ予測モードを符号化する。しかし、現在予測ユニットのイントラ予測モードが、隣接する以前ブロックのイントラ予測モードのうちいずれか一つと同一でなければ、前記フラグpred_flagの値を0と設定し、前記左側及び上側のイントラ予測モードを除いた残りのイントラ予測モードのうち、現在予測ユニットのイントラ予測モードが何番目に対応するかを示す値を符号化する。
一方、chromaのイントラ予測モードは、lumaのイントラ予測モードを用いるモード(lumaモード)を適応的に含む。したがって、前記lumaモードを含む場合、SPS、PPSまたはスライスヘッダに前記情報を含める。Chromaのイントラ予測モードの数は、予測ユニットのサイズによって変わる。Chromaのイントラ予測モード符号化は、lumaと同様に隣接ブロックのイントラ予測モードを用いる。具体的方法は、前記で例示した方式と同一である。また、chromaのイントラ予測モードは、隣接ブロックのイントラ予測モード情報を用いずにそのまま符号化されてもよい。この場合、VLCテーブルが使われる。
予測ブロック伝送部156は、前記予測モード決定部154によって定められたイントラ予測モードに対応して生成された予測ブロックを減算部190に伝送する。
図5は、本発明の実施形態による動画復号化装置を示すブロック図である。図5を参照すれば、本発明による動画復号化装置は、エントロピー復号部210、逆スキャニング部220、逆量子化部230、逆変換部240、イントラ予測部250、インター予測部260、後処理部270、ピクチャー保存部280、加算部290、及びイントラ/インター転換スィッチ295を備える。
エントロピー復号部210は、受信された符号化ビートストリームを復号して、イントラ予測情報、インター予測情報、量子化係数情報などに分離する。エントロピー復号部210は、復号されたインター予測情報をインター予測部260に供給する。エントロピー復号部210は、イントラ予測情報を復号してイントラ予測部250に供給する。また、前記エントロピー復号化210は、前記逆量子化係数情報を逆スキャニング部220に供給する。
逆スキャニング部220は、前記量子化係数情報を2次元配列の逆量子化ブロックに変換する。前記変換のために、複数の逆スキャニングパターンのうち一つを選択する。係数逆スキャニングパターンは、イントラ予測モードによって定められる。現在変換ユニットのサイズが既定のサイズより大きい場合には、既定のサイズのサブセット単位で逆スキャンして量子化された変換ユニットを構成する。そして、現在変換ユニットのサイズが既定のサイズの場合と同じ場合には、変換ユニット単位で逆スキャンして量子化された変換ユニットを構成する。前記量子化された係数が複数のサブセット単位で逆スキャンされる場合には、それぞれのサブセット内の量子化係数に同じ逆スキャンパターンを適用する。前記複数のサブセットは、一つのメインサブセットと少なくとも一つ以上の残余サブセットとで構成される。メインサブセットは、DC係数を含む左上側に位置し、前記残余サブセットは、メインサブセット以外の領域をカバーする。
サブセット間の逆スキャンパターンは、逆ジグザグスキャンを適用する。スキャンパターンは、残余サブセットドルからメインサブセットに逆スキャンすることが望ましいが、その逆方向も可能である。また、サブセット内の量子化された係数の逆スキャンパターンと同じくサブセット間の逆スキャンパターンを設定してもよい。逆スキャニング部220は、現在変換ユニット内の0ではない最後の量子化係数の位置を示す情報を用いて逆スキャニングを行う。
逆量子化部230は、現在コーディングユニットの量子化ステップサイズ予測子を定める。前記予測子の決定過程は、図1の量子化部130の予測子決定過程と同一であるので略する。逆量子化部230は、定められた量子化ステップサイズ予測子と受信した残差量子化ステップサイズとを加えて、現在逆量子化ブロックに適用された量子化ステップサイズを得る。逆量子化部230は、量子化ステップサイズが適用された量子化マトリックスを用いて逆量子化係数を復元する。復元しようとする現在ブロックのサイズによって互いに異なる量子化マトリックスが適用され、同一サイズのブロックについても、前記現在ブロックの予測モード及びイントラ予測モードのうち少なくとも一つに基づいて量子化マトリックスが選択される。
逆変換部240は、逆量子化ブロックを逆変換して残差ブロックを復元する。そして、前記復元された量子化係数を逆変換して残差ブロックを復元する。前記逆量子化ブロックに適用する逆変換マトリックスは、予測モード(イントラまたはインター)及びイントラ予測モードによって適応的に定められる。図1の変換部120に適用された変換マトリックスの逆変換マトリックスが定められるので、具体的な記載は略する。
加算部290は、逆変換部240によって復元された残差ブロックと、イントラ予測部250またはインター予測部260によって生成される予測ブロックとを加算することで、映像ブロックを復元する。
イントラ予測部250は、エントロピー復号化部210から受信されたイントラ予測情報に基づいて現在ブロックのイントラ予測モードを復元する。そして、復元されたイントラ予測モードによって予測ブロックを生成する。
インター予測部260は、エントロピー復号化部210から受信されたインター予測情報に基づいて参照ピクチャーインデックス及び動きベクトルを復元する。そして、前記参照ピクチャーインデックス及び動きベクトルを用いて現在ブロックに対する予測ブロックを生成する。小数点精度の動き補償が適用される場合には、選択された補間フィルターを適用して予測ブロックを生成する。
後処理部270の動作は、図3の後処理部160の動作と同一であるので略する。ピクチャー保存部280は、後処理部270によって後処理された復号映像をピクチャー単位で保存する。
図6は、本発明による復号化装置200のイントラ予測部250を示すブロック図である。本発明によるイントラ予測部250は、予測モード復号化部251、参照画素生成部252、参照画素フィルタリング部253、予測ブロック生成部254及び予測ブロック伝送部255を備える。
予測モード復号化部251は、エントロピー復号部210部からイントラ予測情報を受信して現在予測ユニットのイントラ予測モードを復元する。前記イントラ予測情報は、復号化する現在予測ユニットのイントラ予測モードが属するイントラ予測モードグループを示す情報と、イントラ予測モードインデックスとを含む。
予測モード復号化部251は、現在予測ユニットに隣接している予測ユニットのイントラ予測モードを誘導する。前記モードは、現在予測ユニットの上側予測ユニット及び左側予測ユニットのイントラ予測モードである。現在予測ユニットの上側予測ユニットが複数存在する場合には、既定の方向(例えば、左から右へ)にスキャンしつつ、有効な最初の予測ユニットのイントラ予測モードを上側イントラ予測モードと設定する。現在予測ユニットの左側予測ユニットが複数存在する場合にも、既定の方向(例えば、上から下へ)にスキャンしつつ、有効な最初の予測ユニットのイントラ予測モードを左側イントラ予測モードと設定する。あるいは、複数の有効な予測ユニットのモード番号のうち最も小さなモード番号を上側イントラ予測モードと設定してもよい。
誘導されたイントラ予測モードのモード番号が、現在予測ユニットに許容されるイントラ予測モードの数より大きいか、または同一であれば、前記誘導されたイントラ予測モードを、現在予測ユニットで許容するイントラ予測モードのうち一つにマッピングする。
前記誘導またはマッピングされたイントラ予測モードを用いて第1イントラ予測モードグループを形成する。前記誘導またはマッピングされたイントラ予測モード及び前記イントラ予測モードによって既定された順序の候補者イントラ予測モードが第1イントラ予測モードグループに含まれる。前記誘導またはマッピングされたイントラ予測モードが方向性モードである場合には、前記既定の候補者イントラ予測モードは、前記誘導またはマッピングされたイントラ予測モードの方向性に最も隣接する少なくとも一つ以上のイントラ予測モードである。
前記エントロピー復号化部210から受信された現在予測ユニットのイントラ予測モードを示す情報が、第1イントラ予測モードグループを示すかどうかを判断する。
前記受信された現在予測ユニットのイントラ予測モードを示す情報が第1イントラ予測モードグループを示せば、受信されたイントラ予測モードインデックスに対応するイントラ予測モードを、前記形成された第1イントラ予測モードグループ内で選択する。そして、選択されたイントラ予測モードを、現在予測ユニットのイントラ予測モードと設定する。
しかし、前記受信された現在予測ユニットのイントラ予測モードを示す情報が第2イントラ予測モードグループを示せば、受信されたイントラ予測モードインデックスに対応するイントラ予測モードを、第2イントラ予測モードグループ内で選択する。そして、選択されたイントラ予測モードを現在予測ユニットのイントラ予測モードと設定する。前記第2イントラ予測モードグループは、前記第1イントラ予測モードグループ内に属するイントラ予測モード以外のイントラ予測モードで構成される。前記第2イントラ予測モードグループ内のイントラ予測モードは、インデックスを基準に再整列される。また、前記第2イントラ予測モードグループ内のイントラ予測モードは、インデックス及び現在予測ユニットの上側及び左側予測ユニットのイントラ予測モードに基づいて再整列されてもよい。
前記現在予測ユニットの上側及び左側予測ユニットのイントラ予測モードがいずれも有効(available)でない場合には、少なくとも一つ以上のイントラ予測モードが前記第1イントラ予測モードグループに追加される。例えば、一つのモードが追加される場合には、DCモードまたは平面モードが追加される。2つのモードが追加される場合には、DCモードと、平面モードまたは垂直モードとが追加される。3つのモードが追加される場合には、DCモードと、平面モード、垂直モード及び水平モードのうち2つが追加される。
前記左側及び上側予測ユニットのイントラ予測モードのうち一つのみ有効であるか、または同一である場合には、少なくとも一つまたは2つのイントラ予測モードが前記第1イントラ予測モードグループに追加される。1つが追加される場合には、DCモードと平面モードのうち一つが追加される。2つが追加される場合には、前記有効なイントラ予測モードが方向性モードであるかどうかによって変わる。前記有効なイントラ予測モードが非方向性予測モード(DCモードまたは平面モード)である場合には、垂直モードと水平モードまたは他の一つの非方向性モード(平面モードまたはDCモード)と垂直モードが追加される。前記有効なイントラ予測モードが方向性モードである場合には、前記有効なイントラ予測モードと最も隣接している両方のイントラ予測モードが追加される。しかし、前記有効なイントラ予測モードの一方のみに方向性モードが存在するモード(モード6またはモード9)である場合には、隣接する一つのモード(モード25またはモード33)とDCモードまたは平面モードが追加される。
また、予測モード復号化部251は、現在予測ユニットのイントラ予測モードを次のように復号化してもよい。先ず、現在予測ユニットのイントラ予測モードが、隣接する以前予測ユニット(例えば、上側及び左側予測ユニット)イントラ予測モードのうちいずれか一つと同一であるかどうかを示すフラグpred_flagをパージングする。前記フラグpred_flagの値が1ならば、利用可能な左側及び上側予測ユニットのイントラ予測モードを用いて現在予測ユニットのイントラ予測モードを求める。前記フラグpred_flagの値が0ならば、残余イントラ予測モード情報rem_pred_modeを用いて現在予測ユニットのイントラ予測モードを求める。この場合、前記残余イントラ予測モード情報rem_pred_modeは、前記利用可能な左側及び上側予測ユニットのイントラ予測モードを除いたイントラ予測モードのうち、現在予測ユニットのイントラ予測モードの順序を示す。
参照画素生成部252は、符号化装置100の参照画素生成部151と同じ方法で参照画素を生成する。但し、参照画素生成部252は、予測モード復号化部251によって復元されたイントラ予測モードによって適応的に参照画素を生成する。すなわち、参照画素生成部252は、復元されたイントラ予測モードを用いて、予測ブロックの生成に使われる参照画素が有効ではない場合にのみ参照画素を生成する。
参照画素フィルタリング部253は、予測モード復号化部251によって復元されたイントラ予測モード及び現在予測ユニットのサイズ情報に基づいて、参照画素を適応的にフィルタリングする。フィルタリング条件及びフィルターは、符号化装置100の参照画素フィルタリング部152のフィルタリング条件及びフィルターと同一である。
予測ブロック生成部254は、予測モード復号化部251によって復元されたイントラ予測モードによって、参照画素を用いて予測ブロックを生成する。予測ブロックの生成方法は、符号化装置100の予測ブロック生成部154と同一である。
予測ブロック伝送部255は、前記予測モード生成部254から受信された予測ブロックを加算器290に伝送する。
図7は、本発明によるイントラ予測復号化過程を示すフローチャートである。先ず、受信されたビットストリームからイントラ予測情報及び残差信号情報を逆多重化する(S100)。前記段階は、コーディングユニット単位で行われる。前記イントラ予測情報はコーディングユニット内の予測ユニットシンタックスから得、残差信号情報はコーディングユニット内の変換ユニットシンタックスから得る。
予測ユニットシンタックスから得たイントラ予測情報を用いて、現在予測ユニットのイントラ予測モードを復号する(S110)。前記イントラ予測情報は、イントラ予測モードグループ指示子pred_mode及び予測モードインデックスを含む。前記イントラ予測情報が予測モードインデックスを含まない場合、前記予測モードインデックスは0とみなす。前記イントラ予測モードグループ指示子は、現在予測ユニットが属するイントラ予測モードグループを示す。イントラ予測モードグループが2つ存在する場合、前記イントラ予測グループ指示子pred_modeは、1ビットのフラグでありうる。イントラ予測モードグループの数は2つまたは3つである。
図8は、第1イントラ予測モードグループ内の予測モードの数が可変である場合の、本発明によるイントラ予測モードを復元する段階(S110)を具体的に説明する図面である。ここでは、イントラ予測モードグループの数が2つである場合について説明する。
先ず、現在予測ユニットに隣接している予測ユニットの利用可能なイントラ予測モードを用いて第1イントラ予測モードグループを生成する(S111)。
前記第1イントラ予測モードグループは、現在予測ユニットの上側及び左側予測ユニットの有効なイントラ予測モードを用いて構成される。この場合、前記上側及び左側予測ユニットのイントラ予測モードがいずれも有効でない場合には、DCモードまたは平面モードが追加される。また、前記第1イントラ予測モードグループは、現在予測ユニットの右上側、左下側、左上側予測ユニットのイントラ予測モードのうち有効な少なくとも一つのモードをさらに含む。前記モードは、既定の順序によって検索された最初の有効なイントラ予測モードである。
現在予測ユニットの上側予測ユニットが複数存在する場合には、既定の方向(例えば、左側から右側方向)にスキャンしつつ、有効な最初の予測ユニットのイントラ予測モードを上側イントラ予測モードと設定する。現在予測ユニットの左側予測ユニットが複数存在する場合にも、既定の方向(例えば、上側から下側方向)にスキャンしつつ、有効な最初の予測ユニットのイントラ予測モードを左側イントラ予測モードと設定する。
前記有効なイントラ予測モードが現在予測ユニットの許容可能なイントラ予測モード内に属していない場合には、前記有効なイントラ予測モードは、現在予測ユニットの許容可能なイントラ予測モードのうち一つにマッピングされる。
前記イントラ予測モードグループ指示子を用いて、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに属するかどうかを判断する(S112)。
段階S112で、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに属する場合、予測モードインデックスが存在するかどうかを判断する(S113)。
段階S113で、予測モードインデックスが存在すれば、前記第1イントラ予測モードグループ内のイントラ予測モードのうち、前記予測モードインデックスに対応するイントラ予測モードを現在予測ユニットのイントラ予測モードと定める(S114)。
段階S113で、予測モードインデックスが存在していなければ、予測モードインデックスを0とみなす。そして、前記第1イントラ予測モードグループ内に存在するイントラ予測モードを現在予測ユニットのイントラ予測モードと定める(S115)。すなわち、予測モードインデックスが存在していなければ、第1イントラ予測モードグループは一つのイントラ予測モードを含む。
段階S112で、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに属していない場合には、第2イントラ予測モードグループ内のイントラ予測モードのうち、前記予測モードインデックスに対応するイントラ予測モードを選択して、現在予測ユニットのイントラ予測モードと定める(S116)。前記第2イントラ予測モードグループは、前記第1イントラ予測モードグループに属するイントラ予測モードを除いたイントラ予測モードで構成される。前記第2イントラ予測モードグループ内のイントラ予測モード候補者は、イントラ予測モード番号の小さなものに低いインデックスを与える。
図9は、第1イントラ予測モードグループ内の予測モード候補者数が固定値である場合の、本発明によるイントラ予測モード復元段階(S110)を具体的に説明する図面である。
先ず、現在予測ユニットに隣接している予測ユニットのイントラ予測モードを用いて第1イントラ予測モードグループを生成する(S211)。
前記第1イントラ予測モードグループが2個のイントラ予測モードを含む場合について説明する。
現在予測ユニットの上側及び左側予測ユニットのイントラ予測モードが有効かどうかを判断する。そして、前記有効なイントラ予測モードが現在予測ユニットの許容可能なイントラ予測モード内に属していない場合には、前記有効なイントラ予測モードは、現在予測ユニットの許容可能なイントラ予測モードのうち一つに変換(マッピング)される。現在予測ユニットの上側及び左側予測ユニットのイントラ予測モードがいずれも有効で同一でない場合には、前記第1イントラ予測モードグループは、前記現在予測ユニットの上側及び左側予測ユニットのイントラ予測モードで構成される。現在予測ユニットの上側及び左側予測ユニットのイントラ予測モードのうち一つのみ有効であるか、または2つが同じイントラ予測モードを持つ場合には、一つのイントラ予測モードが前記第1イントラ予測モードグループに追加される。前記有効な一つのイントラ予測モードがDCモードではない場合には、DCモードを追加する。前記有効な一つのイントラ予測モードがDCモードである場合には、平面モードまたは垂直モードが追加される。
次いで、前記第1イントラ予測モードグループが3つのイントラ予測モードを含む場合について説明する。
現在予測ユニットの上側及び左側予測ユニットのイントラ予測モードが有効かどうかを判断する。そして、前記有効なイントラ予測モードが現在予測ユニットの許容可能なイントラ予測モード内に属していない場合には、前記有効なイントラ予測モードは、現在予測ユニットの許容可能なイントラ予測モードのうち一つに変換(マッピング)される。
現在予測ユニットの上側及び左側予測ユニットのイントラ予測モードがいずれも有効で同一でない場合には、前記第1イントラ予測モードグループは、前記有効な2つのイントラ予測モードと1つの追加イントラ予測モードとで構成される。前記追加イントラ予測モードは、前記2つのイントラ予測モードとは異なるモードであり、垂直モード、水平モード及びDCモードのうち一つである。この場合、DCモード、垂直モード、水平モードの順序で追加可能な一つのモードが前記第1イントラ予測モードグループに含まれる。
現在予測ユニットの上側及び左側予測のイントラ予測モードのうち一つのみ有効か、または前記2つのイントラ予測モードが同一である場合には、前記第1イントラ予測モードグループは、前記有効なイントラ予測モードと2つの追加イントラ予測モードとで構成される。前記2つの追加イントラ予測モードは、前記有効なイントラ予測モード及び予測ユニットのサイズによって適応的に定められる。予測ユニットのサイズが既定のサイズより小さいか、または同一であれば、前記有効なイントラ予測モードが方向性予測モードならば、前記有効なイントラ予測モードの方向に最も隣接している方向を持つイントラ予測モードが前記追加イントラ予測モードと設定される。但し、モード6または9の場合には、それぞれモード9または6を、最も隣接している方向を持つ方向性予測モードのうち一つとみなす。前記有効なイントラ予測モードが非方向性予測モードならば、垂直モード及び水平モードが追加イントラ予測モードと設定されるか、または残りの一つの非方向性予測モード及び垂直モードが追加イントラ予測モードと設定される。
現在予測ユニットの上側及び左側予測のイントラ予測モードがいずれも有効でない場合には、前記第1イントラ予測モードグループは、3つの追加イントラ予測モードで構成される。前記3つの追加イントラ予測モードは、DCモード、垂直モード及び水平モードである。また、DCモード、平面モード及び垂直モードである。
現在予測ユニットの上側予測ユニットが複数存在する場合には、既定の方向(例えば、左側から右側方向)にスキャンしつつ、有効な最初の予測ユニットのイントラ予測モードを上側イントラ予測モードと設定する。現在予測ユニットの左側予測ユニットが複数存在する場合にも、既定の方向(例えば、上側から下側方向)にスキャンしつつ、有効な最初の予測ユニットのイントラ予測モードを左側イントラ予測モードと設定する。
次いで、前記イントラ予測モードグループ指示子を用いて、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに属するかどうかを判断する(S212)。段階S212で、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに属する場合、前記第1イントラ予測モードグループ内のイントラ予測モードのうち、前記予測モードインデックスに対応するイントラ予測モードを現在予測ユニットのイントラ予測モードと定める(S213)。
段階S212で、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに属していない場合には、第2イントラ予測モードグループ内のイントラ予測モードのうち、前記予測モードインデックスに対応するイントラ予測モードを選択して、現在予測ユニットのイントラ予測モードと定める(S214)。前記第2イントラ予測モードグループは、前記第1イントラ予測モードグループに属するイントラ予測モードを除いたイントラ予測モードで構成される。
前記第2イントラ予測モードグループ内のイントラ予測モード候補者は、イントラ予測モード番号の小さなものに低いインデックスを与える。
次いで、前記復号された現在予測ユニットのイントラ予測モードに基づいて参照画素を適応的に生成する(S120)。
利用不可能な参照画素を基準として一方向のみに利用可能な参照画素が存在する場合には、最も近い位置に存在する利用可能な参照画素をコピーして参照画素を生成する。さらに他の方法として、最も近い位置に存在する複数の利用可能な参照画素を用いて参照画素を生成してもよい。利用不可能な参照画素を基準として双方向とも利用可能な参照画素が存在する場合には、各方向の最も隣接している利用可能な参照画素を用いて参照画素を生成する。前記生成される参照画素は、前記2個の参照画素(各方向に最も近い位置に存在する画素)の四捨五入した平均値を参照画素値として生成してもよい。しかし、前記2個の参照画素値の差が大きい場合が発生する可能性があるので、線形補間方法を使って参照画素を生成してもよい。
次いで、復号されたイントラ予測モードに基づいて参照画素を適応的にフィルタリングする(S130)。復号されたイントラ予測モードが垂直(モード0)、水平(モード1)、DC(モード2)である場合には、参照画素にフィルターを適用しない。それ以外の方向性モードについては、適応的に参照画素をフィルタリングする。また、現在予測ユニットの上側の参照画素のうち最右側の参照画素(すなわち、(x=2N−1,y=−1)に位置する参照画素)と、現在予測ユニットの左側の参照画素のうち最下側に位置する参照画素(すなわち、(x=−1,y=2N−1)に位置する参照画素)とをフィルタリングせず、残りの画素は、隣接する2個の画素を用いてフィルタリングする。
前記フィルタリングは、参照画素間の画素値の変化量をスムージングするためのものであり、ローパスフィルターを適用する。ローパスフィルターは、3タップフィルターである[1,2,1]、または5タップフィルターである[1,2,4,2,1]である。前記ローパスフィルターは、現在予測ユニットのサイズ及びイントラ予測モードによって適応的に適用される。
垂直または水平モードと、前記水平または垂直モードに対して45°角度を持つモードとの間に存在するモードについては、予測ユニットのサイズによって適応的にフィルターを適用する。この場合、イントラ予測ユニットのサイズによって、前記水平または垂直モード及びこれに隣接している既定数のモードでのみフィルターを適用する。方向性イントラ予測モードの数が同じ予測ユニットについては、前記既定数は予測ユニットが大きいほど単調増加する。すなわち、8×8予測ユニットについては、水平または垂直モードに対して45°角度を持つモードと、これに隣接している第1個数のモードとでフィルタリングを行い、16×16予測ユニットについては、水平または垂直モードに対して45°角度を持つモードと、これに隣接している第2個数のモードとでフィルタリングを行い、32×32予測ユニットについては、水平または垂直モードに対して45°角度を持つモードと、これに隣接している第3個数のモードとでフィルタリングを行う。ここで、第1個数は第2個数より小さいか、または同一であり、第2個数は第3個数より小さいか、または同一である。
次いで、復号されたイントラ予測モードによって参照画素を用いて予測ブロックを生成する(S140)。前記予測ブロックの生成方法は、図6の予測ブロック生成部の予測ブロック生成方法と同一であるので略する。逆多重化された残差信号をエントロピー復号化する(S150)。
エントロピー復号化された残差信号を逆スキャンする(S160)。すなわち、復号化された残差信号を2次元配列の逆量子化ブロックに変換する。前記変換のために、複数の逆スキャニングパターンのうち一つを選択する。係数逆スキャニングパターンは、イントラ予測モードによって定められる。現在変換ユニットのサイズが既定のサイズより大きい場合には、既定のサイズのサブセット単位で逆スキャンして量子化された変換ユニットを構成する。そして、現在変換ユニットのサイズが既定のサイズである場合と同じ場合には、変換ユニット単位で逆スキャンして量子化された変換ユニットを構成する。
2次元配列の逆量子化ブロックを逆量子化する(S170)。このために、現在コーディングユニットの量子化ステップサイズ予測子を定める。前記予測子の決定過程は、図5の逆量子化部230の予測子決定過程と同一であるので略する。定められた量子化ステップサイズ予測子と受信した残差量子化ステップサイズとを加えて、現在逆量子化ブロックに適用された量子化ステップサイズを得る。そして、量子化ステップサイズが適用された量子化マトリックスを用いて逆量子化係数を復元する。
次いで、逆量子化されたブロックを逆変換する(S180)。復号されたイントラ予測モードによって適応的に逆変換マトリックスが定められる。変換単位は、2個(水平、垂直)の1次元変換マトリックスによって変換される。イントラ予測モードが水平である場合には、残差ブロックが垂直方向への方向性を持つ確率が高くなるので、垂直方向には逆DCT基盤の定数マトリックスを適用し、水平方向には逆DST基盤または逆KLT基盤の定数マトリックスを適用する。イントラ予測モードが垂直である場合には、垂直方向には逆DST基盤または逆KLT基盤の定数マトリックスを、水平方向には逆DCT基盤の定数マトリックスを適用する。DCモードの場合には、双方向とも逆DCT基盤の定数マトリックスを適用する。
次いで、段階S140で生成された予測ブロックと逆変換されたブロックとを加えて復元映像を生成する(S190)。復元された残差信号及び予測ブロックは、CU単位で合わせられて復元される。
以上、実施形態を参照して説明したが、当業者ならば、特許請求の範囲に記載した本発明の思想及び領域から逸脱しない範囲内で本発明を多様に修正及び変更できるということを理解できるであろう。
(付記1)
イントラ予測復号化方法において、
イントラ予測情報及び残差信号を逆多重化する段階と、
前記イントラ予測情報及び現在予測ユニットに隣接している予測ユニットのイントラ予測モードを用いて、現在予測ユニットのイントラ予測モードを復号する段階と、
現在予測ユニットの利用不可能な参照画素が存在する場合、一つ以上の利用可能な参照画素を用いて参照画素を生成する段階と、
前記復号されたイントラ予測モードに基づいて前記参照画素をフィルタリングする段階と、
前記復号されたイントラ予測モード及び前記参照画素を用いて予測ブロックを生成する段階と、
前記逆多重化された残差信号を復号化して残差ブロックを生成する段階と、
前記予測ブロック及び残差ブロックを用いて復元ブロックを生成する段階と、を含むことを特徴とするイントラ予測復号化方法。
(付記2)
参照画素を生成する段階は、
前記現在予測ユニットの利用不可能な参照画素の一方向のみに利用可能な参照画素が存在すれば、前記一方向の最も隣接している利用可能な参照画素を用いて参照画素を生成する段階と、
前記現在予測ユニットの利用不可能な参照画素の双方向に利用可能な参照画素が存在する場合、一方向の最も隣接している利用可能な参照画素及び他方向の最も隣接している利用可能な参照画素を用いて参照画素を生成する段階と、を含むことを特徴とする付記1に記載のイントラ予測復号化方法。
(付記3)
前記現在予測ユニットの利用不可能な参照画素の双方向に利用可能な参照画素が存在する場合、一方向の最も隣接している利用可能な参照画素及び他方向の最も隣接している利用可能な参照画素の四捨五入した平均値、または線形結合によって生成された値を用いて参照画素を生成する段階を含むことを特徴とする付記1に記載のイントラ予測復号化方法。
(付記4)
現在予測ユニットのイントラ予測モードを復号化する段階は、
現在予測ユニットに隣接しているイントラ予測ユニットの利用可能なイントラ予測モードを用いて第1イントラ予測モードグループを生成する段階と、
前記イントラ予測情報内のイントラ予測モードグループ指示子を用いて、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに属するか、または第2イントラ予測モードグループに属するかを判断する段階と、
現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに属する場合、前記イントラ予測情報内の予測モードインデックスが存在すれば、前記第1イントラ予測モードグループ内のイントラ予測モードのうち、前記予測モードインデックスに対応するイントラ予測モードを現在予測ユニットのイントラ予測モードと定め、前記イントラ予測情報内の予測モードインデックスが存在していなければ、前記第1イントラ予測モード内に存在する1つのイントラ予測モードを現在予測ユニットのイントラ予測モードと定める段階と、
現在予測ユニットのイントラ予測モードが第2イントラ予測モードグループに属すれば、前記イントラ予測情報内の予測モードインデックスを用いて現在予測ユニットのイントラ予測モードを定める段階と、を含むことを特徴とする付記1に記載のイントラ予測復号化方法。
(付記5)
前記第1イントラ予測モードグループは、現在予測ユニットの左側予測ユニットの利用可能なイントラ予測モード、及び現在予測ユニットの上側予測ユニットの利用可能なイントラ予測モードを含むことを特徴とする付記4に記載のイントラ予測復号化方法。
(付記6)
前記現在予測ユニットの左側予測ユニットのイントラ予測モード及び現在予測ユニットの上側予測ユニットのイントラ予測モードがいずれも利用不可能な場合、前記第1イントラ予測モードグループは、DCモードまたは平面モードを含むことを特徴とする付記4に記載のイントラ予測復号化方法。
(付記7)
現在予測ユニットの左側に複数のイントラ予測ユニットが存在する場合、利用可能なイントラ予測モードを持つ最上側のイントラ予測ユニットのイントラ予測モードを、左側予測ユニットのイントラ予測モードと定めることを特徴とする付記5に記載のイントラ予測復号化方法。
(付記8)
前記イントラ予測情報は、イントラ予測モードグループ指示子及び予測モードインデックスを含むことを特徴とする付記1に記載のイントラ予測復号化方法。
(付記9)
現在予測ユニットのイントラ予測モードを復号化する段階は、
現在予測ユニットに隣接しているイントラ予測ユニットの利用可能なイントラ予測モードを用いて第1イントラ予測モードグループを生成する段階と、
前記イントラ予測モードグループ指示子を用いて、現在予測ユニットのイントラ予測モードが第1イントラ予測モードグループに属するか、または第2イントラ予測モードグループに属するかを判断する段階と、
前記予測モードインデックスを用いて、前記判断されたイントラ予測モードグループ内のイントラ予測モードのうち、前記予測モードインデックスに対応するイントラ予測モードを現在予測ユニットのイントラ予測モードと定める段階と、を含むことを特徴とする付記8に記載のイントラ予測復号化方法。
(付記10)
現在予測ユニットの左側予測ユニットのイントラ予測モード及び現在予測ユニットの上側予測ユニットのイントラ予測モードのうち利用可能なモード数によって、前記第1イントラ予測モードグループを生成する方法を異ならせることを特徴とする付記9に記載のイントラ予測復号化方法。
(付記11)
現在予測ユニットの左側予測ユニットのイントラ予測モード及び現在予測ユニットの上側予測ユニットのイントラ予測モードがいずれも利用可能であり、互いに異なる値を持つ場合、前記第1イントラ予測モードグループは前記2種のイントラ予測モードを含むことを特徴とする付記9に記載のイントラ予測モード復号化方法。
(付記12)
前記第1イントラ予測モードグループは、現在予測ユニットの左側予測ユニットのイントラ予測モード及び現在予測ユニットの上側予測ユニットのイントラ予測モードのうち利用可能なイントラ予測モードによって、適応的に追加イントラ予測モードを含むことを特徴とする付記9に記載のイントラ予測モード復号化方法。
Wei-Jung Chien et al., "Parsing friendly intra mode coding", Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 6th Meeting: Torino, IT, 2011-07-02, [JCTVC-F459] (version 1) Thomas Wiegand et al., "WD3: Working Draft 3 of High-Efficiency VideoCoding", Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 5th Meeting: Geneva, CH, 2011-06-27, [JCTVC-E603] (version 8) Wei-Jung Chien et al., "Parsing friendly intra mode coding", Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 6th Meeting: Torino, IT, 2011-07-15, [JCTVC-F459] (version 4)

Claims (3)

  1. 現在ブロックのイントラ予測モードを定め、前記イントラ予測モードによって現在ブロックの予測ブロックを生成するイントラ予測部と、
    元ブロックと前記予測ブロックとの差を計算して残差ブロックを生成する減算部と、
    前記残差ブロックを変換符号化して変換ブロックを生成する変換部と、
    前記変換ブロックを量子化して量子化ブロックを生成する量子化部と、
    前記イントラ予測モードによって定められたスキャンパターンを用いて前記量子化ブロックの係数をスキャンして1次元の係数列を生成するスキャニング部と、
    前記現在ブロックの左側及び上側ブロックの利用可能なイントラ予測モードを用いて第1イントラ予測モードグループを生成し、前記第1イントラ予測モードグループに属するイントラ予測モードを除いたイントラ予測モードで構成された第2イントラ予測モードグループを生成し、前記現在ブロックのイントラ予測モードが前記第1イントラ予測モードグループに属すれば、前記現在ブロックのイントラ予測モードが前記第1イントラ予測モードグループに属するということを示すイントラ予測モードグループ指示子及びイントラ予測モードインデックスを含むイントラ予測情報を生成し、前記現在ブロックのイントラ予測モードが前記第2イントラ予測モードグループに属すれば、前記現在ブロックのイントラ予測モードが前記第2イントラ予測モードグループに属するということを示すイントラ予測モードグループ指示子及びイントラ予測モードインデックスを含むイントラ予測情報を生成する予測モード符号化部と、
    前記1次元の係数列及び前記イントラ予測情報をエントロピー符号化するエントロピー符号化部と、を備え、
    前記量子化ブロックの係数が複数のサブセットに分割された場合には、前記複数のサブセット及びそれぞれのサブセット内の係数に同じスキャンパターンを適用して、前記複数のサブセットをスキャンするスキャンパターンが、前記イントラ予測モードによって定められて、
    前記第1イントラ予測モードグループに属するイントラ予測モードの数は3個に固定され、
    前記左側及び上側ブロックのうちいずれか一つのブロックのイントラ予測モードのみ有効であれば、前記第1イントラ予測モードグループは、前記有効なイントラ予測モード及び前記有効なイントラ予測モードによって定められる2個の追加イントラ予測モードで構成され、
    前記有効なイントラ予測モードが非方向性イントラ予測モードであれば、前記第1イントラ予測モードグループは前記有効なイントラ予測モード及び2個の追加イントラ予測モードで構成されるものの、前記2個の追加イントラ予測モードは他の一つの非方向性イントラ予測モードと垂直モードであり、
    前記それぞれのサブセット内の係数及び前記複数のサブセットは逆方向にスキャンされることを特徴とする映像符号化装置。
  2. 前記有効なイントラ予測モードがDCモードであれば、前記2個の追加イントラ予測モードは平面モード及び垂直モードであることを特徴とする請求項1に記載の映像符号化装置。
  3. 前記有効なイントラ予測モードが平面モードであれば、前記2個の追加イントラ予測モードはDCモード及び垂直モードであることを特徴とする請求項1に記載の映像符号化装置。
JP2016123339A 2010-08-17 2016-06-22 映像符号化装置 Expired - Fee Related JP6371800B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20100079529 2010-08-17
KR10-2010-0079529 2010-08-17
KR1020110064301A KR20120058384A (ko) 2010-08-17 2011-06-30 인트라 프리딕션 방법
KR10-2011-0064301 2011-06-30

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013524784A Division JP5982612B2 (ja) 2010-08-17 2011-08-12 イントラ予測モード復号化方法

Publications (2)

Publication Number Publication Date
JP2016197880A JP2016197880A (ja) 2016-11-24
JP6371800B2 true JP6371800B2 (ja) 2018-08-08

Family

ID=45605532

Family Applications (12)

Application Number Title Priority Date Filing Date
JP2013524784A Active JP5982612B2 (ja) 2010-08-17 2011-08-12 イントラ予測モード復号化方法
JP2016123337A Active JP6322232B2 (ja) 2010-08-17 2016-06-22 イントラ予測モード符号化方法
JP2016123333A Active JP6371796B2 (ja) 2010-08-17 2016-06-22 映像復号化装置
JP2016123336A Active JP6371798B2 (ja) 2010-08-17 2016-06-22 映像符号化方法
JP2016123338A Expired - Fee Related JP6371799B2 (ja) 2010-08-17 2016-06-22 映像符号化方法
JP2016123331A Active JP6322230B2 (ja) 2010-08-17 2016-06-22 イントラ予測モード復号化方法
JP2016123340A Expired - Fee Related JP6371801B2 (ja) 2010-08-17 2016-06-22 映像符号化装置
JP2016123332A Expired - Fee Related JP6371795B2 (ja) 2010-08-17 2016-06-22 映像復号化方法
JP2016123330A Active JP6371794B2 (ja) 2010-08-17 2016-06-22 映像復号化方法
JP2016123339A Expired - Fee Related JP6371800B2 (ja) 2010-08-17 2016-06-22 映像符号化装置
JP2016123334A Expired - Fee Related JP6371797B2 (ja) 2010-08-17 2016-06-22 映像復号化装置
JP2016123335A Active JP6322231B2 (ja) 2010-08-17 2016-06-22 イントラ予測モード符号化方法

Family Applications Before (9)

Application Number Title Priority Date Filing Date
JP2013524784A Active JP5982612B2 (ja) 2010-08-17 2011-08-12 イントラ予測モード復号化方法
JP2016123337A Active JP6322232B2 (ja) 2010-08-17 2016-06-22 イントラ予測モード符号化方法
JP2016123333A Active JP6371796B2 (ja) 2010-08-17 2016-06-22 映像復号化装置
JP2016123336A Active JP6371798B2 (ja) 2010-08-17 2016-06-22 映像符号化方法
JP2016123338A Expired - Fee Related JP6371799B2 (ja) 2010-08-17 2016-06-22 映像符号化方法
JP2016123331A Active JP6322230B2 (ja) 2010-08-17 2016-06-22 イントラ予測モード復号化方法
JP2016123340A Expired - Fee Related JP6371801B2 (ja) 2010-08-17 2016-06-22 映像符号化装置
JP2016123332A Expired - Fee Related JP6371795B2 (ja) 2010-08-17 2016-06-22 映像復号化方法
JP2016123330A Active JP6371794B2 (ja) 2010-08-17 2016-06-22 映像復号化方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2016123334A Expired - Fee Related JP6371797B2 (ja) 2010-08-17 2016-06-22 映像復号化装置
JP2016123335A Active JP6322231B2 (ja) 2010-08-17 2016-06-22 イントラ予測モード符号化方法

Country Status (19)

Country Link
US (4) US9491478B2 (ja)
EP (11) EP3125559B1 (ja)
JP (12) JP5982612B2 (ja)
KR (16) KR20180039757A (ja)
CN (12) CN106851284B (ja)
CY (5) CY1118382T1 (ja)
DK (5) DK3125555T3 (ja)
ES (11) ES2693905T3 (ja)
HR (5) HRP20170053T1 (ja)
HU (9) HUE042510T2 (ja)
LT (5) LT3125552T (ja)
NO (1) NO3125552T3 (ja)
PL (11) PL3125561T3 (ja)
PT (5) PT3125552T (ja)
RS (5) RS57166B1 (ja)
SI (5) SI3125561T1 (ja)
SM (1) SMT201600449B (ja)
TR (2) TR201806128T4 (ja)
WO (1) WO2012023762A2 (ja)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110113561A (ko) 2010-04-09 2011-10-17 한국전자통신연구원 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치
PT2945382T (pt) * 2010-04-23 2017-07-11 M&K Holdings Inc Aparelho e método de codificação de imagem
HUE042510T2 (hu) * 2010-08-17 2019-07-29 M&K Holdings Inc Eljárás intra predikció mód kódolására
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image
US9008175B2 (en) 2010-10-01 2015-04-14 Qualcomm Incorporated Intra smoothing filter for video coding
CN107197257B (zh) * 2010-12-08 2020-09-08 Lg 电子株式会社 由编码装置和解码装置执行的内预测方法
US20120163457A1 (en) * 2010-12-28 2012-06-28 Viktor Wahadaniah Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
CN102595124B (zh) 2011-01-14 2014-07-16 华为技术有限公司 图像编码解码方法、处理图像数据方法及其设备
CN102595118B (zh) * 2011-01-14 2015-04-08 华为技术有限公司 一种编解码中的预测方法和预测器
WO2012134046A2 (ko) * 2011-04-01 2012-10-04 주식회사 아이벡스피티홀딩스 동영상의 부호화 방법
CN106851270B (zh) 2011-04-25 2020-08-28 Lg电子株式会社 执行帧内预测的编码设备和解码设备
KR101383775B1 (ko) 2011-05-20 2014-04-14 주식회사 케이티 화면 내 예측 방법 및 장치
MY192608A (en) * 2011-06-28 2022-08-29 Samsung Electronics Co Ltd Method and apparatus for coding video and method and apparatus for decoding video, accompanied with intra prediction
GB2494468B (en) 2011-09-12 2014-01-15 Canon Kk Method and device for encoding or decoding information representing prediction modes
CN104935932B (zh) * 2011-10-24 2018-05-04 英孚布瑞智有限私人贸易公司 图像解码设备
PT3402201T (pt) 2011-10-24 2022-09-23 Gensquare Llc Método de descodificação de imagens
US9961343B2 (en) 2011-10-24 2018-05-01 Infobridge Pte. Ltd. Method and apparatus for generating reconstructed block
US9154796B2 (en) * 2011-11-04 2015-10-06 Qualcomm Incorporated Intra-mode video coding
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
US9210438B2 (en) * 2012-01-20 2015-12-08 Sony Corporation Logical intra mode naming in HEVC video coding
CN109194961B (zh) * 2012-01-20 2022-05-17 杜比实验室特许公司 解码方法、视频解码设备及编码方法
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
JP5972687B2 (ja) * 2012-07-02 2016-08-17 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
EP2870755A1 (en) * 2012-07-05 2015-05-13 Thomson Licensing Video coding and decoding method with adaptation of coding modes
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP2014082639A (ja) * 2012-10-16 2014-05-08 Canon Inc 画像符号化装置およびその方法
US9426473B2 (en) * 2013-02-01 2016-08-23 Qualcomm Incorporated Mode decision simplification for intra prediction
JP6212890B2 (ja) * 2013-03-22 2017-10-18 富士通株式会社 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
KR102294830B1 (ko) 2014-01-03 2021-08-31 삼성전자주식회사 디스플레이 구동 장치 및 이미지 데이터 처리 장치의 동작 방법
CN105338365B (zh) * 2014-05-27 2018-11-20 富士通株式会社 视频编码方法和视频编码装置
US10856009B2 (en) 2014-09-04 2020-12-01 Mediatek Inc. Method of block vector clipping and coding for screen content coding and video coding
CN110719468B (zh) * 2014-10-08 2021-06-25 联发科技股份有限公司 视频编码方法
CN106375768B (zh) * 2015-07-23 2019-05-17 中国科学院信息工程研究所 基于帧内预测模式校准的视频隐写分析方法
JP5933086B2 (ja) * 2015-08-21 2016-06-08 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
CN105354526B (zh) * 2015-09-28 2018-03-20 西安中颖电子有限公司 提高一维条码解码效率的方法以及一维条码的解码系统
JP6088689B2 (ja) * 2016-04-28 2017-03-01 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP6740534B2 (ja) * 2016-07-04 2020-08-19 日本放送協会 符号化装置、復号装置及びプログラム
CN116634139A (zh) * 2016-08-03 2023-08-22 株式会社Kt 用于对视频进行编码和解码的方法和装置
KR20220129685A (ko) * 2016-09-05 2022-09-23 엘지전자 주식회사 영상 부호화/복호화 방법 및 이를 위한 장치
CN113518221B (zh) * 2016-10-14 2024-03-01 联发科技股份有限公司 视频编码或解码方法及相应装置
KR20190092382A (ko) * 2016-12-27 2019-08-07 삼성전자주식회사 인트라 예측에서 참조 샘플을 필터링하는 방법 및 장치
US10863198B2 (en) 2017-01-03 2020-12-08 Lg Electronics Inc. Intra-prediction method and device in image coding system for 360-degree video
JP6242517B2 (ja) * 2017-02-03 2017-12-06 株式会社Nttドコモ 動画像予測復号装置及び動画像予測復号方法
WO2019011484A1 (en) * 2017-07-10 2019-01-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. BINARY PLAN CODING
JP6408681B2 (ja) * 2017-11-07 2018-10-17 株式会社Nttドコモ 動画像予測復号方法
WO2019199093A1 (ko) * 2018-04-11 2019-10-17 엘지전자 주식회사 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
SG11202009345QA (en) 2018-05-10 2020-10-29 Samsung Electronics Co Ltd Video encoding method and apparatus, and video decoding method and apparatus
CN110650337B (zh) 2018-06-26 2022-04-01 中兴通讯股份有限公司 一种图像编码方法、解码方法、编码器、解码器及存储介质
CN110876057B (zh) * 2018-08-29 2023-04-18 华为技术有限公司 一种帧间预测的方法及装置
JP2022500916A (ja) * 2018-09-13 2022-01-04 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. アフィン線形加重イントラ予測
JP6602931B2 (ja) * 2018-09-20 2019-11-06 株式会社Nttドコモ 動画像予測復号方法
JP6874804B2 (ja) 2018-09-28 2021-05-19 株式会社Jvcケンウッド 画像復号装置、画像復号方法、及び画像復号プログラム
RU2768956C1 (ru) 2018-09-28 2022-03-25 ДжейВиСиКЕНВУД Корпорейшн Устройство декодирования изображения, способ декодирования изображения, устройство кодирования изображения и способ кодирования изображения
CN115695783A (zh) * 2018-11-26 2023-02-03 华为技术有限公司 对图像的块进行解码的方法和设备,解码设备,和计算机可读介质
CN111193934A (zh) * 2020-04-10 2020-05-22 杭州雄迈集成电路技术股份有限公司 一种帧内预测方法、系统、计算机设备及可读存储介质
JP7104101B2 (ja) * 2020-06-24 2022-07-20 日本放送協会 符号化装置、復号装置及びプログラム
CN114466238B (zh) * 2020-11-09 2023-09-29 华为技术有限公司 帧解复用方法、电子设备及存储介质
WO2024080706A1 (ko) * 2022-10-10 2024-04-18 엘지전자 주식회사 영상 인코딩/디코딩 방법 및 장치, 그리고 비트스트림을 저장한 기록 매체

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3835207B2 (ja) * 2001-06-27 2006-10-18 ソニー株式会社 試着画像提供システム及び試着画像提供方法、試着画像生成装置及び試着画像生成方法
US7289672B2 (en) * 2002-05-28 2007-10-30 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode estimation
US7236524B2 (en) * 2002-05-28 2007-06-26 Sharp Laboratories Of America, Inc. Methods and systems for image intra-prediction mode communication
WO2003105070A1 (en) * 2002-06-01 2003-12-18 Nokia Corporation Spatial prediction based intra coding
US20030231795A1 (en) * 2002-06-12 2003-12-18 Nokia Corporation Spatial prediction based intra-coding
KR100750110B1 (ko) * 2003-04-22 2007-08-17 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
KR100579542B1 (ko) * 2003-07-29 2006-05-15 삼성전자주식회사 블럭 간의 상관성을 고려한 움직임 추정 장치 및 방법
KR100982514B1 (ko) * 2003-11-14 2010-09-16 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 장치
KR20050121627A (ko) 2004-06-22 2005-12-27 삼성전자주식회사 동영상 코덱의 필터링 방법 및 필터링 장치
WO2006020019A1 (en) * 2004-07-15 2006-02-23 Qualcomm Incorporated H.264 spatial error concealment based on the intra-prediction direction
CN100455021C (zh) * 2004-09-30 2009-01-21 华为技术有限公司 帧内预测模式的选择方法
EP1808024B1 (en) * 2004-11-04 2013-04-17 Thomson Licensing Fast intra mode prediction for a video encoder
KR100679025B1 (ko) * 2004-11-12 2007-02-05 삼성전자주식회사 다 계층 기반의 인트라 예측 방법, 및 그 방법을 이용한비디오 코딩 방법 및 장치
TWI266539B (en) * 2005-01-13 2006-11-11 Via Tech Inc Decoding device with multi-buffers
JP2006246431A (ja) * 2005-02-07 2006-09-14 Matsushita Electric Ind Co Ltd 画像符号化装置および画像符号化方法
CN100348051C (zh) * 2005-03-31 2007-11-07 华中科技大学 一种增强型帧内预测模式编码方法
US8885707B2 (en) * 2005-04-01 2014-11-11 Panasonic Corporation Image decoding apparatus and image decoding method
KR100739714B1 (ko) * 2005-07-06 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
US20080130990A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20080165849A1 (en) * 2005-07-22 2008-07-10 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20090123066A1 (en) * 2005-07-22 2009-05-14 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein,
US20080123947A1 (en) * 2005-07-22 2008-05-29 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method, image decoding method, image encoding program, image decoding program, computer readable recording medium having image encoding program recorded therein
US20080137744A1 (en) * 2005-07-22 2008-06-12 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US20080130989A1 (en) * 2005-07-22 2008-06-05 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
KR100727990B1 (ko) * 2005-10-01 2007-06-13 삼성전자주식회사 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치
KR100739790B1 (ko) * 2006-02-02 2007-07-13 삼성전자주식회사 인트라 예측 모드 결정 방법 및 장치
US20100232505A1 (en) * 2006-02-17 2010-09-16 Thomson Licensing Process for Coding Images Using Intra Prediction Mode
KR20060027842A (ko) 2006-02-24 2006-03-28 삼성전자주식회사 4×4인트라 휘도 예측 모드 결정방법 및 장치
US8000390B2 (en) * 2006-04-28 2011-08-16 Sharp Laboratories Of America, Inc. Methods and systems for efficient prediction-mode selection
EP2056606A1 (en) * 2006-07-28 2009-05-06 Kabushiki Kaisha Toshiba Image encoding and decoding method and apparatus
US8976870B1 (en) * 2006-08-30 2015-03-10 Geo Semiconductor Inc. Block and mode reordering to facilitate parallel intra prediction and motion vector prediction
KR20090074164A (ko) * 2006-09-29 2009-07-06 톰슨 라이센싱 기하학적 인트라 예측
EP2079242A4 (en) * 2006-10-30 2010-11-03 Nippon Telegraph & Telephone METHOD FOR GENERATING PREDICTIVE REFERENCE INFORMATION, DYNAMIC IMAGE ENCODING AND DECODING METHOD, DEVICE THEREOF, PROGRAM THEREOF, AND STORAGE MEDIUM CONTAINING THE PROGRAM
KR100856392B1 (ko) * 2006-11-08 2008-09-04 한국전자통신연구원 현재 영상의 복원영역을 참조하는 동영상 부호화/복호화장치 및 그 방법
WO2008084817A1 (ja) * 2007-01-09 2008-07-17 Kabushiki Kaisha Toshiba 画像符号化と復号化の方法及び装置
JP4254867B2 (ja) 2007-01-31 2009-04-15 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
EP2145482A1 (en) * 2007-04-19 2010-01-20 Thomson Licensing Adaptive reference picture data generation for intra prediction
ES2711203T3 (es) * 2007-06-29 2019-04-30 Velos Media Int Ltd Dispositivo de codificación de imágenes y dispositivo de decodificación de imágenes
KR101479263B1 (ko) * 2007-07-09 2015-01-06 삼성전자주식회사 이동 통신 시스템에서 적응적 피어투피어 통신 선택 방법 및 장치
TW200910971A (en) * 2007-08-22 2009-03-01 Univ Nat Cheng Kung Direction detection algorithms for H.264 intra prediction
JP2009081576A (ja) * 2007-09-25 2009-04-16 Toshiba Corp 動画像復号装置、および動画像復号方法
KR102139535B1 (ko) * 2007-10-16 2020-07-30 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
EP2223527A1 (en) * 2007-12-21 2010-09-01 Telefonaktiebolaget LM Ericsson (publ) Adaptive intra mode selection
EP2081386A1 (en) * 2008-01-18 2009-07-22 Panasonic Corporation High precision edge prediction for intracoding
CN101500161B (zh) * 2008-01-31 2012-03-21 华为技术有限公司 基于自适应块变换的帧内预测方法及装置
KR20090095316A (ko) * 2008-03-05 2009-09-09 삼성전자주식회사 영상 인트라 예측 방법 및 장치
US20090274211A1 (en) * 2008-04-30 2009-11-05 Omnivision Technologies, Inc. Apparatus and method for high quality intra mode prediction in a video coder
WO2009136743A2 (ko) * 2008-05-07 2009-11-12 Lg전자 비디오 신호의 디코딩 방법 및 장치
US8761253B2 (en) * 2008-05-28 2014-06-24 Nvidia Corporation Intra prediction mode search scheme
JP2009302776A (ja) * 2008-06-11 2009-12-24 Canon Inc 画像符号化装置、その制御方法、及びコンピュータプログラム
CN101605255B (zh) * 2008-06-12 2011-05-04 华为技术有限公司 一种视频编解码的方法及装置
CN101350927B (zh) * 2008-07-29 2011-07-13 北京中星微电子有限公司 帧内预测选择最优预测模式的方法及装置
US8724697B2 (en) * 2008-09-26 2014-05-13 Qualcomm Incorporated Locating motion vectors for video data units
JP5238523B2 (ja) 2009-01-13 2013-07-17 株式会社日立国際電気 動画像符号化装置、動画像復号化装置、および、動画像復号化方法
KR20110118641A (ko) * 2009-01-29 2011-10-31 파나소닉 주식회사 화상 부호화 방법 및 화상 복호 방법
CN101854540B (zh) * 2009-04-01 2014-07-02 辉达公司 用于应用h.264视频编码标准的帧内预测方法及装置
KR101033769B1 (ko) * 2009-05-11 2011-05-09 선문대학교 산학협력단 영상 데이터의 인트라 예측 모드 결정 방법
KR101527085B1 (ko) * 2009-06-30 2015-06-10 한국전자통신연구원 인트라 부호화/복호화 방법 및 장치
KR101702553B1 (ko) * 2009-07-04 2017-02-03 에스케이 텔레콤주식회사 영상 부호화/복호화 방법 및 장치
CN101605263B (zh) * 2009-07-09 2012-06-27 杭州士兰微电子股份有限公司 帧内预测的方法和装置
KR101510108B1 (ko) * 2009-08-17 2015-04-10 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US8477845B2 (en) * 2009-10-16 2013-07-02 Futurewei Technologies, Inc. Predictive adaptive scan ordering for video coding
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US8588303B2 (en) * 2010-03-31 2013-11-19 Futurewei Technologies, Inc. Multiple predictor sets for intra-frame coding
US8463059B2 (en) * 2010-04-23 2013-06-11 Futurewei Technologies, Inc. Two-layer prediction method for multiple predictor-set intra coding
EP2388999B1 (en) * 2010-05-17 2021-02-24 Lg Electronics Inc. New intra prediction modes
US8902978B2 (en) * 2010-05-30 2014-12-02 Lg Electronics Inc. Enhanced intra prediction mode signaling
HUE042510T2 (hu) * 2010-08-17 2019-07-29 M&K Holdings Inc Eljárás intra predikció mód kódolására
MY195713A (en) 2010-12-23 2023-02-07 Samsung Electronics Co Ltd Method and Device for Encoding Intra Prediction Mode for Image Prediction Unit, and Method and Device for Decoding Intra Prediction Mode for Image Prediction Unit
DK3139596T3 (da) * 2011-09-13 2020-01-06 Hfi Innovation Inc Fremgangsmåde og apparat til intra-modus-kodning i hevc
ES2901774T3 (es) * 2011-10-24 2022-03-23 Innotive Ltd Método y aparato para decodificar modo de intra-predicción
ES2828734T3 (es) * 2011-10-24 2021-05-27 Innotive Ltd Procedimiento y aparatos para decodificación de imágenes
CN104935932B (zh) 2011-10-24 2018-05-04 英孚布瑞智有限私人贸易公司 图像解码设备
KR20130049522A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
JP6481365B2 (ja) * 2014-12-26 2019-03-13 井関農機株式会社 苗移植機
JP6447125B2 (ja) * 2014-12-26 2019-01-09 大日本印刷株式会社 細胞培養容器
JP2016123340A (ja) * 2014-12-26 2016-07-11 株式会社エバンス 膵癌治療感受性の診断方法及び膵癌治療感受性の増強剤
JP6441072B2 (ja) * 2014-12-26 2018-12-19 ミヨシ油脂株式会社 食用油脂中のクロロプロパノール類を低減する方法
JP6694635B2 (ja) * 2014-12-26 2020-05-20 国立大学法人大阪大学 マイクロrnaにおけるメチル化修飾部位を計測する方法
JP2016123339A (ja) * 2014-12-26 2016-07-11 ユニーテック株式会社 多能性幹細胞の品質診断方法及び診断キット、抗がん剤並びに疾患モデル動物
JP2016123333A (ja) * 2014-12-26 2016-07-11 味の素株式会社 新規調味料用組成物
JP6320911B2 (ja) * 2014-12-26 2018-05-09 サントリーホールディングス株式会社 食物繊維
JP2016123336A (ja) * 2014-12-26 2016-07-11 大日本印刷株式会社 細胞培養容器
JP6472242B2 (ja) * 2014-12-26 2019-02-20 亀田製菓株式会社 焼き菓子

Also Published As

Publication number Publication date
RS55325B1 (sr) 2017-03-31
HUE039205T2 (hu) 2018-12-28
PL2608541T3 (pl) 2017-06-30
CN106851284A (zh) 2017-06-13
KR20130091799A (ko) 2013-08-19
ES2670324T3 (es) 2018-05-30
PT3125555T (pt) 2018-05-28
JP6371797B2 (ja) 2018-08-08
EP3125561A1 (en) 2017-02-01
CN104602005A (zh) 2015-05-06
PL3125552T3 (pl) 2018-09-28
TR201806128T4 (tr) 2018-06-21
US20170302948A9 (en) 2017-10-19
CY1120813T1 (el) 2019-12-11
US9918087B2 (en) 2018-03-13
HRP20181145T1 (hr) 2018-09-21
DK2608541T3 (en) 2017-01-23
KR20180039753A (ko) 2018-04-18
EP3125557A1 (en) 2017-02-01
KR20180039754A (ko) 2018-04-18
CY1120815T1 (el) 2019-12-11
LT3125555T (lt) 2018-07-25
KR20180039752A (ko) 2018-04-18
RS57233B1 (sr) 2018-07-31
PT3125561T (pt) 2018-05-08
EP2608541A4 (en) 2014-05-14
CN106851285A (zh) 2017-06-13
DK3125552T3 (en) 2018-06-14
ES2670326T3 (es) 2018-05-30
HUE040601T2 (hu) 2019-03-28
LT3125553T (lt) 2018-07-25
JP2016213852A (ja) 2016-12-15
DK3125555T3 (en) 2018-06-18
ES2685668T3 (es) 2018-10-10
ES2602779T3 (es) 2017-02-22
KR20140075020A (ko) 2014-06-18
PT2608541T (pt) 2016-12-20
EP3125561B1 (en) 2018-03-28
SI3125552T1 (en) 2018-07-31
CY1120190T1 (el) 2018-12-12
EP2608541B1 (en) 2016-10-12
KR20140057672A (ko) 2014-05-13
WO2012023762A2 (ko) 2012-02-23
EP3125553B1 (en) 2018-04-18
CN107071425A (zh) 2017-08-18
CN106851287A (zh) 2017-06-13
CN107071426A (zh) 2017-08-18
HUE039248T2 (hu) 2018-12-28
CN104602004B (zh) 2016-05-11
EP3125556A1 (en) 2017-02-01
KR20130091800A (ko) 2013-08-19
PL3125553T3 (pl) 2018-09-28
ES2670325T3 (es) 2018-05-30
TR201807094T4 (tr) 2018-06-21
DK3125553T3 (en) 2018-06-18
HUE040604T2 (hu) 2019-03-28
KR20140071507A (ko) 2014-06-11
KR20180039751A (ko) 2018-04-18
NO3125552T3 (ja) 2018-09-08
CN106851285B (zh) 2019-10-11
KR101854489B1 (ko) 2018-05-03
CN106231308A (zh) 2016-12-14
RS57165B1 (sr) 2018-07-31
US20160301929A1 (en) 2016-10-13
JP6371795B2 (ja) 2018-08-08
ES2696931T3 (es) 2019-01-18
RS57112B1 (sr) 2018-06-29
DK3125561T3 (en) 2018-06-14
ES2670327T3 (es) 2018-05-30
CN106231308B (zh) 2019-04-12
JP2016213855A (ja) 2016-12-15
HUE031186T2 (hu) 2017-07-28
JP2016187211A (ja) 2016-10-27
EP3125558A1 (en) 2017-02-01
LT2608541T (lt) 2017-01-10
EP3125552A1 (en) 2017-02-01
JP6371801B2 (ja) 2018-08-08
CN104602005B (zh) 2017-10-20
JP6371794B2 (ja) 2018-08-08
EP3125558B1 (en) 2018-10-17
KR20140057674A (ko) 2014-05-13
EP2608541A2 (en) 2013-06-26
US20170302947A9 (en) 2017-10-19
RS57166B1 (sr) 2018-07-31
JP2016187212A (ja) 2016-10-27
US20160301928A1 (en) 2016-10-13
HUE040410T2 (hu) 2019-03-28
KR20140057673A (ko) 2014-05-13
PT3125553T (pt) 2018-06-06
EP3125556B1 (en) 2018-10-17
PL3125555T3 (pl) 2018-09-28
CN103168472B (zh) 2016-11-09
CN106851286A (zh) 2017-06-13
JP2013537771A (ja) 2013-10-03
PL3125557T3 (pl) 2019-03-29
JP2016213850A (ja) 2016-12-15
EP3125555A1 (en) 2017-02-01
CN107105250A (zh) 2017-08-29
JP2016197881A (ja) 2016-11-24
KR101474987B1 (ko) 2014-12-24
EP3125554B1 (en) 2018-08-01
PL3125561T3 (pl) 2018-09-28
LT3125561T (lt) 2018-05-25
ES2693903T3 (es) 2018-12-14
HRP20180834T1 (hr) 2018-07-13
CN106851286B (zh) 2019-11-01
CY1120795T1 (el) 2019-12-11
EP3125559A1 (en) 2017-02-01
SI3125553T1 (en) 2018-07-31
EP3125554A1 (en) 2017-02-01
HUE042510T2 (hu) 2019-07-29
CN104602004A (zh) 2015-05-06
PL3125560T3 (pl) 2019-01-31
CN106851287B (zh) 2019-07-12
KR20180039755A (ko) 2018-04-18
EP3125560A1 (en) 2017-02-01
CN103168472A (zh) 2013-06-19
US9924186B2 (en) 2018-03-20
CN107105250B (zh) 2019-07-12
ES2693905T3 (es) 2018-12-14
KR20180039756A (ko) 2018-04-18
KR20180039750A (ko) 2018-04-18
CN107105234A (zh) 2017-08-29
PL3125556T3 (pl) 2019-03-29
SMT201600449B (it) 2017-01-10
KR20180039757A (ko) 2018-04-18
HUE038963T2 (hu) 2018-12-28
CN107071425B (zh) 2019-07-12
PL3125554T3 (pl) 2019-02-28
JP6371796B2 (ja) 2018-08-08
CN107105234B (zh) 2019-11-01
HRP20170053T1 (hr) 2017-03-10
EP3125559B1 (en) 2018-08-08
JP2016213853A (ja) 2016-12-15
PT3125552T (pt) 2018-06-04
SI3125561T1 (en) 2018-06-29
US9491478B2 (en) 2016-11-08
JP5982612B2 (ja) 2016-08-31
JP2016197880A (ja) 2016-11-24
EP3125555B1 (en) 2018-04-18
JP6371798B2 (ja) 2018-08-08
EP3125552B1 (en) 2018-04-11
KR101373819B1 (ko) 2014-03-17
CN107071426B (zh) 2019-07-12
CY1118382T1 (el) 2017-06-28
JP6322231B2 (ja) 2018-05-09
US20130016780A1 (en) 2013-01-17
JP6322232B2 (ja) 2018-05-09
JP2016213856A (ja) 2016-12-15
EP3125553A1 (en) 2017-02-01
HRP20181147T1 (hr) 2018-09-21
JP6371799B2 (ja) 2018-08-08
SI3125555T1 (en) 2018-07-31
EP3125557B1 (en) 2018-08-01
LT3125552T (lt) 2018-07-10
US20160309166A1 (en) 2016-10-20
EP3125560B1 (en) 2018-08-08
PL3125558T3 (pl) 2019-04-30
US20170272747A9 (en) 2017-09-21
JP2016213851A (ja) 2016-12-15
ES2696898T3 (es) 2019-01-18
KR20130051443A (ko) 2013-05-20
US9924187B2 (en) 2018-03-20
HRP20181098T1 (hr) 2018-09-07
ES2685669T3 (es) 2018-10-10
WO2012023762A3 (ko) 2012-04-12
CN106851284B (zh) 2019-05-10
PL3125559T3 (pl) 2019-01-31
SI2608541T1 (sl) 2017-01-31
JP6322230B2 (ja) 2018-05-09
HUE039207T2 (hu) 2018-12-28
JP2016213854A (ja) 2016-12-15

Similar Documents

Publication Publication Date Title
JP6371800B2 (ja) 映像符号化装置
US10944965B2 (en) Apparatus for encoding an image

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180713

R150 Certificate of patent or registration of utility model

Ref document number: 6371800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees