JP2009522981A - 映像信号のエンコーディング/デコーディング方法 - Google Patents

映像信号のエンコーディング/デコーディング方法 Download PDF

Info

Publication number
JP2009522981A
JP2009522981A JP2008550230A JP2008550230A JP2009522981A JP 2009522981 A JP2009522981 A JP 2009522981A JP 2008550230 A JP2008550230 A JP 2008550230A JP 2008550230 A JP2008550230 A JP 2008550230A JP 2009522981 A JP2009522981 A JP 2009522981A
Authority
JP
Japan
Prior art keywords
frame
layer
macroblock
picture
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008550230A
Other languages
English (en)
Other versions
JP4991761B2 (ja
Inventor
ウーク パク,スン
ムーン ジョン,ビョン
ホ パク,ジ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020060111895A external-priority patent/KR20070074452A/ko
Priority claimed from KR1020060111893A external-priority patent/KR20070075257A/ko
Priority claimed from KR1020070001582A external-priority patent/KR20070095180A/ko
Priority claimed from KR1020070001587A external-priority patent/KR20070075293A/ko
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2009522981A publication Critical patent/JP2009522981A/ja
Application granted granted Critical
Publication of JP4991761B2 publication Critical patent/JP4991761B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/16Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter for a given display mode, e.g. for interlaced or progressive display mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Abstract

映像信号のエンコーディングまたはデコーディング時に層間テキスチャ予測を行う方法を提供する。
本方法は、基本層の垂直に隣接したフィールドマクロブロック対からフレームマクロブロック対を構成し、選択的に前記構成されたフレームマクロブロック対にデブロッキングフィルタを適用し、該フレームマクロブロック対の各テキスチャ情報を、現在層のフレームマクロブロック対の各テキスチャ予測情報として使用する。
【選択図】図3a

Description

本発明は、映像信号をエンコーディング/デコーディングする時の層間の予測方法に関するものである。
スケーラブル映像コーデック(SVC:Scalable Video Codec)方式は、映像信号をエンコーディングする場合において、最高画質でエンコーディングするものの、その結果として生成されたピクチャシーケンスの部分シーケンス(シーケンス全体から間欠的に選択されたフレームのシーケンス)をデコーディングして使用しても低画質の映像表現が可能となるようにする方式である。
ところが、スケーラブル方式でエンコーディングされたピクチャシーケンスは、その部分シーケンスのみを受信して処理することによっても低画質の映像表現が可能であるが、ビットレートが低くなる場合に画質低下が大きくなってしまう。これを解消するために、低い転送率のための別途の補助ピクチャシーケンス、例えば、小画面及び/または秒当たりフレーム数などが低いピクチャシーケンスを少なくとも一つの層として階層的構造で提供することができる。
2個のシーケンスを仮定する時、補助シーケンス(下位シーケンス)を基本層と、主ピクチャシーケンス(上位シーケンス)を拡張層と呼ぶ。ところが、基本層と拡張層は、同じ映像信号源をエンコーディングするものであるから、両層の映像信号には剰余情報(すなわち、リダンダンシ)が存在する。したがって、拡張層のコーディング率を高めるべく、基本層のコーディングされた情報(動き情報またはテキスチャ情報)を用いて拡張層の映像信号をコーディングする。
この時、図1aに示すように、一つの映像ソース(1)をそれぞれ他の転送率を持つ複数の層にコーディングしても良いが、図1bのように、同じコンテンツ2aに対するものではあるが、相互に異なる走査方式を持つ複数の映像ソース(2b)をそれぞれの層にコーディングしても良い。しかし、この時にも両ソース(2b)は同一コンテンツ(2a)であるから、上位層をコーディングするエンコーダは、下位層のコーディングされた情報を利用する層間予測を行うことになると、コーディング利得を高めることができる。
したがって、相互に異なるソースをそれぞれの層にコーディングする時、各映像信号の走査方式を考慮した層間予測方法が必要である。また、飛び越し走査方式の映像をコーディングする時にも、偶数及び奇数フィールドにコーディングしても良く、一つのフレームに奇数及び偶数マクロブロックの対にコーディングしても良い。したがって、飛び越し走査方式の映像信号をコーディングするピクチャの類型も層間予測に共に考慮されなければならない。
また、拡張層は、基本層に比べてピクチャの解像度を上げて提供することが普通である。したがって、相互に異なるソースをそれぞれの層にコーディングする時も、各層のピクチャの解像度が相異なる場合にピクチャの解像度を上げるべく(すなわち、大きさを増大させるべく)インタポレーションを行わねばならないが、層間予測のために使われる基本層のピクチャが、予測コーディングする拡張層のピクチャとイメージが近接するほどコーディング率が高まるので、各層の映像信号の走査方式を考慮してインタポレーションする方法が必要である。
本発明の目的は、両層のうち少なくとも一つの層は飛び越し走査方式の映像信号成分を持つ条件の下に層間予測を行う方法を提供することにある。
本発明の他の目的は、空間的解像度の相異なるピクチャを持つ層間の動き予測をピクチャ類型によって行う方法を提供することにある。
本発明のさらに他の目的は、空間的及び/または時間的解像度の相異なるピクチャを持つ層間のテキスチャ予測を行う方法を提供することにある。
本発明による層間動き予測方法の一つは、基本層の垂直に隣接したインターモードとイントラモードの両マクロブロックに対して、前記インターモードのマクロブロックの動きに関する情報を、前記イントラモードのマクロブロックの動きに関する情報に設定した後、前記両マクロブロックに基づいて、層間動き予測に使われる垂直に隣接したマクロブロック対に関する動き情報を求める。
本発明による層間動き予測方法の他の一つは、基本層の垂直に隣接したインターモードとイントラモードの両マクロブロックのうち、イントラモードのマクロブロックを、動きに関する情報が0であるインターモードのブロックに設定した後、前記両マクロブロックに基づいて、層間動き予測に使われる垂直に隣接したマクロブロック対に関する動き情報を求める。
本発明による層間動き予測方法のさらに他の一つは、基本層の垂直に隣接したフレームマクロブロック対の動き情報から単一マクロブロックに関する動き情報を導出し、該導出された動き情報を、現在層の一つのフィールドマクロブロックの動き情報またはフィールドマクロブロック対の各動き情報の予測情報として用いる。
本発明による層間動き予測方法のさらに他の一つは、基本層の単一フィールドマクロブロックの動き情報または垂直に隣接したフィールドマクロブロック対の中から選択された単一フィールドマクロブロックの動き情報から2個のマクロブロックに関する各動き情報を導出し、該導出された各動き情報を、現在層のフレームマクロブロック対の各動き情報の予測情報として用いる。
本発明による、ピクチャの解像度の相異なる層間動き予測方法は、下位層のピクチャを、ピクチャの類型とピクチャ内のマクロブロックの類型によってフレームマクロブロックに変換する予測方式を選択的に適用して同一解像度のフレームピクチャに変換し、前記フレームピクチャを上位層の解像度と同一となるようにアップサンプリングした後、該アップサンプリングされたフレームピクチャ内のフレームマクロブロックと上位層のピクチャ内のマクロブロックの類型に合う層間予測方式を適用する。
本発明による、ピクチャの解像度の相異なる層間予測方法の他の一つは、下位層のピクチャと上位層のピクチャの類型及び/またはそのピクチャ内のマクロブロックの類型を確認し、その確認結果によって、前記下位層のピクチャに対して単一フィールドマクロブロックのフレームマクロブロック対への予測方式を適用し、前記上位層のピクチャと垂直/水平の比率が同一である仮想ピクチャを構成し、前記仮想ピクチャをアップサンプリングした後、該アップサンプリングされた仮想ピクチャを用いて前記上位層のピクチャに層間動き予測を適用する。
本発明による、ピクチャの解像度の相異なる層間予測方法のさらに他の一つは、下位層のピクチャと上位層のピクチャの類型及び/またはそのピクチャ内のマクロブロックの類型を確認し、その確認結果によって、前記下位層のピクチャに対して単一フィールドマクロブロックのフレームマクロブロック対への予測方式を適用し、前記上位層のピクチャと垂直/水平の比率が同一である仮想ピクチャを構成した後、該構成された仮想ピクチャを用いて前記上位層のピクチャに層間動き予測を適用する。
本発明による、ピクチャの解像度の相異なる層間予測方法のさらに他の一つは、下位層のピクチャと上位層のピクチャの類型を確認し、前記下位層のピクチャの類型がフィールドであり、前記上位層のピクチャの類型が順次走査方式であると確認されると、前記下位層のピクチャ内のブロックの動き情報を複写して仮想ピクチャを構成し、該構成された仮想ピクチャをアップサンプリングした後、該アップサンプリングされた仮想ピクチャと前記上位層のピクチャ間にフレームマクロブロックのフレームマクロブロックへの動き予測方式を適用する。
本発明による、ピクチャの解像度の相異なる層間予測方法のさらに他の一つは、下位層のピクチャと上位層のピクチャの類型を確認し、前記下位層のピクチャの類型がフィールドであり、前記上位層のピクチャの類型が順次走査方式であると確認されると、前記下位層のピクチャ内のブロックの動き情報を複写して仮想ピクチャを構成した後、その仮想ピクチャを用いて前記上位層のピクチャに層間動き予測を適用する。
本発明による一実施例では、層間動き予測において、分割モード、参照インデックス、そして動きベクトルの順に予測する。
本発明による他の実施例では、参照インデックス、動きベクトル、そして分割モードの順に予測する。
本発明による一実施例では、基本層のフレームマクロブロック1対の動き情報から、層間動き予測に使われる仮想基本層のフィールドマクロブロック1対の動き情報を導出する。
本発明による一実施例では、基本層のフレームマクロブロック1対の動き情報から、層間動き予測に使われる仮想基本層の偶数または奇数フィールドピクチャ内の一つのフィールドマクロブロックの動き情報を導出する。
本発明による一実施例では、基本層の1対のフィールドマクロブロックから一つのマクロブロックを選択し、該選択されたマクロブロックの動き情報から、層間動き予測に使われる仮想基本層のフレームマクロブロック1対の動き情報を導出する。
本発明による一実施例では、基本層の偶数または奇数のフィールドピクチャ内の一つのフィールドマクロブロックの動き情報から、層間動き予測に使われる仮想基本層のフレームマクロブロック1対の動き情報を導出する。
本発明による他の実施例では、基本層の偶数または奇数のフィールドピクチャ内の一つのフィールドマクロブロックの情報を複写して仮想のフィールドマクロブロックを追加的に構成し、このように構成された1対のフィールドマクロブロックの動き情報から、層間動き予測に使われる仮想基本層のフレームマクロブロック1対の動き情報を導出する。
本発明による層間のテキスチャ予測方法の一つは、基本層の垂直に隣接したフレームマクロブロック対からフィールドマクロブロック対を構成し、該構成されたフィールドマクロブロック対の各テキスチャ情報を、現在層のフィールドマクロブロック対の各テキスチャ予測情報として用いる。
本発明による層間のテキスチャ予測方法の他の一つは、基本層の垂直に隣接したフレームマクロブロック対から単一フィールドマクロブロックを構成し、該構成された単一フィールドマクロブロックのテキスチャ情報を、現在層のフィールドマクロブロックのテキスチャ予測情報として用いる。
本発明による層間のテキスチャ予測方法のさらに他の一つは、基本層の一つのフィールドマクロブロックまたは垂直に隣接したフィールドマクロブロック対からフレームマクロブロック対を構成し、該構成されたフレームマクロブロック対の各テキスチャ情報を、現在層のフレームマクロブロック対の各テキスチャ予測情報として用いる。
本発明による層間のテキスチャ予測方法のさらに他の一つは、基本層の垂直に隣接したフィールドマクロブロック対からフレームマクロブロックN対(Nは、1より大きい整数)を構成し、該構成されたフレームマクロブロックN対の各テキスチャ情報を、現在層の相互に異なる時間的位置にあるフレームマクロブロックN対の各テキスチャ予測情報として用いる。
本発明による層間のテキスチャ予測方法のさらに他の一つは、下位層の各フレームを複数のフィールドピクチャに分離し、前記下位層が上位層と同じ時間的解像度を持つようにし、前記分離された各フィールドピクチャを垂直方向にアップサンプリングして垂直方向に拡張させた後、前記アップサンプリングされた各フィールドピクチャを前記上位層の各フレームの層間のテキスチャ予測に用いる。
本発明による層間のテキスチャ予測方法のさらに他の一つは、下位層の各フィールドピクチャを垂直方向にアップサンプリングして垂直方向に拡張させた後、前記アップサンプリングされた各フィールドピクチャを上位層の各フレームの層間テキスチャ予測に用いる。
本発明による層間テキスチャ予測方法のさらに他の一つは、上位層の各フレームを複数のフィールドピクチャに分離し、下位層の各ピクチャを垂直方向にダウンサンプリングして垂直方向に縮小させた後、前記ダウンサンプリングされたピクチャを前記上位層の分離されたフィールドピクチャの層間テキスチャ予測に用いる。
本発明による層間予測を用いて映像信号をコーディングする一方法は、基本層の任意ピクチャ内の2Nブロックを交互に選択して取った各ラインを取った順番で配置して構成した2Nブロックの各テキスチャ情報を、層間予測に用いるか、前記基本層の前記2Nブロックの中から選択された一つのブロックをインタポレーションして構成した2Nブロックの各テキスチャ情報を層間テキスチャ予測に用いるかを決定し、該決定を表す情報をコーディングされた情報に含める。
本発明による層間予測を用いて映像信号をデコーディングする一方法は、受信した信号に特定指示情報が含まれているか確認し、その確認結果によって、基本層の任意ピクチャ内の2Nブロックを交互に選択して取ったラインを取った順番で配置して構成した2Nブロックの各テキスチャ情報を、層間テキスチャ予測に用いるか、前記基本層の前記2Nブロックの中から選択された一つのブロックをインタポレーションして構成した2Nブロックの各テキスチャ情報を層間テキスチャ予測に用いるかを決定する。
本発明による一実施例では、上位または下位層の各フレームを2個のフィールドピクチャに分離する。
本発明による一実施例では、前記受信される信号に前記特定指示情報が含まれていないと、その指示情報が0と指定されて受信される場合と同じであると見なし、どのブロックの各テキスチャ情報を層間予測に用いるかを決定する。
本発明による、基本層の映像信号を層間テキスチャ予測に用いる方法の一つは、基本層の飛び越し走査方式の映像信号を偶数フィールド成分と奇数フィールド成分とに分離し、該分離された偶数フィールド成分と奇数フィールド成分をそれぞれ垂直及び/または水平方向に拡大した後、該拡大された偶数フィールド成分と奇数フィールド成分を結合して層間テキスチャ予測に用いる。
本発明による、基本層の映像信号を層間テキスチャ予測に用いる方法の他の一つは、基本層の順次走査方式の映像信号を偶数ライン群と奇数ライン群とに分離し、該分離された偶数ライン群と奇数ライン群をそれぞれ垂直及び/または水平方向に拡大した後、該拡大された偶数ライン群と奇数ライン群を結合して層間テキスチャ予測に用いる。
本発明による、基本層の映像信号を層間テキスチャ予測に用いる方法のさらに他の一つは、基本層の飛び越し走査方式の映像信号を、上位層の順次走査方式の映像信号の解像度と同じ解像度を持つように垂直及び/または水平に拡大し、該拡大された映像信号に基づいて前記上位層の映像信号に対して層間テキスチャ予測を行う。
本発明による、基本層の映像信号を層間テキスチャ予測に用いる方法のさらに他の一つは、基本層の順次走査方式の映像信号を、上位層の飛び越し走査方式の映像信号の解像度と同じ解像度を持つように垂直及び/または水平に拡大し、該拡大された映像信号に基づいて前記上位層の映像信号に対して層間テキスチャ予測を行う。
本発明による一実施例では、前記映像信号の分離及び拡大は、マクロブロックレベルで行われる。
本発明による他の実施例では、前記映像信号の分離及び拡大は、ピクチャレベルで行われる。
本発明による一実施例では、層間テキスチャ予測が適用される両層のピクチャフォーマットが相異なる場合に、すなわち、一つの層は順次走査方式のピクチャで、他の層は飛び越し走査方式のピクチャである場合に、前記映像信号の分離及び拡大を行う。
本発明による他の実施例では、層間テキスチャ予測が適用される両層のピクチャがいずれも飛び越し走査方式である場合に、前記映像信号の分離及び拡大を行う。
以下、本発明の実施例について添付の図面を参照しつつ詳細に説明する。
図2aは、本発明による層間予測方法が適用される映像信号エンコーディング装置を簡略に示す構成ブロック図である。図2aの装置は、入力映像信号を2個の層にコーディングしているが、後述する本発明の原理は、もちろん、3個またはそれ以上の層にコーディングする場合にも各層間には適用されることができる。
本発明による層間予測方法は、図2aの装置において拡張層エンコーダ20(以下、‘ELエンコーダ’と略す。)で行われ、基本層エンコーダ21(以下、‘BLエンコーダ'と略す。)では、エンコーディングされた情報(動き情報とテキスチャ情報)を受信し、該受信した情報(必要な場合にはデコーディングしそのデコーディングされた情報)に基づいて層間テキスチャ予測または動き予測を行う。もちろん、本発明は、図2bのように、既にコーディングされている基本層の映像ソース(3)を用いて、入力される映像信号をコーディングすることができ、この時にも、以下に説明される層間予測方法が同様に適用される。
図2aにおいて、BLエンコーダ21が飛び越し走査方式の映像信号をエンコーディングする方式(または、図2bのエンコーディングされている映像ソース(3)のコーディングされた方式)には2種類がありうる。すなわち、図3aに示すように、フィールド単位そのままエンコーディングし、フィールドシーケンスにエンコーディングする場合と、図3bに示すように、偶数及び奇数の両フィールドの各マクロブロックを対としてフレームが構成されたフレームシーケンスにエンコーディングする場合がある。このようにコーディングされているフレーム内で、1対のマクロブロックの上にあるマクロブロックを‘上部(Top)マクロブロック'と、下にあるマクロブロックを‘下部(Bottom)マクロブロック'と呼ぶ。上部マクロブロックが偶数フィールド(または、奇数フィールド)の映像成分からなっていると、下部マクロブロックは奇数フィールド(または、偶数フィールド)の映像成分からなる。このように構成されたフレームをMBAFF(Macro Block Adaptive Frame Field)フレームという。ただし、MBAFFフレームは、奇数フィールド及び偶数フィールドから構成されたマクロブロック対の他にも、各マクロブロックがフレームMBから構成されたマクロブロック対も含むことができる。
したがって、ピクチャ内のマクロブロックが飛び越し走査方式の映像成分である場合(このようなマクロブロックを以下‘フィールドMB'と称する。これに対し、順次走査(progressive)方式の映像成分を持っているマクロブロックは‘フレームMB'と称する。)、当該ブロックがフィールド内のものであっても良く、フレーム内のものであっても良い。
したがって、ELエンコーダ20がコーディングするマクロブロックの類型と該マクロブロックの層間予測に用いる基本層のマクロブロックの類型がそれぞれ、フレームMBなのか、フィールドMBなのか、そしてフィールドMBである場合にはフィールド内のフィールドMBなのかMBAFFフレーム内のフィールドMBなのかを区分して層間予測方法を決定しなければならない。
以下では、各場合について区分して説明する。その説明に先立ち、現在層と基本層の解像度は相互同一であると仮定する。すなわち、SpatialScalabilityType()を0と仮定する。現在層が基本層の解像度より高い場合について後で説明するものとする。そして、下記説明及び図面の表現において、偶数(または奇数)に対して‘上部'の用語を、奇数(または偶数)に対して‘下部’の用語も併用する。
基本層を用いて拡張層をエンコーディングまたはデコーディングする層間予測のためには、まず、基本層に対するデコーディングが行われなければならないので、これについてまず説明する。
基本層のデコーディングにおいて、分割モード、参照インデックス、動きベクトルのような基本層の動き情報だけでなく、基本層のテキスチャもデコーディングされる。
層間テキスチャ予測のための基本層のテキスチャデコーディングでは、デコーダの負担を減らす目的で、基本層の映像サンプルデータが全てデコーディングされるのではなく、イントラモードのマクロブロックに対しては映像サンプルデータが復元され、インターモードのマクロブロックに対しては隣りピクチャとの動き補償無しで映像サンプルデータ間の誤差データであるレジデュアルデータのみがデコーディングされる。
また、層間テキスチャ予測のための基本層のテキスチャデコーディングは、マクロブロック単位ではなくピクチャ単位で行われ、拡張層のピクチャに時間的にマッチングされる基本層のピクチャが構成されるが、上述したように、イントラモードのマクロブロックから復元される映像サンプルデータと、インターモードのマクロブロックからデコーディングされるレジデュアルデータとから基本層のピクチャが構成される。
このようにイントラモードまたはインターモードの動き補償及びDCTと量子化などの変換は、映像ブロック、例えば、16×16の大きさのマクロブロックまたは4×4の大きさのサブブロック単位で行われるから、映像ブロックの境界でブロック化現象が発生し、映像を歪ませる。このようなブロック化現象を減少させるべくデブロッキングフィルタリングが適用されるが、デブロッキングフィルタは、映像ブロックの縁部を滑らかにし、映像フレームの画質を向上させる。
ブロック歪み現象を減らすためのデブロッキングフィルタリングを適用するか否かは、映像ブロックの境界における強度と境界周囲のピクセルの変化による。また、デブロッキングフィルタの強度は、量子化パラメータ、イントラモード、インターモード、ブロックの大きさなどを表す映像ブロックの分割モード、動きベクトル、デブロッキングフィルタリングされる前のピクセル値などによって決定される。
層間予測でデブロッキングフィルタは、拡張層のイントラベースモード(intra Base、intraBL、またはintra interlayer mode)のマクロブロックのテキスチャ予測の基準となる、基本層のピクチャ内のイントラモードのマクロブロックに適用される。
層間予測方法によってエンコーディングされる両層がいずれも、図2cのようにフィールドピクチャシーケンスにエンコーディングされる場合には、両層はいずれもフレームフォーマットと見なされ、フレームフォーマットである場合に対するコーディング過程からデブロッキングフィルタリングを含むエンコーディング/デコーディング過程が容易に導出されることができる。
したがって、本発明の一実施例では、基本層と拡張層のピクチャフォーマットが異なる場合、すなわち、拡張層はフレーム方式(または順次走査フォーマット)で且つ基本層はフィールド方式(または飛び越し走査フォーマット)である場合、または、拡張層はフィールド方式で且つ基本層はフレーム方式である場合、または、拡張層と基本層がいずれもフィールド方式であるが、図2c及び図2dのようにいずれか一方はフィールドピクチャシーケンスにエンコーディングされ、他の一方はMBAFFフレームにエンコーディングされる場合に、デブロッキングフィルタリングを行う方法について説明する。
図3a及び図3bは、本発明の一実施例によって、層間テキスチャ予測のために、基本層のピクチャを構成してデブロッキングフィルタリングを行う過程を図式的に示す図である。
図3aは、拡張層がフレーム方式で且つ基本層はフィールド方式である場合についての例であり、図3bは、拡張層はフィールド方式で且つ基本層はフレーム方式である場合についての例である。
本実施例で、層間テキスチャ予測のために、基本層のインターモードのマクロブロックとイントラモードのマクロブロックに対するテキスチャがデコーディングされ、映像サンプルデータとレジデュアルデータとからなる基本層ピクチャが構成され、この構成されたピクチャに、ブロック化現象を減らすためのデブロッキングフィルタが適用された後に、基本層と拡張層の解像度の比(画面大きさの比)によってアップサンプリングされる。
図3a及び図3bで第1の方法は、基本層を2個のフィールドピクチャに分離してデブロッキングフィルタリングを行う方法で、異なるピクチャフォーマットでエンコーディングされる基本層を用いて拡張層を生成する時に、基本層のピクチャを偶数ラインのフィールドピクチャと奇数ラインのフィールドピクチャとに分け、これらに対してデブロッキングフィルタリングとアップサンプリングをし、2フィールドピクチャを一つのピクチャに結合し、これを基礎として層間テキスチャ予測動作を行う。
この第1の方法は、下記の3段階からなる。
第一の段階である分離段階では、基本層のピクチャが、偶数ラインから構成される上部フィールド(または奇数フィールド)ピクチャと奇数ラインから構成される下部フィールド(または偶数フィールド)ピクチャとに分離されるが、この時、基本層のピクチャは、基本層のデータストリームから動き補償を通じて復元される映像サンプルデータ(イントラモード)とレジデュアルデータ(インターモード)とを含む映像ピクチャである。
第二の段階であるデブロッキング段階では、上記分離段階で分離される各フィールドピクチャがデブロッキングフィルタによってデブロッキングされるが、この時、適用されるデブロッキングフィルタは従来のデブロッキングフィルタとすれば良い。
拡張層と基本層の解像度が異なる場合、前記デブロッキングされる各フィールドピクチャは拡張層と基本層の解像度の比率によってアップサンプリングされる。
第三の段階である結合段階では、アップサンプリングされる上部フィールドピクチャと下部フィールドピクチャが交互にインターレーシングされ、一つのピクチャとして結合される。以降、これを基礎として拡張層のテキスチャに対する予測動作が行われる。
図3a及び図3bで第2の方法は、異なるピクチャフォーマットでエンコーディングされる基本層を用いて拡張層を生成する時に、基本層のピクチャを、2個のフィールドピクチャに分けることなく直接デブロッキングフィルタリングし、アップサンプリングし、これを基礎として層間テキスチャ予測動作を行う。
この第2の方法では、層間テキスチャ予測によりエンコーディングしようとする拡張層のピクチャに対応する基本層のピクチャが上部フィールドピクチャと下部フィールドピクチャとに分離されずにそのままデブロッキングフィルタリングされ、アップサンプリング動作が行われる。以降、これを基礎として拡張層のテキスチャに対する予測動作が行われる。
層間動き予測のために構成される基本層のピクチャに適用されるデブロッキングフィルタは、レジデュアルデータを含む領域には適用されず、映像サンプルデータを含む領域にのみ、すなわち、イントラモードのマクロブロックからデコーディングされる映像サンプルデータにのみ適用される。
図3aで基本層がフィールド方式でエンコーディングされている場合、すなわち、基本層が図2cのようにフィールドピクチャシーケンスに、または、図2dのようにMBAFFフレームにエンコーディングされている場合、上記第2の方法を適用するためには、上部フィールドピクチャと下部フィールドピクチャの各ラインを交互にインターレーシングして一つのピクチャとして結合したり(図2cの場合)、または、フィールドマクロブロック対の上部マクロブロックと下部マクロブロックの各ラインを交互にインターレーシングして一つのピクチャとして結合する(図2dの場合)過程(以降、図8d及び図8eを参照しつつ詳細に説明される)が必要である。この時、インターレーシングされる上部と下部フィールドピクチャまたは上部と下部マクロブロックは、動き補償を通じて復元される映像サンプルデータ(イントラモード)とレジデュアルデータ(インターモード)を含むフィールドピクチャまたはマクロブロックに該当する。
また、図2dのようなMBAFFフレーム内のフィールドマクロブロック対(基本層)において上部と下部のマクロブロックのモードが互いに異なり、このうちイントラモードのブロックが選択されて拡張層のマクロブロック対に対する層間テキスチャ予測に利用される場合(後述される図8gの場合)、図2dのようなMBAFFフレーム内のフィールドマクロブロック対にエンコーディングされた基本層に、拡張層のピクチャに時間的にマッチングされるフレーム(ピクチャ)がない場合(後述される図8hの場合)、または、図2cのようなフィールドピクチャのフィールドマクロブロックの基本層からマクロブロック対の拡張層のテキスチャが予測される場合(後述される図10dの場合)、選択される一つのフィールドマクロブロックは、臨時のマクロブロック対(図8gで841、図8hで851/852)または臨時の2個のマクロブロック(図10dで1021)にアップサンプリングされ、このうちイントラモードのブロックにはデブロッキングフィルタが適用される。
後述される様々な実施例を通じて説明される層間テキスチャ予測は、図3aと図3bの実施例で説明したデブロッキングフィルタリングされた基本層のピクチャに基づいて行われる。
次に、現在層でコーディングされるマクロブロックの各類型とそのマクロブロックの層間予測に用いられる基本層のマクロブロックの各類型による場合を区分して層間予測方法について説明するが、上述したように、現在層と基本層の空間的解像度は相互同一であると仮定する。
I.フレームMB→MBAFFフレームのフィールドMBの場合
この場合は、現在層(EL)でMBがMBAFFフレーム内のフィールドMBにコーディングされ、このフィールドMBに対する層間予測に利用する基本層(BL)のMBがフレームMBにコーディングされている場合で、基本層で上下両マクロブロック(これを‘マクロブロック対'といい、以下では、'対'という表現は、垂直に隣接しているブロックを指すのに使用する。)に含まれている映像信号成分は、現在層の対応位置(colacated)のマクロブロック対のそれぞれに含まれている映像信号成分とそれぞれ同一の成分となる。まず、層間動き予測について説明する。
ELエンコーダ20は、基本層のマクロブロック対410を一つのマクロブロックに併合(垂直方向に1/2に圧縮)させて得たマクロブロック分割モードを、現在マクロブロックの分割モードとして使用する。図4aは、これを具体的に例示したものである。同図において、基本層の対応マクロブロック対410をまず一つのマクロブロックに併合させ(S41)、該併合によって得られた分割モードを他の一つに複写して(S42)マクロブロック対411を構成した後、そのマクロブロック対411の各分割モードを仮想基本層のマクロブロック対412にそれぞれ適用する(S43)。
ところが、対応するマクロブロック対410を一つのマクロブロックに併合させる時、分割モードで許容されない分割領域が発生するおそれがあり、これを防止すべくELエンコーダ20は、下記のような規則によって分割形態を決定する。
1)基本層のマクロブロック対内の2個の上下8×8ブロック(図4aのB8_0とB8_2)は一つの8×8ブロックに併合するが、対応する8×8ブロックのそれぞれがサブ分割されていないと、これらは2個の8×4ブロックに併合し、一つでもサブ分割されていると、これらは4個の4×4ブロックに併合する(図4aの401)。
2)基本層の8×16ブロックは8×8ブロックに、16×8ブロックは水平に隣接した2個の8×4ブロックに、16×16ブロックは16×8ブロックに、それぞれ縮小する。
もし、対応するマクロブロック対のうち少なくともいずれか一つがイントラモードにコーディングされている場合には、ELエンコーダ20は、上記の併合過程の前に下記の過程を行う。
もし、二つのうち一つのみがイントラモードである場合には、図4bに例示するように、インターモードのマクロブロックの動き情報(MB分割モード、参照インデックス、動きベクトル)を、イントラモードのマクロブロックに複写したり、図4cに例示するように、イントラモードのマクロブロックを0の動きベクトルと参照インデックスが0である16×16インターモードのマクロブロックと見なしたり、図4dに例示するように、イントラモードMBに対し、インターモードMBの参照インデックスは複写して設定し、動きベクトルは0動きベクトルを持つようにした後に、前述の併合過程を行い、以下で説明する参照インデックス及び動きベクトル導出過程を行う。
ELエンコーダ20は、現在マクロブロック対412の参照インデックスを、対応するマクロブロック対410の参照インデックスから導出するために下記の過程を行う。
現在8×8ブロックに対応する基本層の8×8ブロック対が互いに同一回数でサブ分割されていると、その対のうちいずれか一方(上部または下部)の8×8ブロックの参照インデックスを現在8×8ブロックの参照インデックスと決定し、あるいは、サブ分割回数の少ないブロックの参照インデックスを現在8×8ブロックの参照インデックスと決定する。
本発明による他の実施例では、現在8×8ブロックに対応する基本層の8×8ブロック対に指定されている参照インデックスのうち、小さい値の参照インデックスを現在8×8ブロックの参照インデックスと決定する。この決定方法を、図4eの例について表すと、
refidx of curr B8_0 = min( refidx of base top frame MB’s B8_0, refidx of base top frame MB’s B8_2 )
refidx of curr B8_1 = min( refidx of base top frame MB’s B8_1, refidx of base top frame MB’s of base B8_3 )
refidx of curr B8_2 = min( refidx of base bottom frame MB’s B8_0, refidx of base bottom frame MB’s B8_2 ),及び
refidx of curr B8_3 = min( refidx of base bottom frame MB’s B8_1, refidx of base bottom frame MB’s B8_3 )
となる。
前述した参照インデックス導出過程は、上部フィールドMBと下部フィールドMBにいずれも適用することができる。そして、前述したような方式で決定された各8×8ブロックの参照インデックスに2を乗算して最終参照インデックス値とする。これは、デコーディング時にフィールドMBが偶数及び奇数フィールドに区分されたピクチャに属することになり、よって、ピクチャ数はフレームシーケンスにおけるより2倍に増加するからである。デコーディングアルゴリズムによっては、下部フィールドMBの参照インデックスは2倍にした後に1を加算し、これを最終参照インデックス値と決定しても良い。
ELエンコーダ20が仮想基本層のマクロブロック対に対する動きベクトルを導出する過程は、下記の通りになる。
動きベクトルは、4×4ブロックを基本として決定されるので、図4fに例示するように、基本層の対応する4×8ブロックを確認し、該ブロックがサブ分割されていると、上部または下部の4×4ブロックの動きベクトルを現在4×4ブロックの動きベクトルと決定するか、あるいは、対応する4×8ブロックの動きベクトルを現在4×4ブロックの動きベクトルと決定する。そして、決定された動きベクトルについては、その垂直成分を2で除算したベクトルを最終動きベクトルとして使用する。これは、2個のフレームMBに載せられた映像成分が一つのフィールドMBの映像成分に相応するようになるので、フィールド映像では大きさが垂直軸に1/2に縮小されるからである。
前記のような方式で仮想基本層のフィールドMB対412に対する動き情報が求められると、該動き情報を、現在層、すなわち、拡張層の対象フィールドMB対413の層間動き予測のために使用する。以下の説明でも、仮想基本層のMBまたはMB対に関する動き情報が求められると、この動き情報は現在層の対応MBまたはMB対に対する層間動き予測に用いられる。したがって、以下の説明で、仮想基本層のMBまたはMB対の動き情報を現在層の対応MBまたはMB対の層間動き予測に使用するという言及が別になくても、これは当然ながら適用される過程である。
図5aは、本発明の他の実施例による、現在マクロブロック対に対応する基本層のフレームMB対の動き情報から、層間予測のために使用する仮想基本層のフィールドMB対500の動き情報を導出することを図式的に示す図である。本実施例では、同図の如く、仮想BLのフィールドMB対500の各上部8×8ブロックの参照インデックスは、BLのフレームMB対の上部MBの上部または下部8×8ブロックの参照インデックスを使用し、各下部8×8ブロックの参照インデックスは、BLの下部MBの上部または下部8×8ブロックの参照インデックスを使用する。動きベクトルの場合には、図示のように、仮想BLのフィールドMB対500の各最上部4×4ブロックに対しては、BLのフレームMB対の上部MBの最上部4×4ブロックの動きベクトルを同様に使用し、各2番目の4×4ブロックに対しては、BLのフレームMB対の上部MBの3番目の4×4ブロックの動きベクトルを同様に使用し、各3番目の4×4ブロックに対しては、BLのフレームMB対の下部MBの最上部4×4ブロックの動きベクトルを同様に使用し、各4番目4×4ブロックに対しては、BLのフレームMB対の下部MBの3番目の4×4ブロックの動きベクトルを同様に使用する。
ところが、図5aに例示するように、層間予測に用いるために構成されるフィールドマクロブロック対500内の8×8ブロック内の上部4×4ブロック501と下部4×4ブロック502は、基本層の相互に異なる8×8ブロック511,512内の4×4ブロックの動きベクトルを使用するが、これら動きベクトルは相互に異なる基準ピクチャを使用した動きベクトルであっても良い。すなわち、相互に異なる8×8ブロック511,512は、相互に異なる参照インデックス値を持つことができる。したがって、この場合には、仮想BLのフィールドマクロブロック対500を構成すべく、ELエンコーダ20は、図5bに例示するように、仮想BLの2番目の4×4ブロック502の動きベクトルは、その上部4×4ブロック501に対して選択された対応する4×4ブロック503の動きベクトルを同様に使用することになる(521)。
図4a乃至図4fを参照して説明した実施例は、ELエンコーダ20が現在マクロブロック対に関する動き情報を予測するために仮想基本層の動き情報を構成する場合において、基本層の対応マクロブロック対の動き情報に基づいて分割モード、参照インデックスそして動きベクトルの順に導出するものであったが、図5a及び5bを参照して説明した実施例は、基本層の対応マクロブロック対の動き情報に基づいて、仮想基本層のマクロブロック対に対してまず参照インデックスと動きベクトルを導出した後、該導出された結果に基づいて最後に仮想基本層のマクロブロック対の分割モードを決定する。最後に分割モードを決定する時には、導出された動きベクトルと参照インデックスが同一である4×4ブロック単位を結合した後、その結合されたブロック形態が、許容される分割モードに属すると、結合された形態に指定し、そうでない場合は結合される前の分割形態に指定する。
前述した実施例で、基本層の対応するマクロブロック対410がいずれもイントラモードであれば、現在マクロブロック対413に対してイントラベース予測のみが行われ(この時は、動き予測は行われない。もちろん、テキスチャ予測の場合には仮想基本層のマクロブロック対も構成されない。)、もし、二つのうち一方のみイントラモードであれば、図4bのように、イントラモードのMBにインターモードの動き情報を複写したり、または、図4cのように、イントラモードのMBの動きベクトルと参照インデックスを0に設定したり、または、図4dのように、イントラモードMBに対して、インターモードMBの参照インデックスは複写して設定し、動きベクトルは0動きベクトルを持つようにした後に、前述したように、仮想BLのマクロブロック対に関する動き情報を導出する。
ELエンコーダ20は、前述したように層間動き予測のための仮想BLのMB対を構成してからは、該MB対の動き情報を用いて現在のフィールドマクロブロック対413の動き情報を予測してコーディングする。
次に、層間テキスチャ予測について説明する。図4gは、本場合(フレームMB→MBAFFフレームのフィールドMBの場合)に対する層間テキスチャ予測方法の例を示す図である。ELエンコーダ20は、まず、対応する基本層のフレームマクロブロック対410の各ブロックモードを確認する。両方ともイントラモードであるか、インターモードであると、次に説明する方式の通り、対応する基本層のマクロブロック対410を臨時のフィールドマクロブロック対421に変換し、現在フィールドマクロブロック対413に対してイントラベース予測を行ったり(対応するマクロブロック対410がいずれもイントラモードである場合、この場合は、臨時のフィールドマクロブロック対421が、上述したように、イントラモードの場合デコーディング完了後にデブロッキングフィルタリングされたデータを含んでいる。以下の様々な実施例の説明におけるテキスチャ予測に用いられる基本層のマクロブロックから導出された臨時のマクロブロック対の場合にも同様で在る。)、レジデュアル予測を行う(対応するマクロブロック対410がいずれもインターモードである場合)。
しかしながら、両方のうち一方のみがインターモードであれば、層間テキスチャ予測を行わない。層間テキスチャ予測に用いられる基本層のマクロブロック対410は、イントラモードの場合にはエンコーディングされなかった元来のイメージデータ(または、デコーディングされた完了したイメージデータ)を有し、インターモードの場合にはエンコーディングされたレジデュアルデータ(または、デコーディングされたレジデュアルデータ)を有する。これは、以下のテキスチャ予測で説明する場合に基本層のマクロブロック対に対しても同様である。
1対のフレームMBから層間テキスチャ予測に用いる1対のフィールドMBに変換する方法は、図4hに示した。図示の如く、1対のフレームマクロブロックA,Bの偶数ラインを順次に選択して上部フィールドMB(A')を構成し、1対のフレームマクロブロックA,Bの奇数ラインを順次に選択して下部フィールドMB(B')を構成する。そして、一つのフィールドMB内のラインを埋める時には、上位にあるブロックAの偶数(または奇数)ラインをまず埋めた後(A_evenまたはA_odd)、下位にあるブロックBの偶数(または奇数)ラインを埋める(B_evenまたはB_odd)。
II.フレームMB→フィールドピクチャのフィールドMBの場合
この場合は、現在層のMBがフィールドピクチャ内のフィールドMBにコーディングされ、該フィールドMBに対する層間予測に利用する基本層のMBがフレームMBにコーディングされている場合で、基本層でマクロブロック対に含まれている映像信号成分は、現在層の対応位置の偶数または奇数フィールド内のマクロブロックに含まれている映像信号成分と同じ成分となる。まず、層間動き予測について説明する。
ELエンコーダ20は、基本層のマクロブロック対を一つのマクロブロックに併合(垂直方向に1/2に圧縮)させて得たマクロブロック分割モードを、偶数または奇数の仮想基本層のマクロブロックの分割モードとして使用する。図6aは、これを具体的な例として示す図である。図示のように、基本層の対応マクロブロック対610をまず一つのマクロブロック611に併合させ(S61)、該併合によって得られた分割モードを、現在のマクロブロック613の層間動き予測に用いる仮想基本層のマクロブロック612に適用する(S62)。併合する規則は、前述の場合Iと同一であり、対応するマクロブロック対610うち少なくともいずれか一つがイントラモードにコーディングされている場合に処理する方式も、前述の場合Iと同一である。
そして、参照インデックスと動きベクトルを導出する過程もまた、前述の場合Iにおける説明と同一である。ただし、場合Iでは、マクロブロックが偶数と奇数の対としてフレーム内に載せられるから、上部MB及び下部MBに同じ導出過程を適用するが、本場合IIは、現在コーディングするフィールドピクチャ内には基本層のマクロブロック対610に対応するマクロブロックが一つのみ存在するので、図6b及び図6cに例示するように、一つのフィールドMBに対してのみ導出過程を適用する点が異なる。
上記実施例では、ELエンコーダ20が仮想基本層のマクロブロックに関する動き情報を予測する場合において、基本層の対応マクロブロック対の動き情報に基づいて分割モード、参照インデックスそして動きベクトルの順に導出した。
本発明による他の実施例では、基本層の対応マクロブロック対の動き情報に基づいて、仮想基本層のマクロブロックに対してまず参照インデックスと動きベクトルを導出した後、該導出された結果に基づいて最後に仮想基本層のマクロブロックの分割モードを決定する。図7a及び7bは、本実施例によって、仮想基本層のフィールドマクロブロックの参照インデックスと動きベクトルが導出されることを図式的に示す図で、この場合は、上部または下部の一つのマクロブロックに対して基本層のマクロブロック対の動き情報を用いて該当動き情報を導出する点が異なるだけで、導出するのに適用される動作は、上記の図5a及び図5bを参照して説明した場合Iと同一である。
最後に分割モードを決定する時は、導出された動きベクトルと参照インデックスが同一である4×4ブロック単位を結合した後、該結合されたブロックが許容される分割モードであれば、結合された形態に指定し、そうでない場合は結合される前の分割モードのままとする。
前述した各実施例で、基本層の対応するマクロブロック対がいずれもイントラモードであれば動き予測は行われず、仮想基本層のマクロブロック対の動き情報も構成せず、一方、両方のうち一方のみイントラモードであれば、動き予測は、この場合について上に説明したようにして行われる。
次に、層間テキスチャ予測について説明する。図6dは、本場合(フレームMB→フィールドピクチャのフィールドMBの場合)に対する層間テキスチャ予測方法の例を示す図である。ELエンコーダ20は、まず、対応する基本層のマクロブロック対610の各ブロックモードを確認する。両方ともイントラモードまたはインターモードであれば、この1対のフレームマクロブロック610から一つの臨時フィールドMB621を構成する。この時、現在のマクロブロック613が偶数フィールドピクチャに属するMBであれば、対応するマクロブロック対610の偶数ラインから臨時フィールドMB621を構成し、奇数フィールドピクチャに属するMBであれば、対応するマクロブロック対610の奇数ラインから臨時フィールドMB621を構成する。構成する方法は、図4hで一つのフィールドMB(A'またはB')を構成する方法と同一である。
臨時フィールドMB 621が構成されると、該フィールドMB 621内のテキスチャ情報に基づいて、現在フィールドマクロブロック613に対してイントラベース予測を行ったり(対応するマクロブロック対610がいずれもイントラモードである場合)、レジデュアル予測を行う(対応するマクロブロック対610がいずれもインターモードである場合)。
もし、対応するフレームマクロブロック対610のうち一方のみがインターモードであれば、層間テキスチャ予測を行わない。
III .MBAFFフレームのフィールドMB→フレームMBの場合
この場合は、現在層のMBがフレームMBにコーディングされ、該フレームMBの層間予測に利用する基本層のMBがMBAFFフレーム内のフィールドMBにコーディングされている場合で、基本層の一つのフィールドMBに含まれている映像信号成分は、現在層の対応位置のマクロブロック対に含まれている映像信号成分と同じ成分となる。まず、層間動き予測について説明する。
ELエンコーダ20は、基本層のあるマクロブロック対内の上部または下部のマクロブロックを伸張(垂直方向に2倍に伸張)させて得たマクロブロック分割モードを、仮想基本層のマクロブロック対の分割モードとして使用する。図8aは、これを具体的な例として示す図である。以下の説明及び図面では、上部フィールドMBが選ばれたとしたが、下部フィールドMBが選択された場合にも、下記の説明を同様に適用することができるもちろんである。
図8aに示すように、基本層の対応マクロブロック対810内の上部フィールドMBを2倍に伸張させて2個のマクロブロック811を構成し(S81)、この伸張によって得られた分割形態を仮想基本層のマクロブロック対812に適用する(S82)。
どころで、対応する一つのフィールドMBを垂直に2倍伸張させる時、マクロブロックの分割モードで許容されない分割形態が発生するおそれがあるので、これを防止するためにELエンコーダ20は、下記のような規則によって伸張された分割形態による分割モードを決定する。
1)基本層の4×4、8×4、そして16×8のブロックは、垂直に2倍大きくなったそれぞれ4×8、8×8、そして16×16のブロックと決定する。
2)基本層の4×8、8×8、8×16、そして16×16のブロックはそれぞれ、2個の同一大きさの上下ブロックと決定する。図8aに例示するように、基本層の8×8 B8_0ブロックは、2個の8×8ブロックと決定される(801)。一つの8×16のブロックと指定しない理由は、その左または右に隣接した伸張されたブロックが8×16の分割ブロックにならないこともあり、このような場合にはマクロブロックの分割モードが支援されないためである。
もし、対応するマクロブロック対810のうちいずれか一方がイントラモードにコーディングされている場合には、ELエンコーダ20は、イントラモードではなくインターモードの上部または下部のフィールドMBを選択して上記の伸張過程を行い、仮想基本層のマクロブロック対812の分割モードを決定する。
もし、両方ともイントラモードである場合には、層間テキスチャ予測のみを行い、前述した伸張過程を通じた分割モード決定と、以下で説明される参照インデックス及び動きベクトル導出過程を行わない。
ELエンコーダ20は、仮想基本層のマクロブロック対812の参照インデックスを、対応する一つのフィールドMBの参照インデックスから導出すべく、対応する基本層の8×8ブロックB8_0の参照インデックスを、図8bに例示するように、2個の上下8×8ブロックの各参照インデックスと決定し、決定された各8×8ブロックの参照インデックスを2で除算し、これを最終参照インデックス値とする。これは、フィールドMBに対して偶数及び奇数フィールドに区分されたピクチャを基準にして基準ピクチャの番号を指定し、よって、フレームシーケンスに適用するためにはピクチャ番号を半分に縮める必要があるためである。
ELエンコーダ20が仮想基本層のフレームマクロブロック対812に対する動きベクトルを導出する時は、図8cに例示するように、対応する基本層の4×4ブロックの動きベクトルを、仮想基本層のマクロブロック対812内の4×8ブロックの動きベクトルと決定し、該決定された動きベクトルに対して垂直成分に2を乗算したベクトルを最終動きベクトルとして使用する。これは、1個のフィールドMBに載せられた映像成分が2個のフレームMBの映像成分に相応するようになり、フレーム映像では大きさが垂直軸に2倍に拡大されるためである。
前述した実施例では、ELエンコーダ20が仮想基本層のマクロブロック対に関する動き情報を予測する場合において、基本層の対応フィールドMBの動き情報に基づいて分割モード、参照インデックスそして動きベクトルの順に導出した。
本発明による他の実施例では、基本層の対応フィールドMBの動き情報に基づいて、現在マクロブロック対の層間予測に用いる仮想BLのMB対の動き情報を、図9aに例示するように、参照インデックスと動きベクトルをまず求めた後、該求められた結果に基づいて最後に仮想基本層のマクロブロック対の各分割モードを決定する。最後に分割モードを決定する時は、導出された動きベクトルと参照インデックスが同一である4×4ブロック単位を結合した後、該結合されたブロックが許容される分割形態であれば、結合された形態と指定し、そうでない場合は結合される前の分割形態と指定する。
図9aの実施例についてより詳細に説明すると、図示のように、現在マクロブロック対の動き予測に用いる仮想BLのフレームMB対に対する参照インデックスと動きベクトルを導出すべく、基本層BLのインターモードのフィールドMBを選択し、該MBの動きベクトルと参照インデックスを使用する。もし、両マクロブロックがいずれもインターモードであれば、上部または下部MBのうち任意の一つを選択(901または902)し、そのMBの動きベクトルと参照インデックス情報を使用する。参照インデックスに対しては、図示のように、選択されたMBの上部8×8ブロックの該当値を仮想BLの上部MBの上部と下部8×8ブロックの参照インデックスに複写し、選択されたMBの下部8×8ブロックの該当値を仮想BLの下部MBの上部と下部8×8ブロックの参照インデックスに複写する。動きベクトルに対しては、図示のように、選択されたMBの各4×4ブロックの該当値を、仮想BLのマクロMB対の上下隣接した両4×4ブロックの動きベクトルとして同様に使用する。本発明による他の実施例では、図9aの例示とは違い、仮想BLのフレームMB対の動きベクトルと参照インデックスを導出すべく、対応するBLのMB対の動き情報を混合して使用することができる。図9bは、本実施例による動きベクトルと参照インデックスの導出過程を例示した図である。前述した動き情報の導出過程の説明と図9bの図面から、仮想BLのMB対内の各サブブロック(8×8ブロックと4×4ブロック)の参照インデックスと動きベクトルの対応複写関係は直観的に理解することができるので、その具体的な説明は省略する。
ただし、図9bの実施例では、基本層のフィールドMB対の動き情報がいずれも使われるので、両フィールドMB対の中からいずれか一つがイントラモードである場合に、そのMBの動き情報を他のインターモードMBの動き情報を用いて導出するようになる。すなわち、図4bに例示するように、インターモードMBの動きベクトルと参照インデックスを複写してイントラモードMBの該当情報として構成したり、または、図4cに例示するように、イントラモードMBを0の動きベクトルと0の参照インデックスを持つインターモードMBと見なしたり、または、図4dに例示するように、イントラモードMBに対して、インターモードMBの参照インデックスは複写して設定し、動きベクトルは0の動きベクトルを持つようにした後に、図9bに例示するように、仮想BLのMB対の動きベクトルと参照インデックス情報を導出できる。動きベクトルと参照インデックス情報が導出されると、上述したように、該導出された情報に基づいて仮想BLのMB対に対するブロックモードが決定される。
一方、基本層の対応するフィールドMB対がいずれもイントラモードであれば、動き予測は行われない。
次に、層間テキスチャ予測について説明する。図8dは、この場合(MBAFFフレームのフィールドMB→フレームMBの場合)に対する層間テキスチャ予測方法の例を示す図である。ELエンコーダ20は、まず、対応する基本層のフィールドマクロブロック対810の各ブロックモードを確認する。両方ともイントラモードであるか、インターモードであれば、下記で説明する方式の通り、対応する基本層のフィールドマクロブロック対810を臨時のフレームマクロブロック対821に変換して現在フレームマクロブロック対813に対してイントラベース予測を行ったり(対応するマクロブロック対810がいずれもイントラモードである場合−マクロブロック対810)は、上述したように、デコーディングが完了したデータを有しており、デブロッキングフィルタはフレームマクロブロック対821に適用される。)、レジデュアル予測を行う(対応するマクロブロック対810がいずれもインターモードである場合)。
1対のフィールドMBから1対のフレームMBに変換する方法を図8eに示す。図示のように、1対のフィールドマクロブロックA,Bを交互に選択(A→B→A→B→A→,…)しながらそのブロック内のラインを上部から順次に取り、取った順番で上部から順に配置し、1対のフレームMBA',B'を構成する。このように1対のフィールドMBのラインを再配置することによって、上部のフレームMB(A')は1対のフィールドマクロブロックA,Bの上位半分のラインから構成され、下部のフレームMB(B')は、下位半分のラインから構成される。
一方、基本層の対応するフィールドマクロブロック対810うちいずれか一方のみがインターモードである場合には、現在のフレームマクロブロック対813のブロックモードによって基本層のフィールドマクロブロック対810のうち一つのブロックを選択し、これを層間テキスチャ予測に利用する。または、現在のフレームマクロブロック対813のブロックモードの決定前に、下記で説明する各方式を適用して層間予測を行った後、そのマクロブロック対813の各ブロックモードを決定しても良い。
図8f及び図8gは、一つのブロックを選択して層間予測を行う例を示す図である。現在のフレームマクロブロック対813がインターモードにコーディングされる場合には(または、インターモードによる予測を行う場合には)、図8fのように、基本層のフィールドマクロブロック対810からインターモードのブロック810aを選択し、該ブロックを垂直方向にアップサンプリングし、2個のマクロブロックに該当する大きさ831にした後、これら2個のマクロブロックを現在フレームマクロブロック対813のレジデュアル予測に用いる。現在のフレームマクロブロック対813がインターモードにコーディングされなかった場合には(または、イントラモードによる予測を行う場合には)、図8gのように、基本層のフィールドマクロブロック対810からイントラモードのブロック810bを選択し、該ブロックを垂直方向にアップサンプリングして2個のマクロブロックに該当する大きさ841とし、これにデブロッキングフィルタを適用した後に、これら2個のマクロブロックを現在フレームマクロブロック対813のイントラベース予測に用いる。
図8f及び図8gに例示された、一つのブロックを選択してアップサンプリングした後、アップサンプリングされたMB対を層間テキスチャ予測に用いる方法は、層間ピクチャレートが相異なる場合にも適用することができる。拡張層のピクチャレートが基本層のピクチャレートよりも高い場合には、拡張層のピクチャシーケンスには時間的に対応する基本層のピクチャが存在しないピクチャが発生することになる。このように時間的に対応するピクチャがない拡張層のピクチャに属するフレームマクロブロック対に対して、それよりも時間的に以前である基本層のピクチャ内の対応位置(spatially co−located)にあるフィールドマクロブロック対のうち一つを用いて層間テキスチャ予測を行うことができる。
図8hは、これに対する例を示すもので、拡張層のピクチャレートが基本層のピクチャレートの2倍である場合を取り上げている。
例示のように、拡張層のピクチャレートが基本層の2倍であるから、POC(Picture Order Count)がn2の場合のように、2ピクチャに1ピクチャごとにPOCがマッチングされる基本層のピクチャを有することができない。ここで、POCがマッチングされるということは、時間的に一致するということを意味する。
このように、時間的にマッチングされるピクチャがない場合には(POC=n2の場合)、以前のピクチャ(すなわち、POCが1小さいピクチャ)の位置に対応するフィールドマクロブロック対内の下部フィールドマクロブロック802を垂直にアップサンプリングし(S82)、1対の臨時マクロブロック対852を生成した後、該臨時マクロブロック対852を、現在フレームマクロブロック対815に対する層間テキスチャ予測を行うのに使用する。時間的にマッチングされるピクチャがある場合には(POC=n1の場合)、同時間のピクチャの位置に対応するフィールドマクロブロック対内の上部フィールドマクロブロック801を垂直にアップサンプリングし(S81)、1対の臨時マクロブロック対851を生成し、これを、現在フレームマクロブロック対814に対する層間テキスチャ予測を行うのに使用する。この時、アップサンプリングを通じて生成された臨時マクロブロック対851または852のうち、イントラモードからデコーディングされたブロック対は、デブロッキングフィルタが適用された後に層間テキスチャ予測に用いられる。
本発明による他の実施例では、同時間のピクチャが基本層に存在する場合(図8hの例で、POC=n1の場合)において、図8hに例示された方法に代えて、図8dに例示された実施例によって1対のフィールドMBからフレームMB対を生成した後に層間テキスチャ予測に用いても良い。そして、同時間のピクチャが基本層に存在しないピクチャの場合(図8hの例で、POC=n2の場合)には、図8hのように、層間テキスチャ予測を行っても良く、または、当該ピクチャ内のマクロブロックに対しては層間テキスチャ予測を行わなくても良い。
したがって、本発明による一実施例では、層間テキスチャ予測が図8dに例示された方法によって行なわれたか、図8hに例示された方法によって行なわれたかを表すフラグ‘field_base_flag'を割り当ててコーディング情報に含める。このフラグには、図8dのような方法でテキスチャ予測が行われた場合には、例えば‘0'の値が、図8hのような方法でテキスチャ予測された場合には、例えば‘1'の値がセットされる。そして、このフラグは、拡張層のシーケンスパラメータセット、スケーラブル拡張子内のシーケンスパラメータセット、ピクチャパラメータセット、スケーラブル拡張子内のピクチャパラメータセット、スライスヘッダ、スケーラブル拡張子内のスライスヘッダ、マクロブロック層、またはスケーラブル拡張子内のマクロブロック層で定義され、デコーダに転送される。
IV.フィールドピクチャのフィールドMB→フレームMBの場合
この場合は、現在層(EL)のMBがフレームMBにコーディングされ、該フレームMBの層間予測に利用する基本層(BL)のMBが、フィールドピクチャ内のフィールドMBにコーディングされている場合で、基本層の一つのフィールドMBに含まれている映像信号成分は、現在層の対応位置のマクロブロック対に含まれている映像信号成分と同じ成分となる。まず、層間動き予測について説明する。
ELエンコーダ20は、基本層の偶数または奇数フィールド内の一つのマクロブロックを垂直方向に2倍に伸張させて得た分割モードを、仮想基本層のマクロブロックの分割モードとして使用する。図10aは、これを具体的な例に挙げて示している。図10aに例示された過程は、MBAFFフレーム内の上部または下部のフィールドMBが選択される前述の場合III と比較し、偶数または奇数フィールド内の位置に対応する一つのフィールドMB 1010が自然に用いられる点が異なるだけで、対応するフィールドMB 1010を伸張し、この伸張によって得られた2個のマクロブロック1011の分割形態を仮想基本層のマクロブロック対1012に適用する点は同一である。そして、対応する一つのフィールドMB 1010を垂直に2倍伸張させる時、マクロブロックの分割モードで許容されない分割形態が発生するおそれがあるが、これを防止するためにELエンコーダ20が伸張された分割形態による分割モードを決定する規則も、場合III の1)と2)に提示されたそれと同一である。
もし、対応するマクロブロックがイントラモードにコーディングされている場合には、ELエンコーダ20は、前述した伸張過程を通じた分割モード決定と、以下で説明される参照インデックス及び動きベクトル導出過程を行わない。すなわち、層間動き予測は行われない。
そして、参照インデックスと動きベクトルを導出する過程もまた、前述の場合III において説明したそれと同一である。ただし、場合III では、基本層の対応するマクロブロックが偶数と奇数の対として一つのフレーム内に載せられるようになるから、上部MB及び下部MBのうち一つを選択して導出過程に適用するが、本場合IVでは、現在コーディングするマクロブロックに対応する基本層の対応するマクロブロックは一つのみ存在するので、マクロブロックの選択過程なしで、図10b及び10cに例示するように、その対応する一つのフィールドMBの動き情報から仮想基本層のマクロブロック対1012に対する動き情報を導出した後、これを現在マクロブロック対1013の層間動き予測に用いる。
図11は、本発明の他の実施例によって仮想基本層のマクロブロック対の参照インデックスと動きベクトルが導出されることを図式的に示す図で、この場合は、基本層の偶数または奇数フィールドの一つのマクロブロックの動き情報から仮想基本層のマクロブロック対の動き情報を導出する点が異なるだけで、導出するのに適用される動作は、上記の図9aを参照して説明した場合と同一である。ただし、対応する基本層(BL)の一つのフィールド内に上部及び下部マクロブロック対が存在しないので、図9bに例示された場合においてマクロブロック対の動き情報を混合して使用する場合は、本場合IVには適用されない。
図10a乃至10cを参照して説明した実施例では、ELエンコーダ20が仮想基本層のマクロブロック対に関する動き情報を予測する場合において、基本層の対応フィールドMBの動き情報に基づいて分割モード、参照インデックスそして動きベクトルの順に導出したが、図11による他の実施例では、基本層の対応フィールドMBの動き情報に基づいて、仮想基本層のマクロブロック対に対し、まず参照インデックスと動きベクトルを導出した後、該導出された結果に基づいて最後に仮想基本層のマクロブロック対の分割モードを決定する。最後に分割モードを決定する時には、導出された動きベクトルと参照インデックスが同一である4×4ブロック単位を結合した後、該結合されたブロックが許容される分割形態であれば、結合された形態と指定し、そうでない場合は結合される前の分割形態と指定する。
前述の各実施例で、テキスチャ予測の場合には、基本層の対応するフィールドMBがイントラモードであれば、現在マクロブロックに対してイントラベース予測コーディングが行われ、インターモードであれば、現在マクロブロックがインターモードにコーディングされる場合に層間レジデュアル予測コーディングが行われる。もちろん、この時、予測に用いるフィールドMBは、垂直軸にアップサンプリングした後にテキスチャ予測に用いる。
本発明による他の実施例では、奇数または偶数のフィールドに在るフィールドMBから仮想のマクロブロックを生成してマクロブロック対を構成した後、該構成されたマクロブロック対から仮想基本層のマクロブロック対の動き情報を導出する。この例が、図12a及び図12bに示されている。
本実施例では、基本層の対応する偶数(または奇数)フィールドMBの参照インデックスと動きベクトルを複写(1201,1202)して仮想の奇数(または偶数)フィールドMBを生成し、1対のマクロブロック1211を構成し、該構成されたマクロブロック対1211の動き情報を混合して仮想基本層のマクロブロック対1212の動き情報を導出する(1203,1204)。動き情報を混合して使用する一例は、図12a及び12bに例示するように、参照インデックスの場合に、対応する上部マクロブロックの上位8×8ブロックは仮想基本層のマクロブロック対1212の上部マクロブロックの上位8×8ブロックに、下位8×8ブロックは下部マクロブロックの上位8×8ブロックに、対応する下部マクロブロックの上位8×8ブロックは仮想基本層のマクロブロック対1212の上部マクロブロックの下位8×8ブロックに、下位8×8ブロックは下部マクロブロックの下位8×8ブロックに対応させて参照インデックスを適用する(1203)。なお、動きベクトルの場合に、参照インデックスによって対応させて適用し(1204)、これは、図12a及び12bから直観的に理解できるので、その説明は省略する。
図12a及び図12bに例示された実施例において、仮想基本層のマクロブロック対1212の分割モードは、導出された参照インデックスと動きベクトルに基づいて決定し、その方法は前述した通りである。
次に、層間テキスチャ予測について説明する。図10dは、本場合(フィールドピクチャのフィールドMB→フレームMBの場合)に対する層間テキスチャ予測方法の例を示す図である。ELエンコーダ20は、まず、対応する基本層のフィールドマクロブロック1010を垂直方向にアップサンプリングし、臨時の2個のマクロブロック1021とする。そして、対応するフィールドマクロブロック1010がイントラモードであれば、生成された臨時の2個のマクロブロック1021にデブロッキングフィルタを適用した後、これを基準として現在フレームマクロブロック対1013に対してイントラベース予測を行い、対応するフィールドマクロブロック1010がインターモードであれば、生成された臨時の2個のマクロブロック1021を基準として現在フレームマクロブロック対1013に対してレジデュアル予測を行う。
V.フィールドMB→フィールドMBの場合
この場合は、フィールドMBがフィールドピクチャに属したものか、MBAFFフレームに属したものかに細分されるので、下記の4場合に分けられる。
i)基本層と拡張層がMBAFFフレームの場合
この場合は、図13aに示すように、対応する基本層(BL)のマクロブロック対の動き情報(分割モード、参照インデックス、動きベクトル)を、仮想基本層のマクロブロック対の動き情報としてそのまま複写して使用する。ただし、複写は、同一パリティのマクロブロック間で行われるようにする。すなわち、動き情報が複写される時、偶数フィールドMBは偶数フィールドMBに、奇数フィールドMBは奇数フィールドMBに複写されて、仮想層のマクロブロックを構成し、このマクロブロックが現在層のマクロブロックの動き予測に用いられる。
テキスチャ予測の場合には、公知のフレームMBとフレームMB間の層間テキスチャ予測方法が適用される。
ii)基本層がフィールドピクチャでかつ拡張層がMBAFFフレームの場合
この場合は、図13bに示すように、対応する基本層(BL)の一つのフィールドマクロブロックの動き情報(分割モード、参照インデックス、動きベクトル)を、仮想基本層のマクロブロック対の各マクロブロックの動き情報としてそのまま複写して使用する。この時には、単一フィールドMBの動き情報を上部及び下部のフィールドMBに全て使用することになるので、同一パリティ間複写規則は適用されない。
テキスチャ予測の場合には、同一フィールド属性(偶数フィールド、奇数フィールド)を持つ拡張層のMBと基本層のMB間に、イントラベース予測(基本層の対応ブロックがイントラモードである場合)を適用したり、レジデュアル予測(基本層の対応ブロックがインターモードである場合)を適用する。
iii)基本層がMBAFFフレームで且つ拡張層がフィールドピクチャの場合
この場合は、図13cに示すように、現在フィールドMBに対応する基本層(BL)のマクロブロック対のうち、同一パリティのフィールドMBを選択し、このフィールドMBの動き情報(分割モード、参照インデックス、動きベクトル)を、仮想基本層のフィールドマクロブロックの動き情報としてそのまま複写して使用する。
テキスチャ予測の場合には、同一フィールド属性(偶数フィールド、奇数フィールド)を持つ拡張層のMBと基本層のMB間に、イントラベース予測(基本層の対応ブロックがイントラモードである場合)を適用したり、レジデュアル予測(基本層の対応ブロックがインターモードである場合)を適用する。
iv)基本層と拡張層がフィールドピクチャである場合
この場合は、図13dに示すように、対応する基本層(BL)のフィールドマクロブロックの動き情報(分割モード、参照インデックス、動きベクトル)を、仮想基本層のフィールドマクロブロックの動き情報としてそのまま複写して使用する。この時も、複写は同一パリティのマクロブロック間で行われるようにする。
テキスチャ予測の場合には、公知のフレームMBとフレームMB間の層間テキスチャ予測方法が適用される。
以上の層間予測の説明は、基本層と拡張層が同一解像度を持つ場合についてのものであった。以下では、拡張層が基本層よりも解像度の高い場合(SpatialScalabilityType()が0より大きい場合)に対して各層のピクチャの類型(順次走査方式のフレーム、MBAFFフレーム、飛び越し走査方式のフィールド)及び/またはピクチャ内のマクロブロックの類型を確認し、該確認された類型によって層間予測方法を適用することについて説明する。まず、層間動き予測について説明する。
M_A).基本層:順次走査方式のフレーム→拡張層:MBAFFフレーム
この場合は、その処理方法を示す図14aのように、まず、基本層の対応フレームの全てのマクロブロックの動き情報を複写し、仮想のフレームを生成する。そして、アップサンプリングを行うが、このアップサンプリングでは、基本層のピクチャのテキスチャ情報を用いて、当該ピクチャの解像度(ピクチャ大きさ)が現在層の解像度(ピクチャ大きさ)と同一となるような割合でインタポレーションを行い、また、当該仮想フレームの各マクロブロックの動き情報に基づいてインタポレーションによって拡大されたピクチャの各マクロブロックの動き情報を構成するが、この構成方法は、公知の方法の一つとすれば良い。このように構成された暫定基本層のピクチャは、現在の拡張層ピクチャの解像度と同じ解像度を持つことになる。したがって、前述した層間動き予測を適用することが可能になる。
図14aの場合は、基本層がフレームで、現在層がMBAFFフレームであるから、該当のピクチャ内の各マクロブロックは、フレームMBとMBAFFフレーム内フィールドMBになる。したがって、前述の場合Iを適用して層間動き予測を行う。ところが、上述したように、MBAFFフレームはフィールドMB対の他にフレームMB対も同一フレーム内に含んでいてもよい。したがって、暫定基本層のピクチャ内のマクロブロック対と対応する現在層のマクロブロック対の類型が、フィールドMBではなくフレームMBと確認される場合には、公知のフレームMB間の動き予測方法、すなわち、frame_to_frameの予測方式(これは、情報の単純な動き情報の複写である。)を適用する。
M_B).基本層:順次走査方式のフレーム→拡張層:飛び越し走査方式のフィールド
この場合は、その処理方法を示す図14bのように、まず、基本層の対応フレームの全てのマクロブロックの動き情報を複写し、仮想のフレームを生成する。そして、アップサンプリングを行うが、このアップサンプリングでは基本層のピクチャのテキスチャ情報を用いて、当該ピクチャの解像度が現在層の解像度と同一となるような割合でインタポレーションが行われ、また、構成された仮想フレームの各マクロブロックの動き情報に基づいてインタポレーションによって拡大されたピクチャの各マクロブロックの動き情報を構成する。このように構成された暫定基本層のピクチャ内の各マクロブロックはフレームMBで、現在層の各マクロブロックはフィールドピクチャ内のフィールドMBであるから、前述の場合IIを適用して層間動き予測を行う。
M_C).基本層:MBAFFフレーム→拡張層:順次走査方式のフレーム
この場合は、その処理方法を示す図14cのように、まず、基本層の対応MBAFFフレームを順次走査方式のフレームに変換する。MBAFFフレームのフィールドMB対に対しては、順次走査方式のフレームに変換するためには前述の場合III の方法を適用し、フレームMB対に対しては、公知のframe_to_frameの予測方式を適用する。もちろん、この時のIII の方法適用は、層間予測により得られるデータを用いて仮想のフレームとそのフレーム内の各マクロブロックの動き情報を生成するもので、予測データと実際コーディングする層のデータとの差をコーディングする動作を行うものではない。
仮想のフレームが得られると、その仮想フレームに対してアップサンプリングを行う。このアップサンプリングでは、基本層の解像度が現在層の解像度と同一となるような割合でインタポレーションが行われ、また、公知の方法の一つを用いて、仮想フレームの各マクロブロックの動き情報に基づいて拡大されたピクチャの各マクロブロックの動き情報を構成する。このように構成された暫定基本層のピクチャ内の各マクロブロックはフレームMBで、現在層の各マクロブロックもフレームMBであるから、公知のフレームMB対フレームMBの層間動き予測を行う。
M_D).基本層:飛び越し走査方式のフィールド→拡張層:順次走査方式のフレーム
図14dは、この場合についての処理方式の一例を示す。この場合は、ピクチャの類型とピクチャ内のマクロブロックの類型が同一である。図示のように、まず、基本層の対応フィールドを順次走査方式のフレームに変換する。この変換されたフレームは現在層のピクチャと同じ垂直/水平の比率を持つ。飛び越し走査方式のフィールドを順次走査方式のフレームに変換するためには、アップサンプリングと前述の場合IVの方法を適用する。もちろん、この時のIVの方法適用も、層間予測により得られるデータを用いて仮想のフレームのテキスチャデータとそのフレーム内の各マクロブロックの動き情報を生成するもので、予測データと実際コーディングする層のデータとの差をコーディングする動作を行うものではない。
仮想のフレームが得られると、該仮想フレームに対してアップサンプリングを行う。このアップサンプリングにおいて、仮想フレームが現在層の解像度と同一となるようにインタポレーションが行われ、また、公知の方法の一つを用いて、仮想フレームの各マクロブロックの動き情報に基づいてインタポレーションされたピクチャの各マクロブロックの動き情報を構成する。このように構成された暫定基本層のピクチャ内の各マクロブロックはフレームMBで、現在層の各マクロブロックもフレームMBであるから、公知のフレームMB対フレームMBの層間動き予測を行う。
図14eは、本発明の他の実施例による、上記M_D)の場合についての処理方式を示す図である。本実施例は、図示のように、基本層の奇数または偶数の対応フィールドを順次走査方式のフレームに変換する。飛び越し走査方式のフィールドを順次走査方式のフレームに変換するためには、図14dのように、アップサンプリングと前述の場合IVの方法を適用する。仮想のフレームが得られると、該仮想フレームに対して、公知の方法の一つである、同一の垂直/水平比率を持つピクチャ間の動き予測方法を、現在層のピクチャと暫定層の仮想のフレーム間に適用し、現在層の順次走査方式のピクチャ内の各マクロブロックの動き情報を予測コーディングする。
図14eに例示された方法は、図14dに例示された方法と比較すると、臨時予測情報が生成されないという点が異なる。
図14fは、本発明のさらに他の実施例による、上記M_D)の場合についての処理方式を示す図である。本実施例は、図示のように、基本層の対応フィールドの全てのマクロブロックの動き情報を複写し、仮想のピクチャを生成する。そして、アップサンプリングを行うが、このアップサンプリングでは、基本層のピクチャのテキスチャ情報を用い、また、垂直及び水平のインタポレーション比率を異ならせることによって、拡大されたピクチャが現在層のピクチャと同一大きさ(同一解像度)を持つようにし、また、公知の方法の一予測方法(例えば、ESS(Extended Special Scalability))を仮想のピクチャに適用し、拡大されたピクチャの動き情報と各種シンタックス情報を構成する。ここで構成される動きベクトルは、拡大された比率に合うように伸張される。暫定基本層のアップサンプリングされたピクチャが構成されると、このピクチャを用いて現在層のピクチャ内の各マクロブロックに対する層間動き予測を適用し、現在層のピクチャ内の各マクロブロックの動き情報をコーディングする。この時に適用する層間予測方式は、公知のフレームMB対フレームMBの層間動き予測方式とする。
図14gは、本発明のさらに他の実施例による、上記M_D)の場合についての処理方式を示す図である。本実施例は、図示のように、まず、基本層の対応フィールドの全てのマクロブロックの動き情報を複写し、仮想のピクチャを生成する。その後、基本層のピクチャのテキスチャ情報を用いて垂直/水平比率が異なるようにインタポレーションする動作(この動作によって生成されたテキスチャ情報は、層間テキスチャ予測に用いられる。)が行われ、また、前記仮想のピクチャ内の動き情報を用いて現在層のピクチャ内の各マクロブロックに対する層間動き予測を同時に行う公知の方法の一つ、例えば、JSVM(Joint Scalable Video Model)に定義されたESS(Extended Special Scalability)を適用し、現在層のピクチャに対する動き予測コーディングを行う。
図14gに例示された方法は、図14fに例示された方法と比較すると、臨時予測情報が生成されないという点が異なる。
M_E).基本層:MBAFFフレーム→拡張層:MBAFFフレーム
この場合は、その処理方法を示す図14hのように、まず、基本層の対応MBAFFフレームを順次走査方式のフレームに変換する。MBAFFフレームを順次走査方式のフレームに変換するためには、フィールドMB対に対して前述の場合III の方法を適用し、フレームMB対に対してはframe_to_frameの予測方式を適用する。もちろん、この時のIII の方法適用は、層間予測により得られるデータを用いて仮想のフレームと該フレーム内の各マクロブロックの動き情報を生成するもので、予測データと実際コーディングする層のデータとの差をコーディングする動作を行うものではない。
仮想のフレームが得られると、その仮想フレームに対してアップサンプリングを行う。このアップサンプリングでは、基本層の解像度が現在層の解像度と一致するような割合でインタポレーションが行われ、また、公知の方法の一つを用いて、当該仮想フレームの各マクロブロックの動き情報に基づいて、拡大されたピクチャの各マクロブロックの動き情報を構成する。このように構成された暫定基本層のピクチャ内の各マクロブロックはフレームMBで、現在層の各マクロブロックはMBAFFフレーム内のフィールドMBであるから、前述の方法Iを適用して層間動き予測を行う。ところが、上述したように、MBAFFフレームはフィールドMB対の他にフレームMB対も同一フレーム内に含んでいてもよい。したがって、暫定基本層のピクチャ内のマクロブロック対と対応する現在層のマクロブロック対がフィールドMBではなくフレームMBである場合には、公知のフレームMB間の動き予測方法、すなわち、frame_to_frameの予測方式(動き情報の複写)を適用する。
M_F).基本層:MBAFFフレーム→拡張層:飛び越し走査方式のフィールド
この場合は、その処理方法を示す図14iのように、まず、基本層の対応MBAFFフレームを順次走査方式のフレームに変換する。MBAFFフレームを順次走査方式のフレームに変換するためには、フィールドMB対に対しては前述の場合III の方法を適用し、フレームMB対に対してはframe_to_frameの予測方式を適用する。もちろん、この時のIII の方法適用も、層間予測により得られるデータを用いて仮想のフレームと該フレーム内の各マクロブロックの動き情報を生成するもので、予測データと実際コーディングする層のデータとの差をコーディングする動作を行うものではない。
仮想のフレームが得られると、その仮想フレームに対して現在層の解像度と一致するようにインタポレーションを行い、同時に公知の方法の一つを用いて仮想フレームの各マクロブロックの動き情報に基づいて、拡大されたピクチャの各マクロブロックの動き情報を構成する。このように構成された暫定基本層のピクチャ内の各マクロブロックはフレームMBで、現在層の各マクロブロックは偶数または奇数フィールド内のフィールドMBであるから、前述のIIの方法を適用して層間動き予測を行う。
M_G).基本層:飛び越し走査方式のフィールド→拡張層:MBAFFフレーム
この場合は、その処理方法を示す図14jのように、まず、基本層の飛び越し走査方式のフィールドを順次走査方式のフレームに変換する。飛び越し走査方式のフィールドを順次走査方式のフレームに変換するためには、アップサンプリングと前述の場合IVの方法を適用する。もちろん、この時のIVの方法適用も、層間予測により得られるデータを用いて仮想のフレームと該フレーム内の各マクロブロックの動き情報を生成するもので、予測データと実際コーディングする層のデータとの差をコーディングする動作を行うものではない。
仮想のフレームが得られると、その仮想フレームに対してアップサンプリングを行って現在層の解像度と一致するようにし、同時に公知の方法の一つを用いて、拡大されたピクチャの各マクロブロックの動き情報を構成する。このように構成された暫定基本層のピクチャ内の各マクロブロックはフレームMBで、現在層の各マクロブロックはMBAFFフレーム内のフィールドMBであるから、前述のIの方法を適用して層間動き予測を行う。ところが、MBAFFフレームは、上述したように、フィールドMB対の他にフレームMB対も同一フレーム内に含んでいてもよいので、暫定基本層のピクチャ内のマクロブロック対と対応する現在層のマクロブロック対がフィールドMBではなくフレームMBである場合には、前述のIの予測方法ではなく公知のフレームMB間の動き予測方法、すなわち、frame_to_frameの予測方式を適用する。
M_H).基本層:飛び越し走査方式のフィールド→拡張層:飛び越し走査方式のフィールド
この場合は、その処理方式を示す図14kのように、基本層の対応フィールドの全てのマクロブロックの動き情報を複写して仮想のフィールドを生成した後、この仮想フィールドに対してアップサンプリングを行う。このアップサンプリングは、基本層の解像度が現在層の解像度と同一となるような割合で行われ、公知の方法の一つが用いられ、仮想フィールドの各マクロブロックの動き情報に基づいて、拡大されたピクチャの各マクロブロックの動き情報が構成される。このように構成された暫定基本層のピクチャ内の各マクロブロックはフィールドピクチャ内のフィールドMBで、現在層の各マクロブロックもまたフィールドピクチャ内のフィールドMBであるから、前述のVのiv)の場合を適用して層間動き予測を行う。
図14a乃至図14kの実施例の説明において、基本層のピクチャのテキスチャ情報の代わりに、暫定層の仮想フィールドまたは仮想フレームのテキスチャ情報をアップサンプリングで使用したとしたが、基本層のピクチャのテキスチャ情報を使用しても良いことはもちろんである。また、後段で行われる層間動き予測に用いられる暫定層のピクチャの動き情報を導出する場合において、不必要な場合には、前述したアップサンプリング過程でテキスチャ情報を用いたインタポレーション過程は省略されても良い。
一方、前述したテキスチャ予測の説明は、基本層と拡張層が空間的に同一解像度を持つ場合についてのものとしたが、上述したように、両層間に相異なる空間的解像度を持つことができる。拡張層が基本層より解像度が高い場合には、基本層のピクチャを拡張層のピクチャの解像度と同一となるようにする動作を行った後、同一解像度の基本層のピクチャが生成されると、このピクチャ内の各マクロブロックに基づいて上記の各場合(I乃至V)において該当する層間テキスチャ方式を選択し、予測コーディングを行うことになる。以下では、ピクチャの解像度を同一にさせる過程について説明する。
層間予測のための2個の層を考慮する時、映像信号の走査方式は順次走査(progressive scanning)方式と飛び越し走査(interlaced scanning)方式が存在するので、両層間にコーディングするピクチャフォーマット(順次走査方式と飛び越し走査方式)の組み合わせは、4つとなる。したがって、この4つの場合を区分して、基本層のピクチャの解像度を上げて層間テキスチャ予測を行う方法について説明する。
T_A).拡張層は順次走査方式で、基本層は飛び越し走査方式である場合
図15aは、この場合に対する基本層のピクチャを、層間テキスチャ予測に用いる方法の一実施例を示すものである。図示のように、現在層(拡張層)のピクチャ1500に時間的に対応する基本層のピクチャ1501は、出力時点を別にする偶数及び奇数フィールドを含んでいるので、ELエンコーダ20は、まず、該ピクチャを偶数と奇数フィールドとに分離する(S151)。この時、基本層のピクチャ1501は、イントラモードのマクロブロックの場合にはエンコーディングされなかった元来のイメージデータ(または、デコーディングが完了したイメージデータ)(イントラベース予測に用いられる。)を有し、インターモードのマクロブロックの場合には、エンコーディングされたレジデュアルデータ(または、デコーディングされたレジデュアルデータ)(レジデュアル予測に用いられる。)を有する。これは、以下のテキスチャ予測の説明において基本層のピクチャまたは基本層のマクロブロックに対しても同様である。
ELエンコーダ20は、対応するピクチャ1501を各フィールド成分に分離した後、各分離されたフィールド1501a,1501bに対しては垂直及び/または水平方向にインタポレーションを行い、拡大された偶数及び奇数ピクチャ1502a,1502bを生成する(S152)。このインタポレーションには、6−tapフィルタリング、二進線形フィルタリングなどの公知の方法のうち一つの方法を使用する。そして、インタポレーションによりピクチャの解像度(すなわち、大きさ)を高める垂直及び水平比率は、基本層のピクチャ大きさ1501に対する拡張層のピクチャ大きさ1500の垂直及び水平比率と同一である。垂直及び水平比率は相互に同一であっても良い。例えば、拡張層のピクチャと基本層のピクチャの解像度比率が2であれば、インタポレーションが、分離された偶数及び奇数フィールド1501a,1501bに行われ、垂直方向及び水平方向に各フィールドの各ピクセル間に一つのピクセルがさらに生成される。
インタポレーションが完了すると、拡大された偶数及び奇数フィールド1502a,1502bを結合して一つのピクチャ1503を構成する(S153)。この結合では、拡大された偶数及び奇数フィールド1502a,1502bを交互(1502a→1502b→1502a→1502b→…)に選択して取った各ラインを、取った順番で配置して結合ピクチャ1503を構成する。この時、結合されたピクチャ1503内の各マクロブロックに対するブロックモードが決定される。例えば、結合されたピクチャ1503内のマクロブロックのブロックモードを、基本層のピクチャ1501内の同一映像成分がある領域が属するマクロブロックのブロックモードと決定する(このような決定方法は、以下で説明されるピクチャの拡大時にいずれも適用可能である。)。このように構成された結合ピクチャ1503は、拡張層の現在ピクチャ1500と同一な空間的解像度を持つので、順次走査方式の現在ピクチャ1500内の各マクロブロックに対して、結合されたピクチャ1503の対応マクロブロックに基づいてテキスチャ予測、例えば、フレーム対フレーム(frame_to_frame)MB間のテキスチャ予測を行う(S154)。
図15bは、本発明の他の実施例による、基本層のピクチャを層間テキスチャ予測に用いる方法を示す図である。本実施例は、図示のように、出力時点を別にする偶数及び奇数フィールドを含んでいる基本層のピクチャをフィールド属性(parity)別に分離せずにそのまま垂直及び/または水平方向にインタポレーションを行い(S155)、拡張層ピクチャの解像度(すなわち、大きさ)と同じ解像度の拡大されたピクチャを構成する。そして、このように構成された拡大されたピクチャを用いて、拡張層の順次走査方式の現在ピクチャに対して層間テキスチャ予測を行う(S156)。
一方、前述の図15aは、本発明による、偶数及び奇数フィールドを持つピクチャをフィールド属性別に分離してインタポレーションする過程をピクチャレベルで示したものである。これに対し、ELエンコーダ20は、図15aに例示された過程を行う時にはマクロブロックレベルで行い、図15aに例示したのと同じ結果を得ることができる。これについて具体的に説明すると、偶数及び奇数フィールドを持つ基本層がMBAFFコーディングされた場合、ピクチャ1501内の垂直に接したマクロブロック対(現在テキスチャ予測コーディングを行う拡張層ピクチャ内のマクロブロック対の位置に対応する(co−located)マクロブロック対)は図16aまたは16bのような方式で偶数及び奇数フィールド成分の映像信号を含んでいてもよい。図16aは、各マクロブロックA,Bに偶数フィールドと奇数フィールド成分がインターリービングされている方式(フレームMB対方式)であり、図16bは、マクロブロック対の各マクロブロックA,Bが同一フィールド属性の映像ラインを含む方式(フィールドMB対方式)である。
したがって、図16aの場合には、図15aに例示された方式を適用するために、マクロブロック対の各マクロブロックA,Bの偶数ラインを取って一つの偶数フィールドブロックA'を構成し、奇数ラインを取って他の奇数フィールドブロックB'を構成することによって、偶数と奇数ラインがインターリービングされたマクロブロック対をそれぞれ偶数と奇数フィールド成分を持つ2個のブロックA',B'に分離する。このように分離された2個のマクロブロックA',B'に対してそれぞれインタポレーションを行い、拡大されたブロックを構成する。この拡大されたブロック内で、現在テキスチャ予測コーディングする拡張層ピクチャ内のイントラBL(intra_BL)モードまたはレジデュアル予測(residual_prediction)モードのマクロブロックに対応する領域内のデータを用いてテキスチャ予測を行う。一方、図16aでは提示されていないが、上記のように個別的に拡大されたブロックをフィールド属性別に合わせると、図15aの拡大された偶数と奇数ピクチャ1502a,1502bの一部が構成されるので、各マクロブロック対に対して上記の動作を反復し、図15aの拡大された偶数と奇数ピクチャ1502a,1502bを構成することができる。
図16bのようにマクロブロック対がフィールド属性別に区分されて各マクロブロックを構成している場合には、前述した分離過程は、単に、該当のマクロブロック対から各マクロブロックを複写し、分離された2個のマクロブロックを構成することに該当する。以降の過程は、図16aについての説明と同一である。
T_B).拡張層は飛び越し走査方式で、基本層は順次走査方式である場合
図17aは、この場合に対する基本層のピクチャを層間テキスチャ予測に用いる方法の一実施例を示す図である。図示のように、ELエンコーダ20は、まず、現在層のピクチャ1700を2個のピクチャとする(S171)。2個のピクチャを構成する方法の例には、対応するピクチャ1701の偶数ラインのみを取って一つのピクチャ1701aを構成し、奇数ラインのみを取って他のピクチャ1701bを構成する。そして、このように構成された2個のピクチャ1701a,1701bに対しては垂直及び/または水平方向にインタポレーションを行い、拡大された2個のピクチャ1702a,1702bを生成する(S172)。このインタポレーションには、T_A)の場合と同様に、6−tapフィルタリング、二進線形フィルタリングなどの公知の方法のうち一つの方法を使用し、解像度を高める比率もまた、T_A)の場合で説明された通りにする。
インタポレーションが完了すると、拡大された2個のピクチャ1702a,1702bを結合して一つのピクチャ1703を構成する(S173)。この結合では、拡大された2個のピクチャ1702a,1702bを交互に(1702a→1702b→1702a→1702b→…)に選択して取った各ラインを、取った順番で配置して結合ピクチャ1703を構成する。このように構成されたピクチャ1703は、拡張層の現在ピクチャ1700と同じ空間的解像度を持つので、飛び越し走査方式の現在ピクチャ1700内の各マクロブロックに対して、結合されたピクチャ1703の対応マクロブロックに基づいてテキスチャ予測、例えば、図4gを参照して説明したテキスチャ予測、または、公知のフレーム対フレーム(frame−to−frame)MB間のテキスチャ予測を行う(S174)。
図17bは、本発明の他の実施例による、基本層のピクチャを層間テキスチャ予測に用いる方法を示す図である。本実施例は、図示のように、基本層のピクチャを2個のピクチャに分離せずにそのまま垂直及び/または水平方向にインタポレーションを行い(S175)、拡張層ピクチャの解像度(すなわち、大きさ)と同じ解像度の拡大されたピクチャを構成する。そして、このように構成された拡大されたピクチャを用いて、拡張層の飛び越し走査方式の現在ピクチャに対して層間テキスチャ予測を行う(S176)。
一方、図17aの説明はピクチャレベルで行われたが、T_A)の場合についての説明と同様に、ELエンコーダ20は、ピクチャの分離過程をマクロブロックレベルで行っても良い。図17bの方法は、一つのピクチャ1701を垂直に隣接したマクロブロック対と見なした時、図17aに例示した分離及びインタポレーション過程と同一である。この過程は、図17aから直観的に理解できるので、詳細な説明は省略する。
T_C).拡張層と基本層とも飛び越し走査方式である場合
図18は、この場合に対する基本層のピクチャを層間テキスチャ予測に用いる方法の一実施例を示す図である。図示のように、本場合に対しても、T_A)の場合と同様に、現在層のピクチャ1800に時間的に対応する基本層のピクチャ1801を偶数と奇数フィールドに分離し(S181)、各分離されたフィールド1801a,1801bに対しては垂直及び/または水平方向にインタポレーションを行い、拡大された偶数及び奇数ピクチャ1802a,1802bを生成した後(S182)、該拡大された偶数及び奇数フィールド1802a,1802bを結合して一つのピクチャ1803を構成し(S183)、飛び越し走査方式の現在ピクチャ1800内のマクロブロック(MBAFFコーディング方式のフレームMB対)に対して、結合されたピクチャ1803の対応マクロブロックに基づいて層間テキスチャ予測、例えば、図4gを参照して説明したテキスチャ予測または公知のフレーム対フレーム(frame−to−frame)MB間のテキスチャ予測を行う(S184)。
両層のピクチャフォーマットが同一であるにもかかわらず、基本層のピクチャ1801をフィールド属性別に分離し(S181)、個別的に拡大(S182)して結合(S183)する理由は、偶数及び奇数フィールド間に映像信号の変化特性が高い場合、両フィールドが結合されているピクチャ1801をそのままインタポレーションすると、拡大されたピクチャは、拡張層の偶数フィールドと奇数フィールドがインターリービングされた飛び越し走査方式のピクチャ1800とは歪んだ、例えば、境界線のぼけた映像を持つ恐れがあるためである。この点から、両層とも飛び越し走査方式の場合にも、本発明によって基本層のピクチャに対してフィールド属性別に分離して両フィールドを求めた後、それらを個別的に拡大して結合した後に使用するわけである。
もちろん、図18に例示された方式は、両層とも飛び越し走査方式のピクチャである時、常に用いられず、ピクチャの映像特性に応じて選択的に用いられても良い。
図18は、本発明による、偶数及び奇数フィールドを持つピクチャをフィールド属性別に分離して拡大する過程をピクチャレベルで示したものであるが、ELエンコーダ20は、T_A)における説明と同様に、図18に例示された過程を行う時は、図16aまたは図16bを参照して説明したマクロブロックレベルでの分離及びインタポレーション動作(すなわち、フレームMB対から偶数ラインと奇数ラインを分離し、各分離されたブロックを個別的に拡大する)、そして結合及び層間テキスチャ予測(各拡大されたブロックのラインを交互に選択しながら構成した拡大されたブロック対を、現在層のフレームMB対のテキスチャ予測に使用)を行い、図18に例示したのと同じ結果が得られる。
T_D).拡張層と基本層とも順次走査方式である場合
この場合には、公知の方式によって基本層のピクチャを拡張層ピクチャの大きさに拡大し、該拡大されたピクチャを拡張層の同一ピクチャフォーマットである現在ピクチャの層間テキスチャ予測に用いる。
以上のテキスチャ予測の実施例は、基本層と拡張層が時間的に同一解像度を持つ場合に対するものであったが、両層間に相異なる時間的解像度、すなわち、相互に異なるピクチャレートを有しても良い。また、時間的同一解像度においても層のピクチャ走査方式が相異なると、同一POCのピクチャ(時間的に対応するピクチャ)であるとしても出力時点の相異なる映像信号成分を含んでいても良い。以下では、このような場合に対する層間テキスチャ予測方法について説明する。以下の説明で、最初の両層は同じ空間的解像度を有しているとする。もし、相異なる解像度である場合には、前述したように、基本層の各ピクチャをアップサンプリングして同じ空間的解像度にした後に、下記の方式を適用すればよい。
a).拡張層は順次走査方式のフレームで、基本層はMBAFFフレームであり、拡張層の時間的解像度が2倍高い場合
図19aは、この場合に対する層間テキスチャ予測方式を示す図である。図示のように、基本層の各MBAFFフレームは、出力時点を別にする偶数及び奇数フィールドを含んでいるので、ELエンコーダ20は、各MBAFFフレームを偶数と奇数フィールドとに分離する(S191)。各MBAFFフレーム内の偶数フィールドに該当する成分、例えば、偶数ラインは偶数フィールドに、奇数フィールドに該当する成分、例えば、奇数ラインは奇数フィールドに分離する。このように一つのMBAFFフレームを2フィールドに分離した後、各フィールドに対しては垂直方向にインタポレーションを行い、2倍の解像度を持つようにする(S192)。このインタポレーションには、6−tapフィルタリング、二進線形フィルタリング、または単純ラインパッディッングなどの公知の方法のうち一つの方法を使用する。インタポレーションが完了すると、拡張層の各フレームは同時間の基本層のピクチャを持つようになるので、拡張層の各フレーム内のマクロブロックに対して公知の層間テキスチャ予測、例えば、フレーム対フレーム(frame−to−frame)MB間の予測を行う(S193)。
前述の過程は層間動き予測にも適用することができる。このときには、MBAFFフレームを2フィールドに分離する時、MBAFFフレーム内のフィールドMB対の各動き情報を同一パリティのフィールド属性のMBの動き情報として複写して層間動き予測に用いる。このような方法を使用すると、基本層に同時間のピクチャがない場合にも(t1,t3,…の場合)、前述した方法によって時間同期されるピクチャを生成し、層間動き予測を行うことができる。
前述の方法は、両層間に時間的解像度が2倍差を持つ図19aを例にしたものであるが、時間的解像度がN倍差を持つ場合にもそのまま適用できる。例えば、3倍差を持つ場合には、分離された両フィールドのうち一つをさらに複写して3個のフィールドを使用することができ、4倍差を持つ場合には、分離された両フィールドをそれぞれ複写して4個のフィールドを使用することができる。いかなる時間的解像度差の場合にも、当業者は創作的思考無しで単純に本発明の原理を適用して層間予測を行うことができることは明らかである。したがって、本明細書で説明されていない時間的解像度差を持つ層間に適用される予測方法も本発明の範囲に属することは当然である。これは、以下に説明される他の場合にも同様である。
もし、基本層がMBAFFフレームにコーディングされず、PAFF(Picture Adaptive Field & Frame)方式でコーディングされる場合には、図19bのように両層が同じ時間的解像度を持つことができる。したがって、この場合には、フレームから両フィールドに分離する過程なしに、直接にインタポレーションを行い、現在層と同じ空間的解像度を持つピクチャを構成した後に、層間テキスチャ予測を行う。
b).拡張層は、MBAFFフレームで、基本層は順次走査方式のフレームであり、拡張層の時間的解像度が1/2である場合
図20は、この場合に対する層間テキスチャ予測方式を示す図である。図示のように、拡張層の各MBAFFフレームは出力時点を別にする偶数及び奇数フィールドを含んでいるので、ELエンコーダ20は、各MBAFFフレームを偶数と奇数フィールドとに分離する(S201)。各MBAFFフレーム内の偶数フィールドに該当する成分、例えば、偶数ラインは偶数フィールドに、奇数フィールドに該当する成分、例えば、奇数ラインは奇数フィールドに分離する。そして、基本層の各フレームに対しては、垂直方向にサブサンプリングを行い、解像度が1/2に下がったピクチャを構成する(S202)。このサブサンプリングには、ラインサブサンプリングやその他の様々な公知のダウン−サンプリング方法のうち一つを使用することができる。図20の例では、ピクチャインデックスが偶数であるピクチャ(t0,t2,t4,…のピクチャ)に対しては偶数ラインのみを取り、1/2に縮小されたピクチャを求め、ピクチャインデックスが奇数であるピクチャ(t1,t3,…のピクチャ)に対しては奇数ラインのみを取り、1/2に縮小されたピクチャを求める。フレーム分離(S201)とサブサンプリング(S202)の順序を変えて行っても構わない。
上記の2過程(S201,S202)が完了すると、拡張層の各フレームから分離されたフィールド2001は、同時間の且つ同じ空間的解像度の基本層のピクチャを持つようになるので、各フィールド内のマクロブロックに対して公知の層間テキスチャ予測、例えば、フレーム対フレーム(frame−to−frame)MB間の予測を行う(S203)。
前述の過程は、層間動き予測にも適用可能である。この時は、基本層の各フレームからサブサンプリングをして大きさが縮小されたピクチャを求める時(S202)、垂直に隣接したマクロブロック対の各動き情報から適切な方法、例えば、パーティションが終わっていないブロックの動き情報を取る方法によって、それに対応する一つのマクロブロックの動き情報を求め、この動き情報を層間動き予測に用いることができる。
本場合には、層間予測がMBAFFフレームから分離された各フィールドピクチャ2001に対して行われるので、拡張層のピクチャをPAFF方式でコーディングして転送する。
c).拡張層はMBAFFフレームで、基本層は順次走査方式のフレームであり、時間的解像度が同一である場合
図21は、この場合に対する層間テキスチャ予測方式を示す図である。図示のように、拡張層の各MBAFFフレームは、出力時点を別にする偶数及び奇数フィールドを含んでいるので、ELエンコーダ20は、各MBAFFフレームを偶数と奇数フィールドとに分離する(S211)。各MBAFFフレーム内の偶数フィールドに該当する成分、例えば、偶数ラインは偶数フィールドに、奇数フィールドに該当する成分、例えば、奇数ラインは奇数フィールドに分離する。そして、基本層の各フレームに対しては、垂直方向にサブサンプリングを行い、解像度が1/2に下がったピクチャを構成する(S212)。このサブサンプリングには、ラインサブサンプリングやその他の多様な公知のダウン−サンプリング方法のうち一つを使用することができる。フレーム分離(S211)とサブサンプリング(S212)の順序を変えて行っても構わない。
一つのMBAFFフレームから2個のフィールドを分離する代わりに、一つのフィールド、例えば、偶数フィールドのピクチャのみを構成することができる。両層の時間的解像度が同一なので、一つのフレームから分離された2フィールドのピクチャがいずれも、層間予測に使用可能な対応する基本層のフレームを持つのではなく、一つのみが層間予測に使用可能な対応するフレームを持つためである。
上記の2過程(S211,S212)が完了すると、拡張層の各フレームから分離されたフィールドのうち、偶数(または奇数)フィールドに対してのみ、対応する基本層のサブサンプリングされたピクチャに基づいて、公知の層間テキスチャ予測、例えば、フレーム対フレーム(frame−to−frame)MB間の予測を行う(S173)。
本場合にも、層間テキスチャ予測を行う拡張層の分離されたフィールドに対して、b)の場合で説明したような方式で層間動き予測を行っても良い。
以上では図2aまたは図2bの装置におけるELエンコーダ20が行う層間予測動作について説明したが、前述した全ての層間予測動作の説明は、基本層からデコーディングされた情報を受信し、拡張層のストリームをデコーディングする拡張層のデコーダにも同様に適用されることができる。エンコーディングとデコーディング過程では、前述した層間予測動作(ピクチャまたはマクロブロック内の映像信号を分離、拡大、結合する動作も含む)が同様に行われ、単に、層間予測以降の動作が異なるだけである。例えば、エンコーダは、動き及びテキスチャ予測を行った後、その予測された情報をまたは予測された情報と実際情報との差情報をデコーダに転送するためにコーディングするが、デコーダは、エンコーダで行われたのと同じ層間動き及びテキスチャ予測によって得た情報をそのまま現マクロブロックに適用し、または、実際受信したマクロブロックのコーディング情報を追加的に用いて、実際動き情報及びテキスチャ情報を求める点が異なるだけである。したがって、エンコーディング観点で前述した本発明の内容とその原理は、受信する両層のデータストリームをデコーディングするデコーダにもそのまま適用される。
ただし、図20及び図21で説明したように、ELエンコーダがMBAFFフレーム方式の拡張層をフィールドシーケンスに分離して層間予測を行った後、PAFF方式で転送する場合には、デコーダは、現在受信した層に対して、前述したMBAFFフレームをフィールドピクチャに分離する過程は行わない。
また、前述したように、ELエンコーダ20がMB間の層間テキスチャ予測を図8dのように行ったか、図8hのように行ったかを区分するフラグ‘field_base_flag'を受信する信号からデコーディングし、該デコーディングされたフラグの値によって、MB間予測が図8dまたは図8hのように行われたかを判断し、これにより、テキスチャ予測情報を獲得する。もし、フラグ‘field_base_flag'に該当する情報が受信されないと、ELデコーダは、該当のフラグが0の値で受信されたと見なす。すなわち、図8dのような方式でMB間にテキスチャ予測されたと見なし、現在マクロブロック対に対する予測情報を得、現在マクロブロックまたはマクロブロック対を復元する。
制限された実施例として上述された本発明の少なくとも一つの実施例は、相互に異なる方式の映像信号ソースを用いる場合であっても層間予測を可能にするため、複数層のコーディング時に映像信号のピクチャ類型(飛び越し走査方式信号、順次走査方式信号、MBAFFフレーム方式のピクチャ、フィールドピクチャなど)にかかわらずにデータコーディング率を高めることができる。また、両層のうち一つの層が飛び越し走査方式の映像信号ソースである場合に、予測のためのピクチャのイメージを、予測コーディングする元イメージにより近似するように構成して使用できるようにするため、データコーディング率を向上させることができる。
本発明は以上の具体的な好ましい実施例に限定されることはなく、本発明の要旨を逸脱しない範囲内で様々に改良、変更、代替または付加して実施できるということは、当該技術分野における通常の知識を持つ者にとっては明らかである。したがって、それらの改良、変更、代替または付加による実施が添付の特許請求の範囲の範ちゅうに属するものであれば、その技術思想もまた本発明に属すると言える。
単一映像ソースから複数層にコーディングする方式を例示する図である。 単一映像ソースから複数層にコーディングする方式を例示する図である。 本発明による層間予測方法が適用される映像信号エンコーディング装置の構成を簡略に示す図である。 本発明による層間予測方法が適用される映像信号エンコーディング装置の構成を簡略に示す図である。 飛び越し走査方式の映像信号をエンコーディングするピクチャシーケンスの類型を示す図である。 飛び越し走査方式の映像信号をエンコーディングするピクチャシーケンスの類型を示す図である。 本発明の一実施例によって、層間テキスチャ予測のために、基本層のピクチャを構成してデブロッキングフィルタリングを行う過程を図式的に示す図である。 本発明の一実施例によって、層間テキスチャ予測のために、基本層のピクチャを構成してデブロッキングフィルタリングを行う過程を図式的に示す図である。 本発明の一実施例によって、フレームマクロブロック(MB)の動き情報を用いて、MBAFFフレーム内のフィールドMBの層間動き予測に用いられる仮想基本層のフィールドMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フレームマクロブロック(MB)の動き情報を用いて、MBAFFフレーム内のフィールドMBの層間動き予測に用いられる仮想基本層のフィールドMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フレームマクロブロック(MB)の動き情報を用いて、MBAFFフレーム内のフィールドMBの層間動き予測に用いられる仮想基本層のフィールドMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フレームマクロブロック(MB)の動き情報を用いて、MBAFFフレーム内のフィールドMBの層間動き予測に用いられる仮想基本層のフィールドMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フレームマクロブロック(MB)の動き情報を用いて、MBAFFフレーム内のフィールドMBの層間動き予測に用いられる仮想基本層のフィールドMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フレームマクロブロック(MB)の動き情報を用いて、MBAFFフレーム内のフィールドMBの層間動き予測に用いられる仮想基本層のフィールドMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フレームMB対のテキスチャ情報をMBAFFフレーム内のフィールドMB対のテキスチャ予測に使用する過程を図式的に示す図である。 本発明の一実施例によってフレームMB対をフィールドMB対に変換する方法を示す図である。 本発明の他の実施例による、参照インデックスと動き情報の導出過程を例示する図である。 本発明の他の実施例による、参照インデックスと動き情報の導出過程を例示する図である。 本発明の一実施例によって、フレームMBの動き情報を用いて仮想基本層のフィールドMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フレームMBの動き情報を用いて仮想基本層のフィールドMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フレームMBの動き情報を用いて仮想基本層のフィールドMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フレームMB対のテキスチャ情報をフィールドピクチャ内のフィールドMBのテキスチャ予測に用いる過程を図式的に示す図である。 本発明の他の実施例による、参照インデックスと動き情報の導出過程を例示する図である。 本発明の他の実施例による、参照インデックスと動き情報の導出過程を例示する図である。 本発明の一実施例によって、MBAFFフレーム内のフィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフィールドMBフレームMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、MBAFFフレーム内のフィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフィールドMBフレームMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、MBAFFフレーム内のフィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフィールドMBフレームMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、MBAFFフレーム内のフィールドMB対のテキスチャ情報をフレームMB対のテキスチャ予測に用いる過程を図式的に示す図である。 本発明の一実施例によってフィールドMB対をフレームMB対に変換する方法を示す図である。 本発明の一実施例によって、MBAFFフレーム内のフィールドMB対のうち一つのMBのみがインターモードである場合に、フレームマクロブロック対の層間予測に用いる各過程を図式的に示す図である。 本発明の一実施例によって、MBAFFフレーム内のフィールドMB対のうち一つのMBのみがインターモードである場合に、フレームマクロブロック対の層間予測に用いる各過程を図式的に示す図である。 本発明の一実施例によって、層間ピクチャレートが異なる場合に、MBAFFフレーム内のフィールドMB対のテキスチャ情報を複数のフレームMB対のテキスチャ予測に用いる過程を図式的に示す図である。 本発明の他の各実施例による、参照インデックスと動き情報の導出過程を例示する図である。 本発明の他の各実施例による、参照インデックスと動き情報の導出過程を例示する図である。 本発明の一実施例によって、フィールドピクチャ内のフィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフレームMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フィールドピクチャ内のフィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフレームMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フィールドピクチャ内のフィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフレームMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フィールドピクチャ内のフィールドMBのテキスチャ情報をフレームMB対のテキスチャ予測に用いる過程を図式的に示す図である。 本発明の他の実施例による、参照インデックスと動き情報の導出過程を例示する図である。 本発明の他の実施例によって、フィールドピクチャ内のフィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフレームMBの動き情報を導出する過程を図式的に示す図である。 本発明の他の実施例によって、フィールドピクチャ内のフィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフレームMBの動き情報を導出する過程を図式的に示す図である。 本発明の一実施例によって、フィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフィールドMBの動き情報を導出する過程を、ピクチャの類型によって区分して図式的に示す図である。 本発明の一実施例によって、フィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフィールドMBの動き情報を導出する過程を、ピクチャの類型によって区分して図式的に示す図である。 本発明の一実施例によって、フィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフィールドMBの動き情報を導出する過程を、ピクチャの類型によってそれぞれ区分して図式的に示す図である。 本発明の一実施例によって、フィールドMBの動き情報を用いて、層間動き予測に用いられる仮想基本層のフィールドMBの動き情報を導出する過程を、ピクチャの類型によって区分して図式的に示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明のそれぞれの実施例によって、層間空間的解像度が相異なる場合に層間動き予測を行う方法をピクチャの類型によって区分して示す図である。 本発明の一実施例によって、拡張層は順次走査方式であり、基本層は飛び越し走査方式である場合に、空間的解像度の相異なる基本層のピクチャを層間テキスチャ予測に用いる過程を図式的に示す図である。 本発明の一実施例によって、拡張層は順次走査方式であり、基本層は飛び越し走査方式である場合に、空間的解像度の相異なる基本層のピクチャを層間テキスチャ予測に用いる過程を図式的に示す図である。 本発明の一実施例によって、基本層のピクチャを層間テキスチャ予測に用いるべく、ピクチャ内のマクロブロック対を分離し、各分離されたマクロブロックを個別的に拡大する過程を図式的に示す図である。 本発明の一実施例によって、基本層のピクチャを層間テキスチャ予測に用いるべく、ピクチャ内のマクロブロック対を分離し、各分離されたマクロブロックを個別的に拡大する過程を図式的に示す図である。 本発明の一実施例によって、拡張層は飛び越し走査方式であり、基本層は順次走査方式である場合に、空間的解像度の相異なる基本層のピクチャを層間テキスチャ予測に用いる過程を図式的に示す図である。 本発明の一実施例によって、拡張層は飛び越し走査方式であり、基本層は順次走査方式である場合に、空間的解像度の相異なる基本層のピクチャを層間テキスチャ予測に用いる過程を図式的に示す図である。 本発明の一実施例によって、拡張層と基本層とも飛び越し走査方式である場合に、空間的解像度の相異なる基本層のピクチャを層間予測に用いる過程を図式的に示す図である。 本発明の一実施例によって、拡張層が順次走査方式のフレームシーケンスであり、かつ、両層間のピクチャ類型と時間的解像度が相異なる時に層間予測が適用される過程を例示的に示す図である。 本発明の一実施例によって、拡張層が順次走査方式のフレームシーケンスであるとともに、両層間のピクチャ類型が異なり、かつ、時間的解像度が同一である時に、層間予測が適用される過程を例示的に示す図である。 本発明の一実施例によって、基本層が順次走査方式のフレームシーケンスであり、かつ、両層間のピクチャ類型と時間的解像度が相異なる時に、層間予測が適用される過程を例示的に示す図である。 本発明の一実施例によって、基本層が順次走査方式のフレームシーケンスであるとともに、両層間のピクチャ類型が異なり、かつ、時間的解像度が同一である時に、層間予測が適用される過程を例示的に示す図である。

Claims (7)

  1. 映像信号のエンコーディングまたはデコーディング時に層間予測を行う方法であって、
    垂直に隣接したフィールドマクロブロック対からフレームマクロブロック対を構成する第1段階と、
    選択的に前記構成されたフレームマクロブロック対にデブロッキングフィルタを適用する第2段階と、
    前記フレームマクロブロック対の各テキスチャ情報を、現在層のフレームマクロブロック対の各テキスチャ予測情報として使用する第3段階と、
    を含む映像信号の層間予測方法。
  2. 前記第1段階は、前記フィールドマクロブロック対の上部マクロブロックと下部マクロブロックを交互に選択しながら1ラインずつ順次に取り、取った順番で配置することによって、前記フレームマクロブロック対を構成することを特徴とする、請求項1に記載の映像信号の層間予測方法。
  3. 前記フィールドマクロブロック対がいずれもイントラモードである場合、前記構成されたフレームマクロブロック対にデブロッキングフィルタが適用され、前記デブロッキングフィルタが適用されたマクロブロック対の各テキスチャ情報がイントラベース予測情報として使用されることを特徴とする、請求項2に記載の映像信号の層間予測方法。
  4. 前記第1段階は、前記フィールドマクロブロック対がそれぞれイントラモードとインターモードであれば、そのうち一つを選択して垂直方向にインタポレーションし、前記フレームマクロブロック対を構成することを特徴とする、請求項1に記載の映像信号の層間予測方法。
  5. 前記一つのフィールドマクロブロックがイントラモードであれば、前記構成されたフレームマクロブロック対にデブロッキングフィルタが適用され、前記デブロッキングフィルタリングされたフレームマクロブロック対の各テキスチャ情報がイントラベース予測情報として使用されることを特徴とする、請求項4に記載の映像信号の層間予測方法。
  6. 前記垂直に隣接したフィールドマクロブロック対は、飛び越し走査方式の映像信号がMBAFF方式でコーディングされたフレームに属することを特徴とする、請求項1に記載の映像信号の層間予測方法。
  7. 前記テキスチャ予測情報として使用されるマクロブロック対のテキスチャ情報は、デコーディングが完了した映像サンプルデータまたは映像サンプルデータ間の差分値であるレジデュアルデータであることを特徴とする、請求項1に記載の映像信号の層間予測方法。
JP2008550230A 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法 Expired - Fee Related JP4991761B2 (ja)

Applications Claiming Priority (29)

Application Number Priority Date Filing Date Title
US75700906P 2006-01-09 2006-01-09
US60/757,009 2006-01-09
US75823506P 2006-01-12 2006-01-12
US60/758,235 2006-01-12
US77693506P 2006-02-28 2006-02-28
US60/776,935 2006-02-28
US78339506P 2006-03-20 2006-03-20
US60/783,395 2006-03-20
US78674106P 2006-03-29 2006-03-29
US60/786,741 2006-03-29
US78749606P 2006-03-31 2006-03-31
US60/787,496 2006-03-31
US81634006P 2006-06-26 2006-06-26
US60/816,340 2006-06-26
US83060006P 2006-07-14 2006-07-14
US60/830,600 2006-07-14
KR10-2006-0111893 2006-11-13
KR1020060111895A KR20070074452A (ko) 2006-01-09 2006-11-13 영상신호의 엔코딩/디코딩시의 레이어간 예측 방법
KR10-2006-0111895 2006-11-13
KR10-2006-0111897 2006-11-13
KR1020060111893A KR20070075257A (ko) 2006-01-12 2006-11-13 영상신호의 엔코딩/디코딩시의 레이어간 모션 예측 방법
KR10-2006-0111894 2006-11-13
KR1020060111897A KR20070074453A (ko) 2006-01-09 2006-11-13 영상 신호의 인코딩 및 디코딩 방법
KR1020060111894A KR20070074451A (ko) 2006-01-09 2006-11-13 베이스 레이어의 영상신호를 레이어간 예측에 사용하는방법
KR1020070001582A KR20070095180A (ko) 2006-03-20 2007-01-05 영상신호의 엔코딩/디코딩시의 픽처유형에 따른 레이어간예측 방법
KR10-2007-0001582 2007-01-05
KR1020070001587A KR20070075293A (ko) 2006-01-12 2007-01-05 영상신호의 엔코딩/디코딩시의 레이어간 모션 예측 방법
KR10-2007-0001587 2007-01-05
PCT/KR2007/000146 WO2007081138A1 (en) 2006-01-09 2007-01-09 Inter-layer prediction method for video signal

Publications (2)

Publication Number Publication Date
JP2009522981A true JP2009522981A (ja) 2009-06-11
JP4991761B2 JP4991761B2 (ja) 2012-08-01

Family

ID=39684465

Family Applications (9)

Application Number Title Priority Date Filing Date
JP2008550227A Expired - Fee Related JP4991758B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
JP2008550231A Expired - Fee Related JP4991762B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法及び装置
JP2008550225A Expired - Fee Related JP4991756B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
JP2008550229A Expired - Fee Related JP4991760B2 (ja) 2006-01-09 2007-01-09 映像信号の層間予測方法
JP2008550228A Expired - Fee Related JP4991759B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
JP2008550224A Active JP5106419B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法及び装置
JP2008550232A Expired - Fee Related JP4991763B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
JP2008550230A Expired - Fee Related JP4991761B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
JP2008550226A Expired - Fee Related JP4991757B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法

Family Applications Before (7)

Application Number Title Priority Date Filing Date
JP2008550227A Expired - Fee Related JP4991758B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
JP2008550231A Expired - Fee Related JP4991762B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法及び装置
JP2008550225A Expired - Fee Related JP4991756B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
JP2008550229A Expired - Fee Related JP4991760B2 (ja) 2006-01-09 2007-01-09 映像信号の層間予測方法
JP2008550228A Expired - Fee Related JP4991759B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法
JP2008550224A Active JP5106419B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法及び装置
JP2008550232A Expired - Fee Related JP4991763B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2008550226A Expired - Fee Related JP4991757B2 (ja) 2006-01-09 2007-01-09 映像信号のエンコーディング/デコーディング方法

Country Status (8)

Country Link
US (11) US8457201B2 (ja)
EP (9) EP1972152A4 (ja)
JP (9) JP4991758B2 (ja)
KR (11) KR100917206B1 (ja)
AU (1) AU2007205337B2 (ja)
CA (1) CA2636571C (ja)
HK (3) HK1128843A1 (ja)
WO (9) WO2007081140A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021182742A (ja) * 2012-10-01 2021-11-25 ジーイー ビデオ コンプレッション エルエルシー ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1574995A1 (en) * 2004-03-12 2005-09-14 Thomson Licensing S.A. Method for encoding interlaced digital video data
JP4991758B2 (ja) 2006-01-09 2012-08-01 エルジー エレクトロニクス インコーポレイティド 映像信号のエンコーディング/デコーディング方法
KR101352978B1 (ko) * 2006-01-16 2014-01-28 고려대학교 산학협력단 향상된 계층간 참조 영상 지정, 복호 방법 및 그 장치
KR100809296B1 (ko) * 2006-02-22 2008-03-04 삼성전자주식회사 타입이 일치하지 않는 하위 계층의 정보를 사용하여인터레이스 비디오 신호를 인코딩/디코딩 하는 방법 및장치
FR2907630A1 (fr) * 2006-10-19 2008-04-25 Thomson Licensing Sas Dispositif et procede de codage sous forme scalable d'une sequence d'images et dispositif et procede de decodage correspondants
US8548056B2 (en) * 2007-01-08 2013-10-01 Qualcomm Incorporated Extended inter-layer coding for spatial scability
RU2426267C2 (ru) 2007-01-08 2011-08-10 Нокиа Корпорейшн Усовершенствованное межуровневое предсказание для расширенной пространственной масштабируемости при кодировании видеосигнала
KR100906243B1 (ko) * 2007-06-04 2009-07-07 전자부품연구원 Rgb 색 공간 신호의 영상 부호화 방법
US8170121B2 (en) * 2007-11-13 2012-05-01 Harmonic Inc. H.264/AVC based approach to scalable video compression
US8126054B2 (en) * 2008-01-09 2012-02-28 Motorola Mobility, Inc. Method and apparatus for highly scalable intraframe video coding
US8542732B1 (en) * 2008-12-23 2013-09-24 Elemental Technologies, Inc. Video encoder using GPU
KR20100095992A (ko) 2009-02-23 2010-09-01 한국과학기술원 비디오 부호화에서의 분할 블록 부호화 방법, 비디오 복호화에서의 분할 블록 복호화 방법 및 이를 구현하는 기록매체
JP2011066844A (ja) * 2009-09-18 2011-03-31 Toshiba Corp 並列復号装置及びプログラム並びに符号化データの並列復号方法
US9621892B2 (en) * 2009-12-18 2017-04-11 Sony Corporation Emulation of Bi predicted pictures using adjacent pictures for improved video
WO2011081637A1 (en) * 2009-12-31 2011-07-07 Thomson Licensing Methods and apparatus for adaptive coupled pre-processing and post-processing filters for video encoding and decoding
CN103237901B (zh) 2010-03-01 2016-08-03 卡里斯生命科学瑞士控股有限责任公司 用于治疗诊断的生物标志物
EP2368419B1 (en) * 2010-03-23 2016-08-10 CLAAS E-Systems KGaA mbH & Co KG A method of detecting a structure in a field, a method of steering an agricultural vehicle and an agricultural vehicle
JP5522252B2 (ja) * 2010-03-30 2014-06-18 富士通株式会社 画像処理装置および画像処理方法
TWI416961B (zh) * 2010-04-02 2013-11-21 Univ Nat Chiao Tung 用於可調式視訊編碼系統之選擇性移動向量預測方法、移動估測方法及其裝置
WO2011127219A1 (en) 2010-04-06 2011-10-13 Caris Life Sciences Luxembourg Holdings Circulating biomarkers for disease
CN106060561B (zh) 2010-04-13 2019-06-28 Ge视频压缩有限责任公司 解码器、重建数组的方法、编码器、编码方法及数据流
CN106231332B (zh) 2010-04-13 2020-04-14 Ge视频压缩有限责任公司 解码器、解码方法、编码器以及编码方法
CN105959703B (zh) 2010-04-13 2019-06-04 Ge视频压缩有限责任公司 解码器、编码器、生成数据流的方法及解码数据流的方法
EP3490257B1 (en) 2010-04-13 2024-01-10 GE Video Compression, LLC Sample region merging
US10395125B2 (en) * 2016-10-06 2019-08-27 Smr Patents S.A.R.L. Object detection and classification with fourier fans
WO2012096157A1 (ja) * 2011-01-12 2012-07-19 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
JP5616984B2 (ja) 2011-01-26 2014-10-29 株式会社日立製作所 画像復号化装置
US8681866B1 (en) 2011-04-28 2014-03-25 Google Inc. Method and apparatus for encoding video by downsampling frame resolution
US9106787B1 (en) 2011-05-09 2015-08-11 Google Inc. Apparatus and method for media transmission bandwidth control using bandwidth estimation
AU2012267006B8 (en) * 2011-06-10 2015-10-29 Hfi Innovation Inc. Method and apparatus of scalable video coding
CN108337521B (zh) 2011-06-15 2022-07-19 韩国电子通信研究院 存储由可伸缩编码方法生成的比特流的计算机记录介质
WO2012173440A2 (ko) * 2011-06-15 2012-12-20 한국전자통신연구원 스케일러블 비디오 코딩 및 디코딩 방법과 이를 이용한 장치
EP2544142A1 (en) * 2011-07-08 2013-01-09 Thomson Licensing Method for watermark detection using reference blocks comparison
JP5830993B2 (ja) * 2011-07-14 2015-12-09 ソニー株式会社 画像処理装置及び画像処理方法
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US9521418B2 (en) 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US20130028324A1 (en) * 2011-07-29 2013-01-31 National Chiao Tung University Method and device for decoding a scalable video signal utilizing an inter-layer prediction
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
KR20130049524A (ko) * 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
US9485503B2 (en) * 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
US20130195186A1 (en) * 2012-02-01 2013-08-01 Futurewei Technologies, Inc. Scalable Video Coding Extensions for High Efficiency Video Coding
WO2013133639A1 (ko) * 2012-03-09 2013-09-12 엘지전자 주식회사 인터 레이어 예측 방법 및 이를 이용하는 장치
KR20130107861A (ko) * 2012-03-23 2013-10-02 한국전자통신연구원 인터 레이어 인트라 예측 방법 및 장치
DK3051824T3 (da) 2012-04-12 2020-05-11 Velos Media Int Ltd Håndtering af udvidelsesdata
US9491458B2 (en) * 2012-04-12 2016-11-08 Qualcomm Incorporated Scalable video coding prediction with non-causal information
CN104641647B (zh) 2012-04-13 2018-05-04 Ge视频压缩有限责任公司 低延迟图像写码
US9185429B1 (en) 2012-04-30 2015-11-10 Google Inc. Video encoding and decoding using un-equal error protection
TWI584637B (zh) 2012-06-29 2017-05-21 Ge影像壓縮有限公司 視訊資料串流概念技術
KR20150029745A (ko) 2012-07-09 2015-03-18 브이아이디 스케일, 인크. 멀티 레이어 비디오 코딩용 코덱 아키텍처
KR20140016823A (ko) * 2012-07-24 2014-02-10 한국전자통신연구원 영상의 복호화 방법 및 이를 이용하는 장치
US9386306B2 (en) * 2012-08-15 2016-07-05 Qualcomm Incorporated Enhancement layer scan order derivation for scalable video coding
WO2014029261A1 (en) * 2012-08-23 2014-02-27 Mediatek Inc. Method and apparatus of interlayer texture prediction
UA111797C2 (uk) * 2012-09-27 2016-06-10 Долбі Лабораторіс Лайсензін Корпорейшн Обробка міжрівневого еталонного зображення для масштабованості стандартів кодування
WO2014049196A1 (en) * 2012-09-27 2014-04-03 Nokia Corporation Method and techniqal equipment for scalable video coding
US9998755B2 (en) 2012-10-03 2018-06-12 Mediatek Inc. Method and apparatus for motion information inheritance in three-dimensional video coding
US20140098880A1 (en) * 2012-10-05 2014-04-10 Qualcomm Incorporated Prediction mode information upsampling for scalable video coding
US10375405B2 (en) * 2012-10-05 2019-08-06 Qualcomm Incorporated Motion field upsampling for scalable coding based on high efficiency video coding
US10178400B2 (en) * 2012-11-21 2019-01-08 Dolby International Ab Signaling scalability information in a parameter set
WO2014080630A1 (en) * 2012-11-21 2014-05-30 Sharp Kabushiki Kaisha Signaling scalability information in a parameter set
US9247256B2 (en) 2012-12-19 2016-01-26 Intel Corporation Prediction method using skip check module
US20140218473A1 (en) * 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding
US10321130B2 (en) * 2013-01-07 2019-06-11 Vid Scale, Inc. Enhanced deblocking filters for video coding
US20140192881A1 (en) * 2013-01-07 2014-07-10 Sony Corporation Video processing system with temporal prediction mechanism and method of operation thereof
US9826244B2 (en) * 2013-01-08 2017-11-21 Qualcomm Incorporated Device and method for scalable coding of video information based on high efficiency video coding
US9172740B1 (en) 2013-01-15 2015-10-27 Google Inc. Adjustable buffer remote access
US20140198846A1 (en) * 2013-01-16 2014-07-17 Qualcomm Incorporated Device and method for scalable coding of video information
US9311692B1 (en) 2013-01-25 2016-04-12 Google Inc. Scalable buffer remote access
US9225979B1 (en) 2013-01-30 2015-12-29 Google Inc. Remote access encoding
EP3550839B1 (en) * 2013-03-21 2020-09-09 Sony Corporation Image encoding device and method
KR20140121315A (ko) 2013-04-04 2014-10-15 한국전자통신연구원 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치
KR20140122193A (ko) * 2013-04-05 2014-10-17 삼성전자주식회사 현재 영상이 참조 영상이 되는지 여부를 결정하는 방법과 그 장치
US10045041B2 (en) * 2013-04-05 2018-08-07 Intel Corporation Techniques for inter-layer residual prediction
US9762920B2 (en) * 2013-06-07 2017-09-12 Qualcomm Incorporated Dynamic range control of intermediate data in resampling process
US20150016502A1 (en) * 2013-07-15 2015-01-15 Qualcomm Incorporated Device and method for scalable coding of video information
KR20150009424A (ko) 2013-07-15 2015-01-26 한국전자통신연구원 시간적 서브 레이어 정보에 기반한 계층간 예측을 이용한 영상 부, 복호화 방법 및 그 장치
US9111336B2 (en) 2013-09-19 2015-08-18 At&T Intellectual Property I, Lp Method and apparatus for image filtering
US20150085915A1 (en) * 2013-09-25 2015-03-26 Jay C.-C. Kuo Method and system for automatically encoding video with uniform throughput
US10003818B2 (en) 2013-10-11 2018-06-19 Sony Corporation Video coding system with intra prediction mechanism and method of operation thereof
US10009629B2 (en) 2013-10-11 2018-06-26 Sony Corporation Video coding system with search range and method of operation thereof
WO2015060614A1 (ko) 2013-10-22 2015-04-30 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
RU2630888C1 (ru) * 2013-11-14 2017-09-13 ЭйджЭфАй Инновэйшн Инк. Способ видеокодирования с использованием предсказания на основании копии внутрикадрового блока
US10537481B2 (en) 2015-03-18 2020-01-21 The Procter & Gamble Company Absorbent article with waist gasketing element and leg cuffs
US20170094288A1 (en) * 2015-09-25 2017-03-30 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US10368083B2 (en) * 2016-02-15 2019-07-30 Qualcomm Incorporated Picture order count based motion vector pruning
ITUA20164779A1 (it) * 2016-06-30 2017-12-30 Octo Telematics Spa Metodo di trasmissione dati fra un dispositivo di bordo atto ad acquisire dati relativi a parametri di moto e/o di guida di un veicolo ed una centrale remota di elaborazione
US10726872B1 (en) 2017-08-30 2020-07-28 Snap Inc. Advanced video editing techniques using sampling patterns
US11318412B2 (en) 2018-12-22 2022-05-03 Air Liquide Advanced Technologies U.S. Llc Gas separation membrane module with membrane elements arranged in series
GB2618718B (en) * 2019-03-20 2024-03-13 V Nova Int Ltd Low complexity enhancement video coding
JPWO2020250599A1 (ja) * 2019-06-12 2020-12-17
US11539957B2 (en) * 2019-06-20 2022-12-27 Tencent America LLC Layered random access with reference picture resampling
CN114710663A (zh) * 2019-09-20 2022-07-05 杭州海康威视数字技术股份有限公司 一种解码、编码方法、装置及其设备
US20220385888A1 (en) * 2019-09-20 2022-12-01 Electronics And Telecommunications Research Institute Image encoding/decoding method and device, and recording medium storing bitstream
CN112106362A (zh) * 2019-09-30 2020-12-18 深圳市大疆创新科技有限公司 可移动平台的图像处理方法、装置、可移动平台及介质
TWI774124B (zh) * 2019-11-15 2022-08-11 寰發股份有限公司 用於編解碼360度虛擬實境視訊序列的方法和裝置
US20220408114A1 (en) * 2019-11-22 2022-12-22 Sharp Kabushiki Kaisha Systems and methods for signaling tiles and slices in video coding
JP2023524000A (ja) * 2020-05-19 2023-06-08 グーグル エルエルシー 品質正規化ビデオコード変換のための動的パラメータ選択

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162870A (ja) * 1993-09-21 1995-06-23 At & T Corp ビデオ信号符号化装置
JP2006191576A (ja) * 2005-01-04 2006-07-20 Samsung Electronics Co Ltd イントラblモードを考慮したデブロックフィルタリング方法、及び該方法を用いる多階層ビデオエンコーダ/デコーダ
JP2009522890A (ja) * 2006-01-05 2009-06-11 トムソン ライセンシング インターレイヤ動き予測方法

Family Cites Families (135)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US73215A (en) * 1868-01-07 Improvement in water-wheels
US268991A (en) * 1882-12-12 boone
US96620A (en) * 1869-11-09 Improved axle-skein
US13195A (en) * 1855-07-03 Improvement in sewing-machines
US220190A (en) * 1879-09-30 Improvement in gas or fluid regulators for heaters
GB9022326D0 (en) * 1990-10-15 1990-11-28 British Telecomm Signal coding
JP3545000B2 (ja) 1992-11-02 2004-07-21 ソニー株式会社 画像信号符号化装置、画像信号復号化装置
AU5632394A (en) * 1993-03-05 1994-09-08 Sony Corporation Apparatus and method for reproducing a prediction-encoded video signal
US5821986A (en) * 1994-11-03 1998-10-13 Picturetel Corporation Method and apparatus for visual communications in a scalable network environment
US5731840A (en) * 1995-03-10 1998-03-24 Kabushiki Kaisha Toshiba Video coding/decoding apparatus which transmits different accuracy prediction levels
US6023301A (en) * 1995-07-14 2000-02-08 Sharp Kabushiki Kaisha Video coding device and video decoding device
CZ295348B6 (cs) * 1995-12-11 2005-07-13 R. Berchtold Ag Uzamykací zařízení s cylindrickým zámkem a plochým klíčem
US6957350B1 (en) 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
KR970078657A (ko) * 1996-05-20 1997-12-12 구자홍 비디오 데이타 압축 장치
US6292591B1 (en) * 1996-07-17 2001-09-18 Sony Coporation Image coding and decoding using mapping coefficients corresponding to class information of pixel blocks
US6041361A (en) * 1996-10-31 2000-03-21 Sensormatic Electronics Corporation Digital video recorder providing separate pipelining for odd and even fields from a single camera
US6173013B1 (en) 1996-11-08 2001-01-09 Sony Corporation Method and apparatus for encoding enhancement and base layer image signals using a predicted image signal
JP2001160971A (ja) 1996-11-12 2001-06-12 Matsushita Electric Ind Co Ltd デジタル画像符号化方法及びデジタル画像符号化装置,デジタル画像復号化方法及びデジタル画像復号化装置,並びにデータ記憶媒体
FR2757330B1 (fr) * 1996-12-18 1999-01-15 Commissariat Energie Atomique Procede de transmission d'informations par reponse impulsionnelle et recepteur correspondant
JP3301375B2 (ja) * 1997-01-24 2002-07-15 ソニー株式会社 画像信号符号化装置及び方法、画像信号復号装置及び方法
US5991447A (en) * 1997-03-07 1999-11-23 General Instrument Corporation Prediction and coding of bi-directionally predicted video object planes for interlaced digital video
JPH10271509A (ja) 1997-03-26 1998-10-09 Sharp Corp 画像符号化装置及び画像復号装置
US6148027A (en) 1997-05-30 2000-11-14 Sarnoff Corporation Method and apparatus for performing hierarchical motion estimation using nonlinear pyramid
US6057884A (en) * 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
KR100244769B1 (ko) * 1997-06-26 2000-02-15 전주범 스케일러빌리티를 갖는 간 윤곽선 부호화 방법 및 장치
KR100251051B1 (ko) * 1997-07-14 2000-04-15 윤종용 임의 형상 부호화 방법
KR100244290B1 (ko) * 1997-09-09 2000-02-01 구자홍 저속 전송에서의 동영상을 위한 디블록킹 필터링 방법
JP3884172B2 (ja) * 1997-10-02 2007-02-21 株式会社東芝 可変長復号化装置および復号化方法
US6332002B1 (en) * 1997-11-01 2001-12-18 Lg Electronics Inc. Motion prediction apparatus and method
RU2201654C2 (ru) 1997-12-23 2003-03-27 Томсон Лайсенсинг С.А. Способ низкошумового кодирования и декодирования
KR100281462B1 (ko) 1998-03-30 2001-02-01 전주범 격행 부호화에서 이진 형상 신호의 움직임 벡터 부호화 방법
JP2000013790A (ja) 1998-06-19 2000-01-14 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
JP2000036963A (ja) * 1998-07-17 2000-02-02 Sony Corp 画像符号化装置、画像符号化方法および画像復号化装置
JP2000059793A (ja) * 1998-08-07 2000-02-25 Sony Corp 画像復号装置及び画像復号方法
US6603883B1 (en) 1998-09-08 2003-08-05 Canon Kabushiki Kaisha Image processing apparatus including an image data encoder having at least two scalability modes and method therefor
US6445828B1 (en) * 1998-09-28 2002-09-03 Thomson Licensing S.A. Transform domain resizing of an image compressed with field encoded blocks
US6295089B1 (en) * 1999-03-30 2001-09-25 Sony Corporation Unsampled hd MPEG video and half-pel motion compensation
US6993076B1 (en) 1999-05-11 2006-01-31 Thomson Licensing S.A. Apparatus and method for deriving an enhanced decoded reduced-resolution video signal from a coded high-definition video signal
JP2001008214A (ja) 1999-06-18 2001-01-12 Matsushita Electric Ind Co Ltd 映像信号階層化符号化装置および映像信号階層化復号化装置
US6788740B1 (en) * 1999-10-01 2004-09-07 Koninklijke Philips Electronics N.V. System and method for encoding and decoding enhancement layer data using base layer quantization data
US6639943B1 (en) 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
US6614936B1 (en) 1999-12-03 2003-09-02 Microsoft Corporation System and method for robust video coding using progressive fine-granularity scalable (PFGS) coding
JP2001198740A (ja) 2000-01-19 2001-07-24 Matsushita Electric Ind Co Ltd 導電性ボールの移載装置
JP2001298740A (ja) 2000-04-17 2001-10-26 Victor Co Of Japan Ltd 映像信号符号化装置及びその方法
US6647061B1 (en) 2000-06-09 2003-11-11 General Instrument Corporation Video size conversion and transcoding from MPEG-2 to MPEG-4
US7471834B2 (en) 2000-07-24 2008-12-30 Vmark, Inc. Rapid production of reduced-size images from compressed video streams
FI120125B (fi) * 2000-08-21 2009-06-30 Nokia Corp Kuvankoodaus
KR100356374B1 (ko) 2000-09-14 2002-10-19 사회복지법인삼성생명공익재단(삼성서울병원) 안지오텐신 전환효소 억제제의 부작용으로 발생하는마른기침을 저해하기 위한 철분을 포함하는 기침 저해조성물
US6961383B1 (en) 2000-11-22 2005-11-01 At&T Corp. Scalable video encoder/decoder with drift control
WO2002043394A2 (en) 2000-11-23 2002-05-30 Koninklijke Philips Electronics N.V. Video coding method and corresponding encoder
US6907070B2 (en) 2000-12-15 2005-06-14 Microsoft Corporation Drifting reduction and macroblock-based control in progressive fine granularity scalable video coding
US20020118742A1 (en) * 2001-02-26 2002-08-29 Philips Electronics North America Corporation. Prediction structures for enhancement layer in fine granular scalability video coding
US7929610B2 (en) 2001-03-26 2011-04-19 Sharp Kabushiki Kaisha Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
JP2003018595A (ja) 2001-07-03 2003-01-17 Matsushita Electric Ind Co Ltd 映像符号化装置、映像復号化装置、映像符号化方法、映像復号化方法
US6975680B2 (en) * 2001-07-12 2005-12-13 Dolby Laboratories, Inc. Macroblock mode decision biasing for video compression systems
US9042445B2 (en) * 2001-09-24 2015-05-26 Broadcom Corporation Method for deblocking field-frame video
ES2754625T3 (es) * 2001-11-29 2020-04-20 Godo Kaisha Ip Bridge 1 Método de extracción de distorsión de codificación
FR2834178A1 (fr) * 2001-12-20 2003-06-27 Koninkl Philips Electronics Nv Procede de decodage de signaux video codes
US7317759B1 (en) 2002-02-28 2008-01-08 Carnegie Mellon University System and methods for video compression mode decisions
KR100931750B1 (ko) * 2002-04-19 2009-12-14 파나소닉 주식회사 움직임 벡터 계산방법
US6914938B2 (en) * 2002-06-18 2005-07-05 Motorola, Inc. Interlaced video motion estimation
JP3878591B2 (ja) 2002-11-01 2007-02-07 松下電器産業株式会社 動画像符号化方法および動画像復号化方法
US7447264B2 (en) 2002-11-07 2008-11-04 Victor Company Of Japan, Ltd. Moving-picture temporal scalable coding method, coding apparatus, decoding method, decoding apparatus, and computer program therefor
CA2473898C (en) 2002-11-25 2013-02-12 Matsushita Electric Industrial Co., Ltd. Moving picture coding method and moving picture decoding method
KR100534207B1 (ko) * 2002-12-09 2005-12-08 삼성전자주식회사 비디오 부호화기의 움직임 추정기 및 그 방법
US7092442B2 (en) 2002-12-19 2006-08-15 Mitsubishi Electric Research Laboratories, Inc. System and method for adaptive field and frame video encoding using motion activity
KR100510670B1 (ko) 2003-01-08 2005-08-31 엘지전자 주식회사 디인터레이싱 장치
KR20040070490A (ko) 2003-02-03 2004-08-11 삼성전자주식회사 비월 주사 방식의 동영상 부호화/복호화 방법 및 그 장치
CN1204753C (zh) 2003-05-19 2005-06-01 北京工业大学 基于相邻像素预测的帧内预测方法
US7738554B2 (en) 2003-07-18 2010-06-15 Microsoft Corporation DC coefficient signaling at small quantization step sizes
US7010044B2 (en) 2003-07-18 2006-03-07 Lsi Logic Corporation Intra 4×4 modes 3, 7 and 8 availability determination intra estimation and compensation
US8094720B2 (en) * 2003-08-25 2012-01-10 Agency For Science Technology And Research Mode decision for inter prediction in video coding
US7724827B2 (en) 2003-09-07 2010-05-25 Microsoft Corporation Multi-layer run level encoding and decoding
US7286710B2 (en) * 2003-10-01 2007-10-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Coding of a syntax element contained in a pre-coded video signal
JP2005123732A (ja) 2003-10-14 2005-05-12 Matsushita Electric Ind Co Ltd デブロックフィルタ処理装置およびデブロックフィルタ処理方法
US7650036B2 (en) 2003-10-16 2010-01-19 Sharp Laboratories Of America, Inc. System and method for three-dimensional video coding
US8982945B2 (en) * 2003-11-04 2015-03-17 Stmicroelectronics Asia Pacific Pte. Ltd. Apparatus, method, and computer program for encoding video information using a variable bit-rate
US7379608B2 (en) * 2003-12-04 2008-05-27 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung, E.V. Arithmetic coding for transforming video and picture data units
US7599435B2 (en) 2004-01-30 2009-10-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Video frame encoding and decoding
US8948263B2 (en) 2004-02-03 2015-02-03 Broadcom Corporation Read/write separation in video request manager
KR100994773B1 (ko) 2004-03-29 2010-11-16 삼성전자주식회사 계층적 움직임 추정에 있어서 움직임 벡터 생성 방법 및장치
KR100631777B1 (ko) * 2004-03-31 2006-10-12 삼성전자주식회사 다 계층의 모션 벡터를 효율적으로 압축하는 방법 및 장치
EP1585061A1 (en) 2004-04-07 2005-10-12 Deutsche Thomson-Brandt Gmbh Block adaptive predictive coding
US8090028B2 (en) * 2004-05-21 2012-01-03 Broadcom Corporation Video deblocking memory utilization
US7680351B2 (en) * 2004-05-21 2010-03-16 Broadcom Corporation Video deblocking method and apparatus
KR100644618B1 (ko) * 2004-07-02 2006-11-10 삼성전자주식회사 블록 단위로 부호화된 영상의 블록경계에서의 불연속성제거필터 및 방법
CN1268136C (zh) 2004-07-02 2006-08-02 上海广电(集团)有限公司中央研究院 基于图像切片结构的帧场自适应编码方法
KR100598980B1 (ko) * 2004-09-17 2006-07-12 주식회사 하이닉스반도체 다이폴 노광 장치에서의 수직 패턴의 레이아웃
EP1800494A1 (en) 2004-10-13 2007-06-27 Thomson Licensing Method and apparatus for complexity scalable video encoding and decoding
KR100679022B1 (ko) * 2004-10-18 2007-02-05 삼성전자주식회사 계층간 필터링을 이용한 비디오 코딩 및 디코딩방법과,비디오 인코더 및 디코더
KR100703740B1 (ko) 2004-10-21 2007-04-05 삼성전자주식회사 다 계층 기반의 모션 벡터를 효율적으로 부호화하는 방법및 장치
KR100647295B1 (ko) 2004-11-10 2006-11-23 삼성전자주식회사 비디오 디코더에서의 인접 정보 처리 장치 및 방법과 그방법을 수행하기 위한 프로그램이 저장된 기록 매체
US7778480B2 (en) 2004-11-23 2010-08-17 Stmicroelectronics Asia Pacific Pte. Ltd. Block filtering system for reducing artifacts and method
KR100679031B1 (ko) * 2004-12-03 2007-02-05 삼성전자주식회사 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치
KR100888963B1 (ko) 2004-12-06 2009-03-17 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법
KR100843196B1 (ko) * 2004-12-17 2008-07-02 삼성전자주식회사 H.264/avc 비디오 디코더의 디블록킹 필터
KR100679035B1 (ko) 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
KR100703745B1 (ko) * 2005-01-21 2007-04-05 삼성전자주식회사 비동기 프레임을 효율적으로 예측하는 비디오 코딩 방법 및장치
KR100695141B1 (ko) * 2005-02-15 2007-03-14 삼성전자주식회사 영상처리시스템에 있어서 메모리 억세스장치 및 방법, 데이터 기록장치 및 방법과 데이터 독출장치 및 방법
US20080267291A1 (en) * 2005-02-18 2008-10-30 Joseph J. Laks Thomson Licensing Llc Method for Deriving Coding Information for High Resolution Images from Low Resolution Images and Coding and Decoding Devices Implementing Said Method
EP1849303A2 (en) 2005-02-18 2007-10-31 THOMSON Licensing Method for deriving coding information for high resolution pictures from low resolution pictures
US20060198439A1 (en) * 2005-03-01 2006-09-07 Qin-Fan Zhu Method and system for mode decision in a video encoder
JP4502203B2 (ja) 2005-03-17 2010-07-14 ルネサスエレクトロニクス株式会社 画像符号化装置、及び画像復号化装置
US7961963B2 (en) * 2005-03-18 2011-06-14 Sharp Laboratories Of America, Inc. Methods and systems for extended spatial scalability with picture-level adaptation
US20060222251A1 (en) * 2005-04-01 2006-10-05 Bo Zhang Method and system for frame/field coding
US7876833B2 (en) * 2005-04-11 2011-01-25 Sharp Laboratories Of America, Inc. Method and apparatus for adaptive up-scaling for spatially scalable coding
TW200704202A (en) * 2005-04-12 2007-01-16 Nokia Corp Method and system for motion compensated fine granularity scalable video coding with drift control
WO2006129184A1 (en) * 2005-06-03 2006-12-07 Nokia Corporation Residual prediction mode in scalable video coding
KR100703788B1 (ko) * 2005-06-10 2007-04-06 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
US20060291743A1 (en) 2005-06-24 2006-12-28 Suketu Partiwala Configurable motion compensation unit
KR100678958B1 (ko) * 2005-07-29 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
US7617436B2 (en) * 2005-08-02 2009-11-10 Nokia Corporation Method, device, and system for forward channel error recovery in video sequence transmission over packet-based network
US8208540B2 (en) * 2005-08-05 2012-06-26 Lsi Corporation Video bitstream transcoding method and apparatus
US8155194B2 (en) * 2005-08-05 2012-04-10 Lsi Corporation Method and apparatus for MPEG-2 to H.264 video transcoding
US8045618B2 (en) 2005-08-05 2011-10-25 Lsi Corporation Method and apparatus for MPEG-2 to VC-1 video transcoding
CN100405851C (zh) 2005-11-18 2008-07-23 宁波中科集成电路设计中心有限公司 多模标准解码器中运动矢量预测复用设计方法
JP4991758B2 (ja) 2006-01-09 2012-08-01 エルジー エレクトロニクス インコーポレイティド 映像信号のエンコーディング/デコーディング方法
KR20070074453A (ko) 2006-01-09 2007-07-12 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
WO2007081176A1 (en) * 2006-01-12 2007-07-19 Lg Electronics Inc. Processing multiview video
KR100772873B1 (ko) 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
FR2897213A1 (fr) * 2006-02-08 2007-08-10 Thomson Licensing Sas Procede de codage par blocs d'images d'une sequence d'images video
KR100809296B1 (ko) * 2006-02-22 2008-03-04 삼성전자주식회사 타입이 일치하지 않는 하위 계층의 정보를 사용하여인터레이스 비디오 신호를 인코딩/디코딩 하는 방법 및장치
KR100949979B1 (ko) 2006-03-30 2010-03-29 엘지전자 주식회사 비디오 신호를 디코딩/인코딩하기 위한 방법 및 장치
US7787830B2 (en) * 2006-05-30 2010-08-31 Jennic Limited Transceiver and method of operating an electrical circuit
US8379723B2 (en) 2006-06-27 2013-02-19 Intel Corporation Chroma motion vector processing apparatus, system, and method
EP1879399A1 (en) 2006-07-12 2008-01-16 THOMSON Licensing Method for deriving motion data for high resolution pictures from motion data of low resolution pictures and coding and decoding devices implementing said method
JP4763549B2 (ja) * 2006-08-18 2011-08-31 富士通セミコンダクター株式会社 フレーム間予測処理装置、画像符号化装置、及び画像復号化装置
US7876860B1 (en) * 2006-08-24 2011-01-25 Marvell International Ltd. Enhancements of soft decoders and detectors on asymmetric channels
US7991236B2 (en) * 2006-10-16 2011-08-02 Nokia Corporation Discardable lower layer adaptations in scalable video coding
US8046039B2 (en) 2006-10-20 2011-10-25 Lg Electronics Inc. Mobile terminal and case for mobile terminal
US8081680B2 (en) 2006-11-28 2011-12-20 Microsoft Corporation Selective inter-layer prediction in layered video coding
US20080159407A1 (en) * 2006-12-28 2008-07-03 Yang Nick Y Mechanism for a parallel processing in-loop deblock filter
EP2265026A1 (en) 2009-06-16 2010-12-22 Canon Kabushiki Kaisha Method and device for deblocking filtering of SVC type video streams during decoding
JP5253312B2 (ja) * 2009-07-16 2013-07-31 ルネサスエレクトロニクス株式会社 動画像処理装置およびその動作方法
US20110122950A1 (en) 2009-11-26 2011-05-26 Ji Tianying Video decoder and method for motion compensation for out-of-boundary pixels

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07162870A (ja) * 1993-09-21 1995-06-23 At & T Corp ビデオ信号符号化装置
JP2006191576A (ja) * 2005-01-04 2006-07-20 Samsung Electronics Co Ltd イントラblモードを考慮したデブロックフィルタリング方法、及び該方法を用いる多階層ビデオエンコーダ/デコーダ
JP2009522890A (ja) * 2006-01-05 2009-06-11 トムソン ライセンシング インターレイヤ動き予測方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021182742A (ja) * 2012-10-01 2021-11-25 ジーイー ビデオ コンプレッション エルエルシー ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化
US11575921B2 (en) 2012-10-01 2023-02-07 Ge Video Compression, Llc Scalable video coding using inter-layer prediction of spatial intra prediction parameters
US11589062B2 (en) 2012-10-01 2023-02-21 Ge Video Compression, Llc Scalable video coding using subblock-based coding of transform coefficient blocks in the enhancement layer
JP7323578B2 (ja) 2012-10-01 2023-08-08 ジーイー ビデオ コンプレッション エルエルシー ベース層からの予測のためのサブブロックのサブ分割の導出を使用するスケーラブルビデオ符号化

Also Published As

Publication number Publication date
US20090180537A1 (en) 2009-07-16
KR100914712B1 (ko) 2009-08-28
WO2007081140A1 (en) 2007-07-19
EP1977609A1 (en) 2008-10-08
JP4991759B2 (ja) 2012-08-01
US8264968B2 (en) 2012-09-11
US20100316124A1 (en) 2010-12-16
JP5106419B2 (ja) 2012-12-26
US8494060B2 (en) 2013-07-23
US8451899B2 (en) 2013-05-28
KR100917206B1 (ko) 2009-09-15
WO2007081138A1 (en) 2007-07-19
JP4991761B2 (ja) 2012-08-01
KR20080096509A (ko) 2008-10-30
EP1977608A1 (en) 2008-10-08
WO2007081136A1 (en) 2007-07-19
EP1972152A1 (en) 2008-09-24
US8619872B2 (en) 2013-12-31
KR20080092369A (ko) 2008-10-15
US20140161190A1 (en) 2014-06-12
EP1972153A1 (en) 2008-09-24
KR100917829B1 (ko) 2009-09-18
US20090220000A1 (en) 2009-09-03
EP1977610B1 (en) 2020-01-01
WO2007081137A1 (en) 2007-07-19
JP4991756B2 (ja) 2012-08-01
KR20080092371A (ko) 2008-10-15
US8401091B2 (en) 2013-03-19
US8345755B2 (en) 2013-01-01
KR20080092372A (ko) 2008-10-15
WO2007081134A1 (en) 2007-07-19
JP2009522976A (ja) 2009-06-11
KR100904442B1 (ko) 2009-06-24
JP2009522982A (ja) 2009-06-11
JP4991762B2 (ja) 2012-08-01
US8792554B2 (en) 2014-07-29
JP2009522980A (ja) 2009-06-11
EP1972154A4 (en) 2014-11-19
KR101055742B1 (ko) 2011-08-11
WO2007081135A1 (en) 2007-07-19
AU2007205337B2 (en) 2010-04-22
KR20080096507A (ko) 2008-10-30
KR20090016544A (ko) 2009-02-16
JP2009522983A (ja) 2009-06-11
HK1128843A1 (en) 2009-11-06
EP1977608B1 (en) 2020-01-01
KR20080092370A (ko) 2008-10-15
US20090147848A1 (en) 2009-06-11
US20090175359A1 (en) 2009-07-09
AU2007205337A1 (en) 2007-07-19
KR20090127166A (ko) 2009-12-09
HK1128571A1 (en) 2009-10-30
JP2009522977A (ja) 2009-06-11
EP1980114A4 (en) 2014-12-31
KR20080096508A (ko) 2008-10-30
US20090220008A1 (en) 2009-09-03
US20090213934A1 (en) 2009-08-27
WO2007081133A1 (en) 2007-07-19
KR100904441B1 (ko) 2009-06-26
WO2007081139A1 (en) 2007-07-19
EP1972153A4 (en) 2015-03-11
US8494042B2 (en) 2013-07-23
EP1977610A4 (en) 2015-03-18
JP4991763B2 (ja) 2012-08-01
CA2636571C (en) 2013-02-26
EP1980114A1 (en) 2008-10-15
EP1972152A4 (en) 2014-12-17
KR20080090423A (ko) 2008-10-08
JP4991760B2 (ja) 2012-08-01
CA2636571A1 (en) 2007-07-19
WO2007100187A1 (en) 2007-09-07
EP1977610A1 (en) 2008-10-08
US20090168875A1 (en) 2009-07-02
KR101055741B1 (ko) 2011-08-11
US20100061456A1 (en) 2010-03-11
JP2009522978A (ja) 2009-06-11
EP1972154A1 (en) 2008-09-24
EP1977609A4 (en) 2015-02-18
KR20090079988A (ko) 2009-07-22
JP2009522975A (ja) 2009-06-11
US8687688B2 (en) 2014-04-01
JP2009522979A (ja) 2009-06-11
EP1977607A4 (en) 2014-12-17
US8457201B2 (en) 2013-06-04
US9497453B2 (en) 2016-11-15
KR100914713B1 (ko) 2009-08-31
JP4991758B2 (ja) 2012-08-01
EP1977607A1 (en) 2008-10-08
JP4991757B2 (ja) 2012-08-01
HK1129013A1 (en) 2009-11-13
EP1977608A4 (en) 2014-12-24
KR100904443B1 (ko) 2009-06-26
EP1972155A4 (en) 2015-01-14
EP1972155A1 (en) 2008-09-24
US20100195714A1 (en) 2010-08-05

Similar Documents

Publication Publication Date Title
JP4991762B2 (ja) 映像信号のエンコーディング/デコーディング方法及び装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4991761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees