JPWO2011145601A1 - 画像処理装置と画像処理方法 - Google Patents

画像処理装置と画像処理方法 Download PDF

Info

Publication number
JPWO2011145601A1
JPWO2011145601A1 JP2012515888A JP2012515888A JPWO2011145601A1 JP WO2011145601 A1 JPWO2011145601 A1 JP WO2011145601A1 JP 2012515888 A JP2012515888 A JP 2012515888A JP 2012515888 A JP2012515888 A JP 2012515888A JP WO2011145601 A1 JPWO2011145601 A1 JP WO2011145601A1
Authority
JP
Japan
Prior art keywords
block
filter
unit
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012515888A
Other languages
English (en)
Inventor
佐藤 数史
数史 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2011145601A1 publication Critical patent/JPWO2011145601A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

デブロッキングフィルタ24は、ブロック毎に符号化された画像データを復号化して得られる復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行う。フィルタ設定部41は、隣接する2つのブロックにおける隣接側のブロックサイズの少なくとも一方が所定のブロックサイズより拡張されているとき、タップ長を拡張した長さに設定して歪みの除去強度を強くしたり、フィルタ処理対象画素範囲を拡張した範囲に設定する。拡張された大きさのマクロブロックが用いられたとき、平滑化の度合いが強くされたり、ブロック境界から遠くまでの画素がフィルタ対象とされるので、様々なブロックサイズを用いる場合、または拡張された大きさのブロックを用いる場合においても良好な画質の画像を得られるようになる。

Description

この技術は、画像処理装置と画像処理方法に関する。詳しくは、良好な画質の復号画像を得られるようにする。
近年、画像情報をディジタルとして取り扱い、その際、効率の高い情報の伝送、蓄積を行う装置、例えば離散コサイン変換等の直交変換と動き補償により圧縮するMPEGなどの方式に準拠した装置が、放送局や一般家庭において普及しつつある。
特に、MPEG2(ISO/IEC13818−2)は、汎用画像符号化方式として定義されており、プロフェッショナル用途およびコンシューマー用途の広範なアプリケーションに現在広く用いられている。このMPEG2圧縮方式を用いることにより、例えば720×480画素を持つ標準解像度の飛び越し走査画像であれば、4〜8Mbps符号量(ビットレート)を割り当てることで良好な画質の実現が可能である。また、1920×1088画素を持つ高解像度の飛び越し走査画像であれば18〜22Mbpsの符号量(ビットレート)を割り当てることで良好な画質の実現が可能である。
MPEG2は主として放送用に適合する高画質符号化を対象としていたが、MPEG1より低い符号量(ビットレート)、つまりより高い圧縮率の符号化方式には対応していなかった。携帯端末の普及により、今後そのような符号化方式のニーズは高まると思われ、これに対応してMPEG4符号化方式の標準化が行われた。画像符号化方式に関しては、1998年12月にISO/IEC14496−2としてその規格が国際標準に承認された。
さらに、近年、当初テレビ会議用の画像符号化を目的として、H.26L(ITU−T Q6/16 VCEG)という標準の規格化が進んでいる。H.26LはMPEG2やMPEG4といった従来の符号化方式に比べ、その符号化、復号化により多くの演算量が要求されるものの、より高い符号化効率が実現されることが知られている。また、現在、MPEG4の活動の一環として、このH.26Lをベースに、より高い符号化効率を実現する標準化がJoint Model of Enhanced-Compression Video Codingとして行われている。標準化のスケジュールとしては、2003年3月にはH.264およびMPEG−4 Part10 (Advanced Video Coding、以下「H.264/AVC」と記す)という名の下に国際標準となった。
さらに、その拡張として、RGBや4:2:2、4:4:4といった、業務用に必要な符号化ツールや、MPEG2で規定されていた8×8DCTや量子化マトリクスをも含んだFRExt(Fidelity Range Extension)の標準化が2005年2月に完了した。これにより、H.264/AVC方式を用いて、映画に含まれるフィルムノイズをも良好に表現することが可能な符号化方式となって、Blu−Ray(登録商標)等の幅広いアプリケーションに用いられる運びとなった。
このような符号化復号化処理では、ブロック単位で画像データの符号化が行われている。また、符号化データの復号化では、例えば特許文献1に示すように、ブロック境界強度や量子化パラメータを基にしてフィルタ処理を行うことブロック歪みを抑制することが行われている。
さらに、昨今、4000×2000画素程度の画像を圧縮したい、またはインターネットのような、限られた伝送容量の環境において、ハイビジョン画像を配信したいといった、さらなる高圧縮率符号化に対するニーズが高まっている。このため、非特許文献1のように、マクロブロックサイズを、MPEG2やH.264/AVCよりも大きい例えば32画素×32画素といった大きさにすることが提案されている。すなわち、非特許文献1では、マクロブロックについて階層構造を採用することにより、16×16画素ブロック以下に関しては、H.264/AVCにおけるマクロブロックと互換性を保ち、そのスーパーセットとして、より大きなブロックが定義されている。
特開2007−36463号公報
"Video Coding Using Extended Block"(Study Group16, Contribution 123, ITU, 2009年1月)
ところで、従来のデブロッキングフィルタでブロック歪みの除去を行う場合には、特に低いビットレートにおいてブロック歪みが大きくなり、ブロック歪みが十分に除去されなくなって画質の劣化を生じてしまうおそれがある。
そこで、本技術では、様々なブロックサイズを用いる場合、又は、拡張された大きさのブロックを用いる場合においても良好な画質の画像を得られる画像処理装置と画像処理方法を提供することを目的とする。
この技術の第1の側面は、ブロック毎に符号化された画像データを復号する復号部と、
前記復号部により復号された復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行うフィルタと、ブロック境界において隣接する隣接ブロックのブロックサイズに応じて、ブロック境界に対する前記フィルタ処理のタップ長又は前記フィルタ処理の処理対象となるフィルタ処理対象画素範囲を設定するフィルタ設定部と、を備える画像処理装置にある。
この技術では、ブロック毎に符号化された画像データを復号化して得られる復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行うフィルタと、フィルタの設定を行うフィルタ設定部が設けられる。フィルタ設定部では、例えばブロック境界において隣接する隣接ブロックの少なくとも一方が所定のブロックサイズより拡張されている場合に、ブロック境界に対するフィルタ処理のタップ長をブロックサイズが大きいほど長く設定する又はフィルタ処理の処理対象となるフィルタ処理対象画素範囲をブロックサイズが大きいほど広く設定する。また、隣接ブロックにおいて隣接する側のブロックサイズに応じて、フィルタ処理のタップ長又はフィルタ処理対象画素範囲が設定される。また、隣接ブロックのブロックサイズに対応したケース分類が行われて、隣接ブロックが共に所定ブロックサイズ以下のケースと、少なくとも一方が所定のブロックサイズより拡張されているケースに応じて、フィルタ処理のタップ長とフィルタ処理対象画素範囲が設定される。ケース分類では、例えば隣接ブロックが16×16画素以下である場合と、2つのブロックの少なくとも一方が16×16画素より大きいが両方とも32×32画素以下の場合と、2つのブロックの少なくとも一方が32×32画素より大きい場合に分類される。ブロックサイズは、イントラ予測又はインター予測を行う際の処理単位である予測ブロックサイズである。さらに、フィルタ設定部は、復号画像データが予測画像の生成のための画像データであるか、画像表示のための画像データであるかに応じて、タップ長又はフィルタ処理対象画素範囲の設定が行われる。
この技術の第2の側面は、ブロック毎に符号化された画像データを復号する復号工程と、前記復号工程において復号された復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行うフィルタ工程と、ブロック境界において隣接する隣接ブロックのブロックサイズに応じて、ブロック境界に対する前記フィルタ処理のタップ長又は前記フィルタ処理の処理対象となるフィルタ処理対象画素範囲を設定するフィルタ工程と、を有する画像処理方法にある。
この技術の第3の側面は、直交変換と量子化が行われた画像データがローカル復号された復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行うフィルタと、ブロック境界において隣接する隣接ブロックのブロックサイズに応じて、ブロック境界に対する前記フィルタ処理のタップ長又は前記フィルタ処理の処理対象となるフィルタ処理対象画素範囲を設定するフィルタ設定部と、前記フィルタによりフィルタ処理が行われた復号画像データを用いて、画像データブロック毎に符号化する符号化部と、を備える画像処理装置にある。
この技術の第4の側面は、直交変換と量子化が行われた画像データがローカル復号された復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行うフィルタ工程と、ブロック境界において隣接する隣接ブロックのブロックサイズに応じて、ブロック境界に対する前記フィルタ処理のタップ長又は前記フィルタ処理の処理対象となるフィルタ処理対象画素範囲を設定するフィルタ設定工程と、前記フィルタ工程においてフィルタ処理が行われた復号画像データを用いて、画像データブロック毎に符号化する符号化工程と、を有する画像処理方法にある。
この技術によれば、ブロック歪みが軽減された良好な画質の画像を得られるようになる。
画像符号化装置の構成を示す図である。 デブロッキングフィルタのフィルタ処理に用いる画素データを示した図である。 量子化パラメータQPと閾値αの関係を示す図である。 デブロッキングフィルタとフィルタ設定部の構成を示す図である。 画像符号化処理で用いる予測ブロックサイズを示す図である。 画像符号化処理動作を示すフローチャートである。 予測処理を示すフローチャートである。 イントラ予測処理を示すフローチャートである。 インター予測処理を示すフローチャートである。 フィルタ設定処理を示すフローチャートである。 画像復号化装置の構成を示している。 画像復号化処理動作を示すフローチャートである。 テレビジョン装置の概略構成を例示した図である。 携帯電話機の概略構成を例示した図である。 記録再生装置の概略構成を例示した図である。 撮像装置の概略構成を例示した図である。
以下、本技術を実施するための形態について説明する。本技術の画像処理装置は、予測ブロックサイズで画像データを符号化処理する画像符号化装置や、予測ブロックサイズで符号化が行われた画像データを復号化処理する画像復号化装置等に適用可能である。したがって、画像符号化装置に適用した場合と画像復号化装置に適用した場合について、以下の順序で説明する。
1.画像符号化装置の構成
2.デブロッキングフィルタのフィルタ処理について
3.画像符号化装置におけるデブロッキングフィルタの構成
4.画像符号化装置の動作
5.画像復号化装置の構成
6.画像復号化装置の動作
7.応用例
<1.画像符号化装置の構成>
図1は、画像符号化装置の構成を示している。画像符号化装置10は、アナログ/ディジタル変換部(A/D変換部)11、画面並び替えバッファ12、減算部13、直交変換部14、量子化部15、可逆符号化部16、蓄積バッファ17、レート制御部18を備えている。さらに、画像符号化装置10は、逆量子化部21、逆直交変換部22、加算部23、デブロッキングフィルタ24、フレームメモリ25、セレクタ26、イントラ予測部31、動き予測・補償部32、予測画像・最適モード選択部33を備えている。
A/D変換部11は、アナログの画像信号をディジタルの画像データに変換して画面並べ替えバッファ12に出力する。
画面並べ替えバッファ12は、A/D変換部11から出力された画像データに対してフレームの並べ替えを行う。画面並べ替えバッファ12は、符号化処理に係るGOP(Group of Pictures)構造に応じてフレームの並べ替えを行い、並べ替え後の画像データを減算部13とイントラ予測部31と動き予測・補償部32に出力する。
減算部13には、画面並べ替えバッファ12から出力された画像データと、後述する予測画像・最適モード選択部33で選択された予測画像データが供給される。減算部13は、画面並べ替えバッファ12から出力された画像データと予測画像・最適モード選択部33から供給された予測画像データとの差分である予測誤差データを算出して、直交変換部14に出力する。
直交変換部14は、減算部13から出力された予測誤差データに対して、離散コサイン変換(DCT;Discrete Cosine Transform)、カルーネン・レーベ変換等の直交変換処理を行う。直交変換部14は、直交変換処理を行うことにより得られた変換係数データを量子化部15に出力する。
量子化部15には、直交変換部14から出力された変換係数データと、後述するレート制御部18からレート制御信号が供給されている。量子化部15は変換係数データの量子化を行い、量子化データを可逆符号化部16と逆量子化部21に出力する。また、量子化部15は、レート制御部18からのレート制御信号に基づき量子化パラメータ(量子化スケール)を切り替えて、量子化データのビットレートを変化させる。
可逆符号化部16には、量子化部15から出力された量子化データと、後述するイントラ予測部31と動き予測・補償部32および予測画像・最適モード選択部33から予測モード情報が供給される。なお、予測モード情報には、イントラ予測またはインター予測に応じて、予測ブロックサイズを識別可能とするマクロブロックタイプ、予測モード、動きベクトル情報、参照ピクチャ情報等が含まれる。可逆符号化部16は、量子化データに対して例えば可変長符号化、または算術符号化等により可逆符号化処理を行い、符号化ストリームを生成して蓄積バッファ17に出力する。また、可逆符号化部16は、予測モード情報を可逆符号化して、符号化ストリームのヘッダ情報に付加する。
蓄積バッファ17は、可逆符号化部16からの符号化ストリームを蓄積する。また、蓄積バッファ17は、蓄積した符号化ストリームを伝送路に応じた伝送速度で出力する。
レート制御部18は、蓄積バッファ17の空き容量の監視を行い、空き容量に応じてレート制御信号を生成して量子化部15に出力する。レート制御部18は、例えば蓄積バッファ17から空き容量を示す情報を取得する。レート制御部18は空き容量が少なくなっているとき、レート制御信号によって量子化データのビットレートを低下させる。また、レート制御部18は蓄積バッファ17の空き容量が十分大きいとき、レート制御信号によって量子化データのビットレートを高くする。
逆量子化部21は、量子化部15から供給された量子化データの逆量子化処理を行う。逆量子化部21は、逆量子化処理を行うことで得られた変換係数データを逆直交変換部22に出力する。
逆直交変換部22は、逆量子化部21から供給された変換係数データの逆直交変換処理を行うことで得られたデータを加算部23に出力する。
加算部23は、逆直交変換部22から供給されたデータと予測画像・最適モード選択部33から供給された予測画像データを加算して復号画像データを生成して、デブロッキングフィルタ24とフレームメモリ25に出力する。
デブロッキングフィルタ24は、画像の符号化時に生じるブロック歪みを減少させるためのフィルタ処理を行う。デブロッキングフィルタ24は、加算部23から供給された復号画像データからブロック歪みを除去するフィルタ処理を行い、フィルタ処理後の復号画像データをフレームメモリ25に出力する。また、デブロッキングフィルタ24は、後述するフィルタ設定部41から供給されたパラメータ値に基づきタップ長とフィルタ処理対象画素範囲を設定する。
フレームメモリ25は、加算部23から供給された復号画像データとデブロッキングフィルタ24から供給されたフィルタ処理後の復号画像データとを保持する。
セレクタ26は、イントラ予測を行うためにフレームメモリ25から読み出されたフィルタ処理前の復号画像データをイントラ予測部31に供給する。また、セレクタ26は、インター予測を行うためフレームメモリ25から読み出されたフィルタ処理後の復号画像データを動き予測・補償部32に供給する。
イントラ予測部31は、画面並べ替えバッファ12から出力された符号化対象画像の画像データとフレームメモリ25から読み出したフィルタ処理前の復号画像データを用いて、候補となる全てのイントラ予測モードのイントラ予測処理を行う。さらに、イントラ予測部31は、各イントラ予測モードに対してコスト関数値を算出して、算出したコスト関数値が最小となるイントラ予測モード、すなわち符号化効率が最良となるイントラ予測モードを、最適イントラ予測モードとして選択する。イントラ予測部31は、最適イントラ予測モードで生成された予測画像データと最適イントラ予測モードに関する予測モード情報、および最適イントラ予測モードでのコスト関数値を予測画像・最適モード選択部33に出力する。また、イントラ予測部31は、後述するようにコスト関数値の算出で用いる発生符号量を得るため、各イントラ予測モードのイントラ予測処理において、イントラ予測モードに関する予測モード情報を可逆符号化部16に出力する。
動き予測・補償部32は、マクロブロックに対応する全ての予測ブロックサイズで動き予測・補償処理を行う。動き予測・補償部32は、画面並べ替えバッファ12から読み出された符号化対象画像における各予測ブロックサイズの画像毎に、フレームメモリ25から読み出されたフィルタ処理後の復号画像データを用いて動きベクトルを検出する。さらに、動き予測・補償部32は、検出した動きベクトルに基づいて復号画像に動き補償処理を施して予測画像の生成を行う。また、動き予測・補償部32は、各予測ブロックサイズに対してコスト関数値を算出して、算出したコスト関数値が最小となる予測ブロックサイズ、すなわち符号化効率が最良となる予測ブロックサイズを、最適インター予測モードとして選択する。動き予測・補償部32は、最適インター予測モードで生成された予測画像データと最適インター予測モードに関する予測モード情報、および最適インター予測モードでのコスト関数値を予測画像・最適モード選択部33に出力する。また、動き予測・補償部32は、コスト関数値の算出で用いる発生符号量を得るため、各予測ブロックサイズでのインター予測処理において、インター予測モードに関する予測モード情報を可逆符号化部16に出力する。なお、動き予測・補償部32は、インター予測モードとして、スキップドマクロブロックやダイレクトモードでの予測も行う。
予測画像・最適モード選択部33は、イントラ予測部31から供給されたコスト関数値と動き予測・補償部32から供給されたコスト関数値を、マクロブロック単位で比較して、コスト関数値が少ない方を、符号化効率が最良となる最適モードとして選択する。また、予測画像・最適モード選択部33は、最適モードで生成した予測画像データを減算部13と加算部23に出力する。さらに、予測画像・最適モード選択部33は、最適モードの予測モード情報を可逆符号化部16とフィルタ設定部41に出力する。なお、予測画像・最適モード選択部33は、スライス単位でイントラ予測またはインター予測を行う。
フィルタ設定部41は、最適モードの予測モード情報によって示された予測ブロックサイズに応じて、フィルタのタップ長とフィルタ処理対象画素範囲を設定するためのパラメータ値を生成してデブロッキングフィルタ24に出力する。
<2.デブロッキングフィルタのフィルタ処理について>
デブロッキングフィルタのフィルタ処理において、H264./AVCの符号化方式では、画像圧縮情報に含まれるPicture Parameter Set RBSPのdeblocking_filter_control_present_flagおよびSlice Headerに含まれるdisable_deblocking_filter_idcという2つのパラメータによって、
(a) ブロック境界、およびマクロブロック境界に施す
(b) Macroblock境界にのみ施す
(c) 施さない
の3通りを指定することが可能である。
量子化パラメータQPについては、以下の処理を輝度データに対して適用する場合は、QPYを、色差データに対して適用する場合はQPCを用いる。また、動きベクトル符号化、イントラ予測、エントロピー符号化(CAVLC/CABAC)においては、異なるスライスに属する画素値は“not available”として処理する。さらに、フィルタ処理においては、異なるスライスに属する画素値でも、同一のピクチャに属する場合は“available”であるとして処理を行う。
以下の説明では、隣接するブロックP,Qについて、ブロック境界におけるフィルタ処理前の画素データを、図2の(A)に示すように境界位置からp0〜p4,q0〜q4とする。また、処理後の画素データを、図2の(B)に示すように境界位置からp0’〜p4’,q0’〜q4’とする。
フィルタ処理に先立ち、図2における画素pおよび画素qに対して、表1に示すように、ブロック境界強度データBs(Boundary Strength)が定義される。
Figure 2011145601
表1に示すように、ブロック境界強度データBsは、画素pまたは画素qのいずれか一方がイントラ符号化されるマクロブロックMBに属し、且つ、当該画素がマクロブロックMBの境界に位置する場合に、最もフィルタ強度が高い「4」が割り当てられている。
ブロック境界強度データBsは、画素pまたは画素qのいずれか一方がイントラ符号化されるマクロブロックMBに属し、且つ、当該画素がマクロブロックMBの境界に位置しない場合に、「4」の次にフィルタ強度が高い「3」が割り当てられている。
ブロック境界強度データBsは、画素pおよび画素qの双方がイントラ符号化されるマクロブロックMBに属するものではなく、且つ、いずれかの画素が変換係数を持つ場合に、「3」の次にフィルタ強度が高い「2」が割り当てられている。
ブロック境界強度データBsは、画素pおよび画素qの双方がイントラ符号化されるマクロブロックMBに属するものではなく、且つ、いずれかの画素が変換係数を持たないという条件を場合に満たし、且つ、参照フレームが異なるか、参照フレームの枚数が異なるか、動きベクトルが異なるかのいずれかの条件を満たす場合に、「1」が割り当てられている。
ブロック境界強度データBsは、画素p,qの双方がイントラ符号化されるマクロブロックMBに属するものではなく、どちらの画素も変換係数を持たず、参照フレームおよび動きベクトルが同じ場合、「0」が割り当てられている。なお。「0」は、フィルタ処理を行わないことを意味する。
図2における(p2,p1,p0,q0,q1,q2)は、式(1)の条件が成立する場合のみ、フィルタ処理が施される。
Bs>0
|p0−q0|<α;|p1−p0|<β;|q1−q0|<β
・・・(1)
ここで、フィルタ強度すなわちフィルタのかかりやすさを調整するパラメータ値である閾値α,βは、デフォルトでは以下のように量子化パラメータQPに応じてその値が定められている。また、画像圧縮情報中のSlice Headerに含まれるslice_alpha_c0_offset_div2、およびslice_beta_offset_div2という2つのパラメータによって、ユーザがその強度を調整することが可能である。なお、図3は、量子化パラメータQPと閾値αの関係を示しており、量子化パラメータQPにオフセット量を加えると、量子化パラメータQPと閾値αの関係を示す曲線は矢印の方向に移動することから、フィルタ強度を調整することが明らかである。
また、隣接するブロックPとブロックQのそれぞれの量子化パラメータqPp,qPqを用いて式(2)〜(4)からindexAとindexBを算出して、表2に示すテーブルから閾値α,βを求める。
qPav=(qPp+qPq+1)>>1 ・・・(2)
indexA=Clip3(0,51,qPav+FilterOffsetA) ・・・(3)
indexB=Clip3(0,51,qPav+FilterOffsetB) ・・・(4)
Figure 2011145601
フィルタ処理は、「Bs<4」の場合と「Bs=4」の場合に対して異なる方法が定義されている。
先ず、「Bs<4」の場合を説明する。
デブロッキングフィルタは、式(5)〜(7)に示す演算を行って、フィルタ処理後の画素データp0’,q0’を算出する。
式(7)において、Clip3は、クリッピング処理を示す。
p0’=Clip1(p0+Δ) ・・・(5)
q0’=Clip1(q0+Δ) ・・・(6)
Δ=Clip3(−tc,tc((((q0−p0)<<2)+(p1−q1)+4)>>3)) ・・・(7)
デブロッキングフィルタは、式(7)の「tc」を、chromaEdgeFlagが「0」を示す場合に式(8)に基づいて算出し、それ以外の場合に式(9)に基づいて算出する。
式(8)において、「( )?1:0」は、( )内の条件を満たすと「1」、それ以外の場合は「0」を示す。
tc=tc0+((ap<β)?1:0)+(aq<β)?1:0) ・・・(8)
tc=tc0+1 ・・・(9)
このtcの値は、BsとindexAの値に応じて表3のように定義される。
Figure 2011145601
また、デブロッキングフィルタは、式(8)のap,aqを式(10)(11)にしたがって算出する。
ap=|p2−p0| ・・・(10)
aq=|q2−q0| ・・・(11)
デブロッキングフィルタは、フィルタ処理後の画素データp1’を、chromaEdgeFlagが「0」で、且つ、apが「β」以下である場合に式(12)に示す演算を行って算出し、それ以外の場合に式(13)により取得する。
p1’=p1+Clip3(-tc0,tc0,(p2+((p0+q0+1)>>1)−(p1<<1))>>1) ・・・(12)
p1’=p1 ・・・(13)
デブロッキングフィルタは、フィルタ処理後の画素データq1’を、chromaEdgeFlagが「0」で、且つ、aqが「β」以下である場合に式(14)に示す演算を行って算出し、それ以外の場合に式(15)により取得する。
q1’=q1+Clip3(-tc0,tc0,(q2+((p0+q0+1)>>1)−(q1<<1))>>1) ・・・(14)
q1’=q1 ・・・(15)
また、画素データp2'と画素データq2'はフィルタ前の値とする。
p2’=p2 ・・・(16)
q2’=q2 ・・・(17)
次に、「Bs=4」の場合を説明する。
デブロッキングフィルタは、chromaEdgeFlagが「0」を示し、且つ、式(18)の条件を満たす場合に、画素データp0’,p1’,p2’を式(19)〜(21)にしたがって算出する。
ap<β && |p0−q0|<((α>>2)+2) ・・・(18)
p0’=(p2+2・p1+2・p0+2・q0+q1+4)>>3 ・・・(19)
p1’=(p2+p1+p0+q0+2)>>2 ・・・(20)
p2’=(2・p3+3・p2+p1+p0+q0+4)>>3 ・・・(21)
デブロッキングフィルタは、chromaEdgeFlagが「0」を示し、且つ、式(18)の条件を満たさない場合に、画素データp0’,p1’,p2’を式(22)〜(24)にしたがって算出する。
p0’=(2・p1+p0+q1+2)>>2 ・・・(22)
p1’=p1 ・・・(23)
p2’=p2 ・・・(24)
デブロッキングフィルタは、chromaEdgeFlagが「0」を示し、且つ、式(25)の条件を満たす場合に、画素データq0’,q1’,q2’を式(26)〜(28)にしたがって算出する。
aq<β && |p0−q0|<((α>>2)+2) ・・・(25)
q0’=(p1+2・p0+2・q0+2・q1+q2+4)>>3 ・・・(26)
q1’=(p0+q0+q1+q2+2)>>2 ・・・(27)
q2’=(2・q3+3・q2+q1+q0+p4+4)>>3 ・・・(28)
デブロッキングフィルタは、chromaEdgeFlagが「0」を示し、且つ、式(25)の条件を満たさない場合に、画素データq0’,q1’,q2’を式(29)〜(31)にしたがって算出する。
q0’=(2・q1+q0+p1+2)>>2 ・・・(29)
q1’=q1 ・・・(30)
q2’=q2 ・・・(31)
このように、H264./AVCの符号化方式では、画素データp0〜p3,q0〜q3を用いてフィルタ処理を行い画素データp0’〜p2’,q0’〜q2’を算出する。
<3.画像符号化装置におけるデブロッキングフィルタとフィルタ設定部の構成>
フィルタ設定部41は、当該マクロブロックにおける最適モードの予測ブロックサイズに応じて、デブロッキングフィルタ24におけるタップ長とフィルタ処理対象画素範囲を設定する。
一般に、ブロック歪みは、ブロックサイズがより大きい場合の方が、人間の目につきやすい。また、より大きなブロックサイズは、あまりテクスチャ情報を含まないフラットな領域に対して選択されやすい。
したがって、フィルタ設定部41は、隣接する2つのブロックにおける隣接側のブロックサイズに応じてケース分類を行い、ケース分類結果に応じてフィルタ処理のタップ長とフィルタ処理対象画素範囲を設定する。フィルタ設定部41は、ケース分類において、例えば隣接する2つのブロックにおける隣接側が共に所定ブロックサイズ以下のケースと、少なくとも一方が所定のブロックサイズより拡張されているケースに分類する。
フィルタ設定部41は、隣接する2つのブロックにおける隣接側のブロックサイズが共に所定ブロックサイズ以下、例えばH.264/AVC規格のマクロブロックサイズであるケースでは、上述のようにフィルタ処理を行い画素データp0’〜p2’,q0’〜q2’を算出する。また、フィルタ設定部41は、少なくとも一方が所定のブロックサイズより拡張されている場合、ブロック境界のブロックサイズに応じてタップ長やフィルタ処理対象画素範囲の拡張を行う。フィルタ設定部41は、タップ長やフィルタ処理対象画素範囲を拡張することで、ブロックサイズが大きくブロック歪が目につきやすい部分については、より強度の強い平滑化処理や、ブロック境界に対してより遠くの画素値にまでフィルタ処理を施す。したがって、ブロック歪みが目につきにくくなり、復号画像における主観画質をより好ましいものとする。
なお、より強度の強い平滑化処理を行うと、画像の持つ高域成分も失われる。しかし、大きいブロックサイズが適用されるのは、画像内において、高域成分の少ない比較的フラットな領域である場合が多いため、テクスチャが失われるといった主観上の劣化を生じることはない。
このように、フィルタ設定部41は、予測ブロックサイズに応じて設定したタップ長とフィルタ処理対象画素範囲を示すパラメータ値を生成してデブロッキングフィルタ24に供給する。また、フィルタ設定部41は、所定のマクロブロックよりもブロックサイズが大きい複数の異なるサイズのマクロブロックが用いられる場合、ブロックサイズが大きいほどタップ長が長くフィルタ処理対象画素範囲が広くなるように設定してもよい。
図4は、デブロッキングフィルタとフィルタ設定部の構成を示している。フィルタ設定部41は、ブロックサイズバッファ411とパラメータ値生成部412を備えている。また、デブロッキングフィルタ24は、フィルタ強度決定部241とフィルタ処理部242を備えている。
ブロックサイズバッファ411は、予測画像・最適モード選択部33で選択された最適モードおける予測ブロックサイズを示す情報を、1フレーム画像分蓄積する。すなわち、ブロックサイズバッファ411には、符号化対象の1フレーム画像における各マクロブロックの予測ブロックサイズに関する情報が記憶されている状態となる。
パラメータ値生成部412は、ブロックサイズバッファ411の予測ブロックサイズの情報に基づき、隣接する2つのブロックにおける隣接側の予測ブロックサイズを判別する。パラメータ値生成部412は、この2つのブロックのブロック境界に対するフィルタ処理のタップ長とフィルタ処理対象画素範囲を設定するためのパラメータ値を、判別した予測ブロックサイズに基づいて生成してフィルタ強度決定部241に供給する。
フィルタ強度決定部241は、可逆符号化部16から供給された予測モード情報に基づきブロック境界強度データBsを決定して、決定したブロック境界強度データBsと、パラメータ値生成部412から供給されたパラメータ値をフィルタ処理部242に出力する。
フィルタ処理部242は、ブロック境界強度データBsとパラメータ値で示されたタップ長とフィルタ処理対象画素範囲でフィルタ処理を行い、フィルタ処理後の画素データを算出する。
ここで、隣接する2つのブロックにおける隣接側の予測ブロックサイズが共に所定ブロックサイズ(16×16画素)以下である第1のケースと、少なくとも一方が所定ブロックサイズよりも拡張されている第2のケースにケース分類する場合について例示する。この場合、第1のケースでは、上述のH.264/AVCの符号化方式のフィルタ処理を行う。また、第2のケースでは、タップ長を拡張した長さに設定して平滑化の強度を強くする。および/または、フィルタ処理対象画素範囲を拡張して、ブロック境界から離れた位置の画素までフィルタ処理を行う。
次に、タップ長とフィルタ処理対象画素範囲を拡張したときのフィルタ処理について例示する。
フィルタ処理部242は、パラメータ値に基づきタップ長とフィルタ処理対象画素範囲を拡張してフィルタ処理を行い、画素データp0〜p4,q0〜q4からフィルタ処理後の画素データp0’〜p3’,q0’〜q3’を算出する。この場合、フィルタ処理部242は、上述の式(7)に替えて式(32)を用いる。
Δ=Clip3(−tc,tc((((q0−p0)<<3)+((p1−q1)<<1)+(p2−q2)+8)>>4)) ・・・(32)
さらに、フィルタ処理部242は、式(12),(14)に替えて式(33),(34)を用いることで画素データp1’,q1’を算出する。
p1’=p1+Clip3(-tc0,tc0,(p3+p2+p0+((q0+q1+1)>>1)−(p1<<2))>>2) ・・・(33)
q1’=q1+Clip3(-tc0,tc0,(q3+q2+q0+((q0+q1+1)>>1)−(q1<<2))>>2) ・・・(34)
また、フィルタ処理部242は、式(16),(17)に替えて式(35)(36)を用いることで画素データp2’,q2’を算出する。
p2’=p2+Clip3(-tc0,tc0,(p4+p3+p1+((p0+q1+1)>>1)−(p2<<2))>>2) ・・・(35)
q2’=q2+Clip3(-tc0,tc0,(q4+q3+q1+((q0+q1+1)>>1)−(q2<<2))>>2) ・・・(36)
また、フィルタ処理部242は、chromaEdgeFlagが「0」を示し、且つ、式(18)の条件を満たす場合に、画素データp0’,p1’,p2’,p3’を式(37)〜(40)にしたがって算出する。
p0’=(p3+2・p2+3・p1+4・p0+3・q0+2・q1+q2+8)>>4 ・・・(37)
p1’=(p3+p2+2・p1+2・p0+q0+q1+4)>>3 ・・・(38)
p2’=(p4+3・p3+4・p2+3・p1+2・p0+2・q0+q1+8)>>4 ・・・(39)
p3’=(p4+3・p3+p2+p1+p0+q0+4)>>3 ・・・(40)
また、フィルタ処理部242は、chromaEdgeFlagが「0」を示し、且つ、式(25)の条件を満たす場合に、画素データq0’,q1’,q2’,q3’を式(41)〜(44)にしたがって算出する。
q0’=(p2+2・p1+3・p0+4・q0+3・q1+2・q2+q3+8)>>4 ・・・(41)
q1’=(p1+p0+2・q0+2・q1+q2+q3+4)>>3 ・・・(42)
q2’=(q4+3・q3+4・q2+3・q1+2・q0+2・p0+p1+8)>>4 ・・・(43)
q3’=(q4+3・q3+q2+q1+q0+p0+4)>>3 ・・・(44)
なお、タップ長とフィルタ処理対象画素範囲の設定は、2つのブロックがどちらも16×16画素若しくはそれ以下の大きさである場合と、2つのブロックの少なくとも一方が16×16画素より大きい場合の2つにケース分類する場合に限られない。例えば、2つのブロックがどちらも16×16画素若しくはそれ以下の大きさである場合と、2つのブロックの少なくとも一方が16×16画素より大きく、両方が32×32画素以下である場合や、2つのブロックの少なくとも一方が32×32画素より大きい場合のケース分類を行うようにしてもよい。この場合、ブロックサイズがより大きい境界では、タップ長をさらに長くして平滑化の強度を強く、またフィルタ処理対象画素範囲をさらに広くしてブロック境界より遠い画素値に対してフィルタ処理を行うようにする。また、タップ長とフィルタ処理対象画素範囲の設定では、ケース分類結果に応じて、タップ長とフィルタ処理対象画素範囲の何れか一方のみを拡張するようにしてもよい。
このように、画像符号化装置では、隣接する2つのブロックにおける隣接側のブロックサイズに応じてフィルタのタップ長とフィルタ処理対象画素範囲を設定して、ブロックサイズが大きくブロック歪が目につきやすい部分については、平滑化の強度を強くしたり、ブロック境界に対してより遠くの画素値にまでフィルタ処理を施す。したがって、ブロック歪みが目につきにくくなり、予測画像の生成に用いる復号画像における画質をより好ましいものにできる。
<4.画像符号化装置の動作>
次に、画像符号化処理動作について説明する。図5は、画像符号化処理で用いる予測ブロックサイズを示している。H.264/AVC方式では、図5の(C)(D)に示すように16×16画素〜4×4画素の予測ブロックサイズが規定されている。また、H.264/AVC方式よりも拡張された大きさのマクロブロックを用いる場合、例えば32×32画素のマクロブロックを用いる場合、例えば図5の(B)に示す予測ブロックサイズが規定される。また、例えば64×64画素のマクロブロックを用いる場合、例えば図5の(A)に示す予測ブロックサイズが規定される。
なお、図5において、「Skip/direct」は、動き予測・補償部32において、スキップドマクロブロックやダイレクトモードを選択したときの予測ブロックサイズであることを示している。また、「ME」は動き補償ブロックサイズであることを示している。また、「P8×8」は、マクロブロックのサイズを小さくした下位の階層でさらに分割できることを示している。
図6は、画像符号化処理動作を示すフローチャートである。ステップST11において、A/D変換部11は入力された画像信号をA/D変換する。
ステップST12において画面並べ替えバッファ12は、画面並べ替えを行う。画面並べ替えバッファ12は、A/D変換部11より供給された画像データを記憶し、各ピクチャの表示する順番から符号化する順番への並べ替えを行う。
ステップST13において減算部13は、予測誤差データの生成を行う。減算部13は、ステップST12で並び替えられた画像の画像データと予測画像・最適モード選択部33で選択された予測画像データとの差分を算出して予測誤差データを生成する。予測誤差データは、元の画像データに比べてデータ量が小さい。したがって、画像をそのまま符号化する場合に比べて、データ量を圧縮することができる。なお、予測画像・最適モード選択部33でイントラ予測部31から供給された予測画像と動き予測・補償部32からの予測画像の選択がスライス単位で行われるとき、イントラ予測部31から供給された予測画像が選択されたスライスでは、イントラ予測が行われることになる。また、動き予測・補償部32からの予測画像が選択されたスライスでは、インター予測が行われることになる。
ステップST14において直交変換部14は、直交変換処理を行う。直交変換部14は、減算部13から供給された予測誤差データを直交変換する。具体的には、予測誤差データに対して離散コサイン変換、カルーネン・レーベ変換等の直交変換を行い、変換係数データを出力する。
ステップST15において量子化部15は、量子化処理を行う。量子化部15は、変換係数データを量子化する。量子化に際しては、後述するステップST25の処理で説明されるように、レート制御が行われる。
ステップST16において逆量子化部21は、逆量子化処理を行う。逆量子化部21は、量子化部15により量子化された変換係数データを量子化部15の特性に対応する特性で逆量子化する。
ステップST17において逆直交変換部22は、逆直交変換処理を行う。逆直交変換部22は、逆量子化部21により逆量子化された変換係数データを直交変換部14の特性に対応する特性で逆直交変換する。
ステップST18において加算部23は、復号画像データの生成を行う。加算部23は、予測画像・最適モード選択部33から供給された予測画像データと、この予測画像と対応する位置の逆直交変換後のデータを加算して、復号画像データを生成する。
ステップST19においてデブロッキングフィルタ24は、フィルタ処理を行う。デブロッキングフィルタ24は、加算部23より出力された復号画像データをフィルタリングしてブロック歪みを除去する。
ステップST20においてフレームメモリ25は、復号画像データを記憶する。フレームメモリ25は、フィルタ処理前の復号画像データとフィルタ処理後の復号画像データを記憶する。
ステップST21においてイントラ予測部31と動き予測・補償部32は、それぞれ予測処理を行う。すなわち、イントラ予測部31は、イントラ予測モードのイントラ予測処理を行い、動き予測・補償部32は、インター予測モードの動き予測・補償処理を行う。予測処理の詳細は、図7を参照して後述するが、この処理により、候補となる全ての予測モードでの予測処理がそれぞれ行われ、候補となる全ての予測モードでのコスト関数値がそれぞれ算出される。そして、算出されたコスト関数値に基づいて、最適イントラ予測モードと最適インター予測モードが選択され、選択された予測モードで生成された予測画像とそのコスト関数および予測モード情報が予測画像・最適モード選択部33に供給される。
ステップST22において予測画像・最適モード選択部33は、予測画像データの選択を行う。予測画像・最適モード選択部33は、イントラ予測部31および動き予測・補償部32より出力された各コスト関数値に基づいて、符号化効率が最良となる最適モードに決定する。さらに、予測画像・最適モード選択部33は、決定した最適モードの予測画像データを選択して、減算部13と加算部23に供給する。この予測画像が、上述したように、ステップST13,ST18の演算に利用される。なお、選択した予測画像データに対応する予測モード情報は、可逆符号化部16とフィルタ設定部41に出力される。
ステップST23において可逆符号化部16は、可逆符号化処理を行う。可逆符号化部16は、量子化部15より出力された量子化データを可逆符号化する。すなわち、量子化データに対して可変長符号化や算術符号化等の可逆符号化が行われて、データ圧縮される。このとき、上述したステップST22において可逆符号化部16に入力された予測モード情報(例えばマクロブロックタイプや予測モード、動きベクトル情報、参照ピクチャ情報等を含む)なども可逆符号化される。さらに、量子化データを可逆符号化して生成された符号化ストリームのヘッダ情報に、予測モード情報の可逆符号化データが付加される。
ステップST24において蓄積バッファ17は、蓄積処理を行い符号化ストリームを蓄積する。この蓄積バッファ17に蓄積された符号化ストリームは適宜読み出され、伝送路を介して復号側に伝送される。
ステップST25においてレート制御部18は、レート制御を行う。レート制御部18は、蓄積バッファ17で符号化ストリームを蓄積するとき、オーバーフローまたはアンダーフローが蓄積バッファ17で発生しないように、量子化部15の量子化動作のレートを制御する。
次に、図7のフローチャートを参照して、図6のステップST21における予測処理を説明する。
ステップST31において、イントラ予測部31はイントラ予測処理を行う。イントラ予測部31は処理対象のブロックの画像を、候補となる全てのイントラ予測モードでイントラ予測する。なお、イントラ予測において参照される復号画像の画像データは、デブロッキングフィルタ24によりフィルタ処理が行われることなくフレームメモリ25に記憶されている復号画像データが用いられる。イントラ予測処理の詳細は後述するが、この処理により、候補となる全てのイントラ予測モードでイントラ予測が行われ、候補となる全てのイントラ予測モードに対してコスト関数値が算出される。そして、算出されたコスト関数値に基づいて、全てのイントラ予測モードの中から、符号化効率が最良となる1つのイントラ予測モードが選択される。
ステップST32において、動き予測・補償部32はインター予測処理を行う。動き予測・補償部32は、フレームメモリ25に記憶されているフィルタ処理後の復号画像データを用いて、候補となる全てのインター予測モード(全ての予測ブロックサイズ)のインター予測処理を行う。インター予測処理の詳細は後述するが、この処理により、候補となる全てのインター予測モードで予測処理が行われ、候補となる全てのインター予測モードに対してコスト関数値が算出される。そして、算出されたコスト関数値に基づいて、全てのインター予測モードの中から、符号化効率が最良となる1つのインター予測モードが選択される。
次に、図7のステップST31におけるイントラ予測処理について図8のフローチャートを参照して説明する。
ステップST41でイントラ予測部31は、各予測モードのイントラ予測を行う。イントラ予測部31は、フレームメモリ25に記憶されているフィルタ処理前の復号画像データを用いて、イントラ予測モード毎に予測画像データを生成する。
ステップST42でイントラ予測部31は、各予測モードに対するコスト関数値を算出する。コスト関数値としては、H.264/AVC方式における参照ソフトウェアであるJM(Joint Model)で定められているように、High Complexity モードか、Low Complexity モードのいずれかの手法に基づいて行う。
すなわち、High Complexity モードにおいては、ステップST41の処理として、候補となる全ての予測モードに対して、仮に可逆符号化処理までを行い、次の式(45)で表されるコスト関数値を各予測モードに対して算出する。
Cost(Mode∈Ω)=D+λ・R ・・・(45)
Ωは、当該ブロック乃至マクロブロックを符号化するための候補となる予測モードの全体集合を示している。Dは、予測モードで符号化を行った場合の復号画像と入力画像との差分エネルギー(歪み)を示している。Rは、直交変換係数や予測モード情報等を含んだ発生符号量、λは、量子化パラメータQPの関数として与えられるラグランジュ乗数である。
つまり、High Complexity Modeでの符号化を行うには、上記パラメータDおよびRを算出するため、候補となる全ての予測モードにより、一度、仮エンコード処理を行う必要があり、より高い演算量を要する。
一方、Low Complexity モードにおいては、ステップST41の処理として、候補となる全ての予測モードに対して、予測画像の生成、および、動きベクトル情報や予測モード情報などのヘッダビットまでを算出し、次の式(46)で表されるコスト関数値を各予測モードに対して算出する。
Cost(Mode∈Ω)=D+QPtoQuant(QP)・Header_Bit ・・・(46)
Ωは、当該ブロック乃至マクロブロックを符号化するための候補となる予測モードの全体集合を示している。Dは、予測モードで符号化を行った場合の復号画像と入力画像との差分エネルギー(歪み)を示している。Header_Bitは、予測モードに対するヘッダビット、QPtoQuantは、量子化パラメータQPの関数として与えられる関数である。
すなわち、Low Complexity Modeにおいては、それぞれの予測モードに関して、予測処理を行う必要があるが、復号化画像までは必要ないため、High Complexity Modeより低い演算量での実現が可能である。
ステップST43でイントラ予測部31は、最適イントラ予測モードを決定する。イントラ予測部31は、ステップST42において算出されたコスト関数値に基づいて、それらの中から、コスト関数値が最小値である1つのイントラ予測モードを選択して最適イントラ予測モードに決定する。
次に、図9のフローチャートを参照して、図7のステップST32のインター予測処理について説明する。
ステップST51で動き予測・補償部32は、各予測モードに対して動きベクトルと参照画像をそれぞれ決定する。すなわち、動き予測・補償部32は、各予測モードの処理対象のブロックについて、動きベクトルと参照画像をそれぞれ決定する。
ステップST52で動き予測・補償部32は、各予測モードに対して動き補償を行う。動き予測・補償部32は、各予測モード(各予測ブロックサイズ)について、ステップST51で決定された動きベクトルに基づいて、参照画像に対する動き補償を行い、各予測モードについて予測画像データを生成する。
ステップST53で動き予測・補償部32は、各予測モードに対して動きベクトル情報の生成を行う。動き予測・補償部32は、各予測モードで決定された動きベクトルについて、符号化ストリームに含める動きベクトル情報を生成する。例えば、メディアン予測等を用いて予測動きベクトルを決定して、動き予測により検出した動きベクトルと予測動きベクトルの差を示す動きベクトル情報を生成する。このようにして生成された動きベクトル情報は、次のステップST54におけるコスト関数値の算出にも用いられて、最終的に予測画像・最適モード選択部33で対応する予測画像が選択された場合には、予測モード情報に含まれて可逆符号化部16へ出力される。
ステップST54で動き予測・補償部32は、各インター予測モードに対して、コスト関数値の算出を行う。動き予測・補償部32は、上述した式(45)または式(46)を用いてコスト関数値の算出を行う。なお、インター予測モードに対するコスト関数値の算出には、H.264/AVC方式において定められているSkip ModeおよびDirect Modeのコスト関数値の評価も含まれる。
ステップST55で動き予測・補償部32は、最適インター予測モードを決定する。動き予測・補償部32は、ステップST54において算出されたコスト関数値に基づいて、それらの中から、コスト関数値が最小値である1つの予測モードを選択して最適インター予測モードに決定する。
次に、フィルタ設定処理について図10に示すフローチャートを用いて説明する。なお、図10では、タップ長とフィルタ処理対象画素範囲を拡張する場合を示している。
ステップST61でフィルタ設定部41は、最適モードの予測ブロックサイズを取得する。フィルタ設定部41は、図6のステップST22で選択された予測画像に対応する予測ブロックサイズ、すなわち最適モードで符号化を行うときの予測ブロックサイズを取得する。
ステップST62でフィルタ設定部41は、当該ブロックまたは隣接ブロックは16×16画素より大きいか否か判別する。フィルタ設定部41は、当該ブロックまたは隣接ブロックの少なくともいずれかが16×16画素よりも大きいときステップST63に進み、当該ブロックと隣接ブロックが共に16×16画素以下であるときステップST64に進む。
ステップST63でフィルタ設定部41は、タップ長とフィルタ処理対象画素範囲を拡張して設定する。例えばフィルタ設定部41は、H264./AVCの符号化方式よりもタップ長とフィルタ処理対象画素範囲を拡張して、上述のように、フィルタ処理後の画素データp0’〜p3’,q0’〜q3’を算出させる。
ステップST64でフィルタ設定部41は、タップ長とフィルタ処理対象画素範囲を拡張しないで設定する。例えばフィルタ設定部41は、H264./AVCの符号化方式のタップ長とフィルタ処理対象画素範囲に設定して、上述のように、フィルタ処理後の画素データp0’〜p2’,q0’〜q2’を算出させる。
このように、本技術を適用した画像符号化装置および方法によれば、符号化効率が最良となる予測ブロックサイズを決定して、決定された予測ブロックサイズで画像データの符号化処理が行われる。このとき、この予測ブロックサイズを示す情報は、フィルタ設定部41のブロックサイズバッファ411に蓄積される。したがって、符号化効率が最良となる予測ブロックサイズで符号化処理された画像データを復号化処理して復号画像データを生成したとき、復号画像における予測ブロックの位置が明らかとなる。このため、ブロックサイズバッファ411に蓄積された情報に基づき、予測ブロックサイズに応じてタップ長とフィルタ処理対象画素範囲を設定することで、予測ブロックサイズが大きくてもブロック歪みを少なくできる。また、予測画像の生成のための復号画像データにおけるブロック歪みを少なくできるので、ブロック歪みの影響によって予測誤差データが大きくなってしまうことを防止できることから、符号化処理後のデータ量をさらに少なくできる。
<5.画像復号化装置の構成>
入力画像を符号化して生成された符号化ストリームは、所定の伝送路や記録媒体等を介して画像復号化装置に供給されて復号される。
図11は、画像復号化装置の構成を示している。画像復号装置50は、蓄積バッファ51、可逆復号化部52、逆量子化部53、逆直交変換部54、加算部55、デブロッキングフィルタ56、画面並べ替えバッファ57、D/A変換部58を備えている。さらに、画像復号装置50は、フレームメモリ61、セレクタ62,65、イントラ予測部63、動き補償部64、フィルタ設定部71を備えている。
蓄積バッファ51は、伝送されてきた符号化ストリームを蓄積する。可逆復号化部52は、蓄積バッファ51より供給された符号化ストリームを、図1の可逆符号化部16の符号化方式に対応する方式で復号化する。また、可逆復号化部52は、符号化ストリームのヘッダ情報を復号して得られた予測モード情報をイントラ予測部63や動き補償部64、デブロッキングフィルタ56に出力する。
逆量子化部53は、可逆復号化部52で復号された量子化データを、図1の量子化部15の量子化方式に対応する方式で逆量子化する。逆直交変換部54は、図1の直交変換部14の直交変換方式に対応する方式で逆量子化部53の出力を逆直交変換して加算部55に出力する。
加算部55は、逆直交変換後のデータとセレクタ65から供給される予測画像データを加算して復号画像データを生成してデブロッキングフィルタ56とフレームメモリ61に出力する。
デブロッキングフィルタ56は、図1のデブロッキングフィルタ24と同様に構成されている。デブロッキングフィルタ56は、加算部55から供給された復号画像データを対象としてフィルタ処理を行い、ブロック歪みを除去してからフレームメモリ61に供給し蓄積させるとともに、画面並べ替えバッファ57に出力する。また、デブロッキングフィルタ56は、可逆復号化部52から供給された予測モード情報と後述するフィルタ設定部71から供給されたパラメータ値に基づき、タップ長とフィルタ処理対象画素範囲を設定してフィルタ処理を行う。
画面並べ替えバッファ57は、画像の並べ替えを行う。すなわち、図1の画面並べ替えバッファ12により符号化の順番のために並べ替えられたフレームの順番が、元の表示の順番に並べ替えられて、D/A変換部58に出力される。
D/A変換部58は、画面並べ替えバッファ57から供給された画像データをD/A変換し、図示せぬディスプレイに出力することで画像を表示させる。
フレームメモリ61は、加算部55から供給されたフィルタ処理前の復号画像データとデブロッキングフィルタ24から供給されたフィルタ処理後の復号画像データとを保持する。
セレクタ62は、可逆復号化部52から供給された予測モード情報に基づき、イントラ予測が行われた予測ブロックの復号化が行われるとき、フレームメモリ61から読み出されたフィルタ処理前の復号画像データをイントラ予測部63に供給する。また、セレクタ26は、可逆復号化部52から供給された予測モード情報に基づき、インター予測が行われた予測ブロックの復号化が行われるとき、フレームメモリ61から読み出されたフィルタ処理後の復号画像データを動き補償部64に供給する。
イントラ予測部63は、可逆復号化部52から供給された予測モード情報に基づいて予測画像の生成を行い、生成した予測画像データをセレクタ65に出力する。また、イントラ予測部63は生成した予測画像のブロックサイズを示す情報をフィルタ設定部71に出力する。
動き補償部64は、可逆復号化部52から供給された予測モード情報に基づいて、動き補償を行い、予測画像データを生成してセレクタ65に出力する。すなわち、動き補償部64は、予測モード情報に含まれる動きベクトル情報と参照フレーム情報に基づいて、参照フレーム情報で示された参照画像に対して動きベクトル情報に基づく動きベクトルで動き補償を行い、予測画像データを生成する。また、動き補償部64は生成した予測画像のブロックサイズを示す情報をフィルタ設定部71に出力する。
セレクタ65は、イントラ予測部63で生成された予測画像データを加算部55に供給する。また、セレクタ65は、動き補償部64で生成された予測画像データを加算部55に供給する。
フィルタ設定部71は、図4に示すフィルタ設定部41と同様に構成されている。また、フィルタ設定部71は、復号化済みのブロックの予測ブロックサイズを示す情報を蓄積しておく。フィルタ設定部71は、復号化対象のブロックと復号化対象のブロックに隣接する復号化済みのブロックの隣接側の予測ブロックサイズに応じて、タップ長とフィルタ処理対象画素範囲を設定する。フィルタ設定部71は、設定したタップ長やフィルタ処理対象画素範囲を示すパラメータ値をデブロッキングフィルタ56に供給する。また、フィルタ設定部71は、当該ブロック、若しくは隣接ブロックのどちらか一方で最適モードにおける予測ブロックサイズが拡張されたブロックサイズである場合、大きい方の予測ブロックサイズに応じてタップ長とフィルタ処理対象画素範囲を設定する。また、フィルタ設定部71は、所定のマクロブロックよりもサイズが大きい複数のマクロブロックが用いられる場合、サイズが大きいほどタップ長が長くフィルタ処理対象画素範囲が広くなるように設定を行う。
<6.画像復号化装置の動作>
次に、図12のフローチャートを参照して、画像復号装置50で行われる画像復号処理動作について説明する。
ステップST71で蓄積バッファ51は、伝送されてきた符号化ストリームを蓄積する。ステップST72で可逆復号化部52は、可逆復号化処理を行う。可逆復号化部52は、蓄積バッファ51から供給される符号化ストリームを復号化する。すなわち、図1の可逆符号化部16により符号化された各ピクチャの量子化データが得られる。また、可逆復号化部52、符号化ストリームのヘッダ情報に含まれている予測モード情報の可逆復号化を行い、得られた予測モード情報をデブロッキングフィルタ56やセレクタ62,65に供給する。さらに、可逆復号化部52は、予測モード情報がイントラ予測モードに関する情報である場合、予測モード情報をイントラ予測部63に出力する。また、可逆復号化部52は、予測モード情報がインター予測モードに関する情報である場合、予測モード情報を動き補償部64に出力する。
ステップST73において逆量子化部53は、逆量子化処理を行う。逆量子化部53は、可逆復号化部52により復号された量子化データを、図1の量子化部15の特性に対応する特性で逆量子化する。
ステップST74において逆直交変換部54は、逆直交変換処理を行う。逆直交変換部54は、逆量子化部53により逆量子化された変換係数データを、図1の直交変換部14の特性に対応する特性で逆直交変換する。
ステップST75において加算部55は、復号画像データの生成を行う。加算部55は、逆直交変換処理を行うことにより得られたデータと、後述するステップST79で選択された予測画像データを加算して復号画像データを生成する。これにより元の画像が復号される。
ステップST76においてデブロッキングフィルタ56は、フィルタ処理を行う。デブロッキングフィルタ56は、加算部55より出力された復号画像データのフィルタ処理を行い、復号画像に含まれているブロック歪みを除去する。
ステップST77においてフレームメモリ61は、復号画像データの記憶処理を行う。
ステップST78においてイントラ予測部63と動き補償部64は、予測画像データの生成を行う。イントラ予測部63と動き補償部64は、可逆復号化部52から供給される予測モード情報に対応してそれぞれ予測画像データの生成を行う。
すなわち、可逆復号化部52からイントラ予測の予測モード情報が供給された場合、イントラ予測部63は、予測モード情報に基づき、フレームメモリ61の復号画像データを用いてイントラ予測処理を行い、予測画像データを生成する。また、可逆復号化部52からインター予測の予測モード情報が供給された場合、動き補償部64は、予測モード情報に基づきフレームメモリ61の復号画像データを用いて動き補償を行い、予測画像データを生成する。
ステップST79において、セレクタ65は予測画像データの選択を行う。すなわち、セレクタ65は、イントラ予測部63から供給された予測画像と動き補償部64で生成された予測画像データを選択して加算部55に供給して、上述したように、ステップST75において逆直交変換部54の出力と加算させる。
ステップST80において画面並べ替えバッファ57は、画面並べ替えを行う。すなわち画面並べ替えバッファ57は、図1の画像符号化装置10の画面並べ替えバッファ12により符号化のために並べ替えられたフレームの順序が、元の表示の順序に並べ替えられる。
ステップST81において、D/A変換部58は、画面並べ替えバッファ57からの画像データをD/A変換する。この画像が図示せぬディスプレイに出力され、画像が表示される。
また、図12のステップST76におけるフィルタ処理では、上述の図10に示すフィルタ設定処理をフィルタ設定部71で行う。フィルタ設定部71は、復号化対象のブロックと復号化対象のブロックに隣接する復号化済みのブロックの隣接側の予測ブロックサイズに応じて、タップ長とフィルタ処理対象画素範囲を設定する。フィルタ設定部71は、当該ブロックまたは隣接ブロックの少なくともいずれかの隣接側のブロックサイズが拡張されているとき、拡張されたタップ長とフィルタ処理対象画素範囲に設定する。なお、復号化済みのブロックの隣接側の予測ブロックサイズは、この隣接ブロックを復号化したとき、フィルタ設定部71のブロックサイズバッファに蓄積させておく。フィルタ設定部71は、設定したタップ長とフィルタ処理対象画素範囲を示すパラメータ値を生成してデブロッキングフィルタ56に出力する。デブロッキングフィルタ56は、フィルタ設定部71から供給されたパラメータ値で示されたタップ長とフィルタ処理対象画素範囲で、復号化対象のブロックと、復号化対象のブロックに隣接する復号化済みのブロックとのブロック境界に対してフィルタ処理を行う。
このように、本技術を適用した画像復号化装置および方法によれば、符号化処理で用いられた予測ブロックサイズを示す情報が、フィルタ設定部71のブロックサイズバッファに蓄積される。したがって、符号化ストリームの復号化処理を行って画像表示のための復号画像データを生成したとき、復号画像における予測ブロックの位置が明らかとなる。このため、ブロックサイズバッファに蓄積された情報に基づき、ブロックサイズが大きくブロック歪が目につきやすい部分については、ブロック境界に対してより遠くの画素値にまでフィルタ処理を施して、より強度の強い平滑化処理が行われる。したがって、ブロック歪みが目につきにくく、画質の良好な復号画像を得ることができるようになる。
さらに、画像処理装置のフィルタ設定部は、復号画像データが予測画像の生成のための画像データであるか、画像表示のための画像データであるかに応じて、タップ長とフィルタ処理対象画素範囲の設定を行えばよい。例えば画像処理装置が画像符号化装置であるとき、フィルタ設定部は、予測画像の生成のための復号画像データに対して、予測画像の生成に用いる復号画像の画質を良好な画質として、符号化ストリームのデータ量が少なくなるように設定を行う。また、例えば画像処理装置が画像復号化装置であるとき、フィルタ設定部は、画像表示に用いる復号画像の画質をユーザの好みの画質となるように設定を行う。このようにすれば、フィルタ設定部が画像符号化装置に設けられるときは画像符号化に適したデブロッキングフィルタ処理、フィルタ設定部が画像復号化装置に適したデブロッキングフィルタ処理を行うことができる。
明細書中において説明した一連の処理はハードウェア、またはソフトウェア、または両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることも可能である。
例えば、プログラムは記録媒体としてのハードディスクやROM(Read Only Memory)に予め記録しておくことができる。または、プログラムはフレキシブルディスク、CD−ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
また、上述の実施形態では、ブロック境界において隣接する隣接ブロックのブロックサイズに応じて、パラメータ値であるタップ長やフィルタ処理対象画素範囲を設定する場合について説明したが、フィルタ設定部は、隣接ブロックの少なくとも一方が所定のブロックサイズより拡張されている場合、フィルタ処理に用いるブロック境界強度データの値を拡張した値に設定して、ブロック歪みが軽減された良好な画質の画像を得られるようにしてもよい。例えば、フィルタ設定部は、隣接ブロックのブロックサイズが大きいほど、フィルタ処理に用いるブロック境界強度データの値を大きく設定してブロック歪みを軽減させる。
デブロックフィルタの処理単位のサイズ又はマクロブロックのサイズは、本明細書で説明した例に限定されず、他のサイズであってもよい。例えば、H.264/AVCのマクロブロックのサイズは16×16画素に固定されているのに対し、HEVCの符号化単位のサイズはシーケンスごとに動的に指定され得る。HEVCの符号化単位は符号化ツリーブロック(Coding Tree Block)とも呼ばれ、最大のサイズを有する符号化単位を最大符号化単位(LCU:Largest Coding Unit)、最小のサイズを有する符号化単位を最小符号化単位(SCU:Smallest Coding Unit)という。画像圧縮情報の一部であるシーケンスパラメータセットにおいてこれらLCU及びSCUのサイズを指定することで、使用可能な符号化単位のサイズの範囲が定義される。さらに、split_flagの値を指定することで、個々のシーケンスにおいて使用される符号化単位のサイズが特定される。
符号化単位の形状は正方形である場合、一辺のサイズが2のべき乗で表現される。さらに、符号化単位は、イントラ予測又はインター予測の処理単位である予測単位(PU:Prediction Unit)に分割され得る。また、符号化単位は、直交変換の処理単位である変換単位(TU:Transform Unit)にも分割され得る。HEVCでは、4×4画素及び8×8画素に加えて、16×16画素及び32×32画素のサイズを有する変換単位を使用することができる。本明細書におけるブロックとの用語は、マクロブロック、符号化単位、予測単位、変換単位又はそれ以外の様々なユニットの概念を含む。
ブロックのサイズは、固定的であってもよく動的に変化してもよい。ブロックサイズは、本明細書で説明した例に限定されず、他のサイズであってもよい。例えば、ブロックサイズが4、8、16のように、16×16画素以下のブロックに対しても同様の手法を用いることができる。この場合も同様に、ブロックサイズが大きくなるのに応じて、フィルタのタップ長を長く設定する、又は、処理対象画素範囲を広く設定すればよい。
ブロックサイズは、4×4画素、8×8画素、16×16画素、32×32画素である正方形の場合だけではなく、8×2画素、2×8画素、16×4画素、4×16画素、32×8画素、8×32画素である非正方の場合にも適用することが可能である。この場合、隣接ブロックにおいて隣接する側のブロックサイズに応じて、フィルタ処理のタップ長又はフィルタ処理対象画素範囲を設定することもできる。また、隣接ブロックにおいて隣接しない側のブロックサイズに応じて、フィルタ処理のタップ長又はフィルタ処理対象画素範囲を設定することもできる。さらに、ブロックの形状とブロックサイズとに応じて、隣接する側のブロックサイズを適用とするか、隣接しない側のブロックサイズを適用するか、を適応的に選択することも可能である。
また、デブロックフィルタの処理のために使用される情報を符号化側から復号側に伝送する手法は、これら情報を符号化ストリームのヘッダに多重化する手法に限定されない。例えば、これら情報は、符号化ビットストリームに多重化されることなく、符号化ビットストリームと関連付けられた別個のデータとして伝送され又は記録されてもよい。ここで、「関連付ける」という用語は、ビットストリームに含まれる画像(スライス若しくはブロックなど、画像の一部であってもよい)と当該画像に対応する情報とを復号時にリンクさせ得るようにすることを意味する。即ち、情報は、画像(又はビットストリーム)とは別の伝送路上で伝送されてもよい。また、情報は、画像(又はビットストリーム)とは別の記録媒体(又は同一の記録媒体の別の記録エリア)に記録されてもよい。さらに、情報と画像(又はビットストリーム)とは、例えば、複数フレーム、1フレーム、又はフレーム内の一部分などの任意の単位で互いに関連付けられてよい。
<7.応用例>
上述した実施形態に係る画像符号化装置10及び画像復号装置50は、衛星放送、ケーブルTVなどの有線放送、インターネット上での配信、及びセルラー通信による端末への配信などにおける送信機若しくは受信機、光ディスク、磁気ディスク及びフラッシュメモリなどの媒体に画像を記録する記録装置、又は、これら記憶媒体から画像を再生する再生装置などの様々な電子機器に応用され得る。以下、4つの応用例について説明する。
[7−1.第1の応用例]
図13は、上述した実施形態を適用したテレビジョン装置の概略的な構成の一例を示している。テレビジョン装置90は、アンテナ901、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、表示部906、音声信号処理部907、スピーカ908、外部インタフェース909、制御部910、ユーザインタフェース911、及びバス912を備える。
チューナ902は、アンテナ901を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ902は、復調により得られた符号化ビットストリームをデマルチプレクサ903へ出力する。即ち、チューナ902は、画像が符号化されている符号化ストリームを受信する、テレビジョン装置90における伝送手段としての役割を有する。
デマルチプレクサ903は、符号化ビットストリームから視聴対象の番組の映像ストリーム及び音声ストリームを分離し、分離した各ストリームをデコーダ904へ出力する。また、デマルチプレクサ903は、符号化ビットストリームからEPG(Electronic Program Guide)などの補助的なデータを抽出し、抽出したデータを制御部910に供給する。なお、デマルチプレクサ903は、符号化ビットストリームがスクランブルされている場合には、デスクランブルを行ってもよい。
デコーダ904は、デマルチプレクサ903から入力される映像ストリーム及び音声ストリームを復号する。そして、デコーダ904は、復号処理により生成される映像データを映像信号処理部905へ出力する。また、デコーダ904は、復号処理により生成される音声データを音声信号処理部907へ出力する。
映像信号処理部905は、デコーダ904から入力される映像データを再生し、表示部906に映像を表示させる。また、映像信号処理部905は、ネットワークを介して供給されるアプリケーション画面を表示部906に表示させてもよい。また、映像信号処理部905は、映像データについて、設定に応じて、例えばノイズ除去などの追加的な処理を行ってもよい。さらに、映像信号処理部905は、例えばメニュー、ボタン又はカーソルなどのGUI(Graphical User Interface)の画像を生成し、生成した画像を出力画像に重畳してもよい。
表示部906は、映像信号処理部905から供給される駆動信号により駆動され、表示デバイス(例えば、液晶ディスプレイ、プラズマディスプレイ又はOLEDなど)の映像面上に映像又は画像を表示する。
音声信号処理部907は、デコーダ904から入力される音声データについてD/A変換及び増幅などの再生処理を行い、スピーカ908から音声を出力させる。また、音声信号処理部907は、音声データについてノイズ除去などの追加的な処理を行ってもよい。外部インタフェース909は、テレビジョン装置90と外部機器又はネットワークとを接続するためのインタフェースである。例えば、外部インタフェース909を介して受信される映像ストリーム又は音声ストリームが、デコーダ904により復号されてもよい。即ち、外部インタフェース909もまた、画像が符号化されている符号化ストリームを受信する、テレビジョン装置90における伝送手段としての役割を有する。
制御部910は、CPU(Central Processing Unit)などのプロセッサ、並びにRAM(Random Access Memory)及びROM(Read Only Memory)などのメモリを有する。メモリは、CPUにより実行されるプログラム、プログラムデータ、EPGデータ、及びネットワークを介して取得されるデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、テレビジョン装置90の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース911から入力される操作信号に応じて、テレビジョン装置90の動作を制御する。
ユーザインタフェース911は、制御部910と接続される。ユーザインタフェース911は、例えば、ユーザがテレビジョン装置90を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース911は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部910へ出力する。
バス912は、チューナ902、デマルチプレクサ903、デコーダ904、映像信号処理部905、音声信号処理部907、外部インタフェース909及び制御部910を相互に接続する。
このように構成されたテレビジョン装置90において、デコーダ904は、上述した実施形態に係る画像復号装置50の機能を有する。それにより、テレビジョン装置90での画像の復号に際して、デブロックフィルタを適用すべき範囲をより適切に判定し、画質を向上させることができる。
[7−2.第2の応用例]
図14は、上述した実施形態を適用した携帯電話機の概略的な構成の一例を示している。携帯電話機920は、アンテナ921、通信部922、音声コーデック923、スピーカ924、マイクロホン925、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、制御部931、操作部932、及びバス933を備える。
アンテナ921は、通信部922に接続される。スピーカ924及びマイクロホン925は、音声コーデック923に接続される。操作部932は、制御部931に接続される。バス933は、通信部922、音声コーデック923、カメラ部926、画像処理部927、多重分離部928、記録再生部929、表示部930、及び制御部931を相互に接続する。
携帯電話機920は、音声通話モード、データ通信モード、撮影モード及びテレビ電話モードを含む様々な動作モードで、音声信号の送受信、電子メール又は画像データの送受信、画像の撮像、及びデータの記録などの動作を行う。
音声通話モードにおいて、マイクロホン925により生成されるアナログ音声信号は、音声コーデック923に供給される。音声コーデック923は、アナログ音声信号を音声データへ変換し、変換された音声データをA/D変換し圧縮する。そして、音声コーデック923は、圧縮後の音声データを通信部922へ出力する。通信部922は、音声データを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して音声データを生成し、生成した音声データを音声コーデック923へ出力する。音声コーデック923は、音声データを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
また、データ通信モードにおいて、例えば、制御部931は、操作部932を介するユーザによる操作に応じて、電子メールを構成する文字データを生成する。また、制御部931は、文字を表示部930に表示させる。また、制御部931は、操作部932を介するユーザからの送信指示に応じて電子メールデータを生成し、生成した電子メールデータを通信部922へ出力する。通信部922は、電子メールデータを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。そして、通信部922は、受信信号を復調及び復号して電子メールデータを復元し、復元した電子メールデータを制御部931へ出力する。制御部931は、表示部930に電子メールの内容を表示させると共に、電子メールデータを記録再生部929の記憶媒体に記憶させる。
記録再生部929は、読み書き可能な任意の記憶媒体を有する。例えば、記憶媒体は、RAM又はフラッシュメモリなどの内蔵型の記憶媒体であってもよく、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、又はメモリカードなどの外部装着型の記憶媒体であってもよい。
また、撮影モードにおいて、例えば、カメラ部926は、被写体を撮像して画像データを生成し、生成した画像データを画像処理部927へ出力する。画像処理部927は、カメラ部926から入力される画像データを符号化し、符号化ストリームを記録再生部929の記憶媒体に記憶させる。
また、テレビ電話モードにおいて、例えば、多重分離部928は、画像処理部927により符号化された映像ストリームと、音声コーデック923から入力される音声ストリームとを多重化し、多重化したストリームを通信部922へ出力する。通信部922は、ストリームを符号化及び変調し、送信信号を生成する。そして、通信部922は、生成した送信信号をアンテナ921を介して基地局(図示せず)へ送信する。また、通信部922は、アンテナ921を介して受信される無線信号を増幅し及び周波数変換し、受信信号を取得する。これら送信信号及び受信信号には、符号化ビットストリームが含まれ得る。そして、通信部922は、受信信号を復調及び復号してストリームを復元し、復元したストリームを多重分離部928へ出力する。多重分離部928は、入力されるストリームから映像ストリーム及び音声ストリームを分離し、映像ストリームを画像処理部927、音声ストリームを音声コーデック923へ出力する。画像処理部927は、映像ストリームを復号し、映像データを生成する。映像データは、表示部930に供給され、表示部930により一連の画像が表示される。音声コーデック923は、音声ストリームを伸張し及びD/A変換し、アナログ音声信号を生成する。そして、音声コーデック923は、生成した音声信号をスピーカ924に供給して音声を出力させる。
このように構成された携帯電話機920において、画像処理部927は、上述した実施形態に係る画像符号化装置10及び画像復号装置50の機能を有する。それにより、携帯電話機920での画像の符号化及び復号に際して、デブロックフィルタを適用すべき範囲をより適切に判定し、画質を向上させることができる。
[7−3.第3の応用例]
図15は、上述した実施形態を適用した記録再生装置の概略的な構成の一例を示している。記録再生装置940は、例えば、受信した放送番組の音声データ及び映像データを符号化して記録媒体に記録する。また、記録再生装置940は、例えば、他の装置から取得される音声データ及び映像データを符号化して記録媒体に記録してもよい。また、記録再生装置940は、例えば、ユーザの指示に応じて、記録媒体に記録されているデータをモニタ及びスピーカ上で再生する。このとき、記録再生装置940は、音声データ及び映像データを復号する。
記録再生装置940は、チューナ941、外部インタフェース942、エンコーダ943、HDD(Hard Disk Drive)944、ディスクドライブ945、セレクタ946、デコーダ947、OSD(On-Screen Display)948、制御部949、及びユーザインタフェース950を備える。
チューナ941は、アンテナ(図示せず)を介して受信される放送信号から所望のチャンネルの信号を抽出し、抽出した信号を復調する。そして、チューナ941は、復調により得られた符号化ビットストリームをセレクタ946へ出力する。即ち、チューナ941は、記録再生装置940における伝送手段としての役割を有する。
外部インタフェース942は、記録再生装置940と外部機器又はネットワークとを接続するためのインタフェースである。外部インタフェース942は、例えば、IEEE1394インタフェース、ネットワークインタフェース、USBインタフェース、又はフラッシュメモリインタフェースなどであってよい。例えば、外部インタフェース942を介して受信される映像データ及び音声データは、エンコーダ943へ入力される。即ち、外部インタフェース942は、記録再生装置940における伝送手段としての役割を有する。
エンコーダ943は、外部インタフェース942から入力される映像データ及び音声データが符号化されていない場合に、映像データ及び音声データを符号化する。そして、エンコーダ943は、符号化ビットストリームをセレクタ946へ出力する。
HDD944は、映像及び音声などのコンテンツデータが圧縮された符号化ビットストリーム、各種プログラム及びその他のデータを内部のハードディスクに記録する。また、HDD944は、映像及び音声の再生時に、これらデータをハードディスクから読み出す。
ディスクドライブ945は、装着されている記録媒体へのデータの記録及び読み出しを行う。ディスクドライブ945に装着される記録媒体は、例えばDVDディスク(DVD−Video、DVD−RAM、DVD−R、DVD−RW、DVD+R、DVD+RW等)又はBlu−ray(登録商標)ディスクなどであってよい。
セレクタ946は、映像及び音声の記録時には、チューナ941又はエンコーダ943から入力される符号化ビットストリームを選択し、選択した符号化ビットストリームをHDD944又はディスクドライブ945へ出力する。また、セレクタ946は、映像及び音声の再生時には、HDD944又はディスクドライブ945から入力される符号化ビットストリームをデコーダ947へ出力する。
デコーダ947は、符号化ビットストリームを復号し、映像データ及び音声データを生成する。そして、デコーダ947は、生成した映像データをOSD948へ出力する。また、デコーダ904は、生成した音声データを外部のスピーカへ出力する。
OSD948は、デコーダ947から入力される映像データを再生し、映像を表示する。また、OSD948は、表示する映像に、例えばメニュー、ボタン又はカーソルなどのGUIの画像を重畳してもよい。
制御部949は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、記録再生装置940の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース950から入力される操作信号に応じて、記録再生装置940の動作を制御する。
ユーザインタフェース950は、制御部949と接続される。ユーザインタフェース950は、例えば、ユーザが記録再生装置940を操作するためのボタン及びスイッチ、並びに遠隔制御信号の受信部などを有する。ユーザインタフェース950は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部949へ出力する。
このように構成された記録再生装置940において、エンコーダ943は、上述した実施形態に係る画像符号化装置10の機能を有する。また、デコーダ947は、上述した実施形態に係る画像復号装置50の機能を有する。それにより、記録再生装置940での画像の符号化及び復号に際して、デブロックフィルタを適用すべき範囲をより適切に判定し、画質を向上させることができる。
[7−4.第4の応用例]
図16は、上述した実施形態を適用した撮像装置の概略的な構成の一例を示している。撮像装置960は、被写体を撮像して画像を生成し、画像データを符号化して記録媒体に記録する。
撮像装置960は、光学ブロック961、撮像部962、信号処理部963、画像処理部964、表示部965、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、制御部970、ユーザインタフェース971、及びバス972を備える。
光学ブロック961は、撮像部962に接続される。撮像部962は、信号処理部963に接続される。表示部965は、画像処理部964に接続される。ユーザインタフェース971は、制御部970に接続される。バス972は、画像処理部964、外部インタフェース966、メモリ967、メディアドライブ968、OSD969、及び制御部970を相互に接続する。
光学ブロック961は、フォーカスレンズ及び絞り機構などを有する。光学ブロック961は、被写体の光学像を撮像部962の撮像面に結像させる。撮像部962は、CCD又はCMOSなどのイメージセンサを有し、撮像面に結像した光学像を光電変換によって電気信号としての画像信号に変換する。そして、撮像部962は、画像信号を信号処理部963へ出力する。
信号処理部963は、撮像部962から入力される画像信号に対してニー補正、ガンマ補正、色補正などの種々のカメラ信号処理を行う。信号処理部963は、カメラ信号処理後の画像データを画像処理部964へ出力する。
画像処理部964は、信号処理部963から入力される画像データを符号化し、符号化データを生成する。そして、画像処理部964は、生成した符号化データを外部インタフェース966又はメディアドライブ968へ出力する。また、画像処理部964は、外部インタフェース966又はメディアドライブ968から入力される符号化データを復号し、画像データを生成する。そして、画像処理部964は、生成した画像データを表示部965へ出力する。また、画像処理部964は、信号処理部963から入力される画像データを表示部965へ出力して画像を表示させてもよい。また、画像処理部964は、OSD969から取得される表示用データを、表示部965へ出力する画像に重畳してもよい。
OSD969は、例えばメニュー、ボタン又はカーソルなどのGUIの画像を生成して、生成した画像を画像処理部964へ出力する。
外部インタフェース966は、例えばUSB入出力端子として構成される。外部インタフェース966は、例えば、画像の印刷時に、撮像装置960とプリンタとを接続する。また、外部インタフェース966には、必要に応じてドライブが接続される。ドライブには、例えば、磁気ディスク又は光ディスクなどのリムーバブルメディアが装着され、リムーバブルメディアから読み出されるプログラムが、撮像装置960にインストールされ得る。さらに、外部インタフェース966は、LAN又はインターネットなどのネットワークに接続されるネットワークインタフェースとして構成されてもよい。即ち、外部インタフェース966は、撮像装置960における伝送手段としての役割を有する。
メディアドライブ968に装着される記録媒体は、例えば、磁気ディスク、光磁気ディスク、光ディスク、又は半導体メモリなどの、読み書き可能な任意のリムーバブルメディアであってよい。また、メディアドライブ968に記録媒体が固定的に装着され、例えば、内蔵型ハードディスクドライブ又はSSD(Solid State Drive)のような非可搬性の記憶部が構成されてもよい。
制御部970は、CPUなどのプロセッサ、並びにRAM及びROMなどのメモリを有する。メモリは、CPUにより実行されるプログラム、及びプログラムデータなどを記憶する。メモリにより記憶されるプログラムは、例えば、撮像装置960の起動時にCPUにより読み込まれ、実行される。CPUは、プログラムを実行することにより、例えばユーザインタフェース971から入力される操作信号に応じて、撮像装置960の動作を制御する。
ユーザインタフェース971は、制御部970と接続される。ユーザインタフェース971は、例えば、ユーザが撮像装置960を操作するためのボタン及びスイッチなどを有する。ユーザインタフェース971は、これら構成要素を介してユーザによる操作を検出して操作信号を生成し、生成した操作信号を制御部970へ出力する。
このように構成された撮像装置960において、画像処理部964は、上述した実施形態に係る画像符号化装置10及び画像復号装置50の機能を有する。それにより、撮像装置960での画像の符号化及び復号に際して、デブロックフィルタを適用すべき範囲をより適切に判定し、画質を向上させることができる。
さらに、本技術は、上述した実施形態に限定して解釈されるべきではない。この実施形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
なお、本技術は以下のような構成も取ることができる。
(1) ブロック毎に符号化された画像データを復号する復号部と、
前記復号部により復号された復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行うフィルタと、
ブロック境界において隣接する隣接ブロックのブロックサイズに応じて、ブロック境界に対する前記フィルタ処理のタップ長又は前記フィルタ処理の処理対象となるフィルタ処理対象画素範囲を設定するフィルタ設定部と、
を備える画像処理装置。
(2) 前記フィルタ設定部は、前記隣接ブロックの少なくとも一方が所定のブロックサイズより拡張されている場合に、前記タップ長を拡張した長さに設定する(1)記載の画像処理装置。
(3) 前記フィルタ設定部は、前記隣接ブロックのブロックサイズが大きいほど、前記フィルタのタップ長を長く設定する(2)に記載の画像処理装置。
(4) 前記フィルタ設定部は、前記隣接ブロックの少なくとも一方が所定のブロックサイズより拡張されている場合に、前記フィルタ処理対象画素範囲を拡張した広さに設定する(1)乃至(3)の何れかに記載の画像処理装置。
(5) 前記フィルタ設定部は、前記隣接ブロックのブロックサイズが大きいほど、前記フィルタ処理対象画素範囲を広く設定する(1)乃至(4)の何れかに記載の画像処理装置。
(6) 前記フィルタ設定部は、前記隣接ブロックの少なくとも一方が所定のブロックサイズより拡張されている場合に、前記フィルタ処理に用いるブロック境界強度データの値を拡張した値に設定する(1)乃至(5)の何れかに記載の画像処理装置。
(7) 前記フィルタ設定部は、前記隣接ブロックのブロックサイズが大きいほど、前記フィルタ処理に用いるブロック境界強度データの値を大きく設定する(6)に記載の画像処理装置。
(8) 前記フィルタ設定部は、前記隣接ブロックにおいて隣接する側のブロックサイズに応じて、前記フィルタ処理のタップ長又は前記フィルタ処理対象画素範囲を設定する(1)乃至(7)の何れかに記載の画像処理装置。
(9) 前記フィルタ設定部は、前記隣接ブロックのブロックサイズに対応したケース分類に応じて、前記フィルタ処理のタップ長とフィルタ処理対象画素範囲を設定する(1)乃至(8)の何れかに記載の画像処理装置。
(10) 前記ケース分類は、前記隣接ブロックが共に所定ブロックサイズ以下のケースと、少なくとも一方が所定のブロックサイズより拡張されているケースである(9)に記載の画像処理装置。
(11) 前記フィルタ設定部は、前記隣接ブロックが16×16画素以下である場合と、前記2つのブロックの少なくとも一方が16×16画素より大きいが両方とも32×32画素以下の場合と、前記2つのブロックの少なくとも一方が32×32画素より大きい場合に、ケース分類を行う(10)に記載の画像処理装置。
(12) 前記ブロックサイズは、イントラ予測又はインター予測を行う際の処理単位である予測ブロックサイズである(1)乃至(11)の何れかに記載の画像処理装置。
(13) 前記ブロックサイズは、直交変換を行う際の処理単位である変換サイズである(1)乃至(12)の何れかに記載の画像処理装置。
(14) 前記所定のブロックサイズは、H.264/AVC規格のマクロブロックサイズである(2)乃至(13)の何れかに記載の画像処理装置。
(15) 前記フィルタ設定部は、前記復号画像データが予測画像の生成のための画像データであるか、画像表示のための画像データであるかに応じて、前記タップ長又はフィルタ処理対象画素範囲の設定を行う(1)乃至(14)の何れかに記載の画像処理装置。
この技術の画像処理装置と画像処理方法では、ブロック歪みが軽減された良好な画質の画像を得られるようになる。したがって、MPEG、H.26x等のように、ブロック単位で符号化を行うことにより得られた画像情報(ビットストリーム)を、衛星放送、ケーブルTV、インターネット、携帯電話などのネットワークメディアを介して送受信する際に、若しくは光、磁気ディスク、フラッシュメモリのような記憶メディア上で処理する際に用いられる画像符号化装置や画像復号化装置等に適している。
10・・・画像符号化装置、11・・・A/D変換部、12,57・・・画面並べ替えバッファ、13・・・減算部、14・・・直交変換部、15・・・量子化部、16・・・可逆符号化部、17,51・・・蓄積バッファ、18・・・レート制御部、21,53・・・逆量子化部、22,54・・・逆直交変換部、23,55・・・加算部、24,56・・・デブロッキングフィルタ、25,61・・・フレームメモリ、26,62,65・・・セレクタ、31,63・・・イントラ予測部、32・・・動き予測・補償部、33・・・予測画像・最適モード選択部、41,71・・・フィルタ設定部、50・・・画像復号装置、52・・・可逆復号化部、58・・・D/A変換部、64・・・動き補償部、90・・・テレビジョン装置、92・・・携帯電話機、94・・・記録再生装置、96・・・撮像装置、241・・・フィルタ強度決定部、242・・・フィルタ処理部、411・・・ブロックサイズバッファ、412・・・パラメータ値生成部、901、921・・・アンテナ、902、941・・・チューナ、903・・・デマルチプレクサ、904,947・・・デコーダ、905・・・映像信号処理部、906・・・表示部、907・・・音声信号処理部、908・・・スピーカ、909、942、966・・・外部インタフェース部、910、931,949,970・・・制御部、911,932,971・・・ユーザインタフェース部、912,933,972・・・バス、922・・・通信部、923・・・音声コーデック、924・・・スピーカ、925・・・マイクロホン、926・・・カメラ部、927・・・画像処理部、928・・・多重分離部、929・・・記録再生部、930・・・表示部、943・・・エンコーダ、944・・・HDD部、945・・・ディスクドライブ、948、969・・・OSD部、961・・・光学ブロック、962・・・撮像部、963・・・カメラ信号処理部、964・・・画像データ処理部、965・・・表示部、967・・・メモリ部、968・・・メディアドライブ

Claims (18)

  1. ブロック毎に符号化された画像データを復号する復号部と、
    前記復号部により復号された復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行うフィルタと、
    ブロック境界において隣接する隣接ブロックのブロックサイズに応じて、ブロック境界に対する前記フィルタ処理のタップ長又は前記フィルタ処理の処理対象となるフィルタ処理対象画素範囲を設定するフィルタ設定部と、
    を備える画像処理装置。
  2. 前記フィルタ設定部は、前記隣接ブロックの少なくとも一方が所定のブロックサイズより拡張されている場合に、前記タップ長を拡張した長さに設定する
    請求項1記載の画像処理装置。
  3. 前記フィルタ設定部は、前記隣接ブロックのブロックサイズが大きいほど、前記フィルタのタップ長を長く設定する
    請求項2に記載の画像処理装置。
  4. 前記フィルタ設定部は、前記隣接ブロックの少なくとも一方が所定のブロックサイズより拡張されている場合に、前記フィルタ処理対象画素範囲を拡張した広さに設定する
    請求項1記載の画像処理装置。
  5. 前記フィルタ設定部は、前記隣接ブロックのブロックサイズが大きいほど、前記フィルタ処理対象画素範囲を広く設定する
    請求項4に記載の画像処理装置。
  6. 前記フィルタ設定部は、前記隣接ブロックの少なくとも一方が所定のブロックサイズより拡張されている場合に、前記フィルタ処理に用いるブロック境界強度データの値を拡張した値に設定する
    請求項1記載の画像処理装置。
  7. 前記フィルタ設定部は、前記隣接ブロックのブロックサイズが大きいほど、前記フィルタ処理に用いるブロック境界強度データの値を大きく設定する
    請求項6に記載の画像処理装置。
  8. 前記フィルタ設定部は、前記隣接ブロックにおいて隣接する側のブロックサイズに応じて、前記フィルタ処理のタップ長又は前記フィルタ処理対象画素範囲を設定する
    請求項1に記載の画像処理装置。
  9. 前記フィルタ設定部は、前記隣接ブロックのブロックサイズに対応したケース分類に応じて、前記フィルタ処理のタップ長とフィルタ処理対象画素範囲を設定する
    請求項1記載の画像処理装置。
  10. 前記ケース分類は、前記隣接ブロックが共に所定ブロックサイズ以下のケースと、少なくとも一方が所定のブロックサイズより拡張されているケースである
    請求項9記載の画像処理装置。
  11. 前記フィルタ設定部は、前記隣接ブロックが16×16画素以下である場合と、前記2つのブロックの少なくとも一方が16×16画素より大きいが両方とも32×32画素以下の場合と、前記2つのブロックの少なくとも一方が32×32画素より大きい場合に、ケース分類を行う
    請求項10記載の画像処理装置。
  12. 前記ブロックサイズは、イントラ予測又はインター予測を行う際の処理単位である予測ブロックサイズである
    請求項1に記載の画像処理装置。
  13. 前記ブロックサイズは、直交変換を行う際の処理単位である変換サイズである
    請求項1に記載の画像処理装置。
  14. 前記所定のブロックサイズは、H.264/AVC規格のマクロブロックサイズである
    請求項2記載の画像処理装置。
  15. 前記フィルタ設定部は、前記復号画像データが予測画像の生成のための画像データであるか、画像表示のための画像データであるかに応じて、前記タップ長又はフィルタ処理対象画素範囲の設定を行う
    請求項1記載の画像処理装置。
  16. ブロック毎に符号化された画像データを復号する復号工程と、
    前記復号工程において復号された復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行うフィルタ工程と、
    ブロック境界において隣接する隣接ブロックのブロックサイズに応じて、ブロック境界に対する前記フィルタ処理のタップ長又は前記フィルタ処理の処理対象となるフィルタ処理対象画素範囲を設定するフィルタ工程と、
    を有する画像処理方法。
  17. 直交変換と量子化が行われた画像データがローカル復号された復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行うフィルタと、
    ブロック境界において隣接する隣接ブロックのブロックサイズに応じて、ブロック境界に対する前記フィルタ処理のタップ長又は前記フィルタ処理の処理対象となるフィルタ処理対象画素範囲を設定するフィルタ設定部と、
    前記フィルタによりフィルタ処理が行われた復号画像データを用いて、画像データブロック毎に符号化する符号化部と、
    を備える画像処理装置。
  18. 直交変換と量子化が行われた画像データがローカル復号された復号画像データを対象として、ブロック歪みを除去するフィルタ処理を行うフィルタ工程と、
    ブロック境界において隣接する隣接ブロックのブロックサイズに応じて、ブロック境界に対する前記フィルタ処理のタップ長又は前記フィルタ処理の処理対象となるフィルタ処理対象画素範囲を設定するフィルタ設定工程と、
    前記フィルタ工程においてフィルタ処理が行われた復号画像データを用いて、画像データブロック毎に符号化する符号化工程と、
    を有する画像処理方法。
JP2012515888A 2010-05-18 2011-05-17 画像処理装置と画像処理方法 Pending JPWO2011145601A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010114067 2010-05-18
JP2010114067 2010-05-18
PCT/JP2011/061288 WO2011145601A1 (ja) 2010-05-18 2011-05-17 画像処理装置と画像処理方法

Publications (1)

Publication Number Publication Date
JPWO2011145601A1 true JPWO2011145601A1 (ja) 2013-07-22

Family

ID=44991703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012515888A Pending JPWO2011145601A1 (ja) 2010-05-18 2011-05-17 画像処理装置と画像処理方法

Country Status (9)

Country Link
US (6) US8855434B2 (ja)
EP (1) EP2574055A4 (ja)
JP (1) JPWO2011145601A1 (ja)
KR (3) KR101914896B1 (ja)
CN (3) CN106331714B (ja)
BR (1) BR112012028934B1 (ja)
RU (2) RU2701840C2 (ja)
TW (2) TWI508534B (ja)
WO (1) WO2011145601A1 (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295609B2 (en) 2001-11-30 2007-11-13 Sony Corporation Method and apparatus for coding image information, method and apparatus for decoding image information, method and apparatus for coding and decoding image information, and system of coding and transmitting image information
US8625914B2 (en) * 2013-02-04 2014-01-07 Sony Corporation Image processing system, image processing method and program
JP5359657B2 (ja) 2009-07-31 2013-12-04 ソニー株式会社 画像符号化装置および方法、記録媒体、並びにプログラム
JP5914962B2 (ja) 2010-04-09 2016-05-11 ソニー株式会社 画像処理装置および方法、プログラム、並びに、記録媒体
JP2011223302A (ja) * 2010-04-09 2011-11-04 Sony Corp 画像処理装置と画像処理方法
KR20110123651A (ko) 2010-05-07 2011-11-15 한국전자통신연구원 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
TWI508534B (zh) * 2010-05-18 2015-11-11 Sony Corp Image processing apparatus and image processing method
KR101918904B1 (ko) 2010-06-04 2019-02-08 소니 주식회사 화상 처리 장치 및 방법
CN103229506B (zh) 2010-12-07 2016-11-09 索尼公司 图像处理设备和图像处理方法
MY174587A (en) 2010-12-07 2020-04-28 Sony Corp Image processing device and image processing method
JP5741076B2 (ja) 2010-12-09 2015-07-01 ソニー株式会社 画像処理装置及び画像処理方法
MY191819A (en) 2011-02-10 2022-07-18 Sony Group Corp Image processing device and image processing method
MY173604A (en) 2011-03-11 2020-02-10 Sony Corp Image processing apparatus and method
TWI530161B (zh) 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
DK3313074T3 (da) 2011-06-28 2021-10-25 Sony Group Corp Anordning til billedbehandling, fremgangsmåde til billedbehandling
JP5907367B2 (ja) 2011-06-28 2016-04-26 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
CN107295341B (zh) * 2011-07-22 2020-02-28 Sk电信有限公司 视频编码方法
EP2737704B1 (en) * 2011-09-13 2020-02-19 HFI Innovation Inc. Method and apparatus for reduction of deblocking filter
CN103765903B (zh) * 2012-01-18 2017-09-01 松下知识产权经营株式会社 图像解码装置、图像编码装置、图像解码方法及图像编码方法
KR102113985B1 (ko) * 2012-01-19 2020-05-22 미쓰비시덴키 가부시키가이샤 화상 복호 장치, 화상 부호화 장치, 화상 복호 방법, 화상 부호화 방법 및 기억 매체
TWI632808B (zh) * 2012-04-06 2018-08-11 新力股份有限公司 Image processing device and method
KR101641606B1 (ko) * 2012-07-09 2016-07-21 니폰 덴신 덴와 가부시끼가이샤 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 화상 복호 프로그램 및 기록매체
KR101468078B1 (ko) * 2013-02-06 2014-12-08 성균관대학교산학협력단 화면 내 예측 방법 및 장치
US9615086B2 (en) 2013-02-06 2017-04-04 Research & Business Foundation Sungkyunkwan University Method and apparatus for intra prediction
US20140286413A1 (en) * 2013-03-25 2014-09-25 Qualcomm Incorporated Disabling sign data hiding in video coding
CN103220529B (zh) * 2013-04-15 2016-02-24 北京大学 一种视频编解码环路滤波的实现方法
US9696145B2 (en) * 2013-05-13 2017-07-04 Texas Instruments Incorporated Opportunistic structured light
CN103246992A (zh) * 2013-05-30 2013-08-14 叶旭东 房屋3d展示系统、在线房屋展示系统及其在线销售方法
JP6399433B2 (ja) * 2013-05-31 2018-10-03 サン パテント トラスト 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
US9264661B2 (en) * 2013-06-07 2016-02-16 Apple Inc. Adaptive post-processing for mobile video calling system
WO2015053112A1 (ja) * 2013-10-11 2015-04-16 ソニー株式会社 復号装置および復号方法、並びに、符号化装置および符号化方法
EP3072300B1 (en) * 2013-11-24 2019-01-16 LG Electronics Inc. Method and apparatus for encoding and decoding video signal using adaptive sampling
US9607710B2 (en) * 2014-11-10 2017-03-28 Sk Hynix Memory Solutions Inc. Read-threshold calibration in a solid state storage system
KR102294016B1 (ko) * 2014-12-05 2021-08-25 성균관대학교산학협력단 변환생략을 참조하는 디블록킹 필터링을 이용한 영상의 부호화/복호화 방법 및 이를 이용하는 장치
EP3357248B1 (en) * 2015-09-30 2021-07-28 RealNetworks, Inc. Layered deblocking filtering in video processing methods
JP6620354B2 (ja) * 2015-09-30 2019-12-18 Kddi株式会社 動画像の処理装置、処理方法及びコンピュータ可読記憶媒体
CN116781903A (zh) * 2016-06-24 2023-09-19 世宗大学校产学协力团 视频信号解码和编码方法、比特流的传输方法
US10219091B2 (en) * 2016-07-18 2019-02-26 Bose Corporation Dynamically changing master audio playback device
KR102331220B1 (ko) * 2016-12-27 2021-12-01 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치, 복호 장치, 부호화 방법 및 복호 방법
KR102664196B1 (ko) 2016-12-28 2024-05-20 소니그룹주식회사 화상 처리 장치 및 화상 처리 방법
WO2018123444A1 (ja) * 2016-12-28 2018-07-05 ソニー株式会社 画像処理装置及び画像処理方法
JP7047776B2 (ja) * 2017-01-12 2022-04-05 ソニーグループ株式会社 符号化装置及び符号化方法、並びに、復号装置及び復号方法
KR102296015B1 (ko) 2017-04-06 2021-09-01 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 부호화 장치, 복호 장치, 부호화 방법 및 복호 방법
TWI812378B (zh) 2017-04-06 2023-08-11 美商松下電器(美國)知識產權公司 解碼裝置、編碼裝置及電腦可讀取之非暫時性媒體
CN110495168B (zh) * 2017-04-06 2021-12-07 松下电器(美国)知识产权公司 编码装置、解码装置、编码方法及解码方法
TW202423115A (zh) * 2017-04-06 2024-06-01 美商松下電器(美國)知識產權公司 編碼裝置、解碼裝置、電腦可讀取之非暫時性的媒體
TWI832814B (zh) * 2017-04-06 2024-02-21 美商松下電器(美國)知識產權公司 解碼裝置及編碼裝置
CN115118994B (zh) * 2017-08-22 2024-02-06 松下电器(美国)知识产权公司 图像编码器、图像解码器、和比特流生成设备
EP3662666B1 (en) * 2017-09-08 2024-08-07 HFI Innovation Inc. Methods and apparatuses of processing pictures in an image or video coding system
US10645408B2 (en) * 2017-09-17 2020-05-05 Google Llc Dual deblocking filter thresholds
JP6918661B2 (ja) * 2017-09-22 2021-08-11 キヤノン株式会社 符号化装置、符号化方法及びプログラム
US10841610B2 (en) * 2017-10-23 2020-11-17 Avago Technologies International Sales Pte. Limited Block size dependent interpolation filter selection and mapping
US11153607B2 (en) * 2018-01-29 2021-10-19 Mediatek Inc. Length-adaptive deblocking filtering in video coding
WO2019188944A1 (en) * 2018-03-30 2019-10-03 Sharp Kabushiki Kaisha Systems and methods for applying deblocking filters to reconstructed video data
KR20200002011A (ko) * 2018-06-28 2020-01-07 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
SG11202100154PA (en) 2018-07-30 2021-02-25 Samsung Electronics Co Ltd Method and apparatus for image encoding, and method and apparatus for image decoding
US20200068223A1 (en) * 2018-08-27 2020-02-27 Qualcomm Incorporated Deblocking filter for video coding and processing
JP6998846B2 (ja) * 2018-08-30 2022-01-18 Kddi株式会社 画像復号装置、画像符号化装置、画像処理システム及びプログラム
KR102602827B1 (ko) 2018-09-04 2023-11-15 후아웨이 테크놀러지 컴퍼니 리미티드 양방향 인터 예측에 적용되는 참조 프레임 획득 방법 및 장치
EP3868109A4 (en) * 2018-10-23 2022-08-17 HFI Innovation Inc. METHOD AND APPARATUS FOR LOOP FILTER BUFFER REDUCTION
CN118764647A (zh) 2018-11-02 2024-10-11 索尼集团公司 图像处理装置和图像处理方法
WO2020175145A1 (ja) * 2019-02-27 2020-09-03 ソニー株式会社 画像処理装置及び画像処理方法
EP3975556A4 (en) 2019-06-19 2022-08-03 Lg Electronics Inc. IMAGE DECODING METHOD FOR PERFORMING INTER-PREDICTION WHEN THE CURRENT BLOCK PREDICTION MODE CANNOT FINALLY BE SELECTED AND ASSOCIATED DEVICE
MX2022000820A (es) * 2019-07-19 2022-04-06 Lg Electronics Inc Metodo y dispositivo de codificacion/decodificacion de imagen usando filtracion, y metodo para transmitir flujo de bits.
CN112399235B (zh) * 2019-08-18 2023-05-09 海信视像科技股份有限公司 一种智能电视的摄像头拍照效果增强方法及显示设备
JP6839246B2 (ja) * 2019-09-03 2021-03-03 Kddi株式会社 動画像の処理装置、処理方法及びコンピュータ可読記憶媒体
CN117395415A (zh) 2019-10-04 2024-01-12 Lg电子株式会社 图像编解码设备和用于发送数据的设备
FI20215507A1 (en) 2021-04-30 2022-10-31 Andritz Oy System and method for producing microcrystalline cellulose
FI20215509A1 (en) 2021-04-30 2022-10-31 Andritz Oy Microcrystalline cellulose product

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001793A1 (ja) * 2007-06-26 2008-12-31 Kabushiki Kaisha Toshiba 画像符号化と画像復号化の方法及び装置
WO2010001911A1 (ja) * 2008-07-03 2010-01-07 シャープ株式会社 フィルタ装置
JP2010081368A (ja) * 2008-09-26 2010-04-08 Toshiba Corp 画像処理装置、動画像復号装置、動画像符号化装置、画像処理方法、動画像復号方法、及び、動画像符号化方法

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW293227B (ja) * 1994-11-24 1996-12-11 Victor Company Of Japan
EP0721286A3 (en) * 1995-01-09 2000-07-26 Matsushita Electric Industrial Co., Ltd. Video signal decoding apparatus with artifact reduction
JP3464767B2 (ja) * 1998-12-29 2003-11-10 ソニー株式会社 ウェーブレット復号装置及び方法
JP2000341689A (ja) * 1999-05-27 2000-12-08 Sony Corp ウェーブレット逆変換装置及び方法、並びにウェーブレット復号装置及び方法
JP4254017B2 (ja) * 2000-03-10 2009-04-15 ソニー株式会社 画像符号化装置及び方法
US6931063B2 (en) * 2001-03-26 2005-08-16 Sharp Laboratories Of America, Inc. Method and apparatus for controlling loop filtering or post filtering in block based motion compensationed video coding
KR100525785B1 (ko) * 2001-06-15 2005-11-03 엘지전자 주식회사 이미지 화소 필터링 방법
US7295609B2 (en) 2001-11-30 2007-11-13 Sony Corporation Method and apparatus for coding image information, method and apparatus for decoding image information, method and apparatus for coding and decoding image information, and system of coding and transmitting image information
US7826535B2 (en) * 2002-04-11 2010-11-02 Broadcom Corporation Adaptive pixel processing
US7330596B2 (en) * 2002-07-17 2008-02-12 Ricoh Company, Ltd. Image decoding technique for suppressing tile boundary distortion
US7995849B2 (en) 2003-03-17 2011-08-09 Qualcomm, Incorporated Method and apparatus for improving video quality of low bit-rate video
JP2005123732A (ja) * 2003-10-14 2005-05-12 Matsushita Electric Ind Co Ltd デブロックフィルタ処理装置およびデブロックフィルタ処理方法
KR101000926B1 (ko) * 2004-03-11 2010-12-13 삼성전자주식회사 영상의 불연속성을 제거하기 위한 필터 및 필터링 방법
JP4504078B2 (ja) * 2004-04-26 2010-07-14 オリンパス株式会社 エアギャップ可変式分光透過率可変素子のエアギャップ基準位置調整構造及びエアギャップ可変式分光透過率可変素子のエアギャップ基準位置調整構造を備えた光学装置
US7916952B2 (en) * 2004-09-14 2011-03-29 Gary Demos High quality wide-range multi-layer image compression coding system
US7428342B2 (en) * 2004-12-17 2008-09-23 Microsoft Corporation Reversible overlap operator for efficient lossless data compression
KR100679035B1 (ko) * 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
JP4500213B2 (ja) * 2005-05-20 2010-07-14 オリンパスイメージング株式会社 データ符号化装置、データ復号化装置、データ符号化方法、データ復号化方法、プログラム
JP4784188B2 (ja) 2005-07-25 2011-10-05 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
CN101502119B (zh) * 2006-08-02 2012-05-23 汤姆逊许可公司 用于视频编码的自适应几何分割方法和设备
WO2008084378A2 (en) * 2007-01-09 2008-07-17 Nokia Corporation Adaptive interpolation filters for video coding
JP4687918B2 (ja) * 2007-07-24 2011-05-25 富士ゼロックス株式会社 画像処理装置及びプログラム
ATE526788T1 (de) * 2007-11-16 2011-10-15 St Microelectronics Sa Deblockierungsfilter
JP5597968B2 (ja) * 2009-07-01 2014-10-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP5344238B2 (ja) 2009-07-31 2013-11-20 ソニー株式会社 画像符号化装置および方法、記録媒体、並びにプログラム
JP5359657B2 (ja) 2009-07-31 2013-12-04 ソニー株式会社 画像符号化装置および方法、記録媒体、並びにプログラム
JP2011050001A (ja) * 2009-08-28 2011-03-10 Sony Corp 画像処理装置および方法
JP5914962B2 (ja) 2010-04-09 2016-05-11 ソニー株式会社 画像処理装置および方法、プログラム、並びに、記録媒体
JP2011223302A (ja) * 2010-04-09 2011-11-04 Sony Corp 画像処理装置と画像処理方法
TWI508534B (zh) * 2010-05-18 2015-11-11 Sony Corp Image processing apparatus and image processing method
KR101918904B1 (ko) 2010-06-04 2019-02-08 소니 주식회사 화상 처리 장치 및 방법
CN103229506B (zh) 2010-12-07 2016-11-09 索尼公司 图像处理设备和图像处理方法
MY174587A (en) 2010-12-07 2020-04-28 Sony Corp Image processing device and image processing method
JP5741076B2 (ja) 2010-12-09 2015-07-01 ソニー株式会社 画像処理装置及び画像処理方法
JP5850214B2 (ja) * 2011-01-11 2016-02-03 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
MY191819A (en) 2011-02-10 2022-07-18 Sony Group Corp Image processing device and image processing method
MY173604A (en) 2011-03-11 2020-02-10 Sony Corp Image processing apparatus and method
TWI530161B (zh) 2011-06-07 2016-04-11 Sony Corp Image processing apparatus and method
JP5907367B2 (ja) 2011-06-28 2016-04-26 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP6182719B2 (ja) 2012-06-29 2017-08-23 ヴェロス メディア インターナショナル リミテッドVelos Media International Limited 符号化装置および符号化方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009001793A1 (ja) * 2007-06-26 2008-12-31 Kabushiki Kaisha Toshiba 画像符号化と画像復号化の方法及び装置
WO2010001911A1 (ja) * 2008-07-03 2010-01-07 シャープ株式会社 フィルタ装置
JP2010081368A (ja) * 2008-09-26 2010-04-08 Toshiba Corp 画像処理装置、動画像復号装置、動画像符号化装置、画像処理方法、動画像復号方法、及び、動画像符号化方法

Also Published As

Publication number Publication date
BR112012028934B1 (pt) 2022-03-08
RU2016105592A (ru) 2018-11-22
TWI508534B (zh) 2015-11-11
RU2701840C2 (ru) 2019-10-01
US20140355696A1 (en) 2014-12-04
KR20130070597A (ko) 2013-06-27
RU2012147780A (ru) 2014-07-20
CN106851289A (zh) 2017-06-13
US10477206B2 (en) 2019-11-12
TW201208382A (en) 2012-02-16
WO2011145601A1 (ja) 2011-11-24
CN106331714B (zh) 2020-09-15
RU2016105592A3 (ja) 2019-07-17
KR20180121670A (ko) 2018-11-07
TW201601523A (zh) 2016-01-01
US20130028531A1 (en) 2013-01-31
KR20170137959A (ko) 2017-12-13
KR101808357B1 (ko) 2017-12-12
BR112012028934A2 (pt) 2016-07-26
KR102005209B1 (ko) 2019-07-29
CN106851289B (zh) 2020-09-15
US20160044312A1 (en) 2016-02-11
CN102934429B (zh) 2016-09-28
CN102934429A (zh) 2013-02-13
CN106331714A (zh) 2017-01-11
TWI600318B (zh) 2017-09-21
KR101914896B1 (ko) 2018-11-02
EP2574055A4 (en) 2017-04-26
US9253506B2 (en) 2016-02-02
US20200029074A1 (en) 2020-01-23
US20140355670A1 (en) 2014-12-04
EP2574055A1 (en) 2013-03-27
US9167267B2 (en) 2015-10-20
US20200029075A1 (en) 2020-01-23
RU2580056C2 (ru) 2016-04-10
US8855434B2 (en) 2014-10-07

Similar Documents

Publication Publication Date Title
KR102005209B1 (ko) 화상 처리 장치와 화상 처리 방법
US10887590B2 (en) Image processing device and method
WO2014002896A1 (ja) 符号化装置および符号化方法、復号装置および復号方法
JP2011223302A (ja) 画像処理装置と画像処理方法
JP2013150173A (ja) 画像処理装置および方法
WO2012063878A1 (ja) 画像処理装置と画像処理方法
JP2011223338A (ja) 画像処理装置および方法
JP5556996B2 (ja) 画像処理装置および方法
WO2011125866A1 (ja) 画像処理装置および方法
WO2012098790A1 (ja) 画像処理装置及び画像処理方法
WO2013108688A1 (ja) 画像処理装置および方法
WO2013047325A1 (ja) 画像処理装置および方法
JP2016054570A (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
WO2013065567A1 (ja) 画像処理装置および方法
WO2014002900A1 (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150430

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150630