JP4454678B2 - 隣接するブロック間のブロック境界の特徴を定める方法 - Google Patents

隣接するブロック間のブロック境界の特徴を定める方法 Download PDF

Info

Publication number
JP4454678B2
JP4454678B2 JP2008501902A JP2008501902A JP4454678B2 JP 4454678 B2 JP4454678 B2 JP 4454678B2 JP 2008501902 A JP2008501902 A JP 2008501902A JP 2008501902 A JP2008501902 A JP 2008501902A JP 4454678 B2 JP4454678 B2 JP 4454678B2
Authority
JP
Japan
Prior art keywords
block
blocks
filtering
boundary
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008501902A
Other languages
English (en)
Other versions
JP2008533909A5 (ja
JP2008533909A (ja
Inventor
サン,シジュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2008533909A publication Critical patent/JP2008533909A/ja
Publication of JP2008533909A5 publication Critical patent/JP2008533909A5/ja
Application granted granted Critical
Publication of JP4454678B2 publication Critical patent/JP4454678B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明の実施例は、画像ブロック境界フィルタリング制御のための方法に関する。本発明の一部の実施例は、逆ブロックキングフィルタ演算を制御するための、空間的スケーラビリティエンハンスメントレイヤ内の接ブロック間のブロック境界の特徴を定めるための方法を含む。
H.264/MPEG-4 AVC[ITU-T VCEGおよびISO/IEC MPEGのJoint Video Team、「高度ビデオ符号化(AVC)−第4版」、ITU-T 勧告H.264およびISO/IEC14496-10(MPEG-4-Part10)、2005年1月](この規格を本明細書で参考例として援用する)は、ビデオコーデック仕様であり、この仕様は、マクロブロック予測を使用しており、マクロブロック予測の次に残差符号化が行われ、圧縮効率のためにビデオシーケンス内の時間的および空間的冗長性を低減するようになっている。空間的スケーラビリティとは、サポートされた任意の空間解像度でレート歪性能を維持しながら、ビットストリームの一部を除去できる機能を意味する。単一レイヤのH.264/MPEG-4 AVCは、空間的スケーラビリティをサポートしていない。空間的スケーラビリティは、H.264/MPEG-4 AVCのスケーラブルなビデオ符号化(SVC)拡張によってサポートされている。
H.264/MPEG-4 AVC[ジョイントスケーラブルビデオモデル(JSVM)のための作業ドキュメント1.0(WD-1.0)(MPEGドキュメントN6901)のSVC拡張(これを本明細書で参考例として援用する)は、レイヤ状のビデオコーデックであり、このビデオコーデックではレイヤ間予測機構により空間レイヤ間の冗長性を利用している。H.264/MPEG-4 AVCのSVC拡張のデザイン内には、3つのレイヤ間予測技術、すなわちレイヤ間動き予測、レイヤ間残差予測およびレイヤ間イントラテクスチャ予測が含まれている。
ブロックをベースとする動き補償ビデオ符号化は、多くのビデオ圧縮規格、例えばH.261、H.263、H.264、MPEG-1、MPEG-2およびMPEG-4で使用されている。損失の大きい圧縮プロセスは、復号された画像内に、画像歪と称される視覚的な歪を発生することがある。ブロッキング歪は、画像内のブロック境界に沿って生じ、変換係数の粗い量子化が原因となって生じる。
再構成された画像内の歪を低減するのに、画像フィルタリング技術を使用できる。再構成された画像は、逆変換され、復号された後に生成される画像であり、これら技術における経験則は、画像の残りの部分をスムーズにする一方、画像のエッジを保存しなければならないことである。特定のピクセルまたは画像エッジを囲むピクセルの組の特性に基づき、ローパスフィルタを注意深く選択する。
画像ブロック境界を横断するように延びる相関性のない画像ピクセルは、ブロッキング歪を低減するために特にフィルタリングされる。しかしながら、このフィルタリングは、画像内にボケた歪を生じさせる。隣接するブロック間にブロッキング歪がほとんどないか、または皆無である場合、ローパスフィルタリングは不必要に画像内にボケを生じさせ、同時に処理リソースを無駄にする。
これまでは、SVCによりディアディック空間的スケーラビリティしか解決されていなかった。ディアディック空間的スケーラビリティとは、2つの連続する空間レイヤの間のピクチャーディメンジョンの比が2の累乗となる構成を意味する。連続する空間レイヤの間のピクチャーディメンジョンの比が2の累乗でなく、高レベルのピクチャーがより低いレベルの対応するピクチャー内に存在しない領域を含むことがある構成を管理する新しいツール(クロッピングウィンドウ(cropping window)による非ディアディックスケーリングと称される)がこれまで提案されている。
レイヤ間予測方法のいずれも、ピクチャーアップサンプリングを含む。ピクチャーアップサンプリングとは、より低い解像度の画像からより高い解像度の画像を生成するプロセスのことである。一部のピクチャーアップサンプリングプロセスは、サンプル補間法を含む。SVCデザインで使用されるこれまでのアップサンプリングプロセスは、インター予測のためのH.264で指定されているルミナンスの4分の1サンプル補間方法に基づいていた。従来の方法を空間的にスケーラビルな符号化に使用するとき、この従来の方法には次の2つの欠点がある。すなわち補間解像度が4分の1のサンプルに限定されるので、非ディアディックスケーリングをサポートできず、4分の1サンプル位置を得るにはハーフサンプル補間が必要であるので、この方法は計算上取り扱いにくい。これら問題を克服するピクチャーアップサンプリング方法が望まれている。
本発明の実施例は、画像符号化および復号のための方法およびシステムを含む。本発明の一部の実施例は、空間的スケーラビリティエンハンスメントレイヤー内の接するブロック間のブロック境界の特性を定めるための方法およびシステムを含む。一部の実施例では、レイヤ間テクスチャー予測を利用して、隣接するブロックのうちの少なくとも1つを符号化する。前記接するブロックのうちの1つが指定された基準を満たすと、境界強度インジケータによりブロック境界の特性を定めることができる。
添付図面を参照しながら本発明の詳細な説明を検討すれば、本発明の上記およびそれ以外の目的、特徴および利点について、より容易に理解できよう。
図面を参照することにより、本発明の実施例が最も良く理解されよう。図全体にわたり、同様な部品は同様な番号で示す。図面はこの詳細な説明の一部として援用する。
本明細書で全般的に説明し、図に示すように、本発明の構成要素は、広範な種々の異なる構成で配置し、設計できることが容易に理解できよう。従って、本発明の方法およびシステムの実施例の次のより詳細な説明は、本発明の範囲を制限するものでなく、単に現時点で好ましい本発明の実施例を示すにすぎない。
本発明の実施例の要素は、ハードウェア、ファームウェアおよび/またはソフトウェアとして具現化できる。本明細書に開示する実施例は、単にこれら形態のうちの1つを示すにすぎないが、当業者であれば本発明の範囲内でこれら要素をこれら形態のうちのいずれかで実施することができると理解すべきである。
従来のフィルタリングプロセスは、一度に1つの再構成された画像フレームを検討する。ブロックに基づく符号化技術は、ピクセルのブロックの動きを推定するのに、動きベクトルを使用する。この動きベクトル情報は、符号化と復号の双方で利用できるが、従来のフィルタリングプロセスでは使用されない。例えば、2つの隣接するブロックが同じ基準画像フレームに対して同じ動きベクトルを共用する場合、(多数の基準フレームシステムでは)各ブロックの残差画像間には大きな差がない可能性が高いので、これらブロックをフィルタリングしてはならない。本質的には、画像の隣接する部分は同じ基準フレームに対して同じ動きを有するので、残差画像間に大きな差がないと予測される。多くのケースでは、これら2つの隣接ブロックのブロック境界を基準フレーム内でフィルタリングすることがあり、従って、現フレームに対して再びフィルタリングしてはならない。動きベクトル情報を検討することなく、逆ブロックフィルタを使用する場合、従来のフィルタリングプロセスはフレーム毎に同じ境界を何回もフィルタリングする可能性があった。このような不必要なフィルタリングは、不必要なボケを生じさせるだけでなく、結果としてフィルタリング計算を更に行うことにもなる。
図1は、画像ブロック間の類似性に従ってブロッキング歪を選択的にフィルタリングする画像12を示す。この画像は、同様に、非矩形ブロックまたはピクセルの他の任意の組も使用できると理解すべきである。ブロック14の一部の間の境は、ブロッキング歪18を含む。一般に、ブロッキング歪は、符号化および/または復号プロセスから生じ得るブロック14の間の画像の不連続性である。隣接する画像ブロックの境に存在するブロッキング歪を低減するのに、ローパスフィルタまたは他のフィルタを使用できる。
例えば、ブロック20と22との間にブロッキング歪24が存在する。ブロッキング歪24を除くか、あるいはこれを低減するために、ブロック20と22との間の境26でローパスフィルタを使用できる。このローパスフィルタは、例えば境26の両側からピクセルのグループ28を選択する。ピクセルのグループ28から平均ピクセル値または他の任意の統計的尺度を導き、次に、各個々のピクセルと平均ピクセル値とを比較する。次に、平均ピクセル値の所定のレンジの外にあるグループ28内のピクセルを平均ピクセル値と置き換える。
前に述べたように、隣接するピクセル間にブロッキング歪24がほとんどないか、または全くない場合に、ピクセルのグループ28を不必要にフィルタリングし、よって画像内にボケを生じさせる可能性がある。スキップモードフィルタリング方式は、どれを選択的にフィルタリングするかに基づき、隣接する画像ブロックに対し、動き推定および/または補償情報を使用できる。動き推定情報と補償情報とが十分類似している場合、フィルタリングをスキップしてもよい。これによって、不要な画像のボケを解消し、フィルタリング演算の必要な回数、または他の任意の適当な値を大幅に低減できる。
一例として、符号化プロセス中に隣接する画像ブロック30と32とは、類似する符号化パラメータを有すると判断できる。従って、隣接するブロック30と32との間の境31を横断するピクセルのグループ34に対し、デブロックフィルタリングをスキップできる。画像12内の隣接ブロック間の任意の水平線、垂線または他の任意の境界に対し、スキップモードのフィルタリングを使用できる。
図2は、基準フレーム42、基準フレーム48および現在符号化中または復号中である現フレーム40を示す。2つの隣接するブロック44と46との間でデブロックフィルタリングをスキップすべきかどうかを判断するために、ブロック44に対する符号化パラメータとブロック46に対する符号化パラメータとを比較する。比較できる符号化パラメータのうちの1つは、ブロック44および46に対する動きベクトル(MV)である。
動きベクトルMV1は、現在の画像フレーム40内のブロック44から基準画像42内の関連するブロック44’を指示する。動きベクトルMV2は、現在の画像フレーム40内のブロック46から基準フレーム42内の関連するブロック46’を指示する。スキップモードフィルタリングは動きベクトルMV1とMV2とが同一基準フレーム42内の隣接するブロックを指示しているかどうかを調べるためにチェックする。これら動きベクトルが同一基準フレーム内の隣接するブロックを指示している場合(MV1=MV2)、デブロックフィルタリングをスキップしてよい。この動きベクトル情報は、他の符号化情報と共に使用し、2つの画像ブロック44と46との間のデブロックフィルタリングをスキップするかどうかを判断するのに使用される。
符号化および復号プロセス中に2つ以上の基準フレームを使用できる。例えば別の基準フレーム48が存在することがある。隣接するブロック44および46は、異なる基準フレームを指示する動きベクトルを有することがある。一例では、デブロックフィルタリングをスキップするかどうかの判断は、2つの隣接するブロックに対する動きベクトルが同じ基準フレームを指示しているかどうかによって決まる。例えば画像ブロック44が、基準フレーム48を指示する動きベクトル49を有し、画像ブロックブロック46が基準フレーム42を指示する動きベクトルMV2を有することがある。この例では、動きベクトル49とMV2とは異なる基準フレームを指示するので、デブロックフィルタリングはスキップされない。
図3は、デブロックフィルタリングを選択的にスキップするかどうかの判断をするのに使用できる符号化パラメータの別の例を示す。図2において、前に示したように、画像フレーム40からの画像ブロック44と動きベクトルMV1が指し示した基準フレーム42からの基準ブロック44’とを比較する。画像ブロック44と基準ブロック44’と比較することから、残差ブロック44”が出力される。残差ブロック44”に対して変換50を実行し、変換係数をもつ変換されたブロック44’’を作成する。一実施例では、変換50は離散的コサイン変換であり、変換されたブロック44’’’は直流成分52と交流成分53とを含む。
直流成分52は、残差ブロック44内の最低周波数の変換係数を意味する。例えば残差ブロック44内の平均エネルギーを示す係数である。交流成分53は、残差ブロック44内のより高い周波数の成分を表す変換係数を示す。例えば残差ブロック44内のピクセル間の大きいエネルギー差を表す変換係数のことである。
図4は、変換されたブロック44’’’および46’’’を示す。これら2つの変換ブロック44’’’および46’’’からの直流成分52はプロセッサ54で比較される。直流成分が同一であるか、または互いにある範囲内にある場合、プロセッサ54は2つの隣接するブロック44と46の境間のデブロックフィルタリングをスキップすることをデブロックフィルタ演算56に通知する。直流成分52が類似していなければ、スキップの通知を開始せず、ブロック44と46との間の境をデブロックフィルタリングする。
一例では、国際通信連合(ITU−T)の通信セクタが提案したH.26L符号化方式にスキップモードフィルタリングを組み込んでもよい。このH.26L方式は4×4の整数離散コサイン変換(DCT)ブロックを使用するものである。所望する場合、隣接する2つのブロックの直流成分だけをチェックできる。しかしながら、特に画像ブロックがより大きいサイズ、例えば×ブロックまたは16×16ブロックであるときに、ある限定された低周波交流係数を同様にチェックすることができる。例えばブロック44’’に対する上部直流成分52および3つの低周波数の交流変換係数53とブロック46’’に対する上部直流成分52および3つの低周波数の交流変換係数53とを比較することができる。直流変換係数および/または任意の交流変換係数との異なる組み合わせを使用し、2つの隣接するブロック44と46との間の相対的類似性を識別できる。
プロセッサ54は、符号化プロセス中に生成された他の符号化パラメータ55も受信できる。これら符号化パラメータは、前に述べたように、隣接するブロック44および46に対する動きベクトルおよび基準フレーム情報を含む。プロセッサ54は、これら符号化パラメータのうちの一部または全てを使用し、隣接する画像ブロック44と46との間のデブロックフィルタリングをスキップするかどうかを判断できる。画像に対して実行される他の符号化および変換機能は、同じプロセッサ54または異なる処理回路で実行することができる。同じプロセッサで符号化の全てまたはほとんどを実行する場合、フィルタリングルーチンでスキップパラメータを設定することにより、簡単にスキップモードも可能にすることができる。
図5は、ブロックに基づく動き補償符号化/復号(コーデック)60内でどのようにスキップモードのフィルタリングを使用できるかを示す。このコーデック60は,フレーム間符号化のために使用される。ボックス62からコンパレータ64へ、現フレームからの入力ビデオブロックが送られる。フレームバッファリングボックス80の出力は、推定動きベクトル(および可能な基準フレーム番号)に従って基準ブロック81を生成する。ボックス66内で入力ビデオブロックと基準ブロック81との間の差が変換され、ボックス68内で量子化される。ボックス70内の可変長符号化(VLC)により、量子化された変換ブロックが符号化され、次に送信され、格納等される。
コーデック60の符号化セクションは、ボックス72内で変換された画像を第1逆量子化(IQ)することにより、変換され、量子化された画像を再構成する。次に、この逆量子化された画像は、ボックス74内で逆変換され、再構成された残差画像を生成する。次に、ボックス76内で、この再構成された残差ブロックが基準ブロック81に追加され、再構成された画像ブロックが生成される。一般に、この再構成された画像はボックス78内でループフィルタがかけられ、量子化および変換プロセスによって生じたブロッキング歪が低減される。次に、フィルタにかけられた画像はボックス80内でバッファ化され、基準フレームが形成される。ボックス80内のフレームバッファリングは、動き推定および補償を行うために、再構成された基準フレームを使用する。コンパレータ64内で基準ブロック81と入力ビデオブロックとを比較する。符号化セクションから、符号化された画像が出力され、次に格納または送信される。
コーデック60の復号部分では、可変長復号(VLD)がボックス82内で、符号化された画像を復号する。復号された画像は、ボックス84内で逆量子化され、ボックス86内で逆変換される。ボックス86からの再構成された残差画像は、ブロッキング歪を低減するためにボックス90内でループフィルタリング処理される前に、総和ボックス88内で基準ブロック91に加えられ、基準フレームとしてボックス92内に一時蓄積される。受信された動きベクトル情報に従い、ボックス92から基準ブロック91が生成される。ボックス90からのループフィルタ処理された出力を、ボックス96内でビデオ画像としてディスプレイする前に、画像の歪を更に低減するために、オプションとしてボックス94内でポストフィルタ処理することができる。ボックス78、90および94内のフィルタリング機能の任意の組み合わせで、スキップモードフィルタリング方式を実行できる。
ボックス78、90および/または94内のデブロックフィルタリングをいつスキップするかを判断するために、ビデオ符号化中に利用できる動き推定および補償情報を使用できる。符号化および復号プロセス中に、これら符号化パラメータは既に生成されているので、特にスキップモードフィルタリングのために生成したり、伝送しなければならない別の符号化パラメータは存在しない。
図6は、図5内の符号化および復号内のフィルタ78、90および/または94内でどのようにスキップモードフィルタリングを使用できるかを、更に詳細に示している。まず、ボックス100内では、任意の2つの隣接するブロック“”と“k”との間のブロック間境界が識別される。画像フレーム内では、これら2つのブロックは水平方向または垂直方向に隣接することがある。判断ボックス102は、ブロックjのための動きベクトルmv(j)と、ブロックkのための動きベクトルmv(k)とを比較する。まず、2つの隣接するブロックjとkとが、同じ基準フレームを指示する同じ動きベクトルを有するかどうかを判断する。換言すれば、隣接するブロックのための動きベクトルは同一基準フレーム(ref(j)=ref(k))内の隣接ブロック(mv(j)=mv(k))を指示する。
次に、隣接する2つのブロックに対する残差係数が類似しているかどうかを判断する。隣接するブロックの残差画像間に大きな差がない場合、例えば2つのブロックjとkとが同一または近似する直流成分(dc(j)=dc(k))となっている場合、ボックス104内のデブロックフィルタリングプロセスがスキップされる。次にスキップモードフィルタリングは、ボックス106内の次のブロック間境界へ移動し、判断ボックス102内で次の比較を実行する。スキップモードフィルタリングは水平方向に隣接するブロックおよび垂直方向に隣接するブロックのいずれにも実行できる。
一実施例では、ブロックをスキップすることを判断するために、隣接する画像ブロックに対する基準フレームおよび動きベクトル情報だけを使用する。別の実施例では、ブロックをスキップすることを判断するために、直流および/または交流残差係数だけを使用する。別の実施例では、ブロックをスキップすることを判断するために動きベクトル、基準フレームおよび残差係数の全てを使用する。
空間的にサブサンプリングされたクロミナンスチャンネルに対し、スキップモードのフィルタリング方式を使用できる。例えば4:2:0のカラーフォーマットシーケンスを有するケースでは、ブロック境界に対するスキップモードフィルタリングは、画像のルミナンス成分に対する動きベクトルの質および直流成分だけに依存し得る。動きベクトルと直流成分とが同一である場合、隣接する画像ブロックのルミナンス成分およびクロミナンス成分の双方に対して、デブロックフィルタリングをスキップする。別の実施例では、隣接するブロックの各ルミナンス成分およびクロミナンス成分に対し、動きベクトルおよび直流成分を別々に検討する。この場合、隣接するブロックに対するルミナンス成分またはクロミナンス成分をデブロックフィルタリングできるが、同じ隣接ブロックに対する他のルミナンス成分またはクロミナンス成分をデブロックフィルタリングすることはない。
図7を参照すると、一部の公知の技術は、ループフィルタリングプロセスを制御するためにループフィルタのためのブロック強度パラメータを定めている。画像の各ブロックは、そのブロックに関連した強度の値を有し、4つのブロック境界のうちのすべてで実行されるフィルタリングを制御する。このブロック強度の値は、ビットストリーム内で入手できる動きベクトルおよび変換係数に基づいて導かれる。しかしながら、ブロックのうちの4つのすべてのエッジに対し、ブロック強度を使用することを検討した後に、本発明者たちは、このことは、あるエッジにおける一部のブロッキング歪を除去できるが、他のエッジに沿って不必要にボケを生じさせるという結果になることを実現させるに至った。
ブロックごとのフィルタリングと対照的に、本発明者たちは他の情報と共にエッジごとにフィルタリングの判断をしなければならないことが分かった。他の情報として、例えばブロックのブロック内符号化、残差情報を持つブロックの動き推定、残差情報を持たないブロックの動き推定および十分な差を有する残差情報を持たないブロックの動き推定を挙げることができる。これら情報特性のうちの1つ、2つ、3つまたは4つを使用し、エッジごとのフィルタリング能力を改善できる。これら特性の異なる組に基づき、所望するようにフィルタリングを変えることができる。
各ブロック境界に対し、制御パラメータ、すなわち境界強度Bsを定めることが好ましい。図8を参照すると、共通する境界を共有する一対のブロックをjおよびkと称す。第1ブロック110は、2つのブロックのうちの一方がイントラ符号化されているかどうかを見るようにチェックする。いずれかがイントラ符号化されている場合、ブロック112にて境界強度を3にセットする。ブロック110は、ブロックの双方が動き予測されていないかどうかを判断する。動き予測が使用されていない場合、ブロックはフレーム自身から導き、従って境界上でフィルタリングを実行しなければならない。イントラ符号化されたブロック境界は普通ブロッキング歪を含むので、このことは通常適切である。
ブロックjおよびkの双方が少なくとも部分的に前のフレームまたは将来のフレームから予測される場合、ブロック114においてブロックjおよびkをチェックし、任意の係数を符号化するかどうかを判断する。これら係数は、例えば離散的コサイン変換係数とすることができる。ブロックjおよびkのいずれかが0でない係数を含む場合、ブロックのうちの少なくとも一方は、一般に残差と称される係数を使用するブロックへの変更と共に、前のフレームまたは将来のフレームからの予測を示す。ブロックjおよびkのいずれかが、0でない係数(および予測される動き)を含む場合、境界強度はブロック116にて、2にセットされる。このことは、画像が予測される事象の発生を示すが、この予測は残差を使って修正される。従って、これらの画像はブロッキング歪を含む可能性がある。
ブロックjおよびkの双方が、動き予測され、一般に残差係数と称される非ゼロ係数を含まない場合、境界のどちら側かでのピクセルが互いに十分異なるかどうかが、ブロック118で判断される。この判断は同様に、残差係数が十分小さいかどうかを判断するのにも使用できる。十分な差がある場合、ブロッキング歪が存在する可能性がある。最初に2つのブロックが異なる基準フレームを使用しているかどうか、すなわちR(j)≠R(k)であるかどうかの判断を行う。ブロックjとkとが2つの異なる基準フレームからのものである場合、ブロック120にて1の値を境界強度に割り当てる。これとは異なり、2つの画像ブロックの動きベクトルの絶対値の差をチェックし、それが垂直方向または水平方向のいずれかに1ピクセル以上であるかどうかを判断する。すなわち、
Figure 0004454678
を判断する。所望すれば、使用するテストに応じ、1未満または1より大きい他の闘値も同じように使用できる。動きベクトルの絶対値の差が1以上である場合、境界強度に1の値を割り当てる。
2つのブロックjおよびkが動き予測され、残差がなく、同じフレームに基づいており、わずかな差しか有しない場合、境界強度の値に0の値を割り当てる。境界強度の値に0の値を割り当てた場合、境界をフィルタリングしないか、または他の方法で境界強度の値に適合してフィルタリングする。このシステムは、所望すれば、境界強度が0の場合、軽いフィルタリングを行うことができると理解すべきである。
境界強度の値、すなわち1、2および3を使用して、ループフィルタ内のピクセル値適応レンジを制御する。所望すれば、異なる各境界強度を異なるフィルタリングの基礎とすることができる。例えば、一部の実施例では、3つの種類のフィルタを使用できる。例えばBs=1のときに第1フィルタを使用し、Bs=2のときに第2フィルタを使用し、Bs=3のときに第3フィルタを使用する。結果として、より大きな差を生じさせる他のフィルタリングと比較し、最小フィルタリングにより非フィルタリングを実行できることがわかる。図8に示された例では、Bsの値が大きくなればなるほど、フィルタリングも大きくなる。このフィルタリングは、任意の適切な技術、例えばISO/IEC MPEGとITU-T VCEG(JVT-C167)の共同ビデオチーム(JVT)の共同委員会草稿(CD)に記載されているような方法、または画像歪をフィルタリングするための他の公知の方法によって実行できる。
マルチ画像フレームを符号化または復号する任意のシステムと共に、スキップモードフィルタリングを使用できる。例えばDVDプレイヤー、ビデオレコーダまたはテレビチャンネルもしくはインターネットのような通信チャンネルを通して画像データを伝送する任意のシステムである。このシステムは、符号化パラメータとして量子化パラメータを単独または他の符号化パラメータと組み合わせて使用することができる。更に、このシステムは量子化パラメータを単独で使用しなくてもよいし、またはフィルタリング目的のために量子化パラメータを全く使用しなくてもよい。
上記スキップモードフィルタリングは専用プロセッサシステム、マイクロコントローラ、プログラマブルロジックデバイス、または前記演算の一部または全てを実行するマイクロプロセッサを用いて実現できる。上記演算の一部をソフトウェアで実施し、他の演算をハードウェアで実施してもよい。
便宜上、前記演算は種々の相互接続された機能ブロックまたは異なるソフトウェアモジュールとして記述される。しかしながら、このことは必要ではなく、これら機能ブロックまたはモジュールが単一のロジックデバイス、プログラムまたは境界の不明瞭な演算に等価的に集約されるケースもあり得る。いずれの場合においても、機能ブロックおよびソフトウェアモジュール、もしくは説明した特徴をそれらだけで実施したり、もしくはハードウェアまたはソフトウェアの他の演算と組み合わせて実現することもできる。
図9に示されるような本発明の一部の実施例では、画像データ符号化装置904内に画像データ902を入力できる。この符号化装置904は、本発明の一部の実施例に対してこれまで説明したような適応型フィルタリング部分を含む。画像データ符号化装置904からの出力は、符号化された画像データであり、任意の、コンピュータで読み取り可能な記憶媒体906に記憶できる。記憶媒体としてディスク媒体、メモリカード媒体、またはデジタルテープ媒体を挙げることができるが、これらだけに限定されるものではない。記憶媒体906は、短期記憶デバイスとして機能する。符号化された画像データはこの記憶媒体906から読み出され、本発明の一部の実施例に対してこれまで説明したような適応型フィルタリング部分を含む。画像データ復号装置908によって復号される。この復号された画像データは、出力・復号化画像データ910としてディスプレイまたは他のデバイスへ提供される。
図10に示されるような本発明の一部の実施例では、画像データ1002を符号化し、次に記憶媒体1006に符号化された画像データを記憶することができ、画像データ復号装置1008は図9に示されたものと同一である。図10では、Bsデータ符号化部1012は、各ブロック境界に対する境界強度Bsの値を受信し、DPCM、多値ランレングス符号化、無損失特徴を有する変換符号化などを含む任意のデータ符号化方法によってこの値を符号化する。図8に示されるように境界強度Bsを発生できる。次に、符号化された境界強度は記憶媒体1006に記憶される。一実施例では、符号化された境界強度を符号化された画像データとは別個に記憶できる。別の例では、符号化された境界強度と符号化された画像データは、記憶媒体1006上に記憶する前に多重化される。
符号化された境界強度を記憶媒体1006から読み出し、Bsデータ復号部1014により復号し、画像データ復号装置1008へ復号された境界強度を入力することができる。本発明の適応型フィルタリングを実行するために、画像データ復号装置1008で復号された境界強度を利用するとき、境界強度を発生するために図8に記載したプロセスを繰り返す必要はなく、これによって適応型フィルタリングのための処理パワーを節約できる。
図11に示されるような本発明の一部の実施例では、本発明の一部実施例に対してこれまで説明したような適応型フィルタリング部分を含む画像データ符号化装置1104に画像データ1102を入力できる。画像データ符号化装置1104からの出力は、符号化された画像データであり、ネットワーク、例えばLAN、WANまたはインターネット1106を通して送ることができる。符号化された画像データは、ネットワーク1106とも通信する画像復号装置1108により受信し、復号される。画像データ復号装置1108は、本発明の一部の実施例に対してこれまで説明したような適応型フィルタリング部分を含む。復号された画像データは復号された出力画像データ1110としてディスプレイまたは他のデバイスへ提供される。
図12に示したような本発明の一部の実施例では、画像データ1202を符号化し、符号化された画像データを、次にネットワーク、例えばLAN、WANまたはインターネット1206を通して送ることができる。この画像データ符号化装置1204および画像データ復号装置1208の基本的手順は、図11のものと同じである。図12では、Bのデータ符号化部1212は、各ブロックに対する境界強度Bsの値を受信し、DPCM、多値ランレングス符号化、無損失特徴を有する変換符号化などを含む任意のデータ符号化方法によってこの値を符号化する。図11に示されるように境界強度Bsを発生できる。次に、符号化された境界強度はネットワーク1206を通して送ることができる。一例では、符号化された境界強度を符号化された画像データとは別個に送ることができる。別の例では、ネットワーク1206を通して送る前に、符号化された境界強度と符号化された画像データとを多重化することができる。
符号化された境界強度をネットワーク1206から受信し、Bsのデータ復号部1214により復号し、復号した境界強度を画像データ復号装置1208に入力し、本発明の適用型フィルタリングを実行する。境界強度を発生するのに、図11に示されたプロセスを繰り返す必要はなく、これによって適用型フィルタリングのための処理パワーを節約できる。
図13を参照して、本発明の一部の実施例について説明できる。これらシステムおよび方法では、ビデオフレーム内の隣接するブロック150を識別し、これら隣接するブロックに対する符号化パラメータを識別する。次に隣接するブロックに対する符号化パラメータを比較し、それらの類似性154を判断する。これら符号化パラメータが類似していないとき、隣接するブロック間の境界に沿ってデブロックフィルタ156を使用する。符号化パラメータが類似しているときは、デブロックフィルタリングをスキップし、プロセスは次のステップ158まで進む。同様に、デブロックフィルタリングを実行するとき、フィルタリング後に、プロセスは次のステップ158に進む。
図14に示されるような本発明の一部の実施例では、符号化パラメータは動きベクトルである。これら実施例では、ビデオフレーム内の隣接するブロックを識別し(160)、動きベクトルを含む符号化パラメータを識別する(162)。これら動きベクトルを比較し、それらの類似性を判断する(164)。動きベクトルが類似していないと、隣接するブロック間でデブロックフィルタリングを実行(166)し、プロセスは次のステップ168に進む。動きベクトルが類似しているとき、デブロックフィルタリングをスキップし、次のステップ168を直接実行する。
図15に示されるような本発明の別の実施例は、フィルタリングをスキップするのかどうかの判断のために、多数の符号化パラメータを利用できる。これら実施例では、隣接するブロックを識別し(170)、隣接するブロックに対する符号化パラメータが決められる(172)。これら符号化パラメータは、動きベクトルのターゲットフレームを含む動きベクトルの属性を含むことができる。隣接するブロックの動きベクトルが類似していないとき(174)、隣接するブロック間のデブロックフィルタリングを実行できる(176)。動きベクトルが類似しているとき(174)、更にフィルタリングプロセスを限定するために別のパラメータを使用できる。この場合、動きベクトルを比較し、これらベクトルが同じ基準フレームを指し示しているかどうかを判断できる(178)。これらベクトルが同じ基準フレームを指し示していない場合、ブロックの間でデブロックフィルタリングを実行できる(176)。これらベクトルが同じ基準フレームを指し示している場合、フィルタリングをスキップし、プロセスは次のステップまで進むことができる(179)。
更に別の動きベクトルパラメータを使ってフィルタリングを決定できる。図16に示された実施例では、ベクトルが指し示しているブロックのロケーションは、フィルタリングオプションを決定するのに使用できるパラメータである。これら実施例では隣接するブロックを識別(200)し、隣接するブロックに対する符号化パラメータを識別する(202)。次に動きベクトルを比較し、それらの類似性を判断する(204)。これらベクトルが類似していない場合、デブロックフィルタリングを続けることができる(208)。動きベクトルが類似している場合、別の比較を行い、隣接するブロックの動きベクトルが同じ基準フレームを指し示しているかどうかが判断される。ベクトルが同一フレームを指し示していない場合、デブロックフィルタリングを続けることができる(208)。ベクトルが同一基準フレームを指し示している場合、これらベクトルが指し示しているブロックが比較される(210)。動きベクトルが同一基準フレーム内の隣接するブロックを指し示していない場合、デブロックフィルタリングを進めることができる(208)。ベクトルが同一基準フレーム内の隣接するブロックを指し示しているとき、デブロックフィルタリングをスキップし、次のステップが実行される(212)。このように、基準フレーム内の隣接するブロックを基準とし、ブロック間に大きい歪を有する可能性のない隣接するブロックはデブロックフィルタリングされない。このようなデブロックフィルタリングのスキップによって、フィルタリングプロセスによって生じるぼやけおよび画像の劣化を防止できる。不必要なフィルタリングを回避できるので、処理時間も節約できる。従って、画質が改善され、プロセス内ではわずかな計算で済む。フィルタスキップを決定するのに、これら動きベクトルパラメータの種々の組み合わせを使用できることに留意すべきである。特にこれら多数の組み合わせについては、詳細に説明しないが、これら組み合わせは当業者が想到できるものであり、特許請求の範囲内に入るものである。
本発明の別の実施例は、デブロックフィルタリングを行うべきかどうかを判断するのに変換係数を利用できる。図17を参照すると、フレーム内の隣接するブロックを識別し(180)、隣接するブロックに対する符号化パラメータを識別する(182)。これら符号化パラメータは、動きベクトルパラメータだけでなく、変換係数も含むことができる。
次に、動きベクトルを比較(184)し、類似性を判断する。動きベクトルが類似していなければ、デブロックフィルタリングが実行される(186)。動きベクトルが類似していれば、動きベクトルデータを分析し、動きベクトルが同じ基準フレームを指し示しているかどうかを判断する。動きベクトルが同一の基準フレームを指し示してない場合(185)、フィルタリングを進めることができる(186)。
動きベクトルが同一の基準フレームを指し示している場合、更にフィルタリングプロセスの限定をするために変換係数が比較される。本例では、離散的コサイン変換(DCT)方法またはその他の方法を使って得られた直流変換係数が隣接するブロックに対して比較される。直流変換係数が類似していない場合(187)、デブロックフィルタリングを実行できる(186)。直流変換係数が類似している場合、フィルタリングをスキップし、この方法およびシステムは次のステップ188に進むことができる。
本発明の更に別の実施例は、フィルタリングオプションを決定するために交流変換係数を利用できる。図18を参照すると、ここには交流変換係数を評価する別のステップを備えた、図17を参照して説明した実施例に類似する実施例が示されている。これら実施例では、ブロック190およびそれらの符号化パラメータを識別する(191)。動きベクトルの類似性192、動きベクトルのターゲットフレームの類似性193および直流変換係数における類似性も比較する(194)。これらパラメータにおける類似性が存在する場合、交流変換係数を比較する(196)。これらが類似している場合、デブロックフィルタリングをスキップし、プロセス内の次のステップを実行する(197)。交流係数が類似していなければ、隣接するブロック間でフィルタリングを実行し、プロセスは次のステップに進む(197)。
交流変換係数は、より大きいブロックにおいて重要性を有する可能性が高いが、より小さいブロック、例えば4×4ブロックを利用する方法でも使用することができる。
本発明の一部の実施例では、使用する画像のフォーマットおよびカラースペースに応じて1つの画像を種々のルミナンスチャンネルおよびクロミナンスチャンネルに分離できる。次の実施例では、YUVカラースペースについて説明する。しかしながら、これら実施例では他の多くのフォーマットおよびカラースペースが使用される。CIELAB、YCrCbおよび他のスペースも使用できる。別の実施例では、RGBのようなカラースペースも使用できる。
図19を参照し、本発明の一部の実施例について説明する。これら実施例では、画像からルミナンスデータを抽出し、ルミナンス画像を作成する(220)。次にルミナンス画像において、隣接するブロックを識別(222)し、隣接ブロックに対する符号化パラメータも識別する(224)。他の実施例の場合のように、隣接するブロックの動きベクトルを比較し、類似性について判断する(226)。動きベクトルが類似していないとき、デブロックフィルタリングを実行する(230)。ベクトルが類似しているときには別の分析を実行し、ベクトルが同一基準フレームを指し示しているかどうかを判断する(228)。ベクトルが異なる基準フレームを指し示しているとき、ルミナンス画像内の隣接するブロックに対応する元の画像の隣接するブロック間でデブロックフィルタリングを実行する(230)。ベクトルが同じフレームを指し示しているときには、デブロックフィルタリングをスキップし、前のフィルタリングを実行することなく、次のステップを実行する(232)。フィルタリングを実行するとき、フィルタリングプロセス後に次のステップを実行する(232)。従って、ルミナンスチャンネル内のデータの分析を使って、ルミナンスデータおよびクロミナンスデータの双方を含む元の画像内のフィルタリングプロセスを決定する。
図20に示される別の関連する実施例では、ルミナンス画像を作成(240)し、ルミナンスおよび元の画像内で対応する隣接ブロックを識別する(242)。ルミナンス画像ブロックに対する符号化パラメータも識別される(244)。その後、動きベクトルを比較し、類似性を判断する(246)。重大な類似性が存在しない場合、元の画像内の隣接するブロック間でフィルタリングを実行する。動きベクトルが類似している場合、動きベクトルのターゲットフレームを比較し、ベクトルが同一基準フレームを指し示しているかどうかを判断する。ベクトルが同一基準フレームを指し示していない場合、フィルタリングを実行する。ベクトルが同一基準フレームを指し示している場合、ルミナンス(Y)画像の変換係数を比較する。Y変換係数が類似していない場合、フィルタリングを実行する。変換係数が類似している場合、フィルタリングをスキップし、次のステップ254を実行する。同様に、フィルタリング演算の後で次のステップを実行する(254)。
画像を、ルミナンスチャンネルおよびクロミナンスチャンネルに一般に対応する成分チャンネルに更に分割できる。本発明の一部の実施例では、そのチャンネルにユニークなパラメータに従って各チャンネルをフィルタリングできる。
一例として、図21を参照し、実施例について説明する。これら実施例では、画像は別個のルミナンス(Y)チャンネルおよび多数のクロミナンス(U、V)チャンネルに分割されている(260)。これら実施例では、各チャンネルに対応する画像内で隣接するブロックを識別する(262、272、282)。各チャンネルにおけるこれらのブロックに対して動きベクトルデータのような符号化パラメータも識別される(264、274、284)。これら符号化パラメータを比較し、他の実施例の場合のように類似性を判断できる。これら実施例では、各チャンネルにおけるフィルタリングオプションを決定するために、チャンネル固有の動きベクトルに対する動きベクトルの類似性を使用できる。チャンネル画像に対する動きベクトルが類似していない場合、隣接するブロック間の特定のチャンネル内でフィルタリングが実行される(270、280、290)。動きベクトルが類似している場合、ターゲット基準フレームを比較する(268、278、288)。チャンネル内の隣接するブロックに対するベクトルが同一基準フレームを指し示している場合、フィルタリングをスキップする。ベクトルが異なる基準フレームを指し示している場合、フィルタリングを実行する(270、280、290)。
別の実施例の場合のように、これらチャンネル化された実施例はフィルタオプションを限定するのに変換係数データを利用できる。図22に示されるように、図21を参照して説明した方法およびシステムは、チャンネル変換係数を更に比較できる(310、322、334)。これら係数が類似していない場合、フィルタリングを実行する(312、324、336)。これら係数が類似している場合、フィルタリングをスキップする。
各チャンネルにおけるフィルタリング演算を限定する場合、パラメータの種々の組み合わせを利用できることに留意すべきである。これら実施例に対し、直流変換係数および交流変換係数を利用できる。更に、フィルタリングオプションを決定し、フィルタリングを実行するために、種々のチャンネルおよびこれらチャンネルの組み合わせを使用できる。例えば一部の実施例では、双方のクロミナンスチャンネルを組み合わせ、共に分析できる。1つのチャンネルからのデータおよびパラメータを使用し、別のチャンネルでのフィルタリングオプションを決定することもできる。例えばUクロミナンスチャンネルから取り込んだパラメータを比較し、Vクロミナンスチャンネルにおけるフィルタリングオプションを決定したり、その逆を行うことができる。
本発明の一部の実施例は、H.264/AVCのスケーラブルなビデオ符号化拡張に関連するものである。一部の実施例では、空間的スケーラブルなビデオ符号化のためのピクチャアップサンプリングの問題に取り組むためのフィルタリングに関係している。より詳細には、本発明の一部の実施例は、H.264/MPEG-4 AVCのスケーラブルビデオ符号化拡張、特にJVT(MPEGとVCEGの共同ビデオチーム)により、2005年4月に採用された拡張空間的スケーラブル(ESS)ビデオ符号化機能のために設計されたアップサンプリング手順を提供するものである。
目下のところ、本明細書で参考例として援用するJSVM WD-1.0[MPEG Doc.N6901]は、ディアディック空間的スケーラビリティ、すなわち2つの連続する空間レイヤのピクチャ幅と高さの比(ピクセル数に換算した)が2に等しい構成を用意するだけである。このことは、明らかにより一般的なアプリケーション、例えば放送用のSDからHDのスケーラビリティに対する制限となる。
拡張された空間的スケーラビリティ、すなわち2つの連続する空間レイヤのピクチャ幅と高さの比が必ずしも2の累乗に等しくなく、より高いレベルのピクチャがより低いレベルの対応するピクチャ内に存在しない領域(一般にピクチャの境のまわりの領域)を含むことがあり得る、管理構成を提供するツール[MPEG Doc.ml1669](本明細書で参考例として援用する)がこれまで提案されている。この提案[MPEG Doc.ml1669]は、より高いレイヤのピクチャディメンジョンとより低いレイヤのピクチャディメンジョンの比が2の累乗ではないような、より包括的なケースに対するWD-1.0[MPEG Doc.N6901]のレイヤ間予測を拡張したものである。
本発明の実施例は、より一般的なアプリケーションのニーズにより良好に適合するピクチャレベルに対し、拡張された空間的スケーラビリティ、すなわちクロッピングウィンドウを有する非ディアディックなスケーリングを適用する方法を提供するものである。空間的スケーラビリティのピクチャレベルの適応をサポートするために、本発明の実施例は、これまで提案されたレイヤ間予測方法のより精巧なものを提供している。更に、従来の提案では用意されなかったいくつかの問題も、これら実施例で取り扱われている。
本明細書および特許請求の範囲の目的のために「ピクチャ」なる用語はピクセルのアレイ、デジタル画像、デジタル画像の細分割、デジタル画像のデータチャンネルまたは画像データの別の表現を含み得る。
図23は、画像ピクチャに対応する2つのピクチャを示す。
本発明の実施例は2つ以上の連続する空間レイヤ、より低いレイヤ(ベースレイヤとして見なされる)253およびより高いレイヤ(エンハンスメントレイヤとして見なされる)251に関係する。これらレイヤは次の幾何学的関係によってリンクできる(図23に示されている)。エンハンスメントレイヤピクチャの幅250および高さ252は、それぞれwenhおよびhenhとして定義できる。同様に、ベースレイヤピクチャのディメンジョンもwbase254およびhbase256として定義できる。ベースレイヤ253は、エンハンスメントレイヤピクチャの座標系における座標262(xorig、yorig)に位置するディメンジョンwextract258およびhextract260のエンハンスメントレイヤピクチャ251のサブ領域のサブサンプリング264されたバージョンとし得る。パラメータ(xorig、yorig、wextract、hextract、wbase、hbase)は、より高いレイヤのピクチャ251とより低いレイヤのピクチャ253との間の幾何学的関係を定める。
本発明の実施例によって用意される問題は、復号されたベースレイヤを知ることによってエンハンスメントレイヤのマクロブロックを符号化/復号することである。エンハンスメントレイヤのマクロブロックは、図24に示されるように、ベースレイヤに対応するブロックを有しないか(エンハンスメントレイヤピクチャの境上に)、または1個〜数個のベースレイヤに対応するマクロブロックを有し得る。従って、WD-1.0[MPEG Doc.N6901]におけるものとは異なるレイヤ間予測の管理が必要である。図2は、点線274によりマクロブロックの境界をマークしたアップサンプリングベースレイヤピクチャ272と、マクロブロックの境界を実線276でマークしたエンハンスメントレイヤピクチャ270との間にオーバーラップするマクロブロックを示す。
これまでに[MPEG Doc.ml1669]において、wextractおよびhextractを16の倍数に制限することが提案されている。この制限は、ピクチャレベルの適応化を制限する。この代わりに、本発明の実施例は、wextractおよびhextractを2の倍数に制限するものである。クロミナンスのアップ/ダウンサンプリングにおける起こり得るフェーズシフトを調整する際の複雑さを解消するために、更に本発明の実施例は、xorigおよびyorigを2の倍数にすることをさらに要求する。クロミナンスフェーズシフトの問題は、これまでには取り組まれていない。
図23に示されたディメンジョンおよびその他のパラメータを次の記号または変数名で表示できる。
Figure 0004454678
レイヤ間動き予測
所定の高いレイヤのマクロブロックは「BASE_LAYER_MODE」または「QPEL_REFINEMENT_MODE」のいずれかを使用するスケーリングされたベースレイヤの動きデータを使って、レイヤ間予測を利用できる。WD-1.0[MPEG Doc.N6901]の場合のように、これらマクロブロックモードは、マクロブロック分割を含む動き/予測情報がベースレイヤから直接得られることを示している。ベースレイヤからの動きデータを引き継ぐことにより、予測マクロブロックMB_predを構成できる。「BASE_LAYER_MODE」を使用するとき、基準インデックスおよび動きベクトルと同じように、マクロブロック分割は予測マクロブロックMB_predの分割である。「QPEL_REFINEMENT_MODE」も同様であるが、4分の1サンプルの動きベクトル改良点を有する点が異なっている。
次の4つのステップで、MB_predを導くことが、これまで提案されている。
−MB_predの各4×4ブロックに対し、ベースレイヤの動きデータからの動きデータの引き継ぎ
−MB_predの各8×8ブロックに対する分割の選択
−MB_predに対するモード選択および
−動きベクトルのスケーリング
しかしながら、本発明の実施例はピクチャレベルの適応化をサポートするためにいくつかの式において変更を行う。
4×4ブロックの引き継ぎ
図25は、4つのコーナー281、282、283および284を有する4×4ブロックb280を示す。このプロセスは、ブロックのうちの4つのコーナー281、282、283および284の各々をチェックすることから成る。(x、y)を高いレイヤの座標系内のコーナーピクセルcの位置とする。(xbase、ybase)を、次に定義するようなベースレイヤの座標系における対応する位置とする。
Figure 0004454678
次に、ピクセル(x、y)の同じ位置のマクロブロックは、ピクセル(xbase、ybase)を含むベースレイヤのマクロブロックとなる。同じようにピクセル(x、y)の同じ位置の8×8ブロックは、ピクセル(xbase、ybase)を含むベースレイヤの8×8ブロックとなり、ピクセル(x、y)の同じ位置の4×4ブロックはピクセル(xbase、ybase)を含むベースレイヤの4×4ブロックとなる。
bに対する動きデータの引き継ぎプロセスを次のように記述できる。
−各コーナーcに対し、各リストlistx(listx=list0またはlist1)のうちの基準インデックスr(c,listx)および動きベクトルmv(c、listx)を同じ位置のベースレイヤ4×4ブロックのこれらの値にセットする。
−各コーナーに対し、同じ位置のマクロブロックが存在していないか、またはイントラモードとなっている場合、bをイントラブロックとしてセットする。
−そうでない場合、各リストlistxに対し、
〇コーナーのいずれもこのリストを使用していない場合、このリストに対する基準インデックスおよび動きベクトルをbにセットしない。
〇このリストを使用している場合、
■bに対してセットした基準インデックスrb(listx)を4つのコーナーの現在の基準インデックスの最小値とする。
Figure 0004454678
■bに対してセットされた動きベクトルmvb(listx)を基準インデックスrb(listx)を有する4つのコーナーの現在の動きベクトルの平均とする。
8×8の分割の選択
一旦、各4×4ブロックの動きデータを設定すると、このデータが属す8×8ブロックの実際の分割を決定し、かつ禁止された構成を回避するにはマージングプロセスが必要である。下記の記載では、8×8ブロックのうちの4×4ブロックを、図26に示されるように識別する。
各8×8ブロックに対し、次のプロセスを適用できる。
−4つの4×4ブロックがイントラブロックとして分類されている場合、Bをイントラブロックとして見なす。
−そうでない場合、Bの分割の選択を実行する。
〇各4×4ブロックに対し、同じ基準インデックスを割り当てるために次のプロセスを適用する。
各リストlistxに対し、
■4×4ブロックがこのリストを使用していない場合、このリストのうちの基準インデックスおよび動きベクトルのいずれも、Bにセットしない。
■そうでない場合、
・Bに対する基準インデックスr(listx)を次のように4つの4×4ブロックの現在の基準インデックスの最小値として計算する。
Figure 0004454678
・同じ基準インデックスr(listx)を有する4×4ブロックの平均動きベクトルmVmean(listx)を計算する。
・(1)イントラブロックとして分類されている4×4ブロックまたは(2)このリストを使用していない4×4ブロックまたは(3)r(listx)とは異なる基準インデックr(listx)を有する4×4ブロックが、基準インデックスおよび動きベクトルとしてr(listx)およびmVmean(listx)を有するように強制される。
〇次に、Bに対する分割モードの選択を実行する。動きベクトルが同一である場合、2つの4×4ブロックを同一と見なす。次のようにマージングプロセスを実行する。
■bがbと同一であり、bがbと同一である場合において、
・bがbと同一であれば、BLK_8×8を選択し、
・そうでない場合、BLK_8×4を選択する。
■bがbと同一でなく、bがbと同一でない場合において、bがbと同一であり、bがbと同一であれば、BLK_4×8を選択し、
■そうでない場合、BLK_4×4を選択する。
予測マクロブロックモードの選択
一部の実施例では、MB_predモードを決定するためのプロセスを実行できる。次の記載において、マクロブロック300のうちの8×8ブロック301〜304を、図27に示されるように識別する。
次の場合に2つの8×8ブロックを同一であると見なす。
−すなわち2つの8×8ブロックのうちの一方または双方がイントラブロックとして分類される場合、または
−双方のブロックの分割モードがBLK_8×8であり、各8×8ブロックのうちのlist0とlist1の基準インデックスおよび動きベクトル(存在する場合)が同一である場合。
次のプロセスを使ってモード選択を実行する。
−すべての8×8ブロックがイントラブロックとして分類される場合、MB_predをイントラマクロブロックとして分類する。
−そうでない場合、MB_predをインターマクロブロックとする。このモード選択は次のように実行する。
〇イントラとして分類された8×8ブロックに対し、強制的にBLK_8×8の分割をする。これら基準インデックスおよび動きベクトルを次のように計算する。BINTRAを、かかる8×8ブロックとする。
各リストlistxに対し、
■8×8ブロックのいずれも、このリストを使用しない場合、このリストの基準インデックスおよび動きベクトルをBINTRAに割り当てない。
■そうでない場合、次のステップを適用する。
・基準インデックスrmin(listx)を次のように8×8ブロックの現在の基準インデックスの最小値として計算する。
Figure 0004454678
・同じ基準インデックスrmin(listx)を有する4×4ブロックの平均動きベクトルmVmean(listx)を計算する。
・rmin(listx)をBINTRAに割り当て、BINTRAの各4×4ブロックが強制的に基準インデックスおよび動きベクトルとしてrmin(listx)およびmVmean(listx)を有するようにする。
〇次に、Bに対する分割モードの選択を実行する。分割モードがBLK_8×8であり、各8×8ブロックのlist0とlist1の基準インデックスおよび動きベクトル(存在する場合)が同一であれば、2つの8×8ブロックを同一であると見なす。マージングプロセスを次のように行う。
■B1がB2と同一であり、B3がB4と同一である場合において、
・B1がB3と同一であれば、MODE_16×16を選択する。
・そうでない場合、MODE_16×8を選択する。
■B1がB2と同一でなく、B3がB4と同一でない場合において、B1がB3と同一であり、B2がB4と同一である場合、MODE_8×16を選択する。
■そうでない場合、MODE_8×8を選択する。
動きベクトルのスケーリング
上記のように導いた予測マクロブロックMB_predの現在のどの動きベクトルに対しても、動きベクトルのスケーリングを実行できる。次の式を使ってベクトルvm=(dsx、dsy)において、動きベクトルmv=(d、d)をスケーリングできる。
Figure 0004454678
ここで、xが正のとき、sign[x]は1に等しく、xが負のとき(−1)であり、xが0のとき0となる。添え字「r」を有する記号は、対応する基準ピクチャの幾何学的パラメータを示す。
レイヤ間テクスチャの予測
テクスチャのアップサンプリング
本発明の一部の実施例では、レイヤ間動き予測と同じ原理に基づき、レイヤ間テクスチャ予測を行うことができる。2−lobed又は3−lobed Lanczos−windowed sinc関数を用いてベースレイヤのテクスチャのアップサンプリングを行うことができる。これらフィルタはエリアシングの低減、シャープさおよび最小リンギングの点で最良の妥協を行うと見なされる。2−lobed Lanczos−windowed sinc関数は次のように定義される。
Figure 0004454678
このアップサンプリングステップはフルフレームで、またはブロックごとのいずれかで処理できる。イントラテクスチャ予測に対しては、フレーム境界で繰り返しパディングを使用する。残差予測に対しては、ブロック境界(変換に応じて4×4または8×8)で繰り返しパディングを使用する。
一実施例では、Lanczos2関数に従い、ベースレイヤピクチャ内の対応する成分のサンプルグリッドに対する16分の1のサンプルスペースを単位とする16の異なる補間フェーズに対し、下記の表1に次のような16個の4タップアップサンプリングフィルタが定められる。
位置(x、y)における現在のレイヤ内のルミナンスサンプルに対し、ベースレイヤピクチャ内の対応するサンプルに関するフェーズシフトが次のように得られる。
Figure 0004454678
Figure 0004454678
クロミナンスサンプルの座標系における位置(x、y)における現在のレイヤ内のクロミナンスサンプルに対し、ベースレイヤピクチャ内の対応するサンプルに関するフェーズシフトは次のように得られる。
Figure 0004454678
ここで、
Figure 0004454678
である。
得られた各フェーズシフトに従い、補間のために表1から4タップフィルタを選択できる。
レイヤ間イントラテクスチャ予測
WD-1.0[MPEG Doc.N6901]において、I_BLモードは、対応する全てのベースレイヤのマクロブロックをイントラ符号化することを必要とする。本発明の実施例では、要求条件は、対応するベースレイヤのマクロブロックがインター符号化されているかまたは存在しない場合を認めるように、緩和される。
I_BLモードにおいて、符号化されたマクロブロックに対するイントラ予測信号を発生するために、ベースレイヤ信号の同一場所のブロック(存在する場合)を直接デブロックし、補間する。4つの入力サンプル(X[n−1]、X[n]、X[n+1]、X[N+2])に対し、4タップ補間フィルタの出力値Yは次のように得られる。
Figure 0004454678
ここで、BitDepthはルミナンスサンプルに対するルミナンスチャンネルデータのビット深度を示す。または
Figure 0004454678
ここで、BitDepthはクロミナンスサンプルに対するクロミナンスチャンネルデータのビット深度を示す。
式15および16では、丸め演算を適用しているので、フィルタリングの順序は、まず水平方向、またはまず垂直方向に指定できる。最初に水平方向にフィルタ演算を実行し、次に垂直方向にフィルタ演算を実行することが推奨される。このようなアップサンプリングプロセスは、下記に定義されるextended_spatial_scalabilityがイネーブルされるときにしか呼び出されない。
このアップサンプリングフィルタ演算後にクロッピングウィンドウの外側の画像領域を満たすのに、一定の値を使用する。この定数は、ルミナンスに対しては(1<<(BitDepth_1))となりクロミナンスに対しては、(1<<(BitDepth_1))となる。
レイヤ間残差予測
レイヤ間イントラテクスチャ予測と同様に、ベースレイヤの残差をアップサンプリングするときは、同じ4タップフィルタまたは他のフィルタを使用できるが、式15および16内の関数とは異なる丸め関数およびクリッピング関数を使用する。
4つの入力された残差サンプル(X[n−1]、X[n]、X[n+1]、X[N+2])に対して、フィルタの出力値Yは次のように得られる。ルミナンス残差サンプルに対して、
Figure 0004454678
クロミナンス残差サンプルに対しては、
Figure 0004454678
残差アップサンプリングに対するクリッピング関数は次のように定義される。
Figure 0004454678
ここで、Clip3(a,b,x)=min(max(a,x),b)である。
同様に、アップサンプリングフィルタ演算後、クロッピングウィンドウの外側の画像領域を含む残差予測を利用できないピクセル位置を満たすために、定数値を使用する。この定数はすべてのカラー成分に対して0となる。
シンタックスおよびセマンティックスの変更
表(テーブル)形態のシンタックス
本発明の実施例は、大きい太文字テキストで下記のように示された次の変更を利用できる。主な変更は、記号、すなわちextended_spatial_scalabilityのシーケンスパラメータの組内の追加、従ってシーケンスパラメータセット内の次のような4つのパラメータである。
Figure 0004454678
およびベースレイヤのアップサンプリングプロセス内で使用される幾何学的変換に関連するslice_data_in_scalable_extension()である。
Figure 0004454678
Figure 0004454678
Figure 0004454678
セマンティックス
スケーラブルな拡張内のシーケンスパラメータセットのシンタックス
extended_spatial_scalabilityは、ベースレイヤのアップサンプリングのための幾何学的パラメータに関連するシンタックス要素の存在を指定する。extended_spatial_scalabilityが0に等しいとき、ビットストリーム内には幾何学的パラメータは存在しない。extended_spatial_scalabilityが1に等しいとき、シーケンスパラメータセット内に幾何学的パラメータが存在する。extended_spatial_scalabilityが2のとき、slice_data_in_scalable_extension内に幾何学的パラメータが存在する。extended_spatial_scalabilityに対し、3の値を保留する。extended_satial_scalabilityが存在しないとき、0に等しいと推定する。
scaled_base_left_offset_divided_by_twoは、アップサンプリングされたベースレイヤピクチャの上部左ピクセルと現在のピクチャの上部左ピクセルとの間の水平オフセットの半分を指定する。このscaled_base_left_offset_divided_by_twoが存在しないとき、これを0に等しいと推定する。
scaled_base_top_offset_divided_by_twoは、アップサンプリングされたベースレイヤピクチャの上部左ピクセルと現在のピクチャの上部左ピクセルとの間の垂直オフセットの半分を指定する。このscaled_base_top_offset_divided_by_twoが存在しないとき、これを0に等しいと推定する。
scaled_base_right_offset_divided_by_twoは、アップサンプリングされたベースレイヤピクチャの底部右ピクセルと現在のピクチャの底部右ピクセルとの間の水平オフセットの半分を指定する。このscaled_base_right_offset_divided_by_twoが存在しないとき、これを0に等しいと推定する。
scaled_base_bottom_offset_divided_by_twoは、アップサンプリングされたベースレイヤピクチャの底部右ピクセルと現在のピクチャの底部右ピクセルとの間の垂直オフセットの半分を指定する。このscaled_base_bottom_offset_divided_by_twoが存在しないとき、これを0に等しいと推定する。
現在のレイヤ内のルミナンスサンプリンググリッドに関する1つのサンプルのスペースを単位とする符号のない整数として、すべての幾何学的パラメータを指定する。下記の幾何学的パラメータに基づき、いくつかの追加記号(scaled_base_left_offset、scaled_base_top_offset、scaled_base_right_offset、scaled_base_bottom_offset、scaled_base_width、scaled_base_height)を定義する。
Figure 0004454678
スケーラブルな拡張内のスライスデータシンタックス
スライスデータ内のシンタックス要素のセマンティックスは、シーケンスパラメータセット内の同じシンタックス要素のセマンティックスと同一である。
復号プロセス
予測データに対する復号プロセス
WD-1.0[MPEG Doc.N6901]と比較すると、次のプロセスを追加しなければならない。各マクロブロックに対し、次のことが当てはまる。
−extended_spatial_scalabilityが1または2に等しく、base_layer_mode_flagが1に等しい場合、第3章に記載されているプロセスを使ってマクロブロック分割を含む動きベクトルフィールドを得る。WD-1.0[MPEG Doc.N6901]の場合のように、全ての対応するベースレイヤのマクロブロックがイントラ符号化されている場合、現在のマクロブロックのモードをI_BLにセットする。
−そうでなく、extended_spatial_scalabilityが1または2に等しく、base_layer_mode_flagが0であり、base_layer_refinementが1に等しい場合、ベースレイヤ改善モードの信号を発する。このベースレイヤ改善モードはベースレイヤ予測モードに類似している。次の第3章では、マクロブロック分割だけでなく、基準インデックスおよび動きベクトルを得る。しかしながら、各動きベクトルに対し、更に4分の1サンプルの動きベクトル改善mvd_ref_1X(各動きベクトル成分に対し、−1、0または+1)を送信し、得られた動きベクトルに加える。
プロセスの残りは、WD-1.0[MPEG Doc.N6901]に記載されているプロセスと同一である。
サブバンドピクチャに対する復号プロセス
WD-1.0[MPEG Doc.N6901]と比較すると、次のプロセスを追加しなければならない。
extended_spatial_scalabilityが1または2に等しい場合、I_BLモードのMBに対するイントラ予測信号を次のプロセスにより発生する。
−並べられたベースレイヤブロック/マクロブロックをフィルタにかける。
−デブロックされたデータを補間することにより、イントラ予測信号を発生する。第4章に記載されたプロセスを使ってこの補間を実行する。プロセスの他の部分はWD-1.0[MPEG Doc.N6901]に記載されているプロセスと同一である。
そうでなく、extended_spatial_scalabilityが1または2に等しく、residual_prediction_flagが1に等しい場合、次のことが当てはまる。
−ベースレイヤのブロックの残差信号をアップサンプリングし、現在のマクロブロックの残差信号に追加する。第4章に記載のプロセスを使って補間を実行する。
ループフィルタに対する変更
extended_spatial_scalabilityが1または2に等しいとき、I_BLモード(レイヤ間テクスチャ予測)のブロックに対し、フィルタ強度判断をする間にループフィルタにわずかな変更を行わなければならない。
接ブロックがイントラ符号化されているが、I_BLモードにない場合、Bsは4となる(この最初の部分はWD−1.0[MPEG Doc.N6901]と同一である)。
−そうでなく、隣接ブロックのいずれかが係数を有する場合、Bsは2となる。
−そうでなく、接ブロックがI_BLモードにない場合、Bsは1となる。
−そうでない場合、Bsは0となる。
6タップフィルタの実施例
本発明の一部の実施例は、特にJVT(MPEGとVCEGの共同ビデオチーム)により、2005年4月に採用された、拡張空間的スケーラブル(ESS)ビデオ符号化機能のための、H.264/MPEG-4 AVCのスケーラブルビデオ符号化拡張と共に使用するようになっている。
現在のSVC設計では、アップサンプリングプロセスはインター予測のためのH.264に指定された4分の1ルミナンスサンプル補間手順に基づく。この方法は、空間的にスケーラブルな符号化に適用したとき、2つの固有の欠点を有する。すなわち(1)補間分解能が4分の1サンプルに限定されること、および(2)4分の1サンプルの位置を得るには半分のサンプル補間を実行しなければならないことである。
本発明の一部の実施例は、(1)より細かい補間分解能および(2)直接的補間により、これら欠点を除いている。その結果、これら実施例はアップサンプリングしたピクチャの画質を改善しながら、計算上の複雑さを低下させている。
本発明の実施例のアップサンプリング技術は、16個の6タップフィルタを用いた直接補間に基づく。フィルタの選択は16分の1のピクチャサンプルを単位とする0〜15の範囲の補間位置またはフェーズに従っている。フィルタの組は、SVCのハーフサンプル補間プロセスおよびH.264のハーフサンプルルミナンスインター予測とバックワードコンパーチブルとなるように設計されている。従って、これら実施例の技術は、ハードウェア/ソフトウェアの実現の観点から、H.264の自然の拡張とすることができる。
従来の空間的スケーラブルなビデオ符号化システムは、一般に空間または解像度スケーリングファクタが2または2の累乗であるケースを取り扱う。2005年4月に、空間スケーリングファクタが2の累乗に限定されない、より包括的なアプリケーションを取り扱うよう、SVC共同スケーラブルビデオモデル(JSVM)に拡張空間的スケーラビリティが採用された。しかしながら、レイヤ間テクスチャ予測のためのアップサンプリング方法は、まだ開発中の課題である。2005年4月のJVTの会議中、テクスチャアップサンプリングのためにH.264において指定された4分の1ルミナンスサンプル補間プロセスを暫定的に採用するとの決定がなされた。
本発明のこれら実施例では、図23を参照してこれまでの実施例に対して説明した同じ幾何学的関係を同じように当てはめる。
これまで説明した実施例では、ベースレイヤピクチャ内の対応する成分の整数サンプルグリッドに関する16分の1のサンプルスペースを単位とする16の異なるフェーズの補間に対し、16個の4タップアップサンプリングフィルタのセットを定めた。しかしながら、これら4タップフィルタは、初期のH.264設計に対してバックワードコンパーチブルではない。従って、これら実施例は16個の6タップフィルタの新しいセットおよび対応するフィルタリング手順を含むことができる。一実施例では、表5に記載した6タップフィルタを使用でき、別の実施例では、表6に記載された6タップフィルタを使用できる。
Figure 0004454678
Figure 0004454678
整数のルミナンスサンプルを単位とするエンハンスメントピクチャ内のルミナンスサンプル位置(x、y)を仮定すると、次のようにベースピクチャの16分の1ルミナンスサンプルを単位とするベースピクチャ内の対応する位置(px、L、py、L)を導くことができる。
Figure 0004454678
ここで、R=16(16分の1サンプルの解像度の補間に対して)であり、図23のように(xorig、yorig)は、現在のピクチャの単一ルミナンスサンプルを単位とする現在のピクチャ内のクロッピングウィンドウの上部左コーナーの位置を示し、(wbase、hbase)は、ベースピクチャの単一ルミナンスサンプルを単位とするベースピクチャの解像度であり、(wextract、hextract)は現在のピクチャの単一ルミナンスサンプルを単位とするクロッピングウィンドウの解像度であり、「//」は簡略化された割り算演算子を意味する。
同様に、単一のクロミナンスサンプルを単位とするエンハンスメントピクチャ内のクロミナンスサンプル位置(x、y)を仮定すると、ベースピクチャの16分の1クロミナンスサンプルを単位とするベースピクチャ内の対応する位置(px,c、py,c)は次のように導かれる。
Figure 0004454678
ここで、R=16であり、(xorig,c、yorig,c)は、現在のピクチャの単一クロミナンスサンプルを単位とする現在のピクチャ内のクロッピングウィンドウの上部左コーナーの位置を示し、(wbase,c、hbase,c)は、ベースピクチャの単一クロミナンスサンプルを単位とするベースピクチャの解像度であり、(wextract,c、hextract,c)は現在のピクチャの単一クロミナンスサンプルを単位とするクロッピングウィンドウの解像度であり、(pbase,x、pbase,y)はベースピクチャの4分の1クロミナンスサンプルを単位とするベースピクチャの相対的クロミナンスフェーズシフトを示し、(penh,x、penh,y)は現在のピクチャの4分の1クロミナンスサンプルを単位とする現在のピクチャの相対的クロミナンスフェーズシフトを示す。
式21および22から導かれる補間位置に基づき、表5または表6から6タップフィルタを選択できる。一部の実施例では、補間位置がハーフサンプル位置であるとき、フィルタはハーフルミナンスサンプル補間のために定められたH.264内のフィルタと同一である。従って、本発明のこれら実施例の技術に対して同様のハードウェア/ソフトウェアモジュールを使用できる。
しかしながら、レイヤ間残差アップサンプリングに対しテクスチャアップサンプリングのための6タップフィルタまたは上記4タップフィルタの代わりに、バイリニア補間フィルタと共に同様の直接補間方法を使用できる。
一部の実施例では、補間プロセスは次のとおりである。
1.エンハンスメントピクチャ内のマクロブロックのうちの上部左ルミナンスサンプルに対する位置(xP、yP)を定める。chroma_format_idcが0に等しくないとき、すなわちクロミナンスチャンネルが存在するとき、同一マクロブロックのうちの上部左クロミナンスサンプルに対する位置(xC、yC)を定める。
2.次のようにベースレイヤピクチャ内のマクロブロックの相対的位置を導く。
Figure 0004454678
chroma_format_idcが0に等しくないとき、次のようになる。
Figure 0004454678
ここで、MbWidthCおよびMbHeightCは水平方向および垂直方向のMB当たりのクロミナンスサンプルの数をそれぞれ示す。
3.テクスチャ補間プロセス
このプロセスへの入力は次のものを含む。
・ベースピクチャ内の整数ルミナンスサンプル位置(xB、yB)および(xB1、yB1)
・x=−2+xB..(xB1+2)およびy=−2+yB..(yB1+2)の場合のベースピクチャに対するルミナンスサンプルアレイbase[x、y]
・chroma_format_idcが0に等しくないとき、
〇ベースピクチャ内の整数クロミナンスサンプル位置(xCB、yCB)および(xCB1、yCB1)
〇x=−2+xCB..(xCB1+2)およびy=−2+yCB..(yCB1+2)の場合のベースピクチャに対する2つのクロミナンスサンプルアレイbaseCb[x、y]およびbaseCr[x、y]
このプロセスの出力は次のものを含む。
・x=0..15およびy=0..15の場合の、ルミナンスサンプルマクロブロックアレイpredL[x、y]
・chroma_format_idcが0でない場合の、x=0..MbWidthC−1、およびy=0..MbHeightC−1の場合の、2つのクロミナンスサンプルマクロブロックアレイpredCb[x、y]およびpredCr[x、y]
x=0..15およびy=0..15の場合の、ルミナンスサンプルpredL[x、y]は次のように導かれる。
・x=−2+xB..(xB1+2)およびy=0..15の場合の、tempL[x、y]を一時的ルミナンスサンプルアレイとする。
・x=−2+xB..(xB1+2)およびy=0..15の場合の、各tempL[x、y]は次のように導かれる。
〇ベースレイヤ内の対応する部分的サンプル位置yfは次のように導かれる。
yf=Py,L(y+yP)
〇yIntおよびyFracを次のように定義する。
Figure 0004454678
〇yFracをフェーズとして使用し、表5からj=−2..3の場合の6タップフィルタe[j]を選択し、temp[x、y]は次のように導かれる。
Figure 0004454678
・x=0..15およびy=0..15の場合の各サンプルpred[x、y]は次のように導かれる。
〇ベースレイヤ内の対応する部分的サンプル位置xfは次のように導かれる。
xf=Px,L(x+xP)
〇xIntおよびxFracは次のように導かれる。
Figure 0004454678
〇xFracをフェーズとして使用し、表5からj=−2..3の場合の6タップフィルタe[j]を選択し、pred[x、y]は次のように導かれる。
Figure 0004454678
chroma_format_idcが0でないとき、x=0..MbWidthC−1、y=0..MbHeightC−1の場合のクロミナンスサンプルpred[x、y](ここで、CはCbまたはCrである)は次のように導かれる。
・x=−2+xCB.. ..(xCB1+2)およびy=0..MbHeightC−1の場合のtemplCb[x、y]およびtemplCr[x、y]を一時的クロミナンスサンプルアレイとする。
・CがCbおよびCrであり、x=−2+xCB..(xCB1+2)およびy=0...MbHeightC−1である場合の各tempC[x、y]は次のように導かれる。
〇ベースレイヤ内の対応する部分サンプル位置yfCは次のように導かれる。
yfC=py,C(y+yC)
〇yIntCおよびyFracCを次のように定める。
Figure 0004454678
〇yFrcCをフェーズとして使用し、表5からj=−2..3の場合の6タップフィルタe[j]を選択し、temp[x、y]は次のように導かれる。
Figure 0004454678
・CがCbおよびCrであり、x=0..MbWidthC−1およびy=0..MbHeightC−1の場合の各サンプルpred[x、y]は次のように導かれる。
〇ベースレイヤ内の対応する部分的サンプル位置xfCは次のように導かれる。
xfC=pX,C(x+xC)
〇xIntCおよびxFracCを次のように定義する。
Figure 0004454678
〇xFracCをフェーズとして使用し、表5からj=−2..3の場合の6タップフィルタe[j]を選択し、pred[x、y]は次のように導かれる。
Figure 0004454678
4.テクスチャ補間プロセス
このプロセスへの入力は次のものを含む。
・basePic(xB、yB)および(xB1、yB1)における整数ルミナンスサンプル位置
・x=−xB..xB1およびy=yB..yB1の場合のルミナンス残差サンプルアレイresBase[x、y]
・chroma_format_idcが0に等しくないとき、
〇basePic(xCB、yCB)および(xCB1、yCB1)における整数クロミナンスサンプル位置
〇x=xCB..xCB1およびy=yCB..yCB1の場合の2つのクロミナンス残差サンプルアレイresBaseCb[x、y]およびresBaseCr[x、y]
このプロセスの出力は次のものを含む。
・x=0..15およびy=0..15の場合のルミナンスサンプルアレイresPred[x、y]
・chroma_format_idcが0に等しくないとき、x=0..MbWidthC−1およびy=0..MbHeightC−1の場合の2つのクロミナンスサンプルアレイresPredCb[x、y]およびresPredCr[x、y]
x=0..15およびy=0..15の場合のルミナンス残差サンプルresPred[x、y]は次のように導かれる。
・x=xB..xB1およびy=0..15の場合のtemp[x、y]を一時的ルミナンスサンプルアレイとする。
・x=−xB..xB1およびy=0..15の場合のtemp[x、y]は次のように導かれる。
〇ベースレイヤ内の対応する部分的サンプル位置yfは次のように導かれる。
yf=Py,L(y+yP)
〇yIntおよびyFracを次のように定める。
Figure 0004454678
〇temp[x、y]は次のように導かれる。
Figure 0004454678
・x=0..15およびy=0..15の場合の各残差サンプルresPred[x、y]は次のように導かれる。
〇ベースレイヤ内の対応する部分的サンプル位置xfは次のように導かれる。
xf=px,L(x+xP)
〇xIntおよびxFracを次のように定める。
Figure 0004454678
〇resPred[x、y]は次のように導かれる。
Figure 0004454678
ここで、BitDepthはルミナンスチャンネルデータのビット深さを示す。
chroma_format_idcが0に等しくないとき、x=0..MbWidthC−1、y=0..MbHeightC−1の場合のクロミナンス残差サンプルresPred[x、y](ここで、CはCbまたはCrである)は次のように導かれる。
・x=xCB.. ..xCB1およびy=0..MbHeightC−1の場合のtemplCb[x、y]およびtemplCr[x、y]を一時的クロミナンスサンプルアレイとする。
・CがCbおよびCrであり、x=−xCB..xCB1およびy=0..MbHeightC−1である場合の各temp[x、y]は次のように導かれる。
〇ベースレイヤ内の対応する部分サンプル位置yfCは次のように導かれる。
yfC=py,C(y+yC)
〇yIntCおよびyFracCを次のように定める。
Figure 0004454678
〇temp[x、y]を次のように導く。
Figure 0004454678
・CがCbおよびCrであり、x=0..MbWidthC−1およびy=0..MbHeightC−1の場合の各サンプルresPred[x、y]は次のように導かれる。
〇ベースレイヤ内の対応する部分的サンプル位置xfCは次のように導かれる。
xfC=pX,C(x+xC)
〇xIntCおよびxFracCを次のように定義する。
Figure 0004454678
〇resPred[x、y]は次のように導かれる。
Figure 0004454678
ここで、BitDepthは、クロミナンスチャンネルデータのビット深さを示す。
本発明の一部の実施例は、空間的スケーラブルビデオ符号化のためのデブロッキングフィルタを備える。これら実施例のうちの一部の実施例におけるフィルタリング方法は、特にJVT(MPEGとVCEGの共同ビデオチーム)により、2005年4月に採用された、拡張空間的スケーラブル(ESS)ビデオ符号化機能のための、H.264/MPEG-4 AVCのスケーラブルビデオ符号化拡張のために設計されている。
従来の方法では、フィルタリングプロセスは可能な種々の空間的解像度を有する全てのレイヤにわたって同一であった。レイヤ間テクスチャ予測を利用して符号化されるブロックはフィルタリングプロセス中にイントラ符号化されたブロックと見なされていた。このような従来の方法は、空間的スケーラブル符号化に適用したときに2つの欠点を有する。すなわち(1)低い解像度のレイヤからの予測は不必要にボケることがあり、従って、(2)プロセスは不必要により多くの計算サイクルを費やす。
本発明の実施例は、一部のブロック境界に対するフィルタ演算をスキップし、異なるブロック境界に対して異なるフィルタを使用し、異なるブロック境界におけるフィルタのアグレッシブさを変えるか、または特定のブロック境界に対してフィルタ特性を調整することにより、これら欠点の双方を除去できる。この結果、これら実施例は計算上の複雑さを低減し、アップサンプリングされた画像の質を改善できる。
これら実施例では、インターブロックのための現存のAVC設計におけるフィルタリングの決定が適用されるように、レイヤ間テクスチャ予測を使用して符号化されたブロックをインターブロックと見なす。一部の実施例では、非空間的にスケーラブル符号化と共に、隣接するブロックに対してこれまで説明した適応型ブロック境界フィルタリングを空間的スケーラブル符号化に適用される。H.264に採用されたこれら方法は、空間的スケーラブルビデオ符号化に適用される。
本発明の一部の実施例では、画像ブロック境界のためのデブロッキングフィルタは、0〜4の範囲内または他のある範囲内の値を有することができる制御パラメータ境界強度(Bs)によって特徴づけられる。Bsの値が大きくなればなるほど、対応する境界に使用されるフィルタ演算も強くなる。Bsが0に等しいとき、フィルタ演算をスキップするか、または最小にできる。
現在のSVC設計では、レイヤ間テクスチャ予測に基づくマクロブロック予測モードをI_BLモードと称す。従来の方法を使用すると、I_BLマクロブロックに関連する全てのブロック境界をフィルタリングしなければならない。すなわち全てのブロック境界に対し、Bs>0となる。
本発明の実施例は、SVC内の記号SpatialScalabilityTypeが0に等しくないときに、空間的スケーラブル符号化のためのI_BLモードのブロックのためのフィルタ強度判断方法を含む。この目的は、計算上の複雑さを低減し、ベースレイヤからの予測のボケを防止することにある。
一部の実施例では、I_BLモードでのブロックに対し、ブロックと接するブロックとの間の境界のBsを次のように導くことができる。
1.接するブロックがイントラ符号化されており、I_BLモードでない場合、Bsは4である。
2.そうでなくて、隣接するブロックのいずれかが0でない係数を有する場合、Bsは2となる。
3.そうでなくて、接するブロックが同一ベースレイヤのピクチャに基づき、I_BLモードでない場合、Bsは1となる。
4.その他の場合、Bsは0となる。
JVTのSVC拡張に関係する本発明の実施例では、SpatialScalabilityTypeが0に等しくなく、ルミナンスサンプルpまたはqがI_BLマクロブロック予測モードを使用して符号化されたマクロブロック内にある場合、変数Bsは次のように導かれる。
・ルミナンスサンプルpまたはqがI_BLモード以外のイントラ予測モードを使用して符号化されたマクロブロック内にある場合、4に等しいBsの値が出力となる。
・以下の条件の1つが成り立つ場合、2に等しいBsの値が出力となる。
i.サンプルpを含むルミナンスブロックまたはサンプルqを含むルミナンスブロックが0でない変換係数レベルを含む。
ii.サンプルpを含むルミナンスブロックまたはサンプルqを含むルミナンスブロックに対し、シンタックス要素nal_unit_typeは20に等しく、residual_prediction_flagは1に等しく、予測アレイresPredXはサブ章S.8.5.14で導かれたように0でないサンプルを含む。ここで、Xは適用可能な成分L、CまたはCを示す。
・次の条件のうちの1つが成り立つ場合、1に等しいBsの値が出力となる。
i.ルミナンスサンプルpまたはqのいずれかが、インター予測モードを使用して符号化されたマクロブロック内にある。
ii.ルミナンスサンプルpまたはqは、異なるbase_id_plus1を有する2つの別個のスライス内にある。
・そうでない場合、0に等しいBsの値が出力となる。
・サンプルpおよびqの双方が、I_BLマクロブロック予測モードを使用して符号化されたマクロブロック内にある場合、1に等しいBsの値が出力となる。
図28を参照し、本発明の一部の実施例について説明する。これら実施例では、空間的スケーラビリティエンハンスメントレイヤ内の接するブロックの間の境界は、種々のフィルタリング方法を適用するために特徴づけられる。これらフィルタリング方法は、種々のフィルタリング方法をトリガーするか、またはフィルタリングパラメータを調節するために使用できる境界強度インジケータ312、316および320、322に関連付けできる。
これら実施例では、ブロック境界により分離された2つの接するブロックの特徴を分析し、ブロックに隣接するブロック境界の特徴を定める。一部の実施例では、ブロック間の境界の特徴を定める。
実施例では、まずブロックの特徴を分析し、ブロックのうち1つをレイヤ間テクスチャ予測を使って符号化するかどうかを判断する(310)。レイヤ間テクスチャ予測を使用して前記接するブロックのうちの少なくとも1つを符号化する場合、ブロックを分析して、レイヤ間テクスチャ予測以外のイントラ予測方法(レイヤ内テクスチャ予測方法)により、いずれかのブロックが符号化されているかどうかを判断する(311)。レイヤ間テクスチャ予測以外のイントラ予測方法により、ブロックのうちの1つが符号化されている場合、第1の境界強度インジケータを使ってターゲット境界の特徴を定める(312)。
ブロックのうちの1つが、レイヤ間テクスチャ予測以外のイントラ予測方法によって符号化されていない場合、ブロックの特徴を分析し、接するブロックのいずれかまたは接するブロックのうちの1つを予測したブロックが0でない変換係数を有するかどうかを判断する(314)。接するブロックのいずれかまたは接するブロックのうちの1つを予測したブロックが0でない変換係数を有する場合、第2の境界強度インジケータを使ってターゲット境界の特徴を定める(316)。
ブロックのうちの1つがレイヤ間テクスチャ予測以外のイントラ予測方法では符号化されておらず(311)、接するブロックのいずれもがまたは接するブロックのうちの1つを予測したブロックが、0でない変換係数を有していない場合(314)、異なる基準ブロックを参照して、接するブロックを予測するかどうかを判断する(318)。接するブロックが異なる基準ブロックを参照して予測されている場合(318)、第3の境界強度インジケータを使ってターゲット境界の特徴を定める(320)。
ブロックのうちの1つがレイヤ間テクスチャ予測以外のイントラ予測方法で符号化されておらず(311)、接するブロックのいずれもがまたは接するブロックのうちの1つを予測したブロックが0でない変換係数を有しておらず(314)、異なる基準ブロックを参照して接するブロックを予測していない(318)場合、第4の境界強度インジケータを使ってターゲット境界の特徴を定める(322)。
一部の実施例では、境界強度インジケータを使って特定の境界フィルタリングオプションをトリガーできる。一部の実施例では、各インジケータに対して異なるフィルタリング方法を使用できる。一部の実施例では、インジケータに対してフィルタリング方法パラメータを調節できる。一部の実施例では、インジケータがどれだけアグレッシブに境界をフィルタリングするかをトリガーできる。一部の実施例では、第1の境界強度インジケータが境界の最もアグレッシブなフィルタリングをトリガーし、第2、第3および第4の境界強度インジケータが順に、より低いアグレッシブなフィルタリングを次々にトリガーするようになっている。一部の実施例では、第4の境界強度インジケータまたは別のインジケータが関連する境界に対してフィルタリングを全くトリガーしないようになっている。
図29を参照し、本発明の一部の実施例について説明する。これら実施例では、空間的スケーラビリティエンハンスメントレイヤ内の接するブロックの間の境界が種々のフィルタリング方法の適用に対して特徴づけられる。種々のフィルタリング方法をトリガーするか、またはフィルタリングパラメータを調節するのに使用できる境界強度インジケータ336、340、344、348および352、354に、これらフィルタリング方法を関連付けできる。
これら実施例では、ブロック境界により分離された2つの隣接するブロックの特徴を分析し、ブロックに隣接するブロック境界の特徴を定める。一部の実施例では、ブロック間の境界の特徴を定める。
実施例では、まずブロックの特徴を分析し、これらブロックが空間的スケーラビリティレイヤ内にあるかどうかを判断する(330)。ブロックのうちの1つをレイヤ間テクスチャ予測を使って符号化するかどうかを判断する(332)。前記接するブロックのうちの少なくとも1つがレイヤ間テクスチャ予測を使って符号化される場合、ブロックを分析し、いずれかのブロックがレイヤ間テクスチャ予測以外のイントラ予測方法により符号化されているかどうかを判断する(334)。ブロックのうちの1つがレイヤ間テクスチャ予測以外のイントラ予測方法によって符号化されている場合、第1の境界強度インジケータを使ってターゲット境界の特徴を定める(336)。
ブロックのうちの1つがレイヤ間テクスチャ予測以外のイントラ予測方法によって符号化されていない場合、接するブロックのいずれかが0でない変換係数を有するかどうかを判断するために、ブロックの特徴を分析する(338)。接するブロックのうちのいずれかが0でない変換係数を有する場合、第2の境界強度インジケータを使ってターゲット境界の特徴を定める(340)。
ブロックのうちの1つがレイヤ間テクスチャ予測以外のイントラ予測方法によって符号化されていない場合、ブロックの特徴を分析し、接するブロックのうちの1つを予測したブロックが0でない変換係数を有するかどうかを判断する(342)。接するブロックのうちの1つを予測したブロックが0でない変換係数を有する場合、第3の境界強度インジケータを使ってターゲット境界の特徴を定める(344)。
ブロックのうちの1つがレイヤ間テクスチャ予測以外のイントラ予測方法では符号化されず(334)、接するブロックのいずれもがまたは接するブロックのうちの1つを予測したブロックが0でない変換係数を有しない場合(338、342)、接するブロックのうちの1つがインター予測モードを使って符号化するかどうかを決定する判断がなされる(346)。接するブロックのうちの1つがインター予測モードを使って符号化される場合、第4の境界強度インジケータを使ってターゲット境界の特徴を定める(348)。
ブロックのうちの1つがレイヤ間テクスチャ予測以外のイントラ予測方法では符号化されておらず(334)、接するブロックのいずれもがまたは接するブロックのうちの1つを予測したブロックが0でない変換係数を有しておらず(338、342)、ブロックがインター予測モードで符号化されない場合(346)、異なる基準ブロックを参照して、接するブロックを予測するかどうかを決定する判断を行うことができる(350)。異なる基準ブロックを参照して接するブロックを予測する場合(350)、第5の境界強度インジケータを使ってターゲット境界の特徴を定める(352)。
ブロックのうちの1つがレイヤ間テクスチャ予測以外のイントラ予測方法では符号化されず(334)、接するブロックのいずれもがまたは接するブロックのうちの1つを予測したブロックが0でない変換係数を有しておらず(338、342)、ブロックがインター予測モードで符号化されず(346)、異なる基準ブロックを参照して接するブロックが予測されていない(350)場合、第6の境界強度インジケータを使ってターゲット境界の特徴を定めることができる(354)。
図30を参照して、本発明の一部の実施例について説明する。これら実施例では、空間的スケーラビリティエンハンスメントレイヤ内の接するブロックの間の境界は、種々のフィルタリング方法の適用のために特徴づけられる。種々のフィルタリング方法をトリガーまたはフィルタパラメータを調節するために使用できる境界強度インジケータ365、367、371および373と、これらフィルタリング方法とを関連付けできる。一部の実施例では、0の境界強度インジケータはフィルタ演算のスキップを示す。
これら実施例では、ブロック境界によって分離された2つの隣接するブロックの特徴を分析し、これらブロックに隣接したブロック境界の特徴を定める。一部の実施例では、ブロックの間の境界の特徴を定める。
これら実施例では、SpatialScalabilityTypeは非ゼロでなければならない(360)。次に、ブロックのうちの1つからのルミナンスサンプルをレイヤ間テクスチャ予測を使って符号化するかどうかを決定する別の判断を行う(362)(I_BL)。前記接するブロックのうちの少なくとも1つをI_BLを使って符号化する場合、これらブロックを分析し、いずれかのブロックがI_BL以外のイントラ予測方法で符号化されているかどうかを判断する(364)。I_BL以外のイントラ予測方法を用いてブロックのうちの1つを符号化している場合、第1の境界強度インジケータを使ってターゲット境界の特徴を定める(365)。一部の実施例では、第1境界強度インジケータは、最強、すなわち最もアグレッシブなデブロッキングフィルタ演算をトリガーする。一部の実施例では、この第1インジケータは4に等しくなる。
I_BL以外のイントラ予測方法を用いて、ブロックのうちの1つが符号化されていない場合、ブロック特性を分析し、接するブロックのうちのいずれかのルミナンスサンプルが0でない変換係数を有するかどうかを判断する(366)。接するブロックのうちのいずれかのルミナンスサンプルが非ゼロ変換係数を有する場合、第2の境界強度インジケータを使用してターゲット境界の特徴を定める(367)。一部の実施例では、この第2の境界強度インジケータは、中間の、すなわち第2に最もアグレッシブなデブロッキングフィルタ演算をトリガーする。一部の実施例では、この第2のインジケータは2に等しくなる。
I_BL以外のイントラ予測方法を用いて、ブロックのうちの1つが符号化されておらず(364)、いずれかのブロックからのルミナンスサンプルのいずれもが非ゼロ変換係数を有していない場合、接するブロックのうちの1つを予測したブロックが非ゼロ変換係数を有するかどうかを決定する判断がなされる(368)。接するブロックのうちの1つを予測したブロックが非ゼロ変換係数を有する場合、第2の境界強度インジケータを再び使用し、ターゲット境界の特徴を定めることができる(367)。
ブロックのうちの1つがI_BL以外のイントラ予測方法を用いて符号化されておらず(364)、接するブロックのいずれも(366)または接するブロックのうちの1つを予測したブロックが、非ゼロ変換係数を有していない(368)場合、接するブロックのうちの1つのルミナンスサンプルをインター予測モードを使って符号化するかどうかを決定する判断がなされる(370)。インター予測モードを使って接するブロックのうちの1つのルミナンスサンプルを符号化する(370)場合、第3の境界強度インジケータを使ってターゲット境界の特徴を定めることができる(371)。一部の実施例では、この第3の境界強度インジケータは、より弱い、すなわち第3番目にアグレッシブなデブロッキングフィルタ演算をトリガーする。一部の実施例では、この第3のインジケータは1に等しくなる。
ブロックのうちの1つがI_BL以外のイントラ予測方法により符号化されていない(364)場合、接するブロックのいずれも(366)また接するブロックのうちの1つを予測したブロックも、非ゼロ変換係数を有しておらず(368)、接するブロックのルミナンスサンプルがインター予測モードで符号化されない(370)場合、接するブロックのいずれかが異なる基準ブロックから予測されるかどうかを決定する判断がなされる(372)。接するブロックのいずれかのルミナンスサンプルが異なる基準ブロックを参照して予測される(370)場合、第3の境界強度インジケータを再び使って、ターゲット境界の特徴を定めることができる(371)。
ブロックのうちの1つがI_BL以外のイントラ予測方法により符号化されていない(364)場合、接するブロックのいずれも(366)また、接するブロックのうちの1つを予測したブロックも、非ゼロ変換係数を有しておらず(368)、接するブロックのルミナンスサンプルがインター予測モードで符号化されない場合(370)、接するブロックからのルミナンスサンプルが異なる基準ブロックから予測されていない(372)場合、第4の境界強度インジケータを使ってターゲット境界の特徴を定めることができる(373)。一部の実施例では、この第4の境界強度インジケータは、より弱い、すなわち第4番目にアグレッシブなデブロッキングフィルタ演算をトリガーできる。一部の実施例では、この第4番目のインジケータはフィルタリングが行われないことを示すことができる。一部の実施例では、この第4番目のインジケータは0に等しくなる。
便宜上、演算を相互に関連した種々の機能的ブロックまたは個別のソフトウェアモジュールとして説明した。しかしながら、このようなことは必要なことではなく、これら機能ブロックまたはモジュールを境界の不明確な状態で、単一ロジックデバイス、プログラムまたは演算に等価的に集めるケースもあり得る。いずれの場合においても、機能的ブロックおよびソフトウェアモジュールまたは説明した特徴は、それら自身で、またはハードウェアもしくはソフトウェアのいずれかにおける別の演算と組み合わせて実現できる。
これまで本明細書で用いた用語および表現は、説明するための用語として用いたものであり、制限するために用いたものではなく、かかる用語及び表現の使用に当たり、本明細書に説明し、図示した特徴またはその一部の均等物を排除するものではなく、本発明の範囲は特許請求の範囲のみによって定められ、限定されることが認識できよう。
本願は、シジュン・サンによって発明され、2005年3月18日に出願された「ピクチャレベルの適用性を有する拡張空間的スケーラビリティ」を発明の名称とする、米国仮特許出願第60/663,161号の権利を主張するものであり、本願は、更に、シジュン・サンによって発明され、2005年5月20日に出願された「拡張空間的スケーラビリティにおけるアップサンプリングのための直接補間」を発明の名称とする米国仮特許出願第60/683,060号の権利も主張するものである。本願は更に、シジュン・サンによって発明され、2005年6月1日に出願された「空間的スケーラブルなビデオ符号化のための低複雑度のデブロッキングフィルタ方法」を発明の名称とする米国仮特許出願第60/686,676号の権利も主張するものである。本願は、シジュン・サンおよびシャオミン・レイにより発明され、2002年3月29日に出願された「ブロックをベースとする動き補償されたビデオ符号化におけるループフィルタリングまたはポストフィルタリングを制御するための方法および装置」を発明の名称とする米国特許出願第10/112,683号の一部継続出願でもあるが、シジュン・サン外により発明され、2001年3月26日に出願された「ブロックをベースとする動き補償されたビデオ符号化におけるループフィルタリングまたはポストフィルタリングを制御するための方法および装置」を発明の名称とする米国特許出願第09/817,701号の継続である。本願は更に、シジュン・サンにより発明され、2004年3月11日に出願された「境界強度に基づく適応型フィルタリング」を発明の名称とする米国特許出願第10/799,384号の一部継続出願でもあり、米国特許出願第10/799,384号はシジュン・サン外により発明され、2002年9月11日に出願されたPCT特許出願第PCT/JP02/09306号の継続出願であり、PCT特許出願第PCT/JP02/09306号は、シジュン・サンおよびシャオミン・レイにより発明され、2001年9月14日に出願された「境界強度に基づく適応型フィルタリング」を発明の名称とする米国特許出願第09/953,329号の継続出願である。
隣接する画像ブロック間の類似性に従って、デブロックフィルタリングをどのように選択的にスキップするかを示す図である。 類似する動きベクトルを有する2つの隣接する画像ブロックを示す図である。 画像ブロックのうちの1つに対し、変換係数をどのように識別するかを示す図である。 2つの隣接する画像ブロックの間で残差変換係数をどのように比較するかを示す図である。 ビデオ画像をどのように符号化し、復号するかを示すブロック図である。 コーデックにおいて、デブロックフィルタリングをどのように選択的にスキップするかを示すブロック図である。 現在のブロックに基づく画像フィルタリング技法を示す図である。 フィルタ処理をする境界および使用するそれぞれのフィルタの強度を決定するための技法を示すブロック図である。 本発明の別の実施例を説明するための図である。 本発明の更に別の実施例を説明するための図である。 本発明の更に別の実施例を説明するための図である。 本発明の更に別の実施例を説明するための図である。 隣接するブロック間のデブロックフィルタリングが隣接するブロック内の符号化パラメータの類似性に依存する本発明の一実施例の処理ステップを説明するフローチャートである。 隣接するブロック間のデブロックフィルタリングが類似する動きベクトルを有する隣接するブロックに依存する本発明の一実施例の処理ステップを説明するフローチャートである。 隣接するブロック間のデブロックフィルタリングが同一の基準フレームを指示する類似する動きベクトルを有する隣接するブロックに依存する本発明の一実施例の処理ステップを説明するフローチャートである。 隣接するブロック間のデブロックフィルタリングが単一基準フレーム内の隣接する基準ブロックを指示する類似する動きベクトルを有する隣接するブロックに依存する、本発明の一実施例のステップを説明するフローチャートである。 隣接するブロック間のデブロックフィルタリングが、類似する直流変換係数を含むパラメータを有する隣接するブロックに依存する本発明の一実施例の処理ステップを説明するフローチャートである。 隣接するブロック間のデブロックフィルタリングが、類似する交流変換係数を含むパラメータを有する隣接するブロックに依存する本発明の一実施例の処理ステップを説明するフローチャートである。 隣接するブロック間のデブロックフィルタリングが、基準フレーム内の類似する動きベクトルおよび類似する動きベクトルターゲットを含むパラメータを有するルミナンス画像内の隣接するブロックに依存する本発明の一実施例の処理ステップを説明するフローチャートである。 隣接するブロック間のデブロックフィルタリングが、基準フレーム内の類似する動きベクトル、類似する動きベクトルターゲットと、類似する変換係数とを含むパラメータを有するルミナンス画像内の隣接するブロックに依存する本発明の一実施例の処理ステップを説明するフローチャートである。 1つの画像が別個のルミナンスチャンネルとクロミナンスチャンネルとに分割されており、各ルミナンス画像またはクロミナンス画像内の隣接するブロック間のデブロックフィルタリングが、類似する動きベクトルを含むパラメータを有するルミナンス画像内の隣接するブロックに依存する本発明の一実施例の処理ステップを説明するフローチャートである。 1つの画像が別個のルミナンスチャンネルとクロミナンスチャンネルとに分割されており、各ルミナンス画像またはクロミナンス画像内の隣接するブロック間のデブロックフィルタリングが、基準フレーム内の類似する動きベクトル、類似する動きベクトルターゲット並びに類似する変換係数を含むパラメータを有するルミナンス画像内の隣接するブロックに依存する本発明の一実施例の処理ステップを説明するフローチャートである。 本発明の一部の実施例におけるベース空間レイヤとエンハンスメント空間レイヤとの間の幾何学的関係を示す図である。 本発明の一部の実施例のアップサンプリングされたベースレイヤのピクチャとエンハンスメントレイヤのピクチャとの間の幾何学的関係を示す図である。 4×4ブロックのピクセルを示す図である。 8×8ブロック内の4×4ブロックを示す図である。 予測マクロブロックの8×8ブロックを示す図である。 隣接するブロック属性に基づき、ブロック境界の特性を定めるための方法の一例を示すフローチャートである。 隣接するブロック属性に基づき、ブロック境界の特性を定めるための方法の別の例を示すフローチャートである。 隣接するブロック属性に基づき、ブロック境界の特性を定めるための方法の別の例を示すフローチャートである。 隣接するブロック属性に基づき、ブロック境界の特性を定めるための方法の更に別の例を示すフローチャートである。 隣接するブロック属性に基づき、ブロック境界の特性を定めるための方法の更に別の例を示すフローチャートである。

Claims (1)

  1. レイヤ間テクスチャ予測を使って、接するブロックのうちの少なくとも1つを符号化する空間的スケーラビリティエンハンスメントレイヤ内の接するブロック間のブロック境界の特徴を定めるための方法であって、
    a)前記レイヤ間テクスチャ予測以外のイントラ予測モードを使って、前記接するブロックのいずれかのルミナンスサンプルを符号化するときに、
    第1の境界強度インジケータにより前記ブロック境界の特徴を定めるステップと、
    b)i)前記レイヤ間テクスチャ予測以外のイントラ予測モードを使って、前記接するブロックのいずれかのルミナンスサンプルを符号化しないとき、および
    ii)前記接するブロックのいずれかが非ゼロ変換係数を有するときに、
    第2の境界強度インジケータにより前記ブロック境界の特徴を定めるステップと、
    c)i)前記レイヤ間テクスチャ予測以外のイントラ予測モードを使って、前記ルミナンスサンプルを符号化しないとき、および
    ii)前記接するブロックの全てが非ゼロ変換係数を有しないときに、
    第3の境界強度インジケータにより前記ブロック境界の特徴を定めるステップと、
    を備え
    記ブロック境界に対してデブロッキングフィルタを適用するときに、前記第1の境界強度インジケータは、前記第2の境界強度インジケータよりも強いデブロッキングフィルタを適用させ、
    前記第2の境界強度インジケータは、前記第3の境界強度インジケータよりも強いデブロッキングフィルタを適用させること、
    を特徴とするブロック境界の特徴を定めるための方法。
JP2008501902A 2005-03-18 2006-02-28 隣接するブロック間のブロック境界の特徴を定める方法 Active JP4454678B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US66316105P 2005-03-18 2005-03-18
US68306005P 2005-05-20 2005-05-20
US68667605P 2005-06-01 2005-06-01
PCT/US2006/007105 WO2007064347A2 (en) 2005-03-18 2006-02-28 Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2009242688A Division JP4975078B2 (ja) 2005-03-18 2009-10-21 空間的にスケーラブルなビデオ符号化のために、低い複雑さでブロッキング歪を低減するための方法およびシステム
JP2009242741A Division JP2010016911A (ja) 2005-03-18 2009-10-21 ブロッキング歪を低減した画像データの符号化・複号化装置及び伝送システム

Publications (3)

Publication Number Publication Date
JP2008533909A JP2008533909A (ja) 2008-08-21
JP2008533909A5 JP2008533909A5 (ja) 2009-08-20
JP4454678B2 true JP4454678B2 (ja) 2010-04-21

Family

ID=37024293

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2008501903A Active JP4751928B2 (ja) 2005-03-18 2006-02-28 拡張された空間スケーラビティにおける画像レベルの適応化方法およびシステム
JP2008501902A Active JP4454678B2 (ja) 2005-03-18 2006-02-28 隣接するブロック間のブロック境界の特徴を定める方法
JP2009242688A Active JP4975078B2 (ja) 2005-03-18 2009-10-21 空間的にスケーラブルなビデオ符号化のために、低い複雑さでブロッキング歪を低減するための方法およびシステム
JP2009242741A Pending JP2010016911A (ja) 2005-03-18 2009-10-21 ブロッキング歪を低減した画像データの符号化・複号化装置及び伝送システム
JP2010277337A Active JP5154635B2 (ja) 2005-03-18 2010-12-13 拡張された空間スケーラビティにおける画像レベルの適応化方法およびシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008501903A Active JP4751928B2 (ja) 2005-03-18 2006-02-28 拡張された空間スケーラビティにおける画像レベルの適応化方法およびシステム

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2009242688A Active JP4975078B2 (ja) 2005-03-18 2009-10-21 空間的にスケーラブルなビデオ符号化のために、低い複雑さでブロッキング歪を低減するための方法およびシステム
JP2009242741A Pending JP2010016911A (ja) 2005-03-18 2009-10-21 ブロッキング歪を低減した画像データの符号化・複号化装置及び伝送システム
JP2010277337A Active JP5154635B2 (ja) 2005-03-18 2010-12-13 拡張された空間スケーラビティにおける画像レベルの適応化方法およびシステム

Country Status (6)

Country Link
US (1) US7961963B2 (ja)
EP (2) EP1859534A4 (ja)
JP (5) JP4751928B2 (ja)
KR (2) KR100947677B1 (ja)
CN (3) CN101449476B (ja)
WO (2) WO2006101682A2 (ja)

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100679035B1 (ko) * 2005-01-04 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
WO2006087314A1 (en) * 2005-02-18 2006-08-24 Thomson Licensing Method for deriving coding information for high resolution images from low resoluton images and coding and decoding devices implementing said method
JP5213456B2 (ja) * 2005-02-18 2013-06-19 トムソン ライセンシング 高分解能ピクチャの符号化情報を低分解能ピクチャから導き出す方法、並びにその方法を実現する符号化及び復号化装置
JP4839035B2 (ja) * 2005-07-22 2011-12-14 オリンパス株式会社 内視鏡用処置具および内視鏡システム
KR100678958B1 (ko) * 2005-07-29 2007-02-06 삼성전자주식회사 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더
CN1859576A (zh) 2005-10-11 2006-11-08 华为技术有限公司 对空间分层编码视频图象的上采样方法及其系统
JP5587552B2 (ja) * 2005-10-19 2014-09-10 トムソン ライセンシング スケーラブル映像符号化を用いた多視点映像符号化
EP1980114A4 (en) * 2006-01-09 2014-12-31 Lg Electronics Inc METHOD FOR PREDICTING INTER-LAYER OF VIDEO SIGNAL
WO2007080477A2 (en) * 2006-01-10 2007-07-19 Nokia Corporation Switched filter up-sampling mechanism for scalable video coding
US20070160134A1 (en) * 2006-01-10 2007-07-12 Segall Christopher A Methods and Systems for Filter Characterization
CN1794821A (zh) * 2006-01-11 2006-06-28 浙江大学 可分级视频压缩中插值的方法与装置
US8014445B2 (en) * 2006-02-24 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for high dynamic range video coding
US8194997B2 (en) * 2006-03-24 2012-06-05 Sharp Laboratories Of America, Inc. Methods and systems for tone mapping messaging
US8422548B2 (en) * 2006-07-10 2013-04-16 Sharp Laboratories Of America, Inc. Methods and systems for transform selection and management
US7885471B2 (en) * 2006-07-10 2011-02-08 Sharp Laboratories Of America, Inc. Methods and systems for maintenance and use of coded block pattern information
US8130822B2 (en) * 2006-07-10 2012-03-06 Sharp Laboratories Of America, Inc. Methods and systems for conditional transform-domain residual accumulation
US8532176B2 (en) * 2006-07-10 2013-09-10 Sharp Laboratories Of America, Inc. Methods and systems for combining layers in a multi-layer bitstream
US8059714B2 (en) * 2006-07-10 2011-11-15 Sharp Laboratories Of America, Inc. Methods and systems for residual layer scaling
US7840078B2 (en) * 2006-07-10 2010-11-23 Sharp Laboratories Of America, Inc. Methods and systems for image processing control based on adjacent block characteristics
EP1879399A1 (en) 2006-07-12 2008-01-16 THOMSON Licensing Method for deriving motion data for high resolution pictures from motion data of low resolution pictures and coding and decoding devices implementing said method
KR100904444B1 (ko) * 2006-09-07 2009-06-26 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
WO2008049052A2 (en) * 2006-10-18 2008-04-24 Apple Inc. Scalable video coding with filtering of lower layers
US8054885B2 (en) * 2006-11-09 2011-11-08 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
WO2008060125A1 (en) * 2006-11-17 2008-05-22 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
US8548056B2 (en) 2007-01-08 2013-10-01 Qualcomm Incorporated Extended inter-layer coding for spatial scability
US8199812B2 (en) 2007-01-09 2012-06-12 Qualcomm Incorporated Adaptive upsampling for scalable video coding
US8503524B2 (en) * 2007-01-23 2013-08-06 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction
US8665942B2 (en) 2007-01-23 2014-03-04 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction signaling
US7826673B2 (en) * 2007-01-23 2010-11-02 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction with color-conversion
US8233536B2 (en) 2007-01-23 2012-07-31 Sharp Laboratories Of America, Inc. Methods and systems for multiplication-free inter-layer image prediction
KR100843100B1 (ko) * 2007-02-07 2008-07-03 삼성전자주식회사 디지털 영상에서의 블록 노이즈 저감 방법 및 장치, 이를이용한 인코딩/디코딩 방법 및 인코더/디코더
US7760949B2 (en) 2007-02-08 2010-07-20 Sharp Laboratories Of America, Inc. Methods and systems for coding multiple dynamic range images
US8767834B2 (en) 2007-03-09 2014-07-01 Sharp Laboratories Of America, Inc. Methods and systems for scalable-to-non-scalable bit-stream rewriting
US8014613B2 (en) * 2007-04-16 2011-09-06 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image parameter prediction
WO2009032255A2 (en) * 2007-09-04 2009-03-12 The Regents Of The University Of California Hierarchical motion vector processing method, software and devices
US8175158B2 (en) * 2008-01-04 2012-05-08 Sharp Laboratories Of America, Inc. Methods and systems for inter-layer image prediction parameter determination
US8249142B2 (en) * 2008-04-24 2012-08-21 Motorola Mobility Llc Method and apparatus for encoding and decoding video using redundant encoding and decoding techniques
KR101552639B1 (ko) * 2008-07-11 2015-09-14 한국전자통신연구원 인트라 매크로 블록의 디블록킹 필터 및 필터링 방법
US8379727B2 (en) * 2008-09-26 2013-02-19 General Instrument Corporation Method and apparatus for scalable motion estimation
WO2010036772A2 (en) 2008-09-26 2010-04-01 Dolby Laboratories Licensing Corporation Complexity allocation for video and image coding applications
KR101590500B1 (ko) * 2008-10-23 2016-02-01 에스케이텔레콤 주식회사 동영상 부호화/복호화 장치, 이를 위한 인트라 예측 방향에기반한 디블록킹 필터링 장치 및 필터링 방법, 및 기록 매체
KR101534050B1 (ko) * 2008-10-28 2015-07-06 에스케이 텔레콤주식회사 동영상 부호화/복호화 장치, 이를 위한 디블록킹 필터링 장치와 방법, 및 기록 매체
JP5667773B2 (ja) * 2010-03-18 2015-02-12 キヤノン株式会社 情報作成装置及びその制御方法
TWI416961B (zh) * 2010-04-02 2013-11-21 Univ Nat Chiao Tung 用於可調式視訊編碼系統之選擇性移動向量預測方法、移動估測方法及其裝置
KR102388012B1 (ko) 2010-04-13 2022-04-18 지이 비디오 컴프레션, 엘엘씨 샘플 배열 멀티트리 세부분할에서 계승
KR101874272B1 (ko) 2010-04-13 2018-07-03 지이 비디오 컴프레션, 엘엘씨 평면 간 예측
PL2559246T3 (pl) 2010-04-13 2017-02-28 Ge Video Compression Llc Łączenie obszarów próbek
BR122020007669B1 (pt) 2010-04-13 2022-07-12 Ge Video Compression, Llc Codificação de uma amostragem espacial de um sinal de informação bidimensional usando subdivisão
US9094658B2 (en) * 2010-05-10 2015-07-28 Mediatek Inc. Method and apparatus of adaptive loop filtering
KR102108078B1 (ko) * 2010-05-26 2020-05-08 엘지전자 주식회사 비디오 신호의 처리 방법 및 장치
WO2011152425A1 (ja) 2010-06-03 2011-12-08 シャープ株式会社 フィルタ装置、画像復号装置、画像符号化装置、および、フィルタパラメータのデータ構造
WO2012035746A1 (ja) * 2010-09-17 2012-03-22 日本電気株式会社 映像符号化装置および映像復号装置
CN102438135B (zh) * 2011-01-14 2013-12-04 展讯通信(上海)有限公司 高分辨率视频在小尺寸显示设备上的降采样解码方法及装置
KR20120088488A (ko) * 2011-01-31 2012-08-08 한국전자통신연구원 시간적 움직임 벡터 저장 방법 및 그 장치
JP5859568B2 (ja) * 2011-03-10 2016-02-10 メディア テック シンガポール ピーティーイー.リミテッド 非ブロック化フィルタの方法と装置
WO2012167418A1 (en) * 2011-06-07 2012-12-13 Technicolor (China) Technology Co., Ltd. Method for encoding and/or decoding images on macroblock level using intra-prediction
CN103688533B (zh) * 2011-06-20 2015-12-23 联发科技(新加坡)私人有限公司 可减少行存储器的色度帧内预测方法及装置
KR20120140592A (ko) * 2011-06-21 2012-12-31 한국전자통신연구원 움직임 보상의 계산 복잡도 감소 및 부호화 효율을 증가시키는 방법 및 장치
WO2012177052A2 (ko) 2011-06-21 2012-12-27 한국전자통신연구원 인터 예측 방법 및 그 장치
ES2893754T3 (es) 2011-06-28 2022-02-10 Sony Group Corp Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes
KR20160038070A (ko) * 2011-06-30 2016-04-06 미쓰비시덴키 가부시키가이샤 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법, 화상 복호 방법 및 기억 매체
EP2552115A1 (en) 2011-07-25 2013-01-30 Siemens Aktiengesellschaft A method for coding a sequence of digital images
WO2013036972A1 (en) 2011-09-09 2013-03-14 Panamorph, Inc. Image processing system and method
CN108696753B (zh) 2011-09-20 2021-07-27 Lg 电子株式会社 用于编码/解码图像信息的方法和装置
KR20130037162A (ko) * 2011-10-05 2013-04-15 한국전자통신연구원 스케일러블 비디오 코딩을 위한 계층간 텍스처 예측 방법 및 그 장치
US9167269B2 (en) * 2011-10-25 2015-10-20 Qualcomm Incorporated Determining boundary strength values for deblocking filtering for video coding
CN103988511B (zh) * 2011-10-31 2017-09-08 寰发股份有限公司 视频编码系统中重建视频的去块方法和设备
CN109246429A (zh) * 2011-11-04 2019-01-18 Lg 电子株式会社 用于编码/解码图像信息的方法和装置
WO2013077714A1 (ko) * 2011-11-27 2013-05-30 엘지전자 주식회사 영상 정보 인코딩/디코딩 방법 및 장치
DK3016391T3 (en) * 2012-01-17 2017-06-26 ERICSSON TELEFON AB L M (publ) Managing reference image list
CN104255032B (zh) * 2012-03-29 2018-03-27 Lg 电子株式会社 层间预测方法和使用其的编码设备和解码设备
CN102630015B (zh) * 2012-04-06 2014-07-16 芯原微电子(北京)有限公司 一种基于RealVideo9或10去块效应的快速旁路方法和装置
WO2013169049A1 (ko) * 2012-05-10 2013-11-14 엘지전자 주식회사 인터 레이어 예측 방법 및 이를 이용하는 장치
WO2013189205A1 (en) 2012-06-22 2013-12-27 Mediatek Inc. Method and apparatus of adaptive intra prediction for inter-layer and inter-view coding
CN109257601A (zh) * 2012-07-03 2019-01-22 夏普株式会社 图像解码装置以及图像编码装置
KR102180470B1 (ko) * 2012-07-06 2020-11-19 삼성전자주식회사 다계층 비디오 부호화 방법 및 장치, 다계층 비디오 복호화 방법 및 장치
KR20210129266A (ko) * 2012-07-09 2021-10-27 브이아이디 스케일, 인크. 멀티 레이어 비디오 코딩용 코덱 아키텍처
TWI631850B (zh) * 2012-08-06 2018-08-01 Vid衡器股份有限公司 在多層視訊編碼中空間層取樣格網資訊
US20140044162A1 (en) * 2012-08-08 2014-02-13 Qualcomm Incorporated Adaptive inference mode information derivation in scalable video coding
CA2807919C (en) * 2012-08-31 2016-06-14 Research In Motion Limited Methods and devices for entropy coding in scalable video compression
US10448032B2 (en) * 2012-09-04 2019-10-15 Qualcomm Incorporated Signaling of down-sampling location information in scalable video coding
JP6125215B2 (ja) 2012-09-21 2017-05-10 株式会社東芝 復号装置、及び符号化装置
JP6282763B2 (ja) * 2012-09-21 2018-02-21 株式会社東芝 復号装置、符号化装置、復号方法、及び符号化方法
UA111797C2 (uk) * 2012-09-27 2016-06-10 Долбі Лабораторіс Лайсензін Корпорейшн Обробка міжрівневого еталонного зображення для масштабованості стандартів кодування
KR20150050561A (ko) * 2012-09-28 2015-05-08 인텔 코포레이션 계층간 화소 샘플 예측
SG11201500316PA (en) * 2012-09-28 2015-02-27 Intel Corp Inter-layer intra mode prediction
CN103716622B (zh) * 2012-09-29 2017-02-08 华为技术有限公司 用于图像处理的方法和装置
KR102094892B1 (ko) * 2012-11-07 2020-03-30 엘지전자 주식회사 신호 송수신 장치 및 신호 송수신 방법
US9756613B2 (en) 2012-12-06 2017-09-05 Qualcomm Incorporated Transmission and reception timing for device-to-device communication system embedded in a cellular system
TWI521946B (zh) * 2012-12-21 2016-02-11 杜比實驗室特許公司 在高位元深度視訊的可適性編碼中,高精度升取樣
CN103916676B (zh) * 2012-12-31 2017-09-29 华为技术有限公司 一种边界强度确定方法、去块效应滤波方法、及装置
KR101806216B1 (ko) 2013-01-04 2017-12-08 지이 비디오 컴프레션, 엘엘씨 효율적인 확장가능한 코딩 개념
US9270991B2 (en) * 2013-01-07 2016-02-23 Qualcomm Incorporated Inter-layer reference picture generation for HLS-only scalable video coding
US9743097B2 (en) * 2013-03-01 2017-08-22 Qualcomm Incorporated Spatial motion vector scaling for scalable video coding
US9294776B2 (en) 2013-03-05 2016-03-22 Qualcomm Incorporated Parallel processing for video coding
US10284842B2 (en) 2013-03-05 2019-05-07 Qualcomm Incorporated Inter-layer reference picture construction for spatial scalability with different aspect ratios
AU2014231403A1 (en) * 2013-03-12 2015-07-16 Hfi Innovation Inc. Inter-layer motion vector scaling for scalable video coding
EP2984839B1 (en) 2013-04-08 2020-05-27 GE Video Compression, LLC Coding concept allowing efficient multi-view/layer coding
CN103220529B (zh) * 2013-04-15 2016-02-24 北京大学 一种视频编解码环路滤波的实现方法
US9813723B2 (en) * 2013-05-03 2017-11-07 Qualcomm Incorporated Conditionally invoking a resampling process in SHVC
US9578328B2 (en) * 2013-07-15 2017-02-21 Qualcomm Incorporated Cross-layer parallel processing and offset delay parameters for video coding
CN105556943B (zh) 2013-09-20 2019-03-29 Vid拓展公司 提供3d查找表编码以用于色域可伸缩性的系统和方法
TWI628959B (zh) * 2013-12-13 2018-07-01 美商Vid衡器股份有限公司 提供色域可縮放性3d查找表(lut)估計
FR3018417B1 (fr) * 2014-03-04 2017-07-28 Sagemcom Broadband Sas Procede de modification d'un flux video binaire.
US20180176588A1 (en) * 2014-03-14 2018-06-21 Samsung Electronics Co., Ltd. Scalable video encoding/decoding method and apparatus
KR102260146B1 (ko) * 2014-03-31 2021-06-03 인텔렉추얼디스커버리 주식회사 시점 간 움직임 병합 후보 유도 방법 및 장치
US9704213B2 (en) 2014-08-13 2017-07-11 Qualcomm Incorporated Texture element streaming
JP6305279B2 (ja) 2014-08-26 2018-04-04 株式会社東芝 映像圧縮装置および映像再生装置
CN109257605B (zh) * 2017-07-13 2021-11-19 华为技术有限公司 图像处理方法、设备及系统
KR102520626B1 (ko) * 2018-01-22 2023-04-11 삼성전자주식회사 아티팩트 감소 필터를 이용한 영상 부호화 방법 및 그 장치, 영상 복호화 방법 및 그 장치
WO2020003264A2 (en) * 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Filtering of zero unit
US11620775B2 (en) 2020-03-30 2023-04-04 Panamorph, Inc. Method of displaying a composite image on an image display

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0465732B1 (en) * 1990-07-11 1996-10-02 Koninklijke Philips Electronics N.V. Apparatus for deriving a compatible low-definition interlaced television signal and other components from an interlaced high-definition television signal and apparatus for reconstructing the original signal
JPH07107464A (ja) * 1993-10-01 1995-04-21 Hitachi Ltd 画像符号化装置および復号化装置
JPH07212761A (ja) * 1994-01-17 1995-08-11 Toshiba Corp 階層符号化装置及び階層復号化装置
US6957350B1 (en) * 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
JPH1070717A (ja) * 1996-06-19 1998-03-10 Matsushita Electric Ind Co Ltd 画像符号化装置及び画像復号化装置
US6173013B1 (en) * 1996-11-08 2001-01-09 Sony Corporation Method and apparatus for encoding enhancement and base layer image signals using a predicted image signal
AU732452B2 (en) 1997-04-01 2001-04-26 Sony Corporation Image encoder, image encoding method, image decoder, image decoding method, and distribution media
US6057884A (en) * 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
JP2000036032A (ja) * 1998-07-17 2000-02-02 Fujitsu Ltd 前景画像抽出方法、画像処理装置、自動トリミング装置、記録媒体及び肖像写真装置
US6459814B1 (en) 1998-09-08 2002-10-01 Sarnoff Corporation Method and apparatus for generic scalable shape coding by deriving shape information for chrominance components from luminance component
CN1286575A (zh) * 1999-08-25 2001-03-07 松下电器产业株式会社 噪声检测方法、噪声检测装置及图象编码装置
US6873655B2 (en) * 2001-01-09 2005-03-29 Thomson Licensing A.A. Codec system and method for spatially scalable video data
US7450641B2 (en) * 2001-09-14 2008-11-11 Sharp Laboratories Of America, Inc. Adaptive filtering based upon boundary strength
KR20040054744A (ko) * 2001-10-26 2004-06-25 코닌클리케 필립스 일렉트로닉스 엔.브이. 적응 콘텐트 필터링을 사용하는 공간 스케일가능 압축 체계
US7155654B2 (en) * 2003-04-04 2006-12-26 Sst Communications, Corp. Low complexity error concealment for wireless transmission
JP2004328634A (ja) * 2003-04-28 2004-11-18 Sony Corp 画像復号化装置及び方法
US20070118794A1 (en) * 2004-09-08 2007-05-24 Josef Hollander Shared annotation system and method
JP4191729B2 (ja) * 2005-01-04 2008-12-03 三星電子株式会社 イントラblモードを考慮したデブロックフィルタリング方法、及び該方法を用いる多階層ビデオエンコーダ/デコーダ
WO2006087314A1 (en) * 2005-02-18 2006-08-24 Thomson Licensing Method for deriving coding information for high resolution images from low resoluton images and coding and decoding devices implementing said method

Also Published As

Publication number Publication date
CN101449476B (zh) 2012-05-23
CN101379511B (zh) 2011-11-09
EP1859534A4 (en) 2010-09-29
KR100959436B1 (ko) 2010-05-26
JP4975078B2 (ja) 2012-07-11
US20060209959A1 (en) 2006-09-21
JP5154635B2 (ja) 2013-02-27
EP1859389A2 (en) 2007-11-28
WO2007064347A2 (en) 2007-06-07
JP2010016911A (ja) 2010-01-21
KR20080003808A (ko) 2008-01-08
WO2006101682A2 (en) 2006-09-28
JP2011083022A (ja) 2011-04-21
CN101379511A (zh) 2009-03-04
JP2008533909A (ja) 2008-08-21
EP1859389A4 (en) 2010-08-25
WO2006101682A3 (en) 2008-11-13
EP1859534A2 (en) 2007-11-28
CN101449476A (zh) 2009-06-03
CN102387366A (zh) 2012-03-21
JP4751928B2 (ja) 2011-08-17
US7961963B2 (en) 2011-06-14
WO2007064347A3 (en) 2008-01-17
KR20080005210A (ko) 2008-01-10
JP2010016910A (ja) 2010-01-21
KR100947677B1 (ko) 2010-03-16
JP2008538057A (ja) 2008-10-02

Similar Documents

Publication Publication Date Title
JP4454678B2 (ja) 隣接するブロック間のブロック境界の特徴を定める方法
US7929610B2 (en) Methods and systems for reducing blocking artifacts with reduced complexity for spatially-scalable video coding
JP7055230B2 (ja) 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法及び符号化ビットストリームを記録した記録媒体
JP7269257B2 (ja) フレームレベル超解像ベースビデオ符号化
US9948958B2 (en) Low complex deblocking filter decisions
US20170324977A1 (en) Efficient rounding for deblocking
US8577168B2 (en) System and method for in-loop deblocking in scalable video coding
JP5815795B2 (ja) 画像復号装置及び画像復号方法
US20130142267A1 (en) Line memory reduction for video coding and decoding
KR102227411B1 (ko) 거리 가중 양지향성 인트라 예측
WO2011125729A1 (ja) 画像処理装置と画像処理方法
US20130101027A1 (en) Deblocking control by individual quantization parameters
TW202103495A (zh) 解碼影像資料的方法、編碼影像資料的方法及儲存編碼影片資訊的非暫態電腦可讀取儲存媒介
US20140192860A1 (en) Method, device, computer program, and information storage means for encoding or decoding a scalable video sequence
JP2006517362A (ja) ビデオ符号化
CN114270865A (zh) 用于对图像进行编码/解码的方法、设备和记录介质
WO2013108882A1 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
Tourapis et al. Reduced resolution update mode extension to the H. 264 standard
JP2014135552A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法および動画像復号方法
CN113424527A (zh) 图像处理装置和图像处理方法
CN114270820A (zh) 使用参考画面对图像进行编码/解码的方法、装置和记录介质

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090702

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20090710

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4454678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140212

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250