JP2014504119A - 画像シーケンスを符号化する方法およびこの方法に対応する再構築方法 - Google Patents

画像シーケンスを符号化する方法およびこの方法に対応する再構築方法 Download PDF

Info

Publication number
JP2014504119A
JP2014504119A JP2013549729A JP2013549729A JP2014504119A JP 2014504119 A JP2014504119 A JP 2014504119A JP 2013549729 A JP2013549729 A JP 2013549729A JP 2013549729 A JP2013549729 A JP 2013549729A JP 2014504119 A JP2014504119 A JP 2014504119A
Authority
JP
Japan
Prior art keywords
image
encoding
current
current image
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013549729A
Other languages
English (en)
Other versions
JP2014504119A5 (ja
Inventor
シエリギ、サフア
ソロー、ドミニク
ギヨテル,フイリツプ
ギユモ、クリステイーヌ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2014504119A publication Critical patent/JP2014504119A/ja
Publication of JP2014504119A5 publication Critical patent/JP2014504119A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/99Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals involving fractal coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

本発明は、画像シーケンスを符号化する方法に関する。この符号化方法は、現在の画像に対し
この現在の画像のサマリーを作成するステップと、このサマリーを符号化して第1のビットストリームにするステップと、このサマリーから中間画像を再構築するステップと、この中間画像を参照画像として使用して現在の画像を符号化して第2のビットストリームにするステップと、を含む。
【選択図】図1

Description

本発明は、ビデオの符号化および復号に関する。より具体的には、本発明は、画像シーケンスを符号化する方法およびこの画像シーケンスを再構築する方法に関する。本発明は、低ビット・レートで同一の品質を維持することによるビデオ符号化性能の改善を取り扱う。
画像シーケンスのうちの画像を符号化する際、まず、画像を空間的または時間的に予測し、画像の予測の結果として得られる残差信号を符号化することが知られている。空間予測は、INTRA(イントラ)予測とも呼ばれ、時間予測は、INTER(インター)予測とも呼ばれる。ITU−T勧告H.264/ISO/IEC 14496−10 AVCビデオ符号化規格は、符号化されるブロックの空間推定に対応する3個の異なるイントラ予測モードである、Intra4×4、Intra8×8、およびIntra16×16を規定する。これらの異なるモードは、予測ブロックの画素を構築するために、複数の異なる方向予測モードを利用することができる。Intra4×4およびIntra8×8においては、9個のイントラ予測モードが規定されている。これらのイントラ予測モードのうちの8個は、予測されるブロックの周囲の画素の一次元(1D)方向外挿からなる。追加的な予測モード(DCモード)は、利用可能な周囲の画素の平均として予測ブロックの画素を規定する。
テクスチャが単方向に指向した複数の構造に対応する場合には、利用可能な予測方向のうちの1つに一致させることにより、これらの構造は、適切な方向1D予測で良好に外挿される。しかしながら、複雑な2Dパターンの場合には、H.264/AVCイントラ予測モードは、信号を正確に伝搬させ、予測することができない。
本発明は、従来技術の欠点の少なくとも1つを低減することを目的とする。本発明の1つの目的は、イントラ予測の原理を改良することにあり、これは、現在の画像の画像サマリー(例えば、縮図)に基づいた符号化器/復号器のスキームを使用することによって行われ、画像サマリーは、参照画像として間接的に使用される。
従って、本発明は、画像シーケンスを符号化する方法であって、現在の画像に対して、
−上記現在の画像のサマリーを作成するステップと、
−上記サマリーを符号化して第1のビットストリームにするステップと、
−上記サマリーから上記現在の画像と同じサイズの中間画像を再構築するステップと、
−上記現在の画像を、上記中間画像を参照画像として使用して符号化して第2のビットストリームにするステップと、を含む、この方法に関する。
本発明の態様によれば、上記現在の画像のサマリーは、テクスチャ縮図および割り当てマップを含む。
有益には、上記割り当てマップは、固定長符号化または可変長符号化を使用して符号化される。
有益には、上記第2のビットストリームは、ITU−T勧告H.264/ISO/IEC 14496−10 AVCビデオ符号化規格およびISO/IEC 13818−2 MPEG2を含むビデオ符号化規格のセットに属する1つのビデオ符号化規格に準拠する。
さらに、本発明は、画像シーケンスを再構築する方法であって、現在の画像に対して、
−上記現在の画像の画像サマリーを復号するステップと、
−上記画像サマリーから中間画像を再構築するステップと、
−上記中間画像を参照画像として使用して上記現在の画像を再構築するステップと、を含み、上記中間画像が上記現在の画像と同じサイズである、この方法に関する。
画像サマリーの使用は、2Dテクスチャ予測の使用による方向イントラ予測の問題を解決する。実際、サマリー画像は、実際のテクスチャからなり、元の画像からのみ生成される。サマリー画像の主たる目的は、元の画像内の冗長性を除去し、画像テクスチャを最良に表す最も関連性のあるパターン(またはパッチ)を確保することにある。これらのパターンにより、指向性の単方向補間の代わりに2Dパッチが考慮されるため、2Dテクスチャにより適した予測を提供することができる。
本発明のその他の特徴および利点は、添付図面を参照して、本発明を限定するものではない、例示的な本発明の実施形態の説明を通じて理解できるようになるであろう。
本発明の第1の実施形態に従った符号化方法を示す図である。 本発明の第2の実施形態に従った符号化方法を示す図である。 従来技術に従った、縮図の作成およびこの縮図から画像の再構築を例示する図である。 本発明の第2の実施形態に従った符号化方法の詳細を表す図である。 許容誤差εで右側の画像上の白線により区切られたマッチしたパッチのセットとマッチされる所与の画像ブロックBを表す図である。 チャート初期化ステップを表す図であり、左側で、画像中の灰色ブロックは、現在のチャートによって現在再構築されたブロックであり、現在の縮図ECは、当初、単一のパッチEによって表されている。 チャート拡張ステップを表す図である。 元の画像(a)から作成された縮図の例(b)および縮図から再構築された画像(c)を表す図である。 本発明の第1の実施形態に従った再構築方法を示す図である。 本発明の第2の実施形態に従った再構築方法を示す図である。 本発明に従った符号化装置を表す図である。 本発明に従った復号装置を表す図である。
本発明は、画像シーケンスの符号化方法に関する。この符号化方法を、シーケンスの現在の画像について説明する。本発明に従った符号化方法は、現在の画像を符号化するために、この現在の画像の画像サマリーを使用する。さらに、本発明は、この符号化方法に対応する再構築方法に関する。
図1は、本発明に従った符号化方法を表す。
ステップ20において、画像サマリーを現在の画像Icurrから作成する。特定の実施形態によれば、画像サマリーは、縮図(epitome)である。しかしながら、本発明は、この種のサマリーに限定されるものではない。どのような種類のサマリー(例えば、パッチ辞書)でも、このサマリーから画像を再構築可能であれば、使用することができる。
ステップ22において、画像サマリーを符号化して第1のストリームF1となる。例として、サマリーを、イントラのみの符号化モードを使用してH.264規格に準拠して符号化する。変形例によれば、画像サマリーを、文献JPEG2000パート、ISO/IEC JTC1/SC29/WG1規格、2000年3月において規定されているJPEG規格に準拠して符号化する。
ステップ24において、画像サマリーを復号して復号されたサマリーとなる。ステップ24は、ステップ22の逆処理である。
ステップ26において、復号されたサマリーから中間画像を再構築する。
ステップ28において、中間画像を参照画像として使用して現在の画像Icurrを符号化して第2のビットストリームF2となる。例として、現在の画像を、H.264に準拠して符号化する。変形例によれば、現在の画像を、MPEG2 ISO−IEC 13818ビデオ符号化規格に準拠して符号化する。一般的な符号化モード(インター符号化モードおよびイントラ符号化モード)を使用することができる。現在の画像のブロックをインター符号化モードに従って符号化すると、ブロックと、参照画像内、つまり、復号された縮図から再構築された中間画像内の対応するブロックとの間の差分が符号化される。この対応するブロックは、動きベクトルによって参照画像内で特定されるが、参照画像内で同じ位置に局在した(colocalized)ブロックであってもよい。さらに、双方向予測は、参照画像の2つのブロックを用いて実施することができる。この差分は、残差としても知られ、実際には、ブロックと参照画像から得られたそのブロックの予測との間で計算される予測誤差である。通常は、まず、この残差が変換されてDCT係数などの係数のブロックとなる。次に、これらの係数を量子化して、量子化された係数のブロックとなる。最終的に、量子化された係数を、公知の算術符号化、CABAC(コンテクスト適応型バイナリ算術符号化を表す)、CAVLC(コンテクスト適応型可変長符号化を表す)などのエントロピー符号化を使用して符号化してビットストリームとなる。本発明は、残差を符号化するために使用される符号化のタイプに限定されるものではない。第2のビットストリームF2は、予測誤差の残差ビットストリームである。変形例によれば、第1のビットストリームおよび第2のビットストリームが多重化されて単一のビットストリームとなる。
図2は、本発明の特定に実施形態に従った符号化方法を表しており、ここで、画像サマリーは、縮図である。画像の縮図は、画像のテクスチャおよび構造プロパティのエッセンスを含み、この画像を縮約して表現した図である。
ステップ20において、現在の画像Icurrから縮図を作成する。従って、この特定の実施形態によれば、現在の画像Icurrが因子分解される、すなわち、現在の画像に対し、テクスチャ縮図Eおよび変換マップφが作成される。縮図の原理は、最初に、Hoppe氏らによってACM SIGGRAPH 2008の会議録において公開された、「画像内、さらに、画像のうちで繰り返されるコンテンツの因子分解(Factoring Repeated Content Within and Among Images)」と題された文献(ACM Transaction on Graphics、第27巻第3号第1〜10頁、2008年)において開示された。テクスチャ縮図Eは、現在の画像から取り出されたテクスチャの複数のピース(たとえば、複数のチャートのセット)から構築される。変換マップφは、現在の画像Icurrの各ブロックとテクスチャ縮図Eのパッチとの間の対応を記録した割り当てマップである。図3は、Hoppe氏の方法を例示している。画像Iから、テクスチャ縮図Eおよび変換マップφが作成され、それらによってマッチした縮図パッチから全ての画像ブロックが再構築できる。マッチしたパッチは、変換パッチとしても知られている。変換マップは、文献では、ベクトル・マップまたは割り当てマップとしても知られている。テクスチャ縮図Eおよび変換マップφを用いて、現在の画像I’を再構築することができる。以下の説明において、縮図は、テクスチャ縮図Eおよび変換マップφの双方を指定する。図4は、縮図作成のための方法を例示している。しかしながら、本発明は、縮図作成のこの方法に限定されるものでは全くない。文献においては、縮図の他の形態が提案されている。2008年、コンピュータ・ビジョンおよびパターン認識(Computer Vision and Pattern Recognition(CVPR))において公表された「双方向類似性を使用した視覚データの要約(Summarizing visual data using bidirectional similarity)」と題された文献において、Simakov氏らは、双方向類似度からの画像サマリーの作成を開示している。Simakov氏らのアプローチは、2つの条件を満たすことを目的としている。これらの条件の一方は、入力データからの視覚情報をできる限り多く含むようにすることであり、他方は、入力データに存在していなかった新たな視覚アーティファクトの導入をできる限り少なくすること(すなわち、視覚の一貫性(visual coherence)を維持すること)である。
International Journal of Computer Vision、第76巻第2号 2008年2月、に公表された「ビデオ縮図(Video Epitomes)」と題された文献においては、Cheung氏らは、縮図を抽出するために、統計的な方法を開示している。このアプローチは、色情報および特定の空間パターンの双方を捉える確率的なモデルに基づく。
ステップ210において、縮図構築方法は、現在の画像Icurr内で自己類似性を見つけることを含む。従って、現在の画像は、規則的な格子の複数のブロックに分割される。現在の画像Icurrにおける各ブロックに対して、同様のコンテンツを有する同じ画像における複数のパッチのセットをサーチする。すなわち、各ブロックB(∈ブロック格子)に対してBを所与の許容誤差εで近似する、マッチしたもの(または、マッチしたパッチ)のリストLmatch(B)={Mi0、Mil,…}が決定される。本実施形態においては、平均ユークリッド距離を使用して、ブロック・マッチング・アルゴリズムでマッチング処理が行われる。従って、ステップ210において、ブロックBiまでの距離がε未満である現在の画像内のパッチMj,lがリストLmatch(B)に追加される。この距離は、例えば、ブロックBiとパッチMj,lとの間の画素毎の差の絶対値をこのブロックB内の画素の数で除した値に等しい。変形例によれば、距離は、誤差平方和(SSE(Sum of Square Errors))と等しく、誤差は、ブロックBiとパッチMj,lとの間の画素毎の差である。画像全体内で、網羅的なサーチが行われる。画像ブロックのセットに対し、全てのマッチ・リストが作成されると、ステップ220において、マッチしたパッチMj,lによって表すことのできる複数の画像ブロックのセットを示す新しいリストL’match(Mj,l)が構築される。なお、完全なサーチ・ステップの間に見つけられた全てのマッチしたブロックMj,lは、必ずしも、画像のブロック格子に一致したものではなく、従って、図5に示されているような「画素格子」に属する。
ステップ240において、縮図チャートが構築される。この目的のため、縮図チャートを構築するためにテクスチャ・パッチを抽出し、より正確には、テクスチャ・パッチを選択する。全ての縮図チャートを結合させたものがテクスチャ縮図Eを構成する。各縮図チャートはテクスチャで画像の特定の領域を表す。ステップ240について、以下、詳細に説明する。
ステップ2400において、インデックスnを0に設定する。nは整数である。
ステップ2402において、第1の縮図チャートECを初期化する。縮図チャートを初期化するために、幾つかの候補となるマッチしたパッチを使用することができる。各縮図チャートは、まだ再構築されていない残りのブロックを最良に表すマッチしたパッチによって初期化される。
Figure 2014504119
が入力画像を表すものとし、
Figure 2014504119
が候補となるマッチしたパッチおよび前に構築された縮図チャートによって再構築された画像を表すものとする。チャートを初期化するために、平均二乗誤差(MSE(基準の最小化に基づく以下の選択基準が使用される。
Figure 2014504119
選択された基準は、画像全体の予測誤差を考慮している。この基準は、最大の個数のブロックを再構築するとともに、再構築誤差を最小にできるようにするテクスチャ・パターンによって、縮図を拡張できるようにする。本実施形態においては、画像の再構築誤差を計算する際、零値が縮図パッチによってまだ予測されていない画像の画素に割り当てられる。図6は、最初の縮図パッチE0が選択されたときの再構築された画像ブロックを示している。
ステップ2404において、縮図チャートECは、次に、入力画像から領域ごとに次第に拡大し、縮図チャートが拡大する毎に、図7に描かれた画像内において予測可能な追加のブロックの個数を記録(把握)する。このステップは縮図チャート拡張としても知られている。初期縮図チャートEC(0)は、初期化ステップで保持されるテクスチャ・パッチに対応する。縮図拡大ステップは、まず、現在のチャートEC(K)と重なり、他の画像ブロックを表すマッチしたパッチMj,lのセットを判定することによって処理が進められる。従って、現在の縮図チャートの拡張として使用できる幾つかの候補となる領域ΔEが存在する。各チャート拡大候補ΔEに対し、複数の画素のセットΔEを含むマッチしたパッチMj,kのみに関連するリストL’match(Mj,k)から、再構築される可能性のある追加画像ブロックが特定される。次に、見つかった候補となるチャート拡大のセットのうちから、レート歪み基準に従って、最良にマッチするものに至る最適な候補ΔEoptが選択される。
Figure 2014504119
が入力画像を表すものとし、
Figure 2014504119
が現在の縮図Ecurrおよびチャート拡大候補ΔEによって再構築された画像を表すものとする。なお、現在の縮図Ecurrは、前に構築された縮図チャートおよび現在の縮図チャートEC(k)から構成される。この選択は、実際、ラグランジェ基準FCextの最小化に従って行われる。
Figure 2014504119
好ましい実施形態においては、λ値が1000に設定される。ラグランジェ基準の第1の項は、入力画像が現在の縮図
Figure 2014504119
によって含まれるテクスチャ情報および増分ΔEによって再構築される際の、画素単位の平均予測誤差を指す。初期化ステップにおける場合と同様に、画像の画素が、現在の縮図Ecurrによっても、増分によっても影響を受けない場合には、これらに零値が割り当てられる。FCextは、従って、再構築された画像ブロックに対してだけでなく、画像全体に対して計算される。ラグランジェ基準の第2の項は、縮図を構築する際の画素単位のレートに対応し、これは、画像内の画素の全体の数によって除した、現在の縮図内の画素の数およびその増分として概算される。局所的に最適な増分ΔEoptを選択した後、現在の縮図チャートは、EC(k+1)=EC(k)+ΔEoptとなる。割り当てマップは、EC(k+1)によって新たに再構築されたブロックに対して更新される。
次に、次の反復処理k+1の間に、現在のチャートEC(k)と重なり、他のブロックを表すマッチしたパッチMj,lが無くなるまで、現在のチャートが拡張される。このような重なったパッチが存在する場合ステップ2404において本方法がEC(k+1)で続けられる。現在のチャートをこれ以上拡張できなくなり、画像全体が現在の縮図によってまだ再構築されていない場合(ステップ2406)には、ステップ2408でインデックスnが1加算され、画像内の新たな位置で別の縮図チャートが作成される。本方法は、ステップ2402において、新たな縮図チャートで続けられる。すなわち、新たなチャートは、その拡張前にまず初期化される。処理は、画像全体が縮図によって再構築されると終了する(ステップ2406)。テクスチャ縮図の例が図8bによって与えられている(この縮図は、9個の縮図チャートから構成される)。図8aは、図8bの縮図が作成される画像Icurrを表している。テクスチャ縮図Eは、全ての縮図チャートECを結合させたものからなる。割り当てマップは、現在の画像の各ブロックBiに対して、その再構築に使用されるパッチのテクスチャ縮図の位置を示す。
画像に対して縮図が作成されると、この画像の近似値をテクスチャ縮図および変換マップから再構築することができる。しかしながら、許容誤差εのために、元の画像と再構築された画像との間に差分が残る。ビデオ符号化のアプリケーションでは、従って、これらの残った差分をさらに符号化することが必要である。再び図2を参照するに、ステップ22において、縮図(E,φ)を符号化して第1のストリームF1とする。テクスチャ縮図Eをイントラのみの符号化器を用いて符号化する。例として、テクスチャ縮図Eを、イントラのみの符号化モードを使用してH.264規格に準拠して符号化する。変形例によれば、テクスチャ縮図を、JPEG規格に準拠して符号化する。別の変形例によれば、テクスチャ縮図を、参照画像として均一画像、例えば、画素の全てが128である画像を使用してインター符号化モードで符号化する。別の変形例によれば、テクスチャ縮図を、旧知の符号化器(例えば、H.264、MPEG2など)を使用し、イントラ予測モードおよびインター予測モードの双方を使用して符号化する。通常、これらの方法は、予測信号から残差信号を算出し、DCT、量子化およびエントロピー符号化するステップを含む。変換マップφを、固定長符号(FLC)または可変長符号(VLC)を用いて符号化する。しかしながら、他のものを使用することもできる(CABACなど)。変換マップは、ベクトル・マップとも称するベクトルのマップである。
ステップ24において、テクスチャ縮図Eを復号する。このステップは、エントロピー符号化は別として、テクスチャ縮図符号化ステップの逆処理である。例として、テクスチャ縮図符号化ステップが予測信号から残差信号を計算しDCTおよび量子化するステップを含む場合には、復号ステップ24は、逆量子化、逆DCTを行い、予測信号を残差信号に加えることによって再構築された信号を得るステップを含む。
ステップ26において、復号されたテクスチャ縮図E、さらに、変換マップφから中間画像を再構築する。
図8bの縮図から再構築された中間画像の例が図8cに示されている。画像ブロックをラスター走査で処理する。再構築は、変換マップによって識別されるパッチの単純なコピーとすることができる。サブペル(sub−pel)再構築が使用される場合には補間が行われる。ステップ28において、現在の画像を、参照画像として中間画像を使用して符号化する。例として、現在の画像を、H.264ビデオ符号化規格に準拠して符号化する。変形例によれば、現在の画像を、MPEG2ビデオ符号化規格に準拠して符号化する。通常の符号化モード(インター符号化モードおよびイントラ符号化モード)を使用することができる。現在の画像のブロックをインター符号化モードによって符号化する場合には、ブロックと、参照画像内、すなわち、復号された縮図から再構築された画像のうちの中間画像内の対応するブロックとの間の差分を符号化する。この対応するブロックは、動きベクトルによって参照画像内で識別される。この動きベクトルもまた符号化される。双方向予測もまた可能である。変形例によれば、動きベクトルは符号化されず、参照画像内で同じ位置に局在したブロックが使用される。この差分は、残差としても知られており、実際は、ブロックと参照画像から得られたその予測との間で算出された予測誤差である。通常、まず、残差を変換してDCT係数などの係数のブロックとなる。次に、その係数を量子化して量子化された係数のブロックとなる。最終的に、量子化された係数を、公知の算術符号化、CABAC(コンテクスト適応型バイナリ算術符号化を表す)、CAVLC(コンテクスト適応型可変長符号化を表す)などのエントロピー符号化を使用して符号化されてビットストリームとなる。本発明は、残差を符号化するために使用される符号化のタイプに限定されるものではない。ビットストリームF2は、予測誤差残差ビットストリームである。
変形例によれば、第1のビットストリームおよび第2のビットストリームを多重化して単一のビットストリームとなる。
図3の特定の実施形態に従った符号化方法は、自己類似性を記録する(把握する)ことを含み、現在の画像Icurr内で所与の許容誤差εに従ってテクスチャ縮図Eを、例えば単純なブロック・マッチング技術に基づいて構築する。そこで、縮図を、入力画像Icurrから取り出されたテクスチャのピース、および割り当てマップと呼ばれるベクトルのマップから構築する。ここで、割り当てマップは、単純な変換パラメータを含み、入力画像の各ブロックと縮図のブロックとの間の対応を記録した(把握できるようにした)ものである。
次に、中間画像を、テクスチャ縮図および割り当てマップから再構築する。最後に、現在の画像Icurrを、インター画像予測によって再構築された画像Irecを参照画像として使用して符号化する。特定の実施形態に従った符号化方法のステップは、以下のように要約することができる。
1.現在の画像Icurrの縮図(テクスチャ縮図と割り当てマップとからなる)を構築し、より一般的には、現在の画像Icurrの画像サマリーを構築する。
2.縮図(テクスチャおよびマップ)を符号化して第1のビットストリームにする。
3.復号されたテクスチャ縮図およびマップから画像を再構築する。
4.SNRスケーラビリティによって予測として使用するために中間画像Irecを参照画像として使用して、現在の画像Icurrを符号化して第2のビットストリームにする。さらに、2つのビットストリームF1およびF2(その一つはテクスチャ縮図および符号化された縮図の割り当てマップに関し、他の一つは現在の画像Icurrに関する)は、最終的には、復号器に送信されるか、ハードディスクまたはDVDなどの記憶媒体に記憶される。
図9は、本発明に従った再構築方法を表している。
ステップ32において、画像サマリーを第1のビットストリームF1から復号する。このステップは、符号化方法のステップ22の逆の処理である。
ステップ34において、この画像サマリーを、中間画像を再構築するために使用する。このステップは、符号化方法のステップ26と同一の処理である。
ステップ36において、現在の画像を、中間画像を参照画像として使用して再構築する。現在の画像がインター符号化モードに従って符号化される場合には、ブロックと、参照画像内、すなわち、復号された縮図から再構築された中間画像内の対応するブロックとの間の差分を復号する。この対応するブロックは、動きベクトルによって、参照画像内で識別される。参照画像の2つのブロックを使用した双方向予測が可能である。変形例によれば、符号化された動きベクトルが存在せず、参照画像内で同じ位置に局在したブロックを使用する。この差分は、実際、ブロックと参照画像から得られたその予測との間の、符号化器側で計算された予測誤差である。通常、まず、量子化された係数を、公知の算術符号化、CABAC、CAVLCなどのエントロピー復号を使用して第2のビットストリームから復号する。次に、この量子化された係数を逆量子化してDCT係数などの逆量子化された係数のブロックとなる。最終的に、この逆量子化された係数を、例えば、逆DCTを使用して変換して残差のブロックとなる。次に、この残差のブロックを、参照画像内の対応するブロックに追加する。
変形例によれば、再構築方法は、第1のビットストリームおよび第2のビットストリームが多重化されている場合にビットストリームを逆多重化して第1のビットストリームおよび第2のビットストリームにするステップ30をさらに含む。
図10に描かれた特定の実施形態によれば、画像サマリーは縮図である。従って、ステップ32は、テクスチャ縮図およびベクトルの割り当てマップを復号することを含む。
現在の画像を再構築する際にドリフトが発生することを回避するために、中間画像の画像再構築は、復号されたテクスチャ縮図および割り当てマップとから、符号化器側と対称的に、復号器側で実現される。
図11は、本発明に従った符号化装置を表している。第1の入力部INにおいて、符号化装置ENCは、現在の画像Icurrを受信する。入力部INは、IFMにリンクされている。モジュールIFMは、符号化方法のステップ20に従って現在の画像Icurrのサマリーを作成するように構成されている。画像因子分解モジュールIFMは、第1の符号化モジュールENC1にリンクされている。第1の符号化モジュールENC1は、符号化方法のステップ22に従って、サマリーを符号化して第1のビットストリームにするように構成されている。符号化装置ENCは、さらに、第1の符号化モジュールENC1にリンクされた第2の符号化モジュールENC2を含む。第2の符号化モジュールENC2は、符号化方法のステップ24、26、および28に従って、現在の画像を符号化して第2のビットストリームにするように構成されている。特に、第2の符号化モジュールENC2は、第1の符号化モジュールENC1を用いて符号化された画像サマリーを復号して復号されたサマリーから中間画像を再構築し、中間画像を参照画像として使用して現在の画像Icurrを符号化するように構成されている。符号化装置ENCは、さらに、第1のビットストリームおよび第2のビットストリームを多重化して単一のビットストリームまたはトランスポート・ストリームにするように構成された多重化モジュールMUXをさらに含んでいてもよい。この場合、多重化モジュールは、単一の出力部OUTにリンクされている。変形例によれば、多重化モジュールは、符号化装置の外部に存在し、符号化装置は、2つの出力部を有する。一方の出力部は、第1のビットストリームのためのものであり、他方の出力部は、第2のビットストリームのためのものである。
図12は、本発明に従った復号装置DECを表している。復号装置は、第1の入力部INでビットストリームを受信する。入力部は、逆多重化モジュールDEMUXにリンクされている。逆多重化モジュールDEMUXは、ビットストリームを逆多重化して画像サマリーを表す第1のビットストリーム、さらに、残差、より正確には、予測誤差残差を表す第2のビットストリームにするように構成されている。変形例によれば、逆多重化モジュールDEMUXは、復号装置の外部に存在し、復号装置は、2つの入力部を有する。一方の入力部は、第1のビットストリームのためのものであり、他方の入力部は、第2のビットストリームのためのものである。復号装置DECは、再構築方法のステップ32に従って、第1のビットストリームからの画像サマリーを復号するように構成された第1の復号モジュールDEC1をさらに含む。復号装置DECは、第1の復号モジュールDEC1にリンクされた第2の復号モジュールDEC2をさらに含む。第2の復号モジュールDEC2は、再構築方法のステップ34、36、および38に従って、第2のビットストリームから現在の画像を再構築するように構成されている。特に、第2の復号モジュールDEC2は、復号されたサマリーから中間画像を再構築し、中間画像を参照画像として使用して現在の画像Icurrを再構築するように構成されている。
イントラ符号化に基づく既存の方法と比較して、本発明は、レート歪み性能を改善するという利点がある。本発明の主たる特徴は、画像サマリーを使用して符号化しようとする現在の画像を予測することにある。ここで、画像サマリー、例えば、縮図は、再構築された画像を与え、この再構築された画像(通常のサイズ、すなわち、縮図が作成される元の画像のサイズと同じサイズ)は、ビデオ符号化器において、参照画像として使用される。有益には、再構築された画像は、符号化する画像と同じサイズを有する。従って、「スキップ・モード」として知られるような効率的なモードを使用して現在の画像におけるブロックを符号化することにより、その符号化コストを減少させることができる。
本発明の主な対象となるアプリケーションは、(圧縮を含む)ビデオ配信およびビデオ圧縮に関連する表示技術のアプリケーションである。
まず、本発明は、現在の画像に対して計算された残差(すなわち、ブロックと参照画像内の対応するブロックとの間の差分)を符号化するために使用される符号化方法によって限定されるものではない。さらに、この方法は、縮図、すなわち、テクスチャ縮図および割り当てマップを構築するために使用される方法に限定されるものでは全くない。実際、本発明に従った符号化方法は、符号化される画像に対して、画像サマリーを作成するためにどのような方法が使用されても、画像サマリーのみを必要とする。

Claims (6)

  1. 画像シーケンスを符号化する方法であって、現在の画像に対して、
    前記現在の画像のサマリーを作成するステップと、
    前記サマリーを符号化して第1のビットストリームにするステップと、
    前記サマリーから前記現在の画像と同じサイズの中間画像を再構築するステップと、
    前記現在の画像を、前記中間画像を参照画像として使用して符号化して第2のビットストリームにするステップと、
    を含む、前記方法。
  2. 前記現在の画像の前記サマリーはテクスチャ縮図および割り当てマップを含む、請求項1に記載の方法。
  3. 前記割り当てマップは固定長符号化を使用して符号化される、請求項2に記載の方法。
  4. 前記割り当てマップは可変長符号化を使用して符号化される、請求項2に記載の方法。
  5. 前記第2のビットストリームは、ITU−T勧告H.264/ISO/IEC 14496−10 AVCビデオ符号化規格と、ISO/IEC 13818−2 MPEG2とを含むビデオ符号化規格のセットに属するビデオ符号化規格に準拠する、請求項1〜4のいずれか1項に記載の方法。
  6. 画像シーケンスを再構築する方法であって、現在の画像に対して、
    前記現在の画像の画像サマリーを復号するステップと、
    前記画像サマリーから中間画像を再構築するステップと、
    前記現在の画像を、前記中間画像を参照画像として使用して再構築するステップであって、該中間画像が該現在の画像と同じサイズである、該ステップと、
    を含む、前記方法。
JP2013549729A 2011-01-21 2011-05-24 画像シーケンスを符号化する方法およびこの方法に対応する再構築方法 Pending JP2014504119A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11305064 2011-01-21
EP11305064.5 2011-01-21
PCT/EP2011/058474 WO2012097881A1 (en) 2011-01-21 2011-05-24 Method of coding a sequence of images and corresponding reconstruction method

Publications (2)

Publication Number Publication Date
JP2014504119A true JP2014504119A (ja) 2014-02-13
JP2014504119A5 JP2014504119A5 (ja) 2014-07-03

Family

ID=44510072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013549729A Pending JP2014504119A (ja) 2011-01-21 2011-05-24 画像シーケンスを符号化する方法およびこの方法に対応する再構築方法

Country Status (8)

Country Link
US (1) US20140029672A1 (ja)
EP (1) EP2666290A1 (ja)
JP (1) JP2014504119A (ja)
KR (1) KR20140005260A (ja)
CN (1) CN103314584A (ja)
BR (1) BR112013018033A2 (ja)
TW (1) TW201233184A (ja)
WO (1) WO2012097881A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9826244B2 (en) 2013-01-08 2017-11-21 Qualcomm Incorporated Device and method for scalable coding of video information based on high efficiency video coding
EP3079364A1 (en) * 2015-04-09 2016-10-12 Thomson Licensing Methods and devices for generating, encoding or decoding images with a first dynamic range, and corresponding computer program products and computer-readable medium
EP3154021A1 (en) * 2015-10-09 2017-04-12 Thomson Licensing Method and apparatus for de-noising an image using video epitome

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06209468A (ja) * 1993-01-11 1994-07-26 Sony Corp 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置
JPH07162870A (ja) * 1993-09-21 1995-06-23 At & T Corp ビデオ信号符号化装置
JPH07322255A (ja) * 1994-05-27 1995-12-08 Sony Corp ディジタル画像信号の階層符号化装置
JP2008011009A (ja) * 2006-06-28 2008-01-17 Victor Co Of Japan Ltd 映像信号符号化装置、映像信号復号化装置、映像信号符号化プログラム及び映像信号復号化プログラム
US20090208110A1 (en) * 2008-02-14 2009-08-20 Microsoft Corporation Factoring repeated content within and among images
WO2011005063A2 (en) * 2009-07-10 2011-01-13 Samsung Electronics Co., Ltd. Spatial prediction method and apparatus in layered video coding

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100548048C (zh) * 2005-12-16 2009-10-07 中国科学院计算技术研究所 一种avs视频基本流测试分析方法及设备
CN101588487B (zh) * 2009-06-10 2011-06-29 武汉大学 一种视频帧内预测编码方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06209468A (ja) * 1993-01-11 1994-07-26 Sony Corp 画像信号符号化方法および画像信号符号化装置、並びに画像信号復号化方法および画像信号復号化装置
JPH07162870A (ja) * 1993-09-21 1995-06-23 At & T Corp ビデオ信号符号化装置
JPH07322255A (ja) * 1994-05-27 1995-12-08 Sony Corp ディジタル画像信号の階層符号化装置
JP2008011009A (ja) * 2006-06-28 2008-01-17 Victor Co Of Japan Ltd 映像信号符号化装置、映像信号復号化装置、映像信号符号化プログラム及び映像信号復号化プログラム
US20090208110A1 (en) * 2008-02-14 2009-08-20 Microsoft Corporation Factoring repeated content within and among images
WO2011005063A2 (en) * 2009-07-10 2011-01-13 Samsung Electronics Co., Ltd. Spatial prediction method and apparatus in layered video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7015000144; Huamin Wang et al.: 'Factoring Repeated Content Within and Among Images' ACM Transactions on Graphics Vol. 27, No. 3, Article 14, 200808, 10 pages *

Also Published As

Publication number Publication date
CN103314584A (zh) 2013-09-18
KR20140005260A (ko) 2014-01-14
TW201233184A (en) 2012-08-01
US20140029672A1 (en) 2014-01-30
BR112013018033A2 (pt) 2019-09-24
WO2012097881A1 (en) 2012-07-26
EP2666290A1 (en) 2013-11-27

Similar Documents

Publication Publication Date Title
RU2765300C1 (ru) Способ кодирования и декодирования изображений, устройство кодирования и декодирования и соответствующие компьютерные программы
CN101204094B (zh) 可缩放地编码和解码视频信号的方法
JP7012809B2 (ja) 画像符号化装置、動画像復号装置、動画像符号化データ及び記録媒体
KR101687863B1 (ko) 인코더 및 방법
KR100791299B1 (ko) 다 계층 기반의 비디오 인코딩 방법 및 장치
JP6096204B2 (ja) 画像の符号化および復号のための方法、符号化および復号装置、ならびに対応するコンピュータプログラム
US20070086516A1 (en) Method of encoding flags in layer using inter-layer correlation, method and apparatus for decoding coded flags
WO2004038921A2 (en) Method and system for supercompression of compressed digital video
JP2007028579A (ja) ビデオデータストリームの統合及び補償方法
KR20110062516A (ko) 비디오 인코딩 장치 및 그 인코딩 방법, 비디오 디코딩 장치 및 그 디코딩 방법, 및 거기에 이용되는 방향적 인트라 예측방법
JPWO2012042720A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法
JP2014502480A (ja) 高ダイナミック・レンジ(hdr)ビデオ・データ・ストリームをトーン・マッピングするための方法、コンピュータ・プログラム及びシステム
CN105052142A (zh) 仅高级语法shvc中的一般化残余预测及其信令和管理
EP2982115A1 (en) Method and apparatus for encoding or decoding an image with inter layer motion information prediction according to motion information compression scheme
KR20070077059A (ko) 엔트로피 부호화/복호화 방법 및 장치
KR102391402B1 (ko) 이미지를 인코딩하고 디코딩하기 위한 방법, 이미지를 인코딩하고 디코딩하기 위한 디바이스 및 상응하는 컴퓨터 프로그램
JP3518733B2 (ja) 物体単位映像信号符号化/復号化装置及び方法
US20140029667A1 (en) Method of coding an image epitome
EP1841235A1 (en) Video compression by adaptive 2D transformation in spatial and temporal direction
JP2014504119A (ja) 画像シーケンスを符号化する方法およびこの方法に対応する再構築方法
KR101529903B1 (ko) 블록기반 깊이정보 맵의 코딩 방법과 장치, 및 이를 이용한 3차원 비디오 코딩 방법
JP2004511978A (ja) 動きベクトルの圧縮
Sathappan et al. Block based prediction with Modified Hierarchical Prediction image coding scheme for Lossless color image compression
JP2012080212A (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法
JP3798432B2 (ja) ディジタル画像を符号化および復号化する方法および装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140514

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150114

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150602