JP2011503991A - 動き推定および補償の方法およびデバイス - Google Patents

動き推定および補償の方法およびデバイス Download PDF

Info

Publication number
JP2011503991A
JP2011503991A JP2010532621A JP2010532621A JP2011503991A JP 2011503991 A JP2011503991 A JP 2011503991A JP 2010532621 A JP2010532621 A JP 2010532621A JP 2010532621 A JP2010532621 A JP 2010532621A JP 2011503991 A JP2011503991 A JP 2011503991A
Authority
JP
Japan
Prior art keywords
pixel
block
remaining
motion estimation
values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010532621A
Other languages
English (en)
Inventor
クレリクス,トム
ムンテアヌ,アドリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vrije Universiteit Brussel VUB
IBBT VZW
Original Assignee
Vrije Universiteit Brussel VUB
IBBT VZW
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vrije Universiteit Brussel VUB, IBBT VZW filed Critical Vrije Universiteit Brussel VUB
Publication of JP2011503991A publication Critical patent/JP2011503991A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/583Motion compensation with overlapping blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオフレームに対する動き推定および補償の方法では、複数のピクセルのブロックOが考慮される。ビデオフレームFのブロックOのk個のビットプレーンが、参照フレーム(F)のブロックOと比較される。参照フレーム(F)内で最良のマッチングブロック(ORM)が決定される。続いて、最良のマッチングブロック(ORM)の重み値(W ij)がその有効なピクセルの比率に基づいて計算される。最良のマッチングブロック(ORM)から抽出された残りのピクセル値(V ij)と、対応する重み値(W ij)が、ピクセル予測配列(120)に保存される。ピクセル配列は、少なくとも有効なピクセルの輝度成分の動き補償に用いられる。無効なピクセルは周囲のピクセル値から再構築される。
【選択図】 図1

Description

本発明は、一般にビデオの符号化および復号化に関し、特に動き推定および補償に関する。符号化/復号化するデジタルビデオは、一般に連続画像間の一時的な冗長性を利用する:連続画像は通常、観察されたシーンのいくつかの対象物の動作と結合された相対的に遅いカメラの動作の結果であるので、連続画像には類似する内容がある。ビデオフレーム内の複数のピクセルのブロックの動きあるいは動作を定量化する処理は、動き推定と呼ばれている。1セットの参照ピクチャから作り出される複数セットの複数のピクセル(例えばブロック)を推定した動きに応じて解釈することによって、フレーム内のピクセルを予測する処理は、動き補償と呼ばれている。
1994年9月のIEEE Transactions on Image Processing,Vol.3,No.5では、著者Michael T.OrchardとGary J.Sullivanは、「Overlapped Block Motion Compensation:An Estimation−Theoretic Approach」というタイトルの彼らの論文に、オーバーラップブロックに基づいた動き補償の理論を記載した。そこに記載されたオーバーラップブロックの動き補償(OBMC)は、いくつかの平滑なウィンドウによってそれぞれ重みづけされた前のフレームの複数のピクセルのオーバーラップブロックの位置を変えることによって現行のビデオフレームを予測する。さらに、OrchardとSullivanは、動き推定の技術に基づいたオーバーラップブロックを提示し、その予測性能をさらに最適化する情報を復号側に提供している。提案された動き推定の処理は符号化側と復号側の関与を必要とするが、これは複雑な反復処理である。
本発明の目的は、オーバーラップブロックに基づいた既知の動き推定および補償の技術の欠点を克服することである。特に、本発明の目的は、フィードバックループを必要とせず、復号側のみで後処理ツールとして用いることができ、従って符号化の複雑さを軽減する動き推定および補償の方法を提供することである。さらなる本発明の目的は、ピクセルベースであり、拡張可能であり、従ってデジタルビデオ符号化における大きなGroup of Picture(GOP)長に対応し、複雑さと復号品質との間の兼ね合いを任意に可能とする動き推定および補償の方法を開示することである。
本発明によれば、先行技術の欠点が解決され、上記規定された目的は、請求項1によって規定されるビデオフレームFのピクセルの輝度成分に対する動き推定および補償の方法を通して実現される。この動き推定および補償の方法は:
A.前記ピクセルを含む複数のピクセルのブロックOに対する整数k個のビットプレーンを少なくとも1つの参照フレームFのブロックOと比較するステップと;
B.各ブロックOと各参照フレームFに対して:
B1.マッチング基準によって前記参照フレームFで最良のマッチングブロックORMを求めるステップと;
B2.前記最良のマッチングブロックORMの有効なピクセルの比率に基づいて前記最良のマッチングブロックORMの重み値W ijを求めるステップと;
B3.前記最良のマッチングブロックORMから前記ピクセルの残りのピクセル値V ijを抽出するステップと;
B4.ピクセル予測配列に前記重み値W ijと前記残りのピクセル値V ijを保存するステップと;
C.次の何れかのステップと:
C1.前記ピクセルが有効なピクセルである場合に、前記ピクセル予測配列内の重み値W ijと残りのピクセル値V ijから前記輝度成分の少なくとも残りのビットプレーンを求めることによって動きを補償するステップか;
C2.前記ピクセルが無効なピクセルである場合に、周囲のピクセル値から前記輝度成分を再構築するステップ、を具える。
このように本発明に係る方法はピクセルベースであり、ビデオフレームのkビットプレーンが復号されたらすぐに、残りのピクセル値または少なくとも残りの輝度データの予測値の配列を生成する。ピクセルの残りの候補値は、1以上の参照フレーム、すなわち前に復号されたフレームで見つかった最良のマッチングブロック内の対応するピクセルから抽出される。残りの各候補値について、関連した重みが求められる。関連した重みは、参照フレームの最良のマッチングブロックで対応するkビットプレーンと現行のビデオフレームのブロックのkビットプレーンが一致する度合の大きさである。これに本発明は、(a)有効なピクセル、すなわち有効性基準による最初のkビットがブロック内で対応するピクセルの最初のkビットと一致するか、またはそのkビットと部分的に一致する最良のマッチングブロックのピクセルと、(b)無効なピクセル、すなわち有効性基準を満たさないピクセルと、の概念を取り入れている。万一、ブロックが部分的にビデオフレームの境界の外部となるならば、最良のマッチングブロックおよび対応する重みを求めることができるように、この境界でフレームが拡張されてもよい。
ピクセルが有効なピクセルである場合、予測値とこれらの対応する重みは動き補償のステップに組み合わされて、ピクセルの残りのビットプレーンまたは少なくともこの輝度成分が求められる。いくつかの組み合わせが可能である。
無効なピクセルである場合、すなわち残りのピクセル予測値と重みの配列が空の状態のピクセルである場合、このピクセルは周囲の有効なピクセルから完全に再構築される。また、いくつかの組み合わせが可能である。この場合、k個の受信したビットプレーンを再計算してもよいことに注意されたい。
本発明は、完全に復号側か、符号化および復号の双方の側で実行することができる後処理ツール、またはビデオ符号化と必ずしも関係しない別個の後処理ツールを提供する。先行技術と比べて、本発明の動き推定および補償の方法は、推定と補償の双方が復号側で行われるとき、実質的に符号化側の複雑さを軽減する。本発明に係る方法は、フィードバックループを有していない結果、反復しない。この直接的な利点は、その拡大した拡張性である。この方法はピクセルベースの動き補償も用いるが、先行技術はブロックベースの動き補償に関係している。そこから得られるさらなる利点は、より大きなGroup of Picture(GOP)長を取り扱うその性能である。GOPは、依存する一連のビデオフレームであり、したがって一緒に復号する必要がある。このピクセルベースの特徴のおかげで、本発明に係る方法は阻害する人工的要因を取り込まず、エラーがGOPを介して伝播しない。
請求項1によって規定される動き推定および補償の方法に加えて、本発明は請求項19によって規定されるような対応した動き推定および補償のデバイスにも関している。このデバイスは:
そのピクセルを含む複数のピクセルのブロックOに対する整数k個のビットプレーンを少なくとも1つの参照フレームFのブロックOと比較するための手段と;
各ブロックOと各参照フレームFに対してマッチング基準により前記参照フレーム(F)中の最良のマッチングブロック(ORM)を求めるための手段と;
前記最良のマッチングブロックORMの有効なピクセルの比率に基づいて前記最良のマッチングブロックORMの重み値W ijを求めるための手段と;
前記最良のマッチングブロックORMからそのピクセルの残りのピクセル値V ijを抽出するための手段と;
ピクセル予測配列に前記重み値W ijと前記残りのピクセル値V ijを保存するための手段と;
前記ピクセルが有効なピクセルである場合に、前記ピクセル予測配列内の重み値W ijと残りのピクセル値V ijから前記輝度成分の少なくとも残りのビットプレーンを求めるための動きを補償する手段と;
前記ピクセルが無効なピクセルである場合に、周囲のピクセル値から前記輝度成分を再構築するための手段と、を具える。
任意に、請求項2によって規定されるように、前記比較するステップは参照フレーム中の所定の探索範囲内のブロックに制限される。
実際には、iとjがフレーム内のブロックの開始位置の行と列のインデックスをそれぞれ表すとき、位置(i,j)で現行フレームで得られるブロックに対する参照フレーム内の最良のマッチングブロックの探索は、例えばsrが探索範囲を表すとき、位置(i−sr,j−sr)と位置(i+sr,j+sr)間の開始位置を持つブロックに制限される。
サブピクセルの動き推定の場合には、整数あるいはサブピクセルのグリッドにブロックの起点を配置することができることにさらに注意されたい。探索範囲srは言いかえれば必ずしも整数値である必要はない;また、探索範囲は必ずしも位置(i、j)のまわりで対称である必要はない。
また、探索範囲は予め定めてもよいし、あるいは適応的であってもよいことに注意されたい。ブロックが非正方形状、例えば矩形、円形、または楕円形である場合、探索範囲は多値を含んでもよいし、または距離もしくは相対的な起点位置以外の測定値を表してもよい。
また任意に、請求項3によって規定されるように、前記マッチング基準は前記ビデオフレーム内のブロックと前記参照フレーム内のブロック間の整数k個のビットプレーンのビット誤り数を最小化するものでもよい。
言い換えれば、参照フレーム内の最良のマッチングブロックを求めるために、前記k個の最上位ビットプレーンを考慮してもよい。そしてマッチング基準は、k個の最上位ビットが現行フレーム内の考慮中のブロックで対応するピクセルのk個の最上位ビットに一致するピクセルを殆ど有する参照フレーム内のブロックを探すものでよい。
言うまでもなく、最上位ビットプレーンのビット誤り数や、kより少ないまたはkと等しい数のビットプレーンのビット誤り数などの代替的なマッチング基準が存在する。
また任意に、請求項4によって規定されるように、整数k個のビットプレーンが前記ブロックと前記最良のマッチングブロックで同一である場合に、ピクセルを有効なピクセルとみなしてもよい。
したがって、前記ブロックと前記最良のマッチングブロック内で同一の最初のk個のビットプレーンを持ったピクセルのみによって、ピクセル予測配列に保存される残りのピクセル値および関連する重みが得られるであろう。
あるいは、請求項5によって示されるように、ブロックO内の最初のk個のビットの少なくとも1ビットが、前記最良のマッチングブロック内で対応するピクセルと同一である場合に、ピクセルを有効なピクセルとみなしてもよい。
このように有効性基準を緩めてもよく、前記最良のマッチングブロック内で対応するピクセルに単に部分的に一致するピクセルが有効であるとみなしてもよい。部分的な一致は、例えば少なくとも1ビットが同一であるか、zがkより小さい整数であるとき、少なくともzビットが同一であることを要求してもよい。例えば、k=3である場合、2または3ビットが同一であるときにピクセルが有効であるとみなされ、同一であるビットがないか、または1ビットが同一であるときに無効であるとみなされてもよい。さらに有効性基準は、どのビットが同一でなければならないかを特定してもよいし、特定しなくてもよい。例えば、少なくとも1ビットが同一でなければならない場合、少なくとも最上位ビット(MSB)が一致することを必要とする有効性基準でもよい。
後で説明するように、無効なピクセルの再構築の代替として有効性基準を緩和してもよい。
さらに任意に、請求項6によって規定されるように、ビデオフレーム内の前記ブロックと前記少なくとも1つの参照フレーム内のブロックがブロックサイズBの正方形状を有してもよく、Bはブロックマッチングの信頼度と前記推定および補償の方法の精度との間の兼ね合いとして選択されたピクセル数を表す。
実際には、例えば矩形ブロックのようにその他のブロック形状が考慮されてもよいが、正方形ブロックが最も簡単な選択であると考えられる。このような正方形ブロックのサイズBは、マッチング基準の信頼度または忠実度を損なうのを回避するため小さすぎてはならない。ブロックサイズBが例えば1の場合には、任意の参照フレーム内の多くのランダムな位置でマッチングブロックが検出されるだろう。一方、大きなブロックサイズは推定の精度を損なうので、ブロックサイズには上限が設けられる。
請求項7によって規定されるように、本発明に係る動き推定および補償の方法は:
D.次の何れかのステップ:
D1.前記ピクセルが有効なピクセルである場合に、前記ピクセル予測配列内の重み値と残りのピクセル値から色信号も求めることによって動きを補償するステップか;
D2.前記ピクセルが無効なピクセルである場合に、周囲のピクセル値から前記色信号を再構築するステップ、をさらに任意に具える。
実際には、既に上記で示したように、本発明に係る動き推定および補償の方法を輝度成分に適用してもよい。しかしながら、色成分は、重みと輝度成分からの予測位置に従うが、輝度成分の場合のようにサブセットである残りのビットプレーンの代わりに全てのビットプレーンに従う。
任意に、請求項8によって規定されるように、前記動き補償のステップは:
−前記残りのピクセル値をビニングするステップと;
−ビンの重み値を求めるステップと;
−最も大きいビンの重み値でビン内の残りのピクセル値の重みつき平均である前記輝度成分を少なくとも求めるステップと、を具えてもよい。
ビニングに基づく動き補償は、ある境界内にある残りのピクセル値の確率を最大化するように試みる。全範囲の残りの値が1セットの等しい大きさのビンに分割される。その後、ピクセル予測配列内の残りのピクセル値がそれぞれのビンに割り当てられる。ビンの重みは、それぞれのビンに割り当てられるピクセル予測値に関連したピクセル予測値の重みの和として計算される。最後に、残りのピクセル値は、これらの残りのピクセル値および最も大きいビンの重みを持つビンに属する対応する重みのみを考慮に入れて計算される。
たった1つのビンにビニングすると、ピクセル予測配列内の値の重みつき平均値まで下がることに注意されたい。
等しい大きさのビンの実装が上記で提案されたが、本発明は言うまでもなくこれに限定されないことにさらに注意されたい。同様に異なるサイズのビンに基づくビニングを考慮することができるであろう。
あるいは、請求項9によって規定されるように、前記動きを補償するステップは:
−前記残りのピクセル値と重心への距離に基づく関連する重み値をクラスタリングするステップを具える。
クラスタリングは、残りのピクセル予測値がこれらの重みを参照フレーム内のある位置まわりに集める傾向があるという事実に依存している。これは、実際に置換する考慮中のピクセルに一致する参照フレーム内の位置に近い仮想重心の存在を示している。この重心に一致する中心と半径rを持つ円内に有効なピクセルが入るようにすることによって、残りのピクセル予測値のさらなる選択を適用することができる。重心は実際に動き補償されたピクセルに近いと想定されるので、重心の近接度に応じて重みを採用することができるであろう。さらに、0≦α≦1の増倍係数αは、補完的係数1−αを掛けた近接度の重みと比べて、どのぐらい元のピクセルの重みを信頼すべきかを示すのに用いることができる。最後に、残りのピクセル値は、元のピクセルの重みと近接度の重みを組み合わせた有効なピクセルの加重和として計算することができる。
全ての参照フレームに対して重心を規定することができることに注意されたい。
代替実施例として、最も大きい合計重みを持つ参照フレーム内の再構築されたピクセルの残りの値として1つを選択して最終的なピクセルの残りの値を再構築することができることにさらに注意されたい。
請求項10によって規定されるさらに別の代替実施例は、前記動き補償のステップは:
−残りのピクセル値と重心への距離に基づいた関連する重み値をクラスタリングするステップと;
−選択した残りのピクセル値をビニングするステップと;
−ビンの重み値を求めるステップと;
−最も大きいビンの重み値でビン内の残りのピクセル値の重みつき平均である前記輝度成分を少なくとも求めるステップと、を具える。
実際にはビニングとクラスタリングを組み合わせることができる。例えば、重心まわりのある半径内のピクセルを選択することによって1つを開始することができるであろう。続いて、残りのピクセル値および関連する重みで得られる配列がソートされ、さらに後述するように、候補の予測値の最大数を選択してもよい。残存する残りのピクセル値と重みは、ビニング法を用いて残りのピクセル値を計算するのに用いられる。
さらに任意に、請求項11によって示されるように、所定の閾値より小さい重み値に対応する前記残りのピクセル値は、ビニングまたはクラスタリングに考慮しなくてよい。
実際には、閾値処理によって、ピクセル予測配列の内容をさらに選択してもよい。Tが0と1の間の値であるとき、関連する重みが所定の閾値Tより小さい残りのピクセル予測値は、動き補償のステップで考慮しなくてよい。
また任意に、請求項12によって規定されるように、残りのピクセル値は対応する重み値の降順にソートされ、最初のM個(Mは整数である)の残りの値のみをビニングまたはクラスタリングに考慮してもよい。
言い換えれば、残りのピクセル予測値はこれらに関連する重みの降順にソートされてもよい。最初のM個の残りのピクセル予測値のみを動き補償のステップに考慮する一方、その他の全ての予測値を捨ててもよい。
請求項13によって示されるように、再構築のステップは:
−周囲のピクセル値の中央値である前記輝度成分を求めるステップ、を具えてもよい。
したがって、無効のピクセルまたは少なくともその輝度成分は、周囲の有効なピクセルの中央値をとることによって再構築されてもよい。
いくつかのピクセルは有効な周囲のピクセルを持たないかもしれないので、再構築のステップがマルチパス技術であることに注意されたい。したがって、無効なピクセルが残っている限り、再構築が繰り返されるかもしれない。
あるいは、請求項14によって示されるように、前記再構築のステップは:
−周囲のピクセル値の平均値である前記輝度成分を求めるステップ、を具えてもよい。
周囲の有効なピクセルの中央値をとる代わりに、周囲の有効なピクセルの平均値を用いて無効なピクセルを再構築してもよい。中央値フィルタリングと同様に、これは無効なピクセルが残っている限り、反復して繰り返されなければならないマルチパス技術である。
再構築の代替実施例として、若干のビットプレーンがこのブロックと最良のマッチングブロックで同一である場合に、ピクセルを有効なピクセルであるとみなしてもよいことにさらに注意されたい。
実際には、既に上記で示したように、無効なピクセルに対して有効性基準を緩和することができる。残りのピクセルが有効であるとするためにkビットが同一であることを要求する代わりに、k−qビットのみが既知であると仮定し、k−qビットが同一である残りのピクセル予測値を選択して、再構築の代わりに動き補償を適用することができる。qは0とk間の整数値であるとみなされる。
緩和した有効性基準を持つ、まさに前記変形例では、bppが輝度成分(または実装に依存する全ピクセル)のビット数を表すとき、動き補償のフェーズはbpp−kビットの代わりにbpp−k+qビットを再構築しなければならない。これは、復号処理の結果として既知のqビットを補償処理から得られる不正なビットで置換しなければならないことを意味する。
言い換えれば、これは実際に補償されたピクセルの位置の不確実性を最小化するので、動き補償のステップがk個の既知のビットを全て用いて残りのピクセル値の重みを計算しなければならないということである。
請求項15によって規定されるように、前記少なくとも1つのフレームは、第1番目のビデオフレームと第2番目のキーフレームを具えてもよい。
例えば、Wyner−Zyvフレームの分散型ビデオ符号化の実装では、Wyner−Zyvフレームに先行して続くキーフレームが1つおよび複数ある場合に、参照フレームは前に復号されたWyner−Zyvフレームを含んでもよい。
本発明で形式化される動き推定および補償を適用するステップをフレームの一部分に適用することができることに注意されたい。実際には、参照として任意のフレームを選ぶことができるように、前に復号されたフレームとの依存性はない。これはフレームレートの拡張性と呼んでもよい。
さらに任意に、請求項16によって規定されるように、前記ビットプレーンは二次抽出されてもよい。
ビットプレーンの二次抽出により、解像度が調整されてもよい;例えば、動き推定の処理では、最上位ビットプレーン(MSB)をフル解像度で、次のMSBを半分の解像度などで用いることができる。これは複雑さを調整可能な動き推定および補償の方法を提供し、ビットプレーンが二次抽出される解像度によって複雑さを制御する。
請求項17によって規定される本発明の動き推定および補償の方法のさらに別の任意の特徴は、前記ビットプレーンの整数値が調節可能であるということである。
復号側へ多かれ少なかれフレームのビットプレーンを送信することによって、品質が向上あるいは低下する代わりに、本発明に係る推定および補償の処理が多かれ少なかれ複雑になるかもしれない。
請求項18によって示されるように、本発明に係る動き推定および補償の方法は例えば:
−ビデオ符号化;
−分散型ビデオ符号化;
−誤り隠ぺい;
−フレーム補間;
−誤り耐性;
−多重記述符号化;
−予測符号化、などの多くのアプリケーションを有する。
一般に本発明は、符号化側の動き推定であろうと、復号側の動き推定であろうと、動き推定を適用する任意のビデオ符号化装置で用いることができる。
第1の固有のアプリケーションは「調節可能な分散型ビデオ符号化(SDVC)」である。この技術は、分散型ビデオ符号化(DVC)アプリケーションを意図して元来設計された。DVCは、動き推定の処理を復号側で適用することを要求する。本発明に係る方法は、多くの輝度成分のビットプレーン(またはこれらのビットプレーンの一部)と、いくつかの内部符号化フレームの受信に基づいて、輝度と色の成分のないビットプレーンの近似値を再構築する。本発明を用いることによって他のDVC技術を超える利点を有し、大きなGroup of Picture(GOP)長をサポートし、良好な圧縮効率をサポートする。さらに、本発明を用いることによって符号化側と復号側との間のフィードバックを全く必要としない。これは、現在のDVCシステムのフィードバックチャネルの使用によって生じる本質的な通信遅延を軽減する。調節可能なビデオ符号化装置によって内部符号化部分が実行されるとき、復号側または中間ノードへ複雑さを移す機会と共に完全に調節可能なビデオ符号化装置が得られる。
別のアプリケーションは「誤り隠ぺい」である。ビデオシーケンスの画像の一部が損傷した場合、本発明に係る方法を用いてこれらを隠ぺいすることができる。損傷部分は、画像中に正確な部分を持つブロックでオーバーラップしている。したがって、前フレームおよびまたは次フレームとのブロックマッチングを正確な領域で適用し、ブロックの重みを求めることができる。次に、全てのビットプレーンが未知とみなされる本発明を用いて(したがって、全ての予測値が有効である)、不正確なピクセルが再構築される。あるいは、前フレームと後続のフレームを用いるローカルフレーム補間を適用することができ、破損領域まわりの領域を選択する。
さらに本発明の別のアプリケーションは「フレーム補間」である。本発明を変更した構成を適用することによって、2つの既存フレーム間にフレームを挿入することができる。この構成では、全てのピクセルが有効であるとみなされる。予測値の配列は、ほぼ重み、始点、終点、始点値および終点値の1セットを含んでいる。始点と終点は運動ベクトルを決定するが、始点値と終点値は補間値を検出するために挿入される。続いて、運動ベクトル、補間値および重みが補間フレームの重みと値の配列に移される。本発明の一部を形成する再構築方法を用いる再構築が続く。
さらなるアプリケーションは「誤り耐性の提供」である。ビットプレーンが別々に符号化されるシステムでは、本発明の基礎となる動き推定および補償の技術は誤りに対する高い耐性力を提供する。ビットプレーンが部分的になくなった場合、上述したように隠ぺいを適用することができる。ビットプレーンが完全になくなった場合、上述したようにフレーム補間を適用することができる。フレーム内が部分的になくなった場合、隠ぺいを適用することができる。フレーム内が完全になくなった場合、復号側は元のGOPサイズの2倍のGOPサイズを要求する。次に、フレーム補間を用いてフレーム内を得ることができる。何れにしても、誤りがGOPを介して伝播しない。最悪の場合には、いくつかのピクセルベースの色影または広域の色影が現われるかもしれない。全ての場合に、動き推定の処理に利用可能な情報が用いられ、再構築された値(ビットまたは完全なピクセル値)および対応する重みを作成する。
さらに本発明を有利に用いることができる別のアプリケーションは「多重記述符号化」である。本発明は多重記述符号化に多くの新しい機会を提示する。例えば、第1のビットプレーンの偶数のピクセル位置のビットに第1の記述を与える一方で、第1のビットプレーンの奇数のピクセル位置のビットに第2の記述を与えることができる。次に既知のビットのみを用いてブロックマッチングが適用される。既知のピクセル当たりのビット数が位置から位置へと変化するので、異なるピクセルに対して再構築方法を異ならせることができる。中心部の記述は第1のビットプレーンの情報を完全に有しており、このためブロックマッチングの正確さも再構築の品質も端部の記述よりも高いと想定される。二次抽出と記述間のビットプレーン分割に基づいた多重記述を規定する多くの代替的な方法の1つを考えることができる。
さらに別のアプリケーション領域は「予測符号化」である。復号側にも符号化側にも本発明を適用することができるので、古典的なブロックベースの動き推定の方法の代替実施例を公開する。全てのブロックに対して以下の速度ひずみ曲線を計算して比較する必要がある:(a)符号化された残差フレームと共に符号化された運動ベクトルが送信される動き推定を適用する予測符号化;(b)符号化された(サブ)セットのビットプレーンが符号化された残差フレーム(これは古典的な動き推定を用いた残差フレームとは異なる)と共に送信される本発明に係る方法を適用する予測符号化。結果として生じる速度ひずみ曲線は、速度割り当てプロセスで2つの符号化アプローチのどちらを全てのブロックに採用する必要があるかを指し示すであろう。
図1は、本発明に係る方法の実施例の動き推定を示す図である。 図2は、本発明に係る方法の実施例のビニングに基づいた動き補償を示す図である。 図3は、本発明に係る方法の実施例の予測値のクラスタリングに基づいた動き補償を示す図である。 図4、図4aおよび図4bは、本発明に係る動き推定と動き補償の方法の実施例を示す図である。
図1は、最新のWyner−ZyvビデオフレームFを復号するWyner−Zyvデコーダの動き推定を示している。最新のWyner−ZyvフレームFの第1のkビットプレーンが一旦復号されると、輝度データに対して本発明に係る動き推定と補償の方法が用いられる。図1では、kが2に等しいとみなされ、輝度データを表すビットプレーンの総数が8とみなされている。したがって、動き推定と補償のプロセスの結果として、残りの6ビットプレーンの輝度データの値は、これらのビットプレーンを符号化、送信および復号する必要なく予測される。色データは重みと、残りのビットプレーンのサブセットの代わりに全てのビットプレーンの輝度成分からの予測位置と、に従うと考えられる。言い換えれば、ピクセルの色成分が8ビットプレーンによって表されると想定される場合、これらの8ビットプレーンの値は、6つの残りのビットプレーンの同一ピクセルの輝度成分を予測するのに用いられる重みと予測位置とを用いて予測されるであろう。
本発明に係る動き推定の方法は、ブロックベースである。サイズB×Bの正方形状のブロックOは、Wyner−ZyvフレームFからフレーム位置(i,j)で得られる。ここで、iとjはフレームFのピクセルの行と列のインデックスの整数値を表し、Bはブロックサイズの整数値である。位置(i,j)のブロックは、インデックスi=0,oc,2*oc,...,(行数−1)およびj=0,oc,2*oc,...,(列数−1)のO(i,j)で表わされる。ここで、ocはステップサイズと名付けられた動き推定の方法に基づくブロックパラメータである。このステップサイズは、1とBの間の任意の整数とすることができる。
図1によって示されるように、動き推定のアルゴリズムは参照フレームFのブロックOに最もマッチングするように探索する。1つの参照フレームFの第1のビットプレーン101、第2のビットプレーン102および残りのビットプレーン103が図1に描かれている。最良のマッチングブロックORMまたは110の探索は、特定の探索範囲SR内に限定される。したがって、この方法はブロックO(i,j)を参照フレームFの位置(i−SR,j−SR)と(i+SR,j+SR)と間に始点を有する全てのブロックOと比較する。これは、復号される現在のフレームFの注目ブロックに対する参照フレームFのサンプルサーチエリアを表す点線104によって図1に示される。本発明に係るサブピクセル動き推定の場合には、整数グリッドまたはサブピクセルグリッド上にこれらの始点を配置することができることに注意されたい。言い換えれば、ブロックがフレームの境界から部分的に外れるとき、境界でフレームが拡張されるということである。
図1によって示される実施例では、フレームFのブロックOに対する参照フレームFで最もマッチングしたORMを求めるために、ビット誤り数がマッチング基準として用いられる。より正確には、マッチング基準はOとO間の第1(最上位)のk個のビットプレーン上のビット誤りを最小化する。1つの参照フレームFが図1に描かれているが、複数の参照フレームを考慮してもよい。現在のWyner−ZyvフレームFに先行して続くキーフレームが1つおよび複数ある場合、これらの参照フレームは前に復号された1以上のWyner−Zyvフレームである。
RMまたは110によって表わされる参照フレームF内の最良のマッチングブロックを求めた後に、ビット誤りの観点で、図1に示されるようにピクセルの残りの候補p(i,j)とこれらの重みが求められる。この残りとは全てのピクセルに対するbpp−kの紛失したビットであり、bppはピクセルの輝度成分を表すのに用いられるビット数である。図1によって示される実施例では、bppは8と等しく、bpp−kは6と等しい。
このピクセルのk個の最上位ビットがブロックOの対応するピクセルのk個の最上位ビットと同一である場合、最良のマッチングブロックORMのピクセルが有効なピクセルとみなされる。この有効性基準は十分に機能するが、特にkが2より大きいといったその他の有効性基準を考慮することができる。
最良のマッチングブロックORMのブロック重みWは、ORMのピクセル数の合計で割ったORMの有効なピクセル数として規定される:
Figure 2011503991
図1では、最良のマッチングブロックORMの2つの最上位ビットプレーン111と6つの最下位ビットプレーン112が描かれている。察するように、最上位ビットプレーン0(MSB)と1にビット誤りの有効性基準を用いることにより、ブロックORMに6つの無効なピクセルをもたらした。図1では、これらの6つの無効なピクセルが黒くされ、ブロックORMの58個の有効なピクセルが白くされている。ブロックORMの重みWは58/64または0.90625と等しい。
最良のマッチングブロックORMの全ての有効なピクセルで、残りのピクセル値V ijの候補および対応する重みW ijは、以下のように関係している:
Figure 2011503991
ここで、bは対応するビット値(0または1)と等しい。図1の実施例では、例えば、残りのピクセル値は対応するピクセルの輝度成分の残っている6ビットの値、すなわち図1のビット2乃至7(LSB)に対応し、重み値は式(1)に係る最良のマッチングブロックORMに関連したブロックの重みに対応する。
残りのピクセル値V ijおよび対応する重みW ijは、そのピクセルp(i,j)に対する残りのピクセル値121の配列および重み122の配列に保存され、共にピクセルp(i,j)のピクセル予測配列120を構成する。V ijとW ijのサブインデックスXは、残りのピクセル値/重みの配列の位置を表わすことに注意されたい。
マッチングの正確さを損なうので、動き推定の方法で用いられるブロックのブロックサイズBが小さすぎてはならないことに注意されたい。ブロックサイズBを1と選択する場合には、マッチングは考慮した探索範囲内の多くのランダムな位置で検出されるであろう。一方、ブロックベースの動きモデルの精度を損うので、ブロックサイズBは大きすぎてもいけない。さらに、大きな値のBは処理の複雑さとメモリ要件を高めるであろう。
動き推定のプロセスが復号される現在のフレームFの異なるブロックについて実行された後、各ピクセルについて残りの値と重みの配列が既知となる。いくつかのピクセルは、要素を含まない予測配列を有してもよいことに注意されたい。これは、動き推定のプロセスで最良のマッチングブロックのマッチングピクセルが何れも有効でなかったときの場合である。これら特別のピクセルに対して、いくつかの後処理、周囲のピクセル値からの輝度成分の再構築が必要であろう。その他の全てのピクセルについて、動き補償の異なるプロセス、例えば予測値のビニング、クラスタリング、最小数の予測値の候補の閾値処理、選択、またはこれらの組み合わせに基づいて、配列に保存された値と重みから輝度成分の残りの値を予測することができる。これら全ての動き補償のプロセスは、残りのピクセル値の不確実性を最小化しようとする。
図2は、ビニングに基づいた本発明に係る動き補償の実施例を示している。ビニングに基づいた動き補償は、残りの値の確実性を最大化しようとし、ある境界内にする。残りの値の範囲は、一般にピクセル値の表現と残りのビット数bpp−kによって限定される。ピクセルの輝度成分が符号なし8ビット表示でk=2の場合には、これらの残りの値の範囲の下限と上限は0と63である。この範囲は、1セットの等しい大きさのビンB0,B1,B2,B3,B4,B5,B6およびB7にそれぞれ分割され、図2では符号200,201,202,203,204,205,206および207で表わされる。bpp=8とk=2の実施例では、ビンB0...B7は[0,8),[8,16),[16,24),[24,32),[32,40),[40,48),[48,56)および[56,64)の値間隔にそれぞれ一致する。続いて、残りのピクセル値がビンの間隔内になるように残りのピクセル配列120内の全ての値121と重み122がビンに割り当てられる。これは図2の破線の矢印によって示される。各ビンについて、ビンの残りの値V ijが保持され、ビンの重みW ijが保持される。図2のビンB0...B7について、これらのビンの残りの値がそれぞれVB0 ij,VB1 ij,VB2 ij,VB3 ij,VB4 ij,VB5 ij,VB6 ij,VB7 ijと表わされ、ビンの重みはそれぞれWB0 ij,WB1 ij,WB2 ij,WB3 ij,WB4 ij,WB5 ij,WB6 ij,WB7 ijと表わされる。予測配列120から残りのピクセル値がビンに割り当てられるとき、そのビンのビンの残りの値VBs ijはV ij*W ijで増加し、そのビンのビンの重み値WBs ijはW ijで増加する。その結果、配列120の全ての残りの予測値を割り当てて、重み付き平均した後、ビンの残りの値とビンの重み値が次により得られる:
Figure 2011503991
ここで、sはビンのインデックスを表す。
最後に、残りのピクセル値は、最も大きいビンの重みWBs ijを持つビンのビンの残りの値VBs ijとして選ばれる。図2の実施例では、これはビンB2または202のビンの残りの値である。
複数のビンが同じ最大の重み値を有するレアケースでは、ビンの値とビンの重みを用いてそれらの値を再び重みつき平均する。たった1つのビンにビニングすると、残りのピクセル予測配列120全体の重みつき平均まで下がることにさらに注意されたい。
図3は、予測値のクラスタリングに基づいた本発明に係る動き補償を示している。実際には、残りのピクセル予測値は、参照フレームFのある位置まわりにそれらの重みを集中させる傾向がある。これは仮想重心(k,l)の存在を示している。仮想重心は動画中の考慮中のピクセルの実際の移動に対応する参照フレームFの位置に近いことが当業者によって認識されるであろう。重心を異なる方法で規定することができ、そこから以下のような2つの算定方式を選択することができる:
Figure 2011503991
ピクセル座標である(k,l)から残りの値V ijが読み出される。重心への距離に基づいて残りの候補にさらなる重みを割り当てることができ、これは残りのピクセル値の候補の重みつけられた位置によって規定される。次に、中心が重心と一致する半径Rの円内にある有効なピクセルを考慮することによって、残りのピクセル予測値の選択を適用することができる。この円内にあるピクセルの値と重みは、この特許出願の全体にわたって添え字XCで表わされる。重心が実際の動きを補償されたピクセルに近いと仮定すると、重心への近接度に応じて重みを採用すべきである。さらに、0≦α≦1の増倍係数αは(1−α)と掛け算される近接度の重みと比べて元のピクセルの重みを信頼することができる範囲を示している。
最後に、残りのピクセル値は元のピクセルの重みと近接度の重みを組み合わせた有効なピクセルの加重和として計算することができる:
Figure 2011503991
重みの合計Wは:
Figure 2011503991
残りのピクセル予測配列120の重みと重心への距離に基づいた重みとに基づいて、残りのピクセルの動き補償を重みつき平均することができる。増倍係数αが予測配列120の重みに対する信用レベルを規定する一方、(1−α)は重心への距離に基づいた重みに対する信用レベルを規定する。
重心は全ての参照フレームFに対して実際に規定することができ、(k ,l )と表わすことができる。次に、Fの再構築されたピクセルの残りの値は重みの合計Wと共にVij REC,Rによって表わされる。そして、最終的なピクセルの残りの値の再構築は以下のように計算される:
Figure 2011503991
代替実施例として、最も大きい重みの合計Wを持つ参照フレームの再構築されたピクセルの残りの値として最終的なピクセルの残りの値Vij RECを再構築することができる。
位置(k ,l )で補間によって得られる値として、参照フレームFの残りのピクセル値Vij REC,Rを再構築することができることにさらに注意されたい。
閾値処理は、値と重みの各配列の要素にさらなる選択を適用することを意味している。重み閾値Tが規定される。Tより低い重みを持つ値/重みのペアは捨てられる。これは、配列に保存された重みに利用可能であるが、予測値のクラスタリングが適用されるときに重心への距離に基づく付加的な重みにも利用可能である。0<T<1の閾値Tより小さい重みを持つ残りのピクセル予測値は無効であるとみなされる。最終的な残りのピクセル値を得るために、閾値処理の後にビニングまたはクラスタリングを続けてもよい。
予測配列から得られる、または重心への距離に基づいたクラスタリングから得られる値/重みのペアは、重み値の降順あるいは昇順によってソートされてもよい。次に、残りの値の候補の最大値Mが最も大きい重みを持つ残りの値の候補Mとして選択される。最終的な残りのピクセル値を得るために、この付加的な選択の後にビニングまたはクラスタリングが再び続く。
予測値のビニング、クラスタリング、予測値の候補の最大数の閾値処理および選択をさらに組み合わせることができ、最終的な残りの値を求めるのに用いられる残りの値/重みのペアの候補を二次選択をする。例えば、重心まわりのある半径R内のピクセルを選択することによって1つを行うことができる。続いて、残りのピクセル値/重みのペアの最終的な配列をソートして、予測値の候補の最大数を選択してもよい。最後に、ビニング方法を用いて残りのピクセル値を計算するために、残存する残りのピクセル値/重みのペアを用いる。
図1、図2および図3によって示されるオーバーラップしたブロックの動き推定と補償の方法は、残りのピクセル予測値121と重み122の配列120を構成する。しかしながら、Wyner−Zyv画像中のいくつかのピクセルについて、有効な残りのピクセル予測値が参照フレームに保持されていないことがありえる。これらのピクセルは、アルゴリズムの付加的なステップで周囲の有効なピクセルから再構築しなければならない。
中央値フィルタリングが適用されるとき、無効のピクセルは周囲の有効なピクセルの中央値をとることによって再構築される。いくつかのピクセルは有効な周囲のピクセルを持たないので、これは無効なピクセルが無くなる間繰り返されるマルチパス技術である。
中央値フィルタリングの代わりとして、無効なピクセルは周囲の有効なピクセルの平均値として再構築されてもよい。これも無効なピクセルが無くなるまで反復して実行されるマルチパス技術である。
残りの有効な候補が見つからないピクセルに対する中央値フィルタリングまたは平均値フィルタリングの代替として、マッチング基準を緩和することによって残りの候補を得ることができる。言い換えれば、隣接値を用いて無効なピクセルを後で再構築する代わりに、無効なピクセルに対する有効性基準を緩和することができる。残りのピクセル値を有効であるとするのにkビットが正しいと要求する代わりに、この方法はk−qビットのみが既知であり、残りのピクセル予測値を選択して最初のk−qビットが正しいことを要求することができる。ここで、qは0とkの間の整数値を表す。最終的なピクセル値の行き過ぎ(すなわち元の値と比べて1つまたは2つの係数について誤って再構築された値を得ること)を防ぐために、たとえ補償後に間違ったビットと既知のqビットを置換しなければならないとしても、この場合の動き補償の過程はbpp−kビットではなくbpp−k+qビットを再構築しなければならない。しかしながら、動き推定は、実際に補償されたピクセルの位置の不確実性を最小化するので、残りのピクセル予測値の重みを計算するために全ての既知のkビットを用いなければならない。付加的な重みと、さらに予測配列から得られるものと、重心までの距離に基づくクラスタリングから得られるものを割り当てることができる。この重みによって全ての残りの値の候補を有効とみなすことができる。そして、次の関数として残りのピクセル予測値の重みを規定することができる:
−既知のビットの誤り数;
−ブロックマッチングの精度;
−仮想重心への近接度;および/または、
−誤りが発生する位置(例えば、最上位ビットまたはMSBの誤りはピクセルの第4ビットの誤り以上にペナルティを科すべきである)。前に説明したように最初の3つの重みを導入することができる。また、最終的な重み係数は全ての既知のビットが正しくないピクセルを有効化するが、ビット誤りの位置の重要性を考慮に入れる。この重みは無効なピクセルの重みに参照され、それは以下のように規定される:
Figure 2011503991
ここで、mは整数であり、ビットが同じである場合δ=1であり、ビットが異なる場合δ=0である。次に、残りのピクセル値の再構築は全ての重みを組み合わせた関数に基づくことができる。α−係数、β−係数および1−α−βは、異なる重みに対する信用レベルを規定する。そして、最終的な残りのピクセル値の算出は次のように規定される:
Figure 2011503991
および:
Figure 2011503991
最後に、図4、図4aおよび図4bは、kビットプレーンが既知であると仮定した現行フレームFまたは符号401に適用した本発明に係る方法を実施例によって示している。符号402によって示すように、これらの図で推定すべきピクセルがマークされている。符号403によって示すように、現行フレームFのピクセルをオーバーラップするブロックOがマークされている。
図4aでは、ブロックサイズBが3と仮定されている。その結果、推定すべきピクセル402をオーバーラップする9つの異なるブロックOが現行フレームFに存在する。これらの9つの異なるブロックOは、411,412,413,414,415,416,417,418および419という符号のフレームFのコピーに描かれている。水平/垂直の探索範囲SRは、[−1,+1]と仮定されている。各ブロックOと各参照フレームについて、その参照フレーム内の最良のマッチングブロックを求めるために81個のピクセルを比較しなければならない。結果として、9個のブロックに対して729個のピクセルを比較なければならない。
図4bでは、ブロックサイズは2と仮定されている。これにより、推定すべきピクセル402とオーバーラップする現行フレームFに4つの異なるブロックOが得られる。これら4つのブロックOは、図4bの符号421,422,423および424によって表わされるフレームFのコピーで示されている。水平/垂直の探索範囲SRはまた、[−1,+1]と仮定されている。各ブロックOと各参照フレームについて、その参照フレーム内の最良のマッチングブロックを求めるために、ここでは36個のピクセルを比較しなければならない。結果として、4個のブロックに対して144個のピクセルを比較なければならない。
一般に、本発明に係る方法を実行するのに必要とされる比較数はB・|SR|に等しい。
特定の実施例を参照することによって本発明を示したが、本発明が前述の例示的な実施例の詳細に限定されないことは当業者に明らかであり、本発明はその趣旨と範囲から逸脱せずに様々な変形と変更によって具体化されてもよい。したがって、本実施例は、前述の記載よりむしろ添付されたクレームにより示される例示的かつ限定的でない本発明の範囲のように全ての点を考慮すべきであり、したがって、そのクレームの意義および均等の範囲内でなされる全ての変形はそこに包含すべきと解される。言い換えれば、基本的な根本原理の趣旨および範囲内にある全ての変更、変形または均等物をカバーするように取り扱われ、その不可欠な特質が本特許出願で主張される。用語「含んでいる」または「含む」は他の要素やステップを排除せず、用語「1の」または「1つの」は複数を排除せず、コンピュータシステム、プロセッサまたは別の集積ユニットなどの単一要素はクレームで列挙されるいくつかの手段の機能を実行することが本特許出願の閲覧者によって更に理解されるだろう。クレームの任意の引用符号は関係するそれぞれのクレームを限定するものと解されない。用語「第1」、「第2」、「第3」、「a」、「b」、「c」などが明細書またはクレームで用いられるとき、類似する要素またはステップ間を識別するのに用いられ、連続する順序や時系列を必ずしも記載するものではない。そのように用いられる用語は適切な状況下で置換可能であり、本発明の実施例は上記に記載され、または示されたものと異なるその他の順序または方向の本発明に係る動作を可能とすることを理解すべきである。

Claims (19)

  1. ビデオフレームFのピクセルの少なくとも輝度成分に対する動き推定および補償の方法において、
    A.前記ピクセルを含む複数のピクセルのブロックOに対する整数k個のビットプレーンを少なくとも1つの参照フレーム(F)のブロックOと比較するステップと;
    B.各ブロックOと各参照フレーム(F)に対して:
    B1.マッチング基準によって前記参照フレーム(F)内の最良のマッチングブロック(ORM,110)を求めるステップと;
    B2.前記最良のマッチングブロック(ORM)の有効なピクセルの比率に基づいて前記最良のマッチングブロック(ORM)に対する重み値(W ij)を求めるステップと;
    B3.前記最良のマッチングブロック(ORM)から前記ピクセルの残りのピクセル値(V ij)を抽出するステップと;
    B4.ピクセル予測配列(120)に前記重み値(W ij)と前記残りのピクセル値(V ij)を保存するステップと;
    C.次の何れかのステップと:
    C1.前記ピクセルが有効なピクセルである場合に、前記ピクセル予測配列(120)内の重み値(122)と残りのピクセル値(121)から前記輝度成分の少なくとも残りのビットプレーンを求めることによって動きを補償するステップか;
    C2.前記ピクセルが無効なピクセルである場合に、周囲のピクセル値から前記輝度成分を再構築するステップ、を具えることを特徴とする方法。
  2. 請求項1に記載の動き推定および補償の方法であって、
    前記比較するステップは、前記参照フレーム(F)の所定の探索範囲(SR)内のブロックに制限されることを特徴とする方法。
  3. 請求項1に記載の動き推定および補償の方法であって、
    前記マッチング基準は、前記ビデオフレームF内の前記ブロックOと前記参照フレーム(F)内のブロック間の前記整数k個のビットプレーンのビット誤り数を最小化するものであることを特徴とする方法。
  4. 請求項1に記載の動き推定および補償の方法であって、
    前記重み値(W ij)を求めるために、前記ブロックOの整数k個のビットが前記最良のマッチングブロック(ORM)で対応するピクセルと同一である場合に、ピクセルを有効なピクセルとみなすことを特徴とする方法。
  5. 請求項1に記載の動き推定および補償の方法であって、
    前記重み値(W ij)を求めるために、前記ブロックOの整数k個のビットのうち少なくとも1ビットが前記最良のマッチングブロック(ORM)で対応するピクセルと同一である場合に、ピクセルを有効なピクセルとみなすことを特徴とする方法。
  6. 請求項1に記載の動き推定および補償の方法であって、
    前記ブロックOと前記少なくとも1つの参照フレーム(F)のブロック(ORM)がブロックサイズBの正方形状を有しており、Bはマッチングの信頼度と前記推定および補償の方法の精度との間の兼ね合いとして選択されたピクセル数の整数値を表すことを特徴とする方法。
  7. 請求項1に記載の動き推定および補償の方法であって、
    D.次の何れかのステップ:
    D1.前記ピクセルが有効なピクセルである場合に、前記ピクセル予測配列(120)内の重み値(122)と残りのピクセル値(121)から前記輝度成分を求めることによって動きを補償するステップか;
    D2.前記ピクセルが無効なピクセルである場合に、周囲のピクセル値から色成分を再構築するステップ、をさらに具えることを特徴とする方法。
  8. 請求項1に記載の動き推定および補償の方法であって、
    前記動きを補償するステップは、
    −前記残りのピクセル値(121)をビニングするステップと;
    −ビンの重み値(WB0 ij、WB1 ij、WB2 ij、WB3 ij、WB4 ij、WB5 ij、WB6 ij、WB7 ij)を求めるステップと;
    −最も大きいビンの重み値でビン内の残りのピクセル値の重みつき平均である前記輝度成分を少なくとも求めるステップと、を具えることを特徴とする方法。
  9. 請求項1に記載の動き推定および補償の方法であって、
    前記動きを補償するステップは、
    −前記残りのピクセル値(121)と重心への距離に基づいた関連する重み値(122)をクラスタリングするステップを具えることを特徴とする方法。
  10. 請求項1に記載の動き推定および補償の方法であって、
    前記動きを補償するステップは、
    −前記残りのピクセル値(121)と重心への距離に基づいた関連する重み値(122)をクラスタリングするステップと;
    −選択した前記残りのピクセル値をビニングするステップと;
    −ビンの重み値を求めるステップと;
    −最も大きいビンの重み値でビン内の残りのピクセル値の重みつき平均である前記輝度成分を少なくとも求めるステップと、を具えることを特徴とする方法。
  11. 請求項8または請求項9または請求項10に記載の動き推定および補償の方法であって、
    所定の閾値より小さい重み値に対応する残りのピクセル値は、前記ビニングまたは前記クラスタリングに考慮されないことを特徴とする方法。
  12. 請求項8または請求項9または請求項10に記載の動き推定および補償の方法であって、
    残りのピクセル値は、対応する重み値の降順にソートされ、最初のM個(Mは整数である)の残りの値のみを前記ビニングまたは前記クラスタリングに考慮することを特徴とする方法。
  13. 請求項1に記載の動き推定および補償の方法であって、
    前記再構築するステップは、
    −周囲のピクセル値の中央値である前記輝度成分を求めるステップを具えることを特徴とする方法。
  14. 請求項1に記載の動き推定および補償の方法であって、
    前記再構築するステップは、
    −周囲のピクセル値の平均値である前記輝度成分を求めるステップを具えることを特徴とする方法。
  15. 請求項1に記載の動き推定および補償の方法であって、
    前記少なくとも1つのフレームは、第1番目のビデオフレームと第2番目のキーフレームを具えることを特徴とする方法。
  16. 請求項1に記載の動き推定および補償の方法であって、
    前記ビットプレーンは、二次抽出されることを特徴とする方法。
  17. 請求項1に記載の動き推定および補償の方法であって、
    前記ビットプレーンの整数値は、調節可能であることを特徴とする方法。
  18. 請求項1に記載の動き推定および補償の方法であって、
    前記方法は:
    −ビデオ符号化;
    −分散型ビデオ符号化;
    −誤り隠ぺい;
    −フレーム補間;
    −誤り耐性;
    −多重記述符号化;
    −予測符号化、の1以上に用いられることを特徴とする方法。
  19. ビデオフレームFのピクセルの少なくとも輝度成分に対する動き推定および補償のデバイスにおいて、
    前記動き推定および補償のデバイスは:
    前記ピクセルを含む複数のピクセルのブロックOに対する整数k個の受信したビットプレーンを少なくとも1つの参照フレーム(F)のブロックOと比較するための手段と;
    各ブロックOと各参照フレーム(F)に対して、マッチング基準により前記参照フレーム(F)内の最良のマッチングブロック(ORM)を求めるための手段と;
    前記最良のマッチングブロック(ORM)の有効なピクセルの比率に基づいて前記最良のマッチングブロック(ORM)に対する重み値(W ij)を求めるための手段と;
    前記最良のマッチングブロック(ORM)から前記ピクセルの残りのピクセル値(V ij)を抽出するための手段と;
    ピクセル予測配列(120)に前記重み値(W ij)と前記残りのピクセル値(V ij)を保存するための手段と;
    前記ピクセルが有効なピクセルである場合に、前記ピクセル予測配列(120)の重み値(121)と残りのピクセル値(122)から前記輝度成分の少なくとも残りのビットプレーンを求めるための動き補償手段と;
    前記ピクセルが無効なピクセルである場合に、周囲のピクセル値から前記輝度成分を再構築するための手段と、を具えることを特徴とするデバイス。
JP2010532621A 2007-11-13 2008-11-12 動き推定および補償の方法およびデバイス Pending JP2011503991A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07120604A EP2061248A1 (en) 2007-11-13 2007-11-13 Motion estimation and compensation process and device
PCT/EP2008/065422 WO2009062979A1 (en) 2007-11-13 2008-11-12 Motion estimation and compensation process and device

Publications (1)

Publication Number Publication Date
JP2011503991A true JP2011503991A (ja) 2011-01-27

Family

ID=39926548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010532621A Pending JP2011503991A (ja) 2007-11-13 2008-11-12 動き推定および補償の方法およびデバイス

Country Status (5)

Country Link
US (1) US20110188576A1 (ja)
EP (2) EP2061248A1 (ja)
JP (1) JP2011503991A (ja)
IL (1) IL205694A0 (ja)
WO (1) WO2009062979A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2360669A1 (en) * 2010-01-22 2011-08-24 Advanced Digital Broadcast S.A. A digital video signal, a method for encoding of a digital video signal and a digital video signal encoder
KR101545877B1 (ko) * 2010-02-23 2015-08-20 니폰덴신뎅와 가부시키가이샤 움직임 벡터 추정 방법, 다시점 영상 부호화 방법, 다시점 영상 복호 방법, 움직임 벡터 추정 장치, 다시점 영상 부호화 장치, 다시점 영상 복호 장치, 움직임 벡터 추정 프로그램, 다시점 영상 부호화 프로그램 및 다시점 영상 복호 프로그램
RU2527737C2 (ru) * 2010-02-24 2014-09-10 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования многопроекционного видео, способ декодирования многопроекционного видео, устройство кодирования многопроекционного видео, устройство декодирования многопроекционного видео, и программа
CN102223525B (zh) * 2010-04-13 2014-02-19 富士通株式会社 视频解码方法和系统
US10034012B2 (en) * 2010-05-13 2018-07-24 Sharp Kabushiki Kaisha Prediction image generation device, moving image decoding device, and moving image coding device
WO2012072637A1 (en) 2010-12-01 2012-06-07 Ibbt Method and device for correlation channel estimation
DK2744204T3 (en) 2011-09-14 2019-01-14 Samsung Electronics Co Ltd PROCEDURE FOR DECODING A PREVIEW UNIT (PU) BASED ON ITS SIZE.
KR20140098107A (ko) * 2011-12-01 2014-08-07 인텔 코포레이션 잔류 예측을 위한 움직임 추정 방법
US9350970B2 (en) * 2012-12-14 2016-05-24 Qualcomm Incorporated Disparity vector derivation

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6041078A (en) * 1997-03-25 2000-03-21 Level One Communications, Inc. Method for simplifying bit matched motion estimation
US6058143A (en) * 1998-02-20 2000-05-02 Thomson Licensing S.A. Motion vector extrapolation for transcoding video sequences
US6639943B1 (en) * 1999-11-23 2003-10-28 Koninklijke Philips Electronics N.V. Hybrid temporal-SNR fine granular scalability video coding
JP2002064709A (ja) * 2000-06-06 2002-02-28 Canon Inc 画像処理装置及びその方法とそのコンピュータプログラム及び記憶媒体
JP4187746B2 (ja) * 2005-01-26 2008-11-26 三洋電機株式会社 動画像データ伝送装置
GB0600141D0 (en) * 2006-01-05 2006-02-15 British Broadcasting Corp Scalable coding of video signals

Also Published As

Publication number Publication date
WO2009062979A1 (en) 2009-05-22
EP2223529A1 (en) 2010-09-01
EP2061248A1 (en) 2009-05-20
US20110188576A1 (en) 2011-08-04
IL205694A0 (en) 2010-11-30

Similar Documents

Publication Publication Date Title
JP2011503991A (ja) 動き推定および補償の方法およびデバイス
RU2699404C1 (ru) Способ прогнозирующего кодирования, устройство прогнозирующего кодирования и программа прогнозирующего кодирования вектора движения и способ прогнозирующего декодирования, устройство прогнозирующего декодирования и программа прогнозирующего декодирования вектора движения
CN110741640B (zh) 用于视频代码化中的运动补偿预测的光流估计
US8130835B2 (en) Method and apparatus for generating motion vector in hierarchical motion estimation
US7643690B2 (en) Image decoding and encoding apparatus, method and computer readable storage medium
US7580456B2 (en) Prediction-based directional fractional pixel motion estimation for video coding
US8064522B2 (en) Motion-vector detecting device, motion-vector detecting method, and computer program
JP4444252B2 (ja) 広域−局所ブロック動き推定用の方法及び装置
US20040081238A1 (en) Asymmetric block shape modes for motion estimation
US8098733B2 (en) Multi-directional motion estimation using parallel processors and pre-computed search-strategy offset tables
WO2017005146A1 (zh) 视频编码和解码方法、视频编码和解码装置
US20070217515A1 (en) Method for determining a search pattern for motion estimation
JP2011114572A (ja) 画像符号化装置、画像復号化装置、画像符号化方法、及び画像復号化方法
JP6636615B2 (ja) 動きベクトル場の符号化方法、復号方法、符号化装置、および復号装置
JP2005303984A (ja) 動きベクトル検出装置及び方法、及びその動きベクトル検出装置を利用可能な画像符号化装置
JP2009509418A (ja) 時間予測のための分類フィルタリング
JP2023052788A (ja) パディングのためのイントラ予測モードを選択する装置
JP2008061133A (ja) 画像符号化装置及び画像符号化方法
US20190149841A1 (en) Diversified motion using multiple global motion models
CN111567047A (zh) 进行子预测块运动矢量推导的存储器访问窗口
US20220360814A1 (en) Enhanced motion vector prediction
WO2012097742A1 (zh) 参考运动矢量获取方法、模块及编、解码装置
KR101192060B1 (ko) 블록 세트의 코딩을 위한 모션 벡터를 선택하는 방법 및장치
TWI814540B (zh) 視訊編解碼方法及裝置
JP2006508584A (ja) ベクトル予測のための方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131029