JP2000508127A - 動きに基づく分割及び合併を用いたビデオ・エンコーダ及びデコーダ - Google Patents

動きに基づく分割及び合併を用いたビデオ・エンコーダ及びデコーダ

Info

Publication number
JP2000508127A
JP2000508127A JP09516105A JP51610597A JP2000508127A JP 2000508127 A JP2000508127 A JP 2000508127A JP 09516105 A JP09516105 A JP 09516105A JP 51610597 A JP51610597 A JP 51610597A JP 2000508127 A JP2000508127 A JP 2000508127A
Authority
JP
Japan
Prior art keywords
matrix
motion
segment
frame
video data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP09516105A
Other languages
English (en)
Other versions
JP3790804B2 (ja
Inventor
ニーベグロブースキー,ヤセック
カルツェビツ,マルタ
Original Assignee
ノキア モービル フォーンズ リミティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア モービル フォーンズ リミティド filed Critical ノキア モービル フォーンズ リミティド
Publication of JP2000508127A publication Critical patent/JP2000508127A/ja
Application granted granted Critical
Publication of JP3790804B2 publication Critical patent/JP3790804B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Abstract

(57)【要約】 本発明は、ビデオの動き補償(MC)コーディングと、非常に小さい予測誤差を保持すると同時に動きベクトル・フィールドの高速でコンパクトなエンコーディングを可能にするMC予測方式とに関する。動きベクトル・フィールドを表すために必要とされる予測誤差とビット数を低減することによって、ビットレートの相当の節減を達成することが可能となる。動きフィールドを表すために必要とされるビットレートの低減は、直交多項式に基づく動きフィールドモデルを利用し、動きフィールドモデルを適合させ、ビデオ・フレーム中のセグメントを合併することによって達成される。

Description

【発明の詳細な説明】 動きに基づく分割及び合併を用いたビデオ・エンコーダ及びデコーダ 発明の分野 本発明は一般的にビデオ圧縮に関する。特に、本発明は、ビデオ・データの動 き補償エンコーディング及びビデオ・データの動き補償エンコーディングを実行 するエンコーダ及び方法に関する。本発明は、その様にエンコーディングされた ビデオ・データをデコーディングするためのデコーダにも関する。 発明の背景 動き補償予測は大半のビデオ・コーディングスキームの重要な要素である。図 1は動き補償を用いてビデオ・シーケンスを圧縮するためのエンコーダの略図で ある。このエンコーダの必須要素は動き補償予測ブロック1と、動き推定器2と 、動きフィールド・コーダ3とである。動き補償ビデオ・エンコーダの動作原理 は、現在のフレームと称されるコーディング(コード化)されるべき入ってきた 誤差En(x,y)を圧縮するというものであり、ここで: って構成され、基準フレームと称される、前のフレーム又は既にコ ピクセル値と、現在のフレームと基準フレームとの間のピクセルの 推定された動きを記述する動きベクトルとを用いて作られる。動きベクトルは動 きフィールド推定器2によって計算され、その結果としての動きベクトル・フィ ールドは、予測ブロック1に入力される前に何らかの方法でコーディングされる 。予測フレームは次の通りとなる:数の対[Δx(x,y),Δy(x,y)]は現在のフレームの位置(x,y)のピクセルの動きベ クトルと称され、Δx(x,y)とΔy(x,y)とはこのピクセルの水平変位及び垂直変 位の値である。現在のフレームIn(x,y)の中の全てのピクセルの動きベクトル の集合(セット)は動きベクトル・フィールドと称される。コーディングされた 動きベクトル・フィールドも動き情報としてデコーダに送られる。 図2に示されているデコーダでは、現在のフレームIn(x,y)の とを使って予測フレームを作る(この絵では基準フレームは現在のフレームと同 じである)。予測誤差デコーダ22において、デコーディング(デコード)され た予測誤差フレームEn(x,y)が予測フレームと加算され、その結果は最初の現 在のフレームInである。 動き補償(motion compensated(MC))予測エンコーダの一般的目的は、デ コーダに送る必要のある情報の量をなるべく少なくすることである。それは、例 えばEn(x,y)のエネルギーなど、測定される予測誤差の量をなるべく小さくす ると共に、動きベクトル・フィールドを表すのに必要な情報の量をなるべく少な くするべきである。 N.グエン、E.デュボアの文献、即ち1990年3月26−18日、マサチ ューセッツ州ケンブリッジ市、画像コーディング・シンポジウム’90議事録、 841−845ページ、“イメージ・コーディングのための動き情報の表示”(N .Nguen,E.Dubois,”Representation of motion information for image cod ing”.Proc.Picture Coding Symposium '90,Cambridge,Massachusetts,Mar ch 26-18,1990,pages 841-845)は、動きフィールド・コーディング技術の概観 を与えている。 目の子算と同じく、予測誤差を減少させるためには、より洗練された動きフィ ールドが必要である、即ちそれをエンコーディングするためにより多くのビット を使う必要がある。従って、ビデオ・エンコーディングの総合的目的は、予測誤 差の尺度をなるべく低く保ちながら動きベクトル・フィールドをなるべくコンパ クトにエンコーディング(エンコード)することである。 フレーム中のピクセルの数が非常に大きいので、各ピクセルについて別々の動 きベクトルを送るのは効率的でない。むしろ、殆どのビデオ・コーディングスキ ームにおいて、少数のパラメータでセグメントのすべての動きベクトルを記述で きるように、例えば図3に示されているように現在のフレームはイメージ・セグ メントに分割される。各イメージ・セグメントは正方形ブロックであっても良い 。例えば、国際規格ISO/IEC MPEG-1又はITU-T H.261に準拠するコーデックでは 16×16ピクセルのブロックが使用されるが、ブロックは例えば分割アルゴリ ズムによって得られる完全に任意の形状の領域から成っていても良い。実際上、 セグメントは少なくとも数十個のピクセルを含む。 図1の動きフィールド推定ブロック1は与えられたセグメントの全てのピクセ ルの動きベクトルを計算するが、それはそのセグメン トの例えば二乗予測誤差などの予測誤差の何らかの尺度を最小にする。動きフィ ールド推定手法は、動きフィールドのモデルと、予測誤差の選択された尺度を最 小にするためのアルゴリズムとの両方において種々様々である。 セグメント中のピクセルの動きベクトルをコンパクトに表示するために、それ らの値を少数のパラメータの関数で記述するのが望ましい。その様な関数は動き ベクトル・フィールド・モデルと称される。モデルの公知グループは線形動きモ デルであり、そのモデルでは動きベクトルは動きフィールド基本関数の線形結合 (組合わせ)で近似される。その様なモデルでは、イメージ・セグメントの動き ベクトルは一般式:で記述され、ここでパラメータCiは動き係数と称されるものであって、デコー ダに送られる。関数fi(x,y)は動きフィールド基本関数と称され、エンコーダ 及びデコーダの両方に知られている一定の形を有する。 上記の式を有する線形動きモデルを用いるときの問題は、例えば予測誤差En( x,y)の選択された尺度などの、歪みの何らかの尺度をなるべく低く保ちながら 、デコーダに送られる動き係数Ciの個数を計算に関して単純な方法で如何にし て最小限にするかということである。 デコーダに送る必要のある動き係数の総数はイメージ中のセグメントの個数と 、セグメントあたりの動き係数の個数との両方に依存 する。従って、動き係数の総数を減らす方法は少なくとも2つある。 第1の方法は、予測誤差を大きく増大させることなく共通の動きベクトル・フ ィールド・モデルで予測することのできるセグメントを結合させる(合併する) ことによってセグメントの個数を減らすことである。隣接する、すなわち隣り合 うセグメントを同じ動き係数の集合(セット)で予測できることが非常に多くあ るので、フレーム内のセグメントの個数を減らすことができる。その様なセグメ ント同士を結合させるプロセスは動き補助合併と称される。図3はセグメントに 分割されたフレームを示している。動き係数コーディングを実行するための従来 技術の手法として動き補助合併のための幾つかの手法がある。全てのセグメント の動きベクトルが推定された後、動き補助合併が実行される。それは、隣り合う セグメントSi及びSjの全ての対をそれらの動き係数Ci及びCjと共に考慮す ることによって実行される。結合されたセグメントSi及びSjの領域はSijと 表示される。Si及びSjを別々に予測した結果として生じる誤差と比べて予測 誤差をあまり増大させることなく動き係数Cijの1つの集合で領域Sijを予 測できるのであれば、Si及びSjは合併される。動き補助合併を行う方法は、 基本的に、互いに結合されるセグメントを良好に予測することを可能にする動き 係数Cijの単一の集合を見つけだす方法においてまちまちである。 1つの方法は全数動き推定による合併として知られている。この方法は、隣り 合うセグメントSi及びSjの全ての対について動きパラメータCijの新しい集 合を“全くの無から”推定する。Sijについての予測誤差があまり増えないな らば、セグメントSi及びSjは合併される。この方法は合併することのできるセ グメント を非常に良好に選択できるけれども、エンコーダの複雑さを通常は数桁も大きく してしまうので、具体化するのには適していない。 もう一つの方法は、動きフィールド拡張による合併として知られている。この 方法は、予測誤差をあまり大きくすることなく動きパラメータCi又はCjを用 いてSijの領域を予測できるか否か試験する。この方法は、新しい動き推定を 必要としないので、計算の複雑さが非常に低いことを特徴とする。けれども、1 セグメントについて計算された係数での動き補償が隣りのセグメントをも良好に 予測できることは非常に稀であるので、この方法ではセグメント同士を合併し損 なうことが非常にしばしばある。 もう一つの方法は動きフィールドはめ込みによる合併として知られている。こ の方法では、近似の方法によって動き係数Cijが計算される。これは、各セグ メントで少数の動きベクトルを評価することによって実行される。セグメントS i及びSjにおける幾つかの動きベクトルが図3に示されている。セグメントS ijについての動きフィールドは公知の何らかのはめ込み方法を用いてこれらの ベクトルを通して共通動きベクトル・フィールドをはめ込むことによって行われ る。この方法の欠点は、はめ込みによって得られる動きフィールドが充分に精密 ではなくて、予測誤差を許容できないほど増大させる結果をしばしばもたらすこ とである。 種々のモデルで動き推定を実行して最も適当な1つを選択する方法が音響学、 会話及び信号処理に関する1994年度国際会議議事録ページIII265-268に載っ ている、H.ニコラス及びC.ラビットの“イメージ・シーケンス・コーディング のための決定論的緩和方式を用いる領域に基づく動き推定”(H.Nicolas and C .Labit,”Region-based motion estimation using deterministic relaxation schemes for image sequence coding,”Proc.1994 Internationa l Conference on Acoustics,Speech and Signal Processing,pp.III265-268 )と、ビデオ技術のための回路及びシステムに関するIEEE会報1994年6月第 4巻第3号、ページ357-364に載っているP.チッコ−ニ及びH.ニコラスの“イ メージ・シーケンス・コーディングのための領域に基づく効率的動き推定及び対 称指向分割”(P.Cicconi and H.Nicolas,”Efficient region-based motion estimation and symmetry oriented segmentation for image sequence coding ,”IEEE Tran.on Circuits and Systems for Video Technology,Vol.4,No. 3,June 1994,pp.357-364)とにおいて提案されている。これらの方法は、種 々のモデルで動き推定を行って最も適したものを1つ選択することによって動き の複雑さに依存する動きモデルを適合させようと試みる。これらの方法の主な欠 点は、計算が非常に複雑で、実際に試験することのできる種々の動きフィールド ・モデルの量が少ないことである。 動き係数の個数を最小限にするための第2の方法は、なるべく少ない係数で満 足できるほど予測誤差を小さくすることを可能にする動きモデルを各セグメント のために選択することである。動きの量及び複雑さはフレーム毎に、またセグメ ント毎にまちまちであるので、常に1セグメントあたりにN+M個の動き係数を全 部使うのは効率的でない。どのセグメントについても、満足できるほど予測誤差 を小さくすることを可能にする動き係数の最小数はどれほどかを見いだすことが 必要である。この様な係数の適応的選択のプロセスは動き係数除去と称される。 上記の方法は、いずれも、単独では、予測誤差の前記尺度をなるべく低く保ち ながら、デコーダに送られる動き係数Ciの個数をどの様にして最小限にするか という問題を解決できない。 発明の概要 本発明の目的は、動きベクトル・フィールドを容認できないほど歪ませること なく、公知の動き推定器によって作られる動きベクトル・フィールド・データの 量を大幅に減らすことを可能にする、動き補償ビデオ・エンコーダとビデオ・デ ータの動き補償エンコーディングを行う方法と動き補償エンコーディング(エン コード)されたビデオ・データをデコーディング(デコード)するためのビデオ ・デコーダとを作ることである。その動きフィールド・エンコーダは、入手可能 な信号プロセッサ又は汎用マイクロプロセッサで実用的に実現できるように、あ まり複雑でないのが好ましい。 本発明は、請求の範囲第1項、第10項、第20項、第23項、第26項及び 第39項において規定されているようにして、それぞれ、解決される。本発明の 実施例は従属請求項において規定されている。本発明の第1の形態に準拠するエ ンコーダは、セグメント同士を合併させて、合併されたセグメントについて歪み の尺度を最小にする動き係数の集合を計算に関して効率よく見いだすことができ る。本発明のこの形態は、希望に応じて、セグメント合併に起因する歪みを簡単 に且つ効率よく評価することも可能にする。有利なことに、この形態に準拠する エンコーダは、追加の歪みを所定尺度に従って計算して、もしその追加の歪みが 例えば与えられた閾値以下であったりして許容できるか或いは達成されるビット レート減少に関して許容できるならばセグメント同士を合併させることによって 、ビデオ・フレームの隣り合うセグメント同士を適応的に合併させる。この歪み を計算するために選択される尺度は、例えば該セグメントにおけるエネルギー又 は二乗予測誤差等の、予測誤差の何らかの尺度であって良いが、これに限定はさ れない。歪みについてのもう一つの尺度は、例えば原フレームと、エンコーディ ング及びデコ ーディングされた後に復元された原フレームとの二乗差である。この目的のため に、ビデオ・エンコーダに含まれている動きフィールド・エンコーダは2つの主 要なブロックから成っている。 第1の主要ブロックはQR動き分析器と称することができる。その役割は動き フィールド推定器によって作られ入力された動きベクトル・フィールドの新しい 表示を見いだすことである。その新しい表示は第2の主要ブロックに入力される 。この第1の主要ブロックにおける動作は、行列演算から成る複数のステップを 含んでいる。その第1ステップでは公知の何らかの近似方法によって予測フレー ムが線形化され、予測フレームは動きベクトルの線形関数となる。第2ステップ では、例えば二乗予測誤差などの予測誤差の適当な尺度を最小化するために行列 Eiと行列yiとが作られる。この目的のために行列Eiは2つの行列Qi及び Riの積に分解される。また、因子行列Qi及び行列yiから補助ベクトルzi が計算される。行列Riの一部分と補助ベクトルziとは第2の主要ブロックに 入力される。 セグメント合併ブロックと称される第2の主要なブロックはセグメントSi、 Sjの対について合併操作を行う。有利なことに、このブロックは、それらの結 合された領域について共通動きフィールド・モデルを使ってそれらの結合された 領域を予測できるか否か調べる。合併操作では、前記因子行列に基づいて始めに 行列方程式が形成され、その後に該因子行列は公知の行列計算方法により処理さ れる。その結果は、検討されているセグメント対について共通の動き係数を簡単 且つ効率的に計算することを可能にする行列方程式である。これらの係数を使っ て、合併されたセグメントの領域での選択された歪みの尺度を計算することがで きる。歪みの尺度として二乗予測誤差を用いるならば、結果として得られる行列 の1つに含ま れている項に基づいてそれを容易に計算することができる。選択された基準に照 らして予測誤差の前記尺度の変化が許容できるならば、該セグメント同士は合併 される。 全てのセグメント対が検討された後、セグメント合併ブロックの出力は、セグ メントの個数が減少したイメージの新しい分割態様である。更に、各々の新しい セグメントについて該ブロックは行列R1ijとベクトルz1ijを出力するが、そ れは全ての動き係数を簡単に且つ効率よく計算することを可能にする。また該エ ンコーダは、フレーム内の、結果として得られた新しいセグメントを復元できる ようにする情報をデコーダに与える。 本発明のこの形態に準拠するセグメント合併ブロックは、セグメント同士を合 併させて1つにすることができるか否か単純な計算で判定することを可能にする 。隣り合うセグメント同士の各対について合併が可能か否か判定し、合併に適す る隣り合うセグメント同士の対が該フレーム内に無くなるまで該フレームについ ての結果として得られる分割についてのこのプロセスを反復することによって、 なるべく多くのセグメントの合併を達成することができる。 本発明の1実施例では、基本関数の線形結合により動きベクトル・フィールド を近似することに起因する追加の歪みの線形近似に基づいて歪みの量を計算する ことができる。 本発明の第2の形態に準拠するエンコーダは、セグメントの動きベクトル・フ ィールドを表す係数の集合から係数を除去して、歪みの尺度に関して最適の残り の係数を効率の良い計算で見いだすことを可能にする。また、希望に応じて、本 発明は、この形態においては、この集合の特定の係数を省略すると動きフィール ドの歪みが顕著に増大するか否かを調べることを可能にする。この調べは、各セ グメントSiについて該集合のうちの各係数をその様に調べること ができるように効率の良い計算で実行される。省略されれば歪みを顕著に増大さ せるということが分かった係数だけをデコーダに送ればよい。 第2の形態に準拠するエンコーダは、本発明の第1の形態に準拠する第1の主 要ブロックと同様に動作する第1の主要ブロックを有する。それは更に第2のブ ロックを有し、このブロックは、全てのセグメントSiについて該第1のブロッ クにより作られた行列Riとベクトルziとを受け取り、また希望に応じて、行 列Riとベクトルziとに基づいて、各セグメントについて歪みを耐え難いほど 増大させることなく動きフィールド・モデルから基本関数を除去することによっ て該モデルを簡略化することが可能か否か判定する。 この第2のブロックにおける操作は行列操作であり、行列方程式は始めに行列 方程式Ric=ziの1列及び1行を除去することにより修正されるが、このcは 該モデルの係数Ciから成るベクトルである。1つの列及び行の除去は、動きモ デルからの1つの基本関数の除去に対応する。その後、該行列方程式は三角化さ れる。その結果として得られた線形方程式を解くことによって基本関数の縮小さ れた集合に対応する動き係数を計算することができる。後退代入又はその他の周 知のアルゴリズムによってその方程式を解くことができる。予測誤差を歪みの尺 度として用いるならば、基本関数を除去したことからセグメントに生じるその変 化は、その結果としての方程式の中の1項の単純な所定の関数である。 それらの行列操作を更に反復することによって該セグメントについてもっと多 くの係数を減らすことができる。この様なアプローチにより、基本関数の種々の 縮小された集合を用いるときに歪みを容易に発見することができる。所望の歪み をもたらす集合は該セグメントの動きを表すように選択される。 このブロックは、処理された全てのセグメントについて、どの基本関数が動き フィールド・モデルから除去されたかを知らせる選択情報を出力する。また、こ のブロックは、残っている基本関数に対応する新しい動き係数を出力する。選択 情報及び動き係数の両方がデコーダに送られる。 基本関数の集合から基本関数を除去することは、除去された基本関数に対応す る係数の値をゼロに設定することと完全に同等である。従って、代わりの具体的 構成では、エンコーダは、選択情報を出力した後に動き係数を出力する代わりに 全ての動き係数を出力し、そのうちの除去された基本関数に対応する係数の値は ゼロに等しい。 好ましくは、動き補償ビデオ・エンコーダは、適応的にセグメントを合併する ことと、全体としての歪みに対して重要ではない動き係数を除去することとの両 方を利用する。その様な好ましいエンコーダは、本発明の第1の形態に準拠する QR動き分析器及びセグメント合併ブロックと共に本発明の第2の形態に準拠する 係数除去ブロックを包含する。この係数除去ブロックは、セグメント合併ブロッ クから行列Rijとベクトルzijとを受け取る。隣り合うセグメント同士を合 併させ、係数除去のために行列R及びベクトルzを操作した後にはじめて各セグ メントの送信される係数Ciが計算されて、その結果としてビデオ・エンコーダ から出力される動きデータの量が実質的に減少する。 好ましくは、本発明のビデオ・エンコーダ及びデコーダは、本発明に従って、 それぞれ、受け取ったビデオ・フレームのエンコーディング及び圧縮を行い、エ ンコーディングされたビデオ・データをデコーディングするようになっている、 例えば1つ以上の集積回路として、ハードウェアで実現される。 ビデオ・コーディング技術では、異なるコーディング・モードを使ってビデオ ・フレームの異なる領域をコーディングすることはありふれたことである。コー ディング・モードのこの変化性は、コーデックスに使用される動き補償予測方法 も含んでいる。ITU H.261及びH.263並びにISO MPEG-1及びMPEG-2ビデオ・コーデ ィング規格などの全ての最新のビデオ・コーデックに幾つかのモードが用いられ ている。 例えば、一部のビデオ・フレーム領域は時間的予測を全く使わずにコーディン グされる(いわゆるブロック内の)。その様なイメージ領域については動き係数 は送られず、それらの領域は前のイメージを全く参照せずにコーディングされる 。本発明の実用的実施例は、本発明をその様な内部コーディング(intra-coding )と組み合わせる。 更に、典型的なビデオ・イメージ・シーケンスでは、数フレームの存続期間に わたってビデオ・フレームの大きな領域が不動のままである(即ち、動きが無い )。計算に関しては、ビデオ・フレーム領域の動きを推定するよりは領域が不動 のままであったということを検出する方がはるかに容易である。従って、実用的 ビデオ・コーデックは、しばしば領域を調べて何らかの動きがあるかどうかを検 出するようになっていて、動きパラメータを送る必要のない不動予測モードを含 んでいる。本発明の実用的実施例は、本発明をその様な不動モードとも組み合わ せる。 MPEGビデオ・コーディング規格は、2つの基準フレームに関して動き推定を行 う(双方向予測)コーディング・モードも含んでいる。その結果として、コーデ ィングされるべき領域について2つの異なった予測がもたらされる。エンコーダ は、それらの予測のうちの良好な方を使用するように決定することができ、或い はエンコーダ は(例えば、平均を取ることによって)それら2つの予測を組み合わせるように 決定しても良い。モードに関する決定はデコーダに伝達されなければならない。 ITU H.263規格は2つの基準フレームを用いる時間予測モードも含んでいる。本 発明が多数の基準フレームを使用する類似の手法から利益を得ることができるこ とは明らかである。 本発明がビデオ・コーデックにおける1つ以上のコーディング・モードのため の基礎となって従来技術のコーディング・モード(内部コーディング、不動モー ド、或いは多数の基準フレームなど)と共に使用され得ることは当業者にとって は明らかである。 次に添付図面を参照して本発明の好ましい実施例について説明する。 図面の簡単な説明 図1は公知のエンコーダの概略図である。 図2は公知のデコーダの概略図である。 図3は合併される隣り合うセグメントを示す。 図4は動きフィールド近似による合併を示す。 図5は本発明による動きフィールド・コーダを示す。 図6はQR動き分析器の概略図である。 図7は本発明による動き補償予測ブロックの1実施例の概略図である。 好ましい実施形態の説明 図1に示されているビデオ・エンコーダの出力はセグメントSiに分割された 圧縮されているフレームであり、各セグメントSiには、それぞれのセグメント の各ピクセル(x,y)についての動きベク トル[Δx(x,y),Δy(x,y)]に関する情報が伴っている。座標(xi,yi),i =1,2,...,Pを有するP個のピクセルから成るセグメントSiについて、動きフ ィールド・エンコーダ3の任務は、動きフィールド推定ブロック2から出力され た動きベクトル・フィールド(Δx(xi,yi),Δy(xi,yi))から、下記の 形:の線形動きモデルによって、二乗予測誤差SPE: を最小にするのに必要なだけの精度で[Δx(x,y),Δy(x,y)]を近 数c=(c1,c2,...,cN+M)を発見することである。 図5は、本発明によるビデオ・エンコーダにおける動きフィールド・エンコー ダの実施例を示している。これは図1のブロック3に対応するけれども、これは 入力として基準フレームと現在のフレームも有する。このブロックへの第3の入 力は図1の動きフィールド推定ブロック2によって作られた動きベクトル・フィ ールド[Δx(・),Δy(・)]である。 前記任務を遂行するために、動きフィールド・エンコーダ3は、3つの主要な 組立ブロック、即ちQR動き分析器ブロック31、セグメント合併ブロック32 及び動き係数除去ブロック33、から成っている。セグメント合併ブロック32 と動き係数除去ブロック33とは動き情報の量を減少させるが、それは予測の精 度を低下させ て二乗予測誤差を増大させるという結果をもたらす可能性がある。 QR動き分析器の目的は、セグメント合併と係数除去とが予測誤差に及ぼす影 響の大きさを効率よく判定するのに適する動きフィールドの新しい表示を発見す ることである。この新しい表示は、合併されたセグメントについての動き係数を 高速に且つ自在に発見するために、また係数除去のために、後に他の2つのブロ ックで使用される。図6は、本発明によるQR動き分析器の実施例を示している 。このブロックは、前のビデオ・フレーム入力In−1を受け取る、又はより好 ましくは、図2に示されているビデオ・デコーダによ する。この目的のために、図1のビデオ・エンコーダは、予測誤差デコーダ・ブ ロック5と、該ビデオ・デコーダによってデコーディング(デコード)されたビ デオ・フレームに対応するビデオ・フレ 該勾配フィルタの出力Gx、Gyは、行列Eを組み立てるためのブロック42と 、ベクトルyを組み立てるためのブロック45とに入力される。行列組立ブロッ ク42は、近似された予測フレームが 行し、この線形化に基づいて行列Eを計算するが、この行列Eと上記の式4a、4 bの各係数Ciのベクトルcとの掛け算は、もしΔx、Δyを線形動きモデルの基 本関数fi(x,y)の線形結合と置き換えたならば生じることになる予測誤差と解 され得るものである。 ベクトルyを組み立てるためのブロック45は、現在のフレーム 、Gy、及び図1のブロック2によって推定された動きベクトル[Δx(x,y),Δy( x,y)]を受け取り、これらの入力された正しい値か ら、場面(シーン)に動きがあったことに起因する予測誤差、即ち固有予測誤差 、と解釈することのできる前記ベクトルyを計算する。 行列Eとベクトルyとは、それぞれ、QR因数分解器ブロック43と行列掛け算器 ブロック46とに受け取られる。これらのブロックの機能は、与えられたセグメ ントの全てのピクセルについて基本関数fiの線形結合としてのΔx、Δyの表示 から生じる予測誤差が固有予測誤差になるべく近くなるように係数Ciを発見す るための準備のための行列E及びベクトルyの座標変換であると見なし得るもので ある。このことについて次に更に詳しく説明する。 ブロック43は、ブロック43から出力される行列Qの座標で行列Eを表示した 結果としての行列Rを出力する。ブロック46は、前記ベクトルyだけではなくて ブロック43から前記行列Qも受け取り、行列Qの座標でyを表示するベクトルzを 見いだす。好ましくは、行列Qは正規直交行列である。以下の記述で更に詳しく 示すように、それぞれR及びzとしてのこのE及びyの表示は、隣り合うセグメント 同士を予測誤差の容認できるような増加で合併することができるか否か判定する ために非常に有利であり、また合併され又は合併されないセグメントの動きベク トル・フィールドを表示するのに必要な最小個数の係数を発見するのにも非常に 有利である、即ち式4a、4bの各係数Ciの集合から重要でない係数を除去す るのに非常に有利である。 ブロック44及び47は、行列R及びベクトルzをそれぞれ受け取って、これら からセグメント合併及び/又は動き係数除去の効果を判定するのに必要な行を選 択する。それらの動作は、前記係数Ciを計算することを必要とすることなくR 及びzに基づいて行われる。更に、セグメント合併及び/又は動き係数除去の目 的のために R及びzを、Rの列を有すると共に追加の列としてベクトルzを有する単一列拡張行 列Aと見なし得るように、全ての行操作はRの行とzの対応する行との両方に関連 している。従って、ブロック44及び47は、Aの適当な行を選択して行列Aを操 作し、Aの選択された行から成る修正された行列A'を出力する1つのブロックと 見なして該1ブロックとして実現することのできるものである。A'は、R1と表記 されるRの選択された行と、z1と表記されるzの選択された行とから成る。 セグメント合併ブロック32は、各セグメントについてR1及びz1、即ち行列A' 、を受け取り、2つのセグメントSi、Sjの動きベクトル・フィールドを係数 の同じ集合で表示することによる該2つのセグメントの合併が予測誤差を許容で きる範囲で増大させる結果となるか否か判定する。これは、セグメントSiの行 列A'iの全ての行とセグメントSjの行列A'jの全ての行とから成る行拡張行列 Bを作ることによって実行される。セグメントSi、Sjは、隣り合っていても良 いけれども必ずしも隣り合っていなくても良い。行列Bに対しては、例えば行列B を三角化することによる更なる座標変換が行われ、修正された行列B'が得られる 。図5のブロック32は、行列B'の、ベクトルz'i及びz'jからもたらされた列 と行列R1i及びR1jからもたらされたB'の列にゼロを有する行との中の選択され た要素から、セグメント合併が可能か否か判定する。好ましくは、前記の更なる 座標変換は正規直交変換である。その場合、合併からもたらされる追加の予測誤 差は前記の選択された要素の二乗の和である。 図5の動き係数除去ブロック33は、各セグメントについて、フレーム再分割 後に、もし対応するセグメントが合併されないままであれば前記行列A'を受け取 り、或いは合併されたセグメントについ ては行列B'を受け取り、予測誤差の許容できる増加で係数Ciを除去できるか否 か判定する。これは、ブロック33により、行列A'及びB'から係数Ciに対応す る行をそれぞれ抽出するとともに、前記行の抽出後の行列A'及びB'からそれぞれ もたらされる行列の好ましくは正規直交型の座標変換を行うことによって、実行 される。係数Ciを除去したことに起因する追加の予測誤差を前記の変換された 行列の選択された要素から計算することができ、前記の選択された要素は、前記 の変換された行列のz1からもたらされる列と、R1からもたらされる全ての列にゼ ロを有するこの行列の行とに置かれる。図5のマルチプレクサ34は、ブロック 32からの合併情報と、どの係数Ciが送られるべく選択されるかについての情 報と、ブロック33によって前記の変換された行列に基づいて最終的に計算され る選択された係数Ciとを受け取る。マルチプレクサ34により出力されるこの 情報はビデオ・デコーダ(図示されていない)へ出力される。 より詳しくは、QR動き分析器の動作は下記のステップから成る: ステップ1は予測誤差の線形化である。このステップでは式(7において合計される要素は係数Ciの線形結合となる。 好ましい具体的構成では、12個の係数を有する二次多項式の動きベクトル・フ ィールド・モデルが使用される: このモデルは、実際上、ビデオ・シーケンスにおける非常に複雑な動きも十分に 処理することができ、良好な予測結果をもたらす。 QR動き分析器ブロックにおいて、全てのピクセル(xi,yi の周りでステップ1の線形化が行われる。ここでi=1,2,...Pである。 Σa2=Σ(-a)2という性質を用いると、二乗予測誤差SPEは下記のようになる 。 補助値gj(x,y)が下記の式:を用いて計算される。ここで関数fj(xi,yi)は、式(4a)及び(4b )で、より具体的には式(4c)及び(4d)で定義されている動きフィールド ・モデルによる所定の基本関数である。 ステップ2は行列の作成である。それは、式(6)によるSPEの最小化が行 列式(Ec-y)T(Ec-y)の最小化と完全に同等であるという事実に基づいており、こ のE及びyは: である。式(9)の行列E及びベクトルyは下記の式: を用いて組み立てられる。 Gx(x,y)及びGy(x,y)は、下記の式: 直勾配の値である。 座標x及びyについてのみ定義される。x又はyが整数でないときは、ピクセル値は 例えば整数座標を有する最も近いピクセル同士の双一次補間を用いて計算される 。 ステップ3はQR因数分解である。行列のQR因数分解は、それ自体としては 良く知られていて、適当なアルゴリズムが1989年 ジョンズホプキンス大学出版会の、D.H.ゴルブ及びC.ブァン・ローンによ る“行列計算”第2版(D.H.Golub and C.van Loan,”Matrix computation ”2'nd edition,The Johns Hopkins University Press,1989)で解説されてい る。このアルゴリズムを使ってEを2つの行列の積に分解することができる。 E=Q R (8) 換言すれば、RはQの座標でのEの表示である。Qは好ましくは正規直交であって、 Rは上三角形である、即ちRの行N+M+1からPまでは全て0である。 このステップにおいて補助ベクトルzも計算され、ここで、 z =QTy (9) である。 ステップ4ではQR動き分析器ブロックの出力が計算される。その出力は、行 列Rの始めのN+M個の行から成る行列R1と、zの始めのN+M個の要素から成るベクト ルz1とから成る。 セグメント合併ブロックでは、隣り合うセグメントSi及びSjの対について (図4を参照)、結合されたセグメントSijについて動き係数Cijで記述さ れる共通動きフィールドを用いて動きベクトル・フィールドを表示できるか否か 判定することによって合併操作が実行される。合併操作は下記のステップから成 る: ステップ1は行列計算から成る。本発明は、合併されたセグメントSijにお ける予測誤差を最小にする動き係数Cijがスカラー値をも最小にするという、これまで知られていなかった性質を利用する。ここでR1 i、z1i及びR1j、z1jは、前述したように、それぞれセグメントSi及びSj についてQR分析器ブロックによって既に作られている。(10)のこの最小化 は、最小二乗の意味で重複決定された方程式のシステム(the overdetermined s ystem of equations)、 を解くことと同等である。 ステップ2は、ステップ1で得られた行列の三角化である。上記文献の教示 に従ってセグメントSiについてのEであるEiと、セグメントSjについてのE であるEjとのQR因数分解を行えば、行列R1i、R1jは上三角行列となり、( 10)でのシステム、 は下記の形:を有する。ここで記号xはゼロでない要素を意味し、zikはベクトルz1iのk番 目の要素を意味し、zjkはベクトルz1jのk番目の要素を意味する。 各行にスカラーを乗じる一連の掛け算を行った後に各行を加算することによっ て方程式(11)のシステムは三角化される;即ち、それは下記の形に変換され る: この三角化のためにも上記の前記文献によるQR因数分解を用いることができ る。 ステップ3では合併誤差が評価される。セグメントSi及びSjの合併に起因 するセグメントSijにおける二乗予測誤差の変化ΔEijは、 に従って計算される。この好ましい実施例では、(11)のQR因数分解の結果 としてQは正規直交行列となり、式13は非常に簡単になる。しかし、もし予測 誤差の尺度として二乗予測誤差が用いられるのであれば、この因数分解における Qの性質に依存して、ΔEijは一般にq2k、k=1,...,N+M、の関数である; もちろん、予測誤差についての他の尺度を用いることも可能であり、従って、q kとΔEijとの他の関数関係を適合させることができる。 最後に、ステップ4において、選択された基準に照らして式(1 3)の二乗予測誤差の変化が許容できるものであるならば、セグメント同士が合 併される。セグメント合併ブロックはセグメント合併のために下記の方針をとる : a.フレーム全体における二乗予測誤差の許容される増加に対応する閾値Tを選 択する。 b.隣り合うセグメントの全ての対について式(13)を用いてΔEijを計算 する。 c.最小のΔEijを有するセグメントの対を合併させる。 d.合併された全てのセグメントの対に対応するΔEijの合計がTより大きく なるまでポイントb−cを反復する。 式(11)におけるシステムの三角化のために、一連のギブンズ回転を用いる ことができる。 得られた新しいセグメントSijについて、式(12)におけるシステムの始 めのN+M行をとることによって行列R1ij及びベクトルz1ijが組み立てられる 、即ち式:により与えられる。 フレームの全てのセグメント対を検討した後、セグメント合併ブロックの出力 が得られる。その出力は3種類の情報から成る。第1に、それは、イメージの、 セグメント数が減った新しい分割態様を与える。第2に、各々の新しいセグメン トについて該ブロックは行列R1ij及びベクトルz1ijを出力する。第3に、そ れは、デコー ダに送られてデコーダが合併されたセグメントを特定するのに役立つ合併情報を 与える。 いま、各方程式のシステムR1ijCij=z1ijを解くことによってセグメン トSijについての動き係数Cij=(c1,c2,...cN+M)を計算すること ができるけれども、係数除去ブロック33を用いるのであれば、それらの計算は 未だ必要ではない。また、次に更に説明するように、この段階において、係数除 去を実行する前に、セグメント合併から得られたセグメントに関して動きフィー ルド・モデルを直交化するのが有利であるかも知れない。その様に直交化された 動きフィールド・モデルは、動き係数を量子化することの結果として生じる量子 化誤差の結果として生じる量子化誤差にあまり敏感でない。しかし、好ましい実 施例についての説明をなるべく明瞭に保つために、ここでは最適の動きフィール ド・モデル直交化は省略する。 係数除去ブロック33は、入力として現在のフレームのセグメントへの前記の 新しい分割態様を受け取り、全てのセグメントSkについて該ブロックはセグメ ント合併ブロックによって前に作られていた、(14)に示されている前記行列 R1k、z1kを受け取る。全てのセグメントの動きベクトルはN+M個の動き係数に よって表されるが、N及びMはΔx及びΔyについての動きフィールド・モデルによ り決定される。 動き係数除去ブロック33は、与えられたセグメントSkについて、予測誤差 をあまり増大させることなく動きフィールド・モデルを簡単化することが可能か 否か判定する。簡単化された動きフィールド・モデルは、この明細書の背景技術 の箇所で説明した式(3)のモデルから多少の基本関数を除去したときに得られ 、その様に簡単化された動きフィールド・モデルを記述するのに必要な係数は少 なくなっている。 i番目の基本関数(及びi番目の係数)を動きフィールド・モデルから除去でき るか否か調べるために、全てのセグメントについて下記の処理手順がブロック3 3によって実行される: ステップ1は行列修正を包含し、R1kからi番目の列を除去すると共にCkか らi番目の要素を除去することによって各線形方程式のシステム R1 kck=z1 k (15) が修正される。 ステップ2は行列三角化を包含し、好ましくは上記文献で解説されている前記 QR因数分解アルゴリズムを使用し、或いは一連のギブンズ回転を用いる。即ち 、方程式(15)におけるシステムは、行にスカラーを掛ける一連の乗算に続け て行の加算を行うことによって、それ自体としては公知の方法で三角化される、 即ち、それは下記の形に変換される: ステップ3は誤差評価を含む。i番目の係数の除去に起因するセグメントにつ いての二乗予測誤差の変化は単に式(16)の項q2iに等しい。これも、前記Q R因数分解におけるQが正規直交型であることを基礎として妥当である。一般に 、Qの性質と予測誤差についての尺度とにより、二乗予測誤差の変化はqiの関 数である。 ステップ4は係数の除去を含む。もし選択された基準に照らして予測誤差の変 化が許容できるならば、係数Ciは係数の集合から除去される。ここで係数の新 しい個数はN+M-1となる。行列R1k及びベクトルz1kは例えばQR因数分解によ って下記の形に修正される 式(17)に基づいてステップ1−4を反復することによってセグメントにつ いての係数の個数を更に減らすことができる。 動き係数除去ブロックでは係数除去のために下記の方針をとる: a.フレーム全体での二乗予測誤差の許容される増加に対応する閾値Tを選択す る。 b.全てのセグメント及びそれらの基本関数について式(16)を用いてqi2 を計算する。 c.最小のqi2を有するセグメントの基本関数を除去する。 d.いろいろなセグメントにおける全ての除去された基本関数に対応する全ての qi2の合計がTより大きくなるまでポイントb−cを反復する。 最後に、ステップ5は係数計算を含む。このステップで適当な係数が除去され た後、セグメントSkについての最終の動き係数が各線形方程式のシステム: R1 kck=z1 k (18) を解くことによって計算される。ここで行列R1k及びベクトルz1kは前のステッ プ1−4の結果である。例えば後退代入法などの周知のアルゴリズムのうちの1 つを用いてこの方程式を解くことができる。 この好ましい実施例は、R1ij及びz1ijに基づいて係数Ciを計算しなくて 、与えられたセグメントを囲む矩形に関して動きフィールド・モデルを直交化す るための更なるブロック(図示されていない)を含んでいる。このブロックは、 入力として、現在のフレームのセグメントへの区分化態様を受け取ると共に、全 てのセグメントSkについてセグメント合併ブロックからの(14)に示されて いる行列R1k及びz1kとを受け取る。この直交化ブロックにおいて れる。すると、このセグメントの動きベクトル・フィールドを下記のように表示 することができる: 式(4)の動きベクトル・フィールドは式23のと完全に同等で て、従ってより少数のビットで表示できるので、後者のものが用いられる。 直交多項式基本関数の計算は、ビデオ・エンコーダ及びビデオ・デコーダの両 方において、各セグメントの形状と動きモデルの所定基本関数fiとに基づいて 、次のように行われる。 与えられたセグメントを囲む矩形のサイズがN1×N2ピクセルであるとしよう 。始めに、例えばルジャンドル(Legendre)の多項 式などの、1次元多項式の2つのシーケンスを計算する: 1.gk(x),k=0,1,... 間隔[1,N1]で直交 2.hl(y),l=0,1,... 間隔[1,N2]で直交 N+M、が1−D直交多項式のテンソル積: として組み立てられる。米国アカデミックプレス社の、A.アカンス及びR.ハ ダッドによる1992年の“多解像度信号分解”のページ55−56(A.Akans u and R.Haddad,”Multiresolution Signal Decomposition”,Academic Pres s Inc.,USA,1992,pages 55 to 56)から、多項式の選択に関する詳細を得る ことができる。 この様にして実行される与えられたセグメントを囲む矩形に関する直交化は、 他の直交化方法より計算に関してはるかに単純ではあるけれども、それらを例え ばセグメントの形状に関する直交化に選択肢として使用可能である。 しかし、一般に、例えばグラム・シュミットのアルゴリズムなどの周知の直交 化アルゴリズムを使って、通常の多項式を任意形状のセグメント領域で直交する 多項式に変換することができる。 k=1,2,...,i、の線形結合として表示され得るように選択される、即ち、 である。この仮定は、非直交基本関数から直交基本関数への変換を単純な行列乗 算によって複雑さの低い計算で実行し得ることを保証する。 の変化を反映するようにセグメントの動きベクトル・フィールドを記述する行列 R1k及びz1kを計算し直す必要がある。式(25)をに従って計算することができる。行列Tは、 で与えられる。ここで要素tk,iは式(25)からとられる。直 M、に対応する係数ck=(c1,...,cN+M)を用いて計算することができる 或いは各方程式のシステム、 を解くことによって計算することができる。係数除去ブロック33は、入力とし て、現在のフレームのセグメントへの新しい分割態様 を受け取ると共に、全てのセグメントSkについて直交化ブロック トの動きベクトル・フィールドがN+M個の動きフィールド・モデル基本関数で表 示される。 動き係数除去ブロック33は、与えられたセグメントSkについて、上記のよ うに動きフィールド・モデルを簡単化することが可能か否か判定する。 図7は図1の動き補償予測ブロック1の実施例を示している。このブロックは 、動きフィールド・コーディング・ブロック3から出 ,y)を受け取る。この情報に基づいて、ブロック1は予測フレーム ブロック1はデマルチプレクサ11を有し、このデマルチプレクサは、動きフィ ールド・エンコーディング・ブロック3から多重化された動き情報を受け取って 、分離された動き情報成分、即ちイメージ区分化情報、係数選択情報及び、最後 に、送られてきた動き係数の値、を出力する。参照数字12は、イメージ区分化 ブロックを意味しており、このブロックは、前記イメージ区分化情報と前記基準 メージを区分化した結果としてもたらされたフレームのセグメントを出力する。 参照数字13は、基本関数組立ブロックを意味している。このブロックは、基本 関数の所定の集合(セット)から、動きフィールド・エンコーディング・ブロッ ク3の動き係数除去ブロック33で作られた選択情報で表示されている特定の基 本関数を選び出す。参照数字14はセグメント予測ブロックを意味しており、こ 付随の基本関数の選択と付随の動き係数とを受け取り、動きベクト 算する。動き補償予測ブロック1は、その構造及び機能において、図2に示され ているビデオ・デコーダの動き補償予測ブロック21に対応する。この両方の動 き補償予測ブロックが、図1に示されているビデオ・エンコーダの動きフィール ド・コーディング・ブロック3から出力される動き情報に基づいて予測を行う。 全ブロックにおける全ステップの結果として、本発明による動きフィールド・ エンコーダは、どのセグメントが合併されるかをデコーダに知らせるための合併 情報と、どの基本関数が除去されるかをデコーダに知らせる選択情報と、動き係 数情報とを作り出す。 従来技術の解決策と比べて本発明の主な利点は、予測誤差を大幅に増大させる ことなく動き情報の量を大幅に減少させ得る能力を持っていることである。また 、システム全体の複雑さが低いので、入手可能な信号処理装置或いは汎用マイク ロプロセッサで実施することができる。 セグメント合併ブロックは、別々のセグメントについて推定された与えられた 動きベクトルから、結合されたセグメントの動きベクトルを見いだせる独特の能 力を持っている。それが作り出す動きベクトルが実際上、結合されたセグメント についてごく僅かな二乗誤差を保つことに関して最適であるということを証明す ることができる。このことが、このブロックが二乗予測誤差を僅かに増大させる だけでセグメントの個数を劇的に減少させ得る能力を持っている理由である。 動き係数除去ブロックは、ビデオ・シーンにおける実際の動きの量及び種類に 動きモデルを瞬時に適応させるための非常に強力な手段である。このブロックは 、予測の結果(セグメントについての二 乗予測誤差の値)を非常に多数のモデルで、例えば動きフィールド基本関数のあ り得る全ての組み合わせで、容易に試験することができる。このスキームの強力 な利点は、動き推定のプロセスを反復する必要が無く、従って計算に関して単純 であることである。 動き推定に続いてQR動き分析を用いて、動きフィールド・コーダは、非常に 単純な線形方程式のシステムを解くことによりイメージ・セグメントの如何なる 所望の組み合わせ或いは該セグメントにおける動きフィールドの如何なる所望の モデルについても、新しい動き係数を見いだすことができる。 本システムを本発明の思想及び範囲から逸脱することなくいろいろな方法で実 施することができる。例えば、種々の線形動きモデルを式(3)に用いることが できる。種々の方法を用いて式(5)の項を線形化することができる。更に、2 つのセグメントを合併させるか否かを決めるために種々の基準を用いることがで きる。与えられた基本関数をモデルから除去するべきか否かを決めるための方針 は種々様々であって良い。種々のアルゴリズムを用いて式(10)及び(15) の行列の三角化を実行することができ、各線形方程式のシステムを解くためのい ろいろな公知のアルゴリズムを用いて式(18)を解いて最終の係数を計算する ことができる。最後に、非 に種々の補間方法を用いることができる。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),OA(BF,BJ,CF ,CG,CI,CM,GA,GN,ML,MR,NE, SN,TD,TG),AP(KE,LS,MW,SD,S Z,UG),EA(AM,AZ,BY,KG,KZ,MD ,RU,TJ,TM),AL,AM,AT,AU,AZ ,BB,BG,BR,BY,CA,CH,CN,CZ, DE,DK,EE,ES,FI,GB,GE,HU,I S,JP,KE,KG,KP,KR,KZ,LK,LR ,LS,LT,LU,LV,MD,MG,MK,MN, MW,MX,NO,NZ,PL,PT,RO,RU,S D,SE,SG,SI,SK,TJ,TM,TR,TT ,UA,UG,US,UZ,VN (72)発明者 カルツェビツ,マルタ フィンランド共和国,エフアイエヌ― 33720 タムペーレ,インシノーリンカツ 60セー146

Claims (1)

  1. 【特許請求の範囲】 1.ビデオ・データの動き補償エンコーディングを実行するためのエンコーダ において、 -ビデオ・フレームピクセルから成る場面の動き変位を記述する動きベクトル ・フィールド(ΔX,ΔY)を推定するための手段(2)と、 -前記動きベクトル・フィールドを表す動き係数(Ci)を得るための手段(3)と 、 -第一のビデオ・データフレームと前記動きベクトル・フィールドに基づいて ビデオ・データフレームを予測するための手段(1)と、 -前記予測されたビデオ・データフレーム及び第二のビデオ・データフレーム 入力に基づいて、予測誤差フレームを計算するための手段(6)と、 -前記動き係数と前記予測誤差フレームをデコーダへ伝送するための手段(4、8 )とを有し、 -動き係数を得るための前記手段(3)が、 -各フレームをセグメント(Si)に区分化するための手段と、 -基本関数fiの集合の係数(Ci)として前記動きベクトル・フィールドを近 似させることに起因する各セグメント中の歪みについて所定の尺度ΔEが(E c-y) の関数(ただし、cは前記動き係数Ciのベクトル)となるように、各セグメント について歪み行列Eと歪みベクトルを計算し、格納するための手段(41、42、45) と、 - det Q≠0かつ Q R=E となるように歪み行列Eを第一の行列Qと第二の行列Rに分解し、 Qのすべての列の前記集合の部分集合がEのすべての列ベクトルのすべての可能な 線形結合によって定義されたベクトル空間の基礎となり、Qの列が互いに直交と なるようにするための手段(31)と、 - z=Q-1y(Q-1はQの逆行列)に従って補助ベクトルzを計算するための手段(46 )と、 -各セグメントについて、追加列としてRとzから成る列を有する列拡張行列Aを 生成するための、及び、Rに起因するすべての列においてゼロに等しくない要素 を持つ行列Aのすべての行を選択するための手段(44、47)と、 -一つのセグメント(Si)の行列Aの前記選択行ともう一つのセグメント(Sj) の行列Aの前記選択行とから成る行拡張行列Bを生成するための手段(32)と、 -Rに起因する前記列中のゼロで満たされたできるだけ多くの行を持つ修正行列 B'を得るために、ゼロに等しくないスカラーで行列Bの行の一連の掛算を行い、 次いで行列Bの行の一連の加算を行うための手段(32)と を有する前記エンコーダ。 2.請求項1に記載のエンコーダにおいて、 -行列B'の要素の所定の関数として誤差値を計算するための手段(32)と、 -前記誤差値に基づいて前記一つのセグメント(Si)を前記もう一つのセグメン ト(Sj)と合併することを、前記フレームをセグメント(Si)に区分化するため に前記手段に命令する手段(32)と を有することを特徴とする前記エンコーダ。 3.請求項2に記載のエンコーダにおいて、 -誤差値を計算するための前記手段は、Rに起因する前記列中のゼロで満たされ たすべての行の前記修正行列B'のzに起因する前記 列の要素の関数として合併誤差を計算するようになっていることを特徴とする前 記エンコーダ。 4.請求項1乃至3のいずれか一項に記載のエンコーダにおいて、 -線形方程式D c=dの系を解くことによって各セグメントについて前記動き係数 Ciを計算し、出力するための手段(33)と、 -行列Aのすべての非選択行を除去し、次いで、zに起因する前記列を除去する ことによって得ることができる行列であり、かつ、前記セグメントが合併されて いないセグメントである場合には、dが前記非選択行の除去後zに起因するAの列 であるDと、 -Rに起因する前記列の中にゼロを持つ行列B'からすべての行を除去し、次いで 、zに起因する前記列を除去することによって得ることのできる行列であって、 かつ、前記セグメントが合併されたセグメントである場合には、Rに起因する前 記列にゼロを持つ前記行の除去後、zに起因するB'の前記列であるDと を有することを特徴とする前記エンコーダ。 5.請求項1乃至4のいずれか一項に記載のエンコーダにおいて、 -Eを分解するための前記手段(31)が、前記行列Qが直交行列となり、その直交 行列の列ベクトルqが、i=kについてqi qk=1を、i≠kについて0をそれぞれ 満たすように、Eを分解するようになっていて、 -前記補助ベクトルzを計算するための前記手段(46)が、行列Qの列ベクトルと 行ベクトルを交換することによってQ-1を計算するようになっていることを特徴 とする前記エンコーダ。 6.請求項5に記載のエンコーダにおいて、 -Eを分解するための前記手段(31、43)が三角行列として行列 Rを生成するようになっていることを特徴とする前記エンコーダ。 7.請求項1乃至6のいずれか一項に記載のエンコーダにおいて、 -誤差値を計算するための前記手段(32)が、Rに起因する列の中のゼロで満たさ れたすべての行の前記修正行列B'のzに起因する前記列の二乗要素の合計として 前記誤差値を計算するするようになっていることを特徴とする前記エンコーダ。 8.請求項1乃至7のいずれか一項に記載のエンコーダにおいて、 -前記歪み行列Eを計算し、格納するための前記手段(42)が勾配フィルタ(41)を 有し、前記予測フレームのテイラー級数展開の線形成分に基づき、また、前記基 本関数fiに基づいて、Eのj番目の行とk番目の列の前記要素ejkを計算するよ うになっていることを特徴とする前記エンコーダ。 9.請求項4に記載のエンコーダにおいて、 -基本関数fiの前記集合の変換に対応する前記動き係数について座標変換を 行い、前記セグメントの形状によって決定された領域に関して互いに直交してい る基本関数の集合に変えることによって前記動き係数を直交させるための手段と 、 -前記取得した直交動き係数を量子化し、コーディングするための手段と を有することを特徴とする前記エンコーダ。 10.ビデオ・データの動き補償エンコーディングを実行するためのエンコーダ において、 -ビデオ・フレームピクセルから成る場面の動き変位を記述する動きベクトル ・フィールド(ΔX、ΔY)を推定するための手段(2)と、 -前記動きベクトル・フィールドを表す動き係数(Ci)を得るための手段(3)と 、 -第一のビデオ・データフレームと前記動きベクトル・フィールドに基づいて ビデオ・データフレームを予測するための手段(1)と、 -前記予測されたビデオ・データフレーム及び第二のビデオ・データフレーム 入力に基づいて予測誤差フレームを計算するための手段(6)と、 -前記動き係数と前記予測誤差フレームをデコーダへ伝送するための手段(4、8 )とを有し、 -前記動き係数を得るための手段(3)が、 -各フレームをセグメントに区分化するための手段(31)と、 -基本関数fiの集合の係数(Ci)として前記動きベクトル・フィールドを表 すことにより、各セグメントの歪みを表す所定の尺度ΔEが(E c-y)の関数(但しc は前記動き係数Ciの列ベクトル)となるように、各セグメントについて歪み行 列Eと歪みベクトルyを計算し、格納するための手段(43)と、 - det Q≠0かつ Q R=E となるように歪み行列Eから第一の行列Qと第二の行列Rとを計算し、 Qのすべての列の前記集合の部分集合がEのすべての列ベクトルのすべての可能な 線形結合によって定義されたベクトル空間の基礎となり、Qの他のすべての列が 互いに直交となるようにするための手段と、 -Qの逆行列であるz=Q-1y、Q-1に従って補助ベクトルzを計算するための手段(4 6)と、 -各セグメントについて追加列としてRとzの列から成る列拡張行列Aを生成し、 Rに起因するすべての列の中にゼロに等しくない要素を持つ行列Aのすべての行か ら成る行列Bを得るための手段(44、47)と、 -前記係数(Ci)のj番目の係数に対応するRに起因するj番目の列を行列Bから 除去し、ゼロに等しくないスカラーを用いて前記結果として得られた行列の行の 一連の掛算を行い、次いで前記結果として得られた行列の行の一連の加算を行い 、Rに起因する列の中のゼロで満たされた行を持つ行列Cを得るための手段(33)と を有することを特徴とする前記エンコーダ。 11.請求項10に記載のエンコーダにおいて、 -行列Cの少なくとも一つの要素の所定の関数として誤差値を計算するための手 段(33)と、 -前記デコーダへ前記j番目の係数を伝送すべきかどうかを前記誤差値に基づい て判定するための手段(33)と を有することを特徴とする前記エンコーダ。 12.請求項11に記載のエンコーダにおいて、 -誤差値を計算するための前記手段(33)は、Rに起因する前記列の中のゼロで満 たされた行に位置し、zに起因する列に位置する行列の前記要素の所定の関数と して前記誤差値を計算するようになっていることを特徴とする前記エンコーダ。 13.請求項10乃至12のいずれか一項に記載のエンコーダにおいて、 -行列Cを得るための前記手段(33)が、行列Cが三角行列となるように前記掛算 と加算を行うようになっていることを特徴とする前記エンコーダ。 14.請求項10乃至13のいずれか一項に記載のエンコーダにおいて 、 -線形方程式D c=dの系を解くことによって、各セグメントについて前記デコー ダへ伝送する前記動き係数Ciを計算し、出力するための手段と、 -Rに起因する前記列の中のゼロで満たされた行を行列Cから除去し、次いで、z に起因する列を除去することによって得ることのできる行列であって、かつ、前 記行の除去後zに起因するCの列となるDを有することを特徴とする前記エンコー ダ。 15.請求項10乃至14のいずれか一項に記載のエンコーダにおいて、 -Eを分解するための前記手段(43)は、前記行列Qが直交行列の列ベクトルqがi= kについてQi qk=1かつi≠kについて0をそれぞれ満たすように、Eを分解す るようになっており、 -前記補助ベクトルzを計算するための前記手段(46)が行列Qの列ベクトルと行 ベクトルを交換することによってQ-1を計算するようになっていることを特徴と する前記エンコーダ。 16.請求項15に記載のエンコーダにおいて、 -Eを分解するための前記手段(43)が、三角行列として行列Rを生成するように なっていることを特徴とする前記エンコーダ。 17.請求項10乃至16のいずれか一項に記載のエンコーダにおいて、 -前記予測誤差行列Eを計算して格納するための前記手段(31)が勾配フィルタ(4 1)を有し、前記予測フレームのテイラー級数展開の線形成分に基づいて、また、 前記基本関数fiに基づいて、Eのj番目の行とk番目の列の前記要素ejkを計算 するようになっていることを特徴とする前記エンコーダ。 18.請求項1乃至17のいずれか一項に記載のエンコーダにおいて 、 -前記予測誤差フレーム(E)をデコードするための予測誤差デコーダ(5)と、 -前記予測されたビデオ・データフレームと前記デコードされた予測誤差フレ ームに基づいて、前記第一のビデオ・データフレームを計算するための手段(7) と を有することを特徴とする前記エンコーダ。 19.ビデオ・データを伝送又は格納するためのシステムにおいて、 請求項1乃至18のいずれか一項に記載のエンコーダを有し、動き補償エンコー ディングされたビデオ・データのデコーディングを実行するためのデコーダを有 し、 前記デコーダが、 -ビデオ・データフレームを格納するための手段と、 -前記ビデオ・データフレームに基づいて、また、前記エンコーダから受け取 った前記動き係数に基づいてビデオ・データフレームを予測するための手段と、 -前記エンコーダから受け取った予測誤差データをデコードし、予測誤差フレ ームを得るための手段と、 -前記予測されたビデオ・データフレームと前記デコードされた予測誤差フレ ームに基づいて更新されたビデオ・データフレームを計算し、出力し、次いで、 前記更新されたビデオ・データフレームを前記格納手段に格納するための手段と を有することを特徴とする前記システム。 20.ビデオ・データの動き補償エンコーディング方法において、 -ビデオ・フレームピクセルの場面の動き変位を記述する動きベクトル・フィ ールドを推定し、 -前記動きベクトル・フィールドを表す動き係数(Ci)を決定し、 -第一のビデオ・データフレームと前記動きベクトル・フィールドに基づいて ビデオ・データフレームを予測し、 -前記予測されたビデオ・データフレームと第二のビデオ・データフレーム入 力に基づいて予測誤差フレームを計算し、 -前記動き係数と前記予測誤差フレームをデコーダへ伝送するステップを有し 、 -動き係数を計算する前記ステップが、 -各フレームをセグメントに区分化し、 -基本関数fiの集合の係数(Ci)として前記動きベクトル・フィールドを近 似させることにより、各セグメントの歪みについて所定の尺度ΔEが(E c-y)の関 数(但しcは前記動き係数Ciの列ベクトル)となるように、各セグメントにつ いて歪み行列Eと歪みベクトルyを計算し、格納し、 - det Q≠0かつ Q R=E となるように歪み行列Eを第一の行列Qと第二の行列Rとに分解し、 Qのすべての列の前記集合の部分集合が、Eのすべての列ベクトルのすべての可能 な線形結合によって定義されたベクトル空間の基礎となり、Qの他のすべての列 が互いに直交しており、 -Qの逆行列であるz=Q-1y、Q-1に従って補助ベクトルzを計算し、 -各セグメントについて追加列としてRとzの列から成る列拡張行列Aを生成し、 Rに起因するすべての列の中のゼロに等しくない要素を持つ行列Aのすべての行を 選択し、 -一つのセグメントの行列Aの前記選択行と隣接するセグメントの行列Aの前記 選択行とから成る行拡張行列Bを生成し、 -Rに起因する前記列中のゼロで満たされたできるだけ多くの行を持つ修正行列 B'を得るために、ゼロに等しくないスカラーで行列Bの行の一連の掛算を行い、 次いで行列Bの行の一連の加算を行うことを特徴とする前記方法。 21.請求項20に記載の方法において、 -行列B'の要素の所定の関数として誤差値を計算し、 -前記誤差値に基づいて前記一つのセグメントを前記隣接するセグメントと合 併するかどうかを、前記フレームをセグメントに区分化するため前記手段に命令 する ことを特徴とする前記方法。 22.請求項21に記載の方法において、 -Rに起因する列の中のゼロで満たされたすべての行の前記修正行列B'のzに起 因する前記列の要素の関数としての合併誤差を前記誤差値として計算する ことを特徴とする前記方法。 23.ビデオ・データの動き補償エンコーディングを実行する方法において、 -ビデオ・フレームピクセルの場面の動き変位を記述する動きベクトル・フィ ールドを推定し、 -前記動きベクトル・フィールドを表す動き係数(Ci)を決定し、 -第一のビデオ・データフレームと前記動きベクトル・フィールドに基づいて ビデオ・データフレームを予測し、 -前記予測されたビデオ・データフレーム(P)と第二のビデオ・データフレーム 入力に基づいて予測誤差フレームを計算し、 -前記動き係数と前記予測誤差フレームをデコーダへ伝送することを含み、 -動き係数を計算する前記ステップが、 -各フレームをセグメントに区分化し、 -基本関数fiの集合の係数(Ci)として前記動きベクトル・フィールドを表 現した結果、各セグメントの歪みについて所定の尺度ΔEが(E c-y)の関数(但しc は前記動き係数Ciの列ベクトル)となるように、各セグメントについて予測行 列Eと歪みベクトルyを計算して格納し、 - det Q≠0かつ Q R=E となるように歪み行列Eから第一の行列Qと第二の行列Rとを計算し、 Qのすべての列の前記集合の部分集合が、Eのすべての列ベクトルのすべての可能 な線形結合によって定義されたベクトル空間の基礎となり、Qの他のすべての列 が前記ベクトル空間に直交するようにし、 -Qの逆行列であるz=Q-1y、Q-1に従って補助ベクトルzを計算し、 -各セグメントについて追加列としてRとzの列から成る列拡張行列Aを生成し、 Rに起因するすべての列の中のゼロに等しくない要素を持つ行列Aのすべての行か ら成る行列Bを取得し、 -前記係数(Ci)のj番目の係数に対応するRに起因するj番目の列を行列Bから 除去し、ゼロに等しくないスカラーを用いて前記結果として得られた行列の行の 一連の掛算を行い、次いで前記結果として得られた行列の行の一連の加算を行い 、Rに起因する列の中のゼロで満たされた行を持つ行列Cを得る ことを特徴とする前記方法。 24.請求項23に記載の方法において、 -行列Cの少なくとも一つの要素の所定の関数として誤差値を計算し、 -前記デコーダへ前記j番目の係数を伝送すべきかどうかを前記誤差値に基づい て判定することを特徴とする前記方法。 25.請求項24に記載の方法において、 -Rに起因する前記列の中のゼロで満たされた行に位置し、zに起因する列に位 置する行列C中の要素の所定の関数として前記誤差値を計算することを特徴とす る前記方法。 26.ビデオ・エンコーダにおいて、 コーディングされた動きベクトル・フィールドを生成し、前記動き係数の数を 最小化するための、カレントフレーム(In)、基準フレ ィールドエンコーダ(3)を有し、前記動きフィールドエンコーダ(3)が、 -カレントビデオ・フレーム(In)のセグメント(Si)と予測フレームのセグメン トとの間の2乗誤差関数を線形化するための線形化手段(41、42、45)と、前記セ グメントの前記動きベクトル・フィールドの新しい表現である、第一の行列Ri1 と第一のベクトルz1iを形成するための行列処理手段(43、44、46、47)とを含 む第一のメインブロック(31)と、 -前記第一のメインブロック(31)と接続した第二のメインブロック(32)であっ て、共通の動きフィールドを用いて前記結合された領域が予測できる場合には、 前記第二のメインブロック(32)はセグメント(Si、Sj)の合併対を形成するた めの合併手段を含み、各々の合併されたセグメントについて、第一の合併された 行列R1ijと第 二の合併されたベクトルz1ijを出力する前記第二のメインブロック(32)と、 -前記第二のメインブロック(32)と接続した第三のメインブロック(33)であっ て、前記二乗予測誤差の変化が許容できなくなるまで前記セグメントの動き係数 (Ci)を除去するための係数除去手段を含む前記第三のメインブロックと、 を有し、 -前記出力されコーディングされた動きベクトル・フィールドにおいて、各々 の動きベクトルが基本関数と動き係数を有する直線運動に基づいている ことを特徴とする前記ビデオ・エンコーダ。 27.請求項26に記載のビデオ・エンコーダにおいて、線形化手段が次式 (ただし、Ciは動き係数で、N+Mは利用可能な動きフィールドモデル基本関数 の数である) に従って二乗予測誤差をある形に変換することを特徴とする前記ビデオ・エンコ ーダ。 28.請求項26に記載のビデオ・エンコーダにおいて、 前記行列処理手段が、行列 (N+Mは、前記動きフィールドモデルの利用可能な基本関数の数、P は、セグメントiのピクセル数) を構成するための手段を含むことを特徴とする前記ビデオ・エンコーダ。 29.請求項28に記載のビデオ・エンコーダにおいて、 前記行列処理手段がさらに、行列Qiと行列Riの積に前記行列Eiを分解し て、式zi=QTiyiの補助ベクトルziを形成し、行列RiのN+Mの第一の行か ら成る第一の行列Ri1を出力するためのQR因数分解手段を含み、第一のベクト ルz1iがziの第一のN+M要素から成る ことを特徴とする前記ビデオ・エンコーダ。 30.請求項26に記載のビデオ・エンコーダにおいて、 前記合併手段が、前記線形方程式 の三角化のための手段を含み、 R1i、z1i及びR1j、z1jが、前記第一のメインブロックセグメントSi及びSj によって という形にそれぞれ生成される ことを特徴とする前記ビデオ・エンコーダ。 31.請求項30に記載のビデオ・エンコーダにおいて、 前記合併手段がさらに、以下の式 に従ってセグメントSiとSjの合併によって生じる領域Sijにおける前記二乗 予測誤差ΔEijの変化を計算するための手段を含み、 前記二乗予測誤差の変化が所定の基準に従って許容できる場合には、前記セグ メントが合併されることを特徴とする前記ビデオ・エンコーダ。 32.請求項30に記載のビデオ・エンコーダにおいて、 -前記合併手段がさらに、前記三角化された行列式の第一のN+M行をとることに よって前記結果として得られる合併されたセグメントSijについて行列R1ijと ベクトルz1ijを組立てるための手段を含み、前記行列R1ijとベクトルが以下の式によって記述され、前記行列及びベクトルが第二のメインブロックから出力され ることを特徴とする前記ビデオ・エンコーダ。 33.請求項26に記載のビデオ・エンコーダにおいて、前記フレームの合併され た区分化の再構成を可能にする情報をデコーダへ送る ための手段を有することを特徴とする前記ビデオ・エンコーダ。 34.請求項26に記載のビデオ・エンコーダにおいて、前記係数除去手段が、行 列R1kからi番目の列を、前記ベクトルCkからi番目の要素を除去することによっ て行列式R1kCk=z1kを変形するための手段を含むことを特徴とする前記ビデオ・ エンコーダ。 35.請求項34に記載のビデオ・エンコーダにおいて、 前記係数除去手段がさらに、前記変形された行列式を三角化して、 の形にするための手段と、q2iの関数としてi番目の列とi番目の要素の除去によ って生じる前記二乗予測誤差の変化を計算するための手段とを含む ことを特徴とする前記ビデオ・エンコーダ。 36.請求項35に記載のビデオ・エンコーダにおいて、前記係数除去手段がさら に、前記予測誤差の変化をある選ばれた基準と比較するための手段を含むことを 特徴とする前記ビデオ・エンコーダ。 37.請求項36に記載のビデオ・エンコーダにおいて、 前記係数除去手段がさらに、予測誤差の前記変化が許容できる場合には、前記 係数行列から前記動き係数Ciを除去するための手段と、前記三角化された行列 から最下行を除去することによって修正行列R1kと修正ベクトルz1kを形成するた めの手段とを含み、前記修正行列と修正ベクトルが前記係数除去手段に対して適 用される ことを特徴とする前記ビデオ・エンコーダ。 38.請求項36に記載のビデオ・エンコーダにおいて、 前記係数除去手段がさらに、予測誤差の前記更なる変化が許容できない場合に は、線形方程式R1kCk=z1kの前記系を解くことによって前記セグメントについて 最終動き係数を計算するための手段を含むことを特徴とする前記ビデオ・エンコ ーダ。 39.動き補償エンコーディングされたビデオ・データをデコードするためのデ コーダにおいて、 -ビデオ・データフレームを格納するための手段と、 前記格納されたビデオ・データフレームと受け取った動き情報に基づいてビデ オ・データフレームを予測するための手段と、 -受け取った予測誤差データをデコードし、予測誤差フレームを得るための手 段と、 -前記予測されたビデオ・データフレームと前記デコードされた予測誤差フレ ームに基づいて更新されたビデオ・データフレームを計算して出力し、前記更新 されたビデオ・データフレームを前記格納手段に格納するための手段と を有し、 -ビデオ・データフレームを予測するための前記手段が、 -以下のデータ、すなわち、前記更新されたビデオ・データフレームをセグメ ント(Si)に区分化することに関するデータ、動きフィールドモデル基本関数の 集合の中からの基本関数の選択に関するデータ及び、選択された基本関数の係数 に関するデータの中の少なくとも2つのデータに受け取った動きデータを分離( demultiplex)するための手段(11)と、 -前記選択された基本関数と係数の線形結合から各セグメント(Si)の中の前記 動きベクトル・フィールドを再構成するための手段 (13)と、 -前記再構成された動きベクトル・フィールドに基づいて、また、前記格納さ れたビデオ・データフレームに基づいて前記予測フレームを計算するための手段 と を有することを特徴とする前記デコーダ。 40.請求項39に記載のデコーダにおいて、 -前記動きベクトル・フィールドを再構成するための前記手段(13)が、前記更 新されたビデオ・データフレームの各セグメント(Si)について、基本関数の前 記集合の各構成要素の構造に関するデータを受け取るようになっていることを特 徴とする前記デコーダ。 41.請求項39又は40に記載のデコーダにおいて、 前記動きベクトル・フィールドを再構成するための前記手段(13)が、前記セグ メント(Si)の形状によって決定される領域に関して互いに直交している各セグ メント(Si)について、動きフィールドモデル基本関数の前記集合を計算するよ うになっていることを特徴とする前記デコーダ。 42.請求項1乃至18及び26乃至38のいずれか一項に記載のエンコーダを有し、 請求項39乃至41のいずれか一項に記載のデコーダを有することを特徴とするビデ オ・データ伝送システム。 43.請求項1乃至18及び26乃至38のいずれか一項に記載のエンコーダを有し、 請求項39乃至41のいずれか一項に記載のデコーダを有することを特徴とするビデ オ・データ格納システム。
JP51610597A 1996-04-19 1996-04-19 動きに基づく分割及び合併を用いたビデオ・エンコーダ及びデコーダ Expired - Fee Related JP3790804B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP1996/001644 WO1997040628A1 (en) 1996-04-19 1996-04-19 Video encoder and decoder using motion-based segmentation and merging

Publications (2)

Publication Number Publication Date
JP2000508127A true JP2000508127A (ja) 2000-06-27
JP3790804B2 JP3790804B2 (ja) 2006-06-28

Family

ID=8166203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP51610597A Expired - Fee Related JP3790804B2 (ja) 1996-04-19 1996-04-19 動きに基づく分割及び合併を用いたビデオ・エンコーダ及びデコーダ

Country Status (8)

Country Link
US (1) US6212235B1 (ja)
EP (1) EP0894403B1 (ja)
JP (1) JP3790804B2 (ja)
AT (1) ATE223135T1 (ja)
AU (1) AU5501296A (ja)
DE (1) DE69623342T2 (ja)
ES (1) ES2182972T3 (ja)
WO (1) WO1997040628A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003506978A (ja) * 1999-08-11 2003-02-18 ノキア コーポレイション 運動ベクトルフィールドを圧縮するための装置及び方法
JP2009509418A (ja) * 2005-09-16 2009-03-05 ソニー エレクトロニクス インク 時間予測のための分類フィルタリング

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6633611B2 (en) * 1997-04-24 2003-10-14 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for region-based moving image encoding and decoding
GB2343319B (en) * 1998-10-27 2003-02-26 Nokia Mobile Phones Ltd Video coding
JP2000197054A (ja) * 1998-12-24 2000-07-14 Hudson Soft Co Ltd 動画像符号方法及びそのプログラムを記録した記録媒体並びに装置
FR2795589B1 (fr) * 1999-06-11 2001-10-05 Centre Nat Rech Scient Decodeur video optimal base sur les standards de type mpeg
WO2001011892A1 (en) * 1999-08-11 2001-02-15 Nokia Corporation Adaptive motion vector field coding
US6738423B1 (en) 2000-01-21 2004-05-18 Nokia Mobile Phones Ltd. Method for encoding and decoding video information, a motion compensated video encoder and a corresponding decoder
CN1193620C (zh) * 2000-01-21 2005-03-16 诺基亚有限公司 视频编码器的运动估计方法及系统
US20020122491A1 (en) * 2001-01-03 2002-09-05 Marta Karczewicz Video decoder architecture and method for using same
US6765963B2 (en) * 2001-01-03 2004-07-20 Nokia Corporation Video decoder architecture and method for using same
US6870962B2 (en) * 2001-04-30 2005-03-22 The Salk Institute For Biological Studies Method and apparatus for efficiently encoding chromatic images using non-orthogonal basis functions
WO2002104005A1 (en) * 2001-06-18 2002-12-27 Koninklijke Philips Electronics N.V. Anti motion blur display
FI111592B (fi) * 2001-09-06 2003-08-15 Oulun Yliopisto Menetelmä ja laite peräkkäisten kuvien koodaamiseksi
US7693220B2 (en) * 2002-01-03 2010-04-06 Nokia Corporation Transmission of video information
US7023923B2 (en) * 2002-04-29 2006-04-04 Koninklijke Philips Electronics N.V. Motion compensated temporal filtering based on multiple reference frames for wavelet based coding
US20030202599A1 (en) * 2002-04-29 2003-10-30 Koninklijke Philips Electronics N.V. Scalable wavelet based coding using motion compensated temporal filtering based on multiple reference frames
US7042946B2 (en) * 2002-04-29 2006-05-09 Koninklijke Philips Electronics N.V. Wavelet based coding using motion compensated filtering based on both single and multiple reference frames
US20030231795A1 (en) * 2002-06-12 2003-12-18 Nokia Corporation Spatial prediction based intra-coding
US7289674B2 (en) * 2002-06-11 2007-10-30 Nokia Corporation Spatial prediction based intra coding
US20040008785A1 (en) * 2002-07-15 2004-01-15 Koninklijke Philips Electronics N.V. L-frames with both filtered and unfilterd regions for motion comensated temporal filtering in wavelet based coding
US20040091047A1 (en) 2002-11-11 2004-05-13 Sony Corporation Method and apparatus for nonlinear multiple motion model and moving boundary extraction
US7782940B2 (en) * 2003-08-01 2010-08-24 Polycom, Inc. Methods for encoding or decoding in a videoconference system to reduce problems associated with noisy image acquisition
US7817869B2 (en) * 2004-05-07 2010-10-19 Sony Corporation Variable support robust transform for multiple description coding
US8503530B2 (en) * 2004-05-27 2013-08-06 Zhourong Miao Temporal classified filtering for video compression
CN1332360C (zh) * 2004-10-26 2007-08-15 中国科学院计算技术研究所 一种用计算机创建三维运动的方法
KR20070090207A (ko) * 2004-11-22 2007-09-05 코닌클리케 필립스 일렉트로닉스 엔.브이. 커버링 및 언커버링을 처리하는 모션 벡터 필드 투영
US20070064805A1 (en) * 2005-09-16 2007-03-22 Sony Corporation Motion vector selection
US7894527B2 (en) * 2005-09-16 2011-02-22 Sony Corporation Multi-stage linked process for adaptive motion vector sampling in video compression
US8005308B2 (en) * 2005-09-16 2011-08-23 Sony Corporation Adaptive motion estimation for temporal prediction filter over irregular motion vector samples
US8107748B2 (en) * 2005-09-16 2012-01-31 Sony Corporation Adaptive motion search range
US8059719B2 (en) * 2005-09-16 2011-11-15 Sony Corporation Adaptive area of influence filter
US7620108B2 (en) * 2005-09-16 2009-11-17 Sony Corporation Integrated spatial-temporal prediction
US7885335B2 (en) * 2005-09-16 2011-02-08 Sont Corporation Variable shape motion estimation in video sequence
US8165205B2 (en) * 2005-09-16 2012-04-24 Sony Corporation Natural shaped regions for motion compensation
US7596243B2 (en) * 2005-09-16 2009-09-29 Sony Corporation Extracting a moving object boundary
US7957466B2 (en) * 2005-09-16 2011-06-07 Sony Corporation Adaptive area of influence filter for moving object boundaries
US10194175B2 (en) 2007-02-23 2019-01-29 Xylon Llc Video coding with embedded motion
US8218811B2 (en) 2007-09-28 2012-07-10 Uti Limited Partnership Method and system for video interaction based on motion swarms
US8879631B2 (en) * 2007-11-30 2014-11-04 Dolby Laboratories Licensing Corporation Temporally smoothing a motion estimate
US8055087B2 (en) * 2008-04-29 2011-11-08 Sony Corporation Sample level variation for spatial sub-sampled images
US8059909B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive generation of irregular spatial sub-sampling for images
US8059908B2 (en) * 2008-04-29 2011-11-15 Sony Corporation Adaptive area of influence filter for irregular spatial sub-sampled images
JP5335574B2 (ja) * 2009-06-18 2013-11-06 キヤノン株式会社 画像処理装置及びその制御方法
FR2947134A1 (fr) * 2009-06-23 2010-12-24 France Telecom Procedes de codage et de decodages d'images, dispositifs de codage et de decodage, flux de donnees et programme d'ordinateur correspondants.
US9532059B2 (en) 2010-10-05 2016-12-27 Google Technology Holdings LLC Method and apparatus for spatial scalability for video coding
US8989256B2 (en) * 2011-05-25 2015-03-24 Google Inc. Method and apparatus for using segmentation-based coding of prediction information
US20130083845A1 (en) 2011-09-30 2013-04-04 Research In Motion Limited Methods and devices for data compression using a non-uniform reconstruction space
JP5871628B2 (ja) * 2011-11-07 2016-03-01 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP2013102297A (ja) * 2011-11-07 2013-05-23 Canon Inc 画像符号化方法、画像符号化装置及びプログラム、画像復号方法、画像復号装置及びプログラム
EP2595382B1 (en) 2011-11-21 2019-01-09 BlackBerry Limited Methods and devices for encoding and decoding transform domain filters
US9247257B1 (en) 2011-11-30 2016-01-26 Google Inc. Segmentation based entropy encoding and decoding
US8947449B1 (en) 2012-02-21 2015-02-03 Google Inc. Color space conversion between semi-planar YUV and planar YUV formats
US9094681B1 (en) 2012-02-28 2015-07-28 Google Inc. Adaptive segmentation
US9380298B1 (en) 2012-08-10 2016-06-28 Google Inc. Object-based intra-prediction
US9438910B1 (en) 2014-03-11 2016-09-06 Google Inc. Affine motion prediction in video coding
US10462482B2 (en) 2017-01-31 2019-10-29 Google Llc Multi-reference compound prediction of a block using a mask mode
WO2018209067A1 (en) * 2017-05-11 2018-11-15 Vid Scale, Inc. Higher-order motion models and graduated motion parameter estimation for video coding
US11245921B2 (en) 2017-06-26 2022-02-08 Interdigital Vc Holdings, Inc. Multiple predictor candidates for motion compensation
US11962782B2 (en) 2018-01-29 2024-04-16 Interdigital Vc Holdings, Inc. Encoding and decoding with refinement of the reconstructed picture
CN111881981A (zh) * 2020-07-29 2020-11-03 苏州科本信息技术有限公司 一种基于掩膜编码的单阶段实例分割方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2624997B1 (fr) * 1987-12-16 1990-06-01 France Etat Procede d'estimation multi predictif du mouvement des points d'une image electronique
JP2830883B2 (ja) * 1991-10-31 1998-12-02 日本ビクター株式会社 動画像符号化装置及びその復号装置
JP3068304B2 (ja) 1992-01-21 2000-07-24 日本電気株式会社 動画像符号化方式および復号化方式
DE69416717T2 (de) * 1993-05-21 1999-10-07 Nippon Telegraph & Telephone Bewegtbildkoder und -dekoder
JP2870415B2 (ja) * 1994-08-22 1999-03-17 日本電気株式会社 領域分割方法および装置
US5550847A (en) * 1994-10-11 1996-08-27 Motorola, Inc. Device and method of signal loss recovery for realtime and/or interactive communications
US5627905A (en) * 1994-12-12 1997-05-06 Lockheed Martin Tactical Defense Systems Optical flow detection system
JP3612360B2 (ja) * 1995-04-10 2005-01-19 株式会社大宇エレクトロニクス 移動物体分割法を用いた動画像の動き推定方法
US5654771A (en) * 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
US5982909A (en) * 1996-04-23 1999-11-09 Eastman Kodak Company Method for region tracking in an image sequence using a two-dimensional mesh

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003506978A (ja) * 1999-08-11 2003-02-18 ノキア コーポレイション 運動ベクトルフィールドを圧縮するための装置及び方法
US8411757B2 (en) 1999-08-11 2013-04-02 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
JP2009509418A (ja) * 2005-09-16 2009-03-05 ソニー エレクトロニクス インク 時間予測のための分類フィルタリング

Also Published As

Publication number Publication date
ATE223135T1 (de) 2002-09-15
WO1997040628A1 (en) 1997-10-30
US6212235B1 (en) 2001-04-03
DE69623342T2 (de) 2003-04-17
JP3790804B2 (ja) 2006-06-28
ES2182972T3 (es) 2003-03-16
EP0894403A1 (en) 1999-02-03
EP0894403B1 (en) 2002-08-28
DE69623342D1 (de) 2002-10-02
AU5501296A (en) 1997-11-12

Similar Documents

Publication Publication Date Title
JP2000508127A (ja) 動きに基づく分割及び合併を用いたビデオ・エンコーダ及びデコーダ
JP3781194B2 (ja) 動きベクトルフィールド符号化
JP4966669B2 (ja) マッチング追跡を用いたデータ圧縮
US6711209B1 (en) Adaptive motion vector field coding
EP1228645B1 (en) Adaptive motion vector field coding
EP1127458B1 (en) Video coding using motion compensation and cholesky factorization
US11134242B2 (en) Adaptive prediction of coefficients of a video block
JPH07288474A (ja) ベクトル量子化符号化装置と復号化装置
KR20220070326A (ko) 비디오 코딩을 위한 변형 가능한 콘볼루션에 의한 예측 프레임 생성
US20020131500A1 (en) Method for determining a motion vector for a video signal
EP2552115A1 (en) A method for coding a sequence of digital images
RU2487489C2 (ru) Способ поиска векторов перемещений в динамических изображениях
KR101331052B1 (ko) 스테레오 매칭 결과를 개선하는 장치, 상기 장치를 이용한 스테레오 매칭 결과를 개선 방법 및 스테레오 매칭 결과를 수신하는 시스템
JP5043849B2 (ja) ビデオシーケンスにおける可変形状動き推定
Ukrit et al. Super-Spatial Structure Prediction Compression of Medical
KR100400962B1 (ko) 영상데이터를모션보상인코딩하는인코더와그방법및영상데이터를디코딩하는디코더
JP4594561B2 (ja) 符号化装置及び符号化プログラム
JP2870626B2 (ja) 画像圧縮装置
JP3911784B2 (ja) 画像圧縮装置及び画像圧縮方法
Kalker et al. Projection methods in motion estimation and compensation
van der Lem Implementation of realtime video compression, conform the MPEG standard, using a Transport Triggered Architecture
Cho et al. Object-based very low bit-rate coding using motion parameter estimation based on multiple frame prediction
WO1997017808A1 (en) Motion compensation of image sequences
Ali et al. Performance comparison of motion estimation algorithms on digital video images
Pampattiwar et al. Performance Analysis Of Predictive Motion Field Segmentation And Overlapped Block Matching For Video Compression

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060309

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20060309

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090414

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110414

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees