JP2008521324A - カバーリング及びアンカバーリングを扱う動きベクトル場の投影 - Google Patents

カバーリング及びアンカバーリングを扱う動きベクトル場の投影 Download PDF

Info

Publication number
JP2008521324A
JP2008521324A JP2007542424A JP2007542424A JP2008521324A JP 2008521324 A JP2008521324 A JP 2008521324A JP 2007542424 A JP2007542424 A JP 2007542424A JP 2007542424 A JP2007542424 A JP 2007542424A JP 2008521324 A JP2008521324 A JP 2008521324A
Authority
JP
Japan
Prior art keywords
motion vector
foreground
vector field
motion
video picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007542424A
Other languages
English (en)
Inventor
フネウィーク,レイニール ベー エム クレイン
ウィッテブロード,リメルト
ブラスペニング,ラルフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2008521324A publication Critical patent/JP2008521324A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/521Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

高効率のビデオ信号圧縮方法は、以下のステップを含む。(a)第二のビデオピクチャ123と第三のビデオピクチャ125の画素データを使用することで、第三のビデオピクチャの時間的な位置t3での第一の動きベクトル場Mv1を計算するステップ。(b)第二のビデオピクチャの時間的な位置t2での第二の動きベクトル場Mv2を計算するステップ。第二の動きベクトル場では、フォアグランドのオブジェクトの動きに実質的に等しい振幅を有する、フォアグランドの動きベクトルの位置から構成されるフォアグランドの動き領域rFG2は、バックグランドのオブジェクト103,103’の画素ではなく、フォアグランドのオブジェクト101の画素の位置と空間的に連結する。(c)第二の動きベクトル場に基づいて第一の動きベクトル場のアンカバーリング領域における誤ったフォアグランドの動きベクトルrERRを訂正するステップ。(d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域COVにおいて、将来のピクチャにおける同じ空間的な位置に投影している2つのベクトルのうちのどちらがフォアグランドの動きベクトルvFGであり、バックグランドの動きベクトルvBGであるかを判定するステップ。(e)第一の動きベクトル場の動きベクトルを予測されるべき第四のビデオピクチャの時間的な位置に投影し、第三の動きベクトル場における同じ空間位置に投影する2つのベクトルのケースでフォアグランドの動きベクトルを割り当てることを含めて、第三の動きベクトル場を取得するステップ。(f)少なくとも1つの前の画像から取り出されるべき画素の位置を決定するために第三の動きベクトル場を使用することで第四のビデオピクチャを予測するステップ。

Description

本発明は、ビデオ圧縮の方法及び装置、ビデオ伸張の方法及び装置、係る方法を実現するソフトウェア、及びデジタルテレビジョンユニット、ビデオシグナルレコーダ、並びに、ビデオ圧縮及び/又は伸張装置を有するポータブルビデオ装置に関する。
ビデオ圧縮における探求は、ピクチャの系列を忠実に(すなわち、できるだけ少ない目に見えるアーチファクトで)表現するため、これまでにない少量のビット数を有することである。MPEG-2及びAVC(Advanced Video Coding)のような現在のビデオ圧縮規格は、グループオブピクチャをエンコードするために動き予測を使用する。グループオブピクチャは、いわゆるそれ自身のコンテンツに基づいてのみエンコードされるイントラコード(I)ピクチャで始まり、IピクチャのオブジェクトがP又はBピクチャにおいて何処にあるかに関する動き予測に基づいて再生される予測(P,B)ピクチャが続き、さらに訂正ピクチャ(いわゆる残余)が続く。動き予測は、予測されるべきピクチャの時間的な瞬間の動きベクトル場を計算/送信し、過去からのオブジェクトの画素を取り出すことで典型的に行われる。このように、予測されるべきピクチャのそれぞれの画素は、ある値が割り当てられることが保証される。予測されるべきピクチャに前のピクチャの画素を投影することも考えられるが、これは、予測されるピクチャにおいて二重の割り当てられていない画素領域の問題を導入するために好適ではない。
圧縮されたビデオストリームでは、画素データを符号化するために必要とされるビットの所定量(すなわちイントラ符号化ピクチャ及び画素残余)及び予測のために必要とされる動きベクトル場を符号化するための量が存在する。過去において、画素に必要されるビット量を低減する様々な方策(たとえば量子化の適応化)が開発されているが、動きベクトルに必要とされるビットのパーセンテージは、特に低いビットレートのアプリケーションについて全体的に大量であり、したがって幾つかの圧縮は、動きベクトルについても達成される。
従来技術の圧縮方法(たとえばMPEG−2)の問題点は、動きベクトル場において、非常にシンプルな動きベクトルの予測を使用し、あるブロックの動きベクトルは、その左隣に比較して異なって符号化される(すなわち左ベクトルが16画素/フレームの振幅を有し、右のベクトルは18画素/フレームを有する場合、この右のベクトルは2という圧縮された差分の値を有し、その実際の値よりも少ないビットを必要とする)。このいわゆる「差分のパルスコード変調」は旧式であり、非常に効率的な方策ではない。
本発明の目的は、比較的効率の高いビデオ圧縮及び伸張の方法を提供することにあり、特に、動きベクトルを符号化する低減されたビット数を可能にするストラテジを有する。
上記目的は、本方法が以下のステップを有する点で実現される。(a)第二のビデオピクチャと第三のビデオピクチャの画素データを使用することで、第三のビデオピクチャの時間的な位置での第一の動きベクトル場(Mv1)を計算するステップ。(b)第二のビデオピクチャの時間的な位置での第二の動きベクトル場(Mv2)を計算するステップ。第二の動きベクトル場では、フォアグランドのオブジェクトの動きに実質的に等しい振幅を有する、フォアグランドの動きベクトルの位置から構成されるフォアグランドの動き領域(rFG2)は、バックグランドのオブジェクトの画素ではなく、フォアグランドのオブジェクト(101)の画素の位置と空間的に連結する。(c)第二の動きベクトル場に基づいて第一の動きベクトル場における誤ったフォアグランドの動きベクトル(rERR)を訂正するステップ。(d)フォアグランドのオブジェクトによるバックグランドのオブジェクトピクセルのカバーリングに対応する第一の動きベクトル場の領域において、将来のピクチャにおける同じ空間的な位置に投影している2つのベクトルのうちのどちらがフォアグランドの動きベクトルであり、バックグランドの動きベクトルであるかを判定するステップ。(e)第一の動きベクトル場の動きベクトルを予測されるべき第四のビデオピクチャの時間的な位置に投影し、第三の動きベクトル場における同じ空間位置に投影する2つのベクトルのケースでフォアグランドの動きベクトルを割り当てることを含めて、第三の動きベクトル場を取得するステップ。(f)少なくとも1つの前の画像から取り出されるべき画素の位置を決定するために第三の動きベクトル場を使用することで第四のビデオピクチャを予測するステップ。
最初の5つのステップは、ピクチャ予測の動きベクトル場の予測部分を形成する。動きベクトル符号化に割り当てられるビット数を低減することを望む場合、予測される全ての情報について、データが圧縮/送信される必要がないか、又は僅かであるため、レシーバ/デコンプレッサが動きベクトルを予測するのを可能にするアルゴリズムを使用することができる。しかし、動きベクトルの予測が正確であるべきであり、さもなければ、予測されるべきピクチャの画素の予測は誤りであり、深刻なアーチファクトとなるか、又は大量の訂正データとなる。この出願では、動きベクトル場を外挿(extrapolation)することが提案される。既に伸張されたピクチャのベクトル場は、動き予測によりレシーバ/デコンプレッササイドで計算することができる。ピクチャの予測(過去からの取り出し)に必要とされるベクトル場は、少なくとも古典的な2ピクチャの動き予測器によっては、シンプルに計算することができず、これは、それ自身で予測されるべきピクチャのデコンプレッサでの存在を必要とするためである。しかし、動きベクトル場は外挿することができ、オブジェクトの動きベクトルがオブジェクト自信と共に将来に移動する可能性がある。コンプレッサは、「ミラーアルゴリズム」により、どのデコンプレッサが予測するもの(動きベクトル場及び結果的に得られる予測されたピクチャ)を予測し、圧縮の品質の使用に従って要求されるものが訂正残余を計算し、送信する場所を予測することができる。予測される動きベクトル場は、(数ビットを必要とする典型的に小さな訂正の動きベクトルを含み、本方法では、分離された閉塞[カバーリング(covering)/アンカバーリング(uncovering)]領域について大部分)送信された訂正の動きベクトル場でファインチューニングされるか、動きベクトルの訂正が送信されず、結果的に得られるピクチャの予測誤差は、より高いビット量の残余ピクチャで全体的に訂正される。
第一の動きベクトル場を得るために2つの最後に伸張されたビデオピクチャに関して(たとえばフルサーチ又はオプティックフローといった)古典的な動き予測を使用することは、得られたベクトル場が良好な品質のベクトル場の外挿について誤っているので、問題を提起する。特にアンカバーリングの領域では、動きベクトルは誤って予測される。しかし、前のピクチャからの情報を使用することで、誤った第一のベクトル場を訂正することができる。たとえば、3つの最後に伸張されたピクチャの3つのピクチャの動き予測器が考案され、この予測器は、全てのフォアグランドのオブジェクトに正確に一致するベクトルを有する(特に、たとえば“3DRS”動き予測器を使用するとき、ベクトルの振幅は、何処でもオブジェクト[アキュレート]の真の動きの非常に近くにあり、すなわちスプリアスベクトルを生じないが、良好に整合する、一貫した、正確なベクトル場が得られる)。特に、バックグランドの画素に割り当てられるフォアグランドの動きベクトルを示さない。勿論、これは、動き予測の精度内での二次作用にまで実質的に当てはまる。たとえば動きベクトルが16×16画素ブロックについて計算される場合、典型的に、ベクトル場が、フォアグランドのオブジェクトと大部分が連結しているブロックにおける幾つかのバックグランドの画素にオーバフローする。
かかる正確に整合する第二の動きベクトル場を有することは、第一の動きベクトル場が良好に整合することとなるように訂正することができることを意味する。たとえば、フォアグランドの動きとバックグランドの動きとの間の境界は、第二の動きベクトル場で決定することができ、それらのロケーションは、第一の動きベクトル場に投影することができ、このベクトル場に正しく配置された境界が与えられる。
正確に整合する第一の動きベクトル場を有することで、ピクチャの系列の新たなピクチャを最終的に予測するため、2つのストラテジが可能となる(これら2つのストラテジについて、更なる変更においてのみ異なるものであって、本発明の単一性を有する)。画素の取り出しのための第三のベクトル場は、訂正された第一の動きベクトル場を外挿することで決定することができるか、又は、以下に記載されるように、画素は、将来それら自身に外挿することができ、そのケースでは、第三のベクトル場が必要とされない。
何れのケースにおいても、更なるステップが外挿を実行するために必要とされる。すなわち、はじめに、二重の割り当てにつながるカバーリング領域が存在し、正しい(フォアグランド)ベクトル又は投影すべき画素が識別される。第二に、予測されるべきピクチャ/ベクトル場において割り当てられていない領域が存在し、たとえば補間といった、ある種の更なる予測が必要とされるか、または、たとえばピクチャの残余のみで訂正される。
本方法の実施の形態では、第二の動きベクトル場の計算は、たとえば、3つのピクチャの動き予測器により、第三のビデオピクチャ、第二のビデオピクチャ及び第一のビデオピクチャに基づいて行われる。
先の実施の形態の別の実施の形態又は更なる変更では、第一の動きベクトルにおける誤ったフォアグランドの動きベクトルの訂正は、以下のステップを含む。第二の動きベクトル場(Mv2)におけるアンカバーリング領域を検出するステップ。第一の動きベクトル場(Mv1)における誤った動きベクトルの領域(rERR)をこのアンカバーリング領域に基づいて導出するステップ。誤った動きベクトルの領域(rERR)の画素にバックグランドの動きベクトルを割り当てるステップ。
シンプルな方法は、アンカバーリング領域が何処であるかを判定し、計算されたフォアグランドの動きベクトルの代わりにバックグランドの動きベクトルを割り当てることである。それは、大部分のビデオ系列についてこれらは正しいベクトルであるからである。
割り当てられたバックグランドベクトルは、たとえば投影のない領域の外側からのバックグランドのベクトルである。アンカバーリング領域は、(たとえばシンプルな変換又は弱い透視といった)バックグランドの動きの複雑度に比較して典型的に余りに大きくないので、アンカバーリング領域のまさに外側で正しく予測されたバックグランドの動きベクトルは、一般に、この問題の領域の内側にある動きベクトルについて良好な予測となる。なお、第三の動きベクトル場Mv3について、アンカバーリング領域が(予測を取り出すために)正しいバックグランドの動きベクトルを含むか、又は実際に任意の動きベクトルを含むかは問題ではなく、第一の動きベクトル場Mv1が近似的に正しいバックグランドの動きベクトルを有する(又は少なくともフォアグランドの動きベクトルとバックグランドの動きベクトルの間の境界が比較的正確に配置される)ことが望まれる。これは、この第一の動きベクトル場が時間的な外挿のために使用され、したがって、たとえば第三の動きベクトル場におけるアンカバー領域のサイズが、それにより決定されるからである。しかし、たとえば、僅かに余りに大きいか、又は余りに小さい、割り当てられていないMv3の領域は、残余のベクトル場で後に訂正することができる。同様に、代替的な方法における僅かに不正確なバックグランドの動きベクトルによる誤ったピクチャプロジェクションは、画素の残余のピクチャで訂正することができる。
別の実施の形態では、第三の動きベクトル場における同じ空間的な位置に投影する2つのベクトルのケースで、割り当てられるフォアグランドの動きベクトルは、2つの投影するベクトルのフォアグランドのベクトルである。
フォアグランドとバックグランドのベクトルの識別を行う異なる方法が存在する。たとえば、フォアグランド及びバックグランドの一様な動きが存在する場合、全体的なフォアグランド及びバックグランドの動きベクトルが決定される(これはバックグランド及び/又はフォアグランドに関する、ズーム、透視変換等といったグローバルなモデルに一般化される場合がある)。二重の割り当てのケースで使用されるフォアグランドの動きベクトルは、グローバルなフォアグランドの動きベクトルである。しかし、(二重の割り当てのポイントの投影する)ローカルに測定された現実の動きベクトルを使用することが良好である。かかるローカルベクトルがフォアグランドであるかバックグランドであるかは、そのSADを見ること(フォアグランドのベクトルについての良好なブロックマッチ対バックグランドのベクトルについての粗悪なマッチ、勿論、再構成されたピクチャが利用可能な過去を見ることのみ)、又はグローバルのフォアグランドの動きベクトルとの差を計算すること、のような様々なストラテジで決定される。
第三の動きベクトル場の割り当てられていないアンカバーリング領域では、動きベクトルを割り当てないか(残余のピクチャで訂正される以上の予測)、又は、合理的な第一の予測をその時間的な瞬間で予測されるべきピクチャの実際の画素の値に与える有効な動きベクトルを割り当てる(前のピクチャにおけるフォアグランドのオブジェクトから取り出された、バックグランドの動きベクトルで達成されるよりも良好な予測)。
Mv3のアンカバーリング領域における有効なベクトルの割り当ての可能性は、たとえば以下に示される。予測誤差(たとえばブロックSAD)を最小にするフルサーチ(たとえばフォアグランドの動きベクトルの値の前後)から取得されるベクトル。これは、Mv3における全体のアンカバーリング領域について1つのベクトルであるか、又はアンカバーリング領域の異なるサブ領域について多数のベクトルである。誤った位置におけるバックグランドから取り出されるが、(たとえば正しい平均値、低い残余につながる)画素について良好な予測が得られるフォアグランドの動きベクトル。ヌルベクトル。
「ノーフェッチ“no fetch”」コードが割り当てられ、そのケースでは、別のアルゴリズムは、画素の外挿のような第一の予測を与える。
更なる予測のために良好に整合する訂正された第一のベクトル場を得る同じ考えを利用した変形となる圧縮方法は、以下のステップを含む。(a)第二のビデオピクチャ(123)と第三のビデオピクチャの画素データを使用することで、第三のビデオピクチャ(125)の時間的な位置(t3)での第一の動きベクトル場(Mv1)を計算するステップ。(b)第二のビデオピクチャ(123)の時間的な位置(t2)での第二の動きベクトル場(Mv2)を計算するステップ。第二の動きベクトル場では、フォアグランドの動きベクトルの位置から構成されるフォアグランドの動き領域(rFG2)は、フォアグランドのオブジェクト(101)の動きに実質的に等しく、バックグランドのオブジェクト(103、103’)の画素とではなく、フォアグランドのオブジェクト(101)の画素の位置と空間的に実質的に連結する。(c)第二の動きベクトル場(Mv2)に基づいて第一の動きベクトル場(Mv1)における誤ったフォアグランドの動きベクトルを訂正するステップ。(d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域(COV)において、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうちのどちらがフォアグランドの動きベクトル(vFG)であり、どちらがバックグランドの動きベクトル(vBG)であるかを判定するステップ。(e)フォアグランドの動きベクトル(vFG)を有する画素のみを投影する、ダブルプロジェクションのケースを含めて、第三のビデオピクチャ(125)の訂正された第一の動きベクトル場(Mv1)の画素の動きベクトルで、ゼロに初期化される第四のビデオピクチャ(127)に投影するステップ。
先の圧縮方法及び実施の形態は、伸張の間に受信サイドで生じたことのミラー(最終的な再構成における差、すなわち残余の加算)を含み、したがって多数の更なる方法及び装置は、本発明の目的に従って開示される。
ビデオ信号伸張の方法は、以下のステップを含む。(a)前に伸張された第二のビデオピクチャと第三のビデオピクチャの画素データを使用することで、前に伸張された第三のビデオピクチャの時間的な位置での第一の動きベクトル場を計算するステップ。(b)第二のビデオピクチャの時間的な位置で第二の動きベクトル場を計算するステップ。この第二の動きベクトル場で、フォアグランドの動きベクトルの位置を構成するフォアグランドの動き領域は、フォアグランドのオブジェクトの動きに実質的に等しく、バックグランドのオブジェクトの画素とではなく、フォアグランドのオブジェクトの画素の位置と空間的に実質的に連結する。(c)第二の動きベクトル場に基づいて第一の動きベクトル場における誤ったフォアグランドの動きベクトルを訂正するステップ。(d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域において、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうち、どちらがフォアグランドの動きベクトルであり、どちらがバックグランドの動きベクトルであるかを判定するステップ。(e)ダブルプロジェクションのケースにおいて、フォアグランドの動きベクトルを有する画素のみを投影することを含めて、ゼロに初期化される第四のビデオピクチャに第三のビデオピクチャの訂正された第一の動きベクトル場の画素の動きベクトルで投影するステップ。
ビデオ圧縮(伸張)装置は、以下の構成を有する。(a)第二のビデオピクチャ(123)及び第三のビデオピクチャの画素データを使用することで、第三のビデオピクチャ(125)の時間的な位置(t3)での第一の動きベクトル場(Mv1)を計算するために構成される第一の動き予測ユニット(605)。(b)第二のビデオピクチャ(123)の時間的な位置(t2)での第二の動きベクトル場(Mv2)を計算するために構成される第二の動き予測ユニット(607)。第二の動きベクトル場では、フォアグランドの動きベクトルの位置から構成されるフォアグランドの動き領域(rFG2)は、フォアグランドのオブジェクト(101)の動きに実質的に等しく、バックグランドのオブジェクト(103,103’)とではなく、フォアグランドのオブジェクト(101)の画素の位置と実質的に空間的に連結する。(c)第二の動きベクトル場(Mv2)に基づいて第一の動きベクトル場(Mv1)における誤ったフォアグランドの動きベクトルを訂正するために構成される訂正ユニット(609)。(d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域(COV)において、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうちのどちらがフォアグランドの動きベクトル(vFG)であり、どちらがバックグランドの動きベクトル(vBG)を判定するために構成されるフォアグランド/バックグランド検出器(621)。(e)第三の動きベクトル場(Mv3)における同じ空間的な位置に投影する2つのベクトルのケースで、フォアグランドの動きベクトル(vFG)を割り当てることを含めて、第三の動きベクトル場(Mv3)を出力として生じる、予測されるべき第四のビデオピクチャ(127)の時間的なロケーション(t4)に第一の動きベクトル場の動きベクトルを投影するために構成される投影ユニット(619)。(f)第一のベクトル場からのベクトルの予測が行われない場合に、第三の動きベクトル場(Mv3)の空間的な位置(UNCOV)において良好に予測している動きベクトルを割り当てるために構成される補間ユニット。(g)少なくとも1つの前の画像から取り出されるべき画素の位置を決定するために第三の動きベクトル場(Mv3)を使用することで、第四のビデオピクチャ(127)を予測するために構成されるピクチャ予測ユニット(625)。
ビデオ圧縮(伸張)装置は、以下の構成を有する。(a)第二のビデオピクチャ(123)及び第三のビデオピクチャの画素データを使用することで、第三のビデオピクチャ(125)の時間的な位置(t3)での第一の動きベクトル場(Mv1)を計算するために構成される第一の動き予測ユニット(605)。(b)第二のビデオピクチャ(123)の時間的な位置(t2)での第二の動きベクトル場(Mv2)を計算するために構成される第二の動き予測ユニット(607)。第二の動きベクトル場では、フォアグランドの動きベクトルの位置から構成されるフォアグランドの動き領域(rFG2)は、フォアグランドのオブジェクト(101)の動きに実質的に等しく、バックグランドのオブジェクト(103,103’)とではなく、フォアグランドのオブジェクト(101)の画素の位置と実質的に空間的に連結する。(c)第二の動きベクトル場(Mv2)に基づいて第一の動きベクトル場(Mv1)における誤ったフォアグランドの動きベクトルを訂正するために構成される訂正ユニット(609)。(d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域(COV)において、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうちのどちらがフォアグランドの動きベクトル(vFG)であり、どちらがバックグランドの動きベクトル(vBG)であるかを判定するために構成されるフォアグランド/バックグランド検出器(621)。(e)ゼロに初期化される第四のビデオピクチャ(127)に第三のビデオピクチャ(125)の訂正された第一の動きベクトル場(Mv1)の画素の動きベクトルで投影するために構成され、ダブルプロジェクションのケースで、フォアグランドの動きベクトルを有する画素のみを投影するために構成される画素投影ユニット(625)。
上述された方法又は実施の形態のうちの1つにより生成される圧縮されたビデオは、動き予測されたピクチャの時間的な位置の残余の動きベクトルのみを含み、その残余は、その空間的な構造の観点で、時間的に予測される動きベクトル場を訂正するために使用可能であるとして明らかに識別可能である。
信号は、古典的な(たとえばMPEG−2)信号としてとして非常に少ない動きベクトルを含み、残余は、典型的に閉塞領域との相関を示す。
圧縮又は伸張装置は、たとえばディスプレイをもつスタンドアロンテレビジョンレシーバ、セットトップボックス、たとえばワイヤレスLCD TV等のようなワイヤレスビデオ装置といったデジタルテレビジョンユニットの様々な実現で典型的に盛り込まれる。
圧縮又は伸張装置は、たとえば読み取り/書き込みディスクレコーダ(光ディスク、ハードディスク)、又はPC、ホームビデオデータベースサーバのようなビデオシグナルレコーダに盛り込まれる場合がある。
圧縮又は伸張装置は、ポータブルPC、ポータブルアシスタント又はエンターテインメント装置、モバイルフォン等のようなポータブルビデオ装置に組み込まれ、これらは、たとえばカメラを有し、その捕捉されたピクチャは、本発明に従って圧縮される。
装置及び方法は、コンシューマ−ホーム環境、及び低いキャパシティのネットワーク等にプロバイダによりトランスコードする、たとえばテレビジョンスタジオのようなプロフェッショナル環境の両者で使用される。
本発明の圧縮及び伸張の方法及び装置のこれらの態様及び他の態様は、以下に記載される実現及び実施の形態を参照して、添付図面を参照して明らかにされ、これらは、さらに一般的なコンセプトを例示する限定するものではない特定の説明としての役割を果たし、破線はコンポーネントが最適であることを示すために使用される。
図1は、連続的なビデオピクチャの時間的なグラフ100において、たとえば、前のビデオピクチャ、すなわち第二のビデオピクチャ123における対応する画素の領域(すなわち、近似的な画素のグレイレベルの値の同じ幾何学的な分布)について、第三のビデオピクチャ125に存在する画素のそれぞれの領域(たとえば8×8ブロック)を見ることで予測/計算される第一の動きベクトル場Mv1を示す。なお、動きベクトル場が得られる限り、たとえばオプティカルフローベースの方法といった他の従来技術の動き予測技術が使用される場合がある。好ましくは、一貫した(雑音がない)ベクトル場を与えるので、いわゆる“3RDS”ブロックベースの動き予測が使用される(たとえばWO01/88852を参照)。
なお、簡単さのため、同じ時間の瞬間で有効なビデオピクチャ(すなわち、それらの画素)及び動きベクトル場は、それらの幾何学的な配置が示されるように、互いにトップで描かれている(現実の生活では、画素のグレイ値のみを示し、オブジェクトにおける特定の画素について計算された動きベクトルを示すカラーコーディングによりそれらの色を置き換えることでこれを表示することができる)。1次元のみが示されている(たとえば、ピクチャを通してx軸に沿って水平ライン)。たとえば、自動車形状のフォアグランドのオブジェクト101といったオブジェクトの形状を示すことができるため、ある種の透視が使用され、選択された水平のピクチャラインに沿ってそのセクションの周りでオブジェクトをフラットにする。動きベクトル場は、近似的に一定の速度の領域を示す、楕円の使用によりビデオピクチャに沿って位置的に示されており、たとえば第一の動きベクトル場における領域rBGはゼロであり、バックグランドの動きが発見される。更に説明を複雑にしないため、時間的にピクチャフレームに沿って連続するxの位置101,105に移動する唯一のフォアグランドオブジェクトが存在するものとする。当業者であれば、提案される方法が更に複雑なベクトル場について機能することが容易に確認することができ、余分の情報がかなりのエラーを導入することなしに、更に複雑なベクトル場をタックルするために必要とされ、これは以下に述べられる。しかし、ビデオ圧縮システムでは、エラーは重要さを超えて(over-important)いない。これは、ベクトル場又は予測された画像の両者におけるエラーが、転送される更なるビットを犠牲にして正しい残余を追加することで訂正することができるためである。
2番目及び3番目のビデオピクチャに基づいて予測される3DRS及び全ての他のベクトル場の問題は、それが誤っていることであり、第三のビデオピクチャ125からそれに向かって画素を投影すること、第四のビデオピクチャ127の時間的な瞬間t4について有効であって、第三のビデオピクチャ125から画素を取り出すために使用可能な第三の動きベクトル場Mv3を作成することで、後続する第四のビデオピクチャ127を予測するために使用することができないことである。
かかる「前のピクチャにおける整合を見る」動き予測による問題は、アンカバーリング領域で、正しい(バックグランド)動きベクトルを予測することができない。この点については図2に概念的に示されており、第一のベクトル場の予測を説明するため、図1のビデオピクチャのサブセット200を示している(なお、用語「第一」に関わらず、第一及び第二のベクトル場の計算の瞬間がスワップされる場合があることは、当業者にとって明らかである)。フォアグランド領域では、フォアグランドのオブジェクト105は閉塞されることはなく、連続するピクチャに常に存在するために問題がない。同じことが、カバーリング領域COVにおけるバックグランドのオブジェクトについてもいえる。ハウスオブジェクト201は、前のピクチャにおいて発見され、したがって、フォアグランド及びカバーリング領域におけるベクトル場の領域とビデオピクチャのオブジェクトとの良好な整合が存在する。第一近似として、たとえば第一の動きベクトルv1といった過去からの動きを分析することで第一の動きベクトル場Mv1で得られたベクトルは、将来に向かってこの時間の瞬間t3からの動きのリマインダについて有効であり(第二の動きベクトルv2はv1の逆数である)、この近似におけるエラーは、図5により以下に記載される。
なお、幾つかの動き予測器について、二次的な作用にまで実質的に良好な整合が存在する。たとえばベクトルが8×8ブロックについて計算される場合、唯一のベクトルがあるブロックに割り当てられ、フォアグランドのオブジェクトの画素を主に含むブロック内にあるバックグランドのオブジェクトの幾つかの画素は、誤りのベクトルが割り当てられる。
しかし、アンカバーリング領域UNCOV2では、第二のハウスオブジェクト203は前のビデオピクチャにおけるその整合を発見することができず、その時間の瞬間で、第二のハウスオブジェクトはフォアグランドオブジェクト101によりなおカバーされており、目に見ることができないため、問題がある(領域rERRにおける誤った動きベクトル)。3DRS動き予測器について、正しいバックグランドの動きベクトルの代わりに、典型的にフォアグランドの動きベクトルが割り当てられ、これは正しいバックグランドの動きベクトルがフォアグランドのオブジェクトからデータを取り出すためであり、このことは、バックグランドにおける誤った位置から取り出された画素よりも第二のハウスオブジェクト203に対して通常異なるものであり、フォアグランドの動きベクトルを前のピクチャに投影することで決定される。他の動き予測器は、アンカバーリング領域について任意の種類の誤った動きベクトルを生成する場合がある。
本発明を解明するために重要である、誤った動きベクトルの問題を解決する2つのストラテジが存在する。(1)動きベクトルのアップデートの残余を送出することで誤ったベクトルを訂正することができる。これは、更なるデータを送出し、圧縮ファクタを低下することになるので、本発明によりできるだけ回避されるべきことである。(2)たとえば過去及び将来の両者からのピクチャに基づいて動きを予測するといった、更に進展された動き予測ストラテジを使用することができる。これは、全てのピクチャが利用可能であるので、エンコーダで行われる。しかし、できるだけ少ない情報をデコーダに送出するとき、特にベクトル場の情報の送出するとき、デコーダは、失った情報の予測を行うことができる必要がある。エンコーダは、デコーダが予測することをエミュレートし、満足のいかない予測を訂正することができる。デコーダは、第四のビデオピクチャ127の情報を未だに有さず、それは、これが予測及び再構成されることとなるためであり、したがって、3つのピクチャに基づいた動き予測は不可能である。
しかし、3つのピクチャに基づいた動き予測CANは、前の動きベクトル場、すなわち第二の動きベクトル場Mv2について行われる。
図3を参照して、ここで良好に整合する第二の動きベクトル場に到達する好適な実施の形態、すなわち3つのピクチャの動き予測が記載される(良好な整合は、実質的に全てのフォアグランドの画素がフォアグランドの動きベクトルに割り当てられることを意味するが、更に重要なことに、実質的に全てのバックグランドの画素はバックグランドの動きベクトルに割り当てられる。「実質的に」は、現実の実現では、たとえばブロックサイズによる小さな誤差が存在するために導入されるが、カバーリング/アンカバーリングの閉塞による整合の誤差の支配的な作用は、良好に整合する動きベクトル場において存在しない)。しかし、第二の動きベクトルMv2が良好に整合する限り、他の方法が利用されることが強調される。これは、基本となるビデオオブジェクトに対する正確な整合は、誤った第一の動きベクトル場Mv1を訂正するために使用される。たとえば、WO01/88852の原理によれば、部分的に整合するベクトル場は、第二及び第三のビデオピクチャの時間的な位置の両者に関する2つのピクチャの動き予測から得られる。特に、(特に、フォアグランドのオブジェクトである)オブジェクトのタイプに関する高い知識が存在するとき、部分的に正しい第二の動きベクトル場Mv2(すなわち、アンカバーリング領域の周りの動きベクトル)は、第一の動きベクトル場Mv1の誤ったアンカバーリング領域を訂正するために使用される。フォアグランドのオブジェクト/動きベクトル対バックグランドのオブジェクト/動きベクトルの良好な例示的な発見は、フォアグランドオブジェクトはピクチャフレームのセンターの通常は近くにあり、境界の近くの画素は、バックグランドに属する。
図3は、第二の動きベクトル場Mv2を取得するための例示的な3つのピクチャの動き予測を記載する。見られるように、割り当てられたバックグランド及びフォアグランドベクトルの領域を示す楕円rBG1’、rFG2及びrBG2’は、オブジェクトのポジションと実質的に整合する。これは、たとえば以下のストラテジで実現することができる。(a)(過去からの)後方の(たとえばバックグランドの動きベクトルの予測候補v3との)整合、及び(将来への)前方の(同じ予測される振幅であるが反対の符号v5からなるベクトルとの)整合の両者を計算する。(b)近似的にフォアグランドの動きベクトル(ベクトルv13及びv15)である、少なくとも1つの他の候補となる動きベクトルについて同様に行う。(c)(たとえば、古典的な「絶対差分の合計[SAD]」の基準によるか、従来技術に従う更に進展された整合基準によるか)過去及び将来に向かう動きについてテストされるべき少なくとも2つのベクトルについて整合誤差をチェックし、典型的に、1つの良好に整合する画素ブロック/領域(低いSAD)及び3つの高いSADである。最も低いSADは、その画素又は画素のブロックについてどちらが正しい動きであるかを判定する。更に進展されたストラテジは、4つのSADに基づいて正しいベクトルを得るために使用される。
この動き予測について、(将来又は過去に対して)バックグランドの画素領域について整合が常に存在し、良好に整合するベクトル場が発見されない。
たとえばWO2003/067523に記載されるように、たとえばピクチャ123の周りで2つの2ピクチャの動き予測に基づいて、良好に整合する第二の動きベクトル場を得るために、他の動き予測を使用することもできる。
図4は、良好に整合する第二の動きベクトル場Mv2が与えられる、第一の動きベクトル場Mv1をどのように訂正するかに関する例を示す。はじめに、WO2000/011863に記載されるように、互いに離れて(発散するオブジェクト)示す動きベクトルを探すことで、好ましくは、アンカバーリングの領域は、良好に整合する第二の動きベクトルMv2で検出される。次いで、良好に整合するベクトル場について、フォアグランド/バックグランドの境界(ポイントA)の位置は、正しい幾何学的な位置(x,y)で発見される。第一の動きベクトル場Mv1では、この境界は、ポイントAのフォアグランド(すなわちポイントBで)の動きベクトルにより表示されるポイントAの幾何学的な位置に配置される。ベクトル場は、ポイントA(ポイントC)に隣接するMv2で推定されるバックグランドベクトルで表示されるポイントAの位置にまで誤りのある可能性がある。これは、ポイントAとポイントCとの間で、すなわちたとえばポイントDで誤って推定される領域外のベクトルは、正しく推定されるバックグランドベクトルである。
領域rERRにおける正しいベクトルを予測するため、たとえば一様なバックグランドの動きのケースといった異なる予測モデルが使用され、ポイントDで発見されるベクトルは、rERR内の全てのポイント/ブロック/セグメントに割り当てられる。透視のバックグランドの動きのケースでは、そのパラメータは、正しいバックグランドの動きの領域で予測され、次いで、このモデルは、領域rERRにおける最も可能性の高い動きを計算するために使用される。第一の動きベクトル場について調整的な動きの残余が符号化/送信されない(調整的な動きの残余が小さい!)としても(調整は符号化された画素値の残余により全体的に行われる)、この訂正された第一の動きベクトル場Mv1が使用され、画素値の予測について余りに多くないエラーを生じる。
説明された以外の調整的なストラテジが利用される場合があり、たとえば、アンカバーリング領域は、更に粗雑に予測され(たとえば、シンプルに、何れかのサイドに対する最も大きな可能性の高い動きベクトルの差よりも大きい多数の画素)、調整は、たとえば、グローバルな動きの知識に基づいている(たとえばバックグランドは固定している)。しかし、先の正確なバージョンの調整[動きベクトル場のリタイミングとも呼ばれる](正確さは更に改善される)は、複雑にされた動きのシーンについて好適である(たとえば、ステーションに入るトレインについて、第一のステーショナリピラーは、トレインのバックグランドにあるが、隣接するステーショナリピラーがフォアグランドにある場合がある)。
これまで、本発明のコアとなる、(たとえばアクセラレーションによる問題を回避するため)予測されるべき画像にできるだけ近い第一の「誤った」動きベクトルMv1を計算すること、良好に整合する第二の動きベクトル場Mv2を計算すること、及び、たとえばリタイミングにより、第二の動きベクトル場Mv2に基づいて良好に整合する第一の動きベクトル場Mv1を有するために第一の動きベクトル場Mv1を訂正すること、が記載された。第四のビデオピクチャ127の予測の更なるステップについて、(ビデオ圧縮で最も一般的である)ピクセルフェッチングストラテジ又は(幾つかの困難さの観点で普及していない)プロジェクションのいずれか、2つの異なるストラテジが使用される。これら2つのビデオ圧縮方法は、発明の単一性を有することが強調される。これは、本発明のコアとなる先の特別の技術的な特徴で実施される、前の良好に整合する動きベクトル場の知識を考慮することで最も近い導出可能な動きベクトル場を訂正する新規かつ進歩性のある単一の一般的な本発明のコンセプトを使用するためである。
図5は、第三のベクトル場Mv3の作成を示し、予測されるべき第四のビデオピクチャ127に向かう第三のビデオピクチャ125からの画素の取り出しのために後に使用される。ベクトル場を得るため、第一のベクトル場Mv1の全てのベクトルは、第三のベクトル場Mv3における新たな位置への方向に沿って投影され、たとえば以下に示される。
Figure 2008521324
ここで、たとえばν1 x(x,y)は、第一のベクトル場ν1における位置(x,y)に存在するベクトルのx成分である。この投影を基礎とする想定は、少なくともこれら2つのビデオピクチャにわたり、線形な動き(加速がないか又は緩やかな加速)が存在する。たとえば、位置Eに存在するベクトルは位置Fにコピーされ、v3BGとして示される(第三の動きベクトル場/第四のビデオピクチャ自身における新たな位置への投影と区別するために幾分小さく描かれている)。投影が第三の動きベクトル場Mv3における位置と正確に一致しない場合、(たとえばそれぞれの画素、ブロック等について)割り当てられたベクトルが存在するはずであり、たとえば隣接するベクトル値間の小さなエラーのため、たとえば(従来技術から知られているように)隣接するベクトルのx及びy成分の線形補間といった、補間ステップが適用される場合がある。
第一のベクトル場Mv1の予測に関して、カバーリング及びアンカバーリング領域におけるこの投影による問題が存在する。たとえば、カバーリング領域COVでは、2つのベクトル、すなわち正確にはフォアグランドの動きベクトルvFGであり、不正確にはバックグランドの動きベクトルvBGは同じ位置111を投影する。この状況を回避し、常に正しいフォアグランドの動きベクトルが割り当てられるのを確かめるため、それらのプロジェクションが生じずに、フォアグランドの動きベクトルのプロジェクションのみが生じるように、たとえば、所定のバックグランドの動きベクトルをマーク又は除去することができる。マークする領域(クロスxxxを参照)は、第三及び第四のビデオピクチャにおけるフォアグランドとバックグランドの動き領域間の境界の(第三のビデオピクチャのフレームにおける)位置を計算することで発見される。代替的なアルゴリズムは、たとえば、第三の動きベクトル場Mv3におけるベクトルを割り当てるとき、ベクトルが既に割り当てられているかをチェックし、(たとえば、テンプレートのフォアグランド及びバックグランドの動きベクトルとの差を計算することで)第一の割り当てられたベクトルが実際のフォアグランド及びバックグランドの動きベクトルであるかを確認するといった、同じことを行うように設計される。
第二に、領域UNCOVが存在し、ベクトルが投影されない。同様のストラテジは、たとば、ゼロ次ホールドのバックグランドベクトルのコピー、透視型のモデリング等といった、第一の動きベクトル場Mv1のアンカバーリング領域を満たすために使用される。しかし、以下に示されるように、フェッチングプレディクションは、正しいバックグランドの動きベクトルでさえ、前の画像から正しい画素を取り出すことができないので、理論的に正しい動きベクトルを得るためにこれらの動きベクトルを改善するために多くの計算を費やす必要がなく、エラーは、ビデオピクチャの画素残余で訂正される。1つのオプションは、これらの位置でベクトルの割り当てを行わないことである(すなわち、ベクトルは、それらが初期化されるゼロの動きベクトルのように典型的に振舞う)。更に知的なアクションは、バックグランドにおける誤った位置から取り出す、フォアグランドの動きベクトルで満たすことである。これは、バックグランドの異なる部分がフォアグランドよりも互いに類似しているので低い残余につながる(たとえばバックグランドは近似的に一様である)。
所与の動きベクトル場によるフェッチングは、当業者にとって公知であり、したがって更なる図面で説明されない。予測される(及び必要な場合、更に小さな訂正の動きベクトル場で訂正される)第三のベクトル場Mv3は、第三のビデオピクチャ125における画素又は画素のグループを示し、画素(のグループ)は、使用された動きベクトルの第三の動きベクトル場Mv3における位置に対応する第四のビデオピクチャ127における位置にコピーされる。そのように予測されたビデオピクチャによる2つの問題が存在する。(a)画素領域の大部分は、圧縮されたビデオ系列の原画像に非常に類似しているが、誤って又は不正確に予測される動き等、明るさにおける変化のようなファクタのために小さな誤差が存在する。(b)アンカバーリング領域では、バックグランドの動きベクトルは、前のピクチャにおける誤った位置からデータを誤って取り出す。
両方の状況は、典型的にその記述について少ないビットを必要とする、リマインダR=T−P(Tは真のビデオピクチャ、及びPは上述された予測)を含む、調整的なピクチャ(いわゆる残余)を追加することで扱われる。
予測されるべきピクチャ127の新たな時間的な瞬間t4への動きベクトルフィールドの投影、及び過去から画素を取り出す代わりに、調整された第一の動きベクトル場Mv1は、第四のビデオピクチャ127に第三のビデオピクチャ125から画素を投影するために使用される。このケースでは、何がフォアグランドで何がバックグランドであるかに関する情報が同様に使用される。(a)ダブルピクセルプロジェクションのケースでは、フォアグランドピクセル(すなわち、フォアグランドの動きベクトルを有する画素)のみが投影される。(b)ピクセルプロジェクティングが存在しない場合、典型的に、アンカバーリング領域の外側にあるバックグランドの画素の値に基づいてアンカバーリング領域における可能性の高い画素値の最初の予測/補間の後に符号化される(たとえば、アンカバーリング領域の外側にある最初のバックグランドの画素をシンプルにコピーすること、又はアンカバーリング領域内の可能性のある画素のパターンを予測する更に複雑なテクスチャ予測モデル。例はマルコフランダムフィールドのホールフィリングを使用することである)。
したがって、画素の予測が生じる領域では、更なるアクションが必要とされない。これは、圧縮された/送信された残余から完全に再構成されるが、デコンプレッサにより幾つかの(固定又は可変の、たとえば圧縮されたストリームメタデータにおけるインジケータにより多数の利用可能な予測方法のうちの1つとして示される)予測が使用される場合に、これがより小さな残余となるので、最良であるビットを節約する。
図6は、圧縮及び伸張の両方の機能を有する装置600(典型的に、専用のASIC、又はプログラムされた汎用プロセッサ、又はビデオ圧縮用の別の現在利用されたストリーム)を概念的に示す。当業者であれば、個別のビデオコンプレッサ及びビデオデコンプレッサにおける上述された方法の特徴をどのように配置するかを理解するであろう。
装置は、メモリ601に典型的に記憶される、ビデオ信号Vinを入力するために入力を有する。入力ビデオ信号は、ネットワーク637から典型的に取られ、このネットワークは、地上波テレビジョン送信、インターネット、インホームデータネットワーク、ポータブルアウトドアコミュニケーション等にわたる。
はじめに、圧縮機能が記述され、このケースでは、Vinは(アナログの場合、始めにデジタル化される−図示せず)圧縮されていない信号である。第一の動き予測ユニット605は、メモリから2つの連続する画像を抽出し、上述された2ピクチャの動き予測を実行するために構成される。これは、原画像で行われるが、デコンプレッサが行うことができるものをミラーし(既にデコードされたピクチャに基づいて予測することができない特徴について残余のデータを送信し)本発明に係る予測されたピクチャが使用されることが好ましく、フルの圧縮スキームに従って(すなわち、DCT変換、量子化等を通して)、更に好ましくは圧縮/伸張されたピクチャが使用される。結果的に得られる「誤りのある」第一の動きベクトル場は、動きベクトル及び動きベクトル場のための第二のメモリ603に書き込まれる。同様に、第二の動き予測ユニット607は、3つのピクチャの動き予測を実行する。任意に、第三の動き予測ユニット606が含まれ、圧縮サイドに存在する全ての種類のデータを考慮する高品質の動き予測を実行するために構成され(将来のビデオピクチャ、挿入されたビデオグラフィックスオブジェクトに関するデータのような人間のオペレータによる注釈)、第一の(及びフェッチストラテジが使用されるときには第三の)動きベクトル場のアップデートの動きベクトル場をメモリ603に保存するために構成される。訂正ユニット609は、上述された方法に従って第二の動きベクトル場Mv2で第一の動きベクトル場Mv1を訂正する。例示的な実施の形態では、訂正ユニット609は、カバーリング/アンカバーリング検出器614を有し、第二及び/又は第一の動きベクトル場におけるカバーリング及びアンカバーリング領域を検出するために構成される(たとえばビデオピクチャオブジェクトのマッチングから導出されるSADのような、ベクトルの値に基づくか、又はビデオピクチャ自身に基づいて上述された)。異なる時間の瞬間に異なる動きの領域の境界を投影するために構成されるリタイマ613、及び動きベクトルを再割り当てするために構成される訂正手段611は、訂正ユニット609に典型的に含まれる。さらに、動きベクトル場の予測ユニット615が含まれる。動きベクトルのうちのどちらがフォアグランドであり、どちらがバックグランドの動きベクトルであるか(少なくともカバーリングの領域において)を検出するため、フォアグランド/バックグランド検出器621を有する。様々なベクトルベースの又はピクセルベースのフォアグランド/バックグランドのストラテジが利用される場合がある(たとえばWO01/89225参照)。動きベクトル場の予測ユニット615は、プロジェクションユニット619を更に有するか、図5で記載されたような異なる時間の瞬間にベクトルを投影することを含む。投影が行われない領域にベクトルを割り当てる補間ユニット617を有する。動きベクトル場の予測ユニット615からの出力は、第三の動きベクトル場Mv3である。
ピクチャ予測ユニット625は、前に予測されたピクチャ(特に、予測された第三のビデオピクチャ125)を入力原画像として取り込み、第一の動きベクトル場Mv1は、プロジェクション予測のためのものであり、第三の動きベクトル場Mv3は、フェッチング予測のためのものである。2つのまきに記載されたストラテジ(プロジェクション又はフェッチ)のうちの1つに従って再構成されるべき第四のビデオピクチャ127の予測にも当てはまる。含まれる差の計算ユニット623、本発明に係るピクチャの予測とオリジナルにピクチャの予測との間の差として残余のピクチャを計算し、ピクチャメモリ601に残余を記憶する。
最終的に、圧縮されたビデオストリームに到達するため、(規格に準拠する)圧縮ユニット650、MPEG2、AVC等、たとえばDCT変換、ストリームフォーマッティング等のような従来技術のコンプレッサから知られる動作を実行する。圧縮された出力信号VOUT’(動きベクトル及び画素データ)は、ネットワーク637等にわたり送信されるデータストレージ装置643に記憶される。
ここで伸張機能が記載される(コンプレッサはデコンプレッサが予測することができるものをミラーするので、その大部分は既に記載された)。入力信号Vinは、ここで圧縮され、イントラフレームI(それら完全なままで圧縮されるピクチャであり、すなわち他のピクチャからデータなしで再構成可能である)及び動き予測されるピクチャPの更新データから典型的に構成される。さらに、ベクトル場のデータは、ビデオピクチャ予測を行うために送信される。本発明の圧縮/伸張方法のために送信されるデータは、標準(たとえばMPEG2、又はAVC)圧縮のための送信されたデータとは異なり、特に、動きベクトル場のデータの大部分が本発明に係るデコンプレッサで予測されるので、それらは動きベクトルのデータがなく、したがってアップデートデータは必要とされない。入力信号をスケーラブルにすることで、標準的なコンプレッサと合理的にコンパチブルであるスキームが設計される。第一のレイヤ635は、画素データ及び少数ビットの動きベクトルデータ633を含み、第二のレイヤは、標準的なコンプレッサの「フル」の動きベクトルデータを含む。この第二のレイヤは、本発明に係るデコンプレッサにより受信される必要がない。標準的なデコンプレッサによる非圧縮されたピクチャの品質は、僅かに低くなる。
メモリ601は、残余のピクチャ及び既に完全に非圧縮されたピクチャの両者のデータを含む。第一の動き予測ユニット605は、メモリから2つの既に非圧縮されたピクチャを抽出し、上述された2ピクチャの動き予測を実行するために構成され、同じことが3ピクチャの動き予測にも当てはまる。訂正ユニット609、動きベクトル場の予測ユニット615、及びピクチャ予測ユニット625は、上述したのと同じ機能を正確に実行するが、デコンプレッサがコンプレッサで行う予測の代わりに、現実に受信された圧縮されたビデオデータ及びビデオピクチャ、及びそこから予測された動きベクトル場に関して実行する。ビデオ予測ユニット625の出力は、オリジナル系列のそれらに非常に類似しているピクチャであり、メモリ601に記憶される。なお、ピクチャメモリ601で実際に書き込まれるのがデジタルピクチャであり、すなわちピクセルイメージであるように、準用(mutatis mutandis)ユニット650、デコンプレッションユニット651は、アンパック、逆DCT等を行うために入力で必要とされる。最後に、非圧縮されたビデオピクチャの系列は、(たとえばデジタル/アナログ変換を実行し、PAL等のようなテレビジョン規格として符号化する)調節ユニット652により出力信号VOUTに調整され、この出力信号は、たとえばディスプレイ641に送信される。
圧縮について典型的であるように、デコンプレッサは、この振る舞いをエミュレートするコンプレッサとして同じ事を本質的に行い、コンプレッサは、オリジナルピクチャから得られた予測を減算することで残余を決定し、デコンプレッサは、受信された非圧縮された残余を予測に追加する。なお、予測は、多数の前のピクチャを含み、たとえばベクトルはプリプリビアス(pre-previous)ピクチャから画素を取り出すために2倍にされ、これは前のピクチャから取り出された画素で平均される。
なお、更なる特定のアルゴリズムの実施の形態である、請求項2又は請求項4の3つのピクチャベースの予測、請求項3のリタイミング、請求項5のフォアグランドのベクトル判定ストラテジ、及び請求項6のバックグランドのベクトル判定ストラテジは、請求項1のステップにおける組み合わせで置き換えることができ、又は、存在する場合には代替的な請求項7(mut.mut.デコンプレッション方法)における組み合わせで置き換えることができ、基本となる圧縮(伸張)装置の対応する手段は(典型的にIC又はソフトウェアイネーブルドプロセッサ)、対応する機能を実行するために更に構成される。装置(デジタルテレビジョンユニット、ビデオシグナルレコーダ、ポータブルビデオ装置)は、基本の(デ)コンプレッサを有し、実際の実現に依存して、単一又は多数のコンプレッサ又はデコンプレッサ若しくは両者のいずれかを有することができる(たとえば、圧縮されたビデオを受信及び表示可能なポータブル装置はデコンプレッサを必要とするが、ストレージが含まれる場合、(デジタル化の後に)アナログ信号を圧縮するためにコンプレッサが必要とされる場合がある)。
本明細書で開示されるアルゴリズムのコンポーネントは、(全体的又は部分的に)実際には、(たとえば特定用途向けICの一部といった)ハードウェアとして、若しくは特定のデジタルシグナルプロセッサ又は汎用プロセッサ等で実行されるソフトウェアとして実現される。
コンピュータプログラムプロダクトの下で、汎用又は特定用途向けプロセッサに、コマンドをプロセッサに取得させる一連のロードステップ後に(中間的な言語、最終的なプロセッサ言語への変換のような中間的な変換ステップを含む)、本発明の特徴となる機能の何れかを実行させるコマンドのコレクションの物理的な実現が理解される。特に、コンピュータプログラムプロダクトは、たとえばディスク又はテープのようなキャリアのデータとして、メモリに存在するデータ、有線又は無線といったネットワークコネクションにわたり伝播するデータ、又は紙上のプログラムコードとして実現される。プログラムコードから離れて、プログラムの必要とされる特徴的なデータは、コンピュータプログラムプロダクトとして実現される。
本方法の機能のために必要とされるステップのうち、データ入力及び出力ステップのようなコンピュータプログラムプロダクトに記載される代わりに、プロセッサの機能に既に存在するものがある。上述された実施の形態は、本発明を限定するよりはむしろ例示するものである。請求項で結合されるとして本発明のエレメントの結合から離れて、他のエレメントの組み合わせが可能である。エレメントの任意の組み合わせは、単一の専用エレメントで実現することができる。
単語「有する“comprising”」は、請求項に列挙されていないエレメント又は態様の存在を排除するものではない。
本発明に係る第四のピクチャの予測のために使用可能な第一の動きベクトル場の訂正を概念的に示す図である。 第一の動きベクトル場の2つのピクチャの動き予測のステップを概念的に示す図である。 第二の動きベクトル場を得るために3つのピクチャの動き予測のステップを概念的に示す図である。 本発明に係る第一の動きベクトル場の訂正を概念的に示す図である。 本発明の第三の動きベクトル場を得るために訂正された第一の動きベクトル場の投影を概念的に示す図である。 本発明に係るビデオ圧縮/伸張装置を概念的に示す図である。

Claims (21)

  1. ビデオ信号の圧縮方法であって、
    (a)第二のビデオピクチャと第三のビデオピクチャの画素データを使用することで、第三のビデオピクチャの時間的な位置での第一の動きベクトル場を計算するステップと、
    (b)第二のビデオピクチャの時間的な位置での第二の動きベクトル場を計算するステップと、前記第二の動きベクトル場で、フォアグランドのオブジェクトの動きに実質的に等しい大きさを有する、フォアグランドの動きベクトルの位置から構成されるフォアグランドの動き領域は、バックグランドのオブジェクトの画素ではなく、フォアグランドのオブジェクトの画素の位置と空間的に連結され、
    (c)第二の動きベクトル場に基づいて第一の動きベクトル場のアンカバーリング領域における誤ったフォアグランドの動きベクトルを訂正するステップと、
    (d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域で、将来のピクチャにおける同じ空間的な位置に投影している2つのベクトルのうちのどちらがフォアグランドの動きベクトルであり、どちらがバックグランドの動きベクトルであるかを判定するステップと、
    (e)第一の動きベクトル場の動きベクトルを予測されるべき第四のビデオピクチャの時間的な位置に投影し、第三の動きベクトル場における同じ空間位置に投影する2つのベクトルのケースでフォアグランドの動きベクトルを割り当てることを含めて、第三の動きベクトル場を取得するステップと、
    (f)少なくとも1つの前の画像から取り出される画素の位置を決定するため、第三の動きベクトル場を使用することで第四のビデオピクチャを予測するステップと、
    を含むビデオ信号圧縮方法。
  2. 前記第二の動きベクトル場を計算するステップは、前記第三のビデオピクチャ、前記第二のビデオピクチャ及び前記第一のビデオピクチャに基づいて行われる、
    請求項1記載のビデオ信号圧縮方法。
  3. 前記第一の動きベクトル場における前記誤ったフォアグランドの動きベクトルを訂正するステップは、
    前記第二の動きベクトル場におけるアンカバーリング領域を検出するステップと、
    前記第一の動きベクトル場における誤った動きベクトルの領域を、このアンカバーリング領域に基づいて導出するステップと、
    誤った動きベクトルの領域の画素にバックグランドの動きベクトルを割り当てるステップと、
    を含む請求項1又は2記載のビデオ信号圧縮方法。
  4. 前記第二の動きベクトル場を計算するステップは、3つのピクチャの動き予測で行われる、
    請求項2記載のビデオ信号圧縮方法。
  5. 前記第三の動きベクトル場における同じ空間的な位置に投影する2つのベクトルのケースで、割り当てられる前記フォアグランドの動きベクトルは、2つの投影するベクトルのうちのフォアグランドのベクトルである、
    請求項1記載のビデオ信号圧縮方法。
  6. 前記第一のベクトル場からのベクトルの投影が行われない空間的な位置で割り当てられるベクトルは、バックグランドのベクトルに比較して前記第四のピクチャの画素の良好な予測を与えるベクトルである、
    請求項1記載のビデオ信号圧縮方法。
  7. ビデオ信号の圧縮方法であって、
    (a)第二のビデオピクチャと第三のビデオピクチャの画素データを使用することで、第三のビデオピクチャの時間的な位置での第一の動きベクトル場を計算するステップと、
    (b)第二のビデオピクチャの時間的な位置での第二の動きベクトル場を計算するステップと、前記第二の動きベクトル場で、フォアグランドの動きベクトルの位置から構成されるフォアグランドの動き領域は、フォアグランドのオブジェクトの動きに実質的に等しく、バックグランドのオブジェクトの画素とではなく、フォアグランドのオブジェクトの画素の位置と空間的に実質的に連結され、
    (c)第二の動きベクトル場に基づいて第一の動きベクトル場のアンカバーリング領域における誤ったフォアグランドの動きベクトルを訂正するステップと、
    (d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域において、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうちのどちらがフォアグランドの動きベクトルであり、どちらがバックグランドの動きベクトルであるかを判定するステップと、
    (e)フォアグランドの動きベクトルを有する画素のみを投影する、ダブルプロジェクションのケースを含めて、第三のビデオピクチャの訂正された第一の動きベクトル場の画素の動きベクトルで、ゼロに初期化される第四のビデオピクチャに投影するステップと、
    を含むビデオ信号圧縮方法。
  8. ビデオ信号の伸張方法であって、
    (a)前に伸張された第二のビデオピクチャと第三のビデオピクチャの画素データを使用することで、前に伸張された第三のビデオピクチャの時間的な位置での第一の動きベクトル場を計算するステップと、
    (b)第二のビデオピクチャの時間的な位置で第二の動きベクトル場を計算するステップと、前記第二の動きベクトル場で、フォアグランドの動きベクトルの位置を構成するフォアグランドの動き領域は、フォアグランドのオブジェクトの動きに実質的に等しく、バックグランドのオブジェクトの画素とではなく、フォアグランドのオブジェクトの画素の位置と空間的に実質的に連結され、
    (c)第二の動きベクトル場に基づいて第一の動きベクトル場のアンカバーリング領域における誤ったフォアグランドの動きベクトルを訂正するステップと、
    (d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域で、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうち、どちらがフォアグランドの動きベクトルであり、どちらがバックグランドの動きベクトルであるかを判定するステップと、
    (e)第一の動きベクトル場の動きベクトルを予測されるべき第四のビデオピクチャの時間的な位置に投影し、第三の動きベクトル場における同じ空間位置に投影する2つのベクトルのケースでフォアグランドの動きベクトルを割り当てることを含めて、第三の動きベクトル場を取得するステップと、
    (f)少なくとも1つの前の画像から取り出される画素の位置を決定するため、第三の動きベクトル場を使用することで第四のビデオピクチャを予測するステップと、
    を含むビデオ信号の伸張方法。
  9. ビデオ信号の伸張方法であって、
    (a)前に伸張された第二のビデオピクチャと第三のビデオピクチャの画素データを使用することで、前に伸張された第三のビデオピクチャの時間的な位置での第一の動きベクトル場を計算するステップと、
    (b)第二のビデオピクチャの時間的な位置で第二の動きベクトル場を計算するステップと、前記第二の動きベクトル場で、フォアグランドの動きベクトルの位置を構成するフォアグランドの動き領域は、フォアグランドのオブジェクトの動きに実質的に等しく、バックグランドのオブジェクトの画素とではなく、フォアグランドのオブジェクトの画素の位置と空間的に実質的に連結され、
    (c)第二の動きベクトル場に基づいて第一の動きベクトル場のアンカバーリング領域における誤ったフォアグランドの動きベクトルを訂正するステップと、
    (d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域で、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうち、どちらがフォアグランドの動きベクトルであり、どちらがバックグランドの動きベクトルであるかを判定するステップと、
    (e)ダブルプロジェクションのケースにおいて、フォアグランドの動きベクトルを有する画素のみを投影することを含めて、ゼロに初期化される第四のビデオピクチャに第三のビデオピクチャの訂正された第一の動きベクトル場の画素の動きベクトルで投影するステップと、
    を含むビデオ信号の伸張方法。
  10. ビデオ圧縮装置であって、
    (a)第二のビデオピクチャ及び第三のビデオピクチャの画素データを使用することで、第三のビデオピクチャの時間的な位置での第一の動きベクトル場を計算するために構成される第一の動き予測ユニットと、
    (b)第二のビデオピクチャの時間的な位置での第二の動きベクトル場を計算するために構成される第二の動き予測ユニットと、前記第二の動きベクトル場で、フォアグランドの動きベクトルの位置から構成されるフォアグランドの動き領域は、フォアグランドのオブジェクトの動きに実質的に等しく、バックグランドのオブジェクトとではなく、フォアグランドのオブジェクトの画素の位置と実質的に空間的に連結され、
    (c)第二の動きベクトル場に基づいて第一の動きベクトル場における誤りのあるフォアグランドの動きベクトルを訂正するために構成される訂正ユニットと、
    (d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域で、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうちのどちらがフォアグランドの動きベクトルであり、どちらがバックグランドの動きベクトルであるかを判定するために構成されるフォアグランド/バックグランド検出器と、
    (e)第三の動きベクトル場における同じ空間的な位置に投影する2つのベクトルのケースで、フォアグランドの動きベクトルを割り当てることを含めて、第三の動きベクトル場を出力として生じる、予測されるべき第四のビデオピクチャの時間的な位置に第一の動きベクトル場の動きベクトルを投影するために構成される投影ユニットと、
    (f)第一のベクトル場からのベクトルの投影が行われない場合に、第三の動きベクトル場の空間的な位置において動きベクトルを割り当て、その位置での真の画素の良好な予測を得るために構成される補間ユニットと、
    (g)少なくとも1つの前の画像から取り出される画素の位置を決定するために第三の動きベクトル場を使用することで、第四のビデオピクチャを予測するために構成されるピクチャ予測ユニットと、
    を有するビデオ圧縮装置。
  11. ビデオ圧縮装置であって、
    (a)第二のビデオピクチャ及び第三のビデオピクチャの画素データを使用することで、第三のビデオピクチャの時間的な位置での第一の動きベクトル場を計算するために構成される第一の動き予測ユニットと、
    (b)第二のビデオピクチャの時間的な位置での第二の動きベクトル場を計算するために構成される第二の動き予測ユニットと、前記第二の動きベクトル場で、フォアグランドの動きベクトルの位置から構成されるフォアグランドの動き領域は、フォアグランドのオブジェクトの動きに実質的に等しく、バックグランドのオブジェクトとではなく、フォアグランドのオブジェクトの画素の位置と実質的に空間的に連結され、
    (c)第二の動きベクトル場に基づいて第一の動きベクトル場における誤りがあるフォアグランドの動きベクトルを訂正するために構成される訂正ユニットと、
    (d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域で、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうちのどちらがフォアグランドの動きベクトルであり、どちらがバックグランドの動きベクトルであるかを判定するために構成されるフォアグランド/バックグランド検出器と、
    (e)ゼロに初期化される第四のビデオピクチャに第三のビデオピクチャの訂正された第一の動きベクトル場の画素の動きベクトルで投影するために構成され、ダブルプロジェクションのケースで、フォアグランドの動きベクトルを有する画素のみを投影するために構成される画素投影ユニットと、
    を有するビデオ伸張装置。
  12. ビデオ伸張装置であって、
    (a)前に伸張された第二のビデオピクチャ及び第三のビデオピクチャの画素データを使用することで、前に伸長された第三のビデオピクチャの時間的な位置での第一の動きベクトル場を計算するために構成される第一の動き予測ユニットと、
    (b)第二のビデオピクチャの時間的な位置での第二の動きベクトル場を計算するために構成される第二の動き予測ユニットと、前記第二の動きベクトル場で、フォアグランドの動きベクトルの位置から構成されるフォアグランドの動き領域は、フォアグランドのオブジェクトの動きに実質的に等しく、バックグランドのオブジェクトの画素とではなく、フォアグランドのオブジェクトの画素の位置と実質的に空間的に連結され、
    (c)第二の動きベクトル場に基づいて第一の動きベクトル場における誤りのあるフォアグランドの動きベクトルを訂正するために構成される訂正ユニットと、
    (d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域で、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうちのどちらがフォアグランドの動きベクトルであり、どちらがバックグランドの動きベクトルであるかを判定するために構成されるフォアグランド/バックグランド検出器と、
    (e)第三の動きベクトル場における同じ空間的な位置に投影する2つのベクトルのケースで、フォアグランドの動きベクトルを割り当てることを含めて、第三の動きベクトル場を出力として生じる、予測されるべき第四のビデオピクチャの時間的な位置に第一の動きベクトル場の動きベクトルを投影するために構成される投影ユニットと、
    (f)第一のベクトル場からのベクトルの投影が行われない場合に、第三の動きベクトル場の空間的な位置において動きベクトルを割り当て、その位置での真の画素の良好な予測を得るために構成される補間ユニットと、
    (g)少なくとも1つの前の画像から取り出される画素の位置を決定するために第三の動きベクトル場を使用することで、第四のビデオピクチャを予測するために構成されるピクチャ予測ユニットと、
    を有するビデオ伸張装置。
  13. ビデオ伸張装置であって、
    (a)前に伸張された第二のビデオピクチャと第三のビデオピクチャの画素データを使用することで、前に伸張された第三のビデオピクチャの時間的な位置での第一の動きベクトル場を計算する第一の動き予測ユニットと、
    (b)第二のビデオピクチャの時間的な位置で第二の動きベクトル場を計算するために構成される第二の動き予測ユニットと、前記第二の動きベクトル場で、フォアグランドの動きベクトルの位置を構成するフォアグランドの動き領域は、フォアグランドのオブジェクトの動きに実質的に等しく、バックグランドのオブジェクトの画素とではなく、フォアグランドのオブジェクトの画素の位置と空間的に実質的に連結され、
    (c)第二の動きベクトル場に基づいて第一の動きベクトル場における誤りのあるフォアグランドの動きベクトルを訂正する訂正ユニットと、
    (d)フォアグランドのオブジェクトによるバックグランドのオブジェクトの画素のカバーリングに対応する第一の動きベクトル場の領域で、将来のピクチャにおける同じ空間的な位置に投影する2つのベクトルのうち、どちらがフォアグランドの動きベクトルであり、どちらがバックグランドの動きベクトルであるかを判定するフォアグランド/バックグランド検出器と、
    (e)ゼロに初期化される第四のビデオピクチャに第三のビデオピクチャの訂正された第一の動きベクトル場の画素の動きベクトルで投影するために構成され、ダブルプロジェクションのケースで、フォアグランドの動きベクトルを有する画素のみを投影するために構成されるピクチャ予測ユニットと、
    を含むビデオ伸張装置。
  14. 動き予測されたピクチャの時間的な位置について残余の動きベクトルを含み、前記残余は、その空間的な構造の観点で、時間的に予測された動きベクトル場を補正するために使用可能であるとして明らかに識別可能である、
    請求項1又は請求項7記載の方法により生成される圧縮されたビデオ信号。
  15. プロセッサが請求項1記載の方法を実行するのを可能にする、請求項1のステップ(a)〜(f)のそれぞれに対応するプロセッサ読み取り可能な手段を含むコンピュータプログラム。
  16. プロセッサが請求項7記載の方法を実行するのを可能にする、請求項7のステップ(a)〜(e)のそれぞれに対応するプロセッサ読み取り可能な手段を含むコンピュータプログラム。
  17. プロセッサが請求項8記載の方法を実行するのを可能にする、請求項8のステップ(a)〜(f)のそれぞれに対応するプロセッサ読み取り可能な手段を含むコンピュータプログラム。
  18. プロセッサが請求項9記載の方法を実行するのを可能にする、請求項9のステップ(a)〜(e)のそれぞれに対応するプロセッサ読み取り可能な手段を含むコンピュータプログラム。
  19. 請求項12又は13記載のビデオ伸張装置を有するデジタルテレビジョンユニット。
  20. 請求項10又は11記載のビデオ圧縮装置を有するビデオ信号レコーダ。
  21. 請求項12又は13記載のビデオ伸張装置、及び/又は、請求項10又は11記載のビデオ圧縮装置を有するポータブルビデオ装置。

JP2007542424A 2004-11-22 2005-11-17 カバーリング及びアンカバーリングを扱う動きベクトル場の投影 Pending JP2008521324A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04105951 2004-11-22
PCT/IB2005/053797 WO2006054257A1 (en) 2004-11-22 2005-11-17 Motion vector field projection dealing with covering and uncovering

Publications (1)

Publication Number Publication Date
JP2008521324A true JP2008521324A (ja) 2008-06-19

Family

ID=35985688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007542424A Pending JP2008521324A (ja) 2004-11-22 2005-11-17 カバーリング及びアンカバーリングを扱う動きベクトル場の投影

Country Status (6)

Country Link
US (1) US20090147851A1 (ja)
EP (1) EP1817912A1 (ja)
JP (1) JP2008521324A (ja)
KR (1) KR20070090207A (ja)
CN (1) CN101061723A (ja)
WO (1) WO2006054257A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018529270A (ja) * 2015-08-24 2018-10-04 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 動きベクトル場の符号化方法、復号方法、符号化装置、および復号装置

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5254997B2 (ja) * 2007-01-26 2013-08-07 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 発見フレーム領域についての動き推定
WO2008091205A1 (en) * 2007-01-26 2008-07-31 Telefonaktiebolaget Lm Ericsson (Publ) Image block classification
US8249152B2 (en) * 2008-08-25 2012-08-21 Hankuk University Of Foreign Studies Research And Industry-University Cooperation Foundation Video image segmentation
CN101753795B (zh) * 2008-12-16 2012-05-16 晨星软件研发(深圳)有限公司 用以决定插补画面的移动向量的影像处理方法及其相关装置
TR200909007A2 (tr) * 2009-12-01 2011-06-21 Vestel Elektroni̇k San. Ve Ti̇c. A.Ş. Ön plan-arka plan ayrıştırma yöntemi
RU2012140740A (ru) * 2010-04-01 2014-05-10 Сони Корпорейшн Устройство и способ обработки изображения
US9503743B2 (en) 2010-05-12 2016-11-22 Thomson Licensing Methods and apparatus for uni-prediction of self-derivation of motion estimation
AU2011338800B2 (en) * 2010-12-10 2015-04-02 Vidyo, Inc. Video stream presentation system and protocol
US9357161B1 (en) * 2011-10-17 2016-05-31 Pixelworks, Inc. Motion vector interpolation for motion compensation
KR101908388B1 (ko) * 2012-07-19 2018-10-17 삼성전자 주식회사 폐색 영역 복원 장치, 폐색 영역을 복원하는 비디오 디코딩 장치 및 폐색 영역 복원 방법
KR101975206B1 (ko) * 2012-11-23 2019-05-07 삼성전자주식회사 시간상 연속하는 물체의 움직임들에 대응하는 이미지 데이터들을 프로세싱하는 방법 및 장치
FR3009471A1 (fr) * 2013-12-20 2015-02-06 Thomson Licensing Procede de traitement d'une sequence d'images, programme d'ordinateur et dispositif de traitement correspondants
CN104768019B (zh) * 2015-04-01 2017-08-11 北京工业大学 一种面向多纹理多深度视频的相邻视差矢量获取方法
GB2539198B (en) * 2015-06-08 2019-09-25 Imagination Tech Ltd Motion estimation using collocated blocks
JP2017103744A (ja) * 2015-12-04 2017-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、及び画像符号化復号装置
KR102508757B1 (ko) * 2018-08-03 2023-03-09 엘지디스플레이 주식회사 영상 처리 장치 및 방법, 디스플레이 장치
CN109840917B (zh) * 2019-01-29 2021-01-26 北京市商汤科技开发有限公司 图像处理方法及装置、网络训练方法及装置
US20240087140A1 (en) * 2022-09-13 2024-03-14 Qualcomm Incorporated Segmentation mask extrapolation

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594504A (en) * 1994-07-06 1997-01-14 Lucent Technologies Inc. Predictive video coding using a motion vector updating routine
US5621467A (en) * 1995-02-16 1997-04-15 Thomson Multimedia S.A. Temporal-spatial error concealment apparatus and method for video signal processors
US6163575A (en) * 1995-10-20 2000-12-19 Nokia Mobile Phones Limited Motion vector field coding
WO1997040628A1 (en) * 1996-04-19 1997-10-30 Nokia Mobile Phones Limited Video encoder and decoder using motion-based segmentation and merging
EP0948865B1 (en) * 1997-10-29 2003-02-26 Koninklijke Philips Electronics N.V. Motion vector estimation and detection of covered/uncovered image parts
KR100534192B1 (ko) * 1997-11-17 2005-12-08 코닌클리케 필립스 일렉트로닉스 엔.브이. 모션-보상 예측 영상 인코딩 및 디코딩
US6985635B2 (en) * 2002-04-22 2006-01-10 Koninklijke Philips Electronics N.V. System and method for providing a single-layer video encoded bitstreams suitable for reduced-complexity decoding
JP2006513661A (ja) * 2003-01-23 2006-04-20 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ バックグラウンド動きベクトル検出方法及び装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018529270A (ja) * 2015-08-24 2018-10-04 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 動きベクトル場の符号化方法、復号方法、符号化装置、および復号装置
US11102501B2 (en) 2015-08-24 2021-08-24 Huawei Technologies Co., Ltd. Motion vector field coding and decoding method, coding apparatus, and decoding apparatus

Also Published As

Publication number Publication date
US20090147851A1 (en) 2009-06-11
WO2006054257A1 (en) 2006-05-26
CN101061723A (zh) 2007-10-24
EP1817912A1 (en) 2007-08-15
KR20070090207A (ko) 2007-09-05

Similar Documents

Publication Publication Date Title
JP2008521324A (ja) カバーリング及びアンカバーリングを扱う動きベクトル場の投影
CN113557745B (zh) 点云几何结构填充
KR101675555B1 (ko) 깊이 맵의 코딩
CN102282838B (zh) 针对多次曝光的增强动态范围图像和视频的方法和系统
US7224731B2 (en) Motion estimation/compensation for screen capture video
US8351685B2 (en) Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
JP2009501479A (ja) テクスチャの領域のための画像コーダ
US8897364B2 (en) Method and device for sequence decoding with error concealment
JPH11168387A (ja) デジタル信号の符合化の改良
CN103988500A (zh) 视频质量测量
US20040091046A1 (en) Method and system for video sequence real-time motion compensated temporal upsampling
JP2938412B2 (ja) 動画像の輝度変化補償方法、動画像符号化装置、動画像復号装置、動画像符号化もしくは復号プログラムを記録した記録媒体および動画像の符号化データを記録した記録媒体
KR20050012766A (ko) 현재 모션 벡터 추정을 위한 유닛 및 모션 벡터 추정 방법
CN111526370A (zh) 视频编码、解码方法及装置和电子设备
US20180227595A1 (en) Compressor
US20220398692A1 (en) Video conferencing based on adaptive face re-enactment and face restoration
JP2001506101A (ja) 輪郭線中心(Contour―Based)移動推定用システムおよび方法
JP3175914B2 (ja) 画像符号化方法および画像符号化装置
JP2008301270A (ja) 動画像符号化装置及び動画像符号化方法
JP4240674B2 (ja) 動き検出装置および動き検出方法、並びに記録媒体
JP2005260929A (ja) 画像処理装置と画像処理方法およびプログラム
JPH08172631A (ja) 画像予測符号化方法
JPH1013838A (ja) 動きベクトル検出方法および動きベクトル検出装置
KR100275543B1 (ko) 고속 변환파라미터 검출 장치 및 검출 방법
Xue Perceptual Quality Driven Video Evaluation and Processing