JP4922536B2 - ビデオ・シーケンスの2つのイメージの間に補間される少なくとも一つのイメージを計算するための方法 - Google Patents

ビデオ・シーケンスの2つのイメージの間に補間される少なくとも一つのイメージを計算するための方法 Download PDF

Info

Publication number
JP4922536B2
JP4922536B2 JP2002522207A JP2002522207A JP4922536B2 JP 4922536 B2 JP4922536 B2 JP 4922536B2 JP 2002522207 A JP2002522207 A JP 2002522207A JP 2002522207 A JP2002522207 A JP 2002522207A JP 4922536 B2 JP4922536 B2 JP 4922536B2
Authority
JP
Japan
Prior art keywords
image
approximate
mesh
motion vector
previous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002522207A
Other languages
English (en)
Other versions
JP2004507943A (ja
Inventor
ローラン‐シャトネ,ナタリー
ビュイッソン,アレクサンドル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Publication of JP2004507943A publication Critical patent/JP2004507943A/ja
Application granted granted Critical
Publication of JP4922536B2 publication Critical patent/JP4922536B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)

Description

【0001】
本発明は、動画シーケンス(moving image sequences)の符号化及び/または復号化の分野に関する。特に、本発明は動画シーケンスの2つの与えられたイメージの間に補間される少なくとも一つのイメージを構成する技術に関する。
【0002】
本発明は、イメージング(imaging)及び画像処理(image processing)の全ての分野に適用することが可能である。以下のものが非制限的な例として挙げられる。
・特に、MPEG−4またはH263+型符号器(encoder)/復号器(decoder)またはその他のビデオ符号器/復号器の性能を改善するための、ビデオ符号化及び/または復号化、
・医学画像(medical imaging)、
・例えばPAL/NTSC変換といった規格変換。
【0003】
本発明は、特に帯域幅の飽和と様々なタイプの端末との適合性の問題の克服を目的として、フレームの時間的補間(temporal interpolation)及び/またはビデオ・シーケンスの双方向符号化に、それとは限定はされないが、適用可能である。
【0004】
実際、主な目的の一つは満足できるクォリティの動画シーケンス、特に連続するイメージが流れるように次々と互いの後に続くシーケンスをユーザが視聴できるようにすることである。今では、ビデオ・シーケンスの流動性の問題は伝送ネットワークの飽和とユーザに利用可能な表示端末の能力(特に記憶容量)の問題と大きく関連している。
【0005】
ユーザのリクエストに応え、帯域幅の飽和の問題を克服するには、広範囲のビットレートでビデオ・ストリームを作り出すことが必要である。しかしながら、低いまたは中間のビットレートで伝送されたビデオ・シーケンスは、それを見た場合、一般的にガタガタ動いて見える。
【0006】
それ故に考えられた方法は、より流動性の高いビデオ・シーケンスを表示端末、伝送ネットワーク及び/またはユーザからのリクエストに応じて生成するために、伝送されたビットストリームを復号化する間にフレーム周波数補間(frame frequency interpolation)を実行し、そして/または双方向方式で符号化する間に追加情報を格納することであった。
【0007】
モーション・フィールド(motion field)(動きの場)の推定に基づく周波数補間の様々なテクニックが考えられてきたが、しかし現在までのところ、そのどれもが満足に機能しない。
【0008】
或るシーケンスの2つのイメージ間のモーション(motion)は、一方のイメージのピクセルと他方のイメージの相同(homologous)ピクセルの位置の違いを特徴付ける二次元ベクトルとして定義することが可能であることが思い起こされかもしれない。ここで、これらのピクセルはその2つのイメージのそれぞれにおける同一の物理的ポイントに対応すると仮定される。従って、変位ベクトルをイメージの各ピクセルに割り当てることにより、そのイメージでの稠密なモーション・フィールド(dense motion field)が定義される。このモーション・フィールドは、オプティカル・フロー(optical flow)とも称される。
【0009】
フレーム周波数の補間に使用されるモーション・フィールド推定の方法は以下の2つのタイプがある。
・マッチング法(matching method)とも称される列挙法(enumerative method)と、
・差動法(differential method)。
【0010】
列挙法は、規則的または整合的な分割(regular or matched partitioning)によりイメージのドメインを有限サイズの領域に再分割することに基づく。その結果、モーションモデルが定義される。このモーションモデルは例えば擬似的(affine)、並進的(translational)、多項式的(polynomial)等である場合があり、その手続きは所定の区間に含まれる1セットの離散値がこのモデルのパラメータに適用される連続的逐次代入を含む。
【0011】
差動法は、議論されるイメージの各ピクセルにモーション・ベクトルを割り当てることにより稠密なモーション・フィールドを推定することにある。それらの方法は、第一に差分計算を実行し、第二に例えば勾配降下法(gradient descents)に基づく最適化テクニックを実行する。これらの方法は特に例えば、オプティカル・フローの方程式に基づく方法、pel再帰的方法(pel-recursive method)(pelは「物理的画像要素(physical picture element)を表す」)、パラメトリック法(parametric method)またはロバストな推定量(robust estimators)を含む。
【0012】
イメージ補間に関する既存のテクニックを改良するために多くの研究が成されてきた。この仕事については、チロ・カッフォリオ(Ciro CAFFORIO)とファビオ・ロッカ(Fabio ROCCA)によって提案された方法(1990年2月発行の通信に関するIEEEトランザクション(IEEE Trandactions on communications)第38巻第2号「モーション補正イメージ補間(Motion Compensation Interpolation)」)が参考になる。この方法ではモーション補正にpel再帰的推定量(pel-recursive estimator)が使用される。
【0013】
pel再帰的方法は所定の経路方向にあるイメージの選ばれたピクセルのそれぞれに付随するモーション・ベクトルの予測補正(prediction-correction)によって進行することが思い起こされるであろう。この予測補正は、前のピクセルのモーション・ベクトルの値、または議論されるピクセルに隣接するピクセルのモーション・ベクトルの線形結合に基づいてよい。そのとき補正は勾配降下法によるDFD(Displacement Frame Diifference)の最小化に基づく。
【0014】
この従来技術の欠点は、カッフォリオ(CAFFORIO)とロッカ(ROCCA)により実施されたアルゴリズムは再帰的方向(recursive direcition)と推定されるべき変位の方向とが大きく相互作用することに悩まされることである。
【0015】
この効果を克服するため、4つの別個の再帰的方向を使用することが考えられた。結果、擾乱効果は最小化された。しかしながら、このテックニックの性能は不十分のままである。
【0016】
ジャック・ニエグロフスキ(Jack NIEWEGLOWSKI)は(IEEE・ICASSP’94での「デジタルイメージワーピングを使用するモーション補正されたビデオ補間(MOTION Compensated Video Interpolation Using Digital Image Warping)」において)「ブロック・マッチング(block matching)」として知られている改良されたテクニックと組み合わせた、幾何学的変換の使用に基づく方法を提案している。
【0017】
この種の方法は、スケールの変更を考慮するために使用することができるが、しかし幾何学的変換とブロック・マッチングの間の無相関(decorrelation)のために頑健性(robustness)が低いという欠点がある。
【0018】
その後、Q.ワン(Q.WANG)とL.J.クラーク(L.J.CLARK)(1992年4月発行の画像通信(Image Communication)第4巻第2号161−174ページに記載された「イメージ・シーケンス符号化のためのモーション推定と補正(Motion and Compensation for Image Sequence Coding)」において)は先験的定義モデル(a priori defined model)によりイメージのどの領域のモーションもモデリングすることに基づいたパラメトリカル・アルゴリズムを実行することを考えた。
【0019】
この従来技術の欠点は、モーションが重い領域の推定に適さないということである。
【0020】
これらのモーション推定テクニックが遭遇する異なった問題を克服するために、L.ボロクスキ(L.Borocsky)とP.シラグ(P.Csillag)により(1994年10月にスペインのヴィーゴ(Vigo)で開催された最終ワークショップ163−166ページに記載された「ウェーブレット・ビデオ符号化とフレーム補間のための多重解像度モーションフィールド推定(Multiresolution mition estimtion for Wavelet Video Coding and Frame Interporlation)」において)記述されたような階層的モーションの推定ためのアルゴリズムを実行することが提案されている。
【0021】
既に述べた従来技術のモーション推定方法のような、この種の階層的モーション推定アルゴリズムは、議論されるビデオシーケンスのイメージ内にあるオクルージョン(occlusion)ゾーン(メッシュのクラウディング(crowding)、コンシールメント(concealment)またはアンカバリング(uncovering)ゾーン)の検出の問題が伴う。実際、異なった面や対象が場面において重なると、オクルージョン・ゾーンが現れ、そのイメージに付随するメッシュ内に不連続なラインが生成される。
【0022】
イメージ内におけるオクルージョン・ゾーンの発生と/または消滅を管理するために最も一般的に使用されるテクニックでは、レイトレーシング(raytracing)が使用される。こうしたテクニックでは、イメージを構成するピクセル(構成ピクセル)のそれぞれにこのピクセルに付随するモーション・ベクトルに関係するラベルが結びつけられる。
【0023】
こうして、少なくとも二つのモーション・ベクトルを受け取るピクセルは、それがシーケンスの前のイメージに存在する少なくとも二つのピクセルをカバーすることを意味するラベル「オクルージョン(occlusion)」を持ち運ぶ。唯一つのモーション・ベクトルを受け取るピクセルは、それが前のイメージと現在のイメージに存在することを示すラベル「正常(normal)」を持ち運ぶ。最後に、全くモーション・ベクトルを受け取らないピクセルは、それがイメージのアンカバリング・ゾーン(uncovering zone)に属することを示すために、ラベル「ギャップ(gap)」を持ち運ぶ。
【0024】
この種のテクニックは1993年12月発行のジャーナル「ビジュアル通信と画像表現」(Journal of visual Communications and Image Representation)第4巻第4号392−406ページに記載されたJ.リアバス・コーベラ(J.Ribas-Corbera)とJ.スクランスキ(J.Sklansky)の「フレーム間補間(Interframe Interporation)」と仏国レンヌ(rene)に所在するトムソンCSF/研究所エレクトロニクス社(Thomson-CSF/Laboratoires electronique)のB.シュポー(B.Chupeau)とP.サルモン(P.Salmon)による「改良されたスローモーションのためのモーション補正補間(Motion Compensating Interporlation for Improved Slow Motion)」に記述されている。
【0025】
しかしながら、この従来のテクニックはこのラベル情報を補間イメージ(interpolated image)を帰納的補正するためだけに利用するが、しかし、そうしたイメージを構築することを可能にするモーション推定の間にそれらを考慮することはしない。
【0026】
本発明は、特に従来技術のこれらの欠点を克服することを目的とする。
【0027】
特に、本発明の目的は、動画シーケンスにおける前のイメージと後のイメージとの間に補間されるイメージを構築して、そのシーケンスが表示されている間の流れの印象を改善するためのテクニックを提供することにある。
【0028】
本発明の別の目的は、補間イメージを構築するための実施が単純でかつコストが低いテクニックを提供することにある。
【0029】
本発明の更に別の目的は、ロバストな補間イメージを構築するための動きが重い領域に適合したテクニックを提供することにある。
【0030】
本発明の目的は、ビデオ・シーケンス内に補間されるイメージを構築して、そのシーケンスのイメージに付随するメッシュ内のオクルージョン・ゾーン(リバーサル・ゾーン(reversal zone)、アンカバリング・ゾーン(uncovering zone)、クラウディング・ゾーン(crowding zone))に対応するオブジェクトの発生及び/または消滅の管理を可能にするテクニックを提供することにもある。
【0031】
本発明の別の目的は、補間イメージを構築して、記憶容量が限られた端末を持つユーザが流動的なビデオ・シーケンスを見ることができるようにするためのテクニックを提供することにある。
【0032】
本発明の更に別の目的は、補間イメージを構築して、ユーザが流動的なビデオ・シーケンスを、それが伝送されるネットワークの帯域幅が飽和状態にあるにも関わらず、見ることができるようにするためのテクニックを提供することにある。
【0033】
本発明の目的は、任意の符号器及び/または復号器と一体化されて、特に流動性の点でその性能を改善する補間イメージを構築するためのテクニックを提供することにある。
【0034】
これらの目的並びに以下ここに現れる他の目的は、動画シーケンスの前のイメージと後のイメージとの間に補間される少なくとも一つイメージを構築するための方法によって達せられる。
【0035】
本発明によれば、この種の方法は、オクルージョン情報と称される、前記前のイメージ及び/または前記後のイメージ内における少なくとも一つのオクルージョン・ゾーンの存在に関する情報を考慮する。
【0036】
従って、本発明は動画シーケンス内にイメージを補間するとういう全体的に新規かつ創意あるアプローチに基づくものである。実際、本発明は特に、シーケンスのイメージに付随するメッシュ内に現れるオクルージョン・ゾーン(すなわちリバーサル・ゾーンまたはアンカバリング・ゾーン(reversal or uncovering zones))の管理に基づく。
【0037】
それ故に本発明によれば、シーケンスの2つの与えられたイメージの間に補間される中間イメージを生成して、そうしたイメージ内にある一つ以上のオクルージョン・ゾーンの存在により持ち込まれる偽物(artifacts)または不連続なラインを抑えることによって、動画シーケンスのビジュアル的な流動性を大きく改善することが可能となる。
【0038】
有利には、前記シーケンスのイメージはメッシュ(mesh)に付随する。
【0039】
実際、メッシュは、特にビジュアル的な現実の場面において、オブジェクトの表現媒体をだんだんと構成する。つまり、それらはこの種の場面を記述する情報のクォリティの主な部分を表現する。従来的に、メッシュは位相を決める1セットの頂点及び面(または1セットの頂点、辺と向き)で構成される。
【0040】
この種のメッシュは、それに関連するイメージからモーション推定することを可能にする、例えばフラットなメッシュまたは他のタイプのメッシュであってよい。
【0041】
本発明の有利な特性によれば、前記メッシュはメッシュ・ピラミッド(mesh pyramid)内に少なくとも二つの入れ子状メッシュ・レベル(nested mesh levels)を有する階層型メッシュ(hierarchical mesh)である。
【0042】
このことを図1を参照して説明すると、入れ子状階層型メッシュ11を使用することにより、ロバストな符号化を得ることが可能になり、かつ情報の伝送及び/または記憶にかかるコストが減る。実際、メッシュ内の親ノード(parent node)によって運ばれる情報と子ノード(daughter nodes)によって運ばれる情報との間の高い相関が存在する。従来的に、メッシュ・ピラミッドの最高レベル(イメージの粗いメッシュに対応する)に属するノード12、13の値は、例えば符号器への伝送及び/またはデータ・キャリア15への記憶を目的として、定量化される。それとは対照的に、メッシュ・ピラミッドの下位レベル(イメージの細かいメッシュに対応する)について、図1に示されているように、子ノード14の差分値だけが伝送及び/または記憶を目的として定量化される。
【0043】
有利なテクニックによれば、前記オクルージョン情報は前記前のイメージと前記後のイメージとの間のモーションの前方推定及び/または後方推定のステップを実行することにより決定される。
【0044】
前方モーション推定ステップの実行は、瞬間t1における第1のイメージを代表するメッシュの頂点に付随する1セットのモーション・ベクトルを決定して、次の瞬間t2における第2のイメージに付随するメッシュの構築を可能とする。こうしたステップにより特に、瞬間t1と瞬間t2におけるイメージの間でオブジェクトの少なくとも部分な消滅を検出することが可能となる。
【0045】
同様に、先行推定(ealier estimation)ステップの実行により、前の瞬間t1におけるイメージを得るために瞬間t2におけるイメージに付随するメッシュの頂点にあてがわれるべきモーション・ベクトルを決めることが可能となり、瞬間t1と瞬間t2におけるイメージの間のオブジェクトの起こりうる出現を検出することもできるようになる。
【0046】
それ故に、オブジェクトの消滅をもしあれば検出するために前方推定ステップを、または、オブジェクトの出現をもしあれば検出するために後方推定ステップを、実行することを考えることは可能である。前方推定ステップと後方推定ステップをジョイントできる能力によって、オブジェクトの消滅または出現に関連するメッシュのリバーサル(reversal)またはアンカバリング(uncovering)に対応するどんなオクルージョン・ゾーンの存在も検出することが可能となる。
【0047】
好ましくは、前記前のイメージ内(または前記後のイメージ内)に少なくとも一つのオクルージョン情報が存在するとき、この種の方法は、
各オクルージョン・ゾーンについて、前記前のイメージ(または前記後のイメージ)において、前記オクルージョン・ゾーンに対応する少なくとも一つのメッシュポイントを包含する、包含領域と称される前記メッシュの一領域を除外して近似的な前のイメージ(または近似的な後のイメージ)を取得するステップと、
前記近似的な前のイメージ(前記近似的な後のイメージ)から近似的な後のイメージ(近似的な前のイメージ)を取得することを可能にする前方モーション・ベクトル(後方モーション・ベクトル)と称されるモーション・ベクトルを決定するための前方推定(または後方推定)ステップと、
【0048】
前記近似的な前のイメージ(前記近似的な後のイメージ)と前記前方モーション・ベクトル(前記後方モーション・ベクトル)とから中間的なイメージを構築するためのステップと、を含む。
【0049】
実際、オクルージョン・ゾーンの存在により、シーケンスの2つの与えられたイメージの間のモーション推定の計算に誤差(エラー)が導入されることがある。近似的なイメージはしかして構築される。この近似的なイメージは、或る与えられたイメージから、少なくとも一つのオクルージョン・ゾーンに対応するメッシュの少なくとも一つの領域を除外することによって得られる。
【0050】
この方法ではそれ故に、議論される瞬間t1とt2に対応する2つのイメージの間の予測誤差を最小化するために、不完全なゾーン(すなわち少なくとも一つメッシュを逆に含むゾーン)を除外した後に瞬間t1と瞬間t2との間のモーションの新たな推定が実行される。
【0051】
近似的なイメージから作られるこの新たな推定はイメージの連続ゾーンに対する最適なモーション・ベクトルを決定するために使用され(すなわち瞬間t1と瞬間t2との間の一対一対応を仮定)、従ってモーション推定の間に得られるモーション・ベクトルの値が不連続なゾーンの存在によって擾乱されることが防止される。
【0052】
本発明の有利な特性によれば、前記包含領域は前記オクルージョン・ゾーンに関して半径k(k≧1)の円盤(k円盤)である。
【0053】
オクルージョン・ゾーンに関する半径kの円盤の定義が思い起こされるかもしれない。オクルージョン・ゾーンの半径1の円盤はオクルージョン・ゾーンそれ自体である。k>1の任意の値について、オクルージョン・ゾーンの半径kの円盤は、そのオクルージョン・ゾーンを含んでおりかつ議論されるオクルージョン・ゾーンの縁(border)からk−1個の辺(k-1 edges)から成る最大距離に位置する境界を有する領域に対応する。
【0054】
好ましくは、前記構築ステップは、1未満のスカラー値の重みが掛けられた前記前方モーション・ベクトル(または前記後方モーション・ベクトル)を前記近似的な前のイメージ(前記近似的な後のイメージ)に適用する。
【0055】
実際、モーションの前方及び/または後方推定のステップにより、前のイメージから後のイメージまでパスするために使用される全てのモーション・ベクトルを決定することが可能となる。前のイメージと後のイメージとの間で構築されるべき中間イメージの時間的ポジションに応じて、これらのベクトルは0乃至1の範囲のスカラー値で重み付けされる。
【0056】
本発明の第1の有利な代替的な態様によれば、このタイプの方法は前記中間イメージに付随するメッシュを再構築するステップを具備し、この再構築ステップでは、各オクルージョン・ゾーンについて、前記補間イメージを取得するため、前記包含領域に対応する前記メッシュの一部に付随する比色(colorimetric)情報及び/または光度(photometric)情報を決定するためのステップを実行する。
【0057】
つまり補間イメージは先に得られた中間イメージから、包含領域に付随する光度及び/または比色情報を決定することにより再構築される。
【0058】
この種の決定ステップは、仏国特許文書FR-98 12525「Procede de codage d'image fixes ou animees avec reduction et adaption du debit」(「ビットレートが減少かつ適合した動画符号化方法」)に提案されたアプローチに従って実施されてよい。
【0059】
この特許文書の目的は、デジタルイメージを符号化するための方法であって、このイメージを表すその長さが望ましい表現の関数であるビットストリームを生成することを目的とする。この方法は、
符号化されるべきイメージの或るドメイン上において複数の入れ子状メッシュから構成され、そのメッシュポイントの頂点が前記イメージのピクセルであってよい、階層型メッシュを定義するステップと、
各メッシュレベルで、輝度(luminance)、比色(chrominance)、位置(positions)を最適化するステップと、
前記階層型メッシュの各メッシュポイントについて、符号化されるイメージと議論されるメッシュポイントが属する入れ子状メッシュの頂点から得られる補間イメージとの間の輝度の差を決定摺るステップと、
ビットストリームに、輝度の差が或る閾差を超えたメッシュポイントの頂点の位置、輝度と比色(crominance)の値(有利には前の階層レベルに関して区別をつけて符合化される)を導入するステップと、を含む。
【0060】
このテクニックによれば、メッシュステップの最後に、4点ツリー構造(quaternary tree structure)が構築される。階層型メッシュに付随するこのツリー構造はメッシュポイントの頂点の値(色と位置)を操作するために構築される。このツリーは対応するメッシュレベルの三角形の数に等しいノード数を有する。ツリーの各ノードは階層型メッシュのただ一つの三角形に関係する。
【0061】
このツリーが構築されるとすぐに、伝送かつ/または記憶されるイメージを表すビットストリームに導入するためのツリーのデータが選択される。この選択は望みのクォリティに依存する。
【0062】
この選択をするために、各三角形について、符号化されるべきイメージと議論されるメッシュポイントが属する入れ子状メッシュの頂点からの補間イメージとの間の輝度の差が計算される。次にこの差は各三角形に対する閾差と比較される。この閾差の値は表現の望ましいクォリティの関数である。
【0063】
次に、その輝度の差が閾差より大きい三角形に関係するツリーの部分がビットストリームに導入される。これにより、そのイメージに関するデータをこれらの異なった三角形部分の局部的なクォリティに応じて伝送することが可能となる。
【0064】
有利には、前記決定ステップにおいて、第一に有限要素を使用する符号化モデルを実施し、第二に代替的な符号化モデルを実施する。
【0065】
実際、階層的符号化、例えば仏国特許出願FR98 12525に記述されたこの種の符号化が実施され、イメージの一部がかなりざらつきがあるときは、十分なクォリティの輝度及び/比色情報を取得するために多数のメッシュレベルが用意されることが必要である。この場合、階層的符号化の効率は低い。言い換えると、階層的符号化は比較的滑らかなイメージに良く適合するが、しかし、かなりざらつきのある(highly textered)部分を持つイメージには適合しない。
【0066】
それ故に新規なアプローチが考えられた。このアプローチは、例えばFR99 06815(Procede de codage hierarchique et mise en oauvre selective d'un codage a bsae de transformation reversible, et procede de decodage correspondant)の「階層的符号化の方法と可逆変換に基づく符号化の選択的実施、及び対応する復号化の方法(Method of hierachical encoding and selective implementation of an encoding based on reversible transformation, and corresponding decoding method)」に記述されている。符号化されるべきイメージを符号化するためのこうした方法は、
少なくとも2つの入れ子状メッシュ・レベルが頂点(符号化されるべきイメージのピクセルであってよい)によって定められたメッシュポイントによって形成された階層型メッシュ(hierarchical mesh)を定義するステップと、
前記メッシュポイントのそれぞれについて、符号化されるべきイメージと議論されるメッシュポイントのメッシュレベルに属するメッシュポイントの頂点から得られる補間イメージとの間の誤差についての一片の情報を決定するステップと、
第1の所定の閾値を下回る一片の誤差情報を有するメッシュポイントの細分を停止するステップと、
第2の所定の閾値を上回る一片の誤差情報を有するメッシュポイントに対して特定の符号化を実施するステップと、
前記第1の所定の閾値を上回りかつ前記第2の所定の閾値を下回る一片の誤差情報を有するメッシュポイントの細分を継続するステップと、
を含む。
【0067】
こうして、本発明の文脈において有利であることが判明したこの方法によれば、2つの別個の符号化方式が選択的に使用される。階層的符号化または入れ子状メッシュ符号化、は、主要な符号化または基本的な符号化であるが、しかし順序立てて使用されない。つまり、それを必要とするイメージ部分に対して別のより効果的な符号化が使用される。
【0068】
この特定の符号化を使用する決定は閾値との比較により成される。より具体的には、階層型メッシュを表すツリーの議論される各ノードにおいて、3つの可能性が与えられる。つまり、メッシュポイント(対応するイメージ部分または対応する包含部分について達せられたクォリティが十分である場合)の細分または再分割の停止すること、同じ階層的符号化を維持して次の階層レベルへ進むこと、あるいは別の符号化(特にざらつきの大きな部分により適した符号化)を使用することが挙げられる。
【0069】
イメージ部分または包含領域の部分の特性に対して符号化の選択をより正確に適合させるためにいくつかの異なるタイプの特定形式の符号化を使用することが可能であることに注意したい。
【0070】
本発明の第2の有利な代替的な態様によれば、この種の方法は、前記補間イメージを取得するため、前記中間イメージに付随するメッシュを再構築するステップを具備し、該再構築ステップにおいて、各オクルージョン・ゾーンについて、前記包含領域に対応する前記後のイメージに付随するメッシュの一部または前記前のイメージに付随するメッシュの一部を前記中間イメージに付随するメッシュに挿入する。
【0071】
その結果、中間イメージにおいて、オクルージョン・ゾーンのコンテンツは前のイメージまたは後のイメージの対応するゾーンによって置換される。こうして得られる補間イメージは、前のイメージ(または後のイメージ)に付随するメッシュの変位に対応する補間によって得られる部分と、オクルージョン・ゾーンに対応し後のイメージまたは前のイメージについての情報を含むゾーンによって、構成される。
【0072】
有利な特性によれば、この種の方法は、各オクルージョン・ゾーンについて、第1の改善された補間イメージを生成するため、前記補間イメージ内の前記包含領域に対応する前記メッシュの一部の少なくとも一つのノードのポジションを最適化して、前記補間イメージと対応する正確なイメージとの間のローカルなモーションを推定するステップを更に具備する。
【0073】
符号化レベルにおいて、この種のモーションが考慮され、そのモーション推定によって補間イメージとそれに対応する正確なイメージとの間に不連続なゾーンが存在しないこと、特に反転したメッシュが存在しないこと、が決定される場合にのみ符号化される。
【0074】
有利には、この種のステップは、前記改善された第1の補間イメージと前記対応する正確なイメージとの間の誤差を評価するために誤差イメージを計算するステップを更に具備する。
【0075】
こうして、補間イメージと対応する正確なイメージとの間のモーション推定によってオクルージョン・ゾーンが存在することが決定されると、誤差計算が実行される。
【0076】
有利なテクニックによれば、前記誤差は前記誤差イメージの少なくとも一つの領域に対して所定の閾値よりも大きいと、この種の方法では、第2の改善された補間イメージを生成するために前記領域のそれぞれに付随する比色情報及び/または光度情報を決定するステップが実行される。
【0077】
有利には、前記決定ステップにおいては、第一に有限要素を使用する符号化モデルを実施し、第二に代わりの符号化モデルを実施する。
【0078】
すでに述べたように、この種の決定ステップは、仏国特許出願FR99 06815(Procede de codage hierarchique et mise en oauvre selective d'un codage a bsae de tra sforenmation reversible et procede de codage correspondant)の「階層的符号化の方法と可逆変換に基づく符号化の選択的実施、及び対応する復号化の方法(Methods of hierachical encoding and selective implementation of an encoding based on reversible transformation, and corresponding decoding method)」に説明されている。
【0079】
本発明の有利な特性によれば、前記決定ステップは、前記誤差イメージからまたは前記対応する正確なイメージから、所定のコスト基準に応じて実行される。
【0080】
実際、比色及び/または光度情報を決定するステップに先立って、こうしたステップのコストが、第一に誤差イメージから、第二に補間イメージに対応する正確なイメージから、評価される。その後に最もコストのかからない解決法が実行される。
【0081】
好ましくは、前記メッシュはそれが代表する前記イメージよりも大きなサイズを有する。
【0082】
この種のテクニックは例えば2000年6月13日に本願出願人名義で出願された仏国特許出願FR00 09273「イメージ・シーケンスの符号化及び復号化のためのモーション推定量(Eatimateur de mouvement pour le codage et le decodage de sequences d'images(Motion estimator for the encoding and decoding of image sequences))」に記述されている。この特許出願で説明されているテクニックによれば、それに付随するイメージよりも大きなサイズを有するメッシュを使用することにより、モーション推定とイメージ・シーケンスの符号化及び復号化の補償のテクニックを実施することが可能で、オブジェクトが動いている間にメッシュのアンカバリング(uncovering)とクラウディング(crowding)の管理が可能となる。
【0083】
本発明によれば、イメージのサイズよりも大きなサイズのメッシュを使用することにより、復号化時のフレームの時間的補間を改良することが可能となる。
【0084】
本発明は、前のイメージと後のイメージとの間に補間される少なくとも一つのイメージを補間するステップを実行するタイプの、動画シーケンスを符号化するための方法と復号化するための方法にも関係する。
【0085】
この種の符号化及び復号化の方法において、前記補間ステップは、オクルージョン情報と称される、前記前のイメージ及び/または前記後のイメージ内における少なくとも一つのオクルージョン・ゾーンの存在に関する情報を考慮する。
【0086】
本発明は、前のイメージと後のイメージとの間に少なくとも一つの補間イメージを補間するための手段を備えるタイプの動画シーケンスを表示するための端末において、前記補間手段は、前記前のイメージ及び/または前記後のイメージ内における少なくとも一つのオクルージョン・ゾーンの存在に関する情報を考慮することを特徴とする端末にも関係する。
【0087】
本発明は、動画シーケンスの前のイメージと後のイメージとの間に補間される少なくとも一つのイメージを再構築することを可能にする情報を具備し、前記情報は、前記前のイメージ及び/または前記後のイメージ内における少なくとも一つのオクルージョン・ゾーンの存在に関する情報を考慮している、ことを特徴とするビデオ信号とデータ・キャリアにも関係している。
【0088】
本発明の他の特徴と利点は、例示的かつ非限定的な例として以下提供される本発明の好ましい実施態様を添付図面を参照しながら説明することにより、より明らかとなる。
【0089】
本発明の一般原理は、双方向符号化(bi-directional encoding)及び/または復号化の間のフレームの時間的補間の目的で、動画シーケンス内の補間イメージを構築する際にオクルージョン領域を管理することに基づく。
【0090】
まず図2を参照して説明する。この図は、動画シーケンスの前のイメージと後のイメージとの間に補間されるイメージを構築するための本発明の実施態様における全てのステップを示したブロック図である。
【0091】
動画シーケンスの2つのイメージが議論される。それらのイメージは2つの連続する瞬間t1とt2にあり、それぞれI1とI2と称される。I1とI2との間の補間イメージI’をt1とt2の間の中間的な瞬間t’において構築することが求められる。
【0092】
ステップ21において、イメージI2を得るためにI1に付随するメッシュ(例えば図1に示されたような階層型メッシュ)のピークにあてがわれるべきモーション・ベクトルを決定するために、イメージI1からモーションの前方推定が実行される。もちろんこの種のステップ21ではイメージI2からモーションの後方推定を実行してもよいが、説明を簡単にするために、ステップ21の間に前方推定を実行する態様のみを説明することに努める。
【0093】
この種のステップ21によって、ここではイメージI1における一つ以上のオブジェクトの少なくとも部分的な消滅に対応する起こりうるクラウディング(crowding)ゾーンの存在を検出することができる。I2を得るためにI1に付随するメッシュにあてがわれるべきモーションdを決定することも可能となる。
【0094】
クラウディング領域が全く存在しないとき、ステップ22の間に変位d’がI1に付随するメッシュにあてがわれる。この変位d’は以下の様に定義される。
【数1】
Figure 0004922536
【0095】
2を得るためにI1に付随するメッシュにあてがわれるべき変位dは、このように0乃至1の範囲にあるスカラー値で重み付けされる。このスカラー値はイメージI1とI2に関するイメージI’の位置に依存する。つまり、イメージI1に近い補間イメージを得たい場合は、変位dは0に近いスカラー値で重み付けされる。一方、時間的にI2に近い補間イメージを得たいなら、変位dは1に近いスカラー値で重み付けされる。
【0096】
ステップ22の後、望ましい補間イメージI’がステップ23で得られる。
【0097】
ステップ21の間に少なくとも一つのクラウディング・ゾーンの存在が検出される場合、ステップ24において、検出されたクラウディング・ゾーンに対応する包含領域(emcopassing region)が、このオクルージョン・ゾーンが存在ことによって導入されるであろうモーションの誤差を防止するために、I1から除外される。結果、近似的なイメージI1が得られる。このイメージは少なくとも一つのオクルージョン・ゾーンが除外されたイメージI1に対応する。
【0098】
次にステップ25の間、イメージの連続ゾーンに対する最適モーション(すなわちt1とt2の間の一対一対応ベクトル)を決定するためにI1の近似値から前方モーション推定が実行される。
【0099】
次にステップ21、24と25について図3を参照しながらより詳細に説明する。
【0100】
イメージI1からのモーションの前方推定のためのステップ21の間に、リバーサル・ゾーン(reversal zone)31の存在が検出される。ステップ24の間に、近似的なイメージI1を得るために、このリバーサル・ゾーン31はI1から除外される。次いで、I2を得るためにI1に付随するメッシュの頂点にあてがわれるべき最適なモーション・ベクトルを得るために、前方モーション推定25がこの近似的なイメージI1から実行される。
【0101】
ステップ26の間、変位d’が近似的なイメージI1に付随するメッシュにあてがわれ、その結果、中間ステップ27において中間イメージI中間が得られる。この種の変位d’はステップ25で決定される最適変位dに0乃至1の範囲にあるスカラー値で重み付けすることによって得られる。これはステップ22の間に実行されるものに似たテクニックによって成される。
【0102】
本発明がフレーム周波数の補間に適用される場合には、ステップ291が実行される。このステップでは、ステップ24の間にI1から除外された包含領域に対応する、I1またはI2のゾーンがI中間に挿入される。つまり、クラウディング・ゾーンのコンテンツは瞬間t1または瞬間t2の対応するゾーンによって置換される。
【0103】
結果、ステップ292の間にイメージI’が得られる。このイメージは、第一にI1に付随するメッシュの変位d’に対応する補間部分によって、第二にオクルージョン・ゾーンに対応しておりイメージI1またはイメージI2についての情報を含むゾーンの変位によって、構築される。
【0104】
本発明が双方向符号化(bi-directional encoding)に適用される場合には、補間イメージI’がI中間から得れることを可能にする2つの代替的な実施態様を考えることができる。
【0105】
第1の実施態様では、ステップ281の間に、ステップ24においてI1から除外された包含領域に対応するI中間の領域に付随する比色(colorimetric)/光度(photometric)情報が決定される。次いでステップ282の間に補間イメージI’を得るために、I中間に付随するメッシュ全体が再構築される。この種のステップ281は、例えば仏国特許文書FR-98 12525「ビットレートが減少かつ適合した動画符号化方法(Procede de codage d'image fixes ou animees avec reduction et adaption du debit(Method for the encoding of still or moving images with reduction and adaption of the bit rate))」に提案されたアプローチに従って実施されてよい。
第2の代替的な実施態様では、ステップ291の間に、ステップ24においてI1から除外された一つ以上の包含ゾーンに対応するI1またはI2のゾーンがI中間に挿入される。つまり、クラウディング・ゾーンのコンテンツは瞬間t1または瞬間t2の対応するゾーンによって置換される。
【0106】
一般に、イメージI’は、補間イメージI’が全体的にオーバラップすることができるように、前方モーション推定を実行する際にはイメージI2のコンテンツを挿入して、そして後方モーション推定を実行する際にはイメージI1のコンテンツを挿入することによって得られる。しかしながら特定の場合には、例えばよりクォリティの高いイメージI’を得るために、かつ/またはビデオ・シーケンスにより高いビジュアル的流動性を与えるために、後方モーション推定(または前方モーション推定)を行う際にはイメージI2(または前方モーション推定に対応してI1)のコンテンツを挿入することによりイメージI’を構築することが好ましい。
【0107】
こうしてステップ292においてイメージI’が得られる。このイメージI’は、第一にI1に付随する変位d’に対応する補間部分によって、第二にオクルージョン・ゾーンに対応しておりイメージI1またはイメージI2についての情報を含むゾーンによって、構築される。
【0108】
イメージI’の改善された近似を得るために、I’と対応する正確な補間イメージとの間でモーション推定293が行われる。
【0109】
結果、ステップ294の間に第1の改善された補間イメージI’1が得られる。ステップ295の間に、改善されたイメージI’1と対応する正確な補間イメージとの間の誤差イメージが計算される。
【0110】
誤差が小さい場合(例えば所定の誤差閾値を下回る場合)、ステップ298においてイメージI’1が動画シーケンスのイメージI1とI2との間に挿入される。
【0111】
一方、誤差が大きい場合で、その誤差が誤差イメージの少なくとも特定の部分について所定の閾値を上回る場合、ステップ296において誤差が大きいイメージの部分に付随する比色/光度情報が決定される。
【0112】
再び、このようなステップ296は、例えば仏国特許文書FR-98 12525「ビットレートが減少かつ適合した動画符号化方法(Procede de codage d'image fixes ou animees avec reduction et adaption du debit(Method for the encoding of still or moving images with reduction and adaption of the bit rate))」に記述されたテクニックに従って実行されてよい。
【0113】
次いでステップ297の間に、イメージ・シーケンスのイメージI1とイメージI2との間に補間されるべき第2の改善された補間イメージI’2が得られる。
【0114】
符号化レベルにおいて、符号器によって必要とされる情報は、I’と対応する正確なイメージとの間のモーション推定と、必要ならば局部的な誤差補正に付随する比色/光度情報とに対応するモーション・ベクトルd*に対応する。
【0115】
ステップ23、282、294または297のいずれかの最後に得られる改善された補間イメージI’、I’1または改善されたイメージI’2は、図4に示されているように、動画シーケンスの2つの連続するイメージの間に挿入することができる。
【0116】
こうして、例えばシーケンス40の復号化において、復号器はできる限り符号器によって伝送された情報から補間イメージ43を構築して、それをシーケンス40のビジュアル的流動性を高めるために2つのイメージ41と42との間に挿入する。
【図面の簡単な説明】
【図1】 入れ子状三角形階層型メッシュの一例を示した図である。
【図2】 動画シーケンスにおける前のイメージと後のイメージとの間の補間イメージを構築するために実行される本発明における全てのステップを示したブロック図である。
【図3】 図2に示されたステップ11、14と15をより詳細に説明するための図である。
【図4】 本発明をフレームの時間的補間に適用した場合の一例を示した図である。

Claims (17)

  1. 動画シーケンスの前のイメージと後のイメージとの間に少なくとも1つの補間イメージを構築するための方法において、
    オクルージョン情報と称される、前記前のイメージ内および/または前記後のイメージ内における少なくとも1つのオクルージョン・ゾーンの存在に関する情報を考慮する少なくとも1つのモーション推定ステップを含み、
    更に、前記前のイメージ内または前記後のイメージ内に少なくとも1つのオクルージョン・ゾーンが存在する場合に、
    前記前のイメージ内または前記後のイメージ内の前記オクルージョン・ゾーン毎に、前記オクルージョン・ゾーンに対応する少なくとも1つのメッシュ・ポイントを包含する、包含領域と称される、前記前のイメージまたは前記後のイメージのメッシュの領域を除外し、近似的な前のイメージまたは近似的な後のイメージを取得するステップと、
    前記近似的な前のイメージから前記近似的な後のイメージを決定できるようにする前方推定、または、前記近似的な後のイメージから前記近似的な前のイメージを決定できるようにする後方推定、を用いて、前方モーション・ベクトルまたは後方モーション・ベクトルと称されるモーションベクトルを決定するステップと、
    前記近似的な前のイメージおよび前記前方モーションベクトル、または前記近似的な後のイメージおよび前記後方モーションベクトルから、中間的なイメージを構築するステップと、
    を含む、ことを特徴とする方法。
  2. 前記メッシュはメッシュ・ピラミッド内に少なくとも二つの入れ子状メッシュ・レベルを有する階層型メッシュである、ことを特徴とする請求項に記載の方法。
  3. 前記オクルージョン情報は前記前のイメージと前記後のイメージとの間のモーションの前方及び/または後方の推定ステップを実行することにより決定される、ことを特徴とする請求項1または2に記載の方法。
  4. 前記包含領域は、前記オクルージョン・ゾーンに関して半径k(k≧1)の円盤(k円盤)である、ことを特徴とする請求項に記載の方法。
  5. 前記構築ステップにおいて、1未満のスカラー値の重みが掛けられた前記前方モーション・ベクトル(または前記後方モーション・ベクトル)を前記近似的な前のイメージ(または前記近似的な後のイメージ)に適用する、ことを特徴とする請求項またはに記載の方法。
  6. 前記補間イメージを取得するため、前記中間イメージに付随するメッシュを再構築するステップを具備し、該再構築ステップにおいて、各オクルージョン・ゾーンについて、前記包含領域に対応する前記中間イメージに付随するメッシュの一部に付随する比色情報及び/または光度情報を決定するためのステップを実行する、ことを特徴とする請求項1、4、5のいずれかに記載の方法。
  7. 前記決定ステップにおいて、第一に有限要素を使用する符号化モデルを実施し、第二に代わりの符号化モデルを実施する、ことを特徴とする請求項に記載の方法。
  8. 前記補間イメージを取得するため、前記中間イメージに付随するメッシュを再構築するステップを具備し、該再構築ステップにおいて、各オクルージョン・ゾーンについて、前記包含領域に対応する前記後のイメージに付随するメッシュの一部または前記前のイメージに付随するメッシュの一部を前記中間イメージに付随するメッシュに挿入する、ことを特徴とする請求項1、4、5のいずれかに記載の方法。
  9. 第1の改善された補間イメージを生成するため、各オクルージョン・ゾーンについて、前記補間イメージ内の前記包含領域に対応する前記メッシュの一部の少なくとも一つのノードのポジションを最適化して、前記補間イメージと対応する正確なイメージとの間の局部的なモーションを推定するステップを更に具備する、ことを特徴とする請求項に記載の方法。
  10. 前記改善された第1の補間イメージと前記対応する正確なイメージとの間の誤差を評価するために、誤差イメージを計算するステップを更に具備する、ことを特徴とする請求項に記載の方法。
  11. 前記誤差が前記誤差イメージの少なくとも一つの領域に対して所定の閾値よりも大きい場合には、第2の改善された補間イメージを生成するために前記領域のそれぞれに付随する比色情報及び/または光度情報を決定するステップを実行する、ことを特徴とする請求項10に記載の方法。
  12. 前記決定ステップにおいて、第一に有限要素を使用する符号化モデルを実施し、第二に代わりの符号化モデルを実施する、ことを特徴とする請求項11に記載の方法。
  13. 前記決定ステップは、前記誤差イメージからまたは前記対応する正確なイメージから所定のコスト基準に応じて実行される、ことを特徴とする請求項11または12に記載の方法。
  14. 前記メッシュは該メッシュに付随する前記イメージよりも大きなサイズを有する、ことを特徴とする請求項1乃至13のいずれかに記載の方法。
  15. 前のイメージと後のイメージとの間に少なくとも一つの補間イメージを補間するためのステップを実行するタイプの、動画シーケンスを符号化するための方法において、
    前記補間ステップは、オクルージョン情報と称される、前記前のイメージ及び/または前記後のイメージ内における少なくとも一つのオクルージョン・ゾーンの存在に関する情報を考慮するモーション推定サブステップを含み、
    更に、前記前のイメージ内または前記後のイメージ内に少なくとも1つのオクルージョン・ゾーンが存在する場合に、
    前記前のイメージ内または前記後のイメージ内の前記オクルージョン・ゾーン毎に、前記オクルージョン・ゾーンに対応する少なくとも1つのメッシュ・ポイントを包含する、包含領域と称される、前記前のイメージまたは前記後のイメージのメッシュの領域を除外し、近似的な前のイメージまたは近似的な後のイメージを取得するステップと、
    前記近似的な前のイメージから前記近似的な後のイメージを決定できるようにする前方推定、または、前記近似的な後のイメージから前記近似的な前のイメージを決定できるようにする後方推定、を用いて、前方モーション・ベクトルまたは後方モーション・ベクトルと称されるモーションベクトルを決定するステップと、
    前記近似的な前のイメージおよび前記前方モーションベクトル、または前記近似的な後のイメージおよび前記後方モーションベクトルから、中間的なイメージを構築するステップと、
    を含む、ことを特徴とする方法。
  16. 前のイメージと後のイメージとの間に少なくとも一つの補間イメージを補間するためのステップを実行するタイプの、動画シーケンスを復号化するための方法において、
    前記補間ステップは、オクルージョン情報と称される、前記前のイメージ及び/または前記後のイメージ内における少なくとも一つのオクルージョン・ゾーンの存在に関する情報を考慮するモーション推定サブステップを含み、
    更に、前記前のイメージ内または前記後のイメージ内に少なくとも1つのオクルージョン・ゾーンが存在する場合に、
    前記前のイメージ内または前記後のイメージ内の前記オクルージョン・ゾーン毎に、前記オクルージョン・ゾーンに対応する少なくとも1つのメッシュ・ポイントを包含する、包含領域と称される、前記前のイメージまたは前記後のイメージのメッシュの領域を除外し、近似的な前のイメージまたは近似的な後のイメージを取得するステップと、
    前記近似的な前のイメージから前記近似的な後のイメージを決定できるようにする前方推定、または、前記近似的な後のイメージから前記近似的な前のイメージを決定できるようにする後方推定、を用いて、前方モーション・ベクトルまたは後方モーション・ベクトルと称されるモーションベクトルを決定するステップと、
    前記近似的な前のイメージおよび前記前方モーションベクトル、または前記近似的な後のイメージおよび前記後方モーションベクトルから、中間的なイメージを構築するステップと、
    を含む、ことを特徴とする方法。
  17. 前のイメージと後のイメージとの間に少なくとも一つの補間イメージを補間するための手段を備えるタイプの、動画シーケンスを表示するための端末において、
    前記補間手段は、前記前のイメージ及び/または前記後のイメージ内における少なくとも一つのオクルージョン・ゾーンの存在に関する情報を考慮するモーション推定手段を具備し、
    更に、前記前のイメージ内または前記後のイメージ内に少なくとも1つのオクルージョン・ゾーンが存在する場合に、
    前記前のイメージ内または前記後のイメージ内の前記オクルージョン・ゾーン毎に、前記オクルージョン・ゾーンに対応する少なくとも1つのメッシュ・ポイントを包含する、包含領域と称される、前記前のイメージまたは前記後のイメージのメッシュの領域を除外し、近似的な前のイメージまたは近似的な後のイメージを取得する手段と、
    前記近似的な前のイメージから前記近似的な後のイメージを決定できるようにする前方推定、または、前記近似的な後のイメージから前記近似的な前のイメージを決定できるようにする後方推定、を用いて、前方モーション・ベクトルまたは後方モーション・ベクトルと称されるモーションベクトルを決定する手段と、
    前記近似的な前のイメージおよび前記前方モーションベクトル、または前記近似的な後のイメージおよび前記後方モーションベクトルから、中間的なイメージを構築する手段と、
    を備えることを特徴とする端末。
JP2002522207A 2000-08-24 2001-08-07 ビデオ・シーケンスの2つのイメージの間に補間される少なくとも一つのイメージを計算するための方法 Expired - Fee Related JP4922536B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0010917A FR2813485B1 (fr) 2000-08-24 2000-08-24 Procede de construction d'au moins une image interpolee entre deux images d'une sequence animee, procedes de codage et de decodage, signal et support de donnees correspondant
FR00/10917 2000-08-24
PCT/FR2001/002570 WO2002017645A1 (fr) 2000-08-24 2001-08-07 Procede de calcul d'au moins une image interpolee entre deux images d'une sequence video

Publications (2)

Publication Number Publication Date
JP2004507943A JP2004507943A (ja) 2004-03-11
JP4922536B2 true JP4922536B2 (ja) 2012-04-25

Family

ID=8853719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002522207A Expired - Fee Related JP4922536B2 (ja) 2000-08-24 2001-08-07 ビデオ・シーケンスの2つのイメージの間に補間される少なくとも一つのイメージを計算するための方法

Country Status (5)

Country Link
US (1) US7342963B2 (ja)
EP (1) EP1312221A1 (ja)
JP (1) JP4922536B2 (ja)
FR (1) FR2813485B1 (ja)
WO (1) WO2002017645A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2811791B1 (fr) * 2000-07-13 2002-11-22 France Telecom Estimateur de mouvement pour le codage et le decodage de sequences d'images
FR2820255A1 (fr) * 2001-01-26 2002-08-02 France Telecom Procedes de codage et de decodage d'images, dispositifs, systemes, signaux et applications correspondants
KR20040068970A (ko) * 2001-12-20 2004-08-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 디지털 이미지 처리 시스템들에서 움직임 벡터들의 조정
US7095786B1 (en) * 2003-01-11 2006-08-22 Neo Magic Corp. Object tracking using adaptive block-size matching along object boundary and frame-skipping when object motion is low
US8264544B1 (en) * 2006-11-03 2012-09-11 Keystream Corporation Automated content insertion into video scene
US20090174812A1 (en) * 2007-07-06 2009-07-09 Texas Instruments Incorporated Motion-compressed temporal interpolation
US8405770B2 (en) 2009-03-12 2013-03-26 Intellectual Ventures Fund 83 Llc Display of video with motion
US8724022B2 (en) * 2009-11-09 2014-05-13 Intel Corporation Frame rate conversion using motion estimation and compensation
EP2384001A1 (en) * 2010-04-29 2011-11-02 Alcatel Lucent Providing of encoded video applications in a network environment
JP5661359B2 (ja) 2010-07-16 2015-01-28 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
KR101908388B1 (ko) 2012-07-19 2018-10-17 삼성전자 주식회사 폐색 영역 복원 장치, 폐색 영역을 복원하는 비디오 디코딩 장치 및 폐색 영역 복원 방법
US10776688B2 (en) 2017-11-06 2020-09-15 Nvidia Corporation Multi-frame video interpolation using optical flow
US11665365B2 (en) * 2018-09-14 2023-05-30 Google Llc Motion prediction coding with coframe motion vectors
CN113067959B (zh) * 2021-03-16 2022-05-03 合肥合芯微电子科技有限公司 影像插补方法、装置和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133299A (ja) * 1992-10-15 1994-05-13 Ricoh Co Ltd 動きベクトル検出方法
JPH09214899A (ja) * 1996-01-31 1997-08-15 Nippon Hoso Kyokai <Nhk> 画像予測処理方法および装置
WO2000021035A1 (fr) * 1998-10-02 2000-04-13 France Telecom (S.A.) Compression et codage de reseau maille tridimensionnel

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4383272A (en) * 1981-04-13 1983-05-10 Bell Telephone Laboratories, Incorporated Video signal interpolation using motion estimation
DE69033797T2 (de) * 1989-10-14 2002-04-18 Sony Corp Verfahren und Anordnung zum Kodieren/Dekodieren eines Videosignales
GB2279531B (en) * 1993-06-24 1997-07-16 Sony Uk Ltd Motion compensated image interpolation
US6252974B1 (en) * 1995-03-22 2001-06-26 Idt International Digital Technologies Deutschland Gmbh Method and apparatus for depth modelling and providing depth information of moving objects
US6023301A (en) * 1995-07-14 2000-02-08 Sharp Kabushiki Kaisha Video coding device and video decoding device
US6037988A (en) * 1996-03-22 2000-03-14 Microsoft Corp Method for generating sprites for object-based coding sytems using masks and rounding average
US6057884A (en) * 1997-06-05 2000-05-02 General Instrument Corporation Temporal and spatial scaleable coding for video object planes
AU4424899A (en) * 1998-06-08 1999-12-30 Microsoft Corporation Compression of time-dependent geometry

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133299A (ja) * 1992-10-15 1994-05-13 Ricoh Co Ltd 動きベクトル検出方法
JPH09214899A (ja) * 1996-01-31 1997-08-15 Nippon Hoso Kyokai <Nhk> 画像予測処理方法および装置
WO2000021035A1 (fr) * 1998-10-02 2000-04-13 France Telecom (S.A.) Compression et codage de reseau maille tridimensionnel

Also Published As

Publication number Publication date
US7342963B2 (en) 2008-03-11
JP2004507943A (ja) 2004-03-11
WO2002017645A1 (fr) 2002-02-28
FR2813485B1 (fr) 2003-12-26
FR2813485A1 (fr) 2002-03-01
US20040037471A1 (en) 2004-02-26
EP1312221A1 (fr) 2003-05-21

Similar Documents

Publication Publication Date Title
EP0799550B1 (en) Segmented picture coding method and system, and corresponding decoding method and system
JP4922536B2 (ja) ビデオ・シーケンスの2つのイメージの間に補間される少なくとも一つのイメージを計算するための方法
EP0614318B1 (en) Video encoder and decoder
US8559763B2 (en) Method and apparatus for motion-compensated interpolation (MCI) with conservative motion model
Jeong et al. Motion-compensated frame interpolation based on multihypothesis motion estimation and texture optimization
EP1042736B1 (en) Sprite-based video coding system
Nieweglowski et al. A novel video coding scheme based on temporal prediction using digital image warping
EP0849950A2 (en) Dynamic sprites for encoding video data
KR100948385B1 (ko) 프레임 해상도 향상 방법 및 장치
US20040047415A1 (en) Motion estimator for coding and decoding image sequences
US20070047651A1 (en) Video prediction apparatus and method for multi-format codec and video encoding/decoding apparatus and method using the video prediction apparatus and method
US7512179B2 (en) Image coding and decoding method, corresponding devices and applications
Schuster et al. An optimal quadtree-based motion estimation and motion-compensated interpolation scheme for video compression
JP4870081B2 (ja) 変形可能なメッシュを用いた動き推定のための方法
EP2355515B1 (en) Scalable video coding
FR2684258A1 (fr) Procede d&#39;estimation et de codage hierarchise du mouvement de sequences d&#39;images.
Adolph et al. 1.15 Mbit/s coding of video signals including global motion compensation
US5933547A (en) Method for interpolating images
Wang et al. Evaluation of mesh-based motion estimation in H. 263-like coders
Dudon et al. Triangular active mesh for motion estimation
US20030063672A1 (en) Method for estimating the motion between two digital images with management of mesh overturning and corresponding coding method
Wang et al. Improved super-resolution reconstruction from video
Chen True motion estimation: Theory, application, and the implementation
Kim et al. Stochastic approach for motion vector estimation in video coding
Morier et al. Relative depth estimation of video objects for image interpolation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110610

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110906

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110913

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111011

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111018

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120206

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees