JP2006519533A - ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体 - Google Patents

ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体 Download PDF

Info

Publication number
JP2006519533A
JP2006519533A JP2006501963A JP2006501963A JP2006519533A JP 2006519533 A JP2006519533 A JP 2006519533A JP 2006501963 A JP2006501963 A JP 2006501963A JP 2006501963 A JP2006501963 A JP 2006501963A JP 2006519533 A JP2006519533 A JP 2006519533A
Authority
JP
Japan
Prior art keywords
texture
video
recognized
region
synthesizable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006501963A
Other languages
English (en)
Other versions
JP4450828B2 (ja
Inventor
ベーラ マカイ
パトリック ンジキ−ニア
ハイコ シュヴァルツ
アリョーシャ スモリック
トーマス ウィーガント
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2006519533A publication Critical patent/JP2006519533A/ja
Application granted granted Critical
Publication of JP4450828B2 publication Critical patent/JP4450828B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/27Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding involving both synthetic and natural picture components, e.g. synthetic natural hybrid coding [SNHC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Abstract

本発明は、テクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体に関する。本発明は、特にビデオデータを送信する際のデータ率を減らすことに適用可能である。本発明の方法は、合成されたテクスチャ領域が決定されるというような方法で、エンコーダによってビデオシーンテクスチャの解析を行うことにある。ビデオシーンコーディングは、合成されたテクスチャ領域のためのデータを用いて行われる。領域のテクスチャに関する情報、決定された領域を記載するために使用するメタデータおよび合成されたテクスチャが生成される。コード化されたデータおよびメタデータは、ビデオシーンが決定された領域のためのメタデータの評価によって合成的に生成されたテクスチャによって復元されるというような方法で、デコーダによって評価される。

Description

本発明は、ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体に関する。特に、本発明は、ビデオデータを送信する際のビット率を減らすことに適用可能である。
多くのビデオシーンは、水、草、木、雲、砂、などの代表的なテクスチャを含む。これらのテクスチャは、概して細部においてリッチであり、したがって、エンコードすることは非常に不経済である。しかしながら、低いローカル解像度で表される場合には、これらのテクスチャを正確に復元することは重要でないとみなされる。したがって、第一にそのようなテクスチャ領域をコンピュータによって集中的にコーディングし、その結果として生じる(大きい)容量のデータを送信し、さらに最終的にMSE(平均2乗誤差)を基礎としてテクスチャを復元することは不必要である。プレフィルタが使用される場合には、それによってテクスチャが損なわれるので、上述のような処理によってもしばしば復元されることはなく、ビューアは、表された細部に無関係なテクスチャを認識できることを必要とするだけである。
したがって、本発明の目的は、上述した既知の解決方法の不利な点を回避し、特に、送信されるビデオデータを減らしながら、視覚的な質を全く損なわないテクスチャの復元を可能にする、ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体とを提供することである。
本発明によれば、請求項1、16、17、18、19、33、34、35、36および37の特徴によりこの目的が達成される。本発明の適切な実施例は、下位の請求項に含まれる。
ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むこのビデオコーディングのための方法の特別の利点は、エンコーダ側で、合成可能なテクスチャの領域を決定するためにビデオシーンのテクスチャ解析を実行すること、ビデオシーンをコーディングし、さらに、合成可能なテクスチャの認識された領域に関する情報およびこれらの領域のテクスチャに関する情報を用いて、認識される領域および合成可能なテクスチャを表すためのメタデータを生成すること、デコーダ側で、エンコードされたデータおよびメタデータを評価すること、および、メタデータを評価することにより認識される領域のためにテクスチャを合成的に生成することによりビデオシーンを復元することによって、送信されるビデオデータのビット率が減少することである。
本発明の方法の好ましい実施例では、セグメンテーションの分割および合併により合成可能なテクスチャの領域が認識され、フレームがマルチ解像度4分木を使用してサブフレーム(ブロック)に再分割される。次の再分割ステップから生じているサブブロックがスターティングブロックに類似した色および/またはテクスチャ特性を有する場合、または、最後の再分割ステップのブロックのサイズが既定値に達しない場合には、ブロック(スターティングブロック)の再分割を打ち切ることが有利であると判明した。加えて、有利な点は、スターティングブロックと類似した色および/またはテクスチャ特性であったために再分割を打ち切られたブロックが、均質なブロックであるとされ、フレームの再分割が完了したときに均質なブロックでないブロックが、分類不能のブロックとされることである。ある実施例は、ブロック数を減らすために、フレームの再分割後に均質なブロックに対して類似性の評価を行い、類似したブロックを合成可能な領域に結合する。本発明の方法の特別な実施例では、ブロックの類似性は、MPEG−7ディスクリプタの「エッジヒストグラム」テクスチャディスクリプタ(EH)および/または「スケーラブルカラー」ディスクリプタ(SCC)を基にして評価される。
他の好ましい実施例では、フレームの合成可能なテクスチャの認識された領域をビデオシーケンスの先行するフレームの合成可能なテクスチャの領域にマッチする。
また、他に有利な点としては、MSEベース方法に基づいて「フレームグループ」(GoF)の最初と最後のフレーム(いわゆるキーフレーム)をエンコードし、さらに、認識された合成可能な領域を有する介在するBフレームを部分的に合成することである。本発明の方法の更なる好ましい実施例では、テクスチャカタログによって、フレームグループ(GoF)の合成可能なテクスチャの認識の時間的整合性が確実になる。
別の好ましい実施例では、適切なワーピングによって、部分的に合成されたフレームの合成可能な領域をキーフレーム内の対応するテクスチャ領域に適応する。特に、ワーピングは、以下の式によって表されるプレーナパースペクティブモーションモデルによって行われる:
x´=[(a1+a3x+a4y)/(1+a7x+a8y)]+x、
y´=[(a2+a5x+a6y)/(1+a7x+a8y)]+y、
ここで、(x、y)はスターティングポイントの座標を表し、(x´、y´)はスターティングポイントの変化した座標を表し、a1、・・・、a8はモデルパラメータを表す。
ワーピングにより、現GoFの最初または最後のフレームのテクスチャが認識される合成可能なテクスチャ領域の方向にワーピングされる場合、テクスチャ合成から得られた結果は特によく、このような各テクスチャ領域はモーションパラメータセットおよびコントロールパラメータと関連し、コントロールパラメータはGoFの最初または最後のフレームがテクスチャ合成に用いられるかどうかを示す。これにより、特に、テクスチャ合成のために、GoFのフレームは、合成されたテクスチャ領域とオリジナルテクスチャ領域との間でより小さい差分信号が認識されるために用いられる。
本発明のビデオコーディングのための方法の更なる好ましい実施例では、1つのセグメンテーションマスク、1つのモーションパラメータセットおよび/または1つのコントロールパラメータが、テクスチャ領域ごとに、合成可能なテクスチャを有する領域のメタデータとして送信される。
加えて、デコーディングの際には、合成可能な領域にある全てのマクロブロックをスキップされたマクロブロックとして扱うことが有利であると判明した。
本発明のアセンブリは、ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法を行うことができるようにセットアップされた少なくとも1つのチップおよび/またはプロセッサを含み、ビデオコーディングのための方法を行うために備わっている要素は、
エンコーダ側で、合成可能なテクスチャの領域を決定するためにビデオシーンのテクスチャ解析を実行すること、ビデオシーンをコーディングし、さらに、合成可能なテクスチャの認識された領域に関する情報およびこれらの領域のテクスチャに関する情報を用いて、認識される領域および合成可能なテクスチャを表すためのメタデータを生成すること、および
デコーダ側で、エンコードされたデータおよびメタデータを評価すること、および、認識される領域のためにメタデータを評価することによりテクスチャを合成的に生成することによりビデオシーンを復元することを含む。
本発明のアセンブリの好ましい実施例では、アセンブリは、ビデオエンコーダ、テクスチャアナライザ(TA)、ビデオデコーダ、およびテクスチャシンセサイザ(TS)を含み、ビデオエンコーダおよびテクスチャアナライザ(TA)はそれぞれビデオ入力を有し、ビデオデコーダはビデオ出力を有し、テクスチャアナライザ(TA)の出力はビデオエンコーダの第2の入力に接続され、ビデオエンコーダの出力はビデオデコーダの入力に接続され、さらに、ビデオエンコーダの第2の出力はテクスチャシンセサイザ(TS)の入力に接続される。
本発明のビデオコーディングを実行するために、コンピュータのメモリにロードされることにより、ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法をコンピュータが実行することを可能にするコンピュータプログラムを用いることが有利であり、そのコンピュータプログラムは、ビデオコーディングのための方法を実行するためのプログラムエンコードを含み、
エンコーダ側で、合成可能なテクスチャの領域を決定するためにビデオシーンのテクスチャ解析を実行すること、ビデオシーンをコーディングし、さらに、合成可能なテクスチャの認識された領域に関する情報およびこれらの領域のテクスチャに関する情報を用いて、認識される領域および合成可能なテクスチャを表すためのメタデータを生成すること、および
デコーダ側で、エンコードされたデータおよびメタデータを評価すること、および、認識される領域のためにメタデータを評価することによりテクスチャを合成的に生成することによりビデオシーンを復元することを含む。
また、コンピュータのメモリにロードされることにより、ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法をコンピュータが実行することを可能にし、それに格納されるコンピュータプログラムを有するコンピュータで読み取り可能な記録媒体を用いることが有利であり、そのコンピュータプログラムは、ビデオコーディングのための方法を実行するためのプログラムエンコードを含み、
エンコーダ側で、合成可能なテクスチャの領域を決定するためにビデオシーンのテクスチャ解析を実行すること、ビデオシーンをコーディングし、さらに、合成可能なテクスチャの認識された領域に関する情報およびこれらの領域のテクスチャに関する情報を用いて、認識される領域および合成可能なテクスチャを表すためのメタデータを生成すること、および
デコーダ側で、エンコードされたデータおよびメタデータを評価すること、および、認識される領域のためにメタデータを評価することによりテクスチャを合成的に生成することによりビデオシーンを復元することを含む。
図面の図を参照することにより、以下において、本発明は実施例によりさらに詳細に説明される。
後述の実施形態は、本発明のプレデコーディングのための方法を用いて送信側テクスチャ解析およびデコーダ側テクスチャ合成を行うことによる、よりよいテクスチャの復元を実現するためのアプローチに基づく(図1参照)。
テクスチャアナライザは、細部とは無関係なテクスチャ領域を認識し、対応する目の粗いマスクを生成し、テクスチャシンセサイザに対するサイド情報としてそれらを信号化してデコーダに送る。後者は、サイド情報を引き出している場合、認識したテクスチャを合成的に生成したテクスチャと置き換える。
この手順は、認識された細部とは無関係なテクスチャにとって、平均2乗誤差(MSE)のような一般的な客観的品質基準が、効果的なコーディングに適していないという所見に基づく、というのは、ある一定の状況下では、関係のない詳細が送信および復元されうることもあるからである。我々の研究は、MPEG−7類似性基準が、しばしば、復元された細部とは無関係なテクスチャの質を察知するのに十分であることを示した(ISO/IEC JTC1/SC29/WG11/N4358: “Text of ISO/IEC 15938−3/FDIS Informationstechnology − Multimedia content description interface − Part 3 Visual”, Sydney, Australia, July 2001; ISO/IEC JTC1/SC29/WG11/N4362: “MPEG−7 Visual part of experimentation Model Version 11.0”, Sydney, Australia, July 2001参照)。MPEG−7類似性基準の使用により、復元されたテクスチャが、オリジナルテクスチャと異なる細部を有する可能性も生じる。テクスチャのローカル解像度が復元後にも保たれる場合には、これらの差は、ほとんど認識できない。また、これらの差は、サイド情報に対応するビット率で差分信号をコーディングするときに発生するアーチファクトよりはるかに邪魔にならないものである。
H.264/AVCコーデックへのシステムインテグレーションと同様、送信側テクスチャ解析および受信側テクスチャ合成のために使用されるアルゴリズムを後述する。
エンコーダ側テクスチャ解析
テクスチャ解析においては、分割および併合セグメンテーションがシーケンスの各フレームに対して行われる。第1ステップ(再分割の段階または分割段階)において、各フレームは、マルチ解像度4分木の使用によりブロックに再分割されて、解析される(J. Malki et al.: “Region Queries without Segmentation for Frame Retrieval by Content”, VISUAL‘99, pp. 115 − 122, 1999参照)。マルチ解像度4分木はいくつかのレベルを有し、第1レベル(レベル0)がオリジナルフレームに対応する。第Lレベルにおけるブロック数は、22Lである。レベル(L−1)上の各ブロックは次のレベルアップ(レベルL)で4つのブロックに分割されるので、フレームのブロック数は、常に水平および垂直に同じ(例えば第2レベル(L=2)上では水平および垂直に4ブロック)として残る。
第Lレベル上の4つのサブブロックがブロック本体と類似した色および/またはテクスチャ特性を有する場合、レベル(L−1)上のブロックは、均質なテクスチャを含む。ここでは、後述するように、対応するMPEG−7ディスクリプタによって類似性が決定される。不均質なブロックだけが、次のレベルアップでさらに再分割される。最大再分割レベルに達した後にもまだ不均質であるブロックは、分類不能とされる。分割段階の結果、概して過度にセグメント化されたフレームが生じる。このフレームは、過度にセグメント化されたフレームのいくつかのブロックを組み合わせることによって結合または併合段階で後処理されなければならない。
このため、併合段階において均質なブロックは一対ずつ比較され、十分な類似性がある場合クラスタに組み合わせられる。図2は、分割段階後と併合段階後とのセグメント化されたシングルフレームの例を示す。分類不能とみなされた領域は黒いふちでマークされるのに対して、分類された領域は黒色でないふちでマークされる。
ダウンストリーム併合段階により、均質な領域の数がはっきりと下がったことは明らかである。
2つのブロック間で行われる類似性評価は、2つのMPEG−7ディスクリプタに基づく(ISO/IEC JTC1/SC29/WGll/N4358: “Text of ISO/IEC 15938−3/FDIS Informationstechnology − Multimedia content description interface − Part 3 Visual”, Sydney, Australia, July 2001: ISO/IEC JTC1/SC29/WGll/N4362: “MPEG−7 Visual Part of experimentation Model Version 11.0”, Sydney, Australia, July 2001参照)。ここで取り組んでいることは、1つには、4方向の端部(1つは水平、1つは垂直、そして2つは対角線のもの)およびフレームの16のローカル、非オーバーラップ領域における非方向の端部の空間分布で表される「エッジヒストグラム」テクスチャディスクリプタ(EH)である。個々のエッジクラスの発生頻度は、各ローカル領域別に決定される。したがって、EH特徴ベクトルは80(16の領域かける5つのエッジクラス)のディメンションを呈する。用いられる第2のMPEG−7ディスクリプタは、「スケーラブルカラー」ディスクリプタ(SCC)である。「スケーラブルカラー」ディスクリプタは、HSV色空間のカラーヒストグラムを表し、HSVは色相、彩度および値の構成要素を有する三次元色空間を表している。用いられるSCC特徴ベクトルは、256のディメンションを呈する。
それぞれの特徴ベクトル間の距離が、あらかじめ定義されたしきい値に達しない場合、2つのブロックが類似していると分類される。しきい値は、可能な限りの最大距離を指す。後者は、選択される測定基準(11、12、EMD)および現MPEG−7ディスクリプタ(SCCまたhEH)によって決まる。しきい値がゼロであるということは、特徴ベクトルが100パーセント合った場合にのみ、2つのブロックが類似であると分類可能であることを示し、一方、しきい値が1の場合には、特徴ベクトル間の距離が、可能な限りの最大距離より大きくはなり得ないので、いかなる2つのブロックでも、常に類似していること意味している。類似性しきい値は、各シーケンスに対して手動設定され、シーケンス全体に対して一定のままである。
分割および併合セグメンテーションは、シーケンスの他のフレームをそれぞれ個々に処理する。この結果、クロスフレームテクスチャ認識において避けられない時間的不整合性が生じる。したがって、現フレームにおける認識されたテクスチャ領域は、前フレームのテクスチャ領域とマッチする。想定されたアプリケーションに関し、考慮されるシーケンスの各フレームグループ(GoF)のために、認識されたテクスチャを把握することにおいて時間的整合性が得られることが重要である。GoFは、2つのキーフレーム(GoFの最初と最後のフレーム)と、部分的に合成されたいくつかの介在フレームとからなる。キーフレームは、MSEにのみ基づいてエンコードされるIフレームかPフレームのいずれかである。
GoFにおいて認識された細部とは無関係なテクスチャの把握の時間的整合性は、テクスチャカタログによって確かなものとされる。このテクスチャカタログには、考慮されるシーケンスに存在する細部とは無関係なテクスチャが格納される。テクスチャカタログは、細部とは無関係なテクスチャを有する第1フレームにおいて生じる細部とは無関係なテクスチャの特徴ベクトルによって、初期化される。続くフレームにおいて認識されたテクスチャは、テクスチャカタログにおいて形成されたエントリと比較され、マッチするものがある場合には各エントリに割り当てられる。十分にマッチしない場合には、関連する非登録の細部とは無関係なテクスチャは、テクスチャカタログに入れられる。
適切なワーピングにより、部分的に合成されたフレーム内における細部とは無関係なテクスチャ領域をキーフレームにおける対応するテクスチャ領域に適合させることによって、GoFにおける合成されたテクスチャ領域の色および/またはテクスチャに基づく認識の信頼性が高くなる。したがって、フレーム内の細部とは無関係なテクスチャ領域は、対応するキーフレーム(GoFの最初と最後のフレーム)の方向にワープされる。ワーピングは、MPEG−7パラメトリックモーションディスクリプタによって定義されるプレーナパースペクティブモーションモデルを用いて行われる(ISO/IEC JTC1/SC29/WGll/N4358: “Text of ISO/IEC 15938−3/FDIS Informationstechnology − Multimedia content description interface − Part 3 Visual”, Sydney, Australia, July 2001; ISO/IEC JTC1/SC29/WGll/N4362: “MPEG−7 Visual part of experimentation Model Version 11.0”, Sydney, Australia, July 2001参照)。パースペクティブモーションモデルは、以下の式によって表される。:
x´=[(a1+a3x+a4y)/(1+a7x+a8y)]+x
y´=[(a2+a5x+a6y)/(1+a7x+a8y)]+y
座標(x´、y´)は、スターティングポイント(x、y)の変化した座標を表す。8つのモデルパラメータは、(a1、・・・、a8)で表される。カメラの動きが単なる回転およびズームに限られている場合、プレーナパースペクティブモデルがランダムな剛体のランダムな動きを表すこともある。平面剛体により、ランダムなカメラの動きが認められる。実際には、これらの条件は、概してGoFの短い周期に合っている。それぞれのキーフレームの対応するテクスチャ領域に関して、認識された細部とは無関係なテクスチャ領域のモーションパラメータ(a1、・・・、a8)は、(A. Smolic and J.−R. Ohm: “Robust Global Motion Estimation Using a Simplified M−Estimator Approach”, Proc. ICIP2000, IEEE International Conference on Frame Processing, Vancouver, Canada, September 2000参照)で述べられているように推定される。GoFの最初もしくは最後のフレームでそれぞれのテクスチャ領域が存在しおよび/または認識される場合にのみ、ワーピングが行われる。GoFの最初のフレームの対応するテクスチャ領域の中に位置する変化したテクスチャ領域のそれらのポイントだけが、合成のために用いられ得る。残りのポイントは現フレームにおいて分類不能とマークされ、それによって合成可能なテクスチャ領域は大きさが減少する。この方法は、GoFの最後のフレームで繰り返される。したがって、テクスチャアナライザは、部分的に合成可能なフレームにおけるもともと認識された各テクスチャ領域(併合段階からのダウンストリーム)に対して、減じられ動き補償された2つのテクスチャ領域を提供する。
デコーダ側テクスチャ合成
使用されるテクスチャシンセサイザは、現GoFの最初または最後のフレームのテクスチャをテクスチャアナライザによって認識された合成可能な各テクスチャ領域の方向にワープする(図3)。このため、テクスチャアナライザによって認識された合成可能な各テクスチャ領域に対して、モーションパラメータセットおよびコントロールパラメータが要求される。コントロールパラメータは、GoFの最初または最後のフレームがテクスチャ合成に用いられるかどうかを決定する。いずれの場合でも、最良のテクスチャ合成を生じさせる基準フレームを用いる。より良好なテクスチャ合成は、合成されたテクスチャ領域およびオリジナルテクスチャ領域間のより小さい差分信号によって特徴付けられる。このテクスチャシンセサイザは、モーションモデルの前提条件が満たされる場合には、剛体に対して非常に良好な結果を提供する。
例示実施例において、テクスチャを分析し合成するための方法は、H.264/AVCコーデック(ジョイントモデル2.1)に集積されている。その過程で、IおよびPフレームは、MSEベースでエンコードされ、キーフレームとして使われる。しかしながら、複数のBフレームが部分的に合成されてもよい。認識された合成可能なテクスチャ領域を含むBフレームに対して、コントロールパラメータと同様に、セグメンテーションマスクとモーションパラメータセットが、各テクスチャ領域に対してサイド情報として送られる。
デコーディングの際には、合成可能なテクスチャ内の全てのマクロブロックは、スキップされたマクロブロックとして処理される。すなわち、スライスの範囲内で次のマクロブロックをデコーディングするために要求される(デコーディングの順の)全てのパラメータおよび変数は、スキップされたマクロブロックのために指定されるように設定される(DRAFT ISO/IEC 14496−10:2002 (E), Document JVT−E146d37: “Editor‘s Proposed Draft Text Modifications for Joint Video Specification (ITU−T Rec. H264 | ISO/IEC 14496−10 AVC), Geneva modifications draft 36”, Geneva, Switzerland, October 2002参照)。
フレームの全てのマクロブロックがデコーディングされると、テクスチャシンセサイザは合成されるべきテクスチャ領域を満たすことを必要とする。
テクスチャアナライザおよびテクスチャシンセサイザをH.264/AVCビデオコーデック(ジョイントモデル2.1)に集積し、続いてビデオシーケンスをエンコードし、デコードするという実験が行われた。このために、2つの周知のテストシーケンス(「フラワーガーデン」および「コンクリート」)が使われた。両方のテストシーケンスは、視覚的な質を顕著に失うことなく特定のテクスチャを再現できるということを立証するのに非常に適しているテクスチャを含む。
本発明の一実施例において、H.264/AVCコーデックは、以下の通り設定された:
3つのBフレーム、
1つの基準フレーム、
CABAC(エントロピーコーディング方法)、
速度ひずみ最適化、
インターレースなし、
30Hzのフレーム周波数、
量子化パラメータ(QP=16、20、24、28および32)(図5)。
「フラワーガーデン」シーケンスでは、結果として満足な主観的な画質を示した。図4は、「フラワーガーデン」シーケンスの第6フレームの例を用いて得られた結果を示す。図4cは、スカイ領域で差分信号がほぼ0である一方、フラワー領域における差分信号はそれよりも明らかに高いことを示す。しかし、なお、デコードされたフレームおよびオリジナルフレーム間の光学比較において、ほぼ何の違いも見られなかった。これは、PSNR値がこの種のコーディングにおけるクオリティーの基準として適切でないことを示す。
可能な限り大きいビット率節約を推定可能にするために、両方のテストシーケンスは、最初のテストでは手動でセグメント化される。続くテストでは、半自動で生成されたセグメンテーションマスクを伴う(上記セクション「エンコーダ側テクスチャ解析」参照)。
図5は、量子化パラメータ(QP)に基づいて両方のテストシーケンスのために得られたビット率節約を示す。最も大きい節約は、最も高い量子化解像度(QP=16)に対して発生することが測定された。20.29%の節約(「フラワーガーデン」)および23.05%の節約(コンクリート)は、この解像度で、手動でセグメント化されたマスクを有する場合に測定された。半自動で生成されたマスクを伴った場合、QP=16に対して、5.6%の節約(「フラワーガーデン」)および18.53%(コンクリート)の節約を得た。ビット率節約は、量子化解像度の減少および/またはQP値の増加によって減少する。これは、送信されるサイド情報がQPの値とは関係なく一定であるためである。このことは、量子化解像度が粗くなるにつれて、ビット率全体におけるサイド情報の比率が増加することを意味する。量子化パラメータのそれぞれが28および32よりも大きい場合(図5)、H.264/AVCビデオコーデック標準のビット率は、テクスチャ解析および合成を伴うコーデックのビット率とほとんど同じか、またはそれよりも小さい。
「コンクリート」カーブ(図5)の重なりは、シーケンス全体に見られるように、検出されるテクスチャの数が手動セグメンテーションの場合よりも半自動セグメンテーションの場合の方が小さく、したがって、送信されなければならなかったサイド情報が手動セグメンテーションの場合より半自動セグメンテーションの場合の方が少なかったということに基づいている。したがって、サイド情報の量は、手動の場合より、半自動の場合の方が少なかった。H.264/AVCビデオエンコーディングおよびデコーディングされたフレームシーケンスの主観的な画質は、全てのQP設定において、テクスチャ解析および合成を伴うコーディングの結果に相当した(http://bs.hhi.de/~ndjiki/SE.htm参照)。
実施においては、本発明は上述した好ましい実施例に限定されることなく、むしろ、本質的に異なったタイプの実施例でさえをも有する本発明のアセンブリおよび方法を用いる多くの異なった形態が可能である。
図1は、テクスチャアナライザ(TA)およびテクスチャシンセサイザを用いるビデオコーディングを表す。 図2は、分割段階後(左手側)と併合段階後(右手側)のセグメント化されたシングルフレームを示す。 図3は、現フレームに当てはめられるイメージ領域の方向における基準フレーム領域のワーピングを示す。 図4は、「フラワーガーデン」テストシーケンスのコーディング結果を示す。 a)左上:オリジナルフレーム(「フラワーガーデン」シーケンスの第6フレーム) b)左下:合成されたテクスチャ領域を有するデコードされたフレーム c)右上:差分信号(増幅定数3) d)右下:伝統的な動き補償マスク 図5は、量子化パラメータQPに基づくビット率節約である。
符号の説明
1 エンコーダ
2 デコーダ
3 テクスチャアナライザ(TA)
4 テクスチャシンセサイザ(TS)

Claims (19)

  1. ビデオコーディングがテクスチャ解析およびテクスチャ合成を含み、
    エンコーダ側で、合成可能なテクスチャの領域を認識するためにビデオシーンのテクスチャ解析が実行され、ビデオシーンのコーディングが行われ、さらに、合成可能なテクスチャの認識された領域に関する情報およびこれらの領域のテクスチャに関する情報を用いて、認識される領域および合成可能なテクスチャを表すためのメタデータが生成され、さらに
    エンコーダ側で、コード化されたデータおよびメタデータが評価され、さらに、メタデータを評価することにより認識される領域のためにテクスチャを合成的に生成することによりビデオシーンが復元される、ビデオコーディングのための方法。
  2. 合成可能なテクスチャの領域が分割および併合セグメンテーションによって認識され、フレームがマルチ解像度4分木を用いてサブフレーム(ブロック)に再分割されることを特徴とする、請求項1に記載の方法。
  3. 次の再分割ステップから生じているブロックがスターティングブロックと類似した色および/またはテクスチャ特性を呈する場合、または
    最後の再分割ステップのブロックのサイズが既定値に満たない場合に、
    ブロック(スターティングブロック)の再分割が打ち切られることを特徴とする、請求項2に記載の方法。
  4. 類似した色および/またはテクスチャ特性によって再分割が打ち切られたブロックは均質なブロックとされ、フレームの再分割が完了したときに均質なブロックでないブロックは分類不能とされることを特徴とする、請求項2または3に記載の方法。
  5. フレームの再分割後に均質なブロックに対して類似性の評価が行われ、類似したブロックは合成可能な領域に結合されることを特徴とする、請求項2〜4のいずれかに記載の方法。
  6. ブロックの類似性がMPEG−7ディスクリプタに基づいて評価されることを特徴とする、請求項3〜5のいずれかに記載の方法。
  7. ブロックの類似性がMPEG−7ディスクリプタの「エッジヒストグラム」テクスチャディスクリプタ(EH)および/または「スケーラブルカラー」ディスクリプタ(SCC)に基づいて評価されることを特徴とする、請求項6に記載の方法。
  8. フレームの合成可能なテクスチャの認識された領域がビデオシーケンスの先行するフレームの合成可能なテクスチャの領域にマッチされることを特徴とする、前の請求項のいずれかに記載の方法。
  9. 「フレームグループ」(GoF)の最初と最後のフレーム(いわゆるキーフレーム)が平均2乗誤差方法に基づいて(MSEベースで)エンコーディングされ、認識された合成可能な領域を含む介在するBフレームが部分的に合成されることを特徴とする、前の請求項のいずれかに記載の方法。
  10. テクスチャカタログによってフレームグループの合成可能なテクスチャの認識の時間的整合性が確実にされることを特徴とする、請求項9に記載の方法。
  11. 部分的に合成されたフレームの合成可能な領域が適切なワーピングによってキーフレーム内の対応するテクスチャ領域に適応されることを特徴とする、前の請求項のいずれかに記載の方法。
  12. ワーピングが以下の式によって表されるプレーナパースペクティブモーションモデルによって行われることを特徴とする、請求項11に記載の方法:
    x´=[(a1+a3x+a4y)/(1+a7x+a8y)]+x、
    y´=[(a2+a5x+a6y)/(1+a7x+a8y)]+y、
    ここで、(x、y)はスターティングポイントの座標を表し、(x´、y´)はスターティングポイントの変化した座標を表し、a1、・・・、a8はモデルパラメータを表す。
  13. ワーピングにより、現GoFの最初または最後のフレームのテクスチャが認識される合成可能なテクスチャ領域の方向にワーピングされ、このような各テクスチャ領域はモーションパラメータセットおよびコントロールパラメータと関連し、コントロールパラメータはGoFの最初または最後のフレームがテクスチャ合成に用いられるかどうかを示すことを特徴とする、請求項12に記載の方法。
  14. テクスチャ合成のために、GoFのフレームは、合成されたテクスチャ領域とオリジナルテクスチャ領域との間でより小さい差分信号が決定されるために用いられることを特徴とする、請求項13に記載の方法は。
  15. 以下のものが、合成可能なテクスチャを有する領域のメタデータとして、テクスチャ領域ごとに送信されることを特徴とする、前の請求項のいずれかに記載の方法:
    セグメンテーションマスク、
    モーションパラメータセット、および/または
    コントロールパラメータ。
  16. ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法を行うことができるようにセットアップされた少なくとも1つのチップおよび/またはプロセッサを有し、ビデオコーディングのための方法を行うために備わっている要素は、その方法が
    エンコーダ側で、合成可能なテクスチャの領域を認識するためにビデオシーンのテクスチャ解析を実行すること、ビデオシーンをコーディングし、さらに、合成可能なテクスチャの認識された領域に関する情報およびこれらの領域のテクスチャに関する情報を用いて、認識される領域および合成可能なテクスチャを表すためのメタデータを生成すること、および
    エンコーダ側で、コード化されたデータおよびメタデータを評価すること、および、メタデータを評価することにより認識される領域のためにテクスチャを合成的に生成することによりビデオシーンを復元することを含む、アセンブリ。
  17. ビデオエンコーダ、
    テクスチャアナライザ(TA)、
    ビデオデコーダ、および
    テクスチャシンセサイザ(TS)を含み、
    ビデオエンコーダおよびビデオアナライザ(TA)はそれぞれビデオイン入力を含み、ビデオデコーダはビデオアウト出力を含み、テクスチャアナライザ(TA)の出力はビデオエンコーダの第2の入力に接続され、ビデオエンコーダの出力はビデオデコーダの入力に接続され、さらに、ビデオエンコーダの第2の出力はテクスチャシンセサイザ(TS)の入力に接続されていることを特徴とする、請求項16に記載のアセンブリ。
  18. コンピュータのメモリにロードされることにより、ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法をコンピュータが実行することを可能にするコンピュータプログラムであって、そのコンピュータプログラムは、ビデオコーディングのための方法を実行するためのプログラムコードを含み、その方法は
    エンコーダ側で、合成可能なテクスチャの領域を認識するためにビデオシーンのテクスチャ解析を実行すること、ビデオシーンをコーディングし、さらに、合成可能なテクスチャの認識された領域に関する情報およびこれらの領域のテクスチャに関する情報を用いて、認識される領域および合成可能なテクスチャを表すためのメタデータを生成すること、および
    デコーダ側で、コード化されたデータおよびメタデータを評価すること、および、メタデータを評価することにより認識される領域のためにテクスチャを合成的に生成することによりビデオシーンを復元することを含む、コンピュータプログラム。
  19. コンピュータのメモリにロードされることにより、ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法をコンピュータが実行することを可能にし、それに格納されるコンピュータプログラムを有するコンピュータで読み取り可能な記録媒体であって、そのコンピュータプログラムは、ビデオコーディングのための方法を実行するためのプログラムコードを含み、その方法は
    エンコーダ側で、合成可能なテクスチャの領域を認識するためにビデオシーンのテクスチャ解析を実行すること、ビデオシーンをコーディングし、さらに、合成可能なテクスチャの認識された領域に関する情報およびこれらの領域のテクスチャに関する情報を用いて、認識される領域および合成可能なテクスチャを表すためのメタデータを生成すること、および
    エンコーダ側で、コード化されたデータおよびメタデータを評価すること、および、メタデータを評価することにより認識される領域のためにテクスチャを合成的に生成することによりビデオシーンを復元することを含む、コンピュータで読み取り可能な記録媒体。
JP2006501963A 2003-02-28 2004-02-26 ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体 Expired - Fee Related JP4450828B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10310023A DE10310023A1 (de) 2003-02-28 2003-02-28 Verfahren und Anordnung zur Videocodierung, wobei die Videocodierung Texturanalyse und Textursynthese umfasst, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
PCT/EP2004/001939 WO2004077360A1 (de) 2003-02-28 2004-02-26 Verfahren und anordnung zur videocodierung, wobei die videocodierung texturanalyse und textursynthese umfasst, sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009184281A Division JP5063648B2 (ja) 2003-02-28 2009-08-07 ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2006519533A true JP2006519533A (ja) 2006-08-24
JP4450828B2 JP4450828B2 (ja) 2010-04-14

Family

ID=32864249

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2006501963A Expired - Fee Related JP4450828B2 (ja) 2003-02-28 2004-02-26 ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体
JP2009184281A Expired - Lifetime JP5063648B2 (ja) 2003-02-28 2009-08-07 ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009184281A Expired - Lifetime JP5063648B2 (ja) 2003-02-28 2009-08-07 ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体

Country Status (9)

Country Link
US (1) US7949053B2 (ja)
EP (2) EP1599835B1 (ja)
JP (2) JP4450828B2 (ja)
AT (2) ATE415052T1 (ja)
DE (3) DE10310023A1 (ja)
DK (1) DK1599835T3 (ja)
ES (2) ES2318402T3 (ja)
PT (1) PT1599835E (ja)
WO (1) WO2004077360A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049626A (ja) * 2007-08-17 2009-03-05 Nippon Telegr & Teleph Corp <Ntt> テクスチャ合成に基づく動画像符号化方法,復号方法,符号化装置,復号装置およびそれらのプログラムとその記録媒体
JP2010514325A (ja) * 2006-12-20 2010-04-30 サムスン エレクトロニクス カンパニー リミテッド テクスチャ合成を利用した映像の符号化、復号化の方法及び装置
JP2011510566A (ja) * 2008-01-16 2011-03-31 ソニー株式会社 スケーラブル符号化フレームワーク内でテクスチャ解析及び合成を使用するビデオ符号化システム
JP2011515875A (ja) * 2008-01-18 2011-05-19 シャープ株式会社 サイド情報を用いた動画像符号化のためのテクスチャ合成の方法、装置、プログラム、及び記録媒体
JP2013081170A (ja) * 2011-10-04 2013-05-02 Thomson Licensing Hdr画像をエンコードする方法および装置、hdr画像を再構成する方法および装置ならびに非一時的記憶媒体
JP2013537381A (ja) * 2010-09-10 2013-09-30 トムソン ライセンシング ビデオ圧縮のための動き補償学習型超解像を用いてビデオ信号を復号する方法と装置
JP2013543299A (ja) * 2010-09-10 2013-11-28 トムソン ライセンシング 事例ベースのデータ・プルーニングを用いたビデオ復号
JP2014180043A (ja) * 2014-05-28 2014-09-25 Thomson Licensing パッチベースのサンプリングテクスチャ合成を用いたテクスチャ圧縮の方法及び装置
KR20160043398A (ko) * 2014-10-13 2016-04-21 엔트릭스 주식회사 클라우드 스트리밍 서비스 시스템, 소스 정보를 이용한 클라우드 스트리밍 서비스 방법 및 이를 위한 장치
US9338477B2 (en) 2010-09-10 2016-05-10 Thomson Licensing Recovering a pruned version of a picture in a video sequence for example-based data pruning using intra-frame patch similarity
US9544598B2 (en) 2010-09-10 2017-01-10 Thomson Licensing Methods and apparatus for pruning decision optimization in example-based data pruning compression
US9602814B2 (en) 2010-01-22 2017-03-21 Thomson Licensing Methods and apparatus for sampling-based super resolution video encoding and decoding
JP2017529716A (ja) * 2014-07-30 2017-10-05 エントリクス カンパニー、リミテッド クラウドストリーミングサービスシステム、スチールイメージ圧縮技法を利用したクラウドストリーミングサービス方法及びそのための装置
US9813707B2 (en) 2010-01-22 2017-11-07 Thomson Licensing Dtv Data pruning for video compression using example-based super-resolution
US10462200B2 (en) 2014-07-30 2019-10-29 Sk Planet Co., Ltd. System for cloud streaming service, method for still image-based cloud streaming service and apparatus therefor
US11259018B2 (en) 2016-04-22 2022-02-22 Sony Corporation Encoding apparatus and encoding method as well as decoding apparatus and decoding method

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101223787A (zh) * 2005-07-15 2008-07-16 皇家飞利浦电子股份有限公司 针对纹理区域的图像编码器
US20100074328A1 (en) * 2006-12-19 2010-03-25 Koninklijke Philips Electronics N.V. Method and system for encoding an image signal, encoded image signal, method and system for decoding an image signal
US8208556B2 (en) * 2007-06-26 2012-06-26 Microsoft Corporation Video coding using spatio-temporal texture synthesis
EP2018070A1 (en) * 2007-07-17 2009-01-21 Thomson Licensing Method for processing images and the corresponding electronic device
DE102007036215B4 (de) * 2007-08-02 2009-09-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Störstellenermittlung in Bildern/Videos
US9420233B2 (en) * 2008-03-26 2016-08-16 Pelco, Inc. Method and apparatus for dynamically controlling a video surveillance system
EP2281396A1 (fr) * 2008-06-05 2011-02-09 Thomson Licensing Procede de codage d ' image avec synthese de texture
KR101715150B1 (ko) * 2008-06-27 2017-03-10 톰슨 라이센싱 패치-기반의 샘플링 텍스쳐 합성을 사용하여 텍스쳐 압축을 위한 방법 및 장치
US8155457B2 (en) * 2008-11-18 2012-04-10 International Business Machines Corporation Corporation Robust encoding of metadata in lossy encoded images
US8363721B2 (en) * 2009-03-26 2013-01-29 Cisco Technology, Inc. Reference picture prediction for video coding
JP5562346B2 (ja) * 2009-10-20 2014-07-30 シャープ株式会社 動画像符号化装置、動画像復号装置、動画像符号化方法および動画像復号方法
KR101469513B1 (ko) * 2010-09-01 2014-12-05 한국전자통신연구원 영상여기신호를 이용한 다중 텍스쳐 이미지 기반 영상 처리 방법 및 장치
US8842738B2 (en) * 2010-09-01 2014-09-23 Electronics And Telecommunications Research Institute Signal processing method and apparatus based on multiple textures using video audio excitation signals
US8848800B2 (en) * 2010-09-01 2014-09-30 Electronics And Telecommunications Research Institute Signal processing method and apparatus based on multiple textures using video sensor excitation signals
KR101469515B1 (ko) * 2010-09-01 2014-12-05 한국전자통신연구원 영상센서여기신호를 이용한 다중 텍스쳐 기반 신호 처리 방법 및 장치
US8831094B2 (en) * 2010-09-01 2014-09-09 Electronics And Telecommunications Research Institute Video processing method and apparatus based on multiple texture images
KR101527369B1 (ko) * 2010-09-01 2015-06-09 한국전자통신연구원 영상오디오여기신호를 이용한 다중 텍스쳐 기반 신호 처리 방법 및 장치
CN103679649B (zh) * 2013-11-18 2016-10-05 联想(北京)有限公司 一种信息处理方法和电子设备
US10074014B2 (en) 2015-04-22 2018-09-11 Battelle Memorial Institute Feature identification or classification using task-specific metadata
US9870638B2 (en) 2016-02-24 2018-01-16 Ondrej Jamri{hacek over (s)}ka Appearance transfer techniques
US9852523B2 (en) * 2016-02-24 2017-12-26 Ondrej Jamri{hacek over (s)}ka Appearance transfer techniques maintaining temporal coherence
US20190087930A1 (en) * 2017-09-18 2019-03-21 Qualcomm Incorporated Adding metadata to texture surfaces for bandwidth compression
US10805629B2 (en) * 2018-02-17 2020-10-13 Google Llc Video compression through motion warping using learning-based motion segmentation
US10887589B2 (en) * 2019-04-12 2021-01-05 Realnetworks, Inc. Block size determination for video coding systems and methods
CN113742288A (zh) * 2020-05-29 2021-12-03 伊姆西Ip控股有限责任公司 用于数据索引的方法、电子设备和计算机程序产品

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8528143D0 (en) * 1985-11-14 1985-12-18 British Telecomm Image encoding & synthesis
DE69228983T2 (de) * 1991-12-18 1999-10-28 Koninkl Philips Electronics Nv System zum Übertragen und/oder Speichern von Signalen von texturierten Bildern
KR970003799B1 (ko) * 1993-12-29 1997-03-21 양승택 영상 프레임차를 이용한 영상신호 전송장치
EP0757334A3 (en) * 1995-07-07 1997-07-02 Imec Vzw Data compression method and apparatus
WO1997042766A1 (en) * 1996-05-06 1997-11-13 Philips Electronics N.V. Segmented video coding and decoding method and system
US6990248B2 (en) * 1996-05-09 2006-01-24 Koninklijke Philips Electronics N.V. Segmented video coding and decoding method and system
US6044168A (en) * 1996-11-25 2000-03-28 Texas Instruments Incorporated Model based faced coding and decoding using feature detection and eigenface coding
IL128836A (en) * 1997-07-18 2003-10-31 Sony Corp Method and system for multiplexing image signal, method and system for demultiplexing image signal, and transmission medium
US6236757B1 (en) * 1998-06-18 2001-05-22 Sharp Laboratories Of America, Inc. Joint coding method for images and videos with multiple arbitrarily shaped segments or objects
US6593925B1 (en) * 2000-06-22 2003-07-15 Microsoft Corporation Parameterized animation compression methods and arrangements
US7110452B2 (en) * 2001-03-05 2006-09-19 Intervideo, Inc. Systems and methods for detecting scene changes in a video data stream
US6810086B1 (en) * 2001-06-05 2004-10-26 At&T Corp. System and method of filtering noise
US7606435B1 (en) * 2002-02-21 2009-10-20 At&T Intellectual Property Ii, L.P. System and method for encoding and decoding using texture replacement
US6947045B1 (en) * 2002-07-19 2005-09-20 At&T Corporation Coding of animated 3-D wireframe models for internet streaming applications: methods, systems and program products

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101381600B1 (ko) * 2006-12-20 2014-04-04 삼성전자주식회사 텍스처 합성을 이용한 영상의 부호화, 복호화 방법 및 장치
JP2010514325A (ja) * 2006-12-20 2010-04-30 サムスン エレクトロニクス カンパニー リミテッド テクスチャ合成を利用した映像の符号化、復号化の方法及び装置
US8724915B2 (en) 2006-12-20 2014-05-13 Samsung Electronics Co., Ltd. Image encoding and decoding method and apparatus using texture synthesis
JP4659005B2 (ja) * 2007-08-17 2011-03-30 日本電信電話株式会社 テクスチャ合成に基づく動画像符号化方法,復号方法,符号化装置,復号装置およびそれらのプログラムとその記録媒体
JP2009049626A (ja) * 2007-08-17 2009-03-05 Nippon Telegr & Teleph Corp <Ntt> テクスチャ合成に基づく動画像符号化方法,復号方法,符号化装置,復号装置およびそれらのプログラムとその記録媒体
JP2011510566A (ja) * 2008-01-16 2011-03-31 ソニー株式会社 スケーラブル符号化フレームワーク内でテクスチャ解析及び合成を使用するビデオ符号化システム
JP2011515875A (ja) * 2008-01-18 2011-05-19 シャープ株式会社 サイド情報を用いた動画像符号化のためのテクスチャ合成の方法、装置、プログラム、及び記録媒体
US9602814B2 (en) 2010-01-22 2017-03-21 Thomson Licensing Methods and apparatus for sampling-based super resolution video encoding and decoding
US9813707B2 (en) 2010-01-22 2017-11-07 Thomson Licensing Dtv Data pruning for video compression using example-based super-resolution
US9544598B2 (en) 2010-09-10 2017-01-10 Thomson Licensing Methods and apparatus for pruning decision optimization in example-based data pruning compression
JP2013537381A (ja) * 2010-09-10 2013-09-30 トムソン ライセンシング ビデオ圧縮のための動き補償学習型超解像を用いてビデオ信号を復号する方法と装置
US9338477B2 (en) 2010-09-10 2016-05-10 Thomson Licensing Recovering a pruned version of a picture in a video sequence for example-based data pruning using intra-frame patch similarity
JP2013543298A (ja) * 2010-09-10 2013-11-28 トムソン ライセンシング 事例ベースのデータ・プルーニングを用いたビデオ符号化
JP2013543299A (ja) * 2010-09-10 2013-11-28 トムソン ライセンシング 事例ベースのデータ・プルーニングを用いたビデオ復号
JP2013081170A (ja) * 2011-10-04 2013-05-02 Thomson Licensing Hdr画像をエンコードする方法および装置、hdr画像を再構成する方法および装置ならびに非一時的記憶媒体
JP2014180043A (ja) * 2014-05-28 2014-09-25 Thomson Licensing パッチベースのサンプリングテクスチャ合成を用いたテクスチャ圧縮の方法及び装置
JP2017529716A (ja) * 2014-07-30 2017-10-05 エントリクス カンパニー、リミテッド クラウドストリーミングサービスシステム、スチールイメージ圧縮技法を利用したクラウドストリーミングサービス方法及びそのための装置
US10462200B2 (en) 2014-07-30 2019-10-29 Sk Planet Co., Ltd. System for cloud streaming service, method for still image-based cloud streaming service and apparatus therefor
US10652591B2 (en) 2014-07-30 2020-05-12 Sk Planet Co., Ltd. System for cloud streaming service, method for same using still-image compression technique and apparatus therefor
KR20160043398A (ko) * 2014-10-13 2016-04-21 엔트릭스 주식회사 클라우드 스트리밍 서비스 시스템, 소스 정보를 이용한 클라우드 스트리밍 서비스 방법 및 이를 위한 장치
KR102247887B1 (ko) * 2014-10-13 2021-05-04 에스케이플래닛 주식회사 클라우드 스트리밍 서비스 시스템, 소스 정보를 이용한 클라우드 스트리밍 서비스 방법 및 이를 위한 장치
US11259018B2 (en) 2016-04-22 2022-02-22 Sony Corporation Encoding apparatus and encoding method as well as decoding apparatus and decoding method

Also Published As

Publication number Publication date
EP1635578B1 (de) 2008-11-19
DK1599835T3 (da) 2007-06-04
ES2280947T3 (es) 2007-09-16
EP1599835B1 (de) 2007-02-14
US20060039617A1 (en) 2006-02-23
JP2010011470A (ja) 2010-01-14
EP1599835A1 (de) 2005-11-30
PT1599835E (pt) 2007-03-30
JP5063648B2 (ja) 2012-10-31
EP1635578A2 (de) 2006-03-15
DE10310023A1 (de) 2004-09-16
US7949053B2 (en) 2011-05-24
JP4450828B2 (ja) 2010-04-14
ATE415052T1 (de) 2008-12-15
DE502004008490D1 (de) 2009-01-02
EP1635578A3 (de) 2007-06-27
ES2318402T3 (es) 2009-05-01
WO2004077360A1 (de) 2004-09-10
ATE354143T1 (de) 2007-03-15
DE502004002904D1 (de) 2007-03-29

Similar Documents

Publication Publication Date Title
JP4450828B2 (ja) ビデオコーディングがテクスチャ解析およびテクスチャ合成を含むビデオコーディングのための方法およびアセンブリと、対応するコンピュータプログラムおよび対応するコンピュータで読み込み可能な記録媒体
US20180152699A1 (en) Local hash-based motion estimation for screen remoting scenarios
US20180063540A1 (en) Motion estimation for screen remoting scenarios
US8285064B2 (en) Method for processing images and the corresponding electronic device
KR101855542B1 (ko) 예제 기반 데이터 프루닝을 이용한 비디오 부호화
Ndjiki-Nya et al. Improved H. 264/AVC coding using texture analysis and synthesis
TW201143458A (en) Dynamic image encoding device and dynamic image decoding device
CN114363612A (zh) 用于双向光流的比特宽度控制的方法和设备
KR20140019335A (ko) 장면 타입에 기초한 비디오 스트림 인코딩
EP1359765A2 (en) Fading estimation/compensation in video encoding
TW201828708A (zh) 結合多個去雜訊化技術及並行分組圖像補塊的非局部適應性環路濾波器
EP2606643A1 (en) Method for reconstructing a current block of an image and corresponding encoding method, corresponding devices as well as storage medium carrying an images encoded in a bit stream
CN113315967B (zh) 视频编码方法、装置、介质及电子设备
US20200296358A1 (en) Method and device for encoding image according to low-quality coding mode, and method and device for decoding mage
CN113115075B (zh) 一种视频画质增强的方法、装置、设备以及存储介质
US20150281689A1 (en) Method of coding and decoding images, a coding and decoding device, and corresponding computer programs
Wödlinger et al. ECSIC: Epipolar Cross Attention for Stereo Image Compression
US20230269380A1 (en) Encoding method, decoding method, encoder, decoder and storage medium
Menon et al. Gain of Grain: A Film Grain Handling Toolchain for VVC-based Open Implementations
JP2005197879A (ja) 映像信号符号化装置
Helmrich et al. A spectrally adaptive noise filling tool for perceptual transform coding of still images
Ballé et al. A quantization scheme for modeling and coding of noisy texture in natural images
JP4008846B2 (ja) 画像符号化装置、画像符号化方法、画像符号化プログラム及びそのプログラムを記録した記録媒体
Krutz et al. Background modeling for video coding: From sprites to Global Motion Temporal filtering
CN116458157A (zh) 用于图像中感兴趣的对象区域的ai编码装置和方法以及ai解码装置和方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090310

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090609

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090616

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090710

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091204

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100126

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees