JP2004260840A - スプライトベースによるビデオ符号化システム - Google Patents
スプライトベースによるビデオ符号化システム Download PDFInfo
- Publication number
- JP2004260840A JP2004260840A JP2004095933A JP2004095933A JP2004260840A JP 2004260840 A JP2004260840 A JP 2004260840A JP 2004095933 A JP2004095933 A JP 2004095933A JP 2004095933 A JP2004095933 A JP 2004095933A JP 2004260840 A JP2004260840 A JP 2004260840A
- Authority
- JP
- Japan
- Prior art keywords
- sprite
- mosaic
- background
- shape
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/23—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with coding of regions that are present throughout a whole video segment, e.g. sprites, background or mosaic
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S707/00—Data processing: database and file management or data structures
- Y10S707/99931—Database or file accessing
- Y10S707/99933—Query processing, i.e. searching
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】スプライトの作成を自動的に行う。
【解決手段】スプライトベースによる符号化システムは、スプライト作成が自動的であり、スプライトオブジェクトの分割は、自動的であると共に符号化処理と同様にスプライト作成に統合されている符号器と復号器を含む。スプライトオブジェクトは、その動きを基準としてビデオオブジェクトの残りから識別される。スプライトオブジェクトは、通常はカメラの動きやズームのせいによるシーンの動きの支配的成分に従って動く。従って、スプライトベースによる符号化システムは、前景イメージから背景イメージを識別するために、支配的動きを用いる。スプライトベースによる符号化システムに統合された自動分割は、スプライトオブジェクトの形状及びテクスチャを識別する。
【選択図】なし
【解決手段】スプライトベースによる符号化システムは、スプライト作成が自動的であり、スプライトオブジェクトの分割は、自動的であると共に符号化処理と同様にスプライト作成に統合されている符号器と復号器を含む。スプライトオブジェクトは、その動きを基準としてビデオオブジェクトの残りから識別される。スプライトオブジェクトは、通常はカメラの動きやズームのせいによるシーンの動きの支配的成分に従って動く。従って、スプライトベースによる符号化システムは、前景イメージから背景イメージを識別するために、支配的動きを用いる。スプライトベースによる符号化システムに統合された自動分割は、スプライトオブジェクトの形状及びテクスチャを識別する。
【選択図】なし
Description
本発明は、MPEG−4のような形状/テクスチャ(shape/texture)を別々に符号化する環境で作動する。スプライト(モザイクともいう)が自動的に符号器及び復号器双方において作られる機構に関する。又、本技術を用いるアプリケーションについても議論する。
モザイクイメージ(モザイク及びスプライトの用語を適宜用いる)は、いくつかのビデオフレーム上のあるシーンオブジェクトのイメージから作られる。例えば、パンニングカメラの場合、背景シーンのモザイクは、その背景のパノラマイメージである。
MPEG−4標準化活動(activities)では、2つの主なタイプのスプライトとスプライトベースによる符号化が定義されている。第1のタイプは、オフライン静的スプライトと呼ばれる。オフライン静的スプライトは例えば背景のような同じビデオオブジェクトのスナップショットのシーケンスを作るために用いられるパノラマイメージである。各スナップショットは、単にモザイクコンテンツの部分をワープすること及びモザイクコンテンツを現在のビデオフレームが再構築されつつあるビデオバッファにコピーすることにより生成される。静的スプライトは、オフラインで作られ、副情報として送信される。
モザイクの第2のタイプは、オンライン動的スプライトと呼ばれる。オンライン動的スプライトはビデオオブジェクトの予測符号化に用いられている。シーケンスにおけるビデオオブジェクトの各スナップショットの予測は、動的スプライトの部分をワープすることによって得られる。残差信号は、符号化され、符号器及び復号器の中のモザイクを同時更新するために用いられる。動的モザイクのコンテンツは、最新のビデオオブジェクト情報を含むことでコンスタントに更新される。静的スプライトに対応して、動的スプライトは符号器と復号器中でオンラインで同時に作られる。従って追加の情報を送信する必要がない。
発明の概要
オフライン静的スプライト及びオンライン動的スプライトベースによる符号化のための統一(unified)シンタックス[2]を提供するMPEG−4用シンタックスを記述した。我々のシンタックスは、「動的オフラインスプライトベースによる符号化」と呼ぶ新たなモードを与えており、ここでは(オフライン静的スプライトの場合に、ワープしたスプライトを直接コピーするのに対して)、予測符号化が、オフラインスプライトをもとにして実行される。又、「オンライン静的スプライトベースによる符号化」と呼ぶ新たなモードも与えており、ここでは、符号器と復号器はスプライトをさらに作るのをやめ、それを、完成度に依らず、静的スプライトとして使用する。
オフライン静的スプライト及びオンライン動的スプライトベースによる符号化のための統一(unified)シンタックス[2]を提供するMPEG−4用シンタックスを記述した。我々のシンタックスは、「動的オフラインスプライトベースによる符号化」と呼ぶ新たなモードを与えており、ここでは(オフライン静的スプライトの場合に、ワープしたスプライトを直接コピーするのに対して)、予測符号化が、オフラインスプライトをもとにして実行される。又、「オンライン静的スプライトベースによる符号化」と呼ぶ新たなモードも与えており、ここでは、符号器と復号器はスプライトをさらに作るのをやめ、それを、完成度に依らず、静的スプライトとして使用する。
オフライン静的,オンライン動的スプライトベースによる符号化は共に、スプライトを構築することを要求する。前者の場合、スプライトは送信前に作られる。後者の場合、スプライトは送信中にオンラインで作られる。これまでMPEG−4は、オブジェクトのアウトライン(分割)(このためにスプライトは作られる)が全ての時刻で前もって知られていると仮定していた。これはあるアプリケーション、特にポストプロダクションやブルースクリーン技術を用いるコンテンツ生成においては正しいが、一般に自動分割はスプライト作成の必須部分であるべきである。従って、スプライト作成にシーン分割の知識を予め必要としないスプライトベースによる符号化システムが必要である。
本明細書において、スプライトベースによる符号化システム(符号器及び復号器)を記述しているが、ここでは、スプライト作成は自動的であり、スプライトオブジェクトの分割は自動的であると共に符号化処理及びスプライト作成も統合されている。
スプライトオブジェクトは、残りのビデオオブジェクトからその動きを基準として識別され得ると仮定する。スプライトオブジェクトは、シーンの動きの支配的成分に従って、動くと仮定する。このシーンの動きは、通常はカメラの動きやズーミングに依存する。よって、本システムは、当業者には既知の支配的動きを用いる。
スプライトオブジェクトは、残りのビデオオブジェクトからその動きを基準として識別され得ると仮定する。スプライトオブジェクトは、シーンの動きの支配的成分に従って、動くと仮定する。このシーンの動きは、通常はカメラの動きやズーミングに依存する。よって、本システムは、当業者には既知の支配的動きを用いる。
本システムは、例えば、個々のビデオオブジェクトの形状とテクスチャが別個に符号化されるMPEG−4[3]のようなビデオオブジェクトベースによる符号化に好適である。上記システムに統合された自動分割は、スプライトオブジェクトの形状及びテクスチャを同定する。
本発明には幾つかのアプリケーションの可能性がある。極めて低いビットレートのアプリケーションでは、ビデオオブジェクトを含むという見地から、ビデオフレームの符号化が高コストとなる可能性がある。その理由としては、制限があるビット量のかなりの部分を、このようなオブジェクトの形状が費やす可能性があるからである。このような場合、本システムは、フレームベースによる符号化に帰着することができ、ここでは自動分割が、後述の「オペレーション」において記述するように、スプライト作成と支配的動き補償予測のためにより良い支配的動き推定(estimation)を得るためにのみ使われる。
上記符号化システムには、これはカメラの視界が頻繁に変わり得る場所、例えば複数台のカメラを使用するテレビ会議や、2つ以上のカメラで撮られるトークショーのような場所でのアプリケーションに好適であるという特徴がある。本システムは、マルチプルスプライトの作成、必要に応じてそれらを使用することに適用可能である。例えば、2つの異なる背景の前にいる2人の参加者の間で、カメラが前後に移動したとき、2つの背景スプライトが作成され、適宜使用される。より詳しくは、背景Aが見えている時に、背景B用のスプライトの作成と符号化におけるスプライトの使用は、背景Bが再度現れるまで中断される。同様にして、マルチプルスプライトの使用は、MPEG−4技術において可能であり、「オペレーション」の部分で後述する。
ここに開示されたシステムは、後述のように符号化処理中にスプライトを生成する。しかしながら、生成されるスプライトは、符号化後、圧縮ビデオクリップの代表イメージとして続けて使用してもよい。その特徴は、そのビデオクリップの特徴を認識するのに使用してもよい。そのビデオクリップは特徴ベース(或いは、コンテンツベース)による記録とビデオクリップの検索に使用可能である。よって、スプライトベースによる符号化は、符号化処理の間に生成されたスプライトイメージがビデオクリップの代表イメージとして作用するところのビットストリームのビデオライブラリの構築に適している。実際、モザイクも、静止イメージ符号化方法を使用して、符号化することができる。このような、ビデオライブラリのシステムは図5に描かれている。
同様の方法で、1つ又は数個のイベントリストが背景スプライトと関連づけられる。イベントリストのために選択される可能性のあるものは、各前景オブジェクトに属する1つ又は数個の頂点の連続位置のセットである。このようなリストは、スプライトにおける前景オブジェクトの位置の記号代表イメージを生成するために用いられる。各頂点の連続位置は、直線でリンクされるか或いは明確な色で区分けするかのいずれかである。頂点の連続位置は、静的(同一のスプライトにある全ての連続位置)又は動的(時刻的に連続的なモザイクに示された頂点の位置)に示される。ここで頂点は、前景オブジェクトの明確な特徴の全てに対応して選択される。このような特徴の例としては、オブジェクトの形状の重心或いは、突起点がある。後者の場合と、いくつかの頂点が同時に使われた場合には、それら頂点はオブジェクト形状の階層的記述に従ってアレンジされる。この技術を用いることにより、ユーザやプレゼンテーションインターフェースは、背景スプライトの中の連続前景オブジェクト位置を示すために粗い精度から細かい精度まで形状を自由に選べる。この概念は、ビデオライブラリのシステムにおいて前景の動き特性に基づいたコンテンツを検索するために用いることができる。
上記システムの自動スプライト作成部は、送信前にオフラインスプライトが作成されるテレビ会議アプリケーションにおいて、オフラインモードで使用することができる。このようなシステムは、図6に示されている。上記システムは、オリジナルのイメージよりも高い空間解像度を持つスプライトを生成することも出来る。
実施形態の詳細な説明
上述の方法は、背景モザイクを作成する一方で、同時に背景から前景を切り離すことを、順を追って学習できるようにデザインされたものである。ステップ1から10は、背景の構築が完了するまで、又は中止されるまで、繰り返される。
上述の方法は、背景モザイクを作成する一方で、同時に背景から前景を切り離すことを、順を追って学習できるようにデザインされたものである。ステップ1から10は、背景の構築が完了するまで、又は中止されるまで、繰り返される。
[仮定]
記号は以下のとおりである:
I(s,t)は、空間位置s,時刻tにおけるビデオフレームのコンテンツを表す。
Wt←(t-1)(I(s,t−1))は、時刻(t−1)から時刻tにおいてイメージをマッピングするワープ演算子を表す。時刻tにおいてビデオバッファ内で画素位置s 0が与えられると、このワープ演算は、フレーム(t−1)において対応する位置sに画素値をコピーすることによって実行される。位置s 0と位置sとの間の対応は、特定でかつ十分に定義された変換例えばアフィン変換や透視変換によって確立される。
記号は以下のとおりである:
I(s,t)は、空間位置s,時刻tにおけるビデオフレームのコンテンツを表す。
Wt←(t-1)(I(s,t−1))は、時刻(t−1)から時刻tにおいてイメージをマッピングするワープ演算子を表す。時刻tにおいてビデオバッファ内で画素位置s 0が与えられると、このワープ演算は、フレーム(t−1)において対応する位置sに画素値をコピーすることによって実行される。位置s 0と位置sとの間の対応は、特定でかつ十分に定義された変換例えばアフィン変換や透視変換によって確立される。
は、インジケータバッファで、量xは、全ての空間位置sに対して1又は2ビットの深さになる。
Threshは、しきい値である。演算≦Threshと>Threshは、シンボリック(記号)であって、複雑なしきい値処理演算を表現することができる。
現在のイメージフレームI(s,t)の(色成分毎の)寸法は、Mt×Ntであり、ワープWt←(t-1)(C-1C{I(s,t−1)})後に圧縮/伸張された前フレームの寸法は、Mt-1×Nt-1画素の矩形配列に内接させることができる。
現在のイメージフレームI(s,t)の(色成分毎の)寸法は、Mt×Ntであり、ワープWt←(t-1)(C-1C{I(s,t−1)})後に圧縮/伸張された前フレームの寸法は、Mt-1×Nt-1画素の矩形配列に内接させることができる。
スプライトM(s,t)は、色成分毎のサイズMm×Nmのイメージ(テクスチャ)バッファである。フィールドImmosaic(s,t)は、同一サイズ寸法の単一成分フィールドである。
スプライトの生成は、時刻tで始まる。イメージI(s,t−1)は、すでに圧縮及び伸張されており、符号器と復号器の双方で利用可能である。
下記ステップにおいて、イメージコンテンツは、背景部と前景部(或いはVO)を有するものと仮定され、背景のモザイクが作成される。
スプライトの生成は、時刻tで始まる。イメージI(s,t−1)は、すでに圧縮及び伸張されており、符号器と復号器の双方で利用可能である。
下記ステップにおいて、イメージコンテンツは、背景部と前景部(或いはVO)を有するものと仮定され、背景のモザイクが作成される。
[ステップ1:初期化]
さて、図1乃至図3についてみると、上述の方法のステップの結果が、図示されている。図1は、時刻t−1(モザイク作成が初期化された瞬間)から時刻t(新たなビデオフレーム又はフィールドが得られた時)までのステップ0乃至11を示す。図2と図3は、ステップ2乃至11で、それぞれ、時刻tからt+1と時刻t+1からt+2を示す。各図の左上角(A)には、新たに得られたビデオフレームが示されており、このビデオフレームは、一度圧縮/伸張及びワープされた以前のビデオフレーム(右隣のイメージフィールド)(B)と比較される(ステップ2)。ステップ3は、各図第1行最右のイメージフィールド(C)で示されている。このフィールドは、コンテンツの変化が検出された領域を示している。モザイクバッファの状態は、第2行最左のイメージフィールド(D)に示されている。このバッファは、ステップ4で記述される新たな背景領域を認識するために使われる。これらの領域は、背景が既知でなかった領域に対応する。前景の認識は、第2行最右のイメージ(F)で示されている。このイメージと関連する操作は、前景を定義するために変化マップ,モザイク及び新たな背景領域を用いるステップ5に記述されている。本方法のステップ6と7は、第3行の最左2つのイメージフィールド(G,H)で説明される。ここで、背景情報は、前ステップで得られた圧縮/伸張された前景情報から来る。最後に、最下行右のイメージフィールド(I)によりモザイク更新処理が図示されている。この処理は、本方法のステップ8,9,10,及び11で起こる。
さて、図1乃至図3についてみると、上述の方法のステップの結果が、図示されている。図1は、時刻t−1(モザイク作成が初期化された瞬間)から時刻t(新たなビデオフレーム又はフィールドが得られた時)までのステップ0乃至11を示す。図2と図3は、ステップ2乃至11で、それぞれ、時刻tからt+1と時刻t+1からt+2を示す。各図の左上角(A)には、新たに得られたビデオフレームが示されており、このビデオフレームは、一度圧縮/伸張及びワープされた以前のビデオフレーム(右隣のイメージフィールド)(B)と比較される(ステップ2)。ステップ3は、各図第1行最右のイメージフィールド(C)で示されている。このフィールドは、コンテンツの変化が検出された領域を示している。モザイクバッファの状態は、第2行最左のイメージフィールド(D)に示されている。このバッファは、ステップ4で記述される新たな背景領域を認識するために使われる。これらの領域は、背景が既知でなかった領域に対応する。前景の認識は、第2行最右のイメージ(F)で示されている。このイメージと関連する操作は、前景を定義するために変化マップ,モザイク及び新たな背景領域を用いるステップ5に記述されている。本方法のステップ6と7は、第3行の最左2つのイメージフィールド(G,H)で説明される。ここで、背景情報は、前ステップで得られた圧縮/伸張された前景情報から来る。最後に、最下行右のイメージフィールド(I)によりモザイク更新処理が図示されている。この処理は、本方法のステップ8,9,10,及び11で起こる。
バイナリフィールドImmosaic(s,t)は、バッファにおける全ての位置でsで0に初期化されており、これはモザイクのコンテンツがこれら位置では知られていないことを意味する。
モザイクバッファM(s,t)のコンテンツは、0に初期化される。
現在のビデオフレームI(s,t−1)からモザイクに至るまでのワープパラメータは、初期化されてWt0←(t-1)()となる。ここでt0は、任意の架空の時刻である。この初期ワープは、モザイクを作成するために使われる解像度又は時刻基準(time reference)を特定する方法を提供するものとして重要である。この初期マッピングの適用は、本方法によりもたらされた歪みを最小化する最適時刻t0の選択又は良好な空間的解像度を備えるモザイクを作成している。これらの初期ワープパラメータは、復号器へ送信される。
モザイクバッファM(s,t)のコンテンツは、0に初期化される。
現在のビデオフレームI(s,t−1)からモザイクに至るまでのワープパラメータは、初期化されてWt0←(t-1)()となる。ここでt0は、任意の架空の時刻である。この初期ワープは、モザイクを作成するために使われる解像度又は時刻基準(time reference)を特定する方法を提供するものとして重要である。この初期マッピングの適用は、本方法によりもたらされた歪みを最小化する最適時刻t0の選択又は良好な空間的解像度を備えるモザイクを作成している。これらの初期ワープパラメータは、復号器へ送信される。
[ステップ2:取得]
イメージI(s,t)が取得され、イメージI(s,t−1)からI(s,t)へのマッピングのための順方向ワープパラメータが計算される。ワープパラメータの数は、これらのパラメータの予測方法と同じく、ここでは特定されない。
[4]に示されるような、支配的動き推定アルゴリズムを用いることができる。ワープパラメータは、現在のワープパラメータからなるもので、この結果がマッピングWt←t0()である。これらのパラメータは、復号器へ送信される。
イメージI(s,t)が取得され、イメージI(s,t−1)からI(s,t)へのマッピングのための順方向ワープパラメータが計算される。ワープパラメータの数は、これらのパラメータの予測方法と同じく、ここでは特定されない。
[4]に示されるような、支配的動き推定アルゴリズムを用いることができる。ワープパラメータは、現在のワープパラメータからなるもので、この結果がマッピングWt←t0()である。これらのパラメータは、復号器へ送信される。
[ステップ3:符号化/復号化された前フレームと現在のフレームとの間のコンテンツにおける変化検出をする]
i)イメージよりも大きくてモザイクと同じ大きさの可能性があるサイズMb×Nb(Mb>Mt,Nb>Nt)の大バッファを初期化する。
このバッファは、全ての位置で2ビットの深さである。このバッファは、既知でない状態を表示するために、3に初期化される。
Imchange(s,t)=3
i)イメージよりも大きくてモザイクと同じ大きさの可能性があるサイズMb×Nb(Mb>Mt,Nb>Nt)の大バッファを初期化する。
このバッファは、全ての位置で2ビットの深さである。このバッファは、既知でない状態を表示するために、3に初期化される。
Imchange(s,t)=3
ii)共通にサポートされたイメージについての(動き補償された)シーン変化を計算する。コンテンツにおいて変化が小さいとみなされる全ての位置にラベル0を与える。変化が大きいと検出された位置にラベル1aを与える。領域をより均質にするために、追加操作(例えばモルフォロジカル操作(morphological operation))を行う。この操作は、ラベルを1aから0にリセットするか0から1aにセットするかのいずれかである。0ラベルの領域は典型的に背景ビデオオブジェクトの一部分として考慮され、符号化される。一方、1aとラベル付けされた領域は、典型的な前景ビデオオブジェクトの一部分として符号化される。
ここで、Threschangeは、予め定義されたしきい値である。
iii)以下のように、新しいイメージ領域にタグを付ける。この領域は時刻tでサポートされるイメージが、時刻(t−1)でサポートされたイメージとはオーバラップしない領域である。
Imchange(s,t)=1b
iii)以下のように、新しいイメージ領域にタグを付ける。この領域は時刻tでサポートされるイメージが、時刻(t−1)でサポートされたイメージとはオーバラップしない領域である。
Imchange(s,t)=1b
[ステップ4:新たな背景領域を認識する]
最近の2つのビデオフレームでイメージコンテンツに何らかの変化がなかったときは、新たな背景領域が検出される。モザイク内で対応する領域は、この位置での背景が既知ではないことも示さなければならない。結果としての新背景領域は、背景が既知である近くの領域に貼付けられる。後のステップでわかるように、新背景データのモザイクへの取り込みは、符号器と復号器との間のドリフトを避けるために、圧縮/伸張された背景形状情報に従ってなされなければならない。
最近の2つのビデオフレームでイメージコンテンツに何らかの変化がなかったときは、新たな背景領域が検出される。モザイク内で対応する領域は、この位置での背景が既知ではないことも示さなければならない。結果としての新背景領域は、背景が既知である近くの領域に貼付けられる。後のステップでわかるように、新背景データのモザイクへの取り込みは、符号器と復号器との間のドリフトを避けるために、圧縮/伸張された背景形状情報に従ってなされなければならない。
ここで、インジケータ値0は、背景が既知でないことを意味する。
[ステップ5:前景/背景の領域分割を実行する]
先ず、背景が既知の領域(Immosaic(s,t−1)=1)を見て頂きたい。背景から前景を識別するために、しきい値処理を実行する(ケース(i))。背景が知られていない領域の場合は、変化が発生した領域全て(ステップ3で定義されたラベル1a,1b)に前景としてタグを付ける(ケース(iii)及び(iv))。
ケース(ii)は、前景の部分から除外された新たな背景領域を現している。
先ず、背景が既知の領域(Immosaic(s,t−1)=1)を見て頂きたい。背景から前景を識別するために、しきい値処理を実行する(ケース(i))。背景が知られていない領域の場合は、変化が発生した領域全て(ステップ3で定義されたラベル1a,1b)に前景としてタグを付ける(ケース(iii)及び(iv))。
ケース(ii)は、前景の部分から除外された新たな背景領域を現している。
ここで、Thresfgは、背景から前景を分割するために用いられる、予め定義されたしきい値である。
ケース(iii)及び(iv)では、領域1a又は1bに1をタグ付けした領域のサブクラシフィケーションは、異なるマクロブロック選択ルールに従うようにフレキシビリティをもった符号器を提供するという、単一の目的で使用される。例えば、1aとタグ付けされた領域は、これらの領域が共通にサポートされるイメージにわたって発生するので、インターフレームマクロブロックで符号化されるのが好ましい。一方、1bとタグ付けされた領域は、これらの領域が以前のフレームとは共通にサポートされる領域を共有しないので、イントラフレームマクロブロックで符号化されるのが好ましい。
[ステップ6:前景形状及びテクスチャを圧縮/伸張する]
1a及び1bとラベル付けされた前景領域を符号化するためには、通常(I,P或いはB−VOP)の予測モードを使用する。P又はB−VOPsの場合には、個々のマクロブロックは、インターフレーム予測か又はイントラフレーム符号化のいずれかを使用することができる。1bとラベル付けされた領域に対応する画素(モザイク内に表現されていない新しく現れた背景)は、イントラマクロブロックとして符号化されるのが好ましい。前景の形状は、同様に圧縮され送信される。一度、伸張がなされると、この形状は、符号器及び復号器によって、モザイクのコンテンツを更新するために使用される。この処理は、MPEG−4VM5.0[3]を使って行うことができる。
1a及び1bとラベル付けされた前景領域を符号化するためには、通常(I,P或いはB−VOP)の予測モードを使用する。P又はB−VOPsの場合には、個々のマクロブロックは、インターフレーム予測か又はイントラフレーム符号化のいずれかを使用することができる。1bとラベル付けされた領域に対応する画素(モザイク内に表現されていない新しく現れた背景)は、イントラマクロブロックとして符号化されるのが好ましい。前景の形状は、同様に圧縮され送信される。一度、伸張がなされると、この形状は、符号器及び復号器によって、モザイクのコンテンツを更新するために使用される。この処理は、MPEG−4VM5.0[3]を使って行うことができる。
[ステップ7:背景形状を取得する]
圧縮/伸張された前景形状から背景形状を取得する。
圧縮/伸張は、符号器及び復号器が同一の形状情報を共有するために必要である。
圧縮/伸張された前景形状から背景形状を取得する。
圧縮/伸張は、符号器及び復号器が同一の形状情報を共有するために必要である。
ここに、C-1C{}は、形状の符号化/復号化を意味し、例えば上述の[3]を使って実行することができる。
[ステップ8:モザイクの新たな背景テクスチャを初期化する]
新たな背景が発生した領域を認識し、前ビデオフレーム(時刻(t−1))で見つけられたコンテンツでモザイクを初期化する。参考までに、フィールドImnbg(s,t)は、この情報が復号器には既知でないので、ここでは使用出来ない。
新たな背景が発生した領域を認識し、前ビデオフレーム(時刻(t−1))で見つけられたコンテンツでモザイクを初期化する。参考までに、フィールドImnbg(s,t)は、この情報が復号器には既知でないので、ここでは使用出来ない。
[ステップ9:モザイク予測から背景テクスチャの残差を計算する]
もしImbg(s,t)==1ならば、モザイクコンテンツを予測子として用いて、差信号を計算する。その結果のΔI(s,t)は、画素(s,t)がロケートする全マクロブロックにわたって差信号を計算したものである。この差信号は、以前及び次のビデオフレームからの予測(P又はB予測モード)を用いて作られた通常の差信号と比較される。マクロブロックのタイプは、ベスト予測モードに従って選ばれる。残差信号は、[2]で説明したような圧縮背景形状と共に復号器へ送信される。
もしImbg(s,t)==1ならば、モザイクコンテンツを予測子として用いて、差信号を計算する。その結果のΔI(s,t)は、画素(s,t)がロケートする全マクロブロックにわたって差信号を計算したものである。この差信号は、以前及び次のビデオフレームからの予測(P又はB予測モード)を用いて作られた通常の差信号と比較される。マクロブロックのタイプは、ベスト予測モードに従って選ばれる。残差信号は、[2]で説明したような圧縮背景形状と共に復号器へ送信される。
ΔI(s,t)=I(s,t)−Wt←t0(M′(s,t−1))
[ステップ10:モザイクの背景形状を更新する]
新たな背景の形状を含むようにモザイクマップを更新する。
新たな背景の形状を含むようにモザイクマップを更新する。
[ステップ11:モザイクの更新]
フレームtの新たな或いはカバーされていない背景に対応する領域のモザイクのコンテンツを更新する。
フレームtの新たな或いはカバーされていない背景に対応する領域のモザイクのコンテンツを更新する。
上記方程式中、混合パラメータα(0<α<1)の値の選択は、アプリケーションに依存している。
上述の方法は、過去、現在、又は未来のある時刻t0を参照したモザイクを作成する。
モザイクが現時刻tまで連続的にワープされる場合、上記方程式を書き直すことは、簡単である。
上述の方法は、過去、現在、又は未来のある時刻t0を参照したモザイクを作成する。
モザイクが現時刻tまで連続的にワープされる場合、上記方程式を書き直すことは、簡単である。
さて、図4は、本発明のブロックダイアグラムが描かれている。本図の目的は、本発明の方法で使用される色々な成分や量における従属関係を浮き立たせることにある。又、連続するビデオフィールドを整列させるために必要な色々なワープステージや非ワープステージを強調することも目的とする。
図5は、本発明の方法を用いるデジタルビデオデータベースシステムのブロックダイアグラムを示す。
図6は、送信中の動的スプライトとしてオフラインで作成された背景スプライトを用いたテレビ会議システムのブロックダイアグラムを示す。
図6は、送信中の動的スプライトとしてオフラインで作成された背景スプライトを用いたテレビ会議システムのブロックダイアグラムを示す。
図7は、前景オブジェクト(ここでは自動車)の連続位置が、前景の形状に属する1つ又は数個の突起点(V)の連続的な位置をプロットすることによって、どのようにモザイク内に表現され得るかを例示している。頂点の色は、混乱を避けるために、t0からt0+1及びt0+1からt0+2で変えられている。この例では、頂点はモザイクに静的に示されており、形状記述(description)の1つのレベルのみを取得(capture)している。
<各種実施形態のオペレーション>
[モザイクベースによるテレビ会議及びテレビ電話システム]
図5と図6を参照すると、通信プロトコルは、オンライン背景モザイクが作成されている間、構成相(時刻調整可能)を包含することができる。この時刻中は、各テレビ電話は、背景モザイクを作成するために頭と肩の小さな変位を用いる。前景の変位は、自発的(システムがユーザを案内する)或いは、そうでないか(前景が動かなければ符号化効率にはゲインがない)、とすることが可能である。この場合、上述の方法は、背景モザイクを作成するために用いられる。通常のビデオ送信中は、モザイクは動的スプライトとして用いられ、混合因子は、いかなる更新もしないように0にセットされる。この場合、マクロブロックのタイプは、動的でも静的でもあり得る。極端な場合、全てのマクロブロックが静的マクロブロックであるということは、背景モザイクが静的スプライトとして用いられているということである。別の極端な場合として、全てのマクロブロックが動的タイプであり、モザイクが動的(予測可能な)スプライトとして用いられているということである。後者の場合は、高データ送信バンド幅が必要である。二者択一的に、背景シーンのモザイクは、送信前に作成され、そして通常の送信中には、静的又は動的スプライトとして用いられる。
[モザイクベースによるテレビ会議及びテレビ電話システム]
図5と図6を参照すると、通信プロトコルは、オンライン背景モザイクが作成されている間、構成相(時刻調整可能)を包含することができる。この時刻中は、各テレビ電話は、背景モザイクを作成するために頭と肩の小さな変位を用いる。前景の変位は、自発的(システムがユーザを案内する)或いは、そうでないか(前景が動かなければ符号化効率にはゲインがない)、とすることが可能である。この場合、上述の方法は、背景モザイクを作成するために用いられる。通常のビデオ送信中は、モザイクは動的スプライトとして用いられ、混合因子は、いかなる更新もしないように0にセットされる。この場合、マクロブロックのタイプは、動的でも静的でもあり得る。極端な場合、全てのマクロブロックが静的マクロブロックであるということは、背景モザイクが静的スプライトとして用いられているということである。別の極端な場合として、全てのマクロブロックが動的タイプであり、モザイクが動的(予測可能な)スプライトとして用いられているということである。後者の場合は、高データ送信バンド幅が必要である。二者択一的に、背景シーンのモザイクは、送信前に作成され、そして通常の送信中には、静的又は動的スプライトとして用いられる。
[モザイクベースによるビデオデータベース]
上記方法は、ビデオビットストリームのデータベース即ち圧縮ビットストリームのデータベースを構築したり、検索したりする際に使用可能である。このようなシステムでは、ビデオクリップは、上記方法を用いて圧縮される。その結果は、圧縮ビットストリームと符号化処理中に生成されたモザイクとなる。このモザイクイメージは、ビデオクリップビットストリームの代表イメージとして使用可能で、その特徴は、そのビデオクリップに属するビットストリームの検索や索引(作業)に利用することができる。
上記方法は、ビデオビットストリームのデータベース即ち圧縮ビットストリームのデータベースを構築したり、検索したりする際に使用可能である。このようなシステムでは、ビデオクリップは、上記方法を用いて圧縮される。その結果は、圧縮ビットストリームと符号化処理中に生成されたモザイクとなる。このモザイクイメージは、ビデオクリップビットストリームの代表イメージとして使用可能で、その特徴は、そのビデオクリップに属するビットストリームの検索や索引(作業)に利用することができる。
更に、前景の動き経路(trajectory)は、ユーザにシーケンスでの前景動きの粗い記述を提供するために、モザイクの上に重ねることができる。前景オブジェクトの経路は、点のセットとして表現することが可能で、それぞれの点は、与えられた時刻における前景オブジェクトの特定の特徴の位置を表現している。この特徴点は、オブジェクト形状の突起点(salient vertices)であってよい。オブジェクト形状の階層的記述は、データベースインターフェースに、粗から細の形状アウトラインをモザイク内に重ねさせるような、更なる利点をもたらすであろう。連続頂点位置は、同じ背景モザイク中に共に示されるか、或いは、同じモザイクのサポートに時刻的に連続して表示される。参考までに、この概念には、動きベースによる検索を容易にする更なる利点がある。その理由は、前景の動きはモザイク参照空間に表現されているからである。
図7をみると、背景モザイクは、草、空、太陽及び木を有している。前景オブジェクトは、加速した動きで左から右へ移動する車である。この車の形状は、黒で示されている。8つの頂点“V”は、この形状を表現するために選択された。車の連続位置は、単に連続位置に頂点をプロットすることにより、モザイク中に表現することができることを図7は示している。頂点の色は、混乱を避けるために、t0からt0+1及びt0+1からt0+2で変えられている。この例では、頂点はモザイク内で静的に示されており、形状記述の1つのレベルのみを取得している。最後に、モザイクはアイコンとして使用可能である。モザイクのアイコンをクリックすることによって、ユーザはシーケンスの再生のきっかけとすることができるであろう。
[頻繁にシーンが変化するアプリケーションにおけるマルチプルモザイクのサポート]
ビデオシーケンスが、テレビ会議アプリケーションでのように、あるシーンから別のシーンへ急速かつ頻繁に変化する場合、2つ又はそれ以上(独立したシーンの数がいくつあるかに依る)のモザイクを同時に作成するのが好ましい。1つ以上のモザイクがあると、シーンのカットが発生する度に新たなモザイクの作成を、システムにより強制的に再初期化する必要はない。このフレームワークでは、符号化されるビデオフレームが同様なコンテンツを共有するときだけ、モザイクが使用され、更新される。参考までに、モザイクは重ねることが許されているので、一度に2つ以上のモザイクを更新することができる。
ビデオシーケンスが、テレビ会議アプリケーションでのように、あるシーンから別のシーンへ急速かつ頻繁に変化する場合、2つ又はそれ以上(独立したシーンの数がいくつあるかに依る)のモザイクを同時に作成するのが好ましい。1つ以上のモザイクがあると、シーンのカットが発生する度に新たなモザイクの作成を、システムにより強制的に再初期化する必要はない。このフレームワークでは、符号化されるビデオフレームが同様なコンテンツを共有するときだけ、モザイクが使用され、更新される。参考までに、モザイクは重ねることが許されているので、一度に2つ以上のモザイクを更新することができる。
[最適視点]
本方法の最初で用いられた任意のマッピングW(t-1)←t0()は、歪みや人工的疑似信号(artifacts)が最小になるモザイク用に最適空間表現領域を表現するために用いる。この点では、これが我々の側においてより深い研究が必要な問題である一方、曖昧さ(視差問題)及び/又は歪みが、予め定められた基準に従って最小化される最適モザイク表現を見つける可能性があることは疑いのないことである。
本方法の最初で用いられた任意のマッピングW(t-1)←t0()は、歪みや人工的疑似信号(artifacts)が最小になるモザイク用に最適空間表現領域を表現するために用いる。この点では、これが我々の側においてより深い研究が必要な問題である一方、曖昧さ(視差問題)及び/又は歪みが、予め定められた基準に従って最小化される最適モザイク表現を見つける可能性があることは疑いのないことである。
[改良された解像度]
同様にして、任意のマッピングW(t-1)←t0()は、ズーム因子を含むことができる。この因子には、それを作成するのに用いたビデオフレームの解像度より潜在的に2,3又はN倍以上の解像度をもつモザイクを作成する効果がある。任意に固定されたズーム因子は、連続ビデオフレームにわたる小数点以下のワープ変位が、モザイク中で整数変位として記録されるような機構を提供する。ズーム因子が大きければ大きい程、長いシーケンスがモザイクの完成前になければならない(満たすためにはより多くの画素位置が必要)。MPEG−4フレームワークは、このようなスキームの実現を可能にするものである。
同様にして、任意のマッピングW(t-1)←t0()は、ズーム因子を含むことができる。この因子には、それを作成するのに用いたビデオフレームの解像度より潜在的に2,3又はN倍以上の解像度をもつモザイクを作成する効果がある。任意に固定されたズーム因子は、連続ビデオフレームにわたる小数点以下のワープ変位が、モザイク中で整数変位として記録されるような機構を提供する。ズーム因子が大きければ大きい程、長いシーケンスがモザイクの完成前になければならない(満たすためにはより多くの画素位置が必要)。MPEG−4フレームワークは、このようなスキームの実現を可能にするものである。
この任意のマッピングWres()を示す。線形の場合には、この演算子は、1より大きな一定スカラーを乗じた単位行列である。このスケール因子は、モザイクに使われる拡大因子を定義するものである。ステップ11に示されたモザイク更新方程式は、以下のように書き直すことができる。
この方程式は、モザイクが固定時刻t0で作成されていることを示しており、この固定時刻t0は、第1のビデオフレームに対応する時刻、最終フレームに対応する時刻、又はこの間のどの時刻であってもよい。この場合、任意のマッピングWres()は、常にワープ変換Wt0←tにより構成されている。モザイクが、現在のビデオフレームに向けて連続的にワープされている時は、更新方程式は以下のように書き直さねばならない。
上記方程式は、任意のマッピングWres()がもはやフレームからフレームへのワープ演算子Wt←(t-1)で構成されず、代わりに圧縮/伸張した残差に適用されることを意味している。MPEG−4においては、任意のマッピング演算子Wres()は、ワープパラメータの第1のセットとして、シンタックスを適宜拡張したものを送信することが出来る。このセットは、現状では、変換シフトを経てモザイクバッファ中で第1のビデオフレームを位置決めするときのみをサポートしている。
[極めて低いビットレートにおけるビデオシーケンスの符号化]
極めて低いビットレートのアプリケーションにおいては、形状情報の送信は、望ましくない負荷(overhead)となる。上述の方法は、形状情報の送信が切断されたとき、依然として操作可能である。これは、全ての画素で背景形状を1にセットすること(ステップ7)、及び混合因子αを1にセットすること(ステップ11)により実施される。後者のセッティングは、モザイクが常に最新のビデオ情報を表示することを保証するものである。前景がモザイクに含まれているので、このビデオ情報はこの状況では必要である。この状況で、マクロブロックのタイプは、イントラ、インター、静的スプライト、又は動的スプライトであり得る。このスプライトは、全てのマクロブロックが静的であれば静的スプライトとして用いられる。この場合、残差は送信されないので、極めて低いビットレートのアプリケーションではこれが最も可能性のある状況である。全てのマクロブロックが動的タイプであれば、このスプライトは動的スプライトとして用いられている。
極めて低いビットレートのアプリケーションにおいては、形状情報の送信は、望ましくない負荷(overhead)となる。上述の方法は、形状情報の送信が切断されたとき、依然として操作可能である。これは、全ての画素で背景形状を1にセットすること(ステップ7)、及び混合因子αを1にセットすること(ステップ11)により実施される。後者のセッティングは、モザイクが常に最新のビデオ情報を表示することを保証するものである。前景がモザイクに含まれているので、このビデオ情報はこの状況では必要である。この状況で、マクロブロックのタイプは、イントラ、インター、静的スプライト、又は動的スプライトであり得る。このスプライトは、全てのマクロブロックが静的であれば静的スプライトとして用いられる。この場合、残差は送信されないので、極めて低いビットレートのアプリケーションではこれが最も可能性のある状況である。全てのマクロブロックが動的タイプであれば、このスプライトは動的スプライトとして用いられている。
なし
Claims (1)
- スプライト作成が自動的であり、スプライトオブジェクトの分割が自動的であって且つスプライト作成及び符号化・復号処理が統合されたスプライトベースによるビデオ予測符号化(符号化及び復号化)方法であって、
バッファの全ての位置でバイナリフィールドを0に初期化し、
マッピングのためにイメージと前記イメージの順方向ワープパラメータを取得し、
以前に符号化/復号されたフレームと現在のフレームとの間のコンテンツの変化を検出し、
新たな背景領域を認識し、
前景と背景を分割し、
対象となる形状を圧縮又は伸張することによって、前景の形状とテクスチャを作成し、
前に作成された前景形状から背景形状を引き出し、
モザイク中の新たな背景テクスチャを初期化し、
前記モザイクの予測から背景テクスチャ残差を決定し、
前記背景形状のモザイクを更新し、
新たな又はカバーされていない背景に対応する全ての領域の前記モザイクを更新することを特徴とするスプライトベースによるビデオ予測符号化方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US3455896P | 1996-12-30 | 1996-12-30 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP52983998A Division JP2001507541A (ja) | 1996-12-30 | 1997-12-25 | スプライトベースによるビデオ符号化システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004260840A true JP2004260840A (ja) | 2004-09-16 |
Family
ID=21877179
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP52983998A Pending JP2001507541A (ja) | 1996-12-30 | 1997-12-25 | スプライトベースによるビデオ符号化システム |
JP2004095933A Pending JP2004260840A (ja) | 1996-12-30 | 2004-03-29 | スプライトベースによるビデオ符号化システム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP52983998A Pending JP2001507541A (ja) | 1996-12-30 | 1997-12-25 | スプライトベースによるビデオ符号化システム |
Country Status (5)
Country | Link |
---|---|
US (2) | US6205260B1 (ja) |
EP (1) | EP1042736B1 (ja) |
JP (2) | JP2001507541A (ja) |
DE (1) | DE69725186T2 (ja) |
WO (1) | WO1998029834A1 (ja) |
Families Citing this family (90)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69835039T2 (de) | 1997-02-14 | 2007-07-12 | The Trustees Of Columbia University In The City Of New York | Objektbasiertes audiovisuelles Endgerät und entsprechende Bitstromstruktur |
US6404813B1 (en) * | 1997-03-27 | 2002-06-11 | At&T Corp. | Bidirectionally predicted pictures or video object planes for efficient and flexible video coding |
US6249613B1 (en) * | 1997-03-31 | 2001-06-19 | Sharp Laboratories Of America, Inc. | Mosaic generation and sprite-based coding with automatic foreground and background separation |
US6633611B2 (en) * | 1997-04-24 | 2003-10-14 | Mitsubishi Denki Kabushiki Kaisha | Method and apparatus for region-based moving image encoding and decoding |
US6360234B2 (en) | 1997-08-14 | 2002-03-19 | Virage, Inc. | Video cataloger system with synchronized encoders |
US7295752B1 (en) | 1997-08-14 | 2007-11-13 | Virage, Inc. | Video cataloger system with audio track extraction |
DE19746611A1 (de) * | 1997-10-22 | 1999-04-29 | Bosch Gmbh Robert | Verfahren zur Verbesserung der Konturcodierung von Bildsequenzen sowie Anwendung |
US7199836B1 (en) * | 1998-02-13 | 2007-04-03 | The Trustees Of Columbia University In The City Of New York | Object-based audio-visual terminal and bitstream structure |
EP1042919B1 (en) * | 1998-08-05 | 2006-06-21 | Koninklijke Philips Electronics N.V. | Static image generation method and device |
US6633685B1 (en) * | 1998-08-05 | 2003-10-14 | Canon Kabushiki Kaisha | Method, apparatus, and storage media for image processing |
US6833865B1 (en) | 1998-09-01 | 2004-12-21 | Virage, Inc. | Embedded metadata engines in digital capture devices |
JP4950381B2 (ja) * | 1998-09-29 | 2012-06-13 | シーメンス アクチエンゲゼルシヤフト | 画素を有するデジタル化された画像の処理のための方法及び装置 |
US6798420B1 (en) | 1998-11-09 | 2004-09-28 | Broadcom Corporation | Video and graphics system with a single-port RAM |
US7446774B1 (en) * | 1998-11-09 | 2008-11-04 | Broadcom Corporation | Video and graphics system with an integrated system bridge controller |
US7982740B2 (en) | 1998-11-09 | 2011-07-19 | Broadcom Corporation | Low resolution graphics mode support using window descriptors |
US6573905B1 (en) * | 1999-11-09 | 2003-06-03 | Broadcom Corporation | Video and graphics system with parallel processing of graphics windows |
US6768774B1 (en) | 1998-11-09 | 2004-07-27 | Broadcom Corporation | Video and graphics system with video scaling |
US6853385B1 (en) * | 1999-11-09 | 2005-02-08 | Broadcom Corporation | Video, audio and graphics decode, composite and display system |
US6661422B1 (en) | 1998-11-09 | 2003-12-09 | Broadcom Corporation | Video and graphics system with MPEG specific data transfer commands |
US6636222B1 (en) | 1999-11-09 | 2003-10-21 | Broadcom Corporation | Video and graphics system with an MPEG video decoder for concurrent multi-row decoding |
US6731295B1 (en) * | 1998-11-09 | 2004-05-04 | Broadcom Corporation | Graphics display system with window descriptors |
US6873723B1 (en) * | 1999-06-30 | 2005-03-29 | Intel Corporation | Segmenting three-dimensional video images using stereo |
US6556704B1 (en) * | 1999-08-25 | 2003-04-29 | Eastman Kodak Company | Method for forming a depth image from digital image data |
JP4224748B2 (ja) * | 1999-09-13 | 2009-02-18 | ソニー株式会社 | 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、記録媒体、並びに画像処理装置 |
EP1089230A3 (en) | 1999-09-24 | 2008-06-11 | Nippon Telegraph and Telephone Corporation | Method and apparatus for separating background sprite and foreground object and method and apparatus for extracting segmentation mask |
US9668011B2 (en) * | 2001-02-05 | 2017-05-30 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Single chip set-top box system |
US8913667B2 (en) * | 1999-11-09 | 2014-12-16 | Broadcom Corporation | Video decoding system having a programmable variable-length decoder |
US6538656B1 (en) | 1999-11-09 | 2003-03-25 | Broadcom Corporation | Video and graphics system with a data transport processor |
US6466618B1 (en) | 1999-11-19 | 2002-10-15 | Sharp Laboratories Of America, Inc. | Resolution improvement for multiple images |
KR100815411B1 (ko) * | 2000-04-06 | 2008-03-20 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 객체-조건부 액세스 시스템 |
US7962948B1 (en) | 2000-04-07 | 2011-06-14 | Virage, Inc. | Video-enabled community building |
US7222163B1 (en) | 2000-04-07 | 2007-05-22 | Virage, Inc. | System and method for hosting of video content over a network |
US7260564B1 (en) | 2000-04-07 | 2007-08-21 | Virage, Inc. | Network video guide and spidering |
US8171509B1 (en) | 2000-04-07 | 2012-05-01 | Virage, Inc. | System and method for applying a database to video multimedia |
DE50103996D1 (de) | 2000-04-14 | 2004-11-11 | Siemens Ag | Verfahren und vorrichtung zum speichern und bearbeiten von bildinformation zeitlich aufeinanderfolgender bilder |
US6553150B1 (en) | 2000-04-25 | 2003-04-22 | Hewlett-Packard Development Co., Lp | Image sequence compression featuring independently coded regions |
US6970510B1 (en) | 2000-04-25 | 2005-11-29 | Wee Susie J | Method for downstream editing of compressed video |
US6973130B1 (en) | 2000-04-25 | 2005-12-06 | Wee Susie J | Compressed video signal including information for independently coded regions |
US6507618B1 (en) * | 2000-04-25 | 2003-01-14 | Hewlett-Packard Company | Compressed video signal including independently coded regions |
US7084877B1 (en) * | 2000-06-06 | 2006-08-01 | General Instrument Corporation | Global motion estimation for sprite generation |
US6826292B1 (en) * | 2000-06-23 | 2004-11-30 | Sarnoff Corporation | Method and apparatus for tracking moving objects in a sequence of two-dimensional images using a dynamic layered representation |
KR20030005166A (ko) * | 2000-11-23 | 2003-01-17 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 비디오 코딩 방법 및 대응하는 인코더 |
US7321624B1 (en) * | 2001-03-16 | 2008-01-22 | Objectvideo, Inc. | Bit-rate allocation system for object-based video encoding |
US6771843B1 (en) * | 2001-05-11 | 2004-08-03 | Lsi Logic Corporation | Data timeline management using snapshot volumes |
JP4596220B2 (ja) * | 2001-06-26 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003018604A (ja) * | 2001-07-04 | 2003-01-17 | Matsushita Electric Ind Co Ltd | 画像信号符号化方法、画像信号符号化装置および記録媒体 |
FR2828055B1 (fr) * | 2001-07-27 | 2003-11-28 | Thomson Licensing Sa | Procede et dispositif de codage d'une mosaique d'images |
JP2003047012A (ja) * | 2001-08-01 | 2003-02-14 | Mega Chips Corp | 動画像圧縮方法、及びプログラム |
US7050500B2 (en) * | 2001-08-23 | 2006-05-23 | Sharp Laboratories Of America, Inc. | Method and apparatus for motion vector coding with global motion parameters |
FR2829635A1 (fr) * | 2001-09-07 | 2003-03-14 | Cit Alcatel | Procede de compression d'images d'animations |
US20030058932A1 (en) * | 2001-09-24 | 2003-03-27 | Koninklijke Philips Electronics N.V. | Viseme based video coding |
US6921593B2 (en) * | 2001-09-28 | 2005-07-26 | Hewlett-Packard Development Company, L.P. | Fuel additives for fuel cell |
US7227896B2 (en) * | 2001-10-04 | 2007-06-05 | Sharp Laboratories Of America, Inc. | Method and apparatus for global motion estimation |
NL1019365C2 (nl) * | 2001-11-14 | 2003-05-15 | Tno | Bepaling van een beweging van een achtergrond in een reeks beelden. |
US20030105880A1 (en) * | 2001-12-04 | 2003-06-05 | Koninklijke Philips Electronics N.V. | Distributed processing, storage, and transmision of multimedia information |
US7602848B2 (en) * | 2002-03-26 | 2009-10-13 | General Instrument Corporation | Methods and apparatus for efficient global motion compensation encoding and associated decoding |
US7085323B2 (en) * | 2002-04-03 | 2006-08-01 | Stmicroelectronics, Inc. | Enhanced resolution video construction method and apparatus |
JP2004030122A (ja) * | 2002-06-25 | 2004-01-29 | Fujitsu Ltd | 図面検索支援装置および図面検索方法 |
WO2004008316A2 (en) * | 2002-07-11 | 2004-01-22 | Raytheon Company | System and method for asynchronous storage and playback of a system state |
WO2004008303A2 (en) * | 2002-07-12 | 2004-01-22 | Raytheon Company | Scene graph based display for desktop applications |
FR2843252A1 (fr) * | 2002-07-30 | 2004-02-06 | Thomson Licensing Sa | Procede de compression de donnees numeriques d'une sequence video comportant des plans alternes |
US7085434B2 (en) * | 2002-10-01 | 2006-08-01 | International Business Machines Corporation | Sprite recognition in animated sequences |
US7113185B2 (en) * | 2002-11-14 | 2006-09-26 | Microsoft Corporation | System and method for automatically learning flexible sprites in video layers |
AU2004211721B2 (en) | 2003-02-11 | 2009-08-20 | Nds Limited | Apparatus and methods for handling interactive applications in broadcast networks |
US7667710B2 (en) | 2003-04-25 | 2010-02-23 | Broadcom Corporation | Graphics display system with line buffer control scheme |
US8638846B1 (en) * | 2003-06-23 | 2014-01-28 | At&T Intellectual Property Ii, L.P. | Systems and methods for encoding and decoding video streams |
US8063916B2 (en) * | 2003-10-22 | 2011-11-22 | Broadcom Corporation | Graphics layer reduction for video composition |
TWI246338B (en) * | 2004-04-09 | 2005-12-21 | Asustek Comp Inc | A hybrid model sprite generator and a method to form a sprite |
US7982738B2 (en) * | 2004-12-01 | 2011-07-19 | Microsoft Corporation | Interactive montages of sprites for indexing and summarizing video |
US9661376B2 (en) | 2005-07-13 | 2017-05-23 | Polycom, Inc. | Video error concealment method |
US7602984B2 (en) * | 2005-09-28 | 2009-10-13 | Novell, Inc. | Adaptive method and system for encoding digital images for the internet |
US8565525B2 (en) * | 2005-12-30 | 2013-10-22 | Telecom Italia S.P.A. | Edge comparison in segmentation of video sequences |
US7477258B2 (en) * | 2006-04-26 | 2009-01-13 | International Business Machines Corporation | Method and apparatus for a fast graphic rendering realization methodology using programmable sprite control |
GB2441365B (en) * | 2006-09-04 | 2009-10-07 | Nds Ltd | Displaying video data |
US8300936B2 (en) * | 2007-04-03 | 2012-10-30 | Flashfoto, Inc. | System and method for improving display of tuned multi-scaled regions of an image with local and global control |
WO2008136933A1 (en) * | 2007-05-07 | 2008-11-13 | Thomson Licensing | Method and apparatus for processing video sequences |
US20090058863A1 (en) * | 2007-09-04 | 2009-03-05 | Apple Inc. | Image animation with transitional images |
KR20090062049A (ko) * | 2007-12-12 | 2009-06-17 | 삼성전자주식회사 | 영상 데이터 압축 전처리 방법 및 이를 이용한 영상 데이터압축 방법과, 영상 데이터 압축 시스템 |
US8682029B2 (en) * | 2007-12-14 | 2014-03-25 | Flashfoto, Inc. | Rule-based segmentation for objects with frontal view in color images |
JP2010011075A (ja) * | 2008-06-26 | 2010-01-14 | Toshiba Corp | 動画像符号化及び動画像復号化の方法及び装置 |
US8670615B2 (en) * | 2009-09-30 | 2014-03-11 | Flashfoto, Inc. | Refinement of segmentation markup |
US9311567B2 (en) | 2010-05-10 | 2016-04-12 | Kuang-chih Lee | Manifold learning and matting |
US20120173577A1 (en) * | 2010-12-30 | 2012-07-05 | Pelco Inc. | Searching recorded video |
US9681125B2 (en) | 2011-12-29 | 2017-06-13 | Pelco, Inc | Method and system for video coding with noise filtering |
WO2014133868A1 (en) * | 2013-03-01 | 2014-09-04 | Gentex Corporation | Vehicle imaging system and method for categorizing objects using relative motion analysis |
JP6049024B2 (ja) * | 2014-08-11 | 2016-12-21 | 株式会社チャオ | 画像伝送装置、画像伝送方法および画像伝送プログラム |
WO2019009750A1 (en) | 2017-07-05 | 2019-01-10 | Huawei Technologies Co., Ltd | APPARATUS AND METHOD FOR PANORAMIC VIDEO CODING |
JP7070082B2 (ja) * | 2018-05-18 | 2022-05-18 | 株式会社デンソー | 車載カメラ |
CN114240954B (zh) * | 2021-12-16 | 2022-07-08 | 推想医疗科技股份有限公司 | 网络模型的训练方法及装置、图像分割方法及装置 |
CN114554220B (zh) * | 2022-01-13 | 2023-07-28 | 北京信息科技大学 | 一种基于抽象特征的固定场景视频超限压缩与解码方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06101018B2 (ja) * | 1991-08-29 | 1994-12-12 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 動画像データベースの検索 |
JPH05282380A (ja) * | 1992-03-31 | 1993-10-29 | Nippon Telegr & Teleph Corp <Ntt> | 動画像検索方法 |
US5649032A (en) * | 1994-11-14 | 1997-07-15 | David Sarnoff Research Center, Inc. | System for automatically aligning images to form a mosaic image |
KR100186979B1 (ko) * | 1994-12-28 | 1999-05-01 | 김주용 | 영상데이터의 물체별 배경 정보 부호화 방법 및 장치 |
JPH08194714A (ja) * | 1995-01-13 | 1996-07-30 | Matsushita Electric Ind Co Ltd | 圧縮動画像の検索方法および装置 |
US6181867B1 (en) * | 1995-06-07 | 2001-01-30 | Intervu, Inc. | Video storage and retrieval system |
US5963664A (en) * | 1995-06-22 | 1999-10-05 | Sarnoff Corporation | Method and system for image combination using a parallax-based technique |
US5896176A (en) * | 1995-10-27 | 1999-04-20 | Texas Instruments Incorporated | Content-based video compression |
US5782642A (en) * | 1995-12-19 | 1998-07-21 | Goren; Michael | Interactive video and audio display system network interactive monitor module interface |
US5692063A (en) * | 1996-01-19 | 1997-11-25 | Microsoft Corporation | Method and system for unrestricted motion estimation for video |
US6037988A (en) * | 1996-03-22 | 2000-03-14 | Microsoft Corp | Method for generating sprites for object-based coding sytems using masks and rounding average |
US5778098A (en) * | 1996-03-22 | 1998-07-07 | Microsoft Corporation | Sprite coding |
US5943445A (en) * | 1996-12-19 | 1999-08-24 | Digital Equipment Corporation | Dynamic sprites for encoding video data |
US5956026A (en) * | 1997-12-19 | 1999-09-21 | Sharp Laboratories Of America, Inc. | Method for hierarchical summarization and browsing of digital video |
-
1997
- 1997-12-25 JP JP52983998A patent/JP2001507541A/ja active Pending
- 1997-12-25 WO PCT/JP1997/004814 patent/WO1998029834A1/en active IP Right Grant
- 1997-12-25 EP EP97950389A patent/EP1042736B1/en not_active Expired - Lifetime
- 1997-12-25 DE DE69725186T patent/DE69725186T2/de not_active Expired - Lifetime
- 1997-12-29 US US08/999,103 patent/US6205260B1/en not_active Expired - Lifetime
-
2000
- 2000-01-28 US US09/493,410 patent/US6259828B1/en not_active Expired - Lifetime
-
2004
- 2004-03-29 JP JP2004095933A patent/JP2004260840A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
DE69725186D1 (de) | 2003-10-30 |
WO1998029834A1 (en) | 1998-07-09 |
US6259828B1 (en) | 2001-07-10 |
EP1042736A1 (en) | 2000-10-11 |
DE69725186T2 (de) | 2004-06-17 |
EP1042736B1 (en) | 2003-09-24 |
JP2001507541A (ja) | 2001-06-05 |
US6205260B1 (en) | 2001-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004260840A (ja) | スプライトベースによるビデオ符号化システム | |
US5799113A (en) | Method for expanding contracted video images | |
US5764803A (en) | Motion-adaptive modelling of scene content for very low bit rate model-assisted coding of video sequences | |
US5692063A (en) | Method and system for unrestricted motion estimation for video | |
US5991444A (en) | Method and apparatus for performing mosaic based image compression | |
US6738424B1 (en) | Scene model generation from video for use in video processing | |
Favalli et al. | Object tracking for retrieval applications in MPEG-2 | |
EP1684528A2 (en) | Spatio-temporal graph-segmentation encoding for multiple video streams | |
Tekalp et al. | Two-dimensional mesh-based visual-object representation for interactive synthetic/natural digital video | |
EP1589766A2 (en) | Object-based video decompression process employing arbitrarily shaped features | |
US9699477B2 (en) | Manipulating sub-pictures of a compressed video signal | |
EP0888592A1 (en) | Sprite coding | |
WO1999043162A1 (en) | Motion vector extrapolation for transcoding video sequences | |
US6956902B2 (en) | Method and apparatus for a multi-user video navigation system | |
US7382927B2 (en) | System for constructing mosaic images | |
KR20030014689A (ko) | 스프라이트 생성을 위한 글로벌 동작추정 | |
Kauff et al. | Functional coding of video using a shape-adaptive DCT algorithm and an object-based motion prediction toolbox | |
Irani et al. | Mosaic-based video compression | |
US7020192B1 (en) | Method of retrieving video picture and apparatus therefor | |
Tubaro et al. | Motion field estimators and their application to image interpolation | |
WO2001049028A1 (en) | Scene model generation from video for use in video processing | |
Kauff et al. | Improved image segmentation techniques for hybrid waveform/object-oriented coding | |
JPH10234035A (ja) | 画像符号化復号化方法および装置 | |
Babu et al. | Sprite generation from MPEG video using motion information | |
Kang | Generating salient skills using block-based motion estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060606 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20061010 |