JP2001506828A - 二次元メッシュジオメトリおよび動きベクトル圧縮 - Google Patents

二次元メッシュジオメトリおよび動きベクトル圧縮

Info

Publication number
JP2001506828A
JP2001506828A JP52753598A JP52753598A JP2001506828A JP 2001506828 A JP2001506828 A JP 2001506828A JP 52753598 A JP52753598 A JP 52753598A JP 52753598 A JP52753598 A JP 52753598A JP 2001506828 A JP2001506828 A JP 2001506828A
Authority
JP
Japan
Prior art keywords
mesh
node
encoding
decoding
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP52753598A
Other languages
English (en)
Inventor
ビーク,ペトラス,ジェイ.,エル. バン
テカルプ,アーメット,ムラット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2001506828A publication Critical patent/JP2001506828A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 本発明の目的は、あるフレーム時間から次のフレーム時間へのノードポイントの変位およびメッシュを符号化し、復号化するためのシステムおよび方法を提供することにある。本発明は、メッシュデータを圧縮されたフォーマットに符号化するための方法、および圧縮されたフォーマットを復号化するための方法を含む。圧縮されたフォーマットを使用することにより、メッシュデータの効率的な記憶および通信が容易となる。ここに開示された符号化方法は無損失である。すなわち、圧縮されたフォーマットは元のメッシュデータに含まれるものと同じ情報を表示し、同時に圧縮したフォーマットの使用により、必要な記憶スペース量が少なくなり、通信バンド幅が狭くなる。本発明は、ノードポイントの一組のメッシュジオメトリの符号化および復号化、および各ノードポイントに対するメッシュノードの動きベクトルの符号化および復号化を含む、ダイナミックメッシュの符号化および復号化をするためのシステムおよび方法を含む。

Description

【発明の詳細な説明】 二次元メッシュジオメトリおよび動きベクトル圧縮 関連出願 「ビデオ圧縮システム」を発明の名称とし、1995年5月23日に出願され た米国特許出願第08/447,418号。 「ビデオ符号化および復号化システム」を発明の名称とし、1996年1月1 6日に出願された米国特許出願第60/010,076号。 発明の分野 本発明は、画像の符号化および操作の分野に関するものであり、特に、あるシ ーケンスの画像にほぼ対応する二次元(2D)メッシュのシーケンスを符号化す ることに関する。 発明の背景 二次元三角形メッシュは、二次元の視覚オブジェクト平面を三角形のパッチと なるようにモザイク化することに関連している。三角形パッチの頂点は「ノード ポイント」と称され、これらノードポイントに接合する直線セグメントは「エッ ジ」と称される。 ダイナミックな二次元メッシュは時間的シーケンスの二次元三角形メッシュか ら成り、各メッシュは同じトポロジー(すなわち構造)を有するが、ノード位置 はメッシュごとに異なることがある。従って、ダイナミック二次元メッシュは初 期の二次元メッシュのジオメトリと次のメッシュに向かうノードポイントにおけ る動きベクトルとで定義でき、各動きベクトルはシーケンス内の先のメッシュの ノードポイントから現在のメッシュのノードポイントへポイントする。ダイナミ ック二次元メッシュは周知のテクスチャーマッピング方法により静止画像から連 続する二次元メッシュとなるようにテクスチャーをマッピングすることにより二 次元アニメーションを作成するのに使用できる。例えばダイナミックメッシュは 旗の静止画像からはためく旗をレンダリングするのに使用できる。時間内のテク スチャーの局部的変形は、あるメッシュから次のメッシュへのメッシュノードの 動きによって捕捉される。従って、ノード動きベクトルの異なる組により同じテ クスチャーの異な るアニメーションを作成できる。テクスチャーマッピングはメッシュの構造、す なわちメッシュのノードが互いに接続している態様、すなわちメッシュのエッジ のコンフィギュレーションを利用している。1つのメッシュは特定された内在的 構造、例えば均一な構造、または1990年1月のカリフォルニア・バークレー ユニバーシティの国際コンピュータサイエンス研究所の技術レボートTR−90 −001号のS・M・Omohundro氏による論文“The delaunay triangulation and fu nction learning(ドローネイ三角化および機能学習)”に記載されているよう なドローネイ構造を有することができる。 アニメーションシーケンスの効率的な符号化は、静止画像のテクスチャーおよ び関連する二次元メッシュ、すなわちジオメトリとノードベクトルを別個に符号 化することにより達成できる。関連する二次元メッシュは、第1メッシュのジオ メトリおよびこの第1メッシュと次のメッシュとのノードの動きベクトルによっ て表示され、この二次元メッシュは第1メッシュのジオメトリおよびこの第1メ ッシュと次のメッシュとのノードの動きベクトルを符号化することにより符号化 される。 本明細書に述べるメッシュジオメトリ圧縮技術は、内在的なトポロジーを有す る二次元三角形メッシュ、特に均一のトポロジーおよびドローネイトボロジーを 有するメッシュに限定されている。これらのケースではメッシュノード(頂点と も称される)の位置および後により詳細に特定すべき一部の追加情報が与えられ た場合、メッシュトボロジーが内在的に定められる。 ドローネイ三角化を実行するアルゴリズムは文献から入手できるので、本明細 書では説明しない。三角化すべきノードがそれらの位置で、所定の縮退を含む場 合を除き、ドローネイ三角化はユニークに定義されることに留意すべきである。 ここでメッシュ符号器および復号器の双方は、かかる縮退を取り扱うための同じ 技術を使用していると仮定する。かかる技術は当業者には周知のものであり、本 明細書に記載するメッシュジオメトリ圧縮技術はこれら限定されたクラスのメッ シュに対し、高い圧縮比を可能にするものである。 メッシュの動きを効率的に表示することは、メッシュに基づくアニメーション を記述する上で重要である。本明細書では二次元の場合におけるメッシュの動き を圧縮するための技術について説明するが、この原理は三次元の動きを有する三 次元メッシュの場合にも簡単に拡張できることに留意すべきである。 更に、本明細書に記載する例はトポロジーが制限されているメッシュについて 述べてい るが、本明細書に説明するメッシュ動き圧縮技術は一般的なトポロジーを有する メッシュに直接適用できることに留意すべきである。最後に、動きの符号化に関 する本発明の原理は、表面の外観の属性を符号化することにも簡単に適用できる ことに留意すべきである。 本明細書に述べた符号化方法は、例えばMPEG−4に関連して使用できる。 このMPEG−4は動画エキスパートグループによって開発されたオブジェクト をベースとするマルチメディア圧縮規格であり、この規格は、先のMPEG−1 /2規格の拡張としてシーン内の異なるオーディオービジュアルオブジェクト( AVO)を別々に符号化できるようにしたものである。ディスプレイフレームを 形成するように、送信されたシーン記述スクリプトおよび/またはユーザー相互 対話に従い、ユーザーターミナルで復号化され、複合化される。ビジュアルオブ ジェクトはオーディオ、ビデオ、三次元グラフィックモデル、スクロールテキス トおよびグラフィックオーバーレイなどを含む、自然の、または合成コンテント を有することができる。 発明の概要 本発明は、メッシュデータを圧縮されたフォーマットに符号化するための方法 、および圧縮されたフォーマットを復号化するための方法を提供する。圧縮され たフォーマットを使用することにより、メッシュデータを効率的に記憶し、送信 することが容易となる。ここに説明する符号化方法は無損失である。すなわち圧 縮されたフォーマットは元のメッシュデータに含まれた情報と同じ情報を表示す る。これと同時に、圧縮されたフォーマットを使用することにより、必要な記憶 スペースの量を少なくしたり、または通信バンド幅を狭くできる。 本発明は、一組のノードポイントのメッシュジオメトリの符号化および復号化 、並びに各ノードポイントに対するメッシュノードの動きベクトルを符号化し、 復号化することを含み、またダイナミックメッシュを符号化し、復号化するシス テムおよび方法を含む。 本発明の目的は、メッシュおよびあるフレーム時間から次のフレーム時間への ノードポイントの変位を符号化し、復号化するためのシステムおよび方法を提供 することにある。 図面の簡単な説明 図1は、三角形メッシュを使用したメッシュに基づく動きのモデル化を示す図 である。 図2は、メッシュを重ねた時の画像オブジェクトのノードの動きおよび変形を 示す図である。 図3は、代表的な符号化/復号化システムを示す図である。 図4は、図3のシステムにより処理されるアニメーションアプリケーションを 示す図である。 図5は、一般化された均一の二次元メッシュを示す図である。 図6は、4つのタイプの均一メッシュを示す図である。 図7は、ドローネイタイプの二次元三角メッシュにおけるノードポイントの順 序付けを示す図である。 図8は、均一タイプの二次元三角メッシュにおけるノードポイントの順序付け を示す図である。 図9は、二次元三角メッシュの幅優先横断における中間ポイントを示す図であ る。 図10は、二次元メッシュにおける三角形の幅優先横断方法を示す図である。 図11は、一組の復号化されたノードポイントおよびメッシュ境界エッジセグ メントを示す図である。 図12は、制限されたドローネイ三角化によって得られる復号化された三角形 メッシュを示す図である。 好ましい実施例の詳細な説明 (ビデオ処理のためのメッシュに基づく動きのモデル化) あるシーケンスの画像フレームにおけるオブジェクトの動きをモデル化し、予 測することは、ビデオ処理技術では一般的なことであり、種々のアプリケーショ ンを有する。一般的なアプローチは、ブロックに基づき動きをモデル化すること であり、ここではピクセルの各正方形ブロックに対し、動きパラメータを別々に 予想する。より詳細には、変換ブロック動きモデルはビデオ圧縮をする上で満足 できることが証明されており、国際規格、例えばMPEG−1、−2および−4 で既に採用されている。最近では、ビデオ処理において、ブロックに基づく動き のモデル化に対する別の有望な方法として、二次元メッシュに基づき動きをモデ ル化することが提案されている。 二次元メッシュとは、ポリゴン(多角形)パッチへの二次元平面領域のモザイ ク化(区分化)である。次の説明では、ポリゴンパッチの頂点をメッシュのノー ドポイントと称す。これらパッチは通常、三角形または四角形メッシュにそれぞ れなるような三角形または四角形である。図1aを参照されたい。二次元メッシ ュに基づく動きのモデル化では、ポリゴンメッシュパッチは画像内のテクスチャ ーのパッチに対応するように二次元メッシュを画像または画像の一組に関連付け される。ここでテクスチャーはパッチ内の画像内のピクセルから成る。基準フレ ーム内のポリゴンパッチは別のフレーム内の多角形パッチへのノードポイントの 運動によって変形され、基準フレーム内の各パッチ内のテクスチャーはノードポ イントの動きベクトルの関数としてのパラメータマッピングを使用し、他のフレ ームにワープされる。図1bおよびcを参照されたい。三角形メッシュに対して は並進運動、回転運動、スケール変換および剪断のモデル化を行うことができる アフィンマッピングを使用する。メッシュに基づく動きのモデル化では、パッチ は基準フレーム内、または現在フレーム内ではオーバーラップしないことに留意 されたい。本明細書に記載する2つの三角形が隣接するとの記載は、これら三角 形が共通のエッジを共有することを意味する。 パラメータ予測において適当な制限を課すと仮定すると、アフィン変換は隣接 する三角形の境界を横断するマッピングの連続性を保証できる。このことは、連 続するピース状のアフィン動きフィールドを再構成できるノードポイントの動き によって、元の二次元の動きフィールドがコンパクトに表示できることを意味す る。 三次元(3D)ボリゴンメッシュは、これまで長い間、コンピュータグラフィ ックスにおける効率のよい三次元オブジェクトジオメトリのモデル化およびレン ダリングに使用されてきた。メッシュに基づく動きのモデル化で使用されるパラ メータマッピングに類似する式も、これまでテクスチャーマッピング、例えばフ ォトリアリスティックな合成画像のためのグラフィックオブジェクトを記述する ポリゴンメッシュへの自然な画像をレンダリングするための、よく用いられる方 法を実行するのに、三次元グラフィックスで使用されてきた。三次元グラフィッ クスにおけるテクスチャーマッピングはポリゴンメッシュ上の各三次元ノードポ イントにテクスチャー座標(二次元座標上のピクセル位置)を割り当てることに より実現される。従って、三次元メッシュ上の各ポリゴン表面要素は二次元画像 のパッチに関連付けられ、次に二次元画像のパッチは適当なワープ変換に対する ポリゴンメッシュサブジェクトにレンダリングされる。同じ画像を変形メッシュ に繰り返しレンダ リングすることにより、アニメーションを作成できる。二次元メッシュについて も同様なプロセスを実行し、画像および対応する変形メッシュからアニメートさ れた画像シーケンスをレンダリングできる。 (メッシュに基づくビデオ処理を行うための動き予測) 時間に対するメッシュノードポイントの動きを予測することにより、所定の画 像シーケンスからの二次元メッシュの動きを決定できる。二次元メッシュに基づ く動きのモデル化の場合、動きの予測とは基準フレーム内の三角形画像パッチが 現在の画像内のパッチに最適に一致するように、所定の基準画像内においてノー ドポイントの最良位置を探すことを意味する。初期の基準画像におけるメッシュ は規則的な構造を有することがあり、この場合、このメッシュを均一メッシュと 称する。または初期基準画像内のメッシュが画像に適応することもあり、この場 合はこのメッシュをコンテントに基づくメッシュと称する。コンテントに基づく (適応型)メッシュデザインのためのアルゴリズムの説明は文献で見つけること ができる。 あるフレームから次のフレームへのノードの動きベクトルをサーチするための 種々の技術がこれまでに提案されている。最も簡単な方法は、ノードポイントを 中心とするブロックを形成し、勾配に基づく技術またはブロックマッチングを使 って、ノードの位置における動きベクトルを探す方法である。六角形マッチング および閉形状のマッチング技術はメッシュの接続性の制限を強制しながら、ノー ドを囲むすべてのパッチのパラメータワーピングによる各ノードにおける最適な 動きベクトルを探す技術である。別の方法は、画像の特徴およびメッシュの変形 基準を考慮するノードポイントの位置を、勾配に基づき繰り返し最適化する方法 である。 次に図2を参照すると、ここには画像オブジェクト10が示されている。ノー ド12a、14aを有するアニメートされた画像オブジェクト16となるように 、画像オブジェクトを変換した場合のノード、例えば画像オブジェクト10から のノード12、14の動きが記述されている。これらノードの動きはメッシュ1 8を重ねる画像オブジェクト10の局部的な動きおよび変形を記述する。画像1 6のメッシュを画像オブジェクト10にするこの変換の結果、局部的な動きおよ び変形が生じるだけでなく、画像オブジェクト全体のスケール変換も行われる。 先に述べたように、本発明の目的はメッシュおよびあるフレーム時間から次の フレーム時間へのノードポイントの変位を符号化し、復号化する方法を提供する ことにある。アニメートされるテクスチャーは静止画像符号化方法、例えばMP EG−4(動画エキスパートグループ規格4)で使用されているような方法を使 って符号化できる。アニメートされるテクスチャーは自然オブジェクトの静止画 像でもよいし、合成(コンピュータで発生した)画像でもよい。 復号器におけるアプリケーションは、テクスチャーおよびメッシュを復号化し 、アニメーションをレンダリングする。MPEG−4のシステムワーキングドラ フト(WD)の現在のバージョンは、アニメーションをサポートするアプリケー ションに対するフレームワーク、すなわち1997年7月のISO/IEC14 496、文書番号第N1825の、MPEG−4システムのワーキングドラフト V5.0(以下、MPEG−4 WD V5.0と称す)を指定している。 (二次元メッシュ符号器) 最初に、メッシュジオメトリの符号化について説明し、次にメッシュ動きベク トルの符号化について説明する。メッシュ構造(トポロジー)は既知であり、均 一なメッシュまたはドローネイメッシュであると仮定する。 次に図3および4を参照すると、ここには本発明の方法を使用できる代表的な システムが示されており、このシステムは、図3に示された符号化サブシステム 20を含む。 サブシステム20は静止画像テクスチャーデータ24を受信し、テクスチャー の符号化されたビットストリーム26を発生するテクスチャー符号器22を含む 。メッシュ符号器28は二次元メッシュシーケンス30を受信する。この符号器 28は、ジオメトリ符号器32と、動きベクトル符号器34とを含み、符号器2 8はメッシュの符号化されたビットストリーム36を発生する。 図4には、復号化サブシステムが示されており、この復号化サブシステムはテ クスチャー復号器38と、メッシュ復号器40とを含む。メッシュ復号器40は ジオメトリ復号器42と、動きベクトル復号器44とを含む。テクスチャー復号 器38およびメッシュ復号器40からの出力は、テクスチャーマッピングデータ 46を生じさせ、このマッピングデータはアニメートされた画像50を生じさせ るアニメーションアプリケーション48で使用される。当業者であれば、本発明 のシステムの好ましい実施では、静止画像を操作する ものとして説明されているが、他の画像、例えばビデオ画像も操作できることが 理解できよう。 (メッシュジオメトリ符号化) 初期の二次元三角形メッシュは均一メッシュまたはドローネイメッシュのいず れかであるので、メッシュ三角形トボロジー(ノードポイント間のリンク)は符 号化せず、二次元のノードポイントの座標を符号化する。ビットストリームでは最初のメッシュが均一であるか、ドローネ イであるかを、特殊なフラグで指定できる。下記の表8を参照のこと。 均一メッシュの場合、完全なトポロジーおよびノードポイント位置を指定する のに5つのパラメータnr_of_mesh_nodes_hori、nr_o r_mesh_nodes_verti、mesh_rect_size_ho ri、mesh_rech_size_vertiおよびtriangle_s plit_code(更に下記の表5に定義され、説明されている)を使用する 。図5には二次元均一メッシュの一例が番号60で示されており、水平および垂 直方向の強調のために黒い円で示されたノード62の数は、それぞれ5と4に等 しい。四角形の三角形への分割は、図6に示されるように4つの異なる方式で行 うことができる。図5にはtriangle_split_code=’00’ に対応するこれらタイプのうちの1つが示されている。他のコードは表9に更に 定義されている。最初の2つのパラメータ、すなわちnr_of_mesh_n odes_hori、nr_or_mesh_nodes_vertiは、均一 メッシュのうちの水平方向および垂直方向のそれぞれのノードの数を指定し、次 の2つのパラメータmeh_rect_size_hori、mesh_rec h_size_vertiは、半分のピクセル単位で(2つの三角形を含む)各 四角形の水平サイズおよび垂直サイズをそれぞれ指定する。これはメッシュのレ イアウトおよび大きさを指定する。最後のパラメータ、すなわちtriangl e_split_codeは2つの三角形を形成するのに各四角形をどのように 分割するかを指定する。 (ドローネイメッシュ) 境界ノードポイントを最初に符号化し、次にメッシュの内部ノードポイントを 符号化することにより、ノードポイントの座標を符号化する。内部ノード位置を 符号化するには、最近接点割り当て方法を使ってノードを1つずつ横断し、予測 子として先に符号化されたノードの位置を差分的に使用して、各ノード位置を符 号化する。各ノードを1回訪問するように、ノードポイントの線形順序を計算す る。ノードを訪問する際に、その位置を先に符号化されたノードに対して差分的 に符号化する。すなわち可変長さの符号化(VLC)を使って、現在ノードの位 置と先のノードの再構成された値との差を符号化する。順序は、まず最初に境界 ノードを訪問し、次に内部ノードを訪問するようになっている。ノードポイント の総数および境界ノードポイントの数を送ることにより、符号器はどれだけ多く のノードポイントに従うのか、そのうちのどれだけ多くが境界ノードとなってい るかを知り、よってポリゴン状境界およびすべてのノードの位置を再構成するこ とができる。 小さい三角形メッシュの一例を示す図7に、この方法が示されている。図7は 、二次元三角形メッシュのノードポイントの横断および符号化すべきノードポイ ントの順序を示す。まず、接続性に従い、境界ノードp0…p9を訪問する。すな わち次のノードは反時計回り方向の境界上の、次に接続されるノードとなってい る。次に、近接度に従い、内部ノードp10…p14を訪問する。すなわち次のノー ドは常に、まだ符号化されていない最も近いノードとなる。ノードの総数および 境界ノードの数を符号化する。予測することなく、頂部の左側ノードp 0を符 号化する。ここで、頂部左側ノードp 0=(x0,y0)は、局部的座標系の原 点が頂部の左側にあると仮定した場合に、最小値xn+ynを有するノードnと定 義される。xn+ynと同じ値を有するポイントが2つ以上ある場合、最小値yを 有するノードポイントを選択する。次に、反時計回り方向の境界ノードp 1を 発見し、p 0とp 1との間の差を符号化し、次に同様に他のすべての境界ノー ドを符号化する。次に、最終境界ノードに最も近い、これまで符号化されていな い内部ノードを発見し、これらの間の差を符号化する。このノードは最小値|xn −xlast|+|yn−ylast|(ここで(xlast,ylast)は先に符号化された ノードの座標を示す)を有する、これまでに符号化されていないノードnとして 定義される。次に最後に符号化されたノードに最も近い、これまでに符号化され ていないノードを見つけ、これらの差を符号化し、同様に同じことを続ける。ど の ノードポイントもx座標およびy座標、すなわちp n=(xn,yn)を有して おり、これら座標の各々を、先に符号化されたノードポイントの対応する座標か ら減算する。可変長さ符号化(VLC)を使って、生じる2つの差の値を符号化 する。本発明の特定の実施例では、スプライト軌跡を符号化するためのMPEG −4によって指定される可変長さの符号を使用する。基本的には特定の可変長さ の符号を設計できる。 (ノード動きベクトルの符号化) メッシュのシーケンス内の符号kの付いた二次元メッシュの各ノードポイント p nは、メッシュk〜k+1より定義される二次元の動きベクトルv nを有す る。すべての動きベクトルv n、n=0、…N−1を符号化することにより、 番号k+1の付いたメッシュのノードポイントp'nの位置を符号化する。メッ シュの三角形トポロジーはシーケンス中、同じままであることに留意されたい。 ノード動きベクトル符号化の2つの別の方法について説明するが、これら方法 のいずれもノード動きベクトルの予測符号化を行う。動きベクトルの予測符号化 はメッシュ内の他のノードポイントの既に符号化された1つ以上の動きベクトル により、各動きベクトルの予測を行い、その後、元のベクトルの代わりに予測さ れたベクトルと実際の動きベクトルとの差を符号化する。第1方法、すなわち方 法Iは、特定の動きベクトルの値を予測するのに、既に符号化された1つの動き ベクトルしか使用しない。第2の方法、すなわち方法IIは、特定の動きベクトル の値を予測するのに、既に符号化された2つの動きベクトルを使用する。これら 方法は予測ベクトルの選択に関しても異なっている。すなわち方法Iでは予測動 きベクトルを簡単なノードポイント順序における先の動きベクトルとして定義し 、方法IIではメッシュの幅優先横断を使用することによって予測動きベクトルを 定義する。表6に記載されているメッシュの動き符号化のためのビットストリー ムシンタックスは方法IおよびIIで同じである。 (方法I) 利用できるノードポイントp n(ここでnは順序の番号を示す)のユニーク な順序があると仮定する。メッシュが図7に示されるようなドローネイタイプの メッシュである場合、この順序はメッシュジオメトリ符号化中にノードポイント の位置を符号化する順序である と単に定義される。すなわち最初に位置を符号化するノードポイントはp 0で あり、その後、位置を符号化するノードボイントはp 1である等である。メッ シュジオメトリ符号化中に使用される順序の決定は、初期のメッシュの横断に基 づき、ここで先に述べたようにまず最初に境界ノードを訪問し、次に内部ノード を訪問する。 図8に示されるように、メッシュが均一タイプのメッシュである場合、ノード の順序は次のようにメッシュ構造に基づき定められる。順序内の最初のノードポ イント、すなわちp 0は均一メッシュのうちの最上部の左ノードポイントであ り、順序内の次のノードポイントはノードポイントの第1(頂部)行内で左から 右へ均一メッシュのノードポイントを横断し、最初の行の最終ノードのすぐ下に あるノードの第2行内のノードに進み、この第2行を右から左へ横断し、次に第 3行のノードを下に進み、第3行を左から右へ横断する、等を行うことにより、 順序内の次のノードポイントが得られる。このような順序決定は均一メッシュを 簡単に横断することによって定められる。 メッシュ内の各ノードポイントに対しては、ノードポイントがゼロでない動き ベクトルを有しているかどうかを指定するように、1ビットフラグ、すなわちn ode_motion_vector_flagを符号化する。ゼロでない動き ベクトルを有するメッシュ内の各ノードポイントに対しては、そのノードの動き ベクトルと、先に符号化された動きベクトルとの差を指定するように、動きベク トルの差ベクトルe nを符号化する。 従って、符号化方法は次のとおりとなる。すべてのノードポイントp n、n −0、…、N−1の動きベクトルは次の式によって定義される。 v n=p'n−p n (1) 上記順序の第1ノードポイントがゼロの動きベクトル、すなわちv=(0,0 )を有する場合、このノードポイントに対して動きベクトルデータは符号化され ない。第1ノードポイントがゼロでない動きベクトルを有する場合、第1ノード ポイントの動きベクトルに等しいベクトルe 0が定義される。 e 0=v 0 (2) このベクトルe 0は、そのx成分およびy成分のVLCによって符号化され る。上記順序の他のすべてのノードポイントに対する符号化プロセスは次のとお りである。 ノードポイントp n、n=1、…、N−1がゼロの動きベクトル、すなわち v n=(0,0)を有する場合、そのノードポイントに対し、動きベクトルデ ータは符号化されない。 それ以外では、次の式により、先の符号化された動きベクトルおよび現在の動き ベクトルから動きベクトルの差ベクトルe nを計算する。 e n=v n−v n-1 (3) 次に、x成分およびy成分の可変長符号化によってベクトルe nを符号化す る。従って、実際の動きベクトルを符号化するために上記順序で1つずつ、差ベ クトルe nを符号化する。 (方法II:動きベクトル予測) 方法IIは、予測子を計算するのに2つの動きベクトルを使用する予測符号化技 術に基づくものである。方法IIの予測符号化技術は動きベクトル予測の次の技術 を特に使用する。ノードp 1およびp mの2つの動きベクトルv lおよびv m が既に符号化されている三角形tk=<p l,p m,p n>の一部である ノードポイントp nの動きベクトルを符号化するために、v lおよびv mの 値を使用し、v nを予想し、予測誤り値を符号化することができる。3つのノ ードポイント動きベクトルのすべてが符号化されている初期三角形tkからスタ ートするので、共通してtkを有する2つのノードを有する少なくとも1つの他 の隣接する三角形twが存在していなければならない。tkおよびtwが共通に有 する2つのノードの動きベクトルは、既に符号化されているので、twで第3ノ ードの動きベクトルを予測するのに、これら2つの動きベクトルを使用できる。 実際の予測ベクトルw nは2つの予測動きベクトルを平均化することにより計 算され、予測ベクトルの成分は次のように半分のピクセル精度に丸められる。 w n=0.5×(v m+v l+0.5 ) (4) 符号化された第1および第2動きベクトルを除けば、この予測式はすべての動 きベクトルに対して使用される。第1動きベクトルの符号化に際し、予測ベクト ルはゼロベクトルに設定される。 w n0=(0,0) (5) 第2動きベクトルを符号化する際に、予測ベクトルは第1の符号化された動き ベクトルに設定される。 w n1=v n0 (6) 各ノードポイントnに対しては、予測ベクトルと実際の動きベクトルとの間の 差をとる ことにより、予測誤りベクトルe nを計算する。 e n=v n−wn (7) 可変長さ符号化を用いて、各予測誤りベクトルを符号化する。この方法は、次 に説明するようにメッシュの三角形およびノードを横断しながら繰り返される。 予測誤りベクトルはゼロでない動きベクトルを有するノードポイントに対してし か符号化されないことに留意すべきである。他のすべてのノードポイントに対し ては動きベクトルは単にv n=(0,0)となる。ノードポイントがゼロでな い動きベクトルを有するのか、有しないのかを指定するために、先に識別された node_motion_vector_flagが使用される。 (方法II:メッシュの横断) 番号kの付いたメッシュ内のすべての三角形およびノードを訪問し、k〜k+ 1から定められた動きベクトルを符号化するために、幅優先横断方法が使用され る。この幅優先横断方法とは、どの三角形も正確に一度訪問され、少なくとも1 回各ノードが訪問されるように、ユニークに定義されるメッシュの横断方法であ る。符号器で常時既知となっており、初期メッシュが一旦符号化されると、復号 器で公知となるメッシュのトポロジーにより、この横断方法は決定されるので、 符号器および復号器の双方で全く同じようにメッシュの横断を行うことができる 。 メッシュ三角形の幅優先横断は次のように定められ、図9において番号90で 全体が示される。最初に、初期三角形92を次のように定義する。局部的座標系 の原点が頂部の左側にあると仮定しながら、頂部左側メッシュノード94を最小 値xn+ynを有するノードnと定義する。xn+ynの同じ値を有する2つ以上の ノードがある場合、最小値yを有するこれらノードからノードポイントを選択す る。メッシュの頂部左側ノードと境界上の時計回り方向の次のノード98との間 のエッジ96は、初期三角形と表示される三角形のエッジとなつている。この初 期三角形を番号0で表示する。 第2に、他のすべての三角形を番号1、2、…、M−1で繰り返し番号付けす る。ここでMはメッシュ内の三角形の数である。まだ番号が付けられていない隣 接する三角形を有するすべての番号付けされた三角形から、最も小さい番号を有 する三角形を探す。次にこの三角形を現在の三角形100と称す。最初の繰り返 しでは、初期三角形が現在の三角形となる。この三角形を最初の番号を有する、 既に番号の付いた近くの三角形に接続するエ ッジとして、この三角形のベースエッジを定義する。初期三角形の場合、頂部左 側ノードと境界上の時計回り方向の次のノードの間のエッジとしてベースエッジ を定義する。ベースエッジに対し、反時計回り方向の次のエッジとして、現在の 三角形の右エッジを定義し、ベースエッジに対する時計回り方向の次のエッジと して左エッジを定義する。すなわち頂点が時計回り方向の順序となっている三角 形tk=<p l,p m,p n>に対し、<p l m>がベースエッジであれ ば、<p l m>が右エッジとなり、<p m n>が左エッジとなる。 第3に右エッジを共用する現在の三角形に隣接する番号の付いていない三角形 があるかどうかを判断する。かかる三角形がある場合、次に利用できる番号をこ の三角形に付ける。左エッジを共用する現在の三角形に隣接する番号の付いてい ない三角形があるかどうかを判断する。かかる三角形がある場合、次に利用でき る番号をこの三角形に付ける。すべての三角形にユニークな番号mが付けられる まで、このプロセスを繰り返す。次に図9を参照すると、ここには二次元三角形 の例のメッシュの幅優先横断方法が示されている。この横断方法はメッシュを通 る中間的なものであり、5つの三角形に番号が付けられており、6つのノードポ イントの動きベクトルが符号化(ボックス記号でマーク)されている。番号3の 付いた三角形は現在の三角形であり、ベースエッジはbであり、右エッジはrで あり、左エッジはlである。次に番号の付けられる三角形は現在の三角形と共に 右および左エッジを共用する三角形である。これら三角形に番号を付けた後、番 号4の付いた三角形が次の現在三角形となり、別の動きベクトルが符号化される 。 指定された番号に従う三角形の順序は暗黙に各ノードポイントの動きベクトル を符号化する順序を決める。最初にメッシュのうちの頂部左ノードに対する動き ベクトルのデータが符号化される。このノードの動きベクトルに対し、予測子は 使用されないので、このデータは動きベクトル自身を特定する。次に、頂部左ノ ードに対し、境界上にある時計回り方向の次のノードとなっている第2ノードに 対する上にベクトルデータを符号化する。このデータは、このノードの動きベク トルに対する予測誤りを含み、ここでは頂部左ノードの動きベクトルは予測子と して使用される。初期三角形のベースエッジを形成するこれら最初の2つのノー ドには、「処理済み」なるマークが付けられる。 初期三角形から開始し、上記のように幅優先横断を繰り返すごとに、その繰り 返し中に現在三角形のベースエッジ上にある2つのノードの動きベクトルを使っ て、その三角形の 第3ノードの動きベクトルに対する予測子を形成する。その第3のノードにまだ 「処理済み」なるマークが付けられていない場合、実際の動きベクトルから予測 子を減算することにより、予測誤り値を計算し、VLCにより動きベクトルデー タを符号化する。第3ノードに「処理済み」なるマークを付ける。既に第3ノー ドに「処理済み」なるマークが付いている場合、これは無視するだけで、データ を符号化しない。横断方法の性質に起因し、その三角形が現在三角形となり、そ れら動きベクトルが既に符号化されており、予測子として使用できることを意味 する際、三角形のベースエッジ上の2つのノードは「処理済み」なるマークが付 けられることが保証される。 表1には、この方法の符号化工程に対する動きベクトルおよび三角形キュー状 態が示されている。 三角形の先入れ先出し(FIFO)キューを活用することにより、三角形の幅 優先横断とノードの動きベクトルデータの符号化とを同時に行うことができる。 しかしながら、次の説明は本発明の好ましい実施例に関するものであり、三角形 キューを使用する動きベクトル符号化方法の実施は幅優先横断を実施するための いくつかの方法のうちの1つにすぎないと理解すべきである。 FIFOキューを使って三角形tkを一時的に記憶する。ここで各三角形は時 計回り方向の順序で三角形のノードポイントを記憶し、第1および第2ノードポ イントが常に三角形のベースエッジに対応するように、ノードポイントtk=< p l、p m、p n>の順序の決まった3つの組によって指定する。 メッシュの頂部左側ノードおよび時計回り方向の境界上のその隣接するノード は、共に横断方向の初期三角形を構成する。これら2つのノードに関連する動き ベクトルは上記のように符号化される。次に、終了点に初期三角形を添付するこ とにより、(最初に空であった)FIFOキューを初期化する。更にこの初期三 角形に番号0を付け、既に処理された2つのノードに「処理済み」なるマークを 付ける。次に空になるまで、次のようにFIFOキューを処理する。 キューのヘッドにある順序の定められた3つの組tk=<p l,p m,p n >をキューから除く。この3つの組から即座にこの三角形のベースエッジ、右エ ッジおよび左エッジを識別できる。第3ノードp nに「処理済み」なるマーク が付いている場合、それ以上、何の措置もとらない。そうでない場合は3つの組 内の最初の2つのノードに関連する、既に符号化された動きベクトルp l、お よびp m、およびp nにおける実際の動きベクトルを使って予測ベクトルを形 成する。VLCによって予測誤り値を符号化する。次に、サブジェクトノードポ イントに「処理済み」をマークする。まだマークの付いていない右エッジを共用 する隣接する三角形をtkが有するかどうかを判断する。かかる三角形がある場 合、これに新しい番号を付け、キューの終了点に添付する。tkがまだマークの 付いていない左エッジを共用する隣接する三角形を有しているかどうかを判断す る。かかる三角形がある場合、新しい番号を付け、キューの終了点に添付する。 すべての三角形に番号が付けられると、キューにそれ以上の三角形を添付しな い。キューが空になったとき、すべての三角形は処理され、すべてのノード動き ベクトルが符号化されることとなる。 メッシュ内のどの三角形も、少なくとも1つの隣接する近傍の三角形を有し、 訪問時に三角形に番号が付けられるので、どの三角形も正しく1回訪問され、す べての三角形の訪問が完了した時(また終了した時に限り)、横断が終了する。 三角形の幅優先横断はノードポイントを訪問する順序を決める。ノードポイント は2回以上訪問してもよいが、動きベクトルはノードの訪問が行われた最初の時 に限り符号化される。対応する動きベクトルを再び符号化する試みがなされない ように、符号化の際に各ノードに番号が付けられる。ノードポイントのユニーク な順序は、ビットストリーム内に置かれる動きベクトルデータの順序に対応する 。 小さい三角形メッシュに対し任意の番号t0、…、t9の付いた番号の横断およ び任意の 番号p0、…、p9の付いたノードポイントの対応する順序を示す図10には、幅 優先横断方法が示されている。初期三角形t3は頂部左ノードp 3および境界上 の時計回り方向の次のノードp 1を使って定義される。上のベクトルv 3は全 く予測子を使用することなく符号化され、動きベクトルv 1は予測子としてv 3 だけを使用して符号化される。ノードp 3およびp 1は「処理済み」なる マークが付けられる。三角形のキューはt 3により初期化され、t3のマークが 付けられる。次に付いたキューの前方要素、本例でt3を除くことにより、メッ シュの実際の幅優先横断がスタートする。次に予測子としてv 3およびv 1を 使用し、ビットストリーム内に予測誤りを挿入して第3ノードv 6の動きベク トルを符号化する。ノードp 6に「処理済み」なるマークを付ける。次のステ ップは現在の三角形t3に隣接し、マークの付いていない三角形を三角形のキュ ーに添付することである。まず最初に、現在の三角形の右にある三角形(本例で はt5)を添付し、次に左の三角形(本例ではt0)を添付し、双方に番号を付け る。 キュー(本例ではt5)から前方要素を除くことにより、横断の次の繰り返し が開始する。次にv 3およびv 6を予測子として使用し、ビットストリームか ら予測誤りを検索し、第3ノードv 7の動きベクトルを符号化する。次にノー ドp 7に「処理済み」なるマークを付け、三角形のキューに接続された三角形 t8を添付し、マークを付ける。 三角形のキューが空になり、すべてのノード動きベクトルが符号化されるまで 、かかる繰り返しを続ける。表1に、このアルゴリズムのステップが示されてい る。 (二次元メッシュ復号器) 本明細書において後述するMPEG−4シンタックスを参照し、再度、図4お よび表3〜6を参照すると、メッシュ復号器40によりmesh_object _start_codeを復号化した後に、mesh_object_end_ codeを検出するまで、あるシーケンスのメッシュオブジェクト平面を復号化 する。メッシュオブジェクト平面クラスのnew_mesh_flagは、次に 続くデータが新しいダイナミックメッシュの初期ジオメトリを指定しているかど うか(このケースではデータはジオメトリ復号器42に送られる)を判断するか 、またはこのデータがあるシーケンスのメッシュにおける先のメッシュから現在 メッシュへのノードの動きを指定するかどうか(本ケースではデータは動きベク トル復号器44に送られるている)を判断する。 次に、メッシュジオメトリの復号化について説明し、次にメッシュの動きの復 号化を説明する。この説明は一般的なものであり、好ましい実施例において本明 細書で指定したMPEG−4シンタックス以外の任意のシンタックスを使って説 明できる。 (メッシュジオメトリの復号化) 初期二次元三角形メッシュは均一メッシュまたはドローネイメッシュのいずれ かであるので、メッシュ三角形のトボロジー(ノードポイント間のリンク)は符 号化せず、二次元ノードポイントの座標p n=(xn、yn)しか符号化しない 。mesh_type_code(表3)は、初期メッシュが均一メッシュであ るか、またはドローネイメッシュであるかを指定する。 (均一メッシュ) 先に述べたように、均一メッシュのジオメトリを5つのパラメータが指定する (表5)。最初の2つの復号化されたパラメータは均一メッシュの水平方向およ び垂直方向のノードの数をそれぞれ指定する。次の2つの復号化されたパラメー タは半分のピクセル単位まで正確な単位で、(2つの三角形を含む)各四角形の 水平方向および垂直方向のサイズを指定する。最終パラメータは各四角形をどの ように2つの三角形に分割するかを指定する。 (ドローネイメッシュ) まず最初にメッシュ内のノードポイントの総数Nを復号化し、次にメッシュの 境界上にあるノードポイントの数Nbを復号化する。ここでNはメッシュの内部 にあるノードの数Niと境界上にあるノードの数Nbの合計である。 N=Ni+Nb (8) 次に境界および内部ノードポイントの位置を復号化する。局部座標系の原点は 画像オブジェクトの頂部左にあると仮定する。 固定長さ符号(FLC)により、半分のピクセル単位によって指定される第1 ノードポイントのxおよびy座標を復号化する。先に復号化されたノード位置に 差の値を加算することにより、他のすべてのノードポイントの位置を計算する。 特に、先に復号化されたノード位置のxおよびy座標のそれぞれに、delta _xおよびdelta_yを加算す る。それぞれの長さdelta_x_len_vlcおよびdelta_y_l en_vlcを指定する可変長さ符号(VLC)を最初に復号化し、次にこれら の値を復号化することにより、delta_xおよびdelta_yの値の各々 を復号化する。従って、初期ノードポイントの座標p 0=(x0,y0)をその まま復号化する。次に先に復号化されたノードポイントの座標に復号化された値 を加算することにより、他のすべてのノードポイントの座標p n=(x n,y n )を次のように決定する。xn=xn-1+dxnおよびyn=yn-1+dynこれ ら差の値は、復号器で使用される可変長さ符号を使用して復号化する。 復号化された位置のシーケンスにおける順序は、最初のNb個の位置が(反時 計回り方向の)境界ノードに対応するようになっている。従って、最初のNb個 の位置を受信した後に復号器は連続する境界ノードの各ペアだけでなく、最初と 最終の直線状エッジセグメントも接続することにより、メッシュの境界を再構成 することができる。復号化された位置のシーケンス内の次のN−Nbの値は、内 部ノードポイントに対応する。従って、N個のノードを受信した後に、境界のポ リゴン形状の他に境界および内部ノードの双方の位置も再構成できる。これにつ いては図11に示されており、図11は制限されたドローネイ三角化への入力で ある復号化されたノードポイント(四角形)およびメッシュ境界エッジセグメン ト(直線)を示す。 最後に、制限されたドローネイ三角化を復号化されたノードポイントの組に適 用することによってメッシュを得る。ここで、メッシュ境界上のエッジセグメン トは制限事項として使用される。内部に他のノードポイントを含まず、他のノー ドポイントと交差しないこれら2つのポイントを通過する円が存在する場合、2 つのノードポイントの間にエッジを挿入することによりドローネイ三角化を続け る。境界エッジはこの定義に例外だけを与え、プロセスにおいて除くことはでき ない。図11のノードポイントの制限された三角化によって得られるメッシュの 位置例が図12に示されている。 (ノード動きベクトルの復号化) メッシュのシーケンス内のkの番号の付いた二次元メッシュの各ノードポイン トp nは、メッシュk〜k+1より定義される二次元の動きベクトルv nを有 する。すべての動きベクトルv n、n=0、…、N−1を復号化することによ り、k+1の番号の付いたメッシュのノードポイントp n'の位置を再構成する ことができる。ここで、メッシュの三角形ト ポロジーはメッシュのシーケンス全体で同じままであることに留意されたい。 「ノード動きベクトルの符号化」なる題名の章で先に述べたように、動き復号 化のための2つの方法について説明する。従って、動きベクトルの復号化のため の2つの方法について説明し、これらを方法Iおよび方法IIと表示する。 (方法I) この方法Iは、1つの動きベクトルを予測子として使用するだけの予測符号化 技術に基づくものである。ノードポイントp nのユニークな順序を利用できる 。ここでnは順序の数を示す。メッシュがドローネイタイプのメッシュを示す場 合、この順序はメッシュジオメトリの符号化中にノードポイントの位置を受信す る順序として単に定義される。まず最初に、位置を受信するノードポイントはp 1 であり、その後、位置を受信するノードポイントはp 0である、等である。 メッシュが均ータイプのメッシュである場合、ノードの順序は「ノード動きベク トルの符号化:方法I」なる題名の章に先に説明したメッシュ構造に基づいて定 められる。均一メッシュの簡単な横断によって定められるこの順序は図8に示さ れている。 メッシュにおける各ノードポイントに対し、1つのビットフラグはノードポイ ントがゼロでない動きベクトルを有するかどうかを指定する。ゼロでない動きベ クトルを有するメッシュ内の各ノードポイントに対し、動きベクトルの差ベクト ルe nは、そのノードの動きベクトルと先に復号化された動きベクトルとの差 を指定する。この復号化プロセスは次のとおりである。動きベクトルを復号化す るためにビットストリームから1つずつベクトルe nを検索し、上記順序でノ ードポイントの新しい位置を計算するように使用される。順序内の第1ノードポ イントがゼロの動きベクトルを有する場合、次のとおりとなる。 v 0=(0,0) (9) 順序内の第1ノードポイントがゼロでない動きベクトルを有する場合、第1ベ クトルがビットストリームe 0から検索され、第1ノードポイントの動きベク トルを直接指定する。 v 0=e 0 (10) 第1ノードポイントの新しい位置は次の式によって得られる。 p'0=p 0+v 0 (11) ビットストリームe nから得られる他のすべてのベクトルは動きベクトルの 差ベクトル であり、これは先に復号化された動きベクトルに加算され、実際の動きベクトル を与える。ノードポイントp n、n=1、…、N−1がゼロの動きベクトルを 有する場合、次のようになる。 v n=(0,0) (12) そうでない場合、次のようになる。 v n=v n-1+e n (13) ノードポイントp n、n=1、…、N−1の新しい位置が次の式によって得 られる。 p'n=p n+v n (14) (方法II:動きベクトル予測) 方法IIは2つの動きベクトルを使って予測子を計算する予測符号化技術に基づ くものである。この方法IIの予測符号化技術は特に次の原理を使用している。三 角形tk=<p l、p m、p n>(ここで2つの動きベクトルのノードp lお よびp mのベクトルv lおよびv mは既に復号化されている)の一部である ノードポイントp nの動きベクトルを復号化するために、v lおよびv mの 値を使ってv nを予測し、予測誤り値を復号化することができる。3つのすべ てのノードの動きベクトルが復号化された初期三角形tkからスタートし、tkと 共通する2つのノードを有する少なくとも1つの他の隣接する三角形twが存在 していなければならない。tkおよびtwが共通に有する2つのノードの動きベク トルは既に復号化されているので、これら2つの動きベクトルを使ってtwにお ける第3ノードの動きベクトルを予測することができる。2つの予測動きベクト ルを平均化することにより、実際の予測ベクトルw nを計算し、次のように予 測ベクトルの成分を半分のピクセルの精度に丸める。 w n=0.5×(v m+v l+0.5) (15) この動きベクトル自身は次の式によって計算される。 v n=w n+e n (16) ここで、e nは予測誤りベクトルを示し、このベクトルの成分は可変長さ符 号から復号化される。この方法は、下記のように三角形およびメッシュのノード を横断しながら繰り返される。メッシュのすべての三角形を訪問しながら、ビッ トストリームから1つずつ、各ノードの動きベクトルのデータが復号化される。 次の第1動きベクトルを復号化するの に、予測子は使用しないことに留意されたい。 v n0=e n0 (17) また、次の第2動きベクトルを復号化するのに、最初の符号化された動きベク トルしか予測子として使用されないことに留意されたい。 v n1=v n0+e n1 (18) この予測誤りベクトルはゼロでない動きベクトルを有するノードポイントに対 してしか特定されないことに留意すべきである。他のすべてのノードポイントに 対し、動きベクトルは単にv n=(0,0)となる。 (方法II:メッシュ横断) 番号kの付いたメッシュ内のすべての三角形およびノードを訪問し、メッシュ k〜k+1から定義された動きベクトルを復号化するのに幅優先横断方法が使用 される。三角形の幅優先横断方法は、「ノードの動きベクトルの符号化:方法II 」の章に記載されており、この方法復号化段階にも同じように適用できる。 幅優先横断中に割り当てられる表示番号に従う三角形の順序は、下記に説明す るように、各ノードポイントの動きベクトルのデータを復号化する順序を暗に定 めている。当初、ビットストリームからメッシュの頂部左ノードに対する動きベ クトルデータが検索される。このノードの動きベクトルには予測子は使用されな いので、このデータは動きベクトル自身を特定する。頂部左ノードに対し、境界 上の時計回り方向の次のノードとなっている、第2ノードに対する上のベクトル データは、ビットストリームから検索される。このデータはこのノードの動きベ クトルに対する予測誤りを含み、ここでは頂部左ノードの動きベクトルは予測子 として使用される。(初期三角形のベースエッジを構成する)これら2つの第1 ノードは、「処理済み」なるマークが付けられる。 初期三角形からスタートし、先に述べたように幅優先横断を繰り返すごとに、 その繰り返す中に現在三角形のベースエッジ上にある2つのノードの動きベクト ルを使って、その三角形の第3ノードの動きベクトルに対する予測子を形成する 。その第3ノードに「処理済み」なるマークが付いていない場合、ビットストリ ームから動きベクトルデータを検索し、予測誤り値として使用する。すなわち実 際の動きベクトルを得るように予測子に復号化された値を加える。次にこの第3 ノードに「処理済み」なるマークを付ける。第3ノー ドに既に「処理済み」なるマークが付いている場合、これは単に無視し、ビット ストリームからデータを検索しない。横断方法も性質に起因し、三角形が現在三 角形となり、それらの動きベクトルが既に復号化され、予測子として使用できる ことを意味する場合、この三角形のベースエッジ上にある2つのノードに「処理 済み」なるマークが付けられることが保証される。 メッシュ内のどの三角形も、少なくとも1つの隣接する近くの三角形を有し、 訪問時にこれら三角形には記号が付けられるので、どの三角形も正確に1回訪問 され、すべての三角形の訪問が完了した時(およびその時に限り)、横断が終了 する。ノードポイントは2回以上の訪問を受けることがあるが、それらの動きベ クトルはノードの最初の訪問時に限り復号化され、復号化時に各ノードに記号が 付けられるので、対応する動きベクトルを再び復号化する試みはなされない。ノ ードポイントのユニークな順序の決定方法は、ビットストリーム内に存在する動 きベクトルデータの順序に対応する。 符号化段階と同じように三角形の先入れ先出し(FIFO)キューを利用する ことにより、三角形の幅優先横断とノード動きベクトルデータの復号化とを同時 に行うことができる。より詳細については、上記「ノード動きベクトルの符号化 」に関する章、および小さい三角形メッシュに対する復号化中の幅優先横断方法 を示す図10を参照されたい。図10は任意の番号t0、…、t9の付いた三角形 の横断および任意の番号の付いたノードポイントp 0、…、p 9の対応する順 序を示す。初期三角形t3は頂部左ノードp 3および境界上の時計回り方向の次 のノードp 1を使って定義される。動きベクトルv 3は予測子を使用すること なく復号化される。動きベクトルv 1は予測子としてv 3だけを使用すること によって復号化される。ノードp 3およびp 1には「処理済み」なるマークが 付けられる。t3により三角形キューが初期化され、t3にマークが付けられる。 メッシュの実際の幅優先横断はキューから前方要素、本例ではt3を除くこと によりスタートする。次にv 3およびv 1を予測子として使用し、ビットスト リームから予測誤りを検索することにより、第3ノードの動きベクトルv 6を 復号化し、ノードp 6に「処理済み」なるマークを付ける。次のステップは、 まだマークの付いていない現在三角形t3に隣接する三角形を三角形キューに添 付することである。まず現在の三角形(本例ではt5)の右の三角形を添付し、 次に左の三角形(本例ではt0)を添付し、双方にマークを付ける。次の横断の 繰り返しは、キュー、本例ではt5から前方要素を除くことにより開始する。次 にv 3およびv 6を予測子として使用し、ビットストリームから予測誤りを検 索することにより、第3ノードv 7の動きベクトルを復号化し、ノードp 7に 「処理済み」なるマークを付け、接続された三角形t8を三角形キューに添付し 、マークを付ける。三角形キューが空になり、すべてのノード動きベクトルが復 号化されるまで、かかる繰り返しを続ける。このアルゴリズムのステップは表2 にも示されている。(ビットストリームシンタックスおよびセマンティックス) 次の説明は、MPEG−4ワーキングドラフト(WD)V5.0の現在バージ ョンにおける本発明の実施である。このワーキングドラフトは復号化プロセスし か指定していない。次の記載は、MPEG−4WDV5.0の現在の明細の構造 に従ったメッシュジオメトリおよび動きベクトルの双方に対する復号化プロセス を実施するオブジェクト指向の疑似コンピュータコードである。 (メッシュオブジェクト) このメッシュオブジェクトのクラスは、二次元メッシュのシーケンスに対する シンタックスを定義するものである。 (メッシュオブジェクト平面) このメッシュオブジェクト平面のクラスは、新しいメッシュとして、または先 に符号化されたメッシュに対して単一二次元メッシュを符号化するためのシンタ ックスを定義するものである。 メッシュジオメトリクラスは均一メッシュまたは三角化されたドローネイメッ シュのいずれかであり得る新しいメッシュの二次元ジオメトリを符号化するため のシンタックスを定義するものである。 メッシュ動きクラスは、現在メッシュに対する先の二次元メッシュの二次元動 きベクトルを符号化し、よって現在の二次元メッシュを符号化するためのシンタ ックスを定義するものである。 (シンタックスのセマンティックス) メッシュビットストリームのシンタックスは2つの部分、すなわちメッシュジ オメトリとメッシュの動きから成る。新しいメッシュを初期化する必要がある場 合、メッシュジオメトリは符号化されるだけである。この新しいメッシュはメッ シュノードの初期位置から成る。ダイナミックなメッシュの動きを記述するのに 、その後の時間にメッシュの動きが符号化され、このメッシュの動きは各メッシ ュノードに対する動きベクトルから成る。 ダイナミックなメッシュシンタックスによって、異なるタイプの二次元メッシ ュ構造、すなわちノードの動きベクトルに対する均一またはドローネイ制限され た、異なる振幅レンジを符号化することができる。ノード座標およびノード動き ベクトルの精度は0.5ピクセルである。 (marker_bit) この1ビットコードは、「1」にセットされる。このビットを「1」にセット することにより、スタートコードのエミュレーションが防止される。 (mesh_object_start_code) このコードは16進法の「000001BC」のビットストリームであり、メ ッシュオブジェクトのスタート点をマークする。このコードは同期化のための長 さ32ビットのユニークなビットストリームである。 (mesh_object_end_code) このコードは16進のビットストリームであり、メッシュオブジェクトの終了 点をマークする。このコードは同期化のための長さ32ビットのユニークなコー ドである。 (mesh_object_plane_start_code) このコードは16進の「000001BD」のビットストリームであり、メッ シュオブジェクト平面のスタート点をマークし、同期化のための長さ32ビット のユニークなコードである。 (new_mesh_flag) このコードは新しいメッシュを初期化するのかどうか、または現在のメッシュ を先のメッシュに対して符号化するのかどうかを指定する1ビットのコードであ る。 (mesh_type_code) このコードは、符号化される初期メッシュジオメトリのタイプを指定する1ビ ットコードである。 (nr_of_mesh_nodes_hori) このコードはユニフォームメッシュの1行内のノードの数を指定する10ビッ トコードである。 (nr_of_mesh_nodes_verti) このコードはユニフォームメッシュの1列内のノードの数を指定する10ビッ トコードである。 (mesh_rect_size_hori) このコードは半ピクセル単位の(2つの三角形を含む)均一メッシュの長方形 の幅を指定する8ビットコードである。 (mesh_rect_size_verti) このコードは半ピクセル単位の(2つの三角形を含む)均一メッシュの長方形の 高さを指定する8ビットコードである。 (triangle_split_code) このコードは三角形を形成するために均一メッシュの長方形をどのように分割 するかを指定する2ビットコードである。(nr_of_mesh_nodes) このコードは(均一でない)ドローネイメッシュのノード(頂点)の総数を定 める16ビットコードである。これらノードは内側ノードだけでなく、境界ノー ドも含む。 (nr_of_boundary_nodes) このコードは(均一でない)ドローネイメッシュの境界上のノード(頂点)の 数を定める10ビットコードである。 (node0_x) このコードは局部座標系に対する半ピクセル単位のメッシュの最初の境界ノー ド(頂点)のx座標を指定する10ビットコードである。 (node0_y) このロードは局部座標系に対する半ピクセル単位のメッシュの最初の境界ノー ド(頂点)のy座標を指定する10ビットコードである。 (delta_x_len_vlc) このコードは後に続くdelta_xコードの長さを指定する可変長さコード である。delta_x_len_vlcコードとdelta_xコードとは、 共にノード(頂点)のx座標と先に符号化されたノード(頂点)のx座標の差を 指定する。delta_x_len_vlcコードとdelta_xコードの定 義は、MPEG−4ビデオ照合モデル7.0(VM7.0)(N1642、4.7. 1.1章)(1997年4月)、以下、MPEG−4VVM7.0と称し、これら コードはスプライト軌跡の符号化に使用される。 (delta_x) このコードはノード(頂点)のx座標と先に符号化されたノード(頂点)のx 座標の差 の値を定める固定長さコードである。delta_x_len_vlcコードと delta_xコードは、MPEG−4VVM7.0、4.7.1.1章に記載され ており、これらコードはスプライト軌跡の符号化に使用される。 (delta_y_len_vlc) このコードは後に続くdelta_yコードの長さを指定する可変長さコード である。delta_y_len_vlcコードとdelta_yコードとは、 共にノード(頂点)のy座標と先に符号化されたノード(頂点)のy座標の差を 指定する。delta_y_len_vlcコードとdelta_yコードの定 義は、MPEG−4VVM7.0、4.7.1.1章に記載されており、これらコー ドはスプライト軌跡の符号化に使用される。 (delta_y) このコードはノード(頂点)のy座標と先に符号化されたノード(頂点)のy 座標の差の値を定める固定長さコードである。delta_y_len_vlc コードとdelta_yコードは、MPEG−4VVM7.0、4.7.1.1章に 記載されており、これらコードはスプライト軌跡の符号化に使用される。 (motion_range_code) このコードは動きベクトルのダイナミックレンジを指定する2ビットコードで ある。 (node_motion_vector_flag) このコードは動きベクトルが続くかどうかを指定する1ビットコードであり、 ノードがゼロの動きベクトルを有する場合、動きベクトルは符号化されないが、 その代わり値「0」を有するnode_motion_vector_flag が送られる。このフラグが「1」にセットされた場合、このことはノードがゼロ でない動きベクトルを有することを意味する。 (delta_mv_x_vlc) このコードは予測動きベクトルのx成分に比較してノードの動きベクトルのx 成分の差の値を(delta_mv_x_resと共に)定める可変長さコード である。復号化プ ロセスに関するこの章は、予測動きベクトルをどのように見つけるかを説明する ものである。delta_mv_x_vlcとdelta_mv_x_resコ ードの定義は、MPEG−4VVM7.0、6.1.8および6.1.9章の表30 に記載されており、これらコードは動きベクトルの差の符号化に使用される。 (delta_mv_x_res) このコードはdelta_mv_x_vlcによって符号化される動きベクト ルの差の余りを定める固定長さコードである。delta_mv_x_vlcと delta_mv_x_resコードの定義は、MPEG−4VVM7.0、6. 1.8および6.1.9章の表30に記載されており、これらコードは動きベクト ルの差の符号化に使用される。 (delta_mv_y_vlc) このコードは予測動きベクトルのy成分に比較してノードの動きベクトルのy 成分の差の値を(delta_mv_y_resと共に)定める可変長さコード である。復号化プロセスに関するこの章は、予測動きベクトルをどのように見つ けるかを説明するものである。delta_mv_y_vlcコードとdelt a_mv_y_resコードの定義は、MPEG−4VVM7.0、6.1.8お よび6.1.9章の表30に記載されており、これらコードは動きベクトルの差の 符号化に使用される。 (delta_mv_y_res) このコードはdelta_mv_y−vlcによって符号化される動きベクト ルの差の余りを定める固定長さコードである。delta_mv_y_vlcと delta_mv_y_resコードの定義は、MPEG−4VVM7.0、6. 1.8および6.1.9章の表30に記載されており、これらコードは動きベクト ルの差の符号化に使用される。 工業的応用例 二次元ダイナミックメッシュの表示は次のアプリケーションをサポートする。 (ビデオオブジェクト操作) 三次元コンピュータグラフィックでは、三次元メッシュモデルのアニメーショ ンパラメータを合成的に特定することが多い。二次元メッシュモデルのアニメー ションパラメータは同様に合成的に特定できるが、これらは動き予測による自然 のビデオシーケンスからも誘導できる。従って、メッシュのモデル化により、我 々が統一されたフレームワーク内で 自然のオブジェクトと合成オブジェクトを繰り返して組み合わせることが可能と なっている。可能なアプリケーションとして、オブジェクトトランスフィギュレ ーション(移動ビデオにおいて、あるオブジェクトを別のオブジェクトに置換す ること)と、補強されたリアリティ(グラフィックスまたはテキストによる移動 ビデオにおけるオブジェクトの補強/オーバーレイ)と、空間的、時間的画像補 間法(ズーミングまたはフレームレート変換)とがある。 (ビデオ圧縮) 動き予測と圧縮技術は高い圧縮比を得るためにビデオ符号化システムのための 重要なツールであることが分かっている。メッシュに基づく動きモデルの性質に より、この動きモデルは、ブロック動きベクトルの代わりにメッシュノードの動 きベクトルを送信するビデオ符号化における動き補償ツールとして使用するため のブロックに基づく動きモデル化の適当な代替方法となっている。メッシュに基 づくビデオ圧縮は、例えば選択されたキーフレームだけのテクスチャーマップを 送信し、二次元メッシュ情報を使って中間フレームのために(予測誤り画像を送 ることなく)これらテクスチャーマップをアニメートすることによって実行でき る。シーケンスの第1フレームの画像データだけでなく、シーケンスのすべての フレームに対応するメッシュ動きデータも符号化する。初期メッシュが画像コン テントに適応する場合、初期メッシュジオメトリに関する情報を符号化し、同じ ように送信しなければならない。ビデオ符号化の場合、初期メッシュジオメトリ は関連するオーバーヘッド(例えば均一メッシュ)を制限するように制約されて いることが時々あるが、いくつかのオブジェクト(ビデオ、オーディオ、テキス ト、二次元/三次元メッシュなど)を独立して符号化するマルチメディア符号化 の場合、より一般的なメッシュジオメトリの圧縮方式を使用できる。 (ビデオライブラリーのためのインデクシングおよびブラウジング) 個々のビデオオブジェクトへのコンテントに基づくランダムアクセスは、普及 したいくつかのマルチメディアアプリケーション、例えばビデオデータベースの オブジェクトに基づくブラウジング、編集/操作において、望ましい特徴となっ ている。かかるアプリケーションで使用できるビデオの二次元のコンテントに基 づく三角形メッシュ表示から、有効 な動きおよび形状の特徴を誘導できる。 以上で二次元メッシュのジオメトリおよび動き別方法圧縮のためのシステムお よび方法について開示した。本発明の方法の好ましい実施例およびいくつかのそ の変形例を開示したが、添付した請求の範囲に記載の本発明の範囲から逸脱する ことなく、更に別の変形および変更を行うことができると理解すべきである。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),CN,JP,KR,S G

Claims (1)

  1. 【特許請求の範囲】 1.ノードポイントの一組のメッシュジオメトリの符号化及び復号化と、 各ノードポイントに対するメッシュノードの動きベクトルの符号化及び復号化 とを含む、ダイナミックメッシュの符号化及び復号化方法。 2.メッシュジオメトリの前記符号化及び復号化が、ドローネイタイプのメッ シュトポロジーの圧縮を含む、請求項1記載の方法。 3.メッシュジオメトリの前記符号化および復号化が、均一タイプのメッシュ トポロジーを圧縮することを含む、請求項1記栽の方法。 4.メッシュノードの動きベクトルの前記符号化および復号化が、 ノードポイントの線形横断を使用した各ノードポイントに対する動きベクトル の圧縮と、 一時予測を使用した各ノードポイントに対するその後の動きベクトルの予測と を含む、請求項1記載の方法。 5.前記予測が、可変長さのコードを使用した予測誤りの符号化及び復号化を 含む、請求項4記載の方法。 6.ドローネイタイプのメッシュに対するメッシュノードポイントを横断し、 順序を定めることを含む、請求項4記載の方法。 7.均ータイプのメッシュに対するメッシュノードポイントを横断し、順序を 定めることを含む、請求項4記載の方法。 8.メッシュノードの動きベクトルの前記符号化及び復号化が、 ノードポイントの幅優先横断を使用した各ノードポイントに対する動きベクト ルの圧縮と、 一時予測を使用した各ノードポイントに対するその後の動きベクトルの予測と を含む、請求項1記載の方法。 9.前記予測が、可変長さのコードを使用した予測誤りの符号化及び復号化を 含む、請求項8記載の方法。 10.頂点の一組のメッシュジオメトリの符号化及び復号化と、 各ノードポイントに対するメッシュノードの動きベクトルの符号化及び復号化 を有する、一組の多角形のパッチを含むダイナミックメッシュの符号化及び復号 化方法。 11.メッシュジオメトリの前記符号化及び復号化が、ドローネイタイプのメ ッシュトポロジーの圧縮を含む、請求項10記載の方法。 12.メッシュジオメトリの前記符号化及び復号化が、均一タイプのメッシュ トポロジーの圧縮を含む、請求項10記載の方法。 13.前記多角形がポリゴンが三角形であり、メッシュノードの動きベクトル の前記符号化及び復号化が、 頂点の線形横断を使用した各頂点に対する動きベクトルの圧縮と、 一次予測を使用した各頂点に対するその後の動きベクトルの予測とを含む、請 求項10記載の方法。 14.前記予測が、可変長さのコードを使用した予測誤りの符号化及び復号化 を含む、請求項13記載の方法。 15.ドローネイタイプのメッシュに対するメッシュの頂点を横断し、順序を 定めることを含む、請求項13記載の方法。 16.均一タイプのメッシュに対するメッシュの頂点を横断し、順序を定める ことを含む、請求項13記載の方法。 17.メッシュノードの動きベクトルの前記符号化及び復号化が、 メッシュ全体にわたって三角形を定義することと、 三角形およびこれら三角形の頂点の幅優先横断を使用した各頂点に対する動き ベクトルの圧縮と、 二次予測を使用した各頂点に対するその後の動きベクトルを予測とを含む、請 求項10記載の方法。 18.前記予測が、可変長さのコードを使用した予測誤りの符号化及び復号化 を含む、請求項17記載の方法。 19.ノードポイントの一組およびこれらノードポイントに対する動きベクト ルを有する所定のジオメトリを含む、ダイナミックメッシュによって表示される 画像の符号化及び復号化のためのシステムであって、 ノードポイントの組のメッシュジオメトリを符号化し、各ノードポイントに対 するメッシュノードの動きベクトルを符号化するための符号化サブシステムを含 み、該符号化サブシステムが、 画像のテクスチャーを符号化し、これより画像のビットストリームを発生する ためのテクスチャー符号器と、 メッシュのジオメトリを符号化するためのジオメトリ符号器及びメッシュの動 きベクトルを符号化するための動きベクトル符号器とを備え、メッシュシーケン スを符号化し、これよりメッシュの符号化されたビットストリームを発生するた めのメッシュ符号器とを備え、 更に前記システムが、ノードポイントの組のメッシュジオメトリを復号化し、 各ノードポイントに対するメッシュノードの動きベクトルを復号化するための復 号化サブシステムを含み、該復号化サブシステムが、 画像ビットストリームから画像のテクスチャーを復号化するためのテクスチャ ー復号器と、 メッシュのジオメトリを復号化するためのジオメトリ復号器及びメッシュの動 きベクトルを復号化するための動きベクトル復号器を含み、前記メッシュの符号 化されたビットストリームを復号化するためのメッシュ復号器とを備え、 更に前記システムが、復号化されたテクスチャーデータと復号化されたメッシ ュとを組み合わせ、これよりアニメートされた画像を発生するためのアニメーシ ョンアプリケーションを含む、ダイナミックメッシュによって表示される画像の 符号化及び復号化のためのシステム。
JP52753598A 1996-12-16 1997-12-15 二次元メッシュジオメトリおよび動きベクトル圧縮 Ceased JP2001506828A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US3301196P 1996-12-16 1996-12-16
US08/942,313 US6047088A (en) 1996-12-16 1997-10-01 2D mesh geometry and motion vector compression
US08/942,313 1997-10-01
US60/033,011 1997-10-01
PCT/JP1997/004607 WO1998027515A1 (en) 1996-12-16 1997-12-15 2-d mesh geometry and motion vector compression

Publications (1)

Publication Number Publication Date
JP2001506828A true JP2001506828A (ja) 2001-05-22

Family

ID=26709176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP52753598A Ceased JP2001506828A (ja) 1996-12-16 1997-12-15 二次元メッシュジオメトリおよび動きベクトル圧縮

Country Status (5)

Country Link
US (1) US6047088A (ja)
EP (1) EP1008108B1 (ja)
JP (1) JP2001506828A (ja)
DE (1) DE69722040T2 (ja)
WO (1) WO1998027515A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006521048A (ja) * 2003-03-20 2006-09-14 フランス・テレコム モーション/テクスチャ分解およびウェーブレット符号化によって画像シーケンスを符号化および復号化するための方法および装置
JP2008537391A (ja) * 2005-03-31 2008-09-11 ユークリッド・ディスカバリーズ・エルエルシー ビデオデータを処理する装置および方法
KR101763921B1 (ko) 2016-10-21 2017-08-01 (주)플럭스플래닛 컨텐츠 스트리밍 시스템 및 방법
JP2020526076A (ja) * 2017-06-29 2020-08-27 株式会社ソニー・インタラクティブエンタテインメント ビデオ生成方法および装置

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6525722B1 (en) * 1995-08-04 2003-02-25 Sun Microsystems, Inc. Geometry compression for regular and irregular mesh structures
KR100215451B1 (ko) * 1996-05-29 1999-08-16 윤종용 임의형태 물체를 포함한 동화상의 부호화 및 복호화시스템
EP1010318A4 (en) 1997-02-14 2001-01-31 Univ Columbia OBJECT-BASED AUDIOVISUAL TERMINAL AND BINARY TRAIN STRUCTURE
US7920143B1 (en) * 1997-03-27 2011-04-05 At&T Intellectual Property Ii, L.P. Method for defining animation parameters for an animation definition interface
KR100249223B1 (ko) * 1997-09-12 2000-03-15 구자홍 엠팩(mpeg)-4의움직임벡터코딩방법
US7199836B1 (en) * 1998-02-13 2007-04-03 The Trustees Of Columbia University In The City Of New York Object-based audio-visual terminal and bitstream structure
US6271861B1 (en) * 1998-04-07 2001-08-07 Adobe Systems Incorporated Smooth shading of an object
US6236738B1 (en) * 1998-04-09 2001-05-22 Board Of Trustees Of The Leland Stanford Junior University Spatiotemporal finite element method for motion analysis with velocity data
US6167159A (en) * 1998-04-30 2000-12-26 Virtue Ltd. Triangle mesh compression
US6342884B1 (en) 1999-02-03 2002-01-29 Isurftv Method and apparatus for using a general three-dimensional (3D) graphics pipeline for cost effective digital image and video editing, transformation, and representation
FR2794329B1 (fr) * 1999-05-26 2001-08-17 France Telecom Procede de codage d'images hierarchique, a mise en oeuvre selective d'un codage a base transformation reversible, et procede de decodage correspondant
FR2794269B1 (fr) * 1999-05-26 2001-08-17 France Telecom Procede de codage d'images, a partition triangulaire et transformation reversible, et procede de decodage correspondant
US6356457B1 (en) 1999-06-07 2002-03-12 Sun Microsystems, Inc. Circuit card support mechanism and method
US6792108B1 (en) * 1999-06-08 2004-09-14 Universite de Montrëal Aperiodic encryption for digital data
US6628277B1 (en) * 1999-06-14 2003-09-30 Sun Microsystems, Inc. Decompression of three-dimensional graphics data using mesh buffer references to reduce redundancy of processing
US8595764B2 (en) 1999-06-25 2013-11-26 Jlb Ventures, Llc Image-oriented electronic programming guide
FR2802377B1 (fr) * 1999-12-09 2002-03-08 France Telecom Procede d'estimation de mouvement entre deux images avec gestion des retournements de mailles et procede de codage correspondant
US6847684B1 (en) 2000-06-01 2005-01-25 Hewlett-Packard Development Company, L.P. Zero-block encoding
US6757330B1 (en) 2000-06-01 2004-06-29 Hewlett-Packard Development Company, L.P. Efficient implementation of half-pixel motion prediction
US6650335B2 (en) * 2001-02-22 2003-11-18 Mitsubishi Electric Research Laboratories, Inc. Method for extracting static and dynamic super-resolution textures form a sequence of images
US7623739B2 (en) * 2001-07-11 2009-11-24 Ecole Polytechnique Federale De Lausanne (Epfl) Method and computing system for creating and displaying images with animated microstructures
GB2379299B (en) 2001-09-04 2006-02-08 Imagination Tech Ltd A texturing system
US20030193503A1 (en) * 2002-04-10 2003-10-16 Mark Seminatore Computer animation system and method
US6947045B1 (en) 2002-07-19 2005-09-20 At&T Corporation Coding of animated 3-D wireframe models for internet streaming applications: methods, systems and program products
US8421804B2 (en) 2005-02-16 2013-04-16 At&T Intellectual Property Ii, L.P. System and method of streaming 3-D wireframe animations
US7324105B1 (en) * 2003-04-10 2008-01-29 Nvidia Corporation Neighbor and edge indexing
US7313285B2 (en) * 2003-05-30 2007-12-25 Lucent Technologies Inc. Method and apparatus for compressing and decompressing images captured from viewpoints throughout N-dimensional space
US7983835B2 (en) * 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
US7529418B2 (en) * 2004-05-20 2009-05-05 Hewlett-Packard Development Company, L.P. Geometry and view assisted transmission of graphics image streams
US8902971B2 (en) 2004-07-30 2014-12-02 Euclid Discoveries, Llc Video compression repository and model reuse
US9743078B2 (en) 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
US9578345B2 (en) 2005-03-31 2017-02-21 Euclid Discoveries, Llc Model-based video encoding and decoding
US9532069B2 (en) 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
CN1852444B (zh) * 2005-12-28 2010-05-12 华为技术有限公司 基于小波的自适应视频编码方法
US7589746B2 (en) * 2006-03-23 2009-09-15 Intel Corporation Optimized frustum clipping via cached clip vertices
WO2007125912A1 (ja) * 2006-04-24 2007-11-08 Panasonic Corporation 描画装置及び描画方法
CA2676219C (en) 2007-01-23 2017-10-24 Euclid Discoveries, Llc Computer method and apparatus for processing image data
CA2675957C (en) 2007-01-23 2016-02-16 Euclid Discoveries, Llc Object archival systems and methods
EP2106664A2 (en) 2007-01-23 2009-10-07 Euclid Discoveries, LLC Systems and methods for providing personal video services
US8249371B2 (en) * 2007-02-23 2012-08-21 International Business Machines Corporation Selective predictor and selective predictive encoding for two-dimensional geometry compression
EP2345256B1 (en) 2008-10-07 2018-03-14 Euclid Discoveries, LLC Feature-based video compression
EP2387004B1 (en) 2010-05-11 2016-12-14 Dassault Systèmes Lossless compression of a structured set of floating point numbers, particularly for CAD systems
TW201141212A (en) * 2010-05-14 2011-11-16 Univ Nat Cheng Kung Video data processing system
US9588489B2 (en) * 2010-06-24 2017-03-07 Disney Enterprises, Inc. Computational highlight holography
JP5661359B2 (ja) 2010-07-16 2015-01-28 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US9582934B2 (en) * 2010-09-20 2017-02-28 Siemens Healthcare Gmbh Method and system for efficient extraction of a silhouette of a 3D mesh
US9392301B2 (en) 2011-07-01 2016-07-12 Qualcomm Incorporated Context adaptive entropy coding for non-square blocks in video coding
US9161012B2 (en) * 2011-11-17 2015-10-13 Microsoft Technology Licensing, Llc Video compression using virtual skeleton
US9892535B1 (en) 2012-01-05 2018-02-13 Google Inc. Dynamic mesh generation to minimize fillrate utilization
US9367928B2 (en) * 2012-10-05 2016-06-14 Universidade De Coimbra Method for aligning and tracking point regions in images with radial distortion that outputs motion model parameters, distortion calibration, and variation in zoom
US10699361B2 (en) * 2012-11-21 2020-06-30 Ati Technologies Ulc Method and apparatus for enhanced processing of three dimensional (3D) graphics data
US9773331B2 (en) 2013-08-23 2017-09-26 Disney Enterprises, Inc. Methods and systems for efficient graphics rendering
US9633459B2 (en) * 2013-08-23 2017-04-25 Disney Enterprises, Inc. Methods and systems for creating a hull that may have concavities
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
WO2016154557A1 (en) 2015-03-26 2016-09-29 Universidade De Coimbra Methods and systems for computer-aided surgery using intra-operative video acquired by a free moving camera
EP3284252B1 (en) 2015-04-13 2021-07-21 Universidade De Coimbra Methods and systems for camera characterization in terms of response function, color, and vignetting under non-uniform illumination
CN107292963B (zh) * 2016-04-12 2020-01-17 杭州海康威视数字技术股份有限公司 一种三维模型的调整方法及装置
US10672180B2 (en) 2016-05-02 2020-06-02 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for processing image
EP3596657A4 (en) 2017-03-14 2021-01-13 Universidade De Coimbra SYSTEMS AND METHODS FOR 3D REGISTRATION OF CURVES AND SURFACES USING VARIOUS LOCAL INFORMATION
US10708597B2 (en) 2018-02-01 2020-07-07 Microsoft Technology Licensing, Llc Techniques for extrapolating image frames
US11631218B2 (en) * 2018-12-11 2023-04-18 Google Llc Efficient compression of data representing triangular mesh attributes
US11995854B2 (en) * 2018-12-19 2024-05-28 Nvidia Corporation Mesh reconstruction using data-driven priors
US20210287431A1 (en) * 2020-03-15 2021-09-16 Intel Corporation Apparatus and method for displaced mesh compression
US12002145B2 (en) 2020-08-17 2024-06-04 Intel Corporation Apparatus and method for efficient graphics processing including ray tracing
US11995767B2 (en) * 2020-08-17 2024-05-28 Intel Corporation Apparatus and method for compressing ray tracing acceleration structure build data

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE465394B (sv) * 1990-08-15 1991-09-02 Televerket Metod foer roerelsekompensering och elastisk deformation i bildsekvenser
JPH06325151A (ja) * 1993-03-17 1994-11-25 Fujitsu Ltd アニメーション編集装置
JP2838968B2 (ja) * 1994-01-31 1998-12-16 日本電気株式会社 半導体デバイスシミュレータのメッシュ生成方法
EP0731614B1 (en) * 1995-03-10 2002-02-06 Kabushiki Kaisha Toshiba Video coding/decoding apparatus
US5654771A (en) * 1995-05-23 1997-08-05 The University Of Rochester Video compression system using a dense motion vector field and a triangular patch mesh overlay model
US5778192A (en) * 1995-10-26 1998-07-07 Motorola, Inc. Method and device for optimal bit allocation between different sources of information in digital video compression
US5825369A (en) * 1996-01-16 1998-10-20 International Business Machines Corporation Compression of simple geometric models using spanning trees
US5748789A (en) * 1996-10-31 1998-05-05 Microsoft Corporation Transparent block skipping in object-based video coding systems

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006521048A (ja) * 2003-03-20 2006-09-14 フランス・テレコム モーション/テクスチャ分解およびウェーブレット符号化によって画像シーケンスを符号化および復号化するための方法および装置
JP2008537391A (ja) * 2005-03-31 2008-09-11 ユークリッド・ディスカバリーズ・エルエルシー ビデオデータを処理する装置および方法
KR101763921B1 (ko) 2016-10-21 2017-08-01 (주)플럭스플래닛 컨텐츠 스트리밍 시스템 및 방법
US10165303B2 (en) 2016-10-21 2018-12-25 Flux Planet, Inc. Content streaming system and method
JP2020526076A (ja) * 2017-06-29 2020-08-27 株式会社ソニー・インタラクティブエンタテインメント ビデオ生成方法および装置
JP7128217B2 (ja) 2017-06-29 2022-08-30 株式会社ソニー・インタラクティブエンタテインメント ビデオ生成方法および装置

Also Published As

Publication number Publication date
EP1008108B1 (en) 2003-05-14
EP1008108A1 (en) 2000-06-14
US6047088A (en) 2000-04-04
DE69722040D1 (de) 2003-06-18
WO1998027515A1 (en) 1998-06-25
DE69722040T2 (de) 2004-04-01

Similar Documents

Publication Publication Date Title
JP2001506828A (ja) 二次元メッシュジオメトリおよび動きベクトル圧縮
Briceño Pulido Geometry videos: a new representation for 3D animations
EP3043320B1 (en) System and method for compression of 3d computer graphics
US9972129B2 (en) Compression of a three-dimensional modeled object
JP4832975B2 (ja) 深さイメージに基づく3次元客体を表現するためのノード構造を記憶させた、コンピュータで読み出し可能な記録媒体
van Beek et al. Hierarchical 2-D mesh representation, tracking, and compression for object-based video
CN101610411B (zh) 一种视频序列混合编解码的方法和系统
US5694331A (en) Method for expressing and restoring image data
JP2018534881A (ja) 点群を圧縮する方法
US20050063596A1 (en) Encoding of geometric modeled images
US20040217956A1 (en) Method and system for processing, compressing, streaming, and interactive rendering of 3D color image data
CA2373707A1 (en) Method and system for processing, compressing, streaming and interactive rendering of 3d color image data
JP2005235210A (ja) 3次元体積データの符号化/復号化方法及び装置
CN117178297A (zh) 微网格,用于计算机图形的结构化几何体
JP2004185628A (ja) 3次元オブジェクトデータの符号化及び復号化方法、並びに、その装置
JP2023544618A (ja) ビデオベースのメッシュ圧縮
Casas et al. Interactive animation of 4D performance capture
CN102497545B (zh) 内容自适应和艺术可引导可缩放视频编码
JP3530125B2 (ja) 構造化ポリゴン・メッシュ・データの形成方法および装置、記憶媒体
KR100856289B1 (ko) 내포 메쉬들을 사용하는 화상 엔코딩 및 디코딩용 방법 및 장치, 및 컴퓨터로 판독 가능한 저장 매체
Chou et al. Dynamic polygon clouds: Representation and compression for VR/AR
Yemez et al. Progressive multilevel meshes from octree particles
Chai et al. A depth map representation for real-time transmission and view-based rendering of a dynamic 3D scene
Mamou et al. Multi-chart geometry video: A compact representation for 3D animations
Cui et al. Palette-based color attribute compression for point cloud data

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050315

A313 Final decision of rejection without a dissenting response from the applicant

Free format text: JAPANESE INTERMEDIATE CODE: A313

Effective date: 20050627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050802