JP2005523541A - 3dコンピュータグラフィックスを圧縮するシステムおよび方法 - Google Patents
3dコンピュータグラフィックスを圧縮するシステムおよび方法 Download PDFInfo
- Publication number
- JP2005523541A JP2005523541A JP2004512413A JP2004512413A JP2005523541A JP 2005523541 A JP2005523541 A JP 2005523541A JP 2004512413 A JP2004512413 A JP 2004512413A JP 2004512413 A JP2004512413 A JP 2004512413A JP 2005523541 A JP2005523541 A JP 2005523541A
- Authority
- JP
- Japan
- Prior art keywords
- data
- processor
- video
- search area
- current frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000033001 locomotion Effects 0.000 claims abstract description 50
- 239000013598 vector Substances 0.000 claims abstract description 27
- 238000013144 data compression Methods 0.000 claims abstract description 10
- 238000009877 rendering Methods 0.000 claims abstract description 9
- 238000007906 compression Methods 0.000 claims description 6
- 230000006835 compression Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 2
- 238000004422 calculation algorithm Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 7
- 238000005094 computer simulation Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 4
- 238000010845 search algorithm Methods 0.000 description 3
- 101000969688 Homo sapiens Macrophage-expressed gene 1 protein Proteins 0.000 description 2
- 102100021285 Macrophage-expressed gene 1 protein Human genes 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/57—Motion estimation characterised by a search window with variable size or shape
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Generation (AREA)
Abstract
ビデオ・グラフィックデータを圧縮するシステムおよび方法が提供される。
このシステムおよび方法は、グラフィックス・パイプラインにおいて、オブジェクトをモデル化するビデオ・グラフィックデータから、このオブジェクトに対応する頂点データを生成すること、頂点データに基づいて、ピクセル・データで構成される現在のフレームおよびピクセル・データで構成される参照フレームを生成するためにビデオ・グラフィックデータをレンダリングすること、現在のフレーム内のピクセル・データで構成されるブロックの動きベクトルを計算するため、参照フレーム内の探索エリアを定義すること、を含む。それから現在のフレームは動きベクトルを使用して圧縮される。探索エリアを定義するためにグラフィックス・パイプラインからの頂点データを使用することは、動きベクトルを生成し、データ圧縮を実行するのに必要な探索量を実質的に減らす。
このシステムおよび方法は、グラフィックス・パイプラインにおいて、オブジェクトをモデル化するビデオ・グラフィックデータから、このオブジェクトに対応する頂点データを生成すること、頂点データに基づいて、ピクセル・データで構成される現在のフレームおよびピクセル・データで構成される参照フレームを生成するためにビデオ・グラフィックデータをレンダリングすること、現在のフレーム内のピクセル・データで構成されるブロックの動きベクトルを計算するため、参照フレーム内の探索エリアを定義すること、を含む。それから現在のフレームは動きベクトルを使用して圧縮される。探索エリアを定義するためにグラフィックス・パイプラインからの頂点データを使用することは、動きベクトルを生成し、データ圧縮を実行するのに必要な探索量を実質的に減らす。
Description
本発明は、データを圧縮するためのシステムおよび方法に関し、より詳しくは、コンピュータによって生成されたグラフィックデータを圧縮するシステムおよび方法に関する。
ビデオデータ、特に、コンピュータによって生成されるビデオ・グラフィックデータ(例えばコンピュータ・ゲーム用のビデオ・グラフィックデータ)の準備、蓄積および送信には、大規模なコンピュータ資源と広帯域のネットワーク接続が必要である。
インターネットのようなローカル・エリア・ネットワークまたは広域ネットワークを通じて接続される個々のユーザにより構成されるグループの間で、このようなデータがリアル・タイムに送信される場合、これらは特に必要とされる。このような送信は、例えばインターネットを通じてビデオゲームをプレイする場合に起こる。しかも、このような遊び方はますます普及しつつある。
インターネットのようなローカル・エリア・ネットワークまたは広域ネットワークを通じて接続される個々のユーザにより構成されるグループの間で、このようなデータがリアル・タイムに送信される場合、これらは特に必要とされる。このような送信は、例えばインターネットを通じてビデオゲームをプレイする場合に起こる。しかも、このような遊び方はますます普及しつつある。
ビデオデータの送信に必要とされるネットワークのキャパシティおよびコンピュータ資源の量を少なくするため、データを圧縮する様々なエンコード方式が使用される。
これらのデータ圧縮方式としては、MPEG(Motion Picture Experts Group)エンコード標準の様々なバージョン(例えばMPEG1、MPEG2、MPEG4およびその他)が挙げられる。
これらのデータ圧縮方式は、動画シーケンスを送信し再生するのに必要なイメージ情報量を、シーケンス中の余分で非本質的な情報を排除することにより、減らす。
これらのデータ圧縮方式としては、MPEG(Motion Picture Experts Group)エンコード標準の様々なバージョン(例えばMPEG1、MPEG2、MPEG4およびその他)が挙げられる。
これらのデータ圧縮方式は、動画シーケンスを送信し再生するのに必要なイメージ情報量を、シーケンス中の余分で非本質的な情報を排除することにより、減らす。
例えば、動画シーケンスの2つの隣接フレーム間では、ピクセルで構成されるいくつかのブロックが僅かにシフトしているという違いしかない場合が多い。
ピクセルで構成される大きなブロック、例えば空、壁その他の静止オブジェクトの領域を表わすブロックは、多くの場合、連続フレーム間で全く変化しない。
MPEGのような圧縮アルゴリズムは、それぞれのフレーム用に送信または格納されるデータ量を減らすため、この一時的な冗長性を利用する。
ピクセルで構成される大きなブロック、例えば空、壁その他の静止オブジェクトの領域を表わすブロックは、多くの場合、連続フレーム間で全く変化しない。
MPEGのような圧縮アルゴリズムは、それぞれのフレーム用に送信または格納されるデータ量を減らすため、この一時的な冗長性を利用する。
例えば、MPEG標準では、3タイプのフレーム、すなわち、フレーム内符号化フレーム(Iフレーム)(intra frames)、順方向予測符号化フレーム(Pフレーム)(predicted frames)、および双方向予測符号化フレーム(Bフレーム)(bi-directionally interpolated frames )が定義される。
図1に示されるように、Iフレームは、BフレームおよびPフレームの参照フレーム(reference frames)であり、中程度にしか圧縮されていない。Pフレームは前のフレームを参照してエンコードされる。この前のフレームは、IフレームまたはPフレームのいずれかであり得る。Bフレームは、前のフレームおよび後のフレームの両方に関連してエンコードされる。Bフレームの参照フレームもまた、IフレームまたはPフレームのいずれかであり得る。Bフレームは参照フレームとして使用されない。
図1に示されるように、Iフレームは、BフレームおよびPフレームの参照フレーム(reference frames)であり、中程度にしか圧縮されていない。Pフレームは前のフレームを参照してエンコードされる。この前のフレームは、IフレームまたはPフレームのいずれかであり得る。Bフレームは、前のフレームおよび後のフレームの両方に関連してエンコードされる。Bフレームの参照フレームもまた、IフレームまたはPフレームのいずれかであり得る。Bフレームは参照フレームとして使用されない。
参照フレームからPフレームおよびBフレームをエンコードするため、MPEG方式は、様々な動き予測アルゴリズム(motion estimation algorithms)を使用する。
これらの動き予測アルゴリズムには、フルサーチ・アルゴリズム、階層的な探索アルゴリズム(hierarchical searching algorithms)、およびテレスコピック・アルゴリズム(telescopic algorithms)が含まれる。
図2に示すように、MPEG標準の下では、各フレームは典型的に、マクロブロックと呼ばれる16×16ピクセルのブロックに分割される。
現在のフレームのマクロブロックは、マクロブロックが現在のフレームにおけるそのブロックの位置から現在のフレーム内を移動する距離を予測することによって、参照フレームを使用してエンコードされる。
動き予測アルゴリズムは、参照フレーム中の最も一致するブロックを探知するため、現在のフレームの各マクロブロックをその参照フレームの探索エリア内の複数のマクロブロックと比較することによって、この予測を行なう。
例えば、現在のフレーム207のマクロブロック201については、参照フレーム中の最も一致するブロックを探知するために、参照フレーム209の探索エリア203内で比較が行われる。この比較は、現在のフレームのマクロブロック201と参照フレームの各マクロブロック205との間で行われる。
参照フレーム内におけるこの最も一致するマクロブロックの位置は、それから現在のフレームのマクロブロック201の動きベクトルを計算するのに使用される。
現在のフレーム207については、マクロブロック201に対応するすべてのビデオデータを送信するのではなく、このブロックに関しては動きベクトルだけが送信される。このように、現在のブロックについてのビデオデータが圧縮される。
これらの動き予測アルゴリズムには、フルサーチ・アルゴリズム、階層的な探索アルゴリズム(hierarchical searching algorithms)、およびテレスコピック・アルゴリズム(telescopic algorithms)が含まれる。
図2に示すように、MPEG標準の下では、各フレームは典型的に、マクロブロックと呼ばれる16×16ピクセルのブロックに分割される。
現在のフレームのマクロブロックは、マクロブロックが現在のフレームにおけるそのブロックの位置から現在のフレーム内を移動する距離を予測することによって、参照フレームを使用してエンコードされる。
動き予測アルゴリズムは、参照フレーム中の最も一致するブロックを探知するため、現在のフレームの各マクロブロックをその参照フレームの探索エリア内の複数のマクロブロックと比較することによって、この予測を行なう。
例えば、現在のフレーム207のマクロブロック201については、参照フレーム中の最も一致するブロックを探知するために、参照フレーム209の探索エリア203内で比較が行われる。この比較は、現在のフレームのマクロブロック201と参照フレームの各マクロブロック205との間で行われる。
参照フレーム内におけるこの最も一致するマクロブロックの位置は、それから現在のフレームのマクロブロック201の動きベクトルを計算するのに使用される。
現在のフレーム207については、マクロブロック201に対応するすべてのビデオデータを送信するのではなく、このブロックに関しては動きベクトルだけが送信される。このように、現在のブロックについてのビデオデータが圧縮される。
しかしながら、動き予測アルゴリズムを実行することは、さらに相当なコンピュータ資源を必要とする。
現在のフレームの各マクロブロックを1つ以上の参照フレームの多数のマクロブロックと比較しなければならないので、莫大な計算が必要となる。
例えば、3ステップ・サーチ・アルゴリズム(TSS)(階層アルゴリズム)は、探索エリアの中心位置およびその周囲の8つの位置における一致を評価する。
それから、探索エリアを半分に縮小すべく、最も小さな差異を示す位置が、次の探索エリアの中心になる。この手順が三度繰り返される。
現在のフレームの各マクロブロックを1つ以上の参照フレームの多数のマクロブロックと比較しなければならないので、莫大な計算が必要となる。
例えば、3ステップ・サーチ・アルゴリズム(TSS)(階層アルゴリズム)は、探索エリアの中心位置およびその周囲の8つの位置における一致を評価する。
それから、探索エリアを半分に縮小すべく、最も小さな差異を示す位置が、次の探索エリアの中心になる。この手順が三度繰り返される。
このように、特にインターネットおよび他のネットワークを通じてリアル・タイムにビデオゲームをすることができるシステムの需要の増加を考慮して、ビデオ・グラフィックデータを圧縮する、より効率的でより有効な方法が必要とされる。
MPEGエンコーダのようなデータ圧縮エンコーダでは、ビデオデータのソースに関わらず同じ方法でビデオデータを圧縮している。
したがって、デジタルカメラによってレコードされた実際の動画からのビデオデータ、およびコンピュータによって生成された、シミュレートされたビデオデータは、いずれも同じデータ圧縮形式および動き予測アルゴリズムに従って圧縮される。
しかし、ビデオデータがコンピュータによって生成される場合、オブジェクトの性質および動きに関する情報は、データの符号化および圧縮より前に把握されている。
現在のデータ圧縮エンコーダと異なり、本発明はこの情報を、データ圧縮を行なうのに必要な計算上のステップを縮小するために利用する。
したがって、デジタルカメラによってレコードされた実際の動画からのビデオデータ、およびコンピュータによって生成された、シミュレートされたビデオデータは、いずれも同じデータ圧縮形式および動き予測アルゴリズムに従って圧縮される。
しかし、ビデオデータがコンピュータによって生成される場合、オブジェクトの性質および動きに関する情報は、データの符号化および圧縮より前に把握されている。
現在のデータ圧縮エンコーダと異なり、本発明はこの情報を、データ圧縮を行なうのに必要な計算上のステップを縮小するために利用する。
本発明はその一態様において、ビデオデータを圧縮する方法を提供する。
本発明の方法は、オブジェクトをモデル化するビデオ・グラフィックデータから、グラフィックス・パイプラインによってそのオブジェクトに対応する頂点データを生成することを含む。
この方法は、ピクセル・データで構成される現在のフレームおよびピクセル・データで構成される参照フレームを生成すべく、ビデオ・グラフィックデータをレンダリングすることをさらに含む。
この方法はまた、現在のフレーム内のピクセル・データで構成されるブロックにおける動きベクトルを計算するため、頂点データに基づいて、参照フレーム内の探索エリアを定義することを含む。
本発明の方法は、オブジェクトをモデル化するビデオ・グラフィックデータから、グラフィックス・パイプラインによってそのオブジェクトに対応する頂点データを生成することを含む。
この方法は、ピクセル・データで構成される現在のフレームおよびピクセル・データで構成される参照フレームを生成すべく、ビデオ・グラフィックデータをレンダリングすることをさらに含む。
この方法はまた、現在のフレーム内のピクセル・データで構成されるブロックにおける動きベクトルを計算するため、頂点データに基づいて、参照フレーム内の探索エリアを定義することを含む。
オブジェクトは、好ましくは、移動可能なオブジェクトを含み、ブロックは、好ましくは、移動可能なオブジェクトのうちの1つの、少なくとも一部を含む。
本発明の方法は、好ましくは、参照フレーム内の1つの移動可能なオブジェクトに対応する頂点のビューポート座標に基づいて探索エリアを画定あるいは定めることをさらに含む。
この探索エリアは、参照フレーム内の1つの移動可能なオブジェクトを取り囲み、その形は矩形であることが好ましい。
本発明の方法はまた、好ましくは、動きベクトルに基づいて、現在のフレームをMPEGフォーマットに圧縮することを含む。
本発明の方法は、好ましくは、参照フレーム内の1つの移動可能なオブジェクトに対応する頂点のビューポート座標に基づいて探索エリアを画定あるいは定めることをさらに含む。
この探索エリアは、参照フレーム内の1つの移動可能なオブジェクトを取り囲み、その形は矩形であることが好ましい。
本発明の方法はまた、好ましくは、動きベクトルに基づいて、現在のフレームをMPEGフォーマットに圧縮することを含む。
本発明の方法はまた、好ましくは、頂点データと無関係に、現在のフレーム内のピクセル・データで構成される第2ブロックについての動きベクトルを計算するため、第2探索エリアを定めることを含む。このピクセル・データで構成される第2ブロックは、移動可能なオブジェクトを含まない。
さらに、本発明の方法はまた、好ましくは、グラフィックス・パイプラインでビデオ・グラフィックデータについて幾何学的変換を行うこと、ビデオ・グラフィックデータをビューボリューム(視体積)にクリッピングすること、投影平面にビデオ・グラフィックデータを投影すること、およびビデオ・グラフィックデータをビューポートに変形することを含む。
ビデオ・グラフィックデータは、好ましくは、ビデオゲームに関連する。そして、現在のフレームおよび参照フレームの両方は、好ましくは、インターネットのようなネットワークを通じて送信される。
さらに、本発明の方法はまた、好ましくは、グラフィックス・パイプラインでビデオ・グラフィックデータについて幾何学的変換を行うこと、ビデオ・グラフィックデータをビューボリューム(視体積)にクリッピングすること、投影平面にビデオ・グラフィックデータを投影すること、およびビデオ・グラフィックデータをビューポートに変形することを含む。
ビデオ・グラフィックデータは、好ましくは、ビデオゲームに関連する。そして、現在のフレームおよび参照フレームの両方は、好ましくは、インターネットのようなネットワークを通じて送信される。
別の態様においては、本発明は、ビデオデータを圧縮するシステムを提供する。
このシステムは、オブジェクトをモデル化するビデオ・グラフィックデータから、グラフィックス・パイプラインによってそのオブジェクトに対応する頂点データを生成し、ピクセル・データで構成される現在のフレームおよびピクセル・データで構成される参照フレームを生成するビデオ・グラフィックデータをレンダリングするように構成される、第1プロセッサを含む。
このシステムは、頂点データに基づいて参照フレーム内の探索エリアを定義し、現在のフレーム内のピクセル・データで構成されるブロックについての動きベクトルを計算するように構成される、第2プロセッサをさらに含む。
このシステムは、オブジェクトをモデル化するビデオ・グラフィックデータから、グラフィックス・パイプラインによってそのオブジェクトに対応する頂点データを生成し、ピクセル・データで構成される現在のフレームおよびピクセル・データで構成される参照フレームを生成するビデオ・グラフィックデータをレンダリングするように構成される、第1プロセッサを含む。
このシステムは、頂点データに基づいて参照フレーム内の探索エリアを定義し、現在のフレーム内のピクセル・データで構成されるブロックについての動きベクトルを計算するように構成される、第2プロセッサをさらに含む。
図3は、ビデオゲームのコンピュータ・シミュレーション中に表示されるようなビデオ・グラフィックデータのフレームを生成する、グラフィックス・パイプラインの概略図である。
このグラフィックス・パイプラインの機能は、ハードウェア、ソフトウェア、またはこの2つを組み合わせたものによって実現できる。
例えば、これらの機能は、マイクロプロセッサ、ハードワイヤードのデジタル回路、特定用途向け集積回路(ASIC)、またはその他のデジタル回路のようなプログラムされたプロセッサによって実行されてもよいし、ソフトウェアによって実行されてもよい。
これらの装置は、1つ以上の半導体チップ上の集積回路として実装されてもよい。ソフトウェアは、ROM、EPROM、EEPROM、磁気ディスク、光ディスク、またはその他の適切な記憶メディアに格納されていてもよい。
ハードウェアとソフトウェアは、ゲーム装置、サーバ・コンピュータ、デスクトップ・コンピュータ、ハンドヘルド・コンピュータ、ポータブル・コンピュータ、セットトップボックス、またはその他の計算装置の一部でもよい。
コンピュータ・システムはスタンドアロンの装置であってもよいし、インターネットのようなネットワークに接続されていてもよい。
このグラフィックス・パイプラインの機能は、ハードウェア、ソフトウェア、またはこの2つを組み合わせたものによって実現できる。
例えば、これらの機能は、マイクロプロセッサ、ハードワイヤードのデジタル回路、特定用途向け集積回路(ASIC)、またはその他のデジタル回路のようなプログラムされたプロセッサによって実行されてもよいし、ソフトウェアによって実行されてもよい。
これらの装置は、1つ以上の半導体チップ上の集積回路として実装されてもよい。ソフトウェアは、ROM、EPROM、EEPROM、磁気ディスク、光ディスク、またはその他の適切な記憶メディアに格納されていてもよい。
ハードウェアとソフトウェアは、ゲーム装置、サーバ・コンピュータ、デスクトップ・コンピュータ、ハンドヘルド・コンピュータ、ポータブル・コンピュータ、セットトップボックス、またはその他の計算装置の一部でもよい。
コンピュータ・システムはスタンドアロンの装置であってもよいし、インターネットのようなネットワークに接続されていてもよい。
図3に記載されたグラフィックス・パイプラインは、ワールド座標系として知られている、デカルト座標系(x、y、z)において移動可能なオブジェクトおよび静止オブジェクトをモデル化するグラフィックデータのデータベース(図示しない)を含む。
移動可能なオブジェクトには、キャラクタ、自動車、発射体、その他コンピュータ・シミュレーションの間に移動可能なオブジェクトの全てまたは一部が含まれる。
静止オブジェクトには、地面、建物、その他シミュレーションの間、ワールド座標系における固定位置にとどまるオブジェクトの全てまたは一部が含まれる。
この移動可能なオブジェクトおよび静止オブジェクトの世界は、コンピュータ・シミュレーションが達成されるグラフィックス・パイプラインに生データを供給する。
モデル化においては、プリミティブとして知られている基本となる構築ブロックのグループを使用して、そのデータベースにおいて各オブジェクトを表すことが含まれる。
これらのプリミティブは、一般に三角形、矩形およびその他の多角形を含む。
このデータベースは、各オブジェクトに対応するプリミティブの頂点のデカルト座標と、ライティング、シェーディング、色およびテクスチャのような各頂点に関連する情報とを含む。
移動可能なオブジェクトには、キャラクタ、自動車、発射体、その他コンピュータ・シミュレーションの間に移動可能なオブジェクトの全てまたは一部が含まれる。
静止オブジェクトには、地面、建物、その他シミュレーションの間、ワールド座標系における固定位置にとどまるオブジェクトの全てまたは一部が含まれる。
この移動可能なオブジェクトおよび静止オブジェクトの世界は、コンピュータ・シミュレーションが達成されるグラフィックス・パイプラインに生データを供給する。
モデル化においては、プリミティブとして知られている基本となる構築ブロックのグループを使用して、そのデータベースにおいて各オブジェクトを表すことが含まれる。
これらのプリミティブは、一般に三角形、矩形およびその他の多角形を含む。
このデータベースは、各オブジェクトに対応するプリミティブの頂点のデカルト座標と、ライティング、シェーディング、色およびテクスチャのような各頂点に関連する情報とを含む。
データベースのグラフィックデータに基づくコンピュータ・ビデオシミュレーション、例えばビデオゲーム、を行う間、シミュレーションプログラムの進行およびユーザからの入力によって、ワールド座標系内にモデル化された移動可能なオブジェクトが移動され、オブジェクトに対するユーザの視線の方向および距離が変化する。
ディスプレイ・スクリーンを通じてユーザにオブジェクトを適切に表示するために、グラフィックス・パイプラインのステップを実行するコンピュータ・システムは、機能ブロック301で、リアル・タイムにオブジェクトについての幾何学的変換を実行する。
これらの幾何学的変換は、移動(translation)、スケーリングおよび回転を含み、ほとんどの場合、2つのMマトリックスをかけることで実行することができる。
ディスプレイ・スクリーンを通じてユーザにオブジェクトを適切に表示するために、グラフィックス・パイプラインのステップを実行するコンピュータ・システムは、機能ブロック301で、リアル・タイムにオブジェクトについての幾何学的変換を実行する。
これらの幾何学的変換は、移動(translation)、スケーリングおよび回転を含み、ほとんどの場合、2つのMマトリックスをかけることで実行することができる。
移動には、オブジェクトの各頂点のx、yおよびz座標に値を加算することが含まれる。その結果、そのオブジェクトは回転することなくワールド座標系内に移動される。
スケーリングには、オブジェクトの位置または向きを変更せずに、オブジェクトのサイズを変更することが含まれる。オブジェクトの頂点とあらかじめ定められた中心点との間の距離を計るため、例えば各オブジェクトの頂点にファクタを適用することによって、オブジェクトのサイズを変化することができる。
回転では、オブジェクトをスライドさせることなく、回転軸の周りにオブジェクトの各頂点が回る。
スケーリングには、オブジェクトの位置または向きを変更せずに、オブジェクトのサイズを変更することが含まれる。オブジェクトの頂点とあらかじめ定められた中心点との間の距離を計るため、例えば各オブジェクトの頂点にファクタを適用することによって、オブジェクトのサイズを変化することができる。
回転では、オブジェクトをスライドさせることなく、回転軸の周りにオブジェクトの各頂点が回る。
機能ブロック303において、コンピュータシステムは、ビューボリュームに関して幾何学的に変換されたプリミティブをクリッピングする。
このビューボリュームは一般的に、水平視野(horizontal field of view)を定義する左側面および右側面、垂直視野(vertical field of view)を定義する上側面および下側面、最も近い位置と最も遠い位置の視覚的な隔たりを定義する近い方の側面および遠い方の側面を備えた六面を有する錐台(frustum)である。
ビューボリューム内にないオブジェクトまたはオブジェクトの一部は、廃棄(discard)される。
このビューボリュームは一般的に、水平視野(horizontal field of view)を定義する左側面および右側面、垂直視野(vertical field of view)を定義する上側面および下側面、最も近い位置と最も遠い位置の視覚的な隔たりを定義する近い方の側面および遠い方の側面を備えた六面を有する錐台(frustum)である。
ビューボリューム内にないオブジェクトまたはオブジェクトの一部は、廃棄(discard)される。
機能ブロック305において、コンピュータシステムは、二次元の投影平面にビューボリューム内のオブジェクトを投影する。
この投影平面は、ワールド座標系を見る人の視線方向に垂直であり、それゆえ、投影面(view plane)と呼ばれる。
このステップは、透視投影または平行投影の技術を使用して、二次元の投影平面上に三次元のオブジェクトの各頂点をマッピングすることを含む。
例えば、x’、y’、z’が変換されたワールド座標系(このワールド座標系においては、z’は投影平面に垂直であり、x’とy’は投影平面内にある。)の座標を表わす場合、このステップは、各オブジェクトの頂点に対するx’とy’の値を、z’の値で割ることを含む。
そうすることによって、オブジェクトは投影平面上で平らになるので、遠くのオブジェクトはより小さく見え、近いオブジェクトはより大きく見える。
この投影平面は、ワールド座標系を見る人の視線方向に垂直であり、それゆえ、投影面(view plane)と呼ばれる。
このステップは、透視投影または平行投影の技術を使用して、二次元の投影平面上に三次元のオブジェクトの各頂点をマッピングすることを含む。
例えば、x’、y’、z’が変換されたワールド座標系(このワールド座標系においては、z’は投影平面に垂直であり、x’とy’は投影平面内にある。)の座標を表わす場合、このステップは、各オブジェクトの頂点に対するx’とy’の値を、z’の値で割ることを含む。
そうすることによって、オブジェクトは投影平面上で平らになるので、遠くのオブジェクトはより小さく見え、近いオブジェクトはより大きく見える。
機能ブロック307においては、コンピュータシステムは、オブジェクトをビューポート内に変換する。
ビューポートとは、コンピュータ・シミュレーションを視認するのに使用されるコンピュータ・スクリーン、テレビ・スクリーンまたはその他のディスプレイ装置(図示されない)の物理的な領域である。
この変換は、オブジェクトの投影平面のx’、y’座標系とビューポートのx”、y”座標系との間の最終的なスケーリングを含む。
ビューポートとは、コンピュータ・シミュレーションを視認するのに使用されるコンピュータ・スクリーン、テレビ・スクリーンまたはその他のディスプレイ装置(図示されない)の物理的な領域である。
この変換は、オブジェクトの投影平面のx’、y’座標系とビューポートのx”、y”座標系との間の最終的なスケーリングを含む。
最後に、機能ブロック309において、コンピュータシステムは、ピクセル・データで構成されるビデオフレームを生成するためにオブジェクトのラスタ化およびレンダリングを実行する。
オブジェクトのラスタ化およびレンダリングは、各オブジェクトの各プリミティブ内にある各走査ラインの最初と最後のピクセルを定義すること、これらの最初のピクセルと最後のピクセルの間でピクセルを定義すること、これらの全てのピクセルに対するライティング情報、色情報、シェーディング情報、テクスチャ情報、混合情報を生成することを含む。
最終的なピクセル・データは、ディスプレイ・スクリーンにビデオフレームを表示する際の使用に備えてフレーム・バッファ(図示しない)に格納される。
最終的なピクセル・データはまた、圧縮されて格納されるか、またはディスプレイ用の別のコンピュータシステムにネットワークを通じて送信されてもよい。
オブジェクトのラスタ化およびレンダリングは、各オブジェクトの各プリミティブ内にある各走査ラインの最初と最後のピクセルを定義すること、これらの最初のピクセルと最後のピクセルの間でピクセルを定義すること、これらの全てのピクセルに対するライティング情報、色情報、シェーディング情報、テクスチャ情報、混合情報を生成することを含む。
最終的なピクセル・データは、ディスプレイ・スクリーンにビデオフレームを表示する際の使用に備えてフレーム・バッファ(図示しない)に格納される。
最終的なピクセル・データはまた、圧縮されて格納されるか、またはディスプレイ用の別のコンピュータシステムにネットワークを通じて送信されてもよい。
図3のグラフィックス・パイプラインにおいて実行されたステップの結果、三次元のワールド座標系中の各オブジェクトに対応するプリミティブの各頂点x、y、zは、ディスプレイ・スクリーンの二次元の座標系の頂点x”、y”に変換される。また、これらのプリミティブに対応するピクセルが、ラスタ化およびレンダリングされる。
図4に、ラスタ化およびレンダリングされたピクセル・データを圧縮して送信する本発明の具体例を示す。
現在のフレーム413および参照フレーム415は、コンピュータ・シミュレーションからのピクセル・データで構成される2つのフレームである。
現在のフレーム413は、データ圧縮方式(例えば、MPEG標準)に従って、参照フレーム415に基づいて圧縮されることになっている。
現在のフレーム413および参照フレーム415内のピクセルの位置は、ビューポートのx”、y”座標によって識別される。
図4に示すように、移動可能なオブジェクト401は、現在のフレーム413の右下部分に位置し、マクロブロック405、407、409および411内に位置する。
他方、参照フレーム415においては、移動可能なオブジェクト401は、フレームの左上部分に位置する。
したがって、参照フレーム415の生成から、現在のフレーム413が生成されるまでの間に、オブジェクト401はシミュレーションの結果、ビューポートの左上部分からビューポートの右下部分まで移動している。
それゆえ、オブジェクト401の一部を含んだマクロブロック405、407、409および411の各々もまた、この間にビューポートの左上部分からビューポートの右下部分まで移動している。
現在のフレーム413および参照フレーム415は、コンピュータ・シミュレーションからのピクセル・データで構成される2つのフレームである。
現在のフレーム413は、データ圧縮方式(例えば、MPEG標準)に従って、参照フレーム415に基づいて圧縮されることになっている。
現在のフレーム413および参照フレーム415内のピクセルの位置は、ビューポートのx”、y”座標によって識別される。
図4に示すように、移動可能なオブジェクト401は、現在のフレーム413の右下部分に位置し、マクロブロック405、407、409および411内に位置する。
他方、参照フレーム415においては、移動可能なオブジェクト401は、フレームの左上部分に位置する。
したがって、参照フレーム415の生成から、現在のフレーム413が生成されるまでの間に、オブジェクト401はシミュレーションの結果、ビューポートの左上部分からビューポートの右下部分まで移動している。
それゆえ、オブジェクト401の一部を含んだマクロブロック405、407、409および411の各々もまた、この間にビューポートの左上部分からビューポートの右下部分まで移動している。
マクロブロック405、407、409および411の動きベクトルを計算するために従来方式を使用する動き予測アルゴリズムが使用される場合には、参照フレーム415内の最も一致するブロックを見つけるために、現在のフレーム413内のこれらのブロックの位置を取り囲む非常に広い探索エリアが必要となる。
このように広い探索エリア内において、このような動き予測アルゴリズムを実行することは、かなりのコンピュータ資源を消費する。
このように広い探索エリア内において、このような動き予測アルゴリズムを実行することは、かなりのコンピュータ資源を消費する。
しかしながら、本発明によれば、オブジェクト401の位置を取り囲む領域をずっと少なくすべく、参照フレーム415内の移動可能なオブジェクト401の位置が確認されると共に、この位置がブロック405、407、409および411の探索エリアを制限する基準(reference)として使用される。
この位置を確認するために、現在のフレーム413および参照フレーム415をレンダリングする前の、グラフィックス・パイプラインからのオブジェクトのプリミティブについての頂点データが使用される。
この位置を確認するために、現在のフレーム413および参照フレーム415をレンダリングする前の、グラフィックス・パイプラインからのオブジェクトのプリミティブについての頂点データが使用される。
図4に示すように、オブジェクト401の頂点417、419、421および423のビューポート座標は、外側の境界(outer boundary)およびオブジェクト401を含む参照フレーム415内の矩形の領域425の頂点を定義する。
頂点417は、領域425におけるy”座標の最大値を定義し、頂点419は、領域425におけるx”座標の最小値を定義し、頂点421は、領域425におけるy”座標の最小値を定義し、また頂点423は、領域425におけるx”座標の最大値を定義する。
したがって、領域423の頂点についてのビューポート座標は、最大値をmax、最小値をminとして、(minx”、maxy”)、(minx”、miny”)、(maxx”、miny”)、(maxx”、maxy”)である。
頂点417は、領域425におけるy”座標の最大値を定義し、頂点419は、領域425におけるx”座標の最小値を定義し、頂点421は、領域425におけるy”座標の最小値を定義し、また頂点423は、領域425におけるx”座標の最大値を定義する。
したがって、領域423の頂点についてのビューポート座標は、最大値をmax、最小値をminとして、(minx”、maxy”)、(minx”、miny”)、(maxx”、miny”)、(maxx”、maxy”)である。
領域425の上述の境界を均一に拡張することで、探索エリア403が定められる。
現在のフレーム413においてオブジェクト401の全てまたは一部を含む全てのマクロブロックについて、従来の動き予測アルゴリズムを、その探索エリアを探索エリア403に制限するように修正する。
したがって、マクロブロック405、407、409および411について、動き予測アルゴリズムはその探索エリアをエリア403に制限する。
現在のフレーム413において移動可能なオブジェクトを含んでいないマクロブロックについては、動き予測アルゴリズムは、現在のフレーム413内のそのマクロブロックの位置を取り囲む従来の探索エリアを使用して、動きベクトルを計算する。
ピクセル・データのラスタ化およびレンダリングより前のグラフィックス・パイプラインによって生成されたオブジェクトに対応するプリミティブの頂点データから、現在のフレームおよび参照フレーム内の移動可能なオブジェクトを同定でき、またこのオブジェクトの位置を得ることができる。
これらの頂点データには、オブジェクトのプリミティブの頂点についてのワールド座標、オブジェクトのプリミティブの頂点についての予測平面座標、およびオブジェクトのプリミティブの頂点についてのビューポート座標が含まれる。
現在のフレーム413においてオブジェクト401の全てまたは一部を含む全てのマクロブロックについて、従来の動き予測アルゴリズムを、その探索エリアを探索エリア403に制限するように修正する。
したがって、マクロブロック405、407、409および411について、動き予測アルゴリズムはその探索エリアをエリア403に制限する。
現在のフレーム413において移動可能なオブジェクトを含んでいないマクロブロックについては、動き予測アルゴリズムは、現在のフレーム413内のそのマクロブロックの位置を取り囲む従来の探索エリアを使用して、動きベクトルを計算する。
ピクセル・データのラスタ化およびレンダリングより前のグラフィックス・パイプラインによって生成されたオブジェクトに対応するプリミティブの頂点データから、現在のフレームおよび参照フレーム内の移動可能なオブジェクトを同定でき、またこのオブジェクトの位置を得ることができる。
これらの頂点データには、オブジェクトのプリミティブの頂点についてのワールド座標、オブジェクトのプリミティブの頂点についての予測平面座標、およびオブジェクトのプリミティブの頂点についてのビューポート座標が含まれる。
本発明に従ってビデオ・グラフィックデータをエンコードし圧縮するシステムの一実施形態のブロック図を、図5に示す。
グラフィックス・パイプラインの機能ブロック301、303、305、307および309は、図3において記載されたものと同一のものであり、同一の機能を実行する。
ビデオエンコーダ513は、MPEG1エンコーダ、MPEG2エンコーダ、MPEG4エンコーダまたはその他の一時的な冗長性を利用するデータ圧縮エンコーダとすることができる。
グラフィックス・パイプラインの機能ブロック301、303、305、307および309は、図3において記載されたものと同一のものであり、同一の機能を実行する。
ビデオエンコーダ513は、MPEG1エンコーダ、MPEG2エンコーダ、MPEG4エンコーダまたはその他の一時的な冗長性を利用するデータ圧縮エンコーダとすることができる。
動き推定器(motion estimator)511は、機能ブロック309からレンダリングされたピクセル・データのフレーム、機能ブロック307からこれらのフレーム内に描かれた移動可能なオブジェクトの頂点についてのビューポート座標、および探索エリア検知器509から参照フレーム内の探索エリアのビューポート座標を受信する。
動き推定器511は、この情報を使用して参照フレームに関する個々の現在のフレームのマクロブロックの動きベクトルを計算すると共に、現在のビデオフレームを圧縮する際に使用されるビデオエンコーダ513にこれらの動きベクトルを送信する。
動き推定器511は、これらの動きベクトルを計算すべく、以下に記載の方法により修正された、フルサーチ・アルゴリズム、階層的な探索アルゴリズム(hierarchical searching algorithms)、およびテレスコピック・アルゴリズム(telescopic algorithms)のような、動き予測アルゴリズムを実行する。
ビデオエンコーダ513は、これらの動きベクトルおよび機能ブロック309からレンダリングされたビデオフレームを受信し、ローカル・エリア・ネットワークまたは広域ネットワーク(例えばインターネット)、あるいはその他の伝送ネットワークのようなネットワークを通じて送信するための圧縮ビデオデータのビットストリームを生成する。
動き推定器511は、この情報を使用して参照フレームに関する個々の現在のフレームのマクロブロックの動きベクトルを計算すると共に、現在のビデオフレームを圧縮する際に使用されるビデオエンコーダ513にこれらの動きベクトルを送信する。
動き推定器511は、これらの動きベクトルを計算すべく、以下に記載の方法により修正された、フルサーチ・アルゴリズム、階層的な探索アルゴリズム(hierarchical searching algorithms)、およびテレスコピック・アルゴリズム(telescopic algorithms)のような、動き予測アルゴリズムを実行する。
ビデオエンコーダ513は、これらの動きベクトルおよび機能ブロック309からレンダリングされたビデオフレームを受信し、ローカル・エリア・ネットワークまたは広域ネットワーク(例えばインターネット)、あるいはその他の伝送ネットワークのようなネットワークを通じて送信するための圧縮ビデオデータのビットストリームを生成する。
動き推定器511は、圧縮されることになっている現在のフレームの各マクロブロック、および機能ブロック307からの移動可能なオブジェクトの頂点についてのビューポート座標を調査する。
あるマクロブロック内に、動いているオブジェクトの全てまたは一部が描かれることを頂点データが示す場合、そのマクロブロックについての参照フレーム内の探索エリアは、探索エリア検知器509からの情報に基づいて定められる。
他方、機能ブロック307からの頂点データが、動いているオブジェクトがそのマクロブロック内に描かれないことを示す場合には、動き推定器511は、従来の方式に基づいて、参照フレーム内の探索エリアを現在のフレーム内のそのマクロブロックの位置を取り囲む領域として定義する。
あるマクロブロック内に、動いているオブジェクトの全てまたは一部が描かれることを頂点データが示す場合、そのマクロブロックについての参照フレーム内の探索エリアは、探索エリア検知器509からの情報に基づいて定められる。
他方、機能ブロック307からの頂点データが、動いているオブジェクトがそのマクロブロック内に描かれないことを示す場合には、動き推定器511は、従来の方式に基づいて、参照フレーム内の探索エリアを現在のフレーム内のそのマクロブロックの位置を取り囲む領域として定義する。
探索エリア検知器509は、ビデオシミュレーションを生成するのに使用されるグラフィックデータのデータベース内にモデル化されたすべてのオブジェクトの頂点についての変形された三次元のワールド座標、これらのオブジェクトの二次元の投影平面座標およびこれらのオブジェクトの二次元のビューポート座標を、それぞれ機能ブロック301、機能ブロック305および機能ブロック307から、受信する。
探索エリア検知器509はこれらのデータを使用して、上述したような個々の移動可能なオブジェクトを取り囲む適切な探索エリアの頂点についてのビューポート座標を生成する。
探索エリア検知器509はこれらのデータを使用して、上述したような個々の移動可能なオブジェクトを取り囲む適切な探索エリアの頂点についてのビューポート座標を生成する。
探索エリア検知器509、動き推定器511およびビデオエンコーダ513は、ハードウェア、ソフトウェアまたはこの2つを任意に組み合わせて実装されてもよい。
例えば、探索エリア検知器509、動き推定器511およびビデオエンコーダ513の機能は、マイクロプロセッサ、ハードワイヤードのデジタル回路、特定用途向け集積回路(ASIC)またはその他のデジタル回路のようなプログラムされたプロセッサによって実装されてもよいし、ソフトウェアによって実装されてもよい。
これらの装置は、1つ以上の半導体チップ上の集積回路として実装されてもよい。ソフトウェアは、ROM、EPROM、EEPROM、磁気ディスク、光ディスク、またはその他の適切な記憶メディアに格納されていてもよい。
ハードウェアとソフトウェアは、ゲーム装置、サーバ・コンピュータ、デスクトップ・コンピュータ、ハンドヘルド・コンピュータ、ポータブル・コンピュータ、セットトップボックス、またはその他の計算装置の一部でもよい。
コンピュータ・システムはスタンド・アロンの装置であってもよいし、インターネットのようなネットワークに接続されていてもよい。
例えば、探索エリア検知器509、動き推定器511およびビデオエンコーダ513の機能は、マイクロプロセッサ、ハードワイヤードのデジタル回路、特定用途向け集積回路(ASIC)またはその他のデジタル回路のようなプログラムされたプロセッサによって実装されてもよいし、ソフトウェアによって実装されてもよい。
これらの装置は、1つ以上の半導体チップ上の集積回路として実装されてもよい。ソフトウェアは、ROM、EPROM、EEPROM、磁気ディスク、光ディスク、またはその他の適切な記憶メディアに格納されていてもよい。
ハードウェアとソフトウェアは、ゲーム装置、サーバ・コンピュータ、デスクトップ・コンピュータ、ハンドヘルド・コンピュータ、ポータブル・コンピュータ、セットトップボックス、またはその他の計算装置の一部でもよい。
コンピュータ・システムはスタンド・アロンの装置であってもよいし、インターネットのようなネットワークに接続されていてもよい。
上述した好ましい具体例は、発明の趣旨および範囲内にある多数の変形例および組み合わせを含む。
その結果、好ましい具体例についてのこの記載は、発明の単なる例示であって、これに制限されるものではないことが理解される。
本発明の範囲は、以下に添付された請求項によって、次のように記載される。
その結果、好ましい具体例についてのこの記載は、発明の単なる例示であって、これに制限されるものではないことが理解される。
本発明の範囲は、以下に添付された請求項によって、次のように記載される。
Claims (59)
- オブジェクトをモデル化するビデオ・グラフィックデータから、グラフィックス・パイプラインによってそのオブジェクトに対応する頂点データを生成するステップと、
ピクセル・データで構成される現在のフレームおよびピクセル・データで構成される参照フレームを生成すべく、前記ビデオ・グラフィックデータをレンダリングするステップと、
前記現在のフレーム内のピクセル・データで構成されるブロックについての動きベクトルを計算すべく、前記頂点データに基づいて、前記参照フレーム内の探索エリアを定めるステップと、を含む、
ビデオデータの圧縮方法。 - 前記オブジェクトは、移動可能なオブジェクトを含む、請求項1記載の方法。
- 前記ブロックは、前記オブジェクトのうちの1つの、少なくとも一部を含む、請求項2記載の方法。
- 前記参照フレーム内の前記1つの移動可能なオブジェクトに対応する頂点のビューポート座標に基づいて、前記探索エリアを定めるステップをさらに含む、請求項3記載の方法。
- 前記探索エリアは、前記参照フレーム内の前記1つの移動可能なオブジェクトを取り囲むものである、請求項3記載の方法。
- 前記探索エリアは、その形が矩形である、請求項5記載の方法。
- 前記動きベクトルに基づいて、前記現在のフレームを圧縮するステップをさらに含む、請求項1記載の方法。
- 前記圧縮するステップは、MPEGフォーマットに従って前記現在のフレームを圧縮するステップをさらに含む、請求項7記載の方法。
- 前記現在のフレーム内のピクセル・データで構成され、移動可能なオブジェクトを含まない第2ブロックについての動きベクトルを計算するため、前記頂点データと無関係に定められる第2探索エリアを定めるステップをさらに含む、請求項2記載の方法。
- 前記グラフィックス・パイプラインで、前記ビデオ・グラフィックデータについて幾何学的変換を行うステップと、
前記ビデオ・グラフィックデータをビューボリュームにクリッピングするステップと、
投影平面に前記ビデオ・グラフィックデータを投影するステップと、
前記ビデオ・グラフィックデータをビューポートに変形するステップと、をさらに含む、請求項1記載の方法。 - 前記ビデオ・グラフィックデータは、ビデオゲームに関連する、請求項1記載の方法。
- 前記現在のフレームおよび前記参照フレームを、ネットワークを通じて送信するステップをさらに含む、請求項1記載の方法。
- 前記ネットワークは、インターネットを含む、請求項12記載の方法。
- オブジェクトをモデル化するビデオ・グラフィックデータから、グラフィックス・パイプラインによってそのオブジェクトに対応する頂点データを生成する頂点データ生成手段と、
ピクセル・データで構成される現在のフレームおよびピクセル・データで構成される参照フレームを生成すべく、前記ビデオ・グラフィックデータをレンダリングするレンダリング手段と、
前記現在のフレーム内のピクセル・データで構成されるブロックについての動きベクトルを計算するため、前記頂点データに基づいて、前記参照フレーム内の探索エリアを定める探索エリア画定手段と、を含む、
ビデオデータを圧縮するシステム。 - 前記オブジェクトは、移動可能なオブジェクトを含む、請求項14記載のシステム。
- 前記ブロックは、前記オブジェクトのうちの1つの、少なくとも一部を含む、請求項15記載のシステム。
- 前記参照フレーム内の前記1つの移動可能なオブジェクトに対応する頂点のビューポート座標に基づいて、前記探索エリアを定める画定手段をさらに含む、請求項16記載のシステム。
- 前記探索エリアは、前記参照フレーム内の前記1つの移動可能なオブジェクトを取り囲むものである、請求項16記載のシステム。
- 前記探索エリアは、その形が矩形である、請求項18記載のシステム。
- 前記動きベクトルに基づいて、前記現在のフレームを圧縮する圧縮手段をさらに含む、請求項14記載のシステム。
- 前記圧縮手段は、MPEGフォーマットに従って前記現在のフレームを圧縮する圧縮手段をさらに含む、請求項20記載のシステム。
- 前記現在のフレーム内のピクセル・データで構成される、移動可能なオブジェクトを含まない第2ブロックについての動きベクトルを計算するため、前記頂点データと無関係に定める第2探索エリアを定める第2探索エリア画定手段をさらに含む、請求項15記載のシステム。
- 前記グラフィックス・パイプライン内で、前記ビデオ・グラフィックデータについて幾何学的変換を行う変換手段と、
前記ビデオ・グラフィックデータをビューボリュームにクリッピングするクリッピング手段と、
投影平面に前記ビデオ・グラフィックデータを投影する投影手段と、
前記ビデオ・グラフィックデータをビューポートに変形する変形手段と、をさらに含む、請求項14記載のシステム。 - 前記ビデオ・グラフィックデータは、ビデオゲームに関連する、請求項14記載のシステム。
- 前記現在のフレームおよび前記参照フレームを、ネットワークを通じて送信する送信手段をさらに含む、請求項14記載のシステム。
- 前記ネットワークは、インターネットを含む、請求項25記載のシステム。
- オブジェクトをモデル化するビデオ・グラフィックデータから、グラフィックス・パイプラインによってそのオブジェクトに対応する頂点データを生成すると共に、ピクセル・データで構成される現在のフレームおよびピクセル・データで構成される参照フレームを生成すべく、前記ビデオ・グラフィックデータをレンダリングするように構成される、第1プロセッサと、
前記現在のフレーム内のピクセル・データで構成されるブロックについての動きベクトルを計算するため、前記頂点データに基づいて、前記参照フレーム内の探索エリアを定めるように構成される、第2プロセッサと、
を含む、ビデオデータを圧縮するシステム。 - 前記オブジェクトは、移動可能なオブジェクトを含む、請求項27記載のシステム。
- 前記ブロックは、前記オブジェクトのうちの1つの、少なくとも一部を含む、請求項28記載のシステム。
- 前記第2プロセッサは、さらに、前記参照フレーム内の前記1つの移動可能なオブジェクトに対応する頂点のビューポート座標に基づいて、前記探索エリアを定めるように構成される、請求項29記載のシステム。
- 前記探索エリアは、前記参照フレーム内の前記1つの移動可能なオブジェクトを取り囲むものである、請求項29記載のシステム。
- 前記探索エリアは、その形が矩形である、請求項31記載のシステム。
- 前記第2プロセッサは、さらに、前記動きベクトルに基づいて、前記現在のフレームを圧縮するように構成される、請求項27記載のシステム。
- 前記第2プロセッサは、さらに、MPEGフォーマットに従って前記現在のフレームを圧縮するように構成される、請求項33記載のシステム。
- 前記第2プロセッサは、さらに、前記現在のフレーム内のピクセル・データで構成され、移動可能なオブジェクトを含まない第2ブロックについての動きベクトルを計算するため、前記頂点データと無関係に定められる第2探索エリアを定めるように構成される、請求項28記載のシステム。
- 前記第1プロセッサは、さらに、前記グラフィックス・パイプラインで前記ビデオ・グラフィックデータについて幾何学的変換を行い、
前記グラフィックス・パイプラインにおいて、前記ビデオ・グラフィックデータをビューボリュームにクリッピングし、前記グラフィックス・パイプラインにおいて、投影平面に前記ビデオ・グラフィックデータを投影し、前記グラフィックス・パイプラインにおいて、前記ビデオ・グラフィックデータをビューポートに変形するように構成される、請求項27記載のシステム。 - 前記ビデオ・グラフィックデータは、ビデオゲームに関連する、請求項27記載のシステム。
- 前記第2プロセッサは、さらに、前記現在のフレームおよび前記参照フレームを、ネットワークを通じて送信するように構成される、請求項27記載のシステム。
- 前記ネットワークは、インターネットを含む、請求項38記載のシステム。
- 前記第1プロセッサおよび前記第2プロセッサは、記憶メディアに格納されたソフトウェアを実行するようにプログラムされたプロセッサを含む、請求項27記載のシステム。
- 前記第1プロセッサおよび前記第2プロセッサは、特定用途向け集積回路を含む、請求項27記載のシステム。
- 前記第1プロセッサおよび前記第2プロセッサは、ゲーム装置に組み入れられる、請求項27記載のシステム。
- 前記第2プロセッサは、MPEGエンコーダを含む、請求項27記載のシステム。
- 前記第1プロセッサは、記憶メディアに格納されたソフトウェアを実行するようにプログラムされたプロセッサを含む、請求項43記載のシステム。
- グラフィックス・パイプラインから、ピクセル・データで構成される現在のフレームと、ピクセル・データで構成される参照フレームと、前記グラフィックス・パイプラインによってレンダリングされたオブジェクトに対応する頂点データとを受信するように構成されるプロセッサを含み、
前記プロセッサは、さらに、前記頂点データに基づいて前記参照フレーム内の探索エリアを定め、前記現在のフレーム内のピクセル・データで構成されるブロックについての動きベクトルを計算し、前記動きベクトルに基づいて、前記現在のフレームを圧縮するように構成される、
ビデオデータを圧縮するためのシステム。 - 前記オブジェクトは、移動可能なオブジェクトを含む、請求項45記載のシステム。
- 前記ブロックは、前記移動可能なオブジェクトのうちの1つの、少なくとも一部を含む、請求項46記載のシステム。
- 前記プロセッサは、さらに、前記参照フレーム内の前記1つの移動可能なオブジェクトに対応する頂点のビューポート座標に基づいて、前記探索エリアを定めるように構成される、請求項47記載のシステム。
- 前記探索エリアは、前記参照フレーム内の前記1つの移動可能なオブジェクトを取り囲むものである、請求項47記載のシステム。
- 前記探索エリアは、その形が矩形である、請求項49記載のシステム。
- 前記プロセッサは、さらに、MPEGフォーマットに従って前記現在のフレームを圧縮するように構成される、請求項45記載のシステム。
- 前記プロセッサは、さらに、前記現在のフレーム内のピクセル・データで構成され、移動可能なオブジェクトを含まない第2ブロックについての動きベクトルを計算するため、前記頂点データと無関係に定められる第2探索エリアを定めるように構成される、
請求項46記載のシステム。 - 前記ビデオデータは、ビデオゲームに関連する、
請求項45記載のシステム。 - 前記プロセッサは、さらに、前記現在のフレームおよび前記参照フレームを、ネットワークを通じて送信するように構成される、
請求項45記載のシステム。 - 前記ネットワークは、インターネットを含む、
請求項54記載のシステム。 - 前記プロセッサは、記憶メディアに格納されたソフトウェアを実行するようにプログラムされたプロセッサを含む、
請求項45記載のシステム。 - 前記プロセッサは、特定用途向け集積回路を含む、
請求項45記載のシステム。 - 前記プロセッサは、ゲーム機に組み込まれている、
請求項45記載のシステム。 - 前記プロセッサは、MPEGエンコーダを含む、
請求項45記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/167,328 US7038676B2 (en) | 2002-06-11 | 2002-06-11 | System and method for data compression |
PCT/JP2003/005294 WO2003105482A1 (en) | 2002-06-11 | 2003-04-25 | System and method for compression of 3d computer graphics |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005523541A true JP2005523541A (ja) | 2005-08-04 |
Family
ID=29710869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004512413A Pending JP2005523541A (ja) | 2002-06-11 | 2003-04-25 | 3dコンピュータグラフィックスを圧縮するシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US7038676B2 (ja) |
EP (2) | EP1495641B8 (ja) |
JP (1) | JP2005523541A (ja) |
KR (1) | KR100938964B1 (ja) |
CN (1) | CN100581250C (ja) |
AU (1) | AU2003222458A1 (ja) |
WO (1) | WO2003105482A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100657402B1 (ko) | 2006-04-19 | 2006-12-14 | (주)디지탈아리아 | 유체동역학을 이용하여 이동통신 단말기의 사용자인터페이스용 이펙트를 구현하는 방법 |
JP2010109917A (ja) * | 2008-10-31 | 2010-05-13 | Canon Inc | 動きベクトル検出装置及び動きベクトル検出方法 |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6384819B1 (en) * | 1997-10-15 | 2002-05-07 | Electric Planet, Inc. | System and method for generating an animatable character |
JP4409956B2 (ja) | 2002-03-01 | 2010-02-03 | ティーファイヴ ラブズ リミテッド | 集中型対話グラフィカルアプリケーションサーバ |
US20040165776A1 (en) * | 2002-09-20 | 2004-08-26 | Albert-Jan Brouwer | Means of matching 2D motion vector fields in a render, match, and refine iterative 3D scene model refinement system so as to attain directed hierarchical convergence and insensitivity to color, lighting, and textures |
US9314691B2 (en) | 2002-12-10 | 2016-04-19 | Sony Computer Entertainment America Llc | System and method for compressing video frames or portions thereof based on feedback information from a client device |
US8549574B2 (en) * | 2002-12-10 | 2013-10-01 | Ol2, Inc. | Method of combining linear content and interactive content compressed together as streaming interactive video |
US9077991B2 (en) | 2002-12-10 | 2015-07-07 | Sony Computer Entertainment America Llc | System and method for utilizing forward error correction with video compression |
US8526490B2 (en) | 2002-12-10 | 2013-09-03 | Ol2, Inc. | System and method for video compression using feedback including data related to the successful receipt of video content |
US20090118019A1 (en) | 2002-12-10 | 2009-05-07 | Onlive, Inc. | System for streaming databases serving real-time applications used through streaming interactive video |
US8964830B2 (en) | 2002-12-10 | 2015-02-24 | Ol2, Inc. | System and method for multi-stream video compression using multiple encoding formats |
US8711923B2 (en) | 2002-12-10 | 2014-04-29 | Ol2, Inc. | System and method for selecting a video encoding format based on feedback data |
US8366552B2 (en) | 2002-12-10 | 2013-02-05 | Ol2, Inc. | System and method for multi-stream video compression |
US9108107B2 (en) | 2002-12-10 | 2015-08-18 | Sony Computer Entertainment America Llc | Hosting and broadcasting virtual events using streaming interactive video |
US9192859B2 (en) | 2002-12-10 | 2015-11-24 | Sony Computer Entertainment America Llc | System and method for compressing video based on latency measurements and other feedback |
US9138644B2 (en) | 2002-12-10 | 2015-09-22 | Sony Computer Entertainment America Llc | System and method for accelerated machine switching |
US9061207B2 (en) | 2002-12-10 | 2015-06-23 | Sony Computer Entertainment America Llc | Temporary decoder apparatus and method |
US9446305B2 (en) | 2002-12-10 | 2016-09-20 | Sony Interactive Entertainment America Llc | System and method for improving the graphics performance of hosted applications |
US10201760B2 (en) | 2002-12-10 | 2019-02-12 | Sony Interactive Entertainment America Llc | System and method for compressing video based on detected intraframe motion |
KR100508975B1 (ko) * | 2003-05-20 | 2005-08-17 | 주식회사 팬택 | 다층 레벨 연속 제거 알고리즘을 이용한 동영상 움직임추정 방법 |
DE60325954D1 (de) * | 2003-07-07 | 2009-03-12 | St Microelectronics Srl | Graphisches System mit einer Graphikdatenpipeline, Verfahren zur Pipeline-Verarbeitung und Computerprogrammprodukt |
US8059133B2 (en) | 2004-05-03 | 2011-11-15 | Trident Microsystems (Far East) Ltd. | Graphics pipeline for rendering graphics |
US8001294B2 (en) * | 2004-09-28 | 2011-08-16 | Sony Computer Entertainment Inc. | Methods and apparatus for providing a compressed network in a multi-processing system |
US20060230428A1 (en) * | 2005-04-11 | 2006-10-12 | Rob Craig | Multi-player video game system |
WO2007008356A1 (en) * | 2005-07-08 | 2007-01-18 | Tag Networks, Inc. | Video game system using pre-encoded macro-blocks |
US8118676B2 (en) * | 2005-07-08 | 2012-02-21 | Activevideo Networks, Inc. | Video game system using pre-encoded macro-blocks |
US8270439B2 (en) * | 2005-07-08 | 2012-09-18 | Activevideo Networks, Inc. | Video game system using pre-encoded digital audio mixing |
US9061206B2 (en) * | 2005-07-08 | 2015-06-23 | Activevideo Networks, Inc. | Video game system using pre-generated motion vectors |
US9060101B2 (en) * | 2005-07-08 | 2015-06-16 | Activevideo Networks, Inc. | Video game system having an infinite playing field |
US8284842B2 (en) | 2005-07-08 | 2012-10-09 | Activevideo Networks, Inc. | Video game system using pre-encoded macro-blocks and a reference grid |
US8074248B2 (en) | 2005-07-26 | 2011-12-06 | Activevideo Networks, Inc. | System and method for providing video content associated with a source image to a television in a communication network |
US8069466B2 (en) * | 2005-08-04 | 2011-11-29 | Nds Limited | Advanced digital TV system |
US8888592B1 (en) | 2009-06-01 | 2014-11-18 | Sony Computer Entertainment America Llc | Voice overlay |
US9826197B2 (en) | 2007-01-12 | 2017-11-21 | Activevideo Networks, Inc. | Providing television broadcasts over a managed network and interactive content over an unmanaged network to a client device |
WO2008088772A2 (en) | 2007-01-12 | 2008-07-24 | Ictv, Inc. | Mpeg objects and systems and methods for using mpeg objects |
KR100919236B1 (ko) * | 2007-05-22 | 2009-09-30 | 한국전자통신연구원 | 병렬 프로세서를 이용한 3차원 그래픽 기하 변환 방법 |
US9168457B2 (en) | 2010-09-14 | 2015-10-27 | Sony Computer Entertainment America Llc | System and method for retaining system state |
US8613673B2 (en) | 2008-12-15 | 2013-12-24 | Sony Computer Entertainment America Llc | Intelligent game loading |
US8147339B1 (en) | 2007-12-15 | 2012-04-03 | Gaikai Inc. | Systems and methods of serving game video |
US8968087B1 (en) | 2009-06-01 | 2015-03-03 | Sony Computer Entertainment America Llc | Video game overlay |
US8503527B2 (en) | 2008-10-03 | 2013-08-06 | Qualcomm Incorporated | Video coding with large macroblocks |
US8840476B2 (en) | 2008-12-15 | 2014-09-23 | Sony Computer Entertainment America Llc | Dual-mode program execution |
US8926435B2 (en) | 2008-12-15 | 2015-01-06 | Sony Computer Entertainment America Llc | Dual-mode program execution |
US8506402B2 (en) | 2009-06-01 | 2013-08-13 | Sony Computer Entertainment America Llc | Game execution environments |
US8194862B2 (en) * | 2009-07-31 | 2012-06-05 | Activevideo Networks, Inc. | Video game system with mixing of independent pre-encoded digital audio bitstreams |
EP2384001A1 (en) * | 2010-04-29 | 2011-11-02 | Alcatel Lucent | Providing of encoded video applications in a network environment |
US8676591B1 (en) | 2010-08-02 | 2014-03-18 | Sony Computer Entertainment America Llc | Audio deceleration |
US20120050315A1 (en) * | 2010-08-24 | 2012-03-01 | Janos Stone | Systems and methods for transforming and/or generating a tangible physical structure based on user input information |
US10039978B2 (en) | 2010-09-13 | 2018-08-07 | Sony Interactive Entertainment America Llc | Add-on management systems |
WO2012051528A2 (en) | 2010-10-14 | 2012-04-19 | Activevideo Networks, Inc. | Streaming digital video between video devices using a cable television system |
WO2012078640A2 (en) * | 2010-12-06 | 2012-06-14 | The Regents Of The University Of California | Rendering and encoding adaptation to address computation and network bandwidth constraints |
EP2695388B1 (en) | 2011-04-07 | 2017-06-07 | ActiveVideo Networks, Inc. | Reduction of latency in video distribution networks using adaptive bit rates |
US8913664B2 (en) * | 2011-09-16 | 2014-12-16 | Sony Computer Entertainment Inc. | Three-dimensional motion mapping for cloud gaming |
US10409445B2 (en) | 2012-01-09 | 2019-09-10 | Activevideo Networks, Inc. | Rendering of an interactive lean-backward user interface on a television |
US9800945B2 (en) | 2012-04-03 | 2017-10-24 | Activevideo Networks, Inc. | Class-based intelligent multiplexing over unmanaged networks |
US9123084B2 (en) | 2012-04-12 | 2015-09-01 | Activevideo Networks, Inc. | Graphical application integration with MPEG objects |
US10275128B2 (en) | 2013-03-15 | 2019-04-30 | Activevideo Networks, Inc. | Multiple-mode system and method for providing user selectable video content |
US9219922B2 (en) | 2013-06-06 | 2015-12-22 | Activevideo Networks, Inc. | System and method for exploiting scene graph information in construction of an encoded video sequence |
US9294785B2 (en) | 2013-06-06 | 2016-03-22 | Activevideo Networks, Inc. | System and method for exploiting scene graph information in construction of an encoded video sequence |
US9326047B2 (en) | 2013-06-06 | 2016-04-26 | Activevideo Networks, Inc. | Overlay rendering of user interface onto source video |
US9788029B2 (en) | 2014-04-25 | 2017-10-10 | Activevideo Networks, Inc. | Intelligent multiplexing using class-based, multi-dimensioned decision logic for managed networks |
US9769494B2 (en) * | 2014-08-01 | 2017-09-19 | Ati Technologies Ulc | Adaptive search window positioning for video encoding |
US10147226B1 (en) * | 2016-03-08 | 2018-12-04 | Pixelworks, Inc. | 2D motion vectors from 3D model data |
US10602174B2 (en) | 2016-08-04 | 2020-03-24 | Intel Corporation | Lossless pixel compression for random video memory access |
US10715818B2 (en) * | 2016-08-04 | 2020-07-14 | Intel Corporation | Techniques for hardware video encoding |
EP3301643A1 (en) * | 2016-09-30 | 2018-04-04 | Thomson Licensing | Method and apparatus for rectified motion compensation for omnidirectional videos |
US10291925B2 (en) | 2017-07-28 | 2019-05-14 | Intel Corporation | Techniques for hardware video encoding |
US10834413B2 (en) * | 2018-08-24 | 2020-11-10 | Disney Enterprises, Inc. | Fast and accurate block matching for computer generated content |
US11025913B2 (en) | 2019-03-01 | 2021-06-01 | Intel Corporation | Encoding video using palette prediction and intra-block copy |
US10855983B2 (en) | 2019-06-13 | 2020-12-01 | Intel Corporation | Encoding video using two-stage intra search |
CN112203095B (zh) * | 2020-12-04 | 2021-03-09 | 腾讯科技(深圳)有限公司 | 视频运动估计方法、装置、设备及计算机可读存储介质 |
CN113010281B (zh) * | 2021-02-24 | 2024-04-02 | 厦门树冠科技有限公司 | 多相机检测系统的线程处理方法、装置、存储介质和终端 |
US20230004533A1 (en) * | 2021-07-01 | 2023-01-05 | Microsoft Technology Licensing, Llc | Hybrid intermediate stream format |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR970002967B1 (ko) * | 1993-04-09 | 1997-03-13 | 대우전자 주식회사 | 영역 분류패턴을 이용한 움직임벡터 검출장치 |
CA2144253C (en) * | 1994-04-01 | 1999-09-21 | Bruce F. Naylor | System and method of generating compressed video graphics images |
KR0126871B1 (ko) * | 1994-07-30 | 1997-12-29 | 심상철 | 양방향 이동벡터 추정을 위한 고속 블럭정합 방식 |
JP3287977B2 (ja) | 1995-04-28 | 2002-06-04 | 松下電器産業株式会社 | 動きベクトル検出方法および装置と動画像符号化方法および装置 |
US5896176A (en) * | 1995-10-27 | 1999-04-20 | Texas Instruments Incorporated | Content-based video compression |
JP2000102007A (ja) * | 1998-09-28 | 2000-04-07 | Matsushita Electric Ind Co Ltd | マルチメディア情報合成装置、及び圧縮映像信号生成装置 |
KR100415266B1 (ko) * | 2000-05-11 | 2004-01-16 | 가부시끼가이샤 도시바 | 물체영역정보 기술방법과 물체영역정보 생성장치 및 기록매체 |
CN1156168C (zh) * | 2001-01-12 | 2004-06-30 | 北京航空航天大学 | 快速视频运动估计方法 |
-
2002
- 2002-06-11 US US10/167,328 patent/US7038676B2/en not_active Expired - Lifetime
-
2003
- 2003-04-25 WO PCT/JP2003/005294 patent/WO2003105482A1/en active Application Filing
- 2003-04-25 JP JP2004512413A patent/JP2005523541A/ja active Pending
- 2003-04-25 EP EP03717726.8A patent/EP1495641B8/en not_active Expired - Lifetime
- 2003-04-25 AU AU2003222458A patent/AU2003222458A1/en not_active Abandoned
- 2003-04-25 EP EP16155839.0A patent/EP3043320B1/en not_active Expired - Lifetime
- 2003-04-25 CN CN03813473A patent/CN100581250C/zh not_active Expired - Lifetime
- 2003-04-25 KR KR1020047017558A patent/KR100938964B1/ko active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100657402B1 (ko) | 2006-04-19 | 2006-12-14 | (주)디지탈아리아 | 유체동역학을 이용하여 이동통신 단말기의 사용자인터페이스용 이펙트를 구현하는 방법 |
JP2010109917A (ja) * | 2008-10-31 | 2010-05-13 | Canon Inc | 動きベクトル検出装置及び動きベクトル検出方法 |
Also Published As
Publication number | Publication date |
---|---|
CN100581250C (zh) | 2010-01-13 |
CN1659888A (zh) | 2005-08-24 |
EP3043320B1 (en) | 2021-11-17 |
EP3043320A1 (en) | 2016-07-13 |
KR20050009993A (ko) | 2005-01-26 |
WO2003105482A1 (en) | 2003-12-18 |
US20030229719A1 (en) | 2003-12-11 |
EP1495641A1 (en) | 2005-01-12 |
EP1495641B1 (en) | 2016-05-11 |
KR100938964B1 (ko) | 2010-01-26 |
US7038676B2 (en) | 2006-05-02 |
AU2003222458A1 (en) | 2003-12-22 |
EP1495641B8 (en) | 2016-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100938964B1 (ko) | 3차원 컴퓨터 그래픽스의 압축을 위한 시스템 및 방법 | |
JP4004408B2 (ja) | ビデオ情報圧縮方法 | |
KR100361398B1 (ko) | 압축비디오그래픽영상을생성하는시스템및방법,그리고이를사용한중앙집중식대화형그래픽시스템 | |
TWI678915B (zh) | 一種視訊編解碼的方法及裝置 | |
RU2526712C2 (ru) | Способ создания видеоизображений компьютерной трехмерной виртуальной среды | |
JP4338787B2 (ja) | 映像圧縮のための方法及び装置 | |
US8331435B2 (en) | Compression system, program and method | |
JP5155462B2 (ja) | 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体 | |
Noimark et al. | Streaming scenes to MPEG-4 video-enabled devices | |
JPH10271511A (ja) | 画像符号化装置と画像復号化装置 | |
CN109792536A (zh) | 用于编码和解码全向视频的方法和装置 | |
CN103716643A (zh) | 用于使用内容信息改进视频编码的系统和方法 | |
JP4931223B2 (ja) | 動きベクトル探索プログラム、情報記憶媒体、動きベクトル探索装置、及び、ネットワークシステム | |
JP2002369205A (ja) | 動画像生成装置 | |
Mihalik et al. | 3D motion estimation and texturing of human head model | |
TW202338738A (zh) | 視訊信號及其處理 | |
JPH0846972A (ja) | 画像符号化装置及び画像復号装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070807 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071204 |