JP4173477B2 - リアルタイムレンダリング方法 - Google Patents
リアルタイムレンダリング方法 Download PDFInfo
- Publication number
- JP4173477B2 JP4173477B2 JP2004299742A JP2004299742A JP4173477B2 JP 4173477 B2 JP4173477 B2 JP 4173477B2 JP 2004299742 A JP2004299742 A JP 2004299742A JP 2004299742 A JP2004299742 A JP 2004299742A JP 4173477 B2 JP4173477 B2 JP 4173477B2
- Authority
- JP
- Japan
- Prior art keywords
- real
- participant
- time
- local
- participants
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000009877 rendering Methods 0.000 title claims description 136
- 238000000034 method Methods 0.000 title claims description 73
- 238000004891 communication Methods 0.000 claims description 34
- 239000000203 mixture Substances 0.000 claims description 25
- 230000008451 emotion Effects 0.000 claims description 14
- 230000002452 interceptive effect Effects 0.000 claims description 11
- 239000002131 composite material Substances 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000006835 compression Effects 0.000 description 12
- 238000007906 compression Methods 0.000 description 12
- 230000001815 facial effect Effects 0.000 description 11
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000006837 decompression Effects 0.000 description 9
- 238000010191 image analysis Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 230000008921 facial expression Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
- A63F13/655—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
-
- A63F13/12—
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/02—Non-photorealistic rendering
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/216—Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/66—Methods for processing data by generating or executing the game program for rendering three dimensional images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
プレーヤは、ファンタジー世界で展開される出来事にインタラクティブに参加するキャラクタの形でファンタジーの世界内に存在する。
プレーヤにより指示される、キャラクタがとる行動は、ファンタジー世界の中の出来事に影響し、それを形作る。
これら出来事は、プレーヤがファンタジー世界でプレイしているか否かに関わりなくリアルタイムで連続して行われることができる。
したがって現実と同じように、ファンタジー世界のプレーヤは、ゲーム環境の文脈の中で設定された特定のゴールに到達するために各自のキャラクタを造り上げることができる。
したがって、いくつかのサークルでのこういったゲームはロールプレイングゲーム(RPG)とも呼ばれている。
プレーヤは、ファンタジー世界で存在する多くの役割を選択することができる。
たとえば、1つのゲーム環境に関連する1つのRPG内で、プレーヤは自分のキャラクタを騎士、農民、魔法使い、または任意の数の男性および女性キャラクタにすると決めることができる。
複数のプレーヤに対応するRPGの場合、任意のネットワークを通してプレーヤ同士を一緒に結び付けることが可能である。
たとえば、地理的に限定されたローカルエリアネットワーク(LAN)、または広域ネットワーク(WAN)等より広い地理範囲を有するネットワーク、またはそれどころかインターネットを通して、プレーヤ同士を一緒に結び付けることができる。
したがってオンラインゲームは、数人のプレーヤ、または何百万人ものプレーヤを取り込むことが可能なゲーム環境を提供する。
プレーヤの体験が現実に近いほど、体験はよいものになる。
すなわちRPGは、ゲーム環境内の対話を向上させて、プレーヤの最もリアルな体験を描写しようと常に試みている。
たとえば、ゲーム環境内で生み出されるリアリティは、関連するプレーヤのキャラクタを通して擬人化される。
今のところキャラクタは、ゲーム環境内のプレーヤを表す、グラフィックスベースのアバタである。
従来技術のグラフィックスベースのアバタは、アーティストにより事前に生成されモデリングされた幾何学的アバタを含む。
したがって、グラフィックスベースのアバタは本質的にキャラクタモデルである。
マルチプレーヤRPG内では、プレーヤは各自のアバタを通して他のプレーヤを見る。
さらにプレーヤは、ゲーム環境内で互いに敵対的にまたは協調的に対話することができる。
すなわち、特定のプレーヤは敵になるか、または仲間になる。
たとえば、マルチプレーヤゲーム環境では、プレーヤは他のプレーヤとチームを組んだり、また他のプレーヤまたはコンピュータに生成されたキャラクタと戦ったりすることができる。
キャラクタモデルの応答時間はリアルタイムではなく、視覚的な意味で、キャラクタモデルは現実の感覚を深めない。
キャラクタの記憶されている表現を通して他のプレーヤに対して各自を描写する、生成されたキャラクタモデルは、予め設計され作成されたキャラクタの動きに制限される。
たとえば、キャラクタモデルの感情は、アバタが他のプレーヤに対して描写すべき感情を指示するプレーヤがタイプしたコマンドによって決められる。
感情用のコマンドをタイプすることにより、リアルタイムの表現および動きの要素が、プレーヤによる感情の変換および選択を通して、またコマンドでタイプする必要があるタイムラグを通して両方とも失われる。
すなわち、固定された顔の特徴は予め決められ、予め設計され、かつ予め記憶されており、キャラクタモデルに使用するためにアクセス可能な顔の特徴である。
したがって感情は、固定された顔の特徴の数、および作成されメモリに記憶されている感情の数によって制限される。
したがって、プレーヤが体験する現実感は、ゲーム環境内のプレーヤを擬人化するのにキャラクタモデルに依存することにより制限される。
プレーヤ同士のアイコンタクトは、効果的な形のコミュニケーションであってよい。
アイコンタクトととる、またはアイコンタクトを意図的に避けることによって、信頼、不信、恐れ、怒り、および多くの他の感情を他のプレーヤに伝えることができる。
しかし、プレーヤ同士でキャラクタモデルを通して描写されるアイコンタクトは、プレーヤが本当に相手のプレーヤその人自身を見ているのではなく、その相手のプレーヤの前もって作成されたキャラクタモデル表現を見ているため、十分にリアリティのあるものではない。
したがって、プレーヤはゲーム環境内の各自のアバタが描写すべき偽の感情をタイプすることによって各自の本当の実際の感情を隠すことができるため、プレーヤ同士が体験している本当の感情を決めることは難しい。
したがって、ゲーム体験のさらなる向上は、これらグラフィックスベースのアバタにより制限される。
何故なら、グラフィックスベースのアバタは、ゲーム環境内でプレーヤのリアルタイムの感情の状態をリアルに示すことができないためである。
したがって、ゲーム環境におけるプレーヤのよりリアルな表現を通してゲーム体験を向上させる技法が必要である。
具体的には、本発明の一実施形態は、インタラクティブなゲーム環境内にローカル参加者をレンダリングする方法を開示する。
本方法は、複数のカメラ視点からローカル参加者の複数のリアルタイムビデオストリームを取り込むことにより開始する。
新観察画像合成技法が適用されて、複数のビデオストリームからローカル参加者のレンダリングが作成される。
レンダリングは、ゲーム環境において遠隔に配置された遠隔参加者の観点から生成される。
次に、レンダリングは閲覧のために遠隔参加者に送られる。
システムは、上に述べたリアルタイムレンダリング方法を実施する。
システムは、ローカル参加者のリアルタイムビデオストリームを録画する複数のビデオカメラを備える。
複数のビデオカメラは、ローカル参加者を取り巻く複数のサンプル視点を提供するように配置される。
システムは、ローカル参加者のレンダリングを作成する新観察画像合成モジュールも備える。
レンダリングは、新観察画像合成技法をリアルタイムビデオストリームに適用することによって作成される。
本発明についてこれら好ましい実施形態と併せて説明するが、本発明をこれら実施形態に限定する意図はないことが理解されよう。
対照的に、本発明は、添付の特許請求項に規定される本発明の精神および範囲内に包含してよい代替形態、変更形態、および等価形態を網羅すると意図される。
しかし、本発明はこれら特定の詳細なしでも実施することができることが当業者に理解されよう。
一方、本発明の態様を不必要に曖昧にしないように、既知の方法、手順、構成要素、および回路については詳細に説明していない。
コンピュータシステムは、パーソナルコンピュータ、ノート型コンピュータ、サーバコンピュータ、メインフレーム、ネットワーク化されたコンピュータ、ハンドヘルドコンピュータ、個人情報端末、ワークステーション、ゲームコンソール、セットトップボックス、携帯電話等であることができる。
このソフトウェアプログラムは、ゲーム環境内でビデオおよびオーディオ通信のリアルタイム画像レンダリングを提供するように動作可能である。
一実施形態では、コンピュータシステムは、バスに接続されたプロセッサ、およびバスに接続されたメモリ記憶部を備える。
メモリ記憶部は揮発性であっても、また不揮発性であってもよく、取り外し可能な記憶媒体を含んでよい。
コンピュータは、ディスプレイ、データ入出力用の機器等も備えてよい。
ゲーム環境内で参加者を表すグラフィックベースのアバタ内に組み込まれる参加者の写実的なレンダリングを通して、ゲーム体験のさらなる向上が可能である。
すなわち、ローカル参加者の頭部および顔の特徴が、ゲーム環境内のグラフィックス生成された幾何学的本体に結合される。
したがって、本発明は、ゲーム環境において参加者のリアルタイム感情状態をリアルに示すことにより、参加者のよりリアルな表現を通してゲーム感覚を向上させることが可能である。
ゲーム環境は、単一参加者形式および複数参加者形式に対応する。
さらに、ゲーム環境は、単一の参加者に対応する単一のコンピュータシステム内、または複数の参加者に対応するコンピュータシステムネットワーク内に作成される。
複数のプレーヤに対応するRPGの場合、任意のネットワークを通してプレーヤを一緒に結び付けることができる。
たとえば、地理的に限定されたローカルエリアネットワーク(LAN)、またはインターネットを介してのオンラインゲーム等、より広い地理的範囲を有するネットワークを通してプレーヤを一緒に結び付けることができる。
したがって、オンラインゲームは、数人のプレーヤ、また何百万人のプレーヤを取り込んでよいゲーム環境を提供する。
本発明の実施形態についてはゲーム環境の文脈の中で説明するが、他の実施形態は、ゲームの文脈外の複数の参加者間に対話を提供する他の環境に適している。
一実施形態では、システム100は、ローカル参加者にゲーム環境へのアクセスを提供する、ポータルとも呼ばれるローカルノードに配置される。
より具体的には、ゲーム環境内の各参加者をシステム100に関連付けて、出力オーディオおよびビデオ画像ストリームを生成し、ゲーム環境内で通信することができる。
たとえば、一実施形態では、ゲーム環境を整備し、ゲーム環境に対応する中央サーバコンピュータは、システム100の要素を備える。
このようにして、処理負荷の多くが、通信ネットワークを通して共に接続されたより多くの演算資源に分散される。
システム100は、ゲーム環境に対するグラフィカルユーザインタフェースを提供する。
したがって、参加者は、ゲーム環境のあちこちを見たり、共有ゲーム環境内を移動することが可能であり、一方、他の参加者はこれらの動きをリアルタイムで観察することが可能である。
たとえば、こういったゲーム環境はロールプレイングゲーム(RPG)とも呼ばれている。
参加者は、ゲーム環境で存在する多くの役割を選択することができる。
たとえば、1つのRPG内で、参加者は各自のアバタを騎士、農民、魔法使い、または任意の数の男性および女性キャラクタであると決めることができる。
より十分に以下に述べるように、一実施形態では、システム100は、ローカル参加者のリアルタイムレンダリングを作成する簡略化した処理パイプラインを4つの段階で示している。
すなわち、画像取得、2D画像解析、再構築およびレンダリング、ならびに表示。
第1に、各カメラが画像を同時に取得する。
第2に、2D画像解析によりシーンの前景が識別され、影の輪郭が生成される。
第3に、画像ベースの交差領域(IBVH)技法により、輪郭から形状表現を構築し、新しい視点の画像をレンダリングする。
第4に、レンダリングされた画像が表示される。
三次元モデルは複数のビデオ画像ストリームから生成され、そこからローカル参加者のレンダリングが作成される。
カメラアレイ105は、ローカル参加者等、画像を同時に取得する際に使用される。
一実施形態では、カメラ取得モジュールはデジタル録画ビデオカメラである。
図2Aを参照して、本発明の一実施形態による、ユニット200の上部からの断面図を示す。
本実施形態では、5台の別個のカメラ(カメラ取得モジュール210、212、214、216、および218)からなるユニット200は、参加者250に関連する従来のパーソナルコンピュータ(PC)ディスプレイ220の上に配置されている。
本実施形態では5台の別個のカメラが使用されているが、画質およびシステムコストに応じてカメラの台数を増減することが可能である。
カメラの台数を増やすと画質が高くなる。
さらに、多様な形のシステム200も実施される。
たとえば、1台または複数台のカメラを有する、システム100の強力さの劣るものが実施されて、簡素な二次元ビデオストリーム、または完全な合成アバタが生成される。
参加者250は5つのカメラ取得モジュールに面する。
さらに、ユニット200は、5つのカメラ取得モジュール210、212、214、216、および218を介して複数の視点からリアルタイムで5つのビデオストリームを生成する。
これら複数のビデオストリームから、新観察画像合成方法を実施して、ゲーム環境の座標空間内のローカル参加者の位置に関して、他の観察している参加者の位置からレンダリングされた、任意の視点からの参加者の新しいビューを作成することができる。
新しいビューの生成はリアルタイムで行い、ゲーム環境内にリアルタイムでのオーディオおよびビデオ通信を提供することができる。
図示のように、ユニット200は、ディスプレイ220に直接取り付けられた単一ユニットであることができる。
他の実施形態は、単一ユニット内に収容されていないが、依然として参加者250を取り巻くカメラ取得モジュール、およびメディアルーム全体を通して配置されて参加者のより大きくより正確な画像を取り込む等、ディスプレイ220に直接取り付けられていないカメラ取得モジュールに適している。
カメラ取得モジュール214の配置は、本実施形態では残りのカメラ取得モジュール210、212、216、および218よりも高いが、他の実施形態は、唯一の水平面上へのカメラ取得モジュールの配置、カメラ取得モジュールの任意の配置、および/またはカメラ取得モジュールの非均一的な配置に適している。
画像解析モジュール110は、カメラ配列105中のカメラ取得モジュールから来る各リアルタイムビデオストリームからローカル参加者を区分、または分離する。
前景中のローカル参加者は、各リアルタイムビデオストリーム中の物理的な背景から分離される。
このようにしてローカル参加者は、物理的な世界の背景から区分される。
まず、動作の第一段階はカメラの較正である。
この動作により、画像アーチファクトを除去するためのレンズの歪み、色を一貫して組み合わせた複数のカメラからのデータを、単一の表示画像を生成できるようにする色の変換、およびカメラ配列105中の各カメラ取得モジュールの内因性および外因性両方のカメラパラメータを抽出することができる。
内因性パラメータは各カメラに対して内部であり、レンズ歪みパラメータの定量化、焦点距離、視野、アスペクト比、投影中心、および色感度を含む。
外因性パラメータはカメラの姿勢を含む。
カメラの姿勢は、ローカル参加者(たとえば、図2A中の参加者250)に対する各カメラ取得モジュールの向きおよび位置である。
ターゲットは、各面に4色(24色に黒と白を加えたもの)の正方形を有する10インチの立方体を含む。
線形特徴(正方形の辺)により観察がレンズ歪みを求めることを可能にし、正方形自体の形状により内因性パラメータの推定が可能になる。
各正方形の色により、各面を識別して向けることができるため、観察された色を利用して各カメラの色変換を求めることができ、角により、画像座標観察が外因性パラメータを求めることを可能にする。
必要なパラメータを得るには、ターゲットをカメラ配列105の前で周囲に揺らすことで十分である。
別の実施形態では、背景モデルは、背景および前景参加者の両方を含む複数の画像から構築される。
このデータは、輪郭抽出のためにモジュール130に記憶することができる。
モデルは、背景を見ているときに、各センサ素子の各カラーチャネルの平均および標準偏差を指定する統計的特徴付けである。
これにより、各カメラビューにおいてユーザを背景から区分することができる。
色の統計の多様な表現およびガウス分布関数の組み合わせ等、他の背景モデルも容易に実施することができる。
画像解析モジュール110は、ローカル参加者のピクセルと背景のピクセルとを区別することが可能である。
前景ピクセルは、背景モデルの確立から始まる手順を通して背景ピクセルから区別される。
この背景モデルは、ローカル参加者がカメラ配列105から見えない状態で取得される。
色の平均および分散が、各ピクセルにおいて計算される。
これにより、画像解析モジュール110は、現在見えているピクセルの色が、背景モデル中に生じたピクセルの色と、前景の一部としてみなすに十分に異なるか否かについて判定を下すことができる。
輪郭の影115は、入力画像を所定の背景モデルと比較することによって生成される。
一実施形態では、前景の影は、入力画像と背景モデルを差別化することによって作成される。
カメラ配列105中のカメラ取得モジュールは、赤ピクセルおよび緑ピクセルが交互になった偶数走査線の後に、緑ピクセルと青ピクセルが交互になった奇数走査線が続くものを有する色情報(ベイヤーモザイクと呼ばれる)を取得する。
次に、カメラは、YUV422フォーマットを使用してベイヤーモザイクを色ピクセルに変換する。
輪郭抽出モジュールは、ワンパスで画像中の主な前景物体を判定することが可能である。
輝度の変化は、影および漸次光レベル変動の両方の判定に対応する。
輪郭抽出モジュールは、基となる画像の高品質テクスチャへのアクセスを作成しながら、画像の調節可能なサンプリングを実施して対象者(ローカル参加者)を素早く見つける。
したがって、画像前景輪郭は、サンプリングステップを調整することによって低解像度で検出される。
これにより、低解像度データソースの使用に伴う画像情報を失うことなく、より多くの画像スループットが可能である。
さらに、別の実施形態では、輪郭抽出モジュールは、区分線形近似を用いて前景を効果的に抽出することが可能である。
視点モジュール120は、観察側の各参加者からの位置情報を、たとえばブロック160から再構築およびレンダリングモジュール140を介して受け取る。
共有ゲーム環境の参加者は、ゲーム環境の座標空間に配置される。
したがって、ローカル参加者に関連する観察側参加者の相対的な配置に基づくベクトル解析により、視点125が判定される。
その後、ローカル参加者のレンダリングビューが、ゲーム環境内の観察側参加者の視点125に応じて生成される。
マイクロフォン130は、ローカル参加者のオーディオ入力をリアルタイムで受け取る。
オーディオ入力は、オーディオ圧縮モジュール135において圧縮され、観察側参加者の視点125から生成されたビデオストリームと組み合わせて、ゲーム環境内でのリアルタイムでのオーディオおよびビデオ対話のためにローカル参加者の写実的なレンダリングを作成することができる。
再構築およびレンダリングモジュールは、新観察画像合成技法を用いて、観察側参加者の観点からのローカル参加者のレンダリングを作成する。
上に述べたように、一実施形態では、新観察画像合成技法を実行して、ローカル参加者の画像ベースのレンダリングを作成する。
別の実施形態では、新観察画像合成技法を実行して、三次元幾何学的モデルからローカル参加者のレンダリングを作成する。
その後、レンダリングをゲーム環境の合成レンダリング中に仮想的に配置して、他の観察側参加者とコミュニケーション対話する。
方向は、座標空間内のローカル参加者の位置に対する観察側参加者の位置からレンダリングされる。
ローカル参加者の新しいビューが、各観察側参加者毎に生成される。
ローカル参加者の新しいビューはリアルタイムで生成される。
たとえば、m人の観察側参加者がいる場合、m人の観察側参加者の観点毎に1つずつ、m個のローカル参加者の新しいビューが作成される。
新観察画像合成技法は、複数のサンプル観点から撮影されたローカル参加者の複数のリアルタイムビデオストリームから、ゲーム環境中の観察側参加者の観点等、新しく任意の観点から撮影された新しいビューを再構築する。
次に、ローカル参加者の新しいビューが再構築されたものからレンダリングされる。
ローカル参加者の新しいビューは、観察側参加者に対するローカル参加者による目と目が合っている期間を描写することが可能である。
言い換えれば、生成される新しいビューはローカル参加者のアイコンタクトビューを描写することが可能であり、これは、ローカル参加者がゲーム環境内の観察側参加者を表すキャラクタを直接見ている期間中に、観察側参加者に対してディスプレイに表示される。
同様に、ローカル参加者も観察側参加者のキャラクタ画像を観察側参加者から得る。
三次元モデルは、ローカル参加者の様々なリアルタイムビデオストリームから生成される。
新しいビューはレンダリングされ、三次元ゲーム環境の合成レンダリング内に溶け込む。
IBVH技法は、輪郭の影を三次元空間中に逆投影し、結果得られる切頭体の交差を計算する。
交差部、すなわち交差領域は、ユーザの幾何学的形状を近似する。
ビュー依存テクスチャマッピングを用いてこの幾何学的形状をレンダリングすると、納得のいく新しいビューが作成される。
しかし、別の実施形態では、ローカル参加者がレンダリングされ、アルファマップとともに二次元ビデオストリームが作成されて、ゲーム環境内にレンダリングされるローカル参加者の三次元モデルを生成する場合、必要な帯域幅は少なくなる。
アルファマップは二次元モデルのどの部分が透明であるかを指定し、その結果背景が透ける。
画像変換モジュール142は、カメラ配列105中のカメラ取得モジュールの赤、緑、および青(RGB)のカラーフォーマットをYUVフォーマットに変換する。
任意の数の圧縮フォーマットを適用することが可能であるが、一実施形態では、選択される圧縮フォーマットは動画像専門家グループMPEG4規格である。
アルファマップはカラーコーディングをいずれも含まないため、YUVフォーマットへの変換は必要ない。
したがって、アルファマップは圧縮モジュール146に直接送られ、圧縮モジュール146はアルファマップを、ネットワークを通して容易に送信することができる任意の適切なフォーマットに圧縮する。
その後、ビデオ圧縮モジュール144および圧縮モジュール146からの圧縮データは、モジュール150を介して遠隔ユーザに送信される。
一実施形態では、ビデオおよびオーディオストリームは、モジュール150から、ピアツーピア通信接続を介して対応する観察側参加者に直接送信される。
ピアツーピア通信は、オーディオ/ビデオデータに対する処理量を最小化して、確実にリアルタイムで対話するようにする。
インタフェースは、ローカル参加者ならびに他の観察側参加者にゲーム環境内での対話を提供する。
したがって、各参加者は、その参加者を表す関連アバタの、ゲーム環境内での位置を制御することができる。
一実施形態では、システム100の構成要素は、ローカルサイトにいるローカル参加者に利用可能な資源内で見つけられる。
他の実施形態では、システム100の構成要素は、観察側参加者等、リモートサイトにいるローカル参加者に利用可能な資源内で見つけられる。
たとえば、ローカル参加者のレンダリングされた新しいビューの作成は、送信側(ローカル参加者)ではなく受信側(観察側参加者において)で実現される。
加えて、さらに別の実施形態では、再構築およびレンダリングは、送信者(ローカル参加者)および遠隔サーバ等の受信者(観察側参加者)の両方から独立した遠隔場所で行われる。
たとえば、ユーザインタフェースモジュールを使用して、ゲーム環境内でローカル参加者を表すアバタの移動を行うことができる。
また、ユーザインタフェースモジュールを使用して、ゲーム環境において垂直軸を中心としてローカル参加者を表すアバタを回転させることができる。
これは、ゲーム環境の座標系内の、ローカル参加者を表すアバタの向きを規定する。
これにより、ローカル参加者は、ゲーム環境内の特定位置で360度を包含する視点の様々なビューを得ることが可能である。
さらに、一実施形態では注視を通してコマンドが実施され、発せられる。
たとえば、例示的な一実施態様では、アバタは、アバタの注視方向を物体(たとえば、武器)に向けることによりその物体を手に取る。
このようにして、リアルタイムビデオおよびオーディオ通信が、ゲーム環境の参加者同士で可能になる。
たとえば、ローカル参加者におけるモジュール160は、ゲーム環境内でローカル参加者と通信している観察側参加者に関連する入力オーディオストリームおよび対応する入力ビデオ画像ストリームを受信する。
入力オーディオストリームおよび対応する入力ビデオ画像ストリームは、観察側参加者から送信される。
他の実施形態では、参加者は、単一の視点から二次元で参加者を描写する単一カメラシステムを使用して各自のビューを作成する。
さらに他の実施形態では、参加者は、(たとえば、システム100内の)様々な台数のカメラを使用して各自のビューを作成する。
ビデオおよびオーディオ入力信号は、システム100を利用するローカル参加者が観察側参加者から受信する。
一実施形態では、ビデオおよびおオーディオ入力信号は、システム100と同じ要素を備えるシステムを使用して生成され、三次元ゲーム環境中のローカル参加者の視点から遠隔参加者のオーディオおよびビデオストリームを生成する。
遠隔参加者のビデオ入力ストリームは、三次元ゲーム環境内のローカル参加者の観点からの遠隔参加者の二次元モデルを含む。
遠隔参加者からの二次元ビデオ入力ストリームはアルファマスクデータと組み合わせられて、ゲーム環境内の遠隔参加者の外見上の三次元モデルをレンダリングする。
モデルの結果得られる実際のビデオストリームは依然として二次元であるが、モデルは、閲覧者が三次元ゲーム環境内をあちこち移動する際に更新されることから三次元モデルに見える。
同様に、遠隔参加者からのアルファマップも圧縮解除のために圧縮解除モジュール172に送られる。
従来、遠隔参加者からのビデオ入力ストリームおよびアルファマップデータは、MPEG4等のフォーマットで圧縮されて、ネットワークを通してのデータ転送を容易にしていた。
表示する場合、画像変換モジュール174が画像変換モジュール142の動作を逆にする。
したがって、表示の場合、画像変換モジュール174は、圧縮解除された二次元ビデオ入力ストリームからYUVデータをRGBデータに変換する。
遠隔参加者の三次元モデルは、ビデオ表示モジュール190において表示するために、三次元ゲーム環境の合成レンダリングに溶け込む。
ローカル参加者の向きに応じて、観察側参加者からの各ビデオストリームをディスプレイ190上で見ることができる。
一実施形態では、ディスプレイ190の限られた視野により、ディスプレイ190に表示される仮想空間の反りおよび変形はゲーム環境の視野をより広くする。
これはゲームの世界と物理的なディスプレイの間に幾何学的な不一致をもたらす場合があるが、参加者の写実的な画像は依然として、その歪んだ空間内で目と目を合わせること等に容易に利用可能である。
したがってローカル参加者は、オーディオストリームをオーディオ圧縮解除モジュール180で受け取り、オーディストリームを圧縮解除する。
圧縮解除後、オーディオはローカルスピーカを介してオーディオ再生モジュール185により流される。
インタフェースモジュールは、複数の観察側参加者のリアルタイム写実的特徴を含む複数の入力ビデオ画像ストリームを、複数のグラフィックス生成されたアバタに組み込む。
複数のグラフィックス生成されたアバタは、複数の観察側参加者を表す。
インタフェースモジュールはまた、複数のグラフィックス生成されたアバタを、ローカル参加者が見ている三次元ゲーム環境の合成レンダリング内に溶け込ませる。
本実施形態では、通信セッションまたはゲームセッションがローカル参加者と第2の参加者の間で行われる。
本実施形態は三次元ゲーム環境に関連して実施されるが、他の実施形態は二次元ゲーム環境内の実施に適している。
複数のリアルタイムビデオストリームは、ローカル参加者を一部取り囲んだ複数のカメラ視点から撮影される。
たとえば、複数のリアルタイムビデオストリームは、図1のカメラ配列105中の様々なカメラ取得モジュールから取り込むことができる。
レンダリングは、新観察画像合成技法を適用することによって複数のリアルタイムビデオストリームから作成される。
リアルタイムレンダリングは、ゲーム環境で遠隔に配置されている遠隔参加者の観点から作成される。
したがって、リアルタイムレンダリングは、遠隔参加者からローカル参加者への方向から撮影して作成され、ゲーム環境内のローカル参加者に対する遠隔参加者の閲覧観点を規定する。
一実施形態では、新観察画像合成技法は、上に十分に述べたように画像ベースの交差領域技法を含む。
別の実施形態では、リアルタイムレンダリングは、複数のリアルタイムビデオストリームから導出される三次元幾何学的モデルから作成される。
一実施形態では、リアルタイムレンダリングは、ローカル参加者が遠隔参加者の画像を直接見ている場合、ローカル参加者の遠隔参加者に対するアイコンタクトビューを描写することができる。
別の実施形態では、ビデオ画像ストリームは、ローカル参加者のリアルタイムの表情を描写することができる。
さらに別の実施形態では、ビデオ画像ストリームは、ローカル参加者の注視を監視し描写することが可能である。
さらに他の実施形態では、リアルタイムレンダリングはローカル参加者の胴体を描写し、他の実施形態はローカル参加者の体全体のビューを描写する。
したがって遠隔参加者は、三次元ゲーム環境内でローカル参加者のリアルタイムレンダリングを見ることができる。
すなわち、一実施形態では、ローカル参加者の、たとえば頭部および顔の特徴を含むリアルタイムレンダリングが、ゲーム環境内のグラフィックス生成された幾何学的本体に結合される。
したがって、グラフィックス生成されたアバタは、ゲーム環境内のローカル参加者を表す。
他の実施形態では、再構築されレンダリングされたビデオ画像ストリームは、グラフィックス生成されたアバタに組み込まれず、ゲーム環境内でローカル参加者を完全に表す。
このようにして、リアルタイム写実的特徴を含むローカル参加者のリアルタイムレンダリングは、様々な程度の現実性で、ローカル参加者に基づくアニメのような特徴に変換される。
次に、所望であれば、こういったアニメのようのような特徴をグラフィックスベースのアバタに組み込むことができる。
別の実施形態では、リアルタイムレンダリングはローカル参加者のリアルタイムの表情を描写する。
さらに別の実施形態では、リアルタイムレンダリングは、三次元ゲーム環境内のローカル参加者の注視を監視し描写することが可能である。
さらに別の実施形態では、リアルタイムレンダリングは、ゲーム環境内でローカル参加者を完全に表し、グラフィックス生成されたアバタ内に組み込まれない。
したがって、本実施形態は、ローカル参加者の実際の感情および表情を反映するようにリアルタイムレンダリングを擬人化することが可能である。
フローチャート300Bは図3Aの330から続く。
一実施形態では、フローチャート300Bに明らかにする方法は、ローカル参加者の生成されたあらゆるビデオフレームに対して繰り返される。
リアルタイムレンダリングは、ゲーム環境の座標空間内に作成される。
一実施形態では、ローカル参加者および遠隔参加者は、ゲーム環境の座標空間内を自由にあちこち移動する。
ローカル参加者あるいは遠隔参加者による移動は、ローカル参加者を見ているとき、遠隔参加者の観点に影響を及ぼす。
観点は、ゲーム環境中のローカル参加者および遠隔参加者の変更された位置に対応する。
したがって、遠隔参加者は、ローカル参加者あるいは遠隔参加者による移動を反映したゲーム環境のリアルタイムビューを受信する。
これは、現実の物理的な世界での動きに類似する。
フローチャート300Cは図3Aの330から続く。
すなわち、ローカル参加者のリアルタイムレンダリングは背景内に溶け込み、ゲーム環境内にローカル参加者の写実版を提供する。
リアルタイムレンダリングは、ローカル参加者の写実的特徴を含む。
したがって、リアルタイムレンダリングは、顔の特徴によってローカル参加者のリアルタイムの表情および感情を描写する。
したがって、グラフィックス生成されたアバタは次に、三次元ゲーム環境の合成レンダリング内に溶け込む。
すなわち、グラフィックス生成されたアバタは背景内に溶け込み、ゲーム環境内にローカル参加者の写実版を提供する。
グラフィックス生成されたアバタはそれまでに、ローカル参加者の写実的特徴を組み込んでいた。
一実施形態では、写実的特徴は、アバタのシェル内に組み込まれるローカル参加者の顔の特徴を含む。
したがって、グラフィックス生成されたアバタは、顔の特徴によってローカル参加者のリアルタイムの表情および感情を描写する。
リアルタイムレンダリングは、ゲーム環境内のローカル参加者の写実的特徴を描写する。
その結果、遠隔参加者は、ローカル参加者および遠隔参加者の双方が三次元ゲーム環境を体験している間に、ローカル参加者のリアルタイムの写実的特徴(たとえば、顔の特徴)を見る。
これにより、ゲーム環境内のローカル参加者と遠隔参加者の間のインタラクティブなゲームが深まる。
したがって、通信目的のためにリアルタイムレンダリングおよびリアルタイムオーディオストリームが遠隔参加者に送られ、ローカル参加者から遠隔参加者へのリアルタイムビデオおよびオーディオゲーム通信が可能になる。
ローカル参加者は、ローカル参加者が見る三次元ゲーム環境の合成レンダリング内に遠隔参加者を表す第2のリアルタイムレンダリングを表示する入力リアルタイムレンダリング(たとえば、入力ビデオ画像ストリーム)を受信する。
遠隔参加者のリアルタイム入力ビデオ画像ストリームは、一実施形態では、図3Aのフローチャート300Aに述べた方法を使用して生成される。
したがって、リアルタイムレンダリングは遠隔参加者の写実的画像を含む。
上記ローカル参加者の第2のリアルタイムレンダリングは、再び新観察画像合成技法を適用することによって複数のリアルタイムビデオストリームから作成される。
第2の観点は、ゲーム環境の座標空間内の別の遠隔参加者からローカル参加者の方に向けられ、第2の観点からのローカル参加者のビューを定める。
これにより、ゲーム環境内のローカル参加者と別の遠隔参加者の間のインタラクティブなゲームが深まる。
これに対応して、第2のリアルタイムレンダリングは、第2の観点のこの変更を反映するように変更される。
他の実施形態は、3人以上の参加者に対応したゲームセッションに適している。
加えて、さらに他の実施形態では、ゲーム環境は、同時に行われる複数の独立したゲームセッションに対応する。
本実施形態は三次元ゲーム環境に関連して実施されるが、他の実施形態は、二次元ゲーム環境内での実施に適している。
複数のリアルタイムビデオストリームは、ローカル参加者を一部取り囲んだ複数のカメラ視点から撮影される。
たとえば、複数のリアルタイムビデオストリームは、図1のカメラ配列105中の様々なカメラ取得モジュールから取り込むことができる。
ビデオ画像ストリームは、新観察画像合成技法を適用することによって複数のリアルタイムビデオストリームから生成される。
ビデオストリームは、ゲーム環境中の遠隔に配置された遠隔参加者の観点からレンダリングされる。
したがって、ビデオ画像ストリームは、遠隔参加者からローカル参加者への方向からレンダリングされ、ゲーム環境内のローカル参加者の遠隔参加者の視点を定める。
一実施形態では、新観察画像合成技法は、十分に上に述べた画像ベースの交差領域技法を含む。
ビデオ画像ストリームは、ローカル参加者のリアルタイム写実的画像を含む。
一実施形態では、ビデオ画像ストリームは、ローカル参加者が第2の参加者の画像を直接見ているときに、第2の参加者に対するローカル参加者のアイコンタクトビューを描写することができる。
別の実施形態では、ビデオ画像ストリームは、ローカル参加者のリアルタイムの表情を描写することができる。
さらに別の実施形態では、ビデオ画像ストリームは、ローカル参加者の注視を監視し描写することが可能である。
言い換えれば、ローカル参加者のリアルタイム写実的特徴を含むビデオ画像ストリームが、グラフィックス生成されたアバタに組み込まれる。
すなわち、一実施形態では、ローカル参加者の頭部および顔の特徴を含むビデオ画像ストリームが、ゲーム環境内のグラフィックス生成の幾何学的本体に結合される。
したがって、グラフィックス生成されたアバタはゲーム環境においてローカル参加者を表す。
他の実施形態では、再構築されレンダリングされたビデオ画像ストリームは、グラフィックス生成されたアバタに組み込まれず、ゲーム環境内でローカル参加者を完全に表す。
これらは、ローカル参加者および複数の観察側参加者を含む。
他の実施形態は、特定のゲームセッション内にいないが、隣接した場所、見通し線等、他の状況内にある参加者を含む複数のリアルタイムレンダリングの作成に適している。
この位置情報は、ゲーム環境を管理する中央ホストから、またはゲームセッション中の各参加者間のピアツーピアコミュニケーションにより得られる。
したがって、各リアルタイムレンダリングは、ローカル参加者の位置に向けられた複数の観察側参加者の一人の位置に関連する方向からとられた観点から作成される。
したがって、複数のリアルタイムレンダリングはそれぞれ、ゲーム環境内のローカル参加者を見ているときの観察観点の視点を定める。
その結果、各リアルタイムレンダリングは、複数の観察側参加者に関連する様々な観点から見られたローカル参加者のリアルタイムの写実的な画像を含む。
この出力オーディオストリームは、複数のリアルタイムレンダリングと共に複数の観察側参加者に転送される。
このようにして、リアルタイムオーディオおよびビデオ通信が、ゲーム環境に含まれるゲームセッション内のローカル参加者と複数の観察側参加者の間で可能になる。
一実施形態では、オーディオカップリングの程度は、2人の参加者間の距離に応じる。
ゲーム環境内の参加者が近い程、現実の物理的な世界とまったく同じように、強いオーディオカップリングを有する。
したがって、ゲーム環境中で近くに移動するだけで、プライベートサイドでの会話を可能にすることができる。
この場合、選択されたサイドでの会話外の盗み聞きしている参加者は、盗み聞きしている参加者がサイドで会話中の参加者にどの程度近いかに関わりなく、サイドで会話中の参加者からはいずれのオーディオストリームも受信することができない。
その結果、単一ゲーム環境では、複数のサイドでの会話をゲームセッション内で同時に、また互いに独立して行うことができる。
複数の入力ビデオ画像ストリームはそれぞれ、ローカル参加者の観点から撮影される。
たとえば、ローカル参加者が観察側参加者を見ているときに、観察側参加者の入力ビデオ画像ストリームがローカル参加者の観点から生成される。
第2の複数のグラフィックス生成されたアバタは、複数の観察側参加者を表す。
したがって、複数の観察側参加者は、ゲーム環境の合成レンダリングに溶け込ませる際に、第2の複数のグラフィックス生成されたアバタによりレンダリングされる。
一実施態様では、第2の複数のグラフィックス生成されたアバタはローカル参加者が閲覧可能なディスプレイに表示され、ゲーム環境内のローカル参加者と複数の観察側参加者の間でのインタラクティブな体験を深める。
中央ホストは、ゲームセッションの管理を担当する。
中央ホストは、ゲーム環境が対応する各ゲームセッションに関する関連情報を記憶する。
中央ホストは、各ゲームセッションの接続および切断を処理する。
したがって、参加者は、既存のゲームセッションに加わったり、またはゲーム環境内に新しいゲームセッションを作成することが可能である。
新規参加者は初期化され、そこから、ゲームセッションのすべての参加者は、ゲーム環境におけるいずれの位置更新も互いに通知することが可能である。
新規参加者がゲームセッションに接続すると、中央ホストは、それ自体とすべての参加者の間で互換性のあるメディアタイプを判定する。
これは、確実に異なるメディアタイプのネットワーク伝送を整合するためである。
ゲーム環境500は、上に述べた任意のゲーム環境であることができる。
ゲーム環境500中の各参加者は、ゲーム環境500の座標空間505を自由にあちこち歩き回ることができ、また、自由に付近の参加者と対話することができる。
図5は、ゲーム環境500の座標空間505内の各参加者A〜Nの相対位置を示している。
円が参加者A〜Nを表し、各円から向けられる矢印が、ゲーム環境500の座標空間505内の各参加者A〜Nの向きを示す。
別の実施形態では、参加者A〜Nの中の少なくとも一人は、合成アバタ等のオブジェクトである。
ゲームセッション510は、リアルタイムオーディオおよびビデオ通信を行っている参加者AおよびBを含む。
ゲームセッション520は、リアルタイムオーディオおよびビデオ通信を行っている参加者CおよびDを含む。
ゲームセッション530は、リアルタイムオーディオおよびビデオ通信を行っている参加者FおよびGを含む。
ゲームセッション540は、リアルタイムオーディオおよびビデオ通信を行っている参加者I、J、K、およびLを含む。
ゲームセッション550は、リアルタイムオーディオおよびビデオ通信を行っている参加者MおよびNを含む。
参加者EおよびHは単独でゲーム環境を体験している。
しかし、図5は、ゲームセッション540に参加しやすくするために、参加者Hがパス570に沿って、ゲームセッション540中の参加者の付近内の位置に向かって移動することを示している。
複数の観察側参加者は、ゲーム環境内にローカル参加者を有するゲームセッションに参加している。
その後、新視点画像合成技法が、ローカル参加者において取り込まれた複数のリアルタイムビデオストリームに適用されて、複数の出力ビデオ画像ストリームそれぞれが再構築され生成される。
したがって、ローカル参加者を表すアバタの画像は、ローカル参加者と複数の観察側参加者を表すアバタそれぞれの間の相対距離を反映するように適切にスケーリングすることができる。
たとえば、参加者HおよびDからの参加者Mのビデオ画像ストリームは、参加者Mから離れたそれぞれの距離を反映するように適切にスケーリングされる。
したがって、参加者Dの観点に関連する参加者Mの画像は、参加者Hの観点に関連する参加者Mの画像よりも小さくなる。
ローカル参加者、あるいは観察側参加者のいずれかが移動すると、ゲーム環境の局所観点および局所観点内の観察側参加者の位置の両方が変更される。
観点は、ローカル参加者の位置に対する複数の観察側参加者それぞれの位置に関連する方向に関連する。
ローカル参加者が移動すると、その他の観察側参加者が見ているゲーム環境内のローカル参加者の位置が変更される。
それに対応して、ゲーム世界の観察側参加者の各観点もまた、観察側参加者の移動に伴って変更される。
したがって、ローカル参加者は、ローカル参加者による移動およびゲーム環境内の観察側参加者による移動の両方を反映したゲーム環境のリアルタイムビューを有する。
ローカル参加者は、三次元ゲーム環境の合成レンダリング内にレンダリングされたグラフィックス生成されたアバタであることができる複数のビデオ画像ストリームと対話する。
グラフィックス生成されたアバタは、ローカル参加者に表示されるゲーム環境内に表示される。
このようにして、観察側参加者の写実的な画像は、ローカル参加者に対してリアルタイムに提示されて、ゲーム環境内のローカル参加者と複数の観察側参加者の間でリアルタイム通信が行われる。
したがって、物理的空間において遠隔に配置された参加者が、ゲーム環境において近くで写実的なオーディオおよびビデオの様式で互いに対話することができる。
たとえば、方法に提供されているステップのすべてが、本発明に必要なわけではない。
さらに、追加ステップを本実施形態に提示したステップに追加することができる。
同様に、ステップの順序も用途に応じて変更することができる。
本発明は特定の実施形態において説明されたが、本発明はこのような実施形態により限定されると解釈されるべきではなく、添付の特許請求項に従って解釈されるべきであることを理解すべきである。
107・・・ビデオ、
110・・・画像解析、
115・・・影、
120,125・・・視点、
130・・・マイクロフォン、
135・・・オーディオ圧縮、
137・・・オーディオ、
142,174・・・画像変換、
144・・・ビデオ圧縮、
146・・・圧縮、
170・・・ビデオ圧縮解除、
172・・・圧縮解除、
180・・・オーディオ圧縮解除、
185・・・オーディオ再生B、
190・・・ビデオディスプレイB、
Claims (10)
- 複数のコンピュータ端末を含むコンピュータシステムで実行されるゲーム環境においてリアルタイムでレンダリングしてインタラクティブな体験を生み出すリアルタイムレンダリング方法であって、
前記複数のコンピュータ端末のうちの第1のコンピュータ端末が、複数のカメラ視点から前記第1のコンピュータ端末のローカル参加者の複数のリアルタイムビデオストリームを取り込むこと(ステップ310)と、
複数のリアルタイムビデオストリームに基づいて、任意の参加者の視点からの画像を作成する技法を適用することにより、前記複数のコンピュータ端末のうちのいずれかが、前記複数のリアルタイムビデオストリームに基づいて前記ローカル参加者のリアルタイムレンダリングを作成すること(ステップ320)であって、該リアルタイムレンダリングは、前記ゲーム環境において遠隔に配置された前記複数のコンピュータ端末のうちの第2のコンピュータ端末の遠隔参加者の観点から行われ、該リアルタイムレンダリングは、前記ローカル参加者が、前記第1のコンピュータ端末を用いて、ゲーム環境内の前記遠隔参加者を表すキャラクタを直接見ている期間中に、前記ローカル参加者のキャラクタの目が前記遠隔参加者に向けられている画像を描写することと、
前記複数のコンピュータ端末のうちのいずれかが、前記ゲーム環境内で見るように前記リアルタイムレンダリングを前記遠隔参加者の前記第2のコンピュータ端末に送ること(ステップ330)と
を含む
リアルタイムレンダリング方法。 - 前記複数のコンピュータ端末のうちのいずれかが、前記ローカル参加者のリアルタイムの写実的特徴を含む前記リアルタイムレンダリングを、前記ゲーム環境中の前記ローカル参加者を表すグラフィックス生成されたアバタに組み込むこと(ステップ430)と、
前記複数のコンピュータ端末のうちのいずれかが、前記ゲーム環境内で見るように前記リアルタイムレンダリングを組み込む前記グラフィックス生成されたアバタを前記ローカル参加者の前記第1のコンピュータ端末に送ること(ステップ330)と
をさらに含む請求項1記載のリアルタイムレンダリング方法。 - 前記ローカル参加者の前記リアルタイムレンダリングを作成することは、
前記リアルタイムレンダリングとして前記ローカル参加者のレンダリングに基づいて画像を生成すること(ステップ420)
をさらに含み、
前記技法は、
画像ベースの交差領域(visual hull)技法
を含む
請求項1記載のリアルタイムレンダリング方法。 - 前記ローカル参加者のリアルタイムレンダリングを作成することは、
前記リアルタイムレンダリングとして、前記複数のリアルタイムビデオストリームから前記ローカル参加者の三次元幾何学的モデルを生成すること(ステップ320)
をさらに含む
請求項1記載のリアルタイムレンダリング方法。 - 前記ローカル参加者のリアルタイムレンダリングを作成することは、
前記ゲーム環境の座標空間内の前記ローカル参加者に対応するキャラクタの第1の位置に関して、前記遠隔参加者に対応するキャラクタの第2の位置から前記リアルタイムレンダリングをレンダリングすること(ステップ340)
をさらに含む
請求項1記載のリアルタイムレンダリング方法。 - 前記複数のコンピュータ端末のうちのいずれかが、前記ローカル参加者に対応するキャラクタおよび前記遠隔参加者に対応するキャラクタが前記座標空間を通して移動できるようにすることにより、前記第1および第2の位置のうちの少なくとも一方での変更を可能にすること(ステップ350)と、
前記複数のコンピュータ端末のうちのいずれかが、前記リアルタイムレンダリングを変更すること(ステップ360)であって、それによって前記第1および第2の位置のうちの少なくとも一方での前記変更を反映する、変更することと
をさらに含む請求項5記載のリアルタイムレンダリング方法。 - 前記複数のコンピュータ端末のうちのいずれかが、前記ゲーム環境の合成レンダリング内に前記リアルタイムレンダリングを溶け込ませること(ステップ370)と、
前記複数のコンピュータ端末のうちのいずれかが、前記第2の参加者が閲覧可能なディスプレイに、前記ゲーム環境内に溶け込んだ前記リアルタイムレンダリングを表示すること(ステップ380)であって、それによって前記ゲーム環境内の前記ローカル参加者の前記第1のコンピュータ端末と前記遠隔参加者の前記第2のコンピュータ端末との間で対話型ゲームをするためのリアルタイムビデオ通信を可能にすることと
をさらに含む請求項1記載のリアルタイムレンダリング方法。 - 前記ゲーム環境は、
三次元ゲーム環境
を含む
請求項1記載のリアルタイムレンダリング方法。 - 前記複数のコンピュータ端末のうちのいずれかが、前記ローカル参加者の代表的な前記リアルタイムの写実的特徴を含む前記ビデオ画像ストリームを通して、前記ローカル参加者のリアルタイムの感情を示すことにより、前記グラフィックス生成されたアバタを前記ローカル参加者に擬人化すること(ステップ430)
をさらに含む請求項1記載のリアルタイムレンダリング方法。 - 前記複数のコンピュータ端末のうちのいずれかが、前記技法を適用することによって前記複数のリアルタイムビデオストリームに基づいて、前記ローカル参加者の別のリアルタイムレンダリングを作成することであって、前記別のリアルタイムレンダリングは、前記ゲーム環境において遠隔に配置された前記複数のコンピュータ端末のうちの第3のコンピュータ端末の別の参加者の観点から行われる、別のリアルタイムレンダリングを作成することと、
前記複数のコンピュータ端末のうちのいずれかが、前記別のリアルタイムレンダリングを前記別の参加者の前記第3のコンピュータ端末に送ることと
をさらに含む
請求項1記載のリアルタイムレンダリング方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/688,148 US7285047B2 (en) | 2003-10-17 | 2003-10-17 | Method and system for real-time rendering within a gaming environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005122742A JP2005122742A (ja) | 2005-05-12 |
JP4173477B2 true JP4173477B2 (ja) | 2008-10-29 |
Family
ID=34521111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004299742A Expired - Fee Related JP4173477B2 (ja) | 2003-10-17 | 2004-10-14 | リアルタイムレンダリング方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7285047B2 (ja) |
JP (1) | JP4173477B2 (ja) |
Families Citing this family (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1621010A1 (en) * | 2003-05-02 | 2006-02-01 | Allan Robert Staker | Interactive system and method for video compositing |
US9262743B2 (en) | 2003-12-10 | 2016-02-16 | Zerotouchdigital, Inc. | Method and apparatus for sociable computing in ad-hoc and configured peer-to-peer networks |
US8462384B2 (en) * | 2004-09-29 | 2013-06-11 | Apple Inc. | Methods and apparatuses for aesthetically enhanced image conversion |
JP4432814B2 (ja) * | 2005-03-25 | 2010-03-17 | ヤマハ株式会社 | 演奏データ通信管理システム及び演奏データ通信管理装置 |
JP2006305176A (ja) * | 2005-04-28 | 2006-11-09 | Nintendo Co Ltd | ゲームプログラムおよびゲーム装置 |
WO2007016596A2 (en) * | 2005-07-29 | 2007-02-08 | Pamela Barber | Digital imaging method and apparatus |
US8047915B2 (en) | 2006-01-11 | 2011-11-01 | Lyle Corporate Development, Inc. | Character for computer game and method |
US7856125B2 (en) | 2006-01-31 | 2010-12-21 | University Of Southern California | 3D face reconstruction from 2D images |
JP2007228343A (ja) * | 2006-02-24 | 2007-09-06 | Orion Denki Kk | デジタル放送受信装置 |
US7841946B2 (en) | 2006-06-29 | 2010-11-30 | Spawn Labs, Inc. | System for remote game access |
WO2008021091A2 (en) * | 2006-08-11 | 2008-02-21 | Packetvideo Corp. | 'system and method for delivering interactive audiovisual experiences to portable devices' |
CA2565757A1 (en) * | 2006-10-26 | 2008-04-26 | Daniel Langlois | System for interactively linking real entities to virtual entities thereof |
US20080215975A1 (en) * | 2007-03-01 | 2008-09-04 | Phil Harrison | Virtual world user opinion & response monitoring |
US7762883B2 (en) * | 2007-03-01 | 2010-07-27 | Igt | Random number generator based roulette wheel |
US8730231B2 (en) * | 2007-11-20 | 2014-05-20 | Image Metrics, Inc. | Systems and methods for creating personalized media content having multiple content layers |
US8167724B2 (en) * | 2007-12-10 | 2012-05-01 | Gary Stephen Shuster | Guest management in an online multi-player virtual reality game |
US20090184981A1 (en) * | 2008-01-23 | 2009-07-23 | De Matos Lucio D Orazio Pedro | system, method and computer program product for displaying images according to user position |
WO2009101153A2 (en) * | 2008-02-13 | 2009-08-20 | Ubisoft Entertainment S.A. | Live-action image capture |
GB0808061D0 (en) * | 2008-05-02 | 2008-06-11 | Univ Teeside | Computer input device |
US20100035682A1 (en) | 2008-07-01 | 2010-02-11 | Yoostar Entertainment Group, Inc. | User interface systems and methods for interactive video systems |
WO2010005869A2 (en) * | 2008-07-10 | 2010-01-14 | Heins, Douglas, B. | Method and apparatus for utility computing in ad-hoc and configured peer-to peer networks |
US9901829B2 (en) * | 2008-07-15 | 2018-02-27 | Pamela Barber | Digital imaging method and apparatus |
US20100041476A1 (en) * | 2008-08-11 | 2010-02-18 | Haven Holdings, LLC | Interactive Entertainment and Competition System with Caused-Based Reward System |
US8624962B2 (en) * | 2009-02-02 | 2014-01-07 | Ydreams—Informatica, S.A. Ydreams | Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images |
US11647243B2 (en) | 2009-06-26 | 2023-05-09 | Seagate Technology Llc | System and method for using an application on a mobile device to transfer internet media content |
US20120210205A1 (en) | 2011-02-11 | 2012-08-16 | Greg Sherwood | System and method for using an application on a mobile device to transfer internet media content |
US8602875B2 (en) | 2009-10-17 | 2013-12-10 | Nguyen Gaming Llc | Preserving game state data for asynchronous persistent group bonus games |
US9626826B2 (en) | 2010-06-10 | 2017-04-18 | Nguyen Gaming Llc | Location-based real-time casino data |
US11990005B2 (en) | 2009-11-12 | 2024-05-21 | Aristocrat Technologies, Inc. (ATI) | Gaming system supporting data distribution to gaming devices |
US8864586B2 (en) | 2009-11-12 | 2014-10-21 | Nguyen Gaming Llc | Gaming systems including viral gaming events |
US8597108B2 (en) | 2009-11-16 | 2013-12-03 | Nguyen Gaming Llc | Asynchronous persistent group bonus game |
WO2011078879A1 (en) * | 2009-12-02 | 2011-06-30 | Packet Video Corporation | System and method for transferring media content from a mobile device to a home network |
US8696470B2 (en) | 2010-04-09 | 2014-04-15 | Nguyen Gaming Llc | Spontaneous player preferences |
US10052551B2 (en) | 2010-11-14 | 2018-08-21 | Nguyen Gaming Llc | Multi-functional peripheral device |
US9564018B2 (en) | 2010-11-14 | 2017-02-07 | Nguyen Gaming Llc | Temporary grant of real-time bonus feature |
US9235952B2 (en) | 2010-11-14 | 2016-01-12 | Nguyen Gaming Llc | Peripheral management device for virtual game interaction |
US12100260B2 (en) | 2010-11-14 | 2024-09-24 | Aristocrat Technologies, Inc. (ATI) | Multi-functional peripheral device |
US9595161B2 (en) | 2010-11-14 | 2017-03-14 | Nguyen Gaming Llc | Social gaming |
US9486704B2 (en) | 2010-11-14 | 2016-11-08 | Nguyen Gaming Llc | Social gaming |
US8798777B2 (en) | 2011-03-08 | 2014-08-05 | Packetvideo Corporation | System and method for using a list of audio media to create a list of audiovisual media |
US8884949B1 (en) | 2011-06-06 | 2014-11-11 | Thibault Lambert | Method and system for real time rendering of objects from a low resolution depth camera |
US8943396B2 (en) * | 2011-07-18 | 2015-01-27 | At&T Intellectual Property I, Lp | Method and apparatus for multi-experience adaptation of media content |
US9084001B2 (en) | 2011-07-18 | 2015-07-14 | At&T Intellectual Property I, Lp | Method and apparatus for multi-experience metadata translation of media content with metadata |
US9237362B2 (en) | 2011-08-11 | 2016-01-12 | At&T Intellectual Property I, Lp | Method and apparatus for multi-experience translation of media content with sensor sharing |
US9269152B1 (en) * | 2011-09-07 | 2016-02-23 | Amazon Technologies, Inc. | Object detection with distributed sensor array |
US9672686B2 (en) | 2011-10-03 | 2017-06-06 | Nguyen Gaming Llc | Electronic fund transfer for mobile gaming |
US9630096B2 (en) | 2011-10-03 | 2017-04-25 | Nguyen Gaming Llc | Control of mobile game play on a mobile vessel |
US9325203B2 (en) | 2012-07-24 | 2016-04-26 | Binh Nguyen | Optimized power consumption in a gaming device |
US10176666B2 (en) | 2012-10-01 | 2019-01-08 | Nguyen Gaming Llc | Viral benefit distribution using mobile devices |
US8998719B1 (en) | 2012-12-14 | 2015-04-07 | Elbo, Inc. | Network-enabled game controller |
US9814970B2 (en) | 2013-03-15 | 2017-11-14 | Nguyen Gaming Llc | Authentication of mobile servers |
US11398131B2 (en) | 2013-03-15 | 2022-07-26 | Aristocrat Technologies, Inc. (ATI) | Method and system for localized mobile gaming |
US10421010B2 (en) | 2013-03-15 | 2019-09-24 | Nguyen Gaming Llc | Determination of advertisement based on player physiology |
US9483901B2 (en) | 2013-03-15 | 2016-11-01 | Nguyen Gaming Llc | Gaming device docking station |
US9600976B2 (en) | 2013-03-15 | 2017-03-21 | Nguyen Gaming Llc | Adaptive mobile device gaming system |
US10332560B2 (en) | 2013-05-06 | 2019-06-25 | Noo Inc. | Audio-video compositing and effects |
JP6298613B2 (ja) | 2013-10-17 | 2018-03-20 | 株式会社ソニー・インタラクティブエンタテインメント | ゲームシステム、ゲーム制御方法、及びゲーム制御プログラム |
US10013262B2 (en) * | 2013-12-16 | 2018-07-03 | Tencent Technology (Shenzhen) Company Limited | Method and device for adding indicative icon in interactive application |
US9576175B2 (en) * | 2014-05-16 | 2017-02-21 | Verizon Patent And Licensing Inc. | Generating emoticons based on an image of a face |
US10118099B2 (en) * | 2014-12-16 | 2018-11-06 | Activision Publishing, Inc. | System and method for transparently styling non-player characters in a multiplayer video game |
US10315113B2 (en) | 2015-05-14 | 2019-06-11 | Activision Publishing, Inc. | System and method for simulating gameplay of nonplayer characters distributed across networked end user devices |
US9789403B1 (en) * | 2016-06-14 | 2017-10-17 | Odile Aimee Furment | System for interactive image based game |
US10916090B2 (en) | 2016-08-23 | 2021-02-09 | Igt | System and method for transferring funds from a financial institution device to a cashless wagering account accessible via a mobile device |
US11386747B2 (en) | 2017-10-23 | 2022-07-12 | Aristocrat Technologies, Inc. (ATI) | Gaming monetary instrument tracking system |
US10864443B2 (en) | 2017-12-22 | 2020-12-15 | Activision Publishing, Inc. | Video game content aggregation, normalization, and publication systems and methods |
US11232617B2 (en) * | 2018-01-11 | 2022-01-25 | Pamela L. Barber | Digital imaging method and apparatus |
US11679330B2 (en) | 2018-12-18 | 2023-06-20 | Activision Publishing, Inc. | Systems and methods for generating improved non-player characters |
US11712627B2 (en) | 2019-11-08 | 2023-08-01 | Activision Publishing, Inc. | System and method for providing conditional access to virtual gaming items |
EP4119208A4 (en) | 2020-03-09 | 2023-12-13 | A.L.I. Technologies Inc. | IMAGE PROCESSING SYSTEM, PROGRAM AND IMAGE PROCESSING METHOD |
US11351459B2 (en) | 2020-08-18 | 2022-06-07 | Activision Publishing, Inc. | Multiplayer video games with virtual characters having dynamically generated attribute profiles unconstrained by predefined discrete values |
US11524234B2 (en) | 2020-08-18 | 2022-12-13 | Activision Publishing, Inc. | Multiplayer video games with virtual characters having dynamically modified fields of view |
CN113893533B (zh) * | 2021-09-30 | 2024-07-09 | 网易(杭州)网络有限公司 | 一种游戏中的显示控制方法和装置 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4710873A (en) * | 1982-07-06 | 1987-12-01 | Marvin Glass & Associates | Video game incorporating digitized images of being into game graphics |
JP2552427B2 (ja) * | 1993-12-28 | 1996-11-13 | コナミ株式会社 | テレビ遊戯システム |
US6009210A (en) * | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
JPH10334270A (ja) * | 1997-05-28 | 1998-12-18 | Mitsubishi Electric Corp | 動作認識装置及び動作認識プログラムを記録した記録媒体 |
IL121178A (en) * | 1997-06-27 | 2003-11-23 | Nds Ltd | Interactive game system |
US6522312B2 (en) * | 1997-09-01 | 2003-02-18 | Canon Kabushiki Kaisha | Apparatus for presenting mixed reality shared among operators |
JPH11154240A (ja) * | 1997-11-20 | 1999-06-08 | Nintendo Co Ltd | 取込み画像を用いて画像を作成するための画像作成装置 |
US7121946B2 (en) * | 1998-08-10 | 2006-10-17 | Cybernet Systems Corporation | Real-time head tracking system for computer games and other applications |
JP2000172878A (ja) * | 1998-12-09 | 2000-06-23 | Sony Corp | 情報処理装置および情報処理方法、並びに提供媒体 |
US6807290B2 (en) * | 2000-03-09 | 2004-10-19 | Microsoft Corporation | Rapid computer modeling of faces for animation |
EP1290571A4 (en) * | 2000-04-17 | 2005-11-02 | Igt Reno Nev | SYSTEM AND METHOD FOR DETECTING THE PICTURE OF A PLAYER TO INTEGRATE IT INTO A GAME |
US6795068B1 (en) * | 2000-07-21 | 2004-09-21 | Sony Computer Entertainment Inc. | Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program |
US6950104B1 (en) * | 2000-08-30 | 2005-09-27 | Microsoft Corporation | Methods and systems for animating facial features, and methods and systems for expression transformation |
US6664956B1 (en) * | 2000-10-12 | 2003-12-16 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret A. S. | Method for generating a personalized 3-D face model |
US7127081B1 (en) * | 2000-10-12 | 2006-10-24 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. | Method for tracking motion of a face |
US7016824B2 (en) * | 2001-02-06 | 2006-03-21 | Geometrix, Inc. | Interactive try-on platform for eyeglasses |
US6980333B2 (en) * | 2001-04-11 | 2005-12-27 | Eastman Kodak Company | Personalized motion imaging system |
JP3611807B2 (ja) * | 2001-07-19 | 2005-01-19 | コナミ株式会社 | ビデオゲーム装置、ビデオゲームにおける擬似カメラ視点移動制御方法及びプログラム |
JP4082021B2 (ja) * | 2001-11-29 | 2008-04-30 | コニカミノルタホールディングス株式会社 | テクスチャ画像生成プログラム、テクスチャ画像データ及びデータ処理装置 |
US7286692B2 (en) * | 2001-12-27 | 2007-10-23 | Amnart Kanarat | Automatic celebrity face matching and attractiveness rating machine |
JP2004046793A (ja) * | 2002-05-17 | 2004-02-12 | Nintendo Co Ltd | 画像処理システム |
US6853398B2 (en) * | 2002-06-21 | 2005-02-08 | Hewlett-Packard Development Company, L.P. | Method and system for real-time video communication within a virtual environment |
AU2003291320A1 (en) * | 2002-11-05 | 2004-06-07 | Disney Enterprises, Inc. | Video actuated interactive environment |
US7057662B2 (en) * | 2002-11-22 | 2006-06-06 | Hewlett-Packard Development Company, L.P. | Retractable camera apparatus |
-
2003
- 2003-10-17 US US10/688,148 patent/US7285047B2/en not_active Expired - Fee Related
-
2004
- 2004-10-14 JP JP2004299742A patent/JP4173477B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005122742A (ja) | 2005-05-12 |
US7285047B2 (en) | 2007-10-23 |
US20050085296A1 (en) | 2005-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4173477B2 (ja) | リアルタイムレンダリング方法 | |
JP7368886B2 (ja) | 情報処理システム、情報処理方法、および情報処理プログラム | |
US11458393B2 (en) | Apparatus and method of generating a representation of a virtual environment | |
US10602121B2 (en) | Method, system and apparatus for capture-based immersive telepresence in virtual environment | |
WO2020210213A1 (en) | Multiuser asymmetric immersive teleconferencing | |
US8279254B2 (en) | Method and system for video conferencing in a virtual environment | |
CN113099204B (zh) | 一种基于vr头戴显示设备的远程实景增强现实方法 | |
TWI608856B (zh) | 資訊處理裝置、成像裝置、方法及程式 | |
Cho et al. | Effects of volumetric capture avatars on social presence in immersive virtual environments | |
US20220264068A1 (en) | Telepresence system and method | |
JP6341986B2 (ja) | 描画装置、その描画方法、プログラム及び記録媒体 | |
CN110060351B (zh) | 一种基于rgbd相机的动态三维人物重建和直播方法 | |
CN110178158B (zh) | 信息处理装置、信息处理方法和记录介质 | |
KR101851338B1 (ko) | 실감형 미디어 영상을 제공하는 장치 | |
US11181862B2 (en) | Real-world object holographic transport and communication room system | |
Zioulis et al. | 3D tele-immersion platform for interactive immersive experiences between remote users | |
CN111355944B (zh) | 生成并用信号传递全景图像之间的转换 | |
Kurillo et al. | A framework for collaborative real-time 3D teleimmersion in a geographically distributed environment | |
Minatani et al. | Face-to-face tabletop remote collaboration in mixed reality | |
US11741652B1 (en) | Volumetric avatar rendering | |
US11776227B1 (en) | Avatar background alteration | |
Pereira et al. | Hybrid Conference Experiences in the ARENA | |
Apostolakis et al. | Beyond online multiplayer: sharing and augmenting tele-immersive 3D game experiences with multiple geographically distributed users | |
CN118101976A (zh) | 实现虚拟环境中的直播会话的系统和方法 | |
Wang et al. | Collaborative MR Workspace with Shared 3D Vision Based on Stereo Video Transmission |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070509 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20070808 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20070813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071102 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080416 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080714 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080813 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110822 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110822 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120822 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130822 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |