JP3725524B2 - コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ - Google Patents
コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ Download PDFInfo
- Publication number
- JP3725524B2 JP3725524B2 JP2003104139A JP2003104139A JP3725524B2 JP 3725524 B2 JP3725524 B2 JP 3725524B2 JP 2003104139 A JP2003104139 A JP 2003104139A JP 2003104139 A JP2003104139 A JP 2003104139A JP 3725524 B2 JP3725524 B2 JP 3725524B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- buffer
- generating
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
Description
【発明の属する技術分野】
本発明は、全体としてコンピュータグラフィックス、特に、リアリズム性を強調された、コンピュータ生成ディスプレイ画像に関する。
【0002】
【従来の技術】
コンピュータは、コンピュータにより維持された三次元空間内以外には、いかなる場所にも存在しない、「バーチャルリアリティ」世界を表現するために用いられている。オブジェクトは、バーチャルリアリティ世界内に「存在」し、バーチャルリアリティの座標空間内を動くことが出来る。こうした世界は、研究室研究やイベントシミュレーションなど、実際のオブジェクトを用いるのが実用的でない、現実世界の事象のシミュレーションにかなり役立ち、さらには、コンピュータゲームや映画的な作品(アニメーション)など、エンターテインメントを目的するものにも役に立っている。コンピュータグラフィックスの分野では、コンピュータのバーチャルリアリティ世界で、より迫真力のあるリアリズムを表現する画像を提供するための努力が払われている。
【0003】
コンピュータディスプレイ画像は、それぞれがピクセルと呼ばれる、画像要素の組み合わせとして明示される。ディスプレイ画像内のピクセルは、従来のテレビ画像の明示によく似た方法で、赤、青および緑の色彩情報の組み合わせを明示する。各ピクセルは、画像の各赤、青、緑ピクセルのための色彩強度情報を明示するデータに関連づけられている。色彩強度データは、概して、8ビットのデータワードによって表現される。ほとんどのバーチャルリアリティシミュレーションでは、シーン内のオブジェクトは、形、サイズ、位置、色などの特性に関連づけられた、データオブジェクトとして表現される。オブジェクトが、コンピュータディスプレイ上に描画あるいはレンダリングされる場合、グラフィックプロセッサは、画像描写のための赤、青、緑のピクセル情報の適切な混合を決定し、各ピクセルのために赤、青、緑を正確に混合したビデオ情報を発生させる。ディスプレイ装置の画像生成用ピクセルサイズは、異なっていてもよい。例えば、多くのコンピュータフラットパネルディスプレイは、それぞれおよそ0.29mm(0.0116インチ)の直径を持つ、個々の円形ピクセルを有している。
【0004】
コンピュータグラフィックプロセッサ、もしくはディスプレイプロセッサは、コンピュータアプリケーションプログラム、もしくはコンピュータ生成画像の他のソースにより作成された画像が適切に表示されるよう、コンピュータ装置のための画像レンダリング処理を提供する。コンピュータグラフィックとは、コンピュータベースモデルからのオブジェクトを、画像的に統合することに基づき、オブジェクトのモデルおよび画像を、生成、格納、ならびに操作することを伴っている。オブジェクトの生成、格納、および操作は、リアルタイムで起ってもよく、さらに、キーボード、表示マウス、コントローラ、またはタッチ‐スクリーン表示パネルなどの入力装置を用いて、コンピュータユーザがインタラクテブに行う処理であってもよい。画像レンダリング処理の重要な部分は、画像内のオブジェクトの位置および動きを、二次元および三次元空間内に、慎重に再現させる画像処理を伴っている。
【0005】
例えば、どんなオブジェクトが表示されているか、さらに、レンダリングされたり描かれたりした画像内で、何を目視可能にするかを決定するために、グラフィックプロセッサは、コンピュータで描かれたシーン内のオブジェクトのポイントを示す、シーン内の全ピクセルの位置情報を保持している。若干の位置情報は、画像用zバッファの形で保持される。シーンの画像もしくはフレーム用のzバッファは、シーン内のオブジェクトの位置を決定する座標に基づく、画像内の各ピクセルに対する1つのデータ値である一組のデータ値である。すなわち、zバッファデータは、オブジェクトのピクセルが、カメラパースペクティブからどれ程遠くにあるかを明示するために用いられる。従って、ディスプレイシーン内の各ピクセルのために、1つのzバッファデータエントリーがあり、グラフィックプロセッサは、そのピクセルのコンピュータモデル内での位置を明示するデータを保持する。
【0006】
各zバッファデータポイントは、32ビットデータワードなどのデータワードにより表されていてもよい。例えば、非特許文献1参照。コンピュータ画像の忠実度および詳細は、グラフィックプロセッサが、zバッファに統合されたオブジェクトの位置情報に対し、必要な数理計算を実行する能力に一部依存しており、市販のグラフィックプロセッサは、これらの数理処理能力と他の画像処理の能力について、絶え間なく改良されている。
【0007】
コンピュータで描かれたバーチャルリアリティ画像は、通常、(写真やビデオフレームなどの)現実のオブジェクトの、実際の画像とは異なった外観を有している。バーチャルリアリティのコンピュータ画像と、実際の物理的オブジェクトの画像とが異なる理由の1つは、バーチャルリアリティ画像では、予想される被写界深度情報が実際のようには示されない点である。一般に、被写界深度は、オブジェクトが看者のパースペクティブから近いか遠いかによって、人間の目が知覚すると予想される画像内オブジェクトのディテールの変化量であるとされている。例えば、看者のパースペクティブからより遠くにある写真内のオブジェクトは、より近くにあるオブジェクトより、認識し得る画像ディテールが減少し、明瞭さも減少することになる。従って、遠いオブジェクトは、「あいまいな」外観を持ち、近いオブジェクトほどは鮮明でも明瞭でもなくなる。
【0008】
ほとんどのバーチャルリアリティ画像が「漫画っぽい」外観を呈する理由の1つは、画像内の近接オブジェクトが、通常、遠方にあるオブジェクトより鮮明ではなく、ディテールもせいぜい同程度であり、さらに遠方のオブジェクトは、近接オブジェクトと比してあいまいになっていないからである。換言すれば、バーチャルリアリティ画像のすみからすみまで被写界深度は一定である。これは「現実世界」の画像の見え方と、逆になっている。つまり、オブジェクトが、画像内でより近くにある、もしくはより遠く離れている場合に、予想される方法で、オブジェクトの認識可能なディテールが変化しないため、結果として漫画的に見えてしまうことになる。より現実的な外観となるには、近くにあるオブジェクトは、遠くにあるオブジェクトよりも、より細かいディテールと鮮明さを持つ必要があるだろう。
【0009】
コンピュータ画像ディスプレイに、強調された被写界深度情報を提供するために、いくつかの技術が使われてきている。例えば、確率的サンプリング技術は、プレレンダリングされたコンピュータ生成画像の被写界深度情報を統合するために、分散レイトレーシングで用いられる。別の後処理技術では、zバッファ値および用いられているレンズ口径に関連するように、各画像点のための錯乱円のサイズと強度分布を決定するために、ピクセル強度およびzバッファ画像深度データが使用されている。出力画像内の各ポイントの強度は、各点で重なる錯乱円内の強度の加重平均として計算される。この技術は、ポットメシル(Potmesil)およびチャクラバーティー(Chakravarty)によって非特許文献2を参照して説明されている。
【0010】
【非特許文献1】
A.ワットおよびM.ワット(A.Watt and M.Watt)著、高度なアニメーションおよびレンダリング技術(Advanced Animation and Rendering Techniques)(ACMプレス(ACM Press)、1992)内のP.22の、「隠面消去アルゴリズム(Hidden surface removal algorithm)」のセクション1.5。
【非特許文献2】
J.フォリー(J.Foley)他著、コンピュータグラフィックス(Computer Graphics):プリシンプルズ アンド プラクティス(Principles and Practice)第二版 インC(in C)、(アディソン・ウェズレー出版社(Addison−Wesley Publishing Company, Inc.))、1996、のセクション16.10 774−775頁。
【0011】
【発明が解決しようとする課題】
しかしながら、これらの技術は後処理技術であり、リアルタイム処理での画像表現には用いられない。従って、これらは、いかなるインタラクティブな使用にも適していない。
【0012】
上述の議論により、強調された被写界深度情報を伴う、現実的なコンピュータ描画画像が必要とされていることは、明らかである。本発明は、この必要性を実現させるものである。
【0013】
【課題を解決するための手段】
本発明は、焦点内の表現に対応するシーンの鮮明な画像を、シーンのぼやけた画像表現に結合させ、その後、通常隠面消去のためにグラフィックプロセッサにより用いられる、zバッファデータに従って、鮮明な画像とぼやけた画像を合成することにより、鮮明な画像とぼやけた画像の間にアルファブレンド(alpha blend)を生成させ、それによって三次元シーンの改良された被写界深度表現をディスプレイ画像に提供するものである。この方法で、zバッファからの画像データは、アルファチャンネルとして使用され、被写界深度情報を持つアルファチャンネルデータ(RGBA画像)画像を作り出すために、鮮明な画像とぼやけた画像の色チャンネルデータと混合される。これは、ある距離にあるオブジェクトにはより鮮明な、そして、他の距離にあるオブジェクトにはより不明瞭な、また、画像の背景領域においてはより彩度の低い、シーンの、より写実的な画像表現を提供する。
【0014】
本発明の他の特徴と利点は、本発明の原理の例として、以下に記述される、好ましい実施例から明らかとなる。
【0015】
【発明の実施の形態】
本発明は、シーン表現のために、従来のコンピュータディスプレイカラーモデルを利用する、実例表示環境条件の文脈で説明されている。実例環境条件は、記述目的のためにだけ用いられている。本発明が、この実例環境条件に制限されるべきものであると意図されているわけではない。実例環境条件の詳細が、この発明の教示から離れることなく、他のグラフィック処理環境条件に適用可能であることは、当業者により認められるだろう。
【0016】
図1は、従来のコンピュータグラフィックスレンダリング処理から生成されるような、無限遠まで鮮明な画像を示した、コンピュータが生成したシーンのコンピュータディスプレイ画像である。図1は、無限遠まで鮮明で、さらに焦点の合っている、階段シーンの画像を示しているが、(画像内で看者に最も近い)前景にある階段が、(看者からより遠方にある)背景にある階段と同等の鮮明さになっている点に留意されたい。同様に、シーン内の円柱は、シーンの前へ、すぐ近くにあるものも、より遠方にあるものと、同様に鮮明なものとなっている。これが、多くのコンピュータでのレンダリング画像であり、結果的に「漫画っぽい」ものとして特徴づけられる外観を呈している。
【0017】
さらに、特に、典型的なアニメーションのシーン、もしくは他のコンピュータで描かれた画像は、通常、写真画像(および、実際の視覚で見られるもの)では無限遠までの鮮明さがないにもかかわらず、無限遠まで鮮明なものとなっている。本発明は、本発明に従って生成される画像が、被写界深度情報を含み、シーン内のオブジェクトの焦点を変化させたり、鮮明度を異なったものにして、看者に対するシーン内のオブジェクトの画像距離に依存した焦点変化を表示可能にする形で、初期の無限遠まで鮮明な画像以外の、いかなる視覚情報も用いずに、より写実的な画像を生成することが出来る。このように、一連の画像からの個々の画像は、正確な被写界深度画像処理を加えるために処理されることになる。従って、一連のアニメーションシーンは、アニメーションシーケンス全体を、より写実的に見えるようにすることが可能となるよう、次々と処理されることになる。加えて、以下でさらに説明される本発明に従った画像処理は、リアルタイムレンダリング環境条件で実行可能であり、その結果、改良された被写界深度表現を伴なった、インタラクティブグラフィックス処理をサポートする。
【0018】
図2は、シーンのためzバッファデータの8ビット表現を示す、図1からのシーンのコンピュータディスプレイ画像である。上述のように、バーチャルリアリティ世界内の三次元オブジェクトの、ほとんどのコンピュータグラフィック表示は、バーチャルリアリティ世界の各オブジェクトから看者もしくはカメラパースペクテブへの距離を探知するzバッファデータ記憶を用いて、表現される。例えば、図2は、ユーザ(カメラパースペクティブ)までの距離が大きくなるにつれ、画像内の各ピクセルがより暗くなる、zバッファデータを示している。従って、 近いオブジェクトはより明るく、そして、遠いオブジェクトはより暗くなる。zバッファデータは、シーン内のオブジェクトの位置情報から成っている。こうしたデータは、通常、しばしば64ビット、もしくは、128ビットもの演算能力からなる、グラフィックプロセッサの算術処理能力と一致した解像度に維持される。以下に詳述するように、本発明は、通常、1ピクセルあたり8ビットのビデオ表示解像度に維持されるピクセルデータの処理を行うために、zバッファデータを用いることを想定している。本発明は、ゲーム機、パーソナルコンピュータ、およびワークステーションを含む、さまざまな演算プラットホームでの使用に適している。従って、演算プラットホーム上で本発明を実行するには、並はずれた演算能力は必要とされない。
【0019】
図3は、図1のシーンの、ぼやけた画像を示す、図1からのシーンのコンピュータディスプレイ画像である。図3は、図1のシーンを表すデータのみで開始して、生成可能である。図3のぼやけた画像は、例えばMIP‐マッピングと呼ばれる処理を通して、もしくは、所定のシフトを用いて、鮮明な画像をそれ自体にシフトさせることにより、生成されてもよい。例えば、ぼやけた画像は、鮮明な画像を、それ自体の上に、水平および垂直方向の双方に、1ピクセルだけオフセットさせて貼り付ける、オフ−スクリーン貼付処理により生成されてもよい。当業者には、ぼやけた画像を提供する他の手段が想起されることだろう。例えば、MIP−マッピング処理は、グラフィックプロセッサが、シーン内のオブジェクトのために、様々なレベルの緻密さで初期描画テクスチャの複数のコピー(MIPマップ)を製作し、その後、看者からオブジェクトまでの距離に従ってMIPマップを選択する、テクスチャマッピング技術を含んでいる。
【0020】
処理されるシーンのための、鮮明な画像(図1)とぼやけた画像(図3)が得られた後、通常、コンピュータディスプレイシステムのグラフィックスプロセッサにより用いられる、zバッファデータが利用される。上述のように、zバッファは、通常、可視面決定とも呼ばれる隠面消去のために、コンピュータ画像処理環境で用いられるものである。zバッファは、レンダリングされる画像内の各ピクセルのための距離データを含んでいる。隠面消去は、コンピュータにより生成されたシーン内のオブジェクトのレンダリング中に、オブジェクト上の各ポイントが、zバッファ内のそのピクセルの、看者に対する現在距離より遠い画像ピクセル位置に位置するか否かの判断を含んでいる。オブジェクト上のポイントが、そのピクセル位置の、現在のzバッファ値より遠くにある場合、そのオブジェクトのピクセルポイントは、レンダリングされた画像では可視とはならず、グラフィックプロセッサによって描画されないことになる。
【0021】
zバッファ隠面消去処理技術は、例えば、コンピュータ グラフィックス(Computer Graphics):J.フォリー(J.Foley)他著、「プリンシプスズ アンド プラクティス(Principles and Practice)」、第二版(1996)、(アディソンウェズレー出版社(Addison−Wesley Publishing Company,Inc.))、セクション15.4、668−672頁の「zバッファアルゴリズム(The z−Buffer Algorithm)」で説明されている。
【0022】
本発明は、zバッファピクセル距離データを利用し、鮮明な画像とぼやけた画像を、zバッファデータから作成される画像に結合させることで、いわゆるアルファブレンド画像を作成する。当業者は、コンピュータディスプレイ画像が、通常、3つのカラーチャンネルの情報を、アルファチャンネルの情報に結合させて、作成されることを理解するだろう。カラーチャンネルは、シーンの色彩情報を表す、赤、緑、そして青のピクセル画像データを含んでいる。データのアルファチャンネル(αチャンネル)は、完全な不透明から透明までの範囲で、画像ピクセルの不透明さを表している。ほとんどの処理システムおよびカラーモデルにおいて、これらの4つの画像データチャンネルの各々は、各ピクセルのための8ビットの情報で表されている。
【0023】
当業者は、「アルファブレンディング」処理を通して、画像を合成する技術をよく承知しているだろう。アルファチャンネルの不透明データは、適切な半透明性値で「アルファブレンデッド」画像を生成させるために、赤、緑、青の画像成分のブレンディングの制御に使用されている。すなわち、従来のシステムでは、画像情報の赤、緑、青のカラーチャンネルは、アルファチャンネル不透明情報と共に、一緒に合成され、RGBA色彩情報モデルと呼ばれるものを生成する。従って、シーンは、各ピクセルのための赤、緑、青の画像情報およびアルファチャンネル情報を明示することで、グラフィックプロセッサにより、レンダリングの目的のために完全に描写されることになる。
【0024】
アルファブレンディングの合成プロセスは、例えば、コンピュータグラフィックス(Computer Graphics):J.フォリー(J.Foley)他著、「プリンシプスズ アンド プラクティス(Principles and Practice)」、第二版(1996)、(アディソンウェズレー出版社(Addison−Wesley Publishing Company,Inc.))、セクション17.6(「画像合成(Image Compositing)」)835−8435頁で説明されている。合成プロセスの別の記述は、オスマー(Othmer)他に対する、米国特許第5,379,129号明細書、「マスク画像を用いたソース画像と目的画像の合成方法(Methodfor Compositing a Source and Destination Image Using a Mask Image)」において説明されている。
【0025】
本発明は、鮮明な画像とぼやけた画像のブレンディングを制御するために、アルファチャンネルとしてzバッファデータを用いる、鮮明な画像、ぼやけた画像、およびzバッファデータの合成プロセスを含んでいる。さらに、とりわけzバッファデータは、看者パースペクティブからの各ピクセルの距離に従い、ぼやけた画像の半透明性を決定するために用いられている。好ましい実施例では、zバッファ内のあらゆる黒い(不透明な)ピクセルのために、ぼやけた画像データの完全な(100%)値が、鮮明な画像との合成に用いられている。zバッファのあらゆる白い(透明な)ピクセルに対しては、ぼやけた画像は全く(ゼロパーセント)鮮明な画像と合成されていない。100%から0%の間のグレーの色合いのピクセルのために、鮮明な、および、ぼやけた画像は、対応する比例した割合で、一緒に合成される。従って、他方の画像と合成される他方の画像の割合の決定には、線形補間が用いられている。このようにして、シーン画像のzバッファデータは、被写界深度アルファチャンネルとして用いられている。
【0026】
図4は、本発明に従う、アルファチャンネルとしてのzバッファ画像データを用いた、図1からの無限遠まで鮮明な画像と、図3のぼやけた画像のアルファブレンディングの結果を示す、図1からのシーンのコンピュータのディスプレイ画像である。本発明に従うブレンドされた画像を生成させるために、合成処理のために、鮮明な画像、ぼやけた画像、およびzバッファデータの組み合わせを選択することにより、従来のアルファブレンディング処理が使用可能である。図4において、前景にある階段は、鮮明で明瞭であり、さらに、背景 (看者から、より遠く)にある階段は、それほど鮮明でも明瞭でもなく、かなりぼんやりしていることに、留意すべきである。これは、より写実的であり、実際のシーンの典型的な写真で見られる被写界深度により近いものである。
【0027】
図5は、ブレンディングの制御のための図2のzバッファ画像データを用いた、図1の無限遠まで鮮明な画像と、図3のぼやけた画像とのブレンディングをグラフィック的に表したものである。従って、図5は、図2の8ビットのzバッファ画像506に結合された(合成された)、図1の無限遠まで鮮明な画像502および図3のぼやけた画像504が、被写界深度情報が加えられた、図4の画像508を生成する様子を表している。
【0028】
「逆」被写界深度画像は、本発明の同じ技術を用いて、容易に作成可能である。ここで用いられる逆画像は、シーン内の、看者に対してより近くにあるオブジェクトが、よりあいまいで明瞭さが少なく、逆に看者からより遠くにあるオブジェクトが、より鮮明で明瞭なものとなる画像を指す。これは、写真で通常見られるものの反対となるので、逆被写界深度画像と呼ばれている。
【0029】
逆被写界深度画像は、逆zバッファデータの組を利用することにより、容易に作成され得る。すなわち、黒い(不透明な)zバッファピクセルを白く(透明)に変換し、白いzバッファピクセルを黒に変換すると、逆zバッファデータが生成されることになる。それに応じて、中間的なグレーの色合いも、同様に反転される。逆被写界深度データが、鮮明な画像およびぼやけた画像と合成されると、逆シーン画像が生成される。当業者は、逆画像の中間値が、黒から白に変換されるzバッファ値の線形補間により決定されることを理解するだろう。
【0030】
図6は、逆8ビットzバッファデータを示す、図1からのシーンのコンピュータディスプレイ画像である。この点において、図6は、図2の反転画像である。明らかに図5では、看者のより近くにあるオブジェクトは黒く(不透明に)示され、逆に看者からより遠くにあるオブジェクトは白く(透明に)示されている。逆被写界深度データは、画像のために焦点の変化されたポイントを示して一時的な効果を生じさせる場合に役に立つものとなる。
【0031】
図7は、図1の鮮明な画像を図3のぼやけた画像に結合し、焦点ポイントが変わったことを示すために、アルファチャンネルとして、図6からの逆zバッファ画像データを用いて合成した結果を示す、図1からのシーンのコンピュータディスプレイ画像である。図7では、前景にある(看者に対してより近い)オブジェクトは、ぼやけて不明瞭な姿で示され、逆に背景にある(看者に対してより遠い)オブジェクトは、鮮明でより明瞭な姿で示されている。焦点パースペクティブという意味では、図7は、図4の「正反対」と特徴づけられることになろう。
【0032】
逆zバッファデータで生成可能な、有用な効果の1つは、「ラック焦点」効果と呼ばれているもので、効果的にシーン画像内の焦点ポイントを変えるために、異なったzバッファデータの組を用いることで、シーンの連続コンピュータ画像が作成可能となる。例えば、図1のようなシーンの無限遠まで鮮明な画像が、図2のためのzバッファデータで始まり、図6のためのzバッファデータで終わるように、その間の中間zバッファデータも含めて、リアルタイムにzバッファデータと連続的に結合されるのである。
【0033】
図8は、図2と図6との間の、中間zバッファデータから生成された、中間zバッファ画像を示している。図8では、コントラストが減少する画像が効果的に作成されている。図8を通して、鮮明な画像とぼやけた画像(それぞれ図1と図3)が、図2から始まり図6で終了する(逆もまた同様)、連続したzバッファ画像の各々とアルファブレンドされる(合成される)場合、その結果生成された連続画像を見ている者は、そこで焦点が変化してゆくように見えるだろう。すなわち、連続した合成画像の看者は、図2から図6までのzバッファ画像との合成画像に対応して、焦点ポイントがシーン内の前部から後部へ、変化してゆく様子を「見る」ことになる。連続した合成画像の、任意の1画像内の焦点ポイントは、当該合成画像のためのレファレンスのzバッファフレーム(画像位置)に対応していることは明らかである。このように、図4と図7との間の効果中間物は、図8により示されるように、中間逆zバッファデータの組を用いて生成される。
【0034】
従って、上述のように、一連の合成シーン画像は多重中間的画像を用いて作成され、その結果、一連のシーン画像は、看者の焦点を、前景(図4)から背景(図7)まで、その間のポイントを通って、滑らかかつ徐々に「歩かせる」ことになる。zバッファからの開始ポイント画像(図4など)、および、zバッファからの終了ポイント画像(図7など)は、看者に対する滑らかな変化を確実にするために、一定のグラフィカルな間隔で、多重中間合成画像を生成させるために用いられてもよい。例えば、開始画像と終了画像の間に、一定間隔で中間zバッファ画像を作成するために、線形補間を使用してもよい。一連の中間zバッファ画像は、鮮明な画像、および、ぼやけた画像と、順番に合成される。プロセッサメモリ内の多重中間画像用のピクセルデータを維持するために、一時的なデータストレージを用いてもよい。上述したように、こうした画像は、従来の画像処理ハードウェアを用いて、リアルタイムに作成可能であろう。本発明の教示を用いて、他の視覚効果が生成されることもある。
【0035】
本発明の技術で生成され得る他の視覚効果は、減少彩度を伴う画像を提供することである。例えば、ぼやけた画像(図3に示されるぼやけた画像など)の青チャンネルの色は、大気中のもやの効果を引き出すために、頂点カラーの操作により、青色スペクトル、もしくは、いかなる他の色にもシフトさせることが出来る。当業者は、こうした操作を実行するために、従来のグラフィック処理システムをどう用いるか承知しているだろう。同様に、白黒のぼやけた画像を作成するには、ぼやけた画像の赤チャンネルデータを、ぼやけた画像の緑チャンネルデータおよび青チャンネルデータへとコピーすればよい。図9は、こうした処理により生成された、白黒のぼやけた画像の一例である。結果として生成された白黒のぼやけた画像は、シーンの遠方領域内では、それほど飽和状態にならない写実的な画像を生成するために、無限遠まで鮮明な画像とアルファブレンドされてもよい。図10は、図1などの無限遠まで鮮明な画像を、図9などの白黒のぼやけた画像とアルファブレンドすることにより生成された、減少彩度画像の一例である。
【0036】
ハードウェア構成
グラフィックス処理能力を伴う多種のコンピュータ構成は、上述した改良されたグラフィック画像を、リアルタイムに提供するために使用可能である。こうした構成は、情報処理システム、パーソナルコンピュータ、およびテレビゲームシステムを含んでいる。
【0037】
上述した処理では、上述したように、RGBAデータを作り出すための画像データを合成し、さらに隠面消去用のzバッファデータを利用する、コンピュータグラフィックプロセッサのすぐに利用可能なハードウェア部品を使用してもよい。本発明では、グラフィックプロセッサ動作は、アルファブレンディングチャンネルとしてzバッファデータを用いており、それによって、上述の処理がリアルタイムに実行可能となる。リアルタイム処理は、ここで説明されているように、画像処理の実行を遥かに柔軟性に富んだものとするため、ゲームプレーなどのインタラクティブなアプリケーションに適することになる。あるいは、本発明の処理は、ここで説明される画像処理の実行に特に適するハードウェアとソフトウェアの組み合わせで実行可能である。
【0038】
図11は、本発明に従うグラフィックス処理を提供する、情報処理もしくはテレビゲームシステム1100の概略図である。テレビゲームシステム1100は、テレビゲームメインユニット1110と、メインユニット1110上のそれぞれのコントローラインタフェース1125を経由して、メインユニット1110と通信可能に接続されている1つ以上のコントローラ1120を含んでいる。各コントローラ1120は、ユーザーインストラクションの命令を受ける入力装置を備えている。
【0039】
テレビゲームシステム1100は、メインユニット1110と通信可能に接続されたオーディオビジュアル(AV)出力装置1135と、インターフェイスで接続されている。AV出力装置1135は、メインユニット1110から受取った信号に従って画像データを表示するための、ディスプレイ画面1140を含んでいる。また、AV出力装置1135は、メインユニット1110から受取った信号に従ってオーディオデータを出力するための、1つ以上のサウンドスピーカー114を含んでいる。
【0040】
メインユニットは、磁気フロッピー(登録商標)ディスク、光CD−ROMディスク、CD−Rディスク、CD−RWディスク、DVDディスクなどのような、ゲームプログラム格納媒体を受け取るように構成された、プログラムリーダー1150を含んでいる。ゲームプログラム格納媒体は、テレビゲームなどのアプリケーションプログラムを、メインユニット1110に供給するための記録媒体である。メインユニット1110は、情報を処理し、ゲームプログラム格納媒体上にあるプログラムインストラクションを実行するよう構成されている。メインユニット1110は、プログラムインストラクションに従い、AV出力装置1135に画像および音響データを出力する。メインユニットは、以下でさらに詳細に述べるように、コントローラ1120から、ユーザ入力を受け取る。
【0041】
図12は、図11に示されたテレビゲームエンターテインメントシステムの、代表的ハードウェア構成を示すブロック図である。テレビゲームシステム1100(図11)は、メインメモリ1205に関連する、中央演算処理装置(CPU)1200を含んでいる。CPU 1200は、OS−ROM 1260に格納された、もしくは、ゲームプログラム格納媒体からメインメモリ1205へと移される、プログラミングステップの制御の下で作動する。CPU 1200は、プログラミングステップに従い、情報の処理ならびにインストラクションの実行をするよう構成されている。
【0042】
CPU 1200は、専用バス1225を経由して、入力/出力プロセッサ(IOP)1220と通信可能な状態で接続されている。IOP 1220は、CPU 1200を、オペレーティングシステムなどのようなプログラムインストラクションを格納した不揮発性メモリから成る、OSROM 1260と接続させる。インストラクションは、メインユニット1110(図11)の始動時に、IOP 1220経由でCPUに移されるのが望ましい。
【0043】
CPU 1200は、専用バス1215経由で、グラフィックス処理装置(GPU)1210と通信可能な状態で接続されている。GPU 1210は、CPU1200から受け取るインストラクションに従って、描画処理を実行し、画像をまとめるよう構成された描画プロセッサである。例えば、GPU 1210は、CPU 1200によって生成され、CPU1200から受け取った表示リストに基づいてグラフィックス画像をレンダリングしてもよい。GPUは、グラフィックスデータを格納するためのバッファを含んでいてもよい。GPU 1210は、AV出力装置1135(図11)に、画像を出力する。
【0044】
IOP 1220は、IOPメモリ1230内に格納されたインストラクションに従い、CPU1200と多数の周辺コンポーネントとの間の、データ交換を制御する。周辺コンポーネントは、1つ以上のコントローラ1120、メモリカード1240、USBインタフェース1245、およびIEEE 1394シリアルバス1250を含んでいてもよい。さらに、バス1255は、IOP 1220と通信可能な状態で接続されている。バス1255は、OSROM 1260、サウンドプロセッサユニット(SPU)1265、光ディスク制御ユニット1275、およびハードディスクドライブ(HDD)1280を含む、数個の追加コンポーネントにリンリされている。
【0045】
SPU 1265は、CPU 1200とIOP 1220から受け取るコマンドに従って、音楽、音響効果、声などのサウンドを発生させるよう構成されている。SPU 1265は、波形データを格納する、サウンドバッファを含んでいてもよい。SPU 1265は、サウンド信号を発生させ、その信号をスピーカー1145(図11)に送信する。
【0046】
ディスク制御ユニット1275は、例えば、磁気フロッピー(登録商標)ディスク、光CD−ROMディスク、CD−Rディスク、CD−RWディスク、DVDディスクなどのようなリムーバブル格納媒体を受け入れる、光ディスクドライブから成るプログラムリーダー1150(図11)を制御するよう構成されている。
【0047】
メモリカード1240は、CPU1200がデータを書き込んだり、格納したりする、格納媒体を備えていてもよい。メモリカード1240は、IOP 1220に対する挿入および抜き取りが可能であることが好ましい。ユーザは、メモリカード1240を用いて、ゲームデータを格納もしくは保存可能である。さらに、テレビゲームシステム1100には、ゲームデータを書込および格納し得る、少なくとも1つのハードディスクドライブ(HDD)1280が設けられているのが好ましい。IEEE 1394シリアルバス1250、もしくはユニバーサルシリアルバス(USB)1245インタフェースなどのデータ入出力インタフェースは、テレビゲームシステム1100へのデータ入出力転送を可能にするために、IOP 1220と通信可能な状態で接続されているのが望ましい。
【0048】
ここで、本発明に従うディスプレイ画像生成と関係する処理を、より良く理解するために、画像処理システムのさらに詳細な記述を提供する。
【0049】
図13は、家庭用テレビゲームコンソールにインストールされた画像処理システムの配置を示している。画像処理システムは、実質的に、家庭用テレビゲーム機、マイクロコンピュータ、もしくはグラフィックコンピュータ装置における使用のために設計されている。図13の実施例の画像処理システムでは、オペレータは、特定フォーマットでデータを格納するために本発明に従って設計された光ディスク(例えば、CD−ROM)などの記録媒体から、引き出される関連データ(例えば、ゲームプログラム)を制御することにより、ゲームをすることが可能となる。
【0050】
より詳細に述べると、図13に示される実施例の画像処理システムは、中央演算処理装置(CPU)1304およびその周辺装置(周辺装置コントローラ1306を含む)を有するメインコントローラモジュール1302、実質的に、フレームバッファ1326上への画像描画用のグラフィックス処理ユニット(GPU)1324により構成された、グラフィックスモジュール1320、サウンド処理ユニット(SPU)1342、および音楽もしくは効果音を放出するための他の装置を備えたサウンドモジュール1340、再現データの解読用の補助メモリ手段として機能する光(例えば、CD−ROM)ディスクドライブ1362を制御する光ディスクコントローラモジュール1360、コントローラー1386からのコマンド信号の入力、サブメモリ(もしくは、メモリカード)1384上のゲームパラメータ設定への情報の入出力を制御するための通信コントローラモジュール1380、および、メインコントロールモジュール1302から、通信コントローラモジュール1380へと接続されたメインバス1399から成っている。
【0051】
メインコントローラモジュール1302は、CPU 1304、インタラプト動作、時間系列、メモリ動作、およびダイレクトメモリアクセス(DMA)信号の送信を制御する周辺装置コントローラ1306、例えば、2メガバイト(2MB)のRAM、および、メインメモリ1308、グラフィックスモジュール1320、およびサウンドモジュール1340の操作用のオペレーティングシステムを含むプログラムを格納した、例えば512キロバイトのメモリから成るROM1310を備えたメインメモリ1308、から成っている。CPU 1304は、システム全体を制御するために、ROM 1310内に格納されたオペレーティングシステムを実行する32ビット縮小命令セット(RISC)コンピュータであってもよい。CPU1304はまた、実記憶装置制御用のコマンドキャッシュおよびスクラッチパッドメモリを含んでいる。
【0052】
グラフィックスモジュール1320は、座標変換処理を実行する座標演算のための演算コプロセッサを有するGTE 1322、CPU 1304からのコマンド信号に対応して画像を描画するためのGPU 1324、例えば、GPU 1324により提供されるグラフィック・データの格納のための1メガバイト(1MB)のメモリを有する、フレームバッファ1326、および、離散的コサイン変換などの直交変換処理により、圧縮およびコード化されたコード化画像データをデコードするための、画像デコーダ1328(以下、“MDEC”と称する)から成る。GTE 1322は、多数の四則演算を並列に実行し、座標変換、および、固定小数点表記処理の光源、ベクトル、およびマトリクスの演算の高速動作を行う、CPU 1304用のコプロセッサとして動作する並列プロセッサを有していてもよい。
【0053】
より詳細に述べると、GTE 1322は、各三角ポリゴンが一色で描かれる場合、フラットシェーディングで、通常1秒あたり150万ポリゴンの座標演算を実行可能である。これにより、画像処理システムは、CPU1304への負荷を最小にし、その結果、より高速な座標演算が実行可能となる。GPU 1324は、CPU 1304からのポリゴン描画コマンドに応答して、フレームバッファ1326にポリゴンもしくはグラフィックを描画する。GPU 1324は、1秒あたり最大36万ポリゴンを描画可能で、CPU 1304から独立した、フレームバッファ1326のマッピング用の、二次元アドレス空間を有している。
【0054】
フレームバッファ1326は、GPU 1324からの描画データの引き出し、もしくはメインメモリ1308からのデータ転送、および表示のためのデータリリースを、同時に実行する、いわゆるデュアルポートRAMから成っている。さらに、フレームバッファ1326は、16ビットフォーマットで、水平1024個、垂直512個のピクセルマトリクスを構成する、1メガバイトの容量を持つメモリを含んでいてもよい。フレームバッファ1326の容量内のあらゆる所望の領域も、ディスプレイなどのビデオ出力手段1330に提供可能である。
【0055】
ビデオ出力として提供される領域に加え、フレームバッファ1326は、GPU 1324の動作と共に、グラフィックもしくはポリゴンの描画の間にリファレンスとして用いられるCLUTの格納のためのカラールックアップテーブル(以下では、“CLUT”と呼ぶ)領域、および、GPU 1324により描かれたグラフィックもしくはポリゴン上に、座標変換およびマッピングされるテキスチャ・データの格納のためのテキスチャ領域を含んでいる。CLUTおよびテキスチャ領域の双方は、表示領域の変化に依存したサイズで、ダイナミックに変化することが出来る。その結果、フレームバッファ1326は、ディスプレイ上の領域に描画アクセスし、高速DMAは、メインメモリ1308への入出力転送を実行することが出来る。GPU 1324はまた、フラットシェーディングに加え、ポリゴンの色が頂点カラーの補間によって決定されるグローシェーディング、さらに、テキスチャ領域から選択されたテキスチャがポリゴンに貼付されるテクスチャマッピングも実行可能である。グローシェーディングもしくはテクスチャマッピングのために、GTE 1322は、1秒あたり最大50万のポリゴンの速さで、座標演算を実行可能である。
【0056】
MDEC 1328は、CPU1304からのコマンド信号に応答して、CD−ROMディスクから引き出し、およびメインメモリ1308内に格納された、静止画もしくは動画データをデコードし、さらに、次に再びそれをメインメモリ1308に格納する。より詳細に述べると、MDEC 1328は、カラー静止画圧縮標準(JPEGとして知られている)、または記憶媒体のための動画エンコード標準(MPEGとして知られているが、この実施例ではフレーム内圧縮用)の圧縮データを展開するために、高速で逆離散コサイン変換処理(逆DCTと呼ぶ)を実行する。再現された画像データは、GPU 1324経由でフレームバッファ1326へ送られ、それによって、GPU 1324により描かれた画像の背景として使用可能である。サウンドモジュール1340は、音楽もしくは効果音を生成させるために、CPU 1304からのコマンドに応答するサウンドプロセッサユニット(SPU)1342、例示のために、そして制限のためには必要ではない、CD−ROMから引き出された、声もしくは音楽サウンドのオーディオデータ、音源データの格納のための512キロバイトを有するサウンドバッファ1344、および、SPU 1342により生成された音楽や効果音を放出するための、サウンド出力手段として動作する、スピーカー1346、から成る。
【0057】
SPU 1342は、16ビットのオーディオデータから変換された4ビットのADPCMフォーマットのオーディオデータを復元するための、適応差分パルス符号変調(ADPCM)信号デコード機能、音楽もしくは効果音を放出するために、サウンドバッファ1344内のサウンドデータを復元する再生機能、および再生のためにサウンドバッファ1344内に格納された、オーディオデータを変調するための変調機能を備えている。さらに詳細に述べると、SPU 1342は、ループと時間係数の動作パラメータが自動的に変更され、CPU1304からの信号によって作動する、24の音声を備えたADPCM音源を有している。SPU 1342は、サウンドバッファ1344でマッピングされたそのアドレス空間を制御し、CPU1304からサウンドバッファ1344まで、キーオン/キーオフもしくはモジュレーションの情報を伴った、ADPCMデータの直接伝送によるオーディオデータの再生を実行可能である。従って、サウンドモジュール1340は、CPU 1304からのコマンド信号を受け取ると、サウンドバッファ1344内に格納されたオーディオデータに対応した、音楽もしくは効果音を生成するサンプリング音源として用いられる。
【0058】
光ディスク制御モジュール1360は、光ディスクもしくはCD−ROM 1363から、プログラムもしくはデータを引き出すためのディスクドライブ1362、エラー修正コード(ECC)を伴って、コード化され、格納された、プログラムもしくはデータをデコードするディスクデコーダ1364、および、光ディスクから引き出されたデータを格納する、例えば32キロバイト(32KB)のディスクバッファ1366を含んでいる。そして、ディスクドライブ1362、デコーダ1364、および、ディスクからデータを読取る(また、任意にディスクに書込む)ための他のコンポーネントを含む光ディスク制御モジュール1360は、CD−DAおよびCD−ROM XAを含む、他のディスクフォーマットをサポートするよう装備されている。デコーダ1364はまた、サウンドモジュール1340の部材として働く。DVD−ROM、フロッピー(登録商標)ディスクなどのような、他のフォーマットおよび媒体も、ディスクドライブサブシステム1360によってサポートされていてもよい。
【0059】
ディスクドライブ1362により、ディスクから引き出されたオーディオデータは、(CD−ROM XAディスク上へ格納するための)ADPCMフォーマットに制限されることはないが、アナログ/ディジタル変換により生成された、共通PCMモードとなるだろう。ADPCMデータは、16ビットのディジタルデータから演算された4ビットのディファレンシャル形式で記録されてもよく、先ずデコーダ1364でエラー修正およびデコードされ、SPU 1342に送られてD/A変換された後、再生のためにスピーカー1346へと供給される。PCMデータは、16ビットのディジタル信号形式で記録されてもよく、スピーカー1346を駆動するため、デコーダ1364によりデコードされる。デコーダ1364のオーディオ出力は、先ずSPU 1342に送られてSPU出力にミックスされ、オーディオ再生のための残響ユニットを通して放出される。
【0060】
通信制御モジュール1380は、メインバスに沿ってCPU 1304との通信を制御する通信制御装置1382、オペレータによるコマンド入力のためのコントローラ1386、および、ゲーム設定データの格納のためのメモリカード1384を含む。コントローラ1386は、オペレータのインストラクションをアプリケーションソフトウェアに伝送するインタフェースを提供するが、ユーザによるインストラクションの入力のためのコマンドキーを含んでいてもよい。コマンドキーに対応するコマンドは、通信制御装置1382によって予め決められたように、1秒あたり60回のスピードでの同期モードで通信制御装置1382へ提供される。その後、通信制御装置1382は、キーコマンドをCPU 1304に伝送する。
【0061】
コントローラ1386は、マルチタップポートを通して、多数のコントローラに相次いで接続するために、その上に配置された2つのコネクタを有し、従って、オペレータからコマンドを受け取ると、CPU 1304は、ゲームプログラムにより決定されている、対応する処理動作を実行し始める。プレーされるゲームの初期設定が要求されると、CPU1304は、関連データを通信制御装置1382へ伝送し、そこで、データは順番にメモリカード1384へ格納される。メモリカード1384は、メインバス1399から分離されていて、メインバスが通電されている間、自由にインストールしたり、取外したりすることが出来る。これにより、ゲーム設定のデータは、2つ以上のメモリカード1384に格納可能となる。
【0062】
本発明のこの実施例のシステムにはまた、16ビットのパラレル入出力(I/O)ポート1396、および、非同期シリアル入出力(I/O)ポート1398が設けられている。本システムは、パラレル入出力ポート1396で、あらゆる他の周辺装置に接続可能であり、さらに、通信のために、シリアル入出力ポート1398で、他のテレビゲーム機に接続可能である。
【0063】
メインメモリ1308、GPU 1324、MDEC 1328、およびデコーダ1364間では、プログラムの読込み、テキストの表示、もしくはグラフィックの描画のため、大量の画像データを高速で転送する必要がある。この実施例の画像処理システムは、CPU 1304を用いることなく、メインメモリ1308、GPU 1324、MDEC 1328、およびデコーダ1364間のダイレクトデータ転送、即ちDMA転送を実現するのに適したものとなっている。データ転送は、むしろ、周辺装置コントローラ1306の制御下で実行される。その結果、データ転送の間のCPU 1304への負荷はかなり減少し、従って、高速データ転送動作が確保される。
【0064】
本発明に従って構成されたテレビゲーム機を用いると、CPU 1304は、起動されるとすぐに、OS ROM 1310に格納されたオペレーティングシステムを実行可能となる。オペレーティングシステムが実行されることにより、グラフィックモジュール1320およびサウンドモジュール1340の動作は、CPU1304によって正確に制御される。さらに、オペレーティングシステムが起動されると、CPU1304は、全システムを初期化し始め、各動作をレビューし、その後、光ディスクに格納した所望のゲームプログラムを実行するため、光ディスク制御モジュール1360を作動させる。ゲームプログラム実行の間、CPU 1304は、オペレータによるコマンド入力に対応して、画像の表示および音楽もしくは効果音の再生を制御するため、グラフィックモジュール1320およびサウンドモジュール1340を作動させる。次に、本発明の画像データ処理装置による、ディスプレイ上への画像データの表示について説明する。GPU 1324は、ビデオ出力手段1330、もしくは、例えば、CRTやフラットパネルディスプレイ装置のようなディスプレイ上に、フレームバッファ1326によって生成される、所望のグラフィックモデルの領域を表示する。この領域を、以下では表示領域と呼ぶ。グラフィックモデルは、シーン内のオブジェクトが置かれる、座標空間もしくは仮想世界に一致しており、さらに、カナダ、オンタリオ州トロントのエリアス ウェーブフロント(Alias Wavefront)からの「マヤ(Maya)」、もしくは、カナダ、ケベック州モントリオールの オートデスク(Autodesk)社の「ディスクリート(Discreet)」部門からの「3Dステューディオマックス(3D Studio Max)」製品、もしくは、シーン生成用の他の適当な描画またはグラフィックアプリケーションプログラムなどのモデリングプログラムにより生成されてもよい。
【0065】
図14は、RGBAの多重スペクトルカラーモデル表示のための、代表的なピクセル1402のデータを示している。ピクセル1402は、4つの異なるデータチャンネルからの情報を格納する。RGBAカラーモデルでは、これら4つのチャンネルは、赤1404、緑1406、青1408、および、アルファ1410から成る。図14に示した各データチャンネルは、図の左側が最上位ビット(ビット7)で、右側が最下位ビット(ビット0)となる、「[7、6、5、...0]」という表記を含み、これは1つのピクセルのための4つのデータチャンネルの各々が、8ビットの情報から成ることを示している。ピクセル情報のための他のデータワード長が使いられてもよい。ディスプレイシーン内の各ピクセル1402のための赤1404、青1406、 緑1408、およびアルファチャンネルデータ1410は、フレームバッファ1326(図13)内に格納される。
【0066】
従って、それぞれ8ビットからなる、赤1404、緑1406、および青1408のチャンネルは、画像カラー情報を提供する。ピクセル画像のいかなるカラーポーションも、赤チャンネル1404、緑チャンネル1406、および青チャンネル1408のデータの組み合わせにより表示可能である。また、アルファチャンネル1410も、8ビットから成り、対応するピクセル画像の不透明さを、不透明から透明までの範囲で表示する。従って、各ピクセル1402は、どんなRGBAカラーモデルシステムに対しても、これらの4つのチャンネルの組み合わせとして、フレームバッファの中に格納される。
【0067】
図15は、zバッファからの単一エントリー1502を表わす。好ましい実施例では、zバッファは、ゲームコンソール1110(図11)、コンピュータ・プロセッサシステム(図12)、もしくは画像プロセッサ(図13)として代替的に描かれた、画像処理システムの一部である。zバッファは、隠面消去に用いられ、表示シーン内に描かれるオブジェクトの位置決定に対応している。従って、zバッファピクセル情報のデータワード長は、通常、画像処理システムで実行された位置演算に用いたデータと、同じデータワード長となる。好ましい実施例では、zバッファは、32ビットのデータワード長を含んでいる。これは、図15のzバッファ1502内の「[31 30 29 28 27 26 25 24 23 22 21 ... 3 2 1 0]」という表記で示されている。
【0068】
上述のように、コンピュータディスプレイ上に描画される各ピクセルは、zバッファ内の対応するデータエントリーに関連する。図15は、これらのピクセルのうちの1つの、zバッファデータエントリーを表している。本発明に従って、zバッファからのデータは、フレームバッファからのピクセルベースのカラーピクセル情報と、アルファブレンドされる(合成される)。各チャンネルのピクセル情報は8ビットのワード長を有するのに対し、zバッファ情報は32ビットのワード長を有するため、本発明に従った処理では、zバッファからの8ビットのデータワードのみが、フレームバッファからのRGBA画像情報の8ビットピクセルワードの各々と合成されるように、zバッファ情報を切り詰める。好ましい実施例では、各zバッファピクセルからの最上位8ビット(MSB)が、フレームバッファからの対応する各ピクセル情報と合成される。
【0069】
図16は、代表的なフレームバッファ環境を示している。図16に示されるように、好ましい実施例では、フレームバッファ(図13に示したフレームバッファ1326など)は、1つ以上の画像データのフレームを格納する。特に、図16では、フレームバッファ1326は、第1フレームデータアレイ1602、および第2フレームデータアレイ1604用のデータストレージを含んでいる。こうした構成は、インターレースディスプレイ装置でのような、ビデオディスプレイの連続フレームを表示するために、通常用いられているものである。第1のフレームアレイ1602は多数のピクセルから成り、その内の、ピクセル1612、1614、1616が示されている。同様に、第2のフレームアレイ1604は、ピクセル1622、1624、1626を含んでいる。これらのフレームアレイの各々は、いかなる所与の時間でも、画像全体を格納し、グラフィックスプロセッサ装置内の複数のメモリ位置を含む。
【0070】
フレームバッファ1326のフレームアレイ1602、1604は、GPU 1324および図13のシステムに関して上述したビデオ出力1330から成る装置のような、ハードウェアスキャンアウト装置1680に接続される。スキャンアウト装置は、フレームバッファアレイ1602、1604の1つから、ピクセル情報を選択的に読込み、それを物理的表示用ディスプレイ1690に伝送する。表示されるフレームバッファアレイを構成するピクセルは、オンスクリーン画像と呼ばれ、一方、表示されないフレームバッファアレイのピクセルは、オフスクリーン画像と呼ばれる。フレームバッファアレイ1602、1604は、また、メモリの他の領域から伝送されるピクセル情報を格納したり、もしくは、メモリの他の領域にピクセル情報を書込むことが出来る。
【0071】
処理
図17は、上に示された、強調された被写界深度情報を伴う画像を生成するために、図11〜図13に示した画像処理システムによって実行される処理を示す、フロー図である。フロー図ボックス番号1702によって表される、第1の処理作業では、画像処理システムは、処理されるシーンに対する、無限遠まで鮮明な画像データを生成し、そのシーンには、座標(空間)システム内に位置するオブジェクトが描出される。鮮明な画像は、従来のレンダリングエンジンを通して描字されてもよい。シーンの鮮明な画像のためのデータは、カナダ、オンタリオ州トロントのアリアスウェーブフロント(Alias Wavefront)からの「マヤ(Maya)」製品、もしくは、オートデスク(Autodesk)社の、(カナダ、ケベック州モントリオールの)「ディスクリート(Discreet)」部門からの「3Dステューディオマックス(3D Studio Max)」製品などの、従来の立体(3D)モデルプログラムから生成されてもよい。そうでなければグラフィックス画像処理システムに受け取られる。レンダリングソフトウェアは、本来、描かれたオブジェクトのための、zバッファデータを本質的に生成するものである。
【0072】
図17のボックス番号1704として示される、次の処理作業では、システムはぼやけた画像データを生成する。上述のように、フレーム画像を、1ピクセル、オフセットし、50%透明にして、それ自体の上にコピーすることによりこの作業は実行可能であるが、代替的な方法も、所望されるように用いられてよい。ぼやけた画像データは、グラフィックプロセッサ、もしくは関連する演算装置の、一時的なデータストレージ記憶装置、またはレジスタに格納されてもよい。本発明では、ぼやけた画像は、鮮明な画像から得られる。上述のように、画像処理システムは、鮮明な画像データを入力として受け取り、それを出発点として、本システムは、その鮮明な画像を、横方向に1ピクセル移動させ、縦方向に1ピクセル移動させた後、好ましくは50%の不透明さで、それ自体の上にコピーする、ピクセルシフト操作を用いて、ぼやけた画像を生成することが出来る。ぼやけた画像は、グラフィックス処理システムのストレージ内に一時的に格納されてもよい。例えば、図16に示された2画像フレームバッファでは、1つめの画像記憶をぼやけた画像のために用い、そして、他の画像記憶を鮮明な画像のために用いてもよい。
【0073】
次の作業(ボックス1706)では、切り詰めたzバッファデータの取得である。上に説明したように、レンダリングソフトウェアを備えた、ほとんどの従来のグラフィックス処理システムは、シミュレートされたシーン内のオブジェクトの位置処理に適した精度を伴う隠面消去のために、慣例的にzバッファデータを生成する。従って、zバッファデータは、本発明に従って使用し得る、ほとんどの従来の画像処理プロセッサから、容易に得ることが出来るはずである。特にモデリング化プログラムが画像データを生成する場合、プログラムが無限遠まで鮮明な画像を生成すると、必ずzバッファデータを発生させることに、留意すべきである。
【0074】
zバッファデータは、フレームバッファ内のピクセルデータと、正確に合成可能となることを確保するよう処理される。好ましい実施例では、zバッファの各ピクセルのデータビット数が、フレームバッファのピクセルと同じデータビット数となるよう、zバッファデータは切り詰められている。従って、上述の実施例では、赤、青、緑のピクセルは、8ビットワードで表されるが、zバッファデータは、各ピクセルのための32ビットのワードで表されている。そのため、zバッファ内の各ピクセルの最上位8ビットだけが、鮮明な、および、ぼやけた画像データと合成されることになる。ボックス1706によって表されるこの切り詰め処理は、切り詰めたデータを、図形処理システムのストレージに、一時的に格納することにより実行してもよい。
【0075】
次の作業は、コンピュータシステムが、通常アルファブレンディングと呼ばれる合成プロセスを実行することであり、それは、レンダリングにおいて、被写界深度情報を伴う画像を生成する、RGBA画像データを作り出すために、鮮明な画像、ぼやけた画像、およびzバッファデータを合成する。この合成作業は、フロー図ボックス番号1708で表わされている。上述したように、画像データの合成(アルファブレンディング)は、従来のグラフィックス処理コンピュータシステムにより、慣例的に実行される。しかしながら、こうしたシステムは、カラー画像データ(例えば、赤、青、緑)と、画像要素の不透明さを表すアルファチャンネルデータとの、こうした合成を実行する;それらは、鮮明な画像、ぼやけた画像、およびzバッファデータを合成しない。
【0076】
さらに、従来のアルファブレンディングは、通常フレームバッファに含まれるために同じワード長となっている、カラー画像データと、等しいデータワード長であるアルファチャンネル画像データとを関係させる。対照的に、グラフィックプロセッサシステムのzバッファデータは、シミュレートされたシーン内のオブジェクトの位置処理に適する精度で維持されている。従って、本発明の好ましい実施例では、合成作業は、ボックス1706のために説明されているように、互換性のあるビット数まで切り詰められた、zバッファからのデータを利用する。切り詰められたzバッファデータを伴ったフレームバッファ合成を実行する本発明の教示により、当業者は、レンダリングにおいて、強調されたリアリズムのための被写界深度情報を提供するRGBA画像データを生成する、適切な処理の達成方法を理解することだろう。
【0077】
判断ボックス1710での次の作業では、システムは、ラック焦点効果、大気視覚効果などを生成するために実行されるような、繰り返し処理がないかどうか、任意にチェックする。追加の処理は、例えば、逆zバッファ画像の生成を伴ってもよい。追加の処理は、中間フレームのピクセル情報を一時的に格納するなどの、画像データの一時的格納を含んでいてもよい。繰り返し処理が所望される場合、判断ボックスの1710の肯定結果は、その後、システム処理が、次に必要な、鮮明な画像、ぼやけた画像、およびzバッファの処理の組を生成するよう、ボックス1702に返される。RGBA画像のために、いかなる追加フレーム処理も必要でない場合には、ボックス1710の否定結果、その後の処理は、ボックス1712での、ディスプレイ画像のレンダリングへ続いてゆく。レンダリング作業は、コンピュータディスプレイ装置上に画像を生成させる、単純なレンダリング作業を伴ってもよく、もしくは、レンダリング作業は、上述したいかなる補足的処理作業を伴ってもよい。レンダリング作業1712は、例えば、1つのカラーチャンネルの色調の変更、もしくは、特殊な視覚効果のための他の処理を含んでいてもよい。こうしたすべての作業は、リアルタイムに実行可能であり、その結果、ここで述べられた被写界深度情報を伴った強調されたリアリズム画像は、鮮明な画像データからリアルタイムに生成可能となる。
【0078】
本発明は、本発明の理解を導くことが出来るよう、目下の好ましい実施例に関して説明されてきた。しかし、ここではとくには述べなかったが、本発明が適応可能な、コンピュータグラフィック処理システムのための多くの構成が存在する。従って、本発明は、ここで述べられた特定の実施例に制限されるものとして見られるべきではなく、むしろ、本発明には、概してコンピュータグラフィックス処理システムに対する、広い適用性があることを理解されるべきである。従って、添付の請求項の範囲内にある、あらゆる修正、変更、同等な装置、およびインプリメンテーションは、本発明の範囲内に含まれているものと考えられるべきである。
【図面の簡単な説明】
【図1】 コンピュータのグラフィックレンダリング処理から生成されるような、無限遠まで鮮明な画像を示す、あるシーンのコンピュータディスプレイ画像である。
【図2】 このシーンのzバッファデータの8ビット表現を示す、図1からのシーンのコンピュータディスプレイ画像である。
【図3】 図1の無限遠まで鮮明なシーンのぼやけた画像バージョンを示す、図1からのシーンのコンピュータディスプレイ画像である。
【図4】 アルファチャンネルとして、図2からのzバッファ画像データを用いた、図1からの鮮明画像と図3のぼやけた画像のアルファブレンドを示す、図1からの無限遠まで鮮明なシーンのコンピュータのディスプレイ画像である。
【図5】 アルファブレンディングのための図2のzバッファ画像データを用いた、図1の無限遠まで鮮明な画像と、図3のぼやけた画像とのブレンディングのグラフィック的な描写である。
【図6】 逆対応した(inverted corresponding)zバッファ画像を示す、図1からのシーンのコンピュータディスプレイ画像である。
【図7】 図1の無限遠まで鮮明な画像と、図3のぼやけた画像を結合し、アルファチャンネルとして図6からの逆zバッファ画像データを用いた結果を示す、図1からのシーンのコンピュータディスプレイ画像である。
【図8】 図2および図6の画像間の中間物の、8ビットzバッファ画像である。
【図9】 図3のぼやけた画像の一色が、図9の画像を生成するために、それ自体にコピーされる、カラーチャンネルコピー処理により生成された、白黒(ノンカラー)のぼやけた画像である。
【図10】 図1と図9とを合成することにより生成される、減少彩度画像である。
【図11】 図1〜10図に示される画像を生成可能な、コンピュータシステムおよびディスプレイのブロック図である。
【図12】 図11に示されたコンピュータシステムの、詳細なブロック図である。
【図13】 本発明に従って生成される画像の表示のためのコンピュータシステムの実施例の、詳細なブロック図である。
【図14】 図11、図12、および図13に示されたシステムなど、本発明に従って構成されたコンピュータシステムの、実例ディスプレイ装置ピクセルを示す図である。
【図15】 図11、図12、および図13に示されたような、コンピュータシステムの単一のzバッファエントリーを示す図である。
【図16】 図11、図12、および図13に示される、コンピュータシステムのディスプレイ装置のための、フレームバッファ環境条件を示す図である。
【図17】 本発明に従う、強調された被写界深度情報を有する画像を生成するために、図11〜図13のコンピュータシステムにより行われる処理を示す、フロー図である。
【符号の説明】
1100 テレビゲームシステム、1120 コントローラ、1125 コントローラインターフェース、1135 AV出力装置、1140 ディスプレイ画面、1145 スピーカー、1150 プログラムリーダー、1200 CPU、1205 メインメモリ、1210 GPU、1220 IOP、1230IOPメモリ、1240 メモリカード、1250 シリアルバス、1260OSROM、1280 ハードディスクドライブ。
Claims (24)
- シーンの鮮明な画像を生成することと、
上記シーンのぼやけた画像を生成することと、
生成されるアルファチャンネルRGBA画像がグラフィックスプロセッサによって受け取られてコンピュータディスプレイ装置上での表示のためにレンダリングされるとき、この生成されるアルファチャンネルRGBA画像が、被写界深度情報を持つ画像を提供するように、zバッファ画像データによって制御されるアルファチャンネルブレンディング処理によって互いにブレンドされた上記鮮明な画像および上記ぼやけた画像を含むアルファチャンネルRGBA画像を生成することとを含む、被写界深度情報を含むコンピュータディスプレイ画像を生成する方法であって、
上記方法は、上記シーンの前景および上記シーンの背景の間で画像の焦点がシフトするように見えるラック焦点効果を提供する、コンピュータディスプレイ画像のシーケンスを生成することをさらに含み、上記アルファチャンネルRGBA画像がグラフィックスプロセッサによって受け取られてコンピュータディスプレイ装置上での表示のためにレンダリングされるとき、このシーケンスの各画像は、被写界深度情報を持つ画像をそれぞれ提供することを特徴とする、被写界深度情報を含むコンピュータディスプレイ画像を生成する方法。 - 上記ぼやけた画像が、上記鮮明な画像に関するピクセルシフトされた色チャンネル画像データを含むことを特徴とする、請求項1に記載のコンピュータディスプレイ画像を生成する方法。
- 上記zバッファ画像データが、上記シーンのためのピクセル位置データを明示する、切り詰められたzバッファピクセル情報を含むことを特徴とする、請求項2に記載のコンピュータディスプレイ画像を生成する方法。
- 上記切り詰められたzバッファピクセル情報が、上記zバッファ画像データの各ピクセルに対するビットのうち最上位ビットから所定数までのビットを含むことを特徴とする、請求項3に記載のコンピュータディスプレイ画像を生成する方法。
- 上記シーケンスの各画像が、
zバッファ画像データを用いて上記シーンの鮮明な画像と上記シーンのぼやけた画像とを合成することにより、アルファチャンネルRGBA画像を生成することと、
反転されたzバッファ画像データを用いて上記シーンの鮮明な画像と上記シーンのぼやけた画像とを合成することにより、逆アルファチャンネルRGBA画像を生成することと、
上記逆アルファチャンネルRGBA画像を上記アルファチャンネルRGBA画像とブレンドすることとによって生成されることを特徴とする、請求項1に記載のコンピュータディスプレイ画像を生成する方法。 - 上記ぼやけた画像の色調を所望のカラー値へ変更すること、および、その変更したぼやけた画像を、上記アルファチャンネルRGBA画像を生成するためのzバッファ画像データのソースとして用いることをさらに含むことを特徴とする、請求項1に記載のコンピュータディスプレイ画像を生成する方法。
- 上記ぼやけた画像の色調が、大気的効果を伴うアルファチャンネルRGBA画像を生成するために、青のカラー値に変更されることを特徴とする、請求項6に記載のコンピュータディスプレイ画像を生成する方法。
- 上記ぼやけた画像を変更することが、
上記ぼやけた画像の赤チャンネルデータを上記ぼやけた画像の緑チャンネルデータ上にコピーし、さらに、上記ぼやけた画像の赤チャンネルデータを上記ぼやけた画像の青チャンネルデータ上にコピーし、その結果、白黒のぼやけた画像を生成することと、
その白黒のぼやけた画像を、上記シーンのzバッファ一時データ記憶装置に格納することと、
上記アルファチャンネルRGBA画像を生成するために、上記zバッファの一時データ記憶装置内の上記ぼやけた画像のデータを上記鮮明な画像と結合させることとを含むことを特徴とする、請求項6に記載のコンピュータディスプレイ画像を生成する方法。 - 中央演算処理装置と、
データ記憶装置と、
上記中央演算処理装置によって実行されるプログラミングインストラクションを格納するプログラムメモリとを含み、コンピュータディスプレイのための画像データを生成するコンピュータ処理システムであって、
上記実行されるプログラミングインストラクションにより、上記中央演算処理装置は、
シーンの鮮明な画像を生成することと、
上記シーンのぼやけた画像を生成することと、
生成されるアルファチャンネルRGBA画像がグラフィックスプロセッサによって受け取られてコンピュータディスプレイ装置上での表示のためにレンダリングされるとき、この生成されるアルファチャンネルRGBA画像が、被写界深度情報を持つ画像を提供するように、zバッファ画像データによって制御されるアルファチャンネルブレンディング処理によって互いにブレンドされた上記鮮明な画像および上記ぼやけた画像を含むアルファチャンネルRGBA画像を生成することとを含む処理を実行し、
上記中央演算処理装置はさらに、上記シーンの前景および上記シーンの背景の間で画像の焦点がシフトするように見えるラック焦点効果を提供する、コンピュータディスプレイ画像のシーケンスを生成し、上記アルファチャンネルRGBA画像がグラフィックスプロセッサによって受け取られてコンピュータディスプレイ装置上での表示のためにレンダリングされるとき、このシーケンスの各画像は、被写界深度情報を持つ画像を提供することを特徴とする、コンピュータディスプレイのための画像データを生成するコンピュータ処理システム。 - 上記ぼやけた画像が、上記鮮明な画像に関するピクセルシフトされた色チャンネル画像データを含むことを特徴とする、請求項9に記載の画像データを生成するコンピュータ処理システム。
- 上記zバッファ画像データが、上記シーンのためのピクセル位置データを明示する、切り詰められたzバッファピクセル情報を含むことを特徴とする、請求項10に記載の画像データを生成するコンピュータ処理システム。
- 上記切り詰められたzバッファピクセル情報が、上記zバッファ画像データの各ピクセルに対するビットのうち最上位ビットから所定数までのビットを含むことを特徴とする、請求項11に記載の画像データを生成するコンピュータ処理システム。
- 上記シーケンスの各画像が、
zバッファ画像データを用いて上記シーンの鮮明な画像と上記シーンのぼやけた画像とを合成することにより、アルファチャンネルRGBA画像を生成することと、
反転されたzバッファ画像データを用いて上記シーンの鮮明な画像と上記シーンのぼやけた画像とを合成することにより、逆アルファチャンネルRGBA画像を生成することと、
上記逆アルファチャンネルRGBA画像を上記アルファチャンネルRGBA画像とをブレンドすることとによって生成されることを特徴とする、請求項9に記載の画像データを生成するコンピュータ処理システム。 - 上記中央演算処理装置が、上記ぼやけた画像の色調を所望のカラー値へ変更し、その変更したぼやけた画像を、上記アルファチャンネルRGBA画像を生成するためのzバッファ画像データのソースとして用いることを特徴とする、請求項9に記載の画像データを生成するコンピュータ処理システム。
- 上記ぼやけた画像の色調が、大気的効果を伴うアルファチャンネルRGBA画像を生成するために、青のカラー値に変更されることを特徴とする、請求項14に記載の画像データを生成するコンピュータ処理システム。
- 上記中央演算装置が、
上記ぼやけた画像の赤チャンネルデータを上記ぼやけた画像の緑チャンネルデータ上にコピーし、さらに、上記ぼやけた画像の赤チャンネルデータを上記ぼやけた画像の青チャンネルデータ上にコピーし、その結果、白黒のぼやけた画像を生成させることと、
その白黒のぼやけた画像を、上記シーンのzバッファ一時データ記憶装置に格納することと、
上記アルファチャンネルRGBA画像を生成するために、上記zバッファ一時データ記憶装置内の上記ぼやけた画像のデータを上記鮮明な画像と結合させることとにより、ぼやけた画像を変更することを特徴とする、請求項14に記載の画像データを生成するコンピュータ処理システム。 - コンピュータ処理を実行するためのプログラミングインストラクションを実行する中央演算処理装置と、
データ記憶装置と、
シーンの鮮明な画像を生成することと、上記シーンのぼやけた画像を生成することと、生成されるアルファチャンネルRGBA画像がグラフィックスプロセッサによって受け取られてコンピュータディスプレイ装置上での表示のためにレンダリングされるとき、この生成されるアルファチャンネルRGBA画像が、被写界深度情報を持つ画像を提供するように、zバッファ画像データによって制御されるアルファチャンネルブレンディング処理によって互いにブレンドされた上記鮮明な画像および上記ぼやけた画像を含むアルファチャンネルRGBA画像を生成することとを含む処理を上記中央演算処理装置に実行させるプログラム手段とを含む、コンピュータディスプレイのための画像データを生成するグラフィックスプロセッサであって、
上記中央演算処理装置によって実行される処理では、上記シーンの前景および上記シーンの背景の間で画像の焦点がシフトするように見えるラック焦点効果を提供する、コンピュータディスプレイ画像のシーケンスをさらに生成し、上記アルファチャンネルRGBAがグラフィックスプロセッサによって受け取られてコンピュータディスプレイ装置上での表示のためにレンダリングされるとき、このシーケンスの各画像が、被写界深度情報を持つ画像を提供することを特徴とする、コンピュータディスプレイのための画像データを生成するグラフィックスプロセッサ。 - 上記ぼやけた画像が、上記鮮明な画像に関するピクセルシフトされた色チャンネル画像データを含むことを特徴とする、請求項17に記載の画像データを生成するグラフィックスプロセッサ。
- 上記zバッファ画像データが、上記シーンのためのピクセル位置データを明示する、切り詰められたzバッファピクセル情報を含むことを特徴とする、請求項18に記載の画像データを生成するグラフィックプロセッサ。
- 上記切り詰められたzバッファピクセル情報が、上記zバッファ画像データの各ピクセルに対するビットのうち最上位ビットから所定数までのビットを含むことを特徴とする、請求項19に記載の画像データを生成するグラフィックスプロセッサ。
- 上記シーケンスの各画像が、
zバッファ画像データを用いて上記シーンの鮮明な画像と上記シーンのぼやけた画像とを合成することにより、アルファチャンネルRGBA画像を生成することと、
反転されたzバッファ画像データを用いて上記シーンの鮮明な画像と上記シーンのぼやけた画像とを合成することにより、逆アルファチャンネルRGBA画像を生成することと、
上記逆アルファチャンネルRGBA画像を上記アルファチャンネルRGBA画像とブレンドすることとによって生成されることを特徴とする、請求項17に記載の画像データを生成するグラフィックスプロセッサ。 - 上記中央演算処理装置が、上記ぼやけた画像の色調を所望のカラー値へ変更し、その変更したぼやけた画像を、上記アルファチャンネルRGBA画像を生成するためのzバッファ画像データのソースとして用いることを特徴とする、請求項17に記載の画像データを生成するグラフィックスプロセッサ。
- 上記ぼやけた画像の色調が、大気的効果を伴うアルファチャンネルRGBA画像を生成するために、青のカラー値に変更されることを特徴とする、請求項22に記載の画像データを生成するグラフィックスプロセッサ。
- 上記中央演算装置が、
上記ぼやけた画像の赤チャンネルデータを上記ぼやけた画像の緑チャンネルデータ上にコピーし、さらに、上記ぼやけた画像の赤チャンネルデータを上記ぼやけた画像の青チャンネルデータ上にコピーし、その結果、白黒のぼやけた画像を生成させることと、
その白黒のぼやけた画像を、上記シーンのzバッファ一時データ記憶装置に格納することと、
上記アルファチャンネルRGBA画像を生成するために、上記zバッファ一時データ記憶装置内の上記ぼやけた画像のデータを上記鮮明な画像と結合させることとにより、ぼやけた画像を変更することを特徴とする、請求項22に記載の画像データを生成するグラフィックスプロセッサ。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/120,324 US7081892B2 (en) | 2002-04-09 | 2002-04-09 | Image with depth of field using z-buffer image data and alpha blending |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004005567A JP2004005567A (ja) | 2004-01-08 |
JP3725524B2 true JP3725524B2 (ja) | 2005-12-14 |
Family
ID=28453999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003104139A Expired - Fee Related JP3725524B2 (ja) | 2002-04-09 | 2003-04-08 | コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ |
Country Status (8)
Country | Link |
---|---|
US (2) | US7081892B2 (ja) |
EP (1) | EP1353296B1 (ja) |
JP (1) | JP3725524B2 (ja) |
KR (1) | KR100549358B1 (ja) |
AT (1) | ATE297574T1 (ja) |
DE (1) | DE60300788T2 (ja) |
ES (1) | ES2243815T3 (ja) |
TW (1) | TW583599B (ja) |
Families Citing this family (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4837844B2 (ja) * | 2001-07-19 | 2011-12-14 | 富士通株式会社 | シミュレーションシステム、方法、プログラム及び記録媒体 |
US6680579B2 (en) * | 2001-12-14 | 2004-01-20 | Hewlett-Packard Development Company, L.P. | Method and apparatus for image and video display |
AU2002952382A0 (en) * | 2002-10-30 | 2002-11-14 | Canon Kabushiki Kaisha | Method of Background Colour Removal for Porter and Duff Compositing |
US7274365B1 (en) | 2003-01-31 | 2007-09-25 | Microsoft Corporation | Graphical processing of object perimeter information |
US7202867B1 (en) | 2003-01-31 | 2007-04-10 | Microsoft Corporation | Generation of glow effect |
JP2004302500A (ja) * | 2003-03-28 | 2004-10-28 | Matsushita Electric Ind Co Ltd | 画像処理装置及び画像処理方法 |
US7290221B2 (en) * | 2003-04-16 | 2007-10-30 | Hewlett-Packard Development Company, L.P. | User interface, method and apparatus for providing three-dimensional object fabrication status |
US7606417B2 (en) | 2004-08-16 | 2009-10-20 | Fotonation Vision Limited | Foreground/background segmentation in digital images with differential exposure calculations |
US7680342B2 (en) * | 2004-08-16 | 2010-03-16 | Fotonation Vision Limited | Indoor/outdoor classification in digital images |
JP4307222B2 (ja) * | 2003-11-17 | 2009-08-05 | キヤノン株式会社 | 複合現実感提示方法、複合現実感提示装置 |
US7412110B1 (en) * | 2004-01-28 | 2008-08-12 | Adobe Systems Incorporated | Using forward and backward kernels to filter images |
US7609902B2 (en) * | 2004-04-13 | 2009-10-27 | Microsoft Corporation | Implementation of discrete cosine transformation and its inverse on programmable graphics processor |
US7015926B2 (en) * | 2004-06-28 | 2006-03-21 | Microsoft Corporation | System and process for generating a two-layer, 3D representation of a scene |
US7710418B2 (en) * | 2005-02-04 | 2010-05-04 | Linden Acquisition Corporation | Systems and methods for the real-time and realistic simulation of natural atmospheric lighting phenomenon |
US7312801B2 (en) * | 2005-02-25 | 2007-12-25 | Microsoft Corporation | Hardware accelerated blend modes |
US7692696B2 (en) * | 2005-12-27 | 2010-04-06 | Fotonation Vision Limited | Digital image acquisition system with portrait mode |
US7532223B2 (en) * | 2006-01-17 | 2009-05-12 | Teri Lynn Dougherty | Apparatus and method for teaching artwork and cosmetic adjustment on the human form using 4D rendering |
IES20060559A2 (en) * | 2006-02-14 | 2006-11-01 | Fotonation Vision Ltd | Automatic detection and correction of non-red flash eye defects |
WO2007095477A2 (en) * | 2006-02-14 | 2007-08-23 | Fotonation Vision Limited | Image blurring |
JP4856445B2 (ja) | 2006-02-22 | 2012-01-18 | ルネサスエレクトロニクス株式会社 | 画像合成装置及びその画像合成方法 |
IES20060564A2 (en) * | 2006-05-03 | 2006-11-01 | Fotonation Vision Ltd | Improved foreground / background separation |
JP4843377B2 (ja) * | 2006-05-18 | 2011-12-21 | 株式会社東芝 | 画像処理装置及び画像処理方法 |
KR101282973B1 (ko) * | 2007-01-09 | 2013-07-08 | 삼성전자주식회사 | 오버레이 이미지를 디스플레이 하는 장치 및 방법 |
US8125510B2 (en) * | 2007-01-30 | 2012-02-28 | Ankur Agarwal | Remote workspace sharing |
ATE553436T1 (de) * | 2007-02-28 | 2012-04-15 | Nec Corp | Dma-transfereinrichtung und verfahren |
US20080263449A1 (en) * | 2007-04-20 | 2008-10-23 | Microsoft Corporation | Automated maintenance of pooled media content |
CN101055645B (zh) * | 2007-05-09 | 2010-05-26 | 北京金山软件有限公司 | 一种阴影实现的方法及装置 |
US8134556B2 (en) * | 2007-05-30 | 2012-03-13 | Elsberg Nathan | Method and apparatus for real-time 3D viewer with ray trace on demand |
US20150200639A1 (en) * | 2007-08-02 | 2015-07-16 | J. Todd Orler | Methods and apparatus for layered waveform amplitude view of multiple audio channels |
US8638341B2 (en) * | 2007-10-23 | 2014-01-28 | Qualcomm Incorporated | Antialiasing of two-dimensional vector images |
KR101412752B1 (ko) * | 2007-11-26 | 2014-07-01 | 삼성전기주식회사 | 디지털 자동 초점 영상 생성 장치 및 방법 |
US8325178B1 (en) | 2007-12-05 | 2012-12-04 | The United States Of America, As Represented By The Secretary Of The Navy | Lines-of-sight and viewsheds determination system |
US8400448B1 (en) | 2007-12-05 | 2013-03-19 | The United States Of America, As Represented By The Secretary Of The Navy | Real-time lines-of-sight and viewsheds determination system |
US7595483B1 (en) * | 2008-06-12 | 2009-09-29 | The United States Of America As Represented By The Secretary Of The Navy | Calibration method for a stellar sensor |
US9082221B2 (en) | 2008-06-30 | 2015-07-14 | Thomson Licensing | Method for the real-time composition of a video |
JP5024632B2 (ja) * | 2008-09-19 | 2012-09-12 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
KR20110059790A (ko) * | 2008-09-25 | 2011-06-03 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 3차원 이미지 데이터 처리 |
US9336624B2 (en) * | 2008-10-07 | 2016-05-10 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for rendering 3D distance fields |
EP2180449A1 (en) * | 2008-10-21 | 2010-04-28 | Koninklijke Philips Electronics N.V. | Method and device for providing a layered depth model of a scene |
TW201021578A (en) * | 2008-11-26 | 2010-06-01 | Sunplus Mmedia Inc | Decompression system and method for DCT-based compressed graphic data with transparent attribute |
US8319798B2 (en) * | 2008-12-17 | 2012-11-27 | Disney Enterprises, Inc. | System and method providing motion blur to rotating objects |
KR101206895B1 (ko) * | 2008-12-22 | 2012-11-30 | 한국전자통신연구원 | 렌더링 시스템 및 이를 이용한 데이터 처리 방법 |
GB2467944A (en) * | 2009-02-23 | 2010-08-25 | Andrew Ernest Chapman | Stereoscopic effect without glasses |
KR101599872B1 (ko) * | 2009-02-25 | 2016-03-04 | 삼성전자주식회사 | 디지털 영상 처리 장치, 그 제어방법 및 이를 실행시키기 위한 프로그램을 저장한 기록매체 |
TWI393980B (zh) * | 2009-06-08 | 2013-04-21 | Nat Univ Chung Cheng | The method of calculating the depth of field and its method and the method of calculating the blurred state of the image |
WO2011014419A1 (en) | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene |
US20110025830A1 (en) | 2009-07-31 | 2011-02-03 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation |
US9380292B2 (en) | 2009-07-31 | 2016-06-28 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene |
JP2011066507A (ja) * | 2009-09-15 | 2011-03-31 | Toshiba Corp | 画像処理装置 |
KR101015935B1 (ko) * | 2009-10-28 | 2011-02-23 | 주식회사 넥슨 | 피사계 심도 및 모션 블러 처리 컴퓨터 시스템 및 그 방법 |
CN102598646B (zh) | 2009-11-13 | 2014-05-07 | 皇家飞利浦电子股份有限公司 | 3d视频中深度过渡的有效编码 |
US9344701B2 (en) | 2010-07-23 | 2016-05-17 | 3Dmedia Corporation | Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation |
US9185388B2 (en) | 2010-11-03 | 2015-11-10 | 3Dmedia Corporation | Methods, systems, and computer program products for creating three-dimensional video sequences |
US8553977B2 (en) | 2010-11-15 | 2013-10-08 | Microsoft Corporation | Converting continuous tone images |
US10200671B2 (en) | 2010-12-27 | 2019-02-05 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US8274552B2 (en) | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US8406548B2 (en) * | 2011-02-28 | 2013-03-26 | Sony Corporation | Method and apparatus for performing a blur rendering process on an image |
CN102332158B (zh) * | 2011-07-26 | 2013-06-12 | 深圳万兴信息科技股份有限公司 | 一种利用阿尔法通道的图像合成方法及系统 |
US9373213B1 (en) * | 2011-11-08 | 2016-06-21 | Zynga Inc. | Adaptive object placement in computer-implemented games |
US9449357B1 (en) | 2012-08-24 | 2016-09-20 | Digimarc Corporation | Geometric enumerated watermark embedding for spot colors |
US9380186B2 (en) * | 2012-08-24 | 2016-06-28 | Digimarc Corporation | Data hiding for spot colors in product packaging |
US11263829B2 (en) * | 2012-01-02 | 2022-03-01 | Digimarc Corporation | Using a predicted color for both visibility evaluation and signal robustness evaluation |
JP5572647B2 (ja) * | 2012-02-17 | 2014-08-13 | 任天堂株式会社 | 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法 |
US11810378B2 (en) * | 2012-08-24 | 2023-11-07 | Digimarc Corporation | Data hiding through optimization of color error and modulation error |
US9007402B2 (en) | 2012-09-18 | 2015-04-14 | Facebook, Inc. | Image processing for introducing blurring effects to an image |
JP2014235657A (ja) * | 2013-06-04 | 2014-12-15 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
CN104282029B (zh) * | 2013-07-11 | 2018-10-19 | 北京中盈安信技术服务股份有限公司 | 一种三维模型影像处理方法和电子终端 |
CN103632346B (zh) * | 2013-11-27 | 2017-06-13 | 广东威创视讯科技股份有限公司 | 数字视频图像锐化度调节实现方法及装置 |
US9565335B2 (en) | 2014-01-02 | 2017-02-07 | Digimarc Corporation | Full color visibility model using CSF which varies spatially with local luminance |
US9667829B2 (en) * | 2014-08-12 | 2017-05-30 | Digimarc Corporation | System and methods for encoding information for printed articles |
CN104899838B (zh) * | 2015-05-29 | 2017-11-28 | 小米科技有限责任公司 | 调整图像的方法及装置 |
KR102390980B1 (ko) * | 2015-07-24 | 2022-04-26 | 엘지디스플레이 주식회사 | 영상 처리 방법, 영상 처리 회로와, 그를 이용한 표시 장치 |
JP2019510991A (ja) * | 2015-12-31 | 2019-04-18 | トムソン ライセンシングThomson Licensing | 適応焦点面を有して仮想現実をレンダリングする構成 |
US10179288B2 (en) | 2016-06-20 | 2019-01-15 | Zynga Inc. | Adaptive object placement in computer-implemented games |
CN109658365B (zh) | 2017-10-11 | 2022-12-06 | 阿里巴巴(深圳)技术有限公司 | 图像处理方法、装置、系统和存储介质 |
JP7131080B2 (ja) * | 2018-05-28 | 2022-09-06 | 大日本印刷株式会社 | ボリュームレンダリング装置 |
CN112950692B (zh) * | 2019-11-26 | 2023-07-14 | 福建天晴数码有限公司 | 一种基于移动游戏平台的图像景深处理方法及其系统 |
CN112109549B (zh) * | 2020-08-25 | 2021-11-30 | 惠州华阳通用电子有限公司 | 一种仪表显示方法和系统 |
US11593989B1 (en) * | 2022-07-28 | 2023-02-28 | Katmai Tech Inc. | Efficient shadows for alpha-mapped models |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5941222B2 (ja) | 1978-08-30 | 1984-10-05 | 株式会社日立製作所 | 図形表示装置 |
US5379129A (en) | 1992-05-08 | 1995-01-03 | Apple Computer, Inc. | Method for compositing a source and destination image using a mask image |
US5598516A (en) | 1993-06-21 | 1997-01-28 | Namco Ltd. | Image synthesizing system and video game apparatus using the same |
US5596686A (en) * | 1994-04-21 | 1997-01-21 | Silicon Engines, Inc. | Method and apparatus for simultaneous parallel query graphics rendering Z-coordinate buffer |
US5808618A (en) | 1994-10-21 | 1998-09-15 | Matsushita Electric Industrial Co., Ltd. | Three-dimensional displaying apparatus having frame buffer and depth buffer |
US5757376A (en) | 1994-12-02 | 1998-05-26 | Sony Corporation | Method of producing image data and associated recording medium |
JP3578498B2 (ja) | 1994-12-02 | 2004-10-20 | 株式会社ソニー・コンピュータエンタテインメント | 画像情報処理装置 |
GB9611941D0 (en) | 1996-06-07 | 1996-08-07 | Philips Electronics Nv | Three-dimensional image texture mapping |
US6445833B1 (en) * | 1996-07-18 | 2002-09-03 | Sanyo Electric Co., Ltd | Device and method for converting two-dimensional video into three-dimensional video |
GB9616262D0 (en) * | 1996-08-02 | 1996-09-11 | Philips Electronics Nv | Post-processing generation of focus/defocus effects for computer graphics images |
US5929862A (en) * | 1996-08-05 | 1999-07-27 | Hewlett-Packard Co. | Antialiasing system and method that minimize memory requirements and memory accesses by storing a reduced set of subsample information |
US6097393A (en) * | 1996-09-03 | 2000-08-01 | The Takshele Corporation | Computer-executed, three-dimensional graphical resource management process and system |
US6157733A (en) | 1997-04-18 | 2000-12-05 | At&T Corp. | Integration of monocular cues to improve depth perception |
US6100899A (en) | 1997-10-02 | 2000-08-08 | Silicon Graphics, Inc. | System and method for performing high-precision, multi-channel blending using multiple blending passes |
US6115485A (en) * | 1997-10-06 | 2000-09-05 | General Electric Company | Introducing reduced data set information into a primary image data set |
US6184891B1 (en) | 1998-03-25 | 2001-02-06 | Microsoft Corporation | Fog simulation for partially transparent objects |
US6466185B2 (en) * | 1998-04-20 | 2002-10-15 | Alan Sullivan | Multi-planar volumetric display system and method of operation using psychological vision cues |
US6377229B1 (en) * | 1998-04-20 | 2002-04-23 | Dimensional Media Associates, Inc. | Multi-planar volumetric display system and method of operation using three-dimensional anti-aliasing |
US6271847B1 (en) * | 1998-09-25 | 2001-08-07 | Microsoft Corporation | Inverse texture mapping using weighted pyramid blending and view-dependent weight maps |
US6646687B1 (en) * | 1999-04-16 | 2003-11-11 | Ultimatte Corporation | Automatic background scene defocusing for image compositing |
CA2316611A1 (en) | 1999-08-31 | 2001-02-28 | Nintendo Co. Ltd. | Method and apparatus for providing depth blur effects within a 3d videographics system |
AU2040701A (en) * | 1999-12-02 | 2001-06-12 | Channel Storm Ltd. | System and method for rapid computer image processing with color look-up table |
US6587114B1 (en) * | 1999-12-15 | 2003-07-01 | Microsoft Corporation | Method, system, and computer program product for generating spatially varying effects in a digital image |
JP3448536B2 (ja) * | 1999-12-31 | 2003-09-22 | 株式会社スクウェア・エニックス | 三次元コンピュータ画像処理のプログラムを記録したコンピュータ読み取り可能な記録媒体、ぼかし描画処理方法およびビデオゲーム装置 |
US7566273B2 (en) | 2000-01-28 | 2009-07-28 | Namco Bandai Games, Inc. | Game system and image generating method |
JP4656616B2 (ja) | 2000-01-28 | 2011-03-23 | 株式会社バンダイナムコゲームス | ゲームシステム、プログラム及び情報記憶媒体 |
US6426755B1 (en) * | 2000-05-16 | 2002-07-30 | Sun Microsystems, Inc. | Graphics system using sample tags for blur |
US6956576B1 (en) * | 2000-05-16 | 2005-10-18 | Sun Microsystems, Inc. | Graphics system using sample masks for motion blur, depth of field, and transparency |
US6590574B1 (en) * | 2000-05-17 | 2003-07-08 | Microsoft Corporation | Method, system, and computer program product for simulating camera depth-of-field effects in a digital image |
US6897880B2 (en) * | 2001-02-22 | 2005-05-24 | Sony Corporation | User interface for generating parameter values in media presentations based on selected presentation instances |
US6919906B2 (en) * | 2001-05-08 | 2005-07-19 | Microsoft Corporation | Discontinuity edge overdraw |
-
2002
- 2002-04-09 US US10/120,324 patent/US7081892B2/en not_active Expired - Lifetime
-
2003
- 2003-02-11 TW TW092102744A patent/TW583599B/zh not_active IP Right Cessation
- 2003-02-14 ES ES03003378T patent/ES2243815T3/es not_active Expired - Lifetime
- 2003-02-14 EP EP03003378A patent/EP1353296B1/en not_active Expired - Lifetime
- 2003-02-14 AT AT03003378T patent/ATE297574T1/de not_active IP Right Cessation
- 2003-02-14 DE DE60300788T patent/DE60300788T2/de not_active Expired - Lifetime
- 2003-04-08 JP JP2003104139A patent/JP3725524B2/ja not_active Expired - Fee Related
- 2003-04-09 KR KR1020030022277A patent/KR100549358B1/ko active IP Right Grant
-
2006
- 2006-04-19 US US11/379,370 patent/US7227544B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US7227544B2 (en) | 2007-06-05 |
KR20030081107A (ko) | 2003-10-17 |
EP1353296A1 (en) | 2003-10-15 |
DE60300788D1 (de) | 2005-07-14 |
JP2004005567A (ja) | 2004-01-08 |
US20060181549A1 (en) | 2006-08-17 |
US7081892B2 (en) | 2006-07-25 |
ATE297574T1 (de) | 2005-06-15 |
TW200305109A (en) | 2003-10-16 |
US20030189568A1 (en) | 2003-10-09 |
ES2243815T3 (es) | 2005-12-01 |
EP1353296B1 (en) | 2005-06-08 |
DE60300788T2 (de) | 2006-03-23 |
KR100549358B1 (ko) | 2006-02-08 |
TW583599B (en) | 2004-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3725524B2 (ja) | コンピュータディスプレイ画像を生成する方法ならびに画像データを生成するコンピュータ処理システムおよびグラフィックスプロセッサ | |
JP3668019B2 (ja) | 記録媒体、画像処理装置および画像処理方法 | |
JP4698893B2 (ja) | 改良されたフォグ効果を提供するための方法、グラフィックスシステム、およびプログラム | |
JP4680407B2 (ja) | 可変ビットフィールドによる符号化 | |
US7242408B1 (en) | Graphical processing of object perimeter information | |
US8602888B2 (en) | Video game device and image processing program | |
JP4790150B2 (ja) | 低価格のグラフィックスシステムにおけるシャドウマッピング | |
JP3625184B2 (ja) | ゲーム用3次元画像処理方法、装置、ゲーム用3次元画像処理プログラムを記録した可読記録媒体及びビデオゲーム装置 | |
KR20060135947A (ko) | 표시장치, 표시방법, 및, 프로그램을 기록한 컴퓨터 판독 가능한 정보기록매체 | |
JP2006318389A (ja) | プログラム、情報記憶媒体、及び画像生成システム | |
JP2001307126A (ja) | 画像描画方法、画像描画装置、記録媒体及びプログラム | |
JP3352982B2 (ja) | レンダリング方法及び装置、ゲーム装置、並びに立体モデルをレンダリングするプログラムを格納するコンピュータ読み取り可能な記録媒体 | |
US7212215B2 (en) | Apparatus and method for rendering an antialiased image | |
JP2004334661A (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP2001275199A (ja) | 3次元音再生システム | |
JP4995054B2 (ja) | ゲームプログラム、そのゲームプログラムを記録した記録媒体及びコンピュータ | |
JP4447000B2 (ja) | 画像生成システム、プログラム及び情報記憶媒体 | |
JP2006252426A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
JP2009140135A5 (ja) | ||
JP4231684B2 (ja) | ゲーム装置及びゲームプログラム | |
JP4740476B2 (ja) | グラフィックスシステム内におけるn個のアルファ演算の論理結合を提供する方法および装置 | |
JP4698894B2 (ja) | グラフィックスシステムにおけるテクスチャタイリングのための方法、装置およびプログラム | |
JP2006318386A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
JP3437166B2 (ja) | 3次元画像処理方法、その装置、3次元画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体及びビデオゲーム装置 | |
JP2003109035A (ja) | 画像生成システム、プログラム及び情報記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050921 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3725524 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090930 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100930 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110930 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110930 Year of fee payment: 6 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110930 Year of fee payment: 6 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110930 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120930 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130930 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |