JP2005149209A - 複合現実感提示方法、複合現実感提示装置 - Google Patents

複合現実感提示方法、複合現実感提示装置 Download PDF

Info

Publication number
JP2005149209A
JP2005149209A JP2003386937A JP2003386937A JP2005149209A JP 2005149209 A JP2005149209 A JP 2005149209A JP 2003386937 A JP2003386937 A JP 2003386937A JP 2003386937 A JP2003386937 A JP 2003386937A JP 2005149209 A JP2005149209 A JP 2005149209A
Authority
JP
Japan
Prior art keywords
image
objects
format
virtual space
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003386937A
Other languages
English (en)
Other versions
JP4307222B2 (ja
JP2005149209A5 (ja
Inventor
Toshihiro Kobayashi
俊広 小林
Toshiichi Oshima
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003386937A priority Critical patent/JP4307222B2/ja
Priority to US10/981,563 priority patent/US7199807B2/en
Publication of JP2005149209A publication Critical patent/JP2005149209A/ja
Publication of JP2005149209A5 publication Critical patent/JP2005149209A5/ja
Application granted granted Critical
Publication of JP4307222B2 publication Critical patent/JP4307222B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 視覚表現形式が異なるオブジェクトが混在するようなシーンにおいても、オブジェクトに対する視覚表現形式毎に描画順序や描画方法を考慮せずに、各オブジェクトの描画を行うことを可能にすること。
【解決手段】 同じ描画方法で描画されるオブジェクトの集合を仮想空間を構成する各オブジェクトから特定して、特定した集合に含まれるオブジェクトにより形成される階層構造を生成し(S206)、特定した集合に含まれる各オブジェクトを、この集合に含まれる各オブジェクトに共通の描画方法により、生成した階層構造に従って描画する(S207〜S209)。
【選択図】 図2

Description

本発明は、観察者に複合現実感を提示するために、現実空間に重畳させるための仮想空間の画像を生成する技術に関するものである。
現実世界と仮想世界とを違和感なく自然に結合する複合現実感(MR: Mixed Reality)の技術を応用した装置が盛んに提案されている。これらの複合現実感提示装置は、カメラなどの撮像装置によって撮影した現実空間の画像に対し、コンピュータグラフィックス(CG: Computer Graphics)で描画した仮想空間の画像を結合し、使用者に提示している。
複合現実感を提示する装置では、まず現実世界の実写画像を背景として描画し、その上から仮想世界を構成するCGオブジェクトを描画して合成する方法が一般的に用いられている。しかし、この方法では、常に現実世界の手前に仮想世界が存在するように描画されてしまうため、現実世界の物体が仮想世界を隠蔽するような場合には適切な表現が行えない。
そこで、現実世界の物体(現実物体)をあらかじめモデリングしておき、CGオブジェクトとして扱うということが行われる。そして、仮想CGオブジェクトを描画する前に現実物体のCGオブジェクトの描画を行うのであるが、現実物体のCGオブジェクトについてはフレームバッファには描画せず、Zバッファにのみ描画を行う。この処理によって、仮想CGオブジェクトを描画するときに、仮想CGオブジェクトと現実物体のCGオブジェクトとの奥行き判定が行われ、仮想世界のCGオブジェクトが現実物体のCGオブジェクトよりも奥に存在する部分については、フレームバッファへの描画が行われない。
そのため、あたかも現実世界の物体が仮想世界を遮蔽しているかのように表現することができる。特にここでは、この現実物体のCGオブジェクトをマスクオブジェクト、マスクオブジェクトの見え方の特性である視覚表現形式をマスク形式と呼ぶ。一方、通常の仮想CGオブジェクトの視覚表現形式をノーマル形式と呼ぶ。
通常、Zバッファでの奥行き判定が行われた後にフレームバッファへの描画が行われるため、Zバッファのみを更新するマスクオブジェクトの描画と、フレームバッファとZバッファの双方を更新する仮想CGオブジェクトの描画とを同時に行うことはできず、二度に分けて描画を行う必要がある。また、仮想CGオブジェクトとマスクオブジェクトを描画する際には、必ずマスクオブジェクト、仮想CGオブジェクトの順に描画を行わなければ所望の結果を得ることができない。
また、現実または仮想のガラス等の反射物への仮想CGオブジェクトの写り込みを表現したり、光学シースルー型のヘッドアップディスプレイといった表示装置を模擬して仮想CGオブジェクトを描画するような場合には、Zバッファには描画を行わず、フレームバッファのみに描画を行う。特にここでは、このような方式で描画されるCGオブジェクトを半透過オブジェクト、半透過オブジェクトの視覚表現形式を半透過形式と呼ぶ。
半透過オブジェクトの描画には、通常、アルファブレンドと呼ばれる手法が用いられる。これは、半透過CGオブジェクトに予めアルファ値と呼ばれる透過係数を設定しておき、フレームバッファの更新を行う際に、更新前の描画対象領域の画素値と半透過CGオブジェクトの画素値とをアルファ値に応じた比率で合成することによって半透明のCGオブジェクトを描画する方法である。しかし、反射物体への仮想CGオブジェクトの写り込みや、光学シースルー型の表示装置を模擬するような表示を行う場合、アルファブレンドによる合成方法では写実性に欠けるという問題があった。
通常の仮想CGオブジェクト、マスクオブジェクト、半透過オブジェクトが同一のシーンに混在しているような場合、通常は、Zバッファでの奥行き判定が行われた後にフレームバッファへの描画が行われるため、Zバッファのみを更新するマスクオブジェクトの描画と、フレームバッファとZバッファの双方を更新する仮想CGオブジェクトの描画およびフレームバッファのみを更新する半透過オブジェクトの描画とを同時に行うことはできず、複数回に分けて描画を行う必要がある。
また、描画の順序についても考慮しなければならない。例えば、通常の仮想CGオブジェクトとマスクオブジェクトとが同一のシーンに存在している場合においては、フレームバッファへの描画時に、これまでにZバッファに描画された結果を用いてCGオブジェクトの陰面消去を行うため、必ずマスクオブジェクトを先に描画しなければならない。この描画順を逆にした場合には、マスクオブジェクトによる現実世界の隠蔽が正しく行われない。また、通常の仮想CGオブジェクトと半透過オブジェクトとが同一のシーンに存在している場合、半透過オブジェクトの描画の際には、フレームバッファに描画された画像の画素値を参照するので、必ず通常の仮想CGオブジェクトを先に描画しなければならない。この描画順を逆にした場合には、半透過オブジェクトが他のオブジェクトに遮蔽されてしまう。
すなわち、上記3種類のオブジェクトが混在するシーンにおいては、マスクオブジェクト、通常の仮想CGオブジェクト、半透過オブジェクトの順に描画を行わなければならない。また、三者はそれぞれ描画を行うバッファが異なっているため、描画対象となるオブジェクトに応じて独立に描画処理を行う必要がある。
このため、従来装置においては、描画するオブジェクトの見え方の特性である視覚表現形式に合わせて描画順序および描画方法を考慮した上で、使用者が独立にオブジェクトの描画を行うような機構を別途作る必要があるため、使用者に高度な知識と膨大な手間を要求するものであった。
本発明は以上の問題に鑑みてなされたものであり、視覚表現形式が異なるオブジェクトが混在するようなシーンにおいても、オブジェクトに対する視覚表現形式毎に描画順序や描画方法を考慮せずに、各オブジェクトの描画を行うことを可能にする技術を提供することを目的とする。
本発明の目的を達成するために、例えば本発明の複合現実感提示方法は以下の構成を備える。
即ち、現実空間に重畳するための仮想空間の画像を生成する複合現実感提示方法であって、
仮想空間を構成する各オブジェクトを描画する際の描画方法を示すデータを保持する第1の保持工程と、
前記仮想空間を構成する各オブジェクト間の階層構造を示すデータを保持する第2の保持工程と、
前記第1の保持工程で保持しているデータを参照して、同じ描画方法で描画されるオブジェクトの集合を、前記仮想空間を構成する各オブジェクトから特定する特定工程と、
前記第2の保持工程で保持しているデータを参照して、前記特定工程で特定した集合に含まれるオブジェクトにより形成される階層構造を生成する生成工程と、
前記特定工程で特定した集合に含まれる各オブジェクトを、当該集合に含まれる各オブジェクトに共通の描画方法により、前記生成工程で生成した階層構造に従って描画する描画工程とを備え、
前記生成工程、前記描画工程による処理を、前記特定工程で特定した1つ以上の集合毎に行うことを特徴とする。
本発明の目的を達成するために、例えば本発明の複合現実感提示装置は以下の構成を備える。
即ち、現実空間に重畳するための仮想空間の画像を生成する複合現実感提示装置であって、
仮想空間を構成する各オブジェクトを描画する際の描画方法を示すデータを保持する第1の保持手段と、
前記仮想空間を構成する各オブジェクト間の階層構造を示すデータを保持する第2の保持手段と、
前記第1の保持手段が保持しているデータを参照して、同じ描画方法で描画されるオブジェクトの集合を、前記仮想空間を構成する各オブジェクトから特定する特定手段と、
前記第2の保持手段が保持しているデータを参照して、前記特定手段が特定した集合に含まれるオブジェクトにより形成される階層構造を生成する生成手段と、
前記特定手段が特定した集合に含まれる各オブジェクトを、当該集合に含まれる各オブジェクトに共通の描画方法により、前記生成手段が生成した階層構造に従って描画する描画手段とを備え、
前記生成手段、前記描画手段による処理を、前記特定手段が特定した1つ以上の集合毎に行うことを特徴とする。
本発明の構成により、視覚表現形式が異なるオブジェクトが混在するようなシーンにおいても、オブジェクトに対する視覚表現形式毎に描画順序や描画方法を考慮せずに、各オブジェクトの描画を行うことを可能にすることができる。
以下、添付の図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図5は、本実施形態に係る複合現実感提示装置として機能するコンピュータの基本構成を示す図である。
501はCPUで、RAM502やROM503に格納されているプログラムやデータを用いて本装置全体の制御を行うと共に、後述する仮想空間の画像の生成処理、現実空間との重畳処理(詳しくは後述するが、場合によってはこの処理は行わなくても良い)などを実行する。
502はRAMで、外部記憶装置507や記憶媒体ドライブ装置508からロードされたプログラムやデータを一時的に記憶するためのエリアを備えると共に、CPU501が各種の処理を行うために用いるワークエリアも備える。尚、本実施形態では、このRAM502にはフレームバッファとして機能するエリアと、zバッファとして機能するエリアとが設けられているものとする。
503はROMで、本装置全体の制御を行うためのプログラムや、本装置を起動するためのブートプログラム等を格納する。
504、505は夫々キーボード、マウスで、各種の指示をCPU501に対して入力するためのユーザインターフェースとして機能するものであるが、ユーザインターフェースとしてはこれ以外の装置を用いても良く、キーボード、マウスに限定するものではない。
506は表示装置で、CRTや液晶画面などにより構成されており、ここにCPU501が処理した結果を文字や画像として表示することができる。
507は外部記憶装置で、ハードディスクドライブ装置などの大容量情報記憶装置として機能するものであり、ここにOS(オペレーティングシステム)や、CPU501に後述する仮想空間の画像の生成処理等、本装置にインターフェース509を介して接続される不図示のHMDを頭部に装着する観察者に複合現実感を提示する為の一連の処理を実行させるためのプログラムやデータが保存されている。
また、外部記憶装置507にはこのほかにも、仮想空間の画像を描画するために必要なデータ、例えば、仮想空間を構成するオブジェクトに係るデータ(オブジェクトの形状データ、テクスチャデータ等)、仮想空間のサイズや位置などの環境を示すデータなどが保存されている。
これらプログラムやデータは必要に応じてCPU501の制御により、RAM502に読み出される。
508は記憶媒体ドライブ装置で、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出し、RAM502や外部記憶装置507に出力する。なお、外部記憶装置507が保存しているプログラムやデータをこの記憶媒体に記録しておき、これらプログラムやデータを記憶媒体ドライブ装置508によってRAM502にロードするようにしても良い。
509はインターフェース(I/F)509で、現実空間に仮想空間が重畳された画像(即ち複合現実空間画像)を観察者に提示するために、この観察者の頭部に装着するHMDを本装置に接続するために用いられるものである。
インターフェース509にHMDを接続する場合、このHMDが光学シースルータイプのものである場合には、本装置(複合現実感提示装置)が生成した仮想空間の画像をインターフェース509を介してHMDの表示部に出力し、HMDがビデオシースルータイプのものである場合には、HMDに装着されたカメラ等の撮像装置により撮像された現実空間の画像をこのインターフェース509を介して本装置に入力し、更にこのインターフェース509を介して、この現実空間の画像に本装置が生成した仮想空間の画像を重畳した画像(即ち複合現実空間画像)をHMDの表示部に出力する。
510は上述の各部を繋ぐバスである。
図1は、本実施形態に係る複合現実空間提示装置を含むシステムの機能構成を示す図である。
実写画像入力部101は、HMDに装着された1つ以上のカメラ等の撮像装置により撮像された現実空間の画像を後段の実写画像描画部106に入力するためのインターフェースとして機能するものである。なお、HMDが光学シースルータイプのものである場合には、現実空間の画像の本装置への入力は行われないために、実写画像入力部101、実写画像描画部106は不要となる。
仮想空間情報記憶部102は、仮想空間を構成する各オブジェクトに係るデータや、仮想空間を構成する各オブジェクト間の階層構造を示すシーングラフのデータ等、仮想空間に係るデータを記憶する。ここで「仮想空間を構成する各オブジェクトに係るデータ」とは、例えば、各オブジェクトの形状情報やテクスチャ情報などがこれに含まれる。即ち、各オブジェクトを描画するために必要な情報(データ)である。また、このデータには、観察者に提示する為の文字情報も含まれる。
また、「シーングラフ」とは、仮想空間を構成する各オブジェクトを階層化・構造化してシーンに配置することにより、シーン全体を記述するためのデータ構造である。各オブジェクトが仮想空間中で配置される位置姿勢の情報についても、シーングラフで記述される。例えばSGI社のグラフィックス・ライブラリであるOpen Inventor(登録商標)では、シーングラフのデータを参照して各オブジェクトの描画処理を行うことによって、シーン中の各オブジェクト間の階層構造を維持したオブジェクトの描画を効率的に実現している。
視覚表現形式記憶部103は、各オブジェクトの視覚表現形式を示すデータを各オブジェクトを特定する情報と関連づけて保持している。例えば、各オブジェクト固有のID番号と、視覚表現形式を示すデータとを関連づけたテーブルを保持している。視覚表現形式には、例えばマスク形式、ノーマル形式、半透過形式がある。
マスク形式とは上述の通り、現実空間における現実物体が仮想空間に作用を及ぼしている状況(例えば、現実物体による仮想物体の隠蔽など)を表現するために用いられる。ノーマル形式とは、これもまた上述の通り、仮想空間における仮想物体(所謂本明細書では「オブジェクト」)を描画するために用いられる。半透過形式は、現実空間のガラスに仮想空間が映りこむような表現や、ヘッドアップディスプレイなどの光学シースルー型表示装置を模擬するような場合に用いられる。
このように、仮想空間を構成する各オブジェクトに対する視覚表現形式を示すデータが視覚表現形式記憶部103に保持されている。なお、従来の技術として説明したように、オブジェクトの視覚表現形式が異なれば、オブジェクトの画像の描画方法(フレームバッファ、及び/又はzバッファをどのようにして用いて描画するか)が異なるので、換言すれば視覚表現形式記憶部103には、各オブジェクトの画像の描画方法を示すデータが保持されていることになる。
なお、1つのオブジェクトに対する視覚表現形式を示すデータに2つ以上の視覚表現形式(例えばノーマル形式と半透過形式)を示すデータを含ませ、実際に設定すべき方を選択するようにしても良い。この場合、視覚表現形式設定部104は、2つ以上の視覚表現形式から実際に設定すべき方を選択する。この選択は操作者が行っても良いし、予め設定されたデータに従って設定するようにしても良い。また、視覚表現形式設定部104により、1つのオブジェクトに対する視覚表現形式を示すデータに新たな視覚表現形式を追加するようにしても良い。
そして1つのオブジェクトに対する視覚表現形式を示すデータに2つの視覚表現形式を示すデータが含まれている場合に(視覚表現形式設定部104で新たに追加することで2つの視覚表現形式を示すデータを含ませるようにしても良い)、この視覚表現形式設定部104により何れか1つを選択すると、この選択した視覚表現形式が以降、このオブジェクトに設定された視覚表現形式となる。設定された視覚表現形式のデータはこのオブジェクトを特定する情報に関連づけて上記視覚表現形式記憶部103に保持されることになる。
シーングラフマルチパス描画部105には、これから描画しようとする対象が視覚表現形式単位で指示される。即ち、マスク形式、ノーマル形式、半透過形式の順でオブジェクトを描画するよう指示される。
これによりシーングラフマルチパス描画部105は、同じ描画方法で描画すると設定されたオブジェクトの集合(即ち、マスク形式で描画すると設定されたオブジェクトの集合、ノーマル形式で描画すると設定されたオブジェクトの集合、半透過形式で描画すると設定されたオブジェクトの集合)を視覚表現形式記憶部103が保持するデータを参照して特定し、特定した集合に含まれる各オブジェクトのデータを仮想空間情報記憶部102から読み出して後段のマスクオブジェクト描画部107、ノーマルオブジェクト描画部108、半透過オブジェクト描画部109の何れか1つに出力する。
また、シーングラフマルチパス描画部105は、仮想空間情報記憶部102が保持するシーングラフのデータを用いて、指示された視覚表現形式と同じ視覚表現形式が設定されているオブジェクトにより形成される階層構造を示すシーングラフのデータを生成する処理を行う。この処理についての詳細は後述する。
このようにして、シーングラフマルチパス描画部105は、指示された視覚表現形式と同じ視覚表現形式が設定されているオブジェクトの集合を特定し、特定した集合に含まれる各オブジェクトを描画するためのデータ、及び特定した集合に含まれるオブジェクトにより形成される階層構造を示すシーングラフのデータを出力する。この一連の出力処理を、マスク形式、ノーマル形式、半透過形式について行うことで、シーングラフマルチパス描画部105は、同じ描画方法で描画すると設定したオブジェクトの集合毎に、オブジェクトを描画するためのデータ、シーングラフのデータを出力することができる。
なお、シーン中に存在しない視覚表現形式があれば、当然、その視覚表現形式についてはシーングラフマルチパス描画部105には指示しない。
ここで、シーングラフマルチパス描画部105が行う上記処理、同じ描画方法で描画すると設定されたオブジェクトの集合を視覚表現形式記憶部103が保持するデータを参照して特定し、特定した集合に含まれる各オブジェクトのデータを仮想空間情報記憶部102から読み出して後段のマスクオブジェクト描画部107、ノーマルオブジェクト描画部108、半透過オブジェクト描画部109の何れか1つに出力する処理について、より詳細に説明する。
本実施形態では上述の通り、オブジェクトの描画を指示する場合には、視覚表現形式単位で指示する。シーングラフマルチパス描画部105はこの指示を受け、受けた指示の視覚表現形式と同じ視覚表現形式が設定されている(先に視覚表現形式設定部104を用いて上述の通り設定した)オブジェクトを特定する情報(例えばID番号)を、視覚表現形式記憶部103が保持するデータを参照して特定する。この処理は、上述の通り、視覚表現形式記憶部103は、各オブジェクトの視覚表現形式を示すデータを各オブジェクトを特定する情報と関連づけて保持しているので、指示された視覚表現形式に関連づけられたオブジェクトを特定する情報を特定することにより実現可能である。このようにしてシーングラフマルチパス描画部105は、指示された視覚表現形式と同じ視覚表現形式が設定されているオブジェクトを特定する情報を得ることができる。
次にシーングラフマルチパス描画部105は、上述の処理により得られる「指示された視覚表現形式と同じ視覚表現形式が設定されているオブジェクトを特定する情報」を用いて、この情報で特定されるオブジェクトを描画するためのデータを仮想空間情報記憶部102が保持しているデータから読み出す。
このようにしてシーングラフマルチパス描画部105は、指示された視覚表現形式と同じ視覚表現形式が設定されているオブジェクトの集合に含まれる各オブジェクトを描画する為のデータを読み出すことができる。
当然、シーングラフマルチパス描画部105により読み出された夫々のオブジェクトのデータは、この夫々のオブジェクトに共通の視覚表現形式に従って描画されるものである。この視覚表現形式には上述の通り、3つの形式の何れかが設定されているので、この3つの何れかに応じて、シーングラフマルチパス描画部105が読み出したオブジェクトのデータ、及び読み出したオブジェクトが属する集合について作成したシーングラフのデータの出力先が異なる。
例えばシーングラフマルチパス描画部105に指示された視覚表現形式がマスク形式である場合には、シーングラフマルチパス描画部105が読み出したオブジェクトのデータはマスク形式のものであり、且つ作成したシーングラフのデータはマスク形式で描画されると設定されたオブジェクト間の階層構造を示すものであるので、これらオブジェクトのデータ、及びシーングラフのデータをマスクオブジェクト描画部107に出力する。
例えばシーングラフマルチパス描画部105に指示された視覚表現形式がノーマル形式である場合には、シーングラフマルチパス描画部105が読み出したオブジェクトのデータはノーマル形式のものであり、且つ作成したシーングラフのデータはノーマル形式で描画されると設定されたオブジェクト間の階層構造を示すものであるので、これらオブジェクトのデータ、及びシーングラフのデータをノーマルオブジェクト描画部108に出力する。
例えばシーングラフマルチパス描画部105に指示された視覚表現形式が半透過形式である場合には、シーングラフマルチパス描画部105が読み出したオブジェクトのデータは半透過形式のものであり、且つ作成したシーングラフのデータは半透過形式で描画されると設定されたオブジェクト間の階層構造を示すものであるので、これらオブジェクトのデータ、及びシーングラフのデータを半透過オブジェクト描画部109に出力する。
マスクオブジェクト描画部107、ノーマルオブジェクト描画部108、半透過オブジェクト描画部109は夫々、シーングラフマルチパス描画部105から受けた各オブジェクトのデータ、及びシーングラフのデータを用いて、夫々の視覚表現形式に従ったシーングラフを描画する処理を行う。ここで「シーングラフの描画」とは、シーングラフを構成する各オブジェクトの画像を、各オブジェクトの階層構造に従って描画する処理を指すものとする。
ここで、マスクオブジェクト描画部107によるマスクオブジェクトの描画方法については従来と同様の方法、即ち、(初期化状態では、zバッファには無限遠を示すデータが格納されている)、マスクオブジェクトの画像を構成する各画素のz座標値をzバッファに書き込む処理を行う。より具体的には、マスクオブジェクトの画像を構成する画素のz座標値と、この画素の位置に対応するzバッファ内の位置に格納されているz座標値とを比較し、より値が小さい方(より視点位置に近い方)の画素をzバッファに記録する処理を行う。
また、ノーマルオブジェクト描画部108による描画方法についても従来と同様の方法でもって行う。即ち、ノーマルオブジェクトの画像を構成する各画素のz座標値(各画素が示すノーマルオブジェクト上の位置のz座標値)と、zバッファに格納されているデータが示すz座標値とを比較し、より値が小さい方(より視点位置に近い方)の画素をフレームバッファに記録する。また、比較したフレームバッファにおける画素のz座標値の方が、比較したzバッファにおける画素のz座標値よりも小さい値であった場合には、比較したzバッファにおける画素のz座標値を比較したフレームバッファにおける画素のz座標値に更新する処理を行う。これにより、常にzバッファには、より視点位置に近いz座標値が格納されていることになる。このような処理を行うことにより、2つのオブジェクトが視点位置から見て重なっていても、より視点位置に近い部分が手前に描画される。
また、半透過オブジェクト描画部109による描画方法についても従来と同様の方法でもって行う。即ち、これから半透過型のオブジェクトとしてフレームバッファ上に描画するオブジェクトの画像と、先にフレームバッファに格納されている画像との周知のブレンディング処理(本実施形態ではαブレンド処理)を行うことにより、先にフレームバッファに格納されている画像上に半透明のオブジェクトの画像を形成することができる。
なお、シーン中にマスクオブジェクトを設定せず、描画を行わない場合には、マスクオブジェクト描画部107は不要となるので、省略しても良い。また、シーン中に半透過オブジェクトを設定せず、描画を行わない場合には、半透過オブジェクト描画部109は不要となるので、省略しても良い。
実写画像描画部106は、実写画像入力部101から入力された現実空間の画像を描画する処理を行う。尚上述の通り、HMDが光学シースルータイプのものである場合には、現実空間の画像の本装置への入力は行われないために、実写画像描画部106は実写画像入力部101と同様に、不要となる。
画像表示部110は、例えばHMDを装着する観察者の眼前に位置する表示部に対応するものであり、実写画像入力部101から入力され、実写画像描画部106が描画した現実空間画像上に、マスクオブジェクト描画部107、ノーマルオブジェクト描画部108、半透過オブジェクト描画部109の何れかにより描画されたオブジェクトの画像により形成する仮想空間の画像とが重畳された画像を表示する。尚、HMDが光学シースルータイプのものである場合には、現実空間の画像の本装置への入力は成されないので、画像表示部110は、現実空間は透過させて観察者に見せるととに、透過面上に仮想空間の画像を表示する。
以上説明した各部が、本実施形態に係る複合現実感提示装置を含むシステムの機能構成であるが、本実施形態では、実写画像描画部106、シーングラフマルチパス描画部105、マスクオブジェクト描画部107、ノーマルオブジェクト描画部108、半透過オブジェクト描画部109の夫々はプログラムとして実現する。即ち、これらの各部の機能をCPU501に行わせるためのプログラムとしてRAM502上にロードされるものとする。
また、仮想空間情報記憶部102、視覚表現形式記憶部103については本実施形態では、外部記憶装置507内に設けられた記憶領域に対応するものであり、実写画像入力部101については、インターフェース部509に相当するものである。また、視覚表現形式設定部104は、キーボード504やマウス505に相当するものである。
しかし、図1に示した各部は、以上のような形態に限定されるものではなく、例えば、図1に示した各部が専用ハードウェアにより構成されているようなものであっても良い。
次に、本実施形態に係る複合現実感提示装置が行う、仮想空間の画像を生成し、現実空間の画像上に重畳して出力する処理について、同処理のフローチャートを示す図2を用いて以下、説明する。尚、図2に示すフローチャートに従ったプログラムは、RAM502にロードし、CPU501がこれを実行することにより、本実施形態に係る複合現実感提示装置は以下説明する各処理を行うことになる。
先ず、以下説明する処理に先立って、外部記憶装置507内に設けられた仮想空間情報記憶部102に相当する記憶領域内には、上述の通り、仮想空間を構成する各オブジェクトを描画するためのシーングラフのデータが記憶されているものとする。
そして先ず、複合現実感提示装置を起動するので、CPU501は外部記憶装置507内に保存されているOSのプログラム、ROM503内のブートプログラム等を実行することにより、本装置の初期化処理(この初期化処理には以下行う各処理のための初期化処理も含む)を行う(ステップS201)。
本装置が起動され、本装置の初期化処理が完了すると、次に、HMDに搭載されたカメラなどの撮像装置が撮像した現実空間の画像がI/F509を介して本装置内に入力され、RAM502内の所定のエリアに格納される(ステップS202)。なお、HMDが光学シースルー型のものである場合には、現実空間の画像の撮像処理は行わないので、ステップS202における処理は省略する。
次に、キーボード504やマウス505を用いて、仮想空間を構成する各オブジェクトに対する視覚表現形式を入力する(ステップS203)。入力した視覚表現形式を示すデータは、設定先のオブジェクトを特定する情報と関連づけて外部記憶装置507内の視覚表現形式記憶部103に相当する記憶領域内に保存される。
例えば表示装置506上に、仮想空間を構成する各オブジェクトのうちの所望のオブジェクトをキーボード504やマウス505を用いて選択可能にし、選択したオブジェクトが識別可能なように表示すると共に、選択したオブジェクトに対して設定する為の視覚表現形式のメニューを表示する(このメニューには「ノーマル形式」、「マスク形式」、「半透過形式」の3つの選択項目が表示されている)。
そしてこのメニューから1つをキーボード504やマウス505を用いて選択する。選択すれば、選択した視覚表現形式を示すデータが、現在選択されているオブジェクトを特定する情報と関連づけられて、外部記憶装置507内の視覚表現形式記憶部103に相当する記憶領域内に保存される。
なお、オブジェクトによってはデフォルトの視覚表現形式が設定されていても良く、その場合にはこのオブジェクトに対する設定は行わなくても良い。
次に、RAM502に設けられたフレームバッファ、zバッファをクリアする(ステップS204)。例えば、フレームバッファのクリアとは、フレームバッファ内を0の値を示すデータで埋める処理である。また、zバッファのクリアとは、zバッファ内を無限遠の距離を示すデータで埋める処理である。
次に、ステップS202でRAM502内の所定のエリアに格納された現実空間の画像を、フレームバッファに書き込む(ステップS205)。ここでは、フレームバッファに画像を書き込むことを「描画する」と表現することもある。
次に、仮想空間を構成する各オブジェクトのうち、同じ描画方法で描画されるオブジェクトの集合毎に、集合内のオブジェクトが形成する階層構造をシーングラフとして生成する処理を行う(ステップS206)。以下、ステップS206における処理にについてより詳細に説明する。
先ずシーングラフマルチパス描画部105に相当するプログラムをCPU501が実行することにより、外部記憶装置507内の仮想空間情報記憶部102に相当する記憶領域内に記憶されているシーングラフのデータをRAM502内の所定のエリアに読み出す。このシーングラフのデータとは、上述の通り、仮想空間を構成する各オブジェクト間の階層構造を示すデータである。
図3は、仮想空間を構成する各オブジェクト間の階層構造の一例を示す図である。以下の説明では、図3に示すシーングラフを例に取り説明するが、同図に示したシーングラフの形態以外に対しても以下の説明の本質が適用可能であることは、以下の説明より明らかである。
同図では、マスク形式で描画すると設定されたオブジェクトを円で示しており、A,E,Hで示すオブジェクトがこれに相当する。ノーマル形式で描画すると設定されたオブジェクトは正方形で示しており、B,D,F,G,Iで示すオブジェクトがこれに相当する。また、半透過形式で描画すると設定されたオブジェクトは六角形で示しており、C、Jで示すオブジェクトがこれに相当する。
ここで、マスク形式が指示されると、マスク形式で描画すると設定されたオブジェクト、即ち、A,E,Hで示すオブジェクトの描画が指示されたのであるから、その描画の際にはこれら3つのオブジェクト間の階層構造を示すシーングラフのデータが必要となる。そこで、マスク形式が指示されると、図3に示すシーングラフから、A,E,Hで示すオブジェクトにより形成される階層構造を示すシーングラフを生成する。より具体的には、図3に示す階層構造におけるA,E,Hの各オブジェクト間の階層構造を維持したままで、且つA,E,Hのオブジェクトのみで形成される階層構造を示すシーングラフを生成する。
生成したシーングラフを図4の401に示す。シーングラフ401は、図3に示す階層構造におけるA,E,Hの各オブジェクト間の階層構造を維持したままで、且つA,E,Hのオブジェクトのみで形成される階層構造を示すシーングラフとなっていることが分かる。
これはステップS203でノーマル形式、半透過形式が指示されても同様である。
例えばノーマル形式が指示されると、ノーマル形式で描画すると設定されたオブジェクト、即ち、B,D,F,G,Iで示すオブジェクトの描画が指示されたのであるから、その描画の際にはこれら5つのオブジェクト間の階層構造を示すシーングラフのデータが必要となる。そこで、ノーマル形式が指示されると、図3に示すシーングラフから、B,D,F,G,Iで示すオブジェクトにより形成される階層構造を示すシーングラフを生成する。より具体的には、図3に示す階層構造におけるB,D,F,G,Iの各オブジェクト間の階層構造を維持したままで、且つB,D,F,G,Iのオブジェクトのみで形成される階層構造を示すシーングラフを生成する。
生成したシーングラフを図4の402に示す。シーングラフ402は、図3に示す階層構造におけるB,D,F,G,Iの各オブジェクト間の階層構造を維持したままで、且つB,D,F,G,Iのオブジェクトのみで形成される階層構造を示すシーングラフとなっていることが分かる。
また、半透過形式が指示されると、半透過形式で描画すると設定されたオブジェクト、即ち、C、Jで示すオブジェクトの描画が指示されたのであるから、その描画の際にはこれら2つのオブジェクト間の階層構造を示すシーングラフのデータが必要となる。そこで、半透過形式が指示されると、図3に示すシーングラフから、C、Jで示すオブジェクトにより形成される階層構造を示すシーングラフを生成する。より具体的には、図3に示す階層構造におけるC、Jの各オブジェクト間の階層構造を維持したままで、且つC、Jのオブジェクトのみで形成される階層構造を示すシーングラフを生成する。
生成したシーングラフを図4の403に示す。シーングラフ403は、図3に示す階層構造におけるC、Jの各オブジェクト間の階層構造を維持したままで、且つC、Jのオブジェクトのみで形成される階層構造を示すシーングラフとなっていることが分かる。
このようにして、仮想空間情報記憶部102から読み出されたシーングラフのデータ(上記説明では図3に示すシーングラフのデータに相当)を用いて、指示された視覚表現形式と同じ視覚表現形式が設定されたオブジェクトにより形成される階層構造を示すシーングラフのデータを生成する。
なお、生成したシーンのグラフのデータはRAM502内の所定のエリアに一時的に記憶させる。
なお、以上の説明では、ノーマル形式、マスク形式、半透過形式の夫々の視覚表現形式で描画されるオブジェクトの数は何れも2以上であったが、例えばノーマル形式で描画されると設定されたオブジェクトの数が1である場合もあり得る。その場合、ノーマル形式に対するシーングラフはこの1つのオブジェクトの位置姿勢位置などの情報を含むのみで、オブジェクト間の階層構造を表すものではない。またその場合、上記説明において「集合」には「構成要素数が1である集合」を含むものとする。
図2に戻って、次に、マスク形式が設定されたオブジェクトを描画するためのデータ(マスク形式が設定されたオブジェクトの各画素のz座標値を示すデータ)を外部記憶装置507からRAM502に読み出し、読み出したデータと、ステップS206で生成したマスク形式が設定されたオブジェクトの集合に対するシーングラフのデータとを用いて、マスク形式が設定されたオブジェクトを描画するためのデータが示すz座標値と、先にzバッファに格納されているz座標値との比較結果に応じて上述のzバッファの更新処理を行う(ステップS207)。
次に、ノーマル形式が設定されたオブジェクトを描画するためのデータを外部記憶装置507からRAM502に読み出し、読み出したデータと、ステップS206で生成したノーマル形式が設定されたオブジェクトの集合に対するシーングラフのデータとを用いて、上述の通り、zバッファに格納されているz座標値と比較しながら、フレームバッファにノーマル形式が設定されたオブジェクトを描画するためのデータを書き込む処理を行う(ステップS208)。
次に、半透過形式が設定されたオブジェクトを描画するためのデータを外部記憶装置507からRAM502に読み出し、読み出したデータと、ステップS206で生成した半透過形式が設定されたオブジェクトの集合に対するシーングラフのデータとを用いて、上述の通り、先にフレームバッファに格納されている画像のデータと、半透過形式が設定されたオブジェクトを描画するためのデータとのブレンディング処理を行う(ステップS209)。
本実施形態では、このブレンディング処理は以下の手順に従って行う。先にフレームバッファに格納されている画像中の注目画素の値をX、この注目画素の位置にブレンディングしようとする画素(半透過形式が設定されたオブジェクトにおける画素)の値をYとすると、Z=X+Yを計算し、フレームバッファにおける上記注目画素の画素値をZに更新する。
なお、このブレンディング処理についてはこのような処理に限定されるものではなく、周知のαブレンディング処理を適用しても良い。
以上の処理により、フレームバッファには現実空間の画像に、仮想空間の画像(各視覚表現形式によるオブジェクトの画像)が重畳された画像が格納されていることになるので、これをI/F509を介してHMDの表示部に出力する。
そして、以上の処理を完了する指示がキーボード504やマウス505を用いてCPU501に指示されていれば、本処理を終了し、指示されていない場合には処理をステップS202に戻し、以降の処理を繰り返す。
以上の説明により、本実施形態によって、仮想空間を構成する各オブジェクトの画像を描画する際に、視覚表現形式が同じオブジェクトの集合毎に描画するので、従来のように、描画順番が煩雑になることはない。
また、視覚表現形式が同じオブジェクトの集合毎に描画を行うためには、例えば図4に示すような各視覚表現形式毎のシーングラフを作成する必要があるのであるが、このシーングラフをシーンの作成者に意識させることなく、図3に示すようなシーングラフに従った各オブジェクトの画像を描画する事ができるので、作成者に与える負荷を軽減させることができる。
また、オブジェクトの見え方の特性(即ち、視覚表現形式)毎に描画順や描画方法を上記作成者に考慮させる描画機構を別途作る必要もないので、作成者に与える負荷を軽減させることができると共に、より簡便な構成でもって複合現実感を提示することができる。
[第2の実施形態]
上記ステップS207におけるマスクオブジェクトの描画処理において、先にフレームバッファに格納されている画像中の注目画素の値をX、マスクオブジェクトの画像において、この注目画素の位置に対応する位置の画素の値をYとした場合に、Z=X+Yを計算し、フレームバッファにおける上記注目画素の画素値をZに更新する処理を更に行うようにしても良い。
この場合、仮想の光源によって現実物体を照明しているかのような効果を得ることができる。
また、このような、ステップS207におけるフレームバッファの更新処理を行う/行わないの選択を行うことができるようにしても良く、この選択をキーボード504やマウス505でもって行うようにしても良いし、予めマスクオブジェクト毎にこのような更新処理を行う/行わない旨のデータを付加しておいて、描画時にCPU501がオブジェクト毎に更新処理を行う/行わないを切り替えても良い。
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係る複合現実空間提示装置を含むシステムの機能構成を示す図である。 本発明の第1の実施形態に係る複合現実感提示装置が行う、仮想空間の画像を生成し、現実空間の画像上に重畳して出力する処理のフローチャートである。 仮想空間を構成する各オブジェクト間の階層構造の一例を示す図である。 図3に示すシーングラフから、各視覚表現形式に対して生成されたシーングラフを示す図である。 本発明の第1の実施形態に係る複合現実感提示装置として機能するコンピュータの基本構成を示す図である。

Claims (12)

  1. 現実空間に重畳するための仮想空間の画像を生成する複合現実感提示方法であって、
    仮想空間を構成する各オブジェクトを描画する際の描画方法を示すデータを保持する第1の保持工程と、
    前記仮想空間を構成する各オブジェクト間の階層構造を示すデータを保持する第2の保持工程と、
    前記第1の保持工程で保持しているデータを参照して、同じ描画方法で描画されるオブジェクトの集合を、前記仮想空間を構成する各オブジェクトから特定する特定工程と、
    前記第2の保持工程で保持しているデータを参照して、前記特定工程で特定した集合に含まれるオブジェクトにより形成される階層構造を生成する生成工程と、
    前記特定工程で特定した集合に含まれる各オブジェクトを、当該集合に含まれる各オブジェクトに共通の描画方法により、前記生成工程で生成した階層構造に従って描画する描画工程とを備え、
    前記生成工程、前記描画工程による処理を、前記特定工程で特定した1つ以上の集合毎に行うことを特徴とする複合現実感提示方法。
  2. 前記第1の保持工程では、
    zバッファにオブジェクトの画像の各画素に対応するz座標値を記録する第1の描画方法、
    前記フレームバッファにオブジェクトの画像を描画する際に、当該画像を構成する各画素のz座標値と、zバッファに保持されているデータが示すz座標値とを比較し、より視点位置に近いz座標値を有する画素のみを前記フレームバッファに描画すると共に、当該画素のz座標値をzバッファに記録する第2の描画方法、
    前記フレームバッファにオブジェクトの画像を描画する際に、当該画像と先に前記フレームバッファに描画されている画像とのブレンディング処理を行うことで、前記オブジェクトの画像を描画する第3の描画方法
    のうち少なくとも1つ以上の描画方法を示すデータが前記仮想空間を構成する各オブジェクトについて保持しており、
    前記生成工程では前記第1の保持工程で保持されているデータを参照して、前記仮想空間を構成する各オブジェクトの描画方法が前記第1乃至3の描画方法の何れであるかを判断することにより、同じ描画方法で描画されるオブジェクトの集合を特定することを特徴とする請求項1に記載の複合現実感提示方法。
  3. 更に、前記仮想空間を構成する各オブジェクトの内、1つ以上のオブジェクトの描画方法を示すデータを変更する変更工程を備えることを特徴とする請求項1に記載の複合現実感提示方法。
  4. 現実空間に重畳するための仮想空間の画像を生成する複合現実感提示装置であって、
    仮想空間を構成する各オブジェクトを描画する際の描画方法を示すデータを保持する第1の保持手段と、
    前記仮想空間を構成する各オブジェクト間の階層構造を示すデータを保持する第2の保持手段と、
    前記第1の保持手段が保持しているデータを参照して、同じ描画方法で描画されるオブジェクトの集合を、前記仮想空間を構成する各オブジェクトから特定する特定手段と、
    前記第2の保持手段が保持しているデータを参照して、前記特定手段が特定した集合に含まれるオブジェクトにより形成される階層構造を生成する生成手段と、
    前記特定手段が特定した集合に含まれる各オブジェクトを、当該集合に含まれる各オブジェクトに共通の描画方法により、前記生成手段が生成した階層構造に従って描画する描画手段とを備え、
    前記生成手段、前記描画手段による処理を、前記特定手段が特定した1つ以上の集合毎に行うことを特徴とする複合現実感提示装置。
  5. コンピュータに請求項1乃至3の何れか1項に記載の複合現実感提示方法を実行させることを特徴とするプログラム。
  6. 請求項5に記載のプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。
  7. 現実世界の映像を撮影し取り込む実写画像入力ステップと、
    仮想世界を構成するために必要なCGオブジェクトデータおよびシーンデータを保持する仮想空間情報記憶ステップと、
    CGオブジェクトを描画する際の視覚表現形式に関する情報を保持する視覚表現形式記憶ステップと、
    利用者がCGオブジェクトに対して視覚表現形式を任意に変更させるための視覚表現形式設定ステップと、
    仮想空間情報記憶ステップ、視覚表現形式記憶ステップ、視覚表現形式設定ステップの情報を元に、視覚表現に応じてCGオブジェクトの描画手段を適切に選択するシーングラフマルチパス描画ステップと、
    実写画像入力部から入力された現実世界の画像を描画する実写画像描画ステップと、
    マスク形式のCGオブジェクトを描画するマスクオブジェクト描画ステップと、
    ノーマル形式のCGオブジェクトを描画するノーマルオブジェクト描画ステップと、
    半透過形式のCGオブジェクトを描画する半透過オブジェクト描画ステップと、
    利用者に現実世界画像と仮想世界画像とを合成した画像を提示する画像表示ステップと
    を備えることを特徴とする複合現実感方法。
  8. 前記視覚表現形式記憶ステップは、前記CGオブジェクトの視覚表現形式を識別するための情報を保持することを特徴とする請求項7に記載の複合現実感方法。
  9. 前記マスクオブジェクト描画ステップは、フレームバッファの更新を行わず、Zバッファの更新を行うことを特徴とする請求項7に記載の複合現実感方法。
  10. 前記半透過オブジェクト描画ステップは、Zバッファの更新を行わず、フレームバッファの更新を行うことを特徴とする請求項7に記載の複合現実感方法。
  11. 前記半透過オブジェクト描画ステップは、更新前の描画対象領域の画素値とCGオブジェクトの画素値とを加算することによって、描画対象領域に描画される画素値を定め、フレームバッファの更新を行うことを特徴とする請求項7に記載の複合現実感方法。
  12. 前記シーングラフマルチパス描画ステップは、シーン全体を表現するシーングラフから視覚表現形式別にシーングラフを再構成することを特徴とする請求項7に記載の複合現実感方法。
JP2003386937A 2003-11-17 2003-11-17 複合現実感提示方法、複合現実感提示装置 Expired - Fee Related JP4307222B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003386937A JP4307222B2 (ja) 2003-11-17 2003-11-17 複合現実感提示方法、複合現実感提示装置
US10/981,563 US7199807B2 (en) 2003-11-17 2004-11-05 Mixed reality presentation method and mixed reality presentation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003386937A JP4307222B2 (ja) 2003-11-17 2003-11-17 複合現実感提示方法、複合現実感提示装置

Publications (3)

Publication Number Publication Date
JP2005149209A true JP2005149209A (ja) 2005-06-09
JP2005149209A5 JP2005149209A5 (ja) 2006-12-14
JP4307222B2 JP4307222B2 (ja) 2009-08-05

Family

ID=34567427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003386937A Expired - Fee Related JP4307222B2 (ja) 2003-11-17 2003-11-17 複合現実感提示方法、複合現実感提示装置

Country Status (2)

Country Link
US (1) US7199807B2 (ja)
JP (1) JP4307222B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170091710A (ko) * 2014-12-03 2017-08-09 노키아 테크놀로지스 오와이 디지털 비디오 렌더링

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004265193A (ja) * 2003-03-03 2004-09-24 Canon Inc 情報処理方法、情報処理装置、サーバ装置の制御方法、サーバ装置
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
US9019300B2 (en) 2006-08-04 2015-04-28 Apple Inc. Framework for graphics animation and compositing operations
JP4834606B2 (ja) * 2007-05-16 2011-12-14 キヤノン株式会社 画像処理方法及び画像処理装置
US20090091564A1 (en) * 2007-10-03 2009-04-09 Raju Thevan System and method for rendering electronic documents having overlapping primitives
DE102007048857A1 (de) * 2007-10-11 2009-04-16 Robert Bosch Gmbh Verfahren zur Erzeugung und/oder Aktualisierung von Texturen von Hintergrundobjektmodellen, Videoüberwachungssystem zur Durchführung des Verfahrens sowie Computerprogramm
US20090271436A1 (en) * 2008-04-23 2009-10-29 Josef Reisinger Techniques for Providing a Virtual-World Object Based on a Real-World Object Description
US20110141112A1 (en) * 2009-12-11 2011-06-16 William Allen Hux Image processing techniques
US8990682B1 (en) * 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US9081177B2 (en) 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US9547406B1 (en) 2011-10-31 2017-01-17 Google Inc. Velocity-based triggering
US10049437B2 (en) 2016-11-21 2018-08-14 Microsoft Technology Licensing, Llc Cleartype resolution recovery resampling

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5416893A (en) * 1993-10-26 1995-05-16 Hewlett-Packard Co. Method for displaying edging or decaling of an object in a graphics display
JP2000251090A (ja) * 1999-03-01 2000-09-14 Sony Computer Entertainment Inc 描画装置及び該描画装置で被写界深度を表現する方法
US6734852B2 (en) * 1999-09-24 2004-05-11 Sun Microsystems, Inc. Using rendering molecules to manage scene-based rendering
AU2001239926A1 (en) * 2000-02-25 2001-09-03 The Research Foundation Of State University Of New York Apparatus and method for volume processing and rendering
US6961057B1 (en) * 2000-10-12 2005-11-01 Nvidia Corporation Method and apparatus for managing and accessing depth data in a computer graphics system
WO2002082378A1 (en) * 2001-04-09 2002-10-17 Koninklijke Philips Electronics N.V. Method of blending digital pictures
EP1349114A3 (en) 2002-03-19 2011-06-15 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus
JP2003283949A (ja) 2002-03-26 2003-10-03 Canon Inc 受信装置
US7081892B2 (en) * 2002-04-09 2006-07-25 Sony Computer Entertainment America Inc. Image with depth of field using z-buffer image data and alpha blending
JP4065507B2 (ja) 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
US7427996B2 (en) 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170091710A (ko) * 2014-12-03 2017-08-09 노키아 테크놀로지스 오와이 디지털 비디오 렌더링
JP2018504009A (ja) * 2014-12-03 2018-02-08 ノキア テクノロジーズ オーユー デジタルビデオのレンダリング
US10115227B2 (en) 2014-12-03 2018-10-30 Nokia Technologies Oy Digital video rendering
KR102059732B1 (ko) * 2014-12-03 2020-02-20 노키아 테크놀로지스 오와이 디지털 비디오 렌더링

Also Published As

Publication number Publication date
JP4307222B2 (ja) 2009-08-05
US20050104882A1 (en) 2005-05-19
US7199807B2 (en) 2007-04-03

Similar Documents

Publication Publication Date Title
EP1642625B1 (en) Video game device and image processing program
EP1353296B1 (en) Image with depth of field using z-buffer image data and alpha blending
JP4948218B2 (ja) 画像処理装置及びその制御方法
JP4808778B2 (ja) レイ・トレース画像をラスタ化画像と合成するための方法
US6945869B2 (en) Apparatus and method for video based shooting game
JP4307222B2 (ja) 複合現実感提示方法、複合現実感提示装置
EP1355276A2 (en) System and method for distance adjusted rendering
US20020004421A1 (en) Computer readable recording medium recording a program for causing a light source to be displayed on a game screen and the program, and game screen display method and apparatus
JP2006346507A (ja) ゲーム装置および画像処理プログラム
JP2007026112A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2006195882A (ja) プログラム、情報記憶媒体、及び画像生成システム
JP4983793B2 (ja) 画像処理プログラムおよび画像処理装置
JP2005339377A (ja) 画像処理方法、画像処理装置
JP3639286B2 (ja) ゲームプログラム、及びゲーム装置
JP4513423B2 (ja) 仮想三次元座標ポリゴンによるオブジェクト画像の表示制御方法及びこれを用いた画像表示装置
JP4749064B2 (ja) プログラム、情報記憶媒体及び画像生成システム
JP4995054B2 (ja) ゲームプログラム、そのゲームプログラムを記録した記録媒体及びコンピュータ
JP2009140135A5 (ja)
JP2006293470A (ja) 描画装置、方法および描画プログラム
JP2014146162A (ja) 画像合成処理方法及び遊技機
US6633291B1 (en) Method and apparatus for displaying an image
JP2005004341A (ja) 画像表示装置およびコンピュータに画像表示機能を付与するプログラム
JP2004192471A (ja) ゲーム装置及びゲームプログラム
JP2008234681A (ja) ビデオゲーム装置、画像表示装置及び方法、動画表示装置及び方法並びに記録媒体
JP2008077406A (ja) 画像生成システム、プログラム及び情報記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061027

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090428

R150 Certificate of patent or registration of utility model

Ref document number: 4307222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120515

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130515

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140515

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees