JP4594136B2 - 画像処理方法、画像処理装置 - Google Patents

画像処理方法、画像処理装置 Download PDF

Info

Publication number
JP4594136B2
JP4594136B2 JP2005066140A JP2005066140A JP4594136B2 JP 4594136 B2 JP4594136 B2 JP 4594136B2 JP 2005066140 A JP2005066140 A JP 2005066140A JP 2005066140 A JP2005066140 A JP 2005066140A JP 4594136 B2 JP4594136 B2 JP 4594136B2
Authority
JP
Japan
Prior art keywords
environment mapping
image
image processing
viewpoint
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005066140A
Other languages
English (en)
Other versions
JP2006252060A (ja
Inventor
俊広 小林
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005066140A priority Critical patent/JP4594136B2/ja
Priority to US11/368,591 priority patent/US7379060B2/en
Priority to EP06110795A priority patent/EP1701309A3/en
Publication of JP2006252060A publication Critical patent/JP2006252060A/ja
Application granted granted Critical
Publication of JP4594136B2 publication Critical patent/JP4594136B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、仮想空間の画像を生成するための技術に関するものである。
従来から、仮想的に設定された三次元空間内に存在するオブジェクト(物品)を、CG(コンピュータ・グラフィックス)技術を用いて生成することによって、仮想三次元空間内の任意の視点から観察される画像を生成し、仮想現実感を提示するための情報処理装置が提案されている。特にその中でも、装置の使用者の頭部位置・姿勢を計測し、これを仮想三次元空間内を観察する視点として設定するような情報処理装置では、装置の使用者の頭部の動きに追従して、装置の使用者自身が仮想三次元空間を観察しているように画像が変化するため、装置の使用者に対して仮想三次元空間への高い没入感を与えることができる。
このような装置では、装置の使用者に対してより現実に近い感覚を提示するために、画像を生成する処理を高速に実現すると共に、生成する画像の質を向上させることが技術的な課題となっている。その課題を解決するための手段の一つとして、環境マッピングと呼ばれる技術が知られている。環境マッピングとは、仮想のオブジェクトに対して、周囲環境の映り込みを表現するための技術であり、その手法が非特許文献1に開示されている。
環境マッピングでは、仮想のオブジェクトに映り込むべき周囲環境の画像である環境マッピング画像をあらかじめ用意し、映り込みを生じさせる仮想オブジェクトに対して、この環境マッピング画像をテクスチャとしてマッピングする。このとき、仮想オブジェクトを観察する視点と仮想オブジェクト頂点の法線とから算出される反射ベクトルに基づき、環境マッピング画像中で仮想オブジェクトにマッピングされるべき領域を決定する。この方法により、あたかも仮想オブジェクトに周囲環境が映り込んでいるかのような表現を得ることができる。
CGで同様の表現を実現するための他の手法として、レイ・トレーシング法などが挙げられる。レイ・トレーシング法とは、仮想オブジェクトに当たる光線を視点から追跡し、光線と交差する点を求める手法であり、非特許文献2に開示されている。
環境マッピングは、レイ・トレーシング法と比較して、高速に処理することが可能であるため、仮想現実感の提示やコンピュータ・ゲームなど、リアルタイムでの処理が必須となる装置において、特に広く用いられている技術である。その一方で、環境マッピングは、仮想オブジェクトへの映り込みをあくまで簡易的に表現する手法であるため、レイ・トレーシング法よりも、映り込み表現の正確性に劣ることが多い。
環境マッピングでは、視点の位置や方向および仮想オブジェクトの位置については変化しないものとみなし、仮想オブジェクトを回転させたときに、環境マッピング画像中のマッピングする領域を変更するということを前提としている。そのため、仮想オブジェクトの位置が変化する場合や、視点位置・姿勢を変化させながら仮想オブジェクトを観察するような場合には、その前提が成立しないため、仮想オブジェクトの映り込みの変化が不自然なものとなり、装置の使用者に違和感を生じさせることがあった。
この違和感を軽減するために、移動する仮想オブジェクトの位置をもとに環境マッピング画像を移動または回転させる技術が提案されている。
Blinn, J. F. and Newell, M. E. Texture and reflection in computer generated images. Communications of the ACM Vol. 19, No. 10 (October 1976), 542−547. Turner Whitted. An improved illumination model for shaded display, Communications of the ACM, Vol.23 No.6 (June 1980) 343−349.
しかしながら、従来の手法では、環境マッピング画像の移動や回転は、仮想オブジェクトの位置のみに依存し、仮想オブジェクトを観察する視点には依存しない。そのため、この手法は、仮想オブジェクトが移動する場合には有効であるが、仮想オブジェクトを観察する視点位置・姿勢を変化させたときの映り込みには対処されないままであった。
特に、視点の姿勢のうちロール成分(視線を軸としたときの視点の回転成分)を変化させ、静止している仮想オブジェクトを観察する場合、本来、変化しないはずの仮想オブジェクトへの映り込みが変化するという現象が発生する。これは、視線方向を固定し、仮想オブジェクトを回転させるという環境マッピングの前提に由来する。
本発明は以上の問題に鑑みてなされたものであり、視点の姿勢を変化させながら仮想物体を観察するときに、周囲環境から仮想物体への映り込みを適切に表現する為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、画像処理装置が行う画像処理方法であって、
前記画像処理装置の第1の保持手段が、仮想物体に対して環境マッピングを行うために用いる環境マッピング画像を保持する第1の保持工程と、
前記画像処理装置の取得手段が、前記仮想物体を配置する仮想空間における視点の位置姿勢を取得する取得工程と、
前記画像処理装置の特定手段が、前記環境マッピング画像のうち、前記仮想物体の環境マッピング対象領域に対して環境マッピングを行う場合に用いる領域を、前記視点の姿勢に基づいて特定する特定工程と、
前記画像処理装置の環境マッピング手段が、前記環境マッピング画像のうち前記特定工程で特定した領域中の画像を、前記環境マッピング対象領域に対して環境マッピングする環境マッピング工程と、
前記画像処理装置の生成手段が、前記環境マッピング工程で環境マッピングが成された仮想物体を含む仮想空間を、前記視点から見た場合に見える画像を生成する生成工程と
を備え
前記特定工程は、
前記画像処理装置の第1の算出手段が、前記環境マッピング対象領域を構成する頂点における法線ベクトルと、視線ベクトルと、から、当該頂点における反射ベクトルを求める第1の算出工程と、
前記画像処理装置の第2の算出手段が、前記反射ベクトルから、当該頂点に対応する前記環境マッピング画像上の対応点位置を求める第2の算出工程と、
前記画像処理装置の第3の算出手段が、前記環境マッピング画像の中心部を原点とした場合に、前記視点のロール角分だけ前記対応点位置を当該原点周りに回転させた位置を得る第3の算出工程と、
前記画像処理装置の領域特定手段が、前記第1乃至3の算出工程を前記環境マッピング対象領域を構成するそれぞれの頂点について行うことで得られる、それぞれの頂点に対応する前記環境マッピング画像上の対応点位置で囲まれた領域内の画像を、前記環境マッピング対象領域に対して環境マッピングするために用いる領域として特定する領域特定工程と
を備えることを特徴とする。
本発明の構成により、視点の姿勢を変化させながら仮想物体を観察するときに、周囲環境から仮想物体への映り込みを適切に表現することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
<システムの構成について>
先ず、観察者の視点の位置姿勢に応じた仮想空間の画像を生成し、表示するためのシステムについて、このシステムのハードウェア構成を示す図1を用いて説明する。同図に示す如く、本実施形態に係るシステムは、コンピュータ100、表示装置200、位置姿勢検出装置300、操作デバイス400により構成されている。
先ず、コンピュータ100について説明する。コンピュータ100は、CPU101、RAM102、画像出力装置103、VRAM104、システムバス105、ディスク装置106、入力装置107を備える。
CPU101はRAM102にロードされているプログラムやデータを用いて本コンピュータ100全体の制御を行うと共に、コンピュータ100が行う後述の各処理を実行する。
RAM102は、ディスク装置106からロードされたプログラムやデータを一時的に記憶するためのエリア、入力装置107を介して外部から受信した各種のデータを一時的に記憶するためのエリア、そして、CPU101が各処理を実行する際に用いるワークエリアなど、各種のエリアを適宜提供することができる。
画像出力装置103は、例えばグラフィックスカードなどの機器によって実現されるものであり、本実施形態では、画像出力装置103はその内部にVRAM104を保持している。画像出力装置103は、CPU101からの指示を受けると、仮想空間の画像生成処理(CG描画処理)を行い、生成した画像を適切な信号に変換して表示装置200に送出する。VRAM104は、画像出力装置103が仮想空間の画像を生成するために用いるデータ、例えば、仮想空間中に配置される仮想物体(ポリゴンで構成されているものとする)を構成する各ポリゴンの頂点座標値データ、各ポリゴンの構成情報、テクスチャデータ等を保持する為のメモリとして機能すると共に、生成した仮想空間の画像のデータを一時的に記憶するためのメモリとしても機能する。なお、VRAM104は必ずしも画像出力装置103の内部に設ける必要はなく、RAM102によってVRAM104の機能を実現してもよい。
なお、画像出力装置103による仮想空間の画像生成処理の詳細については後述する。
ディスク装置106は、ハードディスクドライブ装置に代表される大容量情報記憶装置であって、ここにはOS(オペレーティングシステム)や、コンピュータ100が行う後述の各処理をCPU101に実行させるためのプログラムやデータが保存されており、これらはCPU101の制御に従ってRAM102や(その一部は)VRAM104にロードされる。
入力装置107は、位置姿勢検出装置300や操作デバイス400から受けた各種の信号をデータとして受ける為のインターフェースとして機能するものであり、受けたデータはRAM102に送出する。
システムバス105は、上述の各部を繋ぐもので、上述の各部はこのシステムバス105を介して互いにデータ通信を行うことができる。
次に、操作デバイス400について説明する。操作デバイス400は、キーボードやマウスなどにより構成されており、本コンピュータ100の操作者が操作することで、各種の指示をCPU101に対して入力することができる。
次に、表示装置200について説明する。表示装置200は、CRTや液晶画面などにより構成されており、CPU101による処理結果(画像情報)、例えば、CPU101による制御に従って画像出力装置103が生成した仮想空間の画像を表示する。
次に、位置姿勢検出装置300について説明する。位置姿勢検出装置300は、観察者の視点の位置姿勢を検出するための装置群でもって構成されている。視点の位置姿勢を検出するための具体的な技術については後述する。
<画像出力装置103について>
次に、画像出力装置103について説明する。図2は、画像出力装置103の機能構成を示す図である。画像出力装置103は上述の通り、仮想空間の画像を生成する処理を行うのであるが、より具体的には、仮想空間中に配置されたそれぞれの仮想物体を視点から見た画像を生成する。また、本実施形態では仮想物体はポリゴンでもって構成されているものとするし、ポリゴンによってはテクスチャ画像をマッピングする。
よって画像出力装置103は、このような仮想物体を仮想空間中に配置し、仮想物体を配置した仮想空間を視点から見た場合に見える画像を生成するための機能構成、即ち図2に示す如く構成を有することになる。なお、同図において「記憶部」なるものは全てVRAM104またはRAM102によって実現される。また、この「記憶部」なるものが記憶保持する後述の各種のデータは、ディスク装置106から適宜ロードされたものである。
光源情報記憶部500は、仮想空間中に設定される光源に係る情報を記憶保持する。光源に係る情報には、平行光源、点光源といった光源の種類、光源色、光源の強さ、光源の位置方向など、仮想物体に対して所望の光を照光する為に必要なデータが含まれる。
形状モデル記憶部510は、仮想物体の形状データを記憶保持する。この形状データには、仮想物体を構成する各ポリゴンについてのデータ、ポリゴンを構成する各頂点についてのデータが含まれている。
図3は、仮想物体を構成する各頂点に関するデータの構成例を示す図である。同図に示したテーブル650は1つの仮想物体について1つ存在する。640は、仮想物体を構成する各頂点を識別するための情報(同図では頂点データ識別番号)が登録された列で、650は、頂点の座標値(仮想物体について予め設定されたローカル座標系における座標値)と、法線ベクトルとのセット(600a、600b、600c)が頂点毎に登録された列である。よってこのテーブルを参照すると、頂点の識別番号を1つ特定すれば、この頂点の座標値、及び法線ベクトルは特定することができる。
図4は、仮想物体を構成する各ポリゴンに関するデータの構成例を示す図である。同図に示したテーブル660は1つの仮想物体について1つ存在する。
670は、仮想物体を構成する各ポリゴンを識別するための情報(同図では面識別番号)が登録された列である。
680は、1つのポリゴンを構成するそれぞれの頂点の識別番号を登録した列である。例えば、面識別番号が「1」のポリゴンは、頂点データ識別番号が「1」,「2」,「3」の頂点でもって構成されているということがこの列680を参照すれば特定できるし、面識別番号が「2」のポリゴンは、頂点データ識別番号が「2」,「3」,「4」の頂点でもって構成されているということがこの列680を参照することで特定することができる。
690は、テクスチャマッピングに用いるテクスチャ画像が保持されているメモリ領域へのポインタ、又はその画像ファイル名など、テクスチャ画像を参照するための情報(参照情報)が登録された列である。なお、ポリゴンによってはテクスチャマッピングを行わないものもあるので、そのようなポリゴンについてはこの列690には何も登録しない。例えば、面識別番号が「1」のポリゴンには参照情報690aが登録されているので、このポリゴンにはこの参照情報690aで特定されるテクスチャ画像を用いたテクスチャマッピングを行うのであるが、面識別番号が「2」のポリゴンには何の参照情報も登録されていないので、このポリゴンにはテクスチャマッピングは行わないということがこの列690を参照することで特定することができる。
710は、テクスチャマッピング対象のポリゴンを構成するそれぞれの頂点が、テクスチャ画像上のどの座標位置に対応するのかを登録する為の列である。なお、ポリゴンによってはテクスチャマッピングを行わないものもあるので、そのようなポリゴンについてはこの列710には何も登録しない。例えば面識別番号が「1」のポリゴンを構成する各頂点(頂点データ識別番号が「1」、「2」、「3」の頂点)には、参照情報690aで特定されるテクスチャ画像上で座標値(u1,v1)、(u2,v2)、(u3,v3)のそれぞれの箇所が対応するということがこの列710を参照することで特定することができる。
これにより、例えば面識別番号が「1」のポリゴンには、参照情報690aで特定されるテクスチャ画像のうち、座標値(u1,v1)、(u2,v2)、(u3,v3)で囲まれた領域中の画像をテクスチャマッピングするという情報が得られる。
700は、環境マッピングを行うポリゴンについては「1」のフラグ、環境マッピングを行わない(テクスチャマッピングを行わない旨も含む)ポリゴンについては「0」のフラグを登録する列である。従って同図の例では、面識別番号が「1」のポリゴンに対しては環境マッピングを行うということが、この列700を参照することで特定することができる。本実施形態では、視点の姿勢に応じて、テクスチャ画像のうち環境マッピングに用いる領域を動的に変更するので、テクスチャ画像のうち、フラグが「1」のポリゴンに対してマッピングする領域は視点の姿勢に応じて動的に変更される。この変更について詳しくは後述する。
また、形状モデル記憶部510には、ポリゴンの質感に関する情報や、環境マッピングを適用しない通常のテクスチャ画像などの情報も保持されている。
図2に戻って、視点位置姿勢記憶部520は、仮想空間中に設定される視点の位置や姿勢を記憶保持する。本実施形態ではこの視点位置姿勢記憶部520には、上記位置姿勢検出装置300によって得られる視点の位置姿勢が格納されることになる。
ポリゴン描画部550は、この視点から見える仮想空間の画像を生成する。
環境マッピング画像記憶部530は、環境マッピングに用いるテクスチャ画像(環境マッピング画像)を保持する。環境マッピング画像は、ポリゴンに対して、映り込みを付加するために使用される画像である。この環境マッピング画像は、予め映り込む現実の周囲環境を撮影して取得する必要がある。
図5は、環境マッピング画像の一例を示す図である。この画像の取得方法について図6を用いて説明する。図6は、環境マッピング画像を得るための構成を示す図である。
まず、仮想空間を設定しようとする現実空間(観察者が移動しうる現実空間)中に、鏡など、反射率の高い曲面体Bを周囲の環境が映り込むように配置する。一般的に、曲面体Bには球体や半球体などが用いられるが、放物面体、双曲面体などの曲面体を用いてもよい。この曲面体BをカメラAで撮影することによって、図5に示すような環境マッピング画像を取得する。
このとき、カメラAの光軸が曲面体Bの中心を通過するようにし、カメラAの焦点距離を長くとることが望ましい。本実施形態では、曲面体Bに映り込む画像をカメラAで撮影することで環境マッピング画像を取得したが、カメラAに魚眼レンズなどの高視野のレンズを装着し、周囲環境を直接撮影するようにしてもよい。この場合、曲面体Bは不要となる。また、本実施形態では、環境マッピング画像に実写画像を用いているが、これに限定するものではなく、例えば、CGを描画して得た画像を曲面体にマッピングし、その画像を環境マッピング画像として用いてもよい。
画像回転行列記憶部540は、後述する回転行列のデータを記憶保持する。この回転行列は、環境マッピング画像回転部570によって生成されるものであり、視点の姿勢に基づいて生成する。回転行列についての説明は後述する。
ポリゴン描画部550は、光源情報記憶部500、形状モデル記憶部510、視点位置姿勢記憶部520のそれぞれが保持しているデータを用いて、ポリゴンを仮想空間中に配置することで仮想物体を生成する。環境マッピング部560は、この仮想物体において環境マッピングを行うと設定されたポリゴン(図4のテーブルにおいて、列700のフラグ値が「1」のポリゴン)に対して、環境マッピング画像(列660においてこのポリゴンに対する参照情報で特定されるテクスチャ画像)のうち後述する処理で特定される領域をマッピングする。
そしてポリゴン描画部550は、環境マッピングが施されたポリゴンを有する仮想物体を配置した仮想空間を視点から見た画像を生成する。生成した画像は出力画像記憶部580に送出される。
出力画像記憶部580は受けた画像を画像出力部590に出力するのであるが、画像出力部590は、受けた画像を上記表示装置200に適した形式の信号に変換して上記表示装置200に出力する。
<仮想空間画像の生成処理について>
次に、上記コンピュータ100が行う、仮想空間画像の生成処理について、同処理のフローチャートを示す図7を用いて説明する。なお、同図のフローチャートに従った処理をCPU101に実行させるためのプログラムやデータはディスク装置106に保存されており、これを適宜CPU101による制御に従ってRAM102にロードし、CPU101がこれを用いて処理を実行することで、コンピュータ100は以下説明する各処理を実行することになる。
先ず、コンピュータ100を起動すると、各種の初期化処理を行うのであるが、この初期化処理には、図2に示した各記憶部が保持する対象のデータ群をディスク装置106からRAM102にロードする処理も含まれている(ステップS1010)。
次に、観察者の視点の位置姿勢を取得する(ステップS1020)。観察者の視点位置を取得するための方法は様々なものが考えられ、本実施形態では何れの方法を用いても良いのであるが、例えば以下のような方法がある。
位置姿勢検出装置300を磁気センサ、磁気の発信源、位置姿勢計算装置により構成する。磁気の発信源は現実空間中に所定の位置姿勢でもって配置する。磁気センサは観察者の視点(右目、若しくは左目)近傍位置に取り付ける。位置姿勢計算装置は、磁気センサ、磁気の発信源を制御すると共に、磁気センサから受けた信号をデータとしてコンピュータ100に送出する。
このような構成において、磁気の発信源は現実空間中に磁界を発生する。よって、磁気センサは、自身の位置姿勢に応じて検出される磁気の変化を検知し、検知した結果を信号として位置姿勢計算装置に送出する。この信号は、センサ座標系(磁気の発信源の位置を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における磁気センサの位置姿勢を示すものである。
よって位置姿勢計算装置は、この信号をデータとしてコンピュータ100に送出する。これにより、コンピュータ100は、磁気センサのセンサ座標系における位置姿勢を得ることができる。この場合、視点と磁気センサとの位置姿勢関係は予め測定されており、測定した結果をデータとしてコンピュータ100のディスク装置106に保存しているので、このデータを「センサ座標系における磁気センサの位置姿勢を示すデータ」に加えれば、結果として「センサ座標系における視点の位置姿勢」を得ることができる。
また、世界座標系(現実空間中の所定の1点を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)と磁気の発信源との位置姿勢関係を予め求めておき、これをデータとしてディスク装置106に保存させておけば、このデータを、先に求めた「センサ座標系における視点の位置姿勢」に加えることで、「世界座標系における視点の位置姿勢」を求めることができる。なお、このような視点の位置姿勢を求める方法は、センサが光学式センサ、超音波センサのように磁気センサでなくても適用可能である。
また、このほかの方法も考えられる。即ち、観察者の視点の位置近傍に現実空間を撮像するカメラを取り付ける。また、現実空間中には、このカメラで撮像可能な範囲内に複数のマーカを配置する。それぞれのマーカの現実空間中における位置情報は予めディスク装置106に保存しておく。そしてこのカメラで撮像した現実空間画像におけるマーカ位置と、現実空間中におけるマーカの位置とを用いて観察者の視点の位置を求める。
また、マーカなどの識別対象を観察者が保持し、別の場所に設置したカメラによって識別対象を撮影し、同様の手段で観察者の視点の位置姿勢を算出するようにしてもよい。
このように、観察者の視点の位置姿勢を取得する方法については様々なものが考えられ、本実施形態には様々なものが適用できる。また、求めた位置姿勢が属する座標系については適宜決めればよい。
また、本実施形態では視点の位置と姿勢の両方を取得するようにしているが、視点の姿勢のみが動き、視点の位置に関してはほとんど動かないような状況もある。このような場合には、視点の姿勢のみを求め、視点の位置については、固定された視点の位置データをディスク装置106に保存させておく。この場合、ステップS1020では視点の姿勢は何れかの方法によって求め、視点の位置についてはこのディスク装置106に保存されている視点の位置データをRAM102にロードすることで視点の位置姿勢をRAM102に取得する。
次に、CPU101は、RAM102にロードしたデータ群のうち、光源データ、仮想物体の形状データ、視点の位置姿勢データ、環境マッピング画像を順次画像出力装置103のVRAM104に転送する(ステップS1030)。なお、画像出力装置103内にVRAM104を設けず、RAM102内の一部のエリアをVRAM104として用いる場合には、ステップS1030の処理は省略する。
次に、視点の姿勢成分に基づいて、以下の処理で用いる回転行列を求める(ステップS1040)。ここで、回転行列、及びその求め方について説明する。
図8は、環境マッピング画像とそれに設けた座標系を示す図である。同図において800は環境マッピング画像で、以下の処理のために、画像の中心位置を原点O、この原点を通る横軸をu軸、この原点を通る縦軸をv軸、そして画像の縦、横のサイズをそれぞれ1に正規化した座標系を設定する。
上述のとおり、テクスチャマッピングを行うポリゴンについては、このテクスチャ画像のうち、どの領域をマッピングに用いるのかが列710に定義されている。より詳しくは、N(N≧3)個の頂点で構成されるポリゴンに対してテクスチャマッピングを行う場合、このN頂点のそれぞれに対応するテクスチャ画像上のN点で囲まれた領域(基本領域)が、このポリゴンに対してテクスチャマッピングされる。
しかし、このテクスチャマッピングが環境マッピングである場合、本実施形態では、この基本領域は視点の姿勢に応じてテクスチャ画像上を移動する。
そのためにはステップS1040では先ず、視点のロール角(視線方向を軸とした場合に、この軸周りの回転角)pを得る。これは、ステップS1020で取得した視点の姿勢成分を用いれば得られる。そしてロール角をpとした場合の回転行列Rを以下の式に従って求める。
| cos(p) sin(p) |
R=| |
|−sin(p) cos(p) |
求めた回転行列のデータはRAM102もしくはVRAM104内の画像回転行列記憶部540に相当するエリアに格納する。
次に、CPU101は画像出力装置103を制御して、ポリゴン描画部550を動作させ、光源情報記憶部500、形状モデル記憶部510、視点位置姿勢記憶部520が保持しているデータを用いて、ポリゴンを仮想空間中に配置することで仮想物体を生成する(ステップS1050)。即ち、図4のテーブルを参照してそれぞれのポリゴンを仮想空間中に配置するのであるが、例えば面識別番号が「1」のポリゴンを仮想空間中に配置する場合には、頂点データ識別番号が「1」、「2」、「3」のそれぞれの頂点の座標値を図3のテーブルから取得し、取得した座標にそれぞれの頂点を配置することで、面識別番号が「1」のポリゴンを仮想空間中に配置することができる。これはその他のポリゴンについても同様である。なお、各ポリゴンを仮想空間中に配置して仮想物体を仮想空間中に配置するための処理についてはこのような処理に限定するものではない。
次に、CPU101は画像出力装置103を制御して、環境マッピング部560を動作させ、形状モデル記憶部510、視点位置姿勢記憶部520、環境マッピング画像記憶部530、画像回転行列記憶部540が保持しているデータを用いて、ステップS1050で生成された仮想物体を構成するポリゴンのうち、環境マッピングを行うポリゴンを特定し、特定したポリゴンに対して環境マッピングを行う(ステップS1060)。
ここで、本実施形態に係る環境マッピング処理の詳細について図9を用いて説明する。図9は、ステップS1060における処理の詳細を示すフローチャートである。
先ず、図4のテーブルの列700を参照してフラグ値が「1」であるものを検索する(ステップS2010)。図4では面識別番号が「1」のポリゴンが検索される。そしてフラグ値が「1」のものが見つかった場合には処理をステップS2020に進める。以下の説明ではステップS2010における検索で面識別番号が「g」のポリゴン(以下、ポリゴンgと呼称する)のフラグ値が検索にヒットしたとする。
よって、次に、環境マッピング画像のうち、このポリゴンgにマッピングする領域を決定する(ステップS2020)。先ず、ポリゴンgを構成する頂点A1、A2、、、ANの法線ベクトルを得る。即ち、図4のテーブルを参照し、面識別番号が「g」のポリゴンについて列680を参照して、ポリゴンgを構成する頂点A1、A2、、、ANの識別番号を特定し、図3のテーブルから、頂点A1、A2、、、ANの識別番号に対応して保持されている法線ベクトルを得る。
そして、頂点A1、A2、、、ANに対応する環境マッピング画像上の対応点位置を求めるのであるが、先ず、頂点A1の法線ベクトルをn(単位ベクトルに正規化)、視線ベクトル(視点の姿勢成分から一意に特定可能)をeとすると、反射ベクトルrを以下の式に従って求める。
r=−2n×(n・e)+e
ここで(n・e)は、ベクトルeとnとの内積を示す。そしてr=(X、Y、Z)とした場合に、頂点A1に対応する環境マッピング画像上の対応点位置K1(u1、v1)は以下の式に従って求めることができる。
u1=X/m
v1=Y/m
但し、m=√(X+Y+(Z+1)
このような処理をその他の頂点A2、A3、、ANについても行う。これにより、頂点A1、A2、、、ANに対応する環境マッピング画像上の対応点位置K1、K2、、、KNを求めることができる。なお、それぞれの頂点について求めた対応点位置はそれぞれ図4のリストの列710の対応する位置に上書きする。
次に、求めた対応点位置K1、K2、、、KNを、上記原点O周りに回転させた対応点位置K’1、K’2、、、K’Nを得る(ステップS2030)。回転には上記回転行列Rを用いる。なお、ステップS2030で求めたそれぞれの対応点位置はそれぞれ図4のリストの列710の対応する位置に上書きする。
よって、ポリゴンgに対して環境マッピングを行う場合には、環境マッピング画像のうち、K’1、K’2、、、K’Nで囲まれた領域内の画像をポリゴンgに対してマッピングすればよい。
これにより、環境マッピング画像のうち、視点のロール角に応じて、環境マッピング対象ポリゴンにマッピングする領域を特定することができる。
よって次に、図4のテーブルにおいて、ポリゴンgに対応する列710に登録されている各対応点位置で囲まれた(環境マッピング画像内の)領域をポリゴンgに対してマッピングする(ステップS2040)。この環境マッピング画像は、ポリゴンgに対応する列690に登録されている参照情報を参照すれば一意に特定することができる。
そして、処理をステップS2010に戻し、以降の処理を繰り返す。
図7に戻って、CPU101は画像出力装置103を制御してポリゴン描画部550を動作させ、環境マッピングが施された仮想物体を含む仮想空間を視点から見た画像(仮想空間画像)を生成し、更にCPU101は画像出力部590を制御して出力画像記憶部580、画像出力部590を動作させ、生成された仮想空間の画像を表示装置200に出力する(ステップS1070)。
そして、以上の処理を終了する旨をCPU101が検知した場合、例えば、操作デバイス400を操作者が操作して処理を終了させる旨の指示を入力し、CPU101がこれを検知した場合、若しくは予め定めた終了条件に合致したことをCPU101が検知した場合には本処理を終了するのであるが、検知していない場合には処理をステップS1080を介してステップS1020に戻し、以降の処理を繰り返す。
以上の説明により、本実施形態によって、視点の姿勢が変化すればそれに伴って、環境マッピング対象領域にマッピングされる画像も変化するので、結果として周囲環境から仮想物体への映り込みを適切に表現することができるので、観察者は違和感無く環境マッピングが施された仮想物体を観察することができる。
なお、本実施形態では仮想空間中の視点として、実際の観察者の視点を用いたが、これに限定するものではなく、テレビゲームのように、操作デバイス400を操作することでその位置や姿勢を変更することのできる視点を仮想空間中に配置するようにしても良い。
[第2の実施形態]
第1の実施形態では、環境マッピング対象ポリゴンを構成する各頂点に対応する環境マッピング画像上の対応点位置を、環境マッピング画像の中心部周りに視点のロール角分だけ回転させた対応点位置で囲まれた領域を、環境マッピング対象ポリゴンにマッピングする領域として特定したが、本実施形態では、先ず環境マッピング画像の中心部周りに視点のロール角分だけ環境マッピング画像を回転させた回転後環境マッピング画像を得る。そして、環境マッピング対象ポリゴンを構成する各頂点に対応する回転後環境マッピング画像上の対応点位置で囲まれた領域を、環境マッピング対象ポリゴンにマッピングする領域として特定する。
なお、本実施形態に係るシステムのハードウェア構成については第1の実施形態と同じであるとするが、画像出力部590の機能構成が第1の実施形態と異なる。図10は、本実施形態に係る画像出力部590の機能構成を示すブロック図である。本実施形態に係る画像出力部590の機能構成は、第1の実施形態に係る画像出力部590の機能構成から画像回転表列記憶部540を省いた構成となる。
本実施形態では、環境マッピング画像回転部570は第1の実施形態と同様にして回転行列を生成するのであるが、この回転行列を用いて、環境マッピング画像そのものを原点O周りに回転させ、回転後環境マッピング画像を得る。そして環境マッピング画像記憶部530が記憶保持している環境マッピング画像を、この回転後環境マッピング画像に更新する。これにより、以降用いる環境マッピング画像は、この回転後環境マッピング画像となる。
図11は、本実施形態に係る仮想空間画像処理のフローチャートである。同図において、図7と同じステップ番号については同じ処理であるので、説明は省略する。
ステップS1045では、CPU101は、画像出力部590を制御して環境マッピング画像回転部570を動作させ、先ず、第1の実施形態と同様にして回転行列を生成し、生成した回転行列を用いて、環境マッピング画像を原点O周りに視点のロール角分だけ回転させ、回転後環境マッピング画像を得る。即ち、環境マッピング画像を構成するそれぞれの画素を原点O周りに視点のロール角分だけ回転させた画素群を得、これを回転後環境マッピング画像とする。
ここで一般的には、画像を回転させると、回転後の画像に欠損が生じる。図12(a)は、回転前の画像(画像A)の例を示す図で、図12(b)は図12(a)に示した画像Aを回転させた画像(画像B)の例を示す図である。画像Bにおいて、斜線で示した部分は元の画像Aには存在しないものであると共に、元の画像Aの角部は画像Bでは損なわれている。このように、一般には画像を回転させると、元の画像の情報の一部は欠損することになる。
しかし、環境マッピングにおいては、環境マッピング画像のうち、円の内側の領域のみがマッピングに使用される。図13(a)は回転前の環境マッピング画像(画像C)の例を示す図で、図13(b)は図13(a)に示した画像Cを回転させた環境マッピング画像(画像D)の例を示す図である。同図に示す如く、画像Dは画像Bと同様に、回転前の画像の情報が一部欠損しているものの、実際に使用される円の内側の領域(同図では「有効領域」)は回転前と比べても欠損していないので、環境マッピング画像を回転させても、使用する部分の情報欠損はない。
また、ステップS1065では、CPU101は画像出力部590を制御することで環境マッピング部560を動作させ、形状モデル記憶部510、視点位置姿勢記憶部520、環境マッピング画像記憶部530が保持しているデータを用いて環境マッピングを行う。
図14は、ステップS1065における処理のフローチャートである。同図のフローチャートは、図9のフローチャートからステップS2030を省いたものとなっている。即ち、環境マッピング対象ポリゴンに対してはステップS2020、S2040の処理を行う。即ち、回転後環境マッピング画像のうち、環境マッピング対象ポリゴンにマッピングする領域を決定し(ステップS2020)、決定した領域をこの環境マッピング対象ポリゴンに対してマッピングする(ステップS2040)。即ち第1の実施形態に係るステップS2020,S2040では、環境マッピング画像を用いていたものの、本実施形態に係るステップS2020、S2040では回転後環境マッピング画像を用いる点のみが異なる。
[第3の実施形態]
上記各実施形態では仮想空間の画像は表示装置200に表示するものとしているが、観察者の頭部にHMD(頭部装着型表示装置)を到着し、このHMDが有する表示画面にコンピュータ100が生成した仮想空間の画像を生成するようにしても良い。その場合、このHMDには観察者の視点の位置姿勢を計測するために上述の磁気センサを取り付けるようにしても良いし、カメラを取り付けるようにしても良い。
[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
システムのハードウェア構成を示す図である。 画像出力装置103の機能構成を示す図である。 仮想物体を構成する各頂点に関するデータの構成例を示す図である。 仮想物体を構成する各ポリゴンに関するデータの構成例を示す図である。 環境マッピング画像の一例を示す図である。 環境マッピング画像を得るための構成を示す図である。 仮想空間画像の生成処理のフローチャートである。 環境マッピング画像とそれに設けた座標系を示す図である。 ステップS1060における処理の詳細を示すフローチャートである。 本発明の第2の実施形態に係る画像出力部590の機能構成を示すブロック図である。 本発明の第2の実施形態に係る仮想空間画像処理のフローチャートである。 (a)は、回転前の画像(画像A)の例を示す図で、(b)は(a)に示した画像Aを回転させた画像(画像B)の例を示す図である。 (a)は回転前の環境マッピング画像(画像C)の例を示す図で、(b)は(a)に示した画像Cを回転させた環境マッピング画像(画像D)の例を示す図である。 ステップS1065における処理のフローチャートである。

Claims (9)

  1. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の第1の保持手段が、仮想物体に対して環境マッピングを行うために用いる環境マッピング画像を保持する第1の保持工程と、
    前記画像処理装置の取得手段が、前記仮想物体を配置する仮想空間における視点の位置姿勢を取得する取得工程と、
    前記画像処理装置の特定手段が、前記環境マッピング画像のうち、前記仮想物体の環境マッピング対象領域に対して環境マッピングを行う場合に用いる領域を、前記視点の姿勢に基づいて特定する特定工程と、
    前記画像処理装置の環境マッピング手段が、前記環境マッピング画像のうち前記特定工程で特定した領域中の画像を、前記環境マッピング対象領域に対して環境マッピングする環境マッピング工程と、
    前記画像処理装置の生成手段が、前記環境マッピング工程で環境マッピングが成された仮想物体を含む仮想空間を、前記視点から見た場合に見える画像を生成する生成工程と
    を備え
    前記特定工程は、
    前記画像処理装置の第1の算出手段が、前記環境マッピング対象領域を構成する頂点における法線ベクトルと、視線ベクトルと、から、当該頂点における反射ベクトルを求める第1の算出工程と、
    前記画像処理装置の第2の算出手段が、前記反射ベクトルから、当該頂点に対応する前記環境マッピング画像上の対応点位置を求める第2の算出工程と、
    前記画像処理装置の第3の算出手段が、前記環境マッピング画像の中心部を原点とした場合に、前記視点のロール角分だけ前記対応点位置を当該原点周りに回転させた位置を得る第3の算出工程と、
    前記画像処理装置の領域特定手段が、前記第1乃至3の算出工程を前記環境マッピング対象領域を構成するそれぞれの頂点について行うことで得られる、それぞれの頂点に対応する前記環境マッピング画像上の対応点位置で囲まれた領域内の画像を、前記環境マッピング対象領域に対して環境マッピングするために用いる領域として特定する領域特定工程と
    を備えることを特徴とする画像処理方法。
  2. 前記第1の算出工程では、前記環境マッピング対象領域を構成する頂点における前記法線ベクトル(単位ベクトル)をn、前記視線ベクトルをeとすると、前記反射ベクトルrをr=−2n(n・e)+eとして求め、
    前記第2の算出工程では、前記反射ベクトルr=(X、Y、Z)とすると、当該頂点に対応する前記環境マッピング画像上の対応点位置(u、v)を、u=X/m、v=Y/m、m=√(X+Y+(Z+1))として求め、
    前記第3の算出工程では、前記環境マッピング画像の中心部を原点とした場合に、前記視点のロール角分だけ前記対応点位置(u、v)を当該原点周りに回転させた位置(u’、v’)を得る
    ことを特徴とする請求項1に記載の画像処理方法。
  3. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の第1の保持手段が、仮想物体に対して環境マッピングを行うために用いる環境マッピング画像を保持する第1の保持工程と、
    前記画像処理装置の取得手段が、前記仮想物体を配置する仮想空間における視点の位置姿勢を取得する取得工程と、
    前記画像処理装置の特定手段が、前記環境マッピング画像のうち、前記仮想物体の環境マッピング対象領域に対して環境マッピングを行う場合に用いる領域を、前記視点の姿勢に基づいて特定する特定工程と、
    前記画像処理装置の環境マッピング手段が、前記環境マッピング画像のうち前記特定工程で特定した領域中の画像を、前記環境マッピング対象領域に対して環境マッピングする環境マッピング工程と、
    前記画像処理装置の生成手段が、前記環境マッピング工程で環境マッピングが成された仮想物体を含む仮想空間を、前記視点から見た場合に見える画像を生成する生成工程と
    を備え、
    前記特定工程は、
    前記画像処理装置の第1の算出手段が、前記環境マッピング画像の中心部を原点とした場合に、前記視点のロール角分だけ前記環境マッピング画像を当該原点周りに回転させた回転後環境マッピング画像を得る第1の算出工程と、
    前記画像処理装置の第2の算出手段が、前記環境マッピング対象領域を構成する頂点における法線ベクトルと、視線ベクトルと、から、当該頂点における反射ベクトルを求める第2の算出工程と、
    前記画像処理装置の第3の算出手段が、前記反射ベクトルから、当該頂点に対応する前記回転後環境マッピング画像上の対応点位置を求める第3の算出工程と、
    前記画像処理装置の領域特定手段が、前記第2,3の算出工程を前記環境マッピング対象領域を構成するそれぞれの頂点について行うことで得られる、それぞれの頂点に対応する前記回転後環境マッピング画像上の対応点位置で囲まれた領域内の画像を、前記環境マッピング対象領域に対して環境マッピングするために用いる領域として特定する領域特定工程と
    を備えることを特徴とする画像処理方法。
  4. 前記第2の算出工程では、前記環境マッピング対象領域を構成する頂点における前記法線ベクトル(単位ベクトル)をn、前記視線ベクトルをeとすると、前記反射ベクトルrをr=−2n(n・e)+eとして求め、
    前記第3の算出工程では、前記反射ベクトルr=(X、Y、Z)とすると、当該頂点に対応する前記回転後環境マッピング画像上の対応点位置(u、v)を、u=X/m、v=Y/m、m=√(X+Y+(Z+1))として求めることを特徴とする請求項3に記載の画像処理方法。
  5. 前記環境マッピング対象領域はポリゴンであることを特徴とする請求項1乃至の何れか1項に記載の画像処理方法。
  6. 仮想物体に対して環境マッピングを行うために用いる環境マッピング画像を保持する第1の保持手段と、
    前記仮想物体を配置する仮想空間における視点の位置姿勢を取得する取得手段と、
    前記環境マッピング画像のうち、前記仮想物体の環境マッピング対象領域に対して環境マッピングを行う場合に用いる領域を、前記視点の姿勢に基づいて特定する特定手段と、
    前記環境マッピング画像のうち前記特定手段が特定した領域中の画像を、前記環境マッピング対象領域に対して環境マッピングする環境マッピング手段と、
    前記環境マッピング手段によって環境マッピングが成された仮想物体を含む仮想空間を、前記視点から見た場合に見える画像を生成する生成手段と
    を備え
    前記特定手段は、
    前記環境マッピング対象領域を構成する頂点における法線ベクトルと、視線ベクトルと、から、当該頂点における反射ベクトルを求める第1の算出手段と、
    前記反射ベクトルから、当該頂点に対応する前記環境マッピング画像上の対応点位置を求める第2の算出手段と、
    前記環境マッピング画像の中心部を原点とした場合に、前記視点のロール角分だけ前記対応点位置を当該原点周りに回転させた位置を得る第3の算出手段と、
    前記第1乃至3の算出手段による処理を前記環境マッピング対象領域を構成するそれぞれの頂点について行うことで得られる、それぞれの頂点に対応する前記環境マッピング画像上の対応点位置で囲まれた領域内の画像を、前記環境マッピング対象領域に対して環境マッピングするために用いる領域として特定する領域特定手段と
    を備えることを特徴とする画像処理装置。
  7. 仮想物体に対して環境マッピングを行うために用いる環境マッピング画像を保持する第1の保持手段と、
    前記仮想物体を配置する仮想空間における視点の位置姿勢を取得する取得手段と、
    前記環境マッピング画像のうち、前記仮想物体の環境マッピング対象領域に対して環境マッピングを行う場合に用いる領域を、前記視点の姿勢に基づいて特定する特定手段と、
    前記環境マッピング画像のうち前記特定手段が特定した領域中の画像を、前記環境マッピング対象領域に対して環境マッピングする環境マッピング手段と、
    前記環境マッピング手段によって環境マッピングが成された仮想物体を含む仮想空間を、前記視点から見た場合に見える画像を生成する生成手段と
    を備え、
    前記特定手段は、
    前記環境マッピング画像の中心部を原点とした場合に、前記視点のロール角分だけ前記環境マッピング画像を当該原点周りに回転させた回転後環境マッピング画像を得る第1の算出手段と、
    前記環境マッピング対象領域を構成する頂点における法線ベクトルと、視線ベクトルと、から、当該頂点における反射ベクトルを求める第2の算出手段と、
    前記反射ベクトルから、当該頂点に対応する前記回転後環境マッピング画像上の対応点位置を求める第3の算出手段と、
    前記第2,3の算出手段による処理を前記環境マッピング対象領域を構成するそれぞれの頂点について行うことで得られる、それぞれの頂点に対応する前記回転後環境マッピング画像上の対応点位置で囲まれた領域内の画像を、前記環境マッピング対象領域に対して環境マッピングするために用いる領域として特定する領域特定手段と
    を備えることを特徴とする画像処理装置。
  8. コンピュータに請求項1乃至の何れか1項に記載の画像処理方法が有する各工程を実行させるためのプログラム。
  9. 請求項に記載のプログラムを格納したことを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2005066140A 2005-03-09 2005-03-09 画像処理方法、画像処理装置 Expired - Fee Related JP4594136B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005066140A JP4594136B2 (ja) 2005-03-09 2005-03-09 画像処理方法、画像処理装置
US11/368,591 US7379060B2 (en) 2005-03-09 2006-03-07 Image processing method and image processing apparatus
EP06110795A EP1701309A3 (en) 2005-03-09 2006-03-07 Image processing method and image processing apparatus for virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005066140A JP4594136B2 (ja) 2005-03-09 2005-03-09 画像処理方法、画像処理装置

Publications (2)

Publication Number Publication Date
JP2006252060A JP2006252060A (ja) 2006-09-21
JP4594136B2 true JP4594136B2 (ja) 2010-12-08

Family

ID=36579706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005066140A Expired - Fee Related JP4594136B2 (ja) 2005-03-09 2005-03-09 画像処理方法、画像処理装置

Country Status (3)

Country Link
US (1) US7379060B2 (ja)
EP (1) EP1701309A3 (ja)
JP (1) JP4594136B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004265193A (ja) * 2003-03-03 2004-09-24 Canon Inc 情報処理方法、情報処理装置、サーバ装置の制御方法、サーバ装置
JP4836814B2 (ja) * 2007-01-30 2011-12-14 株式会社東芝 3dディスプレイ用cg画像生成装置、3dディスプレイ用cg画像生成方法、及びプログラム
US8830172B2 (en) * 2008-08-11 2014-09-09 Imu Solutions, Inc. Selection device and method for performing positioning operation
US8866834B2 (en) * 2009-11-12 2014-10-21 Bally Gaming, Inc. System and method for sprite capture and creation
JP5306275B2 (ja) * 2010-03-31 2013-10-02 株式会社東芝 表示装置及び立体画像の表示方法
KR101306286B1 (ko) * 2010-12-17 2013-09-09 주식회사 팬택 X-레이 뷰 기반의 증강 현실 제공 장치 및 방법
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
JP2012190299A (ja) * 2011-03-11 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
EP2875491A4 (en) * 2012-07-19 2016-06-15 Gaurav Vats USER-CONTROLLED 3D SIMULATION PROVIDING REALISTIC AND ENHANCED VISUALIZATION AND INTERACTION EXPERIENCE WITH DIGITAL OBJECT
JP6253368B2 (ja) 2013-11-25 2017-12-27 キヤノン株式会社 三次元形状計測装置およびその制御方法
JP6812271B2 (ja) * 2017-02-27 2021-01-13 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
KR101947372B1 (ko) * 2017-09-04 2019-05-08 주식회사 그루크리에이티브랩 Hmd에 위치 보정 영상을 제공하는 방법 및 hmd에 위치 보정 영상을 표시하는 방법, 그리고 이를 이용한 위치 보정 영상을 표시하는 hmd
US11978177B2 (en) * 2020-09-25 2024-05-07 Intel Corporation Method and system of image processing of omnidirectional images with a viewpoint shift

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001070633A (ja) * 1999-09-09 2001-03-21 Namco Ltd 画像生成システム及び情報記憶媒体
JP2002197483A (ja) * 2001-10-22 2002-07-12 Namco Ltd 画像生成システム及び情報記憶媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6972734B1 (en) 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
JP4065507B2 (ja) 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
US7427996B2 (en) 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP4393169B2 (ja) 2003-12-04 2010-01-06 キヤノン株式会社 複合現実感提示方法および装置
JP4227561B2 (ja) 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001070633A (ja) * 1999-09-09 2001-03-21 Namco Ltd 画像生成システム及び情報記憶媒体
JP2002197483A (ja) * 2001-10-22 2002-07-12 Namco Ltd 画像生成システム及び情報記憶媒体

Also Published As

Publication number Publication date
EP1701309A2 (en) 2006-09-13
JP2006252060A (ja) 2006-09-21
US7379060B2 (en) 2008-05-27
US20060202985A1 (en) 2006-09-14
EP1701309A3 (en) 2011-01-19

Similar Documents

Publication Publication Date Title
JP4594136B2 (ja) 画像処理方法、画像処理装置
JP7095189B2 (ja) 多ソース仮想コンテンツ合成を伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
US11410269B2 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
JP4739002B2 (ja) 画像処理方法、画像処理装置
JP2007018173A (ja) 画像処理方法、画像処理装置
JP2021530811A (ja) 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
JP2008040832A (ja) 複合現実感提示システム及びその制御方法
TW202019167A (zh) 產生和修改擴增實境或虛擬實境場景中的物件的表示方式
JP2006285609A (ja) 画像処理方法、画像処理装置
JP2020052790A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2006252468A (ja) 画像処理方法、画像処理装置
JP4683639B2 (ja) 画像処理方法、画像処理装置
CN111710044A (zh) 图像处理方法、装置和计算机可读存储介质
JP2005251118A (ja) 画像処理方法、画像処理装置
JP2009015648A (ja) 画像処理装置、画像処理方法
US11615574B2 (en) System and method for rendering 6 degree-of-freedom virtual reality
JP2009140371A (ja) プログラム、情報記憶媒体、画像生成システム
JP2021157458A (ja) 情報処理装置、情報処理方法
JP2006309459A (ja) 画像処理方法、画像処理装置
JP6660159B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2006252059A (ja) 画像処理方法、画像処理装置
JP2005165973A (ja) 画像処理方法、画像処理装置
JP2006268351A (ja) 画像処理方法、画像処理装置
JP2006227913A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100916

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130924

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees