JP2007018173A - 画像処理方法、画像処理装置 - Google Patents
画像処理方法、画像処理装置 Download PDFInfo
- Publication number
- JP2007018173A JP2007018173A JP2005197821A JP2005197821A JP2007018173A JP 2007018173 A JP2007018173 A JP 2007018173A JP 2005197821 A JP2005197821 A JP 2005197821A JP 2005197821 A JP2005197821 A JP 2005197821A JP 2007018173 A JP2007018173 A JP 2007018173A
- Authority
- JP
- Japan
- Prior art keywords
- image
- light source
- virtual
- environment mapping
- virtual object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
【課題】 現実の光源の位置姿勢に応じて、仮想空間中の仮想光源や、仮想物体に対する周辺環境の映りこみを制御することで、現実空間と仮想空間との間の光学的整合性を実現する為の技術を提供すること。
【解決手段】 照明装置302の位置姿勢に応じて、環境マッピング画像上に照明装置302からの光の写り込みを示す画像を描画することで、環境マッピング画像を更新し、更新した環境マッピング画像を仮想物体に対してマッピングし、マッピング済み仮想物体が配置された仮想空間を観察者の視点から見た場合に見える画像を生成し、出力する。
【選択図】 図1
【解決手段】 照明装置302の位置姿勢に応じて、環境マッピング画像上に照明装置302からの光の写り込みを示す画像を描画することで、環境マッピング画像を更新し、更新した環境マッピング画像を仮想物体に対してマッピングし、マッピング済み仮想物体が配置された仮想空間を観察者の視点から見た場合に見える画像を生成し、出力する。
【選択図】 図1
Description
本発明は、仮想空間の画像を生成するための技術に関するものである。
仮想空間中において、仮想物体を操作することで、様々なシミュレーションを行う仮想現実感システムが、バーチャル・リアリティの分野において盛んに提案されている。例えば、非特許文献1では、ユーザ(使用者)が、仮想のシステムキッチン内に存在する扉の開閉や、蛇口の操作を体験することができると開示されている。これらの仮想現実感システムでは、ユーザの頭部の動きに合わせてコンピュータグラフィックス(CG:Computer Graphics)で描画した仮想空間の映像を生成し、ヘッドマウントディスプレイ(HMD:Head−Mounted Display)などの表示装置に表示することで、仮想現実感映像をシステムのユーザ(使用者)に提示するものである。
また、現実空間と仮想空間とを違和感なく自然に合成する複合現実感(MR:Mixed Reality)の技術を応用したシステムも盛んに提案されている。これらの複合現実感システムでは、カメラなどの撮像装置によって撮影した現実空間の映像に対し、ユーザの頭部の動きに合わせてコンピュータグラフィックス(CG:Computer Graphics)で描画した仮想空間の映像を合成し、ヘッドマウントディスプレイ(HMD:Head−Mounted Display)などの表示装置に表示することで、複合現実感映像をシステムのユーザ(使用者)に提示するものである。複合現実感技術、およびヘッドマウントディスプレイに関する詳細説明については、例えば非特許文献2に開示されている。
一方、仮想現実空間もしくは複合現実空間中に存在する仮想物体に対して、周辺環境の映りこみを簡易的に実現するCG技術が、非特許文献3に開示されている。この文献には、環境マッピング技術の説明として、「物体の存在する3次元空間内に半径無限大の仮想球を考え、その内面にあらかじめ環境のテクスチャを貼り付け、金属などの物体表面にそのテクスチャが反射しているように表示を行うこと」、「反射方向ベクトルは視点の位置と物体表面の点の座標で決まり、このベクトルからテクスチャ上の座標が決定できる」、「環境テクスチャを貼り付ける形状は、球のほかに円柱や立方体なども用いられることがある」と記載されている。
今村,野村,大畑:仮想空間意思決定支援システムVSDSSとそのショウルームへの応用,ヒューマンインタフェースシンポジウム(1991.10),pp.203−208 大島登志一,佐藤清秀,山本裕之,田村秀行:"AR2ホッケー:協調型複合現実感システムの実現",日本バーチャルリアリティ学会論文誌,Vol.3,No.2,pp.55−60(1998.8) 技術編 CG標準テキストブック,財団法人画像情報教育振興協会,pp.170−171
今村,野村,大畑:仮想空間意思決定支援システムVSDSSとそのショウルームへの応用,ヒューマンインタフェースシンポジウム(1991.10),pp.203−208 大島登志一,佐藤清秀,山本裕之,田村秀行:"AR2ホッケー:協調型複合現実感システムの実現",日本バーチャルリアリティ学会論文誌,Vol.3,No.2,pp.55−60(1998.8) 技術編 CG標準テキストブック,財団法人画像情報教育振興協会,pp.170−171
近年、複合現実感技術を応用したデザイン検証システムの開発へ期待が高まりつつある。このデザイン検証システムでは、仮想物体の色や質感、模様などの特性に関する様々なパラメータを、ユーザがインタラクティブに、かつ自由に変更することができる。ここで、よりリアルなデザイン検証を行う機能の一つとして、現実の光源環境を仮想物体に反映する光学的整合性に関する機能が求められている。
論文「神原,横矢:光源環境マップの実時間推定による光学的整合性を考慮したビジョンベース拡張現実感,情報科学技術フォーラム(2002.09),pp.127−128」には、光学的整合性に関する技術として、球状のミラーをカメラで撮影することで周辺の光源環境を推定し、推定した光源環境を仮想物体であるポットの陰影(ポット自身のShade、および机に落ちるShadow)に反映する手法が開示されている。しかし、この論文の手法では、光沢感のある反射素材からなる仮想物体のデザイン検証を行うことができなかった。すなわち、検証対象のコンテンツの幅が制限されるため、改善が求められていた。また、仮想物体に対して、推定した光源環境の映りこみを実現できなかった。すなわち、リアルなデザイン検証を行うことができず、改善が求められていた。
本発明は、以上の問題に鑑みてなされたものであり、現実の光源の位置姿勢に応じて、仮想空間中の仮想光源や、仮想物体に対する周辺環境の映りこみを制御することで、現実空間と仮想空間との間の光学的整合性を実現する為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、仮想物体に対して環境マッピングを行うために用いる環境マッピング画像を保持する保持工程と、
観察者の視点の位置姿勢を取得する第1の取得工程と、
現実物体としての光源の位置姿勢を取得する第2の取得工程と、
前記光源の位置姿勢に応じて、前記環境マッピング画像を更新する更新工程と、
前記仮想物体が配置された仮想空間を前記視点から見た場合に見える画像を生成する際に、前記更新工程で更新した更新済み環境マッピング画像を前記仮想物体にマッピングする生成工程と、
前記生成工程で生成した画像を出力する出力工程と
を備えることを特徴とする。
観察者の視点の位置姿勢を取得する第1の取得工程と、
現実物体としての光源の位置姿勢を取得する第2の取得工程と、
前記光源の位置姿勢に応じて、前記環境マッピング画像を更新する更新工程と、
前記仮想物体が配置された仮想空間を前記視点から見た場合に見える画像を生成する際に、前記更新工程で更新した更新済み環境マッピング画像を前記仮想物体にマッピングする生成工程と、
前記生成工程で生成した画像を出力する出力工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、仮想物体に対して環境マッピングを行うために用いる環境マッピング画像を保持する保持手段と、
観察者の視点の位置姿勢を取得する第1の取得手段と、
現実物体としての光源の位置姿勢を取得する第2の取得手段と、
前記光源の位置姿勢に応じて、前記環境マッピング画像を更新する更新手段と、
前記仮想物体が配置された仮想空間を前記視点から見た場合に見える画像を生成する際に、前記更新手段で更新した更新済み環境マッピング画像を前記仮想物体にマッピングする生成手段と、
前記生成手段によって生成した画像を出力する出力手段と
を備えることを特徴とする。
観察者の視点の位置姿勢を取得する第1の取得手段と、
現実物体としての光源の位置姿勢を取得する第2の取得手段と、
前記光源の位置姿勢に応じて、前記環境マッピング画像を更新する更新手段と、
前記仮想物体が配置された仮想空間を前記視点から見た場合に見える画像を生成する際に、前記更新手段で更新した更新済み環境マッピング画像を前記仮想物体にマッピングする生成手段と、
前記生成手段によって生成した画像を出力する出力手段と
を備えることを特徴とする。
本発明の構成により、現実の光源の位置姿勢に応じて、仮想空間中の仮想光源や、仮想物体に対する周辺環境の映りこみを制御することで、現実空間と仮想空間との間の光学的整合性を実現することができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1は、仮想空間と現実空間とを合成した複合現実空間の画像を観察者に対して提示する為の、本実施形態に係るシステムのハードウェア構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムは、コンピュータ100,頭部装着部200、照明装置302、センサ制御装置303により構成される。
図1は、仮想空間と現実空間とを合成した複合現実空間の画像を観察者に対して提示する為の、本実施形態に係るシステムのハードウェア構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムは、コンピュータ100,頭部装着部200、照明装置302、センサ制御装置303により構成される。
先ず、頭部装着部200について説明する。頭部装着部200は、複合現実空間を観察する観察者が自身の頭部に装着する、所謂HMD(ヘッドマウントディスプレイ)であって、同図に示す如く、表示装置201、撮像装置202、センサ301により構成されている。
このように、頭部装着部200には撮像装置202が備わっているので、この頭部装着部200は所謂ビデオシースルー型HMDである。また、本実施形態では、頭部装着部200を観察者の頭部に装着する形態となっているが、観察者が複合現実空間を体感することができるのであれば、頭部装着部200は必ずしも観察者が装着する必要はない。
表示装置201は、観察者が頭部装着部200を自身の頭部に装着した際に眼前に位置するように頭部装着部200に取り付けられている。また、表示装置201は、コンピュータ100が有する画像出力装置103から出力される画像情報を受け、これに基づく画像を表示する。従って、頭部装着部200を頭部に装着した観察者の眼前には、コンピュータ100から出力された画像情報に従った画像が表示されることになる。
なお、本実施形態では、表示装置201は頭部装着部200を構成する装置であるが、必ずしも観察者が装着する必要はない。即ち、観察者が映像を確認することができる手段であれば、例えば、表示装置201として据え置き型のディスプレイ装置を用いてもよいし、手持ち型のディスプレイを用いてもよい。
撮像装置202は、CCDカメラなどの1つ以上の撮像装置によって実現される。撮像装置202は観察者の視点(目)から見た現実空間の動画像を撮像するために用いられる。そのため、撮像装置202は、観察者の視点位置に近い場所に装着することが望ましいが、観察者の視点から見た現実空間の画像が取得できる手段であれば、これに限定されない。また、ハーフミラーやプリズムなどを用いて撮像装置202の光軸と、表示装置201の中心軸とを一致させてもよい。
撮像装置202が撮像した各フレームの画像(現実空間の画像)は、アナログ信号、若しくはIEEE1394規格のディジタル信号信号等から成る画像信号としてコンピュータ100が有する画像入力装置107に送出される。なお、表示装置201に光学シースルー型の表示装置を用いる場合には、観察者は表示装置201を通して現実世界を直接観察することになるため、撮像装置202を具備しなくてよい。また、頭部装着部200に現実空間の画像を必要としない没入型の装置を用いる場合にも、撮像装置202を具備しなくてよい。
センサ301は、センサ制御装置303による制御に従って自身の位置姿勢を計測し、その計測結果をセンサ制御装置303に送出する。ここで、センサ301は、本来は、観察者の視点の位置姿勢を計測するためのものであるが、センサ301と観察者の視点とはその位置がずれており、センサ301が計測した位置姿勢は観察者の視点の位置姿勢ではない。しかし、この位置ずれ量(オフセット量)は固定である為、センサ301による計測値にこのオフセット量を加算すれば、観察者の視点の位置姿勢が得られる。この位置ずれ量(オフセット量)は予め測定しておき、データとしてコンピュータ100側に保持させておく。
センサ制御装置303は、センサ301から計測結果(視点の位置姿勢情報)を受けると、これをデータとしてコンピュータ100が有する入力装置106に送出する。
次に、コンピュータ100について説明する。コンピュータ100には一般のPC(パーソナルコンピュータ)やWS(ワークステーション)等が適用可能であり、同図に示す如く、CPU101、RAM102、画像出力装置103、システムバス104、ディスク装置105、入力装置106、画像入力装置107、操作部108により構成されている。
CPU101はRAM102にロードされたプログラムやデータを用いてコンピュータ100全体の制御を行うと共に、コンピュータ100が行う後述の各処理を実行する。
RAM102は、ディスク装置105からロードされたプログラムやデータを一時的に記憶する為のエリア、画像入力装置107を介して頭部装着部200が有する撮像装置202から入力した現実空間の画像のデータを一時的に記憶するためのエリア、入力装置106を介してセンサ制御装置303から入力した各種の情報を一時的に記憶するためのエリア、CPU101が各種の処理を実行する際に用いるワークエリア、周知のビデオバッファ等、各種のエリアを適宜提供することができる。
画像出力装置103は、グラフィックスカードなどの機器によって実現される。一般的に、画像出力装置103は図示しないグラフィックスメモリを保持している。CPU101による処理でもって生成される画像情報は、システムバス104を介して、画像出力装置103が保持するグラフィックスメモリに書き込まれる。画像出力装置103は、グラフィックスメモリに書き込まれた画像情報を適切な画像信号に変換して、頭部装着部200が有する表示装置201に送出する。グラフィックスメモリは必ずしも画像出力装置103が保持する必要はなく、RAM102がグラフィックスメモリの機能を実現してもよい。
ディスク装置105は、ハードディスクドライブ装置に代表される大容量情報記憶装置であって、ここにOS(オペレーティングシステム)や、コンピュータ100が行う後述の各処理をCPU101に実行させるためのプログラムやデータが保存されており、これらはCPU101による制御に従ってRAM102にロードされ、CPU101による処理対象となる。
なお、ディスク装置105に保存されているデータの中には、仮想空間を構成する各仮想物体に係るデータ、仮想空間中に配置される光源に係るデータ、上記オフセット量のデータ、仮想物体に対して環境マッピングを行うために用いる環境マッピング画像(環境マップ)データ等が含まれる。
入力装置106は、各種インタフェース機器によって実現され、外部機器からの信号をデータとして入力し、システムバス104を介して、RAM102、若しくはディスク装置105に出力する。
画像入力装置107は、キャプチャカードなどの機器によって実現される。画像入力装置107は、撮像装置202から順次送出される現実空間の画像を受け、これをシステムバス104を介して、RAM102、若しくはディスク装置105に出力する。なお、表示装置201に光学シースルー型の表示装置を用いる場合や、頭部装着部200に現実空間の画像を必要としない没入型の装置を用いる場合には、画像入力装置107は具備しなくてもよい。
操作部108は、マウスやキーボードなどにより構成されており、コンピュータ100の操作者(観察者)が操作することで、各種の指示をCPU101に対して入力することができる。
104は上述の各部を繋ぐバスである。
次に、照明装置302について説明する。
照明装置302は、懐中電灯を元にした現実物体としての光源デバイスであり、本実施形態では観察者が手に持って使用する。また、照明装置302の内部にはセンサ301と同様のセンサが備わっており、センサ301と同様に、自身の位置姿勢を計測する。
図2は、照明装置302の外観、及びその構成の例を示す図である。同図に示す如く、照明装置302には、光を照射する光源として機能する照明部308、押しボタンスイッチ304,305、スライダ306が設けられている。また、照明装置302の内部には、センサ307が備わっている。
センサ307は、センサ301と同様のものであり、センサ制御装置303による制御に従って自身の位置姿勢を計測し、計測結果をセンサ制御装置303に送出する。ここで、センサ307は、照明装置302の重心位置に取り付けられることが好ましい。また、以下では、センサ307が計測する位置姿勢を照明装置302の位置姿勢として用いる。また、センサ307が計測する姿勢成分の何れかが、照明装置302の軸399が向いている方向であることが好ましいが、軸399の向いている方向が得られるのであれば、これに限定するものではない。センサ制御装置303は、このセンサ307から受けた位置姿勢情報をデータとしてコンピュータ100が有する入力装置106に対して送出する。
押しボタンスイッチ304は、1度押下されると、その操作情報がセンサ制御装置303に送出されると共に、センサ制御装置303による制御に従って照明部308がON状態となり、照明部308から光が照射される。ここで、更に押しボタンスイッチ304がもう1度押下されると、その操作情報がセンサ制御装置303に送出されると共に、センサ制御装置303による制御に従って照明部308がOFF状態となり、照明部308は光の照射を止める。
ここで、照明装置302の照明部308がON状態であるとき、押しボタンスイッチ305を押下する毎にセンサ制御装置303による制御に従って照明部308から照射される光の色が変わるし、スライダー306を動かすことでセンサ制御装置303による制御に従って照明部308から照射される光の明るさを調節することができる。
なお、押しボタンスイッチ304,305,スライダ306を操作すると、この操作情報はセンサ制御装置303に送出され、センサ制御装置303は、この受けた操作情報をデータとしてコンピュータ100が有する入力装置106に送出する。この操作情報には、現在照明部308がON状態であるのかOFF状態であるのかを示す情報や、照明部308から照射する光の色や明るさといった光に係る情報も含まれている。
ここで、本実施形態では、仮想空間と現実空間とでそれぞれの座標系を一致させておく。即ち、現実空間中に配置された現実物体の位置姿勢と同じ位置姿勢でもって仮想空間中に仮想物体を配置した場合に、この現実物体にこの仮想物体が一致して配置されるよう、それぞれの空間における座標系を一致させておく。また、現実物体と仮想物体との関係が逆の場合でも同じことである。仮想空間の座標系と現実空間の座標系とを合わせる技術については、従来から多くの取り組みが行われており、例えば特開2002−229730号公報、特開2003−269913号公報などに開示されている方法を用いて、現実空間と仮想空間とを正確に整合させるための位置合わせを実現することができる。
次に、上記構成を有するシステム中のコンピュータ100が行う処理について、同処理のフローチャートを示す図3を用いて説明する。なお、同図のフローチャートに従った処理をCPU101に実行させるためのプログラムやデータはディスク装置105に保存されており、これらは必要に応じて適宜CPU101による制御に従ってRAM102にロードされ、CPU101がこれを用いて処理を実行することで、コンピュータ100は以下説明する各処理を実行することになる。
まず、ステップS1000では、コンピュータ100を初期化する処理を行う。
次に、ステップS1010では、環境マッピングに用いる環境マッピング画像をディスク装置105からRAM102にロードする。ここで、環境マッピング技術、及び環境マッピング画像の作成方法について説明する。
環境マッピング技術は、「物体の存在する3次元空間内に半径無限大の仮想球を考え、その内面にあらかじめ環境のテクスチャを貼り付け、金属などの物体表面にそのテクスチャが反射しているように表示を行うこと」、「反射方向ベクトルは視点の位置と物体表面の点の座標で決まり、このベクトルからテクスチャ上の座標が決定できる」、「環境テクスチャを貼り付ける形状は、球のほかに円柱や立方体なども用いられることがある」という内容によって特徴付けられる。環境マッピング技術に関する詳細な説明は、文献「技術編 CG標準テキストブック,財団法人画像情報教育振興協会,pp.170−171」に開示されている。
環境マッピング画像の作成方法については、図4を用いて説明する。図4は、環境マッピング画像の取得に係る処理、及びこの処理でもって取得した環境マッピング画像を説明する図である。
図4(a)では、撮影者401がカメラ402を利用して球状ミラー403を撮影している。図4(a)中の点線は、カメラ402の撮影画角範囲を示している。こうしてカメラ402で撮影した画像から球状ミラー403の部分を切り抜き、撮影者401およびカメラ402の画像部分を消去した画像が、図4(b)に示す環境マッピング画像404である。
環境マップ画像404は、球状ミラー403を撮影した画像なので、周囲の環境(点線で囲まれた天井の光源群405、地面406など)が映りこんでいるのが分かる。作成された環境マッピング画像404は、ディスク装置105に保持される。場合によっては、環境マッピング画像404に対して、輝度調整・色調整・編集処理を施してもよい。また、環境マッピング画像404に映りこんだ撮影者401およびカメラ402を消去せずにそのまま残してもよい。また、時や場所を変えて、環境マップ画像を複数作成してもよい。
従ってステップS1010では、ディスク装置105に保持されている環境マッピング画像のうちの1枚を、以降の処理で用いるものとしてRAM102内の環境マッピング用テクスチャメモリにロードする。本実施形態では、以降の処理で用いる環境マッピング画像として、図4(b)に示す環境マッピング画像404を用いるものとする。
ステップS1020では、頭部装着部200が有する撮像装置202により撮像された各フレームの現実空間の画像が順次コンピュータ100に送出されるので、送出されたそれぞれの画像を画像入力装置107、システムバス104を介して順次ビデオバッファ等のメモリに取得する。
なお、表示装置201に光学シースルー型の表示装置を用いる場合や、頭部装着部200に現実空間の画像を必要としない没入型の装置を用いる場合には、本ステップを無視する。
ステップS1030では、頭部装着部200が有するセンサ301により計測された位置姿勢情報、及び照明装置302が有するセンサ307により計測された照明装置302の位置姿勢情報がセンサ制御装置303からコンピュータ100に送出されるので、送出されたこれらの位置姿勢情報を、入力装置106、システムバス104を介してRAM102内、若しくはディスク装置105内に取得する。
ステップS1040では、仮想空間を構成する各仮想物体についてのデータは予めディスク装置105からRAM102にロードされているので、このデータを用いて仮想物体を生成すると共に、仮想空間中に配置することで、仮想空間を形成する。また、ステップS1030で取得したセンサ301の位置姿勢に上記オフセット量を加算して、視点の位置姿勢を求める。そして、求めた位置姿勢を有する視点から見た仮想空間の画像を生成する。なお、仮想空間の画像を生成する際には周知の通り、仮想空間中に仮想の光源を設ける必要があるが、この光源は以下に登場する光源とは別個のものである。
なお、本実施形態では、仮想物体に対して環境マッピングを行うので、先にRAM102内の環境マッピング用テクスチャメモリにロードされている環境マッピング画像を、この仮想物体に対してマッピングする。本実施形態では、環境マッピング画像を貼り付ける形状として半径無限大の球を利用する。ただし、環境マッピング画像を貼り付ける形状として半径無限大の球を利用することで、観察者の視点位置が図4のカメラ402の位置と大きくずれると、適切な環境マッピング処理を行うことが出来ない場合がある。このような場合は、撮影した環境マッピング画像に対してワーピング変換処理を施すことで対処できる。
また、生成した仮想空間の画像において仮想物体の領域以外については、この画像の背景画像となる現実空間の画像が見えるように、透過率100%で描画する。若しくは、同等の目的を達成するために、背景画像となる現実空間の画像を透過させるように予め定めたカラーバッファ値(例えば(R、G、B)=(0、0、0))を入力してもよい。
なお、表示装置201に光学シースルー型の表示装置を用いる場合には、仮想物体が存在しない画面領域を背景が透過する色で描画してもよい。また、頭部装着部200に現実映像を必要としない没入型の装置を用いる場合には、仮想物体が存在しない画面領域に何を表示してもよい。
ステップS1050では、ステップS1020で現実空間の画像を描画したビデオバッファ上に、ステップS1040で生成した仮想空間の画像を重畳させることで、合成画像、即ち、複合現実空間の画像をビデオバッファ上に生成する。そして、生成した画像を画像出力装置103により、頭部装着部200が有する表示装置201に対して出力する。これにより、観察者の眼前には、以上の処理でもって生成した複合現実空間の画像が表示されることになる。
ここで、ステップS1040における説明で述べたように、仮想物体を描画する際に、仮想物体が存在しない画面領域を背景透過率100%で描画したり、背景画像となる現実画像を透過させるようにあらかじめ定めたカラーバッファ値(例えば(R、G、B)=(0、0、0))を入力しているため、現実空間と仮想空間とを合成した映像を表示することができる。
なお、表示装置201に光学シースルー型の表示装置を用いる場合や、頭部装着部200に現実映像を必要としない没入型の装置を用いる場合には、単にステップS1040で描画した仮想空間画像を表示装置201に表示すればよい。
ステップS1060では、センサ制御装置303から受けた操作情報を参照し、照明部308がON状態であるのか否かを判断する。照明部308がON状態になっていれば処理をステップS1070へ進め、照明部308がOFF状態になっていれば処理をステップS1020に戻す。
ステップS1070では、ステップS1030で取得した照明装置302の位置姿勢に仮想の光源を配置する。上述のとおり、現実空間と仮想空間とで座標系を一致させているので、仮想の光源は、現実物体としての照明装置302に一致して配置されることになる。即ち、仮想の光源は、照明装置302の位置姿勢でもって配置されるので、観察者が照明装置の位置姿勢を変更すると、仮想光源の位置姿勢もそれに連動して変更されることになる。すなわち、照明装置302を現実空間中で動かすと、ステップS1050で生成される合成画像では、照明装置302の動きに合わせてあたかも現実の照明装置302から仮想の光が出て、仮想物体の陰影(ShadeおよびShadow)が変化するように見える。もちろん、現実の照明装置302の照明部308がON状態になっているので、現実空間の陰影も変化する。
なお、仮想光源については周知の通り、CG技術分野において、仮想空間に存在する仮想物体を直接的に照明する光源のことであり、一般的に「スポットライト光源」「点光源」「線光源」「面光源」などに区分される。本実施形態では、これらの光源のうち、スポットライト光源を使用した場合について説明する。
図5は、ステップS1070における処理により、光源が設定された仮想空間の画像を示す図である。同図では、図4(b)に示した環境マッピング画像をマッピングしたポットの仮想物体501を用いている。また、同図において502はステップS1070で配置した仮想の光源を示す。なお、同図では説明上、仮想光源502を示す仮想物体を配置しているが、この仮想物体は実際には配置しない。
しかし、仮想光源502の仮想物体を配置する場合には、仮想空間の座標系と現実空間の座標系とが位置合わせ処理により合っているので、現実空間と仮想空間の合成画像では、現実物体としての照明装置302の上に仮想光源502が重なっていることになる。なお、この仮想光源502は、照明装置302の押しボタンスイッチ305の操作によって照明の色が変化し、またスライダー306の操作によって明るさが変化する。ここで、仮想光源502の照明の色および明るさのパラメータは、現実の照明部308の色および明るさと同じ、もしくはほぼ同じになるように設定されていることが望ましい。なお、現実の照明部308の色および明るさは、センサ制御装置303から送出される操作情報に含まれている光に係る情報でもって取得することができる。
図5(a)は、仮想空間中に配置されているポットの仮想物体501の右上手前からポットの仮想物体501を照らすように仮想光源502が配置された場合の仮想空間画像を示す。また、図5(b)は、ポットの仮想物体501の左上奥からポットの仮想物体501を照らすように仮想光源502が配置された場合の仮想空間画像を示す。
それぞれを見比べると、ポットの仮想物体501の陰影(ShadeおよびShadow)が変化しているのが分かる。
図3に戻って、次に、ステップS1080では、ステップS1030で取得した照明装置302の位置姿勢に基づいて、環境マッピング画像上に、仮想光源による光の写り込みを描画すべく、環境マッピング画像を更新する処理を行う。
図6(a)は図4において説明した環境マップ画像404を示す。図6(b)は、ステップS1080にて、環境マッピング画像404上に、仮想光源による光の写り込みを描画すべく、環境マッピング画像404を更新した結果の環境マッピング画像601を示す。図6(b)において領域602が、この写り込みの部分を示すものである。領域602の位置、形、色、明るさなどは、仮想光源502の位置姿勢の変化や、照明装置302の押しボタンスイッチ305、スライダー306の操作によって変化する。
ここで、ステップS1080における処理、即ち、図6の場合、写り込みの部分602を追加描画するための処理について、図7を用いて説明する。
図7は、ステップS1080における処理の詳細を示す図である。先ず、同図に示した各部は仮想空間内におけるものであることに注意されたい。
同図において750はステップS1070で配置した仮想光源であり、703は、仮想光源750の位置姿勢(若しくは仮想光源750の位置から軸399方向に所定距離だけずれた位置)でもって配置された仮想光源オブジェクトである。この仮想光源オブジェクト703は、平面の円形オブジェクトであり、その色や明るさは、仮想光源750の色や明るさと同じである。
また、図4に示したカメラ402、球状ミラー403と同じ位置姿勢でもってそれぞれ、仮想空間中に仮想のカメラ412、仮想の球体413を配置する。ここで、仮想のカメラ412のカメラパラメータ(焦点距離やフォーカスなど)は、現実のカメラ402と同じにするので、仮想のカメラ412における撮像面(仮想CCD面)、焦点はそれぞれ701,702であって、現実のカメラ402のそれと同じ配置関係となる。
ここで、仮想CCD面701上に環境マッピング画像404を180度回転させて配置する。この配置した画像を環境マッピング画像760とする。そして、この環境マッピング画像760を構成する各画素位置から焦点702を通る直線を計算する。なお、計算した直線が仮想の球体413の表面に衝突した場合には、入射角と反射角とが一致するように、球体面で反射させる。その結果、反射した直線が仮想光源オブジェクト703と交差した(若しくは接した)場合、この直線の始点となる環境マッピング画像760上の画素の色や明るさを、仮想光源オブジェクト703(仮想光源750)の色、明るさにに基づいて更新する。
ここで、更新前の環境マッピング画像760上の画素(X,Y)の色をCE(X,Y)とし、対応する仮想光源オブジェクト703(仮想光源750)の色をCLとすると、更新後の環境マッピング画像760上の画素(X,Y)の色であるCE(X,Y)’は、αブレンドの式である式(1)によって求めることができる。
CE(X,Y)’=α×CE(X,Y)+(1−α)×CL ・・・(1)
ただし、αは、0≦α≦1を満たす値であり、あらかじめ観察者が定めておくことができる。
ただし、αは、0≦α≦1を満たす値であり、あらかじめ観察者が定めておくことができる。
一方、式(1)のようなαブレンディング処理を行わずに、環境マッピング画像760上の画素の色や明るさを、ただ単に仮想光源オブジェクト703(仮想光源750)の色、明るさに置き換えてもよいことは言うまでもない。
また、ここでは色について説明を行ったが、明るさについても同様に求めることが出来るのは言うまでもない。
また、ここでは色について説明を行ったが、明るさについても同様に求めることが出来るのは言うまでもない。
即ち、環境マッピング画像760を構成する各画素のうち第1の画素から焦点702を通り、仮想の球体413の面上を反射して仮想光源オブジェクト703と交差する場合、この第1の画素の色や明るさを、仮想光源オブジェクト703(仮想光源750)の色や明るさにに基づいて更新する。一方、環境マッピング画像760を構成する各画素のうち第2の画素から焦点702を通り、仮想の球体413の面上を反射しない、若しくは反射して仮想光源オブジェクト703と交差しない場合、この第2の画素の色や明るさは変更しない。
このようにして、第1の画素に相当する画素群で構成される領域に、仮想光源750からの光の写り込みを示す画像を描画する。なお、第1の画素に相当する画素群で構成される領域の周辺部分に関しては、適宜その色や明るさを暈かすような処理を行うことが好ましい。
更に、仮想光源オブジェクト703だけでなく、仮想光源750の仮想物体をも、環境マッピング画像760上に写り混ませるように、この環境マッピング画像760を更新するようにしても良い。すなわち、あらかじめ仮想光源750の仮想物体のモデルをディスク装置105に用意しておき、本実施例のステップS1010などにおいて、RAM102に読み込んでおく。そして、仮想光源750の仮想物体モデルが環境マッピング画像760に反映されるよう環境マッピング画像760を更新するが、その場合の処理は仮想光源オブジェクト703を写り混ませる場合と基本的には同じである。
図8は、図5に示したポットの仮想物体に用いる環境マッピング画像を、以上の処理でもって更新し、更新後の環境マッピング画像を用いて環境マッピングを行ったポットの仮想物体を含む仮想空間の画像を示す図である。図8(a)では仮想光源502の位置姿勢が図5(a)と対応し、図8(b)では仮想光源502の位置姿勢が図5(b)と対応する。図8と図5との違いは、仮想物体に対する仮想光源502の映りこみがあるかないかである。すなわち、図8(a)では、ポットの仮想物体501に対して仮想光源502の映りこみ850が反映されていることが分かる。しかし、図8(b)のような位置姿勢関係の場合は、仮想光源502の映りこみはポットの仮想物体501の向こう側に反映されるべきであり、実際、手前には映りこみが見えないことが分かる。
図3に戻って、次に、ステップS1090では、ステップS1080で更新した環境マッピング画像をRAM102内の環境マッピング用テクスチャメモリ上に上書きし、以降の処理で用いる環境マッピング画像を、ステップS1080で作成した環境マッピング画像に更新する。
ステップS1100では、操作部108を介して本処理の終了指示が入力されたか、若しくは所定の終了条件が満たされたのか等、本処理を終了する指示を検知した場合には本処理を終了するのであるが、検知していない限りは処理をステップS1020に戻し、以降の処理を繰り返す。なお、本実施形態においては、ステップS1050の後にも本ステップと同等の処理を行ってもよい。
図9は、以上の処理でもって生成される複合現実空間の画像の表示例を示す図である。 図9(a)、(b)は、現実の机901の上に、ポットの仮想物体501が乗っており、観察者の手902でもって現実物体としての照明装置302をポットの仮想物体501の方に向けている様子を示している。図9(a)では、ポットの仮想物体501に対して、仮想的に存在する仮想光源の映りこみが反映されていることが分かる。すなわち、図9(a)では、ポットの仮想物体501に対して仮想光源502の映りこみ950が反映されていることが分かる。
しかし、図9(b)のような位置姿勢関係の場合は、仮想光源の映りこみはポットの仮想物体501の向こう側に反映されるべきであり、実際、手前には映りこみが見えないことが分かる。
以上の説明により、本実施形態によって、現実の光源の位置姿勢に応じて、仮想空間中の仮想光源、および仮想物体に対する周辺環境の映りこみを制御することで、現実空間と仮想空間との間の光学的整合性を実現することができる。
なお、本実施形態では、センサによる位置姿勢計測方法については説明上、趣旨とするところではないので、特に説明していないが、磁気式センサや光学式センサなど、何れのタイプのセンサを用いても良いことはいうまでもない。また、位置姿勢の計測方法についてはセンサを用いることに限定するものではなく、画像計測など様々な方法が考えられる。
また、本実施形態では、環境マッピング画像を貼り付ける形状として半径無限大の球を例に説明したが、これに限定するものではなく、その形状として円筒や立方体を利用してもよいことは言うまでもない。
また、上述の通り、本実施形態では、仮想光源としてスポットライト光源を用いているが、「点光源」、「線光源」、「面光源」、等の光源を用いても良いことはいうまでもない。
また、本実施形態では、照明装置302が1つしかない場合について説明したが、デザイン検証の内容によっては、照明装置が複数必要になることも考えられる。本実施形態では、照明装置が複数あったとしても、それぞれの照明装置に対応した仮想光源を用意し、またそれぞれの照明装置に対応した写り込みの部分を環境マッピング画像に追加することで実現することができる。
また、本実施形態では、仮想光源オブジェクト703として平面の円形オブジェクトを用いているが、その他の形状(例えば球状)のオブジェクトを用いても良いことはいうまでもない。
[第2の実施形態]
本実施形態では、図3に示したステップS1080における処理をステップS1081に置き換える点のみが第1の実施形態とは異なる。以下、このステップS1081における処理について説明する。
本実施形態では、図3に示したステップS1080における処理をステップS1081に置き換える点のみが第1の実施形態とは異なる。以下、このステップS1081における処理について説明する。
図10は、ステップS1081における処理の詳細を示す図である。図10は、図7に示した構成から、仮想光源オブジェクト703を省いた構成となっている。
先ず、第1の実施形態と同様に、仮想CCD面701上に環境マッピング画像404を180度回転させて配置する。この配置した画像を環境マッピング画像1001とする。そして、この環境マッピング画像1001を構成する各画素位置から焦点702を通る直線を計算する。なお、計算した直線が仮想の球体413の表面に衝突した場合には、入射角と反射角とが一致するように、球体面で反射させる。そして、反射した直線のうち、仮想光源750の位置に最も近い位置(同図750で示すオブジェクトの中心位置に最も近い位置)を通る直線を決定し、決定した直線の始点となる環境マッピング画像1001上の画素を中心として所定サイズの円形領域内の画素の色や明るさを、仮想光源750の色、明るさに基づいて更新する。
即ち、環境マッピング画像1001を構成する各画素のうち第1の画素から焦点702を通り、仮想の球体413の面上を反射した直線が、どの直線よりも仮想光源750の位置に最も近い位置を通る場合には、環境マッピング画像1001上でこの第1の画素を中心とする所定サイズの円形領域(以下、写り込み領域)内の画素の色や明るさを、仮想光源750の色や明るさに基づいて更新する。図10において、1050は、更新後の環境マッピング画像であり、写り込み領域を1002で示す。なお、写り込み領域は完全な円形に限定するものではなく、第1の画素の近傍画素群で構成された領域であれば良い。
このようにして、写り込み領域に、仮想光源750からの光の写り込みを示す画像を描画する。なお、写り込み領域の周辺部分に関しては、適宜その色や明るさを暈かすような処理を行うことが好ましい。
写り込み領域は、仮想光源750が移動する度にその位置が変化する。また、写り込み領域1002の大きさを、環境マッピング画像1001から仮想光源750までの光線の距離によって変化させてもよい。
更には、仮想光源750の姿勢によって、写り込み領域1002の形状を円から楕円などに変化させてもよい。写り込み領域1002を追加する際には、仮想光源750の色、明るさと同じ色、明るさ情報を写り込み領域1002に用いる。更に、仮想光源750の仮想物体を用意し、環境マップ画像1001に仮想光源750の存在を追加修正してもよいことは言うまでもない。
[第3の実施形態]
本実施形態では、仮想空間中の仮想光源だけではなく、仮想空間中に存在する他の仮想物体の映りこみを実現する。本実施形態では、図3に示したステップS1040における処理をステップS1041に置き換える点のみが第1の実施形態とは異なる。以下、このステップS1041における処理について説明する。
本実施形態では、仮想空間中の仮想光源だけではなく、仮想空間中に存在する他の仮想物体の映りこみを実現する。本実施形態では、図3に示したステップS1040における処理をステップS1041に置き換える点のみが第1の実施形態とは異なる。以下、このステップS1041における処理について説明する。
ステップS1041では、その都度、環境マッピング用テクスチャメモリに保持されている環境マッピング画像を読み出し、仮想物体に対して環境マッピング処理を施す。本実施形態においては、環境マッピング画像を貼り付ける形状として半径無限大の球を利用する。
ただし、環境マッピング画像を貼り付ける形状として半径無限大の球を利用することで、観察者の視点位置がカメラ402の位置と大きくずれると、適切な環境マッピング処理を行うことが出来ない場合がある。このような場合は、撮影した環境マップ画像に対してワーピング変換処理を施すことで対処できる。
なお、ステップS1041では、仮想物体に対して環境マッピング処理を施す前に、読み出した環境マップ画像を修正する。この修正は、ステップS1080の処理を変形することで実現できる。すなわち、ステップS1080および図7で説明した仮想光源オブジェクト703を本実施形態における他の仮想物体に置き換え、さらに、図6で説明した領域602を、他の仮想物体の映りこみに置き換えればよい。
[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
Claims (11)
- 仮想物体に対して環境マッピングを行うために用いる環境マッピング画像を保持する保持工程と、
観察者の視点の位置姿勢を取得する第1の取得工程と、
現実物体としての光源の位置姿勢を取得する第2の取得工程と、
前記光源の位置姿勢に応じて、前記環境マッピング画像を更新する更新工程と、
前記仮想物体が配置された仮想空間を前記視点から見た場合に見える画像を生成する際に、前記更新工程で更新した更新済み環境マッピング画像を前記仮想物体にマッピングする生成工程と、
前記生成工程で生成した画像を出力する出力工程と
を備えることを特徴とする画像処理方法。 - 更に、前記現実物体としての光源による光の明るさ、色を取得する第3の取得工程を備え
前記更新工程では、前記第3の取得工程で取得した色、明るさに基づいて前記環境マッピング画像を更新することを特徴とする請求項1に記載の画像処理方法。 - 前記更新工程では、
前記光源の位置姿勢でもって、前記光源を示すオブジェクトを配置し、
前記保持工程で保持する環境マッピング画像を取得するために行った現実空間撮像における撮像面上に、当該環境マッピング画像を配置した場合に、当該配置した環境マッピング画像を構成する各画素位置から前記現実空間撮像における焦点を通る直線のうち、前記オブジェクトと交差する直線群について、当該直線群の始点位置である画素位置群で構成される領域に、前記光源からの光の写り込みを示す画像を描画することで、前記環境マッピング画像を更新することを特徴とする請求項1に記載の画像処理方法。 - 更に、前記現実物体としての光源による光の明るさ、色を取得する第3の取得工程を備え
前記更新工程では、前記画素位置群で構成される領域に、前記光源からの光の写り込みを示す画像を、前記第3の取得工程で取得した色、明るさでもって描画することで、前記環境マッピング画像を更新することを特徴とする請求項3に記載の画像処理方法。 - 前記更新工程では、
前記保持工程で保持する環境マッピング画像を取得するために行った現実空間撮像における撮像面上に、当該環境マッピング画像を配置した場合に、当該配置した環境マッピング画像を構成する各画素位置から前記現実空間撮像における焦点を通る直線のうち、前記光源の位置に最も近い位置を通る直線の始点位置である画素位置における画素の近傍画素群で構成される領域に、前記光源からの光の写り込みを示す画像を描画することで、前記環境マッピング画像を更新することを特徴とする請求項1に記載の画像処理方法。 - 更に、前記現実物体としての光源による光の明るさ、色を取得する第3の取得工程を備え
前記更新工程では、前記近傍画素群で構成される領域に、前記光源からの光の写り込みを示す画像を、前記第3の取得工程で取得した色、明るさに基づいて描画することで、前記環境マッピング画像を更新することを特徴とする請求項5に記載の画像処理方法。 - 更に、
前記光源のオン/オフを示す指示を取得する工程を備え、
前記生成工程では、
前記光源がオンである場合には、前記仮想物体に対して前記更新済み環境マッピング画像をマッピングすることで仮想物体を生成し、
前記光源がオフである場合には、前記仮想物体に対して前記保持工程で保持している環境マッピング画像をマッピングすることで仮想物体を生成する
ことを特徴とする請求項1乃至6の何れか1項に記載の画像処理方法。 - 更に、
前記視点から見える現実空間の画像を取得する工程を備え、
前記出力工程では、前記生成工程で生成した画像を、前記現実空間の画像上に重畳させて出力することを特徴とする請求項1乃至7の何れか1項に記載の画像処理方法。 - 仮想物体に対して環境マッピングを行うために用いる環境マッピング画像を保持する保持手段と、
観察者の視点の位置姿勢を取得する第1の取得手段と、
現実物体としての光源の位置姿勢を取得する第2の取得手段と、
前記光源の位置姿勢に応じて、前記環境マッピング画像を更新する更新手段と、
前記仮想物体が配置された仮想空間を前記視点から見た場合に見える画像を生成する際に、前記更新手段で更新した更新済み環境マッピング画像を前記仮想物体にマッピングする生成手段と、
前記生成手段によって生成した画像を出力する出力手段と
を備えることを特徴とする画像処理装置。 - コンピュータに請求項1乃至8の何れか1項に記載の画像処理方法を実行させる為のプログラム。
- 請求項10に記載のプログラムを格納したことを特徴とする、コンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005197821A JP2007018173A (ja) | 2005-07-06 | 2005-07-06 | 画像処理方法、画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005197821A JP2007018173A (ja) | 2005-07-06 | 2005-07-06 | 画像処理方法、画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007018173A true JP2007018173A (ja) | 2007-01-25 |
Family
ID=37755306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005197821A Withdrawn JP2007018173A (ja) | 2005-07-06 | 2005-07-06 | 画像処理方法、画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007018173A (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007233701A (ja) * | 2006-03-01 | 2007-09-13 | Kobe Univ | ディスプレイ上での光沢表現方法 |
JP2010128986A (ja) * | 2008-11-28 | 2010-06-10 | Canon Inc | 複合現実感提示システムと仮想光源の輝度調整方法 |
JP2011237891A (ja) * | 2010-05-06 | 2011-11-24 | Square Enix Co Ltd | リアルタイムシーンを照明し,発見するバーチャルフラッシュライト |
JP2013515307A (ja) * | 2009-12-21 | 2013-05-02 | トムソン ライセンシング | 環境マップを生成する方法 |
JP2013152683A (ja) * | 2012-01-26 | 2013-08-08 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
JP2014123406A (ja) * | 2007-03-08 | 2014-07-03 | Exelis Inc | 閉ざされた構造内の人員およびセンサの位置を示し、状況認識の増進を提供する、拡張現実ベース型システムおよび方法 |
KR20140094886A (ko) * | 2013-01-23 | 2014-07-31 | 삼성전자주식회사 | 영상 처리 장치, 초음파 영상 장치 및 영상 처리 방법 |
JP2016081209A (ja) * | 2014-10-15 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP2016218547A (ja) * | 2015-05-15 | 2016-12-22 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
CN106796771A (zh) * | 2014-10-15 | 2017-05-31 | 精工爱普生株式会社 | 头戴式显示设备、控制头戴式显示设备的方法和计算机程序 |
WO2018101093A1 (ja) * | 2016-12-01 | 2018-06-07 | シャープ株式会社 | 撮像装置、撮像方法、及び表示装置 |
JP2018142090A (ja) * | 2017-02-27 | 2018-09-13 | Kddi株式会社 | キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム |
JP2019191600A (ja) * | 2015-08-18 | 2019-10-31 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 仮想および拡張現実システムならびに方法 |
KR20200052074A (ko) * | 2018-11-06 | 2020-05-14 | 문준용 | 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법 및 장치 |
JPWO2021100177A1 (ja) * | 2019-11-21 | 2021-05-27 | ||
JP2021524632A (ja) * | 2018-05-22 | 2021-09-13 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | 3dモデルを表示する方法及びシステム |
JP2022547930A (ja) * | 2019-09-28 | 2022-11-16 | アップル インコーポレイテッド | 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース |
WO2024090022A1 (ja) * | 2022-10-24 | 2024-05-02 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2005
- 2005-07-06 JP JP2005197821A patent/JP2007018173A/ja not_active Withdrawn
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4710016B2 (ja) * | 2006-03-01 | 2011-06-29 | 国立大学法人神戸大学 | ディスプレイ上での光沢表現方法 |
JP2007233701A (ja) * | 2006-03-01 | 2007-09-13 | Kobe Univ | ディスプレイ上での光沢表現方法 |
JP2014123406A (ja) * | 2007-03-08 | 2014-07-03 | Exelis Inc | 閉ざされた構造内の人員およびセンサの位置を示し、状況認識の増進を提供する、拡張現実ベース型システムおよび方法 |
JP2010128986A (ja) * | 2008-11-28 | 2010-06-10 | Canon Inc | 複合現実感提示システムと仮想光源の輝度調整方法 |
US8659624B2 (en) | 2008-11-28 | 2014-02-25 | Canon Kabushiki Kaisha | Mixed reality presentation system and brightness adjustment method of virtual light source |
US9449428B2 (en) | 2009-12-21 | 2016-09-20 | Thomson Licensing | Method for generating an environment map |
JP2013515307A (ja) * | 2009-12-21 | 2013-05-02 | トムソン ライセンシング | 環境マップを生成する方法 |
JP2011237891A (ja) * | 2010-05-06 | 2011-11-24 | Square Enix Co Ltd | リアルタイムシーンを照明し,発見するバーチャルフラッシュライト |
JP2013152683A (ja) * | 2012-01-26 | 2013-08-08 | Canon Inc | 画像処理装置、画像処理方法及びプログラム |
KR20140094886A (ko) * | 2013-01-23 | 2014-07-31 | 삼성전자주식회사 | 영상 처리 장치, 초음파 영상 장치 및 영상 처리 방법 |
KR102054680B1 (ko) * | 2013-01-23 | 2020-01-22 | 삼성전자주식회사 | 영상 처리 장치, 초음파 영상 장치 및 영상 처리 방법 |
US10595824B2 (en) | 2013-01-23 | 2020-03-24 | Samsung Electronics Co., Ltd. | Image processing apparatus, ultrasonic imaging apparatus, and imaging processing method for the same |
JP2016081209A (ja) * | 2014-10-15 | 2016-05-16 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
CN106796771A (zh) * | 2014-10-15 | 2017-05-31 | 精工爱普生株式会社 | 头戴式显示设备、控制头戴式显示设备的方法和计算机程序 |
US10210670B2 (en) | 2014-10-15 | 2019-02-19 | Seiko Epson Corporation | Head-mounted display device, method of controlling head-mounted display device, and computer program |
US10643400B2 (en) | 2014-10-15 | 2020-05-05 | Seiko Epson Corporation | Head-mounted display device, method of controlling head-mounted display device, and computer program |
JP2016218547A (ja) * | 2015-05-15 | 2016-12-22 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
JP7036773B2 (ja) | 2015-08-18 | 2022-03-15 | マジック リープ, インコーポレイテッド | 仮想および拡張現実システムならびに方法 |
JP2019191600A (ja) * | 2015-08-18 | 2019-10-31 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 仮想および拡張現実システムならびに方法 |
WO2018101093A1 (ja) * | 2016-12-01 | 2018-06-07 | シャープ株式会社 | 撮像装置、撮像方法、及び表示装置 |
JP2018142090A (ja) * | 2017-02-27 | 2018-09-13 | Kddi株式会社 | キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム |
JP2021524632A (ja) * | 2018-05-22 | 2021-09-13 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | 3dモデルを表示する方法及びシステム |
KR102124564B1 (ko) * | 2018-11-06 | 2020-06-18 | 문준용 | 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법 및 장치 |
KR20200052074A (ko) * | 2018-11-06 | 2020-05-14 | 문준용 | 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법 및 장치 |
JP2022547930A (ja) * | 2019-09-28 | 2022-11-16 | アップル インコーポレイテッド | 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース |
JPWO2021100177A1 (ja) * | 2019-11-21 | 2021-05-27 | ||
WO2021100177A1 (ja) * | 2019-11-21 | 2021-05-27 | 株式会社ソニー・インタラクティブエンタテインメント | 入射光情報取得方法、入射光情報取得システム、および情報処理装置 |
US11910095B2 (en) | 2019-11-21 | 2024-02-20 | Sony Interactive Entertainment Inc. | Incident light information acquisition method, incident light information acquisition system, and information processing device |
WO2024090022A1 (ja) * | 2022-10-24 | 2024-05-02 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007018173A (ja) | 画像処理方法、画像処理装置 | |
US11671717B2 (en) | Camera systems for motion capture | |
US11790482B2 (en) | Mixed reality system with virtual content warping and method of generating virtual content using same | |
US10256859B2 (en) | System and method for immersive and interactive multimedia generation | |
US11694392B2 (en) | Environment synthesis for lighting an object | |
JP4739002B2 (ja) | 画像処理方法、画像処理装置 | |
US11410269B2 (en) | Mixed reality system with virtual content warping and method of generating virtual content using same | |
CN110419061B (zh) | 混合现实系统及使用该系统生成虚拟内容的方法 | |
KR102281026B1 (ko) | 홀로그램 앵커링 및 동적 포지셔닝 기법 | |
JP4594136B2 (ja) | 画像処理方法、画像処理装置 | |
CN110402425A (zh) | 具有彩色虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法 | |
US8698804B2 (en) | Image processing apparatus and image processing method | |
TW202019167A (zh) | 產生和修改擴增實境或虛擬實境場景中的物件的表示方式 | |
JP2009134681A (ja) | 画像処理装置、画像処理方法 | |
CN115244492A (zh) | 物理对象对增强现实中的虚拟对象的遮挡 | |
WO2016141208A1 (en) | System and method for immersive and interactive multimedia generation | |
US20210090322A1 (en) | Generating and Modifying Representations of Objects in an Augmented-Reality or Virtual-Reality Scene | |
JP2006252059A (ja) | 画像処理方法、画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081007 |