JP2005165973A - 画像処理方法、画像処理装置 - Google Patents

画像処理方法、画像処理装置 Download PDF

Info

Publication number
JP2005165973A
JP2005165973A JP2003407771A JP2003407771A JP2005165973A JP 2005165973 A JP2005165973 A JP 2005165973A JP 2003407771 A JP2003407771 A JP 2003407771A JP 2003407771 A JP2003407771 A JP 2003407771A JP 2005165973 A JP2005165973 A JP 2005165973A
Authority
JP
Japan
Prior art keywords
image
virtual
virtual object
real space
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003407771A
Other languages
English (en)
Inventor
Tomohiko Shimoyama
朋彦 下山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003407771A priority Critical patent/JP2005165973A/ja
Publication of JP2005165973A publication Critical patent/JP2005165973A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】 仮想空間の周囲環境が現実空間における物体と関わるような現象を再現すること。また、現実空間と仮想空間の違和感を抑制すると共に、より高い没入感を得られる複合現実感を提示すること。
【解決手段】 仮想空間中に配置する仮想物体の周囲環境のうち、時間の経過と共に変化する環境に関する画像、時間の経過と共には変化しない環境に関する画像を生成し(ステップS801)、画像を、現実空間中に投影する(S802)。
【選択図】 図8

Description

本発明は、仮想空間に配置する仮想物体の周囲環境に関する画像を生成し、提示する技術に関するものである。
MR(Mixed Reality)技術、AR(Augmented Reality)技術は共に、現実空間の画像(実写画像)とCG(Computer Graphics)とを合成し、観察者に提示することにより、仮想のCG物体があたかも観察者の前に存在するかのように見せる技術である。
このようなMR技術、AR技術を用いた典型的なアプリケーションでは、観察者はビデオシースルー型のHMD(Head Mounted Display)を自身の頭部に装着し、このHMDが有する表示装置が観察者の眼前に位置するようにする。そして、この表示装置にHMDに備わっているカメラが撮像する現実空間の画像と、HMDに接続されているコンピュータが生成した仮想空間の画像(CG)とを合成した画像を表示することにより、この観察者にこの合成画像を提示する。
ここで、カメラは観察者の頭部の向いている方向の現実空間の画像を撮像する。仮想空間の画像については、頭部の向きをセンサで計測することで観察者の視点から見える仮想空間の画像を作成する。これらの現実空間の画像と仮想空間の画像を合成することで、この観察者に、あたかも現実空間中に仮想のCGが存在しているような映像を見せることができる。
このようなMR技術、AR技術を用いた例として、MR技術を用い、現実空間である部屋の画像に、CG物体である魚を合成した画像の例を図1に示す。
しかし、従来のMR技術、AR技術では、現実空間中の照明条件と、仮想空間中の照明条件とを合わせることが困難となっていた。
図1に示した画像を例にとって説明すると、CG物体としての魚の背中には、水面からの光があたり、波紋が描画されている。だが現実空間の画像中には波紋は描画されていない、すなわち、一方の空間では物体に波紋が表示されているのに、一方の空間には波紋は表示されていないので、このような照明条件の違いにより、夫々の空間の画像を合成して観察者に提示しても、観察者は不自然さを感じることになる。
このような問題を解決するための技術としては以下のようなものがある(例えば特許文献1を参照)。すなわち、仮想空間内で爆発を生じさせ、爆発している仮想空間の画像と現実空間の画像とを合成する場合、爆発前には現実空間の画像の輝度を下げて、現実空間の画像と合成する。そして、爆発が生じたら現実空間の画像の輝度を上げて、現実空間の画像と合成する。これにより、仮想空間における爆発により発生する光が現実空間にも派生しているように見え、夫々の空間における照明に関する違和感を軽減している。
しかしこのような技術を用いても、例えば観察者の手に、仮想空間における波紋が写るといったような、仮想空間における照明が現実空間における物体と関わるような現象は再現が困難であった。
本発明は以上の問題に鑑みてなされたものであり、仮想空間の周囲環境が現実空間における物体と関わるような現象を再現することを目的とする。
また、現実空間と仮想空間の違和感を抑制すると共に、より高い没入感を得られる複合現実感を提示することを目的とする。
特開2000−352960号公報
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。
即ち、仮想空間中に配置する仮想物体の周囲環境の画像を生成する画像処理方法であって、
前記周囲環境のうち、時間の経過と共に変化する環境に関する画像を生成する第1の生成工程と、
前記周囲環境のうち、時間の経過と共には変化しない環境に関する画像、及び前記第1の生成工程で生成した画像を合成した画像を生成する第2の生成工程と、
前記第2の生成工程で生成した画像を、現実空間中に投影する投影工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の画像処理方法は以下の構成を備える。
即ち、現実空間映像と仮想空間画像を合成してユーザに複合現実感を提示するための画像処理方法であって、
仮想物体の周囲環境に関する画像を、投影装置によって現実空間に投影させる工程と、
現実空間映像を入力する入力工程と、
仮想物体を描画し仮想画像を生成する仮想画像生成工程と、
前記現実空間映像と前記仮想画像を合成する合成工程とを有することを特徴とする。
本発明の目的を達成するために、例えば本発明の画像処理装置は以下の構成を備える。
即ち、仮想空間中に配置する仮想物体の周囲環境の画像を生成する画像処理装置であって、
前記周囲環境のうち、時間の経過と共に変化する環境に関する画像を生成する第1の生成手段と、
前記周囲環境のうち、時間の経過と共には変化しない環境に関する画像、及び前記第1の生成手段が生成した画像を合成した画像を生成する第2の生成手段と、
前記第2の生成手段が生成した画像を、現実空間中に投影する投影手段と
を備えることを特徴とする。
本発明の構成により、仮想空間の周囲環境が現実空間における物体と関わるような現象を再現することができる。
また、現実空間と仮想空間の違和感を抑制することができ、より高い没入感を得られる複合現実感を提示することができる。
以下、添付の図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図3は、本実施形態に係る画像処理システムの基本構成を示す図である。同図に示すように、本実施形態に係るシステムは大まかには、HMD100、計算機300、3次元センサ固定局210、3次元センサ本体200、プロジェクタ400により構成されている。
HMD100には、3次元センサ移動局120、右目用カメラ110、左目用カメラ111、右目用LCD(液晶画面)130、左目用LCD131が備わっている。本実施形態では、3次元センサ移動局120、3次元センサ本体200、3次元センサ固定局210は夫々磁気センサであるとする。この場合、3次元センサ移動局120は、磁界の発生源である3次元センサ固定局210から発せられる磁界を検知し、3次元センサ固定局210の位置を原点とし、夫々直交する3軸をx、y、z軸とした座標系(センサ座標系)における自身の位置姿勢(x、y、z、ヨー、ピッチ、ロールの6自由度)を計測する。より具体的には、実際に3次元センサ移動局120が検知するのは自身の位置姿勢に応じた磁気であるので、検知した磁気を示す信号を3次元センサ本体200に出力する。3次元センサ本体200はこの信号に基づいて、3次元センサ移動局120のセンサ座標系における位置姿勢を求め、求めた位置姿勢のデータを後段の計算機300に出力する。
なお、磁気センサによる位置姿勢の計測方法については周知の技術であるのでここでの詳細な説明は省略する。また、以上のセンサ群は磁気センサに限定するものではなく、例えば超音波センサを用いても良いが、いずれにせよ3次元センサ移動局120、3次元センサ本体200、3次元センサ固定局210により、3次元センサ移動局120のセンサ座標系における位置姿勢を計測する。
右目用カメラ110、左目用カメラ111は夫々HMD100を頭部に装着する観察者の右目に対応する現実空間の画像、左目に対応する現実空間の画像を撮像するものであり、撮像した画像は夫々後段の計算機300に出力する。
右目用LCD130、左目用LCD131は夫々画像を表示するための液晶画面であり、夫々に表示した画像は、HMD100を頭部に装着する観察者の右目、左目に対して提示されることになる。この右目用LCD130、左目用LCD131に表示される画像は後述する計算機300により生成された画像である。図4は、HMD100の外観例を示す図である。
プロジェクタ400は、後述する計算機300から出力された画像を現実空間中に投影する為のものである。プロジェクタ400の詳細については後述する。
計算機300は、シリアルI/O310、ビデオキャプチャカード320,321、ビデオカード330,331,332、PCIブリッジ303、CPU301、メモリ302,外部記憶装置304により構成されている。
シリアルI/O310は3次元センサ本体200と繋がっており、3次元センサ本体200から出力される「3次元センサ移動局120のセンサ座標系における位置姿勢を示すデータ」はこのシリアルI/O310を介して後段のメモリ302に出力される。
ビデオキャプチャカード320、321は夫々右目用カメラ110、左目用カメラ111と繋がっており、右目用カメラ110、左目用カメラ111から出力される右目用の現実空間の画像、左目用の現実空間の画像は夫々ビデオキャプチャカード320、321を介して後段のメモリ302に出力される。
ビデオカード330、331は夫々右目用LCD130、左目用LCD131と繋がっており、計算機300が生成した右目用の合成画像(現実空間の画像と仮想空間の画像とが合成された画像)、左目用の合成画像は夫々ビデオカード330、331を介して右目用LCD130、左目用LCD131に出力される。
PCIブリッジ303は、同図に示すようにPCIに接続されている各部とメモリ302、CPU301、外部記憶装置304とのデータ通信を可能にするためのものであり、このPCIブリッジ303を介して互いにデータ通信が可能となる。
CPU301は、外部記憶装置304からメモリ302に読み出されたプログラムやデータを用いて計算機300全体の制御を行うと共に、後述する各処理を実行する。
メモリ302は外部記憶装置304からロードされたプログラムやデータを一時的に記憶するためのエリアや、ビデオキャプチャカード320、321を介して入力される現実空間の画像のデータ、シリアルI/O310を介して入力される3次元センサ移動局120のセンサ座標系における位置姿勢を示すデータ等を一時的に格納する為のエリア、CPU301が各種の処理を行うために用いるワークエリアを備える。
304はハードディスクドライブ装置に代表される大容量情報記憶装置として機能する外部記憶装置であって、ここにOS(オペレーティングシステム)や、仮想空間における各オブジェクト(仮想物体)を描画するために必要なデータ、3次元センサ固定局210の世界座標系(現実空間中の1点を原点とし、この原点から互いに直交する3軸をx、y、z軸とする空間)における位置を示すデータ、CPU301に後述する各処理を実行させるためのプログラムやデータ等を保存しており、これらは必要に応じてCPU301による制御により、メモリ302に読み出される。
図2は、以上のシステムの外観例を示す図である。同図において図1と同じ部分については同じ番号を付けており、その説明は省略する。
観察者280は頭部にHMD100を装着しており、このHMD100の左目用LCD131、右目用LCD130には夫々、計算機300が生成した左目用、右目用の合成画像が表示されている。従って、この観察者280は、自身の頭部の位置姿勢に応じた現実空間と共に、自身の頭部の位置姿勢に応じた仮想物体290,291の画像を見ることができる。
また、プロジェクタ400は、観察者280の存在する現実空間において、観察者280の上方から下方に向けて計算機300が生成した画像を投影する。この投影処理に係る詳細な説明は後述する。
なお、同図において仮想物体290,291はHMD100を頭部に装着した観察者280のみしか見えないのであるが、同図では説明上、明示的に示している。
先ず、現実空間の画像に仮想物体としての魚や亀などの画像を合成した合成画像を観察者に提示することで、観察者にあたかも水族館にいるような感覚を与える処理について説明する。すなわち、図5に示すように、HMD100に備わっているカメラ(右目用カメラ110、左目用カメラ111)が撮像した現実空間の画像501上に、計算機300が生成した仮想空間の画像としての魚の画像502を重畳させて、現実空間中にあたかも仮想の魚が存在するかのような画像である合成画像503をHMD100のLCD(右目用LCD130、左目用LCD131)に表示する。これにより、観察者にあたかも水族館にいるような感覚を与えることができる。
HMD100を頭部に装着した観察者は現実空間中において所望の位置姿勢をとることができる。当然、この観察者の頭部の位置姿勢も所望の位置姿勢をとることができる。HMD100に備わっている右目用カメラ110、左目用カメラ111は夫々、観察者の右目、左目に対応した現実空間の画像(当然、観察者の頭部の向いている方向、頭部の位置から見える現実空間の画像)を撮像しており、撮像された夫々の画像はビデオキャプチャカード320、321を介してメモリ302中の所定のエリアに入力される。
一方、HMD100のセンサ座標系における位置姿勢(厳密には3次元センサ移動局120の位置姿勢)は逐次計測されている。この計測は上述の通り、3次元センサ固定局210が発生する磁界を3次元センサ移動局120が検知し、この検知した信号に基づいて3次元センサ本体200が求める事により成される。3次元センサ本体200が求めた3次元センサ移動局120のセンサ座標系における位置姿勢を示すデータはシリアルI/O310を介してメモリ302中の所定のエリアに入力される。
CPU301はメモリ302に入力されたこのデータ、及び外部記憶装置304からメモリ302に読み出した「3次元センサ固定局210の世界座標系における位置を示すデータ」を参照し、3次元センサ固定局210と、3次元センサ移動局120との相対的な位置姿勢関係を求める。これにより、3次元センサ移動局120の世界座標系における位置姿勢を求めることができる。
このように、所定の座標系における原点の世界座標系における位置が既知である場合に、所定の座標系における位置姿勢から世界座標系における位置姿勢を求める処理については周知の技術であるので、これ以上の説明は省略する。
また、予め観察者の右目、左目と3次元センサ移動局120との位置姿勢関係(バイアス)を求めておき、それをメモリ302に保持させておけば、求めた3次元センサ移動局120の世界座標系における位置姿勢に夫々のバイアスを加算することにより、世界座標系における観察者の右目、左目の位置姿勢を求めることができる。
これにより観察者の右目、左目の世界座標系における位置姿勢が得られるので、CPU301は、外部記憶装置304からメモリ302に読み出された「仮想空間における各仮想物体を描画するために必要なデータ」と、仮想空間の画像を生成するためのプログラムを用いて、仮想空間中に仮想物体を配置した場合に、右目、左目によって見える仮想物体の画像を生成することができる。このように、世界座標系における視点の位置姿勢が得られた場合に、この視点から見える仮想物体の画像を生成する処理については周知の技術であるので、ここでの説明は省略する。
以上の処理によって、観察者の右目、左目から見える仮想空間の画像(仮想空間中に配置した仮想物体の画像)が生成される。なお、生成した右目用の仮想空間の画像、左目用の仮想空間の画像は夫々、先にメモリ302に入力された右目用の現実空間の画像、左目用の仮想空間の画像上に重畳されるので、結果として、右目用の合成画像、左目用の合成画像をメモリ302上に生成することができる。
そして右目用の合成画像はビデオカード330を介して右目用LCD130に出力し、左目用の合成画像はビデオカード331を介して右目用LCD131に出力する。
従って、HMD100を頭部に装着した観察者の右目には右目用LCD130に表示された合成画像が見え、左目には左目用LCD131に表示された合成画像が見えるので、この観察者に仮想空間中に仮想物体が存在するかのような画像を提供することができる。
一方、外部記憶装置304には、「仮想空間における各オブジェクト(仮想物体)を描画するために必要なデータ」に含まれる、「仮想物体の周囲環境の画像に係るデータ」が保存されている。
ここで「仮想物体の周囲環境」とは、例えば本実施形態の場合は、仮想物体が魚や亀などの水生生物であるので、波紋や水生生物の影などがこれに相当する。すなわち、仮想空間において、照明に係るものである。
このような仮想物体の周囲環境を観察者に提示しないと上述の通り、図1に示す如く、現実空間の画像中には波紋は描画されない。すなわち、一方の空間では物体に波紋が表示されているのに、一方の空間には波紋は表示されていないので、このような照明条件の違いにより、夫々の空間の画像を合成して観察者に提示しても、観察者は不自然さを感じることになる。
従って本実施形態では右目用カメラ110、左目用カメラ111により撮像される現実空間に、プロジェクタ400を用いて仮想物体の周囲環境の画像を投影する。より詳しくは、プロジェクタ400を用いて、観察者の移動しうる範囲内の床に仮想物体の周囲環境の画像を投影し、現実空間に仮想空間における周囲環境を反映させる。
図6は、プロジェクタ400による仮想物体の周囲環境の画像の投影を示す模式図である。同図において図2,4と同じ部分については同じ番号を付けており、その説明を省略する。
図6において600は観察者280が移動しうる領域内の床を示しており、この床600に対して、観察者280が存在する空間内の上部(例えば天井)に取り付けられたプロジェクタ400から、仮想物体の周囲環境の画像を投影する。投影する画像の例を図7に示す。
同図において700は、仮想物体290,291が存在する水領域(仮想空間)の水面上に仮想空間内の光が当たり、それが水領域内の底部に投影されるであろう波紋の画像を示す。701,702は夫々、仮想物体290、291の影の画像を示している。
画像700は、上記「仮想物体の周囲環境の画像に係るデータ」に含まれているものであり、仮想空間を観察者に提示する際には、メモリ302に読み出される。なお、画像700は所定のフレーム内で変化する動画像としても良い。
画像701,702については、世界座標系におけるプロジェクタ400の位置姿勢が既知であり、世界座標系における仮想物体の位置姿勢が既知であり、世界座標系における床600を示す平面の式が既知である場合に、プロジェクタ400の位置から仮想物体の輪郭部に延長した直線が床600と交差する点の集合が形成する領域を求め、この領域内を黒で描画することで生成されるものである。
このように影の画像を生成する場合には、これら既知とされるものに係るデータについては予め外部記憶装置304に保存されており、必要に応じてメモリ302にロードされるものであるとする。
図12は、このような仮想物体の影の画像を生成する処理を説明する図で、上述の通り、プロジェクタ400の位置から仮想物体290の輪郭部に延長した直線が床600と交差する点の集合が形成する領域は、同図において701で示す部分の領域であり、この領域内を黒で描画することで生成される画像が701で示す画像である。
なお、世界座標系における光源の位置姿勢、世界座標系における仮想物体の位置姿勢、投影する平面(図12では床600を表す平面)の式(より詳しくは、投影する先の形状を示す式)が既知である場合に、仮想物体の影の画像を生成する処理、また一般に仮想物体の任意の投影面(平面以外を含む)上に生成される影の画像の生成処理については以上の処理に限定されるものではないが、このような処理は周知の技術であるので、ここでの説明は省略する。
従って、CPU301は、メモリ302上に波紋の画像700、及び仮想物体290、291の影の画像701,702を合成して描画する。この合成画像の一例が図7に示した画像である。そして合成後の画像をビデオカード332のメモリ上に描画する。プロジェクタ400はこのメモリ上に描画された画像を床600に投影する。
以上の処理により、現実空間に仮想空間における周囲環境を反映させることができるので、この現実空間を右目用カメラ110で撮像した画像と右目用の仮想物体の画像との合成画像、左目用カメラ111で撮像した画像と左目用の仮想物体の画像との合成画像を夫々右目用LCD130、左目用LCD131に出力することにより、例えば観察者280の手に波紋や仮想物体の影などが映り込むような現実空間が観察者280には見え、仮想空間における照明環境が現実空間に関わることになる。これにより、より仮想空間と現実空間との融合の度合いを高めることができ、より観察者280をMR空間に没入させることができる。
図9は、プロジェクタ400に出力する画像の一例を示す図である。図10は、図9に示した画像をプロジェクタ400で投影せずに、HMD100の位置姿勢に応じて見える仮想物体と現実空間とを合成した画像の一例を示す図であり、観察者280の右目、もしくは左目でもって見える合成画像の一例を示す図である。図11は、プロジェクタ400による仮想物体の周囲環境の画像の投影を行った現実空間でもって、HMD100の位置姿勢に応じて見える仮想物体と現実空間とを合成した画像の一例を示す図であり、観察者280の右目、もしくは左目でもって見える合成画像の一例を示す図である。
図11に示すように、現実空間に仮想物体(同図では魚)の周囲環境の画像を現実空間に投影することにより、このような現実空間と仮想空間との合成画像を見ている観察者に、あたかも自身が水中にいるかのような感覚を与えることができる。
なお、本実施形態では仮想物体の周囲環境として波紋、影を例に取り説明したが、「周囲環境」としてはこれ以外の要素を含みうるものであり、そのような要素の画像をプロジェクタ400でもって現実空間に投影することにより、現実空間と仮想空間との境界をより観察者280に意識させることなく、観察者280をMR空間に没入させることができる。
また、「周囲環境」に含まれる要素には、
1 時間の経過と共に変化しないもの
2 仮想物体の存在に起因して、時間の経過と共に変化するもの
3 仮想物体の存在とは無関係に、時間の経過と共に変化するもの
の3つが考え得る。「1」については、予め「時間の経過と共に変化しないもの」を示す静止画を外部記憶装置304からメモリ302にロードすれば良い。
「2」については、仮想物体の位置姿勢、移動速度など、必要な項目を用いて「仮想物体の存在に起因して、時間の経過と共に変化するもの」の画像を生成する。例えば仮想物体の影については、上述の通り、プロジェクタ400の世界座標系における位置姿勢、床600を表す式、仮想物体の世界座標系における位置姿勢を用いて影の形状、位置を求める事で、影の画像をメモリ302上に描画する。
「3」については、予め「仮想物体の存在とは無関係に、時間の経過と共に変化するもの」を動画像として外部記憶装置304からメモリ302にロードされるものを、各フレームを順次メモリ302上に描画する。
このようにして「1」〜「3」の何れもメモリ302上の同じ領域に描画する。その結果、この領域に描画された画像はすなわち、現在プロジェクタ400でもって現実空間に投影すべき周囲環境の画像であるので、これをビデオカード332のメモリ上に描画し、プロジェクタ400でもって現実空間に投影する。
以上の処理により、周囲環境に含まれる何れの要素であっても、プロジェクタ400でもって現実空間に投影すべき画像を生成することができる。
図8は、以上説明した、観察者へのMR空間の提示処理のフローチャートである。なお、同図に示したフローチャートに従ったプログラムは外部記憶装置304からメモリ302にロードされ、CPU301がこれを実行することにより、計算機300は以上説明した各処理を行うことになる。
先ず、上記「仮想物体の周囲環境の画像に係るデータ」を用いて、以上説明したような、仮想物体の周囲環境の画像をメモリ302上に生成する(ステップS801)。そして生成した画像のデータをビデオカード332のメモリ上に描画する(ステップS802)。プロジェクタ400は常にビデオカード332のメモリ上に描画されている画像を現実空間に投影する処理を行っているので、ステップS802の処理によって、プロジェクタ400は現実空間に仮想物体の周囲環境の画像を投影することになる。
次に、このようにプロジェクタ400によって仮想物体の周囲環境の画像が投影された現実空間の画像を右目用カメラ110、左目用カメラ111によって撮像し、撮像した右目用の画像、左目用の画像をビデオキャプチャカード320、321を介してメモリ302に取り込む(ステップS803)。
次に、センサ本体200から得られる「センサ座標系におけるHMD100の位置姿勢を示すデータ」と、外部記憶装置304からメモリ302にロードされた「センサ本体200の世界座標系における位置姿勢を示すデータ」、及び上記バイアスを用いて、観察者の右目、左目の世界座標系における位置姿勢を求め、この位置姿勢から見える仮想物体の画像を生成する(ステップS804)。すなわち、観察者の右目用の画像、左目用の仮想空間の画像を生成する。
なお、仮想物体の位置姿勢が時間経過と共に変化する場合、この位置姿勢を制御するプログラムは別のスレッドとしてCPU301により実行されており、ステップS804では、この別スレッドでもって制御された位置姿勢の仮想物体の画像を生成する。
また、水面からの光の波紋を伴った魚の画像の描画に関しては、Microsoft(R)社のDirectX(R)のサンプルプログラムなどでよく知られているのでここでは説明を省略する。
そしてステップS804で生成した画像を先にメモリ302に取り込んだ画像上に重畳する(ステップS805)。すなわち、先にメモリ302に取り込んだ右目用の現実空間の画像にステップS804で生成した右目用の仮想物体の画像を重畳し、先にメモリ302に取り込んだ左目用の現実空間の画像にステップS804で生成した左目用の仮想物体の画像を重畳する。これにより、右目用の合成画像、左目用の合成画像を生成することができる。
そしてステップS804で生成した右目用の合成画像をビデオカード330を介して右目用LCD130に出力し、左目用の合成画像をビデオカード331を介して左目用LCD131に出力する(ステップS806)。
以上の説明により、本実施形態によって、仮想空間の周囲環境が現実空間における物体と関わるような現象を再現することができる。
尚、本実施形態では現実空間を撮像するカメラは右目用と左目用とを設けたが、これに限定されるものではなく1つであっても良い。この場合、この1つのカメラにより撮像した現実空間の画像は仮想空間の画像を重畳させて右目、左目の両方に提示されることになる。また重畳させる仮想空間の画像は、この1つのカメラの視点位置から見えるものである。
また本実施形態ではHMD100はビデオシースルー型のものであったが、これに限定されるものではなく、光学シースルー型のものであっても良い。
[第2の実施形態]
第1の実施形態では仮想空間のシーンとして水領域を設定したが、シーンとして他にも空中や、ゲームを行うための特殊な空間など、いくつかのシーンからこれから観察者に体感させるシーンを選択させるようにしても良い。
その場合には、仮想物体を描画するためのデータをシーン毎に外部記憶装置304に保存させておく必要がある。そして計算機300に例えばキーボードやマウスを接続し、これを用いて1つシーンを選択することにより、CPU301は選択されたシーンにおける各オブジェクト(仮想物体)を描画するために必要なデータをメモリ302に読み出し、これを用いて選択されたシーンにおける各仮想物体の画像を生成すると共に、プロジェクタ400が現実空間に投影すべき画像を生成する。
これにより、水領域内だけでなく、任意の空間の周囲環境が現実空間における物体と関わるような現象を再現することができる。
[その他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
MR技術、AR技術を用いた例として、MR技術を用い、現実空間である部屋の画像に、CG物体である魚を合成した画像の例を示す図である。 本発明の第1の実施形態に係るシステムの外観例を示す図である。 本発明の第1の実施形態に係る画像処理システムの基本構成を示す図である。 HMD100の外観例を示す図である。 現実空間の画像、仮想空間の画像、合成画像を示す図である。 プロジェクタ400による仮想物体の周囲環境の画像の投影を示す模式図である。 プロジェクタ400により投影する画像の例を示す図である。 観察者へのMR空間の提示処理のフローチャートである。 プロジェクタ400に出力する画像の一例を示す図である。 図9に示した画像をプロジェクタ400で投影せずに、HMD100の位置姿勢に応じて見える仮想物体と現実空間とを合成した画像の一例を示す図である。 プロジェクタ400による仮想物体の周囲環境の画像の投影を行った現実空間でもって、HMD100の位置姿勢に応じて見える仮想物体と現実空間とを合成した画像の一例を示す図であり、観察者280の右目、もしくは左目でもって見える合成画像の一例を示す図である。 仮想物体の影の画像を生成する処理を説明する図である。

Claims (11)

  1. 仮想空間中に配置する仮想物体の周囲環境の画像を生成する画像処理方法であって、
    前記周囲環境のうち、時間の経過と共に変化する環境に関する画像を生成する第1の生成工程と、
    前記周囲環境のうち、時間の経過と共には変化しない環境に関する画像、及び前記第1の生成工程で生成した画像を合成した画像を生成する第2の生成工程と、
    前記第2の生成工程で生成した画像を、現実空間中に投影する投影工程と
    を備えることを特徴とする画像処理方法。
  2. 前記第1の生成工程では、前記仮想物体の影の画像を生成することを特徴とする請求項1に記載の画像処理方法。
  3. 前記投影工程では、プロジェクタにより、前記第2の生成工程で生成した画像を現実空間中の床に投影することを特徴とする請求項1に記載の画像処理方法。
  4. 更に、前記仮想空間における複数のシーン毎に、シーン中の仮想物体、当該仮想物体の周囲環境に係るデータをメモリに保持させておく保持工程と、
    前記仮想空間のシーンを変更する変更工程と、
    前記変更工程で変更されたシーン中の仮想物体、当該仮想物体の周囲環境に係るデータを、前記保持工程で前記メモリに保持されたデータ群から特定する特定工程とを備え、
    前記第1の生成工程、前記第2の生成工程では、前記特定工程で特定した周囲環境に係るデータを用いて画像生成処理を行うことを特徴とする請求項1乃至3の何れか1項に記載の画像処理方法。
  5. 現実空間映像と仮想空間画像を合成してユーザに複合現実感を提示するための画像処理方法であって、
    仮想物体の周囲環境に関する画像を、投影装置によって現実空間に投影させる工程と、
    現実空間映像を入力する入力工程と、
    仮想物体を描画し仮想画像を生成する仮想画像生成工程と、
    前記現実空間映像と前記仮想画像を合成する合成工程とを有することを特徴とする画像処理方法。
  6. 前記仮想物体の周囲環境に関する画像は動画像であることことを特徴とする請求項5に記載の画像処理方法。
  7. さらに、前記仮想物体に応じて前記仮想物体の周囲環境に関する画像を生成する工程を有することを特徴とする請求項5又は6に記載の画像処理方法。
  8. 仮想空間中に配置する仮想物体の周囲環境の画像を生成する画像処理装置であって、
    前記周囲環境のうち、時間の経過と共に変化する環境に関する画像を生成する第1の生成手段と、
    前記周囲環境のうち、時間の経過と共には変化しない環境に関する画像、及び前記第1の生成手段が生成した画像を合成した画像を生成する第2の生成手段と、
    前記第2の生成手段が生成した画像を、現実空間中に投影する投影手段と
    を備えることを特徴とする画像処理装置。
  9. 前記投影手段はプロジェクタであることを特徴とする請求項8に記載の画像処理装置。
  10. コンピュータに請求項1乃至7の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。
  11. 請求項10に記載のプログラムを格納することを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2003407771A 2003-12-05 2003-12-05 画像処理方法、画像処理装置 Withdrawn JP2005165973A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003407771A JP2005165973A (ja) 2003-12-05 2003-12-05 画像処理方法、画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003407771A JP2005165973A (ja) 2003-12-05 2003-12-05 画像処理方法、画像処理装置

Publications (1)

Publication Number Publication Date
JP2005165973A true JP2005165973A (ja) 2005-06-23

Family

ID=34729718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003407771A Withdrawn JP2005165973A (ja) 2003-12-05 2003-12-05 画像処理方法、画像処理装置

Country Status (1)

Country Link
JP (1) JP2005165973A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007066291A (ja) * 2005-08-02 2007-03-15 Seiko Epson Corp 画像表示方法および画像表示装置、画像表示システム、サーバ、プログラム、記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007066291A (ja) * 2005-08-02 2007-03-15 Seiko Epson Corp 画像表示方法および画像表示装置、画像表示システム、サーバ、プログラム、記録媒体

Similar Documents

Publication Publication Date Title
US11380068B2 (en) Technique for recording augmented reality data
AU2022200841B2 (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
JP4933406B2 (ja) 画像処理装置、画像処理方法
JP4227561B2 (ja) 画像処理方法、画像処理装置
JP2007018173A (ja) 画像処理方法、画像処理装置
JP2006285609A (ja) 画像処理方法、画像処理装置
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2005165973A (ja) 画像処理方法、画像処理装置
CN118521739A (zh) 用于近眼显示设备的虚拟现实和增强现实显示系统
JP2003296758A (ja) 情報処理方法および装置
JP2006268351A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206