JP5237066B2 - 複合現実感提示システムおよび複合現実感提示方法、プログラム - Google Patents

複合現実感提示システムおよび複合現実感提示方法、プログラム Download PDF

Info

Publication number
JP5237066B2
JP5237066B2 JP2008305623A JP2008305623A JP5237066B2 JP 5237066 B2 JP5237066 B2 JP 5237066B2 JP 2008305623 A JP2008305623 A JP 2008305623A JP 2008305623 A JP2008305623 A JP 2008305623A JP 5237066 B2 JP5237066 B2 JP 5237066B2
Authority
JP
Japan
Prior art keywords
virtual
light source
imaging
unit
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008305623A
Other languages
English (en)
Other versions
JP2010128986A5 (ja
JP2010128986A (ja
Inventor
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008305623A priority Critical patent/JP5237066B2/ja
Priority to US12/580,430 priority patent/US8659624B2/en
Publication of JP2010128986A publication Critical patent/JP2010128986A/ja
Publication of JP2010128986A5 publication Critical patent/JP2010128986A5/ja
Application granted granted Critical
Publication of JP5237066B2 publication Critical patent/JP5237066B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Description

本発明は、複合現実感提示システムと仮想光源の輝度調整方法に関する。
近年、現実世界と仮想世界とを違和感なく自然に結合する複合現実感(MR:Mixed Reality)の技術を応用したシステムが盛んに提案されている。これらの複合現実感システムは、カメラなどの撮像装置によって撮影した現実世界の被写体に対し、コンピュータグラフィックス(以下CG(Computer Graphics)と言う)で描画した仮想世界の画像を合成する。そして複合現実感システムは、ヘッドマウントディスプレイ(以下HMD(Head-Mounted Display)と言う)などの表示装置に表示することにより、複合現実感をシステムの体験者に提示している。
これらの複合現実感提示システムは、現実世界の画像の変化に追従させて仮想世界の画像を生成し、複合現実感を高め必要がある。そのために、複合現実感提示システムは、システムの体験者の視点位置・姿勢をリアルタイムで取得し、かつ、体験者に対してHMDのような表示装置にリアルタイムに表示する必要がある。
尚、複合現実感提示システムは、センサ装置によって計測した体験者の視点位置・姿勢を、仮想世界での仮想の視点位置・姿勢として設定する。そして、複合現実感提示システムは、この設定に基づいて仮想世界の画像をCGにより描画して、現実世界の画像と合成する。
また、HMDは複合現実感を提示するため、複合現実感システムは、体験者の視野内に、HMDの表示装置による表示を行い、かつ、HMDの表示装置の表示内にはCGを描画する領域を含める。そのため、複合現実感システムにおける体験者は、あたかも現実世界の中に仮想の物体が存在しているかのような画像をHMDの表示装置により観察することができる。さらに複合現実感の世界では、複合現実感システムは現実物体に仮想CGを重畳表示することが可能である。この重畳表示によって、体験者は仮想CGの見かけを持った現実物体を感じることが出来る。
しかし、これまでは複合現実世界の中で現実世界の物体が、仮想世界で設定した照明に対して影響を与えることはなかった。現実世界の中では現実物体が現実の照明を遮れば現実物体に影が生じる。しかし、仮想世界の照明に対して特別な処理をしなければ、仮想CGにおいて現実物体に対する影は表示されないし、表示しようとするととても重い処理となる。
本発明は、仮想世界の照明に対して現実物体の仮想世界に対する影などの影響を反映する高速で簡易な処理を提供することを目的とする。
上記課題を解決するため、本発明における複合現実感提示システムは以下の構成を備える。すなわち、
現実世界の被写体を撮像する撮像手段の位置と撮像方向を計測する位置方向計測手段と、
仮想光源からの光により照らされた仮想物体を描画し仮想画像を生成する仮想画像生成手段と、
前記計測された、撮像手段の撮像方向と、前記仮想光源から前記撮像手段への方向とに基づいて、前記仮想画像生成手段における前記仮想光源の輝度を調整するか否かを判定する判定手段と、
前記判定手段により、前記仮想光源の輝度を調整すると判定された場合には、前記位置方向計測手段により計測された前記撮像手段の位置、前記仮想光源の位置および前記仮想物体の位置の関係に基づいて、前記仮想光源の輝度の調整値を計算する光効果算出手段と、
前記光効果算出手段で計算された輝度の調整値を用いて前記仮想画像生成手段における前記仮想光源の輝度を調整する調整手段と、
前記撮像された現実世界の被写体像と前記仮想画像生成手段で生成された仮想画像とを、前記位置方向計測手段により計測された前記撮像手段の位置と撮像方向とに基づいて合成する画像合成手段と、を備える。
本発明により、複合現実感提示システムの体験者が複合現実世界において、現実世界における光の感覚を仮想光に対しても持つことが出来る。
<実施形態1>
実施形態1における構成において、複合現実感提示システムの中に一つの仮想照明と、二つの仮想物体と、一人の観察者とが存在する。ここで、観察者は仮想物体Aと仮想物体Bを見ることが出来る。
まずシステム構成を説明する。
図1は、実施形態1のシステム構成例を示す図である。各構成部品の説明を簡単に述べていく。システム制御部101は、システム全体をコントロールするユニットである。システム制御部101は、画像入力部102、画像合成部103、画像出力部104、カメラ位置姿勢計測部105、仮想画像生成手段106、光効果算出手段107、ライト属性入力部108を備える。
また、ビデオシースルー型ヘッドマウンテッドディスプレイ(HMD)132は、カメラ133と画像出力部134と画像入力部135と画像表示部136を備える。次に、図1の構成における各機能部の動作の流れについて説明する。
図2は、各機能部の動作を示すフローチャートである。
ステップ201:観察者が頭部に装着したHMD132のカメラ133は現実空間の被写体を撮像する。撮像された現実空間の画像は画像出力部134に送信される。画像出力部134は現実空間の被写体像をシステム制御部101の画像入力部102に送信する。システム制御部101では画像入力部102から取り込んだ現実空間の画像データを画像合成部103に送信する。
ステップ202:カメラ位置姿勢計測部105はカメラ133の位置と撮像方向(姿勢)を計測し、その位置と方向の情報を仮想画像生成手段106に送信する。カメラ133の位置姿勢に関する位置方向計測の方法は、例えばPOLHEMUS(ポヒマス)社の3次元位置姿勢計測システムFastrak等を用いることで計測できる。このシステムにおいてはどのような手段を使用しても構わない。
ステップ203:ライト属性入力部108はライト属性を光効果算出手段107へ入力する。
ステップ204:光効果算出手段107はライト属性入力とカメラ位置姿勢計測部105からの位置情報を元に必要があれば、仮想照明の属性を変更する。どのように属性を変更するかは、本発明の重要な部分であり、図7を用いて後述する。
ステップ205:仮想画像生成手段106は、光効果算出手段107において変更された仮想照明の属性とカメラ位置姿勢計測部105からの位置情報とに基づき仮想世界の像を描画し仮想画像を生成する。
ステップ206:画像合成部103は、画像入力部からの現実世界の画像と仮想画像生成手段106からの仮想世界の画像を合成し、合成画像を画像出力部104へ送る。
ステップ207:画像出力部104は、HMD132の画像入力部135へ合成画像を送り、画像表示部136はその合成画像を表示する。
これにより、観察者は、仮想照明が存在したときの複合現実感世界における画像を観察できる。
図3は実施形態1の複合現実世界を説明する図である。この複合現実世界には、観察者301と仮想点光源302と仮想オブジェクトA303と仮想オブジェクトB304とが存在する。
それぞれの現実世界の座標は、次のとおりとする。
・観察者の視点(カメラの位置)301 (0,0,0)
・仮想点光源302 (−500,500,0)
・仮想オブジェクトA303 (500,−500,0)
・仮想オブジェクトB304 (−1000,1000,0)
また仮想点光源302の輝度は、0.8と仮定する。
図3からわかるように、観察者301は、仮想オブジェクトA303を観察している。また仮想点光源302は、仮想オブジェクトA303を照らしている。
また現実世界にいる観察者301自身は、仮想点光源302から仮想オブジェクトA303を照らしている光線を遮っている。そこでその状況を複合現実世界で再現するために仮想点光源302を調整する必要がある。
仮想点光源の調整方法として、実施形態1では点光源の輝度を調整する。その調整のためのパラメータを以下に示す。
仮想点光源の位置:P11
観察者の視点の位置:P12
仮想オブジェクトAの位置:P13
これらの位置からベクトルを算出する。
観察者の観察方向の方向ベクトル:V12
仮想点光源から観察者への方向ベクトル:V11
V11=P12−P11
V12=P13−P12
V11の単位ベクトルをe11、V12の単位ベクトルをe12とする。
いま係数をkとし、仮想点光源の輝度に対する低減率をt1とすると、t1は2つの単位ベクトルの内積とkとを乗算することにより次のように表される。
t1=k*(e11・e12)
k=0.5として、これを上記の数字に当てはめると
e11=(1、−1、0)
e12=(1、−1、0)
よって、
t1=0.5*1=0.5となる。
したがって、仮想点光源302の輝度が0.8なので、仮想点光源が観察者により遮られたときの低減された輝度の調整値は、低減率t1を用いて、0.8*0.5=0.4となる。
図4は、低減率の計算の流れを示すフローチャートである。
ステップS401:システム制御部101の光効果算出手段107は、ライト属性入力部108で入力されている仮想点光源が存在するか否かを確認する。仮想点光源が存在すればステップS402に進む。存在していなければ終了する。
ステップS402:光効果算出手段107は、観察者の観察方向を算出し、その単位ベクトルをe1とする。
ステップS403:光効果算出手段107は、仮想点光源から観察者への方向を算出し、その単位ベクトルをe1とする。
ステップS404:光効果算出手段107において、係数k=0.5とされ、仮想点光源の輝度の低減率t1が算出される。
t1=k*(e11・e12)
ステップS405:光効果算出手段107において、仮想点光源の元の輝度をi11、新しい低減された輝度をi12とする。
i12=i11*t1
以上で、計算は終了する。
このように、実施形態1では、仮想光源が観察者により遮られている。この場合、観察者に複合現実感を与えるために、元の仮想点光源の輝度を暗くして合成する方法を提供する。このケースでは、元の仮想点光源の輝度に対して、観察者により遮られるときの輝度が半分となることがわかる。
<実施形態2>
システム構成は実施形態1と同様である。
図5は、実施形態2における複合現実世界における存在する物体およびその配置を示す図である。各物体の位置は実施例1と同じである。
しかし観察者301の観察する方向が異なる。実施形態2では、観察者301は、仮想オブジェクトB304を観察している。
それぞれの複合現実世界における座標は以下のとおりとする。
・観察者301(0,0,0)
・仮想点光源302(−500,500,0)
・仮想オブジェクトA303(500,−500,0)
・仮想オブジェクトB304(−1000,1000,0)
また仮想点光源302の輝度は、0.8とする。
観察者301は仮想オブジェクトB304を観察している。また仮想点光源302は仮想オブジェクトB304を照らしている。
図5からわかるように、実施形態1と異なり、観察者301は仮想点光源302が仮想オブジェクトB304を照射するのを妨げてはいない。
しかし、実施形態1と実施形態2において、仮想点光源の位置と観察者の位置と仮想オブジェクトの位置とが同じである。しかしながら、観察者の観察の方向が異なる。この場合、やはり実施形態1で用いた次式により点光源の輝度の低減率を求める。
t1=k*(e11・e12)
この式を実施形態2に当てはめてみよう。
kを実施形態1と同様に0.5とすると、
t1=0.5*(−1)=−0.5
となる。
算出されたt1の値がマイナスということは、数学的には単純に輝度を上げることを意味すると思われるが、それはこの実施形態2の状況から考えると正しくない。すなわち、この場合輝度を変更しないのが正しい。物理的な解釈として、内積(e11・e12)が正の値になる時だけ、仮想点光源の輝度の低減を行うようにする。この内積の値が0になるときは、観察者の観察方向のベクトルと点光源から観察者の方向へのベクトルが90度になるときである。つまり、観察者の観察方向と点光源から観察者への方向が90度以内のときにだけ、仮想点光源の輝度の低減を行うというルールを導入する。
図6は実施形態2の計算の流れをフローチャートにした図である。図4のフローチャートとの相違は、ステップ403とステップ404の処理の間にステップ601を挿入したものである。したがって、ステップ601以外のステップの説明は、省略する。
ステップ601:光効果算出手段107は、内積(e11・e12)を計算し、この内積が正のとき、ステップS404に進む。もし負のときステップS401に戻る。
以上のように、実施形態2では、観察者が仮想光源を遮らない場合、すなわち、観察者が仮想光源の方向を向いている場合、仮想現実世界において、仮想光源の輝度の低減は不要であることを示した。また、そのとき内積(e11・e12)が、負になることも示した。このように、内積の値に対して、所定の閾値(この場合は「正であること」)を設けその閾値内に入らないとき、仮想光源に対する低減をしないようにすることができる。

<実施形態3>
仮想平行光は、位置もなく全ての仮想物体を突き抜けるが、現実世界における平行光が必ずどこかから出ている。例えば、太陽が現実世界における平行光である。観察者が太陽と観察物体の間に入るときも当然、観察する物体は暗くなる。実施形態3では、仮想世界で太陽のような平行光線がある状態を複合現実世界で実現する。
システム構成は、実施形態1と同様である。
図7は、実施形態3における複合現実世界の物体の配置を示す図である。
実施形態3では、観察者301と仮想平行光701と仮想オブジェクトA303と仮想オブジェクトB304が存在する。
それぞれの復号現実世界の座標は、以下のとおりとする。
・観察者301(0,0,0)
・仮想オブジェクトA303(500,−500,0)
・仮想オブジェクトB304(−1000,1000,0)
仮想平行光のベクトルは次の通りとする。
・仮想平行光701(1,−1,0)
また仮想平行光701の輝度は、0.8とする。
観察者301は仮想オブジェクトA303を観察しているので観察方向をあらわすベクトルは(1,−1,0)である。仮想平行光701は、観察者301の背後から光線を出している。したがって、観察者301と仮想オブジェクトA303の位置関係にあるときは、仮想平行光は遮られる。したがって、現実世界と同様な感覚を得るために、仮想平行光701の調整が必要である。
仮想平行光の調整方法として、実施形態3では仮想平行光の明るさを調整する。その調整のためのパラメータを以下に示す。
仮想平行光の方向ベクトル:V31
観察者の視点の位置:P32
仮想オブジェクトAの位置:P33
これらの位置からベクトルを算出する。
観察者の観察方向の方向ベクトル:V32
V32=P33−P32
V31の単位ベクトルをe31、V32の単位ベクトルをe32とする。
係数をkとし、仮想平行光の輝度の低減率をt3とすると、t3は以下の式で表される。
T3=k*(e31・e32)
いまk=0.5としこれを上記の数値を代入すると、
e31=(1、−1、0)
e32=(1、−1、0)
よって、
t3=0.5*1=0.5
となる。
仮想平行光701の輝度は0.8なので、観察物体に対する新しい仮想平行光の輝度は、0.8*0.5=0.4となる。
図8は、実施形態3の計算の流れを示すフローチャートである。
ステップ801:システム制御部101の光効果算出手段107は、ライト属性入力部108で入力されている仮想平行光が存在するか否かを確認する。仮想点光源が存在すればステップ802に進む。存在していなければ終了する。
ステップ802:光効果算出手段107は、観察者の観察方向を算出し、その単位ベクトルをe3とする。
ステップ803:光効果算出手段107は、仮想点光源から観察者への方向を算出し、その単位ベクトルをe3とする。
ステップ804:光効果算出手段107において、係数がk=0.5とされ、仮想平行光の輝度の低減率t3が次式により算出される。
t3=k*(e31・e32)
ステップ805:光効果算出手段107において、仮想平行光の元の輝度をi31、新しい輝度をi32とする。
i32=i31*t1
ここで、計算は終了する。
以上により、実施形態3においては、実施形態1と同様、仮想平行光に対しても、複合現実世界において合成できる
このように、実施形態3においても実施形態1と同様、仮想平行光が観察者により遮られている場合、元の仮想平行光の輝度を暗くして合成する手法を提供する。このケースでは、元の仮想平行光の輝度に対して、観察者によりさえぎられたときの輝度が半分となることがわかる。
<実施形態4>
実施形態4のシステム構成は、実施形態1と同様である。
図9は、実施形態4における複合現実世界に存在する物体およびその位置を示す図である。観察者と仮想オブジェクトの位置は実施形態3と同じである。
しかし観察者301の観察する方向が異なる。実施形態4では、観察者301は、仮想オブジェクトB304を観察している。
それぞれの複合現実世界の座標は以下のとおりとする。
・観察者301(0,0,0)
・仮想点光源302(−500,500,0)
・仮想オブジェクトA303(500,−500,0)
・仮想オブジェクトB304(−1000,1000,0)
仮想平行光のベクトルは以下のとおりである。
・仮想平行光701(1,−1,0)
また仮想平行光701の輝度は。実施形態3と同様、0.8である。
観察者301は、仮想オブジェクトB304を観察しているので、観察方向をあらわすベクトルは(−1,1,0)である。仮想平行光701は、観察者301の正面から光線を出しているので、観察者301と仮想オブジェクトB304が図9のような位置関係にあるときは、現実世界と同様な感覚では仮想平行光701の調整は必要ないと言える。すなわち、仮想平行光は、観察者により遮られていない。すたがって、実施形態4は、実施形態2のケースと同様の結果がえられると考えられる。
実施形態2で提示した仮想平行光の輝度の低減率を求める式は以下のとおりである。
t1=k*(e11・e12)
この式を実施形態4に当てはめてみよう。
kを実施形態1と同様に0.5とすると、
t1=0.5*(−1)=−0.5
となる。
算出されたt1の値がマイナスということは、数学的には単純に輝度を上げることを意味すると思われるが、それはこの実施形態4の状況から考えると正しくない。すなわち、この場合輝度を変更しないのが正しい。物理的な解釈として、内積(e11・e12)が正の値になる時だけ、仮想点光源の輝度の低減を行うようにする。この内積の値が0になるときは、観察者の観察方向のベクトルと点光源から観察者の方向へのベクトルが90度になるときである。つまり、実施形態1や実施形態3と同様に、観察者の観察方向と点光源から観察者への方向が90度以内のときにだけ、仮想点光源の輝度の低減を行うというルールを導入する。
図10は、実施形態4の計算のフローチャートである。
図8のフローチャートとの相違は、ステップ803とステップ804の処理の間にステップ1001を挿入したものである。したがって、ステップS1001以外のステップの説明は、省略する。
ステップ1001:光効果算出手段107は、内積(e31・e32)を計算し、この内積が正のとき、ステップ804に進む。もし負のときステップ801に戻る。
以上のように、実施形態4では、観察者が仮想平行光を遮らない場合、すなわち、観察者が仮想平行光の方向を向いている場合、仮想現実世界において、仮想平行光の輝度の低減は不要であることを示した。また、そのとき内積(e11・e12)が、負になることも示した。
<実施形態5>
システム構成は実施形態1と同様である。
図11は、実施形態5における物体の存在と、その配置を示す図である。
図11からわかるように、実施形態1の構成に仮想照射光源1101を追加した以外は実施形態1と同じである。
仮想照射光源1101の属性、すなわち位置と方向は以下のようになっている。
・ 位置(−500,500,0)
・ 照射方向(1,−1、0)
仮想照射光源1101は、仮想点光源302の輝度を調整するためのものである。したがって、仮想点光源302と同位置に存在し、仮想点光源302の位置から観察者301の方向に向いて設定されている。
仮想照射光源1101を除いて考えると実施形態1と同じ構成となる。実施形態5では、仮想点光源302の属性を変更せずに、仮想照射光源1101を用いて仮想点光源の調整を行う。
仮想照射光源1101は、シーンの輝度を低減する働きをする。実施形態1の中で低減率が、t1として算出されている。仮想点光源302の明るさをi11とすると、仮想照射光源1101の低減された輝度の大きさは、i4=i11*t1で定義される。
この仮想照射光により観察者301が観察している仮想オブジェクトA303が暗くなり、複合現実世界でも現実世界のような光の感覚を味わうことが出来る。
図12は、実施形態5における計算のフローチャートである。
図12は、図6における実施形態1のフローチャートのステップ405をステップ1201に変更したものである。したがって、ステップ1201以外のステップの説明は、省略する。
ステップ1201:光効果算出手段107は、仮想点光源の輝度をi11、仮想照射光による効果をi4としたとき、i4=i11*t1を計算し、輝度調整値を求める。
以上のように、実施形態5では、仮想点光源の位置に、仮想照射光を配置することで、複合現実空間において、輝度調整を行う手法を提供した。
本発明の複合現実感提示システムの構成例を示す図である。 実施形態1における動作のフローチャートである。 実施形態1における複合現実世界の仮想光源を含む構成を示した図である。 実施形態1における輝度の低減率計算のフローチャートである。 実施形態2における複合現実世界の仮想光源を含む構成を示した図である。 実施形態2における輝度の低減率計算のフローチャートである。 実施形態3における複合現実世界の仮想光源を含む構成を示した図である。 実施形態3における輝度の低減率計算のフローチャートである。 実施形態4における複合現実世界の仮想光源を含む構成を示した図である。 実施形態4における輝度の低減率計算のフローチャートである。 実施形態5における複合現実世界の仮想光源を含む構成を示した図である。 実施形態5における輝度の低減率計算のフローチャートである。
符号の説明
101.システム制御部
102.画像入力部
103.画像合成部
104.画像出力部
105.カメラ位置姿勢計測部
106.仮想世界生成部
107.ライト属性変更部
108.ライト属性入力部
132.ビデオシースルー型HMD
133.カメラ
134.画像出力部
135.画像入力部
136.画像表示部
201.観察者
202.仮想点光源
203.仮想オブジェクトA
204.仮想オブジェクトB
401.仮想平行光
601.仮想照射光

Claims (10)

  1. 現実世界の被写体を撮像する撮像手段の位置と撮像方向を計測する位置方向計測手段と、
    仮想光源からの光により照らされた仮想物体を描画し仮想画像を生成する仮想画像生成手段と、
    前記計測された、撮像手段の撮像方向と、前記仮想光源から前記撮像手段への方向とに基づいて、前記仮想画像生成手段における前記仮想光源の輝度を調整するか否かを判定する判定手段と、
    前記判定手段により、前記仮想光源の輝度を調整すると判定された場合には、前記位置方向計測手段により計測された前記撮像手段の位置、前記仮想光源の位置および前記仮想物体の位置の関係に基づいて、前記仮想光源の輝度の調整値を計算する光効果算出手段と、
    前記光効果算出手段で計算された輝度の調整値を用いて前記仮想画像生成手段における前記仮想光源の輝度を調整する調整手段と、
    前記撮像された現実世界の被写体像と前記仮想画像生成手段で生成された仮想画像とを、前記位置方向計測手段により計測された前記撮像手段の位置と撮像方向とに基づいて合成する画像合成手段と、を備えることを特徴とする複合現実感提示システム。
  2. 前記光効果算出手段は、
    前記仮想光源の位置から前記撮像手段の位置への方向ベクトルと前記撮像手段の位置から前記仮想物体の位置への方向ベクトルとの内積を導出し該導出された内積値が所定の値以内の場合に、前記仮想光源の輝度の調整値を算出することを特徴とする請求項1に記載の複合現実感提示システム。
  3. 現実世界の被写体を撮像する撮像手段の位置と撮像方向を計測する位置方向計測手段と、
    仮想光源からの平行光により照らされた仮想物体を描画し仮想画像を生成する仮想画像生成手段と、
    前記計測された、撮像手段の撮像方向と、前記仮想光源から前記撮像手段への方向とに基づいて、前記仮想画像生成手段における前記仮想光源の輝度を調整するか否かを判定する判定手段と、
    前記判定手段により、前記仮想光源の輝度を調整すると判定された場合には、前記位置方向計測手段により計測された前記撮像手段の位置、前記平行光の照射方向、および前記仮想物体の位置の関係に基づいて、前記仮想光源の輝度の調整値を計算する光効果算出手段と、
    前記光効果算出手段で計算された輝度の調整値を用いて前記仮想画像生成手段における仮想光源の輝度を調整する調整手段と、
    前記撮像された現実世界の被写体像と前記仮想画像生成手段で生成された仮想画像とを、前記位置方向計測手段により計測された前記撮像手段の位置と前記撮像方向とに基づいて合成する画像合成手段と、
    を備えることを特徴とする複合現実感提示システム。
  4. 前記光効果算出手段は、
    前記平行光の方向ベクトルと前記撮像手段の位置から前記仮想物体の位置への方向ベクトルとの内積を導出し該導出された内積値が所定の閾値以内の場合に、前記仮想光源の輝度の調整値を算出することを特徴とする請求項3に記載の複合現実感提示システム。
  5. 前記光効果算出手段は、
    前記内積の値が所定の閾値内に入るときに、前記仮想光源の輝度の調整を行うことを特徴とする請求項2または4に記載の複合現実感提示システム。
  6. 前記仮想画像生成手段は、前記仮想光源と同位置に、光の方向が前記仮想光源から前記撮像手段の位置への方向となるように配置された、シーンの輝度を低減させるように機能する仮想照射光源を設定し、
    前記調整手段は、前記光効果算出手段で計算された輝度の調整値を用いて前記仮想画像生成手段における前記仮想照射光源の輝度を調整することを特徴とする請求項1または2に記載の複合現実感提示システム。
  7. 現実世界の被写体を撮像する撮像手段を更に備えることを特徴とする請求項1乃至6のいずれか1項に記載の複合現実感提示システム。
  8. 複合現実感提示システムによる複合現実感提示方法であって、
    位置方向計測手段が、現実世界の被写体を撮像する撮像手段の位置と撮像方向を計測する位置方向計測ステップと、
    画像生成手段が、仮想光源からの光により照らされた仮想物体を描画し仮想画像を生成する仮想画像生成ステップと、
    判定手段が、前記計測された、撮像手段の撮像方向と、前記仮想光源から前記撮像手段への方向とに基づいて、前記仮想画像生成ステップに用いられる前記仮想光源の輝度を調整するか否かを判定する判定工程と、
    光効果算出手段が、前記判定工程で前記仮想光源の輝度を調整すると判定された場合には、前記計測された前記撮像手段の位置、前記仮想光源の位置および前記仮想物体の位置の関係に基づいて、前記仮想光源の輝度の調整値を計算する光効果算出ステップと、
    調整手段が、前記計算された輝度の調整値を用いて前記仮想光源の輝度を調整する調整ステップと、
    画像合成手段が、前記撮像された現実世界の被写体像と前記生成された仮想画像とを、前記計測された前記撮像手段の位置と撮像方向とに基づいて合成する画像合成ステップとを有することを特徴とする複合現実感提示方法。
  9. 複合現実感提示システムによる複合現実感提示方法であって、
    位置方向計測手段が、現実世界の被写体を撮像する撮像手段の位置と撮像方向を計測する位置方向計測ステップと、
    画像生成手段が、仮想光源からの平行光により照らされた仮想物体を描画し仮想画像を生成する仮想画像生成ステップと、
    判定手段が、前記計測された、撮像手段の撮像方向と、前記仮想光源から前記撮像手段への方向とに基づいて、前記仮想画像生成ステップに用いられる前記仮想光源の輝度を調整するか否かを判定する判定工程と、
    光効果算出手段が、前記判定工程で前記仮想光源の輝度を調整すると判定された場合には、前記計測された前記撮像手段の位置、前記平行光の照射方向、および前記仮想物体の位置の関係に基づいて、前記仮想光源の輝度の調整値を計算する光効果算出ステップと、
    調整手段が、前記計算された輝度の調整値を用いて前記仮想光源の輝度を調整する調整ステップと、
    画像合成手段が、前記撮像された現実世界の被写体像と前記生成された仮想画像とを、前記計測された前記撮像手段の位置と撮像方向とに基づいて合成する画像合成ステップと、を有することを特徴とする複合現実感提示方法。
  10. 請求項8または9に記載の複合現実感提示方法の各工程をコンピュータに実行させるためのプログラム。
JP2008305623A 2008-11-28 2008-11-28 複合現実感提示システムおよび複合現実感提示方法、プログラム Expired - Fee Related JP5237066B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008305623A JP5237066B2 (ja) 2008-11-28 2008-11-28 複合現実感提示システムおよび複合現実感提示方法、プログラム
US12/580,430 US8659624B2 (en) 2008-11-28 2009-10-16 Mixed reality presentation system and brightness adjustment method of virtual light source

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008305623A JP5237066B2 (ja) 2008-11-28 2008-11-28 複合現実感提示システムおよび複合現実感提示方法、プログラム

Publications (3)

Publication Number Publication Date
JP2010128986A JP2010128986A (ja) 2010-06-10
JP2010128986A5 JP2010128986A5 (ja) 2011-12-22
JP5237066B2 true JP5237066B2 (ja) 2013-07-17

Family

ID=42222416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008305623A Expired - Fee Related JP5237066B2 (ja) 2008-11-28 2008-11-28 複合現実感提示システムおよび複合現実感提示方法、プログラム

Country Status (2)

Country Link
US (1) US8659624B2 (ja)
JP (1) JP5237066B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2499694B8 (en) 2012-11-09 2017-06-07 Sony Computer Entertainment Europe Ltd System and method of image reconstruction
KR102054680B1 (ko) * 2013-01-23 2020-01-22 삼성전자주식회사 영상 처리 장치, 초음파 영상 장치 및 영상 처리 방법
JP6369005B2 (ja) * 2013-10-25 2018-08-08 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
BR112015024910A2 (pt) 2013-03-26 2017-07-18 Seiko Epson Corp dispositivo de exibição montado na cabeça, método de controle de dispositivo de exibição montado na cabeça e sistema de exibição
CN103605199B (zh) * 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 成像装置及方法
WO2015175730A1 (en) * 2014-05-13 2015-11-19 Nant Vision, Inc. Augmented reality content rendering via albedo models, systems and methods
US10593113B2 (en) 2014-07-08 2020-03-17 Samsung Electronics Co., Ltd. Device and method to display object with visual effect
JP6442209B2 (ja) 2014-09-26 2018-12-19 キヤノン株式会社 画像処理装置およびその制御方法
JP6463177B2 (ja) * 2015-03-11 2019-01-30 キヤノン株式会社 画像処理装置およびその制御方法
US20160366323A1 (en) * 2015-06-15 2016-12-15 Mediatek Inc. Methods and systems for providing virtual lighting
US10559130B2 (en) 2015-08-31 2020-02-11 Microsoft Technology Licensing, Llc Displaying image data behind surfaces
JP6727816B2 (ja) * 2016-01-19 2020-07-22 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラムおよび記憶媒体
JP6700840B2 (ja) * 2016-02-18 2020-05-27 キヤノン株式会社 画像処理装置、撮像装置、制御方法及びプログラム
JP6718256B2 (ja) * 2016-02-26 2020-07-08 キヤノン株式会社 画像処理装置、撮像装置およびそれらの制御方法ならびにプログラム
US20200050625A1 (en) * 2016-09-28 2020-02-13 Hewlett-Packard Development Company, L.P. Virtual presentation
CN110268806B (zh) 2017-02-16 2022-01-04 昕诺飞控股有限公司 用于经由照明设备来指示虚拟对象的存在的控制器和其方法
US10922878B2 (en) * 2017-10-04 2021-02-16 Google Llc Lighting for inserted content
CN111489448A (zh) * 2019-01-24 2020-08-04 宏达国际电子股份有限公司 检测真实世界光源的方法、混合实境系统及记录介质
JP6892904B2 (ja) * 2019-08-29 2021-06-23 株式会社スクウェア・エニックス 画像処理プログラム、及び画像処理システム
WO2021131781A1 (ja) * 2019-12-26 2021-07-01 ソニーグループ株式会社 表示制御装置、表示制御方法、及び、記録媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6219063B1 (en) * 1997-05-30 2001-04-17 California Institute Of Technology 3D rendering
US6342887B1 (en) * 1998-11-18 2002-01-29 Earl Robert Munroe Method and apparatus for reproducing lighting effects in computer animated objects
JP3387856B2 (ja) * 1999-08-06 2003-03-17 キヤノン株式会社 画像処理方法、画像処理装置および記憶媒体
US20030038822A1 (en) * 2001-08-14 2003-02-27 Mitsubishi Electric Research Laboratories, Inc. Method for determining image intensities of projected images to change the appearance of three-dimensional objects
US7301547B2 (en) * 2002-03-22 2007-11-27 Intel Corporation Augmented reality system
JP4159082B2 (ja) * 2002-08-06 2008-10-01 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
JP4739002B2 (ja) * 2005-06-30 2011-08-03 キヤノン株式会社 画像処理方法、画像処理装置
JP2007018173A (ja) * 2005-07-06 2007-01-25 Canon Inc 画像処理方法、画像処理装置
US20070285422A1 (en) * 2006-01-18 2007-12-13 Nayar Shree K Method for Separating Direct and Global Illumination in a Scene
JP4804256B2 (ja) * 2006-07-27 2011-11-02 キヤノン株式会社 情報処理方法

Also Published As

Publication number Publication date
US20100134495A1 (en) 2010-06-03
US8659624B2 (en) 2014-02-25
JP2010128986A (ja) 2010-06-10

Similar Documents

Publication Publication Date Title
JP5237066B2 (ja) 複合現実感提示システムおよび複合現実感提示方法、プログラム
AU2021290369B2 (en) Mixed reality system with color virtual content warping and method of generating virtual content using same
JP7304934B2 (ja) 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
US11410269B2 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
US11423626B2 (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
JP2010128986A5 (ja) 複合現実感提示システムおよび複合現実感提示方法、プログラム
US20130113701A1 (en) Image generation device
WO2021040010A1 (ja) 情報処理装置、制御方法
WO2021106136A1 (ja) 表示端末装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130328

R151 Written notification of patent or utility model registration

Ref document number: 5237066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees