JP2019185071A - 情報処理システム及びプログラム - Google Patents
情報処理システム及びプログラム Download PDFInfo
- Publication number
- JP2019185071A JP2019185071A JP2018070421A JP2018070421A JP2019185071A JP 2019185071 A JP2019185071 A JP 2019185071A JP 2018070421 A JP2018070421 A JP 2018070421A JP 2018070421 A JP2018070421 A JP 2018070421A JP 2019185071 A JP2019185071 A JP 2019185071A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- light source
- real object
- light
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 19
- 230000000694 effects Effects 0.000 claims abstract description 80
- 230000005540 biological transmission Effects 0.000 description 51
- 238000007796 conventional method Methods 0.000 description 24
- 230000001795 light effect Effects 0.000 description 18
- 238000000034 method Methods 0.000 description 15
- 210000005252 bulbus oculi Anatomy 0.000 description 13
- 230000004907 flux Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 238000002310 reflectometry Methods 0.000 description 12
- 210000001508 eye Anatomy 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000002834 transmittance Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000000052 comparative effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000001151 other effect Effects 0.000 description 3
- 230000010287 polarization Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
例えば特許文献1には、仮想の物体の背後に現実の物体が位置する場合に(ユーザからは現実の物体が見えない場合に)、ユーザに近づいてきている現実の物体の存在を事前に知らせる技術が記載されている。具体的には、現実の物体とユーザとの距離とが予め定めた距離以内になると、手前側に位置する仮想の物体の表示を半透明又は輪郭線の表示に制御して背後に位置する現実の物体の視認を可能にする技術が記載されている。
請求項2に記載の発明は、前記推定手段は、前記光源からの光により生じる前記現実の物体の明部及び暗部を推定する、請求項1に記載の情報処理システムである。
請求項3に記載の発明は、前記明部には明るさの分布が表現される、請求項2に記載の情報処理システムである。
請求項4に記載の発明は、前記光源は、画像を投影する投影機であり、前記明部及び暗部は当該投影機により投影される画像によって生じる、請求項2に記載の情報処理システムである。
請求項5に記載の発明は、前記推定手段は、仮想の物体に照射された前記光源からの光が、前記現実の物体に与える効果を推定する、請求項1に記載の情報処理システムである。
請求項6に記載の発明は、コンピュータを、仮想的に存在する光源の情報を取得する取得手段と、取得された前記光源の情報に基づいて、当該光源からの光が現実の物体に与える効果を推定する推定手段と、推定された効果を表現する仮想の画像を、前記現実の物体の位置に描画する描画手段として機能させるプログラムである。
請求項2記載の発明によれば、仮想的に存在する光源が実在するかのように現実の物体の見え方を表現することができる。
請求項3記載の発明によれば、仮想的に存在する光源が実在するかのように現実の物体の見え方を表現することができる。
請求項4記載の発明によれば、仮想的に存在する光源が実在するかのように現実の物体の見え方を表現することができる。
請求項5記載の発明によれば、仮想的に存在する光源が実在するかのように現実の物体の見え方を表現することができる。
請求項6記載の発明によれば、仮想的に存在する光源からの光が現実の物体に与える影響を描画して仮想的に存在する光源が実在するのに近い体験を可能にできる。
<実施の形態1>
本実施の形態では、複合現実の体験に、外界を透過的に視認可能なメガネ型の端末を使用する場合について説明する。
図1は、外界を透過的に視認可能なメガネ型の端末1を装着したユーザが、複合現実を体感する原理を説明する図である。
図1に示すメガネ型の端末1は、透明度が高い導光板2と、画像を表示する小型の表示部3と、仮想の物体(仮想物体11)を描画する仮想物体描画部4とを有している。
ここでのメガネ型の端末1は、情報処理装置の一例であるとともに情報処理システムの一例でもある。
可視光透過型回折格子は、導光板2の前方から入射する外光B1を直線的に透過してユーザの眼球5に導くように作用する。一方で、可視光透過型回折格子は、表示部3から導光板2に入射した表示光B2を屈折させて導光板2の内部を伝搬させ、その後、眼球5の方向に表示光B2を屈折させるように作用する。
外光B1と表示光B2は、眼球5内で合成される。この結果、端末1を装着したユーザは、現実の物体(現実物体12)に仮想の物体(仮想物体11)を合成した複合現実の風景を知覚する。因みに、図1の例では、仮想物体11が現実物体12よりも手前側に位置している。
図2は、メガネ型の端末1のハードウェア構成の一例を示す図である。
図2に示す端末1は、プログラム(基本ソフトウェアを含む)の実行を通じて装置全体を制御するCPU(Central Processing Unit)21と、BIOS(Basic Input Output System)や基本ソフトウェア等のプログラムを記憶するROM22と、プログラムの実行領域として使用されるRAM(Random Access Memory)23と、を有している。
ROM22は、例えば電気的にデータの書き換えが可能な不揮発性の半導体メモリで構成される。
CPU21、ROM22、RAM23は、コンピュータ20として機能する。
左目用の表示部3Lには、左目用の画像が表示され、右目用の表示部3Rには、右目用の画像が表示される。左目用の画像と右目用の画像には視差が再現されている。このため、端末1を装着したユーザは、仮想物体11を立体視できる。
慣性計測センサ25は、頭の位置や向きの計測に用いられ、視線の追跡などに使用される。
深度センサ26は、赤外線や超音波を使用して現実空間に存在する物体までの距離を計測する。
図3は、メガネ型の端末1の機能構成の一例を示す図である。
図3に示す機能構成は、CPU21によるプログラムの実行を通じて実現される。
図3に示す機能構成は、プログラムの実行を通じて実現される各種の機能のうち、仮想的に存在する光源(以下「仮想光源」ともいう)と仮想の物体との間に現実の物体が配置される複合現実空間をユーザに知覚させる機能について表している。
現実空間情報41として保存される情報の種類は、メガネ型の端末1を使用する場面や用途によって異なる。
ただし、情報の種類が増えることで、複合現実空間における体験を、現実空間の体験に近づけることができる。
本実施の形態の場合、現実空間情報41には、実時間で追加される現実物体12に関する情報に加え、事前に与えられた又は事前に取得された現実物体12に関する情報も含まれる。
撮像された画像から推定される情報には、色情報のように撮像された画像から直接的に取得可能な情報もあれば、後述する手法などを用いて推定される情報もある。
本実施の形態の場合、RAM23の不揮発性領域には、現実物体12の透過性を有する部分の全てに適用される情報(透過情報を計算するための式や透過情報の代表値を含む)や反射性を有する部分の全てに適用される情報(反射情報を計算するための式や反射情報の代表値)も記憶される。
なお、RAM23の不揮発性領域には、透過性を有する部分別の情報と反射性を有する部分別の情報が記憶されていてもよい。
本実施の形態における現実空間情報取得部31は、RAM23から、画像認識によって特定された個々の現実物体12に関する情報を取得する。
本実施の形態における現実空間情報取得部31には、現実物体12の透過性を有する部分を撮像した画像と同様の見え方を実現するフィルタを取得する機能や現実物体12の反射性を有する部分を撮像した画像と同様の見え方を実現するフィルタを取得する機能が設けられていてもよい。ここでのフィルタは、透過情報や反射情報の一例である。
なお、反射性を有する部分とは、物体の表面に他の物体の像が映り込むような反射性、言い換えると、正反射が起こる鏡面的な反射性を有する部分をいうものとする。
ここで、個別の物体の情報には、例えば形状、色調、材質、透過情報、反射情報、現実空間内での位置を特定する情報が含まれる。物体の認識には、既存の技術を使用する。例えばエッジや色領域を特徴量として検出する手法が用いられる。物体の認識には、人工知能を用いてもよい。
撮像に関する情報には、現実の空間内におけるカメラ24L及び24Rの位置の情報、現実の空間内におけるカメラ24L及び24Rの移動の方向、現実の空間内におけるカメラ24L及び24Rが撮像する向きの情報等が含まれる。なお、カメラ24L及び24Rによって撮像された画像には、撮像の日時に関する情報なども付属する。
因みに、透過性を有しない部分の透過率は0(ゼロ)である。
透過性等の情報は、画像の処理を通じて推定される場合もあれば、事前に与えられる場合もある。透過性を推定する手法には、複数の時点に撮像された複数の画像の比較による方法、人工知能によって特定された物体に対応する透過情報をデータベースから取得する方法等がある。データベースは、例えばクラウドネットワーク上の不図示のサーバに記憶されていてもよい。なお、特定された物体に対応する透過情報がデータベースに存在しない場合、人工知能は、特定された物体に対応する透過情報を、データベースに存在する類似する物品の情報に基づいて推定してもよい。
透過情報に含まれる個々の要素の組み合わせにより、物体の質感が変化する。
なお、反射特性には、例えば、現実物体12の反射率や、正反射率、拡散反射率、光沢度、反射光の偏光の度合等が含まれる。反射率とは、物体に入射した放射束又は光束に対する、反射した放射束又は光束の比である。正反射率とは、反射放射束又は光束のうちの正反射成分の、入射放射束又は光束に対する比である。拡散反射率とは、反射放射束又は光束のうちの拡散反射成分の、入射放射束又は光束に対する比である。光沢度とは、正反射光の割合や、拡散反射光の方向分布などに注目して、物体表面の光沢の程度を一次元的に表す指標である。
例えば鏡の場合、極めて平滑な鏡面の全ての位置で正反射が起こることで、元の物体の像を正確に見ることができる。一方、例えば紙や布のような表面がざらざらした物体では拡散反射が起こり、入射した光が表面の微細な凹凸により様々な方向に反射するため、像が崩れてしまい、元の物体の形がわからない状態になる。例えば、現実物体12の正反射率の値が100%であれば、現実物体12の表面に映り込む像を正確に見ることができるが、正反射率の値が低下するにつれて(すなわち、拡散反射率が増加するにつれて)像が崩れてしまい、ぼやけて見えてしまう。
反射情報に含まれる個々の要素の組み合わせにより、物体の質感が変化する。
なお、現実空間情報41は、例えばクラウドネットワーク上の不図示のサーバに記憶されていてもよい。
現実空間情報取得部31は、現実空間から取得された複数の情報を仮想空間上で整合的に統合し、3次元モデルを生成又は更新する。ここでの3次元モデルは、現実空間仮想化情報42としてRAM23に記憶される。
現実空間を仮想化した空間(3次元モデル)に仮想物体11を配置したものが複合現実空間である。
ここで、仮想物体情報43は、仮想物体11が配置される位置(3次元モデル内での位置)、形状、色調、材質などの仮想物体11に関する情報であり、RAM23等に保存されている。仮想物体情報43には、透過率、反射率、屈折率その他の光学特性の情報も含まれる。
仮想光源に関する情報には、例えば、光源の数、光源が配置される位置(3次元モデル内での位置)、種類、光の色、光源の光度(カンデラ)又は光束(ルーメン)等の情報が含まれる。
さらに、光源の種類には、例えば点光源、線光源、スポット光源、平行光源、面光源等が含まれる。
光が全方向に広がる点光源には、例えば白熱電球がある。発光部が線形状の線光源には、例えば蛍光灯がある。1点から指定の向きに円錐状の光が出力されるスポット光源には、例えばLED(Light Emitting Diode)ライトがある。平行光を一方向に出力する平行光源には、例えば高い指向性を有する照明器具や太陽がある。発光部が面形状の面光源には、例えば液晶ディスプレイや投影機(プロジェクタ)がある。
より具体的には、光源光効果推定部33は、光源情報取得部32が取得した情報に含まれる各仮想光源について、仮想光源の光が現実物体12に与える効果と、仮想光源の光が現実物体12の背後に位置する仮想物体11に与える効果を推定する。ここで、光源光効果推定部33は、端末(図1参照)を装着しているユーザの眼球5の位置を基準として、現実物体12や、仮想光源に対して現実物体12の背後に位置する仮想物体11に対する効果を推定する。
なお、ユーザの眼球5の位置は、実測されるのではなく、端末1との関係で与えられる。
(1)仮想光源と対向する面のうち光源光で照射されている部分(明部)の輝度を高める効果
例えば特定の仮想光源の位置、現実物体12の形状と位置に基づいて輝度が計算される。ここでの計算は、仮想化された空間内に複数の仮想光源があったとしても、計算の対象としている仮想光源のみが存在するとの仮定の下で実行される。そして、複数の仮想光源がある場合には、個々の仮想光源に対応する効果を足し合わせて輝度が計算される。他の効果の説明についても同様である。
なお、仮想光源に関する情報と、現実物体12の形状と、仮想光源と現実物体12との距離との関係に基づいて、現実物体12の表面に明るさの濃淡(分布)を表現してもよい。また、現実物体12の透過性や反射性を表現してもよい。
この効果によって、仮想光源が実在するかのように現実物体12の見え方を表現することができる。その結果、仮想光源が実在するのに近い体験を可能にできる。後述する他の効果についても同様である。
仮想光源からの光の光路上で、仮想光源と現実物体12との間に透過性を有しない他の現実物体12が存在する場合、他の現実物体12の影が現実物体12の表面に描画される。例えば仮想光源の位置、現実物体12の形状と位置、他の現実物体12の形状と位置の関係から、他の現実物体12の影の形状や位置が計算される。
(3)仮想光源と対向する面に光源光を遮る他の現実物体12の像(他の現実物体12のうち、現実物体12と対面する側の面の像)や透過像が形成される効果
現実物体12が反射性を有し、仮想光源からの光の光路上で、仮想光源と現実物体12との間に他の現実物体12が存在する場合、現実物体12での反射により映り込む他の現実物体12の像が現実物体12の表面に描画される。また、仮想光源と現実物体12との間に透過性を有する他の現実物体12が存在する場合、他の現実物体12を透過する光により形成される透過像が現実物体12の表面に描画される。
現実物体12に映り込む他の現実物体12の像や、他の現実物体12の透過像には、例えば現実物体12や他の現実物体12の反射特性(反射率等)、透過特性(透過率、屈折率等)、色調、模様等が反映される。また、仮想光源の種類や色等の情報が考慮される。
そして、他の現実物体12の像や透過像の形状や位置は、他の現実物体12の影と同様に、例えば仮想光源の位置、現実物体12の形状と位置、他の現実物体12の形状と位置の関係から計算される。なお、他の現実物体12の位置は、仮想光源と現実物体12との間に限られず、例えば仮想光源を基準として現実物体12の背後など、現実物体12の周囲であればよい。また、仮想光源が投影機である場合には、他の現実物体12の像や透過像には、投影機が投影する画像(投影像)も影響する。
仮想光源からの光の光路上で、仮想光源と現実物体12との間に透過性を有しない仮想物体11が存在する場合、仮想物体11の影が現実物体12の表面に描画される。例えば仮想光源の位置、現実物体12の形状と位置、仮想物体11の形状と位置の関係から、仮想物体11の影の形状や位置が計算される。
(5)仮想光源と対向する面に光源光を遮る仮想物体11の像(仮想物体11のうち、現実物体12と対面する側の面の像)や透過像が形成される効果
現実物体12が反射性を有し、仮想光源からの光の光路上で、仮想光源と現実物体12との間に仮想物体11が存在する場合、現実物体12での反射により映り込む仮想物体11の像が現実物体12の表面に描画される。また、仮想光源と現実物体12との間に透過性を有する仮想物体11が存在する場合、仮想物体11を透過する光により形成される透過像が現実物体12の表面に描画される。
現実物体12に映り込む仮想物体11の像や、仮想物体11の透過像には、例えば現実物体12や仮想物体11の反射特性(反射率等)、透過特性(透過率、屈折率等)、色調、模様等が反映される。また、仮想光源の種類や色等の情報が考慮される。
そして、仮想物体11の像や透過像の形状や位置は、仮想物体11の影と同様に、例えば仮想光源の位置、現実物体12の形状と位置、仮想物体11の形状と位置の関係から計算される。なお、仮想物体11の位置は、仮想光源と現実物体12との間に限られず、例えば仮想光源を基準として現実物体12の背後など、現実物体12の周囲であればよい。また、仮想光源が投影機である場合には、仮想物体11の像や透過像には、投影機が投影する画像(投影像)も影響する。
例えば仮想光源の位置、現実物体12の形状と位置から、現実物体12のうち、陰(暗部)になる部位が計算される。
(7)仮想光源が投影機である場合に、投影機が投影する画像(投影像)が形成される効果
仮想の投影機が投影している画像の内容は、仮想物体情報43に含まれており、例えば投影機の位置と現実物体12の位置との関係から、現実物体12に投影される。
(1)現実物体12が透過性を有しない場合に、現実物体12の影が形成される効果
例えば仮想光源の位置、現実物体12の形状と位置、仮想物体11の形状と位置の関係から、仮想物体11の表面に描画される、現実物体12の影の形状や位置が計算される。
この効果は、仮想光源を基準として現実物体12の背後に現れる。なお、影は、仮想物体11だけでなく、他の現実物体12にも形成される。
この効果によって、仮想光源が実在するかのように仮想物体11又は他の現実物体12の見え方を表現することができる。その結果、仮想光源が実在するのに近い体験を可能にできる。後述する他の効果についても同様である。
(2)現実物体12が透過性を有する場合に、現実物体12の透過像が形成される効果
例えば現実物体12の透過特性に基づいて、現実物体12を透過する光により形成される透過像が計算される。透過像には、現実物体12の透過率、屈折率、色調、模様等が反映される。また、仮想光源の種類や色等の情報が考慮される。
そして、透過像の形状や位置は、例えば仮想光源の位置、現実物体12の形状と位置、仮想物体11の形状と位置の関係から計算される。
この効果も、仮想光源を基準として現実物体12の背後に現れる。なお、透過像は、仮想物体11だけでなく、他の現実物体12にも形成される。
(3)現実物体12が透過性を有し、仮想光源が投影機である場合に、投影機が投影する画像(投影像)の透過像が形成される効果
仮想の投影機が投影している画像の内容は、仮想物体情報43に含まれており、例えば投影機の位置、現実物体12の形状と位置、仮想物体11の形状と位置の関係から、現実物体12を透過する光により形成される透過像が計算される。
この効果も、仮想光源を基準として現実物体12の背後に現れる。なお、投影機が投影する画像(透過像)は、仮想物体11だけでなく、他の現実物体12にも形成される。
(4)現実物体12が反射性を有する場合に、現実物体12の周囲に存在する他の物体(仮想物体11か現実物体12かを問わない)を反射光で照らす効果
この効果は、仮想光源によって照明されている現実物体12の面と対向している物体に現れる。反射光には、現実物体12の反射率、屈折率、色調、模様等が反映される。なお、仮想光源が投影機である場合には、反射像には、投影機が投影する画像(投影像)も影響する。
仮想物体描画部4は、現実空間仮想化情報42、仮想物体情報43、光源光効果情報44を用い、表示部3L(図2参照)用の仮想物体11の画像と、表示部3R(図2参照)用の仮想物体11の画像を描画する。ここで描画される仮想物体11の画像には、光源光効果推定部33で推定された効果に対応するフィルタも含まれる。フィルタは、現実物体12の位置に描画される。
本実施の形態における仮想物体描画部4は、描画手段の一例である。また、光源光効果推定部33で推定された効果に対応するフィルタは、推定された効果を表現する仮想の画像の一例である。
なお、仮想光源の光源光の効果を反映させて仮想物体11を描画する場合には、光源光の効果に対応するフィルタを作用させて描画することにより、仮想物体情報43に含まれる仮想物体11の情報には変更を加えずに済む。また、フィルタを用いることで演算量も少なくて済む。演算量が少なく済むので、現実物体12の背後に隠れる領域の変化が速い場合でも、現実物体12の透過情報を仮想物体11の描画に実時間で反映させることができる。
このように、仮想物体描画部4は、仮想光源からの光の効果を現実物体12の位置に描画するので、従前の技術に比して、複合現実の現実感を高めることができる。
また、仮想物体描画部4は、仮想光源からの光の光路上に位置する現実物体12がその背後に位置する仮想物体11に与える効果を仮想物体11に対して描画するので、従前の技術に比して、複合現実の現実感を高めることができる。
図4は、メガネ型の端末1で仮想光源による効果を描画する場合に実行される処理動作の一例を説明するフローチャートである。
図4に示す処理動作は、CPU21によるプログラムの実行を通じて実現される。なお、図中では、ステップを記号のSで表している。
次に、CPU21は、仮想物体情報43から仮想光源に関する情報を取得する(ステップ12)。
CPU21は、選択された現実物体12を処理の対象として、仮想光源の光源光が現実物体12に対して与える効果を推定する(ステップ14)。この処理は、光源光効果推定部33としてのCPU21が実行する。
ここで、CPU21は、端末1を装着しているユーザの眼球5(図1参照)の位置を基準として、処理対象とする現実物体12のうちユーザから見える面、現実物体12に影響を与える他の現実物体12、現実物体12に影響を与える仮想物体11、仮想光源を基準として現実物体12の背後に存在する仮想物体11(現実物体12が影響を与える仮想物体11)を推定し、各効果を推定する。なお、ユーザから見えない面については、仮想光源の光源光による影響を考慮しなくてもよい。
なお、現実物体12の背後に位置する仮想物体11が複数ある場合、CPU21は、個々の仮想物体11に対する効果を表現するフィルタを生成する。
次に、CPU21は、全ての現実物体12が選択済みであるか否かを判定する(ステップ16)。
ステップ16で否定結果が得られた場合、CPU21は、ステップ13に戻る。ステップ13では、未選択の現実物体12の中から1つが処理の対象として選択される。
一方、ステップ16で肯定結果が得られた場合、CPU21は、全ての仮想物体11と、光源光効果生成部34により生成した全てのフィルタとを用いて、仮想光源の光源光による効果を描画する(ステップ17)。そして、本処理フローは終了する。
以下では、具体例を用いて、本実施の形態における仮想光源の光源光による効果の描画例について説明する。
図5は、仮想光源13と仮想物体11との間に現実物体12Aが存在する場合における従前の技術と本実施の形態による見え方の違いの一例を説明する図である。(A)は従前の技術による描画例であり、(B)は本実施の形態による描画例である。
図5では、従前の技術による描画例を比較例と記している。
図5の場合、円筒形状の現実物体12Aは、透過性を有していないもの(すなわち透過性なし)とする。
図5において、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
一方で、本実施の形態の場合には、(B)に示すように、現実物体12Aのうち仮想光源13の光で照らされる部位12A1は明るく描画され、仮想光源13の光で照らされない部位12A2は暗く描画される。すなわち、現実物体12Aの表面に明部と暗部(陰)が表現される。
図5では、現実物体12Aが円筒形状であるが、現実物体12Aが平板状の場合にも平面内の位置に応じて輝度差が発生する。点光源である仮想光源13から出力された光は四方に広がるように進むため、平板状の現実物体12Aの位置に応じて光路長の違いが生じるためである。このため、輝度値が高い領域を中心として同心円状に輝度が低下する効果を描画することで現実感を高めることができる。
また、図5では描画していないが、現実物体12Aと仮想光源13との間に存在する不図示の他の現実物体12や仮想物体11の影を、現実物体12Aの表面に描画してもよい。
さらに、図5では描画していないが、現実物体12Aの表面が鏡面である場合(すなわち、現実物体12Aでの反射による像が映り込む場合)には、仮想光源13との間に存在する不図示の他の現実物体12や仮想物体11の像を、現実物体12Aの表面に描画してもよい。
因みに、像の描画に際しては、現実物体12Aの表面における反射光の影響を付加することが望ましい。現実物体12Aと対面する不図示の他の現実物体12や仮想物体11の背面は、仮想光源13とは反対側の面であるので、仮想光源13からの光源光による陰が生じる部位(12A2参照)である。よって、現実物体12Aの表面を含む周辺からの反射光により、陰が少し薄くなる。従って、(B)における部位12A1も、厳密には周囲からの反射光(又は環境光)の影響により陰の濃度が薄くなる。
さらに、仮想光源13との間に存在する不図示の他の現実物体12や仮想物体11による影や透過像を描画してもよい。
このように、現実物体12Aの表面を照らす仮想光源13の光による効果を現実物体12Aの位置に描画することにより、仮想光源13が実在するのに近い体験が可能になる。
また、影11Aを描画する位置の仮想物体11の図柄や構造を仮想物体情報43から抽出して影11Aを生成することにより、影11Aを描画する部分が周囲(影11Aが存在しない部分)に対して違和感を与えないようにできる。
このように、現実物体12Aが仮想光源13の光を妨げることで生じる効果を仮想物体11に対して反映して、仮想物体11を描画することにより、仮想光源13が実在するのに近い体験が可能になる。
なお、図5の場合には仮想光源13が1つの場合を表しているが、複数の仮想光源13が存在する場合にも、個々の仮想光源13に対応する効果を描画することにより、現実感を高めることができる。複数の仮想光源13が存在する場合には、個々の仮想光源13に対応する効果を足し合わせて(すなわち、個々の仮想光源13による効果として生成されたフィルタを足し合わせて)、描画される。
図6は、仮想光源13と仮想物体11との間に現実物体12Aが存在する場合における従前の技術と本実施の形態による見え方の違いの他の例を説明する図である。(A)は従前の技術による描画例であり、(B)は本実施の形態による描画例である。
図6でも、従前の技術による描画例を比較例と記している。
図6の場合、平板形状の現実物体12Bは、透過性を有するもの(すなわち透過性あり)とする。
図6の場合も、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図6の場合も、従前の技術では、(A)に示すように、例1(図5参照)の場合と同じく、仮想物体情報43(図3参照)の通りに仮想物体11が描画される。すなわち、現実物体12Bにおいて、仮想光源13からの光の存在は考慮されない。また、仮想光源13と対面する側の仮想物体11の表面は、仮想光源13の光で照らされて明るいままであり、現実物体12Bによる影響は考慮されない。
例1との違いは、仮想光源13に対して現実物体12Bの背後に位置する仮想物体11の表面に、現実物体12Bの透過像11Bが描画されている点である。
本例の場合、現実物体12Bには網目状の模様が形成されているので、透過像11Bにも網目状の模様が表現されている。なお、図6では仮想光源13からの光が広がる性質を有するため、仮想物体11の表面には現実物体12Bの模様を拡大した透過像11Bが描画されている。
なお、現実物体12Bに光を透過する部分と光を透過しない部分が混在する場合には、例1(図5参照)による影11Aと本例による透過像11Bの混在した画像が、仮想物体11の表面に描画される。
このように、現実物体12Bが仮想光源13の光を妨げることで生じる効果を仮想物体11に対して反映して、仮想物体11を描画することにより、仮想光源13が実在するのに近い体験が可能になる。
図7は、仮想的な光源が仮想投影機13Aであり、仮想投影機13Aと仮想物体11との間に現実物体12Cが存在する場合における従前の技術と本実施の形態による見え方の違いの一例を説明する図である。(A)は従前の技術による描画例であり、(B)は本実施の形態による描画例である。
図7でも、従前の技術による描画例を比較例と記している。
図7における現実物体12Cも平板形状とする。ただし、現実物体12Cは、透過性を有しないもの(すなわち透過性なし)とする。
図7の場合も、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
また、従前の技術では、仮想投影機13Aから投影された画像を遮る位置の現実物体12Cの表面に、仮想投影機13Aが投影する画像が描画されていない。
これでは、現実物体12C、仮想物体11の存在が違和感を与えてしまう。
しかも、仮想投影機13Aから投影された画像の一部(帯状の物体の画像のうち現実物体12Cと重なる部分)が、現実物体12Cの表面に描画されることになる。
なお、図7では仮想投影機13Aからの光が広がる性質を有するため、現実物体12Cの表面に描画される画像は、仮想物体11の表面に描画される画像の一部よりも縮小された形状で描画される。その際、現実物体12Cに描画される画像にボケが生じることもあれば、ボケが無い明瞭な画像が描画されることもある。これらは、仮想投影機13Aと現実物体12Cとの光学距離に応じて決まる。
このように、現実物体12Cの表面を照らす仮想投影機13Aの光による効果を現実物体12Cの位置に描画することにより、仮想投影機13Aが実在するのに近い体験が可能になる。
このように、現実物体12Cが仮想投影機13Aの光を妨げることで生じる効果を仮想物体11に対して反映して、仮想物体11を描画することにより、仮想投影機13Aが実在するのに近い体験が可能になる。
図8は、仮想的な光源が仮想投影機13Aであり、仮想投影機13Aと仮想物体11との間に現実物体12Bが存在する場合における従前の技術と本実施の形態による見え方の違いの他の例を説明する図である。(A)は従前の技術による描画例であり、(B)は本実施の形態による描画例である。
図8でも、従前の技術による描画例を比較例と記している。
図8における現実物体12Bは、例2(図6参照)と同じである。すなわち、現実物体12Bは、平板形状を有し、更に透過性を有している。
図8の場合も、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
一方で、本実施の形態の場合、(B)に示すように、例3の場合と同様に、現実物体12Bの表面には仮想投影機13Aから投影された画像の一部(帯状の物体の画像のうち現実物体12Bと重なる部分)が描画される。
なお、本例の現実物体12Bでは、例2(図6参照)の場合と同じく、全面に網目状の模様が形成されている。このため、現実物体12Bの表面には、網目状の模様と投影される画像とが混在した画像が、現実物体12Bの位置に描画される。従って、仮想投影機13Aが実在するのに近い体験が可能になる。
図8の場合には、現実物体12Bを透過する際の光の屈折の影響により、透過像11Bを構成する帯状の物体の画像と、仮想投影機13Aから直接投影された帯状の物体の画像との間にズレが生じている。また、現実物体12Bに形成されている網目状の模様も、透過像11Bに表現されている。このため、透過像11Bは、現実物体12Bを透過した画像であることの実感が高くなる。
このように、現実物体12Bが仮想投影機13Aの光を妨げることで生じる効果を仮想物体11に対して反映して、仮想物体11を描画することにより、仮想投影機13Aが実在するのに近い体験が可能になる。
より具体的には、例えば、図6に示す現実物体12Bが壁である場合に、CPU21は、現実物体12B上に(すなわち、現実物体12Bの位置に)、窓を表す仮想の画像を描画する。窓の画像は仮想物体情報43として保存されているが、窓から外の景色が見えるように、CPU21は、窓の画像と外の景色の画像とを足し合わせて、現実物体12Bの位置に描画する。なお、外の景色の画像は、ユーザ(眼球5)の位置から現実物体12Bを超えた先の空間の画像であり、CPU21は、例えば、ユーザの位置、現実空間仮想化情報42、仮想物体情報43を基に、外の景色の画像を生成する。
なお、CPU21は、仮想の画像を現実物体12の位置に描画するにあたり、現実物体12の色調や模様の影響により、これらの色調や模様が仮想の窓に映り込む場合には、色調や模様が映り込まないように窓の画像を加工してもよい。
本実施の形態では、複合現実の体験に頭部に装着された表示装置を使用する場合について説明する。
図9は、複合現実の体験に、実時間で撮像される外界の画像に仮想物体を合成した画像を表示する表示装置100を装着したユーザが、複合現実を体感する原理を説明する図である。
表示装置100は、カメラ24L及び24Rによって撮像された外界の画像と、仮想物体描画部4が描画した仮想物体11の画像とを画像合成部101で合成した画像を、ユーザの眼球5の前方に配置された表示部3L及び3Rに表示する。
ここでの表示装置100は、情報処理装置の一例であるとともに情報処理システムの一例でもある。
なお、表示装置100のハードウェア構成は、メガネ型の端末1(図2参照)と同様である。このため、表示装置100のハードウェア構成の説明は省略する。
図10には、図3との対応部分に対応する符号を付して示している。
表示装置100の基本的な機能構成は、メガネ型の端末1(図2参照)と同様である。表示装置100に特有の機能構成は、画像合成部101である。
画像合成部101は、仮想物体描画部4が描画した画像と、カメラ24L及び24Rで撮像されている外界の画像とが整合するように2つの画像を合成する機能を有している。
例えば画像合成部101は、現実空間仮想化情報42として記憶されている3次元モデルとカメラ24L及び24Rで撮像されている外界の画像とを照合して、仮想物体11の画像を合成する領域を決定する。
このように、本実施の形態が複合現実を知覚させる方式は実施の形態1と異なるが、ユーザによって知覚される複合現実の現実感が従前の技術に比して高くなる点は、実施の形態1と同じである。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば前述の実施の形態では、左右両目用の表示部3L及び3Rを用いているが、表示部は1つでも構わない。例えばメガネ型の端末1(図1参照)の場合には、左右どちら一方の前方に表示部を1つ配置されてもよい。また例えば表示装置100(図9参照)の場合には、両目の前に表示部を1つ配置してもよい。
また、前述の実施の形態では、仮想物体描画部4をメガネ型の端末1(図1参照)や表示装置100(図9参照)の機能の1つとして実現しているが、外部ネットワーク(例えばクラウドネットワーク)に接続されているサーバなどの情報処理装置において、仮想物体描画部4の機能を実行してもよい。ここでのメガネ型の端末1と仮想物体描画部4の機能を実行する外部ネットワーク上のサーバは、情報処理システムの一例である。
また、前述の実施の形態では、仮想物体描画部4の機能を汎用的な演算装置であるCPU21を用いて実現しているが、実時間での画像処理に特化した演算装置であるGPU(Graphics Processing Unit)を用いて実現してもよい。
Claims (6)
- 仮想的に存在する光源の情報を取得する取得手段と、
取得された前記光源の情報に基づいて、当該光源からの光が現実の物体に与える効果を推定する推定手段と、
推定された効果を表現する仮想の画像を、前記現実の物体の位置に描画する描画手段と
を有する情報処理システム。 - 前記推定手段は、前記光源からの光により生じる前記現実の物体の明部及び暗部を推定する、請求項1に記載の情報処理システム。
- 前記明部には明るさの分布が表現される、請求項2に記載の情報処理システム。
- 前記光源は、画像を投影する投影機であり、前記明部及び暗部は当該投影機により投影される画像によって生じる、請求項2に記載の情報処理システム。
- 前記推定手段は、仮想の物体に照射された前記光源からの光が、前記現実の物体に与える効果を推定する、請求項1に記載の情報処理システム。
- コンピュータを、
仮想的に存在する光源の情報を取得する取得手段と、
取得された前記光源の情報に基づいて、当該光源からの光が現実の物体に与える効果を推定する推定手段と、
推定された効果を表現する仮想の画像を、前記現実の物体の位置に描画する描画手段
として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070421A JP2019185071A (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070421A JP2019185071A (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019185071A true JP2019185071A (ja) | 2019-10-24 |
Family
ID=68341137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018070421A Pending JP2019185071A (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019185071A (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134681A (ja) * | 2007-11-07 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP2017072999A (ja) * | 2015-10-07 | 2017-04-13 | 株式会社リコー | 情報処理装置、情報処理方法及びプログラム |
WO2017217296A1 (ja) * | 2016-06-16 | 2017-12-21 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置 |
-
2018
- 2018-03-30 JP JP2018070421A patent/JP2019185071A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134681A (ja) * | 2007-11-07 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP2017072999A (ja) * | 2015-10-07 | 2017-04-13 | 株式会社リコー | 情報処理装置、情報処理方法及びプログラム |
WO2017217296A1 (ja) * | 2016-06-16 | 2017-12-21 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置 |
Non-Patent Citations (1)
Title |
---|
福冨弘敦,外2名: "表面反射特性の推定による仮想化現実環境の対話的な照明シミュレーション", [ONLINE], JPN7021004951, 2003, pages 1 - 6, ISSN: 0004925015 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108369457B (zh) | 用于混合现实的现实混合器 | |
US10068369B2 (en) | Method and apparatus for selectively integrating sensory content | |
US20240062346A1 (en) | Image-based detection of surfaces that provide specular reflections and reflection modification | |
KR20220099580A (ko) | 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이 | |
KR20170059469A (ko) | 삼차원 오브젝트를 가시화하기 위한 방법, 가시화 디바이스, 및 컴퓨터 프로그램 제품 | |
KR102448938B1 (ko) | 텍스처 투사 전구용 적분 점광원 | |
US11087529B2 (en) | Introducing real-time lighting effects to illuminate real-world physical objects in see-through augmented reality displays | |
US11922602B2 (en) | Virtual, augmented, and mixed reality systems and methods | |
US11818325B2 (en) | Blended mode three dimensional display systems and methods | |
JP2013168146A (ja) | 実物体のテクスチャ描写を生成する方法、装置、およびシステム | |
US10264245B2 (en) | Methods and system for generating three-dimensional spatial images | |
CN106990532A (zh) | 一种具有遮挡效应的增强现实显示系统及显示方法 | |
KR20220111144A (ko) | HMD(head mounted display)의 영상 처리 방법 및 이 방법을 실행하는 HMD | |
JP7188902B2 (ja) | 情報処理システム及びプログラム | |
US20170299866A1 (en) | Occlusion-capable augmented reality display using cloaking optics | |
JP7088721B2 (ja) | 情報処理システム及びプログラム | |
JP2019185071A (ja) | 情報処理システム及びプログラム | |
JP2019185072A (ja) | 情報処理システム及びプログラム | |
JP7188901B2 (ja) | 情報処理システム及びプログラム | |
JP7439197B2 (ja) | 情報処理システム及びプログラム | |
JP7188900B2 (ja) | 情報処理システム及びプログラム | |
JP2019179541A (ja) | 情報処理システム及びプログラム | |
CN107635119B (zh) | 投射方法和设备 | |
Hassaine | Efficient rendering for three-dimensional displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221122 |