JP2019179540A - 情報処理システム及びプログラム - Google Patents
情報処理システム及びプログラム Download PDFInfo
- Publication number
- JP2019179540A JP2019179540A JP2018070416A JP2018070416A JP2019179540A JP 2019179540 A JP2019179540 A JP 2019179540A JP 2018070416 A JP2018070416 A JP 2018070416A JP 2018070416 A JP2018070416 A JP 2018070416A JP 2019179540 A JP2019179540 A JP 2019179540A
- Authority
- JP
- Japan
- Prior art keywords
- real object
- real
- virtual object
- image
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 19
- 230000006870 function Effects 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 16
- 230000035699 permeability Effects 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 description 35
- 238000000034 method Methods 0.000 description 31
- 210000005252 bulbus oculi Anatomy 0.000 description 27
- 238000002834 transmittance Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 20
- 230000010287 polarization Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 15
- 210000001508 eye Anatomy 0.000 description 10
- 238000007796 conventional method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000907681 Morpho Species 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000005357 flat glass Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- BQJCRHHNABKAKU-KBQPJGBKSA-N morphine Chemical compound O([C@H]1[C@H](C=C[C@H]23)O)C4=C5[C@@]12CCN(C)[C@@H]3CC5=CC=C4O BQJCRHHNABKAKU-KBQPJGBKSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Abstract
Description
例えば特許文献1には、仮想の物体の背後に現実の物体が位置する場合に(ユーザからは現実の物体が見えない場合に)、ユーザに近づいてきている現実の物体の存在を事前に知らせる技術が記載されている。具体的には、現実の物体とユーザとの距離とが予め定めた距離以内になると、手前側に位置する仮想の物体の表示を半透明又は輪郭線の表示に制御して背後に位置する現実の物体の視認を可能にする技術が記載されている。
請求項2に記載の発明は、前記推定手段は、推定の対象に定めた前記現実の物体を異なる時点に撮像した複数の画像に基づいて、当該現実の物体の透過性を推定する、請求項1に記載の情報処理システムである。
請求項3に記載の発明は、前記推定手段は、2つの前記現実の物体の少なくとも一部が重なる状態で撮像された第1の画像から、手前側に位置する当該現実の物体の表面に現れる第1のエッジの情報を抽出し、抽出された当該第1のエッジの情報が、当該第1の画像で背景側に位置していた当該現実の物体が単独で撮像されている第2の画像に現れる第2のエッジの情報と整合する場合、手前側に位置する当該現実の物体は透過性を有すると推定する、請求項2に記載の情報処理システムである。
請求項4に記載の発明は、前記推定手段は、推定の対象に定めた前記現実の物体の表面に現れる内容が鏡像ではなく、かつ、当該現実の物体の表面を撮像する撮像手段の移動に連動して当該現実の物体の表面に現れる内容が連続的に変化する場合、当該現実の物体は透過性を有すると推定する、請求項2に記載の情報処理システムである。
請求項5に記載の発明は、前記推定手段は、推定の対象に定めた前記現実の物体によって生じる影を利用して、当該現実の物体の透過性を推定する、請求項1に記載の情報処理システムである。
請求項6に記載の発明は、現実の物体を撮像した画像から現実の物体の透過性の情報を推定する推定手段と、透過性を有すると推定された前記現実の物体の背後に仮想の物体の少なくとも一部が隠れる場合に、当該現実の物体の背後に隠れる部分に当該仮想の物体を描画する描画手段を有する情報処理システムである。
請求項7に記載の発明は、コンピュータを、現実の物体を撮像した画像から現実の物体の透過性の情報を推定する推定手段と、透過性を有すると推定された前記現実の物体の背後に仮想の物体の少なくとも一部が隠れる場合に、当該現実の物体の背後に隠れる領域の現実の空間での見え方を再現する画像を、推定された透過性の情報に基づいて生成する生成手段と、生成された前記画像を含めて前記仮想の物体を描画する描画手段として機能させるプログラムである。
請求項2記載の発明によれば、現実の物体の透過性が事前に分からない状況でも、透過性を有する現実の物体の背後に位置する仮想の物体を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項3記載の発明によれば、現実の物体の透過性が事前に分からない状況でも、透過性を有する現実の物体の背後に位置する仮想の物体を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項4記載の発明によれば、現実の物体の透過性が事前に分からない状況でも、透過性を有する現実の物体の背後に位置する仮想の物体を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項5記載の発明によれば、現実の物体の透過性が事前に分からない状況でも、透過性を有する現実の物体の背後に位置する仮想の物体を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項6記載の発明によれば、現実の物体の透過性が事前に分からない状況でも、透過性を有する現実の物体の背後に位置する仮想の物体を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項7記載の発明によれば、現実の物体の透過性が事前に分からない状況でも、透過性を有する現実の物体の背後に位置する仮想の物体を描画して仮想の物体が実在するかのような体験を可能にできる。
<実施の形態1>
本実施の形態では、複合現実の体験に、外界を透過的に視認可能なメガネ型の端末を使用する場合について説明する。
図1は、外界を透過的に視認可能なメガネ型の端末1を装着したユーザが、複合現実を体感する原理を説明する図である。
図1に示すメガネ型の端末1は、透明度が高い導光板2と、画像を表示する小型の表示部3と、仮想の物体(仮想物体11)を描画する仮想物体描画部4とを有している。
ここでのメガネ型の端末1は、情報処理装置の一例であるとともに情報処理システムの
一例でもある。
可視光透過型回折格子は、導光板2の前方から入射する外光B1を直線的に透過してユーザの眼球5に導くように作用する。一方で、可視光透過型回折格子は、表示部3から導光板2に入射した表示光B2を屈折させて導光板2の内部を伝搬させ、その後、眼球5の方向に表示光B2を屈折させるように作用する。
外光B1と表示光B2は、眼球5内で合成される。この結果、端末1を装着したユーザは、現実の物体(現実物体12)に仮想の物体(仮想物体11)を合成した複合現実の風景を知覚する。因みに、図1の例では、仮想物体11が現実物体12よりも手前側に位置している。
図2は、メガネ型の端末1のハードウェア構成の一例を示す図である。
図2に示す端末1は、プログラム(基本ソフトウェアを含む)の実行を通じて装置全体を制御するCPU(Central Processing Unit)21と、BIOS(Basic Input Output System)や基本ソフトウェア等のプログラムを記憶するROM22と、プログラムの実行領域として使用されるRAM(Random Access Memory)23と、を有している。
ROM22は、例えば電気的にデータの書き換えが可能な不揮発性の半導体メモリで構成される。
CPU21、ROM22、RAM23は、コンピュータ20として機能する。
左目用の表示部3Lには、左目用の画像が表示され、右目用の表示部3Rには、右目用の画像が表示される。左目用の画像と右目用の画像には視差が再現されている。このため、端末1を装着したユーザは、仮想物体11を立体視できる。
慣性計測センサ25は、頭の位置や向きの計測に用いられ、視線の追跡などに使用される。
深度センサ26は、赤外線や超音波を使用して現実空間に存在する物体までの距離を計測する。
図3は、メガネ型の端末1の機能構成の一例を示す図である。
図3に示す機能構成は、CPU21によるプログラムの実行を通じて実現される。
図3に示す機能構成は、プログラムの実行を通じて実現される各種の機能のうち、現実の物体の背後に仮想の物体が配置される複合現実空間をユーザに知覚させる機能について表している。
現実空間情報41として保存される情報の種類は、メガネ型の端末1を使用する場面や用途によって異なる。
ただし、情報の種類が増えることで、複合現実空間における体験を、現実空間の体験に近づけることができる。
本実施の形態の場合、現実空間情報41には、実時間で追加される現実物体12に関する情報に加え、事前に与えられた又は事前に取得された現実物体12に関する情報も含まれる。
撮像された画像から推定される情報には、色情報のように撮像された画像から直接的に取得可能な情報もあれば、後述する手法などを用いて推定される情報もある。
本実施の形態の場合、RAM23の不揮発性領域には、現実物体12の透過性を有する部分の全てに適用される情報(透過情報を計算するための式や透過情報の代表値を含む)も記憶される。なお、RAM23の不揮発性領域には、透過性を有する部分別の情報が記憶されていてもよい。
本実施の形態における現実空間情報取得部31は、RAM23から、画像認識によって特定された個々の現実物体12に関する情報を取得する。
本実施の形態における現実空間情報取得部31には、現実物体12の透過性を有する部分を撮像した画像と同様の見え方を実現するフィルタを取得する機能が設けられていてもよい。ここでのフィルタは、透過情報の一例である。
ここで、個別の物体の情報には、例えば形状、色調、材質、透過情報、現実空間内での位置を特定する情報が含まれる。物体の認識には、既存の技術を使用する。例えばエッジや色領域を特徴量として検出する手法が用いられる。物体の認識には、人工知能を用いてもよい。
撮像に関する情報には、現実の空間内におけるカメラ24L及び24Rの位置の情報、現実の空間内におけるカメラ24L及び24Rの移動の方向、現実の空間内におけるカメラ24L及び24Rが撮像する向きの情報等が含まれる。なお、カメラ24L及び24Rによって撮像された画像には、撮像の日時に関する情報なども付属する。
透過率等の情報は、画像の処理を通じて推定される場合もあれば、事前に与えられる場合もある。透過性を推定する手法には、複数の時点に撮像された複数の画像の比較による方法、人工知能によって特定された物体に対応する透過情報をデータベースから取得する方法等がある。データベースは、例えばクラウドネットワーク上の不図示のサーバに記憶されていてもよい。なお、特定された物体に対応する透過情報がデータベースに存在しない場合、人工知能は、特定された物体に対応する透過情報を、データベースに存在する類似する物品の情報に基づいて推定してもよい。
透過情報に含まれる個々の要素の組み合わせにより、物体の質感が変化する。
なお、現実空間情報41は、例えばクラウドネットワーク上の不図示のサーバに記憶されていてもよい。
現実空間情報取得部31は、現実空間から取得された複数の情報を仮想空間上で整合的に統合し、3次元モデルを生成又は更新する。ここでの3次元モデルは、現実空間仮想化情報42としてRAM23に記憶される。
現実空間を仮想化した空間に仮想物体11を配置したものが複合現実空間である。
例えば現実物体12の偏光角は、カメラ24の前方に配置した偏光レンズ(偏光度100%)を90°回転させながら撮像し、その過程で一番暗くなる向きを撮像の対象である現実物体12の偏光角(角度)として推定する。また、一番暗くなる角度から偏光レンズを90°回転させながら撮像し、一番光が届く向きでの光の量を100として一番光が届かない向きでの光の量を表した値を、対象とする現実物体12の偏光度として推定する。
なお、屈折率は、例えば臨界角法による手法で推定すればよい。
ここでの現実物体透過性推定部32は、推定手段の一例である。
推定の結果は、推定の対象に定めた現実物体12に対応づけられた現実空間情報41の一部として保存される。
推定の精度は、現実空間情報41や現実空間仮想化情報42の集積に伴って向上する。
本実施の形態の場合、現実物体透過情報取得部33は、端末1を装着しているユーザの眼球5の位置を基準として仮想物体11の手前側に位置する現実物体12を、透過情報の取得の対象とする。
ここで、仮想物体11が配置される位置(3次元モデル内での位置)、形状、色調、材質などの情報は、仮想物体情報43として記憶されている。
なお、ユーザの眼球5の位置は、実測されるのではなく、端末1との関係で与えられる。
ここで、仮想物体透過領域判定部34は、仮想物体11と現実物体12の位置の関係を、端末1を装着しているユーザの眼球5の位置を基準として判定する。ユーザの眼球5の位置は、実測されるのではなく、端末1との関係で与えられる。
仮想物体11が配置される位置(3次元モデル内での位置)、形状、色調、材質などの情報は、仮想物体情報43として記憶されている。
現実物体12の透過性を有する部分の背後に隠れると判定された仮想物体11の領域には、手前側に位置する現実物体12の透過情報が関連付けられる。
本実施の形態では、仮想物体11に関連付けられた現実物体12の透過情報を仮想物体描画情報44という。仮想物体描画情報44の内容は、端末1を装着しているユーザの移動、現実空間内での物体の移動、仮想物体11を配置する位置によっても変化する。
本実施の形態における仮想物体描画部4は、仮想物体11のうち現実物体12の背後に隠れる領域も描画の対象に含める。すなわち、仮想物体11の全体を描画の対象とする。
このように、透過性を有する現実物体12に隠れる位置の仮想物体11が表示されることで、ユーザは仮想物体11の全体を知覚できる。この結果、従前の技術に比して、複合現実の現実感を高めることができる。
例えば仮想物体描画部4は、現実物体12の透過率、屈折率、色調、偏光度、模様等を適用したフィルタを用意し、用意されたフィルタを仮想物体11の対象とする領域に作用させた後の画像を描画する。ここでのフィルタには、複数の模様が重ね合わされることで知覚される干渉縞やその他の干渉の影響を描画するための情報も含まれる。
すなわち、仮想物体描画部4は、透過性を有する現実物体12の背後に他の現実の物体12が配置される場合の見え方を再現する画像を、現実物体12の透過率、屈折率、色調、模様等に基づいて生成する。
フィルタを用いる場合、仮想物体情報43には変更を加えずに済み、演算量が少なく済む。このため、現実物体12の背後に隠れる領域の変化が速い場合でも、現実物体12の透過情報を仮想物体11の描画に実時間で反映させることができる。
本実施の形態における仮想物体描画部4は、生成手段と描画手段の一例である。
図4は、メガネ型の端末1で仮想物体11を描画する場合に実行される処理動作の一例を説明するフローチャートである。
図4に示す処理動作は、CPU21によるプログラムの実行を通じて実現される。なお、図中では、ステップを記号のSで表している。
まず、CPU21は、現実空間の情報を取得する(ステップ1)。この処理により、CPU21は、端末1を装着しているユーザが導光板2を透して視認している現実物体12を認識する。
次に、CPU21は、認識された現実物体12の透過性を推定する(ステップ2)。本実施の形態の場合、現実物体12のどの部分が透過性を有するかの認識が重要である。
透過性の推定処理は、透過性に関する情報が未知である現実物体12に限らず、以前に推定処理を行った現実物体12を対象に含めてもよい。
以前に推定処理の対象とした現実物体12でも、画像が取得される際の環境の違いにより、透過性に関する新たな情報を取得できる可能性があるからである。
なお、透過性を推定する処理は、仮想物体11を描画する処理とは独立に実行してもよい。
時点T1と時点T2は、互いに異なる時点に対応する。
なお、時点T1の画像は第1の画像の一例であり、時点T2の画像は第2の画像の一例である。
図5の場合、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
時点T1では単独で存在した立方体形状の現実物体12Aが、別の時点T2では平板状の現実物体12Bの背後に隠れるような状態(すなわち背景側に位置する状態は)は、平板状の現実物体12Bの空間内における移動により、又は、端末1を装着するユーザの空間内の移動により生じる。
透過性の推定に際し、CPU21は、時点T2で撮像された現実物体12Bの表面の画像を解析し、表面の画像に現れるエッジ51を抽出する。図5の例では、4本のエッジ51が抽出されている。
なお、CPU21は、現実空間情報41や現実空間仮想化情報42の情報(例えば個々の現実物体12について保存されている位置の情報)を用い、現実物体12Bの背後に位置する物体が現実物体12Aであると認識する。
ここで、整合するとは、4本のエッジ51の配置と、現実物体12Aの表面の画像から抽出されるエッジの情報との間に高い類似性が認められることをいう。
エッジの情報には、物体の外縁を規定するエッジと物体の表面の構造や模様を規定するエッジの両方が含まれる。
ここで、完全な一致を要求しないのは、透過性を有する物体を透して抽出されるエッジには、透過性を有する現実物体12Bの影響(屈折の影響を含む)や外光の影響が含まれるためである。
本実施の形態の場合、平板状の現実物体12Aの全体が透過性を有すると推定される。もっとも、現実物体12Aと重複する領域に限り、透過性を有すると推定し、残りの領域についての透過性の有無は、他の機会に推定してもよい。
図5の場合、CPU21は、透過率や屈折率も推定する。例えばCPU21は、時点T2に撮像された画像を処理対象として、平板状の現実物体12Bと重なっている部分における立方体形状の現実物体12Aの見え方と、平板状の現実物体12Bに隠れていない部分における立方体形状の現実物体12Aの見え方との違いから透過率や屈折率を計算することができる。
例えば透過率は、平板状の現実物体12Bに隠れていない部分における立方体形状の現実物体12Aの輝度に対する平板状の現実物体12Bと重なっている部分における立方体形状の現実物体12Aの輝度の比として計算する。また例えば屈折率は、平板状の現実物体12Bについて推定された反射率を、既知の公式に代入することにより計算可能である。
時点T1と時点T2と時点T3は、互いに異なる時点に対応する。
図6の場合も、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
条件の1つは、現実物体12の表面に現れる内容が、物理的な構造や模様とも表示デバイスに表示される画像とも異なることである。
別の1つの条件は、現実物体12の表面に現れる内容が、鏡像ではないことである。
現実物体12の表面に現れる内容が物理的な構造や模様に起因する場合、カメラ24L及び24R(図2参照)が移動しても内容は不変だからである。また、現実物体12が表示デバイスの場合には、その表示の内容の変化は、現実物体12を撮像しているカメラ24L及び24Rの移動と無関係だからである。
そこで、CPU21は、現実物体12の表面に現れる内容が鏡像でないことを要求する。
本実施の形態の場合、CPU12は、例えば現実物体12の表面に現れる内容が、メガネ型の端末1を装着しているユーザの像を含む場合、現実物体12の表面に現れる内容が鏡像であると判定する。
また、CPU21は、例えば現実物体12の表面に現れる内容が、現在の撮像の方向とは逆向きを撮像した際に撮像された画像の左右を入れ替えた画像と整合する場合、現実物体12の表面に現れる内容が鏡像であると判定する。
例えば、推定の対象である現実物体12の表面に現れる内容(個々の像)と別の現実物体12とがいずれも対称の位置に存在する場合(換言すると、推定の対象である現実物体12の表面に現れる内容と対をなす別の現実物体12とが、共通の外形を有し、かつ、推定の対象である現実物体12の表面を挟んで等距離に位置する場合)も、CPU21は、現実物体12の表面に現れる内容が鏡像であると判定する。
また、CPU21は、既知の光源の位置と現実物体12の表面の傾きとの関係から推定される位置に明部(ハイライト)が存在する場合、推定の対象である現実物体12は反射特性を有すると判定する。すなわち、現実物体12の表面に現れる内容が鏡像であると判定する。
この他、CPU21は、推定の対象である現実物体12の表面の明るさが、距離が近い位置の光源によって直接照らされる場合に比して暗い場合、現実物体12の表面に現れる内容が鏡像であると判定する。
例えばカメラ24L及び24R(すなわちユーザ)が現実物体12に向かって左の方向MLに移動する場合(時点T1から時点T2への移動の場合)、画像62を構成するビル群は、移動の方向と移動の速度に連動して全体的に左に移動される。同時に、画像62の右側には新たなビル群が出現する。
また、カメラ24L及び24R(すなわちユーザ)が現実物体12に向かって右の方向MRに移動する場合(時点T1から時点T3への移動の場合)、画像63を構成するビル群は、移動の方向と移動の速度に連動して全体的に右に移動される。同時に、画像63の左側には新たなビルが出現する。
このとき、CPU21は、現実物体12が、透過性を有すると推定する。
図7に示す画像では、装置1(図1参照)を装着しているユーザが、手6で現実物体12を掴んでいる。光源の位置が既知である場合、CPU21は、現実物体12によって生じる影ができる領域71の輝度と影ができない領域72の輝度との比較に基づいて現実物体12の透過性(透過率を含む)を推定する。
例えば現実物体12の影ができる領域71の輝度が、現実物体12が透過性を有しない(不透過である)場合に領域72の輝度から想定される輝度よりも明るい場合、CPU21は、現実物体12が透過性を有すると推定する。また、領域71の輝度が確定されれば、CPU21は、現実物体12の透過率を計算により推定することができる。
図8では、光源光によって照射される面(表面)の輝度を用いて、現実物体12の透過性を推定する。
例えば影(領域71)が透けて見えるはずの表面側の部位74と、影(領域71)が透けて見えない表面側の部位73との間で輝度の差が存在する場合(領域74の輝度が領域73の輝度よりも低い場合)、CPU21は、現実物体12は透過性を有すると推定する。図8では、輝度を比較する2つの部位を破線で囲んでいる。
また例えば現実物体12の1つの部位77を2つの方向から撮像した場合の輝度の違いから現実物体12の透過性を推定してもよい。現実物体12が透過性を有する場合には、現実物体12の表面と眼球5の視線の方向とが平行に近づくほど(位置75よりも位置76に近いほど)、視線の延長線が現実物体12の内部を通過する厚み(距離)が長くなるため表面の色が濃く撮像されることになる。換言すると、位置76に近いほど現実物体12の背後が見えづらくなる。このように視認する角度によって現実物体12の色調が変化する場合、CPU21は、対象とする現実物体12が透過性を有すると推定する。
なお、前述した複数の推定の手法を組み合わせてもよい。
図4の説明に戻る。
CPU21は、選択された仮想物体11を処理の対象として、現実物体12の背後に隠れる領域があるか否かを判定する(ステップ4)。
ここで、CPU21は、端末1を装着しているユーザの眼球5(図1参照)の位置を基準として、処理対象とする仮想物体11が現実物体12の背後に隠れるか否かを判定する。
背後に隠れるか否かは、端末1を装着しているユーザの眼球5の位置を基準として判定される。ステップ4の場合、眼球5と現実物体12の外縁とを結ぶ仮想の直線を延長した範囲内に仮想物体11が含まれるか否かが判定される。
例えば仮想物体11と端末1との間に現実物体12が存在しない場合、CPU21は、否定結果を得てステップ7に進む。
図9において、端末1を装着しているユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。すなわち、ユーザから見て現実物体12の方が仮想物体11よりも手前側に位置している。
図9で想定する眼球5の位置を基準とする場合、現実物体12の背後に隠れる仮想物体11の領域15は、網掛けで示す範囲になる。
図4の説明に戻る。
ステップ5の場合、CPU21は、眼球5と透過性を有する部分の外縁とを結ぶ仮想の直線を延長した範囲内に含まれる仮想物体11の領域を、現実物体12が透過性を有する部分の背後に隠れる領域として特定する。
本実施の形態の場合、CPU21は、現実物体12が透過性を有する部分の背後に隠れる領域として特定された領域以外を、透過性を有しない(不透過の)部分の背後に隠れる領域として特定する。
因みに、図9の場合において、現実物体12の全体が透過性を有する部分であれば、透過性を有する部分の背後に隠れる領域は網掛けで示す領域15と一致する。
また、1つの現実物体12に透過性を有する部分が複数ある場合、CPU21は、透過性を有する個々の部分について、その背後に隠れる仮想物体11の領域を特定する。
従って、1つの仮想物体11について特定される領域の数は1つに限らない。なお、複数の領域が特定される場合、それらの領域は一致するとは限らない。
すなわち、CPU21は、処理の対象である仮想物体11に対応付けて仮想物体描画情報44を保存する。
この後、CPU21は、全ての仮想物体11が選択済みであるか否かを判定する(ステップ7)。
ステップ7で否定結果が得られた場合、CPU21は、ステップ3に戻る。ステップ3では未選択の仮想物体11の中から1つが処理の対象として選択される。
一方、ステップ7で肯定結果が得られた場合、CPU21は、全ての仮想物体11の全ての部位を、関連付けられている透過情報を用いて描画する(ステップ8)。
以下では、具体例を用いて、本実施の形態における仮想物体11の描画例について説明する。
<描画例1>
図10は、従前の技術による仮想物体11の描画と本実施の形態による仮想物体11の描画の違いを説明する図である。(A)は従前の技術による仮想物体11の描画例であり、(B)は本実施の形態による仮想物体11の描画例である。
図10では、従前の技術による描画例を比較例と記している。
図10の場合も、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
このため、半透明の現実物体12の内側では、仮想物体11が知覚されず、代わりに、透過性のある現実物体12の背後に位置する現実の物体がユーザに知覚される。
このように、透過性を有する現実物体12の内側と外側とで、ユーザに知覚される風景が不自然につながる状態が生じる。
また、従前の技術では、仮想物体11の全体が現実物体12の背後に隠れるように配置されていても、ユーザは、仮想物体11の存在を知りえない。
このように、本実施の形態に係る技術を用いれば、透過性を有する現実物体12の内側と外側とで風景が不自然につながることがなくなり、仮想物体11が実在するかのような体験が可能になる。
すなわち、ユーザが半透明の現実物体12の周囲を移動しても、仮想物体11が継続的に知覚されるようにできる。
このため、仮想物体11を、現実の物体と区別なくユーザに知覚させることが可能になる。
また、従前の技術では気づくことができなかった、現実物体12の背後に全体が隠れている仮想物体11をユーザに気づかせることも可能になる。
図11は、現実物体12の透過率の違いが仮想物体11の描画に与える影響を説明する図である。(A)は現実物体12の透過率が高い場合の仮想物体11の描画例であり、(B)は現実物体12の透過率が低い場合の仮想物体11の描画例である。
図11の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図11の場合、透過率が相対的に高い透過率1の場合((A)の場合)の方が、透過率が相対的に低い透過率2の場合((B)の場合)よりも、仮想物体11の形状をはっきり知覚することが可能である。
このため、ユーザは、仮想物体11が実在するかのような体験を可能に できる。
図12は、現実物体12の色の違いが仮想物体11の描画に与える影響を説明する図である。(A)は現実物体12に薄い青色が付されている場合の仮想物体11の描画例であり、(B)は現実物体12に薄い赤色が付されている場合の仮想物体11の描画例である。
図12の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
作図上の制約のため、図12においては、薄い青色や薄い赤色を表現することはできないが、現実物体12を透して知覚される仮想物体11の見え方を、現実物体12を透して知覚される現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
図13は、現実物体12に付されている模様の違いが仮想物体11の描画に与える影響を説明する図である。(A)は現実物体12の表面に対角線方向に延びる斜線(模様1)が形成されている場合の仮想物体11の描画例であり、(B)は現実物体12の表面に網目状の模様(模様2)が形成されている場合の仮想物体11の描画例である。
図13の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図13に示すように、現実物体12の表面に形成された模様を仮想物体11の描画に反映することで、現実物体12を透して知覚される仮想物体11の見え方を、現実物体12を透して知覚される現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
図14は、現実物体12の屈折率の違いが仮想物体11の描画に与える影響を説明する図である。(A)は現実物体12の屈折率が小さい場合の仮想物体11の描画例であり、(B)は現実物体12の屈折率が大きい場合の仮想物体11の描画例である。
図14の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図14の場合、現実物体12の屈折率の影響により、現実物体12の背後に隠れる位置に描画される仮想物体11の外縁と、現実物体12の外側に描画される仮想物体11の外縁とが非連続になっている。すなわち、現実物体12の外縁を境界として、仮想物体11の外縁を描画する位置にずれが生じている。
また、描画上のずれの量は、屈折率が相対的に小さい屈折率1((A)の場合)では小さく、屈折率が相対的に大きい屈折率2((B)の場合)では大きくなっている。
このため、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
図15は、現実物体12の偏光に関する情報の 違いが仮想物体11の描画に与える影響を説明する図である。(A)は現実物体12の偏光度が小さい場合の仮想物体11の描画例であり、(B)は現実物体12の偏光度が大きい場合の仮想物体11の描画例である。
図15の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
(A)の例では、偏光度が小さい(反射光や雑光を除去する割合が小さい)ため、現実物体12を透過する光成分のうち仮想物体11から到来する光成分の割合が相対的に少ない状態にある。このため、仮想物体11の視認性が低下している。
一方、(B)の例では、偏光度が相対的に大きい(反射光や雑光を除去する割合が大きい)ため、現実物体12を透過する光成分のうち仮想物体11から到来する光成分の割合が相対的に大きい状態にある。このため、仮想物体11の視認性が向上している。
このため、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
なお、偏光に関する情報の違いによる効果には、旋光性の違いによる影響を含めてもよい。旋光性の違いを描画に反映することにより、光学異性体の見え方の違いを表現できる。
図16は、現実物体12の表面の模様と仮想物体11の表面の模様との関係で干渉縞(モアレ)が発生する場合と発生しない場合を説明する図である。(A)は干渉縞が発生しない場合の仮想物体11の描画例であり、(B)は干渉縞が発生する場合の仮想物体11の描画例である。
干渉縞は、規則正しい繰り返し模様を複数重ね合わせた場合に、それらの周期のずれに起因して知覚される模様である。
(A)の例では、現実物体12の表面に横線が一様に形成され、仮想物体11の表面には斜線が一様に形成されている。ここでの横線と斜線とがなす角度は、干渉縞が発生する条件を満たしていない。このため、透過性を有する現実物体12と仮想物体11とが重なる領域には、2つの物体の模様を単純に重ねた模様が描画されている。
(B)の例は、現実物体12の縞模様と仮想物体11の縞模様とが同じ幅を有し、かつ、それらがわずかな角度で交差するように配置される場合に発生する干渉縞を表している。干渉縞は、擬似的な濃淡の模様として発生する。
このため、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
なお、図16においては光の干渉によって知覚される現象の一例として干渉縞を例示しているが、例えばモルフォ蝶の鱗粉やマジョーラ塗装のように干渉縞を伴わない効果を再現してもよい。ここで、モルフォ蝶の鱗粉による効果は、干渉によって青色の波長の光だけを反射させる効果をいい、マジョーラ塗装による効果は、見る角度や光の当たり方によって物体の表面が様々な色に変化する効果をいう。
図17は、現実物体12が複数の場合における仮想物体11の描画例を説明する図である。(A)はユーザによって知覚される複合現実を示し、(B)は仮想物体11の描画処理を説明する図である。
図17の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図17の場合、現実物体12Aは透過性を有しない枠形状の部材であり、現実物体12Bは透過性を有する部材である。現実物体12Aは、例えば窓ガラスの枠体であり、現実物体12Bは、例えば窓ガラスのガラス板である。
すなわち、仮想物体11の全体は、現実物体12A及び12Bの背後に隠れている。
従って、従前の技術であれば、仮想物体11は描画されることはない。結果的に、ユーザは、仮想物体11の存在に気づくことはできない。
このため、仮想物体11のうち領域11Bは描画領域となり、領域11Aは非描画領域となる。
また、端末1を装着するユーザは、領域11Bの背後に他の現実の物体の一部分が知覚されることで、仮想物体11が他の現実の物体の手前側に位置し、他の現実の物体が仮想物体11の背後に位置する関係を理解できる。
以上により、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
本実施の形態では、複合現実の体験に頭部に装着された表示装置を使用する場合について説明する。
図18は、複合現実の体験に、実時間で撮像される外界の画像に仮想物体を合成した画像を表示する表示装置100を装着したユーザが、複合現実を体感する原理を説明する図である。
表示装置100は、カメラ24L及び24Rによって撮像された外界の画像と、仮想物体描画部4が描画した仮想物体11の画像とを画像合成部101で合成した画像を、ユーザの眼球5の前方に配置された表示部3L及び3Rに表示する。
ここでの表示装置100は、情報処理装置の一例であるとともに情報処理システムの
一例でもある。
なお、表示装置100のハードウェア構成は、メガネ型の端末1(図2参照)と同様である。このため、表示装置100のハードウェア構成の説明は省略する。
図19には、図3との対応部分に対応する符号を付して示している。
表示装置100の基本的な機能構成は、メガネ型の端末1(図2参照)と同様である。表示装置100に特有の機能構成は、画像合成部101である。
画像合成部101は、仮想物体描画部4が描画した画像と、カメラ24L及び24Rで撮像されている外界の画像とが整合するように2つの画像を合成する機能を有している。
例えば画像合成部101は、現実空間仮想化情報42として記憶されている3次元モデルとカメラ24L及び24Rで撮像されている外界の画像とを照合して、仮想物体11の画像を合成する領域を決定する。
このように、本実施の形態が複合現実を知覚させる方式は実施の形態1と異なるが、ユーザによって知覚される複合現実の現実感が従前の技術に比して高くなる点は、実施の形態1と同じである。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば前述の実施の形態では、左右両目用の表示部3L及び3Rを用いているが、表示部は1つでも構わない。例えばメガネ型の端末1(図1参照)の場合には、左右どちら一方の前方に表示部を1つ配置してもよい。また例えば表示装置100(図14参照)の場合には、両目の前に表示部を1つ配置してもよい。
また、前述の実施の形態では、仮想物体描画部4をメガネ型の端末1(図1参照)や表示装置100(図14参照)の機能の1つとして実現しているが、外部ネットワーク(例えばクラウドネットワーク)に接続されているサーバなどの情報処理装置において、仮想物体描画部4の機能を実行してもよい。ここでのメガネ型の端末1と仮想物体描画部4の機能を実行する外部ネットワーク上のサーバは、情報処理システムの一例である。
また、前述の実施の形態では、仮想物体描画部4の機能を汎用的な演算装置であるCPU21を用いて実現しているが、実時間での画像処理に特化した演算装置であるGPU(Graphics Processing Unit)を用いて実現してもよい。
Claims (7)
- 現実の物体を撮像した画像から当該現実の物体の透過性の情報を推定する推定手段と、
透過性を有すると推定された前記現実の物体の背後に仮想の物体の少なくとも一部が隠れる場合に、当該現実の物体の背後に隠れる領域の現実の空間での見え方を再現する画像を、推定された透過性の情報に基づいて生成する生成手段と、
生成された前記画像を含めて前記仮想の物体を描画する描画手段と
を有する情報処理システム。 - 前記推定手段は、推定の対象に定めた前記現実の物体を異なる時点に撮像した複数の画像に基づいて、当該現実の物体の透過性を推定する、請求項1に記載の情報処理システム。
- 前記推定手段は、2つの前記現実の物体の少なくとも一部が重なる状態で撮像された第1の画像から、手前側に位置する当該現実の物体の表面に現れる第1のエッジの情報を抽出し、抽出された当該第1のエッジの情報が、当該第1の画像で背景側に位置していた当該現実の物体が単独で撮像されている第2の画像に現れる第2のエッジの情報と整合する場合、手前側に位置する当該現実の物体は透過性を有すると推定する、請求項2に記載の情報処理システム。
- 前記推定手段は、推定の対象に定めた前記現実の物体の表面に現れる内容が鏡像ではなく、かつ、当該現実の物体の表面を撮像する撮像手段の移動に連動して当該現実の物体の表面に現れる内容が連続的に変化する場合、当該現実の物体は透過性を有すると推定する、請求項2に記載の情報処理システム。
- 前記推定手段は、推定の対象に定めた前記現実の物体によって生じる影を利用して、当該現実の物体の透過性を推定する、請求項1に記載の情報処理システム。
- 現実の物体を撮像した画像から現実の物体の透過性の情報を推定する推定手段と、
透過性を有すると推定された前記現実の物体の背後に仮想の物体の少なくとも一部が隠れる場合に、当該現実の物体の背後に隠れる部分に当該仮想の物体を描画する描画手段
を有する情報処理システム。 - コンピュータを、
現実の物体を撮像した画像から現実の物体の透過性の情報を推定する推定手段と、
透過性を有すると推定された前記現実の物体の背後に仮想の物体の少なくとも一部が隠れる場合に、当該現実の物体の背後に隠れる領域の現実の空間での見え方を再現する画像を、推定された透過性の情報に基づいて生成する生成手段と、
生成された前記画像を含めて前記仮想の物体を描画する描画手段
として機能させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070416A JP2019179540A (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
JP2022142065A JP7439197B2 (ja) | 2018-03-30 | 2022-09-07 | 情報処理システム及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070416A JP2019179540A (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022142065A Division JP7439197B2 (ja) | 2018-03-30 | 2022-09-07 | 情報処理システム及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019179540A true JP2019179540A (ja) | 2019-10-17 |
Family
ID=68278884
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018070416A Pending JP2019179540A (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
JP2022142065A Active JP7439197B2 (ja) | 2018-03-30 | 2022-09-07 | 情報処理システム及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022142065A Active JP7439197B2 (ja) | 2018-03-30 | 2022-09-07 | 情報処理システム及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2019179540A (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004201085A (ja) * | 2002-12-19 | 2004-07-15 | Hitachi Ltd | 視覚情報処理装置および適用システム |
JP2009134681A (ja) * | 2007-11-07 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP2015219166A (ja) * | 2014-05-20 | 2015-12-07 | 国立大学法人信州大学 | 物体の存在位置の推定方法 |
JP2018070415A (ja) * | 2016-10-31 | 2018-05-10 | 三菱ケミカル株式会社 | GaNウエハの製造方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108780228B (zh) | 2016-01-19 | 2021-04-20 | 奇跃公司 | 利用映像的增强现实系统和方法 |
-
2018
- 2018-03-30 JP JP2018070416A patent/JP2019179540A/ja active Pending
-
2022
- 2022-09-07 JP JP2022142065A patent/JP7439197B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004201085A (ja) * | 2002-12-19 | 2004-07-15 | Hitachi Ltd | 視覚情報処理装置および適用システム |
JP2009134681A (ja) * | 2007-11-07 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP2015219166A (ja) * | 2014-05-20 | 2015-12-07 | 国立大学法人信州大学 | 物体の存在位置の推定方法 |
JP2018070415A (ja) * | 2016-10-31 | 2018-05-10 | 三菱ケミカル株式会社 | GaNウエハの製造方法 |
Non-Patent Citations (2)
Title |
---|
SCOPE WINDOWFILM: "ガラスフィルム 虹彩現象 by Scope", YOUTUBE[VIDEO][ONLINE], JPN7022002532, 9 September 2013 (2013-09-09), ISSN: 0004791806 * |
THANDA OO ET AL.: "Separation of Reflection and Transparency Based on Spatiotemporal Analysis forOutdoor Scene", [ONLINE], JPN6021047682, 2006, pages 428 - 440, ISSN: 0004791805 * |
Also Published As
Publication number | Publication date |
---|---|
JP2022173253A (ja) | 2022-11-18 |
JP7439197B2 (ja) | 2024-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108369457B (zh) | 用于混合现实的现实混合器 | |
US10083540B2 (en) | Virtual light in augmented reality | |
US10204452B2 (en) | Apparatus and method for providing augmented reality-based realistic experience | |
KR102257255B1 (ko) | 혼합 현실 스포트라이트 | |
US9123272B1 (en) | Realistic image lighting and shading | |
JP7329612B2 (ja) | オブジェクトカテゴリモデリングのための生成潜在テクスチャプロキシ | |
WO2017172495A1 (en) | Virtual cues for augmented-reality pose alignment | |
WO2015098807A1 (ja) | 被写体と3次元仮想空間をリアルタイムに合成する撮影システム | |
US11574389B2 (en) | Reprojection and wobulation at head-mounted display device | |
US11720996B2 (en) | Camera-based transparent display | |
US9449427B1 (en) | Intensity modeling for rendering realistic images | |
CN108885802A (zh) | 信息处理装置、信息处理方法和程序 | |
JP7088721B2 (ja) | 情報処理システム及びプログラム | |
JP7439197B2 (ja) | 情報処理システム及びプログラム | |
JP7188900B2 (ja) | 情報処理システム及びプログラム | |
JP7188902B2 (ja) | 情報処理システム及びプログラム | |
US20200267379A1 (en) | Quad view display system | |
JPH0628452A (ja) | 3次元画像処理装置 | |
JP2019179541A (ja) | 情報処理システム及びプログラム | |
JP7188901B2 (ja) | 情報処理システム及びプログラム | |
CN107635119B (zh) | 投射方法和设备 | |
JP2019185072A (ja) | 情報処理システム及びプログラム | |
JP2019185071A (ja) | 情報処理システム及びプログラム | |
JP6562371B1 (ja) | 表示装置、表示処理装置、および表示処理プログラム | |
CN105426376A (zh) | 一种信息处理方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220607 |