JP2019179541A - 情報処理システム及びプログラム - Google Patents
情報処理システム及びプログラム Download PDFInfo
- Publication number
- JP2019179541A JP2019179541A JP2018070417A JP2018070417A JP2019179541A JP 2019179541 A JP2019179541 A JP 2019179541A JP 2018070417 A JP2018070417 A JP 2018070417A JP 2018070417 A JP2018070417 A JP 2018070417A JP 2019179541 A JP2019179541 A JP 2019179541A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual object
- real object
- real
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 27
- 238000002310 reflectometry Methods 0.000 claims abstract description 49
- 230000010287 polarization Effects 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 13
- 210000005252 bulbus oculi Anatomy 0.000 description 32
- 238000000034 method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 15
- 230000004907 flux Effects 0.000 description 12
- 210000001508 eye Anatomy 0.000 description 11
- 238000007796 conventional method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 239000000463 material Substances 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 208000030984 MIRAGE syndrome Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- TVLSRXXIMLFWEO-UHFFFAOYSA-N prochloraz Chemical compound C1=CN=CN1C(=O)N(CCC)CCOC1=C(Cl)C=C(Cl)C=C1Cl TVLSRXXIMLFWEO-UHFFFAOYSA-N 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
例えば特許文献1には、仮想の物体の背後に現実の物体が位置する場合に(ユーザからは現実の物体が見えない場合に)、ユーザに近づいてきている現実の物体の存在を事前に知らせる技術が記載されている。具体的には、現実の物体とユーザとの距離とが予め定めた距離以内になると、手前側に位置する仮想の物体の表示を半透明又は輪郭線の表示に制御して背後に位置する現実の物体の視認を可能にする技術が記載されている。
請求項2に記載の発明は、前記反射情報は反射率であり、前記描画手段は、前記現実の物体の反射率の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システムである。
請求項3に記載の発明は、前記反射情報は正反射率であり、前記描画手段は、前記現実の物体の正反射率の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システムである。
請求項4に記載の発明は、前記反射情報は色調であり、前記描画手段は、前記現実の物体の色調の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システムである。
請求項5に記載の発明は、前記反射情報は模様であり、前記描画手段は、前記現実の物体の模様の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システムである。
請求項6に記載の発明は、前記反射情報は形状であり、前記描画手段は、前記現実の物体の形状の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システムである。
請求項7に記載の発明は、前記反射情報は反射光の偏光に関する情報であり、前記描画手段は、前記現実の物体における反射光の偏光の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システムである。
請求項8に記載の発明は、前記描画手段は、前記現実の物体、前記ユーザ、及び前記仮想の物体の位置関係により当該現実の物体で全反射が発生する場合に、当該全反射の影響を付加して当該仮想の物体の像を描画する、請求項1に記載の情報処理システムである。
請求項9に記載の発明は、反射性を有する現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、当該現実の物体に対して当該仮想の物体の像を描画する描画手段を有する情報処理システムである。
請求項10に記載の発明は、コンピュータを、反射性を有する現実の物体の反射情報を取得する取得手段と、前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、前記反射情報に基づいて当該仮想の物体の像を生成する生成手段と、前記現実の物体に対して前記仮想の物体の像を描画する描画手段として機能させるプログラムである。
請求項2記載の発明によれば、現実の物体の反射率に応じて仮想の物体の像の見え方を変化させることができる。
請求項3記載の発明によれば、現実の物体の正反射率に応じて仮想の物体の像の見え方を変化させることができる。
請求項4記載の発明によれば、現実の物体の色調に応じて仮想の物体の像の見え方を変化させることができる。
請求項5記載の発明によれば、現実の物体の模様に応じて仮想の物体の像の見え方を変化させることができる。
請求項6記載の発明によれば、現実の物体の形状に応じて仮想の物体の像の見え方を変化させることができる。
請求項7記載の発明によれば、現実の物体における反射光の偏光に関する情報の違いに応じて仮想の物体の像の見え方を変化させることができる。
請求項8記載の発明によれば、現実の物体で全反射が発生する場合に、全反射の影響を付加した仮想の物体の像を描画することができる。
請求項9記載の発明によれば、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項10記載の発明によれば、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
<実施の形態1>
本実施の形態では、複合現実の体験に、外界を透過的に視認可能なメガネ型の端末を使用する場合について説明する。
図1は、外界を透過的に視認可能なメガネ型の端末1を装着したユーザが、複合現実を体感する原理を説明する図である。
図1に示すメガネ型の端末1は、透明度が高い導光板2と、画像を表示する小型の表示部3と、仮想の物体(仮想物体11)を描画する仮想物体描画部4とを有している。
ここでのメガネ型の端末1は、情報処理装置の一例であるとともに情報処理システムの一例でもある。また、仮想物体描画部4は、生成手段、描画手段の一例である。
可視光透過型回折格子は、導光板2の前方から入射する外光B1を直線的に透過してユーザの眼球5に導くように作用する。一方で、可視光透過型回折格子は、表示部3から導光板2に入射した表示光B2を屈折させて導光板2の内部を伝搬させ、その後、眼球5の方向に表示光B2を屈折させるように作用する。
外光B1と表示光B2は、眼球5内で合成される。この結果、端末1を装着したユーザは、現実の物体(現実物体12)に仮想の物体(仮想物体11)を合成した複合現実の風景を知覚する。因みに、図1の例では、仮想物体11が現実物体12よりも手前側に位置している。
図2は、メガネ型の端末1のハードウェア構成の一例を示す図である。
図2に示す端末1は、プログラム(基本ソフトウェアを含む)の実行を通じて装置全体を制御するCPU(Central Processing Unit)21と、BIOS(Basic Input Output System)や基本ソフトウェア等のプログラムを記憶するROM22と、プログラムの実行領域として使用されるRAM(Random Access Memory)23と、を有している。
ROM22は、例えば電気的にデータの書き換えが可能な不揮発性の半導体メモリで構成される。
CPU21、ROM22、RAM23は、コンピュータ20として機能する。
左目用の表示部3Lには、左目用の画像が表示され、右目用の表示部3Rには、右目用の画像が表示される。左目用の画像と右目用の画像には視差が再現されている。このため、端末1を装着したユーザは、仮想物体11を立体視できる。
慣性計測センサ25は、頭の位置や向きの計測に用いられ、視線の追跡などに使用される。
深度センサ26は、赤外線や超音波を使用して現実空間に存在する物体までの距離を計測する。
図3は、メガネ型の端末1の機能構成の一例を示す図である。
図3に示す機能構成は、CPU21によるプログラムの実行を通じて実現される。
図3に示す機能構成は、プログラムの実行を通じて実現される各種の機能のうち、現実の物体とユーザとの位置関係により現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合の複合現実空間をユーザに知覚させる機能について表している。
現実空間情報41として保存される情報の種類は、メガネ型の端末1を使用する場面や用途によって異なる。
ただし、情報の種類が増えることで、複合現実空間における体験を、現実空間の体験に近づけることができる。
本実施の形態の場合、現実空間情報41には、実時間で追加される現実物体12に関する情報に加え、事前に与えられた又は事前に取得された現実物体12に関する情報も含まれる。
撮像された画像から推定される情報には、色情報のように撮像された画像から直接的に取得可能な情報もあれば、後述する手法などを用いて推定される情報もある。
RAM23の不揮発性領域には、例えば現実物体12の反射性を有する部分の全てに適用される情報(反射情報の代表値や反射情報を計算により求めるための式を含む)が記憶される。なお、RAM23の不揮発性領域には、反射性を有する部分別の情報が記憶されていてもよい。
そして、本実施の形態における現実空間情報取得部31は、RAM23から、画像認識によって特定された個々の現実物体12に関する情報を取得する。
さらに、本実施の形態に係る現実空間情報取得部31には、これらのフィルタを取得する機能が設けられていてもよい。フィルタは、例えば、ある現実物体12に他の現実物体12の像が映り込んでいる場合に、その像が映り込んだ部分を撮像することによって取得される。ここでのフィルタは、反射情報の一例である。
そして、現実物体12とユーザ(眼球5)との位置関係により現実物体12に反射の像が映り込む範囲内に仮想物体11がある場合には、その現実物体12のフィルタを反映した仮想物体11の像を描画することにより、現実の物体が像として映り込むのと同様に描画される。
ここで、個別の物体の情報には、例えば形状、色調、材質、模様、現実空間内での位置を特定する情報、反射性に関する各種の情報を与える反射情報が含まれる。物体の認識には、既存の技術を使用する。例えばエッジや色領域を特徴量として検出する手法が用いられる。物体の認識には、人工知能を用いてもよい。
撮像に関する情報には、現実の空間内におけるカメラ24L及び24Rの位置の情報、現実の空間内におけるカメラ24L及び24Rの移動の方向、現実の空間内におけるカメラ24L及び24Rが撮像する向きの情報等が含まれる。なお、カメラ24L及び24Rによって撮像された画像には、撮像の日時に関する情報なども付属する。
ここで、反射には、一般に、正反射と拡散反射が存在する。正反射とは、拡散がない反射であり、入射光が一定の方向に反射するものである。拡散反射とは、肉眼で見えるような正反射がない反射であり、入射光が様々な方向に反射するものである。例えば鏡の場合、極めて平滑な鏡面の全ての位置で正反射が起こることで、元の物体の像を正確に見ることができる。一方、例えば紙や布のような表面がざらざらした物体では拡散反射が起こり、入射した光が表面の微細な凹凸により様々な方向に反射するため、像が崩れてしまい、元の物体の形がわからない状態になる。
付言すると、反射性を有する現実物体12とは、例えば、反射率(及び、正反射率、拡散反射率、光沢度など)が予め定められた閾値を超える現実物体12である。
反射情報に含まれる個々の要素の組み合わせにより、物体の質感が変化する。
なお、現実空間情報41は、例えばクラウドネットワーク上の不図示のサーバに記憶されていてもよい。
現実空間情報取得部31は、現実空間から取得された複数の情報を仮想空間上で整合的に統合し、3次元モデルを生成又は更新する。ここでの3次元モデルは、現実空間仮想化情報42としてRAM23に記憶される。
現実空間を仮想化した空間(3次元モデル)に仮想物体11を配置したものが複合現実空間である。
本実施の形態の場合、現実物体反射情報取得部32は、反射性を有する現実物体12を、反射情報の取得の対象とする。
ここでの現実物体反射情報取得部32は、取得手段の一例である。
そして、現実物体12において仮想物体11の像が映り込むと判定された反射領域には、仮想物体描画部4によって、現実物体12の反射情報を反映した仮想物体11の情報が関連付けられる。ここでの仮想物体11の情報は、仮想物体11の像として描画される仮想物体11の情報である。即ち、仮想物体11のうち、現実物体12に映り込む部分の形状、色調、材質などの情報である。
本実施の形態では、現実物体12の反射情報を反映した仮想物体11の情報を仮想物体像情報44という。仮想物体像情報44の内容は、端末1を装着しているユーザの移動、現実空間内での物体の移動、仮想物体11を配置する位置によっても変化する。
本実施の形態における仮想物体描画部4は、仮想物体11の像が映り込む領域である現実物体12の反射領域も、描画の対象に含める。すなわち、仮想物体11に加えて、仮想物体11の像を描画の対象とする。
このように、反射性を有する現実物体12に仮想物体11の像が表示されることで、ユーザは、仮想物体11が現実物体12に映り込んでいることを知覚できる。この結果、従前の技術に比して、複合現実の現実感を高めることができる。
更に、本実施の形態における仮想物体描画部4は、反射性を有する現実物体12に映る仮想物体11の像の見え方をより現実に近づけるため、現実物体12の反射率、正反射率、色調、模様、形状等を仮想物体11の像の描画に反映させる。
図4は、メガネ型の端末1で仮想物体11の像を描画する場合に実行される処理動作の一例を説明するフローチャートである。
図4に示す処理動作は、CPU21によるプログラムの実行を通じて実現される。なお、図中では、ステップを記号のSで表している。
次に、CPU21は、認識された現実物体12の反射情報を取得する(ステップ2)。本実施の形態の場合、CPU21は、認識された現実物体12のうち、反射性を有する現実物体12の反射情報を取得する。
CPU21は、選択された仮想物体11を処理の対象として、仮想物体11の像が映り込む現実物体12の反射領域があるか否かを判定する(ステップ4)。
ここで、CPU21は、端末1を装着しているユーザの眼球5(図1参照)の位置を基準として、反射性を有する現実物体12において、処理対象とする仮想物体11の像が映り込むか否かを判定する。
例えば仮想の直線と現実物体12とが交差しない場合、CPU21は、否定結果を得てステップ6に進む。
(B)に示すように、現実物体12の表面を対称面として、仮想物体11の面対称の位置に、仮想物体11の反射像13ができる。そして、仮想物体11の反射像13と眼球5の位置とを結ぶ仮想の直線と、現実物体12とが交差する範囲が反射領域14であり、図示の太線で示す範囲になる。
また、1つの現実物体12に反射性を有する部分が複数ある場合、CPU21は、反射性を有する個々の部分について、仮想物体11の像が映り込む反射領域を特定する。
従って、1つの仮想物体11について特定される反射領域の数は1つに限らない。なお、複数の反射領域が特定される場合、それらの反射領域は一致するとは限らない。
図4の説明に戻る。
ここで、例えば、図5に示す例では、ユーザの位置から仮想物体11の反射像13が見えるように、仮想物体11の情報が関連付けられる。より具体的には、例えば、仮想物体11のうち、ユーザから直接見える部分とは異なる部分(例えば、ユーザの位置から仮想物体11の表面が直接見えている場合には、仮想物体11の裏面)が見えるように、その部分の形状、色調、材質などの情報が関連付けられる。その際、反射領域に関連付けられる仮想物体11は、ユーザから仮想物体11の反射像13が見えるように表現するために、例えば、遠近法に基づいて、ユーザから直接見える仮想物体11よりも小さくなるように関連付けられる。なお、本実施の形態では、現実物体12の反射情報は既知であるものとする。
ステップ6で否定結果が得られた場合、CPU21は、ステップ3に戻る。ステップ3では未選択の仮想物体11の中から1つが処理の対象として選択される。
一方、ステップ6で肯定結果が得られた場合、CPU21は、全ての反射領域に対して、関連付けられている仮想物体像情報44を用いて仮想物体11の像を描画する(ステップ7)。
以下では、具体例を用いて、本実施の形態における仮想物体11の像の描画例について説明する。
図6は、従前の技術による描画と本実施の形態による描画との違いを説明する図である。(A)は従前の技術による描画例であり、(B)は本実施の形態による描画例である。
図6では、従前の技術による描画例を比較例と記している。
図6において、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
このため、反射性を有する現実物体12では、映るべき仮想物体11の像がユーザに知覚されず、代わりに、現実物体12がそのままユーザに知覚される。
このように、反射性を有する現実物体12で、ユーザに知覚される風景に不自然な状態が生じる。
このように、本実施の形態に係る技術を用いれば、反射性を有する現実物体12で風景に不自然な状態が生じることがなくなり、仮想物体11が実在するかのような体験が可能になる。
このため、仮想物体11を、現実の物体と区別なくユーザに知覚させることが可能になる。
また、従前の技術と比べて、現実物体12に対して像15が描画される位置に存在する仮想物体11を、ユーザに気づかせ易くなる。
図7は、現実物体12の反射率の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12の反射率が高い場合の仮想物体11の像15の描画例であり、(B)は現実物体12の反射率が低い場合の仮想物体11の像15の描画例である。
図7の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
図8は、現実物体12の色の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12に薄い青色が付されている場合の仮想物体11の像15の描画例であり、(B)は現実物体12に薄い赤色が付されている場合の仮想物体11の像15の描画例である。
図8の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
図9は、現実物体12に付されている模様の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12の表面に対角線方向に延びる斜線が形成されている場合の仮想物体11の像15の描画例であり、(B)は現実物体12の表面に網目状の模様が形成されている場合の仮想物体11の像15の描画例である。
図9の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図9に示すように、現実物体12の表面に形成された模様を仮想物体11の像15の描画に反映することで、現実物体12に映り込む仮想物体11の像15の見え方を、現実物体12に映り込む現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
図10は、現実物体12の形状の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は平板形状の現実物体12における仮想物体11の像15の描画例であり、(B)は円筒形状の現実物体12における仮想物体11の像15の描画例である。
図10の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図10に示すように、現実物体12が円筒形状の場合((B)の場合)には、現実物体12が平板形状の場合((A)の場合)と比較して、例えば、仮想物体11が伸びて歪んだように像15を描画する処理が行われる。
このように、現実物体12の形状の影響を付加し、現実物体12の形状に応じて仮想物体11の像15を変化させることで、現実物体12に映り込む仮想物体11の像15の見え方を、現実物体12に映り込む現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
図11は、現実物体12が置かれている角度の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は平板形状の現実物体12が垂直面に対して平行に置かれている場合の仮想物体11の像15の描画例であり、(B)は平板形状の現実物体12が垂直面に対して斜めに置かれている場合の仮想物体11の像15の描画例である。
図11の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図11に示すように、現実物体12が垂直面に対して傾いている場合((B)の場合)には、現実物体12が垂直面に対して平行に置かれている場合((A)の場合)と比較して、例えば、仮想物体11の下側が近く大きくなり、仮想物体11の上側が遠く小さくなるように、像15を描画する処理が行われる。
このように、現実物体12が置かれている角度に応じて仮想物体11の像15を変化させることで、現実物体12に映り込む仮想物体11の像15の見え方を、現実物体12に映り込む現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
図12は、現実物体12における反射光の偏光に関する情報の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12における反射光の偏光の影響を考慮しない場合を示し、(B)は現実物体12における反射光の偏光の影響を考慮する場合を示す。
図12の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
(A)の例では、現実物体12における反射光の偏光の影響を考慮しないため、現実物体12が反射性を有する場合には、現実物体12の表面に仮想物体11の像15を描画する処理が行われる。
現実物体12における反射光が偏光フィルタによってカットされる場合、(B)に示すように、現実物体12の表面に仮想物体11の像15を描画しない処理が行われる。
このように、CPU21は、現実物体12における反射光の偏光の度合、偏光フィルタの偏光特性(偏光度など)によって、仮想物体11の像15を描画する処理や描画しない処理を行う。また、現実物体12における反射光の偏光の度合、偏光フィルタの偏光特性によって、仮想物体11の像15の解像度を低くしたり、色を薄くしたりして、仮想物体11の像15を変化させる。例えば、偏光フィルタの偏光度が大きいほど、偏光フィルタでカットされる光の量が多くなり、仮想物体11の像15は視認されづらくなるように処理される。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
なお、偏光に関する情報の違いによる効果には、旋光性の違いによる影響を含めてもよい。旋光性の違いを描画に反映することにより、光学異性体の見え方の違いを表現できる。
図13は、現実物体12で全反射が発生する場合と発生しない場合を説明する図である。(A)は全反射が発生しない場合の眼球5、現実物体12、仮想物体11の位置関係を示し、(B)は全反射が発生する場合の眼球5、現実物体12、仮想物体11の位置関係を示す。
図5で示したように、現実物体12の表面を対称面とした場合の仮想物体11の反射像13に対して、仮想物体11の反射像13と眼球5とを結ぶ仮想の直線と、現実物体12とが交差する位置(範囲)に、仮想物体11の像が描画される。ここで、全反射が発生するか否かは、光の入射角が臨界角を超えているか否かによって決まる。
一方、(B)の場合、入射角が臨界角を超えているため(臨界角<入射角)、全反射が発生する。全反射では、入射光が現実物体12を透過せずに全て反射するため、反射率が100%となる。CPU21は、全反射の影響を付加し、現実物体12の反射率100%(さらに、必要に応じて、正反射率、拡散反射率、光沢度など)を基に、仮想物体11の像15を現実物体12に描画する。その結果、全反射が発生する場合((B)の場合)の方が、全反射が発生しない場合((A)の場合)よりも、仮想物体11の像15をはっきり知覚することが可能である。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
また、蜃気楼が発生するような条件下でも、全反射は発生し得る。
図14は、現実物体12が複数の場合における仮想物体11の像15の描画例を説明する図である。(A)は現実物体12と仮想物体11との位置関係を示し、(B)はユーザによって知覚される複合現実を示す図である。
図14の場合、現実物体12Aは反射性を有しない枠形状の部材であり、現実物体12Bは反射性を有する部材である。現実物体12Aは、例えば鏡の枠体であり、現実物体12Bは、例えば鏡のガラス板である。
一方で、本実施の形態では、(A)に示すように、反射性を有する現実物体12Bにおいて、仮想物体11の像15が映り込むと判定された反射領域14に、現実物体12Bの反射情報を反映した仮想物体11の情報が関連付けられる。その結果、(B)に示すように、現実物体12Bに対して、仮想物体11の像15が描画される。また、現実物体12Aは反射性を有さないため、仮想物体11の像15は描画されない。
このように仮想物体11の像15が描画されることにより、端末1を装着するユーザは、反射性を有する現実物体12Bの前面に仮想物体11が位置する関係を理解し易くなる。
以上により、ユーザは、仮想物体11が実在するかのような体験が可能になる。
例えば、CPU21が現実空間の情報を取得して認識した現実物体12について、反射性を有するか否かに関わらず、反射情報を取得してもよい。この場合には、認識した各現実物体12の反射領域を判定して、その反射領域に対して、現実物体12の反射情報を反映した仮想物体11の情報が関連付けられる。その結果、反射性を有さない現実物体12についても、その反射領域に仮想物体11の情報が関連付けられる。ただし、反射性を有さない現実物体12に反射領域14が存在したとしても、反射率や正反射率が低いため、そのような反射情報を反映することで、仮想物体11の像15は映り込まず、ユーザに知覚されないようになる。すなわち、反射性を有さない現実物体12では、現実空間の他の物体の像が映り込まないのと同様に、仮想物体11の像15も映り込まないようにすることができる。
本実施の形態では、複合現実の体験に頭部に装着された表示装置を使用する場合について説明する。
図15は、複合現実の体験に、実時間で撮像される外界の画像に仮想物体を合成した画像を表示する表示装置100を装着したユーザが、複合現実を体感する原理を説明する図である。
表示装置100は、カメラ24L及び24Rによって撮像された外界の画像と、仮想物体描画部4が描画した仮想物体11の画像(及び仮想物体11の像の画像)とを画像合成部101で合成した画像を、ユーザの眼球5の前方に配置された表示部3L及び3Rに表示する。
ここでの表示装置100は、情報処理装置の一例であるとともに情報処理システムの一例でもある。
なお、表示装置100のハードウェア構成は、メガネ型の端末1(図2参照)と同様である。このため、表示装置100のハードウェア構成の説明は省略する。
図16には、図3との対応部分に対応する符号を付して示している。
表示装置100の基本的な機能構成は、メガネ型の端末1(図2参照)と同様である。表示装置100に特有の機能構成は、画像合成部101である。
画像合成部101は、仮想物体描画部4が描画した画像と、カメラ24L及び24Rで撮像されている外界の画像とが整合するように2つの画像を合成する機能を有している。
例えば画像合成部101は、現実空間仮想化情報42として記憶されている3次元モデルとカメラ24L及び24Rで撮像されている外界の画像とを照合して、仮想物体11の画像(及び仮想物体11の像の画像)を合成する領域を決定する。
このように、本実施の形態が複合現実を知覚させる方式は実施の形態1と異なるが、ユーザによって知覚される複合現実の現実感が従前の技術に比して高くなる点は、実施の形態1と同じである。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば前述の実施の形態では、左右両目用の表示部3L及び3Rを用いているが、表示部は1つでも構わない。例えばメガネ型の端末1(図1参照)の場合には、左右どちら一方の前方に表示部を1つ配置されてもよい。また例えば表示装置100(図15参照)の場合には、両目の前に表示部を1つ配置してもよい。
また、前述の実施の形態では、仮想物体描画部4をメガネ型の端末1(図1参照)や表示装置100(図15参照)の機能の1つとして実現しているが、外部ネットワーク(例えばクラウドネットワーク)に接続されているサーバなどの情報処理装置において、仮想物体描画部4の機能を実行してもよい。ここでのメガネ型の端末1と仮想物体描画部4の機能を実行する外部ネットワーク上のサーバは、情報処理システムの一例である。
また、前述の実施の形態では、仮想物体描画部4の機能を汎用的な演算装置であるCPU21を用いて実現しているが、実時間での画像処理に特化した演算装置であるGPU(Graphics Processing Unit)を用いて実現してもよい。
Claims (10)
- 反射性を有する現実の物体の反射情報を取得する取得手段と、
前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、前記反射情報に基づいて当該仮想の物体の像を生成する生成手段と、
前記現実の物体に対して前記仮想の物体の像を描画する描画手段と
を有する情報処理システム。 - 前記反射情報は反射率であり、前記描画手段は、前記現実の物体の反射率の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システム。
- 前記反射情報は正反射率であり、前記描画手段は、前記現実の物体の正反射率の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システム。
- 前記反射情報は色調であり、前記描画手段は、前記現実の物体の色調の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システム。
- 前記反射情報は模様であり、前記描画手段は、前記現実の物体の模様の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システム。
- 前記反射情報は形状であり、前記描画手段は、前記現実の物体の形状の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システム。
- 前記反射情報は反射光の偏光に関する情報であり、前記描画手段は、前記現実の物体における反射光の偏光の影響を付加して前記仮想の物体の像を描画する、請求項1に記載の情報処理システム。
- 前記描画手段は、前記現実の物体、前記ユーザ、及び前記仮想の物体の位置関係により当該現実の物体で全反射が発生する場合に、当該全反射の影響を付加して当該仮想の物体の像を描画する、請求項1に記載の情報処理システム。
- 反射性を有する現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、当該現実の物体に対して当該仮想の物体の像を描画する描画手段
を有する情報処理システム。 - コンピュータを、
反射性を有する現実の物体の反射情報を取得する取得手段と、
前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、前記反射情報に基づいて当該仮想の物体の像を生成する生成手段と、
前記現実の物体に対して前記仮想の物体の像を描画する描画手段
として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070417A JP2019179541A (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070417A JP2019179541A (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019179541A true JP2019179541A (ja) | 2019-10-17 |
Family
ID=68278882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018070417A Pending JP2019179541A (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019179541A (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134681A (ja) * | 2007-11-07 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP2013524270A (ja) * | 2010-04-01 | 2013-06-17 | シーリアル テクノロジーズ ソシエテ アノニム | ホログラムシステムにおける透過オブジェクトを含む3次元シーンを符号化する方法及び装置 |
JP2018070418A (ja) * | 2016-10-31 | 2018-05-10 | 日本電気硝子株式会社 | ローラ製造方法 |
-
2018
- 2018-03-30 JP JP2018070417A patent/JP2019179541A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009134681A (ja) * | 2007-11-07 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP2013524270A (ja) * | 2010-04-01 | 2013-06-17 | シーリアル テクノロジーズ ソシエテ アノニム | ホログラムシステムにおける透過オブジェクトを含む3次元シーンを符号化する方法及び装置 |
JP2018070418A (ja) * | 2016-10-31 | 2018-05-10 | 日本電気硝子株式会社 | ローラ製造方法 |
Non-Patent Citations (9)
Title |
---|
"adokoの物理", [ONLINE], JPN7022002544, 2015, ISSN: 0004930954 * |
MOK********さん: "YAHOO!知恵袋(「空気中から水面を覗いて姿が映るのは全反射ですか?」のカテゴリ)", [ONLINE], JPN7022002543, 2009, ISSN: 0004930955 * |
SOHBA103: "旋光計", YOUTUBE[VIDEO][ONLINE], JPN7022005513, 19 March 2012 (2012-03-19), ISSN: 0004930952 * |
YOROKOBU: "NautilusVR: un oceano virtual insertado en un smartphone", [ONLINE], JPN7022002540, 2015, ISSN: 0004930958 * |
ショ糖で旋光の観察: "らくらく科学実験", YOUTUBE[VIDEO][ONLINE], JPN7022005514, 23 February 2019 (2019-02-23), ISSN: 0004930953 * |
初鹿デニック,外2名: "水中で使用可能な有線型 HMD の開発及び基礎的性能の検証", [ONLINE], JPN7022002541, September 2018 (2018-09-01), ISSN: 0004930957 * |
橋本悠希: "スキューバダイビング訓練のためのバーチャル海中体感システムの開発", [ONLINE], JPN7022002542, 2015, ISSN: 0004930956 * |
浦西友樹,外2名: "立体マーカを用いた拡張現実感環境における仮想物体の床平面に対する映り込みの実時間表現", [ONLINE], JPN6021047717, 2012, pages 477 - 486, ISSN: 0004930960 * |
金森由博: "レイトレーシングによるコンピュータグラフィクス入門−光の反射・屈折の計算−", [ONLINE], JPN7022002539, 23 April 2014 (2014-04-23), ISSN: 0004930959 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7304934B2 (ja) | 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法 | |
JP6340017B2 (ja) | 被写体と3次元仮想空間をリアルタイムに合成する撮影システム | |
KR101057617B1 (ko) | 3차원 디스플레이 시스템 | |
JP7329612B2 (ja) | オブジェクトカテゴリモデリングのための生成潜在テクスチャプロキシ | |
US20190251749A1 (en) | Augmented Reality Mirror System | |
KR20170134513A (ko) | 오브젝트를 표시하는 방법 | |
KR20210024984A (ko) | 경면 반사를 제공하는 표면들의 이미지-기반 검출 및 반사 수정 | |
JP2012079291A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
JP2022179473A (ja) | 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成 | |
JP2013168146A (ja) | 実物体のテクスチャ描写を生成する方法、装置、およびシステム | |
KR102107706B1 (ko) | 영상 처리 방법 및 장치 | |
US10264245B2 (en) | Methods and system for generating three-dimensional spatial images | |
US20220277512A1 (en) | Generation apparatus, generation method, system, and storage medium | |
KR101919077B1 (ko) | 증강 현실 표시 방법 및 장치 | |
KR20130070304A (ko) | 무안경식 입체영상 디스플레이 장치 및 그 방법 | |
JP7088721B2 (ja) | 情報処理システム及びプログラム | |
CN108885802A (zh) | 信息处理装置、信息处理方法和程序 | |
JP2019179541A (ja) | 情報処理システム及びプログラム | |
JP7439197B2 (ja) | 情報処理システム及びプログラム | |
JP6608208B2 (ja) | 画像表示装置 | |
JP7188902B2 (ja) | 情報処理システム及びプログラム | |
JP7188900B2 (ja) | 情報処理システム及びプログラム | |
JPWO2017191703A1 (ja) | 画像処理装置 | |
JP6996450B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
EP3973510A1 (en) | Blended mode three dimensional display systems and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230530 |