JP2019179542A - 情報処理システム及びプログラム - Google Patents
情報処理システム及びプログラム Download PDFInfo
- Publication number
- JP2019179542A JP2019179542A JP2018070418A JP2018070418A JP2019179542A JP 2019179542 A JP2019179542 A JP 2019179542A JP 2018070418 A JP2018070418 A JP 2018070418A JP 2018070418 A JP2018070418 A JP 2018070418A JP 2019179542 A JP2019179542 A JP 2019179542A
- Authority
- JP
- Japan
- Prior art keywords
- real object
- image
- real
- reflectivity
- virtual object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
Description
例えば特許文献1には、仮想の物体の背後に現実の物体が位置する場合に(ユーザからは現実の物体が見えない場合に)、ユーザに近づいてきている現実の物体の存在を事前に知らせる技術が記載されている。具体的には、現実の物体とユーザとの距離とが予め定めた距離以内になると、手前側に位置する仮想の物体の表示を半透明又は輪郭線の表示に制御して背後に位置する現実の物体の視認を可能にする技術が記載されている。
請求項2に記載の発明は、前記推定手段は、推定の対象に定めた前記現実の物体を撮像した画像と、当該現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に存在する他の現実の物体を撮像した画像とに基づいて、推定の対象に定めた当該現実の物体の反射性を推定する、請求項1に記載の情報処理システムである。
請求項3に記載の発明は、前記推定手段は、推定の対象に定めた前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に存在する他の現実の物体を特定し、推定の対象に定めた当該現実の物体の表面を撮像した画像から得られる形状が、当該他の現実の物体を撮像した画像から得られる形状と整合する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定する、請求項2に記載の情報処理システムである。
請求項4に記載の発明は、前記推定手段は、推定の対象に定めた前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に存在する他の現実の物体を特定し、推定の対象に定めた当該現実の物体の表面を一の方向から撮像した画像が、当該一の方向とは逆向きから当該他の現実の物体を撮像した画像と整合する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定する、請求項2に記載の情報処理システムである。
請求項5に記載の発明は、前記推定手段は、推定の対象に定めた前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に存在する他の現実の物体を特定し、推定の対象に定めた当該現実の物体の表面に現れる内容と当該他の現実の物体とが、共通の外形を有し、かつ、推定の対象に定めた当該現実の物体の表面を挟んで等距離に位置する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定する、請求項2に記載の情報処理システムである。
請求項6に記載の発明は、前記推定手段は、光源の位置と推定の対象に定めた前記現実の物体の表面の傾きとの関係から特定される位置に明部が存在する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定する、請求項1に記載の情報処理システムである。
請求項7に記載の発明は、前記推定手段は、推定の対象に定めた前記現実の物体の表面の明るさが光源によって直接照らされる場合に比べて暗い場合、推定の対象に定めた当該現実の物体は反射性を有すると推定する、請求項1に記載の情報処理システムである。
請求項8に記載の発明は、前記推定手段は、推定の対象に定めた前記現実の物体の表面を撮像する撮像手段の移動に連動して当該現実の物体の表面に現れる内容が連続的に変化するか否かによって、当該現実の物体の反射性の情報を推定する、請求項1に記載の情報処理システムである。
請求項9に記載の発明は、現実の物体を撮像した画像から当該現実の物体の反射性の情報を推定する推定手段と、反射性を有すると推定された前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、当該現実の物体に対して当該仮想の物体の像を描画する描画手段とを有する情報処理システムである。
請求項10に記載の発明は、コンピュータを、現実の物体を撮像した画像から当該現実の物体の反射性の情報を推定する推定手段と、反射性を有すると推定された前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、推定された反射性の情報に基づいて当該仮想の物体の像を生成する生成手段と、前記現実の物体に対して前記仮想の物体の像を描画する描画手段として機能させるプログラムである。
請求項2記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項3記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項4記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項5記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項6記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項7記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項8記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項9記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
請求項10記載の発明によれば、現実の物体の反射性が事前に分からない状況でも、反射性を有する現実の物体に対して仮想の物体の像を描画して仮想の物体が実在するかのような体験を可能にできる。
<実施の形態1>
本実施の形態では、複合現実の体験に、外界を透過的に視認可能なメガネ型の端末を使用する場合について説明する。
図1は、外界を透過的に視認可能なメガネ型の端末1を装着したユーザが、複合現実を体感する原理を説明する図である。
図1に示すメガネ型の端末1は、透明度が高い導光板2と、画像を表示する小型の表示部3と、仮想の物体(仮想物体11)を描画する仮想物体描画部4とを有している。
ここでのメガネ型の端末1は、情報処理装置の一例であるとともに情報処理システムの一例でもある。また、仮想物体描画部4は、生成手段、描画手段の一例である。
可視光透過型回折格子は、導光板2の前方から入射する外光B1を直線的に透過してユーザの眼球5に導くように作用する。一方で、可視光透過型回折格子は、表示部3から導光板2に入射した表示光B2を屈折させて導光板2の内部を伝搬させ、その後、眼球5の方向に表示光B2を屈折させるように作用する。
外光B1と表示光B2は、眼球5内で合成される。この結果、端末1を装着したユーザは、現実の物体(現実物体12)に仮想の物体(仮想物体11)を合成した複合現実の風景を知覚する。因みに、図1の例では、仮想物体11が現実物体12よりも手前側に位置している。
図2は、メガネ型の端末1のハードウェア構成の一例を示す図である。
図2に示す端末1は、プログラム(基本ソフトウェアを含む)の実行を通じて装置全体を制御するCPU(Central Processing Unit)21と、BIOS(Basic Input Output System)や基本ソフトウェア等のプログラムを記憶するROM22と、プログラムの実行領域として使用されるRAM(Random Access Memory)23と、を有している。
ROM22は、例えば電気的にデータの書き換えが可能な不揮発性の半導体メモリで構成される。
CPU21、ROM22、RAM23は、コンピュータ20として機能する。
左目用の表示部3Lには、左目用の画像が表示され、右目用の表示部3Rには、右目用の画像が表示される。左目用の画像と右目用の画像には視差が再現されている。このため、端末1を装着したユーザは、仮想物体11を立体視できる。
慣性計測センサ25は、頭の位置や向きの計測に用いられ、視線の追跡などに使用される。
深度センサ26は、赤外線や超音波を使用して現実空間に存在する物体までの距離を計測する。
図3は、メガネ型の端末1の機能構成の一例を示す図である。
図3に示す機能構成は、CPU21によるプログラムの実行を通じて実現される。
図3に示す機能構成は、プログラムの実行を通じて実現される各種の機能のうち、現実の物体とユーザとの位置関係により現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合の複合現実空間をユーザに知覚させる機能について表している。
現実空間情報41として保存される情報の種類は、メガネ型の端末1を使用する場面や用途によって異なる。
ただし、情報の種類が増えることで、複合現実空間における体験を、現実空間の体験に近づけることができる。
本実施の形態の場合、現実空間情報41には、実時間で追加される現実物体12に関する情報に加え、事前に与えられた又は事前に取得された現実物体12に関する情報も含まれる。
撮像された画像から推定される情報には、色情報のように撮像された画像から直接的に取得可能な情報もあれば、後述する手法などを用いて推定される情報もある。
RAM23の不揮発性領域には、例えば現実物体12の反射性を有する部分の全てに適用される情報(反射情報の代表値や反射情報を計算により求めるための式を含む)が記憶される。なお、RAM23の不揮発性領域には、反射性を有する部分別の情報が記憶されていてもよい。
そして、本実施の形態における現実空間情報取得部31は、RAM23から、画像認識によって特定された個々の現実物体12に関する情報を取得する。
さらに、本実施の形態に係る現実空間情報取得部31には、これらのフィルタを取得する機能が設けられていてもよい。フィルタは、例えば、ある現実物体12に他の現実物体12の像が映り込んでいる場合に、その像が映り込んだ部分を撮像することによって取得される。ここでのフィルタは、反射情報の一例である。
そして、現実物体12とユーザ(眼球5)との位置関係により現実物体12に反射の像が映り込む範囲内に仮想物体11がある場合には、その現実物体12のフィルタを反映した仮想物体11の像を描画することにより、現実の物体が像として映り込むのと同様に描画される。
ここで、個別の物体の情報には、例えば形状、色調、材質、模様、現実空間内での位置を特定する情報、反射性に関する各種の情報を与える反射情報が含まれる。物体の認識には、既存の技術を使用する。例えばエッジや色領域を特徴量として検出する手法が用いられる。物体の認識には、人工知能を用いてもよい。
撮像に関する情報には、現実の空間内におけるカメラ24L及び24Rの位置の情報、現実の空間内におけるカメラ24L及び24Rの移動の方向、現実の空間内におけるカメラ24L及び24Rが撮像する向きの情報等が含まれる。なお、カメラ24L及び24Rによって撮像された画像には、撮像の日時に関する情報なども付属する。
ここで、反射には、一般に、正反射と拡散反射が存在する。正反射とは、拡散がない反射であり、入射光が一定の方向に反射するものである。拡散反射とは、肉眼で見えるような正反射がない反射であり、入射光が様々な方向に反射するものである。例えば鏡の場合、極めて平滑な鏡面の全ての位置で正反射が起こることで、元の物体の像を正確に見ることができる。一方、例えば紙や布のような表面がざらざらした物体では拡散反射が起こり、入射した光が表面の微細な凹凸により様々な方向に反射するため、像が崩れてしまい、元の物体の形がわからない状態になる。
付言すると、反射性を有する現実物体12とは、例えば、反射率(及び、正反射率、拡散反射率、光沢度など)が予め定められた閾値を超える現実物体12である。
反射情報に含まれる個々の要素の組み合わせにより、物体の質感が変化する。
なお、現実空間情報41は、例えばクラウドネットワーク上の不図示のサーバに記憶されていてもよい。
現実空間情報取得部31は、現実空間から取得された複数の情報を仮想空間上で整合的に統合し、3次元モデルを生成又は更新する。ここでの3次元モデルは、現実空間仮想化情報42としてRAM23に記憶される。
現実空間を仮想化した空間(3次元モデル)に仮想物体11を配置したものが複合現実空間である。
ここでの現実物体反射性推定部32は、推定手段の一例である。
推定の結果は、推定の対象に定めた現実物体12に対応づけられた現実空間情報41の一部として保存される。
推定の精度は、現実空間情報41や現実空間仮想化情報42の集積に伴って向上する。
本実施の形態の場合、現実物体反射情報取得部33は、現実物体反射性推定部32によって反射性を有すると推定された現実物体12を、反射情報の取得の対象とする。
そして、現実物体12において仮想物体11の像が映り込むと判定された反射領域には、仮想物体描画部4によって、現実物体12の反射情報を反映した仮想物体11の情報が関連付けられる。ここでの仮想物体11の情報は、仮想物体11の像として描画される仮想物体11の情報である。即ち、仮想物体11のうち、現実物体12に映り込む部分の形状、色調、材質などの情報である。
本実施の形態では、現実物体12の反射情報を反映した仮想物体11の情報を仮想物体像情報44という。仮想物体像情報44の内容は、端末1を装着しているユーザの移動、現実空間内での物体の移動、仮想物体11を配置する位置によっても変化する。
本実施の形態における仮想物体描画部4は、仮想物体11の像が映り込む領域である現実物体12の反射領域も、描画の対象に含める。すなわち、仮想物体11に加えて、仮想物体11の像を描画の対象とする。
このように、反射性を有する現実物体12に仮想物体11の像が表示されることで、ユーザは、仮想物体11が現実物体12に映り込んでいることを知覚できる。この結果、従前の技術に比して、複合現実の現実感を高めることができる。
更に、本実施の形態における仮想物体描画部4は、反射性を有する現実物体12に映る仮想物体11の像の見え方をより現実に近づけるため、現実物体12の反射率、正反射率、色調、模様、形状等を仮想物体11の像の描画に反映させる。
図4は、メガネ型の端末1で仮想物体11の像を描画する場合に実行される処理動作の一例を説明するフローチャートである。
図4に示す処理動作は、CPU21によるプログラムの実行を通じて実現される。なお、図中では、ステップを記号のSで表している。
次に、CPU21は、認識された現実物体12の反射性を推定する(ステップ2)
反射性の推定処理は、反射性に関する情報が未知である現実物体12に限らず、以前に推定処理を行った現実物体12を対象に含めてもよい。
以前に推定処理の対象とした現実物体12でも、画像が取得される際の環境の違いにより、反射性に関する新たな情報を取得できる可能性があるからである。
なお、反射性を推定する処理は、仮想物体11を描画する処理とは独立に実行してもよい。
図5の例では、CPU21は、現実物体12Aを反射性の推定対象として処理を行うものとする。そして、現実物体12Aは鏡であり、現実物体12Bは情報携帯端末である。また、現実物体12Aには、現実物体12Bの像12Cが映り込んでいる。
なお、(A)の場合、端末1を装着するユーザの眼球5は、紙面から手前方向に延びる法線上に位置している。
ここで、CPU21は、現実空間情報41や現実空間仮想化情報42の情報(例えば個々の現実物体12について保存されている位置の情報)を用い、現実物体12Aの位置や現実物体12Aが置かれている角度などを把握して、反射角度を演算する。また、反射角度の演算は、眼球5からの入射光が反射される現実物体12Aの反射面51に対して行われる。さらに、反射角度の演算は、反射面51上の各点において行われる。
(A)に示す例では、現実物体12Aの反射面51上の5点からトレースした場合を示しており、現実物体12Aに投影される位置に存在する物体として、現実物体12Bが特定される。
そして、本実施の形態の場合、現実物体12Aの反射面51全体が反射性を有すると推定される。もっとも、像12Cの画像が存在する領域に限り、反射性を有すると推定し、残りの領域についての反射性の有無は、他の機会に推定してもよい。
例えば、CPU21は、像12Cの画像を処理対象として、この画像の明るさや色の濃さ、ぼやけた度合などを基に、反射面51の反射率や正反射率、光沢度などを計算することができる。例えば、CPU21は、像12Cの画像と現実物体12Bの画像とについて、2つの画像の明るさや色の濃さ、ぼやけた度合などを比較することにより、反射面51の反射率や正反射率、光沢度などを計算する。また、例えば反射率は、反射面51について得られた屈折率を、既知の公式に代入することにより計算可能である。なお、CPU21は、反射率や正反射率、光沢度を個別に出すのではなくて、反射率や正反射率、光沢度をまとめた反射特性の指標を計算してもよい。
さらに、例えば、現実物体12Aにおける反射光の偏光に関する情報を推定する手法としては、例えば、導光板2(図1参照)の前後に偏光フィルタを設けて現実物体12Aを撮像し、画像から得られる受光量(反射光の量)の変化を基に、偏光の強度、方向等を推定する手法が例示される。例えば、偏光フィルタを回転させた角度毎に、カメラ24L及び24R(図2参照)によって現実物体12Aを撮像する。そして、CPU21は、角度毎の画像を比較することにより、現実物体12Aにおける反射光の量の変化を判定して、現実物体12Aにおける反射光の偏光の強度、方向等を推定する。
図6の例では、眼球5の前面に現実物体12A〜12Cが存在する。そして、CPU21は、現実物体12Aを反射性の推定対象として処理を行うものとする。現実物体12Aには、現実物体12Bの像12Dが映り込んでおり、また現実物体12Cの像12Eが映り込んでいる。
なお、現在の撮像の方向は、一の方向の一例である。
図7の例では、CPU21は、現実物体12Fを反射性の推定対象として処理を行うものとする。そして、現実物体12Fは鏡であり、現実物体12Gは壁に固定的に取り付けられているコンセントである。また、現実物体12Fには、現実物体12Gの像12Hが映り込んでいる。さらに、天井には、光源12Iが固定的に取り付けられている。
なお、端末1を装着するユーザの眼球5は、紙面から手前方向に延びる法線上に位置している。
例えば、現実物体12Fが反射性を有する場合、光源12Iからの光が現実物体12Fで反射された反射光と、光源12Iからの直接の光とが合成されて、明部が生じる。図示の例では、領域16Aに明部が生じており、16Bと比較して、輝度が高くなっている。
CPU21は、光源12Iの位置と現実物体12Fの表面の傾きとの関係から、明部が生じると推定される領域(この例では、領域16A)を特定する。そして、CPU21は、明部が生じると推定される領域16Aの輝度と、周囲の領域(例えば、領域16B)の輝度とを比較して、明部が生じると推定される領域16Aの輝度の方が高い場合、現実物体12Fが反射性を有すると推定する。
なお、明部が生じると推定される領域の輝度と周囲の領域の輝度との差の程度を基に、現実物体12Fの反射特性を推定してもよい。例えば、明部が生じると推定される領域の輝度と周囲の領域の輝度との差が大きいほど、現実物体12Fの反射率(及び、正反射率、拡散反射率、光沢度など)は大きいと推定される。
また、光源12Iに関する情報は、撮像された画像から推定される場合もあれば、既知の情報としてRAM23の不揮発性領域に保存されている場合もある。光源12Iの位置を推定する手法には、光線追跡法(レイトレーシング)等がある。
例えば、CPU21は、領域16A及び領域16B等を撮像した画像を解析することにより、現実物体12Fに対して反射の像が映り込む範囲内に存在する物体として、現実物体12Gを抽出する。また、現実物体12Fを撮像した画像を解析することにより、現実物体12Gと共通の外形を有する(即ち、形状に高い類似性が認められる)現実物体12Gの像12Hを抽出する。そして、現実物体12Fの表面を挟んで現実物体12Gと像12Hとが等距離にあると判定されるため、現実物体12が反射性を有すると推定する。
例えば、CPU21は、現実物体12Fに隣接する領域16Cを撮像した画像を解析することにより、領域16Cの輝度を推定する。また、現実物体12Fを撮像した画像を解析することにより、領域16Cに隣接する領域16Dの輝度を推定する。ここで、領域16Cと領域16Dとは隣接しているため、光源12Iに照らされた場合の明るさには大きな差異は生じないはずである。しかし、領域16Dの輝度は、領域16Cの輝度よりも一定程度(例えば、予め定められた輝度差を超える程度)低い。言い換えると、領域16Dの明るさは、光源12Iによって直接照らされる場合に比して暗い。
このように、領域16Cと領域16Dとは隣接しているにもかかわらず、両者の明るさにはつながりがないといえる。これは、領域16Dに、光源12Iから遠く離れた空間の像が映り込んでいるためである。そこで、CPU21は、領域16C及び領域16Dの輝度の差を基に、現実物体12Fの表面の明るさは光源12Iによって直接照らされる場合に比して暗いと判定し、現実物体12が反射性を有すると推定する。
なお、上述した反射性を推定する各種の手法については、何れか1つの手法を用いて推定を行ってもよいし、2つ以上の手法を組み合わせて推定を行ってもよい。
図4の説明に戻る。
CPU21は、選択された仮想物体11を処理の対象として、仮想物体11の像が映り込む現実物体12の反射領域があるか否かを判定する(ステップ5)。
ここで、CPU21は、端末1を装着しているユーザの眼球5(図1参照)の位置を基準として、反射性を有する現実物体12において、処理対象とする仮想物体11の像が映り込むか否かを判定する。
例えば仮想の直線と現実物体12とが交差しない場合、CPU21は、否定結果を得てステップ7に進む。
(B)に示すように、現実物体12の表面を対称面として、仮想物体11の面対称の位置に、仮想物体11の反射像13ができる。そして、仮想物体11の反射像13と眼球5の位置とを結ぶ仮想の直線と、現実物体12とが交差する範囲が反射領域14であり、図示の太線で示す範囲になる。
また、1つの現実物体12に反射性を有する部分が複数ある場合、CPU21は、反射性を有する個々の部分について、仮想物体11の像が映り込む反射領域を特定する。
従って、1つの仮想物体11について特定される反射領域の数は1つに限らない。なお、複数の反射領域が特定される場合、それらの反射領域は一致するとは限らない。
図4の説明に戻る。
ここで、例えば、図8に示す例では、ユーザの位置から仮想物体11の反射像13が見えるように、仮想物体11の情報が関連付けられる。より具体的には、例えば、仮想物体11のうち、ユーザから直接見える部分とは異なる部分(例えば、ユーザの位置から仮想物体11の表面が直接見えている場合には、仮想物体11の裏面)が見えるように、その部分の形状、色調、材質などの情報が関連付けられる。その際、反射領域に関連付けられる仮想物体11は、ユーザから仮想物体11の反射像13が見えるように表現するために、例えば、遠近法に基づいて、ユーザから直接見える仮想物体11よりも小さくなるように関連付けられる。
ステップ7で否定結果が得られた場合、CPU21は、ステップ4に戻る。ステップ4では未選択の仮想物体11の中から1つが処理の対象として選択される。
一方、ステップ7で肯定結果が得られた場合、CPU21は、全ての反射領域に対して、関連付けられている仮想物体像情報44を用いて仮想物体11の像を描画する(ステップ8)。
以下では、具体例を用いて、本実施の形態における仮想物体11の像の描画例について説明する。
図9は、従前の技術による描画と本実施の形態による描画との違いを説明する図である。(A)は従前の技術による描画例であり、(B)は本実施の形態による描画例である。
図9では、従前の技術による描画例を比較例と記している。
図9において、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
このため、反射性を有する現実物体12では、映るべき仮想物体11の像がユーザに知覚されず、代わりに、現実物体12がそのままユーザに知覚される。
このように、反射性を有する現実物体12で、ユーザに知覚される風景に不自然な状態が生じる。
このように、本実施の形態に係る技術を用いれば、反射性を有する現実物体12で風景に不自然な状態が生じることがなくなり、仮想物体11が実在するかのような体験が可能になる。
このため、仮想物体11を、現実の物体と区別なくユーザに知覚させることが可能になる。
また、従前の技術と比べて、現実物体12に対して像15が描画される位置に存在する仮想物体11を、ユーザに気づかせ易くなる。
図10は、現実物体12の反射率の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12の反射率が高い場合の仮想物体11の像15の描画例であり、(B)は現実物体12の反射率が低い場合の仮想物体11の像15の描画例である。
図10の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
図11は、現実物体12の色の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12に薄い青色が付されている場合の仮想物体11の像15の描画例であり、(B)は現実物体12に薄い赤色が付されている場合の仮想物体11の像15の描画例である。
図11の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
図12は、現実物体12に付されている模様の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12の表面に対角線方向に延びる斜線が形成されている場合の仮想物体11の像15の描画例であり、(B)は現実物体12の表面に網目状の模様が形成されている場合の仮想物体11の像15の描画例である。
図12の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図12に示すように、現実物体12の表面に形成された模様を仮想物体11の像15の描画に反映することで、現実物体12に映り込む仮想物体11の像15の見え方を、現実物体12に映り込む現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
図13は、現実物体12の形状の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は平板形状の現実物体12における仮想物体11の像15の描画例であり、(B)は円筒形状の現実物体12における仮想物体11の像15の描画例である。
図13の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図13に示すように、現実物体12が円筒形状の場合((B)の場合)には、現実物体12が平板形状の場合((A)の場合)と比較して、例えば、仮想物体11が伸びて歪んだように像15を描画する処理が行われる。
このように、現実物体12の形状の影響を付加し、現実物体12の形状に応じて仮想物体11の像15を変化させることで、現実物体12に映り込む仮想物体11の像15の見え方を、現実物体12に映り込む現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
図14は、現実物体12が置かれている角度の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は平板形状の現実物体12が垂直面に対して平行に置かれている場合の仮想物体11の像15の描画例であり、(B)は平板形状の現実物体12が垂直面に対して斜めに置かれている場合の仮想物体11の像15の描画例である。
図14の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図14に示すように、現実物体12が垂直面に対して傾いている場合((B)の場合)には、現実物体12が垂直面に対して平行に置かれている場合((A)の場合)と比較して、例えば、仮想物体11の下側が近く大きくなり、仮想物体11の上側が遠く小さくなるように、像15を描画する処理が行われる。
このように、現実物体12が置かれている角度に応じて仮想物体11の像15を変化させることで、現実物体12に映り込む仮想物体11の像15の見え方を、現実物体12に映り込む現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
図15は、現実物体12における反射光の偏光に関する情報の違いが仮想物体11の像15の描画に与える影響を説明する図である。(A)は現実物体12における反射光の偏光の影響を考慮しない場合を示し、(B)は現実物体12における反射光の偏光の影響を考慮する場合を示す。
図15の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
(A)の例では、現実物体12における反射光の偏光の影響を考慮しないため、現実物体12が反射性を有する場合には、現実物体12の表面に仮想物体11の像15を描画する処理が行われる。
現実物体12における反射光が偏光フィルタによってカットされる場合、(B)に示すように、現実物体12の表面に仮想物体11の像15を描画しない処理が行われる。
このように、CPU21は、現実物体12における反射光の偏光の度合、偏光フィルタの偏光特性(偏光度など)によって、仮想物体11の像15を描画する処理や描画しない処理を行う。また、現実物体12における反射光の偏光の度合、偏光フィルタの偏光特性によって、仮想物体11の像15の解像度を低くしたり、色を薄くしたりして、仮想物体11の像15を変化させる。例えば、偏光フィルタの偏光度が大きいほど、偏光フィルタでカットされる光の量が多くなり、仮想物体11の像15は視認されづらくなるように処理される。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
なお、偏光に関する情報の違いによる効果には、旋光性の違いによる影響を含めてもよい。旋光性の違いを描画に反映することにより、光学異性体の見え方の違いを表現できる。
図16は、現実物体12で全反射が発生する場合と発生しない場合を説明する図である。(A)は全反射が発生しない場合の眼球5、現実物体12、仮想物体11の位置関係を示し、(B)は全反射が発生する場合の眼球5、現実物体12、仮想物体11の位置関係を示す。
図5で示したように、現実物体12の表面を対称面とした場合の仮想物体11の反射像13に対して、仮想物体11の反射像13と眼球5とを結ぶ仮想の直線と、現実物体12とが交差する位置(範囲)に、仮想物体11の像が描画される。ここで、全反射が発生するか否かは、光の入射角が臨界角を超えているか否かによって決まる。
一方、(B)の場合、入射角が臨界角を超えているため(臨界角<入射角)、全反射が発生する。全反射では、入射光が現実物体12を透過せずに全て反射するため、反射率が100%となる。CPU21は、全反射の影響を付加し、現実物体12の反射率100%(さらに、必要に応じて、正反射率、拡散反射率、光沢度など)を基に、仮想物体11の像15を現実物体12に描画する。その結果、全反射が発生する場合((B)の場合)の方が、全反射が発生しない場合((A)の場合)よりも、仮想物体11の像15をはっきり知覚することが可能である。
このため、ユーザは、仮想物体11が実在するかのような体験が可能になる。
また、蜃気楼が発生するような条件下でも、全反射は発生し得る。
図17は、現実物体12が複数の場合における仮想物体11の像15の描画例を説明する図である。(A)は現実物体12と仮想物体11との位置関係を示し、(B)はユーザによって知覚される複合現実を示す図である。
図17の場合、現実物体12Aは反射性を有しない枠形状の部材であり、現実物体12Bは反射性を有する部材である。現実物体12Aは、例えば鏡の枠体であり、現実物体12Bは、例えば鏡のガラス板である。
一方で、本実施の形態では、(A)に示すように、反射性を有する現実物体12Bにおいて、仮想物体11の像15が映り込むと判定された反射領域14に、現実物体12Bの反射情報を反映した仮想物体11の情報が関連付けられる。その結果、(B)に示すように、現実物体12Bに対して、仮想物体11の像15が描画される。また、現実物体12Aは反射性を有さないため、仮想物体11の像15は描画されない。
このように仮想物体11の像15が描画されることにより、端末1を装着するユーザは、反射性を有する現実物体12Bの前面に仮想物体11が位置する関係を理解し易くなる。
以上により、ユーザは、仮想物体11が実在するかのような体験が可能になる。
本実施の形態では、複合現実の体験に頭部に装着された表示装置を使用する場合について説明する。
図18は、複合現実の体験に、実時間で撮像される外界の画像に仮想物体を合成した画像を表示する表示装置100を装着したユーザが、複合現実を体感する原理を説明する図である。
表示装置100は、カメラ24L及び24Rによって撮像された外界の画像と、仮想物体描画部4が描画した仮想物体11の画像(及び仮想物体11の像の画像)とを画像合成部101で合成した画像を、ユーザの眼球5の前方に配置された表示部3L及び3Rに表示する。
ここでの表示装置100は、情報処理装置の一例であるとともに情報処理システムの一例でもある。
なお、表示装置100のハードウェア構成は、メガネ型の端末1(図2参照)と同様である。このため、表示装置100のハードウェア構成の説明は省略する。
図19には、図3との対応部分に対応する符号を付して示している。
表示装置100の基本的な機能構成は、メガネ型の端末1(図2参照)と同様である。表示装置100に特有の機能構成は、画像合成部101である。
画像合成部101は、仮想物体描画部4が描画した画像と、カメラ24L及び24Rで撮像されている外界の画像とが整合するように2つの画像を合成する機能を有している。
例えば画像合成部101は、現実空間仮想化情報42として記憶されている3次元モデルとカメラ24L及び24Rで撮像されている外界の画像とを照合して、仮想物体11の画像(及び仮想物体11の像の画像)を合成する領域を決定する。
このように、本実施の形態が複合現実を知覚させる方式は実施の形態1と異なるが、ユーザによって知覚される複合現実の現実感が従前の技術に比して高くなる点は、実施の形態1と同じである。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば前述の実施の形態では、左右両目用の表示部3L及び3Rを用いているが、表示部は1つでも構わない。例えばメガネ型の端末1(図1参照)の場合には、左右どちら一方の前方に表示部を1つ配置されてもよい。また例えば表示装置100(図18参照)の場合には、両目の前に表示部を1つ配置してもよい。
また、前述の実施の形態では、仮想物体描画部4をメガネ型の端末1(図1参照)や表示装置100(図18参照)の機能の1つとして実現しているが、外部ネットワーク(例えばクラウドネットワーク)に接続されているサーバなどの情報処理装置において、仮想物体描画部4の機能を実行してもよい。ここでのメガネ型の端末1と仮想物体描画部4の機能を実行する外部ネットワーク上のサーバは、情報処理システムの一例である。
また、前述の実施の形態では、仮想物体描画部4の機能を汎用的な演算装置であるCPU21を用いて実現しているが、実時間での画像処理に特化した演算装置であるGPU(Graphics Processing Unit)を用いて実現してもよい。
Claims (10)
- 現実の物体を撮像した画像から当該現実の物体の反射性の情報を推定する推定手段と、
反射性を有すると推定された前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、推定された反射性の情報に基づいて当該仮想の物体の像を生成する生成手段と、
前記現実の物体に対して前記仮想の物体の像を描画する描画手段と
を有する情報処理システム。 - 前記推定手段は、推定の対象に定めた前記現実の物体を撮像した画像と、当該現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に存在する他の現実の物体を撮像した画像とに基づいて、推定の対象に定めた当該現実の物体の反射性を推定する、請求項1に記載の情報処理システム。
- 前記推定手段は、推定の対象に定めた前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に存在する他の現実の物体を特定し、推定の対象に定めた当該現実の物体の表面を撮像した画像から得られる形状が、当該他の現実の物体を撮像した画像から得られる形状と整合する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定する、請求項2に記載の情報処理システム。
- 前記推定手段は、推定の対象に定めた前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に存在する他の現実の物体を特定し、推定の対象に定めた当該現実の物体の表面を一の方向から撮像した画像が、当該一の方向とは逆向きから当該他の現実の物体を撮像した画像と整合する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定する、請求項2に記載の情報処理システム。
- 前記推定手段は、推定の対象に定めた前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に存在する他の現実の物体を特定し、推定の対象に定めた当該現実の物体の表面に現れる内容と当該他の現実の物体とが、共通の外形を有し、かつ、推定の対象に定めた当該現実の物体の表面を挟んで等距離に位置する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定する、請求項2に記載の情報処理システム。
- 前記推定手段は、光源の位置と推定の対象に定めた前記現実の物体の表面の傾きとの関係から特定される位置に明部が存在する場合、推定の対象に定めた当該現実の物体は反射性を有すると推定する、請求項1に記載の情報処理システム。
- 前記推定手段は、推定の対象に定めた前記現実の物体の表面の明るさが光源によって直接照らされる場合に比べて暗い場合、推定の対象に定めた当該現実の物体は反射性を有すると推定する、請求項1に記載の情報処理システム。
- 前記推定手段は、推定の対象に定めた前記現実の物体の表面を撮像する撮像手段の移動に連動して当該現実の物体の表面に現れる内容が連続的に変化するか否かによって、当該現実の物体の反射性の情報を推定する、請求項1に記載の情報処理システム。
- 現実の物体を撮像した画像から当該現実の物体の反射性の情報を推定する推定手段と、
反射性を有すると推定された前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、当該現実の物体に対して当該仮想の物体の像を描画する描画手段と
を有する情報処理システム。 - コンピュータを、
現実の物体を撮像した画像から当該現実の物体の反射性の情報を推定する推定手段と、
反射性を有すると推定された前記現実の物体とユーザとの位置関係により当該現実の物体に対して反射の像が映り込む範囲内に仮想の物体がある場合に、推定された反射性の情報に基づいて当該仮想の物体の像を生成する生成手段と、
前記現実の物体に対して前記仮想の物体の像を描画する描画手段
として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070418A JP7088721B2 (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070418A JP7088721B2 (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019179542A true JP2019179542A (ja) | 2019-10-17 |
JP7088721B2 JP7088721B2 (ja) | 2022-06-21 |
Family
ID=68278860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018070418A Active JP7088721B2 (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7088721B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022014836A1 (ko) * | 2020-07-13 | 2022-01-20 | 삼성전자 주식회사 | 가상 객체들의 밝기를 다르게 표시하는 방법 및 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004201085A (ja) * | 2002-12-19 | 2004-07-15 | Hitachi Ltd | 視覚情報処理装置および適用システム |
JP2009134681A (ja) * | 2007-11-07 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
WO2017127571A1 (en) * | 2016-01-19 | 2017-07-27 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
JP2018070417A (ja) * | 2016-10-31 | 2018-05-10 | 旭硝子株式会社 | 遮音板 |
-
2018
- 2018-03-30 JP JP2018070418A patent/JP7088721B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004201085A (ja) * | 2002-12-19 | 2004-07-15 | Hitachi Ltd | 視覚情報処理装置および適用システム |
JP2009134681A (ja) * | 2007-11-07 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
WO2017127571A1 (en) * | 2016-01-19 | 2017-07-27 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
JP2018070417A (ja) * | 2016-10-31 | 2018-05-10 | 旭硝子株式会社 | 遮音板 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022014836A1 (ko) * | 2020-07-13 | 2022-01-20 | 삼성전자 주식회사 | 가상 객체들의 밝기를 다르게 표시하는 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
JP7088721B2 (ja) | 2022-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6340017B2 (ja) | 被写体と3次元仮想空間をリアルタイムに合成する撮影システム | |
US9858722B2 (en) | System and method for immersive and interactive multimedia generation | |
US9778464B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
EP4092515A1 (en) | System and method of enhancing user's immersion in mixed reality mode of display apparatus | |
CN107548502A (zh) | 基于由对象反射的光的特性识别体元中的对象 | |
US9123272B1 (en) | Realistic image lighting and shading | |
CN110377148B (zh) | 计算机可读介质、训练对象检测算法的方法及训练设备 | |
KR20170134513A (ko) | 오브젝트를 표시하는 방법 | |
US10652525B2 (en) | Quad view display system | |
JP2013168146A (ja) | 実物体のテクスチャ描写を生成する方法、装置、およびシステム | |
KR102107706B1 (ko) | 영상 처리 방법 및 장치 | |
US20220277512A1 (en) | Generation apparatus, generation method, system, and storage medium | |
JP7088721B2 (ja) | 情報処理システム及びプログラム | |
CN108885802A (zh) | 信息处理装置、信息处理方法和程序 | |
US20220256137A1 (en) | Position calculation system | |
JP7439197B2 (ja) | 情報処理システム及びプログラム | |
JP2019179541A (ja) | 情報処理システム及びプログラム | |
JP2019185070A (ja) | 情報処理システム及びプログラム | |
US11182973B2 (en) | Augmented reality display | |
JP7188900B2 (ja) | 情報処理システム及びプログラム | |
KR101002071B1 (ko) | 멀티 적외선 카메라 방식의 투영 영상 터치 장치 | |
US20170302904A1 (en) | Input/output device, input/output program, and input/output method | |
JP2019185072A (ja) | 情報処理システム及びプログラム | |
JP2019185071A (ja) | 情報処理システム及びプログラム | |
CN107635119B (zh) | 投射方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220609 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7088721 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |