JP2019179539A - 情報処理システム及びプログラム - Google Patents
情報処理システム及びプログラム Download PDFInfo
- Publication number
- JP2019179539A JP2019179539A JP2018070415A JP2018070415A JP2019179539A JP 2019179539 A JP2019179539 A JP 2019179539A JP 2018070415 A JP2018070415 A JP 2018070415A JP 2018070415 A JP2018070415 A JP 2018070415A JP 2019179539 A JP2019179539 A JP 2019179539A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- real
- real object
- information
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 26
- 230000005540 biological transmission Effects 0.000 claims description 50
- 238000002834 transmittance Methods 0.000 claims description 22
- 230000010287 polarization Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 15
- 210000005252 bulbus oculi Anatomy 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 238000000034 method Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 210000001508 eye Anatomy 0.000 description 10
- 238000007796 conventional method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 241000907681 Morpho Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000005357 flat glass Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- BQJCRHHNABKAKU-KBQPJGBKSA-N morphine Chemical compound O([C@H]1[C@H](C=C[C@H]23)O)C4=C5[C@@]12CCN(C)[C@@H]3CC5=CC=C4O BQJCRHHNABKAKU-KBQPJGBKSA-N 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
例えば特許文献1には、仮想の物体の背後に現実の物体が位置する場合に(ユーザからは現実の物体が見えない場合に)、ユーザに近づいてきている現実の物体の存在を事前に知らせる技術が記載されている。具体的には、現実の物体とユーザとの距離とが予め定めた距離以内になると、手前側に位置する仮想の物体の表示を半透明又は輪郭線の表示に制御して背後に位置する現実の物体の視認を可能にする技術が記載されている。
請求項2に記載の発明は、前記透過情報は透過率であり、前記描画手段は、前記現実の物体の透過率の影響を付加して前記仮想の物体を描画する、請求項1に記載の情報処理システムである。
請求項3に記載の発明は、前記透過情報は色調であり、前記描画手段は、前記現実の物体の色調の影響を付加して前記仮想の物体を描画する、請求項1に記載の情報処理システムである。
請求項4に記載の発明は、前記透過情報は模様であり、前記描画手段は、前記現実の物体の模様の影響を付加して前記仮想の物体を描画する、請求項1に記載の情報処理システムである。
請求項5に記載の発明は、前記描画手段は、干渉による影響を 描画する、請求項1に記載の情報処理システムである。
請求項6に記載の発明は、前記透過情報は屈折率であり、前記描画手段は、前記現実の物体の屈折率の影響を付加して前記仮想の物体を描画する、請求項1に記載の情報処理システムである。
請求項7に記載の発明は、前記透過情報は偏光に関する情報で あり、前記描画手段は、前記現実の物体の偏光の影響を付加して前記仮想の物体を描画する、請求項1に記載の情報処理システムである。
請求項8に記載の発明は、透過性を有する現実の物体の背後に仮想の物体の少なくとも一部が隠れる場合に、当該現実の物体の背後に隠れる部分を含めて当該仮想の物体を描画する描画手段を有する情報処理システムである。
請求項9に記載の発明は、コンピュータを、透過性を有する現実の物体の背後に仮想の物体の少なくとも一部が隠れる場合に、当該現実の物体の透過情報を取得する取得手段と、前記仮想の物体のうち前記現実の物体の背後に隠れる領域の現実の空間での見え方を再現する画像を、前記透過情報に基づいて生成する生成手段と、生成された前記画像を含めて前記仮想の物体を描画する描画手段として機能させるプログラムである。
請求項2記載の発明によれば、現実の物体の透過率に応じて仮想の物体の見え方を変化させることができる。
請求項3記載の発明によれば、現実の物体の色調に応じて仮想の物体の見え方を変化させることができる。
請求項4記載の発明によれば、現実の物体の模様に応じて仮想の物体の見え方を変化させることができる。
請求項5記載の発明によれば、現実の物体の光の干渉 による仮想の物体の見え方を表現できる。
請求項6記載の発明によれば、現実の物体の屈折率に応じて仮想の物体の見え方を変化させることができる。
請求項7記載の発明によれば、現実の物体の偏光に関する情報の違いに応じて仮想の物体の見え方を変化させることができる。
請求項8記載の発明によれば、透過性を有する現実の物体の背後に位置する仮想の物体を描画して仮想の物体が実在するかのような体験 を可能にできる。
請求項9記載の発明によれば、透過性を有する現実の物体の背後に位置する仮想の物体を描画して仮想の物体が実在するかのような体験 を可能にできる。
<実施の形態1>
本実施の形態では、複合現実の体験に、外界を透過的に視認可能なメガネ型の端末を使用する場合について説明する。
図1は、外界を透過的に視認可能なメガネ型の端末1を装着したユーザが、複合現実を体感する原理を説明する図である。
図1に示すメガネ型の端末1は、透明度が高い導光板2と、画像を表示する小型の表示部3と、仮想の物体(仮想物体11)を描画する仮想物体描画部4とを有している。
ここでのメガネ型の端末1は、情報処理装置の一例であるとともに情報処理システムの一例でもある。
可視光透過型回折格子は、導光板2の前方から入射する外光B1を直線的に透過してユーザの眼球5に導くように作用する。一方で、可視光透過型回折格子は、表示部3から導光板2に入射した表示光B2を屈折させて導光板2の内部を伝搬させ、その後、眼球5の方向に表示光B2を屈折させるように作用する。
外光B1と表示光B2は、眼球5内で合成される。この結果、端末1を装着したユーザは、現実の物体(現実物体12)に仮想の物体(仮想物体11)を合成した複合現実の風景を知覚する。因みに、図1の例では、仮想物体11が現実物体12よりも手前側に位置している。
図2は、メガネ型の端末1のハードウェア構成の一例を示す図である。
図2に示す端末1は、プログラム(基本ソフトウェアを含む)の実行を通じて装置全体を制御するCPU(Central Processing Unit)21と、BIOS(Basic Input Output System)や基本ソフトウェア等のプログラムを記憶するROM22と、プログラムの実行領域として使用されるRAM(Random Access Memory)23と、を有している。
ROM22は、例えば電気的にデータの書き換えが可能な不揮発性の半導体メモリで構成される。
CPU21、ROM22、RAM23は、コンピュータ20として機能する。
左目用の表示部3Lには、左目用の画像が表示され、右目用の表示部3Rには、右目用の画像が表示される。左目用の画像と右目用の画像には視差が再現されている。このため、端末1を装着したユーザは、仮想物体11を立体視できる。
慣性計測センサ25は、頭の位置や向きの計測に用いられ、視線の追跡などに使用される。
深度センサ26は、赤外線や超音波を使用して現実空間に存在する物体までの距離を計測する。
図3は、メガネ型の端末1の機能構成の一例を示す図である。
図3に示す機能構成は、CPU21によるプログラムの実行を通じて実現される。
図3に示す機能構成は、プログラムの実行を通じて実現される各種の機能のうち、現実の物体の背後に仮想の物体が配置される複合現実空間をユーザに知覚させる機能について表している。
現実空間情報41として保存される情報の種類は、メガネ型の端末1を使用する場面や用途によって異なる。
ただし、情報の種類が増えることで、複合現実空間における体験を、現実空間の体験に近づけることができる。
本実施の形態の場合、現実空間情報41には、実時間で追加される現実物体12に関する情報に加え、事前に与えられた又は事前に取得された現実物体12に関する情報も含まれる。
撮像された画像から推定される情報には、色情報のように撮像された画像から直接的に取得可能な情報もあれば、後述する手法などを用いて推定される情報もある。
RAM23の不揮発性領域には、例えば現実物体12の透過性を有する部分の全てに適用される情報(透過情報の代表値や透過情報を計算により求めるための式を含む)が記憶される。なお、RAM23の不揮発性領域には、透過性を有する部分別の情報が記憶されていてもよい。
本実施の形態における現実空間情報取得部31は、RAM23から、画像認識によって特定された個々の現実物体12に関する情報を取得する。
本実施の形態における現実空間情報取得部31には、現実物体12の透過性を有する部分を撮像した画像と同様の見え方を実現するフィルタを取得する機能が設けられていてもよい。ここでのフィルタは、透過情報の一例である。
ここで、個別の物体の情報には、例えば形状、色調、材質、透過情報、現実空間内での位置を特定する情報が含まれる。物体の認識には、既存の技術を使用する。例えばエッジや色領域を特徴量として検出する手法が用いられる。物体の認識には、人工知能を用いてもよい。
撮像に関する情報には、現実の空間内におけるカメラ24L及び24Rの位置の情報、現実の空間内におけるカメラ24L及び24Rの移動の方向、現実の空間内におけるカメラ24L及び24Rが撮像する向きの情報等が含まれる。なお、カメラ24L及び24Rによって撮像された画像には、撮像の日時に関する情報なども付属する。
透過率等の情報は、画像の処理を通じて推定される場合もあれば、事前に与えられる場合もある。透過性を推定する手法には、複数の時点に撮像された複数の画像の比較による方法、人工知能によって特定された物体に対応する透過情報をデータベースから取得する方法等がある。データベースは、例えばクラウドネットワーク上の不図示のサーバに記憶されていてもよい。なお、特定された物体に対応する透過情報がデータベースに存在しない場合、人工知能は、特定された物体に対応する透過情報を、データベースに存在する類似する物品の情報に基づいて推定してもよい。
透過情報に含まれる個々の要素の組み合わせにより、物体の質感が変化する。
なお、現実空間情報41は、例えばクラウドネットワーク上の不図示のサーバに記憶されていてもよい。
現実空間情報取得部31は、現実空間から取得された複数の情報を仮想空間上で整合的に統合し、3次元モデルを生成又は更新する。ここでの3次元モデルは、現実空間仮想化情報42としてRAM23に記憶される。
現実空間を仮想化した空間に仮想物体11を配置したものが複合現実空間である。
本実施の形態の場合、現実物体透過情報取得部32は、端末1を装着しているユーザの眼球5の位置を基準として仮想物体11の手前側に位置する現実物体12を、透過情報の取得の対象とする。
ここで、仮想物体11が配置される位置(3次元モデル内での位置)、形状、色調、材質などの情報は、仮想物体情報43として記憶されている。
なお、ユーザの眼球5の位置は、実測されるのではなく、端末1との関係で与えられる。
本実施の形態における現実物体透過情報取得部32は取得手段の一例である。
現実物体12の透過性を有する部分の背後に隠れると判定された仮想物体11の領域には、手前側に位置する現実物体12の透過情報が関連付けられる。
本実施の形態では、仮想物体11に関連付けられた現実物体12の透過情報を仮想物体描画情報44という。仮想物体描画情報44の内容は、端末1を装着しているユーザの移動、現実空間内での物体の移動、仮想物体11を配置する位置によっても変化する。
本実施の形態における仮想物体描画部4は、仮想物体11のうち現実物体12の背後に隠れる領域も描画の対象に含める。すなわち、仮想物体11の全体を描画の対象とする。
このように、透過性を有する現実物体12に隠れる位置の仮想物体11が表示されることで、ユーザは仮想物体11の全体を知覚できる。この結果、従前の技術に比して、複合現実の現実感を高めることができる。
例えば仮想物体描画部4は、現実物体12の透過率、屈折率、色調、模様等を適用したフィルタを用意し、用意されたフィルタを仮想物体11の対象とする領域に作用させた後の画像を描画する。ここでのフィルタには、複数の模様が重ね合わされることで知覚される干渉縞やその他の干渉の影響を描画するための情報も含まれる。
すなわち、仮想物体描画部4は、透過性を有する現実物体12の背後に他の現実の物体12が配置される場合の見え方を再現する画像を、現実物体12の透過率、屈折率、色調、模様等に基づいて生成する。
フィルタを用いる場合、仮想物体情報43には変更を加えずに済み、演算量が少なく済む。このため、現実物体12の背後に隠れる領域の変化が速い場合でも、現実物体12の透過情報を仮想物体11の描画に実時間で反映させることができる。
本実施の形態における仮想物体描画部4は、生成手段と描画手段の一例である。
図4は、メガネ型の端末1で仮想物体11を描画する場合に実行される処理動作の一例を説明するフローチャートである。
図4に示す処理動作は、CPU21によるプログラムの実行を通じて実現される。なお、図中では、ステップを記号のSで表している。
まず、CPU21は、現実空間の情報を取得する(ステップ1)。この処理により、CPU21は、端末1を装着しているユーザが導光板2を透して視認している現実物体12を認識する。
次に、CPU21は、認識された現実物体12の透過情報を取得する(ステップ2)。本実施の形態の場合、現実物体12のどの部分が透過性を有するかの認識が重要である。
CPU21は、選択された仮想物体11を処理の対象として、現実物体12の背後に隠れる領域があるか否かを判定する(ステップ4)。
ここで、CPU21は、端末1を装着しているユーザの眼球5(図1参照)の位置を基準として、処理対象とする仮想物体11が現実物体12の背後に隠れるか否かを判定する。
背後に隠れるか否かは、端末1を装着しているユーザの眼球5の位置を基準として判定される。ステップ4の場合、眼球5と現実物体12の外縁とを結ぶ仮想の直線を延長した範囲内に仮想物体11が含まれるか否かが判定される。
例えば仮想物体11と端末1との間に現実物体12が存在しない場合、CPU21は、否定結果を得てステップ7に進む。
図5において、端末1を装着しているユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。すなわち、ユーザから見て現実物体12の方が仮想物体11よりも手前側に位置している。
図5で想定する眼球5の位置を基準とする場合、現実物体12の背後に隠れる仮想物体11の領域15は、網掛けで示す範囲になる。
図4の説明に戻る。
ステップ5の場合、CPU21は、眼球5と透過性を有する部分の外縁とを結ぶ仮想の直線を延長した範囲内に含まれる仮想物体11の領域を、現実物体12が透過性を有する部分の背後に隠れる領域として特定する。
本実施の形態の場合、CPU21は、現実物体12が透過性を有する部分の背後に隠れる領域として特定された領域以外を、透過性を有しない(不透過の)部分の背後に隠れる領域として特定する。
因みに、図5の場合において、現実物体12の全体が透過性を有する部分であれば、透過性を有する部分の背後に隠れる領域は網掛けで示す領域15と一致する。
また、1つの現実物体12に透過性を有する部分が複数ある場合、CPU21は、透過性を有する個々の部分について、その背後に隠れる仮想物体11の領域を特定する。
従って、1つの仮想物体11について特定される領域の数は1つに限らない。なお、複数の領域が特定される場合、それらの領域は一致するとは限らない。
すなわち、CPU21は、処理の対象である仮想物体11に対応付けて仮想物体描画情報44を保存する。なお、本実施の形態では、現実物体12の透過情報は既知であるものとする。
この後、CPU21は、全ての仮想物体11が選択済みであるか否かを判定する(ステップ7)。
ステップ7で否定結果が得られた場合、CPU21は、ステップ3に戻る。ステップ3では未選択の仮想物体11の中から1つが処理の対象として選択される。
一方、ステップ7で肯定結果が得られた場合、CPU21は、全ての仮想物体11の全ての部位を、関連付けられている透過情報を用いて描画する(ステップ8)。
以下では、具体例を用いて、本実施の形態における仮想物体11の描画例について説明する。
<描画例1>
図6は、従前の技術による仮想物体11の描画と本実施の形態による仮想物体11の描画の違いを説明する図である。(A)は従前の技術による仮想物体11の描画例であり、(B)は本実施の形態による仮想物体11の描画例である。
図6では、従前の技術による描画例を比較例と記している。
図6の場合も、端末1を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
このため、半透明の現実物体12の内側では、仮想物体11が知覚されず、代わりに、透過性のある現実物体12の背後に位置する現実の物体がユーザに知覚される。
このように、透過性を有する現実物体12の内側と外側とで、ユーザに知覚される風景が不自然につながる状態が生じる。
また、従前の技術では、仮想物体11の全体が現実物体12の背後に隠れるように配置されていても、ユーザは、仮想物体11の存在を知りえない。
このように、本実施の形態に係る技術を用いれば、透過性を有する現実物体12の内側と外側とで風景が不自然につながることがなくなり、仮想物体11が実在するかのような体験 が可能になる。
すなわち、ユーザが半透明の現実物体12の周囲を移動しても、仮想物体11が継続的に知覚されるようにできる。
このため、仮想物体11を、現実の物体と区別なくユーザに知覚させることが可能になる。
また、従前の技術では気づくことができなかった、現実物体12の背後に全体が隠れている仮想物体11をユーザに気づかせることも可能になる。
図7は、現実物体12の透過率の違いが仮想物体11の描画に与える影響を説明する図である。(A)は現実物体12の透過率が高い場合の仮想物体11の描画例であり、(B)は現実物体12の透過率が低い場合の仮想物体11の描画例である。
図7の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図7の場合、透過率が相対的に高い透過率1の場合((A)の場合)の方が、透過率が相対的に低い透過率2の場合((B)の場合)よりも、仮想物体11の形状をはっきり知覚することが可能である。
このため、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
図8は、現実物体12の色の違いが仮想物体11の描画に与える影響を説明する図である。(A)は現実物体12に薄い青色が付されている場合の仮想物体11の描画例であり、(B)は現実物体12に薄い赤色が付されている場合の仮想物体11の描画例である。
図8の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
作図上の制約のため、図8においては、薄い青色や薄い赤色を表現することはできないが、現実物体12を透して知覚される仮想物体11の見え方を、現実物体12を透して知覚される現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
図9は、現実物体12に付されている模様の違いが仮想物体11の描画に与える影響を説明する図である。(A)は現実物体12の表面に対角線方向に延びる斜線(模様1)が形成されている場合の仮想物体11の描画例であり、(B)は現実物体12の表面に網目状の模様(模様2)が形成されている場合の仮想物体11の描画例である。
図9の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図9に示すように、現実物体12の表面に形成された模様を仮想物体11の描画に反映することで、現実物体12を透して知覚される仮想物体11の見え方を、現実物体12を透して知覚される現実空間の他の物体の見え方に近づけることが可能になる。
このため、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
図10は、現実物体12の屈折率の違いが仮想物体11の描画に与える影響を説明する図である。(A)は現実物体12の屈折率が小さい場合の仮想物体11の描画例であり、(B)は現実物体12の屈折率が大きい場合の仮想物体11の描画例である。
図10の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図10の場合、現実物体12の屈折率の影響により、現実物体12の背後に隠れる位置に描画される仮想物体11の外縁と、現実物体12の外側に描画される仮想物体11の外縁とが非連続になっている。すなわち、現実物体12の外縁を境界として、仮想物体11の外縁を描画する位置にずれが生じている。
また、描画上のずれの量は、屈折率が相対的に小さい屈折率1(Aの場合)では小さく、屈折率が相対的に大きい屈折率2(Bの場合)では大きくなっている。
このため、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
図11は、現実物体12の偏光に関する情報の 違いが仮想物体11の描画に与える影響を説明する図である。(A)は現実物体12の偏光度が大きい場合の仮想物体11の描画例であり、(B)は現実物体12の偏光度が小さい場合の仮想物体11の描画例である。
図11の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
(A)の例では、偏光度が大きい(反射光や雑光を除去する割合が大きい)ため、現実物体12を透過する光成分のうち仮想物体11から到来する光成分の割合が相対的に多い状態にある。このため、仮想物体11の視認性がよい。
一方、(B)の例では、偏光度が相対的に小さい(反射光や雑光を除去する割合が小さい)ため、現実物体12を透過する光成分のうち仮想物体11から到来する光成分の割合が相対的に小さい状態にある。このため、仮想物体11の視認性が低下している。
このため、ユーザは、仮想物体11が実在するかのような体験 を可能にできる。
なお、偏光に関する情報の違いによる効果には、旋光性の違いによる影響を含めてもよい。旋光性の違いを描画に反映することにより、光学異性体の見え方の違いを表現できる。
図12は、現実物体12の表面の模様と仮想物体11の表面の模様との関係で干渉縞(モアレ)が発生する場合と発生しない場合を説明する図である。(A)は干渉縞が発生しない場合の仮想物体11の描画例であり、(B)は干渉縞が発生する場合の仮想物体11の描画例である。
干渉縞は、規則正しい繰り返し模様を複数重ね合わせた場合に、それらの周期のずれに起因して知覚される模様である。
(A)の例では、現実物体12の表面に斜線が一様に形成され、仮想物体11の表面には斜線が一様に形成されている。ここでの斜線と斜線とがなす角度は、干渉縞が発生する条件を満たしていない。このため、透過性を有する現実物体12と仮想物体11とが重なる領域には、2つの物体の模様を単純に重ねた模様が描画されている。
(B)の例は、現実物体12の縞模様と仮想物体11の縞模様とが同じ幅を有し、かつ、それらがわずかな角度で交差するように配置される場合に発生する干渉縞を表している。干渉縞は、擬似的な濃淡の模様として発生する。
このため、ユーザは、仮想物体11が実在するかのような体験を可能にできる。
なお、図12においては光の干渉によって知覚される現象の一例として干渉縞を例示しているが、例えばモルフォ蝶の鱗粉やマジョーラ塗装のように干渉縞を伴わない効果を再現してもよい。ここで、モルフォ蝶の鱗粉による効果は、干渉によって青色の波長の光だけ を反射させる効果をいい、マジョーラ塗装による効果は、見る角度や光の当たり方によって物体の表面が様々な色に変化する効果をいう。
図13は、現実物体12が複数の場合における仮想物体11の描画例を説明する図である。(A)はユーザによって知覚される複合現実を示し、(B)は仮想物体11の描画処理を説明する図である。
図13の場合も、端末1(図1参照)を装着するユーザの眼球5(図1参照)は、紙面から手前方向に延びる法線上に位置している。
図13の場合、現実物体12Aは透過性を有しない枠形状の部材であり、現実物体12Bは透過性を有する部材である。現実物体12Aは、例えば窓ガラスの枠体であり、現実物体12Bは、例えば窓ガラスのガラス板である。
すなわち、仮想物体11の全体は、現実物体12A及び12Bの背後に隠れている。
従って、従前の技術であれば、仮想物体11は描画されることはない。結果的に、ユーザは、仮想物体11の存在に気づくことはできない。
このため、仮想物体11のうち領域11Bは描画領域となり、領域11Aは非描画領域となる。
また、端末1を装着するユーザは、領域11Bの背後に他の現実の物体の一部分が知覚されることで、仮想物体11が他の現実の物体の手前側に位置し、他の現実の物体が仮想物体11の背後に位置する関係を理解できる。
以上により、ユーザは、仮想物体11が実在するかのような体験を可能に できる。
本実施の形態では、複合現実の体験に頭部に装着された表示装置を使用する場合について説明する。
図14は、複合現実の体験に、実時間で撮像される外界の画像に仮想物体を合成した画像を表示する表示装置100を装着したユーザが、複合現実を体感する原理を説明する図である。
表示装置100は、カメラ24L及び24Rによって撮像された外界の画像と、仮想物体描画部4が描画した仮想物体11の画像とを画像合成部101で合成した画像を、ユーザの眼球5の前方に配置された表示部3L及び3Rに表示する。
ここでの表示装置100は、情報処理装置の一例であるとともに情報処理システムの一例でもある。
なお、表示装置100のハードウェア構成は、メガネ型の端末1(図2参照)と同様である。このため、表示装置100のハードウェア構成の説明は省略する。
図15には、図3との対応部分に対応する符号を付して示している。
表示装置100の基本的な機能構成は、メガネ型の端末1(図2参照)と同様である。表示装置100に特有の機能構成は、画像合成部101である。
画像合成部101は、仮想物体描画部4が描画した画像と、カメラ24L及び24Rで撮像されている外界の画像とが整合するように2つの画像を合成する機能を有している。
例えば画像合成部101は、現実空間仮想化情報42として記憶されている3次元モデルとカメラ24L及び24Rで撮像されている外界の画像とを照合して、仮想物体11の画像を合成する領域を決定する。
このように、本実施の形態が複合現実を知覚させる方式は実施の形態1と異なるが、ユーザによって知覚される複合現実の現実感が従前の技術に比して高くなる点は、実施の形態1と同じである。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上述の実施の形態に記載の範囲に限定されない。前述した実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば前述の実施の形態では、左右両目用の表示部3L及び3Rを用いているが、表示部は1つでも構わない。例えばメガネ型の端末1(図1参照)の場合には、左右どちら一方の前方に表示部を1つ配置してもよい。また例えば表示装置100(図12参照)の場合には、両目の前に表示部を1つ配置してもよい。
また、前述の実施の形態では、仮想物体描画部4をメガネ型の端末1(図1参照)や表示装置100(図12参照)の機能の1つとして実現しているが、外部ネットワーク(例えばクラウドネットワーク)に接続されているサーバなどの情報処理装置において、仮想物体描画部4の機能を実行してもよい。ここでのメガネ型の端末1と仮想物体描画部4の機能を実行する外部ネットワーク上のサーバは、情報処理システムの一例である。
また、前述の実施の形態では、仮想物体描画部4の機能を汎用的な演算装置であるCPU21を用いて実現しているが、実時間での画像処理に特化した演算装置であるGPU(Graphics Processing Unit)を用いて実現してもよい。
Claims (9)
- 透過性を有する現実の物体の背後に仮想の物体の少なくとも一部が隠れる場合に、当該現実の物体の透過情報を取得する取得手段と、
前記仮想の物体のうち前記現実の物体の背後に隠れる領域の現実の空間での見え方を再現する画像を、前記透過情報に基づいて生成する生成手段と、
生成された前記画像を含めて前記仮想の物体を描画する描画手段と
を有する情報処理システム。 - 前記透過情報は透過率であり、前記描画手段は、前記現実の物体の透過率の影響を付加して前記仮想の物体を描画する、請求項1に記載の情報処理システム。
- 前記透過情報は色調であり、前記描画手段は、前記現実の物体の色調の影響を付加して前記仮想の物体を描画する、請求項1に記載の情報処理システム。
- 前記透過情報は模様であり、前記描画手段は、前記現実の物体の模様の影響を付加して前記仮想の物体を描画する、請求項1に記載の情報処理システム。
- 前記透過情報は干渉に関する情報であり、前記描画手段は、干渉による影響を 描画する、請求項1に記載の情報処理システム。
- 前記透過情報は屈折率であり、前記描画手段は、前記現実の物体の屈折率の影響を付加して前記仮想の物体を描画する、請求項1に記載の情報処理システム。
- 前記透過情報は偏光に関する情報であり、前記描画手段は、前記現実の物体の偏光 の影響を付加して前記仮想の物体を描画する、請求項1に記載の情報処理システム。
- 透過性を有する現実の物体の背後に仮想の物体の少なくとも一部が隠れる場合に、当該現実の物体の背後に隠れる部分を含めて当該仮想の物体を描画する描画手段
を有する情報処理システム。 - コンピュータを、
透過性を有する現実の物体の背後に仮想の物体の少なくとも一部が隠れる場合に、当該現実の物体の透過情報を取得する取得手段と、
前記仮想の物体のうち前記現実の物体の背後に隠れる領域の現実の空間での見え方を再現する画像を、前記透過情報に基づいて生成する生成手段と、
生成された前記画像を含めて前記仮想の物体を描画する描画手段
として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070415A JP7188900B2 (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018070415A JP7188900B2 (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019179539A true JP2019179539A (ja) | 2019-10-17 |
JP7188900B2 JP7188900B2 (ja) | 2022-12-13 |
Family
ID=68278879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018070415A Active JP7188900B2 (ja) | 2018-03-30 | 2018-03-30 | 情報処理システム及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7188900B2 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001307111A (ja) * | 2000-04-20 | 2001-11-02 | Internatl Business Mach Corp <Ibm> | 形状解析システム、3次元形状モデルの差分検出システム、類似形状検索システム、形状解析方法、3次元形状モデルの差異検出方法、類似形状検索方法、記憶媒体及びプログラム伝送装置 |
JP2008077410A (ja) * | 2006-09-21 | 2008-04-03 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2009134681A (ja) * | 2007-11-07 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP2011129124A (ja) * | 2009-12-17 | 2011-06-30 | Dassault Systemes | オブジェクトをコンピュータスクリーン上に表示するための方法、装置、およびプログラム |
JP2013524270A (ja) * | 2010-04-01 | 2013-06-17 | シーリアル テクノロジーズ ソシエテ アノニム | ホログラムシステムにおける透過オブジェクトを含む3次元シーンを符号化する方法及び装置 |
WO2018039270A1 (en) * | 2016-08-22 | 2018-03-01 | Magic Leap, Inc. | Virtual, augmented, and mixed reality systems and methods |
JP2018070416A (ja) * | 2016-10-31 | 2018-05-10 | 旭硝子株式会社 | 遮音板 |
-
2018
- 2018-03-30 JP JP2018070415A patent/JP7188900B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001307111A (ja) * | 2000-04-20 | 2001-11-02 | Internatl Business Mach Corp <Ibm> | 形状解析システム、3次元形状モデルの差分検出システム、類似形状検索システム、形状解析方法、3次元形状モデルの差異検出方法、類似形状検索方法、記憶媒体及びプログラム伝送装置 |
JP2008077410A (ja) * | 2006-09-21 | 2008-04-03 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2009134681A (ja) * | 2007-11-07 | 2009-06-18 | Canon Inc | 画像処理装置、画像処理方法 |
JP2011129124A (ja) * | 2009-12-17 | 2011-06-30 | Dassault Systemes | オブジェクトをコンピュータスクリーン上に表示するための方法、装置、およびプログラム |
JP2013524270A (ja) * | 2010-04-01 | 2013-06-17 | シーリアル テクノロジーズ ソシエテ アノニム | ホログラムシステムにおける透過オブジェクトを含む3次元シーンを符号化する方法及び装置 |
WO2018039270A1 (en) * | 2016-08-22 | 2018-03-01 | Magic Leap, Inc. | Virtual, augmented, and mixed reality systems and methods |
JP2018070416A (ja) * | 2016-10-31 | 2018-05-10 | 旭硝子株式会社 | 遮音板 |
Non-Patent Citations (1)
Title |
---|
正多面体クラブ: "モアレ(moire)…干渉縞を楽しむ", [ONLINE], JPN7022002533, 24 January 2018 (2018-01-24), ISSN: 0004791804 * |
Also Published As
Publication number | Publication date |
---|---|
JP7188900B2 (ja) | 2022-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108369457B (zh) | 用于混合现实的现实混合器 | |
US10204452B2 (en) | Apparatus and method for providing augmented reality-based realistic experience | |
US10083540B2 (en) | Virtual light in augmented reality | |
KR102257255B1 (ko) | 혼합 현실 스포트라이트 | |
CN108780578A (zh) | 用于增强现实系统的直接光补偿技术 | |
JP7329612B2 (ja) | オブジェクトカテゴリモデリングのための生成潜在テクスチャプロキシ | |
KR20220099580A (ko) | 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이 | |
US11263729B2 (en) | Reprojection and wobulation at head-mounted display device | |
JP2012079291A (ja) | プログラム、情報記憶媒体及び画像生成システム | |
US10264245B2 (en) | Methods and system for generating three-dimensional spatial images | |
JP6784289B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2021242338A1 (en) | Systems and methods for providing mixed-reality experiences under low light conditions | |
JP7439197B2 (ja) | 情報処理システム及びプログラム | |
JP7188900B2 (ja) | 情報処理システム及びプログラム | |
JP7088721B2 (ja) | 情報処理システム及びプログラム | |
US20220256137A1 (en) | Position calculation system | |
JP7426413B2 (ja) | ブレンドモード3次元ディスプレイシステムおよび方法 | |
WO2017191703A1 (ja) | 画像処理装置 | |
JP2019185070A (ja) | 情報処理システム及びプログラム | |
JPH0628452A (ja) | 3次元画像処理装置 | |
JP2019179541A (ja) | 情報処理システム及びプログラム | |
Sommer et al. | View-dependent Virtual and Augmented Reality for Machine Tools | |
CN107635119B (zh) | 投射方法和设备 | |
JP2019185072A (ja) | 情報処理システム及びプログラム | |
JP2019185071A (ja) | 情報処理システム及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220907 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220907 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220916 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7188900 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |