JP6660159B2 - 情報処理装置、情報処理装置の制御方法およびプログラム - Google Patents

情報処理装置、情報処理装置の制御方法およびプログラム Download PDF

Info

Publication number
JP6660159B2
JP6660159B2 JP2015225086A JP2015225086A JP6660159B2 JP 6660159 B2 JP6660159 B2 JP 6660159B2 JP 2015225086 A JP2015225086 A JP 2015225086A JP 2015225086 A JP2015225086 A JP 2015225086A JP 6660159 B2 JP6660159 B2 JP 6660159B2
Authority
JP
Japan
Prior art keywords
virtual
virtual object
information processing
generating
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015225086A
Other languages
English (en)
Other versions
JP2017091471A (ja
Inventor
靖己 田中
靖己 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015225086A priority Critical patent/JP6660159B2/ja
Publication of JP2017091471A publication Critical patent/JP2017091471A/ja
Application granted granted Critical
Publication of JP6660159B2 publication Critical patent/JP6660159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、情報処理装置、情報処理装置の制御方法およびプログラムに関する。
近年、現実空間と仮想空間との繋ぎ目のない結合を目的とした複合現実感(MR:MIXED REALITY)に関する研究が行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置姿勢に応じて生成した仮想空間の画像を重畳描画した画像を表示する装置である。仮想空間の画像とは、例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等の画像である。このような装置には、例えばHMD(ヘッドマウントディスプレイ、頭部装着型表示装置)を用いることができる(特許文献1)。
頭部装着型表示装置(HMD)は、操作者の頭部に装着された光学シースルー型ディスプレイに、操作者の視点の位置姿勢に応じて生成した仮想空間の画像を表示する光学シースルー方式によっても実現される。通常、3DCAD/CGソフト等に複合現実感を体験できる機能を追加することにより、複合現実感体験が可能となるが、3DCAD/CGソフト自体にMR機能を追加することは負荷が大きい。
一方、3DCAD/CGソフト等の描画処理をドライバで視点の位置姿勢を書き換えることにより仮想現実体験を可能にする手法も提案されている。(特許文献2)また、3DCAD/CGソフト等の描画処理から仮想物体の形状を出力する手法も開示されている。(特許文献3)
以上の技術を組み合わせることで、3DCAD/CGソフト自体に複合現実感機能を追加することなく、描画処理に対して複合現実感機能を追加することにより、MR体験をすることが可能となる。
特開2008−134161号公報 米国特許第8659590号明細書 米国特許第7150026号明細書
しかしながら、複合現実感(MR)を体験する場合、従来の技術では、3DCAD/CGソフトの異なる視点方向から頭部装着型表示装置(HMD)を利用して仮想物体を確認する際に、3DCAD/CGソフトに実装されているカリング機能によって仮想物体の面が欠損することがあるという課題がある。
本発明は、上述の課題に鑑みてなされたものであり、複合現実感(MR)を体験する際に仮想物体の欠損を低減するための技術を提供することを目的とする。
上記の目的を達成するために、本発明の一態様による情報処理装置は以下の構成を備える。即ち、
第一仮想空間を生成する第一空間生成手段と、
前記第一仮想空間内の仮想物体のために複数の異なる視点を生成する視点生成手段と、
前記複数の異なる視点で複数の仮想物体を生成する仮想物体生成手段と、
前記複数の仮想物体を合成仮想物体として合成する合成手段と、
前記合成仮想物体を含む第二仮想空間を生成する第二空間生成手段と、
を備えることを特徴とする。
本発明によれば、複合現実感(MR)を体験する際に仮想物体の欠損を低減するための技術を提供することができる。
本発明の実施形態1に係る情報処理システムの機能構成例を示すブロック図。 本発明の実施形態1に係る仮想物体及び仮想空間の一例を示す図。 本発明の実施形態1に係るレンダリング画像の一例を示す図。 本発明の実施形態1に係るレンダリング画像の一例を示す図。 本発明の実施形態1に係る複数視点の生成方法に関する説明図。 本発明の実施形態1に係る複数視点の生成方法に関する説明図。 本発明の実施形態1に係る情報処理装置が実施する処理の手順を示すフローチャート図。 本発明の実施形態2に係る情報処理システムの機能構成例を示すブロック図。 本発明の実施形態2に係る情報処理装置が実施する処理の手順を示すフローチャート図。 本発明の各実施形態に係る情報処理システムのハードウェア構成例を示す図。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(実施形態1)
本実施形態では、3DCAD/CGソフト等の描画処理により、欠落のない仮想物体を生成し、その仮想物体を表示する情報処理システムについて説明する。
<情報処理システムの構成>
図1は、本実施形態に係る情報処理システムの機能構成例を示すブロック図である。本実施形態に係る情報処理システムは、情報処理装置1000と、入力部1200と、第二表示部1300と、第一表示部1400とを備えている。また、情報処理装置1000は、第一仮想空間生成部1010と、処理送信部1020と、第一画像生成部1030と、第一画像出力部1040と、データ記憶部1050と、視点変更指示部1060と、第二仮想空間生成部1070と、第二画像生成部1080と、第二画像出力部1090と、仮想物体合成部1095と、仮想物体生成部1100と、視点決定部1110とを備えている。
まず情報処理装置1000について説明する。第一仮想空間生成部1010は、図2に示すような仮想物体2300が存在する仮想空間2400を生成し、その描画処理(OpenGL、Direct X、3次元描画処理)情報を処理送信部1020に出力する。第一仮想空間生成部1010は、3DCAD/CGソフト(例えばシーメンス社のNX、PTC社のCreo、ダッソー社のCATIA/オートデスク社の3ds max、Maya等)やViewerソフト(例えばオートデスク社のShowcase、Navisworks等)に相当する。
ここで、図2は、第一仮想空間生成部1010が生成する仮想物体2300及び仮想空間2400を簡易的に示した図である。仮想空間2400は、仮想光源2210と、仮想カメラ2010及び仮想カメラ2020と、仮想物体2300とを含んでいるが、それぞれ単数であっても複数あってもよい。仮想光源2210は、仮想空間2400内を照射する光源に係るデータであればよく、画像をベースとしたIBL(イメージ・ベースド・ライティング)であってもよい。
仮想物体2300は、面2110、面2120、面2130、面2140、面2150、及び面2160で構成されている。仮想カメラ2010は、第一仮想空間生成部1010内の仮想カメラである。仮想カメラ2010の視点によってレンダリングされた画像は、図3のレンダリング画像3000のようになる。図3は、仮想カメラ2010からレンダリングされた画像を説明した図である。図2と同じ部分については同じ番号をつけており、その説明を省略する。レンダリング画像3000は、図3の仮想空間2400内の仮想カメラ2010の視点から見える領域をレンダリングした画像である。
仮想カメラ2010から仮想物体を見た時は、視線方向と反対側の面である面2140、面2150、面2160は通常バックフェイスかリングが行われており、描画処理の際に面2140、面2150、面2160の情報は送られてこない。
仮想カメラ2020は、同じく第一仮想空間生成部1010内の仮想カメラである。仮想カメラ2020の視点によってレンダリングされた画像は、図4のレンダリング画像4000のようになる。図4は、仮想カメラ2020からレンダリングされた画像を説明した図である。図2と同じ部分については同じ番号をつけており、その説明を省略する。レンダリング画像4000は、図2の仮想空間2400内の仮想カメラ2020の視点から見える領域をレンダリングした画像である。
仮想カメラ2020から仮想物体を見た時は、視線方向と反対側の面である面2110、面2150、面2160は通常バックフェイスかリングが行われており、描画処理の際に面2110、面2150、面2160の情報は送られてこない。
また、処理送信部1020は、第一仮想空間生成部1010から出力された描画処理情報を第一画像生成部1030及びデータ記憶部1050に出力する。第一画像生成部1030は、描画処理情報から画像を生成し、第一画像出力部1040に出力する。第一画像出力部1040は、生成された画像を第一表示部1400に表示する。仮想物体生成部1100は、データ記憶部1050に保存されている描画処理情報から仮想空間データを生成し、仮想空間データをデータ記憶部1050に保存する。仮想物体データの生成方法の詳細に関しては、図7のフローチャートを参照して後述する。
仮想物体合成部1095は、データ記憶部1050に保存されている少なくとも1つの仮想物体データを合成し、一つの仮想物体データを生成する。仮想物体データが完成していなければ、視点変更指示部1060に指示を出力する。仮想物体データの合成方法の詳細に関しては、図7のフローチャートを参照して後述する。
視点決定部1110は、複数の視点での位置姿勢を算出し、複数の視点での位置姿勢情報をデータ記憶部1050に保存する。複数の視点での位置姿勢の算出方法の詳細に関しては、図7のフローチャートを参照して後述する。
視点変更指示部1060は、視点決定部1110により算出されてデータ記憶部1050に保存されている視点の位置姿勢情報を取得し、第一仮想空間生成部1010へ視点の位置姿勢変更指示を出力する。第二仮想空間生成部1070は、データ記憶部1050に格納されている仮想物体のデータに基づいて、仮想空間を生成する。仮想空間のデータには、仮想物体、現実物体を3Dデジタイザや既知の手法で三次元計測した三次元データや、仮想空間を構成する各仮想物体に係るデータや、仮想空間中を照射する光源に係るデータなどが含まれてもよい。その後、描画処理情報を第二画像生成部1080に出力する。
第二画像生成部1080は、描画処理情報に基づいて画像を生成する。描画処理(OpenGL、DirectX)情報に基づいて画像を生成する方法に関しては既知の手法となるためその説明を省略する。第二画像出力部1090は、生成された画像を第二表示部1300に表示する。
データ記憶部1050は、上述の通り、様々な情報を格納するためのものであり、RAMやハードディスクドライブ装置などにより構成されている。なお、データ記憶部1050には、上記説明においてデータ記憶部1050に格納するものとして説明した情報のほかに、本実施形態において既知の情報として説明するものについても格納されているものとする。
<情報処理装置が実施する処理>
図7は、本実施形態に係る情報処理装置1000が実施する処理の手順を示すフローチャートである。情報処理装置1000は、第一仮想空間画像を生成して第一表示部1400に対して出力し、同様にして第二仮想空間画像を生成して第二表示部1300に対して出力する。
まず、ステップS16001で処理を開始する。そして、ステップS16002に処理を移す。ステップS16002では、入力部1200を介して入力された操作に応じて3DCAD/CGソフト(第一仮想空間生成部)の起動を行い、当該ソフトの操作に応じて第一仮想空間生成部1010は仮想空間2400を生成する。仮想空間2400の生成方法に関しては、既知(Autodesk 3ds MAX、MAYA等)であるためその説明を省略する。そして、ステップS16003に処理を移す。
ステップS16003では、第一仮想空間生成部1010は、仮想カメラ2010から見える仮想空間の描画処理(opengl、directx等)情報を送信する。ステップS16004では、第一仮想空間生成部1010は、描画処理情報から仮想物体2300を生成する。生成の方法に関しては既知(特許文献3)であるため、その説明を省略する。また、この時の仮想物体の面の欠損に関して図3及び図4を用いて説明を行う。仮想カメラ2010の視線方向と反対側の面である図3の面2140、面2150、面2160には、通常バックフェイスかリングが行われている。そのため、図4の画像を作成するための描画処理の際に、面2140、面2150、面2160の描画をする処理は行われない。そのため、既知の手法(特許文献3)を用いた場合、面2140、面2150、面2160が欠損した仮想物体が生成されることになる。その後、ステップS16005に処理を移す。
ステップS16005では、視点決定部1110は、複数視点の生成が終了しているかを確認する。終了していればステップS16009に処理を移す。終了していなければ、ステップS16006に処理を移す。ステップS16006では、視点決定部1110は、複数の視点を生成する。複数視点生成に関しては、図5及び図6を参照して詳細な説明を行う。複数視点を生成した後、ステップS16007に処理を移す。
図5は、複数視点の生成方法に関する説明図である。図2と同じ部分については同じ番号をつけており、その説明を省略する。仮想物体2300の周辺に任意の立方体7100を設定する。立方体7100は、1辺の長さを仮想物体2300のバウンディングボックスを基準として任意の倍率かから求めてもよい。また、バウンディングボックスを基準としていなくてもよく、仮想物体2300を内包していればよい。
複数視点の生成のために立方体7100の頂点の1つを視点位置7001とし、視点位置7001から仮想物体2300の中心7110に対して向かうベクトルを視線ベクトル7010として生成する。また、視線のアップベクトルに関しては、仮想物体2300が視野に収まっていればどの方向であってもよい。また、この手法によらずともビューフラスタムの中に仮想物体2300が収まっていればどのような設定であってもよい。同様にして、視点位置7002、視点位置7004〜視点位置7008の視線ベクトルと視線のアップベクトルとを生成する。
図6は、複数視点の生成方法に関する説明図である。図2及び図5と同じ部分については同じ番号をつけており、その説明を省略する。仮想物体2300の周辺に任意の球8100を設定する。球8100は、半径の長さを仮想物体2300のバウンディングボックスを基準として任意の倍率から求めてもよい。また、前述の手法によらなくても、球8100が仮想物体2300を内包していれば何れの手法であってもよい。その後、視点位置8102から仮想物体2300の中心7110に対して向かう視線ベクトル8200を求める。また、視線のアップベクトルに関しては仮想物体2300が視野に収まっていればどの方向であってもよい。また、この手法によらずともビューフラスタム内に仮想物体2300が収まっていればどのような設定でもよい。同様にして、球8100において等間隔に各視点位置8101、8103〜8108、8110〜8115の設定を行い、視線ベクトルと視線のアップベクトルとを生成する。
ステップS16007では、視点変更指示部1060は、3DCAD/CGソフトに対してステップS16006で生成した複数視点のうち、まだ3DCAD/CGソフトに設定してない視点位置に仮想カメラ2010の位置姿勢及びアップベクトル及びフラスタム等の設定を行う。第一仮想空間を生成する第一仮想空間生成部1010(3DCAD/CGソフト)を操作する操作者が、その視点を任意の視点に変更した時にその視点を複数の視点の一つとしてもよい。すなわち、第一仮想空間生成部1010(3DCAD/CGソフト)を操作する操作者によって変更された視点を、複数の異なる視点の1つとして生成してもよい。そして処理をステップS16003に移す。
ステップS16009では、ステップS16006で生成した複数視点すべての視点について、3Dソフトの仮想カメラの視点に対する設定が終了しているかを確認する。設定が終了していなければ、ステップS16007に処理を移す。設定が終了していれば、ステップS16010に処理を移す。
ステップS16010では、仮想物体合成部1095は、ステップS16004で生成した複数の仮想物体を合成して仮想物体を生成する。この時、同一の面(ポリゴン)が存在する時はその面(ポリゴン)を1面残し、重複面を削除してもよい。削除を行う際の一例を、図3及び図4を用いて説明する。
図3の描画を生成するための描画処理から仮想物体を生成すると、前述の通り面2140、面2150、及び面2160が欠損した仮想物体2300(レンダリング画像4000)が生成される。同様にして図4の描画を生成するための描画処理からは面2110、面2150、及び面2160が欠損した仮想物体2300(レンダリング画像5000)が生成される。このレンダリング画像4000の仮想物体とレンダリング画像5000の仮想物体とを合成する際は、面2120面及び2130が重なっているため、面2120面及び面2130のそれぞれについて重複面を削除し、面2120面及び2130それぞれ1つ残して合成仮想物体(不図示)を生成する。同様に、複数視点の描画処理情報から仮想物体を生成して、合成する際に重なっている面を削除する。また、仮想物体にLOD(Level Of Detail)などの設定が行われており重なっている面の詳細度が違う場合は、重複面の詳細度に基づいて残す面を決定してもよい。例えば、重複面のうち、詳細度が最も高い面(ポリゴン)を残してもよい。また、ポリゴンが片面表示の時は両面表示に変更してもよい。
ステップS16011では、第二仮想空間生成部1070は、ステップS16010で生成した仮想物体を含む仮想空間を生成し、ステップS16012に処理を移す。この時、仮想空間のデータには、仮想物体、現実物体を3Dデジタイザや既知の手法で三次元計測した三次元データや、仮想空間を構成する各仮想物体に係るデータや、仮想空間中を照射する光源に係るデータなどが含まれてもよい。
ステップS16012では、第二画像生成部1080は、仮想空間内の仮想カメラ2020でレンダリングされた画像を生成して、ステップS16013に処理を移す。ステップS16013では、第二画像出力部1090は、ステップS16012で作成された画像を第二表示部1300に出力させて表示させ、ステップS16014に処理を移す。ステップS16014では、処理を終了する。
以上説明したように、本実施形態に係る情報処理装置は、第一仮想空間を生成する第一空間生成部(第一仮想空間生成部1010)と、第一仮想空間内の仮想物体のために複数の異なる視点を生成する視点生成部(視点決定部1110、視点変更指示部1060)と、複数の異なる視点で複数の仮想物体(図4、図5等)を生成する仮想物体生成部(仮想物体生成部1100)と、複数の仮想物体を合成仮想物体として合成する合成部(仮想物体合成部1095)と、合成仮想物体を含む第二仮想空間を生成する第二空間生成部(第二仮想空間生成部1070)とを備える。
本発明によれば、3DソフトのOpenGL処理から仮想物体のモデルを生成し、3Dソフトの複数視点のOpenGL処理に基づいて仮想物体のモデルを再構成することにより、MRソフトで背面に回り込んでも背面が見えるようになる。このように、3DCAD/CGソフト等の描画処理内容を変更することによって、仮想現実空間/複合現実感をユーザに体験させるシステムにおいて、欠損のない仮想現実物体を体験できる複合現実感映像を提供することが可能となる。本発明によれば、複合現実感(MR)を体験する際に仮想物体の欠損を低減することが可能となる。
(実施形態2)
実施形態1では、仮想物体を合成して欠損部分を整形し、表示する事例を説明した。本実施形態では、合成された仮想物体を複合現実感で確認する事例を示す。
図8は、本実施形態に係る情報処理システムの機能構成例を示すブロック図である。本実施形態に係る情報処理システムは、情報処理装置9000と、入力部1200と、第一表示部1400と、頭部装着型表示装置9200(HMD)とを備えている。
HMD9200には、撮像部9220(撮像部9220R、撮像部9220L)、表示部9210(表示部9210R、表示部9210L)が取り付けられて固定されている。なお、本実施形態では、ステレオで現実空間の撮像と複合現実空間の認識が可能である。観察者はHMD9200を頭部に装着することで、表示部9210に映るステレオの複合現実空間画像(以下、MR画像)を見ることができる。ただし、ステレオの撮像と表示を行うことに限定されるものではなく、少なくとも1つ以上の撮像部と表示部があれば本発明を適用可能である。さらに、HMD9200を使用することに限定されるものではなく、撮像部9220が具備されていないタイプでも本発明を適用可能である。また、表示部及び撮像部について、特に右目用の表示部、左目用の表示部に限定する説明でない限りでは、表示装置は表示部9210、撮像装置は撮像部9220でもって示す(R、Lは付けない)ものとする。
情報処理装置9000は、情報処理装置1000とは異なり、撮像画像取得部9100及び視点情報計測部9110をさらに備えている。また、第二仮想空間生成部1070に代えて第二仮想空間生成部9070を、第二画像生成部1080に代えて第二画像生成部9080を備えている。
撮像画像取得部9100は、撮像部9220から送出された右目の撮像画像、左目用の撮像画像を取得する。そして取得した右撮像画像、左撮像画像をデータ記憶部1050に格納する。以降、右撮像画像及び左撮像画像の両方を示す場合は撮像画像とする。
視点情報計測部9110は、データ記憶部1050に保存している撮像画像から、撮像部9220の位置姿勢を計測し、視点位置姿勢情報を求める。この時、視点位置姿勢は、観察者の頭の中心、撮像部9220Lと撮像部9220Rの中心であってもよい。視点位置姿勢情報を計測する方法に関しては、既知の手法を利用すればよく、磁気式センサ、光学式センサを利用してもよい。そして、求めた視点位置姿勢情報をデータ記憶部1050に保存する。
第二仮想空間生成部9070は、データ記憶部1050に格納されている仮想空間のデータに基づいて、仮想空間を生成する。仮想空間のデータには、仮想物体2300、現実物体を3Dデジタイザや既知の手法で三次元計測された三次元データや仮想空間を構成する各仮想物体に係るデータや、仮想空間中を照射する光源に係るデータなどが含まれてもよい。そして、生成した仮想空間データをデータ記憶部1050に保存する。
第二画像生成部9080は、データ記憶部1050に保存されている撮像画像と仮想空間データと位置姿勢情報とに基づいて複合現実感画像を生成し、第二画像出力部1090に出力する。複合現実感画像の生成方法に関しては、既知であるためその説明を省略する。
(情報処理装置が実施する処理)
図9は、本実施形態に係る情報処理装置9000が実施する処理の手順を示すフローチャートである。情報処理装置9000は、複合現実感画像を生成し、HMD9200の表示部9210に対して出力する。なお、図7と同じ部分については同じ番号をつけており、その説明を省略する。
ステップS16202では、撮像画像取得部9100は、撮像部9220から撮像画像を取得してデータ記憶部1050に保存する。そして、S16003に処理を移す。ステップS16203では、視点情報計測部9110は、撮像部9220から取得した撮像画像から、撮像部9220の視点位置姿勢情報を計測する。そして、ステップS96011へ処理を移す。
ステップS96011では、第二仮想空間生成部9070は、ステップS16203で求めた撮像部9220の視点位置姿勢情報と、仮想物体及び現実物体の情報とに基づいて仮想空間を生成する。ステップS16204では、第二画像生成部9080は、ステップS96011で生成した仮想空間から仮想画像を生成し、ステップ16202で取得された撮像画像に仮想画像を重畳した画像を生成し、ステップS16013に処理を移す。
本発明によれば、3DCAD/CGソフト等の描画処理内容を変更することにより、仮想現実空間/複合現実感をユーザに体験させるシステムにおいて、欠損のない仮想現実物体を体験できる複合現実感映像を提供することが可能となる。本発明によれば、複合現実感(MR)を体験する際に仮想物体の欠損を低減することが可能となる。
[変形例]
図10は、本発明の一実施形態におけるハードウェア構成例を示すブロック図である。
CPU15001は、RAM15002やROM15003に格納されているプログラムやデータを用いて、コンピュータ全体の制御を行うと共に、上記各実施形態で情報表示装置が行うものとして説明した上述の各処理を実行する。
RAM15002は、外部記憶装置15007や記憶媒体ドライブ15008からロードされたプログラムやデータを一時的に記憶するための領域を有する。さらに、RAM15002は、I/F(インタフェース)15009を介して外部に送信するデータを一時的に記憶するためのエリアを有する。さらに、RAM15002は、CPU15001が各処理を実行する際に用いるワークエリアも有する。即ち、RAM15002は、各種エリアを適宜提供することができる。例えば、RAM15002は、図1に示したデータ記憶部1050としても機能する。
ROM15003には、コンピュータの設定データやブートプログラムなどが格納されている。キーボード15004、マウス15005は、操作入力装置の一例としてのものであり、コンピュータの観察者が操作することで、各種の指示をCPU15001に対して入力することができる。表示部15006は、CRTや液晶画面などにより構成されており、CPU15001による処理結果を画像や文字などで表示することができる。
外部記憶装置15007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置15007には、OS(オペレーティングシステム)や、情報処理装置が行うものとして説明した上述の各処理をCPU15001に実行させるためのプログラムやデータが格納されている。
かかるプログラムには、第一仮想空間生成部1010、処理送信部1020、第一画像生成部1030、視点変更指示部1060、視点決定部1110、第二仮想空間生成部1070、仮想物体合成部1095、仮想物体生成部1100、視点情報計測部9110、第二仮想空間生成部9070、撮像画像取得部9100、第二画像生成部9080等のそれぞれに対応するプログラムが含まれている。
また、かかるデータには、MR体験環境情報のデータや、上述の説明において、既知の情報として説明したものが含まれている。外部記憶装置15007に保存されているプログラムやデータは、CPU15001による制御に従って適宜RAM15002にロードされる。CPU15001は、ロードされたプログラムやデータを用いて処理を実行することで、情報提示装置が処理を行うものとして上述した各処理を実行することになる。なお、外部記憶装置15007は、図1、図8に示したデータ記憶部1050として用いてもよい。
記憶媒体ドライブ15008は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、かかる記憶媒体にプログラムやデータを書き込んだりする。なお、外部記憶装置15007に保存されているものとして説明したプログラムやデータの一部若しくは全部を記憶媒体に記録しておいてもよい。記憶媒体ドライブ15008が記憶媒体から読み出したプログラムやデータは、外部記憶装置15007やRAM15002に対して出力される。
I/F15009は、USB等のデジタル入出力ポート、また、画像を表示部に対して出力するためのイーサネットポートなどによって構成される。I/F15009を介して受信したデータは、RAM15002や外部記憶装置15007に入力される。15010は、上述の各部を繋ぐバスである。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1000,9000:情報処理装置、1010:第一仮想空間生成部、1020:処理送信部、1030:第一画像生成部、1040:第一画像出力部、1050:データ記憶部、1060:視点変更指示部、1070,9070:第二仮想空間生成部、1080,9080:第二画像生成部、1090:第二画像出力部、1095:仮想物体合成部、1100:仮想物体生成部、1110:視点決定部、1200:入力部、1300:第二表示部、1400:第一表示部、2010,2020:仮想カメラ、9100:撮像画像取得部、9110:視点情報計測部

Claims (9)

  1. 第一仮想空間を生成する第一空間生成手段と、
    前記第一仮想空間内の仮想物体のために複数の異なる視点を生成する視点生成手段と、
    前記複数の異なる視点で複数の仮想物体を生成する仮想物体生成手段と、
    前記複数の仮想物体を合成仮想物体として合成する合成手段と、
    前記合成仮想物体を含む第二仮想空間を生成する第二空間生成手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記視点生成手段は、仮想物体のバウンディングボックスを用いて前記複数の異なる視点を生成することを特徴とする請求項1に記載の情報処理装置。
  3. 前記視点生成手段は、前記第一空間生成手段を操作する操作者によって変更された視点を、前記複数の異なる視点の1つとして生成することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記合成手段は、前記複数の仮想物体の重複面を削除して1つの面を残すことを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記合成手段は、前記重複面の詳細度に基づいて残す面を決定することを特徴とする請求項4に記載の情報処理装置。
  6. 現実空間を撮像して撮像画像を取得する撮像手段と、
    前記現実空間上の3次元位置に仮想物体を表示するために前記撮像手段の位置姿勢を計測する計測手段と、
    前記撮像画像に仮想物体を重畳する画像生成手段と、
    をさらに備えることを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記画像生成手段により生成された画像を表示する表示手段をさらに備えることを特徴とする請求項6に記載の情報処理装置。
  8. 情報処理装置の制御方法であって、
    第一空間生成手段が、第一仮想空間を生成する第一空間生成工程と、
    視点生成手段が、前記第一仮想空間内の仮想物体のために複数の異なる視点を生成する視点生成工程と、
    仮想物体生成手段が、前記複数の異なる視点で複数の仮想物体を生成する仮想物体生成工程と、
    合成手段が、前記複数の仮想物体を合成仮想物体として合成する合成工程と、
    第二空間生成手段が、前記合成仮想物体を含む第二仮想空間を生成する第二空間生成工程と、
    を有することを特徴とする情報処理装置の制御方法。
  9. 請求項8に記載の情報処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
JP2015225086A 2015-11-17 2015-11-17 情報処理装置、情報処理装置の制御方法およびプログラム Active JP6660159B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015225086A JP6660159B2 (ja) 2015-11-17 2015-11-17 情報処理装置、情報処理装置の制御方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015225086A JP6660159B2 (ja) 2015-11-17 2015-11-17 情報処理装置、情報処理装置の制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017091471A JP2017091471A (ja) 2017-05-25
JP6660159B2 true JP6660159B2 (ja) 2020-03-11

Family

ID=58767977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015225086A Active JP6660159B2 (ja) 2015-11-17 2015-11-17 情報処理装置、情報処理装置の制御方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6660159B2 (ja)

Also Published As

Publication number Publication date
JP2017091471A (ja) 2017-05-25

Similar Documents

Publication Publication Date Title
JP7443602B2 (ja) 仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
JP7095189B2 (ja) 多ソース仮想コンテンツ合成を伴う複合現実システムおよびそれを使用して仮想コンテンツを生成する方法
JP7009494B2 (ja) カラー仮想コンテンツワーピングを伴う複合現実システムおよびそれを使用して仮想コンテンツ生成する方法
US10861130B2 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
JP5845211B2 (ja) 画像処理装置、画像処理方法
JP4262011B2 (ja) 画像提示方法及び装置
JP4739002B2 (ja) 画像処理方法、画像処理装置
JP4948218B2 (ja) 画像処理装置及びその制御方法
KR20230048457A (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP7166484B1 (ja) 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成
JP2020173529A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6660159B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
KR101227155B1 (ko) 저해상도 그래픽 영상을 고해상도 그래픽 영상으로 실시간 변환하는 그래픽 영상 처리 장치 및 방법
JP2008217119A (ja) システム、画像処理装置、画像処理方法
JP4931038B2 (ja) 立体視画像装置、ゲーム装置、立体視画像映写装置、立体視画像データ生成方法、制御プログラムおよび可読記録媒体
JP2019133310A (ja) 画像処理装置、画像処理プログラム及び画像処理方法
JP2018142273A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2022067171A (ja) 生成装置、生成方法、及び、プログラム
JP2021157458A (ja) 情報処理装置、情報処理方法
JP2006252059A (ja) 画像処理方法、画像処理装置
JP2006227913A (ja) 画像処理方法、画像処理装置
JP2006268351A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200207

R151 Written notification of patent or utility model registration

Ref document number: 6660159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151