JP2016122392A - 情報処理装置、情報処理システム、その制御方法及びプログラム - Google Patents
情報処理装置、情報処理システム、その制御方法及びプログラム Download PDFInfo
- Publication number
- JP2016122392A JP2016122392A JP2014263005A JP2014263005A JP2016122392A JP 2016122392 A JP2016122392 A JP 2016122392A JP 2014263005 A JP2014263005 A JP 2014263005A JP 2014263005 A JP2014263005 A JP 2014263005A JP 2016122392 A JP2016122392 A JP 2016122392A
- Authority
- JP
- Japan
- Prior art keywords
- real
- image
- virtual object
- real object
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】現実空間における物体の移動に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力すること【解決手段】現実画像と仮想オブジェクト画像とを合成した合成画像を表示装置に出力する情報処理装置が、現実物体の位置を特定し、特定された現実物体の位置の情報に基づいて現実物体が移動しているか判定し、移動している場合に現実物体の存否を認識可能にするように前記合成画像を前記表示装置に表示させるべく出力する【選択図】図4
Description
本発明は、情報処理装置、情報処理システム、その制御方法及びプログラムに関する。
近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。MR技術を用いて、ヘッドマウントディスプレイを装着したユーザに対し、現実物体とCGモデルを配置した空間の疑似体験を提供できる。MR空間(現実空間と仮想空間とを合成した複合現実空間)を生成するにあたり、仮想空間を現実空間の位置合わせに用いられる位置指標として、マーカを用いる場合がある。
特許文献1には、当該マーカの存在をユーザに意識させないために、マーカを検出した場合に、当該マーカを隠した画像を描画する技術が記載されている。
また、特許文献2では、仮想のペットを育成する複合現実感提示装置において、ユーザの所定部位による所定動作により、仮想のペットを示す3次元モデルの内部状態を遷移させ、仮想物体の存在感の認知を容易にするMRに関する技術が開示されている。
しかしながら、例えば、特許文献1及び特許文献2に記載の技術を用いて仮想物体(CGオブジェクト)の画像を描画して現実の画像と単純に重畳する場合には問題はないが、ユーザがMR空間に積極的に参加する形式の場合に問題になることがある。その代表的なものは、ユーザが2つの現実物体の一方(もしくは両方でも良い)を移動させたことで、他方の物体に接触(衝突)してしまう場合である。
一例を示すなら、ユーザ(ユーザの装着しているHMD)が移動し、複合現実空間上に配置されているCGモデル(仮想オブジェクト)で隠れている現実物体と衝突してしまうことが考えられる。ここではユーザが移動している場合について記載したが、この関係が逆の場合にも言えることである。
本発明は、現実空間における物体の移動に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することを目的とする。
例えば本発明の情報処理装置は、現実空間を表す現実画像と、仮想空間における仮想オブジェクト画像とを合成した合成画像をユーザが視認するための表示装置に出力する情報処理装置であって、現実空間上の現実物体の位置を特定する現実物体位置特定手段と、
前記現実物体位置特定手段で特定された現実物体の位置の情報に基づいて、前記現実物体が移動しているか判定する移動判定手段と、前記移動判定手段で前記現実物体が移動していると判定された場合に、現実物体の存否を認識可能にするように前記現実画像と前記仮想オブジェクト画像が合成された合成画像を前記表示装置に表示させるべく出力する出力手段と、を備えることを特徴とする。
本発明によれば、現実空間における物体の移動に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することができる。
以下、添付図面に従って本発明に係る実施の形態を詳細に説明する。
[第1の実施形態]
図1は実施の形態における情報処理システムの構成とその利用の様子を示している。
[第1の実施形態]
図1は実施の形態における情報処理システムの構成とその利用の様子を示している。
本情報処理システムはPC100(情報処理装置100)とヘッドマウントディスプレイ(以下、HMD/表示装置)101で構成される。図示ではHMD101と情報処理装置とはケーブル102で接続されているものとしているが、情報処理装置100とHMD101とが互いに通信が行えれば良いので、有線、無線は問わない。
図示の環境では、HMD101を装着したユーザが室内にいる状態を示している。また、室内には複数の仮想オブジェクトが配置されているものとする。仮想オブジェクトとは、仮想空間上に配置された3次元モデル(3次元CADデータ/描画データ)のことである。尚、3次元モデルのデータは情報処理装置100の外部メモリ上に、当該3次元モデルを仮想空間上のいずれの位置にどのような姿勢で配置するかを示す位置姿勢の情報と対応付けられて記憶されている(例えば、図13−B)。
また、この室内には複数のマーカ150が貼り付けられているものとする。マーカの形状は問わないが、実施形態では正方形であり、全て同じサイズであるものとする。各マーカにはユニークなマーカ番号が埋め込まれているものとする。そして、HMD101に設けられたカメラで撮像した際に、個々のマーカが識別でき、デコードした際に、そのマーカ番号が得られるものとする。マーカの種類(マーカが果たす役割の種類)は、HMD101の位置姿勢を決定するための位置検出用マーカ(位置検出マーカ)、並びに、そのマーカで規定される箇所に仮想オブジェクトを描画するものとして利用される仮想オブジェクト配置用マーカ(仮想オブジェクト化マーカ)の2種類がある。そして、位置検出用マーカについては、HMD101の位置姿勢がどのような状態であっても、内蔵するカメラの視野内に最低でも3つが含まれるように、予め既知の位置に貼り付けられているものとする。
上記の構成におけるHMD101の位置姿勢を検出する原理は、撮像した画像中の3つの位置検出用マーカ(その位置は既知)それぞれのサイズから、HMD101からそれぞれまでの位置検出用マーカまでの距離を求める。そして、逆に、3つの位置検出用マーカから求めた3つの距離が重なる位置を、HMD101の位置として決定する。また、HMD101の姿勢は、撮像した画像中の3つの位置検出用マーカの配置から求めればよい。
図2は実施形態における情報処理装置100とHMD101のハードウェアのブロック構成図を示している。尚、図2の情報処理装置100とHMD101のハードウェアの構成は一例であり、用途や目的に応じて様々な構成例が考えられる。図示はあくまでその一例であると認識されたい。
まず、情報処理装置100は、例えば、パーソナルコンピュータである。そして、内部には、CPU201、ROM202、RAM203、システムバス204、入力コントローラ205、ビデオコントローラ206、メモリコントローラ207、通信I/Fコントローラ208、入力デバイス209、ディスプレイ210、外部メモリ211等を備える。
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムや、各種装置の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。
CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
また、入力コントローラ(入力C)205は、キーボードやマウス250等のポインティングデバイスからの入力を制御する。
ビデオコントローラ(VC)206は、ディスプレイ210等の表示器への表示を制御する。表示器は液晶ディスプレイでもCRTでも構わない。
CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
また、入力コントローラ(入力C)205は、キーボードやマウス250等のポインティングデバイスからの入力を制御する。
ビデオコントローラ(VC)206は、ディスプレイ210等の表示器への表示を制御する。表示器は液晶ディスプレイでもCRTでも構わない。
メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。
通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。通信I/Fコントローラ208は、トランスミッター270から磁場を受信したレシーバ271との通信と、赤外線カメラ104との通信も制御する。
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。
本実施形態の情報処理装置100が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本実施形態に係わるプログラムが用いる定義ファイルや各種情報テーブル(後述の図3のテーブルを含む)は外部メモリ211に格納されている。
一方、HMD101は、右目ビデオカメラ221、左目ビデオカメラ222、右目ディスプレイ223、左目ディスプレイ224、コントローラ225等を備える。
右目ビデオカメラ221と、左目ビデオカメラ222は、現実世界を撮影するビデオカメラである。右目ビデオカメラ221は、右目ディスプレイ223に表示するための画像を撮影し、左目ビデオカメラ522は、左目ディスプレイ224に表示するための画像を撮影する。撮影された画像(現実空間画像)は、コントローラ225が情報処理装置100の通信I/Fコントローラ208に向けて送信する。
情報処理装置100から通信I/Fコントローラ208を通じて複合現実画像データが送信されると、コントローラ225が受信し、受信した複合現実画像を右目ディスプレイ223と左目ディスプレイ224に表示させる。この時、右目ビデオカメラ221で撮影された現実空間画像に基づいて生成された複合現実画像は、右目ディスプレイ223に表示し、左目ビデオカメラ222で撮影された現実空間画像に基づいて生成された複合現実画像は、左目ディスプレイ224に表示する。
以上実施形態におけるシステムの構成を説明した。次に、実施形態における各種テーブルを説明する。以下に説明する各テーブルは、外部メモリ211に格納されているものである。
図13(a)はマーカテーブルを示している。マーカテーブルは、マーカ番号(マーカNo)、マーカの種別(マーカの種類)、座標(位置及び向き=位置姿勢)、オブジェクトIDのフィールドで構成されている。マーカ番号は、マーカを一意に特定するためのものである。マーカの種別には、位置検出用マーカと、仮想オブジェクト配置用マーカがある。なお、マーカに埋め込めるビット数にもよるが、位置検出用マーカと仮想オブジェクト配置用マーカを兼ねるマーカを定義しても構わない。
仮想オブジェクト配置用マーカとは、仮想オブジェクトを表示する位置を特定するために用いられるマーカである。情報処理装置100のCPU201は、当該仮想オブジェクト配置用マーカが検出された際、当該仮想オブジェクト配置用マーカが存在する位置(正確には後述するように当該仮想オブジェクト配置用マーカの重心位置からオフセットを持つ位置)に仮想オブジェクトを表示するための処理を行う。例えば、3次元モデルを当該オフセットの示す仮想空間上の位置に配置する処理を行う。本実施形態では、現実物体120にこの仮想オブジェクト配置用マーカが貼り付けられているものとしている。
座標(位置・向き)、オブジェクトIDのフィールドには、マーカが位置検出用マーカであれば、3次元空間(仮想空間)における当該位置検出用マーカの座標(位置・向き=位置姿勢)が格納され、オブジェクトIDの項目にはnull(データなし)の値が格納される。
マーカが仮想オブジェクト配置用マーカであれば、仮想空間における当該仮想オブジェクト配置用マーカの座標と、当該仮想オブジェクト配置用マーカに対応する仮想オブジェクトの描画データを特定するオブジェクトIDが格納される。
なお、マーカの法線方向に視点があるとき、そのマーカ画像が正方形に見えることになる。そして、視点が法線方向からずれると、そのずれの度合いに応じて正方形が歪んで見える。つまり、この歪みから、視点の軸に対するマーカで規定される平面の向きが判明し、マーカのサイズから視点とマーカ間の距離を検出でき、マーカが貼り付けられた平面が規定できる。また、実施形態では、マーカには、互いに識別できる2つの印が設けられ、マーカの中心位置を原点とし、マーカで規定される上記の平面上の、原点からその印に向かう2つのベクトルを2軸、マーカの中心位置から法線方向の1軸で、局所的(ローカル)な3次元座標を規定する3軸を規定しているものとする。
図13(b)は仮想オブジェクト描画データのテーブルを示している。このテーブルは、オブジェクトID、仮想オブジェクトの描画データ、位置、向きのフィールドを有する。オブジェクトIDは、図3(a)の「オブジェクトID」フィールドに格納されたIDを格納する。描画データは、3次元CADデータ等の(仮想オブジェクトの形状を形作る)3次元モデルのデータである。位置は、仮想オブジェクト配置用マーカで規定される局所的な3次元座標において、仮想オブジェクトを描画する位置を格納する。「向き」は、「位置」に仮想オブジェクトを仮想空間上に配置して画像として描画する際に、その仮想オブジェクトの向きを規定するための情報である。
つまり、仮想オブジェクトは、仮想オブジェクトマーカの重心位置を局所的な座標原点としたとき、その座標原点から「位置」「向き」で規定される位置と向きに、描画データに基づく形状を描画することで得られる。換言すれば、仮想オブジェクトは、位置検出用マーカで規定される座標空間における仮想オブジェクト配置用マーカの重心位置から、「位置」で規定されるオフセットだけずれた位置に、「向き」で示される向きに表示されることを意味する。
図13(a)によると、マーカ番号「50」は仮想オブジェクト配置用マーカであり、そのオブジェクトIDは“201”である。このオブジェクトID“201”を用いて、図13(b)のテーブルから、描画データを読み出し、仮想オブジェクト配置用マーカの重心位置を原点とした局所的な3次元座標上の「位置」と「向き」に合わせて、仮想空間上に配置された仮想オブジェクトの画像を描画することになる。
実施形態では説明を簡単にするため、仮想オブジェクト配置用マーカの重心位置が仮想オブジェクトの重心位置と一致している、つまり、「位置」の3成分(X,Y,Z座標)がゼロであるものとする。繰り返すが、仮想オブジェクトの位置は、厳密には、仮想オブジェクト配置用マーカに図13(b)で示した「位置」(オフセット)を加味したものとなる点に注意されたい。
図13(c)はユーザが体感するMR空間(図1の部屋)内に存在する現実物体のデータを管理する現実物体テーブルである。現実物体も、管理する上で現実物体の番号が割り当てられ、かつ、その現実物体の仮想空間上の位置、向き、形状の情報(いわゆるCADデータ/CADデータと仮想空間上の位置姿勢の情報を対応付けたデータ)を格納する。詳細は後述するが、MR空間における、仮想物体と現実物体との距離を求める際の、現実物体の位置座標もこの情報を参照することになる。
以上実施形態におけるテーブルを説明した。次に、実施形態における特徴となる処理を説明する。
HMD101のコントローラ225の処理は単純である。すなわち、左右のビデオカメラ221,222で撮像した2つの画像を情報処理装置100に送信する処理と、情報処理装置100から受信した2つの画像(MR空間画像)を左右のディスプレイ223,224に表示する処理とを、例えば1秒当たり30回程度の速度で繰り返し行うだけである。
従って、以下では情報処理装置100(のCPU201)の処理概要を説明する。
従って、以下では情報処理装置100(のCPU201)の処理概要を説明する。
まず、理解を容易にするため、図1に示すような環境において、HMD101を装着したユーザが複合現実空間内を移動する例を説明する。
情報処理装置100は、HMD101からの受信した画像を解析することで、マーカを識別(デコード)し、図13(a)のマーカテーブルを参照して、当該画像に含まれるマーカが位置検出用マーカか、仮想オブジェクト配置用マーカかを判定する。位置検出用マーカはHMD101の位置姿勢の算出に用いられる。ここでは、更に、撮像した画像内に仮想オブジェクト配置用マーカが存在した場合について説明する。
仮想オブジェクト配置用マーカを検出すると、当該仮想オブジェクト配置用マーカに対応するオブジェクトIDから、図13(b)の仮想オブジェクト描画データを取得し、HMD101の位置姿勢と、仮想オブジェクト配置用マーカの存在する仮想空間上の位置、図13(b)の位置姿勢の情報(ここでは図13(b)の位置姿勢の情報=0,0,0であるものとする)に基づき、3次元モデルを仮想空間内の仮想オブジェクト配置用マーカの位置に配置し、仮想空間内の仮想オブジェクト配置用マーカの存在する位置に左右のカメラから見たと仮定した場合の仮想オブジェクトを描画する。そして、その描画した画像と、現実に撮像された左右の目用の画像とを合成し、MR画像(合成画像/複合現実画像)を生成し、HMD101に送信し、表示させる。
例えば、ここでは、現実物体120Aに貼り付けられたマーカが仮想オブジェクト配置用マーカであって、仮想オブジェクト配置用マーカ(仮想オブジェクト配置用マーカの貼付された現実物体120A)を覆う「仮想オブジェクトA」を描画する仮想オブジェクト描画データのオブジェクトIDを有しているものとする。この場合、HMD101を装着したユーザには、現実物体120Aに代わって「仮想オブジェクトA」の画像がその位置に存在するものとして知覚させることができる。
室内には、図1に示すように現実物体120(120A及び120B)を覆う仮想オブジェクトと、現実物体を覆っていない仮想オブジェクトが配置されているものとする。結果、HMD101のディスプレイには、図1でいうと仮想オブジェクトが4つ表示されることになり、ユーザにとってはどれも同じ仮想オブジェクト(実体を伴わないCG)として認識されることになる。
この場合、仮想オブジェクトによっては、仮想オブジェクト内を素通りすることができるが、例えば仮想オブジェクトA又は仮想オブジェクトBの場合は現実物体と重なっているため、素通りしようとすると現実物体120A、120Bと衝突してしまうことになり、ユーザの混乱を招く可能性が高い。
そこで、第1の実施形態では、図1に示すように、現実物体(HMD101)が移動している場合に、仮想オブジェクトを表す画像の一部(又は全部でも良い)の透明度を大きくする(以下、透過処理という)。つまり、仮想オブジェクトの表示形態(表示状態)を変更する。その後、MR画像を生成してHMD101に出力し、表示させることで、複合現実空間上の現実物体の存否を積極的にユーザに知らしめる。
現実物体120の位置と形状、大きさに係るデータは図13(c)に示すように外部メモリ211に現実物体テーブルとして記憶されている。
次に図3を参照して、本発明の実施形態における各種装置の機能構成の一例について説明する。
マーカ情報記憶部301は、各マーカの情報を記憶する記憶部である(図13)。撮像画像受信部302は、HMD101の撮像処理部311で撮像され、撮像画像送信部312で送信された撮像画像(現実画像)を受信する。
位置情報特定部303は、現実画像中のマーカの情報からHMD101の位置及び仮想オブジェクトの位置を特定する。オブジェクト記憶部304は、仮想オブジェクト、現実物体の形状、位置姿勢等を記憶する記憶部である。
現実物体移動判定部305は、複合現実空間において現実物体が移動しているか判定する。オブジェクト透過処理部306は、当該現実物体の移動に応じて、複合現実空間に配置された仮想オブジェクトを透過する。
重畳画像生成部307は、当該透過した仮想オブジェクトを現実画像に重畳した重畳画像(MR画像)を生成し、重畳画像送信部308が、当該MR画像をHMD101に送信する。重畳画像受信部313はMR画像を受信して、当該重畳画像表示部314が当該受信したMR画像を表示する。以上が図3の説明である。
以下、図4を参照して、本発明の第1の実施形態における、現実物体の移動に応じた複合現実画像の出力処理の流れを示すフローチャートである。
まず、情報処理装置100のCPU201は、HMD101が撮像した2枚の画像データを入力し、その画像中のマーカ画像を識別する。入力した画像中に存在する位置検出用マーカであると判定されたマーカ画像から、HMD101の位置姿勢を検出(算出)する(ステップS401/現実物体位置特定手段)。入力した画像中に仮想オブジェクト配置用マーカが存在しないと判定した場合には、合成すべき仮想オブジェクトを描画する必要はないので、入力した画像をそのまま左目、右目用の画像としてHMD101に送信する。
一方、入力した画像中に仮想オブジェクト配置用マーカが存在すると判定した場合(ユーザの視野内に現実物体120が存在する場合である)、情報処理装置100のCPU201は、その仮想オブジェクト配置用マーカに該当するオブジェクトIDで特定される描画データを読み出し、現在のHMD101の位置姿勢、並びに、仮想オブジェクト配置用マーカの位置に従い、仮想オブジェクトの仮想空間上の位置・姿勢を決定する(ステップS402)。
情報処理装置100のCPU201は、ステップS404でHMD101が移動しているか判定する(ステップS404)。実施形態では、30フレーム/秒で処理することを想定しているので、1/30秒前のHMD101の位置と、現在の位置とを取得して(ステップS403)当該位置の差が所定閾値以上あるか否かで判断するものとする。1/30秒前に、なお、この閾値は、HMD101の位置姿勢の検出精度に依存して決めればよい。
ステップSS404の判定結果が移動中ではない、すなわち、停止状態を示す場合、処理はステップS406に進み、通常の仮想オブジェクト(透過率(透過度)=0%の仮想オブジェクト)の描画処理を行う。つまり、透過率0%のMR画像を生成する(ステップS406)。
また、ステップS404の判定結果が、HMD101が移動中であることを示している場合、情報処理装置100のCPU201は処理をステップ405に進める。そして、仮想オブジェクトに現実物体が隠れているか否かをユーザに認識させるべく、入力された画像に含まれる仮想オブジェクト配置用マーカによって配置される仮想オブジェクトの透過率を所定の透過率(例えば50%)に変更し、当該透過率が変更された(透過された)仮想オブジェクトを現実画像に重畳したMR画像を生成する(ステップS405/表示形態変更手段に該当)。例えば、図1の170に示すように仮想オブジェクトを半透明にするものである。
情報処理装置100のCPU201はMR画像をHMD101に送信し(ステップS407)、HMD101が当該MR画像を受信して(ステップS408)表示画面に表示する(ステップS409)。
以上本発明の第1の実施形態について説明した。
以上説明したように、本発明によれば、現実空間における物体の移動に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することができる。
[第2の実施形態]
上記第1の実施形態では、HMD101が移動している場合に、MR空間上の仮想オブジェクトを特に区別なく透過するようにした。つまり、現実物体を覆っていない(現実物体と重なっていない)仮想オブジェクトまで透過させてしまう。
第2の実施形態では、現実物体が移動した場合に表示状態(表示形態)を変更すべき仮想オブジェクトを示す識別情報に従って、現実空間における物体の移動に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することを目的とする。
以下、図5を参照して、第2の実施形態における、現実物体の移動に応じた複合現実画像の出力処理について説明する。ステップS401〜S404、ステップS406〜S409の処理は図4に説明したとおりであるため、ここでは説明を割愛する。
第2の実施形態においては、図13(b)の仮想オブジェクト描画データに、更に、HMD101(現実物体)が移動した場合にいずれの仮想オブジェクトを識別表示(透過)すべきかを示す不図示の透過フラグが、オブジェクト識別Noごとに対応付けて記憶されているものとする。
透過フラグ=1の仮想オブジェクトは、HMD101(現実物体)が移動している場合に透過させる仮想オブジェクトである。透過フラグ=0の仮想オブジェクトは、HMD101(現実物体)が移動していたとしても透過させない仮想オブジェクトであるものとする(フラグ記憶手段に該当)。
情報処理装置100のCPU201は、ステップS404でHMD101が移動中であると判定された場合に、図13(b)を参照して、透過フラグ=1の仮想オブジェクトを特定する(ステップS501)。そして、当該透過フラグ=1の仮想オブジェクトを透過すべく、当該仮想オブジェクトの透過率を所定の透過率(例えば50%)に変更し(ステップS502)、HMD101から入力された画像中に含まれる仮想オブジェクト配置用マーカによって位置姿勢が決定された仮想オブジェクト(透過した仮想オブジェクト及び透過していない仮想オブジェクト)を現実画像に合成してMR画像を生成する(ステップS503/表示形態変更手段に該当)。そして、当該MR画像をHMD101に表示させるべく送信する。
以上本発明の第2の実施形態について説明した。
以上説明したように、本発明の第2の実施形態によれば、現実物体が移動した場合に表示状態を変更すべき仮想オブジェクトを示す識別情報に従って、現実空間における物体の移動に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することができる。
[第3の実施形態]
上記第1の実施形態では、HMD101が移動している場合に、MR空間上の仮想オブジェクトを特に区別なく透過するようにした。つまり、現実物体を覆っていない(現実物体と重なっていない)仮想オブジェクトまで透過させてしまう。
第3の実施形態では、現実空間における物体の移動に応じて、現実物体と重なっている仮想オブジェクトについて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することを目的とする。
以下、図6を参照して、第3の実施形態における、現実物体の移動に応じた複合現実画像の出力処理について説明する。ステップS401〜S404、ステップS406〜S409の処理は図4に説明したとおりであるため、ここでは説明を割愛する。
情報処理装置100のCPU201は、ステップS404でHMD101が移動中であると判定された場合に、図13(b)及び図13(c)のテーブルを参照し、仮想オブジェクトの形状(仮想オブジェクトを形作る描画データの形状)及び位置姿勢、現実物体の形状及び位置姿勢の情報を取得し、複合現実空間上に置いて、現実物体と全部または一部が重なっている仮想オブジェクトを特定する(ステップS601)。
そして、当該現実物体と重なっている仮想オブジェクトを透過すべく、当該仮想オブジェクトの透過率を所定の透過率(例えば50%)に変更し(ステップS602)、HMD101から入力された画像中に含まれる仮想オブジェクト配置用マーカによって位置姿勢が決定された仮想オブジェクト(透過した仮想オブジェクト及び透過していない仮想オブジェクト)を現実画像に合成してMR画像を生成する(ステップS603/表示形態変更手段に該当)。そして、当該MR画像をHMD101に表示させるべく送信する。
以上本発明の第3の実施形態について説明した。
以上説明したように、本発明の第3の実施形態によれば、現実空間における物体の移動に応じて、現実物体と重なっている仮想オブジェクトについて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することができる。
例えば図7に示すように、HMD101(現実物体)が移動している場合に、現実物体を覆う仮想オブジェクトのみを識別表示することができる。
[第4の実施形態]
上記第1の実施形態では、HMD101が移動している場合に、MR空間上の仮想オブジェクトを特に区別なく透過するようにした。つまり、衝突の危性が低い、移動中の現実物体(例えばHMD101)から離れている仮想オブジェクトまで透過させてしまう。
第4の実施形態では、現実空間における物体の移動、及び移動した現実物体からの距離に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することを目的とする。
以下、図8を参照して、第4の実施形態における、現実物体の移動に応じた複合現実画像の出力処理について説明する。ステップS401〜S404、ステップS406〜S409の処理は図4に説明したとおりであるため、ここでは説明を割愛する。
情報処理装置100のCPU201は、ステップS404でHMD101が移動中であると判定された場合に、仮想空間上に配置された(位置姿勢が決定された)仮想オブジェクトを1つ特定し(ステップS801)、当該仮想オブジェクトと移動中の現実物体(HMD101)との距離が所定距離以内か判定する(ステップS802/距離判定手段に該当)。当該所定距離の値は予めサーバ200の外部メモリに記憶されているものとする。
ここで判定する「距離」は、HMD101と、現実物体120に貼り付けられた仮想オブジェクト配置用マーカの中心位置に最も近い座標を検索することで判定するものとする。
仮想オブジェクト配置用マーカの中心位置の座標を{Xv,Yv,Zv}とし、図13(c)のHMD101の座標を{Xi,Yi,Zi}(ここで、i=0,1,2,…)と定義したとき、距離Lは次式で得られる。
L={(Xv−Xi)2+(Yv−Yi)2+(Zv−Zi)2}1/2
L={(Xv−Xi)2+(Yv−Yi)2+(Zv−Zi)2}1/2
ここで、iを変化させた際の最小の距離Lを、仮想オブジェクト配置用マーカと仮想オブジェクトとの距離とした。なお、上記では距離を計算する際に、最終的に平方根を求めたが、大小の判定で良いのであれば、平行根を求める必要な無く、座標の差分の二乗和を算出しても構わない。
なお、上記式では、仮想オブジェクト配置用マーカの中心位置=仮想オブジェクトの中心位置とした場合である。先に説明したように、仮想オブジェクトの配置される位置(図13(b)の「位置」の示す位置)は、仮想オブジェクト配置用マーカの中心位置に対し、「位置」で示されるオフセットが与えられる。
情報処理装置100のCPU201は、仮想オブジェクトと移動中の現実物体(HMD101)との距離が所定距離以内であると判定された場合(ステップS802でYES)、当該移動中のHMD101と所定距離以内にある仮想オブジェクトを透過する(透過率を所定の透過率(例:50%)に変更する/ステップS803)。仮想オブジェクトと移動中の現実物体(HMD101)との距離が所定距離外であると判定された場合、当該仮想オブジェクトは透過しない(透過率=0%とする)。
そして、仮想空間に配置されている全ての仮想オブジェクトに対してS801〜S803の処理を適用した後、HMD101から入力された画像中に含まれる仮想オブジェクト配置用マーカによって位置姿勢が決定された各仮想オブジェクト(透過した仮想オブジェクト及び透過していない仮想オブジェクト)を現実画像に合成してMR画像を生成し(ステップS804/表示形態変更手段に該当)、HMD101に表示させるべく送信する。
以上本発明の第4の実施形態について説明した。
以上説明したように、本発明の第4の実施形態によれば、現実空間における物体の移動、及び移動した現実物体からの距離に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することができる。
例えば図9に示すように、移動中のHMD101から所定距離内の仮想オブジェクトを識別表示(透過)することができる。
[第5の実施形態]
第5の実施形態では、マスクオブジェクトを用いて、現実空間における物体の移動、及び移動した現実物体からの距離に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することを目的とする。
マスクオブジェクトとは、仮想オブジェクトと同じように描画データによって形作られる仮想の物体である。仮想空間上に配置されたマスクオブジェクトの位置には(配置されたマスクオブジェクトの形状が占める空間には)、仮想オブジェクトを描画しない(例えば、図11)。
以下、図10を参照して、第5の実施形態における、現実物体の移動に応じた複合現実画像の出力処理について説明する。ステップS401〜S404、ステップS406〜S409の処理は図4に説明したとおりであるため、ここでは説明を割愛する。
情報処理装置100のCPU201は、ステップS404でHMD101が移動中であると判定された場合に、HMD101の位置に、所定の形状のマスクオブジェクトを配置する処理を行う(ステップS1001)。当該マスクオブジェクトの形状のデータは、情報処理装置100の外部メモリに予め記憶されているものとする。
情報処理装置100のCPU201は、当該マスクオブジェクトの占める空間(つまり、HMD101から所定距離以内の空間)には仮想オブジェクトの画像を描画しないようにMR画像を生成し(ステップS1002/表示形態変更手段に該当)、当該MR画像をHMD101に表示させるべく送信する。
以上本発明の第5の実施形態について説明した。
以上説明したように、本発明の第5の実施形態によれば、マスクオブジェクトを用いて、現実空間における物体の移動、及び移動した現実物体からの距離に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することができる。
例えば図11に示すように、HMD101(現実物体)が移動している場合に、HMD101から所定距離内の仮想オブジェクトを透過することができる。
[第6の実施形態]
上記実施形態では、HMD101(現実物体)が移動している場合に、MR空間上の仮想オブジェクトを特に区別なく透過するようにした。つまり、ユーザが他の物体と書写しないようにゆっくりと移動していたとしても仮想オブジェクトが透過されてしまう。
第6の実施形態では、現実空間における物体の移動、及び移動速度に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することを目的とする。
以下、図12を参照して、第6の実施形態における、現実物体の移動に応じた複合現実画像の出力処理について説明する。ステップS401〜S404、ステップS406〜S409の処理は図4に説明したとおりであるため、ここでは説明を割愛する。
情報処理装置100のCPU201は、ステップS404でHMD101が移動中であると判定された場合に、当該HMD101の移動速度が所定の速度以上か判定する(ステップS1201)。当該所定の速度の値(閾値)は、情報処理装置100の外部メモリに予め記憶されているものとする。
本実施形態においては30フレーム/秒で処理することを想定しているので、1/30秒前のHMD101の位置と、現在の位置とを取得して、当該2つの位置の距離と1/30秒という当該距離を移動した時間とからHMD101の移動速度を算出するものとする。
情報処理装置100のCPU201は、当該HMD101の移動速度が所定の速度以上でないと判定された場合には(ステップS1201でNO)処理をステップS406に移行し、当該HMD101の移動速度が所定の速度以上であると判定された場合には(ステップS1201でYES)処理をステップS405に移行して仮想オブジェクトを透過したMR画像を生成する。
以上本発明の第6の実施形態について説明した。
以上説明したように、本発明の第6の実施形態によれば、現実空間における物体の移動、及び移動速度に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することができる。
上述した各実施形態によれば、現実空間における物体の移動に応じて、現実物体の存否を認識可能にするように現実画像と仮想オブジェクト画像が合成された合成画像を出力することができる。
なお、上述した実施形態によれば、移動している現実物体=HMD101としたが、例えば、情報処理装置100のCPU201が、仮想オブジェクト配置用マーカ(仮想オブジェクト配置用マーカの貼付されている現実物体)の移動を各実施形態におけるステップS404で実行して、仮想オブジェクト配置用マーカ(仮想オブジェクト配置用マーカの貼付されている現実物体)が移動している場合に処理をステップS405、S501、S601、S801、S1001、S1201に移行し、仮想オブジェクト配置用マーカ(仮想オブジェクト配置用マーカの貼付されている現実物体)が移動していない場合に処理をステップS406に移行するようにしてもよい。
なお、上記実施形態における透過処理では、管理者が透明率を設定できるようにしても良い。例えば、透明率を100より小さくすると、HMD101を装着したユーザには、透過処理を経た仮想オブジェクトの輪郭が維持されて見え、仮想オブジェクトの原形を把握したまま操作できるようになる。
また、透明度を、移動中の現実物体と他の物体(例:仮想オブジェクト)との距離に応じて変化するようにしてもよい。たとえば、距離の閾値Th、算出した距離L、透明度αと定義したとき、
L>Thのときα=0(すなわち、非透明)
L≦Thのとき、α=(Th−L)/Th
L>Thのときα=0(すなわち、非透明)
L≦Thのとき、α=(Th−L)/Th
としても良い。この場合、現実物体が移動中で、仮想オブジェクトとの距離がTh以下の部分については仮想オブジェクトに近い位置ほど透明度が高くすることができる。
以上、本発明に係る各実施形態を説明したが、上記実施形態は、本発明に係る例であると認識されたい。たとえば、HMD101の位置姿勢を検出するため、上記実施形態では位置検出用マーカが撮像した視野内に3つは存在するものとして、位置検出用マーカを部屋中に多数張り付けるものとしたが、これによって本発明が限定されるものではない。位置検出用マーカには向きを規定する印があり、位置検出用マーカの座標だけでなく、形状や寸法も既知であれば、撮像した画像の位置検出の歪み、サイズ、印の位置から、1つの位置検出用マーカからだけでもHMD101の位置姿勢を特定できる。また、位置検出用マーカを用いるのではなく、HMDそのものの位置姿勢を、光学式センサ、磁気センサ、超音波センサなどを利用して検出する公知技術を利用しても構わない。つまり、HMDの位置姿勢検出に係る手段は問わない。
尚、当該透過の処理は、実物体の存否を認識可能にするための手段の1つである。
例えば、仮想オブジェクトを透過する代わりに、又は透過処理とあわせて、仮想オブジェクトに重なっている現実物体と同じ形状の仮想オブジェクトを生成して(新規オブジェクト生成手段に該当)、現実物体と同じ位置に配置して強調表示する(現実物体の形状をした新規オブジェクトを最前面に表示する/点線で輪郭を表示する等)することで、仮想オブジェクトと重なっている現実物体の存在をユーザに通知し、視認(確認)させるようにしてもよい。
また、前述した透過処理の代わりに、又は透過処理とあわせて、透過対象の仮想オブジェクトの全部又は一部の色を変更する処理を行ってもよい。
また、所定時間以上、当該所定距離以内にあるオブジェクトと現実物体、又は他の仮想オブジェクトが停止した状態にある場合、透過処理、強調表示、色の変更処理を停止し、元の透過率(例:0%)、元の色彩に仮想オブジェクトの状態を戻して描画するようにしてもよい。
また、仮想オブジェクトから所定距離離れた位置(予め決められた座標)に、当該仮想オブジェクトに現実物体が重なっている旨を示す、不図示の吹き出しアイコン(2次元画像/新規オブジェクト)を生成して(新規オブジェクト生成手段に該当)配置・表示して当該通知を行うようにしてもよい。
透過処理、現実物体のオブジェクト描画、アイコン表示はそれぞれ個別に行ってもよいし、同時に行うようにしてもよい。
尚、上述した各実施形態の処理は、同時並行的に実行可能であり、自由に組み合わせ可能であるものである。例えば、HMD101が移動中であって、当該移動の速度が所定の速度以上である場合に、HMD101から所定距離内にある、透過フラグ=1の、現実物体と重なっている仮想オブジェクトを透過(識別表示)するようにしてもよい。
また、HMD101は、シースルー型の端末であってもよいし、携帯端末等、ユーザが手に保持して複合現実空間を覗くような端末・利用形態でもよい。HMD101は、複合現実空間における位置情報が特定可能であり、MR画像を表示できる端末であればよい。
本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。
なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。
なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100…情報処理装置、101…HMD101、102…ケーブル、201…CPU、202…ROM、203…RAM、204…システムバス、205…入力コントローラ、206…ビデオコントローラ、207…メモリコントローラ、208…通信I/Fコントローラ、209…入力デバイス、210…ディスプレイ、211…外部メモリ、221…右目ビデオカメラ、222…左目ビデオカメラ、223…右目ディスプレイ、224…左目ディスプレイ、225…コントローラ
Claims (15)
- 現実空間を表す現実画像と、仮想空間における仮想オブジェクト画像とを合成した合成画像をユーザが視認するための表示装置に出力する情報処理装置であって、
現実空間上の現実物体の位置を特定する現実物体位置特定手段と、
前記現実物体位置特定手段で特定された現実物体の位置の情報に基づいて、前記現実物体が移動しているか判定する移動判定手段と、
前記移動判定手段で前記現実物体が移動していると判定された場合に、現実物体の存否を認識可能にするように前記現実画像と前記仮想オブジェクト画像が合成された合成画像を前記表示装置に表示させるべく出力する出力手段と、
を備えることを特徴とする情報処理装置。 - 前記出力手段は、前記移動判定手段で前記現実物体が移動していると判定された場合であって、当該移動の速度が所定の速度以上であった場合に、現実物体の存否を認識可能にするように前記現実画像と前記仮想オブジェクト画像が合成された合成画像を前記表示装置に表示させるべく出力することを特徴とする請求項1に記載の情報処理装置。
- 現実物体の存否を認識可能にするように前記仮想オブジェクト画像の表示形態を変更する表示形態変更手段と、
を備え、
前記出力手段は、前記表示形態変更手段で、現実物体の存否を認識可能にするように表示形態が変更された仮想オブジェクト画像と前記現実画像が合成された合成画像を、前記移動判定手段による現実物体の移動に応じて前記表示装置に表示させるべく出力することを特徴とする請求項1又は2に記載の情報処理装置。 - 前記仮想オブジェクトと現実物体が重なった位置にあるか判定する重なり判定手段と、
を備え、
前記表示形態変更手段は、前記移動判定手段で前記現実物体が移動していると判定された場合であって、前記重なり判定手段で現実物体と重なった位置にあると判定された仮想オブジェクトについて、現実物体の存否を認識可能にするように前記仮想オブジェクト画像の表示形態を変更することを特徴とする請求項3に記載の情報処理装置。 - 仮想オブジェクトごとに、現実物体の移動に応じて当該仮想オブジェクトの表示形態を、現実物体の存否を認識可能にするように変更するか否かを示すフラグを記憶するフラグ記憶手段と、
を備え、
前記表示形態変更手段は、前記移動判定手段で前記現実物体が移動していると判定された場合であって、前記フラグ記憶手段でフラグが記憶された仮想オブジェクトについて、現実物体の存否を認識可能にするように前記仮想オブジェクト画像の表示形態を変更することを特徴とする請求項3又は4に記載の情報処理装置。 - 前記移動判定手段で移動していると判定された現実物体と仮想オブジェクトの距離が所定距離以内か判定する距離判定手段と、
を備え、
前記表示形態変更手段は、前記現実物体が移動していると判定された場合に、前記距離判定手段で、前記移動判定手段で移動していると判定された現実物体との距離が所定距離以内であると判定された仮想オブジェクトについて、現実物体の存否を認識可能にするように前記仮想オブジェクト画像の表示形態を変更することを特徴とする請求項3乃至5のいずれか1項に記載の情報処理装置。 - 前記表示形態変更手段は、前記仮想オブジェクト画像の一部又は全部の透明度を変更することを特徴とする請求項3乃至6のいずれか1項に記載の情報処理装置。
- 前記表示形態変更手段は、
前記特定手段で特定した距離が小さいほど、前記仮想オブジェクト画像の一部もしくは全部の透過度を大きくすることを特徴とする請求項7に記載の情報処理装置。 - 前記表示形態変更手段は、前記仮想オブジェクト画像の一部又は全部の色を変更することを特徴とする請求項3乃至8のいずれか1項に記載の情報処理装置。
- 現実物体の存否を認識可能にするように、前記現実画像の存否を示す新規オブジェクトを生成する新規オブジェクト生成手段と、
前記出力手段は、前記新規オブジェクト生成手段で生成した新規オブジェクトと、前記現実画像と、前記仮想オブジェクト画像とが合成された合成画像を、前記現実物体の存否を認識可能にするように前記現実画像と前記仮想オブジェクト画像が合成された合成画像として出力することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 - 前記新規オブジェクト生成手段は、前記仮想空間が配置された現実空間における現実物体の位置情報を用いて、前記現実物体の位置を示す新規オブジェクトを生成することを特徴とする請求項10に記載の情報処理装置。
- 前記現実物体は、前記表示装置であるヘッドマウントディスプレイであることを特徴とする請求項1乃至11のいずれか1項に記載の情報処理装置。
- 現実空間を表す現実画像と、仮想空間における仮想オブジェクト画像とを合成した合成画像をユーザが視認するための表示装置に出力する情報処理装置の制御方法であって、
現実空間上の現実物体の位置を特定する現実物体位置特定工程と、
前記現実物体位置特定工程で特定された現実物体の位置の情報に基づいて、前記現実物体が移動しているか判定する移動判定工程と、
前記移動判定工程で前記現実物体が移動していると判定された場合に、現実物体の存否を認識可能にするように前記現実画像と前記仮想オブジェクト画像が合成された合成画像を前記表示装置に表示させるべく出力する出力工程と、
を含むことを特徴とする情報処理装置の制御方法。 - 現実空間を表す現実画像と、仮想空間における仮想オブジェクト画像とを合成した合成画像をユーザが視認するための表示装置に出力する情報処理装置で実行が可能なプログラムであって、
前記情報処理装置を、
現実空間上の現実物体の位置を特定する現実物体位置特定手段と、
前記現実物体位置特定手段で特定された現実物体の位置の情報に基づいて、前記現実物体が移動しているか判定する移動判定手段と、
前記移動判定手段で前記現実物体が移動していると判定された場合に、現実物体の存否を認識可能にするように前記現実画像と前記仮想オブジェクト画像が合成された合成画像を前記表示装置に表示させるべく出力する出力手段として機能させることを特徴とする情報処理装置のプログラム。 - 現実空間を表す現実画像と、仮想空間における仮想オブジェクト画像とを合成した合成画像をユーザが視認するための表示装置に出力する情報処理装置と、出力された画像を表示する表示装置とを含む情報処理システムであって、
前記情報処理装置は、
現実空間上の現実物体の位置を特定する現実物体位置特定手段と、
前記現実物体位置特定手段で特定された現実物体の位置の情報に基づいて、前記現実物体が移動しているか判定する移動判定手段と、
前記移動判定手段で前記現実物体が移動していると判定された場合に、現実物体の存否を認識可能にするように前記現実画像と前記仮想オブジェクト画像が合成された合成画像を前記表示装置に表示させるべく出力する出力手段と、
を備え、
前記表示装置は、
前記出力手段で出力された前記合成画像を取得する取得手段と、
前記取得手段で取得した前記合成画像を表示する表示手段と、
を備えることを特徴とする情報処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014263005A JP2016122392A (ja) | 2014-12-25 | 2014-12-25 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014263005A JP2016122392A (ja) | 2014-12-25 | 2014-12-25 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016122392A true JP2016122392A (ja) | 2016-07-07 |
Family
ID=56326526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014263005A Pending JP2016122392A (ja) | 2014-12-25 | 2014-12-25 | 情報処理装置、情報処理システム、その制御方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016122392A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111602104A (zh) * | 2018-01-22 | 2020-08-28 | 苹果公司 | 用于与所识别的对象相关联地呈现合成现实内容的方法和设备 |
US10792567B2 (en) | 2017-12-25 | 2020-10-06 | GungHo Online Entertainment, Inc. | Terminal device, system, program, and method |
JP2020537257A (ja) * | 2017-10-12 | 2020-12-17 | アウディ アクチェンゲゼルシャフトAudi Ag | 頭部着用型の電子表示装置の操作方法および仮想コンテンツを表示する表示システム |
CN112753008A (zh) * | 2018-09-27 | 2021-05-04 | 苹果公司 | 中间新兴内容 |
US11232603B2 (en) | 2019-10-28 | 2022-01-25 | Fujifilm Business Innovation Corp. | Information processing device and computer readable medium |
WO2022044124A1 (ja) | 2020-08-25 | 2022-03-03 | マクセル株式会社 | 3次元仮想現実表示装置、ヘッドマウントディスプレイ、および3次元仮想現実表示方法 |
JP2022038495A (ja) * | 2020-08-26 | 2022-03-10 | ソフトバンク株式会社 | 表示制御装置、プログラム、及びシステム |
CN112753008B (zh) * | 2018-09-27 | 2024-04-12 | 苹果公司 | 中间新兴内容 |
-
2014
- 2014-12-25 JP JP2014263005A patent/JP2016122392A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020537257A (ja) * | 2017-10-12 | 2020-12-17 | アウディ アクチェンゲゼルシャフトAudi Ag | 頭部着用型の電子表示装置の操作方法および仮想コンテンツを表示する表示システム |
US11364441B2 (en) | 2017-10-12 | 2022-06-21 | Audi Ag | Method for operating an electronic display device wearable on the head and display system for displaying virtual content |
US10792567B2 (en) | 2017-12-25 | 2020-10-06 | GungHo Online Entertainment, Inc. | Terminal device, system, program, and method |
CN111602104A (zh) * | 2018-01-22 | 2020-08-28 | 苹果公司 | 用于与所识别的对象相关联地呈现合成现实内容的方法和设备 |
CN111602104B (zh) * | 2018-01-22 | 2023-09-01 | 苹果公司 | 用于与所识别的对象相关联地呈现合成现实内容的方法和设备 |
CN112753008A (zh) * | 2018-09-27 | 2021-05-04 | 苹果公司 | 中间新兴内容 |
CN112753008B (zh) * | 2018-09-27 | 2024-04-12 | 苹果公司 | 中间新兴内容 |
US11232603B2 (en) | 2019-10-28 | 2022-01-25 | Fujifilm Business Innovation Corp. | Information processing device and computer readable medium |
US11790571B2 (en) | 2019-10-28 | 2023-10-17 | Fujifilm Business Innovation Corp. | Information processing device and computer readable medium |
WO2022044124A1 (ja) | 2020-08-25 | 2022-03-03 | マクセル株式会社 | 3次元仮想現実表示装置、ヘッドマウントディスプレイ、および3次元仮想現実表示方法 |
JP2022038495A (ja) * | 2020-08-26 | 2022-03-10 | ソフトバンク株式会社 | 表示制御装置、プログラム、及びシステム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7079231B2 (ja) | 情報処理装置及び情報処理システム及び制御方法、プログラム | |
JP6978701B2 (ja) | 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム | |
JP2016122392A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP2011128220A (ja) | 情報提示装置、情報提示方法及びプログラム | |
JP2015125641A (ja) | 情報処理装置、その制御方法、及びプログラム | |
CN110070556A (zh) | 使用深度传感器的结构建模 | |
JP6409861B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP2005174021A (ja) | 情報提示方法及び装置 | |
JP2017062720A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP2021099816A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP6152888B2 (ja) | 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム | |
JP7279113B2 (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
JP6357412B2 (ja) | 情報処理装置、情報処理システム、情報処理方法、及びプログラム | |
JP6376251B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP2016115230A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP2015121892A (ja) | 画像処理装置、画像処理方法 | |
JP6164177B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP6734537B2 (ja) | 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム | |
JP2018097645A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
WO2022172335A1 (ja) | 仮想ガイド表示装置、仮想ガイド表示システム、及び仮想ガイド表示方法 | |
JP6703283B2 (ja) | 情報処理装置、その制御方法、及びプログラム | |
JP6741939B2 (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP6744543B2 (ja) | 情報処理システム、その制御方法、及びプログラム | |
JP2020187785A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP2018190447A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20161101 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20161101 |