JP2017062720A - 情報処理装置、情報処理システム、その制御方法及びプログラム - Google Patents

情報処理装置、情報処理システム、その制御方法及びプログラム Download PDF

Info

Publication number
JP2017062720A
JP2017062720A JP2015188449A JP2015188449A JP2017062720A JP 2017062720 A JP2017062720 A JP 2017062720A JP 2015188449 A JP2015188449 A JP 2015188449A JP 2015188449 A JP2015188449 A JP 2015188449A JP 2017062720 A JP2017062720 A JP 2017062720A
Authority
JP
Japan
Prior art keywords
display device
image
hmd
superimposed
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015188449A
Other languages
English (en)
Other versions
JP2017062720A5 (ja
JP6730577B2 (ja
Inventor
光洋 尾崎
Mitsuhiro Ozaki
光洋 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2015188449A priority Critical patent/JP6730577B2/ja
Publication of JP2017062720A publication Critical patent/JP2017062720A/ja
Publication of JP2017062720A5 publication Critical patent/JP2017062720A5/ja
Application granted granted Critical
Publication of JP6730577B2 publication Critical patent/JP6730577B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供すること【解決手段】現実画像に重畳する仮想オブジェクトを記憶し、複合現実画像を表示する複数の表示装置と通信可能な情報処理装置で、表示装置の現実空間上の位置姿勢を取得し、取得された位置の情報に基づいて、表示装置に表示する画像の所定の領域に他の表示装置の位置を示すオブジェクトを重畳した重畳画像を表示装置に表示させる制御をする【選択図】図10

Description

情報処理装置、情報処理システム、その制御方法及びプログラムに関する。
近年、複合現実(Mixed Reality/以下、MRと記載)の技術が普及している。MR技術を用いて、ヘッドマウントディスプレイ(以下、HMD)を装着したユーザに対し、現実物体とCGモデルを配置したMR空間(現実空間と仮想空間とを重ね合わせた複合現実空間)の疑似体験を提供できる。
特許文献1には、当該マーカの存在をユーザに意識させないために、マーカを検出した場合に、当該マーカを隠した画像を描画する技術が記載されている。
従来、MR空間を体感するために装着するHMDによっては、装着によりユーザの視野が狭まってしまい、ユーザが周囲の状況を充分に把握できないという問題があった。例えば他のユーザが視野の外から近付いてきている場合、ふいにぶつかってしまうことが考えられる。
特開2000−350860号公報 特開平10−154243号公報
特許文献2においては、PC画面において、仮想空間上のアバターの位置をレーダーマップ上に表示する技術が開示されている。つまり、ユーザは自分のアバターと同じ仮想空間にいる他人の位置をレーダーマップ上で第三者的視点から確認可能である。
一方、MRの仕組みの場合は、複数人が同じ仮想空間を共有しているが、現実空間上はそれぞれ別の場所にいる場合がある。現実世界において別の場所にいる他のユーザと近付いたとしてもぶつかる危険はない。反対に、同じ場所にいる他のユーザと近付いた場合はぶつかってしまう危険がある。
また、HMDは一般のPCディスプレイと比較して画像の表示部が小さいため、極力無駄な情報を表示したくないと考えられる。
本発明は、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することを目的とする。
本発明は、
本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。
本発明の実施形態における、システム構成の一例を示す図である 本発明の実施形態における、各種装置のハードウエア構成の一例を示す図である 本発明の実施形態における、各種装置の機能構成の一例を示す図である 本発明の第1の実施形態における、HMDの位置姿勢情報の送受信の流れを示すフローチャートである 本発明の第1の実施形態における、ユーザ位置の識別表示処理の流れを示すフローチャートである 本発明の実施形態における、各種データの構成の一例を示す図である 本発明の実施形態における、仮想空間の共有のイメージ図である 本発明の実施形態における、ユーザを基準とした方向の説明図である 本発明の実施形態における、ユーザを基準とした方向の説明図である 本発明の実施形態における、ユーザ位置の識別表示の画面構成の一例を示す図である 本発明の実施形態における、ユーザ位置の識別表示の画面構成の一例を示す図である 本発明の実施形態における、ユーザ位置の識別表示の画面構成の一例を示す図である 本発明の第2の実施形態における、距離判定処理の概要を示すフローチャートである 本発明の第3の実施形態における、アバターの識別表示の概要を示すフローチャートである 本発明の実施形態における、アイコン表示領域とアイコンの配置位置についての説明図である。
以下、図面を参照して、本発明の実施形態を詳細に説明する。
図1は、本発明の実施形態における、システム構成の一例を示す図である。
本発明のシステムは、サーバ200とクライアントPC100、ヘッドマウントディスプレイ101(以下、HMD101)で構成される。図1において、各種装置とHMD101はネットワーク150、151、152で接続されているものとしているが、サーバ200、クライアントPC100とHMD101とが互いに通信が行えれば良いので、有線、無線は問わない。
図1に示すように、本発明における各種装置はネットワークを介して通信可能に接続されている。例えばサーバ200、クライアントPC100(クライアントPC100A〜101Fの総称)と接続されている。また、クライアントPC100には、各クライアントPC100が管理するHMD101(HMD101A〜HMD101Fの総称)が通信可能に接続されている。
サーバ200には、HMD101により撮像される現実画像に重畳する3次元モデルが記憶されている。3次元モデルはサーバ200に接続された各クライアントPC100に配信され、クライアントPC100の外部メモリに記憶される。
クライアントPC100は自機の管理するHMD101より現実画像を取得して、当該現実画像に3次元モデルを重畳したMR画像(現実画像と仮想空間の画像とを重畳した複合現実画像)を生成し、HMD101のディスプレイに表示させるべく、当該MR画像をHMD101に送信する。HMD101は受信したMR画像をディスプレイに表示する。
また、図示の環境では、拠点1と拠点2との2つの拠点があり、それぞれの拠点でHMD101を装着したユーザ(体験者)が仮想空間を共有し、そこに配置される仮想オブジェクト(3Dモデル/CG)を共有しているものとする。ここでいう拠点とは、現実世界において別の場所にある現実空間のことをいう。例えば東京支店の部屋と大阪支店の部屋をそれぞれ拠点1、拠点2とする。
本発明においては、例えばHMD101に表示する画像において、当該HMD101と他の拠点のHMD101、自拠点のHMD101の存在を識別して通知する制御を行う。以上が図1の説明である。
なお、それぞれの拠点の室内には複数のマーカが貼り付けられているものとする。当該マーカを用いてHMD101の位置姿勢を特定し、また、仮想オブジェクトを配置する位置姿勢を決定することができる。
マーカの形状は問わないが、実施形態では正方形であり、全て同じサイズであるものとする。各マーカにはユニークなマーカ番号が埋め込まれているものとする。そして、HMD101に設けられたカメラで撮像した際に、個々のマーカが識別でき、デコードした際に、そのマーカ番号が得られるものとする。マーカの種類(マーカが果たす役割の種類)は、HMD101の位置姿勢を決定するための位置検出用マーカ、並びに、そのマーカで規定される箇所に仮想オブジェクトを描画するものとして利用される仮想オブジェクト配置用マーカの2種類がある。そして、位置検出用マーカについては、HMD101の位置姿勢がどのような状態であっても、内蔵するカメラの視野内に最低でも3つが含まれるように、予め既知の位置に貼り付けられているものとする。
上記の構成におけるHMD101の位置姿勢を検出する原理は、撮像した画像中の3つの位置検出用マーカ(その位置は既知)それぞれのサイズから、HMD101からそれぞれまでの位置検出用マーカまでの距離を求める。そして、逆に、3つの位置検出用マーカから求めた3つの距離が重なる位置を、HMD101の位置として決定する。また、HMD101の姿勢は、撮像した画像中の3つの位置検出用マーカの配置から求めればよい。
なお、マーカの法線方向に視点があるとき、そのマーカ画像が正方形に見えることになる。そして、視点が法線方向からずれると、そのずれの度合いに応じて正方形が歪んで見える。つまり、この歪みから、視点の軸に対するマーカで規定される平面の向きが判明し、マーカのサイズから視点とマーカ間の距離を検出でき、マーカが貼り付けられた平面が規定できる。また、実施形態では、マーカには、互いに識別できる2つの印が設けられ、マーカの中心位置を原点とし、マーカで規定される上記の平面上の、原点からその印に向かう2つのベクトルを2軸、マーカの中心位置から法線方向の1軸で、局所的(ローカル)な3次元座標を規定する3軸を規定しているものとする。
仮想オブジェクト配置用マーカとは、仮想オブジェクトを表示する位置を特定するために用いられるマーカである。サーバ200及びクライアントPC100のCPU201は、当該仮想オブジェクト配置用マーカが検出された際、当該仮想オブジェクト配置用マーカが存在する位置(正確には後述するように当該仮想オブジェクト配置用マーカの重心位置からオフセットを持つ位置)に仮想オブジェクトを表示するための処理を行う。例えば、3次元モデルを当該オフセットの示す仮想空間上の位置に配置する処理を行う。
仮想オブジェクトとは、仮想空間上に配置された3次元モデル(3次元CADデータ、3Dモデル、CG等とも呼ぶ)のことである。尚、3次元モデルのデータはサーバ200及びクライアントPC100の外部メモリ上に、当該3次元モデルを仮想空間上のいずれの位置にどのような姿勢で配置するかを示す位置姿勢の情報と対応付けられて記憶されている。
仮想オブジェクト配置用マーカの中心位置の座標を{Xv,Yv,Zv}とし、3次元モデルのデータ中の基準座標を{Xi,Yi,Zi}(ここで、i=0,1,2,・・・)と定義したとき、距離Lは次式で得られる。
L={(Xv−Xi)2+(Yv−Yi)2+(Zv−Zi)2}1/2
ここで、iを変化させた際の最小の距離Lを、仮想オブジェクト配置用マーカと仮想オブジェクト配置用マーカの位置に応じて配置する3次元モデルとの距離とした。なお、上記では距離を計算する際に、最終的に平方根を求めたが、大小の判定で良いのであれば、平行根を求める必要な無く、座標の差分の二乗和を算出しても構わない。
なお、上記式では、仮想オブジェクト配置用マーカの中心位置=仮想オブジェクトの中心位置とした場合である。先に説明したように、仮想オブジェクトの配置される位置は、仮想オブジェクト配置用マーカの中心位置に対し、「位置」で示されるオフセットが与えられる。
なお、マーカに埋め込めるビット数にもよるが、位置検出用マーカと仮想オブジェクト配置用マーカを兼ねるマーカを定義しても構わない。
尚、上記実施形態は、本発明に係る例であると認識されたい。たとえば、HMD101の位置姿勢を検出するため、上記実施形態では位置検出用マーカが撮像した視野内に3つは存在するものとして、位置検出用マーカを部屋中に多数張り付けるものとしたが、これによって本発明が限定されるものではない。位置検出用マーカには向きを規定する印があり、位置検出用マーカの座標だけでなく、形状や寸法も既知であれば、撮像した画像の位置検出の歪み、サイズ、印の位置から、1つの位置検出用マーカからだけでもHMD101の位置姿勢を特定できる。また、位置検出用マーカを用いるのではなく、HMDそのものの位置姿勢を、光学式センサ、磁気センサ、超音波センサなどを利用して検出する公知技術を利用しても構わない。つまり、HMDの位置姿勢検出に係る手段は問わない。
次に図2を参照して、本発明の実施形態における、各種装置のハードウェア構成について説明する。
本発明においては、クライアントPC100とサーバ200のハードウェア構成は同一であるものとする。また、HMD101と直接接続されるのはクライアントPC100であり、サーバ200はクライアントPC100と接続されているものとする。
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
また、ROM202には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステム(OS)、その他各種装置の実行する機能を実現するために必要な各種プログラムが記憶されている。
RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
本発明のクライアントPC100、サーバ200が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。
入力コントローラ(入力C)205は、キーボードやマウス等のポインティングデバイス(入力デバイス210)からの入力を制御する。
ビデオコントローラ(VC)206は、HMD101が備える右目・左目ディスプレイ222等の表示器への表示を制御する。右目・左目ディスプレイ222に対しては、例えば外部出力端子(例えば、Digital Visual Interface)を用いて出力される。また、右目・左目ディスプレイ222は、右目用のディスプレイと左目用のディスプレイとから構成されている。
メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。
通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。また、通信I/Fコントローラ208は、ギガビットイーサネット(登録商標)等を通じて光学式センサ104との通信も制御する。
汎用バス209は、HMD101の右目・左目ビデオカメラ221からの映像を取り込むために使用される。右目・左目ビデオカメラ221からは、外部入力端子(例えば、IEEE1394端子)を用いて入力される。右目・左目ビデオカメラ221は、右目用のビデオカメラと左目用のビデオカメラとから構成されている。
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ上での表示を可能としている。また、CPU201は、ディスプレイ上の不図示のマウスカーソル等でのユーザ指示を可能とする。以上が図2の説明である。
次に図3を参照して、本発明の実施形態における、各種装置の機能構成の一例について説明する。
HMD位置特定部301は、クライアントPC100に接続されたHMD101の位置姿勢を特定する。具体的には、HMD101が撮像した現実画像上のマーカを認識し上述した方法を用いることでHMD101の位置姿勢を特定する。
位置情報記憶部302は、HMD位置特定部301はで特定された位置姿勢の情報を外部メモリに記憶する記憶部である。位置情報送信部303は、HMD位置特定部301で特定されたHMD101の位置情報(X,Y,Z座標)をサーバ200に送信する処理部である。位置情報送信部は、位置情報と合わせて、当該位置情報の示す位置にあるHMD101の識別情報をサーバ200に送信する。
サーバ200は、クライアントPC100の位置情報送信部303で送信された位置情報を位置情報受信部313で受信して、同じく受信したHMD101の識別情報と対応付けて位置情報記憶部311に記憶する。位置情報送信部312は、当該位置情報記憶部311に記憶したHMD101の位置情報・HMD101の識別情報・HMD101が属する拠点情報を、当該HMD101に対応するクライアントPC100以外のクライアントPC100(つまり、他のHMD101に対応するクライアントPC100)に対して送信する。
クライアントPC100の位置情報受信部304は、当該他のクライアントPC100のHMD101の位置情報・識別情報・拠点情報を受信する受信部である。
アイコン決定部305は、位置情報受信部304で受信した位置のHMD101が、自装置のHMD101と同じ拠点のHMDか、他の拠点のHMDか同じ拠点の他のHMDかに応じて、当該HMDの位置を示すアイコン(オブジェクト)の種類を決定する決定部である。ここでいうアイコンとは、HMD101の視界外に他のHMD(体験者)がいる場合に、当該他のHMDの位置をユーザに通知するための、当該他のHMDのX,Y,Z座標に対応する表示画面上の位置に表示するアイコンである。
アイコン表示制御部306は、位置情報受信部304で受信した位置に応じて、アイコン決定部305で決定した種類のアイコンを。表示画面の所定の領域(アイコン表示用の領域であるアイコン表示領域)に表示する制御を行う。
仮想オブジェクト受信部307は、サーバ200の仮想ブジェクト記憶部314に記憶されている仮想オブジェクトであって、仮想オブジェクト送信部315から送信された仮想オブジェクトを受信する受信部である。
仮想オブジェク記憶部308は、仮想オブジェクト受信部307で受信した仮想オブジェクトを記憶し、仮想オブジェクト表示制御部309は、仮想オブジェクトに対応する仮想オブジェクトの位置姿勢の情報に従って、HMD101から取得した現実画像上に、当該仮想オブジェクトを重畳したMR画像をHMD101に表示するよう制御する(例えば、当該MR画像を生成してHMD101に送信する)。以上が図3の説明である。
<第1の実施形態>
次に図4を参照して、本発明の実施形態における、HMDの位置姿勢情報の送受信の流れを示すフローチャートである
ステップS401では、クライアントPC100のCPU201は、HMD101の右目・左目ビデオカメラ221から取得した画像をクライアントPC100の汎用バス209経由で受信し、RAM203に保持する。
ステップS402では、クライアントPC100のRAM203に取得した現実空間画像から二次元マーカ画像を取り出し(検出し)、HMD101の位置・姿勢を特定しRAM203に保存する(位置姿勢取得手段に該当)。ここでは、HMD101の識別情報(図6で後述するHMD ID)と、HMD101の位置・姿勢の情報(図6で後述する603及び604のX,Y,Zの値)を対応付けてRAM上に記憶するものとする。
ステップS403では、クライアントPC100のCPU201は、ステップS402で特定した位置・姿勢情報、当該位置・姿勢にあるHMD101(当該クライアントPC100に対応するHMD)の識別情報及び、拠点情報をサーバ200に通信により送信する。拠点情報とは、当該クライアントPC100の拠点の情報を示す識別情報であって、クライアントPC100に対応するHMD101の存在する現実空間の識別情報である(図6の602で後述)。
ステップS404では、サーバ200のCPU201は、クライアントPC100から位置・姿勢情報、HMD101の識別情報、及び拠点情報を通信により受信する。ステップS405では、サーバ200のCPU201は、ステップS404で受信したHMDの識別情報、拠点情報、位置・姿勢情報を外部メモリに保存する。保存する形式は例えば図6のHMD情報600に示す。以上が図4の説明である。
ここで図6を参照して、本発明の実施形態における各種データの構成の一例について説明する。
HMD情報600は、クライアントPC100及びサーバ200の外部メモリに記憶される。HMD情報600は、HMD101を一意に示す識別情報であるHMDID601、HMD101の所属する拠点を一意に示す識別情報である拠点ID602(所属情報)、HMDの位置情報である位置603、HMDの姿勢情報である姿勢604を含む情報である(所属情報記憶手段に該当)。クライアントPC100は、自装置と対応するHMD101のHMDID601及びその位置603・姿勢604と、当該HMDの所属する拠点の拠点ID602を対応付けて外部メモリに記憶しているものとする。サーバ200は、サーバ200と接続される各クライアントPC100(例:図1のクライアントPC100A〜100F)に対応する各HMD101のHMDID601及びその位置603・姿勢604と、各HMDの所属する拠点の拠点ID602を各クライアントPC100から受信して、それぞれHMD ID601と対応付けてサーバ200の外部メモリに記憶しているものとする。
クライアントPC100は自装置以外のクライアントPC100に対応するHMD情報を、サーバ200から受信することで、外部メモリに記憶するものとする。
モデル情報610は、クライアントPC100及びサーバ200の外部メモリに記憶される。モデル情報610は、MR空間に配置する(現実空間に重ね合わせる仮想空間に配置する)3次元モデル(仮想オブジェクト)の識別情報であるモデルID611、モデルの実体データのファイル名であるモデル名612、3次元モデルを配置する位置姿勢を示す位置613、姿勢614、及び3次元モデルの保存場所を示す保存場所615を対応付けて記憶した情報である。
アイコン情報620は、クライアントPC100及びサーバ200の外部メモリに記憶される。アイコン情報620は、アイコンの識別情報であるアイコンID621と、アイコンの実体データのファイル名であるアイコン622を対応付けた情報である。本実施形態においては、例えば、当該アイコンを表示するHMD101と同じ拠点に所属する他のHMD101の位置を示す場合にはアイコンID=Ic111を用い、当該アイコンを表示するHMD101とは別の拠点に所属する他のHMD101の位置を示す場合にはアイコンID=Ic222を用いてそれぞれのHMD101の位置と当該アイコンを表示するHMD101との位置関係をユーザに通知するものとする。以上が図6の説明である。
次に図5を参照して、本発明の第1の実施形態における、ユーザ位置の識別表示処理の流れについて説明する。
ステップS501では、サーバ200のCPU201はクライアントPC100との接続を確立すると、図6のモデル情報610と、モデル名612(ファイル名)の示す3次元モデルデータをクライアントPC100に送信する。ステップS502では、クライアントPC100のCPU201はサーバ200から3次元モデルデータ、モデル情報610を受信し、外部メモリの所定の保存場所に保存する。そして、モデル情報610の保存場所615に、当該3次元モデルデータを保存した場所(アドレス)を挿入して記憶する。
ステップS503では、クライアントPC100のCPU201は、自装置に対応するHMD101の右目・左目ビデオカメラ221から取得した現実画像に対して、外部メモリに保存した3次元モデルデータが視界に入る場合は当該3次元モデルデータを重畳したMR画像を生成する。
ステップS504では、サーバ200のCPU201はクライアントPC100に対して、全てのクライアントPC100の拠点ID(クライアントPC100に対応するHMD101の所属する拠点のID)、HMD ID、HMDの位置・姿勢の情報をクライアントPC100に送信する。ステップS505では、クライアントPC100のCPU201はサーバ200から全てのクライアントPC100に対応する各HMD101のHMD ID、HMDの位置・姿勢の情報の位置・姿勢情報及び拠点情報を受信し、外部メモリに保存する(位置姿勢取得手段に該当)。
そしてステップS506〜S512、又はS506・S507・S514〜S517の処理を、保存した全ての(自装置に対応するHMD以外の)HMD101に対して実行する。
ステップS506では、クライアントPC100のCPU201は、外部メモリに保存した他のHMD101のHMD情報600を1つ取得する。そして、ステップS507で、 当該取得した他のHMD101の位置603が、自装置に対応するHMD101(ここでは、例えばHMD101A)の視界(=視野、画角)に入っているか判定する。視界に入っている場合は処理をステップS514に、入らない場合は処理をステップS508に移行する。画角の情報は図6の630に示す通りである。本実施形態においては、HMD101の左目ビデオカメラの画角及び右目ビデオカメラの画角と、両カメラを合わせて撮像できる画角とは同じであるものとする。左目ビデオカメラの画角、右目ビデオカメラの画角、両カメラを合わせて撮像できる画角との関係は図8の800に示す。図8の800における基準点がHMD101の位置である。
ステップS508では、ステップS506で取得した他のHMD101の拠点ID602と、自装置に対応するHMD101Aの拠点ID602を外部メモリから取得する。そして、ステップS509では、取得した他のHMD101の拠点IDと自拠点の拠点IDが同一であるか(同一拠点か)判定する。別拠点の場合(拠点IDが異なる場合)は処理をステップS510に、同一拠点の場合は処理をステップS511に移行する。
ステップS510では、クライアントPC100のCPU201は、外部メモリ211から別拠点用アイコン画像(図6でいうIc222.jpg)を取得する。
ステップS511では、クライアントPC100のCPU201は、外部メモリ211から同一拠点用アイコン画像(図6でいうIc111.jpg)を取得する。
ステップS512では、クライアントPC100のCPU201は、HMD101の右目・左目ビデオカメラ221から取得した現実画像に、ステップS506で取得した他のHMD101の位置・姿勢情報に基づいて、当該HMD101の拠点IDに応じてステップS510又はステップS511で取得したアイコンを重畳した画像を生成する。そして、全ての、他のHMD101についてステップS506〜S512、又はS506・S507・S514〜S517の処理が完了している場合には、ステップS512及び/又はステップS518で生成した重畳画像を、HMD101の右目・左目ディスプレイ222に表示すべくHMD101に出力する(ステップS519)。全ての、他のHMD101についてステップS506〜S512、又はS506・S507・S514〜S517の処理が完了していない場合は処理をステップS508に戻し、他のHMD101のうち未取得のHMD101を取得する。
ここで図7〜図10を用いて、アイコンの配置及びHMDにとっての前方や後方等の方向について説明する。
ユーザA(HMD101Aの装着者)と他のユーザ(他のHMD101)との位置関係を図7、図8の810に示す。視界=前方(前方向)である。ユーザAにとって、ユーザEは視野内(前方(前方向))にいえるユーザである。ユーザBは視野外の左方(左方向)にいるユーザである。ユーザCは視野外の後方(後方向)にいるユーザである。ユーザDは視野外の右方(右方向)にいるユーザである。尚、複合機は3次元モデル(仮想オブジェクト)であり、図6の610及び引用文献に記載されている技術を用いて仮想空間上に配置、現実画像上に重畳されるものとする。
本実施形態の説明においては、図7の700、710に示す通り、ユーザAと同じ拠点1(東京支店にある現実の部屋)にはユーザBとユーザE(HMD101Bを装着したユーザBと、HMD101Eを装着したユーザE)が存在し、ユーザAと異なる拠点2(大阪支店にある現実の部屋)にはユーザCとユーザD(HMD101Cを装着したユーザCと、HMD101Dを装着したユーザD)が存在しているものとする。そして、仮想空間を共有して、各ユーザの位置にアバター(各ユーザの位置姿勢を示す3次元モデル)を表示することで、図7の720のように別拠点のユーザがあたかも同じ空間に存在するように見せる。
クライアントPC100のCPU201は、例えばHMD101のカメラで撮像した現実画像1000(図10)に対して、図10の1010のように、他のHMD101の位置、及び他のHMD101の拠点に応じたアイコンを配置(重畳)した画面(画像)を生成する。アイコンの配置位置の決定は、例えば公知の技術(例:特開平8−229238号公報)に記載の技術を用いて行うものとする。尚、当該アイコンの配置・表示は、現実画像上の(MR画像上の)所定の領域1011内において行う。
つまり、HMD101Aから見た他のHMD101の位置を特定し、当該位置に応じた前記所定領域1011上の位置を決定し、当該決定した画像上の位置に当該他のHMD101の拠点に応じたアイコンを配置する。
図5の説明に戻る。ステップS507において、他のHMD101の位置603が自装置に対応するHMD101の視界(=視野、画角)に入っていると判定された場合、ステップS514で、外部メモリに保持している他のHMD101の拠点ID602を取得する。
そしてステップS515で、他のHMD101の拠点IDと自拠点が同一拠点であるか判定する。別拠点の場合は処理をステップS516に、同一拠点の場合は処理をステップS518の前に移行する。
ステップS516では、クライアントPC100のCPU201は、外部メモリ211からアバター画像(3次元モデル)を取得する。そして、ステップS517で、HMD101の右目・左目ビデオカメラ221から取得した現実画像に、ステップS506で取得した他のHMD101の位置・姿勢情報に基づいて、当該他のHMD101の位置・姿勢のアバター画像を重畳したMR画像を生成する。そして、全ての他のHMD101に対するステップS506〜S512、又はS506・S507・S514〜S517の処理が完了している場合には、ステップS512及び/又はステップS518で生成した重畳画像を、HMD101の右目・左目ディスプレイ222に表示すべくHMD101に出力する(ステップS519)。全ての、他のHMD101についてステップS506〜S512、又はS506・S507・S514〜S517の処理が完了していない場合は処理をステップS508に戻し、他のHMD101のうち未取得のHMD101を取得する。
尚、アバター画像(3次元モデル/仮想オブジェクト)はサーバ200の所定の保存場所に記憶されており、ステップS501でクライアントPC100に配布され、クライアントPC100が自身の外部メモリに記憶する。また、アバター画像の仮想空間上の位置姿勢はHMD101の現実空間上の位置姿勢に応じて、クライアントPC100が変更する。具体的には、図6のアバター情報640をクライアントPC100が外部メモリ上に生成する。アバター情報640は、アバターのID641、アバター画像のファイル名であるアバター名642、アバター画像の保存場所645に対応付けて、当該アバターに対応するHMD101の位置643、姿勢644の情報を随時書きこみ、更新するテーブルである。クライアントPC100のCPU201は、サーバ200から他のHMD101の位置姿勢の情報を継続して受信し、当該受信した各HMD101の位置姿勢の情報を各HMD101に対応するアバター情報640の位置643、姿勢644に上書きする。アバター画像は当該位置643、姿勢644に基づいて仮想空間上に配置する。以上が図5の説明である。
以上説明したように、本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。
例えば、同じ拠点のユーザと別拠点のユーザとを識別可能に表示することができる。
<第2の実施形態>
第2の実施形態について説明する。本発明の第2の実施形態においては、HMD101と所定距離内の他のHMDについてアイコン表示をする。これは、自HMDから所定距離内にいる他のHMDのユーザとはぶつかってしまう可能性が高いために、実際に当該他のHMDのユーザとぶつかってしまうか否かをHMDを装着中のユーザに認識させる必要があるが、自HMDから所定距離離れている他のHMDのユーザとはぶつかってしまう可能性が低いためである。
以下、図13を参照して、本発明の第2の実施形態における、距離判定処理の詳細について説明する。第2の実施形態については、第1の実施形態と異なる処理/追加される処理について説明し、第1の実施形態と共通する処理については説明を省略する。
各種装置のCPU201は、第1の実施形態で説明したように図4の処理、及び図5のステップS507までの処理を実行する。
クライアントPC100のCPU201は、図5のステップS507で、他のHMD101の位置が視界に入らないと判定された場合に、処理をステップS1301に移行する。ステップS1301で、クライアントPC100のCPU201は、当該視界の外にあると判定された他のHMD101の位置情報と、自装置に対応するHMD101Aの位置情報を参照して、当該2つの位置情報が示すそれぞれの位置間の距離を測定し、HMD101Aから所定距離内に当該他のHMD101があるか判定する。当該所定距離の値は事前にクライアントPC100及びサーバ200に記憶されているものとする。
所定距離内にあると判定された場合は処理をステップS508に移行し、所定距離内にないと判定された場合は処理をステップS518に移行する。
つまり、HMD101Aから所定距離内にある他のHMD101のアイコンのみ、図10の1010に示すように画面上に配置する処理を行う。以上が図13の説明である。
第2の実施形態によれば、装着型の表示装置において、ぶつかってしまう可能性が高い他のユーザの位置を適切に表示する仕組みを提供することができる。
<第3の実施形態>
第3の実施形態について説明する。本発明の第3の実施形態においては、HMD101の拠点に応じたアバター画像を表示する。
例えば、ユーザの周囲にアバターの画像を重畳して、ユーザがアバターになりきるシチュエーションが考えられる。ユーザを包むようアバターを配置・表示する場合、当該アバターの中に現実にユーザがいなければぶつかってしまう心配はないが、当該アバターの中に現実にユーザがいる場合は体同士がぶつかってしまう可能性がある。
よって、第3の実施形態においては、HMD101の拠点に応じてアバター画像を切り換えて表示する。
以下、図14を参照して、本発明の第3の実施形態における、拠点に応じたアバターの識別表示処理の詳細について説明する。第3の実施形態については、第1・第2の実施形態と異なる処理/追加される処理について説明し、第1・第2の実施形態と共通する処理については説明を省略する。
各種装置のCPU201は、第1の実施形態で説明したように図4の処理、及び図5のステップS515までの処理を実行する。
クライアントPC100のCPU201は、図5のステップS515で、他のHMD101の拠点IDと自拠点が同一拠点である(視界内のユーザは同じ拠点のユーザである)と判定された場合に、自拠点用のアバター画像を取得し(ステップS1401)、当該他のHMD101の位置・姿勢に応じた仮想空間の位置に当該自拠点用のアバター画像を配置して、現実画像に重畳したMR画像を生成する(ステップS1403)。
一方、他のHMD101の拠点IDと自拠点が別拠点である(視界内のユーザは別の拠点のユーザである)と判定された場合に、他拠点用のアバター画像を取得し(ステップS1402)、当該他のHMD101の位置・姿勢に応じた仮想空間の位置に当該他拠点用のアバター画像を配置して、現実画像に重畳したMR画像を生成する(ステップS1403)。そして処理をステップS518に移行する。以上が図14の説明である。
第3の実施形態によれば、装着型の表示装置において、視界内のユーザの位置及び当該ユーザがいずれの拠点のユーザかを適切に表示することができる。
以上説明したように、本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。
尚、上述した第1の実施形態、第2の実施形態、第3の実施形態は自由に組み合わせることが可能である。
また、上述した実施形態においては、特開平8−229238号公報に記載の技術を用いてアイコンの配置位置を決めるものとしたが、例えば図15に示すような方法を用いてもよい。
具体的には、クライアントPC100におCPU201が、図15の1500に示すように、全てのHMD101の位置を内包する立方体1501を、自装置に対応するHMD101(例えばHMD101A)を中心に配置する。そして、HMD101Aから他のHMD101の位置へ向けた直線を特定して、前記立方体の面と当該直線が交差する位置の座標を特定する(例:図15の1511のY座標とZ座標)。そして、当該面を図15の1520に示すようにそれぞれに対応するアイコンの表示領域に割り当て、表示領域の大きさ・形に合わせて、当該面を変形する。その後、点1511のZ座標を、当該表示領域のZ軸方向の中間点に設定して(図15の1520に示す)、当該Y座標及び設定したZ座標をアイコンの表示位置に決定する。
どの方向の面をどのアイコン表示領域に割り当てるかは予め決められているものとする。HMDと各方向の面との関係は図9の900〜906に示す。900は画角(視野(前方))を示す。901は前方、902は後方、903は左方、904は右方、905は上方、906は下方を示す。
また、上述した実施形態においては、ステップS512で図10の1010のような画像を生成するものとしたが、例えば同ステップで、図11、図12に示すような画像を生成するようにしてもよい。
図11の1100によれば、前後上下左右の方向をより細分化したアイコン表示領域を画像の表示領域の外側に設け、当該アイコン表示領域にアイコンを配置して表示する。(ステップS512でアイコン表示領域を画像の表示領域の外側に設けた画像を生成する)
図11の1110によれば、例えば他のユーザがいると判定された方向のアイコン表示領域を含み、他のユーザがいない方向のアイコン表示領域は含まない画像1110を生成してHMD101に表示する(ステップS512で、アイコンを表示しないアイコン表示領域を見せない画像を生成する)。
図12の1200によれば、前後上下左右の方向をより細分化したアイコン表示領域を画像の表示領域の内側に設け、当該アイコン表示領域にアイコンを配置して表示する。(ステップS512でアイコン表示領域を画像の表示領域の内側に設けた画像を生成する)
図12の1210によれば、各アイコンに各アイコンの示すHMD101の拠点の識別情報をクライアントPC100が付帯して配置いている。また、アイコンそのものに、当該アイコンが示すHMD101を装着中のユーザ名を埋め込んでいる。どのHMDにどのユーザが対応するか(装着するか)は予めクライアントPC100、サーバ200に記憶されているものとする。
図11の1100、1110、図12の1200の表示をするためには、例えば、クライアントPC100のCPU201が、自装置のHMD(例:HMD101A)を中心とした大きさの異なる立方体を2つ生成し(例えば図11の1120の領域Aと領域B)、HMD101Aの位置(基準点)に配置する。より狭い領域を示す立方体Aの面を、1120に示すように細分化する。そして、図11の1130に示すように、より大きい立方体が示す領域Bに他のHMD(例:HMD101D)が存在する場合には、HMD101Aから当該HMD101Dの位置に向けた直線を特定し、当該直線と領域Aを示す立方体の面との交点である点1131の座標(Y,Z座標)、及び当該交点の属する面上の領域(例:右上前方)を特定する。その後、当該面を当該面に対応するアイコン表示領域の形に合わせて変形し、当該変形した面上(アイコン表示領域上)の点1131を、HMD101Dに対応するアイコンの表示位置として決定する。面に対応するアイコン表示領域の対応関係は、例えば、図11の1100と1120に記載の通りであり、当該対応関係の情報は予めクライアントPC100、サーバ200の外部メモリに記憶されているものとする。
また、より小さい立方体が示す領域Aに他のHMD(例:HMD101C)が存在する場合には、当該HMD101CのZ軸方向の座標の値がHMD101Aより大きいか小さいか(つまり、HMD101CがHMD101Aより高い位置にあるか低い位置にあるか)判定する。以降、図11の1130を参照して、HMD101CがHMD101Aより低い位置にある例について説明する。HMD101CがHMD101Aより低い位置にある場合、クライアントPC100のCPU201は、当該HMD101Cの位置から下方垂直に伸ばした直線と立方体Bの面との交点である点1132のX,Y座標を特定して、当該点1132の属する面上の領域(例:後方左下)を特定する。その後、当該面を当該面に対応するアイコン表示領域の形に合わせて変形し、当該変形した面上(アイコン表示領域上)の点1132を、HMD101Dに対応するアイコンの表示位置として決定する。以上の処理により、図11の1100、1110、図12の1200に示すアイコンの表示位置の決定・アイコンの表示が可能となる。
また、本発明の実施形態においては、図6に示す拠点ID602をクライアントPC100で記憶しているものとしたが、例えば当該拠点ID602と各クライアントPC100の識別情報又はHMD ID601との対応関係の情報をサーバ200で記憶・管理することで、クライアントPC100は自装置の識別情報又は自装置に対応するHMD ID601をHMDの位置姿勢の情報と合わせて送信するだけで、サーバ200側で当該HMDの属する拠点を特定するようにしてもよい。また、当該特定したHMD101の拠点の情報に基づいて、例えばHMD101Aに対応するクライアントPC100に対して、各HMDの位置姿勢の情報と合わせて、HMD101Bのアイコンは自拠点用のアイコンを用いて表示するよう指示し、HMD101C・HMD101Dのアイコンは他拠点用のアイコンを用いて表示するよう指示し、当該指示をクライアントPC100が受け付けて絵、当該指示に従って拠点に応じたアイコン表示の処理を行うようにしてもよい。アバター画像についても同様の処理を行ってもよい。
具体的には、図5のステップS501〜S509までの処理をサーバ200が実行し、S509の判定結果に応じてクライアントPC100にアイコンの取得・重畳の指示をして、クライアントPC100は当該指示に従ってアイコンを取得・重畳する(ステップS510〜S512)。また、図5のステップS501〜S507、S514、S515までの処理をサーバ200が実行し、S515で別拠点と判定した場合にサーバ200がクライアントPC100にアバター画像を取得して表示するよう指示し、クライアントPC100は当該指示に従ってアバター画像を取得・重畳する(ステップS516、S517、S1401〜S1403)。
また、図13に示す判定処理をサーバ200のCPU201が実行するようにしてもよい。
また、本発明の実施形態においては、現実画像と合わせてアイコンを表示する画像を生成するものとしたが、例えば図11の1100や1110に示すアイコン表示領域の表示用ディスプレイと、現実画像又はMR画像の表示領域とが別々に設けられている場合、ステップS512において、現実画像又はMR画像の表示領域に表示する画像とは別にアイコン表示領域に表示するアイコンを含む画像を生成して、HMDに出力するようにしてもよい。
また、本発明の実施形態においては、拠点1・拠点2を、異なる支店の異なる部屋を例に説明したが、現実において異なる空間であればよい。例えば同じ支店内に隣り合わせに存在する別々の部屋をそれぞれ拠点1、拠点2としてもよい。
また、現実において異なる空間であればよいため、必ずしも部屋でなくともよい。例えば、HMDに取り付けられた光学マーカを捕捉することでHMDの位置姿勢を特定する複数の光学センサで囲われた空間を1つの拠点としてもよい。
以上説明したように、本発明によれば、装着型の表示装置において、他のユーザの位置を適切に表示する仕組みを提供することができる。
前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。
この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。
また、プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。
また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。
100A クライアントPC
100B クライアントPC
100C クライアントPC
100D クライアントPC
100E クライアントPC
100F クライアントPC
101A HMD
101B HMD
101C HMD
101D HMD
101E HMD
101F HMD
200 サーバ
150 ネットワーク
151 ネットワーク
152 ネットワーク

Claims (10)

  1. 現実画像に重畳する仮想オブジェクトを記憶する記憶手段を備え、前記現実画像に仮想オブジェクトを重畳した複合現実画像を表示する複数の表示装置と通信可能な情報処理装置であって、
    前記表示装置の現実空間上の位置姿勢を取得する位置姿勢取得手段と、
    前記表示装置に表示する画像の所定の領域に、他の表示装置の位置を示すオブジェクトを、前記位置姿勢取得手段で取得された位置の情報に基づいて重畳した重畳画像を前記表示装置に表示させる制御をする制御手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記所定の領域とは、前記表示装置に表示する現実画像の端から所定距離までの領域、又、前記表示装置に表示する表示画面の端から所定距離までの領域であって、
    前記制御手段は、前記表示装置に表示する現実画像の端から所定距離までの領域、又は、前記表示装置に表示する表示画面の端から所定距離までの領域に対して、前記他の表示装置の位置の情報に基づいて当該他の表示装置に対応する前記オブジェクトを重畳させて表示する制御をすることを特徴とする請求項1に記載の情報処理装置。
  3. どの前記表示装置がどの現実空間に所属しているかを示す所属情報を記憶する所属情報記憶手段と、
    前記所属情報記憶手段に記憶されている情報に基づいて、前記他の表示装置の所属を特定する特定手段と、
    前記特定手段で特定された前記他の表示装置の所属に応じた前記オブジェクトを取得する取得手段と、
    を備え、
    前記制御手段は、前記取得手段で取得された前記他の表示装置の所属に応じた前記オブジェクトを、前記表示装置に表示させる画像の所定の領域に重畳させて表示する制御をすることを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記制御手段は、前記表示装置と他の表示装置との距離が所定距離に達した場合に、他の表示装置の位置を示すオブジェクトを、前記位置姿勢取得手段で取得された位置の情報に基づいて前記所定の領域に重畳させて表示する制御をすることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
  5. 前記情報処理装置は、前記現実画像に重畳する仮想オブジェクトと当該仮想オブジェクトの位置姿勢の情報を記憶する記憶装置を備える情報処理装置であって、
    前記制御手段は、
    当該仮想オブジェクトの位置姿勢に応じて現実画像に重畳する前記仮想オブジェクトと、前記所定の領域に重畳する前記他の表示装置の位置を示すオブジェクトを識別可能に表示する制御をすることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記制御手段は、前記表示装置に表示する画像の画角に含まれない前記他の表示装置のオブジェクトを、前記所定の領域に重畳した重畳画像を表示する制御をすることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
  7. 前記制御手段は、他の表示装置の位置を示すオブジェクトを、前記位置姿勢取得手段で取得された位置の情報に基づいて前記現実画像上に重畳した重畳画像、又は、他の表示装置の位置を示すオブジェクトを、前記位置姿勢取得手段で取得された位置の情報に基づいて前記現実画像と別に表示すべく、当該別に表示する領域の画像に重畳した重畳画像を前記表示装置に送信して表示させることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
  8. 現実画像に重畳する仮想オブジェクトを記憶する記憶手段を備え、前記現実画像に仮想オブジェクトを重畳した複合現実画像を表示する複数の表示装置と通信可能な情報処理装置の制御方法であって、
    前記表示装置の現実空間上の位置姿勢を取得する位置姿勢取得工程と、
    前記表示装置に表示する画像の所定の領域に、他の表示装置の位置を示すオブジェクトを、前記位置姿勢取得工程で取得された位置の情報に基づいて重畳した重畳画像を前記表示装置に表示させる制御をする制御工程と、
    を含むことを特徴とする情報処理装置の制御方法。
  9. 現実画像に重畳する仮想オブジェクトを記憶する記憶手段を備え、前記現実画像に仮想オブジェクトを重畳した複合現実画像を表示する複数の表示装置と通信可能な情報処理装置で実行が可能なプログラムであって、
    前記情報処理装置を
    前記表示装置の現実空間上の位置姿勢を取得する位置姿勢取得手段と、
    前記表示装置に表示する画像の所定の領域に、他の表示装置の位置を示すオブジェクトを、前記位置姿勢取得手段で取得された位置の情報に基づいて重畳した重畳画像を前記表示装置に表示させる制御をする制御手段として機能させることを特徴とする情報処理装置のプログラム。
  10. 現実画像に重畳する仮想オブジェクトを記憶する記憶手段を備え、前記現実画像に仮想オブジェクトを重畳した複合現実画像を表示する複数の表示装置と情報処理装置とを含む情報処理システムであって、
    前記表示装置の現実空間上の位置姿勢を取得する位置姿勢取得手段と、
    前記表示装置に表示する画像の所定の領域に、他の表示装置の位置を示すオブジェクトを、前記位置姿勢取得手段で取得された位置の情報に基づいて重畳した重畳画像を前記表示装置に表示させる制御をする制御手段と、
    を備えることを特徴とする情報処理システム。
JP2015188449A 2015-09-25 2015-09-25 情報処理装置、情報処理システム、その制御方法及びプログラム Active JP6730577B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015188449A JP6730577B2 (ja) 2015-09-25 2015-09-25 情報処理装置、情報処理システム、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015188449A JP6730577B2 (ja) 2015-09-25 2015-09-25 情報処理装置、情報処理システム、その制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2017062720A true JP2017062720A (ja) 2017-03-30
JP2017062720A5 JP2017062720A5 (ja) 2018-11-08
JP6730577B2 JP6730577B2 (ja) 2020-07-29

Family

ID=58428932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015188449A Active JP6730577B2 (ja) 2015-09-25 2015-09-25 情報処理装置、情報処理システム、その制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6730577B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198777A1 (ja) * 2017-04-28 2018-11-01 株式会社アルファコード 仮想現実画像提供装置および仮想現実画像提供用プログラム
JP2018206339A (ja) * 2017-12-01 2018-12-27 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
WO2019009163A1 (ja) * 2017-07-04 2019-01-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、プレイヤ側装置、制御方法、及びプログラム
JPWO2018194137A1 (ja) * 2017-04-19 2019-11-07 小柳建設株式会社 情報処理装置、情報処理方法、及びプログラム
JP2020065229A (ja) * 2018-10-19 2020-04-23 西日本電信電話株式会社 映像通信方法、映像通信装置及び映像通信プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213673A (ja) * 2002-12-30 2004-07-29 Abb Res Ltd 強化現実システム及び方法
JP2006301924A (ja) * 2005-04-20 2006-11-02 Canon Inc 画像処理方法および画像処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213673A (ja) * 2002-12-30 2004-07-29 Abb Res Ltd 強化現実システム及び方法
JP2006301924A (ja) * 2005-04-20 2006-11-02 Canon Inc 画像処理方法および画像処理装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018194137A1 (ja) * 2017-04-19 2019-11-07 小柳建設株式会社 情報処理装置、情報処理方法、及びプログラム
CN110770798A (zh) * 2017-04-19 2020-02-07 小柳建设株式会社 信息处理装置、信息处理方法及程序
US10950050B2 (en) 2017-04-19 2021-03-16 Oyanagi Construction Inc. Information processing device, information processing method, and program for planning and execution of work plan
CN110770798B (zh) * 2017-04-19 2024-03-19 小柳建设株式会社 信息处理装置、信息处理方法及计算机可读存储介质
WO2018198777A1 (ja) * 2017-04-28 2018-11-01 株式会社アルファコード 仮想現実画像提供装置および仮想現実画像提供用プログラム
JP6506486B2 (ja) * 2017-04-28 2019-04-24 株式会社アルファコード 仮想現実画像提供装置および仮想現実画像提供用プログラム
JPWO2018198777A1 (ja) * 2017-04-28 2019-06-27 株式会社アルファコード 仮想現実画像提供装置および仮想現実画像提供用プログラム
WO2019009163A1 (ja) * 2017-07-04 2019-01-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、プレイヤ側装置、制御方法、及びプログラム
JPWO2019009163A1 (ja) * 2017-07-04 2019-12-26 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、プレイヤ側装置、制御方法、及びプログラム
US11273374B2 (en) 2017-07-04 2022-03-15 Sony Interactive Entertainment Inc. Information processing system, player-side apparatus control method, and program
JP2018206339A (ja) * 2017-12-01 2018-12-27 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
JP2020065229A (ja) * 2018-10-19 2020-04-23 西日本電信電話株式会社 映像通信方法、映像通信装置及び映像通信プログラム

Also Published As

Publication number Publication date
JP6730577B2 (ja) 2020-07-29

Similar Documents

Publication Publication Date Title
JP6730577B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6004051B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP6618681B2 (ja) 情報処理装置及びその制御方法及びプログラム、並びに、情報処理システム
JP2015125641A (ja) 情報処理装置、その制御方法、及びプログラム
JP6677890B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
JP6409861B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
TW201346640A (zh) 影像處理裝置及電腦程式產品
JP7060778B2 (ja) 情報処理システム、情報処理システムの制御方法及びプログラム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP2018106297A (ja) 複合現実感提示システム、及び、情報処理装置とその制御方法、並びに、プログラム
JP2018106298A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2005174021A (ja) 情報提示方法及び装置
JP6725827B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2018063589A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2009157526A (ja) 画像処理システム、画像処理システムの制御方法及びコンピュータプログラム
JP7273325B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6011567B2 (ja) 情報処理装置、その制御方法、及びプログラム
JP2014203194A (ja) 仮想オブジェクト表示制御装置、仮想オブジェクト表示制御方法、およびプログラム
CN114935975A (zh) 虚拟现实的多用户交互方法、电子设备和可读存储介质
JP6376251B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP6683919B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP7029087B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
KR101729923B1 (ko) 스크린 영상과 증강현실 영상을 이용한 입체영상 구현 방법 및 이를 실행하는 서버 및 시스템
JP6164177B2 (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180925

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180925

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R151 Written notification of patent or utility model registration

Ref document number: 6730577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250