JP2016224809A - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP2016224809A
JP2016224809A JP2015112402A JP2015112402A JP2016224809A JP 2016224809 A JP2016224809 A JP 2016224809A JP 2015112402 A JP2015112402 A JP 2015112402A JP 2015112402 A JP2015112402 A JP 2015112402A JP 2016224809 A JP2016224809 A JP 2016224809A
Authority
JP
Japan
Prior art keywords
display
information processing
hmd
video
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015112402A
Other languages
English (en)
Inventor
康彦 上原
Yasuhiko Uehara
康彦 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015112402A priority Critical patent/JP2016224809A/ja
Publication of JP2016224809A publication Critical patent/JP2016224809A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】視界を共有する対象となる表示装置をより簡便な操作方法で切り替えるための技術を提供する。【解決手段】タブレット端末装置104の表示画面上における指示位置を取得し、複数のHMD表示装置101〜103のそれぞれの位置と、指示位置と、に基づいて、複数の複数のHMD表示装置101〜103のうち1つを選択し、選択したHMD表示装置101〜103に表示されている映像を取得してタブレット端末装置104の表示画面に表示する。【選択図】図1

Description

本発明は、複合現実感の提示技術に関するものである。
現実空間と仮想空間との繋ぎ目のない融合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が近年、盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重畳描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型ディスプレイ)を用いることができる。
また、係る画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成された仮想空間の画像を表示する光学シースルー方式によっても実現される。
このような画像表示装置の応用として、自動車・航空機などの製造業において開発中の製品をコンピュータグラフィックス映像として現実空間に重畳表示し、自由な視点から確認、検討することで実寸大の模型を作製せずにデザイン等の検討を行うことができる。
このような応用例では、多人数が参加して検討を行う場合は多数のHMDが必要になることから、タブレットなどの安価なデバイスを用いて検討に参加できるシステムがある。このシステムは、HMDを装着した人物が見ている「現実空間にコンピュータグラフィックスが重畳された画面」をそのままタブレット画面に表示し、HMDを装着した人物と視界を共有することによって検討に参加できるようにするものである。さらに、ジェスチャなどの入力によって、複数視点から録画された映像情報を任意に切り替えて閲覧する手法も開示されている(特許文献1)。
特開2012−285642号公報
HMDを装着した人物が複数人存在した場合、視界を共有したい人物を選択する必要がある。従来のシステムにおいては、HMDを装着した人物にIDや名前を付与し、タブレットの画面上に一覧表示して選択させる、などの手法が考えられる。しかしながら実際の検討現場では、HMDを装着している人物は常に移動していることが多く、かつHMDを装着していて顔が隠されていることから、IDや名前と実際の空間内の人物との対応がわかりにくく、IDや名前による選択では所望の視界を正しく選択できない可能性があった。
本発明はこのような問題に鑑みてなされたものであり、視界を共有する対象となる表示装置をより簡便な操作方法でもって切り替えるための技術を提供する。
本発明の一様態は、複数の表示装置のうち選択された表示装置に表示されている映像を取得して表示画面に表示する情報処理装置であって、前記表示画面上における指示位置を取得する取得手段と、前記複数の表示装置のそれぞれの位置と、前記指示位置と、に基づいて、前記複数の表示装置のうち1つを選択する選択手段と、前記選択手段が選択した表示装置に表示されている映像を取得して前記表示画面に表示する表示制御手段とを備えることを特徴とする。
本発明の構成によれば、視界を共有する対象となる表示装置をより簡便な操作方法でもって切り替えることができる。
システムの構成例を示す図。 システムの機能構成例を示すブロック図。 タブレット端末装置104の動作を示すフローチャート。 ステップS306及びS307を説明するための図。 システムの機能構成例を示すブロック図。 タブレット端末装置104の動作を示すフローチャート。 ステップS306及びS307を説明するための図。 コンピュータ装置のハードウェア構成例を示すブロック図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、複数の表示装置のうち選択された表示装置に表示されている映像を取得して表示画面に表示する情報処理装置の一例について説明する。より具体的には、該表示画面上における指示位置を取得し、複数の表示装置のそれぞれの位置と、該指示位置と、に基づいて、該複数の表示装置のうち1つを選択し、該選択した表示装置に表示されている映像を取得して表示画面に表示する(表示制御)情報処理装置の一例について説明する。
先ず、本実施形態に係る情報処理装置を含むシステムの構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係るシステムは、HMD101〜103と、人物情報保持サーバ105と、タブレット端末装置104と、を有し、それぞれの機器の間は有線及び/又は無線のネットワーク(有線LAN、Bluetooth、赤外線等)を介してデータ通信可能に接続されている。なお、図1では一例としてHMDの数を3としているが、複数であれば如何なる数であっても良い。
次に、本実施形態に係るシステムの機能構成例について、図2のブロック図を用いて説明する。なお、図2では、HMD101〜103のうちHMD101についてその機能構成例を示し、HMD102,103については図示を省略しているが、HMD102,103は何れもHMD101と同様の構成を有しており、且つHMD101と同様に、人物情報保持サーバ105及びタブレット端末装置104とネットワークを介してデータ通信を行うものとする。
先ず、HMD101について説明する。HMD101は、現実空間と仮想空間とを融合させた空間である複合現実空間を体感するユーザの頭部に装着する、所謂頭部装着型表示装置の一例である。
視界入力部202は、HMD101を装着したユーザの視線方向に見える現実空間の映像を撮像する。
頭部位置特定部203は、HMD101の位置姿勢(3次元位置及び3次元姿勢)を取得するものであり、その取得方法は特定の方法に限るものではない。例えば、視界入力部202によって撮像された現実空間の映像中に写っている指標(マーカや自然特徴)を用いた周知の方法でもってHMD101の位置姿勢を求めても良いし、センサ(赤外線センサ、磁気センサ、ジャイロセンサ等)による測定結果であるHMD101の位置姿勢を取得しても良い。その他にも、2以上のセンサによる情報を組み合わせてHMD101の位置姿勢を求めても良いし、現実空間の映像中に写っている指標と、センサによる情報と、を組み合わせてHMD101の位置姿勢を求めても良い。
仮想現実表示部204は、HMD101を頭部に装着したユーザの眼前に位置するようにHMD101に取り付けられたもので、視界入力部202によって撮像された現実空間の映像と、頭部位置特定部203が取得したHMD101の位置姿勢に基づいて生成された仮想空間の映像と、を合成した複合現実空間の映像を表示するものである。仮想空間の映像は、HMD101が生成しても良いし、HMD101に接続されている外部の装置によって生成されても良い。何れにせよ、仮想空間の映像は、仮想空間のデータ(仮想空間を構成する各仮想物体を規定するデータ、光源を規定するデータなどを含む)と、HMD101の位置姿勢と、を用いて生成するものである。これらの情報を用いて仮想空間の映像を生成する方法については周知の技術であるため、これに係る詳細な説明は省略する。また、現実空間の映像と仮想空間の映像とを合成して複合現実空間の映像を生成する技術についても周知の技術であるため、これに係る詳細な説明は省略する。
次に、タブレット端末装置104について説明する。タブレット端末装置104は、HMD101〜103のうち後述する処理によって選択されたHMDにおいて表示されている複合現実空間の映像を該HMDから受信して表示するものである。なお、タブレット端末装置104の代わりに、指示入力機能及び表示機能を有する機器であれば如何なる機器を用いても構わない。
他者視界共有部206は、HMD101〜103のうち後述する処理によって選択されたHMDから、該HMDにおいて表示されている複合現実空間の映像を受信し、該受信した映像を表示部208に表示する。
表示部208は、液晶画面などの表示画面で構成されており、他者視界共有部206から送出された、複合現実空間の映像を含む様々な情報を表示することができる。なお、表示部208は、映像を表示する機器に限るものではなく、プロジェクタなど、映像を投影面に投影する機器であっても良い。
入力部209は、ユーザが操作することで様々な指示をタブレット端末装置104に対して入力することができるものである。本実施形態では、入力部209と表示部208とでタッチパネル画面を形成するものとし、このタッチパネル画面には、他者視界共有部206から送出された、複合現実空間の映像を含む様々な情報を表示することができると共に、ユーザがタッチパネル画面上をタッチした場合には、該タッチした位置を取得することができる。もちろん、表示部208を液晶画面、入力部209をキーボードやマウスでもって構成しても構わない。
共有対象特定部207は、人物情報保持サーバ105が有する頭部位置保持部211に登録されている「HMD101〜103のそれぞれの位置」と、HMD101〜103のうち複合現実空間の映像をタブレット端末装置104に対して送信中のHMDから取得した該HMDの位置姿勢と、入力部209が検知した「ユーザによるタッチパネル画面上のタッチ位置」と、を用いて、HMD101〜103のうち、表示部208に表示する複合現実空間の映像の取得元となるHMDを選択する。然るに他者視界共有部206は、共有対象特定部207によって選択されたHMDから、該HMDにおいて表示されている複合現実空間の映像を受信し、該受信した映像を表示部208に表示することになる。
制御部299は、他者視界共有部206、表示部208、入力部209、共有対象特定部207の各機能部の動作制御を行うと共に、タブレット端末装置104全体の動作制御を行う。
次に、人物情報保持サーバ105について説明する。人物情報保持サーバ105は、HMD101〜103のそれぞれの位置を管理するものである。
頭部位置保持部211は、HMD101〜103のそれぞれの頭部位置特定部203が取得したHMD101〜103のそれぞれの位置(3次元位置)を取得して保持するものである。なお、頭部位置保持部211が保持するものはHMD101〜103の位置だけでなく、HMD101〜103のそれぞれの使用者名(ユーザ名)やID、HMD101〜103のそれぞれのネットワーク上におけるIDアドレス等、HMD101〜103のそれぞれを一意に特定することのできる情報(識別情報)をも保持している。
なお、人物情報保持サーバ105は、HMD101〜103のそれぞれに複合現実空間の映像を提供する機器と同じ機器であっても構わないし、別個の機器であっても構わない。
次に、タブレット端末装置104の動作について、図3のフローチャートを用いて説明する。なお、図3のフローチャートに従った処理を開始する時点では、表示部208には、HMD101〜103のうち何れか1つのHMDから受信した複合現実空間の映像が表示されているものとする。
<ステップS301>
制御部299は、ユーザによる入力部209への操作入力に応じて、タブレット端末装置104の動作モードを共有対象変更モードに変更する。例えばユーザがタッチパネル画面において規定の位置をタッチしたり、キーボードやマウスを用いて規定の操作を行うと、制御部299は、共有対象変更モードに変更する指示が入力されたものと判断し、タブレット端末装置104の動作モードを共有対象変更モードに変更する。ここで、共有対象変更モードとは、表示部208に現在表示されている映像を、他のHMDに表示されている映像に変更可能にするためのモードである。なお、共有対象変更モードに移行してから、表示部208に現在表示されている映像を他のHMDに表示されている映像に変更するのではなく、入力部209からのユーザ操作があるたびに、表示部208に現在表示されている映像を他のHMDに表示されている映像に変更するようにしても良く、その場合、共有対象変更モードなるものは設けなくても良い。
<ステップS303>
入力部209は、表示部208においてユーザが指示した位置を検知する。本実施形態では、入力部209は、ユーザが表示部208上をタッチすると、該タッチされた位置(タッチ位置)を検知する。このタッチ位置はいうまでもなく、表示部208上における2次元座標で表される。
<ステップS304>
他者視界共有部206は、HMD101〜103のうち複合現実空間の映像をタブレット端末装置104に対して送信中のHMD(以下では対象HMDと呼称する)、すなわち、表示部208に表示中の複合現実空間の映像の送信元であるHMDに対して、該HMDの位置の送信要求を送信する。対象HMDの頭部位置特定部203は、この送信要求を受けると、求めた対象HMDの位置を、タブレット端末装置104に対して送信するので、他者視界共有部206は、対象HMDから送信された「対象HMDの位置」を受信する。
<ステップS305>
他者視界共有部206は、対象HMDに対して、該HMDの姿勢(視線方向)の送信要求を送信する。対象HMDの頭部位置特定部203は、この送信要求を受けると、求めた対象HMDの姿勢を、タブレット端末装置104に対して送信するので、他者視界共有部206は、対象HMDから送信された「対象HMDの姿勢」を受信する。
なお、ステップS304とステップS305とを1つのステップで行っても良い。すなわち、他者視界共有部206は、対象HMDに対して位置姿勢の送信要求を送信し、対象HMDが該送信要求に応じて送信した「対象HMDの位置姿勢」を取得するようにしても構わない。
<ステップS306>
共有対象特定部207は、(ステップS304で取得した)対象HMDの位置から、(ステップS305で取得した)対象HMDの視線方向に規定距離だけ離間した位置に、該視線方向を法線ベクトル方向とする仮想平面(仮想スクリーン)を設定する。仮想スクリーンについては後述する。
<ステップS307>
共有対象特定部207は、仮想スクリーンにおいて、タッチ位置と位置的に対応する位置を対応位置として求め、(ステップS304で取得した)対象HMDの位置から対応位置へのベクトル(直線)を対象特定ベクトルとして求める。ここで、ステップS306及びS307における処理の詳細について、図4,7を用いて説明する。
図7は、ユーザの手702によってタブレット端末装置104(表示部208)の表示画面上における1点703がタッチされた状態を示している。ここで、表示部208の表示画面上には、図4のユーザ401が頭部に装着しているHMD402(対象HMD)から送信された複合現実空間の映像が表示されているものとする。図4の403は、HMD402の3次元位置から、HMD402の視線方向に規定距離だけ離間した位置に設定された、該視線方向を法線ベクトル方向とする仮想スクリーンのうち、HMD402の視体積に含まれている部分である。仮想スクリーン403の視野角は、HMD402(視界入力部202)の画角と一致するものである。すなわち、タブレット端末装置104の表示部208の表示画面上に表示されている複合現実空間の映像は、仮想スクリーン403によってクリッピングされたユーザ401の視界におけるものである。ここで、仮想スクリーン403はユーザ401からの距離に応じて無数に定義することが可能であるが、任意の距離を仮定してもクリッピング範囲は同じであり、ユーザ401の視界と一致するので、ユーザ401と仮想スクリーン403との距離は任意であるとしてもよい。
このように、表示部208の表示画面(厳密には複合現実空間の映像を表示している領域)と、仮想スクリーンと、はそのサイズは異なるものの、表示部208の表示画面上における各画素位置と、仮想スクリーン上の各位置と、は1対1に関連づけられていることが分かる。然るに、表示部208の表示画面上におけるタッチ位置が分かれば、仮想スクリーン上の対応する位置は一意に決まるので、この対応する位置と、対象HMDの3次元位置と、を通るベクトルを対象特定ベクトルとして求める。
<ステップS308>
共有対象特定部207は、人物情報保持サーバ105の頭部位置保持部211から、HMD101〜103のそれぞれの3次元位置と、HMD101〜103のそれぞれの識別情報と、を取得する。そして、HMD101〜103のうち対象HMD以外のHMDを対象としてステップS309〜S312のループ処理を行う。
<ステップS310>
共有対象特定部207は、HMD101〜103のうち対象HMD以外のHMDのうちの1つを選択HMDとし、該選択HMDの位置と、対象特定ベクトルと、の間の距離を求める。求める距離は、3次元空間内のユークリッド距離とするが、他の定義により算出された距離を代わりに用いてもよい。
<ステップS311>
共有対象特定部207は、ステップS310で求めた距離が、従前に求めた距離よりも小さい場合には、選択HMDの識別情報を不図示のメモリに格納する。これにより、ステップS309〜S312のループ処理を抜けた時点で、このメモリには、HMD101〜103において対象HMD以外のHMDのうち、対象特定ベクトルに最も近いHMDの識別情報が格納されていることになる。
<ステップS313>
他者視界共有部206は、上記のメモリに格納されている識別情報(ステップS309〜S312のループ処理において共有対象特定部207が対象特定ベクトルに最も近いHMDとして特定したHMDの識別情報)に対応するHMDに対して、複合現実空間の映像の送信要求を送信する。そして他者視界共有部206は、該送信要求に応じて該HMDから送信された複合現実空間の映像を受信し、該受信した複合現実空間の映像を表示部208に表示する。
ステップS309〜S312のループ処理において求めた処理のうち最小距離が閾値以上であれば、該当HMD無しと判断し、ステップS313では、その旨を表示部208に表示しても良い。
このように、本実施形態によれば、視界を共有したいユーザ(HMD)を直感的に指定することが可能になる。
<変形例>
上記の説明では、複合現実空間の映像を生成するための全ての処理をHMDが行うものとして説明した。しかし、HMDにPC(パーソナルコンピュータ)などのコンピュータ装置を接続し、該コンピュータ装置が、HMDの位置姿勢に応じた仮想空間の映像を生成し、該生成した仮想空間の映像と、HMDによって撮像された現実空間の映像と、を合成して複合現実空間の映像を生成してHMDに送出し、HMDが、コンピュータ装置から送信された複合現実空間の映像を受信して表示する、という構成を採用しても構わない。
また、このようなコンピュータ装置と人物情報保持サーバ105とを同じコンピュータ装置で実現させても良いし、一方が他方の一部を兼ねても良い。
また、HMD101〜103の代わりに、若しくは加えて、手持ち型のハンドヘルドディスプレイや、固定位置に備え付けられたカメラを用いても構わない。
また、現実空間において指示位置(タッチ位置)に対応する3次元位置と、表示画面に表示中の映像の取得元である表示装置の現実空間における3次元位置と、を通る直線を求め、複数の表示装置のうち該直線に最も近い表示装置を選択することができるのであれば、第1の実施形態で説明した処理に限るものではない。
[第2の実施形態]
第1の実施形態では、タブレット端末装置104によってHMDを装着した他者の視界を共有している状態で、タブレット端末装置104の表示画面を直接タッチすることによって新たな視界共有の対象となる人物(HMD)を指定していた。本実施形態に係るタブレット端末装置104の背面(表示画面が設けられている面とは逆の面)にはリアカメラが備わっており、該リアカメラによって撮像された他者の画像を表示画面に表示し、該表示画面上で他者を指定することによって視界共有の対象となる人物(HMD)を指定する。以下では、第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは、第1の実施形態と同様であるものとする。
先ず、本実施形態に係るシステムの機能構成例について、図5のブロック図を用いて説明する。図5において、図2に示した機能部と同じ機能部には同じ参照番号を付しており、該機能部に係る説明は省略する。
本実施形態では、タブレット端末装置104の構成が第1の実施形態と異なる。なお、タブレット端末装置104の代わりに、指示入力機能、映像入力機能、表示機能を有する機器であれば如何なる機器を用いても構わない。
カメラ位置特定部510は、タブレット端末装置104が有するリアカメラの3次元位置姿勢を取得する。リアカメラの3次元位置姿勢の取得方法については特定の方法に限るものではなく、例えば、リアカメラによって撮像された現実空間の映像中に写っている指標(マーカや自然特徴)を用いた周知の方法でもってリアカメラの位置姿勢を求めても良いし、センサ(赤外線センサ、磁気センサ、ジャイロセンサ等)による測定結果であるリアカメラの位置姿勢を取得しても良い。その他にも、2以上のセンサによる情報を組み合わせてリアカメラの位置姿勢を求めても良いし、現実空間の映像中に写っている指標と、センサによる情報と、を組み合わせてリアカメラの位置姿勢を求めても良い。
共有対象特定部507は、人物情報保持サーバ105が有する頭部位置保持部211に登録されている「HMD101〜103のそれぞれの位置」と、カメラ位置特定部510が特定したリアカメラの位置姿勢と、入力部209が検知した「ユーザによるタッチパネル画面上のタッチ位置」と、を用いて、HMD101〜103のうち、表示部208に表示する複合現実空間の映像の取得元となるHMDを選択する。然るに他者視界共有部206は、共有対象特定部507によって選択されたHMDから、該HMDにおいて表示されている複合現実空間の映像を受信し、該受信した映像を表示部208に表示することになる。
次に、タブレット端末装置104の動作について、図6のフローチャートを用いて説明する。なお、図6のフローチャートに従った処理を開始する時点では、表示部208には、HMD101〜103のうち何れか1つのHMDから受信した複合現実空間の映像が表示されているものとする。
<ステップS601>
制御部299は、ユーザによる入力部209への操作入力に応じて、タブレット端末装置104の動作モードを共有対象変更モードに変更する。
<ステップS602>
制御部299は、共有対象変更モードが設定されると、共有対象変更モードにおけるサブモードとしてカメラモードを設定する。
<ステップS603>
制御部299はリアカメラを動作させて現実空間の映像を撮像させる。そして制御部299は、該リアカメラにより撮像された現実空間の映像を表示部208に表示する。タブレット端末装置104を手に持っているユーザは、新たに視界を共有したい人物をリアカメラによって撮像するべく、リアカメラを該人物に向ける。このとき、表示部208には、リアカメラによって撮像された現実空間の映像、すなわち、該人物を含む現実空間の映像が表示されるので、ユーザは表示部208の表示画面上で、該人物が写っている領域内の何れかの1点をタッチする。該タッチがなされると、入力部209は、表示部208においてユーザが指示した位置(2次元座標)を検知する。
<ステップS604>
カメラ位置特定部510は、リアカメラの3次元位置(タブレット端末装置104の3次元位置でも良い)を取得する。なお、リアカメラの代わりに、タブレット端末装置104に外付けされたカメラを用いる場合には、カメラ位置特定部510は、該外付けされたカメラの3次元位置を取得する。
<ステップS605>
カメラ位置特定部510は、リアカメラの3次元姿勢(タブレット端末装置104の3次元姿勢でも良い)、すなわちリアカメラの視線方向を取得する。なお、リアカメラの代わりに、タブレット端末装置104に外付けされたカメラを用いる場合には、カメラ位置特定部510は、該外付けされたカメラの3次元姿勢を取得する。
<ステップS606>
共有対象特定部507は、(ステップS604で取得した)リアカメラの位置から、(ステップS605で取得した)リアカメラの視線方向に規定距離だけ離間した位置に、該視線方向を法線ベクトル方向とする仮想平面(仮想スクリーン)を設定する。ステップS606における仮想スクリーンの設定方法については、上記のステップS306と同様(「対象HMD」の代わりに「リアカメラ」とするだけ)である。
<ステップS607>
共有対象特定部507は、仮想スクリーンにおいて、タッチ位置と位置的に対応する位置を対応位置として求め、(ステップS604で取得した)リアカメラの位置から対応位置へのベクトルを対象特定ベクトルとして求める。ステップS607における対象特定ベクトルを求める方法については、上記のステップS307と同様(「対象HMD」の代わりに「リアカメラ」とするだけ)である。
<ステップS608>
共有対象特定部507は、人物情報保持サーバ105の頭部位置保持部211から、HMD101〜103のそれぞれの3次元位置と、HMD101〜103のそれぞれの識別情報と、を取得する。そして、HMD101〜103のうち対象HMD以外のHMDを対象としてステップS609〜S612のループ処理を行う。
<ステップS610>
共有対象特定部507は、HMD101〜103のうち対象HMD以外のHMDのうちの1つを選択HMDとし、該選択HMDの位置と、対象特定ベクトルと、の間の距離を求める。求める距離は、3次元空間内のユークリッド距離とするが、他の定義により算出された距離を代わりに用いてもよい。
<ステップS611>
共有対象特定部507は、ステップS610で求めた距離が、従前に求めた距離よりも小さい場合には、選択HMDの識別情報を不図示のメモリに格納する。
<ステップS613>
他者視界共有部206は、上記のメモリに格納されている識別情報に対応するHMDに対して、複合現実空間の映像の送信要求を送信する。そして他者視界共有部206は、該送信要求に応じて該HMDから送信された複合現実空間の映像を受信し、該受信した複合現実空間の映像を表示部208に表示する。
このように、本実施形態によれば、視界を共有したいユーザ(HMD)を直感的に指定することが可能になる。なお、現実空間において指示位置に対応する3次元位置と、情報処理装置が有する撮像部の3次元位置と、を通る直線を求め、複数の表示装置のうち該直線に最も近い表示装置を選択することができるのであれば、第2の実施形態で説明した処理に限るものではない。
[第3の実施形態]
上記のステップS603において、表示部208の表示画面上に仮想的なファインダを表示しても良い。この場合、ユーザは、撮影対象をファインダ内に収めた状態で表示部208の表示画面上をタップすることができ、これにより、該撮影対象を表示部208の表示画面上から外すことなく撮影することができる。
[第4の実施形態]
図2,5に示した構成を有するタブレット端末装置104には、図8に示したようなハードウェア構成例を有するコンピュータ装置を適用することができる。
CPU801は、上記の制御部299としても機能するものであり、RAM802やROM803に格納されているコンピュータプログラムやデータを用いて処理を実行することで、コンピュータ装置全体の動作制御を行うと共に、該コンピュータ装置を適用するタブレット端末装置104が行うものとして上述した各処理を実行若しくは制御する。
RAM802は、大容量メモリ805からロードされたコンピュータプログラムやデータ、通信I/F(インターフェース)806を介してHMD101〜103や人物情報保持サーバ105から受信したデータ、を格納するためのエリアを有する。更にRAM802は、CPU801が各種の処理を実行する際に用いるワークエリアを有する。このように、RAM802は、様々なエリアを適宜提供することができる。
ROM803は、コンピュータ装置のブートプログラムや書き換え不要な設定データなどが格納されている。
タッチパネル画面804は、上記の入力部209及び表示部208によって構成されるものであり、様々な情報表示を行う機能を有すると共に、ユーザによる操作入力を受け付ける機能を有する。
大容量メモリ805は、OS(オペレーティングシステム)や、タブレット端末装置104が行うものとして上述した各処理をCPU801に実行若しくは制御させるためのコンピュータプログラムやデータが格納されている。このコンピュータプログラムには、図3のフローチャートに従った処理をCPU801に実行若しくは制御させるためのコンピュータプログラム、及び/又は図6のフローチャートに従った処理をCPU801に実行若しくは制御させるためのコンピュータプログラム、が含まれている。また、このデータには、上記の説明において既知の情報として取り扱ったものが含まれている。大容量メモリ805に格納されているものとして説明したコンピュータプログラムやデータは、CPU801による制御に従って適宜RAM802にロードされ、CPU801による処理対象となる。
通信I/F806は、ネットワークを介してHMD101〜103や人物情報保持サーバ105との間のデータ通信を行うものである。
CPU801、RAM802、ROM803、タッチパネル画面804、大容量メモリ805、通信I/F806、は何れも、バス807に接続されている。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
206:他者視界共有部 207:共有対象特定部 208:表示部 209:入力部

Claims (10)

  1. 複数の表示装置のうち選択された表示装置に表示されている映像を取得して表示画面に表示する情報処理装置であって、
    前記表示画面上における指示位置を取得する取得手段と、
    前記複数の表示装置のそれぞれの位置と、前記指示位置と、に基づいて、前記複数の表示装置のうち1つを選択する選択手段と、
    前記選択手段が選択した表示装置に表示されている映像を取得して前記表示画面に表示する表示制御手段と
    を備えることを特徴とする情報処理装置。
  2. 前記選択手段は、
    現実空間において前記指示位置に対応する3次元位置と、前記表示画面に表示中の映像の取得元である表示装置の前記現実空間における3次元位置と、を通る直線を求め、前記複数の表示装置のうち該直線に最も近い表示装置を選択する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得手段は、前記複数の表示装置のうち選択された表示装置に表示されている映像を表示している前記表示画面における指示位置を取得することを特徴とする請求項2に記載の情報処理装置。
  4. 前記選択手段は、
    現実空間において前記指示位置に対応する3次元位置と、前記情報処理装置が有する撮像部の3次元位置と、を通る直線を求め、前記複数の表示装置のうち該直線に最も近い表示装置を選択する
    ことを特徴とする請求項1に記載の情報処理装置。
  5. 前記取得手段は、前記撮像部が撮像した現実空間の映像を表示している前記表示画面における指示位置を取得することを特徴とする請求項4に記載の情報処理装置。
  6. 更に、
    前記表示画面上に仮想のファインダを表示する手段を備えることを特徴とする請求項4又は5に記載の情報処理装置。
  7. 前記表示制御手段は、
    前記選択手段が選択した表示装置の位置姿勢に応じて生成された仮想空間の映像と、該表示装置が撮像した現実空間の映像と、が合成された複合現実空間の映像を取得して前記表示画面に表示する
    ことを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記表示装置は、頭部装着型表示装置であることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。
  9. 複数の表示装置のうち選択された表示装置に表示されている映像を取得して表示画面に表示する情報処理装置が行う情報処理方法であって、
    前記情報処理装置の取得手段が、前記表示画面上における指示位置を取得する取得工程と、
    前記情報処理装置の選択手段が、前記複数の表示装置のそれぞれの位置と、前記指示位置と、に基づいて、前記複数の表示装置のうち1つを選択する選択工程と、
    前記情報処理装置の表示制御手段が、前記選択工程で選択した表示装置に表示されている映像を取得して前記表示画面に表示する表示制御工程と
    を備えることを特徴とする情報処理方法。
  10. コンピュータを、請求項1乃至8の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2015112402A 2015-06-02 2015-06-02 情報処理装置、情報処理方法 Pending JP2016224809A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015112402A JP2016224809A (ja) 2015-06-02 2015-06-02 情報処理装置、情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015112402A JP2016224809A (ja) 2015-06-02 2015-06-02 情報処理装置、情報処理方法

Publications (1)

Publication Number Publication Date
JP2016224809A true JP2016224809A (ja) 2016-12-28

Family

ID=57748833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015112402A Pending JP2016224809A (ja) 2015-06-02 2015-06-02 情報処理装置、情報処理方法

Country Status (1)

Country Link
JP (1) JP2016224809A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018225806A1 (ja) * 2017-06-08 2018-12-13 ナーブ株式会社 情報管理システム及び情報管理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018225806A1 (ja) * 2017-06-08 2018-12-13 ナーブ株式会社 情報管理システム及び情報管理方法

Similar Documents

Publication Publication Date Title
US10095458B2 (en) Information processing apparatus, information processing method, non-transitory computer-readable storage medium, and system
JP4757115B2 (ja) 画像処理装置、画像処理方法
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
US10999412B2 (en) Sharing mediated reality content
US20140375687A1 (en) Image processing apparatus and image processing method
JP2017162309A (ja) ヘッドマウントディスプレイシステムを制御するための方法、および、プログラム
CN110851095B (zh) 虚拟和增强现实中的多屏幕交互
TW201322178A (zh) 擴增實境的方法及系統
WO2016163183A1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP7005224B2 (ja) 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
US11195341B1 (en) Augmented reality eyewear with 3D costumes
JP6632322B2 (ja) 情報通信端末、共有管理装置、情報共有方法、コンピュータプログラム
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP2005174021A (ja) 情報提示方法及び装置
JP2018530043A (ja) イメージコンテンツ検索
JP2014203175A (ja) 情報処理装置、情報処理方法及びプログラム。
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2021170367A (ja) 画像処理方法、画像処理システム
US11474595B2 (en) Display device and display device control method
JP2016224809A (ja) 情報処理装置、情報処理方法
JP7424121B2 (ja) 情報処理装置及びプログラム
JP2005251118A (ja) 画像処理方法、画像処理装置
JP6124862B2 (ja) ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム
JP2018124746A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP2021131490A (ja) 情報処理装置、情報処理方法、プログラム