JP2015072607A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2015072607A
JP2015072607A JP2013208150A JP2013208150A JP2015072607A JP 2015072607 A JP2015072607 A JP 2015072607A JP 2013208150 A JP2013208150 A JP 2013208150A JP 2013208150 A JP2013208150 A JP 2013208150A JP 2015072607 A JP2015072607 A JP 2015072607A
Authority
JP
Japan
Prior art keywords
virtual object
user
display
shared
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013208150A
Other languages
English (en)
Inventor
佑治 名屋
Yuji Naya
佑治 名屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013208150A priority Critical patent/JP2015072607A/ja
Publication of JP2015072607A publication Critical patent/JP2015072607A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】仮想オブジェクトの共有状態を表示する情報処理装置において、場にいる共有ユーザの近くに仮想オブジェクトを共有していることを表す識別マークを表示することで、仮想オブジェクトの共有ユーザを一見して把握することを可能にする。【解決手段】表示位置算出部112は、仮想オブジェクトにアクセス可能に設定された共有ユーザの位置姿勢、及び、仮想オブジェクトの表示位置姿勢に基づき、識別マークを共有ユーザ、及び、仮想オブジェクトの近くに重畳表示するための表示位置を算出し、表示部113に送出する。ディスプレイである表示部113は、該表示位置にしたがった画面上の位置に識別マークを表示する。【選択図】図1

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関し、詳細には、拡張現実表示技術による仮想オブジェクトの共有状態を表示する情報処理装置、情報処理方法、及び、プログラムに関する。
近年、AR(Augumented Reality:拡張現実)表示技術を用いたサービスが開発され、提供されている。ARは、主にカメラ等で撮影された現実空間の画像に対して、仮想オブジェクトを表示デバイスにより重畳表示するものである。ARを提示する表示デバイスとしては、携帯端末や、HMD(Head‐mounted Display)等が利用される。ARを利用したサービスとして、GPS(Global Positioning System)によるユーザの位置情報に基づいてユーザの周囲の環境情報をARで表示するものなどがある。これらのサービスでは、GPSシステムに代表されるGNSS(Global Navigation Satellite System)で得られる位置情報を利用し、カメラで撮影している撮像画像に、施設に関する情報を重畳して表示する。また、特定のパターン(ARマーカ)を認識し、認識したARマーカを仮想オブジェクトを表示するために利用する技術がある。ARマーカ認識技術は、GNSSの位置情報に比べ精度よく位置を特定することができるため、仮想オブジェクトの表示の位置ずれを軽減することができる。これにより、複数ユーザがあたかも同じ物体を見ているかのように、仮想オブジェクトを共有することができる(特許文献1)。
また、ネットワーク・システムにおいて、特定のユーザ間でフォルダを共有することで複数ユーザでファイル共有を実現することが可能となっており、共有フォルダに対して設定された共有ユーザがそれぞれ持つアバター画像を表示するものがある(特許文献2)。
特開2008−217119号公報 特開2012−79046号公報 特開2005−33319号公報 特表2008−508590号公報
前述のAR表示技術によれば、複数ユーザによる打ち合わせまたはプレゼンテーションなどの場において、ARマーカに基づいて仮想オブジェクトを表示することができる。これにより、複数ユーザが同じ物を見ているかのように仮想オブジェクトを閲覧することが可能である(以下、ユーザが仮想オブジェクトを共有している状態とは、ユーザが仮想オブジェクトを閲覧可能な状態と同じであるとする)。ただし、仮想オブジェクトを複数ユーザで共有する際は、セキュリティやユーザのプライバシー保護のため、仮想オブジェクトを共有するユーザを限定することが想定される。このとき、仮想オブジェクトを共有しているユーザを確認するために、前述の共有フォルダの技術を用いて、仮想オブジェクトを共有しているユーザ(以下、共有ユーザと呼ぶ)のアバター画像などをディスプレイに表示することが考えられる。
しかし、共有ユーザのアバター画像を表示する方法を実施した場合は、ユーザとアバター画像を比較して、実際のユーザを判定する必要がある。特に、その場にいるユーザの中で共有ユーザとそうでないユーザを確認したい場合、アバター画像との比較作業が煩わしく、共有ユーザを一見して把握することが難しい。
そこで、本発明は上記問題点に鑑みてなされたものであり、その目的は、仮想オブジェクトを表示している場において共有ユーザがどのように設定されているかを容易に把握可能にする情報処理装置、情報処理方法、及びプログラムを提供することである。
上記課題を解決するために本発明は、撮像手段が撮像した現実空間の撮像画像を表示画面に表示し、及び、仮想オブジェクトを該撮像画像内の所定位置に表示し、前記表示画面において拡張現実空間を実現する情報処理装置において、前記ユーザの前記現実空間における第1の位置の情報を取得する手段と、前記取得された情報に基づいて前記第1の位置に対応して決定される第2の位置であって、前記ユーザの画像を含む前記撮像画像内の第2の位置に、該ユーザが前記仮想オブジェクトへのアクセスを許可されるように設定された共有ユーザであるかどうかを識別するための識別情報を表示するように、前記表示画面における表示を制御する制御手段とを有する情報処理装置を提供する。
本発明では、仮想オブジェクトにアクセス可能、例えば閲覧または編集可能に設定された共有ユーザを識別する識別情報を、場にいる共有ユーザに対応した位置に表示するように、情報処理装置の表示画面における表示を制御する。したがって、本発明によれば仮想オブジェクトを共有していてアクセスが可能なユーザを一見して把握することができ、使い勝手を向上できる。
本発明に係る情報処理装置としての画像表示装置の機能構成を示すブロック図である。 本発明に係る情報処理装置としての画像表示装置のハードウエアブロック図である。 本発明の実施形態におけるデータベース・サーバ内のカメラ位置姿勢テーブルの例を示す図である。 本発明の実施形態におけるデータベース・サーバ内の仮想オブジェクト情報テーブルの例を示す図である。 本発明の実施形態のシステム全体のフローチャートである。 第1実施形態における共有状態表示処理のフローチャートである。 本発明に係る情報処理装置としての画像表示装置を装着したユーザの位置姿勢と仮想オブジェクトの位置姿勢を示す場の俯瞰図である。 第1実施形態における仮想オブジェクト共有状態表示の例を示す図である。 画像表示装置を通して観測ユーザが見ている被観測ユーザの識別マーク表示位置を導出する方法についての概念図である。 画像表示装置上の識別マーク表示位置を算出する方法についての概念図である。 第2実施形態における共有状態表示処理のフローチャートである。 第2実施形態における仮想オブジェクト共有状態表示の例を示す図である。 第3実施形態における共有状態表示処理のフローチャートである。 第3実施形態における仮想オブジェクト指定処理のフローチャートである。 第3実施形態における腕の方向によって仮想オブジェクトを指定する方法を説明する図である。 第3実施形態における仮想オブジェクト共有状態表示の例を示す図である。 第4実施形態における共有状態表示処理のフローチャートである。 第5実施形態における共有状態表示処理のフローチャートである。 第5実施形態における仮想オブジェクト共有状態表示の例を示す図である。
以下、本発明を実施するための形態について図面を参照して説明する。ただし、この実施の形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらのみに限定する趣旨のものではない。
<第1実施形態>
以下、本発明の第1実施形態について図面を参照して説明する。
図1は、本発明に係る情報処理装置としての画像表示装置の機能構成を示すブロック図である。図1に示された構成は、図2に示されるハードウエアを備える装置において、CPUが各種記憶媒体に格納された画像処理ソフトウェア(コンピュータプログラム)を実行することで実現される。画像表示装置100の一例として、ユーザの頭部にメガネをかけるように装着することが可能なHMD(Head‐mounted Display)を用いることができる。ユーザは、HMDの前面に取り付けられた撮像部101、すなわちカメラ0202により、ユーザの視線方向の現実空間の画像を撮像することができる。また、HMDの前面に取り付けられた表示部113、すなわちディスプレイ0208により、ユーザはHMDを装着したまま、撮像部101がキャプチャした撮像画像を見ることができる。
本実施形態の画像表示装置100について、その処理の概略を説明する。画像表示装置100は、撮像部101により取得された現実空間の撮像画像から所定のパターンであるARマーカ画像を検出する。検出したARマーカ画像の歪みや傾きから、撮像部101すなわちカメラ202の位置と向きであるカメラ位置姿勢を算出する。ARマーカのパターンは予め定められており、紙媒体などに印刷したARマーカを撮像することにより、撮像画像内のARマーカ画像として検出可能である。前述のカメラ位置姿勢から仮想オブジェクトの相対的な位置姿勢を算出することにより、仮想オブジェクトをカメラ202の撮像画像に合成して、表示部113すなわちディスプレイ208に表示することが可能となる。尚、仮想オブジェクトは、2次元のドキュメント画像または3次元的に描画される、コンピュータにより合成された仮想物体として、実際にカメラで撮像した現実空間の撮像画像とディスプレイ上で重畳表示されてディスプレイ上に拡張現実空間を実現する。
本発明は、画像表示装置100を装着しているユーザに対して、仮想オブジェクトの共有状態を示す識別マークを仮想オブジェクトと共に撮像画像に重畳表示することによって、仮想オブジェクトの共有状態を示すことを可能とする。したがってこの識別マークは、仮想オブジェクトを閲覧可能に設定されたユーザをと閲覧可能に設定されていないユーザを識別するために用いることのできる識別情報である、と云える。仮想オブジェクトを表示するためのカメラ位置姿勢算出方法として、撮像画像中の特徴点を用いた手法があるが、ARマーカ画像からも特徴点を抽出できるため、本明細書ではARマーカ画像を用いてカメラ位置姿勢を算出するものとして説明する。図1の画像表示装置100、及び、データベース・サーバ150の各機能の詳細を説明する。
画像表示装置100は、図1では1つのみ示したが、現実空間である場にいる全てのユーザが装着するためのものである。データベース・サーバ150は一台でよく、一般的な構成を備えたコンピュータを用いることができる。データベース・サーバ150は、ネットワーク(不図示)を介して複数の画像表示装置100と双方向通信が可能であり、画像表示装置100からのリクエストに応じて、後述のテーブルから成るリレーショナル・データベースを更新することができる。データベース・サーバ150はまた、表示のために格納している複数の仮想オブシェクトのファイルから、画像表示装置100からのリクエストに応じて、幾つかのファイルを提供することができる。
撮像部101は、画像表示装置100を装着しているユーザの視線方向の現実空間画像を撮影し、撮像画像をカメラ位置姿勢算出部102に所定の間隔で送出する。所定の間隔は、毎秒5フレームにするなど、任意の値に設定できる。
カメラ位置姿勢算出部102は、撮像部101により撮像された画像中のARマーカ画像の歪みからカメラ位置姿勢を算出する。撮像部101のカメラ位置姿勢は、空間のデカルト座標としての位置を表すX、Y、Z成分と、方位角と仰俯角を表す成分として算出される。尚、ARマーカ画像からカメラ位置姿勢を算出する方法は周知の技術であるため(例えば特許文献3)、本明細書において詳細な説明は省略する。算出されたカメラ位置姿勢情報は、カメラ位置姿勢更新部103に送出される。
カメラ位置姿勢更新部103は、ネットワーク(不図示)に接続されるデータベース・サーバ150へカメラ位置姿勢情報を送出する。さらに、画像表示装置100を装着しているユーザに紐付けられた、すなわち関連付けられた、カメラ位置姿勢テーブル151上のユーザIDのカメラ位置姿勢情報の更新リクエストを定期的に送出する。尚、撮像部101、カメラ位置姿勢算出部102、カメラ位置姿勢更新部103の一連の処理はリアルタイムで行われ、各ユーザのカメラ位置姿勢情報は所定の間隔で常に更新されるものとする。所定の間隔は、毎秒5回など、カメラ位置姿勢算出部102の算出頻度を超えない範囲で任意の値に設定できる。
カメラ位置姿勢テーブル151は、各ユーザが装着している画像表示装置100から定期的に送られてくる、各ユーザのカメラ位置姿勢情報を受け取って保持する。例えば、ユーザID:0001のカメラ位置姿勢情報は、図3に示されるテーブル151の行301におけるカメラ位置(X、Y、Z)とカメラ姿勢(方位角、仰俯角)で表される。図3については後でより詳細に説明する。
カメラ位置姿勢取得部104は、データベース・サーバ150上のカメラ位置姿勢テーブル151から、場にいる全てのユーザの、更新された最新のカメラ位置姿勢情報を所定の間隔で取得する。所定の間隔は、毎秒3回など、任意の値に設定できる。
仮想オブジェクト情報テーブル152は、仮想オブジェクトの位置姿勢と、仮想オブジェクトを閲覧可能な、すなわち該仮想オブジェクトを共有しているユーザのIDを保持する。例えば、仮想オブジェクトIDが“0001”の仮想オブジェクトの位置姿勢情報は、図4に示される仮想オブジェクト情報テーブル152の行401における位置列の(X、Y、Z)と姿勢列の(方位角、仰俯角)で表される。また、仮想オブジェクトIDが“0001”の仮想オブジェクトを共有しているユーザのIDは、仮想オブジェクト情報テーブル152の行401における共有ユーザID列で表され、ここでは“0001”、“0002”、“0003”となる。
共有ユーザ取得部105は、データベース・サーバ150上の仮想オブジェクト情報テーブル152から仮想オブジェクトの共有ユーザIDを取得する。例えば、仮想オブジェクトIDが“0001”の仮想オブジェクトの共有ユーザIDを取得する場合は、仮想オブジェクト情報テーブル152の行401における共有ユーザID列の3つのユーザID“0001”、“0002”、“0003”を取得する。図4については後でより詳細に説明する。
仮想オブジェクト位置取得部106は、データベース・サーバ150上の仮想オブジェクト情報テーブル152から、仮想オブジェクトの位置姿勢情報を取得する。この情報は、観測ユーザなどが後述の通り、予め決定する。
仮想オブジェクト識別色決定部107は、共有状態を表示したい仮想オブジェクトを一意に特定する識別マークの色を決定する。識別マークの色により、共有ユーザと仮想オブジェクトを紐付けるすなわち関連付けることが可能となる。詳細については後述する。
仮想オブジェクト取得部114は、データベース・サーバ150上の仮想オブジェクト格納部153にアクセスし、格納されている複数の仮想オブシェクトのファイルから、ユーザの指定に応じたファイルを取得する。仮想オブシェクトのファイルとしては、例えば2次元平面で表される各種のドキュメントファイルを使用することができるが、3次元的に描画される仮想物体のCGファイルなどを使用してもよい。
ユーザ識別色決定部108は、共有状態を表示したいユーザを一意に特定する識別マークの色を決定する。識別マークの色により、共有ユーザと仮想オブジェクトを紐付けることが可能となる。その詳細は第2実施形態に関連して説明し、ここでの詳細な説明は省略する。
仮想オブジェクト指定部109は、共有状態を表示したい仮想オブジェクトを指定する。これにより、複数ある仮想オブジェクトの中の指定した仮想オブジェクトの共有状態のみ表示することが可能となる。詳細は第3実施形態に関連して説明する。
距離判定部110は、表示している仮想オブジェクトの位置とユーザの位置が所定距離以内であるかどうかを判定する。これにより、仮想オブジェクトから所定距離以上離れているユーザの共有状態は表示させないことが可能となる。詳細は第4実施形態に関連して説明する。
重なり数算出部111は、ユーザの近くに表示される共有状態を表す識別マークの重なり数を算出する。これにより、識別マークが多数重なっていると判定される場合は、仮想オブジェクトの近くに共有状態を表す識別マークではなく、共有している人数を表す識別マークを表示することが可能となる。詳細は第5実施形態に関連して説明する。
表示位置算出部112は、種々情報から表示部113に表示する識別マークの表示位置を算出し、表示部113に送出する。種々情報は、自分を含めるユーザ毎のカメラ位置姿勢情報、共有ユーザID、仮想オブジェクトの位置情報、仮想オブジェクト識別色、ユーザ識別色、仮想オブジェクト指定情報、ユーザ・仮想オブジェクト間距離判定情報、識別マーク重なり数を含むことができる。表示部113は、識別マーク表示位置に基づき、共有状態を表す識別マークを重畳表示する。
図2は、本発明に係る情報処理装置としての画像表示装置100のハードウエアブロック図である。
画像表示装置100は、CPU201、カメラ202、ネットワークインタフェース203、フラッシュメモリ204、操作部205、メインメモリ206、グラフィックコントローラ207、ディスプレイ208を含んで構成される。本実施形態及び以下の実施形態において、断りのない限りディスプレイ208は非透過型である。カメラ202は撮像部101に相当し、ディスプレイ208は表示部113に相当する。各要素はシステムバス209で接続される。
フラッシュメモリ204にはブートローダプログラム及び本発明に係る表示装置制御プログラムが格納されている。
メインメモリ206は揮発性メモリであり、高速アクセスが可能なため、フラッシュメモリ204に記憶されている情報や一時的に使用する情報を格納する。画像表示装置100の電源投入時には、CPU201がブートローダプログラムを読み出して実行し、フラッシュメモリ204に格納されている表示装置制御プログラムを取り出し、メインメモリ206にロードする。フラッシュメモリ204はまた、仮想オブシェクトの各種ドキュメントファイルを処理するアプリケーションプログラムを格納している。そして、CPU201がメインメモリ206にロードされた表示装置制御プログラムを実行し、画像表示装置100が備える、図1に示した各機能を実行する。観測ユーザの画像表示装置100において仮想オブジェクト取得部114がデータベース・サーバ150上の仮想オブジェクト格納部153にアクセスして仮想オブジェクトを選択し取得すると、該仮想オブジェクトを表示に使用することができる。
画像表示装置100は、ユーザに情報を提示する際にはディスプレイ208に情報を表示する。
ディスプレイ208は、液晶ディスプレイや有機ELディスプレイなどの周知の表示装置であってよい。
グラフィックコントローラ207は、ディスプレイ208の表示を制御する。
カメラ202は、レンズや、CCDまたはCMOSと呼ばれる固体撮像素子などの周知の要素から成り、撮像画像をデジタルデータとして出力する。
ネットワークインタフェース203は、ネットワーク900に接続している機器との間で情報の授受を行う。
操作部205は、画像表示装置100を装着するユーザが該装置を操作するために使われる。操作部205は、ボタンやタッチパネル、またはソフトキーボードなどの周知のユーザインタフェースを備える。ユーザは操作部205を使って、ディスプレイ208に映し出される項目の選択、文字入力、決定の各操作などを行うことができる。ディスプレイ208上の項目を選択する際は、ユーザの指し示す位置を表すカーソルを表示し操作することによって、ユーザの意図する項目を指し示す、または選択することができる。
図3は、本実施形態におけるカメラ位置姿勢テーブル151の例を示す図である。
カメラ位置姿勢テーブル151は、データベース・サーバ150上で管理され、画像表示装置100のカメラ位置姿勢更新部103からのリクエストに応じて、テーブルの内容を随時更新できる。カメラ位置姿勢テーブル151により、全てのユーザのカメラ位置姿勢を管理できる。
各行301〜304は、各ユーザのユーザID、カメラ位置情報、カメラ姿勢情報、ユーザネーム、所属グループを表している。例えば、行301のユーザIDは“0001”、ユーザネームは“田中俊哉”、所属グループは“アルファ”として表される。
カメラ位置は、X成分が“3500”ミリメートル、Y成分が“1900”ミリメートル、Z成分が“1665”ミリメートルとして表される。ただし、ここでは単位をミリメートルとしたが、メートルや距離を表す他の単位でも良い。
カメラ姿勢は、方位角が“200”度(degree)、仰俯角が“2”度として表される。ただし、ここでは角度を表す単位としてdegreeを用いたが、radianでも良い。尚、方位角は、“0”度を北方向とするならば、東、南、西はそれぞれ“90”度、“180”度、“270”度と表される。方位角は、基準になる任意の方位を0度に設定することができ、全てのユーザの方向が、その基準の方位から何度であるかを表せればよい。また、仰俯角は“0”度が水平方向を、“90”度が天頂方向を、“−90”度が鉛直方向を表す。他の行302〜304行も、行301と同様の情報を表す。
図4は、本実施形態における仮想オブジェクト情報テーブル152の例を示す図である。
仮想オブジェクト情報テーブル152は、データベース・サーバ150上で管理され、画像表示装置100からのリクエストに応じて、テーブルの内容を更新できる。
各行401,402は、仮想オブジェクト格納部153が格納している各仮想オブジェクトの仮想オブジェクトID、位置、姿勢、仮想オブジェクトを共有しているユーザのIDである共有ユーザID、仮想オブジェクト名を表している。
例えば、行401の仮想オブジェクトの仮想オブジェクトIDは“0001”である。位置は、X成分が“1000”ミリメートル、Y成分が“1500”ミリメートル、Z成分が“1500”ミリメートルとして表される。ここでの単位はミリメートルであるが、メートルや距離を表す他の単位でも良い。姿勢は、方位角が“135”度、仰俯角が“0”度として表される。ただし、ここでは角度を表す単位としてdegreeを用いたが、radianでもよい。
また、共有ユーザIDは“0001”、“0002”、“0003”であり、これは、図3のユーザIDと紐付けられ、すなわち関連付けられている。例えば、行401の仮想オブジェクトID“0001”をもつ仮想オブジェクトは、ユーザIDが“0001”、“0002”、“0003”のユーザにより共有されていることが表されている。該ユーザIDから、カメラ位置姿勢情報なども得ることができる。
仮想オブジェクト名は、仮想オブジェクト格納部153に格納されている仮想オブジェクトの元々のファイル名を表している。例えば、行401からは、“ABC.pdf”という名前のファイルを仮想オブジェクトとして表示していることが分かる。ファイル形式はpdfファイルに限らないし、3次元グラフィックファイルであってもよい。
図5は本実施形態のシステム全体のフローチャートである。
本フローチャートに示される処理は画像表示装置100による全体処理であり、画像表示装置100のフラッシュメモリ204に格納されたプログラムをCPU201が実行することによって、本フローチャートにおける各ステップが実施される。
S501〜S505及びS512〜S515は原則的に観測ユーザの画像表示装置100が処理主体となることができ、S506〜S511は原則的に場に居る全てのユーザ(観測ユーザ及び非観測ユーザ)の画像表示装置100が処理主体となることができる。但し、S501〜S505の処理については、観測ユーザ及び非観測ユーザでもない、表示の際に場にはいない仮想オブシェクトの管理者が例えばパーソナルコンピュータ上でアプリケーションを使用して、表示に先立って処理主体となることもできる。さらに、S511については、場にいる非観測ユーザのうち、S505において共有ユーザに設定されていない非観測ユーザの画像表示装置100は処理主体となることができない。
S501では、拡張現実空間に表示する仮想オブジェクトを観測ユーザが決定する。表示に用いる仮想オブジェクトは、複数ユーザで共有されやすいように、前述した通りデータベース・サーバ150の仮想オブジェクト格納部153に格納されている中から選択できる。これに限定することなく、仮想オブジェクトは、フラッシュメモリ204に格納されているファイル等を選択し、選択したファイル等をデータベース・サーバ150に送出し、そのファイル等に基づいてもよい。決定操作は、操作部205を使って行うことができ、リスト表示されたファイル名から観測ユーザが任意に選択して決定することができる。決定したファイル名を、ネットワーク900を介してデータベース・サーバ150上の仮想オブジェクト情報テーブル152に登録するようリクエストすると、データベース・サーバ150が仮想オブジェクト情報テーブル152の仮想オブジェクト名列に登録する。
S502では、表示する仮想オブジェクトの位置姿勢を観測ユーザが決定する。仮想オブジェクトの位置姿勢は、図4に示した仮想オブジェクト情報テーブル152のように、X、Y、Z、方位角、仰俯角として表される。ここで、原点はオフィスの隅の任意の既知の位置とすることができるが、地球上の所定の緯度及び経度に対応した、世界座標上で一意に決定される位置であればよい。仮想オブジェクトの位置姿勢は、観測ユーザが操作部205を用いて数値で入力することによって決定することができる。あるいは、観測ユーザから所定の距離に配置された仮想オブジェクトを見ながら、観測ユーザが十字ボタンなどで位置を調整することによって位置姿勢を決定してもよい。
S503では、S502で決定された当該仮想オブジェクトの表示位置姿勢情報を、データベース・サーバ150に登録する。具体的には、決定された表示位置姿勢情報を図4に示した仮想オブジェクト情報テーブル152の当該仮想オブジェクトに相当する行の位置列、姿勢列に登録する。
S504では、当該仮想オブジェクトの共有ユーザを初期設定する。共有ユーザの設定は、ディスプレイ0208にポップアップにより表示されるポップアップ設定画面(不図示)において操作部205を使って行うことができる。設定画面においては、まず、共有ユーザをユーザネームで指定するか、ユーザIDで指定するか、ユーザの属するグループ名でまとめて指定するかのいずれかを選択する画面が表示される。観測ユーザは、操作部205によって、設定画面上に表示されているカーソルを操作することで、いずれの方法で指定するか選択する。指定法を選択すると、共有設定したいユーザのユーザネーム(またはユーザIDまたはグループ名)の候補が設定画面に表示され、ユーザは候補の中から選択して共有ユーザを指定することができる。候補としては、例えば、観測ユーザが所属するグループの他のユーザ、システムが近くにいると判定する人物(例えば5m以内など)、または過去に選択したユーザなどを表示することができる。該当する候補が存在しない場合は、ソフトキーボードによって直接手入力で指定できるようにしてもよい。ここで、入力したユーザがいない場合は、「該当ユーザはいません」と表示して観測ユーザに通知し、一方、手入力に関連する複数の候補がある場合は、所属グループ名と一緒に候補のユーザ名を表示し、その候補から観測ユーザに指定させる。また、表示した候補からの選択指定も手入力による指定もなかった場合は、観測ユーザのみ(つまり仮想オブドェクトを表示する当人だけ)が共有ユーザに指定される。このようにして設定が終了するとポップアップ設定画面は閉じる。共有ユーザの設定は、仮想オブジェクトが表示されている間はいつでも行うことができる。
図5のフローに戻って、S505では、S504で設定された当該仮想オブジェクトの共有ユーザIDを、ネットワーク900を介してデータベース・サーバ150上の仮想オブジェクト情報テーブル152に登録するようリクエストする。具体的には、リクエストによって、設定された共有ユーザIDが、仮想オブジェクト情報テーブル152における該仮想オブジェクトの共有ユーザID列に登録される。共有ユーザは、仮想オブジェクト情報テーブル152の共有ユーザIDとして一元管理される。
S506では、カメラ202で撮像した現実空間の画像を取得する。
S507では、S506で取得された画像から、現実空間における所定位置に配置された所定のパターンであるARマーカ画像を検出する。ARマーカ画像は、紙媒体などに印刷された所定パターンであり、現実空間に配置されたARマーカ画像の撮像画像から幾何学計算によってカメラ202のカメラ位置姿勢を算出できるものであればその形状は問わない。
S508では、S507で検出されたARマーカ画像を用いて、カメラ202のカメラ位置姿勢を算出する。カメラ位置姿勢の算出は、カメラ位置姿勢算出部102に関連して前述した方法で行う。
S509では、S508で算出されたカメラ位置姿勢情報をデータベース・サーバ150に登録する。具体的には、算出されたカメラ位置姿勢情報を図3に示したカメラ位置姿勢テーブルにおける当該ユーザの行のカメラ位置列、カメラ姿勢列に登録する。
S510では、S509で算出されたカメラ位置姿勢情報に基づき、仮想オブジェクトのディスプレイ208における表示位置を算出する。表示位置の算出方法については、図9、10を参照して後述する。
S511では、S510で算出された仮想オブジェクトの表示位置に基づいて、仮想オブジェクトをディスプレイ208に表示する。
S512では、画像表示装置100が共有状態表示モードであるか否かを判定する。共有状態表示モードのオン/オフ設定は、仮想オブジェクトの表示時にユーザが設定することができる。設定操作は、操作部205への入力によって行なえ、ディスプレイ208に表示された共有状態表示モードアイコンの選択操作によって、モードのオン/オフを切り替えることができる。共有状態表示モードと判定した場合はS513へ進み、そうでなければS514へ進む。
S513では共有状態表示処理を行ない、次いでS514へ進む。共有状態表示処理については図6を参照して後でより詳細に説明する。
S514では、仮想オブジェクトの共有ユーザ設定アイコンが選択されたか否かを判定する。共有ユーザ設定アイコン(不図示)は、S305の設定処理を再び行うか否かを観測ユーザに選択させるため、S506〜S513の処理中、常にディスプレイ208上に表示される。共有ユーザ設定アイコンの選択は、観測ユーザによる操作部205の操作により行われる。選択されたと判定された場合はS504へ戻り、そうでなければS515へ進む。S305では、操作部205を使用して共有ユーザの再設定を行うことができ、共有ユーザを追加及び/または削除することができる。
S515では、本処理が終了されたかどうかを判定する。終了されたと判定された場合は本処理を終了し、そうでなければS506へ戻る。
図6は第1実施形態による共有状態表示処理のフローチャートである。
S601乃至S611は、図5におけるS513の共有状態表示処理を詳細に示すフローチャートである。この共有状態表示処理は、共有状態表示モードに設定された仮想オブジェクトごとに行われる。
本フローチャートのS601乃至S608の処理は、画像表示装置100のフラッシュメモリ204に格納されたプログラムをCPU201がメインメモリ206にロードして実行することによって実施される。
また、本フローチャートのS609乃至S611の処理は、データベース・サーバ150の外部記憶装置(不図示)に格納されたプログラムをデータベース・サーバ150のCPU(不図示)が実行することによって実現される。
S601では、仮想オブジェクトの共有ユーザIDをデータベース・サーバ150にリクエストし、仮想オブジェクト情報テーブル152から取得する。
S602では、ユーザのカメラ位置姿勢情報をデータベース・サーバ150にリクエストし、カメラ位置姿勢テーブル151から取得する。
S603では、仮想オブジェクトの位置姿勢情報をデータベース・サーバ150にリクエストし、仮想オブジェクト情報テーブル152から取得する。
S604では、当該仮想オブジェクトの識別色を決定する。識別色は、仮想オブジェクト情報テーブルの各仮想オブジェクトIDの一つ一つに割り当てられる。識別色は、仮想オブジェクトIDについて昇順に、赤、青、緑、黄、白、黒、ピンクの7色が割り当てられる。例えば、2つの仮想オブジェクトに識別色を割り当てる場合は、赤と青が割り当てられる。ただし、識別色の上記順番は例示であって、上記順番に限定されない。また、仮想オブジェクトの数が7を超える場合は、色相環をその数で等分して等分数の色を生成し、そのうちの任意の色を割り当ててもよい。S604の処理により、共有状態を表示したい仮想オブジェクトを一意に特定する識別マークの色を決定し、決定した識別マークの色により、共有ユーザと仮想オブジェクトを紐付けることが可能となる。例えば、図8のユーザBとユーザCが仮想オブジェクト701を共有しているとする。このとき、図8の識別マーク808の色が仮想オブジェクトを特定する色を示しており、ユーザBとユーザCの近くにある、この色と同じ色の識別マーク805、807により、ユーザBとユーザCが仮想オブジェクト701の共有ユーザであることが分かる。図8については後でより詳細に説明する。
S605では、共有状態表示処理の識別マーク表示において、識別マークを表示させる対象が識別マークを共有している共有ユーザであるか識別マークを共有していない非共有ユーザであるか、すなわち反転表示モードがオフかオンかを判定する。反転表示モードのオン/オフ設定は、共有状態の表示時にユーザが行なうことができる。設定操作は、操作部205への入力によって行なえ、ディスプレイ208に表示された反転表示モードアイコンの選択操作によって、モードのオン/オフを切り替えることができる。反転表示モードがオンと判定した場合はS607へ進み、反転表示モードがオフと判定した場合はS606へ進む。反転表示モードの具体例については図8を参照して後でより詳細に説明する。
S606では、仮想オブジェクトを共有しているユーザの位置姿勢、仮想オブジェクトの位置姿勢から、仮想オブジェクトの共有状態を表す識別マークの、ディスプレイ208の表示画面内の表示位置を算出する。
S607では、仮想オブジェクトを共有していないユーザの位置姿勢、仮想オブジェクトの位置姿勢から、仮想オブジェクトの非共有状態を表す識別マークの、ディスプレイ208の表示画面における表示位置を算出する。S606及びS607における表示位置の算出処理の詳細については、図9、10を参照して後述する。
表示位置を算出すると、次いでS608では、算出された表示位置に基づき、ディスプレイ208の表示画面に識別マークを表示する。この表示位置の詳細については後述する。
図7は、画像表示装置100の一実施形態であるHMDを装着したユーザの位置姿勢と仮想オブジェクトの位置姿勢を示す場の俯瞰図である。図7(a)は、ユーザAがユーザB、C、Dを画像表示装置100(HMD)を通して見ている様子を、図7(b)は、ユーザAが仮想オブジェクト701、702を画像表示装置100(HMD)を通して見ている様子を表す。
図7(a)、(b)では、ユーザA、B、C、Dが共に場に存在し、場において仮想オブジェクト701、702が表示されている。場における位置は座標軸703で表すことができる。図3、4における位置は座標(X、Y、Z)で表され、XY平面が水平面に相当し、方位角θはY軸を基準に表される。図7は俯瞰図であるため、仰俯角は図示されていないが、実際には存在する。
図7(a)、(b)における位置704は、場の原点(0,0,0)を示す。この原点に対する相対的な位置を各ユーザと各仮想オブジェクトの位置とする。
ユーザA、B、C、Dは、それぞれユーザIDが“0001”、“0002”、“0003”、“0004”であるとし、図3のカメラ位置姿勢テーブル151のユーザIDに対応している。また、図7(a)における画像表示装置100(HMD)のカメラ位置姿勢は、図3のカメラ位置姿勢テーブル151におけるカメラ位置及びカメラ姿勢の値に対応しているものとする。
仮想オブジェクト701、702はユーザAが表示させたものであり、図5のS501〜S512を経て、S513を実行している状態であるとする。また、仮想オブジェクト701、702は、図8に表される表示イメージ802のように、2次元平面で表されるドキュメントを表示させているものとする。仮想オブジェクト701、702はそれぞれ仮想オブジェクトIDが“0001”、“0002”であり、図4の仮想オブジェクト情報テーブル152の行401,402に対応している。
図8は、第1実施形態における仮想オブジェクト共有状態表示の一例を示す図である。
図8は、図7(a)のようにユーザAが画像表示装置100(HMD)を通してユーザB、C、Dを見ているときの、種々モードにおけるディスプレイ208の表示イメージ801、803、815を示す。図8はさらに、図7(b)のようにユーザAが画像表示装置(HMD)100を通して仮想オブジェクト701、702を見ているときの、上記種々モードにおけるディスプレイ208の表示イメージ802、804、816を示す。
表示イメージ801、802は、共有状態表示に設定される前の通常モードにおける見え方を表している。両イメージは仮想オブジェクト701、702を表示しているが、共有状態を表す識別マークは表示していない。
表示イメージ803、804は、反転表示を行わない共有状態表示モードにおける見え方を表している。表示イメージ803は、仮想オブジェクトの共有状態を表す識別マーク識別マーク805、806をユーザBの近傍に、識別マーク807をユーザCの近傍に表示している。表示イメージ804は、各仮想オブジェクト自体を表す識別マーク808、809を表示している。仮想オブジェクト701は識別マーク808に、仮想オブジェクト702は識別マーク809にそれぞれ対応しており、各識別マークの色によって仮想オブジェクトを識別可能である。表示イメージ803と表示イメージ804における各識別マークの色を参照することで、識別マーク805、807は識別マーク808に、識別マーク806は識別マーク809に対応していることが分かる。従って、例示の表示イメージ803、804から、ユーザBは仮想オブジェクト701、702を共有していること、ユーザCは仮想オブジェクト701を共有していること、ユーザDはいずれの仮想オブジェクトも共有していないことが分かる。従って、ユーザAは共有状態表示モードにおいてユーザと仮想オブジェクトの近くに表示される識別マークを見ることで、ユーザ毎の仮想オブジェクトの共有状態を知ることができる。
一方、表示イメージ815、816は、反転表示を行う共有状態反転表示モードにおける見え方を表している。表示イメージ815は、仮想オブジェクトの非共有状態を表す識別マーク810をユーザCの近傍に、識別マーク811、812をユーザDの近傍に表示している。表示イメージ816は、仮想オブジェクト自体を表す識別マーク808、809を、表示イメージ804と同様に表示している。表示イメージ815と表示イメージ816における各識別マークの色を参照することで、識別マーク810、812は識別マーク809に、識別マーク811は識別マーク808に対応していることが分かる。従って、例示の表示イメージ815、816から、ユーザDは仮想オブジェクト701、702を共有していないこと、ユーザCは仮想オブジェクト702を共有してないこと、ユーザBは両仮想オブジェクトを共有していることを、ユーザAは知ることができる。
図9は図7における観測者であるユーザAが、画像表示装置100の一実施形態であるHMDに装着されているカメラ202の撮像画像を介して、ユーザAが見ている被観測者である他のユーザB,C,またはDの識別マーク表示位置を導出する方法の概念図である。尚、仮想オブジェクトの識別マーク表示位置を導出する場合も、同様の方法によって実現可能である。
ここで、画像表示装置100のカメラ位置姿勢取得部104は、図6を参照して説明したS602の処理によって、全ユーザのカメラ位置姿勢情報をカメラ位置姿勢テーブル151からネットワークを介して取得する。
これらのカメラ位置姿勢情報から、表示位置算出部112は、図9に示すようなマップを内部生成する。図9に示したマップは観測者902と被観測者903との位置関係を天頂方向から示している。表示位置算出部112は、観測者902及び被観測者903のが装着するHMDの位置姿勢情報から、建物内の空間(物理空間)における観測者902の位置座標(Xo,Yo,Zo)と被観測者903の位置座標(Xt,Yt,Zt)を取得する。また、表示位置算出部112は、観測者902が装着する画像表示装置(HMD)100の、X軸を基準とする向き(以下ではHMDの法線901と表記する)θを観測者902の位置姿勢情報から取得する。ここで、θの単位はradianとするが、degree単位と相互に変換可能である。
次に、表示位置算出部112は、図9に示される角度γを求める。角度γは、法線901に対する被観測者903(他のユーザ)の位置する方向の角度である。γは次式から求められる。
Figure 2015072607
表示位置算出部112は、画像表示装置(HMD)100のカメラがカバーする視野角αと角度γを比較することで、他のユーザが被観測ユーザであるかどうかを判定する。ここでいう被観測ユーザとは、観測者であるユーザAが装着する画像表示装置(HMD)100の視野角αにいて、カメラ映像を介して観測ユーザAが見ることのできるユーザのことである。表示位置算出部112は、|γ|<α/2であれば他のユーザが視野角αにいるユーザであって識別マークを表示すべき被観測ユーザであると判定し、そうでない場合に他のユーザは被観測ユーザではないと判定する。
図10は、図6のS606、S607においてディスプレイ上の識別マーク表示位置を算出する方法について説明する図である。
図10のように画像表示装置(HMD)100の法線901を基準とする、被観測者903(被観測ユーザ)の位置する方向の角度γの傾きを示す線1002と、画像表示装置(HMD)100の表示面との交点が、識別マーク表示位置Pdisplayである。表示面に表示されたカメラ映像における識別マーク表示位置Pdisplayにおいて、観測者902から見た被観測ユーザが視認され、共有状態を示す識別マークが表示される。
表示位置算出部112は、この表示位置Pdisplayを次式に基づいて算出する。
Figure 2015072607
ここで、Dは、観測者902の目から画像表示装置(HMD)100までの距離であって、予め決まった値である。
上では水平方向の表示位置の算出の仕方について説明した。この水平方向の表示位置の算出についての考えを適用すれば、垂直方向の表示位置についても同様に算出することができる。具体的には、垂直方向の画像表示装置(HMD)100の向きとして仰俯角を観測者902の位置姿勢情報から取得して考慮することで、観測者902に対して被観測者903の位置する垂直方向の位置を算出することができる。
このようにして算出した表示位置は画像表示装置(HMD)100が備えるカメラ0202の位置である。そこで、識別マークを被観測者の近くに表示するために、識別マークが一つの場合は、水平方向においては算出した表示位置、垂直方向においては顔の大きさくらい(例えば2cm)算出した表示位置から上に変位した位置を実際の表示位置とする。また、識別マークを複数表示する場合は、例えば2つの場合なら、垂直方向においては同様に変位した位置、水平方向においては算出した表示位置から例えば顔幅の半分くらい左右に変位した位置を実際の表示位置とする。表示する識別マークの数に応じて、水平方向の変位量は適宜、設定することができる。第1実施形態では、観測者902すなわち観測ユーザAが画像表示装置100の一実施形態であるHMDのカメラ202の映像を通して被観測ユーザB、C、Dと仮想オブジェクトを観測したときに、共有状態を表す識別マークの有無及び色を視認できる。この結果、観測ユーザAは、仮想オブジェクトが共有されているかどうか、及び、仮想オブジェクトがどのユーザによって共有されているかを容易に視認することができる。すなわち、観測ユーザAは、共有表示している仮想オブジェクトの共有ユーザを共有状態表示モードにおいて一見して把握でき、あるいは、共有表示している仮想オブジェクトの共有でないユーザを共有状態反転表示モードにおいて一見して把握できる。
なお、図8は被観測ユーザの近くに識別マークを表示する態様として、カメラ位置を算出し、これを基準に被観測ユーザの頭上に表示する例を示したが、これは単なる例示にすぎない。被観測ユーザの例えば肩付近や体の近く、または足元に識別マークを表示するように変形することも、被観測ユーザの画像と部分的に重なる位置に識別マークを表示するように変形することも可能である。このような表示位置の変形例は、人を検出し、人画像の輪郭を抽出する従来の技術を用いることで実現することができる。また、仮想オブジェクトの近くに識別マークを表示する例についても、同様に仮想オブジェクトの上側に識別マークを表示する例を示したが、これに限定することなく、仮想オブジェクトの横または下側に表示してもよい。
表示位置については上記の変形が可能であるが、簡潔な説明のために、以下では特に断らない限り、識別マークをユーザの近くに表示するとは、ユーザの頭上に表示すること、または仮想オブジェクトの上側に表示することを言う。
<第2実施形態>
以下、本発明の第2実施形態について説明する。
第1実施形態では、図1の仮想オブジェクト識別色決定部107を用いて、仮想オブジェクトに固有の色の識別マークを、各仮想オブジェクトの近くと各ユーザの近くに表示する例について示した。これに対して第2実施形態では、ユーザ識別色決定部108を用いて、被観測ユーザに固有の色の識別マークを、被観測ユーザの近くと仮想オブジェクトの近くに表示する例を示す。
以降、第1実施形態と本実施形態の相違点を中心に説明する。
図11は、第2実施形態における共有状態表示処理のフローチャートである。
第1実施形態との相違点は、ユーザに固有に割り当てたユーザ識別色の識別マークを各ユーザの近くに表示し、各ユーザ識別色の識別マークを、そのユーザ識別色を割り当てられたユーザが共有している仮想オブジェクトの近くに表示する点である。
このために図11のS1104では、ユーザ識別色を決定する。色の決定方法は、図6のS604における方法と同様であり、色を割り当てる対象を、仮想オブジェクトからユーザに置き換えるだけでよい。この処理により、共有状態を表示したいユーザを一意に特定する識別マークの色、すなわちユーザ識別色を決定する。識別マークのユーザ識別色により、共有ユーザと仮想オブジェクトを紐付けることが可能となる。図12の表示イメージ1201中の識別マーク1205がユーザBのユーザ識別色で、表示イメージ1202中で仮想オブジェクト701、702の近くに同色の識別マーク1207、1209を表示し、両オブジェクトがユーザBにより共有されていることを示す。
図12は、第2実施形態における仮想オブジェクト共有状態表示の例を示す図である。
第1実施形態において説明した図8との相違点は、仮想オブジェクトを表す色の識別マークではなくユーザを特定するユーザ識別色の識別マークを、そのユーザの近くと、そのユーザが共有する仮想オブジェクトの近くに表示する点である。
表示イメージ1201、1202は、反転表示を行わない共有状態表示モードにおける見え方を表している。表示イメージ1201は、ユーザBに固有に割り当てられた色の識別マーク1205をユーザBの近くに、ユーザCに固有に割り当てられた色の識別マーク1206をユーザCの近くに表示している。識別マーク1205、1206は、ユーザB、Cにそれぞれ対応するユーザ識別色をしており、各識別マークの色によってユーザを識別可能である。ただし、ユーザDは仮想オブジェクトを共有していないため、ユーザDに対応する識別マークは表示されない。
表示イメージ1202は、共有ユーザを表す識別マーク1207、1208、1209を表示している。各識別マークのユーザ識別色から、識別マーク1207、1209は識別マーク1205に対応していること、及び、識別マーク1208は識別マーク1206に対応していることが分かる。従って、表示イメージ1201、1202を参照すると、ユーザBは仮想オブジェクト701、702を共有していること、ユーザCは仮想オブジェクト701のみを共有していること、及び、ユーザDはいずれの仮想オブジェクトも共有していないことが分かる。これにより、ユーザAは、ユーザの近くと仮想オブジェクトの近くに表示される識別マークから、ユーザ毎の仮想オブジェクトの共有状態を知ることができる。
一方、表示イメージ1203、1204は、反転表示を行う共有状態反転表示モードにおける見え方を表している。表示イメージ1203は、ユーザCに固有に割り当てられた色の識別マーク1210をユーザCの近くに、ユーザDに固有に割り当てられた色の識別マーク1211をユーザDの近くに表示している。ただし、ユーザBは仮想オブジェクトを共有しているため、ユーザBに対応する識別マークは表示されない。
表示イメージ1204は、仮想オブジェクトを共有していないユーザを表す識別マーク1212、1213、1214を表示している。各識別マークのユーザ識別色から、識別マーク1212、1214は識別マーク1211に対応していること、及び、識別マーク1213は識別マーク1210に対応していることが分かる。観測ユーザは表示イメージ1203、1204から、ユーザBは両仮想オブジェクト701、702を共有していること、ユーザCは仮想オブジェクト702を共有していないこと、ユーザDは両仮想オブジェクト701、702を共有していないことが分かる。
第2実施形態では、ユーザを特定するユーザ識別色の識別マークを各ユーザの近くに表示し、各ユーザ識別色の識別マークを、そのユーザ識別色を割り当てられたユーザが共有している仮想オブジェクトの近くに表示する例を説明した。共有表示している仮想オブジェクトの近くに表示された識別マークを見ることで、観測ユーザは、共有表示している仮想オブジェクトがどのユーザにより共有されているかを、ユーザの名前が分らなくとも共有状態表示モードにおいて容易に把握することができる。あるいは、観測ユーザは、共有表示している仮想オブジェクトを共有していないユーザがどのユーザであるかを、ユーザの名前が分らなくとも共有状態反転表示モードにおいて容易に把握することができる。
<第3実施形態>
第1実施形態では、共有表示している全ての仮想オブジェクトに対して、各仮想オブジェクトの識別マークを、各仮想オブジェクトの近くと各ユーザの近くに表示する例について示した。第3実施形態は、仮想オブジェクト指定部109を用いて、観測ユーザが指定した仮想オブジェクトに対してのみ、該仮想オブジェクトの共有または非共有を示す識別マークを該仮想オブジェクトを共有するユーザまたは共有しないユーザの近くに表示する例である。
以降、第1実施形態と本実施形態の相違点を中心に説明する。本実施形態においては、観測ユーザが装着する画像表示装置100が備えるカメラ202として、腕方向指定のために2台必要である。
図13は、第3実施形態における共有状態表示処理のフローチャートである。
第1実施形態との相違点は、仮想オブジェクト指定モードに設定されている場合には全ての仮想オブジェクトの共有状態を表示することなく、観測ユーザが指定した仮想オブジェクトについてのみ共有状態を表示する点である。このための処理として、図13におけるS1305,S1306,S1308,S1309について、以下で説明する。
S1305では、共有状態表示処理が仮想オブジェクト指定モードに設定されているか否かを判定する。このモードは、観測ユーザが自由に設定することができ、また、設定を変更することができる。仮想オブジェクト指定モードに設定されていなければS1307へ進んで、以下、第1実施形態と同様に、全ての仮想オブジェクトの共有状態を表示する。一方、仮想オブジェクト指定モードに設定されていればS1306の仮想オブジェクト指定処理を行った後、指定された仮想オブジェクトに対して、反転表示モード(S1309)または非反転表示モード(S1308)で共有状態を表示する。
S1306の仮想オブジェクト指定処理は場にいる観測ユーザが装着する画像表示装置100が処理主体であり、その詳細については、図14を参照して後でより詳細に説明する。
図14は、第3実施形態における仮想オブジェクト指定処理(S1306)の詳細なフローチャートである。
S1401では、仮想オブジェクト指定方法が、仮想オブジェクト名を指定する仮想オブジェクト名指定モードまたは観測ユーザの腕の方向により仮想オブジェクト指定する腕方向指定モードのどちらであるかを判定する。仮想オブジェクト名指定モードであればS1402へ進み、腕方向指定モードであればS1403へ進む。
仮想オブジェクト名指定モードである場合にS1402では、仮想オブジェクト名を指定する。具体的には、仮想オブジェクトのファイル名を、観測ユーザが画像表示装置100を操作することで指定する。例えば、“xxx.txt”などのファイル名を指定することができる。尚、仮想オブジェクト名の指定は、仮想オブジェクトを一意に指定できる方法であれば、仮想オブジェクトに固有に割り当てられるIDなどを指定して行ってもよい。
腕方向指定モードである場合にS1403では、観測ユーザの腕の方向と仮想オブジェクトの位置から、観測ユーザが指定した仮想オブジェクトを決定する。腕の方向は、カメラ202の撮像画像から、周知の技術を用いて算出し認識することが可能である。例えば、赤外線カメラにより得た現実世界の奥行き情報から、現実世界をコンピュータ・グラフィックス上で再構成することにより、人体の骨格情報を抽出することができる。画像表示装置100を装着する観測ユーザの前方に映る該ユーザの前腕(肘から手まで)の、コンピュータ・グラフィックス上で得た骨格情報は、ベクトル情報に置き換えることができる。次いで、カメラの位置姿勢情報を、このベクトル情報と組み合わせることにより、腕の指し示す方向を空間上のベクトル情報として表すことができる。尚、奥行き情報は観測ユーザの前方を撮像する、所定の間隔で並行配置された2台のカメラを用いることによっても測定できる。2台のカメラによる奥行き映像の取得に関しても周知の技術であるため、ここでの説明は省略する。腕方向指定の具体的なイメージについては、次に図15を参照して説明する。
図15は、第3実施形態において腕の方向によって仮想オブジェクトを指定する方法を説明する図である。
図15は、仮想オブジェクト701,702のうちから、観測ユーザの腕1503の方向によって、仮想オブジェクト702を指定する例を示している。腕1503の骨格情報1502は、画像表示装置100の2台のカメラによる撮像画像から周知の技術を用いて求めることができる(例えば特許文献4)。次いで、腕1503の骨格情報1502とカメラ位置姿勢情報から、腕1503の指し示す方向を空間上のベクトルとして表すことができる。例えば、腕1503の指し示す方向は、画像表示装置100(HMD)のディスプレイに表示される表示イメージ1501におけるΦとして求められる。したがって、腕1503の方向Φ、観測ユーザの位置姿勢、仮想オブジェクト702の位置姿勢から、観測ユーザが望む仮想オブジェクトを指定することができる。
具体的には、図9に示した、観測者902と被観測者903の各位置姿勢情報から三角関数によって識別マークの表示位置を導出する方法に準じた方法で指定することができる。ここでは、観測ユーザAを観測者902に、仮想オブジェクト702を被観測者903に、腕の方向Φを観測者902の姿勢(図9中のθに相当)に置き換えて考える。まず、三角関数によって、仮想オブジェクト702(被観測者903に相当)の位置から腕の方向Φから伸びる直線(HMDの法線901に相当)に対して垂直な線分の長さを算出する。この線分の長さが所定の長さより小さいと判定されたとき、観測ユーザAが仮想オブジェクト702を指定していると判定することができる。所定の長さは、例えば50cmなどの任意の長さに設定できる。
図16は、第3実施形態における仮想オブジェクト共有状態表示の例を示す図である。
第1実施形態において説明した図8との相違点は、観測ユーザが仮想オブジェクトを指定することで、指定された仮想オブジェクト702についてのみ共有状態を表示する点である。
表示イメージ1601、1602は、反転表示を行わない共有状態表示モードにおける、指定した仮想オブジェクトの共有状態表示の見え方を表している。表示イメージ1602は、仮想オブジェクト702を表す識別マーク809を表示している。表示イメージ1601における識別マーク806は、ユーザBに対応している。ユーザC、Dは、仮想オブジェクト702を共有していないため、対応する識別マークは表示されない。識別マーク806は識別マーク809に対応していることから、ユーザBが仮想オブジェクト702を共有していることが分る。
表示イメージ1603、1604は、反転表示を行なう共有状態反転表示モードにおける、指定した仮想オブジェクトの共有状態表示の見え方を表している。表示イメージ1603は、仮想オブジェクトの非共有状態を表す識別マーク810、812をユーザC、D各々の近くに表示している。表示イメージ1604は、仮想オブジェクト自体を表す識別マーク809を、表示イメージ1602と同様に表示している。識別マーク810、812は識別マーク809に対応していることから、ユーザC、Dは仮想オブジェクト702を共有していないことが分る。
第3実施形態では、観測ユーザが指定した仮想オブジェクトに対してのみ、該仮想オブジェクトの共有または非共有を示す識別マークを、該仮想オブジェクトを共有するユーザまたは共有しないユーザの近くに表示する例を示した。これにより、観測ユーザは、共有状態を確実に確認したい仮想オブジェクトがある場合に、その仮想オブジェクトを指定して共有ユーザまたは非共有ユーザを把握することができる。
<第4実施形態>
第1実施形態では、仮想オブジェクトとユーザの距離に関係なく、仮想オブジェクトを共有しているユーザの近くに識別マークを表示する例について示した。これに対して第4実施形態では、図1の距離判定部110を用いて、仮想オブジェクトから一定距離内にいると判定される共有ユーザに対して、仮想オブジェクトの識別マークを該共有ユーザの近くに表示する例を示す。
以降、第1実施形態と本実施形態の相違点を中心に説明する。
図17は、第4実施形態における共有状態表示処理のフローチャートである。
第1実施形態との相違点は、仮想オブジェクトとユーザの距離を判定し、仮想オブジェクトから一定距離内にいると判定される共有ユーザに対して、仮想オブジェクトの識別マークを該共有ユーザの近くに表示する点である。仮想オブジェクトから一定距離以上離れていると判定される共有ユーザについては、該仮想オブジェクトがよく見えていないと判断して、該仮想オブジェクトの識別マークを表示しない。このための処理として、図17におけるS1705,S1707,S1708について、以下で説明する。
S1705では、S1702で取得されたユーザのカメラ位置姿勢情報とS1703で取得された仮想オブジェクトの位置情報から、仮想オブジェクトから一定距離内にいるユーザを導出する。具体的には、図3に示したユーザ毎の水平面のカメラ位置(X、Y)と図4に示した仮想オブジェクトの水平面の位置(X、Y)から、三平方の定理によってユーザと仮想オブジェクトの距離を算出することができる。例えば、ユーザID0002をもつユーザ(カメラ位置:(3000、4000))と仮想オブジェクトID0001をもつ仮想オブジェクト(位置:(1000、1500))の距離は、三平方の定理によれば約3200mmである。予め定めた一定距離が5000mmであれば、このユーザは、仮想オブジェクトから一定距離内にいるユーザとして導出される。
S1707では、S1705で導出されたユーザに対して、仮想オブジェクトを共有している該ユーザの位置姿勢及び該仮想オブジェクトの位置姿勢から、識別マークの表示位置を算出する。
S1708では、S1705で算出されたユーザに対して、仮想オブジェクトを共有していない該ユーザの位置姿勢及び該仮想オブジェクトの位置姿勢から、識別マークの表示位置を算出する。
第4実施形態によれば、S1707における処理及びS1709における処理に従い、仮想オブジェクトから一定距離内にいる共有ユーザに対して識別マークを表示し、一定距離以上離れている共有ユーザに対しては識別マークを表示しないことができる。あるいは、S1708における処理及びS1709における処理に従い、仮想オブジェクトから一定距離内にいると判定された非共有ユーザに対して識別マークを表示し、一定距離以上離れている非共有ユーザに対しては識別マークを表示しないことができる。
なお、S1705における仮想オブジェクトとユーザ間距離の導出方法を利用して、観測ユーザから他のユーザまでの距離に応じて、識別マークの大きさを異ならせるように変形して識別マークと他のユーザとの対応をより分かりやすく変形することができる。変形したこの表示態様は、次の第5実施形態について示した図19に示される。
<第5実施形態>
第1実施形態では、表示される識別マークの重なりに関係なく、仮想オブジェクトを共有しているユーザの近くに識別マークを表示する例について示した。第5実施形態は、ユーザの数が多く、表示される識別マークが重なる場合にも適応するものである。すなわち、図1の重なり数算出部111を用い、識別マークの重なり数に応じ、共有ユーザの識別マークを該共有ユーザの近くに表示するか、識別マークを重ならない位置に表示するか、識別マークを表示せずに共有しているユーザ数を表示するかのいずれかを行う。
以降、第1実施形態と本実施形態の相違点を中心に説明する。
図18は、第5実施形態における共有状態表示処理のフローチャートである。
第1実施形態との相違点は、識別マークの重なり数に応じた処理を行うことである。すわち、識別マークが重ならない場合は共有ユーザの識別マークを該共有ユーザの近くに表示し、重なり数がしきい値以下の場合は重ならないような表示位置を再算出してその位置に表示し、しきい値を超える場合は共有しているユーザ数を数値で表示する。このための処理として、図18におけるS1808乃至S1812について、以下で説明する。
S1808では、S1806またはS1807で算出された識別マークの表示位置から、識別マークの重なり数を算出する。識別マークの大きさは観測ユーザから他のユーザまでの距離に応じて異ならせることができ、より近くのユーザに対応する識別マークはより大きく、より遠くのユーザに対応する識別マークはより小さく表示する。ディスプレイ上の表示位置と識別マークの大きさから、表示される識別マークが重なるかどうかを判定できる。
例えば、ディスプレイの大きさが「1280x800」(単位はピクセル)で、識別マークの大きさが「400x200」、識別マークの表示位置が(600ピクセル、400ピクセル)であるとする。ただし、(xピクセル、yピクセル)はディスプレイの左上を原点として、右にxピクセル分シフトし、下にyピクセル分シフトした位置の座標を表す。この場合、ディスプレイにおける識別マークの表示範囲は、(600ピクセル、400ピクセル)を中心とした「400x200」の長方形となる。すなわち、左上(401ピクセル、301ピクセル)、右上(800ピクセル、301ピクセル)、左下(401ピクセル、500ピクセル)、右下(800ピクセル、500ピクセル)の4点を結んだ長方形として、識別マークの大きさである表示範囲を算出できる。
次いで、算出された識別マークの表示範囲から、各識別マークの重なり数を算出できる。例えば2つの識別マークの表示範囲が、上の例で挙げた長方形と、左上(601ピクセル、301ピクセル)、右上(1000ピクセル、301ピクセル)、左下(601ピクセル、500ピクセル)、右下(1000ピクセル、500ピクセル)を結ぶ長方形とする。この場合、識別マークの重なり範囲は、左上(601ピクセル、301ピクセル)、右上(800ピクセル、301ピクセル)、左下(601ピクセル、500ピクセル)、右下(800ピクセル、500ピクセル)を結ぶ長方形である。したがって、40,000ピクセル(200x200)が重なっていると算出でき、重なり数は1となる。
S1809では、S1808で算出された識別マークの重なり数が0であるか否かを判定する。識別マークの重なり数が0であればS1813へ進んでS1806またはS1807で算出された位置に識別マークを表示し、そうでなければS1810へ進む。
S1810では、S1808で算出された識別マークの重なり数が所定のしきい値以下であるか否かを判定する。重なり数がしきい値以下であるとは、識別マークの重なり数が例えば3個以内である場合を表す。重なり数のしきい値は、ユーザが任意に設定できる。重なり数がしきい値以下であればS1811へ進み、そうでなければS1812へ進む。
重なり数がしきい値以下の場合にS1811では、重なると判定された識別マークが重なって表示されることのない、S1806またはS1807で算出された表示位置と異なる表示位置を再算出する。具体的には、図19に例示する表示イメージ1903は識別マークが重ならないように表示しており、重なりを考慮しない表示イメージ1902と比べ、より見やすく表示していることが分かる。
一方、識別マークの重なり数がしきい値を超えている場合にS1812では、ユーザ毎に識別マークの表示位置を算出するのではなく、各仮想オブジェクトを共有しているユーザの人数を、該仮想オブジェクトの近くに数値により表示する。具体的には、図19における表示イメージ1905のように、ユーザ数を表示する。
図19は、第5実施形態における仮想オブジェクト共有状態表示の例を示す図である。
各表示イメージ1901〜1905は、図8のようにユーザが3人ではなく、9人いる例を表す。
表示イメージ1902は、第5実施形態の手法を使わず、識別マークの重なりを考慮しない第1実施形態の手法によって、共有識別マークを表示している。
表示イメージ1903は、図18におけるS1811によって再算出された表示位置を用いて、S1806またはS1807で算出された位置からずらした位置に識別マークを表示した例である。表示イメージ1902では識別マークが重なるため共有状態が見難くいが、表示イメージ1903では重なりがなく、より見やすく識別マークが表示されていることが分かる。
表示イメージ1905は、図18のS1812によって共有ユーザの人数を表示させた例であり、仮想オブジェクト701の近くに人数表示1906が「9」と、仮想オブジェクト702の近くに人数表示1907が「8」と表示される。共有人数が多人数である場合は、S1810において重なり数がしきい値を超えると判定され、S1812により、表示イメージ1905のように共有人数が仮想オブジェクトの近くに表示される。例えば、参加者の多い会議などでは、ユーザ個々の識別マークを確認するよりも、大まかな人数を確認した方が有効である。
第5実施形態によれば、参加者の多い会議などで本発明を用いた場合でも、識別マークの表示が氾濫することがない共有表示を提供できる。
上記各実施形態では、HMDを用いて仮想オブジェクトの共有状態を表示する場合について述べたが、HMDの代わりにタブレット端末やHUP(ヘッドアップディスプレイ)を用いても良い。また、(半)透過ディスプレイを備えたHMD及びHUDを用いた場合、観測ユーザはカメラ映像を通すことなく、観測ユーザの目で直接被観測ユーザを見ながら共有状態を視認することができる。そのため観測ユーザは、カメラ映像を通してではなく、ディスプレイを透過して実際に見える被観測ユーザに重ねて共有状態を視認することが可能となる。
上記各実施形態は、拡張現実空間における仮想オブジェクトの共有/非共有の態様を、仮想オブジェクトをユーザごとに閲覧できること/閲覧できないこととして本発明を実施したものである。本発明の共有/非共有の概念をさらに拡張した実施形態も可能である。例えば、仮想オブジェクトの内容の編集を共有ユーザのうちの特定のユーザに許可すること/しないことを、本発明の共有/非共有の概念に含めることができる。さらに、仮想オブジェクトの表示に関して表示位置の変更(移動・回転など)操作を共有ユーザのうちの特定のユーザに許可すること/しないことなどを、本発明の共有/非共有の概念に含めることができる。
仮想オブジェクトの表示に関して表示位置の変更操作を特定のユーザに許可する形態は、観測ユーザ主体で実行されたS502で決定された仮想オブジェクト情報テーブル152上位置姿勢情報を、指定した特定のユーザが更新できるように構成して実現できる。仮想オブジェクトの編集を許可する形態は、データベース・サーバ150上の仮想オブジェクト格納部153に、指定した特定のユーザがアクセスして、フラッシュメモリ204に格納したアプリケーションプログラムにより編集できるように構成して実現できる。
<他の実施形態>
本発明は、複数の機器(例えばコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用することも、1つの機器からなる装置(複合機、プリンタ、ファクシミリ装置など)に適用することも可能である。
前述した実施形態の機能を実現するように前述した実施形態の構成を動作させるプログラムを記憶媒体に記憶させ、該記憶媒体に記憶されたプログラムをコード として読み出し、コンピュータにおいて実行する処理方法も上述の実施形態の範疇に含まれる。即ちコンピュータ読み取り可能な記憶媒体も実施例の範囲に含まれる。また、前述のコンピュータプログラムが記憶された記憶媒体はもちろんそのコンピュータプログラム自体も上述の実施形態に含まれる。
かかる記憶媒体としてはたとえばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD―ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。
また前述の記憶媒体に記憶されたプログラム単体で処理を実行しているものに限らず、他のソフトウエア、拡張ボードの機能と共同して、OS上で動作し前述の実施形態の動作を実行するものも前述した実施形態の範疇に含まれる。

Claims (14)

  1. 撮像手段が撮像した現実空間の撮像画像を表示画面に表示し、及び、仮想オブジェクトを該撮像画像内の所定位置に表示し、前記表示画面において拡張現実空間を実現する情報処理装置において、
    前記ユーザの前記現実空間における第1の位置の情報を取得する手段と、
    前記取得された情報に基づいて前記第1の位置に対応して決定される第2の位置であって、前記ユーザの画像を含む前記撮像画像内の第2の位置に、該ユーザが前記仮想オブジェクトへのアクセスを許可されるように設定された共有ユーザであるかどうかを識別するための識別情報を表示するように、前記表示画面における表示を制御する制御手段と、
    を有することを特徴とする情報処理装置。
  2. 所定パターンの画像が配置された前記現実空間を撮像する他の撮像手段と、
    前記撮像手段が撮像した前記撮像画像における前記画像の歪を計算することによって、前記撮像手段の前記現実空間における位置および姿勢を算出する手段と、
    該他の撮像手段が撮像した撮像画像における前記画像の歪を計算することによって、前記他の撮像手段の前記現実空間における位置および姿勢を算出する手段と、
    をさらに有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記制御手段は、
    複数の前記仮想オブジェクトを個々に識別するための仮想オブジェクト識別色を前記仮想オブジェクトごとに決定する手段と、
    該決定した前記仮想オブジェクト識別色に対応した色の、前記仮想オブジェクトの前記共有ユーザを示す識別マークを、該共有ユーザの近くの前記第2の位置に前記識別情報として表示する手段と、
    該決定した前記仮想オブジェクト識別色に対応した色の他の識別マークを、該共有ユーザがアクセスを許可された前記各仮想オブジェクトの近くに表示する手段と、
    を含むことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記識別情報を表示する前記仮想オブジェクトを指定する仮想オブジェクト指定手段をさらに備えることを特徴とする請求項1乃至3のいずれか一項に記載の情報処理装置。
  5. 前記仮想オブジェクト指定手段は、前記仮想オブジェクトを特定するファイル名を指定することで、前記識別情報を表示する前記仮想オブジェクトを指定することを特徴とする請求項4に記載の情報処理装置。
  6. 前記撮像手段が撮像した前記撮像画像から該撮像手段の前記現実空間における位置を算出する手段と、
    前記仮想オブジェクトの位置を取得する手段と
    をさらに備え、
    前記仮想オブジェクト指定手段は、
    前記撮像画像における、前記表示装置を装着したユーザの腕の方向を認識する手段を含み、該認識した方向と前記撮像手段の前記算出した位置と前記仮想オブジェクトの前記取得した位置に基づいて、前記仮想オブジェクトを前記識別情報を表示するために指定することを特徴とする請求項4に記載の情報処理装置。
  7. 前記制御手段は、
    複数の前記共有ユーザを個々に識別するためのユーザ識別色を前記共有ユーザごとに決定する手段と、
    該決定した前記ユーザ識別色に対応した色の、前記仮想オブジェクトの前記共有ユーザを示す識別マークを、該共有ユーザの近くの前記第2の位置に前記識別情報として表示する手段と、
    該決定した前記ユーザ識別色に対応した色の他の識別マークを、該共有ユーザがアクセスを許可された前記仮想オブジェクトの近くに表示する手段と、
    を含むことを特徴とする請求項1または2に記載の情報処理装置。
  8. 前記制御手段は、
    前記仮想オブジェクトと前記共有ユーザの間の距離を判定する手段と、
    該距離が所定の距離を超えていると判定された前記共有ユーザについては、前記識別情報を表示しない手段と、
    を含むことを特徴とする請求項1乃至7のいずれか一項に記載の情報処理装置。
  9. 前記制御手段は、
    前記仮想オブジェクトと前記共有ユーザの間の距離を判定する手段と、
    該距離に応じて、前記仮想オブジェクトにより近い前記共有ユーザについては前記識別情報をより大きく表示し、前記仮想オブジェクトに対しより遠くの前記共有ユーザについては前記識別情報をより小さく表示する手段と、
    を含むことを特徴とする請求項1乃至7のいずれか一項に記載の情報処理装置。
  10. 前記制御手段は、
    前記表示される前記識別情報が前記第2の位置において重なる重なり数を算出する手段と、
    該算出した重なり数が所定のしきい値を超えている場合は、前記共有ユーザの数を表す数値を、前記仮想オブジェクトの近くに表示する手段と、
    を含むことを特徴とする請求項1乃至8のいずれか一項に記載の情報処理装置。
  11. 前記制御手段は、前記識別情報が、前記ユーザが前記共有ユーザであることを示すように前記表示画面における前記表示を制御する表示モード、および、前記識別情報が、前記ユーザが前記仮想オブジェクトへのアクセスを許可されるように設定されていない非共有ユーザであることを示すように前記表示画面における前記表示を制御する反転表示モードを有することを特徴とする請求項1乃至9のいずれか一項に記載の情報処理装置。
  12. 前記アクセスは、前記仮想オブジェクトを前記ユーザのための表示装置の前記表示画面内の前記拡張現実空間において閲覧すること、前記仮想オブジェクトを前記拡張現実空間において表示する位置を変更すること、前記仮想オブジェクトを前記拡張現実空間において表示する向きを変更すること、および、前記仮想オブジェクトの内容を編集することの少なくとも一つを含むことを特徴とする請求項に記載の情報処理装置。
  13. 撮像された現実空間の撮像画像を表示画面に表示し、及び、仮想オブジェクトを該撮像画像内の所定位置に表示する情報処理方法において、
    前記ユーザの前記現実空間における第1の位置の情報を取得するステップと、
    前記取得された情報に基づいて前記第1の位置に対応して決定される第2の位置であって、前記ユーザの画像を含む前記撮像画像内の第2の位置に、該ユーザが前記仮想オブジェクトへのアクセスを許可されるように設定された共有ユーザであるかどうかを識別するための識別情報を表示するように、前記表示画面における表示を制御するステップと、
    を含むことを特徴とする情報処理方法。
  14. コンピュータを請求項1から12のいずれか一項に記載の情報処理装置として機能させるためのプログラム。
JP2013208150A 2013-10-03 2013-10-03 情報処理装置、情報処理方法、及びプログラム Pending JP2015072607A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013208150A JP2015072607A (ja) 2013-10-03 2013-10-03 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013208150A JP2015072607A (ja) 2013-10-03 2013-10-03 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2015072607A true JP2015072607A (ja) 2015-04-16

Family

ID=53014926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013208150A Pending JP2015072607A (ja) 2013-10-03 2013-10-03 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2015072607A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189791A1 (ja) * 2015-05-26 2016-12-01 ソニー株式会社 表示装置、情報処理システム及び制御方法
WO2020188721A1 (ja) * 2019-03-18 2020-09-24 マクセル株式会社 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
CN113791495A (zh) * 2021-08-27 2021-12-14 优奈柯恩(北京)科技有限公司 用于显示信息的方法、装置、设备及计算机可读介质

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016189791A1 (ja) * 2015-05-26 2016-12-01 ソニー株式会社 表示装置、情報処理システム及び制御方法
JP2016218981A (ja) * 2015-05-26 2016-12-22 ソニー株式会社 表示装置、情報処理システム及び制御方法
CN107615227A (zh) * 2015-05-26 2018-01-19 索尼公司 显示装置、信息处理系统以及控制方法
US10878629B2 (en) 2015-05-26 2020-12-29 Sony Corporation Display apparatus, information processing system, and control method
WO2020188721A1 (ja) * 2019-03-18 2020-09-24 マクセル株式会社 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JPWO2020188721A1 (ja) * 2019-03-18 2020-09-24
JP7236529B2 (ja) 2019-03-18 2023-03-09 マクセル株式会社 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
US11972037B2 (en) 2019-03-18 2024-04-30 Maxell, Ltd. Head mounted information processing apparatus and head mounted display system
CN113791495A (zh) * 2021-08-27 2021-12-14 优奈柯恩(北京)科技有限公司 用于显示信息的方法、装置、设备及计算机可读介质

Similar Documents

Publication Publication Date Title
EP3246660B1 (en) System and method for referencing a displaying device relative to a surveying instrument
US10217288B2 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
CN109584374A (zh) 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质
JP2012168646A (ja) 情報処理装置、情報共有方法、プログラム及び端末装置
JP2004062756A (ja) 情報提示装置および情報処理方法
JP2017126142A (ja) 情報処理装置、情報処理方法及びプログラム
JP6004051B2 (ja) 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
CN112667179B (zh) 一种基于混合现实的远程同步协作系统
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2019009816A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
KR101574636B1 (ko) 면형방식 디지털 항공카메라로 촬영한 시계열 항공사진을 입체시하여 좌표를 연동하고 변화지역을 판독하는 시스템
JP2015087909A (ja) 情報処理システム、情報処理装置、情報処理サーバ、情報処理方法、及びプログラム
JP2014203175A (ja) 情報処理装置、情報処理方法及びプログラム。
JP7366618B2 (ja) 現場連携システムおよび管理装置
JP2015072607A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2014203194A (ja) 仮想オブジェクト表示制御装置、仮想オブジェクト表示制御方法、およびプログラム
CN112558008B (zh) 基于光通信装置的导航方法、系统、设备及介质
JP2014235717A (ja) 情報処理装置及び拡張現実表示システム及び閲覧ユーザの登録方法及びプログラム
KR102467017B1 (ko) 다중 사용자 간의 증강현실 커뮤니케이션 방법
JP5634925B2 (ja) 整備情報表示装置、整備情報表示方法、及びプログラム
JP7086242B1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7479978B2 (ja) 内視映像表示システム、内視映像表示装置及び内視映像表示方法
JP2017167611A (ja) 端末装置、データ処理システム及びプログラム
WO2022172335A1 (ja) 仮想ガイド表示装置、仮想ガイド表示システム、及び仮想ガイド表示方法
JP2022126546A (ja) 情報処理装置、情報処理方法、及びプログラム