JP2018018315A - 表示システム、表示装置、情報表示方法、及び、プログラム - Google Patents

表示システム、表示装置、情報表示方法、及び、プログラム Download PDF

Info

Publication number
JP2018018315A
JP2018018315A JP2016148329A JP2016148329A JP2018018315A JP 2018018315 A JP2018018315 A JP 2018018315A JP 2016148329 A JP2016148329 A JP 2016148329A JP 2016148329 A JP2016148329 A JP 2016148329A JP 2018018315 A JP2018018315 A JP 2018018315A
Authority
JP
Japan
Prior art keywords
unit
image
display
information
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016148329A
Other languages
English (en)
Other versions
JP6733401B2 (ja
Inventor
明生 山▲崎▼
Akio Yamazaki
明生 山▲崎▼
小林 伸一
Shinichi Kobayashi
伸一 小林
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016148329A priority Critical patent/JP6733401B2/ja
Priority to US15/264,740 priority patent/US10133532B2/en
Publication of JP2018018315A publication Critical patent/JP2018018315A/ja
Priority to US16/161,776 priority patent/US10642564B2/en
Application granted granted Critical
Publication of JP6733401B2 publication Critical patent/JP6733401B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】被援助者に対して、表示装置によって情報を提供する場合に、表示装置に表示される画像や情報の向きを正確に伝達できるようにする。【解決手段】表示システム1は、プロジェクター100Aにより、操作を検出し、検出した操作を示す情報を含む案内情報を生成してHMD200に送信し、HMD200により、プロジェクター100Aが送信する案内情報を受信し、案内情報に基づいて、プロジェクター100Aの操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを表示する。【選択図】図1

Description

本発明は、表示システム、表示装置、情報表示方法、及び、プログラムに関する。
従来、ヘッドマウントディスプレイ(Head Mounted Display:HMD)等の表示装置を利用して、被援助者を支援する例が知られている(例えば、特許文献1、2参照)。特許文献1記載のシステムでは、被援助者用HMDユニットが備えるカメラ装置で撮像した視界画像を、管理者用HMDユニットにおいて表示することで、管理者が被援助者の作業状態を見ることができる。また、特許文献2記載のサーバーは、輸送機のパイロットが装着するHMDに対し、目的の地点、物資、スケジュール等に関する情報を送信する。
特開2007−320715号公報 特開2012−138005号公報
HMDは装着する位置や方向が決まっているので、HMDが表示する画像や情報の向きを、被援助者が誤解する可能性はほとんどない。一方、表示装置と被援助者の身体との相対位置が固定されない場合、表示装置に表示される画像や情報の向きを誤解するおそれがある。
本発明は上記事情に鑑みてなされたものであり、被援助者に対して、表示装置によって情報を提供する場合に、表示装置に表示される画像や情報の向きを正確に伝達できるようにすることを目的とする。
上記目的を達成するために、本発明の表示システムは、第1表示装置及び第2表示装置を備え、前記第1表示装置は、第1表示領域に画像を表示する第1表示部と、第1撮像部と、前記第2表示装置と通信を実行する第1通信部と、前記第1通信部により前記第2表示装置から案内情報を受信し、前記案内情報に基づく画像を前記第1表示部により表示する第1制御部と、を備え、前記第2表示装置は、第2表示領域に画像を表示する第2表示部と、前記第1表示装置と通信を実行する第2通信部と、操作を検出する操作検出部と、前記操作検出部が検出する操作を示す情報を含む案内情報を生成して、前記第2通信部で送信する第2制御部と、を備え、前記第1制御部は、前記第2表示装置から受信する前記案内情報に基づいて、前記第2表示装置の前記操作検出部が検出した操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを前記第1表示部により表示すること、を特徴とする。
本発明によれば、第1表示装置によって、第2表示装置において行われる操作に関する画像を表示することにより、第1表示装置を使用する人に対し、第2表示装置を操作することで情報を提供できる。また、第1表示装置が表示する画像や情報の適正な向きを案内することができるので、第1表示装置を使用する人が画像や情報の向きを誤解することなく、適切に情報を提供できる。
また、本発明は、上記表示システムにおいて、前記第2制御部は、前記操作検出部が検出する操作を、当該操作を行う前記操作者の視点または視線方向を基準として示す情報を含む前記案内情報を生成すること、を特徴とする。
本発明によれば、第2表示装置の操作について、操作者の視点または視線方向を基準とする情報が第1表示装置に送信されるので、第1表示装置を使用する人に対して操作者の視点または視線方向を案内できる。
また、本発明は、上記表示システムにおいて、前記第1表示部は、作業対象物が配置される対象配置領域を含む前記第1表示領域に画像を表示し、前記第1制御部は、前記対象配置領域に配置される前記作業対象物に対応する位置に画像を表示すること、を特徴とする。
本発明によれば、作業対象物に対応する位置に画像を表示し、この画像の適正な向きを案内することができる。このため、作業対象物に関連する情報を効果的に提供できる。
また、本発明は、上記表示システムにおいて、前記第1撮像部は、前記対象配置領域の少なくとも一部を含む撮像範囲を撮像し、前記第1制御部は、前記第1撮像部の撮像画像に基づいて、前記作業対象物の位置に対応する画像の表示位置を特定すること、を特徴とする。
本発明によれば、作業対象物に対応する画像の表示位置を、適切な位置に決定できる。
また、本発明は、上記表示システムにおいて、前記第1制御部は、前記第1撮像部の撮像範囲を示す画像を、前記第1表示部により表示すること、を特徴とする。
本発明によれば、第1表示装置の撮像範囲を示すことにより、第1撮像部による撮像機能を効果的に利用できる。
また、本発明は、上記表示システムにおいて、前記第1制御部は、前記第2表示装置から受信する前記案内情報に基づいて、前記第2表示装置の前記操作検出部が検出した操作の操作位置に対応して、操作体の画像を表示すること、を特徴とする。
本発明によれば、第2表示装置が検出する操作の位置や内容を、第1表示装置によってわかりやすく表示できる。
また、本発明は、上記表示システムにおいて、前記第1制御部は、前記第2表示装置から受信する前記案内情報に基づいて、前記第2表示装置の前記操作検出部が検出した操作の操作位置を示す画像と、操作体の画像とを表示すること、を特徴とする。
本発明によれば、第2表示装置が検出する操作の位置や内容を、第1表示装置によってわかりやすく表示できる。
また、本発明は、上記表示システムにおいて、前記第1表示装置が前記案内情報に基づいて表示する前記操作体の画像は、前記第1表示装置を使用して実行される作業に関する用具あるいは器具の画像であること、を特徴とする。
本発明によれば、第2表示装置が検出する操作の位置や内容に基づき、第1表示装置を使用する人が行う作業を、よりわかりやすく案内できる。
また、本発明は、上記表示システムにおいて、前記第2制御部は、前記操作検出部が検出する操作に対応する前記操作体の画像として、前記第1表示装置を使用して実行される作業に関する用具あるいは器具の画像を取得し、取得した前記操作体の画像を含む前記案内情報を生成して、前記第2通信部で送信すること、を特徴とする。
本発明によれば、第2表示装置が検出する操作の位置や内容に対応する画像を利用して、第1表示装置を使用する人が行う作業をわかりやすく案内できる。
また、本発明は、上記表示システムにおいて、前記第1制御部は、前記第1撮像部の撮像画像に基づき案内対象情報を生成して前記第1通信部により前記第2表示装置に送信し、前記第2制御部は、前記第2通信部により前記第1表示装置から前記案内対象情報を受信し、前記案内対象情報に基づき前記第2表示部により画像を表示し、前記案内対象情報に基づく画像の表示中に前記操作検出部が検出する操作を示す情報を含む前記案内情報を生成すること、を特徴とする。
本発明によれば、撮像画像を利用して、第1表示装置において行われる作業等に関する情報を、第2表示装置に伝達できる。このため、より多くの情報を用いて、第1表示装置を使用する人の作業等を支援できる。
また、本発明は、上記表示システムにおいて、前記第2表示装置は、少なくとも前記操作検出部が操作を検出する検出領域の一部を含む範囲を撮像する第2撮像部を備え、前記第2制御部は、前記第2撮像部の撮像画像をもとに、前記操作検出部が検出する操作を示す情報を生成して、生成した情報を含む前記案内情報を生成すること、を特徴とする。
本発明によれば、第2表示装置で行われる操作を撮像した画像等を第1表示装置によって表示できる。このため、第1表示装置を使用する人の作業等に関して、より詳細な情報を提供できる。
また、本発明は、上記表示システムにおいて、前記第2制御部は、前記操作検出部が検出する操作に対応する操作体の画像を含む前記案内情報を生成すること、を特徴とする。
本発明によれば、第2表示装置で操作を行う操作体の画像を第1表示装置によって表示できるので、第2表示装置の操作の内容や向きを、より直感的にわかり易く表示できる。
また、本発明は、上記表示システムにおいて、前記第1制御部は、前記第2表示装置から受信する前記案内情報に基づいて、前記第1表示装置を操作する操作者に対し動作を案内する画像を前記第1表示部により表示すること、を特徴とする。
本発明によれば、第1表示装置を使用する人に対して、動作を適切に案内できる。
また、本発明は、上記表示システムにおいて、前記第1表示装置は、前記第1表示部とは別体として構成され、情報を検出する外部情報検出部を備え、前記第1制御部は、前記外部情報検出部で検出した情報を含む処理情報を前記第1通信部により前記第2表示装置に送信し、前記第2制御部は、前記第2通信部により前記第1表示装置から前記処理情報を受信して、前記処理情報に基づく画像を前記第2表示部に表示すること、を特徴とする。
本発明によれば、第1表示装置が外部情報検出部により検出した情報を、第1表示装置から第2表示装置に送信することができる。これにより、第2表示装置を使用する人は、第1表示装置を使用する人の作業内容や第1表示装置の周囲の状況等に関して詳細な情報を得ることができる。さらに、外部情報検出部は、第1表示部とは別体で構成されるため、設置位置の自由度が高く、多様な情報を容易に得ることができる。
また、本発明は、上記表示システムにおいて、前記外部情報検出部は、画像化された情報を読み取る読取部、及び、動きセンサーを備えた動き検出部の少なくともいずれかを含むこと、を特徴とする。
本発明によれば、第1表示装置が、第1表示部とは別体で構成される外部情報検出部により、画像化された情報の読み取り或いは動きの検出を行い、検出した情報を第2表示装置に送信できる。このため、第2表示装置を使用する人に対し、より詳細な情報を提供できる。
また、本発明は、上記表示システムにおいて、前記外部情報検出部は、前記第1撮像部とは別体として構成される第3撮像部を含み、前記第1制御部は、前記第3撮像部の撮像画像を含む処理情報を前記第1通信部により前記第2表示装置に送信し、前記第2制御部は、前記第2通信部により前記第1表示装置から受信した前記処理情報に含まれる前記第3撮像部の撮像画像を前記第2表示部に表示すること、を特徴とする。
本発明によれば、第1表示装置が、第1表示部とは別体で構成される第3撮像部により撮像した撮像画像を、第2表示装置に送信できる。このため、第2表示装置を使用する人は、第1表示装置が、第1表示部とは異なる位置から撮像した撮像画像を見ることができる。
また、本発明は、上記表示システムにおいて、前記第1制御部は、前記第1撮像部の撮像画像と、前記第3撮像部の撮像画像とを含む処理情報を前記第1通信部により前記第2表示装置に送信し、前記第2制御部は、前記第2通信部により前記第1表示装置から受信した前記処理情報に含まれる前記第1撮像部の撮像画像、及び、前記第3撮像部の撮像画像を、前記第2表示部に表示すること、を特徴とする。
本発明によれば、第2表示装置によって、第1撮像部の撮像画像と第3撮像部の撮像画像とを見ることができる。
また、本発明は、上記表示システムにおいて、前記第2制御部は、前記第2通信部により前記第1表示装置から受信した前記処理情報に含まれる前記第1撮像部の撮像画像、及び、前記第3撮像部の撮像画像を、前記第2表示部に並べて表示すること、を特徴とする。
本発明によれば、第2表示装置によって、第1撮像部の撮像画像と第3撮像部の撮像画像とを同時に見ることができる。
また、本発明は、上記表示システムにおいて、前記第1制御部は、前記第1通信部と前記第2表示装置との間の通信状態に応じて、前記処理情報に含まれる前記第1撮像部の撮像画像、及び、前記第3撮像部の撮像画像の状態を調整すること、を特徴とする。
本発明によれば、第1表示装置から第2表示装置に送信する処理情報に複数の画像が含まれることに起因して、通信状態の影響を受けやすくなった場合であっても、第1表示装置から第2表示装置へ適切に処理情報を送信できる。このため、第2表示装置において適切に撮像画像を表示できる。
また、上記目的を達成するために、本発明の表示装置は、画像を表示する表示部と、外部の表示装置と通信を実行する通信部と、前記外部の表示装置において行われた操作を示す情報を含む案内情報を前記通信部により受信し、前記案内情報に基づいて、前記外部の表示装置の操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを前記表示部により表示する制御部と、を備えることを特徴とする。
本発明によれば、外部の表示装置を操作することで、表示装置を使用する人に対して情報を提供できる。また、表示装置が表示する画像や情報について、外部の表示装置の操作に対応する適正な向きを案内できる。このため、表示装置を使用する人が、画像や情報の向きを誤解することなく、適切に情報を提供できる。
また、上記目的を達成するために、本発明の表示装置は、表示領域に画像を表示する表示部と、外部の表示装置と通信を実行する通信部と、操作を検出する操作検出部と、前記操作検出部が検出する操作を示す情報を含む案内情報を生成して、前記通信部により前記外部の表示装置に送信する制御部と、を備え、前記案内情報は、前記操作検出部が検出した操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを前記外部の表示装置が表示するための情報であること、を特徴とする。
本発明によれば、表示装置を操作することにより、外部の表示装置を使用する人に対して操作者の視点や視線方向と、操作の内容に関する情報を提供できる。これにより、例えば外部の表示装置が、操作者の視点や視線方向と操作の内容に関する画像等を表示することができ、当該表示装置と外部の表示装置との間で、操作に関する様々な情報を伝達できる。
また、上記目的を達成するために、本発明は、第1表示部を備える第1表示装置、及び、第2表示部を備える第2表示装置を用いる情報表示方法であって、前記第2表示装置により、操作を検出し、検出する操作を示す情報を含む案内情報を生成して前記第1表示装置に送信し、前記第1表示装置により、前記第2表示装置が送信する前記案内情報を受信し、前記案内情報に基づいて、前記第2表示装置の操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを前記第1表示部により表示すること、を特徴とする。
本発明によれば、第1表示装置を使用する人に対し、第2表示装置を操作することで情報を提供できる。また、第1表示装置が表示する画像や情報の適正な向きを案内することができるので、第1表示装置を使用する人が画像や情報の向きを誤解することなく、適切に情報を提供できる。
また、上記目的を達成するために、本発明は、画像を表示する第1表示部を有する第1表示装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターにより、外部の第2表示装置から、前記第2表示装置において行われた操作を示す情報を含む案内情報を受信し、前記案内情報に基づいて、前記第2表示装置の操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを前記第1表示部により表示すること、を特徴とするプログラムである。
本発明によれば、第1表示装置を使用する人に対し、第2表示装置を操作することで情報を提供できる。また、第1表示装置が表示する画像や情報の適正な向きを案内することができるので、第1表示装置を使用する人が画像や情報の向きを誤解することなく、適切に情報を提供できる。
また、本発明は、このプログラムを記憶した記憶媒体として構成してもよい。
第1実施形態の表示システムの概略構成図。 プロジェクターの外観構成を示す説明図。 プロジェクターの機能ブロック図。 頭部装着型表示装置の外観構成を示す説明図。 画像表示部の光学系の構成を示す図。 頭部装着型表示装置の機能ブロック図。 表示システムの動作を示すフローチャート。 プロジェクターの表示例を示す図。 第2実施形態の表示システムの動作を示すフローチャート。 第2実施形態の表示システムの動作を示すフローチャート。 第2実施形態のプロジェクターの表示例を示す図。 第3実施形態の表示システムの動作を示すフローチャート。 第4実施形態における表示システムの概略構成図。 第5実施形態における表示システムの概略構成図。 第5実施形態のプロジェクターの機能ブロック図。 第5実施形態における表示例を示す図。 第6実施形態のタブレット型コンピューターの構成例と使用状態を示す図。 タブレット型コンピューターの機能ブロック図。 タブレット型コンピューターの表面及び裏面の構成を示す図であり、(A)はタブレット型コンピューターの裏面の外観図であり、(B)はタブレット型コンピューターの表面の外観及び表示例を示す。 第7実施形態の表示システムの構成図。 第7実施形態のタブレット型コンピューターの外観図。 タブレット型コンピューターの機能ブロック図。 頭部装着型表示装置の外観構成を示す説明図。 頭部装着型表示装置の機能ブロック図。 タブレット型コンピューターの表示例を示す図。 表示システムの動作を示すフローチャート。
[第1実施形態]
図1は、本発明を適用した実施形態に係る表示システム1の概略構成図である。
この図1に示すように、表示システム1は、プロジェクター100Aと、HMD200とを、通信ネットワーク4を介して相互に通信可能に接続したシステムである。図1には1台のプロジェクター100Aと、2台のHMD200とを通信ネットワーク4に接続する例を示すが、表示システム1が備えるプロジェクター100A、及びHMD200の数に制限はない。
HMD200は、図1に示すように使用者が頭部に装着する表示装置であり、頭部装着型表示装置(ヘッドマウントディスプレイ、Head Mounted Display)とも呼ばれる。HMD200は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型のHMDである。なお、以下の説明では、HMD200によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
表示システム1は、作業を行う被援助者UBがHMD200を使用し、被援助者UBに対して指示や管理を行う援助者UA(図2)がプロジェクター100Aを使用し、援助者UAと被援助者UBの間で指示や管理のための情報を送受信する。これにより、援助者UAが被援助者UBに対して、作業の手順や内容に関する情報を提供し、作業を支援できる。援助者UAは、被援助者UB、UCに何らかの情報を与える側として定義でき、指令を行う場合は指令者と呼んでもよいし、作業の補助を行う観点から補助者あるいは援助者と呼んでもよい。また、被援助者UB、UCは、援助者UAから何らかの情報による援助を受ける側として定義でき、作業を行う場合は作業者と呼んでもよい。
以下の各実施形態では、被援助者UB、UCが行う作業について援助者UAが支援する用途を例として説明するが、表示システム1の用途はこれに限定されない。
援助者UAの居場所を援助サイトAとし、被援助者UBが作業を行う場所を被援助サイトBとする。また、図1には、被援助サイトCを示し、被援助サイトCで作業を行う被援助者UCが、被援助者UBと同様にHMD200を装着する。この構成では、被援助サイトBの被援助者UBと、被援助サイトCの被援助者UCとに対し、プロジェクター100Aを使用する援助者UAが、作業支援を行うことができる。援助サイトAと被援助サイトB、Cとは、通信ネットワーク4に接続可能であれば地理的制約はなく、遠隔地であってもよいし、近接した場所であってもよい。援助サイトAを、援助者UAが指令を行う指令サイトAと呼ぶこともでき、被援助サイトB、Cを、被援助者UB、UCが作業を行う作業サイトと呼ぶこともできる。
援助者UAはプロジェクター100Aの操作者であり、被援助者UB、UCはHMD200の使用者、別の表現では使用者に相当する。
図2は、プロジェクター100Aの設置状態の例を示す図である。
プロジェクター100Aは、作業用のテーブルに固定され、テーブルの上面である作業台Tに対して画像を投射(表示)する。プロジェクター100Aは作業台Tの表示領域に画像を表示する。プロジェクター100Aが画像を表示する領域を表示領域DAとする。
作業台Tは、人が立って作業を行う場合に作業場所として使用可能な高さに設定され、好ましくは平面であり、作業用の台座(図示略)等が設置されていてもよい。作業台Tには作業対象物OBを置くことができ、援助サイトAの援助者UAは、図2に示すように作業台Tに手を載せて作業対象物OBに対する作業を行うことができる。作業台Tには、図2に示すように作業対象物OBを載せることができ、この作業対象物OBに重なるように、プロジェクター100Aが画像光を投射して、画像を表示できる。援助者UAは、プロジェクター100Aの表示画像を見ながら作業台Tで作業を行える。
プロジェクター100Aは、作業台Tを撮像する機能を有する。プロジェクター100Aが撮像する範囲は、表示領域DAの少なくとも一部を含み、図2の例では作業台Tの一部を含む。プロジェクター100Aが撮像する範囲を撮像範囲PAとする。
プロジェクター100Aは、撮像範囲を示す撮像境界線BLを作業台Tに表示する。撮像境界線BLは、撮像範囲PAの外縁を示す境界線であり、人が視認可能な表示色で表示される。
プロジェクター100Aの撮像機能により、撮像範囲PAで援助者UAが行う作業の様子を撮像できる。表示システム1では、被援助者UB、UCが装着するHMD200が、被援助者UB、UCの視界を撮像し、撮像画像を含む作業情報(案内対象情報)をプロジェクター100Aに送信する機能を有する。プロジェクター100Aは、作業情報を受信して、HMD200の撮像画像を含む画像を表示する。つまり、プロジェクター100Aは、作業情報を受信して、被援助者の視界の撮像画像を表示する。援助者UAは、プロジェクター100Aを操作し、説明用のコンテンツの選択、指示体(例えば、腕、手または指)を動かす動作等を行う。これにより、プロジェクター100AからHMD200に、選択されたコンテンツ及び指示体の動きを示すデータを含む指示情報(案内情報)が送信される。ここで、援助者UAは、プロジェクター100Aが表示する、被援助者UBの作業を示す画像を見ながら、操作を行う。
HMD200は、プロジェクター100Aが送信する指示情報を受信して、指示情報に基づく画像を画像表示部220に表示する。HMD200はシースルー型の表示装置であるため、被援助者は、画像表示部220が表示する画像を見ながら、手元を見て作業を行うことができる。これにより、表示システム1では、被援助サイトB、Cで作業を行う被援助者UB、UCの視界を、援助者UAが視認できる。そして、被援助者UB、UCのHMD200に対し、プロジェクター100Aが撮像する援助者UAの操作や指示コンテンツに含まれる画像を送信し、HMD200が表示する。これにより、援助者UAが、指示体やコンテンツを利用して、作業の案内や説明等を行って被援助者UB、UCに見せることができ、被援助者UBの作業に関する指示や助言を行える。また、被援助者UB、UCは、コンテンツの画像や指示体の動きを見ながら作業を行うことができる。HMD200の動作は、被援助者UCについても同様であり、被援助者UCが装着するHMD200によって、プロジェクター100Aを操作する援助者UAが、作業に関する指示や助言を行える。指示体は操作者である援助者UAが操作に使用する操作体と呼ぶこともできる。
通信ネットワーク4は、公衆回線網、専用線、携帯電話回線を含む無線通信回線、及び、これらの回線のバックボーン通信回線など、各種の通信回線またはその組合せで実現され、その具体的構成は限定されない。通信ネットワーク4は、遠隔地を接続できる広域通信回線網であってもよいし、特定の施設や建物内に敷設されたLAN(Local Area Network)であってもよい。また、通信ネットワーク4、上記各種通信回線を接続するサーバー装置、ゲートウェイ装置、ルーター装置等のネットワーク機器を含んでもよい。また、通信ネットワーク4が複数の通信回線で構成されてもよい。
プロジェクター100Aは、有線または無線通信回線を介して通信ネットワーク4に接続される。また、被援助サイトBには、通信ネットワーク4に接続する無線アクセスポイント3Bが設置され、被援助サイトCには通信ネットワーク4に接続する無線アクセスポイント3Cが設置される。無線アクセスポイント3B、3Cは、アクセスポイントやルーター等の通信装置であり、HMD200と通信ネットワーク4とのデータ通信を中継する。HMD200は、無線アクセスポイント3B、3Cを介して他のHMD200やプロジェクター100Aとデータ通信を実行する。なお、それぞれのHMD200は、他のHMD200との間で、例えばアドホックモードで直接、無線通信を実行してもよい。また、有線の通信回線によりHMD200が接続されてもよい。すなわち、表示システム1は、プロジェクター100A及びHMD200が通信可能であれば、その構成は特に限定されない。
また、プロジェクター100AとHMD200とは、通信ネットワーク4を経由せず直接、データ通信を行ってもよい。例えば、無線LAN(WiFi(登録商標)、Direct Wi−Fi等を含む)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行することにより、通信ネットワーク4や無線アクセスポイント3Bを介さずに通信を行ってもよい。この方法は、例えば、援助サイトAと被援助サイトB或いは被援助サイトCとが遠隔地でなく、数メートル程度の距離にある場合に有効である。
図3は、プロジェクター100Aの構成を示す機能ブロック図である。
プロジェクター100Aは、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。
インターフェイス部11は、制御データ等のデジタルデータを送受信する通信インターフェイスであり、画像インターフェイス部12は、画像データ及び/又はアナログ画像信号を入力可能な入力インターフェイスである。インターフェイス部11は、有線LAN、IEEE1394、USB等のインターフェイスを備え、無線通信インターフェイスを備えてもよい。また、画像I/F部12は、HDMI(登録商標)インターフェイス等を用いることができ、音声データや音声信号が入力されるインターフェイスを備えてもよい。
インターフェイス部11及び画像インターフェイス部12には、PC(パーソナルコンピューター)、ビデオ再生装置、DVD再生装置等の外部の画像供給装置(図示略)を接続可能である。プロジェクター100Aは、インターフェイス部11または画像インターフェイス部12に接続された画像供給装置から供給されるアナログ画像信号またはディジタル画像データに基づき、作業台Tに画像を投射することもできる。
プロジェクター100Aは、光学的な画像の形成を行う投射部20を備える。投射部20は、光源部21、光変調装置22、および投射光学系23を有する。光源部21は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、或いはレーザー光源等からなる光源を備える。また、光源部21は、光源が発した光を光変調装置22に導くリフレクターおよび補助リフレクターを備えていてもよい。さらに、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光の光量を光変調装置22に至る経路上で低減させる調光素子等を備えていてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
投射光学系23は、光変調装置22により変調された画像光を作業台T方向へ導き、作業台T上に結像させるレンズ群を備える。また、投射光学系23は、投射画像の拡大・縮小および焦点の調整を行うズーム機構、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。プロジェクター100Aが短焦点型である場合、投射光学系23に、画像光を作業台Tに向けて反射する凹面鏡を備えていてもよい。
投射部20には、制御部30の制御に従って光源部21を点灯させる光源駆動部45、及び、制御部30の制御に従って光変調装置22を動作させる光変調装置駆動部46が接続される。光源駆動部45は、光源部21の点灯/消灯の切り替えを行い、光源部21の光量を調整する機能を有していてもよい。
プロジェクター100Aは、投射部20が投射する画像を処理する画像処理系を備える。この画像処理系は、プロジェクター100Aを制御する制御部30、記憶部50、操作取得部17、画像処理部40、光源駆動部45、及び光変調装置駆動部46を含む。また、画像処理系に、画像処理部40に接続されるフレームメモリー44を含めてもよい。
制御部30は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部30は、上記ROMまたは記憶部50が記憶するコンピュータープログラムを読み出して実行することにより、プロジェクター100Aの各部を制御する。制御部30は、上記プログラムを実行し、オペレーティングシステム(OS)31、投射制御部32、及び通信制御部33として機能する。また、制御部30は、上記プログラムを実行し、受信情報処理部34、操作検出部35、操作時表示制御部36、送信画像取得部37、指示情報生成部38、及び、音声処理部49として機能する。
記憶部50は、制御部30が実行するオペレーティングシステムを含む各種のプログラム、および、制御部30が処理するデータを不揮発的に記憶する。記憶部50は、設定データ51を記憶する。設定データ51は、制御部30が使用する各種の設定値を含む。設定データ51が含む設定値は、予め操作取得部17が検出する操作で入力された値であってもよいし、通信部13またはインターフェイス部11を介して外部の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部50は、検出用データ52、メニュー画像データ53、送信画像データ54、及び指示コンテンツデータ55を記憶する。
検出用データ52は、画像データから作業対象物OBの画像を検出するために利用されるデータである。作業対象物OBは、HMD200を使用する被援助者UB、UCが行う作業の対象であり、被援助者UB、UCから見える位置、すなわち視野内に配置されると考えることができる。
検出用データ52は、例えば、画像データから作業対象物OBの画像を抽出する処理に用いるデータを含み、より具体的には、作業対象物OBの画像の特徴量のデータを含む。特徴量は、色の特徴量であっても形状の特徴量であってもよく、処理対象の画像データの色数や解像度に対応して、複数の特徴量を含んでもよい。表示システム1では、被援助者UBが作業対象とする作業対象物OBが事前に判明している場合に、この作業対象物OBに関する検出用データ52が、記憶部50に記憶される。
メニュー画像データ53は、投射部20によりメニュー画像を表示するための画像のデータである。メニュー画像は、例えば、操作用のアイコンが列をなして配置されたメニューバー、或いは、アイコンが円形の枠内に配置されたダイヤル型のメニュー等である。
送信画像データ54は、プロジェクター100AがHMD200に送信する指示情報に用いられる画像データであり、例えば、腕、手、指、或いは指示棒等の指示体の画像の画像データである。詳細は後述するが、指示情報には、撮像部15が撮像する撮像画像を含めることができるが、撮像画像の代わりに、予め用意された指示体の画像を用いることもできる。送信画像データ54は、撮像画像の代わりに指示情報に含めることが可能な画像データである。送信画像データ54は、例えば、援助者UAまたは被援助者UBの腕や手指を模した画像の画像データであるが、矢印等の記号で構成されるポインターの画像の画像データであってもよく、その種類や内容は制限されない。
指示コンテンツデータ55は、プロジェクター100AがHMD200に送信するコンテンツのデータであり、テキストデータ、静止画像データ、動画像データ、及び音声データ等を含むことができる。
画像処理部40は、制御部30の制御に従って画像データを処理し、光変調装置駆動部46に画像信号を出力する。画像処理部40が実行する処理は、3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部40は、制御部30により指定された処理を実行し、必要に応じて、制御部30から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
画像処理部40はフレームメモリー44に接続される。画像処理部40は、表示する画像の画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
操作取得部17は、入力デバイスとして機能するリモコン受光部18および操作パネル19に接続され、リモコン受光部18及び操作パネル19が出力する操作信号を取得することにより、操作を検出する。
リモコン受光部18は、プロジェクター100Aのユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を、リモコン受光部18によって受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作内容に対応する操作信号を、操作取得部17に出力する。
操作パネル19は、プロジェクター100Aの外装筐体に設けられ、各種スイッチおよびインジケーターランプ等を有する。操作取得部17は、制御部30の制御に従い、プロジェクター100Aの動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。操作パネル19のスイッチが操作されると、操作パネル19は、操作されたスイッチに対応する操作信号を操作取得部17に出力する。
操作取得部17は、リモコン受光部18または操作パネル19から入力される操作信号に基づいて、操作の内容を示す操作データを生成して制御部30に出力する。
撮像部15は、撮像光学系、CCDやCMOS等の撮像素子、インターフェイス回路等を有し、撮像を実行し、撮像画像データを制御部30に出力する。撮像部15の撮像方向は、投射光学系23の投射方向と概ね同じ向きに設定され、上述のように投射光学系23の表示領域DAの少なくとも一部を含む撮像範囲PAを撮像する。
通信部13は、無線LAN(WiFiを含む)、Miracast(登録商標)、Bluetooth等の規格に準じた無線データ通信を実行する。ここで、通信部13が通信ネットワーク4に接続する例を示す。プロジェクター100Aは、通信部13によって、通信ネットワーク4を経由する通信を実行し、例えばHMD200との間でデータを送受信する。また、プロジェクター100Aは、通信部13によって外部の機器に接続して、外部の機器からコンテンツデータ等を取得してもよい。
制御部30には、音声入出力部14が接続される。音声入出力部14は音声を集音するマイク(図示略)、及び、音声を出力するスピーカー(図示略)を備える。音声入出力部14は、制御部30から入力される音声信号に基づきスピーカーを駆動して音声を出力し、マイクで集音した音声の音声信号を制御部30に出力する。また、音声入出力部14は、アナログ音声信号とディジタル音声データとを変換するA/Dコンバーター及びD/Aコンバーター(図示略)を備えてもよい。この場合、音声入出力部14は、制御部30から入力されるディジタル音声データに基づき音声を出力し、マイクで集音した音声のディジタル音声データを制御部30に出力する。
投射制御部32は、操作取得部17により検出した操作、及び、制御部30が実行するプログラムに応じて、画像処理部40、光源駆動部45、及び光変調装置駆動部46を制御して、投射部20により画像を投射(表示)する。ここで、投射制御部32は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させてもよい。また、投射制御部32は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御してもよい。
通信制御部33は、通信部13を制御して、HMD200との間の通信を制御する。通信制御部33は、HMD200から作業情報を受信し、受信した作業情報を受信情報処理部34に出力する。また、通信制御部33は、指示情報生成部38が生成する指示情報を、HMD200に送信する。
受信情報処理部34は、通信制御部33が受信する作業情報を解析して、作業情報に含まれる画像データを抽出する。受信情報処理部34は、例えば、記憶部50が記憶する検出用データ52を用い、作業情報に含まれる画像データから作業対象物OBの画像を検出する。
操作検出部35は、援助者UAの操作を検出する。操作検出部35は、操作取得部17から入力される操作データに基づき、リモコン受光部18または操作パネル19による操作を検出する。また、操作検出部35は、撮像部15を利用して、作業台Tにおける援助者UAの操作を検出する。この場合、操作検出部35は、撮像部15の撮像画像データから、援助者UAが使用する指示体の画像を検出する。援助者UAが使用する指示体(操作体)は、例えば、援助者UAの腕、手、指、指示棒等を含む。操作検出部35は、撮像画像における指示体の画像の位置に基づき、指示体の指示位置を特定する。操作検出部35は、撮像部15の撮像画像における位置と、撮像部15の撮像範囲PA(図2)における位置と、表示領域DAにおける位置とを対応付けるデータを有する。このデータは、例えば事前のキャリブレーションにより設定され、設定データ51に含めて記憶部50に記憶される。これにより、操作検出部35は、作業台Tの撮像範囲PAにおいて援助者UAが指示体を用いて作業ないし操作を行った場合に、指示体の位置を、撮像範囲PAにおける座標として検出できる。また、操作検出部35は、指示体の位置を、表示領域DAにおける座標、或いは、投射部20が表示領域DAに表示する表示画像における相対的な座標に換算することも可能である。
また、操作検出部35は、指示体の指示位置が、予め設定されたパターンに該当する軌跡を形成する場合に、操作を検出してもよい。この動作は、援助者UAが指示体を動かして、その動きの種類により異なる指示を行う、いわゆるジェスチャー操作である。
操作時表示制御部36は、操作検出部35が操作を検出する間の、投射部20による表示を制御する。操作時表示制御部36は、記憶部50からメニュー画像データ53等を読み出し、投射制御部32を制御して、メニュー画像等を表示させる。これにより、例えば、援助者UAが指示体による操作やリモコン受光部18、操作パネル19の操作を行う場合に、指示体の動きの指標や目安となる文字や画像、或いは、位置入力を可能とするメニューバーの画像を、表示領域DAに表示できる。
これにより、プロジェクター100Aでは、援助者UAが指示体としての腕、手、指、指示棒等を、作業台Tで操作することにより、プロジェクター100Aを操作できる。この場合、例えば、操作時表示制御部36の制御により表示されるメニュー画像を利用して、GUI(Graphical User Interface)操作を行ってもよい。
プロジェクター100Aにおいて、腕、手、指、指示棒等の指示体による操作が可能な範囲は、撮像部15が指示体を撮像できる範囲であり、具体的には撮像範囲PAである。プロジェクター100Aは、撮像範囲PAの外縁を示す撮像境界線BLを、作業台Tに表示できる。このため、援助者UAは、撮像境界線BLによって操作可能な範囲を容易に知ることができる。
送信画像取得部37は、HMD200に送信する指示情報に含める指示体の画像を取得する。送信画像取得部37は、撮像部15で指示体を撮像した場合には、撮像部15の撮像画像から指示体の画像を抽出して取得する。また、援助者UAの操作または事前の設定で、指示体の画像を記憶部50から取得するよう設定された場合、送信画像取得部37は送信画像データ54を取得する。
指示情報生成部38は、HMD200に送信する指示情報を生成する。指示情報は、プロジェクター100AがHMD200に送信するデータである。本実施形態では、コンテンツの画像データ及び/又は音声データ、指示体の画像データ、音声処理部49が生成する援助者UAの音声のデータ、指示体の位置または動きを示すデータを含む。
音声処理部49は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、音声入出力部14に出力する。また、音声処理部49は、音声入出力部14が備えるマイク(図示略)により集音される音声を取得してディジタル音声データに変換する。音声処理部49は、ディジタル音声データに対して予め設定された処理を行ってもよい。
図4は、HMD200の外観構成を示す図である。本実施形態では、被援助者UB及び被援助者UCは同一の構成を有するHMD200を使用するものとして説明する。
画像表示部220は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部220は、右保持部221と、右表示駆動部222と、左保持部223と、左表示駆動部224と、右光学像表示部226と、左光学像表示部228と、カメラ261と、マイク263とを備える。右光学像表示部226及び左光学像表示部228は、それぞれ、使用者が画像表示部220を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部226の一端と左光学像表示部228の一端とは、使用者が画像表示部220を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
右保持部221は、右光学像表示部226の他端である端部ERから、使用者が画像表示部220を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部223は、左光学像表示部228の他端である端部ELから、使用者が画像表示部220を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部221及び左保持部223は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部220を保持する。
右表示駆動部222と左表示駆動部224とは、使用者が画像表示部220を装着した際の使用者(被援助者UB、UC)の頭部に対向する側に配置されている。なお、右表示駆動部222及び左表示駆動部224を総称して単に「表示駆動部」とも呼び、右光学像表示部226及び左光学像表示部228を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部222,224は、液晶ディスプレイ284,294(Liquid Crystal Display、以下「LCD284,294」とも呼ぶ)や投写光学系285,295等を含む(図5参照)。表示駆動部222,224の構成の詳細は後述する。光学部材としての光学像表示部226,228は、導光板286,296(図5参照)と調光板227とを備える。導光板286,296は、光透過性の樹脂等によって形成され、表示駆動部222,224から出力された画像光を使用者の眼に導く。調光板227は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部220の表側を覆うように配置されている。調光板227は、光透過性がほぼゼロのもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板227の光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部226及び左光学像表示部228に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、HMD200を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板227を用いる場合について説明する。調光板227は、右導光板286及び左導光板296を保護し、右導光板286及び左導光板296の損傷や汚れの付着等を抑制する。
調光板227は、右光学像表示部226及び左光学像表示部228に対し着脱可能としてもよく、複数種類の調光板227を交換して装着可能としてもよいし、省略してもよい。
カメラ261は、右光学像表示部226と左光学像表示部228との境目部分に配置される。使用者が画像表示部220を装着した状態で、カメラ261の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。カメラ261は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、単眼カメラであってもステレオカメラであってもよい。
カメラ261は、画像表示部220の表側方向、換言すれば、HMD200を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。カメラ261の画角の広さは適宜設定可能であるが、カメラ261の撮像範囲が、使用者が右光学像表示部226、左光学像表示部228を通して視認する外界を含む範囲であることが好ましい。さらに、調光板227を通した使用者の視界の全体を撮像できるようにカメラ261の撮像範囲が設定されているとより好ましい。カメラ261は、制御部300の制御に従って撮像を実行し、撮像画像データを制御部300に出力する。
図5は、画像表示部220が備える光学系の構成を示す要部平面図である。図5には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部224は、左バックライト293、左LCD294、及び、左投写光学系295を備える。左バックライト293は、LED等の光源と拡散板とを有する。左LCD294は、複数の画素をマトリクス状に配置した透過型液晶パネルであり、左バックライト293の拡散板から発せられる光の光路上に配置される。左投写光学系295は、左LCD294を透過した画像光Lを導くレンズ群等を備える。
左投写光学系295は、左LCD294から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板296に入射される。左導光板296は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板296の内部において複数回の反射を経て左眼LE側に導かれる。左導光板296には、左眼LEの眼前に位置するハーフミラー296A(反射面)が形成される。
ハーフミラー296Aで反射した画像光Lは左眼LEに向けて左光学像表示部228から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
右表示駆動部222は、左表示駆動部224と左右対称に構成される。右表示駆動部222は、右バックライト283、右LCD284、及び、右投写光学系285を備える。右バックライト283は、LED等の光源と拡散板とを有する。右LCD284は、複数の画素をマトリクス状に配置した透過型液晶パネルであり、右バックライト283の拡散板から発せられる光の光路上に配置される。右投写光学系285は、右LCD284を透過した画像光Lを導くレンズ群等を備えた右投写光学系285を備える。
右投写光学系285は、右LCD284から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板286に入射される。右導光板286は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板286の内部において複数回の反射を経て右眼RE側に導かれる。右導光板286には、右眼REの眼前に位置するハーフミラー286A(反射面)が形成される。
ハーフミラー286Aで反射した画像光Lは右眼REに向けて右光学像表示部226から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
使用者の右眼REには、ハーフミラー286Aで反射した画像光Lと、調光板227を透過した外光OLとが入射する。左眼LEには、ハーフミラー296Aで反射した画像光Lと、調光板227を透過した外光OLとが入射する。このように、HMD200は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板227を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、HMD200は、シースルー型の表示装置として機能する。
なお、左投写光学系295と左導光板296とを総称して「左導光部」とも呼び、右投写光学系285と右導光板286とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
画像表示部220は、制御装置210に接続部240を介して接続する。接続部240は、制御装置210に接続される本体コード248、右コード242、左コード244、及び、連結部材246を備える。右コード242及び左コード244は、本体コード248が2本に分岐したコードである。右コード242は、右保持部221の延伸方向の先端部APから右保持部221の筐体内に挿入され、右表示駆動部222に接続される。同様に、左コード244は、左保持部223の延伸方向の先端部APから左保持部223の筐体内に挿入され、左表示駆動部224に接続される。
連結部材246は、本体コード248と、右コード242及び左コード244との分岐点に設けられ、イヤホンプラグ230を接続するためのジャックを有する。イヤホンプラグ230からは、右イヤホン232及び左イヤホン234が延伸する。イヤホンプラグ230の近傍にはマイク263が設けられる。イヤホンプラグ230からマイク263までは一本のコードにまとめられ、マイク263からコードが分岐して、右イヤホン232と左イヤホン234のそれぞれに繋がる。
マイク263は、例えば図4に示すように、マイク263の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部329(図6)に出力する。マイク263は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
右コード242、左コード244、及び、本体コード248は、デジタルデータを伝送可能であればよく、例えば金属ケーブルや光ファイバーで構成できる。また、右コード242と左コード244とを一本のコードにまとめた構成としてもよい。
画像表示部220と制御装置210とは、接続部240を介して各種信号を伝送する。本体コード248の連結部材246とは反対側の端部、及び、制御装置210には、互いに嵌合するコネクター(図示略)が設けられる。本体コード248のコネクターと制御装置210のコネクターとを嵌合し、或いは、この嵌合を外すことで、制御装置210と画像表示部220とを接離できる。
制御装置210は、HMD200を制御する。制御装置210は、決定キー211、点灯部212、表示切替キー213、輝度切替キー215、方向キー216、メニューキー217、及び電源スイッチ218を含むスイッチ類を備える。また、制御装置210は、使用者が手指で操作するトラックパッド214を備える。
決定キー211は、押下操作を検出して、制御装置210で操作された内容を決定する信号を出力する。点灯部212は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、HMD200の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー213は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。
トラックパッド214は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー215は、押下操作に応じて画像表示部220の輝度の増減を指示する信号を出力する。方向キー216は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ218は、HMD200の電源オン/オフを切り替えるスイッチである。
図6は、HMD200の機能ブロック図である。
図6に示すように、HMD200は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス274を備える。インターフェイス274は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、HMD200に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
制御装置210は、制御部300、入力情報取得部270、記憶部120、送信部(Tx)251及び送信部(Tx)252を有する。
入力情報取得部270は、上記のトラックパッド214、方向キー216、電源スイッチ218等を含む操作部279に接続される。入力情報取得部270は、操作部279から入力される信号に基づき、操作部279における操作内容を検出し、操作内容を示す操作データを制御部300に出力する。また、制御装置210は、電源部278を備え、制御装置210及び画像表示部220の各部に電源を供給する。
記憶部340は、不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部340は、画像表示部220に表示する静止画像や動画像のデータを記憶しても良い。
記憶部340は、設定データ341を記憶する。設定データ341は、制御部300が使用する各種の設定値を含む。設定データ341が含む設定値は、予め操作部279の操作で入力された値であってもよいし、通信部277またはインターフェイス274を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部340は、不揮発性の記憶装置であって、制御部300が実行する種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。また、記憶部340は、設定データ341、検出用データ343、および、メニュー画像データ345を記憶する。
記憶部340は、設定データ341を記憶する。設定データ341は、制御部300が使用する各種の設定値を含む。設定データ341が含む設定値は、予め操作部279の操作で入力された値であってもよいし、通信部277またはインターフェイス274を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
検出用データ343は、画像データから作業対象物の画像を検出するために利用されるデータである。作業対象物とは、HMD200を装着した被援助者が行う作業の対象であり、作業時に被援助者の視界に位置すると考えることができる。検出用データ343は、例えば、画像データから作業対象物の画像を抽出する処理に用いるデータを含み、より具体的には、作業対象物の画像の特徴量のデータを含む。特徴量は、色の特徴量であっても形状の特徴量であってもよく、処理対象の画像データの色数や解像度に対応して、複数の特徴量を含んでもよい。表示システム1では、HMD200を装着する被援助者が対象とする作業対象物が事前に判明している場合に、この作業対象物に関する検出用データ343が、記憶部340に記憶される。
メニュー画像データ345は、画像処理部303及び表示制御部305の制御により、画像表示部220にメニュー画像を表示するための画像のデータである。メニュー画像は、例えば、操作用のアイコンが列をなして配置されたメニューバー、或いは、アイコンが円形の枠内に配置されたダイヤル型のメニュー等である。
制御部300には、3軸センサー273、GPS275、及び通信部277が接続される。3軸センサー273は3軸の加速度センサーであり、制御部300は3軸センサー273の検出値を取得する。3軸センサー273により、制御部300は、制御装置210の動きを検出することができ、例えば制御装置210を振る等の操作を検出できる。また、3軸センサー273は9軸センサーに置き換えてもよい。この場合、制御部300は、3軸の加速度センサー、3軸の角速度センサー、及び3軸の地磁気センサーの検出値を取得し、例えば、制御装置210の姿勢、向き、動きを検出できる。
GPS275は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置210の現在位置を算出する。GPS275は、GPS信号に基づいて求めた現在位置や現在時刻を制御部300に出力する。また、GPS275はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部300が計時する時刻を修正させる機能を備えていてもよい。
通信部277は、無線LAN(WiFiを含む)、Miracast、Bluetooth等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部277に無線接続された場合、制御部300は、コンテンツデータを通信部277より取得して、画像表示部220に画像を表示させる。一方、外部機器OAが、インターフェイス274に有線接続された場合、制御部300は、コンテンツデータをインターフェイス274より取得して、画像表示部220に画像を表示させる。通信部277及びインターフェイス274は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
制御部300は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部300は、記憶部340が記憶するコンピュータープログラムを読み出して実行し、オペレーティングシステム(OS)301、画像処理部303、表示制御部305、及び、表示制御部305として機能する。また、制御部300は、通信制御部311、撮像制御部313、作業情報生成部315、受信情報解析部317、指示検出部319、表示位置算出部321、操作検出部323、表示情報生成部325、及び、音声処理部329として機能する。
画像処理部303は、コンテンツに含まれる画像信号を取得する。画像処理部303は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部303は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示略)を利用してクロック信号PCLKを生成する。画像処理部303は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示略)を用いてディジタル画像信号に変換する。画像処理部303は、変換後のディジタル画像信号を、対象画像の画像データ(図中、Data)として、1フレームごとに、制御部300のRAMに格納する。この画像データは、例えばRGBデータである。
なお、画像処理部303は、必要に応じて、画像データの解像度を右表示駆動部222及び左表示駆動部224に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部303は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。
画像処理部303は、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、RAMに格納された画像データDataのそれぞれを、送信部251、252を介して送信する。送信部251、252は、トランシーバーとして機能し、制御装置10と画像表示部220との間におけるシリアル伝送を実行する。なお、送信部251を介して送信される画像データDataを「右眼用画像データ」と呼び、送信部252を介して送信される画像データDataを「左眼用画像データ」と呼ぶ。
表示制御部305は、右表示駆動部222及び左表示駆動部224を制御する制御信号を生成し、この制御信号により、右表示駆動部222及び左表示駆動部224のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部282による右LCD284の駆動ON/OFF、右バックライト制御部281による右バックライト283の駆動ON/OFFを制御する。また、表示制御部305は、左LCD制御部292による左LCD294の駆動ON/OFF、左バックライト制御部291による左バックライト293の駆動ON/OFFを制御する。
通信制御部311は、通信部277を制御して、プロジェクター100Aとの間の通信を制御する。通信制御部311は、作業情報生成部315が生成する送信情報を含むデータを、プロジェクター100Aに送信する処理を行う。また、通信制御部311は、プロジェクター100Aが送信するデータを受信し、受信したデータを受信情報解析部317に出力する。
撮像制御部313は、カメラ261を制御して撮像を実行させ、撮像画像データを取得する。
作業情報生成部315は、プロジェクター100Aに送信するデータを取得し、取得したデータに基づき作業情報を生成する。作業情報生成部315は、カメラ261の撮像画像データを取得する。また、作業情報生成部315は、距離センサー264、9軸センサー266、及び視線センサー268の少なくとも一部のセンサーの検出値を取得してもよく、この場合、カメラ261の撮像画像データ、及び、センサーの検出値を含む作業情報を生成する。作業情報生成部315が検出値を取得するセンサーは予め設定されるが、プロジェクター100AがHMD200に設定用のコマンドを送信して、取得する検出値を指定してもよい。また、作業情報生成部315は、カメラ261の撮像画像データそのものに限らず、撮像画像データから生成した画像データを含む作業情報を生成してもよい。
受信情報解析部317は、通信制御部311が受信したデータを解析する。本実施形態では、受信情報解析部317は、通信制御部311が受信した指示情報に含まれる指示体の画像データ、コンテンツの画像データ、音声データ、及び、その他の等を抽出する。また、受信情報解析部317は、通信制御部311が受信した指示情報から、指示体の位置や動きを示すデータを抽出する。
指示検出部319は、受信情報解析部317が抽出したデータから、指示体による操作を行うことを示すデータを検出する。援助者UAはプロジェクター100Aを操作して、指示体による位置指示操作を行い、この位置指示操作によってHMD200を制御することが可能である。この場合、プロジェクター100Aが送信する指示情報に含まれる位置指示操作に関するデータを、HMD200が、GUIの操作として検出する。プロジェクター100Aが送信する指示情報には、援助者UAの操作をGUIの操作として検出するか否かを指定するデータが含まれ、このデータを指示検出部319が検出する。
表示位置算出部321は、受信情報解析部317が抽出した画像データに基づき画像を表示する位置を算出する。受信情報解析部317が抽出する画像データは、指示体の画像データ、コンテンツの画像データ、及びその他の画像データである。これらのデータに基づき、表示位置算出部321は、指示体の画像の表示位置、コンテンツの画像データの表示位置、及び、その他の画像の表示位置を算出する。また、表示位置算出部321は、各画像の表示サイズを算出してもよい。また、指示検出部319が、援助者の操作をGUIの操作とすることを指示するデータを検出した場合、表示位置算出部321は、GUI操作を行うためのメニュー画像の表示位置を算出する。
操作検出部323は、受信情報解析部317が抽出した指示体の位置や動きを示すデータをGUIの操作として検出する場合に、操作を検出する。操作検出部323は、表示位置算出部321が算出したメニュー画像のアイコン等の表示位置と、指示体の画像の表示位置とに基づき、GUIの操作を検出する。
表示情報生成部325は、画像表示部220により表示する画面の表示情報を生成する。表示情報生成部325は、受信情報解析部317が抽出した画像データに基づく画像を、表示位置算出部321が算出した表示位置に配置して、一画面分の表示情報を生成する。表示情報生成部325が生成する表示情報は、表示制御部305の動作により、画像表示部220に送信され、画像表示部220が表示する。
音声処理部329は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン232および左イヤホン234に出力する。また、音声処理部329は、マイク263により集音される音声を取得してディジタル音声データに変換する。音声処理部329は、ディジタル音声データに対して予め設定された処理を行ってもよい。
画像表示部220は、上述したようにカメラ261及び距離センサー264を備える。画像表示部220は、インターフェイス225、右表示駆動部222、左表示駆動部224、右光学像表示部226としての右導光板286、左光学像表示部228としての左導光板296、9軸センサー266、及び、視線センサー268を備える。
9軸センサー266は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。制御部300は、画像表示部220が使用者の頭部に装着されているとき、9軸センサー266の検出値に基づいて使用者の頭部の動きを検出できる。例えば、制御部300は、9軸センサー266の検出値に基づき、画像表示部220の傾きの大きさと傾きの向きを推定できる。
インターフェイス225は、右コード242と左コード244とが接続されるコネクターを備える。インターフェイス225は、送信部251から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)253、254に出力する。また、インターフェイス225は、表示制御部305から送信される制御信号を、対応する受信部253、254、右バックライト制御部281又は左バックライト制御部291に出力する。
また、インターフェイス225は、カメラ261、距離センサー264、9軸センサー266及び視線センサー268を接続するインターフェイスである。カメラ261の撮像データ、距離センサー264の検出結果、9軸センサー266による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果、及び、視線センサー268の検出結果は、インターフェイス225を介して制御部300に送られる。
右表示駆動部222は、上述した右バックライト283、右LCD284、及び右投写光学系285を備える。また、右表示駆動部222は、受信部253、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD284を駆動する右LCD制御部282を備える。
受信部253は、送信部251に対応するレシーバーとして動作し、制御装置210と画像表示部220との間におけるシリアル伝送を実行する。右バックライト制御部281は、入力された制御信号に基づいて、右バックライト283を駆動する。右LCD制御部282は、受信部253を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、右LCD284を駆動する。
左表示駆動部224は、右表示駆動部222と同様の構成を有する。左表示駆動部224は、上述した左バックライト293、左LCD294、及び左投写光学系295を備える。また、左表示駆動部224は、受信部254、左バックライト293を駆動する左バックライト制御部291、及び、左LCD294を駆動する左LCD制御部292を備える。
受信部254は、送信部252に対応するレシーバーとして動作し、制御装置210と画像表示部220との間におけるシリアル伝送を実行する。左バックライト制御部291は、入力された制御信号に基づいて、左バックライト293を駆動する。左LCD制御部292は、受信部254を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataと、に基づいて、左LCD294を駆動する。
なお、右バックライト制御部281と、右LCD制御部282と、右バックライト283と、右LCD284とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部291と、左LCD制御部292と、左バックライト293と、左LCD294とを総称して、左の「画像光生成部」とも呼ぶ。
このように構成される表示システム1において、HMD200は表示装置、及び第1表示装置に相当し、プロジェクター100Aは第2表示装置に相当する。HMD200が備える画像表示部220は第1表示部に相当し、通信部277は第1通信部に相当し、制御部300は制御部及び第1制御部に相当し、カメラ261は撮像部に相当する。
また、プロジェクター100Aの操作検出部35は操作検出部に相当し、通信部13は第2通信部に相当し、撮像部15は第2撮像部に相当し、制御部30は第2制御部に相当し、投射部20は第2表示部に相当する。また、記憶部50は第2記憶部ということができる。表示領域DAは第2表示領域に相当し、撮像範囲PAは検出領域に相当する。
図7は、表示システム1の動作を示すフローチャートであり、(A)はプロジェクター100Aの動作を示し、(B)はHMD200の動作を示す。図7には、1台のプロジェクター100Aと、1台のHMD200とが動作する例を示す。
HMD200では、撮像制御部313がカメラ261を制御して撮像を実行して撮像画像データを取得する(ステップS21)。
作業情報生成部315は、ステップS21の撮像画像データを含む作業情報を生成し、このデータを通信制御部311がプロジェクター100Aに送信する(ステップS22)。ステップS22で、作業情報生成部315は、入力情報取得部270により検出した操作に関するデータを作業情報に含めてもよい。
プロジェクター100Aでは、HMD200から送信された作業情報を、通信制御部33が受信し、受信した作業情報を受信情報処理部34が解析する(ステップS11)。受信情報処理部34は、受信した作業情報から撮像画像のデータを抽出して、投射制御部32により、撮像画像を表示させる(ステップS12)。また、通信制御部33が受信した作業情報に操作に関するデータが含まれる場合、受信情報処理部34は、操作に関する情報を撮像画像に重ねて表示するデータを生成し、投射制御部32に表示させてもよい。
プロジェクター100Aでは、援助者UAの操作によりコンテンツが選択され(ステップS13)、援助者UAが被援助者UBに指示等をするための操作が行われる(ステップS14)。ステップS13では、例えば、テキストと画像を含む支援用のコンテンツが選択される。ステップS14では、例えば、通信制御部33が受信して表示中の画像について、被援助者UBに注目させる位置を指し示す操作が行われる。ステップS14の操作は、リモコン受光部18または操作パネル19の操作、或いは、援助者UAがプロジェクター100Aの前方で指示体を動かす操作である。この操作は操作検出部35により検出され(ステップS15)、操作検出部35は検出した操作のデータを生成する。
操作検出部35は、検出した操作の操作位置や操作の軌跡を、表示中のHMD200の撮像画像に対応付けるデータを生成する(ステップS16)。これにより、被援助サイトBの表示領域DAにおいて特定の位置を示すデータが得られる。送信画像取得部37は、ステップS14の操作中に撮像部15が撮像した撮像画像から指示体の画像を切り出し、或いは、記憶部50から送信画像データ54を読み出して、送信画像を取得する(ステップS17)。
指示情報生成部38は、送信画像取得部37が取得した指示体の画像の画像データと、操作位置や操作の軌跡を示すデータと、操作位置や操作の軌跡をHMD200の撮像画像と対応付けるデータとを含む指示情報を生成して送信する(ステップS18)。
ここで、指示情報生成部38は、援助者UAの視点または視線方向を示す画像のデータ、または当該画像を表示するために必要な座標や方向のデータを含む指示情報を生成する。このデータの具体例は、例えば、援助者UAが使用する指示体の画像のデータや、指示体の向き及び位置を示すデータが挙げられる。この場合の指示体は向きが明らかに判別できる程度の大きさ、形状を有することが好ましい。
制御部30は、動作の終了条件が成立したか否かを判定し(ステップS19)、終了条件が成立していない場合は(ステップS19;NO)、ステップS11に戻る。また、終了条件が成立した場合は(ステップS19;YES)、本処理を終了する。終了条件は、例えばリモコン受光部18または操作パネル19の操作により、動作終了やプロジェクター100Aのシャットダウンが指示されること等が挙げられる。
HMD200は、プロジェクター100Aが送信する指示情報を通信制御部311で受信し(ステップS23)、受信した指示情報を受信情報解析部317が解析して画像データを抽出する(ステップS24)。次いで、表示位置算出部321が各画像データに基づいて画像を表示する位置を算出する(ステップS25)。さらに、表示情報生成部325が、算出した表示位置に画像を配置した表示情報を生成して、画像処理部303及び表示制御部305により表示させる(ステップS26)。
制御部300は、動作の終了条件が成立したか否かを判定し(ステップS27)、終了条件が成立していない場合は(ステップS27;NO)、ステップS22に戻る。また、終了条件が成立した場合は(ステップS27;YES)、本処理を終了する。終了条件は、例えば操作部279の操作により、動作終了やHMD200のシャットダウンが指示されること等が挙げられる。
図8は、表示システム1における表示例を示す図であり、(A)はプロジェクター100Aの表示例を示し、(B)はHMD200の表示例を示す。また、(C)はプロジェクター100Aの別の表示例を示す。なお、図8(B)は被援助者UBの右眼の視野の例を示しており、左眼の視野は各図と同一または左右対称であるため図示を省略する。また、図8(B)の表示例は被援助者UCが装着するHMD200においても同様である。
ここで、指示情報生成部38が生成する指示情報(案内情報)において、操作と作業情報とを関連付ける情報、或いは、作業情報に含まれる撮像画像に対応付ける情報の具体的な態様は、特に制限されない。上記の例では、操作位置や操作の軌跡をHMD200の撮像画像と対応付けるデータとして説明したが、単に操作位置や操作の軌跡そのものを上記情報としてもよい。また、ファイル名による対応付け、データのタイプ、ID、属性、位置等により、操作位置や操作の軌跡をHMD200の撮像画像と対応付けるデータであってもよく、結果として対応を認識できる情報であればよい。
図8(A)に示すように、プロジェクター100Aは、作業台Tの表示領域DAに画像を表示する。図8(A)の例では表示領域DAに、援助者用画面402が表示される。援助者用画面402は、OS31の機能やOS31上で動作するアプリケーションプログラムの機能により表示される画面であり、図8(A)の例ではファイル及びフォルダーの操作に係る画面である。
プロジェクター100Aは、HMD200から作業情報を受信した場合に、図8(A)に示すようにHMD200の撮像画像を表示する(図7のステップS12)。表示領域DAには撮像画像を含む援助者用画面402が表示される。援助者用画面402は、ステップS21でHMD200により撮像された撮像画像403を含み、撮像画像403には作業対象物OBの画像404が含まれる。つまり、図8(A)の表示により、援助者UAは、被援助サイトBで被援助者UBの視界(視野)に作業対象物OBがあることを知ることができる。
撮像画像403は、OS31の機能やOS31上で動作するアプリケーションプログラムの機能により表示される画面に重ねて表示される。投射制御部32は、HMD200から作業情報を受信した場合、HMD200から作業情報を受信する前に表示していた画面に重ねて、撮像画像403を表示できる。
また、表示領域DAには、撮像境界線BLが表示される。撮像境界線BLの内側が、プロジェクター100Aが撮像する撮像範囲PAであるから、援助者UAは撮像範囲PAに指示体が位置するように操作を行う。
図8(A)の例で、指示体2は援助者UAの手である。援助者UAは、表示領域DAに表示される作業対象物OBの画像404に対し、例えば、指示体2で指し示す操作を行う。プロジェクター100Aは、操作検出部35により指示体2が指示する指示位置405を検出し、指示位置405と、表示領域DAに表示中の撮像画像との相対位置を算出する。プロジェクター100Aは、指示情報生成部38により、指示体2の指示位置405に関するデータと、指示体2の向きに関するデータとを含む指示情報を生成する。
上述のように、指示情報生成部38が生成する指示情報は、援助者UAの視点または視線方向を示す画像のデータ、または当該画像を表示するために必要な座標や方向のデータを含む。図8(A)の操作が行われた場合、指示情報生成部38は、指示体2が指示する位置と指示体2の向きとが明らかになる指示情報を生成する。
図8(B)に示す被援助者の視野VRB1では、ハーフミラー286A(図5)に相当する領域が表示領域451となり、表示領域451に、右LCD284(図5)に描画される画像が表示される。ハーフミラー286Aは外景を透過するので、被援助者の視野にある作業対象物OBが表示領域451越しに視認される。そして、表示領域451には、指示画像421が表示される。指示画像421は、援助者が指示体2で指し示した指示位置405を示すマーク、及び、指示体画像422を含む。指示体画像422は、指示位置405を、援助者UAが指示体2で指し示した場合と同じ向きで表示される画像であり、図8(B)の例ではプロジェクター100Aが撮像部15で撮像した撮像画像を利用している。指示位置405を示すマーク、及び、指示体画像422は、作業対象物OBに重なるように表示される。また、指示体画像422は、HMD200が、図7のステップS23でプロジェクター100Aから受信する指示情報に含まれる画像データに基づき表示する画像であってもよい。この場合、指示位置405の位置及び指示体の向きは、指示情報に含まれるデータで指定され、このデータに基づきHMD200が指示体画像422を表示してもよい。
図2に示したように、プロジェクター100Aは作業台Tに固定されて表示領域DAに画像を投射するが、援助者UAの位置は、図2のようにプロジェクター100Aに対向する位置に限定されない。援助者UAは、作業台Tに対して任意の方向から手等を伸ばして作業を行える。また、被援助者UBは、両手を自由に使えるハンズフリーの状態で、位置の制約なく、HMD200が表示する画像を見ながら作業対象物OBに対して作業を行える。
このため、援助者UAが表示領域DAを見る方向と、被援助者UBがHMD200の画像を視認する方向とが、一致するとは限らない。そこで、表示システム1では、援助者UAが行った操作や指示に関する画像等をHMD200で表示する場合、援助者UAが操作や指示を行ったときの援助者UAの位置や視点、或いは視線方向を反映するように、表示することが好ましい。図8(B)の例では、指示位置405を示す画像や記号(マーク)を表示するだけでなく、指示位置405を指し示したときの援助者UAの身体の向きを、被援助者UBが把握できる方が、より正確な指示或いは案内を行える。このため、プロジェクター100Aは、操作を行う援助者UAの視点または視線方向を示す画像(例えば、図8(B)の指示体画像422)を表示するためのデータを指示情報に含めて送信する。また、HMD200は、指示情報に基づき、操作を行う援助者UAの視点または視線方向を示す画像を表示する。図8(B)の例では、位置および方向を把握できる指示体画像422が、指示位置405に対応する位置に、援助者UAの操作に対応する方向で、表示される。
このように、表示システム1では、プロジェクター100Aが、HMD200の撮像画像を含む援助者用画面402を表示するので、援助者UAは、被援助者UBの作業環境を見ながら作業に関する指示等を行うことができる。また、援助者UAが指示体2で指示した指示位置、及び、指示を行ったときの援助者UAの視点または視線方向を示すデータを含む指示情報がHMD200に送信される。このため、被援助者UBは、HMD200により援助者UAの指示あるいは操作の位置、内容、様子を見ることができ、この場合の援助者UAの視点または視線方向を知ることができる。
さらに、HMD200は、実空間の物体である作業対象物OBの位置に対応する位置に、指示位置405を示すマークと指示体画像422とを含む指示画像421を表示する。指示画像421が含むマーク、或いは指示体画像422の表示位置は、表示位置算出部321が作業対象物OBの位置を特定し、特定した作業対象物OBの位置に対応して決定する位置である。従って、作業対象物OBに重なって、或いは作業対象物OBに対応する位置に、情報を表示することで、一種のAR(Augmented Reality、拡張現実)としての表示効果を得ることができる。ここで、指示体画像422を表示するための画像データをHMD200の記憶部340に記憶しておき、プロジェクター100AがHMD200に送信する指示情報に、HMD200が記憶する画像を指定するデータを含めても良い。
また、HMD200は、図8(B)に示すように、表示領域451に、カメラ261により撮像可能な範囲の境界を示す撮像境界線BLを表示してもよい。例えば、カメラ261の撮像範囲が、HMD200越しに視認できる外景(実空間)の視野VRB1よりも狭い場合、被援助者UBに対してカメラ261の撮像範囲を報せるために、撮像境界線BLを表示してもよい。この場合、被援助者UBは、カメラ261の撮像範囲を意識して、例えば、作業対象物OBが撮像範囲に収まるような視点で作業を行うことができる。従って、HMD200がプロジェクター100Aに送信する作業情報に含まれる撮像画像に、作業対象物OBや、被援助者UBの手等が確実に含まれるようになるという利点がある。なお、HMD200においてカメラ261の撮像範囲が、被援助者UBの視野VRB1を含む場合、被援助者UBは視野VRB1に作業対象物OBや手が視認されるように作業を行えばよいので、撮像境界線BLを表示しなくてもよい。言い換えれば、撮像境界線BLは必須ではなく、カメラ261の撮像範囲(画角)の仕様等により、視野VRB1の少なくとも一部が撮像範囲に含まれない場合に、撮像境界線BLを表示してもよい。
また、カメラ261により光学的に、或いは、制御部300がカメラ261の撮像画像データを処理することにより、ズーム機能を利用し、ズームされた撮像画像データに基づき、プロジェクター100Aに送信する作業情報が生成されることがある。この場合、ズーム倍率を高めるほど、撮像画像データに含まれる範囲、すなわち撮像範囲が狭くなるので、撮像範囲が視野VRB1の全体を含まない場合に、撮像境界線BLを表示してもよい。つまり、カメラ261の撮像画像に対するズーム機能により、撮像範囲が変化する場合に、撮像範囲と視野VRB1との相対的な状態に基づき撮像境界線BLを表示してもよい。
図1に示したように、表示システム1は、複数のHMD200を通信ネットワーク4に接続して使用できる。この場合、プロジェクター100Aでは、複数のHMD200から作業情報を受信して表示できる。この場合の表示例を図8(C)に示す。
図8(C)はプロジェクター100Aが2つのHMD200から受信した作業情報に基づく画像を表示する例を示す。図8(C)の例では、表示領域DAに、撮像画像を表示する2つの表示領域409、410が配置される。表示領域409には一方のHMD200が送信した作業情報に基づく画像が表示される。また、表示領域410には他方のHMD200が送信した作業情報に基づく画像が表示される。これら表示領域409、410に表示された画像に対し、指示体2による指示が行われた場合、プロジェクター100Aは、指示された位置に対応する作業情報を送信したHMD200に対して、指示情報を生成して送信する。
表示システム1が複数のHMD200を含む場合に、いずれかのHMD200にプロジェクター100Aが送信する指示情報を、他のHMD200に送信してもよい。つまり、複数のHMD200に同内容の指示情報を送信してもよい。この場合、いずれかのHMD200が図7(B)のステップS22でプロジェクター100Aに送信する作業情報に対応して、プロジェクター100Aが指示情報を生成すると、この指示情報がHMD200にも送信される。この例では、いずれかの被援助者UBに対して送信した指示情報の内容を、他の被援助者(例えば、被援助者UC)が知ることができる。
以上説明したように、本発明を適用した第1実施形態に係る表示システム1は、HMD200及びプロジェクター100Aを備える。HMD200は、画像を表示する画像表示部220と、カメラ261と、プロジェクター100Aと通信を実行する通信部277とを備える。HMD200は、制御部300の制御に従って、通信部277によりプロジェクター100Aから指示情報を受信し、指示情報に基づく画像を画像表示部220により表示する。プロジェクター100Aは、表示領域DAに画像を表示する投射部20と、HMD200と通信を実行する通信部13と、操作を検出する操作検出部35とを備える。プロジェクター100Aは、制御部30の制御により、操作検出部35が検出する操作を示す情報を含む指示情報を生成して、通信部13で送信する。HMD200は、制御部300の制御により、プロジェクター100Aから受信する指示情報に基づいて、プロジェクター100Aの操作検出部35が検出した操作に対応する画像を表示する。さらに、HMD200は、操作を行う援助者UAの視点または視線方向を示す画像を画像表示部220により表示する。
このように構成される表示システム1、HMD200、及び、表示システム1を利用した情報表示方法を実行することにより、次の作用効果が得られる。すなわち、HMD200によって、プロジェクター100Aにおいて行われる操作に関する画像を表示するので、援助者UAがプロジェクター100Aを操作することで、被援助者UBに対して情報を提供できる。また、HMD200が表示する画像や情報において、援助者UAがプロジェクター100Aで行う操作等の向きを案内することができるので、被援助者UBが画像や情報の向きを誤解することがない。従って、援助者UAから被援助者UBに対し、適切に情報を提供できる。
また、プロジェクター100Aの制御部30は、操作検出部35が検出する操作を、当該操作を行う援助者UAの視点または視線方向を基準として示す情報を含む指示情報を生成する。これにより、プロジェクター100Aの操作について、援助者UAの視点または視線方向を基準とする情報がHMD200に送信されるので、被援助者UBに対して援助者UAの視点または視線方向を案内できる。
また、HMD200の画像表示部220は、被援助者UBの視野VRB1において、作業対象物OBが配置される対象配置領域を含む表示領域451に画像を表示する。制御部300は、視野VRB1に配置される作業対象物OBに対応する位置に画像を表示する。これにより、作業対象物OBに対応する位置に画像を表示し、この画像の適正な向きを案内することができる。このため、作業対象物OBに関連する情報を効果的に提供できる。
HMD200のカメラ261は、作業対象物OBが配置される対象配置領域の少なくとも一部を含む撮像範囲を撮像する。制御部300は、表示位置算出部321により、カメラ261の撮像画像に基づいて、作業対象物OBの位置に対応する画像の表示位置を特定する。これにより、作業対象物OBに対応する画像の表示位置を、適切な位置に決定できる。
また、制御部300は、表示領域451、或いは視野VRB1におけるカメラ261の撮像範囲を示す画像である撮像境界線BLを、画像表示部220により表示してもよい。この場合、被援助者UBがHMD200の表示画像を視認する領域において撮像範囲を認識できるので、カメラ261の撮像機能を効果的に利用できる。
また、制御部300は、カメラ261の撮像画像に基づき作業情報を生成して通信部277によりプロジェクター100Aに送信する。プロジェクター100Aの制御部30は、通信部13によりHMD200から作業情報を受信し、作業情報に基づき投射部20により画像を表示する。さらに、制御部30は、作業情報に基づく画像の表示中に操作検出部35が検出する操作を示す情報を含む指示情報を生成する。これにより、撮像画像を利用して、HMD200を装着する被援助者UBが行う作業等に関する情報を、プロジェクター100Aを使用する援助者UAに伝達できる。このため、より多くの情報を用いて、被援助者UBの作業等を支援できる。
また、プロジェクター100Aは、少なくとも操作検出部35が操作を検出する検出領域である撮像範囲PAの一部を含む範囲を撮像する撮像部15を備える。制御部30は、撮像部15の撮像画像をもとに、操作検出部35が検出する操作を示す情報を生成して、生成した情報を含む指示情報を生成する。これにより、プロジェクター100Aの撮像範囲で行われる操作の撮像画像等を、HMD200によって表示できる。このため、援助者UAが被援助者UBに対し、作業等に関するより詳細な情報を提供できる。
また、制御部30は、操作検出部35が検出する操作に対応する指示体の画像を含む指示情報を生成してもよい。この場合、プロジェクター100Aで操作を行う指示体の画像をHMD200が表示できるので、プロジェクター100Aの操作の内容や向きを、より直感的にわかり易く、HMD200により表示できる。
また、制御部300は、プロジェクター100Aから受信する指示情報に基づいて、HMD200を装着する被援助者UBに対して動作を案内する画像を、画像表示部220により表示してもよい。この場合、被援助者UBに対して、動作を適切に案内できる。
表示システム1の適用例について、具体例を挙げて説明する。
表示システム1は、例えば、被援助者UBが機器を操作する作業を行う場合に、機器の操作を説明し、案内するなど、遠隔地から援助者UAが機器の操作に関する情報を提供して、作業を支援する目的で使用できる。具体的には、パーソナルコンピューターを作業対象物として、セットアップやアプリケーションプログラムの操作を行う場合に適用できる。また、例えば、工作機械、工業機械、家庭用各種電子機器などの機械を作業対象物として、機械の操作やメンテナンスを行う場合に適用できる。すなわち、各種機械のメンテナンスを行う被援助者UBが、ユーザーの依頼に応じて作業対象の機械の設置場所を訪問し、メンテナンスを行う場合に、習熟度の低い被援助者UBを援助者UAが支援する用途で表示システム1を使用できる。
この例において、作業対象の作業対象物OBとして、工作機械、工業機械、家庭用各種電子機器などの機械、パーソナルコンピューター等を、作業台Tに設置することができる。また、これらの機器やパーソナルコンピューター等が設置された位置を、作業台Tを見なすこともできる。この場合、HMD200を装着する被援助者UBは、作業対象である工作機械、工業機械、家庭用各種電子機器などの機械、パーソナルコンピューター等の設置場所において、ハンズフリーで作業を行うことができる。
このような場合、遠隔地の被援助サイトBにいる被援助者UBとサービスセンター等の援助サイトAにいる援助者UAが情報を共有し、援助サイトAの援助者UAはHMD200によりAR画像を表示させて、指示、表示の変更ができる。そして、HMD200により、援助サイトAにいる援助者UAの手や手指による操作をバーチャル画像として見せて、支援できる。この場合、援助サイトAにおいて援助者UAの前に被援助サイトBの作業対象物と同じ機器を置いて実際に操作しながら説明することも有効である。援助者UAにとっては、現場の現物の特定部位に対して位置指示操作により指示や教示を行うことができ、シンプルな操作で効率よく支援できる。
他の適用例として、プロジェクター100Aから送信する指示情報に、名刺の画像データやテキストを含めることで、被援助者UBに名刺を見せることができる。この場合、援助者UAの腕を模した画像の画像データを指示情報に含めることで、HMD200により名刺を差し出す腕を表示させて、バーチャルな名刺交換を実現できる。
この名刺交換を、援助サイトAの援助者UAと被援助サイトBの被援助者UBとの間で実行し、その後に、上記実施形態で説明した動作を実行してもよい。
さらに、プロジェクター100Aがコンテンツのデータを指示情報に含めてHMD200に送信することで、HMD200の画像表示部220に、テキストや画像を含むコンテンツを表示させることができる。この場合、コンテンツのテキストや画像の表示位置は、視野VRB1に位置する現実の作業対象物OBの位置に合わせて、作業対象物OBの視認を妨げない位置とすることが好ましい。
また、コンテンツのデータとして、音声データを指示情報に含めて、プロジェクター100AからHMD200に送信してもよい。コンテンツの音声データは、予め記憶部80に記憶されたデータであってもよいし、援助者UAの音声を音声入出力部14で集音した音声データであってもよい。この場合、HMD200は、指示情報に含まれる音声データに基づき、音声入出力部14により音声を出力する。
さらに、指示体の画像として、援助者UA役のアバターや援助者UAの実際の顔、上半身、或いは全身の画像を利用することで、作業員の代わりにコンシューマーを対象としたサービスを実現することも可能である。この場合、援助者UAはコールセンターのスタッフ、家庭教師や塾の講師スタッフ等となる。このシステムの用途は、電子機器のソフトウェアのインストールや操作の案内またはトレーニング、語学教育、資格試験等の受験指導、運手免許等の公的資格のための講習、スポーツの指導等も挙げられる。また、例えば、外国語会話の講習では、視覚的に発音を教授することができる。この場合、受講者はHMD200を使用する。この場合、講師がプロジェクター100Aを使用し、受講者がHMD200によって講師の口の形を視認できる。この場合、受講者が実空間の鏡を見れば、鏡に映る受講者の口の像と、画像表示部220により表示される講師の口の像とを重ねて、或いは比較して見ることができる。また、HMD200によって、鏡に映る受講者の口の像に重なるように、講師の口の像をAR表示してもよい。
また、学習やスポーツの指導を行う場合、指導する側が援助サイトAにおいてプロジェクター100Aを使用し、指導を受ける側がHMD200を使用する。このような場合を含み、援助サイトAは、指導或いは管理を行う者がいる「管理サイト」と呼ぶことができ、プロジェクター100Aは管理用装置といえる。また、被援助サイトB、Cは、指導や教授を受けて学習を実行する者や作業を実行する者がいる「実行サイト」と呼ぶことができ、HMD200は実行側装置といえる。
この態様では、プロジェクター100Aが画像を投射する表示領域DAを、例えば人が動き回ることが可能な程度に大きな面積とし、床面を表示領域DAとすると、より効果的である。この場合、例えばプロジェクター100Aは、床面より上方に設置され、好ましくは援助者UAよりも上方に設置されて、下向きに画像を投射し、撮像を行う構成にできる。具体的には、プロジェクター100Aを天井から吊り下げ設置すればよい。
また、HMD200がプロジェクター100Aに送信する作業情報は、案内対象情報、或いは実行側情報と呼ぶことができ、指示情報は、案内情報、指導情報、或いは、管理情報と呼ぶことができる。
指導の具体例としては、数学、英語、国語、社会科、文字の書き順等の学習課目について、指導を行う者がプロジェクター100Aを使用し、指導を受ける者がHMD200に表示される内容により教授、指導を受ける態様が考えられる。パーソナルコンピューター等の機器の操作方法をガイドする目的で使用する場合も同様である。
また、プロジェクター100A及びHMD200において、特定の情報を、ポップアップ、ブリンキング、蛍光色で表示する等して、目立つように表示してもよい。また、表示される画像の表示色や表示輝度を、作業台Tにおける作業対象物OBの視認性が高まるように変更してもよい。この場合、投射部20が投射する画像光の輝度を低下させる、画像光の色調や彩度を低くする等の手法が挙げられる。この場合、外景に対する表示画像の視認性が相対的に低下するので、この表示画像に含まれる文字や画像を補助的に見せる効果がある。また、HMD200が画像表示部220により表示する際に、表示される画像の表示色や表示輝度を、実空間の作業対象物OBの視認性が高まるように変更してもよい。この場合、右光学像表示部226及び左光学像表示部228から右眼RE及び左眼LEに入射する画像光の輝度を低下させる、画像光の色調や彩度を低くする等の手法が挙げられる。この場合、実空間に対する表示画像の視認性が相対的に低下するので、この表示画像に含まれる文字や画像を補助的に見せる効果がある。
表示システム1では、HMD200を使用する被援助者UBの作業内容等を、遠隔地のプロジェクター100Aで見ることができ、被援助者UBは、援助者UAがプロジェクター100Aの撮像範囲PAで行う位置指示操作の内容を見ることができる。HMD200は、位置指示操作の内容を、例えば指示体画像422として、AR表示する。すなわち、HMD200では、作業対象物OBに重なるように、指示体画像422が表示され、この指示体画像422と作業対象物OBとの位置により、ARとしての表示効果が期待できる。
HMD200は、AR表示の効果を高めるため、指示体画像422等を表示する際に、立体画像を表示してもよい。この場合、制御部300は、作業対象物OBの種類や作業内容に対応して、左眼用の画像と右眼用の画像との視差の方向及び大きさを決定する。制御部300の表示情報生成部325は、指示情報に基づいて視差を有する画像を生成して、表示制御部305により表示させる。また、制御部300は、距離センサー264によって、作業対象物OBまでの距離を検出してもよい。この場合、制御部300は、検出した作業対象物OBまでの距離に基づき、AR表示する指示体の画像の視差の方向及び大きさを算出してもよい。例えば、予め設定された距離条件に基づき、視差を設けてもよい。この場合、被援助者UBに対して画像が立体的に表示される。また、プロジェクター100Aが立体画像を表示して、援助者UAが立体的に画像を視認できるようにしてもよい。
また、表示システム1では、図8(B)に例示したように、制御部300が、プロジェクター100Aから受信する指示情報に基づいて、プロジェクター100Aで検出した操作の操作位置に対応して、指示体画像422を表示する。このため、プロジェクター100Aが検出する操作の位置や内容を、HMD200により、わかりやすく表示できる。
また、表示システム1では、図8(B)に例示したように、制御部300が、プロジェクター100Aから受信する指示情報に基づいて、プロジェクター100Aで検出した操作の指示位置405を示すマークと、指示体画像422とを表示する。このため、プロジェクター100Aが検出する操作の位置や内容を、HMD200により、わかりやすく表示できる。
また、表示システム1では、被援助サイトCにおいて、被援助サイトBの被援助者UBの作業操作を、遠隔地からAR画像として見ることができる。これにより、作業手順等の作業支援の内容を共有できる。
また、プロジェクター100Aにより2以上の表示領域に、プロジェクター100Aの表示とHMD200の撮像画像、或いは、2以上のHMD200の作業情報に基づく画像を表示すれば、援助者UAが多くの状況を視認できる。ここで、図8(C)に示すように、2以上の表示領域に2以上のHMD200に対応する画像を表示する場合、各表示領域におけるポインター等の形状、色を変えることで、各表示領域の混同を防止する構成も考えられる。
その他、表示システム1の適用範囲は何ら制限されず、他の用途への利用も勿論可能である。
指示体画像は、援助者UAの腕、手、指、指示棒等に限らず、被援助者UBが実行する作業に関する用具、器具等であってもよい。つまり、援助者UAは、被援助者UBが使用する用具や器具を指示体として使ってもよい。この場合、援助者UAが使用するプロジェクター100Aは、指示体を撮像した撮像画像を、指示体画像としてHMD200に送信してもよい。また、プロジェクター100Aは、指示体を撮像した撮像画像に基づき、指示体と同種あるいは指示体に予め対応付けられた用具や器具の画像を送信画像データから選択して、指示体画像として送信してもよい。また、援助者UAがプロジェクター100Aを操作して、指示体画像として、被援助者UBが実行する作業に関する用具、器具等の画像を選択し、この画像を指示体画像としてHMD200に送信してもよい。例えば、被援助者UBが工具を使用する作業を行う場合、指示体画像として、ドライバー、ペンチ、モンキースパナ、通電テスターのテスト端子、包丁、その他の特殊工具の画像を採用できる。また、表示システム1により援助者UAが被援助者UBにスポーツの指導を行う場合、テニスラケット、ゴルフクラブ等の画像を指示体として採用できる。
このように、HMD200が案内情報に基づいて表示する指示体の画像が、HMD200を使用して実行される作業に関する用具あるいは器具の画像であることで、HMD200を使用する人が行う作業を、よりわかりやすく案内できる。
また、制御部30は、操作検出部35が検出する操作に対応する指示体の画像として、HMD200を使用して実行される作業に関する用具あるいは器具の画像を取得し、取得した指示体の画像を含む案内情報を生成してHMD200に送信する。この場合、プロジェクター100Aが検出する操作の位置や内容に対応する画像を利用して、HMD200を使用する被援助者UBに対し、被援助者UBが行う作業をわかりやすく案内できる。
[第2実施形態]
図9及び図10は、第2実施形態における表示システム1の動作を示すフローチャートである。図9(A)はプロジェクター100Aの動作を示し、図9(B)はHMD200の動作を示す。また、図11は、第2実施形態におけるプロジェクター100A及びHMD200の表示例を示す図である。
第2実施形態の表示システム1は、上記第1実施形態で説明した表示システム1と同様に構成されるため、表示システム1の各部の構成について図示及び説明を省略する。また、図9(A)、(B)のフローチャートにおいて第1実施形態で説明した動作(図7(A)、(B))と共通する動作については、同一のステップ番号を付す。
第2実施形態では、HMD200のカメラ261で撮像した撮像画像を含む作業情報がプロジェクター100Aに送信され、プロジェクター100Aで表示される点等は第1実施形態と同様である。第2実施形態では、プロジェクター100Aで行われる位置指示操作により、HMD200の動作を制御することができる。
図10(A)に示すプロジェクター100Aの動作において、ステップS11〜S17は上記第1実施形態で説明した通りである。
ステップS17において、送信画像取得部37が送信画像を取得した後、リモコン受光部18または操作パネル19の操作により、HMD200に対するメニュー操作を行うか否かが指定される(ステップS31)。そして、指示情報生成部38は、メニュー操作を行うか否かを指定するデータを含む指示情報を生成し、HMD200に送信する(ステップS32)。ステップS32で生成される指示情報は、送信画像取得部37が取得した指示体の画像の画像データと、操作位置や操作の軌跡を示すデータと、操作位置や操作の軌跡をHMD200の撮像画像と対応付けるデータとを含む。
図10(B)に示すHMD200の動作において、ステップS21〜S26及びステップS27は上記第1実施形態で説明した通りである。
HMD200は、ステップS26において、プロジェクター100Aが送信する指示情報を通信部277で受信し、この指示情報に基づく表示情報を表示情報生成部325により生成して、画像処理部303及び表示制御部305により表示する。その後、HMD200は、操作検出処理を実行する(ステップS35)。
図11は、HMD200が実行する操作検出処理を詳細に示すフローチャートである。
この操作検出処理において、HMD200の操作検出部323は、ステップS24で受信した指示情報から、メニュー操作を行うか否かを指定するデータを抽出し、このデータに基づきメニュー操作を行うか否かを判定する(ステップS41)。メニュー操作を行わないと判定した場合は(ステップS41;NO)、図10(B)のステップS27に移行する。
メニュー操作を行うと判定した場合(ステップS41;YES)、操作検出部323は、メニュー画像の表示位置を決定し、メニュー画像を表示する(ステップS42)。ここで、メニュー画像の表示位置は、プロジェクター100Aが送信する指示情報に含まれるデータで指定されてもよいし、予め設定された位置であってもよい。また、操作検出部323が自動的に位置を決定してもよい。次いで、操作検出部323は、指示情報から操作位置を示すデータを取得し(ステップS43)、取得した操作位置がメニュー画像に対応する位置であるか否かを判定する(ステップS44)。
ここで、操作位置がメニュー画像に対応する位置でないと判定した場合(ステップS44;NO)、制御部300はステップS27に移行する。
操作検出部323は、操作位置がメニュー画像に対応する位置である場合(ステップS44)、メニュー画像に対する操作を検出する(ステップS45)。このステップS45で、操作検出部323は、メニュー画像に配置される複数のアイコン等の操作用画像のうち、操作位置に対応する操作用画像を特定する。制御部300は、操作検出部323が特定した操作用画像に対応付けられた動作を実行し(ステップS46)、当該動作の後にステップS27に移行する。
図11(A)はプロジェクター100Aの表示例を示し、図11(B)は(B)はHMD200の表示例であり、HMD200を装着する被援助者の視野VRB1を示す。図11(C)はプロジェクター100Aの別の表示例を示す。
図11(A)に示すプロジェクター100Aの表示例では、表示領域DAに、HMD200の撮像画像403が表示される。リモコン受光部18または操作パネル19の操作により、メニュー操作を行うことが指定された場合、プロジェクター100Aは、表示領域DAにメニュー画像411を表示する。
メニュー画像411は、プロジェクター100Aに対する操作を行う画像ではなく、HMD200に対する操作を行うために表示される画像である。メニュー画像411は、例えば、ボタン形状の複数のアイコン(操作用画像)を含む。各アイコンには、それぞれ、HMD200で実行する動作が対応付けられる。この種の動作としては、例えば、表示拡大/縮小、描画開始/終了、描画する図形の指定、描画色の指定等が挙げられる。メニュー画像411は、操作時表示制御部36がメニュー画像データ53に基づいて表示させる。
メニュー画像411に対して指示体2による操作が行われると、操作検出部35が操作を検出し、操作位置を特定する。また、操作検出部35は、操作時のメニュー画像411及びメニュー画像411に含まれるアイコン等の操作部の位置を取得する。指示情報生成部38は、指示情報生成部38がメニュー画像411を表示させた状態で、操作検出部35が操作を検出した場合、メニュー操作を指示するデータを、指示情報に含ませる。また、指示情報生成部38は、操作検出部35が検出した操作の操作位置と、操作検出部35が取得したメニュー画像411等の位置を含む指示情報を生成する。
これにより、プロジェクター100AからHMD200に対し、援助者UAがプロジェクター100Aで行った操作の操作位置と、操作時のメニュー画像411等の位置と、メニュー操作を指定するデータとを含む指示情報が送信される。HMD200の表示位置算出部321は、メニュー画像411等の位置に合わせて、図11(B)に示すようにメニュー画像471を表示させる。なお、メニュー画像471が有するアイコン等の操作部の配置は、プロジェクター100Aにおけるメニュー画像411と同一または類似していることが好ましい。このため、プロジェクター100Aが生成し送信する指示情報には、メニュー画像411の種類や構成を指定するデータを含めてもよい。表示位置算出部321は、指示情報に基づいて指示体画像422を表示する。指示検出部67は、指示体画像422の表示位置が、メニュー画像471のアイコン等の操作部の表示位置に重なる場合、指示検出部319は当該操作部に対する操作を検出する。なお、指示体画像422の種類や表示態様については、第1実施形態と同様とすることができる。
従って、援助者UAがプロジェクター100Aにおいて指示体2で位置指示操作を行うと、この位置指示操作に対応して、HMD200が操作を検出し、この操作に対応する動作をHMD200に実行させることができる。このため、援助者UAがHMD200を遠隔操作することが可能となる。
また、表示システム1が複数のHMD200を含んで構成される場合、プロジェクター100Aは、複数のHMD200から作業情報を受信してもよく、複数のHMD200から受信した作業情報に基づく表示を行ってもよい。
図11(C)はプロジェクター100Aが2つのHMD200から受信した作業情報に基づき撮像画像を表示する例を示す。表示領域DAに配置された表示領域409、410のうち、メニュー画像による操作の対象となる側の表示領域(ここでは表示領域409)にはメニュー画像413が表示される。このメニュー画像413の位置に合わせて指示体2を用いた操作が行われると、表示領域409に対応するHMD200に対し、操作位置とメニュー画像413等の位置とを含む指示情報が送信される。また、表示領域409に対する操作中、表示領域DAには、他のHMD200の作業情報に基づく表示が継続される。
また、本実施形態の表示システムが複数のHMD200を含む場合、いずれかのHMD200にプロジェクター100Aが送信する作業情報を、他のHMD200に送信してもよい。例えば、被援助サイトBの被援助者UBが装着するHMD200に対しプロジェクター100Aが送信する作業情報を、被援助サイトCの被援助者UCが装着するHMD200に送信してもよい。この場合、被援助者UBが装着するHMD200が、例えば図11(B)に示すように表示領域DBに表示する内容を、被援助者UCが装着するHMD200により表示できる。
この場合、被援助者UCの視野に作業対象物OBがあるとは限らない。このため、被援助者UCが装着するHMD200は、指示体画像やメニュー画像とともに、被援助者UBが装着するHMD200がカメラ261により撮像した作業対象物OBの撮像画像を表示してもよい。
また、この場合、被援助者UCが装着するHMD200は、プロジェクター100Aによる操作の対象とならなくてもよい。すなわち、被援助者UBが装着するHMD200は指示情報に基づき動作を実行し、被援助者UCが装着するHMD200は、指示情報に基づく表示を行うが指示情報による制御がされない構成としてもよい。この場合、被援助者UCが装着するHMD200は指示体2の操作に対応した動作を実行しなくてもよい。
或いは、被援助者UCが装着するHMD200が、被援助者UBが装着するHMD200と同様に、指示体2の操作に対応した動作を行ってもよい。この場合、援助者UAが、プロジェクター100Aを用いて、複数のHMD200を遠隔操作して、動作を実行させることができる。
また、HMD200の制御部300は、通信部277で受信した指示情報に含まれる操作を示す情報に基づき、HMD200に対する操作を検出する。より具体的には、制御部300は、画像表示部220によりGUI操作用の画像であるメニュー画像471を表示させる。指示検出部319は、メニュー画像471の表示位置と、通信部277が受信した指示情報に含まれる操作位置とに基づいて操作を検出する。このため、プロジェクター100Aで位置指示操作を行うことにより、HMD200に対するGUI操作を行い、HMD200を制御できる。
[第3実施形態]
図12は、第3実施形態における表示システム1の動作を示すフローチャートである。図12(A)はプロジェクター100Aの動作を示し、図12(B)はHMD200の動作を示す。
第3実施形態の表示システム1は、上記第1実施形態で説明した表示システム1と同様に構成されるため、表示システム1の各部の構成について図示及び説明を省略する。また、図12(A)、図12(B)のフローチャートにおいて第1実施形態で説明した動作(図7(A)、(B))と共通する動作については、同一のステップ番号を付す。
第3実施形態では、HMD200のカメラ261で撮像した撮像画像を含む作業情報がプロジェクター100Aに送信され、プロジェクター100Aで表示される点は第1実施形態と同様である。第3実施形態では、プロジェクター100Aの位置指示操作により、HMD200が撮像した撮像画像を編集し、編集した撮像画像をHMD200が受信して表示する。
図12(A)に示すプロジェクター100Aの動作において、ステップS11〜S15は上記第1実施形態で説明した通りである。第3実施形態の表示システム1では、ステップS14においてコンテンツに対応する操作が行われ、この操作を操作検出部35が検出した後、さらに、表示中の撮像画像に対する操作を行うことができる(ステップS51)。
操作検出部35は、撮像画像に対する操作を検出し(ステップS52)、ステップS15及びS52で検出した操作を撮像画像に対応付ける(ステップS53)。具体的には、操作検出部35は、ステップS15で検出した操作位置を、撮像画像に対する相対位置として示すデータを生成する。また、操作検出部35は、ステップS52で検出した操作により編集された撮像画像のデータを生成する。
続いて、送信画像取得部37が送信画像を取得し(ステップS54)、指示情報生成部38は、送信画像取得部37が取得した指示体の画像の画像データと、操作検出部35が生成したデータとを含む指示情報を生成して送信する(ステップS55)。送信画像取得部37が送信画像を取得する処理は、例えばステップS17と同様の処理である。
また、図12(B)に示すHMD200の動作は、上記第1実施形態で説明した通りである。すなわち、HMD200は、プロジェクター100Aが送信する指示情報を受信し(ステップS23)、受信した指示情報を受信情報解析部317が解析して画像データを抽出する(ステップS24)。このステップS24では、プロジェクター100Aにおいて編集された、HMD200の撮像画像データ、及び、指示体の画像データが抽出される。次いで、表示位置算出部321が画像を表示する位置を算出し(ステップS25)、表示情報生成部325が表示情報を生成して、画像処理部303及び表示制御部305により表示させる(ステップS26)。
この第3実施形態の表示システム1によれば、制御部30が、HMD200から受信した作業情報が撮像画像を含む場合に、この撮像画像を投射部20に表示させ、撮像画像の表示中に操作検出部35が検出する操作に基づいて撮像画像を編集する。そして、編集後の撮像画像を含む指示情報を生成してHMD200に送信する。HMD200は、編集された撮像画像を含む指示情報を受信して、編集された撮像画像を画像表示部220により表示する。
これにより、援助者UAが、被援助者UBの視野にある作業対象物OBに対応する操作や作業を仮想的に行い、この操作HMD200を装着する被援助者UBに対し、作業対象物OBに対する援助者UAの操作や作業を見せることができる。このため、作業対象物OBに対する作業に関して、援助者UAが被援助者UBに対し、より多くの情報を提供できる。
また、第3実施形態では、HMD200が撮像した撮像画像をプロジェクター100Aで編集する例を説明した。この他に、例えば、HMD200からプロジェクター100Aに文書データや図面データを送信し、この文書データや図面データをプロジェクター100Aで編集してもよい。この場合、編集後の文書データや図面データがHMD200に送信され、プロジェクターHMD200は、編集後の文書データや図面データに基づき表示を行う。これにより、文書の編集や図面作成・編集の作業に関して、援助者UAが編集を行って、被援助者UBに対し、いわゆる手本を見せることができる。
[第4実施形態]
図13は、本発明を適用した第4実施形態に係る表示システム1Aの構成を示す図である。
表示システム1Aは、援助サイトAのプロジェクター100Aと、被援助サイトBのHMD200とが通信ネットワーク4に接続される。さらに、表示システム1Aは、援助サイトA´で使用される複数のプロジェクター100Aを備える。援助サイトA´は、援助サイトAと同様に援助者UAまたは援助者UAと同様の立場のユーザーが使用するプロジェクターであり、上記第1〜第3実施形態で説明した例と同様に構成される。
表示システム1Aでは、援助サイトA及び援助サイトA´の複数のプロジェクター100Aが、いずれも、通信ネットワーク4を介してHMD200と通信可能である。
具体的には、複数のプロジェクター100AがHMD200と同時に通信を実行可能な構成としてもよい。或いは、プロジェクター100AがHMD200と通信する間はHMD200を占有し、時分割で複数のプロジェクター100Aが順にHMD200と通信する構成としてもよい。また、それぞれのプロジェクター100AとHMD200との通信を制御するサーバー装置(図示略)を通信ネットワーク4に接続してもよい。
表示システム1Aでは、複数のプロジェクター100Aが図7(A)の動作を実行し、HMD200が、複数のプロジェクター100Aに対して図7(B)に示した動作を実行する。
HMD200は、撮像制御部313によりカメラ261を制御して撮像を実行して撮像画像データを取得する(ステップS21)。HMD200は、作業情報生成部315により作業情報を生成し、作業情報のデータを通信制御部311によって、複数のプロジェクター100Aに送信する(ステップS22)。
複数のプロジェクター100Aのそれぞれは、HMD200から送信される作業情報を、通信制御部33により受信し、受信した作業情報を受信情報処理部34により解析する(ステップS11)。受信情報処理部34は、受信した作業情報から撮像画像のデータを抽出して、投射制御部32により、撮像画像を表示させる(ステップS12)。これにより、援助サイトA、A´において、各々のプロジェクター100Aが、HMD200の撮像画像を表示する。
プロジェクター100Aでは、援助者UAの操作によりコンテンツが選択され(ステップS13)、援助者UAが被援助者UBに指示等をするための操作が行われる(ステップS14)。
本実施形態の適用例として、HMD200を装着する被援助者UBが実行する作業について、複数の援助者UAが、指示あるいは支援を行う例が挙げられる。例えば、プロジェクター100Aを使用する複数の援助者UAと被援助者UBとが参加者として、ブレインストーミングを行い、被援助者UBが、書記としてホワイトボードや台紙への記入をする場合を挙げる。この場合、それぞれの援助者UAが、被援助者UBに対して、記入を行うアイデアの内容の伝達、記入する位置に関する指示を行う。
ステップS13では、例えば、テキストと画像を含む支援用のコンテンツが選択される。このコンテンツが含むテキストは、援助者UAが発する音声を制御部30が音声認識により生成したテキストである。また、このコンテンツが含む画像は、アイデアの記入位置や記入形態の指示に用いられる画像である。ステップS14では、例えば、アイデアの記入位置を指示する操作が行われる。ステップS14の操作は、リモコン受光部18または操作パネル19の操作、或いは、援助者UAがプロジェクター100Aの前方で指示体を動かす操作である。この操作は操作検出部35により検出され(ステップS15)、操作検出部35は検出した操作のデータを生成する。
操作検出部35は、検出した操作に基づいて、表示中の画像であるHMD200の撮像画像に対応付けるデータを生成する(ステップS16)。送信画像取得部37は、ステップS14の操作中に撮像部15が撮像した撮像画像から指示体の画像を切り出し、或いは、記憶部50から送信画像データ54を読み出して、送信画像を取得する(ステップS17)。
指示情報生成部38は、送信画像取得部37が取得した画像データと、コンテンツのデータと、操作の内容を示すデータと、操作位置をHMD200の撮像画像と対応付けるデータとを含む指示情報を生成して送信する(ステップS18)。
制御部30は、動作の終了条件が成立したか否かを判定し(ステップS19)、終了条件が成立していない場合は(ステップS19;NO)、ステップS11に戻る。また、終了条件が成立した場合は(ステップS19;YES)、本処理を終了する。終了条件は上述した通りである。
HMD200は、プロジェクター100Aが送信する指示情報を通信制御部311で受信し(ステップS23)、受信した指示情報を受信情報解析部317が解析して、画像データやテキストデータを抽出する(ステップS24)。抽出されたデータに基づき、表示位置算出部321が、画像やテキストを表示する位置を算出する(ステップS25)。さらに、表示情報生成部325が、算出した表示位置に画像やテキストを配置した表示情報を生成して、画像処理部303及び表示制御部305により表示させる(ステップS26)。
制御部300は、動作の終了条件が成立したか否かを判定し(ステップS27)、終了条件が成立していない場合は(ステップS27;NO)、ステップS22に戻る。ステップS23で、HMD200は、複数のプロジェクター100Aから指示情報を受信可能である。HMD200は、指示情報を受信するごとに、ステップS23〜S26の動作を実行する。このため、終了条件が成立していない場合(ステップS27;NO)に、制御部300は、ステップS23に戻って、他の指示情報の受信を待機してもよい。終了条件が成立した場合(ステップS27;YES)、制御部300は、本処理を終了する。
このように、表示システム1Aでは、複数の援助者UAがプロジェクター100Aを利用して、被援助者UBが装着するHMD200との通信を実行することにより、それぞれの援助者UAが被援助者UBに対して情報を送ることができる。
従って、援助サイトA、A´及び被援助サイトBを含む多地点における同時作業のような運用が可能となる。上記のブレインストーミングの例のように、援助サイトA、A´及び被援助サイトBを含む多地点間の遠隔地会議を実現できる。この例では、それぞれの援助者UAの指示により、被援助者UBが、会議を進行させ、連関図や系統図を並び替えて作成する作業を行うことができる。
[第5実施形態]
図14は、第5実施形態における表示システム1Bの概略構成を示す図である。
この図14に示す表示システム1Bは、援助サイトAだけでなく、被援助サイトB、Cにおいてもプロジェクターを使用する。被援助サイトB、Cに設置されるプロジェクターは、被援助者UB、UC用のプロジェクター100Bであり、基本的な構成はプロジェクター100Aと共通である。以下では、プロジェクター100A、100Bを区別する必要のない場合、プロジェクター100と記載する。
プロジェクター100Bは、通信ネットワーク4に接続され、通信ネットワーク4を介してプロジェクター100Aと相互にデータ通信可能である。プロジェクター100Bは、例えばHMD200と同様に、無線アクセスポイントを介して通信ネットワーク4に接続されてもよい。
表示システム1Bは、作業を行う被援助者UBがプロジェクター100Bを使用し、被援助者UBに対して指示や管理を行う援助者UAがプロジェクター100Aを使用する。援助者UAと被援助者UBの間で指示や管理のための情報を送受信することにより、援助者UAが被援助者UBに対して、作業の手順や内容に関する情報の提供、作業の支援を可能とする。
援助者UAはプロジェクター100Aの操作者であり、被援助者UBはプロジェクター100Bの操作者に相当する。
図14に示すように、表示システム1Bは、被援助サイトCの被援助者UCが使用するプロジェクター100Bを備え、複数のプロジェクター100Bを含む構成であってもよい。この場合、援助サイトAにいる援助者UAが、被援助サイトB、Cのそれぞれの被援助者UB、UCに対して情報を提供できる。また、被援助サイトBの被援助者UBのみがプロジェクター100Bを使用する構成とすることも勿論可能である。なお以下において、被援助者UBが使用するプロジェクター100Bについての説明は、被援助者UCが使用するプロジェクター100Bについても同様である。
プロジェクター100Bの設置状態は、図2に示したプロジェクター100Aの設置状態と共通の設置状態とすることができる。
プロジェクター100Bは、作業用のテーブルに固定され、テーブルの上面である作業台T(図2)に対して画像を投射(表示)する。プロジェクター100Bは作業台Tの表示領域に画像を表示する。プロジェクター100Bが画像を投射(表示)する表示領域は、プロジェクター100Aの表示領域DAと同様である。この領域を表示領域DBとする。
被援助サイトBにおいても、作業台Tは、人が立って作業を行う場合に作業場所として使用可能な高さに設定され、好ましくは平面であり、作業用の台座(図示略)等が設置されていてもよく、この作業台Tに作業対象物OBを置くことができる。被援助サイトBの被援助者UBは、それぞれ、図2に示すように作業台Tに手を載せて作業対象物OBに対する作業を行うことができる。そして、プロジェクター100Bは、作業台Tにの作業対象物OBに重なるように、画像光を投射して、画像を表示できる。被援助者UBは、それぞれ、プロジェクター100Bの表示画像を見ながら作業台Tで作業を行える。
プロジェクター100Bは、作業台Tを撮像する機能を有する。プロジェクター100Bが撮像する範囲は、表示領域DBの少なくとも一部を含み、この範囲を撮像範囲PBとする。プロジェクター100Bは、撮像範囲を示す撮像境界線BLを作業台Tに表示する。撮像境界線BLは、撮像範囲PBの外縁を示す境界線であり、人が視認可能な表示色で表示される。撮像境界線BL及び撮像範囲PBの態様は、図2の撮像境界線BL及び撮像範囲PAと同様である。
プロジェクター100Bの撮像機能により、撮像範囲PBで被援助者UBが行う作業の様子を撮像できる。表示システム1Bは、プロジェクター100Bが被援助者UBの作業の様子を撮像し、撮像画像を含む作業情報をプロジェクター100Aに送信する機能を有する。プロジェクター100Aは、作業情報を受信して、プロジェクター100Bの撮像画像を含む画像を表示する。
援助者UAは、上記第1〜第4実施形態と同様に、プロジェクター100Aを操作し、説明用のコンテンツの選択、指示体(例えば、腕、手または指)を動かす動作等を行う。これにより、プロジェクター100Aからプロジェクター100Bに、選択されたコンテンツ及び指示体の動きを示すデータを含む指示情報(案内情報)が送信される。ここで、援助者UAは、プロジェクター100Aが表示する被援助者UBの作業を示す画像を見ながら、操作を行う。プロジェクター100Bは、プロジェクター100Aが送信する指示情報を受信して、指示情報に基づく画像を作業台Tに表示する。これにより、プロジェクター100Aが撮像する援助者UAの操作や指示コンテンツに含まれる画像を、プロジェクター100Bが表示して被援助者UBに見せることができ、被援助者UBの作業に関する指示や助言を行える。また、被援助者UBは、コンテンツの画像や指示体の動きを見ながら作業を行うことができる。
図15は、プロジェクター100Bの構成を示す機能ブロック図である。
プロジェクター100Bの構成は、制御部60が実行するプログラム及び当該プログラムにより実現される機能、記憶部80が記憶するデータ等を除き、基本的にプロジェクター100Aと共通である。従って、プロジェクター100Aと共通する構成については、説明を省略する。具体的には、インターフェイス部11、画像インターフェイス部12、通信部13、音声入出力部14、撮像部15、操作取得部17、リモコン受光部18、及び操作パネル19の構成は共通とすることができる。また、投射部20、光源部21、光変調装置22、投射光学系23、画像処理部40、フレームメモリー44、光源駆動部45、及び音声処理部49の構成も共通とすることができる。
制御部60は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部60は、上記ROMまたは記憶部80が記憶するコンピュータープログラムを読み出して実行することにより、プロジェクター100Bの各部を制御する。
制御部60は、上記プログラムを実行し、オペレーティングシステム(OS)31、投射制御部62、及び通信制御部63として機能する。また、制御部60は、上記プログラムを実行し、受信情報処理部34、操作検出部35、操作時表示制御部36、送信画像取得部37、指示情報生成部38、及び、音声処理部49として機能する。
記憶部80は、記憶部50と同様の不揮発性の記憶装置であって、種々のコンピュータープログラム、および、これらのプログラムに係るデータを記憶する。記憶部80は、制御部60が実行するオペレーティングシステムを含む各種のプログラム、および、制御部60が処理するデータを不揮発的に記憶する。記憶部80は、設定データ81を記憶する。設定データ81は、制御部60が使用する各種の設定値を含む。設定データ81が含む設定値は、予め操作取得部17が検出する操作で入力された値であってもよいし、通信部13またはインターフェイス部11を介して外部の装置(図示略)から設定値を受信して記憶してもよい。
記憶部80は、検出用データ82、及び、メニュー画像データ83を記憶する。
検出用データ82は、画像データから作業対象物OBの画像を検出するために利用されるデータである。作業対象物OBは、プロジェクター100Bを使用する被援助者UBが行う作業の対象であり、作業時に作業台Tに配置されると考えることができる。
検出用データ82は、例えば、画像データから作業対象物OBの画像を抽出する処理に用いるデータを含み、より具体的には、作業対象物OBの画像の特徴量のデータを含む。特徴量は、色の特徴量であっても形状の特徴量であってもよく、処理対象の画像データの色数や解像度に対応して、複数の特徴量を含んでもよい。表示システム1Bでは、被援助者UBが作業対象とする作業対象物OBが事前に判明している場合に、この作業対象物OBに関する検出用データ82が、記憶部80に記憶される。
メニュー画像データ83は、投射部20によりメニュー画像を表示するための画像のデータである。メニュー画像は、例えば、操作用のアイコンが列をなして配置されたメニューバー、或いは、アイコンが円形の枠内に配置されたダイヤル型のメニュー等である。
記憶部80が記憶する検出用データ82は、記憶部50(図3)が記憶する設定データ51と同一であってもよいし、設定データ51とは異なるデータであってもよい。また、メニュー画像データ85は、記憶部50が記憶するメニュー画像データ53と同一であってもよいし、異なるデータであってもよい。
画像処理部40は、制御部60の制御に従って画像データを処理し、光変調装置駆動部46に画像信号を出力する。画像処理部40が実行する処理は、3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部40は、制御部60により指定された処理を実行し、必要に応じて、制御部60から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
投射制御部62は、操作取得部17により検出した操作、及び、制御部60が実行するプログラムに応じて、画像処理部40、光源駆動部45、及び光変調装置駆動部46を制御して、投射部20により画像を投射(表示)する。ここで、投射制御部62は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させてもよい。また、投射制御部62は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御してもよい。
通信制御部63は、通信部13を制御して、プロジェクター100Aとの間の通信を制御する。通信制御部63は、プロジェクター100Aから作業情報を受信し、受信した指示情報を受信情報解析部66に出力する。また、通信制御部63は、作業情報生成部65が生成する作業情報を、プロジェクター100Aに送信する。
撮像制御部64は、撮像部15を制御して撮像を実行させ、撮像画像データを取得する。
作業情報生成部65は、プロジェクター100Aに送信する作業情報を生成する。作業情報生成部65は、撮像部15の撮像画像データを取得する。また、作業情報生成部65は、操作取得部17により検出される操作の内容を示すデータを取得してもよく、この場合、撮像部15の撮像画像データ、及び、操作内容のデータを含む作業情報を生成する。作業情報生成部65は、撮像部15の撮像画像データそのものに限らず、撮像画像データをもとに生成する画像データを含む作業情報を生成してもよい。
受信情報解析部66は、通信制御部63が受信するデータを解析する。本実施形態では、受信情報解析部66は、通信制御部63がプロジェクター100Aから受信する指示情報に含まれる指示体の画像データ、コンテンツの画像データ、音声データ、及び、その他の等を抽出する。また、受信情報解析部66は、通信制御部63が受信した指示情報から、指示体の位置や動きを示すデータを抽出する。
指示検出部67は、受信情報解析部66が抽出したデータから、指示体による操作を行うことを示すデータを検出する。例えば、援助者UAはプロジェクター100Aを操作して、指示体による位置指示操作を行い、この位置指示操作によってプロジェクター100Bを制御することが可能である。この場合、プロジェクター100Aが送信する指示情報に含まれる位置指示操作に関するデータを、プロジェクター100Bが、GUIの操作として検出する。プロジェクター100Aが送信する指示情報には、援助者UAの操作をGUIの操作として検出するか否かを指定するデータが含まれ、このデータを指示検出部67が検出する。
表示位置算出部68は、受信情報解析部66が抽出した画像データに基づき画像を表示する位置を算出する。受信情報解析部66が抽出する画像データは、指示体の画像データ、コンテンツの画像データ、及びその他の画像データである。これらのデータに基づき、表示位置算出部68は、指示体の画像の表示位置、コンテンツの画像データの表示位置、及び、その他の画像の表示位置を算出する。また、表示位置算出部68は、各画像の表示サイズを算出してもよい。また、指示検出部67が、援助者UAの操作をGUIの操作とすることを指示するデータを検出した場合、表示位置算出部68は、GUI操作を行うためのメニュー画像の表示位置を算出する。投射制御部62は、表示位置算出部68が算出した表示位置に基づいて、画像処理部40により画像データの処理を実行させ、投射部20で画像を表示する。
操作検出部69は、受信情報解析部66が抽出した指示体の位置や動きを示すデータをGUIの操作として検出する場合に、操作を検出する。操作検出部69は、表示位置算出部68が算出したメニュー画像のアイコン等の表示位置と、指示体の画像の表示位置とに基づき、GUIの操作を検出する。
表示情報生成部70は、投射部20により表示する画面の表示情報を生成する。表示情報生成部70は、受信情報解析部66が抽出する画像データに基づく画像を、表示位置算出部68が算出した表示位置に配置して、一画面分の表示情報を生成する。表示情報生成部70が生成する表示情報は、投射制御部62の制御により投射部20に送信され、投射部20が表示する。
このように構成される表示システム1Bにおいて、プロジェクター100Bは第1表示装置に相当し、プロジェクター100Aは第2表示装置に相当する。
プロジェクター100Bが備える通信部13は第1通信部に相当し、撮像部15は第1撮像部に相当し、投射部20は第1表示部に相当し、表示領域DBは第1表示領域に相当し、制御部60は第1制御部に相当する。また、記憶部80は第1記憶部ということができる。
表示システム1Bにおけるプロジェクター100A、100Bの動作は、図7を参照して説明した動作と同様である。
すなわち、表示システム1Bのプロジェクター100Aは図7(A)の動作を実行できる。また、プロジェクター100Bは、図7(B)の動作を実行する。
プロジェクター100Bでは、撮像制御部64が撮像部15を制御して撮像を実行して撮像画像データを取得する(ステップS21)。
作業情報生成部65は、ステップS21の撮像画像データを含む作業情報を生成し、このデータを通信制御部63がプロジェクター100Aに送信する(ステップS22)。ステップS22で、作業情報生成部65は、操作取得部17により検出した操作に関するデータを作業情報に含めてもよい。
プロジェクター100Aは、プロジェクター100Bから送信された作業情報を、通信制御部33が受信し、受信した作業情報を受信情報処理部34が解析する(ステップS11)。受信情報処理部34は、受信した作業情報から撮像画像のデータを抽出して、投射制御部32により、撮像画像を表示させる(ステップS12)。
プロジェクター100Aでは、援助者UAの操作によりコンテンツが選択され(ステップS13)、援助者UAが被援助者UBに指示等をするための操作が行われる(ステップS14)。ステップS14の操作は、リモコン受光部18または操作パネル19の操作、或いは、援助者UAがプロジェクター100Aの前方で指示体を動かす操作である。この操作は操作検出部35により検出され(ステップS15)、操作検出部35は検出した操作のデータを生成する。
操作検出部35は、検出した操作の操作位置や操作の軌跡を、表示中のプロジェクター100Bの撮像画像に対応付けるデータを生成する(ステップS16)。送信画像取得部37は、ステップS14の操作中に撮像部15が撮像した撮像画像から指示体の画像を切り出し、或いは、記憶部50から送信画像データ54を読み出して、送信画像を取得する(ステップS17)。
指示情報生成部38は、指示情報を生成して送信する(ステップS18)。ここで、指示情報は、例えば、送信画像取得部37が取得した指示体の画像の画像データと、操作位置や操作の軌跡を示すデータと、操作位置や操作の軌跡をプロジェクター100Bの撮像画像と対応付けるデータとを含む。
制御部30は、動作の終了条件が成立したか否かを判定し(ステップS19)、終了条件が成立していない場合は(ステップS19;NO)、ステップS11に戻る。また、終了条件が成立した場合は(ステップS19;YES)、本処理を終了する。終了条件は上述した通りである。
プロジェクター100Bは、プロジェクター100Aが送信する指示情報を通信制御部63で受信し(ステップS23)、受信した指示情報を受信情報解析部66が解析して画像データを抽出する(ステップS24)。次いで、表示位置算出部68が各画像データに基づいて画像を表示する位置を算出する(ステップS25)。さらに、表示情報生成部70が、算出した表示位置に画像を配置した表示情報を生成して、投射制御部62により表示させる(ステップS26)。
制御部60は、動作の終了条件が成立したか否かを判定し(ステップS27)、終了条件が成立していない場合は(ステップS27;NO)、ステップS22に戻る。また、終了条件が成立した場合は(ステップS27;YES)、本処理を終了する。終了条件は、例えばリモコン受光部18または操作パネル19の操作により、動作終了やプロジェクター100Bのシャットダウンが指示されること等が挙げられる。
図16は、表示システム1Bにおける表示例を示す図であり、(A)はプロジェクター100Aの表示例を示し、(B)はプロジェクター100Bの表示例を示す。また、(C)はプロジェクター100Aの別の表示例を示す。
上述したように、プロジェクター100Aの指示情報生成部38が生成する指示情報において、操作と作業情報とを関連付ける情報、或いは、作業情報に含まれる撮像画像に対応付ける情報の具体的な態様は、特に制限されない。上記の例では、操作位置や操作の軌跡をプロジェクター100Bの撮像画像と対応付けるデータとして説明したが、単に操作位置や操作の軌跡そのものを上記情報としてもよい。また、ファイル名による対応付け、データのタイプ、ID、属性、位置等により、操作位置や操作の軌跡をプロジェクター100Bの撮像画像と対応付けるデータであってもよく、結果として対応を認識できる情報であればよい。
図16(A)に示すように、プロジェクター100Aは、作業台Tの表示領域DAに画像を表示する。この表示状態は、例えば、図8(A)に図示した状態と同様である。
また、図16(B)に示すように、被援助サイトBの作業台Tにおいては、表示領域DBに、指示画像421が表示される。作業台Tには実空間の物体である作業対象物OBが置かれており、作業対象物OBに重なるように、指示位置405を示すマーク、及び、指示体画像422が表示される。指示体画像422は、指示位置405を、援助者UAが指示体2で指し示した場合と同じ向きで表示される画像であり、図16(B)の例ではプロジェクター100Aが撮像部15で撮像した撮像画像を利用している。なお、指示体画像422の種類や表示態様については、第1実施形態と同様とすることができる。
プロジェクター100Bは作業台Tに固定されて表示領域DBに画像を投射するが、被援助者UBの位置は、図2のようにプロジェクター100A、100Bに対向する位置に限定されない。援助者UA及び被援助者UBは、それぞれ、作業台Tに対して任意の方向から手等を伸ばして作業を行えるので、援助者UAと被援助者UBが表示領域DA、DBを同じ方向から見るとは限らない。
このため、援助者UAが行った操作や指示についてプロジェクター100Bで表示する場合、援助者UAが操作や指示を行ったときの援助者UAの位置や視点、或いは視線方向を反映するように、表示することが好ましい。図16(B)の例では、指示位置405を示す画像や記号(マーク)を表示するだけでなく、指示位置405を指し示したときの援助者UAの身体の向きを、被援助者UBが把握できる方が、より正確な指示或いは案内を行える。このため、プロジェクター100Aは、操作を行う援助者UAの視点または視線方向を示す画像(例えば、図16(B)の指示体画像422)を表示するためのデータを指示情報に含めて送信する。また、プロジェクター100Bは、指示情報に基づき、操作を行う援助者UAの視点または視線方向を示す画像を表示する。
このように、表示システム1Bでは、プロジェクター100Aが、プロジェクター100Bの撮像画像を含む援助者用画面402を表示するので、援助者UAは、被援助者UBの作業環境を見ながら作業に関する指示等を行うことができる。また、援助者UAが指示体2で指示した指示位置、及び、指示を行ったときの援助者UAの視点または視線方向を示すデータを含む指示情報がプロジェクター100Bに送信される。このため、プロジェクター100Bは、援助者UAの指示あるいは操作の位置、内容、様子を見ることができ、この場合の援助者UAの視点または視線方向を知ることができる。
さらに、プロジェクター100Bは、実空間の物体である作業対象物OBの位置に対応する位置に、指示位置405を示すマークと指示体画像422とを表示する。この表示位置は、表示位置算出部68が作業対象物OBの位置を特定し、この特定した作業対象物OBの位置に対応して決定する位置である。従って、作業対象物OBに重なって、或いは作業対象物OBに対応する位置に、情報をAR表示できる。ここで、指示体画像422を表示するための画像データをプロジェクター100Bの記憶部80に記憶しておき、プロジェクター100Aがプロジェクター100Bに送信する指示情報に、プロジェクター100Bが記憶する画像を指定するデータを含めても良い。
また、表示システム1Bが備える複数のプロジェクター100Bがプロジェクター100Aと通信を実行することにより、プロジェクター100Aは、複数のプロジェクター100Bから作業情報を受信して表示できる。この場合の表示例を図16(C)に示す。
図16(C)の表示例は、上記第1実施形態で、図8(C)を参照して説明した通りである。すなわち、図16(C)に示すように、表示領域DAには2つの表示領域409、410が配置され、表示領域409には一方のプロジェクター100Bが送信した作業情報に基づく画像が表示される。また、表示領域410には他方のプロジェクター100Bが送信した作業情報に基づく画像が表示される。これら表示領域409、410に表示された画像に対し、指示体2による指示が行われた場合、プロジェクター100Aは、指示された位置に対応する作業情報を送信したプロジェクター100Bに対して、指示情報を生成して送信する。
また、複数のプロジェクター100Bのうち、いずれかのプロジェクター100Bにプロジェクター100Aが送信する指示情報を、他のプロジェクター100Bに送信してもよい。この場合、いずれかのプロジェクター100Bが、図7(B)の動作により送信する作業情報に対応して、プロジェクター100Aが指示情報を生成すると、この指示情報が他のプロジェクター100Bにも送信される。この例では、いずれかの被援助者UBに対して送信した指示情報の内容を、他の被援助者UBが知ることができる。
以上説明したように、第5実施形態に係る表示システム1Bは、プロジェクター100B及びプロジェクター100Aを備える。プロジェクター100Bは、表示領域DBに画像を表示する投射部20と、撮像部15と、プロジェクター100Aと通信を実行する通信部13とを備える。プロジェクター100Bは、制御部60の制御により、撮像部15の撮像範囲を示す撮像境界線BLを投射部20により表示し、通信部13によりプロジェクター100Aから指示情報を受信し、指示情報に基づく画像を投射部20により表示する。プロジェクター100Aは、表示領域DAに画像を表示する投射部20と、プロジェクター100Bと通信を実行する通信部13と、操作を検出する操作検出部35とを備える。プロジェクター100Aは、制御部30の制御により、操作検出部35が検出する操作を示す情報を含む指示情報を生成して、通信部13で送信する。プロジェクター100Bは、制御部60により、プロジェクター100Aから受信する指示情報に基づいて、プロジェクター100Aの操作検出部35が検出した操作に対応する画像を表示する。さらに、プロジェクター100Bは、操作を行う援助者UAの視点または視線方向を示す画像を投射部20により表示する。
このように構成される表示システム1B、プロジェクター100B、及び、表示システム1を利用した情報表示方法を実行することにより、次の作用効果が得られる。すなわち、プロジェクター100Bによって、プロジェクター100Aにおいて行われる操作に関する画像を表示し、被援助者UBに対し、プロジェクター100Aを操作することで情報を提供できる。また、プロジェクター100Bが表示する画像や情報の適正な向きを案内することができるので、被援助者UBが画像や情報の向きを誤解することなく、適切に情報を提供できる。
表示システム1Aは、表示システム1と同様の効果を奏するものである。また、表示システム1Bは、HMD200をプロジェクター100Bに置き換えることによる差異を除き、表示システム1と同様の各種の効果を奏する。
表示システム1Aの適用例については、表示システム1の適用例と同様に様々な具体例が挙げられる。表示システム1Bの適用例についても同様である。
表示システム1Bは、例えば、被援助者UBが機器を操作する作業を行う場合に、機器の操作を説明し、案内するなど、遠隔地から援助者UAが機器の操作に関する情報を提供して、作業を支援する目的で使用できる。具体例としては、上述のように、パーソナルコンピューターを作業対象物とするセットアップやアプリケーションプログラムの操作、工作機械、工業機械、家庭用各種電子機器などの機械を作業対象物とする操作やメンテナンスが挙げられる。
これらの例において、作業対象の作業対象物OBとして、工作機械、工業機械、家庭用各種電子機器などの機械、パーソナルコンピューター等を、作業台Tに設置することができる。また、これらの機器やパーソナルコンピューター等が設置された位置を、作業台Tを見なすこともできる。この場合、プロジェクター100Bを、作業対象である工作機械、工業機械、家庭用各種電子機器などの機械、パーソナルコンピューター等の設置場所が表示領域DBに含まれるように配置すればよい。例えば、プロジェクター100Bを、移動可能な台座に設置して、作業対象の設置位置に合わせて移動すればよい。また、プロジェクター100Bを任意の位置に固定可能なステーを用いてもよい。
このような場合、遠隔地の被援助サイトBにいる被援助者UBとサービスセンター等の援助サイトAにいる援助者UAが情報を共有し、援助サイトAの援助者UAは被援助者UBのプロジェクター100BにAR画像を表示させて、指示、表示の変更ができる。そして、プロジェクター100Bにより、援助サイトAにいる援助者UAの手や手指による操作をバーチャル画像として見せて、支援できる。この場合、援助サイトAにおいて援助者UAの前に被援助サイトBの作業対象物と同じ機器を置いて実際に操作しながら説明することも有効である。援助者UAにとっては、現場の現物の特定部位に対して位置指示操作により指示や教示を行うことができ、シンプルな操作で効率よく支援できる。
他の適用例として、プロジェクター100Aから送信する指示情報に、名刺の画像データやテキストを含めることで、被援助者UBに名刺を見せて、バーチャルな名刺交換を実現できる。
さらに、プロジェクター100Aがコンテンツのデータを指示情報に含めてプロジェクター100Bに送信することで、プロジェクター100Bの投射部20に、テキストや画像を含むコンテンツを表示させることができる。この場合、コンテンツのテキストや画像の表示位置は、表示領域DBに位置する現実の作業対象物の位置に合わせて、作業対象物の視認を妨げない位置とすることが好ましい。
さらに、指示体の画像として、援助者UA役のアバターや援助者UAの実際の顔、上半身、或いは全身の画像を利用することで、作業員の代わりにコンシューマーを対象としたサービスを実現することも可能である。この場合、援助者UAはコールセンターのスタッフ、家庭教師や塾の講師スタッフ等となる。このシステムの用途は、電子機器のソフトウェアのインストールや操作の案内またはトレーニング、語学教育、資格試験等の受験指導、運手免許等の公的資格のための講習、スポーツの指導等も挙げられる。また、例えば、外国語会話の講習では、視覚的に発音を教授することができる。この場合、受講者がプロジェクター100Bを使用して、壁等に設置されたスクリーンに画像を投射する構成とすることが好ましい。この場合、講師がプロジェクター100Aを使用し、プロジェクター100Bが、講師の口の形をスクリーンに表示する。また、スクリーンに、プロジェクター100Bが撮像する受講者としての被援助者UBの顔を重ねて表示できれば、より効果的である。例えば、プロジェクター100Bをスクリーンの背面に配置する背面投射型の構成において、スクリーンの前面が反射面となった構成では、プロジェクター100Bが表示する口の画像と反射面に反射する受講者の口の像とが重なるようにAR表示できる。
また、学習やスポーツの指導を行う場合に、指導する側が援助サイトAにおいてプロジェクター100Aを使用し、指導を受ける側が被援助サイトBにおいてプロジェクター100Bを使用する例も挙げられる。この態様では、プロジェクター100A、100Bが画像を投射する表示領域DA、DBを、例えば人が動き回ることが可能な程度に大きな面積とし、床面を表示領域DA、DBとすると、より効果的である。この場合、例えばプロジェクター100A、100Bは、床面より上方に設置され、好ましくは援助者UAまたは被援助者UBよりも上方に設置されて、下向きに画像を投射し、撮像を行う構成にできる。具体的には、プロジェクター100A、100Bを天井から吊り下げ設置すればよい。
また、プロジェクター100Bからプロジェクター100Aに送信する作業情報は、案内対象情報、或いは実行側情報と呼ぶことができ、指示情報は、案内情報、指導情報、或いは、管理情報と呼ぶことができる。
指導の具体例としては、数学、英語、国語、社会科、文字の書き順等の学習課目について、指導を行う者がプロジェクター100Aを使用し、指導を受ける者が、プロジェクター100Bに表示される内容により教授、指導を受ける態様が考えられる。パーソナルコンピューター等の機器の操作方法をガイドする目的で使用する場合も同様である。
また、プロジェクター100A、100Bにおいて、特定の情報を、ポップアップ、ブリンキング、蛍光色で表示する等して、目立つように表示してもよい。また、表示される画像の表示色や表示輝度を、作業台Tにおける作業対象物OBの視認性が高まるように変更してもよい。この場合、投射部20が投射する画像光の輝度を低下させる、画像光の色調や彩度を低くする等の手法が挙げられる。この場合、外景に対する表示画像の視認性が相対的に低下するので、この表示画像に含まれる文字や画像を補助的に見せる効果がある。
表示システム1Bでは、プロジェクター100Bを使用する被援助者UBの作業内容等を、遠隔地のプロジェクター100Aで見ることができ、被援助者UBは、援助者UAがプロジェクター100Aの撮像範囲PAで行う位置指示操作の内容を見ることができる。プロジェクター100Bは、位置指示操作の内容を、例えば指示体画像422として、AR表示する。すなわち、プロジェクター100Bでは、作業対象物OBに重なるように、指示体画像422が表示され、この指示体画像422と作業対象物OBとの位置により、ARとしての表示効果が期待できる。
プロジェクター100Bは、AR表示の効果を高めるため、指示体画像422等を表示する際に、立体画像を表示してもよい。この場合、制御部60は、作業対象物OBの種類や作業内容に対応して、左眼用の画像と右眼用の画像との視差の方向及び大きさを決定する。制御部60の表示情報生成部70は、指示情報に基づいて視差を有する画像を生成して、投射制御部62により表示させる。また、制御部60は、距離センサー(図示略)を備え、作業対象物OBまでの距離を検出してもよい。この場合、制御部60は、検出した作業対象物OBまでの距離に基づき、AR表示する指示体の画像の視差の方向及び大きさを算出してもよい。例えば、予め設定された距離条件に基づき、視差を設けてもよい。この場合、被援助者UBが作業を行う作業台Tにおいて、画像が立体的に表示される。また、プロジェクター100Aが立体画像を表示して、援助者UAが立体的に画像を視認できるようにしてもよい。
また、表示システム1Bでは、被援助サイトCにおいて、被援助サイトBの被援助者UBの作業操作を、遠隔地からAR画像として見ることができる。これにより、作業手順等の作業支援の内容を共有できる。
また、プロジェクター100Aにより2以上の表示領域に、プロジェクター100Aの表示とプロジェクター100Bの撮像画像、或いは、2以上のプロジェクター100Bの作業情報に基づく画像を表示すれば、援助者UAが多くの状況を視認できる。ここで、図16(C)に示すように、2以上の表示領域に2以上のプロジェクター100Bに対応する画像を表示する場合、各表示領域におけるポインター等の形状、色を変えることで、各表示領域の混同を防止する構成も考えられる。その他、表示システム1Bの適用範囲は制限されず、他の用途への利用も勿論可能である。
なお、本発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、プロジェクター100A、100Bは、投射部20を備える本体に撮像部15を設け、投射部20の投射方向を撮像する構成として説明した。本発明はこれに限定されるものではなく、少なくとも表示領域DA、DBの一部を含む範囲を撮像部15で撮像する構成であればよい。例えば、撮像部15を、投射部20とは別体として構成される撮像装置とし、この撮像装置の撮像画像データを、プロジェクター100Aの制御部30またはプロジェクター100Bの制御部60が取得可能な構成とすればよい。また、撮像部15を、投射部20を含むプロジェクター100A、100Bの本体から突出した構成としてもよい。
また、上記実施形態では、プロジェクター100A、100Bが備える光変調装置22として、RGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明した。しかしながら、本発明はこれに限定されるものではなく、例えば、反射型の液晶パネルを用いてもよい。また、例えば、1枚の液晶パネルとカラーホイールを組み合わせた方式により構成してもよい。また、RGB各色の色光を変調する3枚のデジタルミラーデバイス(DMD)を用いた方式により構成してもよい。また、1枚のデジタルミラーデバイスとカラーホイールを組み合わせた方式等により構成してもよい。ここで、表示部として1枚のみの液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な構成であれば問題なく採用できる。
また、本発明の表示装置は、HMD、或いは画像を投射するプロジェクターに限定されない。例えば、液晶表示パネルに画像を表示する液晶モニター又は液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に画像を表示するモニター装置又はテレビ受像機であってもよい。また、OLED(Organic light-emitting diode)、OEL(Organic Electro-Luminescence)等と呼ばれる有機EL表示パネルに画像を表示するモニター装置又はテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の表示装置に含まれる。
また、HMD200についても上記各実施形態の構成に限定されない。例えば、画像表示部220に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。
さらに、上記各実施形態では、HMD200は、画像表示部220と制御装置210とが分離され、接続部240を介して接続された構成として説明した。本発明はこれに限定されず、制御装置210と画像表示部220とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、HMD200は、少なくとも、表示を行う画像表示部220が、使用者(被援助者、指令者)の頭部に装着される装置であればよく、制御装置210の装着状態は限定されない。このため、制御装置210として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置210として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置210が画像表示部220と分離して構成され、制御装置210と画像表示部220との間で無線通信により各種信号を送受信する構成としてもよい。
また、例えば、画像表示部220において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。
また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有する構成としてもよい。
例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを光射出部として備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板286及び左導光板296のように、複数回の反射を経て光を導く部品であってもよく、ハーフミラー面を利用してもよい。
さらに、本発明の光学素子は、ハーフミラー286A、296Aを有する右導光板286、左導光板296に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
ここで、本発明の表示装置を、プロジェクター100A、100B及びHMD200とは異なる表示装置で構成した例を、第6実施形態として説明する。
[第6実施形態]
第6実施形態の表示システムは、表示システム1、1Aにおけるプロジェクター100A、HMD200、或いは、表示システム1Bにおけるプロジェクター100Bの少なくともいずれかを、タブレット型コンピューター600に置き換えた構成を有する。本第6実施形態では、上記第5実施形態の表示システム1Bにおいて第1表示装置に相当するプロジェクター100Bを、タブレット型コンピューター600に代えた構成について説明する。
図17は、タブレット型コンピューター600の構成例及び使用状態を示す図である。
図17に示すように、タブレット型コンピューター600は、薄型の板形状の筐体602を有し、筐体602の前面には表示パネル617が配置される。
タブレット型コンピューター600は、装着治具601により被援助者UBの身体に保持され、好ましくは固定される。
図17に示す構成例では、被援助者UBは、タブレット型コンピューター600を装着治具601により装着した状態で、作業台Tに置かれた作業対象物OBを、上方から視認できる。被援助者UBは、表示パネル617に表示される画面を見ながら、作業対象物OBに対する作業を行える。
図18は、タブレット型コンピューター600の機能ブロック図である。
タブレット型コンピューター600は、有線または無線により、外部の装置に接続されるI/F部611を備える。インターフェイス部611には、PC、ビデオ再生装置、DVD再生装置等の外部の画像供給装置(図示略)を接続可能である。
タブレット型コンピューター600は、第2表示部として機能する表示パネル617を備える。表示パネル617は、例えば液晶表示パネルで構成され、制御部630の制御に従って画像を表示する。
操作取得部612は、表示パネル617に重ねて配設されるタッチパネル616へのタッチ操作を検出し、操作位置を示す操作データを制御部630に出力する。
撮像部615は、撮像光学系、CCDやCMOS等の撮像素子、インターフェイス回路等を有し、撮像を実行し、撮像画像データを制御部630に出力する。
通信部613は、通信部13に対応する。通信部613は、無線LAN(WiFiを含む)、Miracast、Bluetooth等の規格に準じた無線データ通信を実行し、通信ネットワーク4に接続する。タブレット型コンピューター600は、通信部613によって、通信ネットワーク4を経由する通信を実行し、例えばプロジェクター100Aとの間でデータを送受信する。また、タブレット型コンピューター600は、通信部613によって外部の機器に接続して、外部の機器からコンテンツデータ等を取得してもよい。
制御部630には、音声入出力部614が接続される。音声入出力部614は音声を集音するマイク(図示略)、及び、音声を出力するスピーカー(図示略)を備える。音声入出力部614は、制御部630から入力される音声信号に基づきスピーカーを駆動して音声を出力し、マイクで集音した音声の音声信号を制御部630に出力する。また、音声入出力部614は、アナログ音声信号とディジタル音声データとを変換するA/Dコンバーター及びD/Aコンバーター(図示略)を備えてもよい。この場合、音声入出力部614は、制御部630から入力されるディジタル音声データに基づき音声を出力し、マイクで集音した音声のディジタル音声データを制御部630に出力する。
記憶部650は、制御部630が実行するオペレーティングシステムを含む各種のプログラム、および、制御部630が処理するデータを不揮発的に記憶する。記憶部650は、設定データ651を記憶する。設定データ651は、設定データ81(図15)に相当するデータであって、制御部630が使用する各種の設定値を含む。設定データ651が含む設定値は、予め操作取得部612が検出する操作で入力された値であってもよいし、通信部613またはインターフェイス部611を介して外部の装置(図示略)から設定値を受信して記憶してもよい。
また、記憶部650は、検出用データ652、及び、メニュー画像データ653を記憶する。
検出用データ652は、検出用データ82(図15)に相当するデータである。画像データから作業対象物OBの画像を検出するために利用されるデータである。作業対象物OBは、タブレット型コンピューター600を使用する被援助者UBが行う作業の対象であり、作業時に作業台Tに配置されると考えることができる。
検出用データ652は、例えば、画像データから作業対象物OBの画像を抽出する処理に用いるデータを含み、より具体的には、作業対象物OBの画像の特徴量のデータを含む。特徴量は、色の特徴量であっても形状の特徴量であってもよく、処理対象の画像データの色数や解像度に対応して、複数の特徴量を含んでもよい。タブレット型コンピューター600を含む表示システムでは、被援助者UBが作業対象とする作業対象物OBが事前に判明している場合に、この作業対象物OBに関する検出用データ652が、記憶部650に記憶される。
メニュー画像データ653は、メニュー画像データ83(図15)に相当するデータであり、表示パネル617によりメニュー画像を表示するための画像のデータである。メニュー画像は、例えば、操作用のアイコンが列をなして配置されたメニューバー、或いは、アイコンが円形の枠内に配置されたダイヤル型のメニュー等である。
制御部630は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部630は、上記ROMまたは記憶部650が記憶するコンピュータープログラムを読み出して実行することにより、タブレット型コンピューター600の各部を制御する。
制御部630は、上記プログラムを実行し、オペレーティングシステム(OS)631、表示制御部632、及び通信制御部633として機能する。また、制御部630は、撮像制御部634、作業情報生成部635、受信情報解析部636、指示検出部637、表示位置算出部638、操作検出部639、表示情報生成部640、及び音声処理部649として機能する。
表示制御部632は、制御部630が実行するプログラムに応じて、表示パネル617に画像を表示させる。
通信制御部633は、通信制御部63(図15)に相当する機能部であり、通信部613を制御して、プロジェクター100Aとの間の通信を制御する。通信制御部633は、プロジェクター100Aから作業情報を受信し、受信した指示情報を受信情報解析部636に出力する。また、通信制御部633は、作業情報生成部635が生成する作業情報を、プロジェクター100Aに送信する。
撮像制御部634は、撮像制御部64(図15)に相当する機能部であり、撮像部615を制御して撮像を実行させ、撮像画像データを取得する。
作業情報生成部635は、作業情報生成部65(図15)に相当する機能部であり、プロジェクター100Aに送信する作業情報を生成する。作業情報生成部635は、撮像部615の撮像画像データを取得する。また、作業情報生成部635は、操作取得部612により検出される操作の内容を示すデータを取得してもよく、この場合、撮像部615の撮像画像データ、及び、操作内容のデータを含む作業情報を生成する。作業情報生成部635は、撮像部615の撮像画像データそのものに限らず、撮像画像データをもとに生成する画像データを含む作業情報を生成してもよい。
受信情報解析部636は、受信情報解析部66(図15)に相当する機能部であり、通信制御部633が受信するデータを解析する。本実施形態では、受信情報解析部636は、通信制御部633がプロジェクター100Aから受信する指示情報に含まれる指示体の画像データ、コンテンツの画像データ、音声データ、及び、その他の等を抽出する。また、受信情報解析部636は、通信制御部633が受信した指示情報から、指示体の位置や動きを示すデータを抽出する。
指示検出部637は、指示検出部67(図15)に相当する機能部であり、受信情報解析部636が抽出したデータから、指示体による操作を行うことを示すデータを検出する。例えば、援助者UAはプロジェクター100Aを操作して、指示体による位置指示操作を行い、この位置指示操作によってプロジェクター100Aを制御することが可能である。この場合、プロジェクター100Aが送信する指示情報に含まれる位置指示操作に関するデータを、タブレット型コンピューター600が、GUIの操作として検出する。プロジェクター100Aが送信する指示情報には、援助者UAの操作をGUIの操作として検出するか否かを指定するデータが含まれ、このデータを指示検出部637が検出する。
表示位置算出部638は、表示位置算出部68(図15)に相当する機能部であり、受信情報解析部636が抽出した画像データに基づき画像を表示する位置を算出する。受信情報解析部636が抽出する画像データは、指示体の画像データ、コンテンツの画像データ、及びその他の画像データである。これらのデータに基づき、表示位置算出部638は、指示体の画像の表示位置、コンテンツの画像データの表示位置、及び、その他の画像の表示位置を算出する。また、表示位置算出部638は、各画像の表示サイズを算出してもよい。また、指示検出部637が、援助者UAの操作をGUIの操作とすることを指示するデータを検出した場合、表示位置算出部638は、GUI操作を行うためのメニュー画像の表示位置を算出する。表示制御部632は、表示位置算出部638が算出した表示位置に基づいて、表示パネル617に画像を表示する。
操作検出部639は、操作検出部69(図15)に相当する機能部であり、受信情報解析部636が抽出した指示体の位置や動きを示すデータをGUIの操作として検出する場合に、操作を検出する。操作検出部639は、表示位置算出部638が算出したメニュー画像のアイコン等の表示位置と、指示体の画像の表示位置とに基づき、GUIの操作を検出する。
表示情報生成部640は、表示パネル617により表示する画面の表示情報を生成する。表示情報生成部640は、受信情報解析部636が抽出する画像データに基づく画像を、表示位置算出部638が算出した表示位置に配置して、一画面分の表示情報を生成する。表示情報生成部640が生成する表示情報は、表示制御部632の制御により表示パネル617が表示する。
音声処理部649は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、音声入出力部614に出力する。また、音声処理部649は、音声入出力部614が備えるマイク(図示略)により集音される音声を取得してディジタル音声データに変換する。音声処理部649は、ディジタル音声データに対して予め設定された処理を行ってもよい。
図19は、タブレット型コンピューター600の表面及び裏面の構成を示す図であり、図19(A)はタブレット型コンピューター600の裏面の外観図であり、図19(B)はタブレット型コンピューター600の表面の外観及び表示例を示す。
図19(A)に示すように、タブレット型コンピューター600の筐体602の裏面側には撮像部615の撮像レンズが露出する。つまり、撮像部615の撮像範囲は筐体602の裏面側であり、図17の装着状態においては筐体602の下方が撮像範囲となる。
このように構成されるタブレット型コンピューター600は、上記第1〜第4実施形態で説明したHMD200、或いは、第5実施形態で説明したプロジェクター100Bと同様の機能を実行可能である。
図19(B)に示すように、タブレット型コンピューター600の制御部630は、表示パネル617に、撮像部615により撮像した撮像画像を表示する。制御部630は、撮像画像の縁を、撮像部615の撮像範囲を示す撮像境界線BLとして明瞭に表示する。また、制御部630は、プロジェクター100Aから受信する指示情報に基づいて、指示位置405を示す画像と、指示位置405に対する援助者UAの指示体2を示す指示体画像422とを表示する。なお、指示体画像422の種類や表示態様については、第1実施形態と同様とすることができる。
また、制御部630は、撮像部615により撮像された、作業対象物OBを含む撮像画像を、表示パネル617に表示する。
指示位置405及び指示体画像422の表示位置は、制御部630が表示位置算出部638の機能により算出する。表示位置算出部638は、撮像部615の撮像画像から作業対象物OBの画像を検出し、この作業対象物OBの画像に対応する位置を、表示位置とする。
ここで、タブレット型コンピューター600は、図17に示したように装着治具601により被援助者UBの身体に保持されるので、被援助者UBが動かない限り撮像部615の撮像範囲における作業対象物OBの相対位置は動かない。このため、指示位置405及び指示体画像422を適切な位置に表示できる。
このように構成されるタブレット型コンピューター600を、プロジェクター100Bに代えて用いた場合、上述した第1から第3実施形態と同様の効果を得ることができる。
また、プロジェクター100Aを、タブレット型コンピューター600に置き換えて用いることも可能であり、この場合も、上述した第1から第3実施形態と同様の効果を得ることができる。
[第7実施形態]
図20は、第7実施形態における表示システム1Cの構成図である。第7実施形態の表示システム1Cは、第1〜第5実施形態と同様に、本発明の表示装置(第1表示装置)としてHMD200Aを利用する。一例として、作業サイトB及び作業サイトCにいる被援助者UB、UCは、それぞれ、HMD200Aを使用する。また、表示システム1Cは、援助サイトAにいる援助者UAが使用する表示装置として、タブレット型コンピューター600A(第2表示装置)を用いる。表示システム1Cは、1または複数のタブレット型コンピューター600A、及び、1または複数のHMD200Aにより構成され、タブレット型コンピューター600A及びHMD200Aの数は任意であり、図20に示す構成に限定されない。第7実施形態は、第1〜第5実施形態においてタブレット型コンピューター600Aを用いる構成例であり、第1〜第5実施形態で説明した表示システム1、1A、1Bと同様の動作を実行して、同様の効果を得ることが可能である。
また、本実施形態ではタブレット型コンピューター600Aを例示するが、援助者UAが使用する表示装置(第2表示装置)は、タブレット型コンピューター600Aに限定されない。例えば、パーソナルコンピューター、スマートフォンなど、画像を表示可能な表示画面とカメラとを有する汎用的な機器を、第2表示装置として使用できる。
本第7実施形態では、上記第1〜第5実施形態で説明した表示システム1、1A、1Bと共通する構成部には同符号を付して説明を省略する。
タブレット型コンピューター600Aは、薄型の板形状の筐体602を有し、筐体602の前面に表示パネル617(第2表示部)が配置される。タブレット型コンピューター600Aは、装着治具601により援助者UAの身体に保持され、好ましくは固定される。図21に示すように、援助者UAは、タブレット型コンピューター600Aを装着治具601により装着した状態で、表示パネル617の画像を視認できる。
また、筐体602の裏面には、タブレット型コンピューター600と同様に、撮像部615(図19)が設置される。撮像部615で撮像した画像を表示パネル617に表示することができ、撮像部615が撮像する画像と、HMD200Aから受信する画像とを重畳して、AR表示することができる。例えば、タブレット型コンピューター600Aが、被援助者UBが装着するHMD200Aから、作業台Tに設置された作業対象物OBを撮像した画像を受信した場合にAR表示を効果的に使用できる。この場合、タブレット型コンピューター600Aは、撮像部615によって作業台T´を撮像した撮像画像と、作業対象物OBの画像とを重ねて表示パネル617に表示し、作業台T´に存在しない仮想の作業対象物OB´をAR表示できる。援助者UAは、表示パネル617に表示される画面を見ながら、作業対象物OBに対する作業を行える。
図21は、タブレット型コンピューター600Aの機能ブロック図である。タブレット型コンピューター600Aは、第6実施形態で説明したタブレット型コンピューター600(図17)と同様のハードウェア構成を有する。
すなわち、タブレット型コンピューター600Aは、タブレット型コンピューター600(図18)と同様に構成される。タブレット型コンピューター600Aは、インターフェイス部611、操作取得部612、通信部613(第2通信部)、音声入出力部614、撮像部615、タッチパネル616、及び、表示パネル617を備える。これらの各部の構成もタブレット型コンピューター600の構成部と同様であるため、説明を省略する。
タブレット型コンピューター600Aは、制御部660(第2制御部)、及び、記憶部680を備える。制御部660は、制御部630と同様に、インターフェイス部611、操作取得部612、通信部613、音声入出力部614、撮像部615、及び、表示パネル617に接続される。また、制御部660は記憶部680に接続される。
記憶部680は、制御部660が実行するオペレーティングシステム661を含む各種のプログラム、および、制御部660が処理するデータを不揮発的に記憶する。記憶部680は、設定データ681を記憶する。設定データ681は、設定データ51(図3)に相当するデータであり、制御部660が使用する各種の設定値を含む。設定データ681が含む設定値は、予め操作取得部612が検出する操作で入力された値であってもよいし、通信部613またはインターフェイス部611を介して外部の装置(図示略)から設定値を受信して記憶してもよい。
記憶部680は、検出用データ682、メニュー画像データ683、送信画像データ684、及び、指示コンテンツデータ685を記憶する。
検出用データ682は、検出用データ52(図3)に相当するデータであり、画像データから作業対象物OBの画像を検出するために利用されるデータである。作業対象物OBは、HMD200Aを使用する被援助者UB、UCが行う作業の対象であり、被援助者UB、UCから見える位置、すなわち視野内に配置されると考えることができる。検出用データ682は、例えば、画像データから作業対象物OBの画像を抽出する処理に用いるデータを含み、より具体的には、作業対象物OBの画像の特徴量のデータを含む。特徴量は、色の特徴量であっても形状の特徴量であってもよく、処理対象の画像データの色数や解像度に対応して、複数の特徴量を含んでもよい。表示システム1では、被援助者UBが作業対象とする作業対象物OBが事前に判明している場合に、この作業対象物OBに関する検出用データ682が、記憶部680に記憶される。
メニュー画像データ683は、メニュー画像データ53(図3)に相当するデータであり、表示パネル617にメニュー画像を表示するための画像のデータである。メニュー画像は、例えば、操作用のアイコンが列をなして配置されたメニューバー、或いは、アイコンが円形の枠内に配置されたダイヤル型のメニュー等である。
送信画像データ684は、送信画像データ54(図3)に相当するデータであり、タブレット型コンピューター600AがHMD200Aに送信する指示情報に用いられる画像データである。送信画像データ684は、例えば、腕、手、指、或いは指示棒等の指示体の画像の画像データなどである。
指示コンテンツデータ685は、指示コンテンツデータ55(図3)に相当するデータであり、タブレット型コンピューター600AがHMD200Aに送信するコンテンツのデータである。指示コンテンツデータ685は、例えば、テキストデータ、静止画像データ、動画像データ、及び音声データ等を含むことができる。
制御部660は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部660は、上記ROMまたは記憶部680が記憶するコンピュータープログラムを読み出して実行することにより、タブレット型コンピューター600Aの各部を制御する。
制御部660は、上記プログラムを実行し、オペレーティングシステム(OS)661、表示制御部662、及び通信制御部663として機能する。また、制御部660は、撮像制御部664、受信情報処理部665、操作検出部666、操作時表示制御部667、送信画像取得部668、指示情報生成部669、表示位置算出部670、及び、音声処理部671として機能する。
表示制御部662は、制御部660が実行するプログラムに応じて、表示パネル617に画像を表示させる。
通信制御部663は、通信制御部33(図3)に相当する機能部であり、通信部613を制御して、HMD200Aとの間の通信を制御する。通信制御部663は、HMD200Aから作業情報(処理情報)を受信し、受信した作業情報を受信情報処理部665に出力する。また、通信制御部663は、指示情報生成部669が生成する指示情報を、HMD200Aに送信する。
撮像制御部664は、撮像制御部64(図15)と同様に機能し、撮像部615を制御して撮像を実行させ、撮像画像データを取得する。
受信情報処理部665は、受信情報処理部34(図3)に相当する。受信情報処理部665は、通信制御部663が受信する作業情報を解析して、作業情報に含まれる画像データを抽出する。受信情報処理部665は、例えば、記憶部680が記憶する検出用データ682を用い、作業情報に含まれる画像データから作業対象物OBの画像を検出する。
操作検出部666は、操作検出部35(図3)に相当し、援助者UAの操作を検出する。操作検出部666は、操作取得部612から入力される操作データに基づき、タッチパネル616の操作を検出する。また、操作検出部666は、撮像部615を利用して、撮像部615の撮像範囲における援助者UAの操作を検出する。この場合、操作検出部666は、撮像部615の撮像画像データから、援助者UAが使用する指示体の画像を検出する。援助者UAが使用する指示体(操作体)は、例えば、援助者UAの腕、手、指、指示棒等を含む。操作検出部666は、撮像画像における指示体の画像の位置に基づき、指示体の指示位置を特定する。操作検出部666は、撮像部615の撮像画像における位置と、撮像部615の撮像範囲における位置と、表示領域における位置とを対応付けるデータを有する。このデータは、例えば事前のキャリブレーションにより設定され、設定データ681に含めて記憶部680に記憶される。これにより、操作検出部666は、撮像範囲において援助者UAが指示体を用いて作業ないし操作を行った場合に、指示体の位置を、撮像範囲における座標として検出できる。また、操作検出部666は、指示体の位置を、表示領域DAにおける座標、或いは、表示パネル617に表示される表示画像における相対的な座標に換算することも可能である。
また、指示体としては、援助者UAの腕、手、指、指示棒等に限らず、被援助者UBが実行する作業に関する用具、器具等であってもよい。つまり、援助者UAは、被援助者UBが使用する用具や器具を指示体として使ってもよい。この場合、タブレット型コンピューター600Aは、指示体を撮像した撮像画像を、指示体画像としてHMD200Aに送信してもよい。また、タブレット型コンピューター600Aは、指示体を撮像した撮像画像に基づき、指示体と同種あるいは指示体に予め対応付けられた用具や器具の画像を送信画像データ684から選択して、指示体画像として送信してもよい。また、援助者UAがタブレット型コンピューター600Aを操作して、指示体画像として、被援助者UBが実行する作業に関する用具、器具等の画像を選択し、この画像を指示体画像としてHMD200Aに送信してもよい。例えば、被援助者UBが工具を使用する作業を行う場合、指示体画像として、ドライバー、ペンチ、モンキースパナ、通電テスターのテスト端子、包丁、その他の特殊工具の画像を採用できる。また、表示システム1Cにより援助者UAが被援助者UBにスポーツの指導を行う場合、テニスラケット、ゴルフクラブ等の画像を指示体がとして採用できる。
操作検出部666は、指示体の指示位置が、予め設定されたパターンに該当する軌跡を形成する場合に、操作を検出してもよい。この動作は、援助者UAが指示体を動かして、その動きの種類により異なる指示を行う、いわゆるジェスチャー操作である。
操作時表示制御部667は、操作時表示制御部36(図3)に相当する。操作時表示制御部667は、操作検出部666が操作を検出する間の、表示パネル617の表示を制御する。操作時表示制御部667は、記憶部680からメニュー画像データ683等を読み出し、表示制御部662を制御して、メニュー画像等を表示させる。これにより、例えば、援助者UAが指示体による操作やタッチパネル616の操作を行う場合に、指示体の動きの指標や目安となる文字や画像、或いは、位置入力を可能とするメニューバーの画像を、表示パネル617に表示できる。
これにより、タブレット型コンピューター600Aでは、援助者UAが指示体としての腕、手、指、指示棒等を使って操作を行うことができる。例えば、操作時表示制御部667の制御により表示されるメニュー画像を利用して、GUI操作を行ってもよい。
タブレット型コンピューター600Aにおいて、腕、手、指、指示棒等の指示体による操作が可能な範囲は、撮像部615が指示体を撮像できる範囲であり、具体的には撮像部615の撮像範囲である。
送信画像取得部668は、送信画像取得部37(図3)に相当する。送信画像取得部668は、HMD200Aに送信する指示情報に含める指示体の画像を取得する。送信画像取得部668は、撮像部615で指示体を撮像した場合には、撮像部615の撮像画像から指示体の画像を抽出して取得する。また、援助者UAの操作または事前の設定で、指示体の画像を記憶部680から取得するよう設定された場合、送信画像取得部668は送信画像データ684を取得する。
指示情報生成部669は、指示情報生成部38(図3)に相当する。指示情報生成部669は、HMD200Aに送信する指示情報を生成する。指示情報は、タブレット型コンピューター600AがHMD200Aに送信するデータである。例えば、コンテンツの画像データ及び/又は音声データ、指示体の画像データ、音声処理部671が生成する援助者UAの音声のデータ、指示体の位置または動きを示すデータを含む。
音声処理部671は、音声処理部49(図3)に相当する。音声処理部671は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、音声入出力部614に出力する。また、音声処理部671は、音声入出力部614が備えるマイク(図示略)により集音される音声を取得してディジタル音声データに変換する。音声処理部671は、ディジタル音声データに対して予め設定された処理を行ってもよい。
図23は、HMD200Aの外観構成を示す図である。本実施形態では、被援助者UB及び被援助者UCは同一の構成を有するHMD200Aを使用するものとして説明する。
HMD200Aは、HMD200(図4)と同様に構成されるため、HMD200と共通する構成には同符号を付して説明を省略する。
HMD200Aは、制御装置210が備える制御部300(第1制御部)の制御に従って動作する。HMD200Aは、制御装置210及び画像表示部220(第1表示部)を備え、バーコードリーダー701、外部カメラ731、及び、モーションセンサーユニット761に接続される。つまり、HMD200Aは、HMD200に、外部情報検出部としてのバーコードリーダー701、外部カメラ731、及びモーションセンサーユニット761を接続した構成である。HMD200Aは、バーコードリーダー701、外部カメラ731、及びモーションセンサーユニット761のすべてを備える構成に限定されない。これら外部情報検出部のうち少なくとも1以上が制御装置210と接続されていればよい。
バーコードリーダー701(外部情報検出部、読取部)は、バーコード、二次元コード、或いはその他の画像コード等、画像化された情報を読み取る読み取り装置である。バーコードリーダー701は、画像コードを読み取って復号し、読取データを生成する。バーコードリーダー701は、読取データを制御装置210に無線送信する。バーコードリーダー701は、コード化(符号化)された情報に限らず、例えば、文字を直接読み取ってもよい。
外部カメラ731(外部情報検出部、第3撮像部)は、少なくとも画像表示部220とは別体として構成されるカメラである。外部カメラ731は、画像表示部220から分離して、例えば被援助者UB、UCの身体や作業サイトB、Cに設置される。
モーションセンサーユニット761(外部情報検出部、動き検出部)は、被援助者UB、UCの身体に装着されるユニットであり、例えば図23に示すように円盤形状であるが、その他の形状であってもよい。
バーコードリーダー701、外部カメラ731、及びモーションセンサーユニット761は、いずれも、図示しないバッテリーを内蔵し、ワイヤレスで使用できることが好ましいが、外部のバッテリーや電源に接続されてもよい。
図24は、HMD200Aの機能ブロック図である。
HMD200Aを構成する機能ブロックは、HMD200(図6)と同様である。通信部277は、上述のように、無線LAN(WiFiを含む)、Miracast、Bluetooth等の規格に準じた無線データ通信を実行する。特に、本実施形態ではBluetoothでバーコードリーダー701、外部カメラ731、及びモーションセンサーユニット761のそれぞれと通信を実行することが好ましい。
バーコードリーダー701は、読取部702、制御部703、及び、通信部704を備える。読取部702は、画像コードを光学的に読み取って、読取り信号を生成する。読取部702は読取信号を制御部703に出力する。読取部702による読み取り方式は、例えば、読み取り対象にレーザー光を照射して反射光を検出する方式、読み取り対象を撮像して撮像画像から画像コードを検出する方式などが挙げられる。
通信部704は、制御部703の制御に従って、通信部277と、例えばBluetoothで無線通信を実行する。
制御部703は、読取部702を制御して読み取りを実行し、読み取り信号を取得する。制御部703は読み取り信号をデコードして読取データを生成し、読取データを通信部704により制御装置210に送信する。
外部カメラ731は、撮像部732、制御部733、及び、通信部734を備える。撮像部732は、CCD、CMOS等の撮像素子により撮像を実行し、撮像画像データを制御部733に出力する。撮像部732が第3撮像部に相当するともいえる。
通信部734は、制御部733の制御に従って、通信部277と、例えばBluetoothで無線通信を実行する。
制御部733は、撮像部732を制御して撮像を実行し、撮像画像データを取得する。制御部733は、撮像画像データを通信部734により制御装置210に送信する。
モーションセンサーユニット761は、センサーユニット762(動きセンサー)、制御部763、及び、通信部764を備える。モーションセンサーユニット761は、動きを検出する動きセンサーを備える。動きセンサーは、例えば、加速度センサー、角速度センサー等である。センサーユニット762は複数のセンサーを備えてもよい。
通信部764は、制御部763の制御に従って、通信部277と、例えばBluetoothで無線通信を実行する。
制御部763は、センサーユニット762を制御して、予め設定されたサンプリング周期でセンサーユニット762が備える動きセンサーの検出値を取得する。制御部763は、センサーユニット762の検出値を示す検出データを生成し、通信部764により制御装置210に送信する。
モーションセンサーユニット761は、被援助者UBの頭部、腕、腰、脚等に、専用のハーネスを使用して、或いは衣服により、装着できる。
通信部704、734、764は、通信部277との間で近距離無線通信を実行できればよく、Bluetooth以外の通信方式を用いることも勿論可能である。
作業情報生成部315は、カメラ261の撮像画像データを含む作業情報を生成する。また、作業情報生成部315は、バーコードリーダー701が読み取った読取データ、外部カメラ731が撮像した撮像画像データ、及び、モーションセンサーユニット761が検出した動き検出の検出データの少なくともいずれかを含む作業情報を生成できる。例えば、作業情報生成部315は、カメラ261の撮像画像データと、外部カメラ731の撮像画像データとを含む作業情報を生成できる。この作業情報をタブレット型コンピューター600Aが受信すると、タブレット型コンピューター600Aは2つの撮像画像データを処理できる。外部カメラ731は設置位置の自由度が高く、外部カメラ731の画角(撮像範囲)は画像表示部220の位置や向きに制限されない。このため、HMD200Aを装着する被援助者UBの体や顔の向きに制限されず、作業対象物OBを、自由な角度から撮像できる。
また、タブレット型コンピューター600Aは、HMD200Aから、バーコードリーダー701の読取データを含む作業情報を受信した場合、読取データに基づく処理を行える。例えば、タブレット型コンピューター600Aは、被援助者UBが使用する作業対象物OBに関する情報を、外部のサーバー(図示略)から取得して、取得した情報を表示できる。
バーコードリーダー701の読取データは、HMD200Aを装着する被援助者UBが実行する作業記録として利用できる。例えば、バーコードリーダー701の読取データがタブレット型コンピューター600Aに送信された場合に、この読取データを、視点共有のトリガーとしてもよい。この場合、タブレット型コンピューター600Aは、視点共有を開始し、HMD200Aが送信する作業情報に含まれる撮像画像データに基づく画像を、表示パネル617の全面に表示する動作を開始する。また、予めタブレット型コンピューター600AまたはHMD200Aが記憶する作業手順データ(作業標準)において、バーコードリーダー701の読取データに基づき、各作業の進捗状況を記録してもよい。また、バーコードリーダー701の読取データをキーとして、HMD200Aが送信する作業情報に含まれる撮像画像データを、記憶部680或いはクラウドサーバー(図示略)に保存してもよい。
また、タブレット型コンピューター600Aは、HMD200Aから、モーションセンサーユニット761の検出データを含む作業情報を受信した場合、検出データに基づき、被援助者UBの動きに関する処理を行える。例えば、タブレット型コンピューター600Aは、被援助者UBの動きを示すゲージや画像を表示パネル617に表示できる。また、被援助者UBの動きを入力操作に利用できる。例えば、モーションセンサーユニット761の検出データが、被援助者UBがうなずく動作を示すデータである場合に、うなずきを検出する。この処理はいわゆるジェスチャー入力に相当する。タブレット型コンピューター600Aは、モーションセンサーユニット761が検出した動きが、予め設定されたジェスチャーに該当する場合に、このジェスチャーに対応付けられた入力を検出する。また、作業情報生成部315は、9軸センサー266の検出データとモーションセンサーユニット761の検出データとを含めることが可能である。タブレット型コンピューター600Aは、9軸センサー266の検出データとモーションセンサーユニット761の検出データとを含む作業情報を受信した場合、これらの検出データを統計的に処理することができる。例えば、9軸センサー266の検出データとモーションセンサーユニット761の検出データとの差分から、被援助者UBの頭部と、被援助者UBの身体においてモーションセンサーユニット761が取り付けられた部位との相対位置の変化を検出できる。このため、被援助者UBの動きに関して詳細な解析が可能になり、より複雑なジェスチャー入力を実現できる。
ジェスチャー入力を利用して、例えば、タブレット型コンピューター600AがHMD200Aに送信して表示させる指示コンテンツデータ685を切り替えることができる。また、HMD200Aがタブレット型コンピューター600Aから受信する指示コンテンツデータ685が、複数の画像を含む場合に、これらの画像の表示切替、表示送り/戻しの指示を、ジェスチャー入力により行ってもよい。
また、例えば、HMD200Aにおいて9軸センサー266及びモーションセンサーユニット761の検出データをもとに検出されるジェスチャーの種類毎に、入力内容を予め設定してもよい。この場合、複数種類のジェスチャーを利用して、複数の入力を行うことができる。例えば、HMD200Aにおいて、被援助者UBに対して「Yes」及び「No」のいずれかを選択して入力する状態で、被援助者UBの頭部の前後の動きを「Yes」の入力として受け付け、頭部を左右に頭を振る動きを「No」の入力として受け付けてもよい。この場合、被援助者UBの頭部の前後のジェスチャーを「Yes」の入力として受け付け、頭部を左右に頭を振るジェスチャーを「No」の入力として受け付けるよう設定されていればよい。これらの利用法により、HMD200Aにおけるハンズフリー操作を実現できる。
また、制御部660は、モーションセンサーユニット761の検出データに基づいて、被援助者UBの動作を解析できる。この場合、作業情報生成部315が、9軸センサー266の検出データを含む作業情報を生成して、通信制御部311によりタブレット型コンピューター600Aに送信してもよい。制御部660は、モーションセンサーユニット761の検出データを解析し、可能な場合は9軸センサー266の検出データを解析する。これにより、制御部660は、作業中における被援助者UBの動きと、被援助者UBが実行する作業内容とを対応させて、被援助者UBの作業効率を評価してもよい。この評価においては、作業サイトBにおける被援助者UBの移動の動線を算出してもよい。また、被援助者UBが実行する作業内容に対応付けて、標準的な作業者の動きを示すデータを、評価用のデータとして、記憶部680に予め記憶してもよい。そして、制御部660は、HMD200Aから受信した作業情報に含まれる検出データと評価用のデータとを対照させて、被援助者UBの動きを評価してもよい。また、被援助者UBの作業効率を向上させるために被援助者UBの動きに関する助言を含むテキストデータ、音声データ、画像データをHMD200Aに送信してもよい。また、この助言を表示パネル617に表示してもよい。
図25は、タブレット型コンピューター600Aの表示例を示す図である。図25(A)は表示パネル617に2つの画像を並べて表示する2画面表示状態を示し、図25(B)は表示パネル617に1つの画像を表示する通常表示状態を示す。
タブレット型コンピューター600Aの受信情報処理部665は、HMD200Aから受信する作業情報に2つの撮像画像データが含まれる場合、これら2つの撮像画像データを抽出することができる。受信情報処理部665が2つの撮像画像データを抽出した場合、表示制御部662は、いずれか一方の撮像画像データに基づく1の画像を表示する通常表示状態と、2つの撮像画像データに基づく2の画像を表示する2画面表示状態とを切り替えることができる。表示制御部662は、通常表示状態と2画面表示状態とのいずれかを、設定データ681に従って自動的に選択しても良いし、操作取得部612が取得する操作に基づき選択してもよい。
2画面表示状態では、図25(A)に示すように、表示パネル617に表示領域617A、617Bが設定される。そして、表示領域617Aには、例えばカメラ261の撮像画像データに基づく画像が表示される。また、表示領域617Bには、例えば、外部カメラ731の撮像画像データに基づく画像が表示される。これにより、図25(A)に例示するように、カメラ261が撮像する作業対象物OBの作業箇所の拡大画像と、外部カメラ731が撮像する俯瞰画像とを並べて表示できる。また、通常表示状態では、例えば図25(B)に示すように外部カメラ731の撮像画像データに基づく画像を表示して、被援助者UBの作業内容、或いはHMD200Aを装着する被援助者UBが注視する方向にかかわらず、俯瞰画像を表示できる。
ここで、指示情報生成部669は、操作検出部666が検出する操作に基づいて、カメラ261及び/または外部カメラ731のズーム倍率を指示する情報を、指示情報に含めることができる。この機能はカメラ261、及び/または外部カメラ731が光学ズーム機能またはデジタルズーム機能を備える場合に有効である。この場合、タブレット型コンピューター600Aの操作により、HMD200Aが送信する作業情報に含まれる撮像画像データのズーム倍率を調整できる。外部カメラ731は、予め設定された条件に基づき、自動でズーム倍率を調整してもよい。また、外部カメラ731が撮像用の照明装置を備えてもよく、この照明装置は可視光を発するものであっても赤外光を発するものであってもよい。撮像部732は照明装置が発する光による撮像を行える構成であることが好ましい。また、タブレット型コンピューター600Aの操作によって、タブレット型コンピューター600Aが受信する作業情報に含まれる撮像画像データに基づく画像の表示倍率を調整する構成であってもよい。例えば図25(A)に示す2画面表示状態において、表示領域617A、617Bに表示される画像の倍率を調整することで、援助者UAは、作業対象物OBの細部の拡大画像や作業対象物OBの全体を含む俯瞰画像を並べて表示させることができる。
HMD200Aが外部カメラ731を備えることにより、援助者UAは、被援助者UBの作業中の手元の画像と俯瞰画像とを同時に見ることができる。外部カメラ731は、被援助者UBの身体に限らず、被援助者UBとは反対側から作業対象物OBを撮像する位置に設けてもよく、この場合、援助者UAは作業対象物OBの裏側の画像を見ることができる。外部カメラ731を広角カメラとすれば、より広い範囲を撮像した撮像画像データを、援助者UAが見ることができる。また、表示制御部662は、作業情報に含まれる撮像画像データに基づく画像と、指示コンテンツデータ685の画像とを、2画面表示状態で並べて表示してもよい。援助者UAは、作業マニュアルや部品の画像、標準作業を示す画像等を、被援助者UBの作業の状態を示す画像とともに見ることができる。この場合、制御部660は、バーコードリーダー701の読取データに基づき指示コンテンツデータ685を選択することもできる。
表示パネル617の表示状態は、図25(A)に示したように表示パネル617の全体を複数の表示領域617A、617Bに分割する例に限らない。表示制御部662は、表示パネル617の周縁に表示領域617A、617Bを配置し、表示領域617A、617B以外の部分に撮像部615の撮像画像を表示してもよい。また、カメラ261と外部カメラ731の露出等の撮像条件を異ならせてもよい。また、表示領域617A、617Bの位置を入れ替えてもよく、これらのバリエーションにより、援助者UAが視線を大きく移動させずに、見やすく画像を視認できるように、表示できる。
また、タブレット型コンピューター600Aにおいて、2画面表示状態で、被援助者UB、UCがそれぞれ装着する2台のHMD200Aが送信する作業情報に含まれる撮像画像データを並べて表示してもよい。
HMD200Aが、図25(A)に示す2画面分割表示を実行可能な構成としてもよい。この場合、HMD200Aにおいて実行可能としてもよい。この場合、HMD200Aが表示する画像の輝度、ガンマー値、色度等を、表示する画像データの内容に応じて、或いは、HMD200Aの環境の明るさに応じて、表示制御部305が自動的に調整する構成であってもよい。この場合、HMD200Aを装着する被援助者UBの視線を妨げないように、撮像画像データに基づく画像やタブレット型コンピューター600Aが送信する画像データに基づく画像を、画像表示部220の表示領域の周縁に配置してもよい。また、作業内容に応じて、これらの画像を非表示としてもよく、これらの画像を表示していた領域にハッチングや枠を表示してもよい。
また、本実施形態において、HMD200Aが備える作業情報生成部315は、音声処理部329により生成される被援助者UBの音声データ、カメラ261の撮像画像データ、及び、外部カメラ731の撮像画像データを、分離して作業情報に含めてもよい。すなわち、作業情報生成部315は、通信制御部311が、音声処理部329により生成される被援助者UBの音声データ、カメラ261の撮像画像データ、及び、外部カメラ731の撮像画像データを、分離して送受信できるように、作業情報を生成する。この場合、作業情報生成部315は、複数の作業情報を生成する。
この構成では、通信制御部311は、通信部277とタブレット型コンピューター600Aとの間の通信状態に対応して、タブレット型コンピューター600Aに送信するデータ量を調整できる。通信部277とタブレット型コンピューター600Aとの間の通信状態とは、例えば、通信帯域(通信速度)が十分に確保できるか否かを指す。通信制御部311は、通信帯域が十分な場合は、音声処理部329により生成される被援助者UBの音声データ、カメラ261の撮像画像データ、及び、外部カメラ731の撮像画像データの全てを送信する。また、通信帯域が不良な場合は、音声処理部329により生成される被援助者UBの音声データを送信し、カメラ261の撮像画像データ及び外部カメラ731の撮像画像データのいずれか一方を送信し、他方の撮像画像データの送信を抑制する。通信制御部311は、通信帯域がさらに不良な場合には、音声処理部329の音声データを含む作業情報を優先的に送信する。撮像画像データを含む作業情報の送信を抑制する。
通信制御部311が撮像画像データを含む作業情報の送信を抑制する方法は、例えば、撮像画像データの送信頻度を抑制し、1秒当たりのフレーム数を低下させる方法が挙げられる。また、撮像画像データのフレームを構成する画素数(解像度)を低下させて送信してもよい。また、作業情報生成部315が、事前の設定に従って、カメラ261の撮像画像データ及び外部カメラ731の撮像画像データを異なる解像度の画像として、作業情報に含めてもよい。例えば、カメラ261の撮像画像データを高解像度とし、外部カメラ731の撮像画像データを低解像度の画像としてもよい。さらに、カメラ261の撮像画像データを、例えば30フレーム/秒の動画像データとし、外部カメラ731の撮像画像データを、数秒に1回更新される静止画像データとしてもよい。すなわち、外部カメラ731の撮像画像データを含む作業情報を、数秒に1回、作業情報生成部315が生成して通信制御部311が送信する構成であってもよい。
さらに、受信情報処理部665は、作業情報に含まれる複数の撮像画像データのそれぞれを、作業記録として記憶部680に記憶してもよい。この場合、より詳細な作業内容の記録を保存できる。
図26は、表示システム1Cの動作を示すフローチャートであり、(A)はタブレット型コンピューター600Aの動作を示し、(B)はHMD200Aの動作を示す。図26には、1台のタブレット型コンピューター600Aと、1台のHMD200Aとが動作する例を示す。
HMD200Aでは、撮像制御部313がカメラ261を制御して撮像を実行し、撮像画像データを生成する。また、操作検出部323は、外部カメラ731から送信される撮像画像データを受信する。作業情報生成部315は、カメラ261の撮像画像データ、及び、外部カメラ731の撮像画像データを取得する(ステップS81)。ここで、外部カメラ731が制御装置210に接続されていない場合、作業情報生成部315はステップS81でカメラ261の撮像画像データのみを取得する。
HMD200Aでは、音声処理部329が、マイク263で集音した音声を予め設定されたサンプリング周期で取得して、音声データを生成する。作業情報生成部315は、音声処理部329が生成する音声データを取得する(ステップS82)。
また、操作検出部323は、通信部277を介して、モーションセンサーユニット761が送信する検出データを受信する。作業情報生成部315は、操作検出部323が受信する検出データを取得する(ステップS83)。ここで、モーションセンサーユニット761が制御装置210に接続されていない場合、作業情報生成部315はステップS83の動作をスキップする。
制御装置210にバーコードリーダー701が接続されている場合、操作検出部323は711を介して、バーコードリーダー701が読み取った読取データを受信する。作業情報生成部315は、操作検出部323が読取データを受信した場合、この読取データを取得する(ステップS84)。ここで、バーコードリーダー701が制御装置210に接続されていない場合や、操作検出部323が読取データを受信していない場合、作業情報生成部315はステップS84をスキップする。
作業情報生成部315は、作業情報を生成し、この作業情報を通信制御部311がタブレット型コンピューター600Aに送信する(ステップS85)。ステップS85で作業情報生成部315が生成する作業情報は、ステップS81で取得した撮像画像データ、ステップS83で取得した検出データ、及び、ステップS84で取得した読取データを含む。
また、作業情報生成部315は、ステップS82で取得した音声データを含む作業情報を生成し、この作業情報を通信制御部311がタブレット型コンピューター600Aに送信する(ステップS86)。
作業情報生成部315がステップS85及びステップS86で生成する作業情報は、通信制御部311がタブレット型コンピューター600Aと通信する通信状態により、上述したように、変更してもよい。これにより、通信状態が不良の場合であっても、音声が途切れないようにHMD200Aからタブレット型コンピューター600Aに音声データを送信できる。同様に、カメラ261または外部カメラ731のいずれか一方の撮像画像データを、途切れないように送信できる。
また、作業情報生成部315は、入力情報取得部270により検出した操作に関するデータを、ステップS85、S86で生成する作業情報に含めてもよい。
タブレット型コンピューター600Aでは、HMD200Aから送信された作業情報を、通信制御部663が受信し、受信した作業情報を受信情報処理部665が解析する(ステップS61)。受信情報処理部665は、受信した作業情報から撮像画像のデータを抽出して、抽出した撮像画像データのうち表示する撮像画像データを選択する(ステップS62)。例えば、作業情報がカメラ261の撮像画像データと外部カメラ731の撮像画像データとを含む場合、受信情報処理部665は表示する撮像画像データを選択する。この選択は、表示制御部662が、表示パネル617により通常表示状態で表示するか、2画面表示状態で表示するかによっても決定される。
表示制御部662は、受信情報処理部665が選択した撮像画像データを表示パネル617に表示する(ステップS63)。ここで、受信情報処理部665は作業情報に音声データが含まれる場合に、音声処理部671によって音声を出力させてもよい。
タブレット型コンピューター600Aでは、援助者UAが被援助者UBに指示等をするための操作が行われる(ステップS64〜S66)。ステップS64では、例えば、テキストと画像を含む支援用のコンテンツが選択される。ステップS65では、例えば、通信制御部663が受信して表示中の画像について、被援助者UBに注目させる位置を指し示す操作が行われる。ステップS65の操作は、タッチパネル616の操作、或いは、援助者UAが撮像部615の撮像範囲で指示体を動かす操作である。この操作は操作検出部666により検出され(ステップS66)、操作検出部666は検出した操作のデータを生成する。
操作検出部666は、検出した操作の操作位置や操作の軌跡を、表示中のHMD200Aの撮像画像に対応付けるデータを生成する(ステップS67)。これにより、被援助サイトBの表示領域DAにおいて特定の位置を示すデータが得られる。送信画像取得部668は、ステップS65の操作中に撮像部615が撮像した撮像画像から指示体の画像を切り出し、或いは、記憶部50から送信画像データ684を読み出して、送信画像を取得する(ステップS68)。
指示情報生成部669は、送信画像取得部668が取得した指示体の画像の画像データと、操作位置や操作の軌跡を示すデータと、操作位置や操作の軌跡をHMD200Aの撮像画像と対応付けるデータとを含む指示情報を生成して送信する(ステップS69)。
ここで、指示情報生成部669は、援助者UAの視点または視線方向を示す画像のデータ、または当該画像を表示するために必要な座標や方向のデータを含む指示情報を生成する。このデータの具体例は、例えば、援助者UAが使用する指示体の画像のデータや、指示体の向き及び位置を示すデータが挙げられる。この場合の指示体は向きが明らかに判別できる程度の大きさ、形状を有することが好ましい。
制御部660は、動作の終了条件が成立したか否かを判定し(ステップS70)、終了条件が成立していない場合は(ステップS70;NO)、ステップS61に戻る。また、終了条件が成立した場合は(ステップS70;YES)、本処理を終了する。終了条件は、例えば表示パネル617または図示しない電源スイッチの操作により、動作終了やタブレット型コンピューター600Aのシャットダウンが指示されること等が挙げられる。
HMD200Aは、タブレット型コンピューター600Aが送信する指示情報を通信制御部311で受信し(ステップS87)、受信した指示情報を受信情報解析部317が解析して画像データを抽出する(ステップS88)。次いで、表示位置算出部321が各画像データに基づいて画像を表示する位置を算出する(ステップS89)。さらに、表示情報生成部325が、算出した表示位置に画像を配置した表示情報を生成して、画像処理部303及び表示制御部305により表示させる(ステップS90)。
制御部300は、動作の終了条件が成立したか否かを判定し(ステップS91)、終了条件が成立していない場合は(ステップS91;NO)、ステップS81に戻る。また、終了条件が成立した場合は(ステップS91;YES)、本処理を終了する。終了条件は、例えば操作部279の操作により、動作終了やHMD200Aのシャットダウンが指示されること等が挙げられる。
このように、第7実施形態の表示システム1Cでは、HMD200Aが備える外部カメラ731を活用して、作業サイトB、Cにおいて被援助者UB、UCが行う作業の様子を、援助者UAをより詳細に知ることができる。また、タブレット型コンピューター600Aが撮像部615により撮像した撮像画像データをHMD200Aに送信し、HMD200Aが画像表示部220により表示してもよい。この場合に、上述したように、画像表示部220において2画面表示状態を利用してもよい。また、複数のタブレット型コンピューター600Aがそれぞれ撮像部615により撮像する撮像画像データを、画像表示部220が同時に表示してもよい。これらの構成により、複数のHMD200A、及び、複数のタブレット型コンピューター600Aの間で、実行中の作業に関する情報を共有し、共同で作業を行うことが可能となる。この場合において、画像表示部220が表示する画像と、表示パネル617に表示される画像とに共通のポインターを表示し、ポインターを動かす操作を共有してもよい。すなわち、HMD200Aにおいてポインターを動かす操作が行われた場合に、HMD200Aが表示するポインター及びタブレット型コンピューター600Aが表示するポインターの両方を同様に動作させ、その逆も同様とする。これにより、視点を共有した作業を、より容易に行うことができる。また、援助者UAがHMD200Aを使用し、被援助者UB、UCがタブレット型コンピューター600Aを使用する構成であってもよい。この場合、タブレット型コンピューター600Aはタブレット型コンピューター600(図17)と同様に機能すればよい。この場合、援助者UAと、被援助者UB、UCとが互いの役割を交代しながら、作業を行うことが可能となる。
以上説明したように、本発明を適用した第7実施形態の表示システム1Cにおいて、HMD200Aは、画像表示部220とは別体として構成され、情報を検出する外部情報検出部を備える。制御部300は、外部情報検出部で検出した情報を含む作業情報を通信部277によりタブレット型コンピューター600Aに送信し、制御部660は、通信部613によりHMD200Aから作業情報を受信して、作業情報に基づく画像を表示パネル617に表示する。これにより、HMD200Aが外部情報検出部により検出した情報を、HMD200Aからタブレット型コンピューター600Aに送信することができる。このため、タブレット型コンピューター600Aを使用する援助者UAは、HMD200Aを使用する被援助者UBの作業内容やHMD200Aの周囲の状況等に関して詳細な情報を得ることができる。さらに、外部情報検出部は、画像表示部220とは別体で構成されるため、設置位置の自由度が高く、多様な情報を容易に得ることができる。
また、外部情報検出部は、画像化された情報を読み取るバーコードリーダー701、及び、動きセンサーを備えたモーションセンサーユニット761の少なくともいずれかを含む。これにより、HMD200Aが、画像表示部220とは別体で構成される外部情報検出部により、画像化された情報の読み取り或いは動きの検出を行い、検出した情報をタブレット型コンピューター600Aに送信できる。このため、タブレット型コンピューター600Aを使用する援助者UAに対し、より詳細な情報を提供できる。
また、外部情報検出部は、カメラ261とは別体として構成される外部カメラ731を含む。制御部300は、外部カメラ731の撮像画像を含む作業情報を通信部277によりタブレット型コンピューター600Aに送信し、制御部660は、通信部613によりHMD200Aから受信した作業情報に含まれる外部カメラ731の撮像画像を表示パネル617に表示する。これにより、HMD200Aが、画像表示部220とは別体で構成される外部カメラ731により撮像した撮像画像を、タブレット型コンピューター600Aに送信できる。このため、タブレット型コンピューター600Aを使用する援助者UAは、HMD200Aが、画像表示部220とは異なる位置から撮像した撮像画像を見ることができる。
また、制御部300は、カメラ261の撮像画像と、外部カメラ731の撮像画像とを含む作業情報を通信部277によりタブレット型コンピューター600Aに送信し、制御部660は、通信部613によりHMD200Aから受信した作業情報に含まれるカメラ261の撮像画像、及び、外部カメラ731の撮像画像を、表示パネル617に表示する。これにより、タブレット型コンピューター600Aによって、カメラ261の撮像画像と外部カメラ731の撮像画像とを見ることができる。
また、制御部660は、通信部613によりHMD200Aから受信した作業情報に含まれるカメラ261の撮像画像、及び、外部カメラ731の撮像画像を、表示パネル617に並べて表示する。これにより、タブレット型コンピューター600Aによって、カメラ261の撮像画像と外部カメラ731の撮像画像とを同時に見ることができる。
制御部300は、通信部277とタブレット型コンピューター600Aとの間の通信状態に応じて、作業情報に含まれるカメラ261の撮像画像、及び、外部カメラ731の撮像画像の状態を調整する。これにより、HMD200Aからタブレット型コンピューター600Aに送信する作業情報に複数の画像が含まれることに起因して、データ量が増大しても、通信状態に対応して適切に送信できる。このため、通信状態の影響を受けやすい構成において、HMD200Aからタブレット型コンピューター600Aへ適切に作業情報を送信し、タブレット型コンピューター600Aにおいて適切に撮像画像を表示できる。
上記実施形態では、第3撮像部として、制御装置210と無線接続される外部カメラ731を例示したが、本発明はこれに限定されない。例えば、USBケーブルによる制御装置210に有線接続される外付カメラ等を第3撮像部として用いてもよい。また、腕時計型、手持ち型のカメラを第3撮像部としてもよい。また、第3撮像部を制御装置210に接続する方式は、Bluetoothに限らず、無線LAN等を用いてもよい。
また、タブレット型コンピューター600Aは、筐体602の背面に1個の撮像部615を備える構成に限らず、表示パネル617の側方に、さらにカメラを設けてもよい。この場合、筐体602の表示パネル617側、及び、背面側のそれぞれに、カメラを備える構成となる。この構成では、表示パネル617側に設置されるカメラをインカメラ、撮像部615をアウトカメラと呼ぶことができる。そして、タブレット型コンピューター600Aが撮像部615のHMD200Aからタブレット型コンピューター600Aに送信する作業データに、タブレット型コンピューター600Aで使用するカメラを指定するデータを含めてもよい。例えば、タブレット型コンピューター600Aが撮像画像を含む案内情報をHMD200Aに送信する構成で、HMD200Aが送信する作業情報に、タブレット型コンピューター600Aのインカメラとアウトカメラを指定する情報を含めることができる。この場合、被援助者UBは、HMD200Aにより表示したい画像を、タブレット型コンピューター600Aの援助者UA側、或いは作業台T′側から選ぶことができる。
なお、図3、図6、図15、図18、図22、及び図24に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよい。その構成は、図3、図6、図15、図18、図22、及び図24に示した通りに独立したハードウェア資源を配置する構成に限定されない。
また、上記実施形態で説明した制御部30、60、300、630、660の動作をプログラムとして実現することも可能である。上記のプログラムは、その一部または全部をハードウェアとして実現してもよい。例えば、制御部30、60、300、630、660が備える上記の各処理部は、ASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。また、FPGA(Field-Programmable Gate Array)等のPLD(Programmable Logic Device)をプログラミングして構成してもよい。また、複数の半導体デバイスを含む回路として実現してもよい。
また、ハードウェアがプログラムを実行して上記機能を実現する場合、このプログラムは、制御部30、60、300、630、660のROM、或いは、記憶部50、80、340、650、680または別の記憶装置に記憶されてもよい。或いは、プロジェクター100A、100B、HMD200、200Aまたはタブレット型コンピューター600、600Aに外部接続される記憶装置や記憶媒体に上記プログラムを格納してもよい。この場合、これらの記憶装置や記憶媒体から、プログラムを記憶部50、80、340、650、680等に取り込んで実行することも可能である。また、外部の装置に記憶されたプログラムを通信部やインターフェイス部を介して取得して実行する構成としてもよい。
1、1A、1B、1C…表示システム、13…通信部(第1通信部、第2通信部)、15…撮像部(第1撮像部、第2撮像部)、17…操作取得部、20…投射部(第1表示部、第2表示部)、30…制御部(第2制御部)、32…投射制御部、33…通信制御部、34…受信情報処理部、35…操作検出部、36…操作時表示制御部、37…送信画像取得部、38…指示情報生成部、40…画像処理部、50…記憶部、51…設定データ、52…検出用データ、53…メニュー画像データ、54…送信画像データ、55…指示コンテンツデータ、60…制御部(第1制御部)、62…投射制御部、63…通信制御部、64…撮像制御部、65…作業情報生成部、66…受信情報解析部、67…指示検出部、68…表示位置算出部、69…操作検出部、70…表示情報生成部、80…記憶部、81…設定データ、82…検出用データ、83…メニュー画像データ、85…メニュー画像データ、100A…プロジェクター(第2表示装置)、100B…プロジェクター(第1表示装置)、200、200A…HMD(第1表示装置)、210…制御装置、220…画像表示部(第1表示部)、222…右表示駆動部、224…左表示駆動部、225…インターフェイス、261…カメラ(第1撮像部)、263…マイク、264…距離センサー、266…9軸センサー、268…視線センサー、270…入力情報取得部、273…3軸センサー、274…インターフェイス、277…通信部(第1通信部)、279…操作部、286…右導光板、286A…ハーフミラー、296…左導光板、296A…ハーフミラー、300…制御部(第1制御部)、303…画像処理部、305…表示制御部、311…通信制御部、313…撮像制御部、315…作業情報生成部、317…受信情報解析部、319…指示検出部、321…表示位置算出部、323…操作検出部、325…表示情報生成部、329…音声処理部、340…記憶部、341…設定データ、343…検出用データ、345…メニュー画像データ、600…タブレット型コンピューター(第1表示装置)、602…筐体、612…操作取得部、613…通信部(第1通信部)、615…撮像部(第1撮像部)、617…表示パネル(第1表示部、第2表示部)、630…制御部(第1制御部)、632…表示制御部、633…通信制御部、634…撮像制御部、635…作業情報生成部、636…受信情報解析部、237…指示検出部、238…表示位置算出部、639…操作検出部、640…表示情報生成部、650…記憶部、651…設定データ、652…検出用データ、653…メニュー画像データ、655…メニュー画像データ、600A…タブレット型コンピューター(第2表示装置)、660…制御部(第2制御部)、661…OS、662…表示制御部、663…通信制御部、664…撮像制御部、665…受信情報処理部、666…操作検出部、667…操作時表示制御部、668…送信画像取得部、669…指示情報生成部、670…表示位置算出部、671…音声処理部、680…記憶部、681…設定データ、682…検出用データ、683…メニュー画像データ、684…送信画像データ、685…指示コンテンツデータ、701…バーコードリーダー(外部情報検出部、読取部)、702…読取部、703…制御部、704…通信部、731…外部カメラ(外部情報検出部、第3撮像部)、732…撮像部、733…制御部、734…通信部、761…モーションセンサーユニット(外部情報検出部、動き検出部)、762…センサーユニット(動きセンサー)、763…制御部、764…通信部、BL…撮像境界線、DA…表示領域(第2表示領域)、DB…表示領域(第1表示領域)、OB…作業対象物、PA…撮像範囲、PB…撮像範囲、T…作業台、UA…援助者、UB…被援助者、UC…被援助者。

Claims (23)

  1. 第1表示装置及び第2表示装置を備え、
    前記第1表示装置は、
    第1表示領域に画像を表示する第1表示部と、
    第1撮像部と、
    前記第2表示装置と通信を実行する第1通信部と、
    前記第1通信部により前記第2表示装置から案内情報を受信し、前記案内情報に基づく画像を前記第1表示部により表示する第1制御部と、を備え、
    前記第2表示装置は、
    第2表示領域に画像を表示する第2表示部と、
    前記第1表示装置と通信を実行する第2通信部と、
    操作を検出する操作検出部と、
    前記操作検出部が検出する操作を示す情報を含む案内情報を生成して、前記第2通信部で送信する第2制御部と、を備え、
    前記第1制御部は、前記第2表示装置から受信する前記案内情報に基づいて、前記第2表示装置の前記操作検出部が検出した操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを前記第1表示部により表示すること、
    を特徴とする表示システム。
  2. 前記第2制御部は、前記操作検出部が検出する操作を、当該操作を行う前記操作者の視点または視線方向を基準として示す情報を含む前記案内情報を生成すること、を特徴とする請求項1記載の表示システム。
  3. 前記第1表示部は、作業対象物が配置される対象配置領域を含む前記第1表示領域に画像を表示し、
    前記第1制御部は、前記対象配置領域に配置される前記作業対象物に対応する位置に画像を表示すること、を特徴とする請求項1または2記載の表示システム。
  4. 前記第1撮像部は、前記対象配置領域の少なくとも一部を含む撮像範囲を撮像し、
    前記第1制御部は、前記第1撮像部の撮像画像に基づいて、前記作業対象物の位置に対応する画像の表示位置を特定すること、を特徴とする請求項3記載の表示システム。
  5. 前記第1制御部は、前記第1撮像部の撮像範囲を示す画像を、前記第1表示部により表示すること、を特徴とする請求項3または4記載の表示システム。
  6. 前記第1制御部は、前記第2表示装置から受信する前記案内情報に基づいて、前記第2表示装置の前記操作検出部が検出した操作の操作位置に対応して、操作体の画像を表示すること、
    を特徴とする請求項1から5のいずれかに記載の表示システム。
  7. 前記第1制御部は、前記第2表示装置から受信する前記案内情報に基づいて、前記第2表示装置の前記操作検出部が検出した操作の操作位置を示す画像と、操作体の画像とを表示すること、
    を特徴とする請求項1から5のいずれかに記載の表示システム。
  8. 前記第1表示装置が前記案内情報に基づいて表示する前記操作体の画像は、前記第1表示装置を使用して実行される作業に関する用具あるいは器具の画像であること、
    を特徴とする請求項6または7記載の表示システム。
  9. 前記第2制御部は、前記操作検出部が検出する操作に対応する前記操作体の画像として、前記第1表示装置を使用して実行される作業に関する用具あるいは器具の画像を取得し、取得した前記操作体の画像を含む前記案内情報を生成して、前記第2通信部で送信すること、を特徴とする請求項8記載の表示システム。
  10. 前記第1制御部は、前記第1撮像部の撮像画像に基づき案内対象情報を生成して前記第1通信部により前記第2表示装置に送信し、
    前記第2制御部は、前記第2通信部により前記第1表示装置から前記案内対象情報を受信し、前記案内対象情報に基づき前記第2表示部により画像を表示し、前記案内対象情報に基づく画像の表示中に前記操作検出部が検出する操作を示す情報を含む前記案内情報を生成すること、
    を特徴とする請求項1から9のいずれかに記載の表示システム。
  11. 前記第2表示装置は、少なくとも前記操作検出部が操作を検出する検出領域の一部を含む範囲を撮像する第2撮像部を備え、
    前記第2制御部は、前記第2撮像部の撮像画像をもとに、前記操作検出部が検出する操作を示す情報を生成して、生成した情報を含む前記案内情報を生成すること、を特徴とする請求項10記載の表示システム。
  12. 前記第2制御部は、前記操作検出部が検出する操作に対応する操作体の画像を含む前記案内情報を生成すること、を特徴とする請求項1から11のいずれかに記載の表示システム。
  13. 前記第1制御部は、前記第2表示装置から受信する前記案内情報に基づいて、前記第1表示装置を操作する操作者に対し動作を案内する画像を前記第1表示部により表示すること、を特徴とする請求項1から12のいずれかに記載の表示システム。
  14. 前記第1表示装置は、
    前記第1表示部とは別体として構成され、情報を検出する外部情報検出部を備え、
    前記第1制御部は、前記外部情報検出部で検出した情報を含む処理情報を前記第1通信部により前記第2表示装置に送信し、
    前記第2制御部は、前記第2通信部により前記第1表示装置から前記処理情報を受信して、前記処理情報に基づく画像を前記第2表示部に表示すること、を特徴とする請求項1から13のいずれかに記載の表示システム。
  15. 前記外部情報検出部は、画像化された情報を読み取る読取部、及び、動きセンサーを備えた動き検出部の少なくともいずれかを含むこと、を特徴とする請求項14記載の表示システム。
  16. 前記外部情報検出部は、前記第1撮像部とは別体として構成される第3撮像部を含み、
    前記第1制御部は、前記第3撮像部の撮像画像を含む処理情報を前記第1通信部により前記第2表示装置に送信し、
    前記第2制御部は、前記第2通信部により前記第1表示装置から受信した前記処理情報に含まれる前記第3撮像部の撮像画像を前記第2表示部に表示すること、を特徴とする請求項14または15記載の表示システム。
  17. 前記第1制御部は、前記第1撮像部の撮像画像と、前記第3撮像部の撮像画像とを含む処理情報を前記第1通信部により前記第2表示装置に送信し、
    前記第2制御部は、前記第2通信部により前記第1表示装置から受信した前記処理情報に含まれる前記第1撮像部の撮像画像、及び、前記第3撮像部の撮像画像を、前記第2表示部に表示すること、を特徴とする請求項16記載の表示システム。
  18. 前記第2制御部は、前記第2通信部により前記第1表示装置から受信した前記処理情報に含まれる前記第1撮像部の撮像画像、及び、前記第3撮像部の撮像画像を、前記第2表示部に並べて表示すること、を特徴とする請求項17記載の表示システム。
  19. 前記第1制御部は、前記第1通信部と前記第2表示装置との間の通信状態に応じて、前記処理情報に含まれる前記第1撮像部の撮像画像、及び、前記第3撮像部の撮像画像の状態を調整すること、を特徴とする請求項17または18記載の表示システム。
  20. 画像を表示する表示部と、
    外部の表示装置と通信を実行する通信部と、
    前記外部の表示装置において行われた操作を示す情報を含む案内情報を前記通信部により受信し、前記案内情報に基づいて、前記外部の表示装置の操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを前記表示部により表示する制御部と、
    を備えることを特徴とする表示装置。
  21. 表示領域に画像を表示する表示部と、
    外部の表示装置と通信を実行する通信部と、
    操作を検出する操作検出部と、
    前記操作検出部が検出する操作を示す情報を含む案内情報を生成して、前記通信部により前記外部の表示装置に送信する制御部と、を備え、
    前記案内情報は、前記操作検出部が検出した操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを前記外部の表示装置が表示するための情報であること、
    を特徴とする表示装置。
  22. 第1表示部を備える第1表示装置、及び、第2表示部を備える第2表示装置を用いる情報表示方法であって、
    前記第2表示装置により、操作を検出し、検出する操作を示す情報を含む案内情報を生成して前記第1表示装置に送信し、
    前記第1表示装置により、前記第2表示装置が送信する前記案内情報を受信し、前記案内情報に基づいて、前記第2表示装置の操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを前記第1表示部により表示すること、
    を特徴とする情報表示方法。
  23. 画像を表示する第1表示部を有する第1表示装置を制御するコンピューターが実行可能なプログラムであって、
    前記コンピューターにより、
    外部の第2表示装置から、前記第2表示装置において行われた操作を示す情報を含む案内情報を受信し、前記案内情報に基づいて、前記第2表示装置の操作に対応する画像と、当該操作を行う操作者の視点または視線方向を示す画像とを前記第1表示部により表示すること、
    を特徴とするプログラム。
JP2016148329A 2015-09-25 2016-07-28 表示システム、表示装置、情報表示方法、及び、プログラム Active JP6733401B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016148329A JP6733401B2 (ja) 2016-07-28 2016-07-28 表示システム、表示装置、情報表示方法、及び、プログラム
US15/264,740 US10133532B2 (en) 2015-09-25 2016-09-14 Display system, display device, information display method, and program
US16/161,776 US10642564B2 (en) 2015-09-25 2018-10-16 Display system, display device, information display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016148329A JP6733401B2 (ja) 2016-07-28 2016-07-28 表示システム、表示装置、情報表示方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2018018315A true JP2018018315A (ja) 2018-02-01
JP6733401B2 JP6733401B2 (ja) 2020-07-29

Family

ID=61081801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016148329A Active JP6733401B2 (ja) 2015-09-25 2016-07-28 表示システム、表示装置、情報表示方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP6733401B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021010101A (ja) * 2019-07-01 2021-01-28 株式会社日立製作所 遠隔作業支援システム
WO2023275919A1 (ja) * 2021-06-28 2023-01-05 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
WO2012081194A1 (ja) * 2010-12-17 2012-06-21 パナソニック株式会社 医療支援装置、医療支援方法および医療支援システム
JP2016126365A (ja) * 2014-12-26 2016-07-11 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042073A (ja) * 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
WO2012081194A1 (ja) * 2010-12-17 2012-06-21 パナソニック株式会社 医療支援装置、医療支援方法および医療支援システム
JP2016126365A (ja) * 2014-12-26 2016-07-11 セイコーエプソン株式会社 表示システム、表示装置、情報表示方法、及び、プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021010101A (ja) * 2019-07-01 2021-01-28 株式会社日立製作所 遠隔作業支援システム
JP7372061B2 (ja) 2019-07-01 2023-10-31 株式会社日立製作所 遠隔作業支援システム
WO2023275919A1 (ja) * 2021-06-28 2023-01-05 京セラ株式会社 ウェアラブル端末装置、プログラムおよび表示方法

Also Published As

Publication number Publication date
JP6733401B2 (ja) 2020-07-29

Similar Documents

Publication Publication Date Title
US11231897B2 (en) Display system, display device, information display method, and program
US10642564B2 (en) Display system, display device, information display method, and program
JP6693060B2 (ja) 表示システム、表示装置、表示装置の制御方法、及び、プログラム
KR101773892B1 (ko) 표시 장치, 두부 장치형 표시 장치, 표시 시스템 및 표시 장치의 제어 방법
US9898868B2 (en) Display device, method of controlling the same, and program
JP6149403B2 (ja) 表示装置、および、表示装置の制御方法
JP6590050B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
CN107710284B (zh) 用于在虚拟图像生成系统中更有效地显示文本的技术
CN105045375A (zh) 头部佩戴型显示装置、其控制方法、控制系统及计算机程序
JP2014137396A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム
CN111630477A (zh) 提供增强现实服务的设备及其操作方法
JP6554948B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2019164420A (ja) 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム
JP2016024208A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2017134575A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6540426B2 (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
JP2014187574A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP6733401B2 (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016033763A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2017182413A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP2016142966A (ja) 頭部装着型表示装置、情報処理装置、画像表示装置、画像表示システム、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム
JP2016092567A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2018085595A (ja) 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法
JP2018067160A (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200622

R150 Certificate of patent or registration of utility model

Ref document number: 6733401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150