JP6308842B2 - 表示システム及びプログラム - Google Patents

表示システム及びプログラム Download PDF

Info

Publication number
JP6308842B2
JP6308842B2 JP2014072150A JP2014072150A JP6308842B2 JP 6308842 B2 JP6308842 B2 JP 6308842B2 JP 2014072150 A JP2014072150 A JP 2014072150A JP 2014072150 A JP2014072150 A JP 2014072150A JP 6308842 B2 JP6308842 B2 JP 6308842B2
Authority
JP
Japan
Prior art keywords
image
unit
display
reference region
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014072150A
Other languages
English (en)
Other versions
JP2015194880A (ja
Inventor
高志 山木
高志 山木
芳雄 川道
芳雄 川道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2014072150A priority Critical patent/JP6308842B2/ja
Publication of JP2015194880A publication Critical patent/JP2015194880A/ja
Application granted granted Critical
Publication of JP6308842B2 publication Critical patent/JP6308842B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示システム及びプログラムに関する。
現実空間に電子情報を重ね合わせる拡張現実技術が知られている(例えば、特許文献1を参照。)。
[先行技術文献]
[特許文献]
[特許文献1]特表2000−512781号公報
しかし、従来の拡張現実技術においては、現実空間に重ね合わせる電子情報を第三者に閲覧されることなく、複数のユーザ間で共有することができない。
本発明の第1の態様においては、第1表示装置及び第2表示装置を備える表示システムが提供される。上記の表示システムにおいて、第1表示装置は、実空間の像に重畳させて、第1閲覧者に画像を表示する第1表示部と、第1閲覧者から指示された情報であって、第1表示部において実空間の像及び画像の少なくとも一方に重畳させて描画される情報を入力する第1入力部が入力した情報に基づいて、画像を更新する第1画像更新部と、実空間上の第1基準領域と、第1表示部との位置関係に基づいて、第1画像更新部が更新した画像を変換する第1画像変換部と、第1画像変換部が変換した画像を、第1基準領域に重畳させて、又は第1基準領域とともに、第1表示部に表示させる第1表示制御部とを有してよい。上記の表示システムにおいて、第2表示装置は、実空間の像に重畳させて、第2閲覧者に画像を表示する第2表示部と、第1基準領域又は実空間上の第2基準領域と、第2表示部との位置関係に基づいて、第1画像更新部が更新した画像又は第1画像変換部が変換した画像を変換する第2画像変換部と、第1画像更新部が更新した画像、第1画像変換部が変換した画像又は第2画像変換部が変換した画像を、第1基準領域若しくは第2基準領域に重畳させて、又は第1基準領域若しくは第2基準領域とともに、第2表示部に表示させる第2表示制御部とを有してよい。
上記の表示システムにおいて、第1表示装置は、少なくとも第2表示装置の動作モードを変更させる命令を生成する動作モード変更部をさらに備えてよい。上記の表示システムにおいて、第2表示装置は、第2閲覧者から指示された情報であって、第2表示部において実空間の像及び画像の少なくとも一方に重畳させて描画される情報を入力する第2入力部が入力した情報に基づいて、画像を更新する第2画像更新部をさらに備えてよい。上記の表示システムにおいて、第1表示装置は、実空間の像を撮像する第1撮像部と、第1撮像部により撮像された実空間の像の映像を解析して、映像の中に第1基準領域が含まれているか否か判断する画像解析部とをさらに備えてよい。上記の表示システムにおいて、画像解析部が、実空間の像の中に第1基準領域が含まれていないと判断した場合、動作モード変更部は、第2画像更新部に、画像を更新させ、第2画像変換部に、第2基準領域と、第2表示部との位置関係に基づいて、第2画像更新部が更新した画像を変換させ、第2表示制御部に、第2画像更新部が更新した画像又は第2画像変換部が変換した画像を、第2基準領域に重畳させて、又は第2基準領域とともに、第2表示部に表示させるための命令を生成してよい。
上記の表示システムにおいて、第1表示装置は、第1画像変換部が変換した画像及び第1画像更新部が更新した画像のうち、第1表示部に表示させるべき画像を決定する画像決定部をさらに備えてよい。上記の表示システムにおいて、第1表示制御部は、画像決定部により決定された画像を、第1基準領域に重畳させて、又は第1基準領域とともに、第1表示部に表示させてよい。上記の表示システムにおいて、第1表示装置は、第2表示装置を認証する認証部と、第2表示装置が認証部により認証されている場合に、第1画像更新部が更新した画像を、第2表示装置に送信する画像送信部とをさらに備えてよい。
上記の表示システムにおいて、第1画像更新部は、複数の画像を更新してよい。上記の表示システムにおいて、第1表示装置は、複数の画像のそれぞれを識別する画像識別情報と、画像識別情報により識別される画像の第2表示装置への送信の可否に関する情報とが対応付けられた送信制御情報を格納する制御情報格納部と、送信制御情報を参照して、複数の画像のそれぞれについて、第2表示装置への送信の可否を決定する送信制御部とをさらに備えてよい。上記の表示システムにおいて、画像送信部は、複数の画像のうち、送信制御部により送信を許可された画像を第2表示装置に送信してよい。
本発明の第2の態様においては、実空間の像に重畳させて、閲覧者に画像を表示する表示部と、閲覧者から指示された、表示部において実空間の像及び画像の少なくとも一方に重畳させて描画される情報を入力する入力部が入力した情報に基づいて、画像を更新する画像更新部と、実空間上の基準領域と、表示部との位置関係に基づいて、画像更新部が更新した画像を変換する画像変換部と、画像変換部が変換した画像を、基準領域に重畳させて、又は基準領域とともに、表示部に表示させる表示制御部と、画像更新部が更新した画像又は画像変換部が変換した画像を、他の表示装置に送信する画像送信部とを備える表示システムが提供される。
本発明の第3の態様においては、他の表示装置から、画像のデータを受信する画像受信部と、実空間の像に重畳させて、閲覧者に画像を表示する表示部と、画像に含まれる実空間上の第1基準領域の画像、又は実空間上の第2基準領域と、表示部との位置関係に基づいて、画像を変換する画像変換部と、画像変換部が変換した画像を、第1基準領域若しくは第2基準領域に重畳させて、又は第1基準領域若しくは第2基準領域とともに、表示部に表示させる表示制御部とを備える表示システムが提供される。
本発明の第4の態様においては、コンピュータを、上記の何れかの表示システムとして機能させるためのプログラムが提供される。表示システム用のプログラムを記憶するコンピュータ読み取り可能な媒体であって、プログラムは、コンピュータを、上記の何れかの表示システムとして機能させるコンピュータ読み取り可能な媒体が提供されてもよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
表示システム100の一例を概略的に示す。 表示端末122を通して視認される映像200の一例を概略的に示す。 表示端末142を通して視認される映像300の一例を概略的に示す。 画像変換処理の一例を概略的に示す。 画像変換処理の他の例を概略的に示す。 ユーザ端末112のシステム構成の一例を概略的に示す。 画面生成部650のシステム構成の一例を概略的に示す。 表示制御部758のシステム構成の一例を概略的に示す。 共有制御部660のシステム構成の一例を概略的に示す。 データテーブル1000の一例を概略的に示す。 表示端末122を通して視認される映像1100の一例を概略的に示す。 表示システム1200の一例を概略的に示す。 表示システム1300の一例を概略的に示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一または類似の部分には同一の参照番号を付して、重複する説明を省く場合がある。
図1は、表示システム100の一例を概略的に示す。図1を用いて、基準マーカ104が付されたホワイトボード102上に描画される画像の電子情報を、ユーザ端末112及びユーザ端末114の間で共有する場合を例として、表示システム100について説明する。
本実施形態において、表示システム100は、ユーザ12に情報を提示するユーザ端末112と、ユーザ14に情報を提示するユーザ端末114とを備える。ユーザ端末112は、表示端末122と、通信端末124とを備える。ユーザ端末114は、表示端末142と、通信端末144とを備える。ユーザ12は、第1閲覧者の一例であってよい。また、ユーザ14は、第2閲覧者の一例であってよい。ユーザ端末112は、第1表示装置の一例であってよい。ユーザ端末114は、第2表示装置の一例であってよい。
ホワイトボード102及び基準マーカ104の少なくとも一方は、ユーザ端末112及びユーザ端末114が電子的な画像(単に、画像と称する場合がある。)を実空間の像に重畳させて表示する場合において、当該電子的な画像の表示位置を決定するための基準点又は基準領域として利用される。ホワイトボード102及び基準マーカ104の少なくとも一方は、ユーザ端末112及びユーザ端末114が電子的な画像を実空間の像に重畳させて表示する場合において、当該電子的な画像の形状、又は形状及び大きさを決定するための基準領域として利用されてもよい。
ホワイトボード102及び基準マーカ104は、少なくとも実空間における形状が、予め定められている。ホワイトボード102及び基準マーカ104は、大きさ及び形状が予め定められていてもよい。ホワイトボード102及び基準マーカ104は、模様、色彩及びこれらの組み合わせが施されていてもよい。ホワイトボード102及び基準マーカ104の少なくとも一方は、第1基準領域の一例であってよい。
説明を簡単にする目的で、本実施形態においては、基準マーカ104を、第1基準領域の一例として利用する場合を例として、表示システム100について説明する。しかし、第1基準領域は、本実施形態に限定されない。他の実施形態において、複数の基準マーカ104が、第1基準領域として利用される。例えば、第1基準領域として利用される2つの基準マーカ104が、ホワイトボード102の4つの角のうち、対向する2つの角に配される。2つの基準マーカ104が、ホワイトボード102に対角線上に配されてもよい。また、基準マーカ104及びホワイトボード102が第1基準領域として利用される。これにより、電子的な画像の表示位置を精度よく決定することができる。
なお、画像を実空間の像に重畳させて表示するとは、(i)光を透過して実空間の像を閲覧者に提供するとともに、閲覧者に対して電子的な画像を表示する透過型ディスプレイにおいて、閲覧者が透過型ディスプレイを通して実空間の像を見た場合に、当該閲覧者により、電子的な画像及び実空間の像が重畳しているように視認される位置に、当該電子的な画像を表示することだけでなく、(ii)実空間の像を撮像して得られた電子的な映像と、電子的な画像とを合成して得られた画像を表示することを示す。電子的な映像は、動画像であってもよく、静止画像であってもよい。また、画像又は映像には、音声情報が含まれてもよく、画像の表示又は映像の再生とともに、音声が再生されてもよい。
次に、ユーザ端末112及びユーザ端末114における情報処理の概要を説明する。本実施形態において、ユーザ端末112及びユーザ端末114は、マスター/スレーブ方式により、実空間の像に重畳させて表示される画像の電子情報を共有する。説明を簡単にする目的で、本実施形態においては、ユーザ端末112がマスター端末として機能し、ユーザ端末114がスレーブ端末として機能する場合を例として、ユーザ端末112及びユーザ端末114について説明する。
本実施形態において、ユーザ端末112は、ユーザ端末114との間で共有する画像を管理する。ユーザ端末112は、例えば、ユーザ12の指示に基づいて、画像を更新する。例えば、ユーザ端末112及びユーザ端末114の間で「AB」という文字列の画像が共有されている場合において、ユーザ端末112が、ユーザ12から、「AB」という文字列の後ろに「CD」という文字列を入力するための指示を受け取った場合、ユーザ端末112は、現在、共有されている「AB」という文字列の画像の内容を更新して、「ABCD」という文字列の画像を生成する。ユーザ端末112は、更新された画像を、ユーザ端末114に送信する。これにより、ユーザ端末112及びユーザ端末114は、ユーザ12及びユーザ14に対して表示される画像を共有することができる。
ユーザ端末112及びユーザ端末114は、実空間の像に重畳させて、それぞれのユーザに画像を表示する。ユーザ端末112及びユーザ端末114は、必要に応じて画像を変換し、変換後の画像をそれぞれのユーザに表示する。例えば、ユーザ端末112及びユーザ端末114は、それぞれのユーザと、基準マーカ104との位置関係に応じて、画像の形状、又は画像の形状及び大きさを変換する。これにより、あたかも、画像が実空間上の特定の位置に固定されているかのように、当該画像を表示することができる。
一実施形態によれば、ユーザ端末112は、画像を更新した後、変換処理前の画像をユーザ端末114に送信する。この場合、ユーザ端末114は、受信した画像を変換して、変換処理後の画像をユーザ14に表示してよい。他の実施形態によれば、ユーザ端末112は、画像を更新した後、更新された画像をユーザ14に表示するために変換する。例えば、ユーザ端末112は、ユーザ端末114から、ユーザ14の近傍において撮像された基準マーカ104の形状に関する情報を取得する。ユーザ端末112は、変換前の画像中の基準マーカ104の形状と、ユーザ14の近傍において撮像された基準マーカ104の形状とを比較して、両者が同一となる又は相似するように、画像の形状を変換する。ユーザ端末112は、変換後の画像をユーザ端末114に送信する。この場合、ユーザ端末114は、ユーザ端末112から受信した画像をユーザ14に表示してもよい。
なお、マスター/スレーブ方式におけるマスター端末及びスレーブ端末の区別は絶対的なものではなく、マスター端末において予め定められたイベントが発生した場合、マスター端末は、1以上のスレーブ端末のうちの1つに対して、当該スレーブ端末をマスター端末として機能させるための命令を送信してよい。これにより、マスター端末を切り替えることができる。予め定められたイベントとしては、ユーザから、マスター端末を切り替えるための指示が入力されたこと、ユーザ端末112が基準マーカ104を認識できなくなったことなどを例示することができる。
このように、本実施形態の表示システム100によれば、実空間の像に重畳される画像を複数のユーザ端末間で共有しながら、リアルタイムに画像を更新することができる。また、ユーザ端末の位置に応じて、画像を変換することができる。これにより、臨場感が増加する。さらに、実空間上で情報を描画することなく、当該情報を共有することができるので、情報漏洩のリスクを低減することができる。
本実施形態の表示システム100によれば、現実のホワイトボードでは不可能な要求に対応することができる。例えば、本実施形態の表示システム100によれば、画像の表示範囲又は描画範囲を自由に指定することもできる。これにより、例えば、壁面全体をホワイトボードとして利用することができる。また、画像を表示させるとともに、画像に関連付けられた音声を再生することもできる。
次に、ユーザ端末112の各部の概要について説明する。なお、ユーザ端末114は、ユーザ端末112と同様の構成を有してよい。そのため、ユーザ端末114の各部については、説明を省略する場合がある。
本実施形態において、ユーザ端末112は、ユーザ12に情報を提示し、ユーザ端末114と情報を送受することができる装置であればよく、詳細については特に限定されない。ユーザ端末112は、パーソナルコンピュータ、携帯端末、無線端末、及びこれらの組み合わせであってよい。携帯端末としては、携帯電話若しくはスマートフォン、ノートブック・コンピュータ若しくはラップトップ・コンピュータ、PDA、タブレット端末、ウェアラブル・コンピュータなどを例示することができる。ウェアラブル・コンピュータとしては、アイウエア型、腕輪型又は指輪型のウェアラブル・コンピュータを例示することができる。
表示端末122は、実空間の像に重畳させて、ユーザ12に画像を表示する。本実施形態において、表示端末122は、通信端末124から、ユーザ12に提示すべき画像を受信して、当該画像を表示する。
表示端末122は、ウェアラブル・コンピュータであることが好ましく、アイウエア型の表示デバイスであることが好ましい。アイウエア型の表示デバイスとしては、ヘッドマウントディスプレイ、メガネ型の表示デバイス、コンタクトレンズ型の表示デバイスなどを例示することができる。表示端末122は、透過型ディスプレイを有してもよい。
本実施形態において、表示端末122は、基準マーカ104が含まれるように、ホワイトボード102の少なくとも一部を撮像する。表示端末122は、ユーザ12の頭部に装着されているので、ユーザ12の視線に近い映像を取得することができる。撮像された映像を解析することで、ユーザ12及び基準マーカ104の位置関係に関する情報を取得することができる。表示端末122は、ユーザ12又は第三者のジェスチャを撮像してもよい。撮像された映像を解析することで、ユーザ12又は第三者のジェスチャを検出することができる。これにより、いわゆるジェスチャ入力(ジェスチャ認識と称される場合がある。)を実現することができる。本実施形態において、表示端末122は、撮像された映像を通信端末124に送信する。
ユーザ又は第三者(ユーザなどと称する場合がある。)のジェスチャとしては、ユーザなどの動作、ユーザなどが装着又は所持しているデバイスの動き、ユーザなどの視線の動きなどを例示することができる。ユーザなどの動作としては、ユーザなどの指先の動き、ユーザなどの手の形、ユーザなどの腕の形などを例示することができる。なお、ユーザなどのジェスチャの検出方法は、撮像された映像から検出する方法に限定されない。例えば、ユーザなどが、加速度センサ、ジャイロセンサなどを備えたウェアラブル・コンピュータ又は携帯端末を装着又は所持している場合、当該ウェアラブル・コンピュータ又は携帯端末を利用することにより、ユーザなどのジェスチャを検出することができる。通信端末124は、ユーザ12の指示により、ユーザなどのジェスチャを検出してよい。
本実施形態において、通信端末124は、表示端末122に表示される画像を生成する。例えば、通信端末124は、ユーザ12により入力された、表示端末122に表示されるべき情報に基づいて、表示端末122に表示される画像を更新する。通信端末124は、ユーザ14により入力された、表示端末122に表示されるべき情報に基づいて、表示端末122に表示される画像を更新してもよい。
通信端末124は、表示端末122から受信した映像の中から、ユーザ12のジェスチャを検出して、ユーザ12からの入力を検出してよい。一実施形態において、通信端末124は、表示端末122から受信した映像の中から、基準マーカ104の形状を検出する。通信端末124は、検出された基準マーカ104の形状と、基準マーカ104を正面から見た場合の形状(基準マーカ104の基本形状と称する場合がある。)とを比較する。通信端末124は、上記の比較結果と、ユーザ12のジェスチャに基づいて検出されたユーザ12からの入力とに基づいて、基準マーカ104を正面から見る位置において、ユーザ12のジェスチャを見ていた場合に検出されたであろう、ユーザ12からの入力(基本入力と称する場合がある。)を生成する。
通信端末124は、同様にして、ユーザ端末114から映像を取得して、当該映像に基づいて、ユーザ14からの入力を検出してもよい。また、基準マーカ104を正面から見る位置において、ユーザ14のジェスチャを見ていた場合に検出されたであろう、ユーザ14からの入力を生成してもよい。通信端末124は、ユーザ端末114において同様にして検出又は生成されたユーザ14からの入力に関する情報を、ユーザ端末114から取得してもよい。これにより、通信端末124は、ユーザ14からの入力に基づいて、画像を更新することができる。
一実施形態において、通信端末124は、基準マーカ104を正面から見ているかのように、画像を表示する(相対位置表示と称する場合がある。)。この場合、表示端末122と基準マーカ104との位置関係が変わった場合であっても、当該位置関係によらず、同一の画像が表示される。
他の実施形態において、通信端末124は、表示端末122と基準マーカ104との位置関係に応じて、画像の形状、又は画像の形状及び大きさが変化するように、画像を表示する(絶対位置表示と称する場合がある。)。通信端末124が、基準マーカ104の大きさに関する情報を取得できる場合、通信端末124は、表示端末122と基準マーカ104との位置関係に応じて、画像の形状及び大きさを変化させてもよい。この場合、画像が、実空間上の特定の位置に固定されているかのように表示される。
通信端末124は、ユーザ端末114との間で情報を送受する。例えば、通信端末124は、ユーザ端末114に対して、共有する画像に関する情報を送信する。通信端末124は、表示端末と基準マーカとの位置関係によらない画像(基本画像と称する場合がある。)を送信してもよく、表示端末122と基準マーカ104との位置関係に応じて変換された画像を送信してもよい。通信端末124は、表示端末142と基準マーカ104との位置関係に応じて変換された画像を送信してもよい。
一実施形態において、通信端末124は、有線通信方式又は近距離無線通信方式により、ユーザ端末114との間で情報を送受する。近距離無線通信方式としては、NFC、Bluetooth(登録商標)、WiFi(登録商標)、WiMAX(登録商標)などを例示することができる。
他の実施形態において、通信端末124は、通信回線を介して、ユーザ端末114との間で情報を送受する。通信回線は、無線通信の伝送路であってもよく、有線通信の伝送路であってもよく、無線通信の伝送路及び有線通信の伝送路の組み合わせであってもよい。通信回線としては、移動体通信網、無線パケット通信網、インターネット、専用回線及びこれらの組み合わせを例示することができる。
ユーザ端末114は、ユーザ14に情報を提示する。表示端末142は、実空間の像に重畳させて、ユーザ14に画像を表示する。通信端末144は、ユーザ端末112との間で情報を送受する。本実施形態において、通信端末144は、通信端末124から、更新された画像に関する情報を受信する。通信端末144は、受信した画像に基づいて、表示端末142に表示させる画像を生成してよい。その他の点については、ユーザ端末114、表示端末142及び通信端末144は、ユーザ端末112、表示端末122及び通信端末124と同様の構成を有してもよい。
表示システム100の各部は、ハードウエアにより実現されてもよく、ソフトウエアにより実現されてもよく、ハードウエアとソフトウエアとの組み合わせにより実現されてもよい。例えば、プログラムが実行されることにより、コンピュータが、表示システム100の各部として機能する。
上記のソフトウエア又はプログラムは、CD−ROM、DVD−ROM、メモリ、ハードディスクなどのコンピュータ読み取り可能な媒体に記憶されていてもよく、ネットワークに接続された記憶装置に記憶されていてもよい。ソフトウエア又はプログラムは、コンピュータ読み取り可能な媒体又はネットワークに接続された記憶装置から、ユーザ端末112及びユーザ端末114のそれぞれのコンピュータにインストールされてよい。
コンピュータを、表示システム100の各部として機能させるプログラムは、表示システム100の各部の動作を規定したモジュールを備えてよい。これらのプログラム又はモジュールは、プロセッサ、通信インターフェース等に働きかけて、表示システム100の各部として機能させたり、表示システム100の各部における情報処理方法を実行させたりする。
これらのプログラムに記述された情報処理は、コンピュータに読込まれることにより、ソフトウエアと、ユーザ端末112及びユーザ端末114のハードウエア資源とが協働した具体的手段として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータの使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた表示システム100を構築することができる。
表示システム100の各部は、一般的な構成の情報処理装置において、表示システム100の各部の動作を規定したソフトウエア又はプログラムを起動することにより実現されてよい。表示システム100又はその一部として用いられる情報処理装置は、CPU等のプロセッサ、ROM、RAM、通信インターフェースなどを有するデータ処理装置と、キーボード、タッチパネル、マイクなどの入力装置と、液晶ディスプレイ、透過型ディスプレイ、プロジェクタなどの表示装置と、スピーカなどの出力装置と、メモリ、HDDなどの記憶装置とを備えてよい。上記のデータ処理装置又は記憶装置は、上記のソフトウエア又はプログラムを記憶してよい。
本実施形態において、基準マーカ104がホワイトボード102に付されている場合について説明した。しかし、基準マーカ104の付される場所はホワイトボード102に限定されない。他の実施形態において、基準マーカ104は、壁、机、手のひらなどに付されてよい。これにより、基準マーカ104の付された実空間上の位置を基準として、電子的な画像を実空間の像に重畳させて表示することができる。基準マーカ104が配される場所は、平坦であることが好ましいが、湾曲していてもよい。
本実施形態において、特定の画像を、実空間のホワイトボード102に重畳させて表示する場合について説明した。しかし、画像の表示方法は、実施形態に限定されない。他の実施形態において、ホワイトボードの電子的な画像を生成して、特定の画像を、当該ホワイトボードの電子的な画像に重畳させて表示してもよい。
本実施形態において、基準マーカ104が第1基準領域として利用され、画像が基準マーカ104とともに表示される場合について説明した。しかし、第1基準領域は、本実施形態に限定されない。他の実施形態において、ユーザ端末112及びユーザ端末114が、ホワイトボード102の形状に関する情報を記憶している、又は通信回線を介して当該情報を取得することができる場合には、ホワイトボード102が第1基準領域として利用され、画像がホワイトボード102に重畳して表示されてもよい。なお、この場合、基準マーカ104はなくてもよい。
本実施形態において、ユーザ端末112及びユーザ端末114のそれぞれが、同一の基準マーカ104を利用して、それぞれの表示部に表示させる画像を変換する場合について説明した。しかし、ユーザ端末112及びユーザ端末114は、本実施形態に限定されない。他の実施形態において、ユーザ端末112が画像の変換に利用する基準領域と、ユーザ端末114が画像の変換に利用する基準領域とが異なってもよい。例えば、種類の異なる基準マーカが利用される場合であっても、それぞれの基準マーカの基本形状が既知であれば、同一の種類の基準マーカを利用する場合又は同一の基準マーカを利用する場合と同様に、情報を共有することができる。ユーザ端末114が画像の変換に利用する基準領域は、第2基準領域の一例であってよい。第2基準領域は、第1基準領域と物理的に異なる位置に配されるものであればよく、その他の構成については、第1基準領域と同様の構成を有してよい。
本実施形態において、第1基準領域及び第2基準領域が、物理的な形状を有する場合について説明した。しかし、第1基準領域及び第2基準領域は、本実施形態に限定されない。他の実施形態において、第1基準領域及び第2基準領域の少なくとも一方は、点滅のリズムやパターンなどが予め定められた光点又は光点群であってもよく、複数のレーザー光線により示されてもよい。第1基準領域及び第2基準領域の少なくとも一方は、液晶ディスプレイ、プロジェクタなどの表示装置により表示される映像であってもよい。
本実施形態において、画像がホワイトボード102に重畳するように描画される場合について説明した。しかし、画像が描画される領域(描画領域と称する場合がある。)は、本実施形態に限定されない。他の実施形態において、電子的な画像が描画される領域の大きさは、ユーザ12により指定される。ユーザ12は、基準マーカ104及び描画領域の位置関係、描画領域の大きさ若しくは範囲、並びに、描画領域の形状、模様、色彩及びこれらの組み合わせの少なくとも1つについて指定してもよい。
図2及び図3を用いて、表示端末122及び表示端末142における画像の表示方法の一例について説明する。図2及び図3においては、表示端末122及び表示端末142が、透過型ディスプレイを有する場合について説明する。
図2は、ユーザ12が、表示端末122を通して視認する映像200の一例を概略的に示す。図3は、ユーザ14が、表示端末142を通して視認する映像300の一例を概略的に示す。
映像200は、ユーザ14、ユーザ12の手28の一部、ホワイトボード102及び基準マーカ104の像を含む。ユーザ14、ユーザ12の手28の一部、ホワイトボード102及び基準マーカ104の像は、表示端末142を透過してユーザ12に視認される実空間の像である。
映像200は、ウィンドウ210、ウィンドウ220及びウィンドウ230を含む。ウィンドウ210、ウィンドウ220及びウィンドウ230は、表示端末142に表示される画像である。本実施形態において、ウィンドウ210、ウィンドウ220及びウィンドウ230は、表示端末142を透過してユーザ12に視認される実空間の像に重畳するように表示される。また、ウィンドウ220及びウィンドウ230は、ウィンドウ210に重畳して表示され、ウィンドウ220は、ウィンドウ230に重畳して表示される。
ウィンドウ210は、コマンド表示部212と、複数のアイコン214とを含む。コマンド表示部212は、ウィンドウ210又はウィンドウ210内に表示される画像を操作するための1以上のコマンドを表示する。複数のアイコン214のそれぞれは、上記の1以上のコマンドの1つに対応付けられる。
上記のコマンドとしては、ウィンドウ210のサイズの変更、ウィンドウ210の画面表示の可否、ウィンドウ210に表示される画像の共有に関する設定などを例示することができる。画像の共有に関する設定としては、共有の開始又は終了、他の端末からの共有の申し出に対する応答などを例示することができる。共有の申し出に対する応答としては、共有の許可、共有の拒否、判断の保留などを例示することができる。
ウィンドウ210は、画像216を含む。本実施形態において、画像216は、ユーザ端末114と共有されている。また、画像216は、表示端末122及び基準マーカ104の位置関係に応じて変換されている。ユーザ端末112及びユーザ端末114は、画像216の内容だけでなく、画像216及び基準マーカ104の位置関係についても共有する。そのため、例えば、ユーザ12が移動して、ユーザ12及び基準マーカ104の位置関係が変化すると、画像216の形状又は画像216の形状及び大きさも変化する。一方、ユーザ12及び基準マーカ104の位置関係が変化しても、画像216は、ホワイトボード102上の特定の位置に重畳するように表示される。
ウィンドウ220は、コマンド表示部222と、複数のアイコン224とを含む。コマンド表示部222及びアイコン224は、それぞれ、コマンド表示部212及びアイコン214と同様の構成を有してよい。ウィンドウ220は、画像226を含む。本実施形態において、画像226は、ユーザ端末114と共有されていない。
本実施形態において、画像226は、画像216の内容のうち、ユーザ12により指定された範囲に含まれる内容を拡大して表示するための画像である。本実施形態において、画像216及び画像226は、同一の基本画像に基づいて生成される。画像216及び画像226は、表示される範囲、並びに、表示される内容の大きさ及び形状が異なる。本実施形態において、ユーザ端末112は、画像216上の位置と、画像226上の位置との対応関係を記憶しており、ユーザ12が、画像226上で入力した事項は、画像216に反映される。
これにより、例えば、ユーザ12は、画像226の特定の位置を指定し、当該指定した位置に、キーボード、タッチパネル、マイクなどの入力デバイスを用いて文字、図形などを入力することができる。入力された情報は、画像216に反映され、ユーザ端末114に表示される画像にも反映される。また、ユーザ12が、ホワイトボード102から離れた位置にいる場合、ジェスチャ入力により、ホワイトボード102上に文字などを入力することが難しい場合がある。ウィンドウ220内に画像216の一部を拡大して表示することで、例えば、ユーザ12がホワイトボード102から離れた位置にいる場合であっても、ホワイトボード102上に文字などを容易に入力することができる。
ウィンドウ230は、コマンド表示部232と、複数のアイコン234とを含む。コマンド表示部232及びアイコン234は、それぞれ、コマンド表示部212及びアイコン214と同様の構成を有してよい。ウィンドウ230は、スプレッドシート236を含む。本実施形態において、スプレッドシート236は、ユーザ端末114と共有されていない。これにより、ユーザ12は、スプレッドシート236の情報を閲覧しながら、画像216上で情報を入力することができる。
映像300は、ユーザ12、ユーザ14の手38の一部、ホワイトボード102及び基準マーカ104の像を含む。ユーザ12、ユーザ14の手38の一部、ホワイトボード102及び基準マーカ104の像は、表示端末142を透過してユーザ14に視認される実空間の像である。
映像300は、ウィンドウ310を含む。ウィンドウ310は、表示端末142に表示される画像である。本実施形態において、ウィンドウ310は、表示端末142を透過してユーザ14に視認される実空間の像に重畳するように表示される。
ウィンドウ310は、コマンド表示部312と、複数のアイコン314とを含む。コマンド表示部312及びアイコン314は、それぞれ、コマンド表示部212及びアイコン214と同様の構成を有してよい。ウィンドウ310は、画像316を含む。本実施形態において、画像316は、ユーザ端末112と共有されている。画像316は、画像216に対応する。画像316は、表示端末142及び基準マーカ104の位置関係に応じて変換されている。そのため、画像216及び画像316は、表示される内容は同一であるが、形状又は形状及び大きさが異なる場合がある。
図4は、画像変換処理の一例を概略的に示す。本実施形態においては、ユーザ端末112は、各画像の基本画像を管理しており、ユーザ12、又はユーザ12及びユーザ14からの指示に基づいて、基本画像を更新する。
例えば、ユーザ端末112は、画像216及び画像316に対応する基本画像416と、スプレッドシート236のデータ436とを記憶装置に記憶している。基本画像416は、ユーザ端末112において変換され、基本画像416とは形状又は形状及び大きさの異なる画像216が生成される。また、基本画像416の特定の領域が切り取られて、画像226が生成される。さらに、データ436のうち、画面上に表示させる領域が決定され、スプレッドシート236の画像が生成される。その後、生成された画像が、それぞれのウィンドウ内の特定の位置に配される。
一方、基本画像416は、ユーザ端末112及びユーザ端末114の少なくとも一方において変換され、画像316が生成される。基本画像416がユーザ端末112において変換される場合、変換後の画像316がユーザ端末114に送信される。基本画像416がユーザ端末114において変換される場合、変換前の基本画像416がユーザ端末114に送信される。その後、画像316が、ウィンドウ310内の特定の位置に配される。
図5は、画像変換処理の他の例を概略的に示す。本実施形態においては、ユーザ端末112は、表示端末122に表示されている画像を管理しており、ユーザ12、又はユーザ12及びユーザ14からの指示に基づいて、当該画像を更新する。
例えば、ユーザ端末112は、例えば、現在、表示端末122に表示されている画像516と、スプレッドシート236のデータ436とを記憶装置に記憶している。画像516は、ユーザ端末112において変換され、画像516とは形状又は形状及び大きさの異なる画像216が生成される。なお、ユーザ12及び基準マーカ104の位置関係の変動が小さく、画像の内容に変更がない場合、画像516及び画像216の形状及び大きさは、ほぼ同一である。
また、画像516が基本画像416に変換され、変換された基本画像416の特定の領域が切り取られて、画像226が生成される。さらに、データ436のうち、画面上に表示させる領域が決定され、スプレッドシート236の画像が生成される。その後、生成された画像が、それぞれのウィンドウ内の特定の位置に配される。
一方、画像516は、ユーザ端末112及びユーザ端末114の少なくとも一方において変換され、画像316が生成される。画像516がユーザ端末112において変換される場合、変換後の画像316がユーザ端末114に送信される。画像516がユーザ端末114において変換される場合、変換前の画像516がユーザ端末114に送信される。また、ユーザ端末112において、一旦、画像516が基本画像416に変換され、基本画像416がユーザ端末114に送信されてもよい。この場合、ユーザ端末114において、基本画像416が変換されて、画像316が生成される。その後、画像316が、ウィンドウ310内の特定の位置に配される。
図6は、ユーザ端末112のシステム構成の一例を概略的に示す。本実施形態において、ユーザ端末112は、入力部610と、校正部632と、動作モード決定部634と、基準マーカ検出部636と、画面生成部650と、表示部652と、共有制御部660と、送信部662と、通信制御部672と、通信制御部674とを備える。入力部610は、撮像部612と、マイク614と、ジェスチャ検出部616と、受信部618とを有する。ユーザ端末112の各部は、互いに情報を送受してよい。動作モード決定部634は動作モード変更部の一例であってよい。基準マーカ検出部636は、画像解析部の一例であってよい。送信部662は、画像送信部の一例であってよい。
本実施形態において、撮像部612、マイク614、表示部652及び通信制御部672が、表示端末122に配され、その他の部材が、通信端末124に配される場合について説明する。しかし、ユーザ端末112は、本実施形態に限定されない。他の実施形態において、全ての部材が表示端末122に配されてもよく、画面生成部650が表示端末122に配されてもよい。ユーザ端末114は、ユーザ端末112と同様のシステム構成を有してよい。
入力部610は、ユーザ12の指示に基づく情報であって、表示端末122において実空間の像及び電子的な画像の少なくとも一方に重畳させて描画される情報を入力する。入力部610の各部は、入力された情報を通信端末124に送信してよい。なお、入力部610は、キーボード、タッチパネル、マウスなどのその他の入力デバイスを有してもよい。
撮像部612は、実空間の像を撮像する。撮像部612は、複数のカメラを有してよい。例えば、撮像部612は、基準マーカ104を撮像するためのカメラと、ユーザ12のジェスチャを撮像するためのカメラとを備える。ユーザ12のジェスチャを撮像するためのカメラは、ユーザ12の手又は指を撮像するためのカメラと、ユーザ12の目を撮像するためのカメラとを含んでもよい。なお、撮像される映像は、静止画像であってもよく、動画像であってもよい。撮像される映像は動画像であることが好ましい。
マイク614は、音声を入力する。これにより、ユーザ12は、音声によりユーザ端末112に対する指示を入力することができる。
ジェスチャ検出部616は、撮像部612により撮像された映像を解析して、ユーザ12などのジェスチャを検出する。ジェスチャ検出部616は、検出されたジェスチャを解析して、ユーザ12などからの入力を検出してよい。
受信部618は、ユーザ端末114を介して、ユーザ14からの指示又は入力を受信する。受信部618は、ユーザ端末114から、ユーザ端末114の撮像部612により撮像された映像を受信してもよい。
校正部632は、表示端末122に表示される画像の位置を校正する。表示端末122が、ユーザ12の頭部に装着されるデバイスである場合、撮像部612及びユーザ12の目の距離は、比較的、個人差が小さい。そこで、ユーザ端末112は、撮像部612及びユーザ12の目のおおよその距離に基づいて、表示端末122に表示される画像の位置を調整することができる。校正部632は、表示端末122に表示される画像の位置をさらに微調整する。例えば、表示端末122が透過型ディスプレイを有する場合、ユーザ12は、校正部632を起動して、撮像部612により撮像された映像を表示端末122に表示しながら、表示端末122に表示される映像と、表示端末122を介して視認される実空間の像とが一致するように、画像の表示位置を調整する。
これにより、校正部632は、撮像部612により撮像された映像中の位置と、表示部652上の位置との関係を取得することができる。校正部632は、撮像部612により撮像された映像中の位置ごとに、上記の関係を取得してもよい。撮像部612により撮像された映像中の位置と、表示部652上の位置との関係を利用することで、表示部652上で、画像と、実空間の像とを、より正確に重畳させることができる。校正部632は、上記の関係を示す情報を表示制御部758に送信してよい。校正部632は、上記の関係を示す情報を記憶してもよい。なお、ユーザ12は、表示端末122が非透過型ディスプレイを有する場合にも、校正部632を起動して画像の表示位置を調整してよい。
動作モード決定部634は、ユーザ端末112及びユーザ端末114の少なくとも一方の動作モードを決定する。動作モードとしては、マスター端末として動作するモードと、スレーブ端末として動作するモードとを例示することができる。動作モード決定部634は、例えば、ユーザ端末112の動作モードを、マスター端末として動作するモードから、スレーブ端末として動作するモードに変更することを決定した場合に、少なくともユーザ端末114の動作モードを変更させる命令を生成する。動作モード決定部634は、生成された命令をユーザ端末114に送信する。これにより、ユーザ端末114の動作モードを、例えば、マスター端末として動作するモードに変更させることができる。動作モード決定部634は、ユーザ端末112及びユーザ端末114の動作モードを変更させる命令を生成してもよい。
例えば、動作モード決定部634は、基準マーカ検出部636が、ユーザ端末112の撮像部612により撮像された実空間の像の中に基準マーカ104が含まれていないと判断した場合に、上記の命令を生成する。ユーザ端末114の動作モードを、マスター端末として動作するモードに変更させるための命令は、例えば、ユーザ端末114の画面生成部650に、画像を更新させるための手順と、ユーザ端末114の画面生成部650に、基準マーカ104と、ユーザ端末114の表示部652との位置関係に基づいて、画面生成部650が更新した画像を変換させるための手順と、ユーザ端末114の画面生成部650に、画面生成部650が変換した画像を、基準マーカ104に重畳させて、又は基準マーカ104とともに、ユーザ端末114の表示部652に表示させるための手順とを含む。ユーザ端末114の共有制御部660又は送信部662に、ユーザ端末114の画面生成部650が更新した画像又は変換した画像を、ユーザ端末112に送信させるための手順を含んでもよい。
基準マーカ検出部636は、撮像部612により撮像された実空間の像の映像を解析して、当該映像の中に基準マーカ104が含まれているか否かを判断する。上記映像の中に基準マーカ104が含まれている場合、基準マーカ検出部636は、基準マーカ104の形状を検出してよい。基準マーカ検出部636は、基準マーカ104の形状とともに、基準マーカ104の位置及び大きさの少なくとも一方を検出してもよい。基準マーカ検出部636は、検出された情報を画面生成部650に送信してよい。上記の情報は、基準マーカ104が検出されたことを示す情報の一例であってよい。上記映像の中に基準マーカ104が含まれていなかった場合、基準マーカ検出部636は、基準マーカ104が検出されなかったことを示す情報を、動作モード決定部634に送信してよい。
画面生成部650は、表示部652に表示させる画面を生成する。例えば、画面生成部650は、表示部652に表示する画像を更新する。画面生成部650は、ユーザ12及びユーザ14の少なくとも一方から入力された情報に基づいて、画像の内容を更新してよい。画面生成部650は、実空間上の基準マーカ104と、表示部652との位置関係に基づいて、更新された画像を変換してよい。画面生成部650は、更新された画像又は変換された画像を、基準マーカ104に重畳させて、又は基準マーカ104とともに、表示部652に表示させてよい。
表示部652に表示される画面の少なくとも一部の領域に表示される情報を、ユーザ端末114と共有する場合、画面生成部650は、当該領域に表示される画像をキャプチャしてよい。画面生成部650は、キャプチャした画像を、ユーザ端末114にストリーミング配信してよい。これにより、表示部652に表示される画面の少なくとも一部の領域に表示される情報を、ユーザ端末114と共有することができる。画像とともに、音声情報がストリーミング配信されてもよい。
表示部652は、実空間の像に重畳させて、ユーザ12に画像を表示する。表示部652は、液晶ディスプレイ、有機ELディスプレイ、プロジェクタなどの表示デバイスであってよい。表示部652は、透過型ディスプレイを有してよい。透過型ディスプレイには、プロジェクタにより映像が投影されてもよい。表示部652は、ユーザ12の目の一部に映像を投影するプロジェクタであってもよい。目の一部は、網膜であってよい。
共有制御部660は、ユーザ端末114などの他の端末との間で画像を共有するための処理を制御する。例えば、共有制御部660は、ユーザ端末114などの他の端末を認証する。共有制御部660は、複数の画像の共有に関する設定を管理してよい。共有制御部660は、複数の画像のそれぞれについて、共有を許可された端末又は共有を禁止された端末を識別する端末識別情報(端末IDと称する場合がある。)を対応付けて格納してよい。
送信部662は、ユーザ端末114などの他の端末に画像を送信する。送信部662は、共有制御部660の制御に従って、ユーザ端末114などの他の端末に画像を送信してよい。一実施形態において、送信部662は、ユーザ端末114が、共有制御部660により認証されている場合に、画面生成部650により更新又は変換された画像をユーザ端末114に送信する。他の実施形態において、送信部662は、複数の画像のうち、共有制御部660により、ユーザ端末114に対して送信することを許可された画像を、ユーザ端末114に送信する。
ユーザ端末112がスレーブ端末として機能している場合、送信部662は、ユーザ端末112において検出されたユーザ12からの指示又は入力に関する情報を、マスター端末に送信してよい。送信部662は、撮像部612により撮像された映像を、マスター端末に送信してもよい。
通信制御部672及び通信制御部674は、表示端末122及び通信端末124における通信を制御する。表示端末122及び通信端末124は、例えば、有線通信方式又は近距離無線通信方式により情報を送受する。近距離無線通信方式としては、NFC、Bluetooth(登録商標)、WiFi(登録商標)、WiMAX(登録商標)などを例示することができる。通信制御部672及び通信制御部674は、通信インターフェースであってもよい。通信制御部672及び通信制御部674は、複数の通信方式に対応していてもよい。
本実施形態において、ユーザ端末114は、ユーザ14により利用され、スレーブ端末として動作する。そのため、例えば、下記の点で、ユーザ端末112と相違する。ユーザ端末114において、撮像部612は、実空間の像に重畳させて、ユーザ14に画像を表示する。入力部610は、ユーザ14からの入力を受け付ける。
ユーザ端末114において、画面生成部650は、基準マーカ104と、表示部652との位置関係に基づいて、ユーザ端末112の画面生成部650が更新又は変換した画像を変換してよい。なお、ユーザ14が、基準マーカ104とは異なる第2の基準マーカを利用している場合、画面生成部650は、ユーザ端末112の画面生成部650が更新した画像、ユーザ端末112の画面生成部650が変換した画像又はユーザ端末114の画面生成部650が変換した画像を、第2の基準マーカに重畳させて、又は第2の基準マーカとともに、表示部652に表示させてもよい。
図7は、画面生成部650のシステム構成の一例を概略的に示す。本実施形態において、画面生成部650は、差分検出部752と、画像更新部754と、画像変換部756と、表示制御部758とを備える。
差分検出部752は、ユーザ14からの指示又は入力を検出する。例えば、差分検出部752は、受信部618から、ユーザ14からの指示又は入力を受信する。差分検出部752は、受信部618から、ユーザ端末114の撮像部612により撮像された映像を受信してもよい。差分検出部752は、受信部618から受信した情報と、現在、表示部652に表示されている画像の情報とを比較して、両者の差分を検出する。これにより、ユーザ14からの指示又は入力を検出することができる。差分検出部752は、検出されたユーザ14からの指示又は入力を、画像更新部754に送信する。
画像更新部754は、入力部610が入力した情報に基づいて、画像を更新する。例えば、画像更新部754は、差分検出部752から、受信部618が入力した情報に基づいて検出された、ユーザ14からの指示又は入力に関する情報を取得する。画像更新部754は、ジェスチャ検出部616から、ユーザ12又は第三者のジェスチャに基づいて検出された、ユーザ12又は第三者からの指示又は入力に関する情報を取得する。画像更新部754は、マイク614から、ユーザ12の音声に基づいて検出された、ユーザ12からの指示又は入力に関する情報を取得する。画像更新部754は、上記の指示又は入力に関する情報に基づいて、画像を更新する。
画像更新部754は、現在、表示部652に表示されている画像の内容を更新してもよく、現在、表示部652に表示されている画像の基本画像の内容を更新してもよい。画像更新部754は、複数の画像のそれぞれを更新してもよい。なお、画像を更新するとは、既に存在する画像の内容を更新する場合だけでなく、画像が存在しない場合に、新たに画像を作成する場合をも含む。
画像更新部754は、更新された画像を画像変換部756に送信してよい。画像更新部754は、更新された画像を表示制御部758に送信してもよい。画像更新部754は、更新された画像を共有制御部660に送信してもよい。
画像変換部756は、実空間上の基準マーカ104と、表示部652との位置関係に基づいて、画像更新部754が更新した画像を変換する。画像変換部756は、変換した画像を表示制御部758に送信してよい。
例えば、画像変換部756は、基準マーカ検出部636から、撮像部612により撮像された映像中の基準マーカ104の形状、又は形状及び大きさに関する情報を取得する。画像変換部756は、取得した映像中の基準マーカ104の形状は、実空間上の基準マーカ104と、表示部652との位置関係を表す。
図4を用いて説明したように、画像更新部754が、基本画像416の内容を更新する場合、画像変換部756は、例えば、撮像部612により撮像された映像中の基準マーカ104の形状と、基準マーカ104の基本形状とを比較して、両者が同一となる又は相似するように、基本画像416の形状を変換する。これにより、新たに表示端末122に表示されることになる画像216を生成する。
また、図5を用いて説明したように、画像更新部754が、現在、表示端末122に表示されている画像516の内容を更新する場合、画像変換部756は、例えば、撮像部612により撮像された映像中の基準マーカ104の形状と、画像516が生成されたときの基準マーカ104の形状とを比較して、両者が同一となる又は相似するように、画像516の形状を変換する。これにより、新たに表示端末122に表示されることになる画像216を生成する。
表示制御部758は、画像更新部754が更新した画像又は画像変換部756が変換した画像を、基準マーカ104に重畳させて、又は基準マーカ104にとともに、表示部652に表示させる。表示制御部758は、撮像部612により実空間の像を撮像して得られた電子的な映像と、電子的な画像とを合成して得られた画像を表示部652に表示させてもよい。表示制御部758は、表示端末122が、ユーザ12の頭部に装着される透過型ディスプレイを有する場合、校正部632の校正結果に基づいて、画像を表示させる位置を微調整してよい。
本実施形態において、ユーザ端末112又は表示端末122がマスター端末として機能する場合における、画面生成部650の処理の一例について説明した。ユーザ端末112又は表示端末122がスレーブ端末として機能する場合、画面生成部650は、ユーザ端末112又は表示端末122がマスター端末として機能する場合とは異なる処理を実行してもよい。例えば、画面生成部650は、マスター端末から、基準マーカ104と表示端末122との位置関係に応じて変換された画像を受信した場合には、マスター端末から受信した画像を表示部652に表示させる。一方、マスター端末から、変換前の画像を受信した場合には、マスター端末から受信した画像を、基準マーカ104と表示端末122との位置関係に応じて変換した後、変換された画像を表示部652に表示させる。
図8は、表示制御部758のシステム構成の一例を概略的に示す。本実施形態において、表示制御部758は、画像決定部852と、合成部854とを備える。
本実施形態において、画像決定部852は、画像更新部754が更新した画像及び画像変換部756が変換した画像のうち、表示部652に表示させるべき画像を決定する。例えば、図4を用いて説明した例においては、画像216について、画像決定部852は、画像更新部754が内容を更新した基本画像416と、画像変換部756が変換した画像216とのうち、画像変換部756が変換した画像216を、表示部652に表示させるべき画像として決定する。画像決定部852は、1以上の画像のそれぞれについて、絶対位置表示により表示するか、相対位置表示により表示するかを決定してよい。
合成部854は、1以上の画像を合成して、表示部652に表示させる画面を生成する。例えば、合成部854は、画像決定部852により選択された画像を、基準マーカ104に重畳させて、又は基準マーカ104とともに、表示部652に表示させる。
合成部854は、例えば、画像決定部852が、特定の画像について、絶対位置表示により表示することを決定した場合、ユーザ12及びユーザ14から入力された情報に基づいて、当該特定の画像を表示させる位置を決定する。例えば、合成部854は、撮像部612により撮像された映像を解析して、上記の入力がなされた実空間上の位置と、基準マーカ104の実空間上の位置との関係に関する情報を取得する。合成部854は、上記の情報を入力部610から取得してもよい。
合成部854は、撮像部612により撮像された映像を解析して、基準マーカ104の形状の変化に関する情報を取得する。合成部854は、上記の情報を基準マーカ検出部636から取得してもよい。合成部854は、校正部632から、撮像部612により撮像された映像中の位置と、表示部652上の位置との関係に関する情報を取得する。
合成部854は、入力がなされた実空間上の位置と、基準マーカ104の実空間上の位置との関係を、撮像部612により撮像された映像中の位置及び表示部652上の位置の関係に関する情報、並びに、基準マーカ104の形状の変化に関する情報に基づいて、補正する。これにより、合成部854は、上記の特定の画像が、実空間上の特定の位置に固定されているように、表示部652に表示させる画面を生成することができる。
図9は、共有制御部660のシステム構成の一例を概略的に示す。本実施形態において、共有制御部660は、端末認証部962と、送信制御部964と、制御情報格納部966とを備える。
端末認証部962は、ユーザ端末114などの他の端末を認証する。認証方法は、特に限定されない。送信制御部964は、単一又は複数の画像(1以上の画像と称する場合がある。)のそれぞれについて、他の端末への送信を制御する。送信制御部964は、制御情報格納部966に格納された情報を参照して、1以上の画像のそれぞれについて、他の端末への送信の可否を決定してよい。
制御情報格納部966は、1以上の画像のそれぞれを識別する画像識別情報(画像IDと称する場合がある。)と、画像識別情報により識別される画像の他の端末への送信の可否に関する情報とが対応付けられた送信制御情報を格納する。上記の他の端末は、単一の端末であってもよく、複数の端末であってもよい。画像の送信の可否に関する情報は、画像の送信を許可される端末の端末識別情報であってもよく、画像の送信を禁止される端末の端末識別情報であってもよい。これにより、共有する画像を管理することができる。
図10は、データテーブル1000の一例を概略的に示す。データテーブル1000は、制御情報格納部966に格納される情報の一例であってよい。データテーブル1000は、送信制御情報の一例であってもよい。
本実施形態において、データテーブル1000は、画像ID1002と、画像の表示位置1004と、画像の大きさ1006と、画像の送信を許可された端末の端末ID1008とを対応づけて格納する。画像の表示位置1004は、基準マーカ104の位置を基準とした実空間上の位置であってもよく、表示部652上の特定の点又は特定の領域を基準とした表示部652上の位置であってもよい。画像の大きさ1006は、実空間上の大きさであってもよく、表示部652上の特定の領域を基準とした大きさであってもよい。画像の大きさ1006は、基準マーカ104の大きさに基づいて推測された大きさであってもよい。画像の大きさ1006は、撮像部612により撮像された映像を用いて推測されてよい。
図11は、ユーザ12が、表示端末122を通して視認する映像1100の一例を概略的に示す。図2においては、表示端末122が透過型ディスプレイを有する場合に、ユーザ12が、表示端末122を通して視認する映像200の一例について説明した。一方、本実施形態に係る映像1100は、例えば、通常の液晶ディスプレイ上に表示される。
本実施形態によれば、ウィンドウ210において、画像216が、撮像部612により撮像された実空間の像の映像中の特定の位置に重畳するように表示される。また、ウィンドウ210は、表示部652上において全画面表示されておらず、画面の一部の領域に表示されている。本実施形態によれば、ウィンドウ220及びウィンドウ230は、ウィンドウ210に重畳しないように表示されている。なお、ウィンドウ210、ウィンドウ220及びウィンドウ230は、表示部652上で自由に移動させることができる。
図12は、表示システム1200の一例を概略的に示す。本実施形態において、表示システム1200は、表示端末122と、表示端末142と、ユーザ端末1212を備える。ユーザ端末1212には、撮像部1222が接続されている。ユーザ端末1212と、撮像部1222との接続方法は特に限定されないが、例えば、両者は、有線通信方式又は近距離無線通信方式により接続される。撮像部1222は、基準マーカ104及びホワイトボード102を撮像できる位置に配置される。
下記の点を除いて、ユーザ端末1212は、ユーザ端末112又は通信端末124と同様の構成を有してよい。また、撮像部1222は、撮像部612と同様の構成を有してよい。
表示システム100においては、ユーザ12のユーザ端末112をマスター端末として利用した。ユーザ端末112においては、表示端末122がユーザ12の頭部に装着されるので、ユーザ12の動作によっては、マスター端末及びスレーブ端末の切り替えが頻繁に発生する可能性がある。表示システム1200においては、ユーザ端末1212がマスター端末として機能し、撮像部1222が基準マーカ104の周囲の像を常に撮像する。これにより、マスター端末及びスレーブ端末の切替頻度が大幅に減少する。
表示システム1200においては、表示端末122及び表示端末142は、通信端末124又は通信端末144を介することなく、ユーザ端末1212との間で情報を送受する。本実施形態において、ユーザ端末1212の画面生成部650は、表示端末122の位置に応じた画像と、表示端末142の位置に応じた画像とを生成する。他の実施形態において、ユーザ端末1212は、複数の表示端末のそれぞれに対応する複数の画面生成部650を有してもよい。なお、表示システム1200においても、表示システム100と同様に、複数の表示端末のそれぞれが、対応する通信端末を介して、ユーザ端末1212との間で情報を送受してもよい。
図13は、表示システム1300の一例を概略的に示す。表示システム1300においては、種類の異なる2種類の基準マーカを利用する点において、表示システム100と相違する。また、1台の通信端末により、複数の表示端末に表示する画像を管理する点において、表示システム100と相違する。
本実施形態において、表示システム1300は、ユーザ端末112と、表示端末142と、表示端末1322と、表示端末1342と、通信端末1344とを備える。ユーザ端末112は、表示端末122と、通信端末124とを備える。
本実施形態において、ユーザ12のユーザ端末112が、マスター端末として利用される。通信端末1344は、通信回線10を介して、通信端末124と情報を送受する。通信回線10は、無線通信の伝送路であってもよく、有線通信の伝送路であってもよく、無線通信の伝送路及び有線通信の伝送路の組み合わせであってもよい。通信回線としては、移動体通信網、無線パケット通信網、インターネット、専用回線及びこれらの組み合わせを例示することができる。
表示端末122はユーザ12の頭部に装着されており、表示端末14は、ユーザ14の頭部に装着されている。表示端末1322はユーザ42の頭部に装着されており、表示端末1342は、ユーザ44の頭部に装着されている。表示端末122及び表示端末142は、通信端末124を介して、通信端末1344との間で情報を送受する。同様に、表示端末1322及び表示端末1342は、通信端末1344を介して、通信端末124との間で情報を送受する。
本実施形態において、ユーザ12及びユーザ14は、会議室Aに設けられたホワイトボード102の前に位置する。ユーザ42及びユーザ44は、会議室Aとは異なる会議室Bに設けられたホワイトボード1302の前に位置する。ホワイトボード102には、基準マーカ104が付されており、ホワイトボード1302には、基準マーカ1304が付されている。基準マーカ1304は、基準マーカ104と種類が異なる以外は、基準マーカ104と同様の構成を有してよい。基準マーカ104は第1基準領域の一例であってよく、基準マーカ1304は第2基準領域の一例であってよい。
基準マーカ104及び基準マーカ1304は、種類の異なる基準マーカではあるが、本実施形態において、通信端末124及び通信端末1344は、基準マーカ104及び基準マーカ1304の形状、又は形状及び大きさに関する情報を記憶している。これにより、通信端末124は、通信端末1344から受信した映像中の基準マーカ1304と、表示端末122又は表示端末142の撮像部612により撮像された映像中の基準マーカ104とを比較することで、画像を適切に変換することができる。
同様に、通信端末1344は、通信端末124から受信した映像中の基準マーカ104と、表示端末1322又は表示端末1342の撮像部612により撮像された映像中の基準マーカ1304とを比較することで、画像を適切に変換することができる。つまり、通信端末1344の画像変換部756は、基準マーカ1304と、表示端末1322の表示部652との位置関係に基づいて、表示端末1322の表示部652に表示させる画像を変換する。基準マーカ1304と、表示端末1342の表示部652との位置関係に基づいて、表示端末1342の表示部652に表示させる画像を変換する。
本実施形態において、基準マーカ104及び基準マーカ1304が、種類の異なる基準マーカである場合について説明した。しかし、基準マーカ104及び基準マーカ1304は本実施形態に限定されない。基準マーカ104及び基準マーカ1304は、同一の種類の基準マーカであってもよい。
本実施形態において、通信端末124は、上記の相違点を除いて、表示システム100における通信端末124と同様の構成を有してよい。また、通信端末1344は、上記の相違点を除いて、表示システム100における通信端末144と同様の構成を有してよい。表示端末1322及び表示端末1342は、上記の相違点を除いて、表示システム100における表示端末122又は表示端末142と同様の構成を有してよい。なお、表示システム1300においても、表示システム100と同様に、複数の表示端末のそれぞれが、対応する通信端末を介して、他の端末との間で情報を送受してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。また、技術的に矛盾しない範囲において、特定の実施形態について説明した事項を、他の実施形態に適用することができる。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 通信回線、12 ユーザ、14 ユーザ、28 手、38 手、42 ユーザ、44 ユーザ、100 表示システム、102 ホワイトボード、104 基準マーカ、112 ユーザ端末、114 ユーザ端末、122 表示端末、124 通信端末、130 表示システム、142 表示端末、144 通信端末、200 映像、210 ウィンドウ、212 コマンド表示部、214 アイコン、216 画像、220 ウィンドウ、222 コマンド表示部、224 アイコン、226 画像、230 ウィンドウ、232 コマンド表示部、234 アイコン、236 スプレッドシート、300 映像、310 ウィンドウ、312 コマンド表示部、314 アイコン、316 画像、416 基本画像、436 データ、516 画像、610 入力部、612 撮像部、614 マイク、616 ジェスチャ検出部、618 受信部、632 校正部、634 動作モード決定部、636 基準マーカ検出部、650 画面生成部、652 表示部、660 共有制御部、662 送信部、672 通信制御部、674 通信制御部、752 差分検出部、754 画像更新部、756 画像変換部、758 表示制御部、852 画像決定部、854 合成部、962 端末認証部、964 送信制御部、966 制御情報格納部、1000 データテーブル、1002 画像ID、1004 表示位置、1008 端末ID、1100 映像、1200 表示システム、1212 ユーザ端末、1222 撮像部、1300 表示システム、1302 ホワイトボード、1304 基準マーカ、1322 表示端末、1342 表示端末、1344 通信端末

Claims (8)

  1. 第1表示装置第2表示装置、並びに、前記第1表示装置及び前記第2表示装置の少なくとも一方の動作モードを決定する動作モード決定部を備える表示システムであって、
    前記第1表示装置は、(i)前記第2表示装置を制御するマスターモード又は(ii)前記第2表示装置により制御されるスレーブモードで動作し、
    前記第2表示装置は、(i)前記第1表示装置を制御するマスターモード又は(ii)前記第1表示装置により制御されるスレーブモードで動作し、
    前記第1表示装置は、(i)実空間の像に重畳させて、第1閲覧者に画像を表示する第1表示部、(ii)第1画像更新部、(iii)第1画像変換部、及び、(iv)第1表示制御部を有し、
    前記第2表示装置は、(i)実空間の像に重畳させて、第2閲覧者に画像を表示する第2表示部、(ii)第2画像変換部、及び、(iii)第2表示制御部を有し、
    前記動作モード決定部が、前記第1表示装置がマスターモードで動作し、前記第2表示装置がスレーブモードで動作することを決定した場合、
    前記第1画像更新部は、前記第1閲覧者から指示された情報であって、前記第1表示部において実空間の像及び前記画像の少なくとも一方に重畳させて描画される情報を入力する第1入力部が入力した情報に基づいて、前記画像を更新
    前記第1画像変換部は、実空間上の第1基準領域と、前記第1表示部との位置関係に基づいて、前記第1画像更新部が更新した画像を変換
    前記第1表示制御部は、前記第1画像変換部が変換した画像を、前記第1基準領域に重畳させて、又は前記第1基準領域とともに、前記第1表示部に表示させ
    前記第2画像変換部は、前記第1基準領域又は実空間上の第2基準領域と、前記第2表示部との位置関係に基づいて、前記第1画像更新部が更新した画像又は前記第1画像変換部が変換した画像を変換
    前記第2表示制御部は、前記第1画像更新部が更新した画像、前記第1画像変換部が変換した画像又は前記第2画像変換部が変換した画像を、前記第1基準領域若しくは前記第2基準領域に重畳させて、又は、前記第1基準領域若しくは前記第2基準領域とともに、前記第2表示部に表示させる、
    表示システム。
  2. 第1表示装置及び第2表示装置を備える表示システムであって、
    前記第1表示装置は、
    実空間の像に重畳させて、第1閲覧者に画像を表示する第1表示部と、
    前記第1閲覧者から指示された情報であって、前記第1表示部において実空間の像及び前記画像の少なくとも一方に重畳させて描画される情報を入力する第1入力部が入力した情報に基づいて、前記画像を更新する第1画像更新部と、
    実空間上の第1基準領域と、前記第1表示部との位置関係に基づいて、前記第1画像更新部が更新した画像を変換する第1画像変換部と、
    前記第1画像変換部が変換した画像を、前記第1基準領域に重畳させて、又は前記第1基準領域とともに、前記第1表示部に表示させる第1表示制御部と、
    少なくとも前記第2表示装置の動作モードを変更させる命令を生成する動作モード変更部と、
    を有し、
    前記第2表示装置は、
    実空間の像に重畳させて、第2閲覧者に画像を表示する第2表示部と、
    前記第2閲覧者から指示された情報であって、前記第2表示部において実空間の像及び前記画像の少なくとも一方に重畳させて描画される情報を入力する第2入力部が入力した情報に基づいて、前記画像を更新する第2画像更新部と、
    前記第1基準領域又は実空間上の第2基準領域と、前記第2表示部との位置関係に基づいて、前記第1画像更新部が更新した画像又は前記第1画像変換部が変換した画像を変換する第2画像変換部と、
    前記第1画像更新部が更新した画像、前記第1画像変換部が変換した画像又は前記第2画像変換部が変換した画像を、前記第1基準領域若しくは前記第2基準領域に重畳させて、又は、前記第1基準領域若しくは前記第2基準領域とともに、前記第2表示部に表示させる第2表示制御部と、
    を有し、
    前記第1表示装置は、
    前記実空間の像を撮像する第1撮像部と、
    前記第1撮像部により撮像された前記実空間の像の映像を解析して、前記映像の中に前記第1基準領域が含まれているか否か判断する画像解析部と、
    をさらに備え、
    前記画像解析部が、前記実空間の像の中に前記第1基準領域が含まれていないと判断した場合、
    前記動作モード変更部は、
    前記第2画像更新部に、前記画像を更新させ、
    前記第2画像変換部に、前記第2基準領域と、前記第2表示部との位置関係に基づいて、前記第2画像更新部が更新した前記画像を変換させ、
    第2表示制御部に、前記第2画像更新部が更新した画像又は前記第2画像変換部が変換した画像を、前記第2基準領域に重畳させて、又は、前記第2基準領域とともに、前記第2表示部に表示させるための命令を生成する、
    示システム。
  3. 前記第1表示装置は、
    前記第1画像変換部が変換した画像及び前記第1画像更新部が更新した前記画像のうち、前記第1表示部に表示させるべき画像を決定する画像決定部をさらに備え、
    前記第1表示制御部は、前記画像決定部により決定された画像を、前記第1基準領域に重畳させて、又は前記第1基準領域とともに、前記第1表示部に表示させる、
    請求項1又は請求項2に記載の表示システム。
  4. 前記第1表示装置は、
    前記第2表示装置を認証する認証部と、
    前記第2表示装置が前記認証部により認証されている場合に、前記第1画像更新部が更新した前記画像を、前記第2表示装置に送信する画像送信部と、
    をさらに備える、
    請求項1から請求項までの何れか一項に記載の表示システム。
  5. 前記第1画像更新部は、複数の前記画像を更新し、
    前記第1表示装置は、
    前記複数の画像のそれぞれを識別する画像識別情報と、前記画像識別情報により識別される画像の前記第2表示装置への送信の可否に関する情報とが対応付けられた送信制御情報を格納する制御情報格納部と、
    前記送信制御情報を参照して、前記複数の画像のそれぞれについて、前記第2表示装置への送信の可否を決定する送信制御部と、
    をさらに備え、
    前記画像送信部は、前記複数の画像のうち、前記送信制御部により送信を許可された画像を前記第2表示装置に送信する、
    請求項に記載の表示システム。
  6. (i)実空間の像に重畳させて、閲覧者に画像を表示する表示部、(ii)画像更新部、(iii)画像変換部、(iv)表示制御部、(v)画像送信部、及び、(vi)画像受信部を備える表示システムであって、
    (A)前記表示システムが、スレーブモードで動作する他の表示装置を制御するマスターモードで動作する場合、
    前記画像更新部が、前記閲覧者から指示された、前記表示部において実空間の像及び前記画像の少なくとも一方に重畳させて描画される情報を入力する入力部が入力した情報に基づいて、前記画像を更新
    前記画像変換部が、実空間上の基準領域と、前記表示部との位置関係に基づいて、前記画像更新部が更新した前記画像を変換
    前記表示制御部が、前記画像変換部が変換した画像を、前記基準領域に重畳させて、又は、前記第1基準領域とともに、前記表示部に表示させ
    前記画像送信部が、前記画像更新部が更新した画像又は前記画像変換部が変換した画像を、前記スレーブモードで動作する他の表示装置に送信
    (B)前記表示システムが、マスターモードで動作する他の表示装置により制御されるスレーブモードで動作する場合、
    前記画像受信部が、前記マスターモードで動作する他の表示装置から、画像のデータを受信し、
    前記画像変換部が、前記基準領域と、前記表示部との位置関係に基づいて、前記画像受信部が受信した画像を変換し、
    前記表示制御部が、前記画像変換部が変換した画像を、前記基準領域に重畳させて、又は、前記基準領域とともに、前記表示部に表示させる、
    表示システム。
  7. 実空間の像に重畳させて、第1閲覧者に画像を表示する第1表示部と、
    前記第1閲覧者から指示された情報であって、前記第1表示部において実空間の像及び前記画像の少なくとも一方に重畳させて描画される情報を入力する第1入力部が入力した情報に基づいて、前記画像を更新する第1画像更新部と、
    実空間上の第1基準領域と、前記第1表示部との位置関係に基づいて、前記第1画像更新部が更新した画像を変換する第1画像変換部と、
    前記第1画像変換部が変換した画像を、前記第1基準領域に重畳させて、又は、前記第1基準領域とともに、前記第1表示部に表示させる第1表示制御部と、
    前記第1画像更新部が更新した画像又は前記第1画像変換部が変換した画像を、他の表示装置に送信する第1画像送信部と、
    少なくとも前記他の表示装置の動作モードを変更させる命令を生成する第1動作モード変更部と、
    前記実空間の像を撮像する第1撮像部と、
    前記第1撮像部により撮像された前記実空間の像の映像を解析して、前記映像の中に前記第1基準領域が含まれているか否か判断する画像解析部と、
    を備える表示システムであって、
    前記他の表示装置は、
    実空間の像に重畳させて、第2閲覧者に画像を表示する第2表示部と、
    前記第2閲覧者から指示された情報であって、前記第2表示部において実空間の像及び前記画像の少なくとも一方に重畳させて描画される情報を入力する第2入力部が入力した情報に基づいて、前記画像を更新する第2画像更新部と、
    前記第1基準領域又は実空間上の第2基準領域と、前記第2表示部との位置関係に基づいて、前記第1画像更新部が更新した画像又は前記第1画像変換部が変換した画像を変換する第2画像変換部と、
    前記第1画像更新部が更新した画像、前記第1画像変換部が変換した画像又は前記第2画像変換部が変換した画像を、前記第1基準領域若しくは前記第2基準領域に重畳させて、又は、前記第1基準領域若しくは前記第2基準領域とともに、前記第2表示部に表示させる第2表示制御部と、
    を備え、
    前記第1画像解析部が、前記実空間の像の中に前記第1基準領域が含まれていないと判断した場合、
    前記第1動作モード変更部は、
    前記第2画像更新部に、前記画像を更新させ、
    前記第2画像変換部に、前記第2基準領域と、前記第2表示部との位置関係に基づいて、前記第2画像更新部が更新した前記画像を変換させ、
    第2表示制御部に、前記第2画像更新部が更新した画像又は前記第2画像変換部が変換した画像を、前記第2基準領域に重畳させて、又は、前記第2基準領域とともに、前記第2表示部に表示させるための命令を生成する、
    表示システム。
  8. コンピュータを、請求項1から請求項までの何れか一項に記載の表示システムとして機能させるためのプログラム。
JP2014072150A 2014-03-31 2014-03-31 表示システム及びプログラム Active JP6308842B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014072150A JP6308842B2 (ja) 2014-03-31 2014-03-31 表示システム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014072150A JP6308842B2 (ja) 2014-03-31 2014-03-31 表示システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2015194880A JP2015194880A (ja) 2015-11-05
JP6308842B2 true JP6308842B2 (ja) 2018-04-11

Family

ID=54433838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014072150A Active JP6308842B2 (ja) 2014-03-31 2014-03-31 表示システム及びプログラム

Country Status (1)

Country Link
JP (1) JP6308842B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6828235B2 (ja) * 2015-12-07 2021-02-10 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム
JP7057197B2 (ja) * 2018-04-12 2022-04-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN108646925B (zh) * 2018-06-26 2021-01-05 朱光 一种分体式头戴显示器系统及交互方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011071746A (ja) * 2009-09-25 2011-04-07 Ntt Docomo Inc 映像出力装置及び映像出力方法
JP5776201B2 (ja) * 2011-02-10 2015-09-09 ソニー株式会社 情報処理装置、情報共有方法、プログラム及び端末装置

Also Published As

Publication number Publication date
JP2015194880A (ja) 2015-11-05

Similar Documents

Publication Publication Date Title
US11995774B2 (en) Augmented reality experiences using speech and text captions
US11125996B2 (en) Sedentary virtual reality method and systems
US10762876B2 (en) Information processing apparatus and control method
US20150062164A1 (en) Head mounted display, method of controlling head mounted display, computer program, image display system, and information processing apparatus
JP6573755B2 (ja) 表示制御方法、情報処理プログラム、及び情報処理装置
US9860484B2 (en) Information processing apparatus, information processing system and information processing method
JP6492419B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム、画像表示システム、および、情報処理装置
JP2012070081A (ja) 画像表示装置、画像表示プログラム及び画像表示システム
JP6308842B2 (ja) 表示システム及びプログラム
JP6374203B2 (ja) 表示システム及びプログラム
US11386612B2 (en) Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
JP6540426B2 (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
KR20150133597A (ko) 이동 단말기 및 이의 제어 방법
KR101695695B1 (ko) 이동단말기 및 그 제어방법
WO2022199597A1 (zh) Vr/ar设备截取图像的方法、装置及系统
JP2015049498A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、画像表示システム、情報処理装置
JP6208910B1 (ja) 動画像処理装置、動画像処理システム、動画像処理方法及び動画像処理プログラム
US20180203661A1 (en) Information processing device, information processing method, and program
JP2015052895A (ja) 情報処理装置及び情報処理方法
JP2021140085A (ja) 情報処理装置及びプログラム
JP6403975B2 (ja) 秘密情報入力システム及びプログラム
KR20230126495A (ko) 제어 대상 객체의 지도를 생성하는 방법, 장치, 비일시성의 컴퓨터 판독 가능 기록 매체
EP4430815A1 (en) Systems, methods, and media for controlling shared extended reality presentations
JP2018056907A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180313

R150 Certificate of patent or registration of utility model

Ref document number: 6308842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250