JP6374203B2 - 表示システム及びプログラム - Google Patents

表示システム及びプログラム Download PDF

Info

Publication number
JP6374203B2
JP6374203B2 JP2014077906A JP2014077906A JP6374203B2 JP 6374203 B2 JP6374203 B2 JP 6374203B2 JP 2014077906 A JP2014077906 A JP 2014077906A JP 2014077906 A JP2014077906 A JP 2014077906A JP 6374203 B2 JP6374203 B2 JP 6374203B2
Authority
JP
Japan
Prior art keywords
image
information
unit
display
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014077906A
Other languages
English (en)
Other versions
JP2015200951A (ja
Inventor
高志 山木
高志 山木
芳雄 川道
芳雄 川道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2014077906A priority Critical patent/JP6374203B2/ja
Publication of JP2015200951A publication Critical patent/JP2015200951A/ja
Application granted granted Critical
Publication of JP6374203B2 publication Critical patent/JP6374203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示システム及びプログラムに関する。
現実空間に電子情報を重ね合わせる拡張現実技術が知られている(例えば、特許文献1を参照。)。
[先行技術文献]
[特許文献]
[特許文献1]特表2000−512781号公報
しかし、従来の拡張現実技術においては、現実空間に重ね合わせる電子情報を第三者に閲覧されることなく、複数のユーザ間で共有することができない。
本発明の第1の態様においては、複数のクライアント端末に表示させる画像を生成する画像生成サーバを備える表示システムが提供される。上記の表示システムにおいて、複数のクライアント端末のそれぞれは、実空間の像に重畳させて、画像を表示する表示部と、表示部において実空間の像及び画像の少なくとも一方に重畳させて描画される入力情報を入力する入力部とを有してよい。画像生成サーバは、複数のクライアント端末の少なくとも1つから、入力情報を含む更新情報を取得する更新情報取得部と、更新情報に含まれる入力情報に基づいて、画像を更新する画像更新部とを有してよい。
上記の表示システムにおいて、画像生成サーバは、複数のクライアント端末のそれぞれに表示させるべき画像に関する画像情報を、複数のクライアント端末のそれぞれに送信する画像情報送信部をさらに有してよい。
上記の表示システムにおいて、複数のクライアント端末のそれぞれは、入力情報が描画される領域と、実空間上の基準領域との位置関係を示す入力位置情報を取得する入力位置取得部をさらに有してよい。更新情報は、入力情報と、入力情報に対応付けられた入力位置情報を含んでよい。画像生成サーバは、更新情報に含まれる入力位置情報に基づいて、画像更新部が更新した画像が表示される領域と、実空間上の基準領域との位置関係を示す表示位置情報を生成する位置情報生成部をさらに有してよい。画像情報送信部は、画像更新部が更新した画像と、画像更新部が更新した画像に対応付けられた表示位置情報とを含む画像情報を送信してよい。
上記の表示システムにおいて、複数のクライアント端末のそれぞれは、実空間上の基準領域と、複数のクライアント端末のそれぞれの表示部との位置関係に基づいて、画像情報に含まれる画像更新部が更新した画像を変換する画像変換部と、画像情報に含まれる表示位置情報に基づいて、画像変換部が変換した画像を、実空間上の基準領域に重畳させて、又は基準領域とともに、表示部に表示させる表示制御部とをさら有してよい。
上記の表示システムにおいて、画像生成サーバは、複数のクライアント端末の少なくとも1つから、実空間上の基準領域と、複数のクライアント端末の少なくとも1つの表示部との位置関係に関する端末位置情報を取得する端末位置取得部と、端末位置情報に基づいて、画像更新部が更新した画像を変換する画像変換部とをさらに有してよい。画像情報送信部は、画像変換部が変換した画像を含む画像情報を、端末位置情報が取得されたクライアント端末に送信してよい。
上記の表示システムにおいて、複数のクライアント端末のそれぞれは、入力情報が描画される領域と、実空間上の基準領域との位置関係を示す入力位置情報を取得する入力位置取得部をさらに有してよい。更新情報は、入力情報と、入力情報に対応付けられた入力位置情報を含んでよい。画像生成サーバは、更新情報に含まれる入力位置情報に基づいて、画像変換部が変換した画像が表示される領域と、実空間上の基準領域との位置関係を示す表示位置情報を生成する位置情報生成部をさらに有してよい。画像情報送信部は、画像変換部が変換した画像と、画像変換部が変換した画像に対応付けられた表示位置情報とを含む画像情報を、端末位置情報が取得されたクライアント端末に送信してよい。
上記の表示システムにおいて、画像生成サーバは、画像更新部が更新した画像及び画像変換部が変換した画像の一方を、複数のクライアント端末のそれぞれに表示させるべき画像として決定する画像決定部をさらに備えてよい。上記の表示システムにおいて、画像更新部は、複数の画像を更新してよい。画像生成サーバは、複数の画像のそれぞれを識別する画像識別情報と、画像識別情報により識別される画像の送信を許可又は禁止されたクライアント端末に関する情報とが対応付けられた送信制御情報を格納する制御情報格納部と、送信制御情報を参照して、複数の画像のそれぞれについて、少なくとも1つのクライアント端末への送信の可否を決定する送信制御部とをさらに備えてよい。画像情報送信部は、複数の画像のうち、送信管理部により送信を許可された画像に関する画像情報を、少なくとも1つのクライアント端末に送信してよい。
上記の表示システムにおいて、画像生成サーバは、複数のクライアント端末の少なくとも1つを認証する認証部をさらに備えてよい。画像情報送信部は、認証部により認証されたクライアント端末に対して、画像情報を送信してよい。上記の表示システムは、複数のクライアント端末をさらに備えてよい。
本発明の第2の態様においては、コンピュータを、上記の表示システムとして機能させるためのプログラムが提供される。表示システム用のプログラムを記憶するコンピュータ読み取り可能な媒体であって、プログラムは、コンピュータを、上記の何れかの表示システムとして機能させるコンピュータ読み取り可能な媒体が提供されてもよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
表示システム100の一例を概略的に示す。 表示端末122を通して視認される映像200の一例を概略的に示す。 表示端末142を通して視認される映像300の一例を概略的に示す。 画像変換処理の一例を概略的に示す。 画像変換処理の他の例を概略的に示す。 ユーザ端末112のシステム構成の一例を概略的に示す。 画面生成部650のシステム構成の一例を概略的に示す。 管理サーバ110のシステム構成の一例を概略的に示す。 共有制御部816のシステム構成の一例を概略的に示す。 データテーブル1000の一例を概略的に示す。 表示端末122を通して視認される映像1100の一例を概略的に示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一または類似の部分には同一の参照番号を付して、重複する説明を省く場合がある。
図1は、表示システム100の一例を概略的に示す。図1を用いて、基準マーカ104が付されたホワイトボード102上に描画される画像の電子情報を、ユーザ端末112及びユーザ端末114の間で共有する場合を例として、表示システム100について説明する。
本実施形態において、表示システム100は、管理サーバ110と、ユーザ12に情報を提示するユーザ端末112と、ユーザ14に情報を提示するユーザ端末114とを備える。ユーザ端末112は、表示端末122と、通信端末124とを備える。ユーザ端末114は、表示端末142と、通信端末144とを備える。
ユーザ12は、第1閲覧者の一例であってよい。また、ユーザ14は、第2閲覧者の一例であってよい。管理サーバ110は、画像生成サーバの一例であってよい。ユーザ端末112及びユーザ端末114は、複数のクライアント端末の一例であってよい。ユーザ端末112は、第1表示装置の一例であってよい。ユーザ端末114は、第2表示装置の一例であってよい。
ホワイトボード102及び基準マーカ104の少なくとも一方は、ユーザ端末112及びユーザ端末114が電子的な画像(単に、画像と称する場合がある。)を実空間の像に重畳させて表示する場合において、当該電子的な画像の表示位置を決定するための基準点又は基準領域として利用される。ホワイトボード102及び基準マーカ104が、ユーザ端末112及びユーザ端末114が電子的な画像を実空間の像に重畳させて表示する場合において、当該電子的な画像の形状、又は形状及び大きさを決定するための基準領域として利用されてもよい。
ホワイトボード102及び基準マーカ104は、少なくとも実空間における形状が、予め定められている。ホワイトボード102及び基準マーカ104は、大きさ及び形状が予め定められていてもよい。ホワイトボード102及び基準マーカ104は、模様、色彩及びこれらの組み合わせが施されていてもよい。
説明を簡単にする目的で、本実施形態においては、基準マーカ104を、基準領域として利用する場合を例として、表示システム100について説明する。しかし、基準領域は、本実施形態に限定されない。他の実施形態において、複数の基準マーカ104が、基準領域として利用される。例えば、基準領域として利用される2つの基準マーカ104が、ホワイトボード102の4つの角のうち、対向する2つの角に配される。また、基準マーカ104及びホワイトボード102が基準領域として利用される。これにより、電子的な画像の表示位置を精度よく決定することができる。
なお、画像を実空間の像に重畳させて表示するとは、(i)光を透過して実空間の像を閲覧者に提供するとともに、閲覧者に対して電子的な画像を表示する透過型ディスプレイにおいて、閲覧者が透過型ディスプレイを通して実空間の像を見た場合に、当該閲覧者により、電子的な画像及び実空間の像が重畳しているように視認される位置に、当該電子的な画像を表示することだけでなく、(ii)実空間の像を撮像して得られた電子的な映像と、電子的な画像とを合成して得られた画像を表示することを示す。電子的な映像は、動画像であってもよく、静止画像であってもよい。また、画像又は映像には、音声情報が含まれてもよく、画像の表示又は映像の再生とともに、音声が再生されてもよい。
次に、管理サーバ110、ユーザ端末112及びユーザ端末114における情報処理の概要を説明する。本実施形態において、管理サーバ110と、ユーザ端末112及びユーザ端末114とは、クライアント/サーバ方式により、実空間の像に重畳させて表示される画像の電子情報を共有する。
本実施形態において、管理サーバ110は、ユーザ12又はユーザ14の指示に基づいて、画像を更新する。例えば、ユーザ端末112及びユーザ端末114の間で「AB」という文字列の画像が共有されている場合において、ユーザ端末112が、ユーザ12から、「AB」という文字列の後ろに「CD」という文字列を入力するための指示を受け取った場合、ユーザ端末112は、ユーザ12からの指示を管理サーバ110に送信する。管理サーバ110は、ユーザ端末112から受信した情報に基づいて、現在、共有されている「AB」という文字列の画像の内容を更新して、「ABCD」という文字列の画像を生成する。管理サーバ110は、更新された画像を、ユーザ端末112及びユーザ端末114に送信する。これにより、ユーザ端末112及びユーザ端末114は、ユーザ12及びユーザ14に対して表示される画像を共有することができる。
ユーザ端末112及びユーザ端末114は、実空間の像に重畳させて、それぞれのユーザに画像を表示する。ユーザ端末112及びユーザ端末114は、必要に応じて画像を変換し、変換後の画像をそれぞれのユーザに表示する。例えば、ユーザ端末112及びユーザ端末114は、それぞれのユーザと、基準マーカ104との位置関係に応じて、画像の形状、又は画像の形状及び大きさを変換する。これにより、あたかも、画像が実空間上の特定の位置に固定されているかのように、当該画像を表示することができる。なお、ユーザ端末112及びユーザ端末114のそれぞれのユーザと、基準マーカ104との位置関係は、ユーザ端末112及びユーザ端末114の表示デバイスと、基準マーカ104との位置関係であってもよい。
上記の実施形態によれば、管理サーバ110は、画像を更新した後、変換処理前の画像を、ユーザ端末112及びユーザ端末114に送信する。ユーザ端末112及びユーザ端末114は、管理サーバ110から受信した画像を変換して、変換処理後の画像をそれぞれのユーザに表示することができる。なお、ユーザ端末112及びユーザ端末114は、管理サーバ110から受信した変換処理前の画像をユーザに表示してもよい。
他の実施形態によれば、画像の変換処理は、管理サーバ110において実行される。この場合、管理サーバ110は、画像を更新した後、更新された画像をユーザ12及びユーザ14に表示するために変換する。なお、管理サーバ110は、複数のユーザ端末の少なくとも1つに送信する画像を変換してもよい。
例えば、ユーザ端末112において表示される画像の変換処理を管理サーバ110において実行する場合、管理サーバ110は、ユーザ端末112から、ユーザ端末112のユーザと、基準マーカ104との位置関係に関する情報を取得する。例えば、管理サーバ110は、ユーザ端末112から、ユーザ12の近傍において撮像された基準マーカ104の形状に関する情報を取得する。管理サーバ110は、変換前の画像中の基準マーカ104の形状と、ユーザ12の近傍において撮像された基準マーカ104の形状とを比較して、両者が同一となる又は相似するように、画像の形状を変換する。管理サーバ110は、変換後の画像をユーザ端末112に送信する。これにより、ユーザ端末112は、管理サーバ110から受信した変換処理後の画像をユーザ12に表示することができる。
このように、本実施形態の表示システム100によれば、実空間の像に重畳される画像を複数のユーザ端末間で共有しながら、リアルタイムに画像を更新することができる。また、ユーザ端末の位置に応じて、画像を変換することができる。これにより、臨場感が増加する。さらに、実空間上で情報を描画することなく、当該情報を共有することができるので、情報漏洩のリスクを低減することができる。
本実施形態の表示システム100によれば、現実のホワイトボードでは不可能な要求に対応することができる。例えば、本実施形態の表示システム100によれば、画像の表示範囲又は描画範囲を自由に指定することもできる。これにより、例えば、壁面全体をホワイトボードとして利用することができる。また、画像を表示させるとともに、画像に関連付けられた音声を再生することもできる。
次に、管理サーバ110、ユーザ端末112の各部の概要について説明する。なお、ユーザ端末114は、ユーザ端末112と同様の構成を有してよい。そのため、ユーザ端末114の各部については、説明を省略する。
管理サーバ110は、ユーザ端末112及びユーザ端末114において共有される情報を管理する。管理サーバ110は、ユーザ端末112及びユーザ端末114との間で情報を送受する。例えば、管理サーバ110は、ユーザ端末112及びユーザ端末114に対して、共有する画像に関する情報を送信する。通信端末124は、表示端末と基準マーカとの位置関係によらない画像(基本画像と称する場合がある。)を送信してもよく、表示端末122及び表示端末142のそれぞれと、基準マーカ104との位置関係に応じて変換された画像を送信してもよい。
管理サーバ110は、ユーザ端末112及びユーザ端末114と情報を送受することができる装置であればよく、詳細については特に限定されない。管理サーバ110は、パーソナルコンピュータ、携帯端末、無線端末、及びこれらの組み合わせであってよい。携帯端末としては、携帯電話若しくはスマートフォン、ノートブック・コンピュータ若しくはラップトップ・コンピュータ、PDA、タブレット端末、ウェアラブル・コンピュータなどを例示することができる。ウェアラブル・コンピュータとしては、アイウエア型、腕輪型又は指輪型のウェアラブル・コンピュータを例示することができる。管理サーバ110は、仮想サーバ又はクラウドシステムであってもよい。また、管理サーバ110の各部の機能が、複数のサーバによって実現されてもよい。
本実施形態において、ユーザ端末112は、ユーザ12に情報を提示し、管理サーバ110と情報を送受することができる装置であればよく、詳細については特に限定されない。ユーザ端末112は、パーソナルコンピュータ、携帯端末、無線端末、及びこれらの組み合わせであってよい。携帯端末としては、携帯電話若しくはスマートフォン、ノートブック・コンピュータ若しくはラップトップ・コンピュータ、PDA、タブレット端末、ウェアラブル・コンピュータなどを例示することができる。ウェアラブル・コンピュータとしては、アイウエア型、腕輪型又は指輪型のウェアラブル・コンピュータを例示することができる。
表示端末122は、実空間の像に重畳させて、ユーザ12に画像を表示する。本実施形態において、表示端末122は、通信端末124から、ユーザ12に提示すべき画像を受信して、当該画像を表示する。
表示端末122は、ウェアラブル・コンピュータであることが好ましく、アイウエア型の表示デバイスであることが好ましい。アイウエア型の表示デバイスとしては、ヘッドマウントディスプレイ、メガネ型の表示デバイス、コンタクトレンズ型の表示デバイスなどを例示することができる。表示端末122は、透過型ディスプレイを有してもよい。
本実施形態において、表示端末122は、基準マーカ104が含まれるように、ホワイトボード102の少なくとも一部を撮像する。表示端末122は、ユーザ12の頭部に装着されているので、ユーザ12の視線に近い映像を取得することができる。撮像された映像を解析することで、ユーザ12及び基準マーカ104の位置関係に関する情報を取得することができる。表示端末122は、ユーザ12又は第三者のジェスチャを撮像してもよい。撮像された映像を解析することで、ユーザ12又は第三者のジェスチャを検出することができる。これにより、いわゆるジェスチャ入力(ジェスチャ認識と称される場合がある。)を実現することができる。本実施形態において、表示端末122は、撮像された映像を通信端末124に送信する。
ユーザ又は第三者(ユーザなどと称する場合がある。)のジェスチャとしては、ユーザなどの動作、ユーザなどが装着又は所持しているデバイスの動き、ユーザなどの視線の動きなどを例示することができる。ユーザなどの動作としては、ユーザなどの指先の動き、ユーザなどの手の形、ユーザなどの腕の形などを例示することができる。なお、ユーザなどのジェスチャの検出方法は、撮像された映像から検出する方法に限定されない。例えば、ユーザなどが、加速度センサ、ジャイロセンサなどを備えたウェアラブル・コンピュータ又は携帯端末を装着又は所持している場合、当該ウェアラブル・コンピュータ又は携帯端末を利用することにより、ユーザなどのジェスチャを検出することができる。通信端末124は、ユーザ12の指示により、ユーザなどのジェスチャを検出してよい。
本実施形態において、通信端末124は、表示端末122に表示される画像を生成する。例えば、通信端末124は、ユーザ12により入力された、表示端末122に表示されるべき情報に基づいて、共有されている情報を更新するための情報を生成する。通信端末124は、生成された情報を管理サーバ110に送信する。管理サーバ110は、通信端末124から受信した情報に基づいて、表示端末122に表示される画像を更新する。
通信端末124は、表示端末122から受信した映像の中から、ユーザ12のジェスチャを検出して、ユーザ12からの入力を検出してよい。一実施形態において、通信端末124は、表示端末122から受信した映像の中から、基準マーカ104の形状を検出する。通信端末124は、検出された基準マーカ104の形状と、基準マーカ104を正面から見た場合の形状(基準マーカ104の基本形状と称する場合がある。)とを比較する。通信端末124は、上記の比較結果と、ユーザ12のジェスチャに基づいて検出されたユーザ12からの入力とに基づいて、基準マーカ104を正面から見る位置において、ユーザ12のジェスチャを見ていた場合に検出されたであろう、ユーザ12からの入力(基本入力と称する場合がある。)を生成する。
一実施形態において、通信端末124は、基準マーカ104を正面から見ているかのように、画像を表示する(相対位置表示と称する場合がある。)。この場合、表示端末122と基準マーカ104との位置関係によらず、同一の画像が表示される。
他の実施形態において、通信端末124は、表示端末122と基準マーカ104との位置関係に応じて、画像の形状、又は画像の形状及び大きさが変化するように、画像を表示する(絶対位置表示と称する場合がある。)。通信端末124が、基準マーカ104の大きさに関する情報を取得できる場合、通信端末124は、表示端末122と基準マーカ104との位置関係に応じて、画像の形状及び大きさを変化させてもよい。この場合、画像が、実空間上の特定の位置に固定されているかのように表示される。
ユーザ端末112は、通信回線10を介して、管理サーバ110との間で情報を送受する。通信回線10は、無線通信の伝送路であってもよく、有線通信の伝送路であってもよく、無線通信の伝送路及び有線通信の伝送路の組み合わせであってもよい。通信回線10としては、移動体通信網、無線パケット通信網、インターネット、専用回線及びこれらの組み合わせを例示することができる。
表示システム100の各部は、ハードウエアにより実現されてもよく、ソフトウエアにより実現されてもよく、ハードウエアとソフトウエアとの組み合わせにより実現されてもよい。例えば、プログラムが実行されることにより、コンピュータが、表示システム100の各部として機能する。
上記のソフトウエア又はプログラムは、CD−ROM、DVD−ROM、メモリ、ハードディスクなどのコンピュータ読み取り可能な媒体に記憶されていてもよく、ネットワークに接続された記憶装置に記憶されていてもよい。ソフトウエア又はプログラムは、コンピュータ読み取り可能な媒体又はネットワークに接続された記憶装置から、管理サーバ110、ユーザ端末112及びユーザ端末114のそれぞれのコンピュータにインストールされてよい。
コンピュータを、表示システム100の各部として機能させるプログラムは、表示システム100の各部の動作を規定したモジュールを備えてよい。これらのプログラム又はモジュールは、プロセッサ、通信インターフェース等に働きかけて、表示システム100の各部として機能させたり、表示システム100の各部における情報処理方法を実行させたりする。
これらのプログラムに記述された情報処理は、コンピュータに読込まれることにより、ソフトウエアと、管理サーバ110、ユーザ端末112及びユーザ端末114のハードウエア資源とが協働した具体的手段として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータの使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた表示システム100を構築することができる。
表示システム100の各部は、一般的な構成の情報処理装置において、表示システム100の各部の動作を規定したソフトウエア又はプログラムを起動することにより実現されてよい。表示システム100又はその一部として用いられる情報処理装置は、CPU等のプロセッサ、ROM、RAM、通信インターフェースなどを有するデータ処理装置と、キーボード、タッチパネル、マイクなどの入力装置と、液晶ディスプレイ、透過型ディスプレイ、プロジェクタなどの表示装置と、スピーカなどの出力装置と、メモリ、HDDなどの記憶装置とを備えてよい。上記のデータ処理装置又は記憶装置は、上記のソフトウエア又はプログラムを記憶してよい。
本実施形態において、基準マーカ104がホワイトボード102に付されている場合について説明した。しかし、基準マーカ104の付される場所はホワイトボード102に限定されない。他の実施形態において、基準マーカ104は、壁、机、手のひらなどに付されてよい。これにより、基準マーカ104の付された実空間上の位置を基準として、電子的な画像を実空間の像に重畳させて表示することができる。基準マーカ104が配される場所は、平坦であることが好ましいが、湾曲していてもよい。
本実施形態において、特定の画像を、実空間のホワイトボード102に重畳させて表示する場合について説明した。しかし、画像の表示方法は、実施形態に限定されない。他の実施形態において、ホワイトボードの電子的な画像を生成して、特定の画像を、当該ホワイトボードの電子的な画像に重畳させて表示してもよい。
本実施形態において、基準マーカ104を基準領域として利用する場合について説明した。しかし、基準領域は、本実施形態に限定されない。他の実施形態において、管理サーバ110が、ホワイトボード102の形状に関する情報を記憶している、又は通信回線を介して当該情報を取得することができる場合、ホワイトボード102が、基準領域として利用されてもよい。この場合、基準マーカ104はなくてもよい。
本実施形態において、ユーザ端末112及びユーザ端末114のそれぞれが、同一の基準マーカ104を利用して、それぞれの表示部に表示させる画像を変換する場合について説明した。しかし、ユーザ端末112及びユーザ端末114は、本実施形態に限定されない。ユーザ端末112が画像の変換に利用する基準領域と、ユーザ端末114が画像の変換に利用する基準領域とが異なってもよい。例えば、種類の異なる基準マーカが利用される場合であっても、それぞれの基準マーカの基本形状が既知であれば、同一の種類の基準マーカを利用する場合又は同一の基準マーカを利用する場合と同様に、情報を共有することができる。
本実施形態において、基準領域が、物理的な形状を有する場合について説明した。しかし、基準領域は、本実施形態に限定されない。他の実施形態において、基準領域は、点滅のリズムやパターンなどが予め定められた光点又は光点群であってもよく、複数のレーザー光線により示されてもよい。基準領域は、液晶ディスプレイ、プロジェクタなどの表示装置により表示される映像であってもよい。
本実施形態において、画像がホワイトボード102に重畳するように描画される場合について説明した。しかし、画像が描画される領域(描画領域と称する場合がある。)は、本実施形態に限定されない。他の実施形態において、電子的な画像が描画される領域の大きさは、ユーザ12又はユーザ14により指定される。ユーザ12又はユーザ14は、基準マーカ104及び描画領域の位置関係、描画領域の大きさ若しくは範囲、並びに、描画領域の形状、模様、色彩及びこれらの組み合わせの少なくとも1つについて指定してもよい。
図2及び図3を用いて、表示端末122及び表示端末142における画像の表示方法の一例について説明する。図2及び図3においては、表示端末122及び表示端末142が、透過型ディスプレイを有する場合について説明する。
図2は、ユーザ12が、表示端末122を通して視認する映像200の一例を概略的に示す。図3は、ユーザ14が、表示端末142を通して視認する映像300の一例を概略的に示す。
映像200は、ユーザ14、ユーザ12の手28の一部、ホワイトボード102及び基準マーカ104の像を含む。ユーザ14、ユーザ12の手28の一部、ホワイトボード102及び基準マーカ104の像は、表示端末142を透過してユーザ12に視認される実空間の像である。
映像200は、ウィンドウ210、ウィンドウ220及びウィンドウ230を含む。ウィンドウ210、ウィンドウ220及びウィンドウ230は、表示端末142に表示される画像である。本実施形態において、ウィンドウ210、ウィンドウ220及びウィンドウ230は、表示端末142を透過してユーザ12に視認される実空間の像に重畳するように表示される。また、ウィンドウ220及びウィンドウ230は、ウィンドウ210に重畳して表示され、ウィンドウ220は、ウィンドウ230に重畳して表示される。
ウィンドウ210は、コマンド表示部212と、複数のアイコン214とを含む。コマンド表示部212は、ウィンドウ210又はウィンドウ210内に表示される画像を操作するための1以上のコマンドを表示する。複数のアイコン214のそれぞれは、上記の1以上のコマンドの1つに対応付けられる。
上記のコマンドとしては、ウィンドウ210のサイズの変更、ウィンドウ210の画面表示の可否、ウィンドウ210に表示される画像の共有に関する設定などを例示することができる。画像の共有に関する設定としては、共有の開始又は終了、他の端末からの共有の申し出に対する応答などを例示することができる。共有の申し出に対する応答としては、共有の許可、共有の拒否、判断の保留などを例示することができる。
ウィンドウ210は、画像216を含む。本実施形態において、画像216は、ユーザ端末112とユーザ端末114との間で共有されている。また、画像216は、表示端末122及び基準マーカ104の位置関係に応じて変換されている。ユーザ端末112及びユーザ端末114は、画像216の内容だけでなく、画像216及び基準マーカ104の位置関係についても共有する。そのため、例えば、ユーザ12が移動して、ユーザ12及び基準マーカ104の位置関係が変化すると、画像216の形状又は画像216の形状及び大きさも変化する。一方、ユーザ12及び基準マーカ104の位置関係が変化しても、画像216は、ホワイトボード102上の特定の位置に重畳するように表示される。
ウィンドウ220は、コマンド表示部222と、複数のアイコン224とを含む。コマンド表示部222及びアイコン224は、それぞれ、コマンド表示部212及びアイコン214と同様の構成を有してよい。ウィンドウ220は、画像226を含む。本実施形態において、画像226は、ユーザ端末114と共有されていない。
本実施形態において、画像226は、画像216の内容のうち、ユーザ12により指定された範囲に含まれる内容を拡大して表示するための画像である。本実施形態において、画像216及び画像226は、同一の基本画像に基づいて生成される。画像216及び画像226は、表示される範囲、並びに、表示される内容の大きさ及び形状が異なる。本実施形態において、ユーザ端末112は、画像216上の位置と、画像226上の位置との対応関係を記憶しており、ユーザ12が、画像226上で入力した事項は、画像216に反映される。
これにより、例えば、ユーザ12は、画像226の特定の位置を指定し、当該指定した位置に、キーボード、タッチパネル、マイクなどの入力デバイスを用いて文字、図形などを入力することができる。入力された情報は、画像216に反映され、ユーザ端末114に表示される画像にも反映される。また、ユーザ12が、ホワイトボード102から離れた位置にいる場合、ジェスチャ入力により、ホワイトボード102上に文字などを入力することが難しい場合がある。ウィンドウ220内に画像216の一部を拡大して表示することで、例えば、ユーザ12がホワイトボード102から離れた位置にいる場合であっても、ホワイトボード102上に文字などを容易に入力することができる。
ウィンドウ230は、コマンド表示部232と、複数のアイコン234とを含む。コマンド表示部232及びアイコン234は、それぞれ、コマンド表示部212及びアイコン214と同様の構成を有してよい。ウィンドウ230は、スプレッドシート236を含む。本実施形態において、スプレッドシート236は、ユーザ端末114と共有されていない。これにより、ユーザ12は、スプレッドシート236の情報を閲覧しながら、画像216上で情報を入力することができる。
映像300は、ユーザ12、ユーザ14の手38の一部、ホワイトボード102及び基準マーカ104の像を含む。ユーザ12、ユーザ14の手38の一部、ホワイトボード102及び基準マーカ104の像は、表示端末142を透過してユーザ14に視認される実空間の像である。
映像200は、ウィンドウ310を含む。ウィンドウ310は、表示端末142に表示される画像である。本実施形態において、ウィンドウ310は、表示端末142を透過してユーザ14に視認される実空間の像に重畳するように表示される。
ウィンドウ310は、コマンド表示部312と、複数のアイコン314とを含む。コマンド表示部312及びアイコン314は、それぞれ、コマンド表示部212及びアイコン214と同様の構成を有してよい。ウィンドウ310は、画像316を含む。本実施形態において、画像316は、ユーザ端末112と共有されている。画像316は、画像216に対応する。画像316は、表示端末142及び基準マーカ104の位置関係に応じて変換されている。そのため、画像216及び画像316は、表示される内容は同一であるが、形状又は形状及び大きさが異なる場合がある。
図4は、画像変換処理の一例を概略的に示す。本実施形態においては、ユーザ端末112は、各画像の基本画像を管理しており、ユーザ12、又はユーザ12及びユーザ14からの指示に基づいて、基本画像を更新する。
例えば、管理サーバ110は、画像216及び画像316に対応する基本画像416と、スプレッドシート236のデータ436とを記憶装置に記憶している。基本画像416は、管理サーバ110及びユーザ端末112の少なくも一方において変換され、基本画像416とは形状又は形状及び大きさの異なる画像216が生成される。また、管理サーバ110及びユーザ端末112の少なくも一方において、基本画像416の特定の領域が切り取られて、画像226が生成される。さらに、データ436のうち、画面上に表示させる領域が決定され、スプレッドシート236の画像が生成される。
基本画像416が管理サーバ110において変換される場合、変換後の画像216がユーザ端末112に送信される。基本画像416がユーザ端末112において変換される場合、変換前の基本画像416がユーザ端末112に送信される。その後、生成された画像が、それぞれのウィンドウ内の特定の位置に配される。
一方、基本画像416は、管理サーバ110及びユーザ端末114の少なくとも一方において変換され、画像316が生成される。基本画像416が管理サーバ110において変換される場合、変換後の画像316がユーザ端末114に送信される。基本画像416がユーザ端末114において変換される場合、変換前の基本画像416がユーザ端末114に送信される。その後、画像316が、ウィンドウ310内の特定の位置に配される。
図5は、画像変換処理の他の例を概略的に示す。本実施形態においては、ユーザ端末112は、表示端末122に表示されている画像を管理しており、ユーザ12、又はユーザ12及びユーザ14からの指示に基づいて、当該画像を更新する。
例えば、管理サーバ110は、例えば、現在、表示端末122に表示されている画像516と、スプレッドシート236のデータ436とを記憶装置に記憶している。画像516は、管理サーバ110及びユーザ端末112の少なくも一方において変換され、画像516とは形状又は形状及び大きさの異なる画像216が生成される。なお、ユーザ12及び基準マーカ104の位置関係の変動が小さく、画像の内容に変更がない場合、画像516及び画像216の形状及び大きさは、ほぼ同一である。
また、管理サーバ110及びユーザ端末112の少なくも一方において、画像516が基本画像416に変換され、変換された基本画像416の特定の領域が切り取られて、画像226が生成される。さらに、データ436のうち、画面上に表示させる領域が決定され、スプレッドシート236の画像が生成される。その後、生成された画像が、それぞれのウィンドウ内の特定の位置に配される。
一方、画像516は、管理サーバ110及びユーザ端末114の少なくとも一方において変換され、画像316が生成される。その後、画像316が、ウィンドウ310内の特定の位置に配される。
図6から図9を用いて、管理サーバ110及びユーザ端末112のシステム構成の一例について説明する。図6及び図7は、ユーザ端末112のシステム構成の一例を概略的に示す。図8及び図9は、管理サーバ110のシステム構成の一例を概略的に示す。
図6に示されるとおり、本実施形態において、ユーザ端末112は、入力部610と、校正部632と、基準マーカ検出部636と、画面生成部650と、表示部652と、更新情報生成部660と、通信制御部672と、通信制御部674とを備える。入力部610は、撮像部612と、マイク614と、ジェスチャ検出部616と、サーバ情報受信部618とを有する。ユーザ端末112の各部は、互いに情報を送受してよい。基準マーカ検出部636は、画像解析部の一例であってよい。サーバ情報受信部618は、画像情報受信部の一例であってよい。更新情報生成部660は、入力位置取得部の一例であってよい。
図7に示されるとおり、本実施形態において、画面生成部650は、画像変換部756と、表示制御部758とを備える。表示制御部758は、画像決定部762と、合成部764とを備える。
図8に示されるとおり、本実施形態において、管理サーバ110は、端末情報受信部810と、画像更新部812と、位置情報生成部814と、共有制御部816と、画像情報送信部818とを備える。端末情報受信部810は、更新情報取得部及び端末位置情報取得部の一例であってよい。図9に示されるとおり、本実施形態において、共有制御部816は、端末認証部962と、送信制御部964と、制御情報格納部966とを備える。
図6に示されるとおり、本実施形態において、撮像部612、マイク614、表示部652及び通信制御部672が、表示端末122に配され、その他の部材が、通信端末124に配される場合について説明する。しかし、ユーザ端末112は、本実施形態に限定されない。他の実施形態において、全ての部材が表示端末122に配されてもよく、画面生成部650が表示端末122に配されてもよい。ユーザ端末114は、ユーザ端末112と同様のシステム構成を有してよい。
入力部610は、ユーザ12の指示に基づく情報であって、表示端末122において実空間の像及び電子的な画像の少なくとも一方に重畳させて描画される情報を入力する。入力部610の各部は、入力された情報を通信端末124に送信してよい。なお、入力部610は、キーボード、タッチパネル、マウスなどのその他の入力デバイスを有してもよい。
撮像部612は、実空間の像を撮像する。撮像部612は、複数のカメラを有してよい。例えば、撮像部612は、基準マーカ104を撮像するためのカメラと、ユーザ12のジェスチャを撮像するためのカメラとを備える。ユーザ12のジェスチャを撮像するためのカメラは、ユーザ12の手又は指を撮像するためのカメラと、ユーザ12の目を撮像するためのカメラとを含んでもよい。なお、撮像される映像は、静止画像であってもよく、動画像であってもよい。撮像される映像は動画像であることが好ましい。
マイク614は、音声を入力する。これにより、ユーザ12は、音声によりユーザ端末112に対する指示を入力することができる。
ジェスチャ検出部616は、撮像部612により撮像された映像を解析して、ユーザ12のジェスチャを検出する。ジェスチャ検出部616は、検出されたジェスチャを解析して、ユーザ12からの入力を検出してよい。
サーバ情報受信部618は、管理サーバ110から、画像情報を受信する。サーバ情報受信部618は、受信した画像情報を、画面生成部650に送信する。
校正部632は、表示端末122に表示される画像の位置を校正する。表示端末122が、ユーザ12の頭部に装着されるデバイスである場合、撮像部612及びユーザ12の目の距離は、比較的、個人差が小さい。そこで、ユーザ端末112は、撮像部612及びユーザ12の目のおおよその距離に基づいて、表示端末122に表示される画像の位置を調整することができる。校正部632は、表示端末122に表示される画像の位置をさらに微調整する。例えば、表示端末122が透過型ディスプレイを有する場合、ユーザ12は、校正部632を起動して、撮像部612により撮像された映像を表示端末122に表示しながら、表示端末122に表示される映像と、表示端末122を介して視認される実空間の像とが一致するように、画像の表示位置を調整する。
これにより、校正部632は、撮像部612により撮像された映像中の位置と、表示部652上の位置との関係を取得することができる。校正部632は、撮像部612により撮像された映像中の位置ごとに、上記の関係を取得してもよい。撮像部612により撮像された映像中の位置と、表示部652上の位置との関係を利用することで、表示部652上で、画像と、実空間の像とを、より正確に重畳させることができる。校正部632は、上記の関係を示す情報を表示制御部758に送信してよい。校正部632は、上記の関係を示す情報を記憶してもよい。なお、ユーザ12は、表示端末122が非透過型ディスプレイを有する場合にも、校正部632を起動して画像の表示位置を調整してよい。
基準マーカ検出部636は、撮像部612により撮像された実空間の像の映像を解析して、当該映像の中に基準マーカ104が含まれているか否かを判断する。上記映像の中に基準マーカ104が含まれている場合、基準マーカ検出部636は、基準マーカ104の形状を検出してよい。基準マーカ検出部636は、基準マーカ104の形状とともに、基準マーカ104の位置及び大きさの少なくとも一方を検出してもよい。基準マーカ検出部636は、検出された情報を画面生成部650に送信してよい。基準マーカ検出部636は、検出された情報を管理サーバ110に送信してよい。上記の情報は、基準マーカ104が検出されたことを示す情報の一例であってよい。上記映像の中に基準マーカ104が含まれていなかった場合、基準マーカ検出部636は、基準マーカ104が検出されなかったことを示す情報を、管理サーバ110に送信してよい。
画面生成部650は、表示部652に表示させる画面を生成する。例えば、画面生成部650は、サーバ情報受信部618から画像情報を受信して、画像情報に含まれる画像を変換する。画面生成部650は、実空間上の基準マーカ104と、表示部652との位置関係に基づいて、更新された画像を変換してよい。画面生成部650は、画像情報に含まれる画像又は変換された画像を、基準マーカ104に重畳させて、又は基準マーカ104とともに、表示部652に表示させてよい。
表示部652に表示される画面の少なくとも一部の領域に表示される情報を、ユーザ端末114と共有する場合、画面生成部650は、当該領域に表示される画像をキャプチャしてよい。画面生成部650は、キャプチャした画像を、管理サーバ110を介して、又は管理サーバ110を介さずに、ユーザ端末114にストリーミング配信してよい。これにより、表示部652に表示される画面の少なくとも一部の領域に表示される情報を、ユーザ端末114と共有することができる。画像とともに、音声情報がストリーミング配信されてもよい。
表示部652は、実空間の像に重畳させて、ユーザ12に画像を表示する。表示部652は、液晶ディスプレイ、有機ELディスプレイ、プロジェクタなどの表示デバイスであってよい。表示部652は、透過型ディスプレイを有してよい。透過型ディスプレイには、プロジェクタにより映像が投影されてもよい。表示部652は、ユーザ12の目の一部に映像を投影するプロジェクタであってもよい。目の一部は、網膜であってよい。
更新情報生成部660は、入力部610が受け付けたユーザ12からの入力に関する情報(入力情報と称する場合がある。)に基づいて、管理サーバ110により管理されている画像を更新するための情報(更新情報と称する場合がある。)を生成する。入力情報は、例えば、画像の内容に関する情報を含む。画像の内容に関する情報は、ユーザ12により表示部652に表示させることを指示された情報であってよい。
例えば、ユーザ12は、ジェスチャによって、表示部652に表示させるべき情報を指示する。ジェスチャ検出部616は、ユーザ12のジェスチャを検出して、特定の数字、文字、記号、図形及びこれらの組み合わせの少なくとも1つを入力する。ユーザ12は、音声によって、表示部652に表示させるべき情報を指示してもよく、キーボードなどの入力デバイスを利用して、表示部652に表示させるべき情報を指示してもよい。
更新情報生成部660は、入力部610から、入力情報が描画される領域(入力領域と称する場合がある。)と、実空間上の基準マーカ104との位置関係を示す入力位置情報を取得してよい。入力位置情報は、ユーザ12が入力情報を描画することを意図している実空間上の領域の位置と、実空間上の基準マーカ104との位置関係を示すであってよい。
例えば、例えば、ユーザ12は、ホワイトボード102の中央に「AB」という文字列を描画することを意図して、「AB」という文字列を描画することをジェスチャで表現する。この場合、実空間上のホワイトボード102には「AB」という文字列は描画されていないが、例えば、ジェスチャ検出部616が、撮像部612により撮像された映像を解析して、ユーザ12の指先の動きを検出することにより、ユーザ12が入力情報を描画することを意図している実空間上の領域を検出することができる。
例えば、ジェスチャ検出部616は、ユーザ12の目の位置と、ユーザ12の指先の位置と、撮像部612により撮像された映像とに基づいて、ユーザ12により指示された情報の入力位置又は入力領域を検出する。ユーザ12の目の位置は、表示端末122の構造及び大きさに基づいて決定されてよい。ジェスチャ検出部616は、校正部632から、撮像部612により撮像された映像中の位置と、表示部652上の位置との関係を取得して、ユーザ12により指示された情報の入力位置又は入力領域を検出してもよい。
これにより、ジェスチャ検出部616は、ユーザ12が入力情報を描画することを意図している実空間上の領域を検出することができる。ジェスチャ検出部616は、例えば、撮像部612により撮像された映像中の基準マーカ104の大きさを用いて、上記の入力位置又は入力領域の実空間上の位置と、基準マーカ104の実空間上の位置との関係を算出して、入力位置情報を生成する。
更新情報は、入力情報を含んでよい。更新情報は、入力情報と、当該入力情報に対応付けられた入力位置情報とを含んでよい。更新情報生成部660は、生成された更新情報を管理サーバ110に送信してよい。
通信制御部672及び通信制御部674は、表示端末122及び通信端末124における通信を制御する。表示端末122及び通信端末124は、例えば、有線通信方式又は近距離無線通信方式により情報を送受する。近距離無線通信方式としては、NFC、Bluetooth(登録商標)、WiFi(登録商標)、WiMAX(登録商標)などを例示することができる。通信制御部674は、通信端末124及び管理サーバ110における通信を制御する。通信制御部672及び通信制御部674は、通信インターフェースであってもよい。通信制御部672及び通信制御部674は、複数の通信方式に対応していてもよい。
図7に示されるとおり、本実施形態において、画像変換部756は、実空間上の基準マーカ104と、表示部652との位置関係に基づいて、管理サーバ110から受信した画像情報に含まれる画像更新部812が更新した画像を変換する。画像変換部756は、変換した画像を表示制御部758に送信してよい。
例えば、画像変換部756は、基準マーカ検出部636から、撮像部612により撮像された映像中の基準マーカ104の形状、又は形状及び大きさに関する情報を取得する。画像変換部756は、取得した映像中の基準マーカ104の形状は、実空間上の基準マーカ104と、表示部652との位置関係を表す。
図4を用いて説明したように、画像更新部812が、基本画像416の内容を更新する場合、画像変換部756は、例えば、撮像部612により撮像された映像中の基準マーカ104の形状と、基準マーカ104の基本形状とを比較して、両者が同一となる又は相似するように、基本画像416の形状を変換する。これにより、新たに表示端末122に表示されることになる画像216を生成する。
また、図5を用いて説明したように、画像更新部812が、現在、表示端末122に表示されている画像516の内容を更新する場合、画像変換部756は、例えば、撮像部612により撮像された映像中の基準マーカ104の形状と、画像516が生成されたときの基準マーカ104の形状とを比較して、両者が同一となる又は相似するように、画像516の形状を変換する。これにより、新たに表示端末122に表示されることになる画像216を生成する。
表示制御部758は、画像更新部812が更新した画像又は画像変換部756が変換した画像を、基準マーカ104に重畳させて、又は基準マーカ104にとともに、表示部652に表示させる。表示制御部758は、管理サーバ110から受信した画像情報に含まれる表示位置情報に基づいて、表示部652に画像を表示させてよい。
表示制御部758は、例えば、表示端末122が、ユーザ12の頭部に装着される透過型デバイスである場合、校正部632の校正結果に基づいて、画像を表示させる位置を微調整してよい。表示制御部758は、612により実空間の像を撮像して得られた電子的な映像と、電子的な画像とを合成して得られた画像を表示部652に表示させてもよい。
本実施形態において、画像決定部762は、画像更新部812が更新した画像及び画像変換部756が変換した画像のうち、表示部652に表示させるべき画像を決定する。例えば、図4を用いて説明した例においては、画像216について、画像決定部762は、画像更新部812が内容を更新した基本画像416と、画像変換部756が変換した画像216とのうち、画像変換部756が変換した画像216を、表示部652に表示させるべき画像として決定する。画像決定部762は、1以上の画像のそれぞれについて、絶対位置表示により表示するか、相対位置表示により表示するかを決定してよい。
合成部764は、1以上の画像を合成して、表示部652に表示させる画面を生成する。例えば、合成部764は、画像決定部762により選択された画像を、基準マーカ104に重畳させて、又は基準マーカ104とともに、表示部652に表示させる。
合成部764は、例えば、画像決定部762が、特定の画像について、絶対位置表示により表示することを決定した場合、ユーザ12及びユーザ14から入力された情報に基づいて、当該特定の画像を表示させる位置を決定する。例えば、合成部764は、撮像部612により撮像された映像を解析して、上記の入力がなされた実空間上の位置と、基準マーカ104の実空間上の位置との関係に関する情報を取得する。合成部764は、上記の情報を入力部610から取得してもよい。
合成部764は、撮像部612により撮像された映像を解析して、基準マーカ104の形状の変化に関する情報を取得する。合成部764は、上記の情報を基準マーカ検出部636から取得してもよい。合成部764は、校正部632から、撮像部612により撮像された映像中の位置と、表示部652上の位置との関係に関する情報を取得する。
合成部764は、入力がなされた実空間上の位置と、基準マーカ104の実空間上の位置との関係を、撮像部612により撮像された映像中の位置及び表示部652上の位置の関係に関する情報、並びに、基準マーカ104の形状の変化に関する情報に基づいて、補正する。これにより、合成部764は、上記の特定の画像が、実空間上の特定の位置に固定されているように、表示部652に表示させる画面を生成することができる。
図8に示されるとおり、本実施形態において、端末情報受信部810は、ユーザ端末112から、更新情報を取得する。端末情報受信部810は、ユーザ端末112以外のクライアント端末からも、更新情報を取得してよい。また、端末情報受信部810は、ユーザ端末112から、基準マーカ104と、ユーザ端末112の表示部652との実空間上での位置関係に関する端末位置情報を取得してよい。端末情報受信部810は、ユーザ端末112以外のクライアント端末からも、端末位置情報を取得してよい。端末位置情報は、基準マーカ検出部636により検出された、基準マーカ104の形状であってよい。端末位置情報は、基準マーカ検出部636により検出された、基準マーカ104の形状及び大きさであってよい。
画像更新部812は、端末情報受信部810が受信した更新情報に基づいて、管理している画像を更新する。例えば、更新情報には、ジェスチャ検出部616から、ユーザ12又は第三者のジェスチャに基づいて検出された、ユーザ12又は第三者からの指示又は入力に関する情報が含まれる。また、更新情報は、マイク614から、ユーザ12の音声に基づいて検出された、ユーザ12からの指示又は入力に関する情報を含んでもよい。更新情報には、入力位置情報が含まれてもよい。
画像更新部812は、現在、表示部652に表示されている画像の内容を更新してもよく、現在、表示部652に表示されている画像の基本画像の内容を更新してもよい。画像更新部812は、複数の画像のそれぞれを更新してもよい。なお、画像を更新するとは、既に存在する画像の内容を更新する場合だけでなく、画像が存在しない場合に、新たに画像を作成する場合をも含む。
画像更新部812は、更新された画像を画像変換部756に送信してよい。画像更新部812は、更新された画像を表示制御部758に送信してもよい。画像更新部812は、更新された画像を共有制御部816に送信してもよい。
位置情報生成部814は、画像更新部812が更新した画像が表示される領域と、実空間上の基準マーカ104との位置関係を示す表示位置情報を生成する。位置情報生成部814は、更新情報に含まれる入力位置情報に基づいて、表示位置情報を生成してよい。位置情報生成部814は、生成された表示位置情報を画像情報送信部818に送信してよい。表示位置情報は、ユーザ12が入力情報を描画することを意図している実空間上の位置に対応する、表示画面上の位置を示す情報であってよい。
例えば、入力位置情報が、実空間上において、基準マーカ104の左端部から左に1mかつ下方に50cmの位置から、基準マーカ104の左端部から左に2mかつ下方に1mの位置までの範囲を有する長方形の領域に、入力情報を描画すべきことを示している場合、位置情報生成部814は、更新された画像を、上記の実空間上の長方形の領域に相当する、表示部652上の領域に表示すべきことを示す情報を生成する。
共有制御部816は、ユーザ端末114などの他の端末との間で画像を共有するための処理を制御する。例えば、共有制御部816は、ユーザ端末112、ユーザ端末114などの複数のクライアント端末のそれぞれを認証する。共有制御部816は、複数の画像の共有に関する設定を管理してよい。共有制御部816は、複数の画像のそれぞれについて、共有を許可された端末又は共有を禁止された端末を識別する端末識別情報(端末IDと称する場合がある。)を対応付けて格納してよい。
画像情報送信部818は、複数のクライアント端末のそれぞれに表示させるべき画像に関する画像情報を、複数のクライアント端末のそれぞれに送信する。画像情報は、画像更新部812が更新した画像と、当該画像に対応付けられた表示位置情報とを含んでよい。
例えば、画像情報送信部818は、画像更新部812が更新した画像と、位置情報生成部814が生成した表示位置情報とが対応付けられた画像情報を、少なくともユーザ端末112に送信する。画像情報送信部818は、画像情報を、ユーザ端末112以外の他のクライアント端末に送信してもよい。これにより、ユーザ12は、他の端末のユーザと画像を共有することができる。
画像情報送信部818は、共有制御部816の制御に従って、画像情報を送信してよい。一実施形態において、画像情報送信部818は、共有制御部816により認証されているクライアント端末に対して、画像情報を送信する。他の実施形態において、画像情報送信部818は、複数の画像のうち、共有制御部816により、特定のクライアント端末に対して送信することを許可された画像を、当該クライアント端末に送信する。
図9に示すとおり、本実施形態において、端末認証部962は、ユーザ端末112、ユーザ端末114などの1以上の端末のそれぞれを認証する。認証方法は、特に限定されない。送信制御部964は、単一又は複数の画像(1以上の画像と称する場合がある。)のそれぞれについて、1以上の端末のそれぞれへの送信を制御する。送信制御部964は、制御情報格納部966に格納された情報を参照して、1以上の画像のそれぞれについて、他の端末への送信の可否を決定してよい。
制御情報格納部966は、1以上の画像のそれぞれを識別する画像識別情報(画像IDと称する場合がある。)と、画像識別情報により識別される画像の送信の可否に関する情報とが対応付けられた送信制御情報を格納する。画像の送信の可否に関する情報は、当該画像の送信を許可される端末の端末識別情報であってもよく、当該画像の送信を禁止される端末の端末識別情報であってもよい。これにより、共有する画像を管理することができる。
本実施形態において、画像変換部756が通信端末124に配される場合について説明した。しかし、画像変換部756は本実施形態に限定されない。他の実施形態において、画像変換部756は、管理サーバ110に配されて、同様の処理を実施してよい。
この場合、管理サーバ110に配された画像変換部756は、例えば、ユーザ端末112から、表示端末122の表示部652と、基準マーカ104との位置関係に関する情報を取得する。画像変換部756は、取得した位置関係に関する情報に基づいて、画像更新部812が更新した画像を変換する。画像情報送信部818は、管理サーバ110に配された画像変換部756が変換した画像を含む画像情報を、ユーザ端末112に送信する。
図10は、データテーブル1000の一例を概略的に示す。データテーブル1000は、制御情報格納部966に格納される情報の一例であってよい。データテーブル1000は、送信制御情報の一例であってもよい。
本実施形態において、データテーブル1000は、画像ID1002と、画像の表示位置1004と、画像の大きさ1006と、画像の送信を許可された端末の端末ID1008とを対応づけて格納する。画像の表示位置1004は、基準マーカ104の位置を基準とした実空間上の位置であってもよく、表示部652上の特定の点又は特定の領域を基準とした表示部652上の位置であってもよい。画像の大きさ1006は、実空間上の大きさであってもよく、表示部652上の特定の領域を基準とした大きさであってもよい。画像の大きさ1006は、基準マーカ104の大きさに基づいて推測された大きさであってもよい。画像の大きさ1006は、撮像部612により撮像された映像を用いて推測されてよい。
図11は、ユーザ12が、表示端末122を通して視認する映像1100の一例を概略的に示す。図2においては、表示端末122が透過型ディスプレイを有する場合に、ユーザ12が、表示端末122を通して視認する映像200の一例について説明した。一方、本実施形態に係る映像1100は、例えば、通常の液晶ディスプレイ上に表示される。
本実施形態によれば、ウィンドウ210において、画像216が、撮像部612により撮像された実空間の像の映像中の特定の位置に重畳するように表示される。また、ウィンドウ210は、表示部652上において全画面表示されておらず、画面の一部の領域に表示されている。本実施形態によれば、ウィンドウ220及びウィンドウ230は、ウィンドウ210に重畳しないように表示されている。なお、ウィンドウ210、ウィンドウ220及びウィンドウ230は、表示部652上で自由に移動させることができる。映像1100には、その他のウィンドウ1120が表示されてもよい。ウィンドウ1120は、ウィンドウ220などと同様に、コマンド表示部1122を有してよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。また、技術的に矛盾しない範囲において、特定の実施形態について説明した事項を、他の実施形態に適用することができる。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 通信回線、12 ユーザ、14 ユーザ、28 手、38 手、100 表示システム、102 ホワイトボード、104 基準マーカ、110 管理サーバ、112 ユーザ端末、114 ユーザ端末、122 表示端末、124 通信端末、142 表示端末、144 通信端末、200 映像、210 ウィンドウ、212 コマンド表示部、214 アイコン、216 画像、220 ウィンドウ、222 コマンド表示部、224 アイコン、226 画像、230 ウィンドウ、232 コマンド表示部、234 アイコン、236 スプレッドシート、300 映像、310 ウィンドウ、312 コマンド表示部、314 アイコン、316 画像、416 基本画像、436 データ、516 画像、610 入力部、612 撮像部、614 マイク、616 ジェスチャ検出部、618 サーバ情報受信部、632 校正部、636 基準マーカ検出部、650 画面生成部、652 表示部、660 更新情報生成部、672 通信制御部、674 通信制御部、756 画像変換部、758 表示制御部、762 画像決定部、764 合成部、810 端末情報受信部、812 画像更新部、814 位置情報生成部、816 共有制御部、818 画像情報送信部、962 端末認証部、964 送信制御部、966 制御情報格納部、1000 データテーブル、1002 画像ID、1004 表示位置、1006 大きさ、1008 端末ID、1100 映像、1120 ウィンドウ、1122 コマンド表示部

Claims (8)

  1. 複数のクライアント端末に表示させる画像を生成する画像生成サーバを備え、
    前記複数のクライアント端末のそれぞれは、
    実空間の像に重畳させて、画像を表示する表示部と、
    前記表示部において実空間の像及び前記画像の少なくとも一方に重畳させて描画される入力情報を入力する入力部と、
    前記入力情報が描画される領域と、実空間上の基準領域との位置関係を示す入力位置情報を取得する入力位置取得部と、
    を有し、
    前記画像生成サーバは、
    前記複数のクライアント端末の少なくとも1つから、前記入力情報と、前記入力情報に対応付けられた前記入力位置情報とを含む更新情報を取得する更新情報取得部と、
    前記更新情報に含まれる前記入力情報に基づいて、前記画像を更新する画像更新部と、
    前記更新情報に含まれる前記入力位置情報に基づいて、前記画像更新部が更新した画像が表示される領域と、実空間上の前記基準領域との位置関係を示す表示位置情報を生成する位置情報生成部と、
    前記複数のクライアント端末のそれぞれに表示させるべき画像に関する画像情報を、前記複数のクライアント端末のそれぞれに送信する画像情報送信部と、
    を有
    前記画像情報は、前記画像更新部が更新した画像と、前記画像更新部が更新した画像に対応付けられた前記表示位置情報とを含む、
    表示システム。
  2. 前記複数のクライアント端末のそれぞれは、
    実空間上の前記基準領域と、前記複数のクライアント端末のそれぞれの前記表示部との位置関係に基づいて、前記画像情報に含まれる前記画像更新部が更新した画像を変換する画像変換部と、
    前記画像情報に含まれる前記表示位置情報に基づいて、前記画像変換部が変換した画像を、実空間上の前記基準領域に重畳させて、又は前記基準領域とともに、前記表示部に表示させる表示制御部と、
    をさら有する、
    請求項に記載の表示システム。
  3. 複数のクライアント端末に表示させる画像を生成する画像生成サーバを備え、
    前記複数のクライアント端末のそれぞれは、
    実空間の像に重畳させて、画像を表示する表示部と、
    前記表示部において実空間の像及び前記画像の少なくとも一方に重畳させて描画される入力情報を入力する入力部と、
    前記入力情報が描画される領域と、実空間上の基準領域との位置関係を示す入力位置情報を取得する入力位置取得部と、
    を有し、
    前記画像生成サーバは、
    前記複数のクライアント端末の少なくとも1つから、前記入力情報と、前記入力情報に対応付けられた前記入力位置情報とを含む、更新情報を取得する更新情報取得部と、
    前記更新情報に含まれる前記入力情報に基づいて、前記画像を更新する画像更新部と、
    前記複数のクライアント端末のそれぞれに表示させるべき画像に関する画像情報を、前記複数のクライアント端末のそれぞれに送信する画像情報送信部と、
    前記複数のクライアント端末の少なくとも1つから、実空間上の前記基準領域、及び、前記複数のクライアント端末の少なくとも1つの前記表示部の位置関係に関する、端末位置情報を取得する端末位置取得部と、
    前記端末位置情報に基づいて、前記画像更新部が更新した画像を変換する画像変換部と、
    前記更新情報に含まれる前記入力位置情報に基づいて、前記画像変換部が変換した画像が表示される領域と、実空間上の前記基準領域との位置関係を示す、表示位置情報を生成する位置情報生成部と、
    を有し、
    前記画像情報送信部は、前記画像変換部が変換した画像と、前記画像変換部が変換した画像に対応付けられた前記表示位置情報とを含む前記画像情報を、前記端末位置情報が取得されたクライアント端末に送信する、
    表示システム。
  4. 前記画像生成サーバは、前記画像更新部が更新した画像及び前記画像変換部が変換した画像の一方を、前記複数のクライアント端末のそれぞれに表示させるべき画像として決定する画像決定部をさらに備える、
    請求項に記載の表示システム。
  5. 前記画像更新部は、複数の画像を更新し、
    前記画像生成サーバは、
    前記複数の画像のそれぞれを識別する画像識別情報と、前記画像識別情報により識別される画像の送信の可否に関する情報とが対応付けられた送信制御情報を格納する制御情報格納部と、
    前記送信制御情報を参照して、前記複数の画像のそれぞれについて、少なくとも1つのクライアント端末への送信の可否を決定する送信制御部と、
    をさらに備え、
    前記画像情報送信部は、前記複数の画像のうち、前記送信制御部により送信を許可された画像に関する前記画像情報を、前記少なくとも1つのクライアント端末に送信する、
    請求項から請求項までの何れか一項に記載の表示システム。
  6. 前記画像生成サーバは、
    前記複数のクライアント端末の少なくとも1つを認証する認証部をさらに備え、
    前記画像情報送信部は、前記認証部により認証されたクライアント端末に対して、前記画像情報を送信する、
    請求項から請求項までの何れか一項に記載の表示システム。
  7. 前記複数のクライアント端末をさらに備える、
    請求項1から請求項までの何れか一項に記載の表示システム。
  8. コンピュータを、請求項1から請求項までの何れか一項に記載の表示システムとして機能させるためのプログラム。
JP2014077906A 2014-04-04 2014-04-04 表示システム及びプログラム Active JP6374203B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014077906A JP6374203B2 (ja) 2014-04-04 2014-04-04 表示システム及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014077906A JP6374203B2 (ja) 2014-04-04 2014-04-04 表示システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2015200951A JP2015200951A (ja) 2015-11-12
JP6374203B2 true JP6374203B2 (ja) 2018-08-15

Family

ID=54552180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014077906A Active JP6374203B2 (ja) 2014-04-04 2014-04-04 表示システム及びプログラム

Country Status (1)

Country Link
JP (1) JP6374203B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6828235B2 (ja) * 2015-12-07 2021-02-10 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の表示を共有する方法、コンピュータープログラム
JP2019061590A (ja) * 2017-09-28 2019-04-18 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP7318918B2 (ja) * 2019-08-14 2023-08-01 株式会社デンソー 作業活動支援システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4262011B2 (ja) * 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
JP2010217719A (ja) * 2009-03-18 2010-09-30 Ricoh Co Ltd 装着型表示装置、その制御方法及びプログラム
JP5647813B2 (ja) * 2010-05-12 2015-01-07 シャープ株式会社 映像提示システム、プログラム及び記録媒体
WO2012135545A1 (en) * 2011-03-29 2012-10-04 Qualcomm Incorporated Modular mobile connected pico projectors for a local multi-user collaboration
JP2013164697A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法、プログラム及び画像処理システム

Also Published As

Publication number Publication date
JP2015200951A (ja) 2015-11-12

Similar Documents

Publication Publication Date Title
US11995774B2 (en) Augmented reality experiences using speech and text captions
US20210405761A1 (en) Augmented reality experiences with object manipulation
US20210157149A1 (en) Virtual wearables
US10832448B2 (en) Display control device, display control method, and program
US10762876B2 (en) Information processing apparatus and control method
US10163266B2 (en) Terminal control method, image generating method, and terminal
US10922862B2 (en) Presentation of content on headset display based on one or more condition(s)
US20150062164A1 (en) Head mounted display, method of controlling head mounted display, computer program, image display system, and information processing apparatus
US10191282B2 (en) Computer display device mounted on eyeglasses
US11302077B2 (en) Augmented reality guidance that generates guidance markers
US20160012612A1 (en) Display control method and system
US20140285418A1 (en) Method and apparatus for enlarging a display area
US20200293177A1 (en) Displaying applications
US11132842B2 (en) Method and system for synchronizing a plurality of augmented reality devices to a virtual reality device
US11508130B2 (en) Augmented reality environment enhancement
CN112835445A (zh) 虚拟现实场景中的交互方法、装置及系统
JP6374203B2 (ja) 表示システム及びプログラム
JP6308842B2 (ja) 表示システム及びプログラム
US11386612B2 (en) Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
US10366495B2 (en) Multi-spectrum segmentation for computer vision
KR101695695B1 (ko) 이동단말기 및 그 제어방법
US20160306418A1 (en) Interactive image projection
WO2022199597A1 (zh) Vr/ar设备截取图像的方法、装置及系统
US10545716B2 (en) Information processing device, information processing method, and program
JP2015052895A (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180719

R150 Certificate of patent or registration of utility model

Ref document number: 6374203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250