以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一または類似の部分には同一の参照番号を付して、重複する説明を省く場合がある。
図1は、表示システム100の一例を概略的に示す。図1を用いて、基準マーカ104が付されたホワイトボード102上に描画される画像の電子情報を、ユーザ端末112及びユーザ端末114の間で共有する場合を例として、表示システム100について説明する。
本実施形態において、表示システム100は、ユーザ12に情報を提示するユーザ端末112と、ユーザ14に情報を提示するユーザ端末114とを備える。ユーザ端末112は、表示端末122と、通信端末124とを備える。ユーザ端末114は、表示端末142と、通信端末144とを備える。ユーザ12は、第1閲覧者の一例であってよい。また、ユーザ14は、第2閲覧者の一例であってよい。ユーザ端末112は、第1表示装置の一例であってよい。ユーザ端末114は、第2表示装置の一例であってよい。
ホワイトボード102及び基準マーカ104の少なくとも一方は、ユーザ端末112及びユーザ端末114が電子的な画像(単に、画像と称する場合がある。)を実空間の像に重畳させて表示する場合において、当該電子的な画像の表示位置を決定するための基準点又は基準領域として利用される。ホワイトボード102及び基準マーカ104の少なくとも一方は、ユーザ端末112及びユーザ端末114が電子的な画像を実空間の像に重畳させて表示する場合において、当該電子的な画像の形状、又は形状及び大きさを決定するための基準領域として利用されてもよい。
ホワイトボード102及び基準マーカ104は、少なくとも実空間における形状が、予め定められている。ホワイトボード102及び基準マーカ104は、大きさ及び形状が予め定められていてもよい。ホワイトボード102及び基準マーカ104は、模様、色彩及びこれらの組み合わせが施されていてもよい。ホワイトボード102及び基準マーカ104の少なくとも一方は、第1基準領域の一例であってよい。
説明を簡単にする目的で、本実施形態においては、基準マーカ104を、第1基準領域の一例として利用する場合を例として、表示システム100について説明する。しかし、第1基準領域は、本実施形態に限定されない。他の実施形態において、複数の基準マーカ104が、第1基準領域として利用される。例えば、第1基準領域として利用される2つの基準マーカ104が、ホワイトボード102の4つの角のうち、対向する2つの角に配される。2つの基準マーカ104が、ホワイトボード102に対角線上に配されてもよい。また、基準マーカ104及びホワイトボード102が第1基準領域として利用される。これにより、電子的な画像の表示位置を精度よく決定することができる。
なお、画像を実空間の像に重畳させて表示するとは、(i)光を透過して実空間の像を閲覧者に提供するとともに、閲覧者に対して電子的な画像を表示する透過型ディスプレイにおいて、閲覧者が透過型ディスプレイを通して実空間の像を見た場合に、当該閲覧者により、電子的な画像及び実空間の像が重畳しているように視認される位置に、当該電子的な画像を表示することだけでなく、(ii)実空間の像を撮像して得られた電子的な映像と、電子的な画像とを合成して得られた画像を表示することを示す。電子的な映像は、動画像であってもよく、静止画像であってもよい。また、画像又は映像には、音声情報が含まれてもよく、画像の表示又は映像の再生とともに、音声が再生されてもよい。
次に、ユーザ端末112及びユーザ端末114における情報処理の概要を説明する。本実施形態において、ユーザ端末112及びユーザ端末114は、マスター/スレーブ方式により、実空間の像に重畳させて表示される画像の電子情報を共有する。説明を簡単にする目的で、本実施形態においては、ユーザ端末112がマスター端末として機能し、ユーザ端末114がスレーブ端末として機能する場合を例として、ユーザ端末112及びユーザ端末114について説明する。
本実施形態において、ユーザ端末112は、ユーザ端末114との間で共有する画像を管理する。ユーザ端末112は、例えば、ユーザ12の指示に基づいて、画像を更新する。例えば、ユーザ端末112及びユーザ端末114の間で「AB」という文字列の画像が共有されている場合において、ユーザ端末112が、ユーザ12から、「AB」という文字列の後ろに「CD」という文字列を入力するための指示を受け取った場合、ユーザ端末112は、現在、共有されている「AB」という文字列の画像の内容を更新して、「ABCD」という文字列の画像を生成する。ユーザ端末112は、更新された画像を、ユーザ端末114に送信する。これにより、ユーザ端末112及びユーザ端末114は、ユーザ12及びユーザ14に対して表示される画像を共有することができる。
ユーザ端末112及びユーザ端末114は、実空間の像に重畳させて、それぞれのユーザに画像を表示する。ユーザ端末112及びユーザ端末114は、必要に応じて画像を変換し、変換後の画像をそれぞれのユーザに表示する。例えば、ユーザ端末112及びユーザ端末114は、それぞれのユーザと、基準マーカ104との位置関係に応じて、画像の形状、又は画像の形状及び大きさを変換する。これにより、あたかも、画像が実空間上の特定の位置に固定されているかのように、当該画像を表示することができる。
一実施形態によれば、ユーザ端末112は、画像を更新した後、変換処理前の画像をユーザ端末114に送信する。この場合、ユーザ端末114は、受信した画像を変換して、変換処理後の画像をユーザ14に表示してよい。他の実施形態によれば、ユーザ端末112は、画像を更新した後、更新された画像をユーザ14に表示するために変換する。例えば、ユーザ端末112は、ユーザ端末114から、ユーザ14の近傍において撮像された基準マーカ104の形状に関する情報を取得する。ユーザ端末112は、変換前の画像中の基準マーカ104の形状と、ユーザ14の近傍において撮像された基準マーカ104の形状とを比較して、両者が同一となる又は相似するように、画像の形状を変換する。ユーザ端末112は、変換後の画像をユーザ端末114に送信する。この場合、ユーザ端末114は、ユーザ端末112から受信した画像をユーザ14に表示してもよい。
なお、マスター/スレーブ方式におけるマスター端末及びスレーブ端末の区別は絶対的なものではなく、マスター端末において予め定められたイベントが発生した場合、マスター端末は、1以上のスレーブ端末のうちの1つに対して、当該スレーブ端末をマスター端末として機能させるための命令を送信してよい。これにより、マスター端末を切り替えることができる。予め定められたイベントとしては、ユーザから、マスター端末を切り替えるための指示が入力されたこと、ユーザ端末112が基準マーカ104を認識できなくなったことなどを例示することができる。
このように、本実施形態の表示システム100によれば、実空間の像に重畳される画像を複数のユーザ端末間で共有しながら、リアルタイムに画像を更新することができる。また、ユーザ端末の位置に応じて、画像を変換することができる。これにより、臨場感が増加する。さらに、実空間上で情報を描画することなく、当該情報を共有することができるので、情報漏洩のリスクを低減することができる。
本実施形態の表示システム100によれば、現実のホワイトボードでは不可能な要求に対応することができる。例えば、本実施形態の表示システム100によれば、画像の表示範囲又は描画範囲を自由に指定することもできる。これにより、例えば、壁面全体をホワイトボードとして利用することができる。また、画像を表示させるとともに、画像に関連付けられた音声を再生することもできる。
次に、ユーザ端末112の各部の概要について説明する。なお、ユーザ端末114は、ユーザ端末112と同様の構成を有してよい。そのため、ユーザ端末114の各部については、説明を省略する場合がある。
本実施形態において、ユーザ端末112は、ユーザ12に情報を提示し、ユーザ端末114と情報を送受することができる装置であればよく、詳細については特に限定されない。ユーザ端末112は、パーソナルコンピュータ、携帯端末、無線端末、及びこれらの組み合わせであってよい。携帯端末としては、携帯電話若しくはスマートフォン、ノートブック・コンピュータ若しくはラップトップ・コンピュータ、PDA、タブレット端末、ウェアラブル・コンピュータなどを例示することができる。ウェアラブル・コンピュータとしては、アイウエア型、腕輪型又は指輪型のウェアラブル・コンピュータを例示することができる。
表示端末122は、実空間の像に重畳させて、ユーザ12に画像を表示する。本実施形態において、表示端末122は、通信端末124から、ユーザ12に提示すべき画像を受信して、当該画像を表示する。
表示端末122は、ウェアラブル・コンピュータであることが好ましく、アイウエア型の表示デバイスであることが好ましい。アイウエア型の表示デバイスとしては、ヘッドマウントディスプレイ、メガネ型の表示デバイス、コンタクトレンズ型の表示デバイスなどを例示することができる。表示端末122は、透過型ディスプレイを有してもよい。
本実施形態において、表示端末122は、基準マーカ104が含まれるように、ホワイトボード102の少なくとも一部を撮像する。表示端末122は、ユーザ12の頭部に装着されているので、ユーザ12の視線に近い映像を取得することができる。撮像された映像を解析することで、ユーザ12及び基準マーカ104の位置関係に関する情報を取得することができる。表示端末122は、ユーザ12又は第三者のジェスチャを撮像してもよい。撮像された映像を解析することで、ユーザ12又は第三者のジェスチャを検出することができる。これにより、いわゆるジェスチャ入力(ジェスチャ認識と称される場合がある。)を実現することができる。本実施形態において、表示端末122は、撮像された映像を通信端末124に送信する。
ユーザ又は第三者(ユーザなどと称する場合がある。)のジェスチャとしては、ユーザなどの動作、ユーザなどが装着又は所持しているデバイスの動き、ユーザなどの視線の動きなどを例示することができる。ユーザなどの動作としては、ユーザなどの指先の動き、ユーザなどの手の形、ユーザなどの腕の形などを例示することができる。なお、ユーザなどのジェスチャの検出方法は、撮像された映像から検出する方法に限定されない。例えば、ユーザなどが、加速度センサ、ジャイロセンサなどを備えたウェアラブル・コンピュータ又は携帯端末を装着又は所持している場合、当該ウェアラブル・コンピュータ又は携帯端末を利用することにより、ユーザなどのジェスチャを検出することができる。通信端末124は、ユーザ12の指示により、ユーザなどのジェスチャを検出してよい。
本実施形態において、通信端末124は、表示端末122に表示される画像を生成する。例えば、通信端末124は、ユーザ12により入力された、表示端末122に表示されるべき情報に基づいて、表示端末122に表示される画像を更新する。通信端末124は、ユーザ14により入力された、表示端末122に表示されるべき情報に基づいて、表示端末122に表示される画像を更新してもよい。
通信端末124は、表示端末122から受信した映像の中から、ユーザ12のジェスチャを検出して、ユーザ12からの入力を検出してよい。一実施形態において、通信端末124は、表示端末122から受信した映像の中から、基準マーカ104の形状を検出する。通信端末124は、検出された基準マーカ104の形状と、基準マーカ104を正面から見た場合の形状(基準マーカ104の基本形状と称する場合がある。)とを比較する。通信端末124は、上記の比較結果と、ユーザ12のジェスチャに基づいて検出されたユーザ12からの入力とに基づいて、基準マーカ104を正面から見る位置において、ユーザ12のジェスチャを見ていた場合に検出されたであろう、ユーザ12からの入力(基本入力と称する場合がある。)を生成する。
通信端末124は、同様にして、ユーザ端末114から映像を取得して、当該映像に基づいて、ユーザ14からの入力を検出してもよい。また、基準マーカ104を正面から見る位置において、ユーザ14のジェスチャを見ていた場合に検出されたであろう、ユーザ14からの入力を生成してもよい。通信端末124は、ユーザ端末114において同様にして検出又は生成されたユーザ14からの入力に関する情報を、ユーザ端末114から取得してもよい。これにより、通信端末124は、ユーザ14からの入力に基づいて、画像を更新することができる。
一実施形態において、通信端末124は、基準マーカ104を正面から見ているかのように、画像を表示する(相対位置表示と称する場合がある。)。この場合、表示端末122と基準マーカ104との位置関係が変わった場合であっても、当該位置関係によらず、同一の画像が表示される。
他の実施形態において、通信端末124は、表示端末122と基準マーカ104との位置関係に応じて、画像の形状、又は画像の形状及び大きさが変化するように、画像を表示する(絶対位置表示と称する場合がある。)。通信端末124が、基準マーカ104の大きさに関する情報を取得できる場合、通信端末124は、表示端末122と基準マーカ104との位置関係に応じて、画像の形状及び大きさを変化させてもよい。この場合、画像が、実空間上の特定の位置に固定されているかのように表示される。
通信端末124は、ユーザ端末114との間で情報を送受する。例えば、通信端末124は、ユーザ端末114に対して、共有する画像に関する情報を送信する。通信端末124は、表示端末と基準マーカとの位置関係によらない画像(基本画像と称する場合がある。)を送信してもよく、表示端末122と基準マーカ104との位置関係に応じて変換された画像を送信してもよい。通信端末124は、表示端末142と基準マーカ104との位置関係に応じて変換された画像を送信してもよい。
一実施形態において、通信端末124は、有線通信方式又は近距離無線通信方式により、ユーザ端末114との間で情報を送受する。近距離無線通信方式としては、NFC、Bluetooth(登録商標)、WiFi(登録商標)、WiMAX(登録商標)などを例示することができる。
他の実施形態において、通信端末124は、通信回線を介して、ユーザ端末114との間で情報を送受する。通信回線は、無線通信の伝送路であってもよく、有線通信の伝送路であってもよく、無線通信の伝送路及び有線通信の伝送路の組み合わせであってもよい。通信回線としては、移動体通信網、無線パケット通信網、インターネット、専用回線及びこれらの組み合わせを例示することができる。
ユーザ端末114は、ユーザ14に情報を提示する。表示端末142は、実空間の像に重畳させて、ユーザ14に画像を表示する。通信端末144は、ユーザ端末112との間で情報を送受する。本実施形態において、通信端末144は、通信端末124から、更新された画像に関する情報を受信する。通信端末144は、受信した画像に基づいて、表示端末142に表示させる画像を生成してよい。その他の点については、ユーザ端末114、表示端末142及び通信端末144は、ユーザ端末112、表示端末122及び通信端末124と同様の構成を有してもよい。
表示システム100の各部は、ハードウエアにより実現されてもよく、ソフトウエアにより実現されてもよく、ハードウエアとソフトウエアとの組み合わせにより実現されてもよい。例えば、プログラムが実行されることにより、コンピュータが、表示システム100の各部として機能する。
上記のソフトウエア又はプログラムは、CD−ROM、DVD−ROM、メモリ、ハードディスクなどのコンピュータ読み取り可能な媒体に記憶されていてもよく、ネットワークに接続された記憶装置に記憶されていてもよい。ソフトウエア又はプログラムは、コンピュータ読み取り可能な媒体又はネットワークに接続された記憶装置から、ユーザ端末112及びユーザ端末114のそれぞれのコンピュータにインストールされてよい。
コンピュータを、表示システム100の各部として機能させるプログラムは、表示システム100の各部の動作を規定したモジュールを備えてよい。これらのプログラム又はモジュールは、プロセッサ、通信インターフェース等に働きかけて、表示システム100の各部として機能させたり、表示システム100の各部における情報処理方法を実行させたりする。
これらのプログラムに記述された情報処理は、コンピュータに読込まれることにより、ソフトウエアと、ユーザ端末112及びユーザ端末114のハードウエア資源とが協働した具体的手段として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータの使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた表示システム100を構築することができる。
表示システム100の各部は、一般的な構成の情報処理装置において、表示システム100の各部の動作を規定したソフトウエア又はプログラムを起動することにより実現されてよい。表示システム100又はその一部として用いられる情報処理装置は、CPU等のプロセッサ、ROM、RAM、通信インターフェースなどを有するデータ処理装置と、キーボード、タッチパネル、マイクなどの入力装置と、液晶ディスプレイ、透過型ディスプレイ、プロジェクタなどの表示装置と、スピーカなどの出力装置と、メモリ、HDDなどの記憶装置とを備えてよい。上記のデータ処理装置又は記憶装置は、上記のソフトウエア又はプログラムを記憶してよい。
本実施形態において、基準マーカ104がホワイトボード102に付されている場合について説明した。しかし、基準マーカ104の付される場所はホワイトボード102に限定されない。他の実施形態において、基準マーカ104は、壁、机、手のひらなどに付されてよい。これにより、基準マーカ104の付された実空間上の位置を基準として、電子的な画像を実空間の像に重畳させて表示することができる。基準マーカ104が配される場所は、平坦であることが好ましいが、湾曲していてもよい。
本実施形態において、特定の画像を、実空間のホワイトボード102に重畳させて表示する場合について説明した。しかし、画像の表示方法は、実施形態に限定されない。他の実施形態において、ホワイトボードの電子的な画像を生成して、特定の画像を、当該ホワイトボードの電子的な画像に重畳させて表示してもよい。
本実施形態において、基準マーカ104が第1基準領域として利用され、画像が基準マーカ104とともに表示される場合について説明した。しかし、第1基準領域は、本実施形態に限定されない。他の実施形態において、ユーザ端末112及びユーザ端末114が、ホワイトボード102の形状に関する情報を記憶している、又は通信回線を介して当該情報を取得することができる場合には、ホワイトボード102が第1基準領域として利用され、画像がホワイトボード102に重畳して表示されてもよい。なお、この場合、基準マーカ104はなくてもよい。
本実施形態において、ユーザ端末112及びユーザ端末114のそれぞれが、同一の基準マーカ104を利用して、それぞれの表示部に表示させる画像を変換する場合について説明した。しかし、ユーザ端末112及びユーザ端末114は、本実施形態に限定されない。他の実施形態において、ユーザ端末112が画像の変換に利用する基準領域と、ユーザ端末114が画像の変換に利用する基準領域とが異なってもよい。例えば、種類の異なる基準マーカが利用される場合であっても、それぞれの基準マーカの基本形状が既知であれば、同一の種類の基準マーカを利用する場合又は同一の基準マーカを利用する場合と同様に、情報を共有することができる。ユーザ端末114が画像の変換に利用する基準領域は、第2基準領域の一例であってよい。第2基準領域は、第1基準領域と物理的に異なる位置に配されるものであればよく、その他の構成については、第1基準領域と同様の構成を有してよい。
本実施形態において、第1基準領域及び第2基準領域が、物理的な形状を有する場合について説明した。しかし、第1基準領域及び第2基準領域は、本実施形態に限定されない。他の実施形態において、第1基準領域及び第2基準領域の少なくとも一方は、点滅のリズムやパターンなどが予め定められた光点又は光点群であってもよく、複数のレーザー光線により示されてもよい。第1基準領域及び第2基準領域の少なくとも一方は、液晶ディスプレイ、プロジェクタなどの表示装置により表示される映像であってもよい。
本実施形態において、画像がホワイトボード102に重畳するように描画される場合について説明した。しかし、画像が描画される領域(描画領域と称する場合がある。)は、本実施形態に限定されない。他の実施形態において、電子的な画像が描画される領域の大きさは、ユーザ12により指定される。ユーザ12は、基準マーカ104及び描画領域の位置関係、描画領域の大きさ若しくは範囲、並びに、描画領域の形状、模様、色彩及びこれらの組み合わせの少なくとも1つについて指定してもよい。
図2及び図3を用いて、表示端末122及び表示端末142における画像の表示方法の一例について説明する。図2及び図3においては、表示端末122及び表示端末142が、透過型ディスプレイを有する場合について説明する。
図2は、ユーザ12が、表示端末122を通して視認する映像200の一例を概略的に示す。図3は、ユーザ14が、表示端末142を通して視認する映像300の一例を概略的に示す。
映像200は、ユーザ14、ユーザ12の手28の一部、ホワイトボード102及び基準マーカ104の像を含む。ユーザ14、ユーザ12の手28の一部、ホワイトボード102及び基準マーカ104の像は、表示端末142を透過してユーザ12に視認される実空間の像である。
映像200は、ウィンドウ210、ウィンドウ220及びウィンドウ230を含む。ウィンドウ210、ウィンドウ220及びウィンドウ230は、表示端末142に表示される画像である。本実施形態において、ウィンドウ210、ウィンドウ220及びウィンドウ230は、表示端末142を透過してユーザ12に視認される実空間の像に重畳するように表示される。また、ウィンドウ220及びウィンドウ230は、ウィンドウ210に重畳して表示され、ウィンドウ220は、ウィンドウ230に重畳して表示される。
ウィンドウ210は、コマンド表示部212と、複数のアイコン214とを含む。コマンド表示部212は、ウィンドウ210又はウィンドウ210内に表示される画像を操作するための1以上のコマンドを表示する。複数のアイコン214のそれぞれは、上記の1以上のコマンドの1つに対応付けられる。
上記のコマンドとしては、ウィンドウ210のサイズの変更、ウィンドウ210の画面表示の可否、ウィンドウ210に表示される画像の共有に関する設定などを例示することができる。画像の共有に関する設定としては、共有の開始又は終了、他の端末からの共有の申し出に対する応答などを例示することができる。共有の申し出に対する応答としては、共有の許可、共有の拒否、判断の保留などを例示することができる。
ウィンドウ210は、画像216を含む。本実施形態において、画像216は、ユーザ端末114と共有されている。また、画像216は、表示端末122及び基準マーカ104の位置関係に応じて変換されている。ユーザ端末112及びユーザ端末114は、画像216の内容だけでなく、画像216及び基準マーカ104の位置関係についても共有する。そのため、例えば、ユーザ12が移動して、ユーザ12及び基準マーカ104の位置関係が変化すると、画像216の形状又は画像216の形状及び大きさも変化する。一方、ユーザ12及び基準マーカ104の位置関係が変化しても、画像216は、ホワイトボード102上の特定の位置に重畳するように表示される。
ウィンドウ220は、コマンド表示部222と、複数のアイコン224とを含む。コマンド表示部222及びアイコン224は、それぞれ、コマンド表示部212及びアイコン214と同様の構成を有してよい。ウィンドウ220は、画像226を含む。本実施形態において、画像226は、ユーザ端末114と共有されていない。
本実施形態において、画像226は、画像216の内容のうち、ユーザ12により指定された範囲に含まれる内容を拡大して表示するための画像である。本実施形態において、画像216及び画像226は、同一の基本画像に基づいて生成される。画像216及び画像226は、表示される範囲、並びに、表示される内容の大きさ及び形状が異なる。本実施形態において、ユーザ端末112は、画像216上の位置と、画像226上の位置との対応関係を記憶しており、ユーザ12が、画像226上で入力した事項は、画像216に反映される。
これにより、例えば、ユーザ12は、画像226の特定の位置を指定し、当該指定した位置に、キーボード、タッチパネル、マイクなどの入力デバイスを用いて文字、図形などを入力することができる。入力された情報は、画像216に反映され、ユーザ端末114に表示される画像にも反映される。また、ユーザ12が、ホワイトボード102から離れた位置にいる場合、ジェスチャ入力により、ホワイトボード102上に文字などを入力することが難しい場合がある。ウィンドウ220内に画像216の一部を拡大して表示することで、例えば、ユーザ12がホワイトボード102から離れた位置にいる場合であっても、ホワイトボード102上に文字などを容易に入力することができる。
ウィンドウ230は、コマンド表示部232と、複数のアイコン234とを含む。コマンド表示部232及びアイコン234は、それぞれ、コマンド表示部212及びアイコン214と同様の構成を有してよい。ウィンドウ230は、スプレッドシート236を含む。本実施形態において、スプレッドシート236は、ユーザ端末114と共有されていない。これにより、ユーザ12は、スプレッドシート236の情報を閲覧しながら、画像216上で情報を入力することができる。
映像300は、ユーザ12、ユーザ14の手38の一部、ホワイトボード102及び基準マーカ104の像を含む。ユーザ12、ユーザ14の手38の一部、ホワイトボード102及び基準マーカ104の像は、表示端末142を透過してユーザ14に視認される実空間の像である。
映像300は、ウィンドウ310を含む。ウィンドウ310は、表示端末142に表示される画像である。本実施形態において、ウィンドウ310は、表示端末142を透過してユーザ14に視認される実空間の像に重畳するように表示される。
ウィンドウ310は、コマンド表示部312と、複数のアイコン314とを含む。コマンド表示部312及びアイコン314は、それぞれ、コマンド表示部212及びアイコン214と同様の構成を有してよい。ウィンドウ310は、画像316を含む。本実施形態において、画像316は、ユーザ端末112と共有されている。画像316は、画像216に対応する。画像316は、表示端末142及び基準マーカ104の位置関係に応じて変換されている。そのため、画像216及び画像316は、表示される内容は同一であるが、形状又は形状及び大きさが異なる場合がある。
図4は、画像変換処理の一例を概略的に示す。本実施形態においては、ユーザ端末112は、各画像の基本画像を管理しており、ユーザ12、又はユーザ12及びユーザ14からの指示に基づいて、基本画像を更新する。
例えば、ユーザ端末112は、画像216及び画像316に対応する基本画像416と、スプレッドシート236のデータ436とを記憶装置に記憶している。基本画像416は、ユーザ端末112において変換され、基本画像416とは形状又は形状及び大きさの異なる画像216が生成される。また、基本画像416の特定の領域が切り取られて、画像226が生成される。さらに、データ436のうち、画面上に表示させる領域が決定され、スプレッドシート236の画像が生成される。その後、生成された画像が、それぞれのウィンドウ内の特定の位置に配される。
一方、基本画像416は、ユーザ端末112及びユーザ端末114の少なくとも一方において変換され、画像316が生成される。基本画像416がユーザ端末112において変換される場合、変換後の画像316がユーザ端末114に送信される。基本画像416がユーザ端末114において変換される場合、変換前の基本画像416がユーザ端末114に送信される。その後、画像316が、ウィンドウ310内の特定の位置に配される。
図5は、画像変換処理の他の例を概略的に示す。本実施形態においては、ユーザ端末112は、表示端末122に表示されている画像を管理しており、ユーザ12、又はユーザ12及びユーザ14からの指示に基づいて、当該画像を更新する。
例えば、ユーザ端末112は、例えば、現在、表示端末122に表示されている画像516と、スプレッドシート236のデータ436とを記憶装置に記憶している。画像516は、ユーザ端末112において変換され、画像516とは形状又は形状及び大きさの異なる画像216が生成される。なお、ユーザ12及び基準マーカ104の位置関係の変動が小さく、画像の内容に変更がない場合、画像516及び画像216の形状及び大きさは、ほぼ同一である。
また、画像516が基本画像416に変換され、変換された基本画像416の特定の領域が切り取られて、画像226が生成される。さらに、データ436のうち、画面上に表示させる領域が決定され、スプレッドシート236の画像が生成される。その後、生成された画像が、それぞれのウィンドウ内の特定の位置に配される。
一方、画像516は、ユーザ端末112及びユーザ端末114の少なくとも一方において変換され、画像316が生成される。画像516がユーザ端末112において変換される場合、変換後の画像316がユーザ端末114に送信される。画像516がユーザ端末114において変換される場合、変換前の画像516がユーザ端末114に送信される。また、ユーザ端末112において、一旦、画像516が基本画像416に変換され、基本画像416がユーザ端末114に送信されてもよい。この場合、ユーザ端末114において、基本画像416が変換されて、画像316が生成される。その後、画像316が、ウィンドウ310内の特定の位置に配される。
図6は、ユーザ端末112のシステム構成の一例を概略的に示す。本実施形態において、ユーザ端末112は、入力部610と、校正部632と、動作モード決定部634と、基準マーカ検出部636と、画面生成部650と、表示部652と、共有制御部660と、送信部662と、通信制御部672と、通信制御部674とを備える。入力部610は、撮像部612と、マイク614と、ジェスチャ検出部616と、受信部618とを有する。ユーザ端末112の各部は、互いに情報を送受してよい。動作モード決定部634は動作モード変更部の一例であってよい。基準マーカ検出部636は、画像解析部の一例であってよい。送信部662は、画像送信部の一例であってよい。
本実施形態において、撮像部612、マイク614、表示部652及び通信制御部672が、表示端末122に配され、その他の部材が、通信端末124に配される場合について説明する。しかし、ユーザ端末112は、本実施形態に限定されない。他の実施形態において、全ての部材が表示端末122に配されてもよく、画面生成部650が表示端末122に配されてもよい。ユーザ端末114は、ユーザ端末112と同様のシステム構成を有してよい。
入力部610は、ユーザ12の指示に基づく情報であって、表示端末122において実空間の像及び電子的な画像の少なくとも一方に重畳させて描画される情報を入力する。入力部610の各部は、入力された情報を通信端末124に送信してよい。なお、入力部610は、キーボード、タッチパネル、マウスなどのその他の入力デバイスを有してもよい。
撮像部612は、実空間の像を撮像する。撮像部612は、複数のカメラを有してよい。例えば、撮像部612は、基準マーカ104を撮像するためのカメラと、ユーザ12のジェスチャを撮像するためのカメラとを備える。ユーザ12のジェスチャを撮像するためのカメラは、ユーザ12の手又は指を撮像するためのカメラと、ユーザ12の目を撮像するためのカメラとを含んでもよい。なお、撮像される映像は、静止画像であってもよく、動画像であってもよい。撮像される映像は動画像であることが好ましい。
マイク614は、音声を入力する。これにより、ユーザ12は、音声によりユーザ端末112に対する指示を入力することができる。
ジェスチャ検出部616は、撮像部612により撮像された映像を解析して、ユーザ12などのジェスチャを検出する。ジェスチャ検出部616は、検出されたジェスチャを解析して、ユーザ12などからの入力を検出してよい。
受信部618は、ユーザ端末114を介して、ユーザ14からの指示又は入力を受信する。受信部618は、ユーザ端末114から、ユーザ端末114の撮像部612により撮像された映像を受信してもよい。
校正部632は、表示端末122に表示される画像の位置を校正する。表示端末122が、ユーザ12の頭部に装着されるデバイスである場合、撮像部612及びユーザ12の目の距離は、比較的、個人差が小さい。そこで、ユーザ端末112は、撮像部612及びユーザ12の目のおおよその距離に基づいて、表示端末122に表示される画像の位置を調整することができる。校正部632は、表示端末122に表示される画像の位置をさらに微調整する。例えば、表示端末122が透過型ディスプレイを有する場合、ユーザ12は、校正部632を起動して、撮像部612により撮像された映像を表示端末122に表示しながら、表示端末122に表示される映像と、表示端末122を介して視認される実空間の像とが一致するように、画像の表示位置を調整する。
これにより、校正部632は、撮像部612により撮像された映像中の位置と、表示部652上の位置との関係を取得することができる。校正部632は、撮像部612により撮像された映像中の位置ごとに、上記の関係を取得してもよい。撮像部612により撮像された映像中の位置と、表示部652上の位置との関係を利用することで、表示部652上で、画像と、実空間の像とを、より正確に重畳させることができる。校正部632は、上記の関係を示す情報を表示制御部758に送信してよい。校正部632は、上記の関係を示す情報を記憶してもよい。なお、ユーザ12は、表示端末122が非透過型ディスプレイを有する場合にも、校正部632を起動して画像の表示位置を調整してよい。
動作モード決定部634は、ユーザ端末112及びユーザ端末114の少なくとも一方の動作モードを決定する。動作モードとしては、マスター端末として動作するモードと、スレーブ端末として動作するモードとを例示することができる。動作モード決定部634は、例えば、ユーザ端末112の動作モードを、マスター端末として動作するモードから、スレーブ端末として動作するモードに変更することを決定した場合に、少なくともユーザ端末114の動作モードを変更させる命令を生成する。動作モード決定部634は、生成された命令をユーザ端末114に送信する。これにより、ユーザ端末114の動作モードを、例えば、マスター端末として動作するモードに変更させることができる。動作モード決定部634は、ユーザ端末112及びユーザ端末114の動作モードを変更させる命令を生成してもよい。
例えば、動作モード決定部634は、基準マーカ検出部636が、ユーザ端末112の撮像部612により撮像された実空間の像の中に基準マーカ104が含まれていないと判断した場合に、上記の命令を生成する。ユーザ端末114の動作モードを、マスター端末として動作するモードに変更させるための命令は、例えば、ユーザ端末114の画面生成部650に、画像を更新させるための手順と、ユーザ端末114の画面生成部650に、基準マーカ104と、ユーザ端末114の表示部652との位置関係に基づいて、画面生成部650が更新した画像を変換させるための手順と、ユーザ端末114の画面生成部650に、画面生成部650が変換した画像を、基準マーカ104に重畳させて、又は基準マーカ104とともに、ユーザ端末114の表示部652に表示させるための手順とを含む。ユーザ端末114の共有制御部660又は送信部662に、ユーザ端末114の画面生成部650が更新した画像又は変換した画像を、ユーザ端末112に送信させるための手順を含んでもよい。
基準マーカ検出部636は、撮像部612により撮像された実空間の像の映像を解析して、当該映像の中に基準マーカ104が含まれているか否かを判断する。上記映像の中に基準マーカ104が含まれている場合、基準マーカ検出部636は、基準マーカ104の形状を検出してよい。基準マーカ検出部636は、基準マーカ104の形状とともに、基準マーカ104の位置及び大きさの少なくとも一方を検出してもよい。基準マーカ検出部636は、検出された情報を画面生成部650に送信してよい。上記の情報は、基準マーカ104が検出されたことを示す情報の一例であってよい。上記映像の中に基準マーカ104が含まれていなかった場合、基準マーカ検出部636は、基準マーカ104が検出されなかったことを示す情報を、動作モード決定部634に送信してよい。
画面生成部650は、表示部652に表示させる画面を生成する。例えば、画面生成部650は、表示部652に表示する画像を更新する。画面生成部650は、ユーザ12及びユーザ14の少なくとも一方から入力された情報に基づいて、画像の内容を更新してよい。画面生成部650は、実空間上の基準マーカ104と、表示部652との位置関係に基づいて、更新された画像を変換してよい。画面生成部650は、更新された画像又は変換された画像を、基準マーカ104に重畳させて、又は基準マーカ104とともに、表示部652に表示させてよい。
表示部652に表示される画面の少なくとも一部の領域に表示される情報を、ユーザ端末114と共有する場合、画面生成部650は、当該領域に表示される画像をキャプチャしてよい。画面生成部650は、キャプチャした画像を、ユーザ端末114にストリーミング配信してよい。これにより、表示部652に表示される画面の少なくとも一部の領域に表示される情報を、ユーザ端末114と共有することができる。画像とともに、音声情報がストリーミング配信されてもよい。
表示部652は、実空間の像に重畳させて、ユーザ12に画像を表示する。表示部652は、液晶ディスプレイ、有機ELディスプレイ、プロジェクタなどの表示デバイスであってよい。表示部652は、透過型ディスプレイを有してよい。透過型ディスプレイには、プロジェクタにより映像が投影されてもよい。表示部652は、ユーザ12の目の一部に映像を投影するプロジェクタであってもよい。目の一部は、網膜であってよい。
共有制御部660は、ユーザ端末114などの他の端末との間で画像を共有するための処理を制御する。例えば、共有制御部660は、ユーザ端末114などの他の端末を認証する。共有制御部660は、複数の画像の共有に関する設定を管理してよい。共有制御部660は、複数の画像のそれぞれについて、共有を許可された端末又は共有を禁止された端末を識別する端末識別情報(端末IDと称する場合がある。)を対応付けて格納してよい。
送信部662は、ユーザ端末114などの他の端末に画像を送信する。送信部662は、共有制御部660の制御に従って、ユーザ端末114などの他の端末に画像を送信してよい。一実施形態において、送信部662は、ユーザ端末114が、共有制御部660により認証されている場合に、画面生成部650により更新又は変換された画像をユーザ端末114に送信する。他の実施形態において、送信部662は、複数の画像のうち、共有制御部660により、ユーザ端末114に対して送信することを許可された画像を、ユーザ端末114に送信する。
ユーザ端末112がスレーブ端末として機能している場合、送信部662は、ユーザ端末112において検出されたユーザ12からの指示又は入力に関する情報を、マスター端末に送信してよい。送信部662は、撮像部612により撮像された映像を、マスター端末に送信してもよい。
通信制御部672及び通信制御部674は、表示端末122及び通信端末124における通信を制御する。表示端末122及び通信端末124は、例えば、有線通信方式又は近距離無線通信方式により情報を送受する。近距離無線通信方式としては、NFC、Bluetooth(登録商標)、WiFi(登録商標)、WiMAX(登録商標)などを例示することができる。通信制御部672及び通信制御部674は、通信インターフェースであってもよい。通信制御部672及び通信制御部674は、複数の通信方式に対応していてもよい。
本実施形態において、ユーザ端末114は、ユーザ14により利用され、スレーブ端末として動作する。そのため、例えば、下記の点で、ユーザ端末112と相違する。ユーザ端末114において、撮像部612は、実空間の像に重畳させて、ユーザ14に画像を表示する。入力部610は、ユーザ14からの入力を受け付ける。
ユーザ端末114において、画面生成部650は、基準マーカ104と、表示部652との位置関係に基づいて、ユーザ端末112の画面生成部650が更新又は変換した画像を変換してよい。なお、ユーザ14が、基準マーカ104とは異なる第2の基準マーカを利用している場合、画面生成部650は、ユーザ端末112の画面生成部650が更新した画像、ユーザ端末112の画面生成部650が変換した画像又はユーザ端末114の画面生成部650が変換した画像を、第2の基準マーカに重畳させて、又は第2の基準マーカとともに、表示部652に表示させてもよい。
図7は、画面生成部650のシステム構成の一例を概略的に示す。本実施形態において、画面生成部650は、差分検出部752と、画像更新部754と、画像変換部756と、表示制御部758とを備える。
差分検出部752は、ユーザ14からの指示又は入力を検出する。例えば、差分検出部752は、受信部618から、ユーザ14からの指示又は入力を受信する。差分検出部752は、受信部618から、ユーザ端末114の撮像部612により撮像された映像を受信してもよい。差分検出部752は、受信部618から受信した情報と、現在、表示部652に表示されている画像の情報とを比較して、両者の差分を検出する。これにより、ユーザ14からの指示又は入力を検出することができる。差分検出部752は、検出されたユーザ14からの指示又は入力を、画像更新部754に送信する。
画像更新部754は、入力部610が入力した情報に基づいて、画像を更新する。例えば、画像更新部754は、差分検出部752から、受信部618が入力した情報に基づいて検出された、ユーザ14からの指示又は入力に関する情報を取得する。画像更新部754は、ジェスチャ検出部616から、ユーザ12又は第三者のジェスチャに基づいて検出された、ユーザ12又は第三者からの指示又は入力に関する情報を取得する。画像更新部754は、マイク614から、ユーザ12の音声に基づいて検出された、ユーザ12からの指示又は入力に関する情報を取得する。画像更新部754は、上記の指示又は入力に関する情報に基づいて、画像を更新する。
画像更新部754は、現在、表示部652に表示されている画像の内容を更新してもよく、現在、表示部652に表示されている画像の基本画像の内容を更新してもよい。画像更新部754は、複数の画像のそれぞれを更新してもよい。なお、画像を更新するとは、既に存在する画像の内容を更新する場合だけでなく、画像が存在しない場合に、新たに画像を作成する場合をも含む。
画像更新部754は、更新された画像を画像変換部756に送信してよい。画像更新部754は、更新された画像を表示制御部758に送信してもよい。画像更新部754は、更新された画像を共有制御部660に送信してもよい。
画像変換部756は、実空間上の基準マーカ104と、表示部652との位置関係に基づいて、画像更新部754が更新した画像を変換する。画像変換部756は、変換した画像を表示制御部758に送信してよい。
例えば、画像変換部756は、基準マーカ検出部636から、撮像部612により撮像された映像中の基準マーカ104の形状、又は形状及び大きさに関する情報を取得する。画像変換部756は、取得した映像中の基準マーカ104の形状は、実空間上の基準マーカ104と、表示部652との位置関係を表す。
図4を用いて説明したように、画像更新部754が、基本画像416の内容を更新する場合、画像変換部756は、例えば、撮像部612により撮像された映像中の基準マーカ104の形状と、基準マーカ104の基本形状とを比較して、両者が同一となる又は相似するように、基本画像416の形状を変換する。これにより、新たに表示端末122に表示されることになる画像216を生成する。
また、図5を用いて説明したように、画像更新部754が、現在、表示端末122に表示されている画像516の内容を更新する場合、画像変換部756は、例えば、撮像部612により撮像された映像中の基準マーカ104の形状と、画像516が生成されたときの基準マーカ104の形状とを比較して、両者が同一となる又は相似するように、画像516の形状を変換する。これにより、新たに表示端末122に表示されることになる画像216を生成する。
表示制御部758は、画像更新部754が更新した画像又は画像変換部756が変換した画像を、基準マーカ104に重畳させて、又は基準マーカ104にとともに、表示部652に表示させる。表示制御部758は、撮像部612により実空間の像を撮像して得られた電子的な映像と、電子的な画像とを合成して得られた画像を表示部652に表示させてもよい。表示制御部758は、表示端末122が、ユーザ12の頭部に装着される透過型ディスプレイを有する場合、校正部632の校正結果に基づいて、画像を表示させる位置を微調整してよい。
本実施形態において、ユーザ端末112又は表示端末122がマスター端末として機能する場合における、画面生成部650の処理の一例について説明した。ユーザ端末112又は表示端末122がスレーブ端末として機能する場合、画面生成部650は、ユーザ端末112又は表示端末122がマスター端末として機能する場合とは異なる処理を実行してもよい。例えば、画面生成部650は、マスター端末から、基準マーカ104と表示端末122との位置関係に応じて変換された画像を受信した場合には、マスター端末から受信した画像を表示部652に表示させる。一方、マスター端末から、変換前の画像を受信した場合には、マスター端末から受信した画像を、基準マーカ104と表示端末122との位置関係に応じて変換した後、変換された画像を表示部652に表示させる。
図8は、表示制御部758のシステム構成の一例を概略的に示す。本実施形態において、表示制御部758は、画像決定部852と、合成部854とを備える。
本実施形態において、画像決定部852は、画像更新部754が更新した画像及び画像変換部756が変換した画像のうち、表示部652に表示させるべき画像を決定する。例えば、図4を用いて説明した例においては、画像216について、画像決定部852は、画像更新部754が内容を更新した基本画像416と、画像変換部756が変換した画像216とのうち、画像変換部756が変換した画像216を、表示部652に表示させるべき画像として決定する。画像決定部852は、1以上の画像のそれぞれについて、絶対位置表示により表示するか、相対位置表示により表示するかを決定してよい。
合成部854は、1以上の画像を合成して、表示部652に表示させる画面を生成する。例えば、合成部854は、画像決定部852により選択された画像を、基準マーカ104に重畳させて、又は基準マーカ104とともに、表示部652に表示させる。
合成部854は、例えば、画像決定部852が、特定の画像について、絶対位置表示により表示することを決定した場合、ユーザ12及びユーザ14から入力された情報に基づいて、当該特定の画像を表示させる位置を決定する。例えば、合成部854は、撮像部612により撮像された映像を解析して、上記の入力がなされた実空間上の位置と、基準マーカ104の実空間上の位置との関係に関する情報を取得する。合成部854は、上記の情報を入力部610から取得してもよい。
合成部854は、撮像部612により撮像された映像を解析して、基準マーカ104の形状の変化に関する情報を取得する。合成部854は、上記の情報を基準マーカ検出部636から取得してもよい。合成部854は、校正部632から、撮像部612により撮像された映像中の位置と、表示部652上の位置との関係に関する情報を取得する。
合成部854は、入力がなされた実空間上の位置と、基準マーカ104の実空間上の位置との関係を、撮像部612により撮像された映像中の位置及び表示部652上の位置の関係に関する情報、並びに、基準マーカ104の形状の変化に関する情報に基づいて、補正する。これにより、合成部854は、上記の特定の画像が、実空間上の特定の位置に固定されているように、表示部652に表示させる画面を生成することができる。
図9は、共有制御部660のシステム構成の一例を概略的に示す。本実施形態において、共有制御部660は、端末認証部962と、送信制御部964と、制御情報格納部966とを備える。
端末認証部962は、ユーザ端末114などの他の端末を認証する。認証方法は、特に限定されない。送信制御部964は、単一又は複数の画像(1以上の画像と称する場合がある。)のそれぞれについて、他の端末への送信を制御する。送信制御部964は、制御情報格納部966に格納された情報を参照して、1以上の画像のそれぞれについて、他の端末への送信の可否を決定してよい。
制御情報格納部966は、1以上の画像のそれぞれを識別する画像識別情報(画像IDと称する場合がある。)と、画像識別情報により識別される画像の他の端末への送信の可否に関する情報とが対応付けられた送信制御情報を格納する。上記の他の端末は、単一の端末であってもよく、複数の端末であってもよい。画像の送信の可否に関する情報は、画像の送信を許可される端末の端末識別情報であってもよく、画像の送信を禁止される端末の端末識別情報であってもよい。これにより、共有する画像を管理することができる。
図10は、データテーブル1000の一例を概略的に示す。データテーブル1000は、制御情報格納部966に格納される情報の一例であってよい。データテーブル1000は、送信制御情報の一例であってもよい。
本実施形態において、データテーブル1000は、画像ID1002と、画像の表示位置1004と、画像の大きさ1006と、画像の送信を許可された端末の端末ID1008とを対応づけて格納する。画像の表示位置1004は、基準マーカ104の位置を基準とした実空間上の位置であってもよく、表示部652上の特定の点又は特定の領域を基準とした表示部652上の位置であってもよい。画像の大きさ1006は、実空間上の大きさであってもよく、表示部652上の特定の領域を基準とした大きさであってもよい。画像の大きさ1006は、基準マーカ104の大きさに基づいて推測された大きさであってもよい。画像の大きさ1006は、撮像部612により撮像された映像を用いて推測されてよい。
図11は、ユーザ12が、表示端末122を通して視認する映像1100の一例を概略的に示す。図2においては、表示端末122が透過型ディスプレイを有する場合に、ユーザ12が、表示端末122を通して視認する映像200の一例について説明した。一方、本実施形態に係る映像1100は、例えば、通常の液晶ディスプレイ上に表示される。
本実施形態によれば、ウィンドウ210において、画像216が、撮像部612により撮像された実空間の像の映像中の特定の位置に重畳するように表示される。また、ウィンドウ210は、表示部652上において全画面表示されておらず、画面の一部の領域に表示されている。本実施形態によれば、ウィンドウ220及びウィンドウ230は、ウィンドウ210に重畳しないように表示されている。なお、ウィンドウ210、ウィンドウ220及びウィンドウ230は、表示部652上で自由に移動させることができる。
図12は、表示システム1200の一例を概略的に示す。本実施形態において、表示システム1200は、表示端末122と、表示端末142と、ユーザ端末1212を備える。ユーザ端末1212には、撮像部1222が接続されている。ユーザ端末1212と、撮像部1222との接続方法は特に限定されないが、例えば、両者は、有線通信方式又は近距離無線通信方式により接続される。撮像部1222は、基準マーカ104及びホワイトボード102を撮像できる位置に配置される。
下記の点を除いて、ユーザ端末1212は、ユーザ端末112又は通信端末124と同様の構成を有してよい。また、撮像部1222は、撮像部612と同様の構成を有してよい。
表示システム100においては、ユーザ12のユーザ端末112をマスター端末として利用した。ユーザ端末112においては、表示端末122がユーザ12の頭部に装着されるので、ユーザ12の動作によっては、マスター端末及びスレーブ端末の切り替えが頻繁に発生する可能性がある。表示システム1200においては、ユーザ端末1212がマスター端末として機能し、撮像部1222が基準マーカ104の周囲の像を常に撮像する。これにより、マスター端末及びスレーブ端末の切替頻度が大幅に減少する。
表示システム1200においては、表示端末122及び表示端末142は、通信端末124又は通信端末144を介することなく、ユーザ端末1212との間で情報を送受する。本実施形態において、ユーザ端末1212の画面生成部650は、表示端末122の位置に応じた画像と、表示端末142の位置に応じた画像とを生成する。他の実施形態において、ユーザ端末1212は、複数の表示端末のそれぞれに対応する複数の画面生成部650を有してもよい。なお、表示システム1200においても、表示システム100と同様に、複数の表示端末のそれぞれが、対応する通信端末を介して、ユーザ端末1212との間で情報を送受してもよい。
図13は、表示システム1300の一例を概略的に示す。表示システム1300においては、種類の異なる2種類の基準マーカを利用する点において、表示システム100と相違する。また、1台の通信端末により、複数の表示端末に表示する画像を管理する点において、表示システム100と相違する。
本実施形態において、表示システム1300は、ユーザ端末112と、表示端末142と、表示端末1322と、表示端末1342と、通信端末1344とを備える。ユーザ端末112は、表示端末122と、通信端末124とを備える。
本実施形態において、ユーザ12のユーザ端末112が、マスター端末として利用される。通信端末1344は、通信回線10を介して、通信端末124と情報を送受する。通信回線10は、無線通信の伝送路であってもよく、有線通信の伝送路であってもよく、無線通信の伝送路及び有線通信の伝送路の組み合わせであってもよい。通信回線としては、移動体通信網、無線パケット通信網、インターネット、専用回線及びこれらの組み合わせを例示することができる。
表示端末122はユーザ12の頭部に装着されており、表示端末14は、ユーザ14の頭部に装着されている。表示端末1322はユーザ42の頭部に装着されており、表示端末1342は、ユーザ44の頭部に装着されている。表示端末122及び表示端末142は、通信端末124を介して、通信端末1344との間で情報を送受する。同様に、表示端末1322及び表示端末1342は、通信端末1344を介して、通信端末124との間で情報を送受する。
本実施形態において、ユーザ12及びユーザ14は、会議室Aに設けられたホワイトボード102の前に位置する。ユーザ42及びユーザ44は、会議室Aとは異なる会議室Bに設けられたホワイトボード1302の前に位置する。ホワイトボード102には、基準マーカ104が付されており、ホワイトボード1302には、基準マーカ1304が付されている。基準マーカ1304は、基準マーカ104と種類が異なる以外は、基準マーカ104と同様の構成を有してよい。基準マーカ104は第1基準領域の一例であってよく、基準マーカ1304は第2基準領域の一例であってよい。
基準マーカ104及び基準マーカ1304は、種類の異なる基準マーカではあるが、本実施形態において、通信端末124及び通信端末1344は、基準マーカ104及び基準マーカ1304の形状、又は形状及び大きさに関する情報を記憶している。これにより、通信端末124は、通信端末1344から受信した映像中の基準マーカ1304と、表示端末122又は表示端末142の撮像部612により撮像された映像中の基準マーカ104とを比較することで、画像を適切に変換することができる。
同様に、通信端末1344は、通信端末124から受信した映像中の基準マーカ104と、表示端末1322又は表示端末1342の撮像部612により撮像された映像中の基準マーカ1304とを比較することで、画像を適切に変換することができる。つまり、通信端末1344の画像変換部756は、基準マーカ1304と、表示端末1322の表示部652との位置関係に基づいて、表示端末1322の表示部652に表示させる画像を変換する。基準マーカ1304と、表示端末1342の表示部652との位置関係に基づいて、表示端末1342の表示部652に表示させる画像を変換する。
本実施形態において、基準マーカ104及び基準マーカ1304が、種類の異なる基準マーカである場合について説明した。しかし、基準マーカ104及び基準マーカ1304は本実施形態に限定されない。基準マーカ104及び基準マーカ1304は、同一の種類の基準マーカであってもよい。
本実施形態において、通信端末124は、上記の相違点を除いて、表示システム100における通信端末124と同様の構成を有してよい。また、通信端末1344は、上記の相違点を除いて、表示システム100における通信端末144と同様の構成を有してよい。表示端末1322及び表示端末1342は、上記の相違点を除いて、表示システム100における表示端末122又は表示端末142と同様の構成を有してよい。なお、表示システム1300においても、表示システム100と同様に、複数の表示端末のそれぞれが、対応する通信端末を介して、他の端末との間で情報を送受してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。また、技術的に矛盾しない範囲において、特定の実施形態について説明した事項を、他の実施形態に適用することができる。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。