JP2019004243A - 表示システム、表示装置、及び、表示システムの制御方法 - Google Patents
表示システム、表示装置、及び、表示システムの制御方法 Download PDFInfo
- Publication number
- JP2019004243A JP2019004243A JP2017115811A JP2017115811A JP2019004243A JP 2019004243 A JP2019004243 A JP 2019004243A JP 2017115811 A JP2017115811 A JP 2017115811A JP 2017115811 A JP2017115811 A JP 2017115811A JP 2019004243 A JP2019004243 A JP 2019004243A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- image
- data
- unit
- projector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
- Telephonic Communication Services (AREA)
Abstract
【課題】会議の参加者に対し臨場感を感じさせることが可能なシステムを提供する。【解決手段】会議用画像2aを表示するプロジェクター2と、プロジェクター2に対して予め設定される仮想視認位置A1とプロジェクター2との相対位置を記憶する記憶部と、プロジェクター2により表示される会議用画像2aを仮想視認位置A1から視認した画像に相当する仮想画像データを生成する仮想画像生成部と、仮想画像生成部により生成された仮想画像データを送信する送信装置と、送信装置により送信された仮想画像データに基づいて仮想画像を表示する端末装置6と、を備える表示システム1。【選択図】図1
Description
本発明は、表示システム、表示装置、及び、表示システムの制御方法に関する。
従来、表示装置とカメラを利用して電子会議を行うシステムが知られている(例えば、特許文献1参照)。特許文献1記載の構成では、カメラと表示装置とを用い、撮像画像を、一方の会議の参加者の画像と他方の会議の参加者の画像とに分割して、それぞれ会議の相手側の装置に送信することにより、遠隔地の拠点の参加者が会議を行う。
上記従来のシステムでは、他の拠点の参加者が表示装置により表示される態様であるため、臨場感を演出することが難しいという問題があった。
本発明は、会議の参加者に対し臨場感を感じさせることが可能なシステムを提供することを目的とする。
本発明は、会議の参加者に対し臨場感を感じさせることが可能なシステムを提供することを目的とする。
上記課題を解決するため、本発明は、原画像を表示する第1の表示装置と、前記第1の表示装置に対して予め設定される仮想視認位置と、前記第1の表示装置との相対位置を記憶する記憶部と、前記第1の表示装置により表示される原画像を前記仮想視認位置から視認した画像に相当する仮想画像データを生成する仮想画像生成部と、前記仮想画像生成部により生成された前記仮想画像データを送信する送信装置と、前記送信装置により送信された前記仮想画像データに基づいて前記仮想画像を表示する第2の表示装置と、を備える。
本発明によれば、第2の表示装置に表示される画像は、第1の表示装置により表示される原画像を仮想視認位置から視認した画像に相当する。このため、第1の表示装置を直接視認することができない場所または視認が困難な場所にいるユーザーが、第2の表示装置を利用して、仮想視認位置から第1の表示装置を視認したときのような体験をすることが可能となる。従って、複数のユーザーが参加する会議等を行う場合に、ユーザーの居場所が第1の表示装置を直接視認できる場所であっても、視認が困難な場所であっても、臨場感に富む体験を提供できる。
本発明によれば、第2の表示装置に表示される画像は、第1の表示装置により表示される原画像を仮想視認位置から視認した画像に相当する。このため、第1の表示装置を直接視認することができない場所または視認が困難な場所にいるユーザーが、第2の表示装置を利用して、仮想視認位置から第1の表示装置を視認したときのような体験をすることが可能となる。従って、複数のユーザーが参加する会議等を行う場合に、ユーザーの居場所が第1の表示装置を直接視認できる場所であっても、視認が困難な場所であっても、臨場感に富む体験を提供できる。
また、上記課題を解決するため、本発明は、第1の拠点に設置され、会議用画像を表示する第1の表示装置と、前記第1の拠点において前記第1の表示装置に対して予め設定される仮想視認位置を記憶する記憶部と、前記第1の表示装置により表示される前記会議用画像を前記仮想視認位置から視認した画像に相当する仮想画像データを生成する仮想画像生成部と、前記仮想画像生成部により生成された前記仮想画像データを送信する送信装置と、第2の拠点で使用され、前記送信装置により送信された前記仮想画像データに基づいて前記仮想画像を表示する第2の表示装置と、を備える。
本発明によれば、第2の表示装置に表示される画像は、第1の表示装置により表示される会議用画像を仮想視認位置から視認した画像に相当する。このため、第1の拠点以外の場所にいるユーザーが、第2の表示装置を利用して、第1の拠点で第1の表示装置を視認したときのような体験をすることが可能となる。従って、複数のユーザーが参加する会議等を行う場合に、第1の表示装置が設置される第1の拠点にいるユーザー、及び、第1の拠点にいないユーザーのいずれに対しても、臨場感に富む体験を提供できる。
本発明によれば、第2の表示装置に表示される画像は、第1の表示装置により表示される会議用画像を仮想視認位置から視認した画像に相当する。このため、第1の拠点以外の場所にいるユーザーが、第2の表示装置を利用して、第1の拠点で第1の表示装置を視認したときのような体験をすることが可能となる。従って、複数のユーザーが参加する会議等を行う場合に、第1の表示装置が設置される第1の拠点にいるユーザー、及び、第1の拠点にいないユーザーのいずれに対しても、臨場感に富む体験を提供できる。
また、本発明は、前記仮想視認位置に対応する位置に配置されるオブジェクトを有する構成であってもよい。
本発明によれば、第2の表示装置の画像を利用するユーザーの存在を、第1の表示装置を視認可能な位置にいるユーザーに感じさせることができ、より多くのユーザーに対し臨場感に富む体験を提供できる。
本発明によれば、第2の表示装置の画像を利用するユーザーの存在を、第1の表示装置を視認可能な位置にいるユーザーに感じさせることができ、より多くのユーザーに対し臨場感に富む体験を提供できる。
また、本発明は、前記送信装置は、前記オブジェクトの位置を検出する検出部を備え、前記検出部により検出した前記オブジェクトの位置を前記仮想視認位置として前記記憶部に記憶する構成であってもよい。
本発明によれば、オブジェクトの位置が仮想視認位置として記憶されるので、オブジェクトの位置に対応する仮想視認位置を容易に設定できる。
本発明によれば、オブジェクトの位置が仮想視認位置として記憶されるので、オブジェクトの位置に対応する仮想視認位置を容易に設定できる。
また、本発明は、前記送信装置は、前記オブジェクトの位置が指定された場合に、指定された前記オブジェクトの位置を前記仮想視認位置として前記記憶部に記憶する構成であってもよい。
本発明によれば、オブジェクトの位置が指定された場合に、指定されたオブジェクトの位置に対応する仮想視認位置を容易に設定できる。
本発明によれば、オブジェクトの位置が指定された場合に、指定されたオブジェクトの位置に対応する仮想視認位置を容易に設定できる。
また、本発明は、前記仮想画像生成部は、前記第1の表示装置と前記仮想視認位置との相対位置、及び、前記会議用画像を示す会議用画像データに基づき、前記仮想画像データを生成する構成であってもよい。
本発明によれば、仮想視認位置から会議用画像を視認した画像に精度よく対応する仮想画像データを生成できる。
本発明によれば、仮想視認位置から会議用画像を視認した画像に精度よく対応する仮想画像データを生成できる。
また、本発明は、前記送信装置は、前記仮想画像生成部により生成された前記仮想撮像画像データを前記第2の表示装置に送信する送信部と、前記第1の表示装置が表示する画像を視認可能な視聴空間の少なくとも一部を撮像する撮像部と、を備え、前記仮想画像生成部は、前記視聴空間を前記仮想視認位置から視認した画像に相当する仮想撮像画像データを生成する構成であってもよい。
本発明によれば、仮想視認位置から視聴空間を視認した光景に相当する画像を第2の表示装置により表示可能となる。このため、第1の表示装置を視認できない又は視認が困難な位置にいるユーザーに対し、視聴空間にいるような、臨場感に富む視聴体験を提供できる。
本発明によれば、仮想視認位置から視聴空間を視認した光景に相当する画像を第2の表示装置により表示可能となる。このため、第1の表示装置を視認できない又は視認が困難な位置にいるユーザーに対し、視聴空間にいるような、臨場感に富む視聴体験を提供できる。
また、本発明は、前記仮想画像生成部は、前記仮想視認位置を基準とする仮想視線方向が指定された場合に、前記仮想視認位置から前記仮想視線方向を見た場合に相当する前記仮想撮像画像データを生成する構成であってもよい。
本発明によれば、第1の表示装置を視認できない又は視認が困難な位置にいるユーザーに対し、仮想視認位置から視聴空間や第1の表示装置の表示画像を見ているような、臨場感に富む視聴体験を提供できる。
本発明によれば、第1の表示装置を視認できない又は視認が困難な位置にいるユーザーに対し、仮想視認位置から視聴空間や第1の表示装置の表示画像を見ているような、臨場感に富む視聴体験を提供できる。
また、本発明は、前記第2の表示装置は、前記仮想視線方向を指定する仮想視線データを送信する第2装置送信部を備え、前記送信装置は、前記第2の表示装置により送信される前記仮想視線データを受信する受信部を備え、前記仮想画像生成部は、前記受信部により受信された前記仮想視線データに基づき、前記仮想撮像画像データを生成する構成であってもよい。
本発明によれば、仮想視線方向を、第2の表示装置が使用される場所またはその近傍にいるユーザーの視線や操作に対応して、指定できる。このため、第1の表示装置を視認できない又は視認が困難な位置にいるユーザーに対し、より臨場感に富む視聴体験を提供できる。
本発明によれば、仮想視線方向を、第2の表示装置が使用される場所またはその近傍にいるユーザーの視線や操作に対応して、指定できる。このため、第1の表示装置を視認できない又は視認が困難な位置にいるユーザーに対し、より臨場感に富む視聴体験を提供できる。
また、本発明は、前記送信装置は前記第1の表示装置である構成であってもよい。
本発明によれば、第1の表示装置により仮想画像データを送信することで、システムの構成を簡易化できる。
本発明によれば、第1の表示装置により仮想画像データを送信することで、システムの構成を簡易化できる。
また、上記課題を解決するため、本発明は、原画像データに基づき原画像を表示する表示部を備える表示装置であって、前記表示装置に対して予め設定される仮想視認位置と、前記表示装置との相対位置を記憶する記憶部と、前記表示部により表示される画像を前記仮想視認位置から視認した画像に相当する仮想画像データを生成する仮想画像生成部と、前記仮想画像生成部により生成された前記仮想画像データを外部の表示装置に送信する送信部と、を備える。
本発明によれば、表示装置により表示する原画像を仮想視認位置から視認した画像に相当する仮想画像データに基づき、外部の表示装置が表示を行える。このため、本発明の表示装置を直接視認することができない場所または視認が困難な場所にいるユーザーが、外部の表示装置を利用して、仮想視認位置から原画像を視認したときのような体験をすることが可能となる。従って、複数のユーザーが参加する会議等を行う場合に、ユーザーの居場所が原画像を直接視認できる場所であっても、視認が困難な場所であっても、臨場感に富む体験を提供できる。
本発明によれば、表示装置により表示する原画像を仮想視認位置から視認した画像に相当する仮想画像データに基づき、外部の表示装置が表示を行える。このため、本発明の表示装置を直接視認することができない場所または視認が困難な場所にいるユーザーが、外部の表示装置を利用して、仮想視認位置から原画像を視認したときのような体験をすることが可能となる。従って、複数のユーザーが参加する会議等を行う場合に、ユーザーの居場所が原画像を直接視認できる場所であっても、視認が困難な場所であっても、臨場感に富む体験を提供できる。
また、上記課題を解決するため、本発明は、原画像を表示する第1の表示装置、及び、第2の表示装置を備える表示システムの制御方法であって、前記第1の表示装置に対して予め設定される仮想視認位置と、前記第1の表示装置との相対位置に基づいて、前記第1の表示装置により表示される原画像を前記仮想視認位置から視認した画像に相当する仮想画像データを生成し、生成した前記仮想画像データを前記第2の表示装置に送信し、前記第2の表示装置により、前記仮想画像データに基づいて前記仮想画像を表示する。
本発明によれば、第2の表示装置に表示される画像は、第1の表示装置により表示される原画像を仮想視認位置から視認した画像に相当する。このため、第1の表示装置を直接視認することができない場所または視認が困難な場所にいるユーザーが、第2の表示装置を利用して、仮想視認位置から第1の表示装置を視認したときのような体験をすることが可能となる。従って、複数のユーザーが参加する会議等を行う場合に、ユーザーの居場所が第1の表示装置を直接視認できる場所であっても、視認が困難な場所であっても、臨場感に富む体験を提供できる。
本発明によれば、第2の表示装置に表示される画像は、第1の表示装置により表示される原画像を仮想視認位置から視認した画像に相当する。このため、第1の表示装置を直接視認することができない場所または視認が困難な場所にいるユーザーが、第2の表示装置を利用して、仮想視認位置から第1の表示装置を視認したときのような体験をすることが可能となる。従って、複数のユーザーが参加する会議等を行う場合に、ユーザーの居場所が第1の表示装置を直接視認できる場所であっても、視認が困難な場所であっても、臨場感に富む体験を提供できる。
本発明は、上述した表示システム、表示装置、表示システムの制御方法以外の種々の形態で実現することも可能である。例えば、上記の制御方法を実行するためにコンピューター(或いはプロセッサー)が実行するプログラムとして実現してもよい。また、上記プログラムを記録した記録媒体、プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。
[第1実施形態]
図1、本発明を適用した実施形態に係る表示システム1の概略構成図である。
表示システム1は、複数の表示装置を備えるシステムであり、本実施形態では、プロジェクター2(第1の表示装置、表示装置、送信装置)、及び、端末装置6(第2の表示装置、外部の表示装置)を含む。また、本実施形態の表示システム1は、プロジェクター4を備える。
図1、本発明を適用した実施形態に係る表示システム1の概略構成図である。
表示システム1は、複数の表示装置を備えるシステムであり、本実施形態では、プロジェクター2(第1の表示装置、表示装置、送信装置)、及び、端末装置6(第2の表示装置、外部の表示装置)を含む。また、本実施形態の表示システム1は、プロジェクター4を備える。
表示システム1が使用される態様として、本実施形態では、2つの使用場所A、Bに分かれてプロジェクター2及び端末装置6が配置される。プロジェクター2は、使用場所Aである室の天井や壁に固定され、或いは、机上や専用の設置台に載置される。端末装置6は、使用場所Bにおいて使用可能な表示装置であればよく、例えば、可搬型または携帯型の軽量な表示装置である。具体的には、ノート型コンピューター、タブレット型コンピューター、スマートフォン、携帯型電話機等を端末装置6として利用できる。
使用場所Aに設置されるプロジェクター2の数は任意であり、複数のプロジェクターやその他の表示装置によって、複数の画像を、参加者UAが視認可能に表示してもよい。また、例えば、プロジェクター2に代えて、液晶表示パネルや有機ELディスプレイパネルを用いた表示装置を用いてもよい。
参加者UBが使用する装置についても同様であり、使用場所Bにおいて複数の端末装置6を用いてもよい。また、端末装置6を使用する参加者UBが複数であってもよい。例えば、使用場所B、または使用場所Aでも使用場所Bでもない第3の使用場所で、参加者UBとは異なる参加者が、端末装置6と同様の装置を用いて会議に参加してもよい。
参加者UBが使用する装置についても同様であり、使用場所Bにおいて複数の端末装置6を用いてもよい。また、端末装置6を使用する参加者UBが複数であってもよい。例えば、使用場所B、または使用場所Aでも使用場所Bでもない第3の使用場所で、参加者UBとは異なる参加者が、端末装置6と同様の装置を用いて会議に参加してもよい。
使用場所Aには1または複数の参加者UAが居り、使用場所Bは参加者UBが居る場所である。使用場所Aは、プロジェクター2を利用する会議が開催される場所であり、使用場所Aにいる参加者UAは、プロジェクター2が投射する会議用画像2a(原画像)を視認可能である。使用場所Bは、会議用画像2aを視認できない場所であり、例えば使用場所Aから離れた遠隔地である。参加者UBは、使用場所Bから、端末装置6を利用して、使用場所Aで開催される会議に遠隔参加する。
使用場所Aは、第1の拠点に相当し、使用場所Bは第2の拠点に相当し、使用場所Aにおいて会議用画像2aを視認可能な空間は視聴空間に相当する。
使用場所Aは、第1の拠点に相当し、使用場所Bは第2の拠点に相当し、使用場所Aにおいて会議用画像2aを視認可能な空間は視聴空間に相当する。
図1に示すように、プロジェクター2は、使用場所AでスクリーンSC1に画像を投射(表示)する表示装置である。図1では、プロジェクター2の投射画像の一例として、会議用の資料である会議用画像2aを投射する。会議用画像2aは静止画像であってもよいし動画像であってもよく、音声を伴っていてもよい。スクリーンSC1は、使用場所Aにおいて画像光を投射可能であればよく、幕状のスクリーンであってもよいし、壁面、天井面、或いはホワイトボードであってもよく、平面であるか否かを問わない。
プロジェクター2は、後述するカメラ271を有する。カメラ271の撮像方向および画角は、使用場所Aの少なくとも一部を撮像可能なように設定される。カメラ271により、プロジェクター2は、使用場所Aにいる参加者UAを撮像できる。
使用場所Aには、プロジェクター4が設置される。プロジェクター4は、容易に移動可能な可搬型の装置であってもよいし、使用場所Aの机上、壁面、天井面等に固定されるものであってもよい。
プロジェクター4は、使用場所Aにおいて参加者が参加する位置に配置される。つまり、プロジェクター4は、一人の参加者を模して、参加者UAと同様に使用場所Aに位置する。プロジェクター4は、実際には使用場所Aに居ない参加者UBの代わりに使用場所Aに配置される擬似的な参加者であり、いわば参加者UBを代理する。
プロジェクター4は、使用場所Aにおいて参加者が参加する位置に配置される。つまり、プロジェクター4は、一人の参加者を模して、参加者UAと同様に使用場所Aに位置する。プロジェクター4は、実際には使用場所Aに居ない参加者UBの代わりに使用場所Aに配置される擬似的な参加者であり、いわば参加者UBを代理する。
本実施形態では、使用場所Aにいない参加者が一人である場合を想定し、1台のプロジェクター4を使用場所Aに設置する。使用場所Aにいない参加者が複数いる場合は、参加者の数に対応したプロジェクター4を設置してもよいし、一つのプロジェクター4が複数の参加者を代理する構成としてもよい。
プロジェクター4は、使用場所Aにいる参加者UAに、参加者UBの存在を視覚的に認識させる機能を有し、本発明のオブジェクトに相当する。本実施形態で、プロジェクター4は、使用場所Aにおいて、スクリーンSC2に、参加者UBの画像としてユーザー画像4aを投射(表示)する。参加者UBを代理するオブジェクトは、参加者UAが視覚的に認識できるものであればよい。
図1に示すプロジェクター4は、スクリーンSC2にユーザー画像4aを投射し、このユーザー画像4aが参加者UBを代理する。なお、スクリーンSC2は、使用場所Aにおいて画像光を投射可能な面であればよく、幕状のスクリーンであってもよいし、壁面、天井面、或いはホワイトボードであってもよく、平面であるか否かを問わない。
プロジェクター4に代えて、テレビやディスプレイ装置のように画像を表示する装置を用いてもよく、この場合、表示される画像が参加者UBを代理するオブジェクトであると見なすことができる。また、オブジェクトは、使用場所Aを構成する室の壁面や机上に懸架、貼付、設置、或いは描画される絵、イラスト、ステッカー、写真等であってもよいし、使用場所Aに設置される机上に置かれる物であってもよい。
使用場所Aにおいて、オブジェクトが設置される位置は、参加者UBが仮想的に使用場所Aで会議に参加する仮想的な位置であり、この位置を、仮想視認位置A1と呼ぶ。仮想視認位置A1は仮想的に設定される位置であって、仮想視認位置A1それ自体を参加者UAが視認できる態様でなくてもよい。仮想視認位置A1は、図1に示すように所定の面積または体積を有する領域であってもよいし、特定の1点であってもよい。仮想視認位置A1が領域である場合、仮想視認位置A1は、領域の中心または領域の基準となる位置で表現されてもよい。仮想視認位置A1は、後述するように、事前の設定により決められてもよいし、プロジェクター4が設置された場所をプロジェクター2が認識して、この場所を仮想視認位置A1としてもよい。仮想視認位置A1は、プロジェクター2に対する相対位置として設定される。仮想視認位置A1の表現の態様は任意であり、プロジェクター2の位置を基準として仮想視認位置A1を表現してもよいし、使用場所Aに設定される壁面、床面または天井面等の基準位置に対する位置として仮想視認位置A1を表現してもよい。
また、プロジェクター2が表示する会議用画像2aを、仮想視認位置A1から見る(視認する)場合の視線方向を、仮想視線方向VLとする。仮想視線方向VLは、仮想視認位置A1から会議用画像2aまたはスクリーンSC1を見る場合の方向を仮想的に示す情報であり、仮想視線方向VLそれ自体を参加者UAが視認できる態様でなくてもよい。仮想視線方向VLは、方向のみを示す情報であってもよいし、方向と距離を示す情報であってもよい。
仮想視線方向VLは、仮想視認位置A1と、プロジェクター2との相対位置により求めることができるが、仮想視線方向VLが、仮想視認位置A1とは別に指定または設定されてもよい。例えば、プロジェクター2が、仮想視認位置A1と、プロジェクター2の投射方向とに基づいて仮想視線方向VLを求めてもよい。また、例えば、端末装置6が送信するデータにより、仮想視線方向VLが指定されてもよい。これらの例については後述する。
なお、プロジェクター4が表示するユーザー画像4aの位置を、仮想視認位置A1とすることも可能であり、この場合、仮想視線方向VLは、ユーザー画像4aの位置から会議用画像2aを見る場合の視線方向に相当する。
表示システム1を構成するプロジェクター2と端末装置6とは、相互にデータ通信可能に接続される。例えば、プロジェクター2は、使用場所Aまたはその近傍に設置される通信装置11と通信リンク15Aにより接続され、通信リンク15Aによる無線通信を実行する。また、端末装置6は、使用場所Bまたはその近傍に設置される通信装置12と通信リンク15Cにより接続され、通信リンク15Cを介して無線通信を実行する。通信装置11と通信装置12とは、通信ネットワーク10を介して接続される。通信ネットワーク10は、専用線、公衆回線網、携帯電話回線網等を含む広域ネットワークであってもよいし、建物内や施設内に設置されるエリア内ネットワークであってもよい。
また、本実施形態では、オブジェクトとして、ユーザー画像4aを投射するプロジェクター4を利用する例を示す。プロジェクター4は、通信装置11と通信リンク15Bにより接続される。このため、通信装置11を経由して、プロジェクター4とプロジェクター2とが通信可能である。
図2は、プロジェクター2のブロック図である。
プロジェクター2は、制御部20、記憶部22、無線通信部24、音声処理部25、位置検出部27、及び、入力処理部28を備える。また、プロジェクター2は、投射部30、画像処理部31、画像I/F(インターフェイス)部33、及び、I/F部34を備える。これらの各部はバス29により相互に通信可能に接続される。また、後述するように、音声処理部25にはスピーカー26が接続され、入力処理部28には操作パネル281及びリモコン受光部282が接続される。また、画像処理部31にはフレームメモリー32が接続される。
プロジェクター2は、制御部20、記憶部22、無線通信部24、音声処理部25、位置検出部27、及び、入力処理部28を備える。また、プロジェクター2は、投射部30、画像処理部31、画像I/F(インターフェイス)部33、及び、I/F部34を備える。これらの各部はバス29により相互に通信可能に接続される。また、後述するように、音声処理部25にはスピーカー26が接続され、入力処理部28には操作パネル281及びリモコン受光部282が接続される。また、画像処理部31にはフレームメモリー32が接続される。
プロジェクター2は、制御部20の制御により、画像ソースから画像データを取得して、取得した画像データに基づく画像を投射部30により投射する。制御部20の機能、及び、記憶部22が記憶する各種データについては後述する。
プロジェクター2の画像ソースは、画像I/F部33に入力される画像データ、及び、記憶部22に記憶する画像データから選択できる。記憶部22は、画像ソースとなり得るデータとして、後述するコンテンツデータ222(原画像データ)を記憶する。
プロジェクター2には、画像ソースとして、画像データを供給する画像供給装置(図示略)を接続してもよい。画像供給装置として、例えばノート型PC(Personal Computer)、デスクトップ型PCやタブレット端末、スマートフォン、PDA(Personal Digital Assistant)等を用いることができる。また、画像供給装置として、ビデオ再生装置、DVD(Digital Versatile Disk)プレーヤー、Blu−ray(登録商標)Discプレーヤー、ハードディスクレコーダーを用いてもよい。また、テレビチューナー装置、CATV(Cable television)のセットトップボックス、ビデオゲーム機等を用いてもよい。
画像I/F部33は、上述した画像供給装置を接続するインターフェイスであり、コネクター及びインターフェイス回路等を備える。画像I/F部33には、例えば、プロジェクター2が処理可能なデータフォーマットでデジタル画像データが入力される。このデジタル画像データは、静止画像データであっても動画像データであってもよい。画像I/F部33は、SD(Secure Digital)メモリーカード等のカード型記録媒体や、USBメモリーデバイス等、可搬型の記憶媒体を接続可能なコネクター及びインターフェイス回路を備えてもよい。
画像I/F部33は、画像供給装置に有線接続される構成に限定されない。例えば、画像I/F部33は、無線LAN(WiFi(登録商標)を含む。以下同様)や、Miracast(登録商標)、Bluetooth(登録商標)等の無線データ通信を、画像供給装置との間で実行する構成であってもよい。
無線通信部24(送信部、受信部)は、通信装置11(図1)との間で、無線LAN、Bluetooth等の無線データ通信を実行する。
音声処理部25は、制御部20の制御に従って、入力されるデジタル音声データまたはアナログ音声信号に基づきスピーカー26により音声を出力する。
位置検出部27(検出部)は、プロジェクター2が設置される場所において、参加者UBを代理するオブジェクトの位置を検出し、検出した位置を仮想視認位置A1とする。本実施形態で、位置検出部27は、カメラ271の画角において、プロジェクター4を検出し、プロジェクター4の位置を仮想視認位置A1とする。
位置検出部27は、カメラ271(撮像部)、対象検出部272、及び位置算出部273を備える。カメラ271は、図1に示したように、使用場所Aにおいて参加者UAが参加する位置を撮像可能なデジタルカメラである。カメラ271は、広角カメラ、360度カメラ等であると、より好ましい。また、カメラ271は、特に、仮想視認位置A1となる可能性がある場所を画角に含むように設置されることが好ましい。
カメラ271は、予め設定されたタイミングで撮像を実行し、撮像画像データを出力する。
カメラ271は、予め設定されたタイミングで撮像を実行し、撮像画像データを出力する。
対象検出部272は、カメラ271の撮像画像データから、参加者UBを代理するオブジェクトの画像を検出する。例えば、対象検出部272は、撮像画像データからプロジェクター4の画像を検出する。対象検出部272は、例えば、検出するオブジェクトの画像に関する画像特徴量データを利用して、撮像画像データからオブジェクトの画像を検出する。ここで、画像特徴量データは、オブジェクトの色、形状、その他の特徴量を含むものであってもよい。
また、対象検出部272は、カメラ271の撮像画像データから、バーコードや二次元コード等の符号化されたコード、その他の文字やデータを検出することで、オブジェクトを検出してもよい。この場合、プロジェクター4またはその他のオブジェクトの外面に、コード、文字、数字などの光学的に読み取り可能なデータが付されていれば、これらのデータを対象検出部272が検出できる。ここで、対象検出部272は、撮像画像データで検出したデータを読み取り、解釈してもよい。また、プロジェクター4が、一般的な室内の背景と明瞭に区別可能な、特定の意匠を有する構成としてもよく、この場合、対象検出部272が撮像画像データからプロジェクター4の画像を速やかに検出可能である。
位置算出部273は、対象検出部272により撮像画像データにおいて検出された画像の位置に基づき、演算処理を実行して、仮想視認位置A1を求める。位置算出部273は、対象検出部272が検出した画像と、撮像画像データとの相対位置と、カメラ271の画角(撮像範囲)とプロジェクター2との相対位置とに基づき、プロジェクター2に対する相対位置として仮想視認位置A1を求める。ここで、位置算出部273は、カメラ271のズーム倍率を演算してもよい。
また、位置算出部273は、カメラ271により撮像された撮像画像データを制御部20に出力する。制御部20は、カメラ271の撮像画像データを、撮像画像データ225として記憶部22に記憶させる。
なお、位置検出部27の構成は一例であり、例えば、レーザー測距技術、近距離無線通信技術等を利用して、オブジェクトの位置を検出してもよい。
入力処理部28は、ユーザーによる操作を受け付ける機能部である。
操作パネル281は、例えば、プロジェクター2の筐体に配置され、各種のスイッチを備える。入力処理部28は操作パネル281のスイッチの操作を検出し、操作されたスイッチを示す制御データを制御部20に出力する。
操作パネル281は、例えば、プロジェクター2の筐体に配置され、各種のスイッチを備える。入力処理部28は操作パネル281のスイッチの操作を検出し、操作されたスイッチを示す制御データを制御部20に出力する。
入力処理部28に接続されるリモコン受光部282は、リモコン283が送信する赤外線信号を受光して、受光した信号をデコードする。リモコン283は、各種のスイッチを備え、操作されたスイッチを示す赤外線信号を送信する。リモコン受光部282は、受光した信号をデコードしたデータを、入力処理部28に出力する。入力処理部28は、リモコン受光部282から入力されるデータを制御部20に出力する。
投射部30(表示部)は、光源301と、光源301が発する光を変調して画像光を生成する光変調装置302と、光変調装置302が変調した画像光を投射して投射画像を結像する投射光学系303と、を備える。
光源301は、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプ、或いは、LEDやレーザー光源等の固体光源で構成される。光源301は、光源駆動部35から供給される電力により点灯し、光変調装置302に向けて光を発する。
光源駆動部35は、光源301に駆動電流やパルスを供給し、光源301を発光させる。また、光源駆動部35は、制御部20の制御に従って、光源301の輝度を調整してもよい。
光変調装置302は、光源301が発する光を変調して画像光を生成し、画像光を投射光学系303に照射する。
光変調装置302は、例えば、透過型の液晶ライトバルブ、反射型の液晶ライトバルブ、デジタルミラーデバイス(DMD)等の光変調素子を備える。光変調装置302の光変調素子には光変調装置駆動部36が接続される。
光変調装置302は、例えば、透過型の液晶ライトバルブ、反射型の液晶ライトバルブ、デジタルミラーデバイス(DMD)等の光変調素子を備える。光変調装置302の光変調素子には光変調装置駆動部36が接続される。
光変調装置駆動部36には、画像処理部31から、光変調装置302に描画する画像の画像信号が入力される。光変調装置駆動部36は、画像処理部31が出力する画像信号に基づき、光変調装置302を駆動する。光変調装置駆動部36は、光変調装置302の光変調素子を駆動して各画素の階調を設定し、光変調素子にフレーム(画面)単位で画像を描画する。
投射光学系303は、光変調装置302で変調された光をスクリーン上に結像するレンズやミラーを備える。また、投射光学系303は、ズームレンズ、フォーカスレンズ等の各種のレンズまたはレンズ群を含んでもよい。
画像処理部31は、制御部20の制御により選択される画像ソースから画像データを取得して、取得した画像データに対する各種の画像処理を実行する。例えば、画像処理部31は、画像データの解像度を光変調装置302の表示解像度に合わせて変換する解像度変換処理を実行する。また、画像処理部31は、画像データの形状を補正する幾何補正処理、画像データの色調を補正する色調補正処理等を実行する。画像処理部31は、処理後の画像データを表示するための画像信号を生成し、光変調装置駆動部36に出力する。画像処理部31は、画像処理を実行する場合、画像ソースから取得した画像データに基づく画像をフレームメモリー32に展開し、フレームメモリー32に展開した画像に対する各種処理を実行する。
I/F部34は、PC等の外部の装置に接続され、この外部の装置との間で制御データ等の各種データを送受信する。例えば、Ethernet(登録商標)、IEEE1394、USB(Universal Serial Bus)等のデータ通信を実行する。
制御部20は、CPUやマイコン等のプロセッサー(図示略)を備え、このプロセッサーによりプログラムを実行することにより、プロジェクター2の各部を制御する。制御部20は、プロセッサーが実行する制御プログラムを不揮発的に記憶するROM、及び、プロセッサーのワークエリアを構成するRAMを備えてもよい。
制御部20は、プロジェクター2の各部を制御する機能ブロックとして、投射制御部201、操作取得部202、通信制御部203、及び、仮想画像生成部204を有する。これらの機能ブロックは、制御部20のプロセッサーが、記憶部22またはROM(図示略)に記憶されるプログラムを実行することにより、ソフトウェアとハードウェアの協働により実現される。
記憶部22は、磁気的記憶装置、半導体メモリーデバイス、或いはその他の種類の不揮発性記憶装置により構成される。記憶部22は、制御部20により処理されるデータや、制御部20のCPUが実行するプログラムを記憶する。
また、記憶部22は、設定データ221、コンテンツデータ222、仮想位置データ223、仮想視線データ224、撮像画像データ225、仮想画像データ226、及び、ユーザーデータ227を記憶する。
また、記憶部22は、設定データ221、コンテンツデータ222、仮想位置データ223、仮想視線データ224、撮像画像データ225、仮想画像データ226、及び、ユーザーデータ227を記憶する。
設定データ221は、プロジェクター2の動作を定める各種の設定値(パラメーター)を含む。設定データ221は、例えば、プロジェクター2が無線通信部24により無線データ通信を行うための設定値を含む。具体的には、通信装置11のネットワークアドレス、ネットワーク識別情報、プロジェクター4や端末装置6のネットワークアドレスやID、パスワード等の認証情報を含んでもよい。また、設定データ221は、画像処理部31により実行する画像処理の種類或いは内容を指定するデータ、及び、画像処理で用いるパラメーターを含んでもよい。
コンテンツデータ222は、画像ソースとして選択可能な静止画像データまたは動画像データを含む。コンテンツデータ222は音声データを含んでもよい。
仮想位置データ223は、仮想視認位置A1を示すデータであり、例えば、プロジェクター2の本体において設定される基準に対する相対位置として仮想視認位置A1を表現する。仮想位置データ223は、プロジェクター2と仮想視認位置A1との相対位置関係を規定するデータのほか、投射部30による投射方向と仮想視認位置A1との相対位置関係を示すデータを含んでもよい。また、カメラ271の画角と仮想視認位置A1との相対位置関係を示すデータを含んでもよい。
仮想位置データ223は、制御部20の仮想画像生成部204が、位置検出部27を制御することにより生成され、記憶部22に記憶される。また、操作取得部202が受け付ける操作により仮想視認位置A1が指定または入力された場合に、この仮想視認位置A1を示す仮想位置データ223を操作取得部202が生成し、記憶部22に記憶させてもよい。また、通信制御部203が、表示システム1を構成する他の装置から、仮想視認位置A1を指定するデータを受信した場合に、受信したデータを仮想位置データ223として記憶部22に記憶させる構成であってもよい。
仮想視線データ224は、仮想視線方向VLを示すデータである。例えば、仮想画像生成部204が位置検出部27を制御して、仮想位置データ223に基づき仮想視線データ224を生成させ、記憶部22に記憶させる構成であってもよい。また、例えば、操作取得部202が受け付ける操作により仮想視線方向VLが指定または入力された場合に、この仮想視線方向VLを示す仮想視線データ224を操作取得部202が生成し、記憶部22に記憶させてもよい。また、通信制御部203が、表示システム1を構成する他の装置から、仮想視線方向VLを指定するデータを受信した場合に、受信したデータを仮想視線データ224として記憶部22に記憶させる構成であってもよい。
撮像画像データ225は、カメラ271により撮像される撮像画像データである。また、カメラ271の撮像画像データをもとに、制御部20が、トリミングや補正等の処理を実行し、処理後のデータを撮像画像データ225として記憶部22に記憶する構成であってもよい。
仮想画像データ226は、仮想画像生成部204により生成される画像データであり、投射部30が投射する画像を仮想視線方向VLに従って見る場合を模した画像のデータである。
ユーザーデータ227は、参加者UBに関するデータであり、参加者UBの外見として使用される画像データ、及び/または参加者UBの音声データを含む。記憶部22には、予め、参加者UBの画像として使用する画像データがユーザーデータ227として記憶されてもよい。この場合、操作取得部202が検出する操作に従って、画像I/F部33またはI/F部34を介して入力される画像データ及び/または音声データをユーザーデータ227として記憶してもよい。
また、通信制御部203が、表示システム1を構成する他の装置から、画像データ及び/または音声データを受信した場合に、受信したデータをもとにユーザーデータ227を記憶部22に記憶させる構成であってもよい。
制御部20は、投射制御部201により、画像処理部31、光源駆動部35、光変調装置駆動部36を含む各部を制御して、プロジェクター2による画像の投射を制御する。ここで、投射制御部201は、画像処理部31が実行する処理の実行タイミング、実行条件等を制御する。また、投射制御部201は、光源駆動部35を制御して、光源301の輝度の調整等を行ってもよい。また、投射制御部201は、操作取得部202により取得される操作、または、事前の設定に従って、画像ソースを選択してもよい。
操作取得部202は、プロジェクター2に対する操作を検出する。操作取得部202は、入力処理部28から入力されるデータに基づき、入力デバイスとして機能する操作パネル281及び/またはリモコン283による操作を検出する。
通信制御部203は、無線通信部24を制御して通信装置11(図1)との間の通信を実行し、プロジェクター4、及び、端末装置6との間でデータ通信を実行する。
例えば、通信制御部203は、プロジェクター4に対して、プロジェクター4の動作に関する制御データを送信する。具体的には、ユーザー画像4aの投射開始を指示する制御データを送信する。また、通信制御部203は、ユーザー画像4aを投射するためのデータとして、ユーザーデータ227を、プロジェクター4に送信することもできる。
例えば、通信制御部203は、プロジェクター4に対して、プロジェクター4の動作に関する制御データを送信する。具体的には、ユーザー画像4aの投射開始を指示する制御データを送信する。また、通信制御部203は、ユーザー画像4aを投射するためのデータとして、ユーザーデータ227を、プロジェクター4に送信することもできる。
また、通信制御部203は、端末装置6との間で通信を行い、端末装置6から送信されるデータに基づき、仮想位置データ223、仮想視線データ224、及び、ユーザーデータ227等を適宜生成して、記憶部22に記憶させる構成であってもよい。
仮想画像生成部204は、画像ソースのデータと、仮想位置データ223と、仮想視線データ224とに基づいて、仮想画像データ226を生成する。仮想画像データ226は、プロジェクター2が投射する会議用画像2aを仮想視線方向VLから見る場合の画像に相当する画像である。
仮想画像生成部204は、記憶部22に記憶されたコンテンツデータ222、または、画像処理部31で処理されるデータから、投射部30により投射する画像(例えば、図1の会議用画像2a)のデータ(以下、投射画像データと呼ぶ)を取得する。
仮想画像生成部204は、仮想位置データ223及び仮想視線データ224に基づいて、投射画像データに対し、変形、縮小、トリミング等の処理を行って、仮想画像データ226を生成する。例えば、仮想画像生成部204は、仮想位置データ223及び仮想視線データ224から、仮想視認位置A1から会議用画像2a(スクリーンSC1)までの視距離を求め、求めた視距離に対応させて投射画像データを縮小、またはトリミングする。また、仮想画像生成部204は、仮想視線データ224に基づいて会議用画像2aに対する仮想視線方向VLの角度を求め、求めた角度に対応させて、縮小またはトリミングした投射画像データを変形させる。
仮想画像生成部204は、仮想位置データ223及び仮想視線データ224に基づいて、投射画像データに対し、変形、縮小、トリミング等の処理を行って、仮想画像データ226を生成する。例えば、仮想画像生成部204は、仮想位置データ223及び仮想視線データ224から、仮想視認位置A1から会議用画像2a(スクリーンSC1)までの視距離を求め、求めた視距離に対応させて投射画像データを縮小、またはトリミングする。また、仮想画像生成部204は、仮想視線データ224に基づいて会議用画像2aに対する仮想視線方向VLの角度を求め、求めた角度に対応させて、縮小またはトリミングした投射画像データを変形させる。
仮想画像生成部204は、撮像画像データ225の一部または全部を、仮想画像データ226に含めてもよい。例えば、仮想画像生成部204は、撮像画像データ225において、仮想視認位置A1よりも会議用画像2a側に相当する範囲を切り出し、変形させた投射画像データに合成して、仮想画像データ226としてもよい。また、仮想画像生成部204は、撮像画像データ225と、変形させた投射画像データとを合成して、仮想画像データ226としてもよい。また、撮像画像データ225を、仮想画像データ226に付属するデータとしてもよい。さらに、仮想画像生成部204は、カメラ271の撮像画像データを、仮想視線方向VL及び仮想視認位置A1に対応するように変形やトリミングした仮想撮像画像データを、撮像画像データ225としてもよい。すなわち、使用場所Aを、仮想視認位置A1から仮想視線方向VL方向に見た場合の使用場所Aの光景を表す撮像画像データ225を生成してもよい。この場合、撮像画像データ225に基づき、端末装置6に会議用画像2aまたはサブ画像2bを表示すれば、参加者UBは、あたかも仮想視認位置A1にいるかのような臨場感を得ることができる。
図3は、プロジェクター4のブロック図である。
プロジェクター4は、制御部40、記憶部42、無線通信部44、音声処理部45、及び、入力処理部48を備える。また、プロジェクター4は、投射部50、画像処理部51、画像I/F部53、及び、I/F部54を備える。これらの各部はバス49により相互に通信可能に接続される。また、後述するように、音声処理部45にはスピーカー46が接続され、入力処理部48には操作パネル481及びリモコン受光部482が接続される。また、画像処理部51にはフレームメモリー52が接続される。
プロジェクター4は、制御部40、記憶部42、無線通信部44、音声処理部45、及び、入力処理部48を備える。また、プロジェクター4は、投射部50、画像処理部51、画像I/F部53、及び、I/F部54を備える。これらの各部はバス49により相互に通信可能に接続される。また、後述するように、音声処理部45にはスピーカー46が接続され、入力処理部48には操作パネル481及びリモコン受光部482が接続される。また、画像処理部51にはフレームメモリー52が接続される。
プロジェクター4は、制御部40の制御により、画像ソースから画像データを取得して、取得した画像データに基づく画像を投射部50により投射する。制御部40の機能、及び、記憶部42が記憶する各種データについては後述する。
プロジェクター4の画像ソースは、画像I/F部53に入力される画像データ、及び、記憶部42に記憶する画像データから選択できる。記憶部42は、画像ソースとなり得るデータとして、後述するコンテンツデータ222を記憶する。
プロジェクター4には、画像ソースとして、プロジェクター2に接続可能な画像供給装置と同様の画像供給装置(図示略)を接続してもよい。
画像I/F部53は、上述した画像供給装置を接続するインターフェイスであり、コネクター及びインターフェイス回路等を備える。画像I/F部53には、例えば、プロジェクター4が処理可能なデータフォーマットでデジタル画像データが入力される。このデジタル画像データは、静止画像データであっても動画像データであってもよい。画像I/F部53は、SDメモリーカード等のカード型記録媒体や、USBメモリーデバイス等、可搬型の記憶媒体を接続可能なコネクター及びインターフェイス回路を備えてもよい。
画像I/F部53は、画像供給装置に有線接続される構成に限定されない。例えば、画像I/F部53は、無線LANや、Miracast、Bluetooth等の無線データ通信を、画像供給装置との間で実行する構成であってもよい。
無線通信部44は、通信装置12(図1)との間で、無線LAN、Bluetooth等の無線データ通信を実行する。
音声処理部45は、制御部40の制御に従って、入力されるデジタル音声データまたはアナログ音声信号に基づきスピーカー46により音声を出力する。
入力処理部48は、ユーザーによる操作を受け付ける機能部である。
操作パネル481は、例えば、プロジェクター4の筐体に配置され、各種のスイッチを備える。入力処理部48は操作パネル481のスイッチの操作を検出し、操作されたスイッチを示す制御データを制御部40に出力する。
操作パネル481は、例えば、プロジェクター4の筐体に配置され、各種のスイッチを備える。入力処理部48は操作パネル481のスイッチの操作を検出し、操作されたスイッチを示す制御データを制御部40に出力する。
入力処理部48に接続されるリモコン受光部482は、リモコン483が送信する赤外線信号を受光して、受光した信号をデコードする。リモコン483は、各種のスイッチを備え、操作されたスイッチを示す赤外線信号を送信する。リモコン受光部482は、受光した信号をデコードしたデータを、入力処理部48に出力する。入力処理部48は、リモコン受光部482から入力されるデータを制御部40に出力する。
投射部50は、光源501と、光源501が発する光を変調して画像光を生成する光変調装置502と、光変調装置502が変調した画像光を投射して投射画像を結像する投射光学系503と、を備える。
光源501は、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ等のランプ、或いは、LEDやレーザー光源等の固体光源で構成される。光源501は、光源駆動部55から供給される電力により点灯し、光変調装置502に向けて光を発する。
光源駆動部55は、光源501に駆動電流やパルスを供給し、光源501を発光させる。また、光源駆動部55は、制御部40の制御に従って、光源501の輝度を調整してもよい。
光変調装置502は、光源501が発する光を変調して画像光を生成し、画像光を投射光学系503に照射する。
光変調装置502は、例えば、透過型の液晶ライトバルブ、反射型の液晶ライトバルブ、デジタルミラーデバイス(DMD)等の光変調素子を備える。光変調装置502の光変調素子には光変調装置駆動部56が接続される。
光変調装置502は、例えば、透過型の液晶ライトバルブ、反射型の液晶ライトバルブ、デジタルミラーデバイス(DMD)等の光変調素子を備える。光変調装置502の光変調素子には光変調装置駆動部56が接続される。
光変調装置駆動部56には、画像処理部51から、光変調装置502に描画する画像の画像信号が入力される。光変調装置駆動部56は、画像処理部51が出力する画像信号に基づき、光変調装置502を駆動する。光変調装置駆動部56は、光変調装置502の光変調素子を駆動して各画素の階調を設定し、光変調素子にフレーム(画面)単位で画像を描画する。
投射光学系503は、光変調装置502で変調された光をスクリーン上に結像するレンズやミラーを備える。また、投射光学系503は、ズームレンズ、フォーカスレンズ等の各種のレンズまたはレンズ群を含んでもよい。
画像処理部51は、制御部40の制御により選択される画像ソースから画像データを取得して、取得した画像データに対する各種の画像処理を実行する。例えば、画像処理部51は、画像データの解像度を光変調装置502の表示解像度に合わせて変換する解像度変換処理を実行する。また、画像処理部51は、画像データの形状を補正する幾何補正処理、画像データの色調を補正する色調補正処理等を実行する。画像処理部51は、処理後の画像データを表示するための画像信号を生成し、光変調装置駆動部56に出力する。画像処理部51は、画像処理を実行する場合、画像ソースから取得した画像データに基づく画像をフレームメモリー52に展開し、フレームメモリー52に展開した画像に対する各種処理を実行する。
I/F部54は、PC等の外部の装置に接続され、この外部の装置との間で制御データ等の各種データを送受信する。
制御部40は、CPUやマイコン等のプロセッサー(図示略)を備え、このプロセッサーによりプログラムを実行することにより、プロジェクター4の各部を制御する。制御部40は、プロセッサーが実行する制御プログラムを不揮発的に記憶するROM、及び、プロセッサーのワークエリアを構成するRAMを備えてもよい。
制御部40は、プロジェクター4の各部を制御する機能ブロックとして、投射制御部401、及び、通信制御部402を有する。これらの機能ブロックは、制御部40のプロセッサーが、記憶部42またはROM(図示略)に記憶されるプログラムを実行することにより、ソフトウェアとハードウェアの協働により実現される。
記憶部42は、磁気的記憶装置、半導体メモリーデバイス、或いはその他の種類の不揮発性記憶装置により構成される。記憶部42は、制御部40により処理されるデータや、制御部40のCPUが実行するプログラムを記憶する。
また、記憶部42は、設定データ421、及び、ユーザーデータ422を記憶する。
また、記憶部42は、設定データ421、及び、ユーザーデータ422を記憶する。
設定データ421は、プロジェクター4の動作を定める各種の設定値(パラメーター)を含む。設定データ421は、例えば、プロジェクター4が無線通信部44により無線データ通信を行うための設定値を含む。具体的には、通信装置11のネットワークアドレス、ネットワーク識別情報、プロジェクター2や端末装置6のネットワークアドレスやID、パスワード等の認証情報を含んでもよい。また、設定データ421は、画像処理部51により実行する画像処理の種類或いは内容を指定するデータ、及び、画像処理で用いるパラメーターを含んでもよい。
ユーザーデータ422は、参加者UBに関するデータであり、参加者UBの外見として使用される画像データ、及び/または参加者UBの音声データを含む。記憶部42には、予め、参加者UBの画像として使用する画像データがユーザーデータ422として記憶されてもよい。この場合、操作取得部202が検出する操作に従って、画像I/F部53またはI/F部54を介して入力される画像データ及び/または音声データをユーザーデータ422として記憶してもよい。また、通信制御部402が、プロジェクター2から、画像データ及び/または音声データを受信した場合に、受信したデータをもとにユーザーデータ422を記憶部42に記憶させる構成であってもよい。
制御部40は、入力処理部48から入力されるデータに基づき検出される操作、または、プロジェクター2から送信される制御データに従って、投射制御部401及び通信制御部402の動作を実行する。
投射制御部401は、画像処理部51、光源駆動部55、光変調装置駆動部56を含む各部を制御して、プロジェクター4による画像の投射を制御する。ここで、投射制御部401は、画像処理部51が実行する処理の実行タイミング、実行条件等を制御する。また、投射制御部401は、光源駆動部55を制御して、光源501の輝度の調整等を行ってもよい。また、投射制御部401は、操作取得部202により取得される操作、または、事前の設定に従って、画像ソースを選択してもよい。
投射制御部401は、画像処理部51、光源駆動部55、光変調装置駆動部56を含む各部を制御して、プロジェクター4による画像の投射を制御する。ここで、投射制御部401は、画像処理部51が実行する処理の実行タイミング、実行条件等を制御する。また、投射制御部401は、光源駆動部55を制御して、光源501の輝度の調整等を行ってもよい。また、投射制御部401は、操作取得部202により取得される操作、または、事前の設定に従って、画像ソースを選択してもよい。
通信制御部402は、無線通信部44を制御して通信装置11(図1)との間の通信を実行し、プロジェクター2との間でデータ通信を実行する。また、通信制御部402は、通信装置11を介して端末装置6との間でデータ通信を実行してもよい。
通信制御部402は、プロジェクター2が送信する制御データを受信する。具体的には、ユーザー画像4aの投射開始を指示する制御データを受信する。また、通信制御部402は、プロジェクター2がユーザーデータ227を送信した場合に、ユーザーデータ227を受信して、ユーザーデータ422として記憶部42に記憶させる。
図4は、端末装置6のブロック図である。
端末装置6は、制御部60、記憶部62、無線通信部64、音声処理部65、及び、入力処理部68を備える。また、端末装置6は、表示パネル70、画像処理部72、I/F部74、カメラ75、及び、動きセンサー76を備える。これらの各部はバス69により相互に通信可能に接続される。また、後述するように、音声処理部65にはスピーカー66及びマイク67が接続され、入力処理部68にはタッチパネル681が接続される。また、画像処理部72にはフレームメモリー73が接続される。
端末装置6は、制御部60、記憶部62、無線通信部64、音声処理部65、及び、入力処理部68を備える。また、端末装置6は、表示パネル70、画像処理部72、I/F部74、カメラ75、及び、動きセンサー76を備える。これらの各部はバス69により相互に通信可能に接続される。また、後述するように、音声処理部65にはスピーカー66及びマイク67が接続され、入力処理部68にはタッチパネル681が接続される。また、画像処理部72にはフレームメモリー73が接続される。
端末装置6は、制御部60の制御により、画像ソースから画像データを取得して、取得した画像データに基づく画像を表示パネル70により表示する。制御部60の機能、及び、記憶部62が記憶する各種データについては後述する。
端末装置6の画像ソースは、例えば、記憶部62に記憶する画像データであり、具体的には632または仮想画像データ626である。
無線通信部64(第2装置送信部)は、通信装置12(図1)との間で、無線LAN、Bluetooth等の無線データ通信を実行する。端末装置6に、画像ソースとして、無線通信部64により通信可能な各種の画像供給装置(例えば、上述)を接続してもよい。
音声処理部65は、制御部60の制御に従って、入力されるデジタル音声データまたはアナログ音声信号に基づきスピーカー66により音声を出力する。また、音声処理部65は、制御部60の制御に従って、マイク67により音声を集音し、デジタル音声データを生成して、制御部60に出力する。
端末装置6は、図1に示すように、平板状の筐体の表面に、表示パネル70を備え、操作パネル281は表示パネル70に重ねて配置される。操作パネル281は透光性を有する感圧式または静電容量式のタッチセンサーである。入力処理部68は、操作パネル281に対する接触操作を検出し、操作位置を示すデータを制御部60に出力する。
表示パネル70は、液晶表示パネルや有機ELディスプレイパネル等で構成される平板状の表示デバイスであり、図1に示すように、端末装置6の巨体の表面に配置される。表示パネル70は、パネル駆動部71に接続され、パネル駆動部71によって駆動されて各種画像を表示する。
画像処理部51は、表示パネル70の表示素子を駆動して各画素の階調を設定し、フレーム(画面)単位で画像を描画する。
画像処理部72は、制御部60の制御により選択される画像ソースから画像データを取得して、取得した画像データに対する各種の画像処理を実行する。例えば、画像処理部72は、画像データの解像度を表示パネル70の表示解像度に合わせて変換する解像度変換処理を実行する。また、画像処理部72は、画像データの色調を補正する色調補正処理等を実行する。画像処理部72は、処理後の画像データを表示するための画像信号を生成し、パネル駆動部71に出力する。画像処理部72は、画像処理を実行する場合、画像ソースから取得した画像データに基づく画像をフレームメモリー73に展開し、フレームメモリー73に展開した画像に対する各種処理を実行する。
I/F部74は、PC等の外部の装置に接続され、この外部の装置との間で制御データ等の各種データを送受信する。
動きセンサー76は、ジャイロセンサー(角速度センサー)、加速度センサーなど、端末装置6の動きを検出するセンサーであり、予め設定された周期で検出値を制御部60に出力する。動きセンサー76は、地磁気センサーを備え、端末装置6の姿勢に関する検出値を出力してもよい。また、動きセンサー76の具体的構成は任意であり、1軸センサー、2軸センサー、3軸センサー、或いは、3軸+3軸の複合センサーモジュールであってもよい。例えば、図1に矢印Rで示す方向の端末装置6の回転を検出できれば、好ましい。矢印Rは、端末装置6を、表示パネル70が鉛直方向に沿うような姿勢とした場合に、鉛直方向の仮想軸を中心として端末装置6を回転させる方向である。
制御部60は、CPUやマイコン等のプロセッサー(図示略)を備え、このプロセッサーによりプログラムを実行することにより、端末装置6の各部を制御する。制御部60は、プロセッサーが実行する制御プログラムを不揮発的に記憶するROM、及び、プロセッサーのワークエリアを構成するRAMを備えてもよい。
制御部60は、端末装置6の各部を制御する機能ブロックとして、表示制御部601、検出制御部602、通信制御部603、及び、仮想位置指定部604を有する。これらの機能ブロックは、制御部60のプロセッサーが、記憶部62またはROM(図示略)に記憶されるプログラムを実行することにより、ソフトウェアとハードウェアの協働により実現される。
記憶部62は、磁気的記憶装置、半導体メモリーデバイス、或いはその他の種類の不揮発性記憶装置により構成される。記憶部62は、制御部60により処理されるデータや、制御部60のCPUが実行するプログラムを記憶する。
また、記憶部62は、設定データ621、コンテンツデータ622、仮想位置データ623、仮想視線データ624、撮像画像データ625、仮想画像データ626、及び、ユーザーデータ627を記憶する。
また、記憶部62は、設定データ621、コンテンツデータ622、仮想位置データ623、仮想視線データ624、撮像画像データ625、仮想画像データ626、及び、ユーザーデータ627を記憶する。
設定データ621は、端末装置6の動作を定める各種の設定値(パラメーター)を含む。設定データ621は、例えば、端末装置6が無線通信部64により無線データ通信を行うための設定値を含む。具体的には、通信装置12のネットワークアドレス、ネットワーク識別情報、プロジェクター2やプロジェクター4のネットワークアドレスやID、パスワード等の認証情報を含んでもよい。また、設定データ621は、画像処理部72により実行する画像処理の種類或いは内容を指定するデータ、及び、画像処理で用いるパラメーターを含んでもよい。
コンテンツデータ622は、画像ソースとして選択可能な静止画像データまたは動画像データを含む。コンテンツデータ622は音声データを含んでもよい。コンテンツデータ622は、プロジェクター2が記憶するコンテンツデータ222と一致するものとは限らない。
仮想位置データ623は、仮想視認位置A1を示すデータであり、仮想位置データ223と同様に、例えば、プロジェクター2の本体において設定される基準に対する相対位置として仮想視認位置A1を表現するデータである。
仮想位置データ623は、端末装置6における操作によって仮想視認位置A1を指定する場合に、入力処理部68が検出する操作に従って、仮想位置指定部604により生成される。仮想位置データ623は、通信制御部603の機能によりプロジェクター2に送信される。
仮想位置データ623は、端末装置6における操作によって仮想視認位置A1を指定する場合に、入力処理部68が検出する操作に従って、仮想位置指定部604により生成される。仮想位置データ623は、通信制御部603の機能によりプロジェクター2に送信される。
仮想視線データ624は、仮想視線方向VLを示すデータである。仮想視線データ624は、端末装置6における操作によって仮想視線方向VLを指定する場合に、入力処理部68が検出する操作に従って、仮想位置指定部604により生成される。仮想視線データ624は、通信制御部603の機能によりプロジェクター2に送信される。
撮像画像データ625は、プロジェクター2がカメラ271により撮像した撮像画像データ、または、カメラ271の撮像画像データを処理したデータである。撮像画像データ625は、通信制御部603によりプロジェクター2から受信されて、記憶部62に記憶される。
仮想画像データ226は、プロジェクター2によって生成され、通信制御部603の制御により受信された画像データである。
ユーザーデータ627は、参加者UBに関するデータであり、参加者UBの外見として使用される画像データ、及び/または参加者UBの音声データを含む。記憶部62には、予め、参加者UBの画像として使用する画像データがユーザーデータ627として記憶されてもよい。また、ユーザーデータ627は、カメラ75の撮像画像データに基づき生成されるデータであってもよい。また、ユーザーデータ627は、音声処理部65が生成するデジタル音声データを含んでもよいし、このデジタル音声データのみを含む構成であってもよい。
制御部60が備える表示制御部601は、画像処理部72を含む各部を制御して、表示パネル70に画像を表示させる。ここで、表示制御部601は、画像処理部72が実行する処理の実行タイミング、実行条件等を制御する。
表示制御部601は、端末装置6がプロジェクター2と通信して、使用場所Aで開催される会議のために参加者UBが使用する動作状態となった場合に、表示パネル70に仮想画像6aを表示させる。仮想画像6aは、記憶部62に記憶した仮想画像データ626を画像ソースとして表示される。
表示制御部601は、端末装置6がプロジェクター2と通信して、使用場所Aで開催される会議のために参加者UBが使用する動作状態となった場合に、表示パネル70に仮想画像6aを表示させる。仮想画像6aは、記憶部62に記憶した仮想画像データ626を画像ソースとして表示される。
検出制御部602は、入力処理部68から入力されるデータに基づき、タッチパネル681の操作を検出する。また、検出制御部602は、動きセンサー76の検出値を取得し、取得した検出値に基づいて、端末装置6の方向や位置の変化を求める。
通信制御部603は、無線通信部64を制御して通信装置12(図1)との間の通信を実行し、プロジェクター2との間でデータ通信を行う。通信制御部603は、プロジェクター2に対し、仮想位置データ623、仮想視線データ624、及びユーザーデータ627等を送信する。また、通信制御部603は、プロジェクター2が送信する仮想画像データを受信して、記憶部62に仮想画像データ626として記憶させる。
仮想位置指定部604は、端末装置6の操作に従って仮想視認位置A1及び/または仮想視線方向VLを指定する処理を実行する。
仮想位置指定部604は、タッチパネル681によって仮想視認位置A1を指定する操作が行われた場合に、操作内容に基づいて、仮想視認位置A1を示す仮想位置データ623を生成し、記憶部62に記憶させる。
仮想位置指定部604は、タッチパネル681によって仮想視認位置A1を指定する操作が行われた場合に、操作内容に基づいて、仮想視認位置A1を示す仮想位置データ623を生成し、記憶部62に記憶させる。
また、仮想位置指定部604は、タッチパネル681によって仮想視線方向VLを指定する操作が行われた場合に、操作内容に基づいて、仮想視線方向VLを示す仮想視線データ624を生成し、記憶部62に記憶させる。
また、仮想位置指定部604は、端末装置6の動きに対応して、仮想視線方向VLを求めることができる。仮想位置指定部604は、動きセンサー76の検出値から、端末装置6を、例えば矢印R(図1)方向に回転させる動きを検出した場合、この動き量をもとに、仮想視線方向VLを決定する。端末装置6の動き量は、例えば、基準位置からの動き量として求めることができる。
図5は、表示システム1の動作を示すフローチャートである。図5において、符号Aはプロジェクター4の動作を示し、符号Bはプロジェクター2の動作を示し、符号Cは端末装置6の動作を示す。
図5に示す動作は、表示システム1のプロジェクター2及びプロジェクター4が画像を投射していない状態から、会議を行うために動作を開始するときの動作を示す。具体的には、プロジェクター2及び/またはプロジェクター4の電源が投入されたときや会議の開始が指示されたとき、または、端末装置6においてアプリが実行されたとき等に、図5の動作が開始される。
図5に示す動作は、表示システム1のプロジェクター2及びプロジェクター4が画像を投射していない状態から、会議を行うために動作を開始するときの動作を示す。具体的には、プロジェクター2及び/またはプロジェクター4の電源が投入されたときや会議の開始が指示されたとき、または、端末装置6においてアプリが実行されたとき等に、図5の動作が開始される。
プロジェクター2は、仮想視認位置A1及び仮想視線方向VLを取得する処理を行う(ステップSQ1)。ステップSQ1の処理の詳細は図6を参照して後述する。ステップSQ1の処理の結果、プロジェクター2は、記憶部22に仮想位置データ223及び仮想視線データ224を記憶する。
プロジェクター2は、仮想位置データ223及び仮想視線データ224に基づいて、仮想画像データ226を生成する処理を開始する(ステップSQ3)。プロジェクター2は、生成した仮想画像データ226を端末装置6に送信する処理を開始する(ステップSQ4)。プロジェクター2は、ステップSQ3、SQ4で開始した処理を、動作終了が指示されるまで係属する。また、プロジェクター2は、ステップSQ3で、仮想画像データ226とともに撮像画像データ225を送信する処理を開始してもよい。また、撮像画像データ225を仮想画像データ226に含めて送信してもよい。
端末装置6は、プロジェクター2が送信する仮想画像データ226の受信を開始する(ステップSR1)。端末装置6は、受信した仮想画像データ226を、仮想画像データ626として記憶部62に記憶し、この仮想画像データ626に基づき仮想画像6aを表示する処理を開始する(ステップSR2)。また、端末装置6は、プロジェクター2から撮像画像データ225が送信された場合に、ステップSR1で、仮想画像データ226とともに撮像画像データ225の受信を開始してもよい。この場合、端末装置6は、受信した撮像画像データ225を記憶し、この撮像画像データに基づいてサブ画像2b(図1)を表示してもよい。
また、プロジェクター2は、プロジェクター4に対してユーザーデータに基づくユーザー画像4aの投射を開始させる制御データを送信する(ステップSQ5)。
プロジェクター4は、プロジェクター2が送信する制御データを受信し(ステップSP1)、ユーザーデータの受信に対して待機する。
プロジェクター4は、プロジェクター2が送信する制御データを受信し(ステップSP1)、ユーザーデータの受信に対して待機する。
端末装置6は、カメラ75の撮像画像データ、及び、マイク67で集音した音声の音声データを含むユーザーデータ627を取得してユーザーデータ627を生成し、ユーザーデータ627をプロジェクター2に送信する処理を開始する(ステップSR3)。
プロジェクター2は、端末装置6から送信されるユーザーデータ627を受信する処理、及び、受信したユーザーデータ627を転送する処理を開始する(ステップSQ6)。すなわち、プロジェクター2は、端末装置6が送信するユーザーデータ627を受信して、ユーザーデータ227として記憶する。プロジェクター2は、ユーザーデータ227を、プロジェクター4に送信する処理を開始する。
プロジェクター4は、プロジェクター2が送信するユーザーデータ227の受信を開始し(ステップSP2)、ユーザーデータ227に基づく音声および画像の出力を開始する(ステップSP3)。プロジェクター4は、プロジェクター2から受信するユーザーデータ227をユーザーデータ422として記憶する。プロジェクター4は、ユーザーデータ422に基づきスピーカー46から音声を出力する処理、及び、ユーザーデータ422に基づきユーザー画像4aを投射する処理を開始する。
図5では、端末装置6が撮像した撮像画像データ及び端末装置6が集音した音声データを含むユーザーデータ422に基づき、プロジェクター4がユーザー画像4a及び音声を出力する例を説明した。表示システム1では、上述したように、端末装置6が撮像した撮像画像データに代えて、予め用意された画像をユーザー画像4aとして投射できる。
この場合、例えば、プロジェクター4が、予め用意された画像を記憶部42に記憶する構成とすれば、ステップSR3、ステップSQ6及びステップSP2では音声データのみを送受信すればよい。プロジェクター4は、ステップSP3で、受信した音声データに基づく音声と、予め用意された画像データに基づくユーザー画像4aとを出力する。
ここで、予め用意された画像をユーザーデータとして利用する場合、プロジェクター2またはプロジェクター4が、複数の画像を用意するか、或いは、予め用意された画像を変化させる構成であってもよい。この場合、プロジェクター2またはプロジェクター4は、ユーザーデータとして表示する画像を、端末装置6が送信する音声データに基づき変化させてもよい。例えば、音声データから声調または声調の変化を検出し、検出結果から参加者UBの表情や感情を推定し、推定結果に基づき、画像を変化させてもよい。この場合、予め用意された画像を利用しながら、参加者UBの状態を反映するユーザー画像4aを表示できる。
図6は、表示システム1の動作を示すフローチャートであり、図5のステップSQ1の動作を詳細に示す。図6において符号Aはプロジェクター2の動作を示し、符号Bは端末装置6の動作を示す。
プロジェクター2は、仮想位置データ223及び仮想視線データ224を記憶するが、これらのデータは、プロジェクター2がプロジェクター4を検出して生成するデータであってもよいし、外部の装置から提供されるデータであってもよい。
プロジェクター2は、仮想位置データを外部の装置(例えば、端末装置6)から受信するか否かを判定する(ステップSQ11)。事前に設定された内容に基づき、仮想位置データを受信すると判定した場合(ステップSQ11;Yes)、プロジェクター2は、仮想位置データを端末装置6に対して要求する(ステップSQ12)。
端末装置6は、プロジェクター2からの要求を受信すると(ステップSR11)、端末装置6に記憶した仮想位置データ623を送信する(ステップSR12)。
プロジェクター2は、端末装置6が送信する仮想位置データ623を受信して、仮想位置データ223として記憶し(ステップSQ13)、ステップSQ17に移行する。
一方、仮想位置データを受信しないと判定した場合(ステップSQ11;No)、プロジェクター2は、位置検出部27の機能により、仮想位置データ223を生成する。すなわち、カメラ271の撮像画像データを取得し(ステップSQ14)、撮像画像データをもとに仮想視認位置A1を算出し(ステップSQ15)、算出した位置の仮想位置データ223を生成し(ステップSQ16)、記憶部22に記憶する。その後、プロジェクター2はステップSQ17に移行する。
ステップSQ17で、プロジェクター2は、仮想視線データを外部の装置(例えば、端末装置6)から受信するか否かを判定する(ステップSQ17)。事前に設定された内容に基づき、仮想視線データを受信すると判定した場合(ステップSQ17;Yes)、プロジェクター2は、仮想視線データを端末装置6に対して要求する(ステップSQ18)。
端末装置6は、プロジェクター2からの要求を受信すると(ステップSR13)、表示パネル70に、仮想視線方向VLの入力を案内する表示を行う(ステップSR14)。これにより、端末装置6を使用するユーザー(参加者UB)に対し、仮想視線方向VLの入力が促される。ステップSR14で、端末装置6は、仮想視線方向VLの入力用のユーザーインターフェースを表示パネル70に表示してもよい。また、動きセンサー76の検出値により仮想視線方向VLを特定するため、端末装置6を動かすように案内する画像を表示パネル70に表示してもよい。
端末装置6は、タッチパネル681の入力操作を検出し(ステップSR15)、入力内容に従って仮想視線方向VLを特定し、対応する仮想視線データ624を生成する。端末装置6は、生成した仮想視線データ624をプロジェクター2に送信し(ステップSR16)、図5の処理に戻る。ここで、端末装置6は、動きセンサー76の検出値に基づき仮想視線方向VLを特定してもよい。
プロジェクター2は、端末装置6が送信する仮想視線データ624を受信して、仮想視線データ224として記憶し(ステップSQ19)、図5の処理に戻る。
一方、仮想視線データを受信しないと判定した場合(ステップSQ17;No)、プロジェクター2は、記憶部22に記憶した仮想位置データ223に基づいて、仮想視線データ224を生成し(ステップS20)、図5の処理に戻る。
このように、表示システム1は、使用場所Aでプロジェクター2を用いて会議等を開催する場合に、会議用画像2aを見ることができない使用場所Bにいる参加者UBを、遠隔参加させることができる。参加者UA、及び、参加者UBの双方に、臨場感に富む演出を行うことができる。
参加者UAに対しては、使用場所Aにいない参加者UBの位置を、プロジェクター4、及び、ユーザー画像4aで示すことができる。使用場所Aにおいては、プロジェクター4、或いはユーザー画像4aが、参加者UBの、いわば代役(シンボル、象徴、アイコン等ともいえる)として機能する。このため、参加者UAに、参加者UBの存在を、臨場感を有する態様で認識させることができる。さらに、端末装置6が集音した音声をプロジェクター4が出力することにより、参加者UBが積極的に会議に参加するとともに、参加者UBの音声が仮想視認位置A1から出力されるため、より一層、臨場感を演出できる。
参加者UAに対しては、使用場所Aにいない参加者UBの位置を、プロジェクター4、及び、ユーザー画像4aで示すことができる。使用場所Aにおいては、プロジェクター4、或いはユーザー画像4aが、参加者UBの、いわば代役(シンボル、象徴、アイコン等ともいえる)として機能する。このため、参加者UAに、参加者UBの存在を、臨場感を有する態様で認識させることができる。さらに、端末装置6が集音した音声をプロジェクター4が出力することにより、参加者UBが積極的に会議に参加するとともに、参加者UBの音声が仮想視認位置A1から出力されるため、より一層、臨場感を演出できる。
参加者UBに対しては、会議用画像2aを、仮想視認位置A1から見た場合の状態で端末装置6に仮想画像6aとして表示できる。このため、参加者UBに対し、使用場所Aにおいて参加者UAと同じような位置から会議に参加した場合の視野を認識させることができ、臨場感に富む演出を行える。さらに、カメラ271の撮像画像データに基づき、使用場所Aの様子を示す画像をサブ画像6bとして表示パネル70に表示することで、使用場所Aの様子を詳細に知ることができ、より一層、臨場感を演出できる。
以上説明したように、実施形態の表示システム1は、会議用画像2aを表示するプロジェクター2を備える。表示システム1は、プロジェクター2に対して予め設定される仮想視認位置A1とプロジェクター2との相対位置を記憶する記憶部22を備える。また、プロジェクター2により表示される会議用画像2aを仮想視認位置A1から視認した画像に相当する仮想画像データ226を生成する仮想画像生成部204を備える。また、表示システム1は、仮想画像生成部204により生成された仮想画像データ226を送信する送信装置と、送信装置により送信された仮想画像データ226に基づいて仮想画像6aを表示する端末装置6と、を備える。
本実施形態では一例として、プロジェクター2が、記憶部22、及び、仮想画像生成部204を備える構成を挙げた。また、本実施形態では、プロジェクター2が送信装置として機能する例を説明した。
本発明の表示システム、及び、表示システムの制御方法を適用した表示システム1によれば、端末装置6に表示される画像は、プロジェクター2により表示される会議用画像2aを仮想視認位置A1から視認した画像に相当する。このため、プロジェクター2を直接視認することができない場所または視認が困難な場所にいる参加者UBが、端末装置6を利用して、仮想視認位置A1からプロジェクター2を視認したときのような体験をすることが可能となる。従って、複数の参加者(ユーザー)が参加する会議等を行う場合に、参加者の居場所がプロジェクター2を直接視認できる場所であっても、視認が困難な場所であっても、臨場感に富む体験を提供できる。
別の表現では、表示システム1は、第1の拠点である使用場所Aに設置され、会議用画像2aを表示するプロジェクター2と、使用場所Aにおいてプロジェクター2に対して予め設定される仮想視認位置A1を記憶する記憶部22とを備える。表示システム1は、プロジェクター2により表示される会議用画像2aを仮想視認位置A1から視認した画像に相当する仮想画像データ226を生成する仮想画像生成部204を備える。表示システム1は、仮想画像生成部204により生成された仮想画像データ226を送信する送信装置と、第2の拠点である使用場所Bに配置され、送信装置により送信された仮想画像データ226に基づいて仮想画像6aを表示する端末装置6と、を備える。
本発明の表示システム、及び、表示システムの制御方法を適用した表示システム1によれば、複数の参加者が参加する会議等を行う場合に、プロジェクター2が設置される使用場所Aにいる参加者UAに対して臨場感に富む体験を提供できる。さらに、使用場所Aにいない参加者UBに対しても、臨場感に富む体験を提供できる。
また、表示システム1は、仮想視認位置A1に対応する位置に配置されるオブジェクトとしてのプロジェクター4を有する。これにより、端末装置6の画像を利用する参加者UBの存在を、プロジェクター2を視認可能な位置にいる参加者UAに感じさせることができ、より多くの参加者に対し臨場感に富む体験を提供できる。
また、送信装置としてのプロジェクター2は、プロジェクター4の位置を検出する位置検出部27を備える。プロジェクター2は、位置検出部27により検出したプロジェクター4の位置を仮想視認位置A1として記憶部22に記憶する。これにより、オブジェクトの位置が仮想視認位置A1として記憶されるので、オブジェクトの位置に対応する仮想視認位置A1を容易に設定できる。
また、プロジェクター2は、プロジェクター4の位置が指定された場合に、指定されたプロジェクター4の位置を仮想視認位置A1として記憶部22に記憶する。これにより、プロジェクター4の位置が指定された場合に、指定された位置に対応する仮想視認位置A1を容易に設定できる。
また、仮想画像生成部204は、プロジェクター2と仮想視認位置A1との相対位置、及び、会議用画像2aを示す仮想位置データ223に基づき、仮想画像データ226を生成する。これにより、仮想視認位置A1から会議用画像2aを視認した画像に精度よく対応する仮想画像6aの仮想画像データ226を生成できる。
また、プロジェクター2は、仮想画像生成部204により生成された仮想撮像画像データを端末装置6に送信する無線通信部24と、プロジェクター2が表示する画像を視認可能な視聴空間の少なくとも一部を撮像するカメラ271と、を備える。仮想画像生成部204は、視聴空間を仮想視認位置A1から視認した画像に相当する仮想撮像画像データを生成する。これにより、仮想視認位置A1から視聴空間を視認した光景に相当する画像を端末装置6により表示可能となる。このため、プロジェクター2を視認できない又は視認が困難な位置にいる参加者UBに対し、視聴空間にいるような、臨場感に富む視聴体験を提供できる。
また、仮想画像生成部204は、仮想視認位置A1を基準とする仮想視線方向VLが指定された場合に、仮想視認位置A1から仮想視線方向VLを見た場合に相当する仮想撮像画像データを生成する。これにより、プロジェクター2を視認できない又は視認が困難な位置にいる参加者UBに対し、仮想視認位置A1から視聴空間やプロジェクター2の表示画像を見ているような、臨場感に富む視聴体験を提供できる。
また、端末装置6は、仮想視線方向VLを指定する仮想視線データを送信する無線通信部64を備える。送信装置としてのプロジェクター2の無線通信部24は、端末装置6により送信される仮想視線データを受信する受信部として機能する。仮想画像生成部204は、無線通信部24により受信された仮想視線データに基づき、仮想の撮像画像データを生成してもよい。この場合、仮想視線方向VLを、端末装置6が使用された場所またはその近傍にいる参加者UBの視線や操作に対応して、指定できる。このため、プロジェクター2を視認できない又は視認が困難な位置にいる参加者UBに対し、より臨場感に富む視聴体験を提供できる。
また、送信装置はプロジェクター2である。これにより、プロジェクター2により仮想画像データ226を送信することで、システムの構成を簡易化できる。
また、本発明の表示装置を適用したプロジェクター2は、仮想位置データ223に基づき会議用画像2aを表示する投射部30を備える表示装置である。プロジェクター2は、プロジェクター2に対して予め設定される仮想視認位置A1とプロジェクター2との相対位置を記憶する記憶部22を備える。プロジェクター2は、投射部30により表示される画像を仮想視認位置A1から視認した画像に相当する仮想画像データ226を生成する仮想画像生成部204を備える。プロジェクター2は、仮想画像生成部204により生成された仮想画像データ226を外部の表示装置である端末装置6に送信する無線通信部24と、を備える。
これにより、プロジェクター2により表示する会議用画像2aを仮想視認位置A1から視認した画像に相当する仮想画像データ226に基づき、端末装置6が表示を行える。このため、プロジェクター2を直接視認することができない場所または視認が困難な場所にいる参加者UBが、端末装置6を利用して、仮想視認位置A1から会議用画像2aを視認したときのような体験をすることが可能となる。従って、複数の参加者が参加する会議等を行う場合に、参加者の居場所が会議用画像2aを直接視認できる場所であっても、視認が困難な場所であっても、臨場感に富む体験を提供できる。
また、端末装置6は、動きセンサー76を備え、動きセンサー76の検出値により求められる端末装置6の動き量または動きに基づき、仮想視線方向VLを決定し、仮想視線データをプロジェクター2に送信する。このため、参加者UBは、端末装置6を動かすことで、仮想視線方向VLを指定できる。プロジェクター2は、仮想視線方向VLに対応する仮想画像データや、カメラ271の撮像画像データを端末装置6に送信する。従って、参加者UBは、あたかも使用場所Aにいる参加者UAが視線を移動させるのと同じように、会議用画像2aや、使用場所Aの景色を見ることができる。従って、より一層の臨場感を得ることができる。
上記第1実施形態では、プロジェクター2が、送信装置としても機能する構成を例示したが、例えば、送信装置を、プロジェクター2とは別体として設けてもよい。また、上記第1実施形態では、仮想視認位置A1に対応して設置されるプロジェクター4が、ユーザー画像4aを投射(表示)する機能、及び、音声を出力する機能を有する構成としたが、これらの機能を有しない構成であってもよい。この例について第2実施形態として説明する。
[第2実施形態]
図7は、第2実施形態に係る表示システム1Aの概略構成図である。表示システム1Aは、表示システム1と同様に、使用場所Aにいる参加者UA及び使用場所Bにいる参加者UBによる会議を実現するシステムである。
第2実施形態において、上記第1実施形態と共通する構成部については同符号を付して説明を省略する。
図7は、第2実施形態に係る表示システム1Aの概略構成図である。表示システム1Aは、表示システム1と同様に、使用場所Aにいる参加者UA及び使用場所Bにいる参加者UBによる会議を実現するシステムである。
第2実施形態において、上記第1実施形態と共通する構成部については同符号を付して説明を省略する。
表示システム1Aは、表示システム1が備えるプロジェクター4に代えて、オブジェクト5を使用場所Aに設置する構成を有する。オブジェクト5は、仮想視認位置A1を視覚的に参加者UAに示す物体として利用される。オブジェクト5は、参加者UAが視認可能であればよく、形状、材料、色、その他の属性は特に問われず、机上や壁面に貼付または載置される紙、ステッカー、或いは描画された絵であってもよい。オブジェクト5は、通信装置11との通信機能、画像や音声の出力機能等の各種機能を持つ必要はない。
図8は、表示システム1Aの動作を示すフローチャートである。図8において、符号Aはプロジェクター2の動作を示し、符号Bは端末装置6の動作を示す。
図8に示す動作は、第1実施形態で図5に示した動作に対応する。表示システム1Aのプロジェクター2が画像を投射していない状態から、会議を行うために動作を開始するときの動作を示す。具体的には、プロジェクター2の電源が投入されたときや会議の開始が指示されたとき、または、端末装置6においてアプリが実行されたとき等に、図8の動作が開始される。また、図8の動作において、図5と共通する処理には同ステップ番号を付して説明を略する。
図8に示す動作は、第1実施形態で図5に示した動作に対応する。表示システム1Aのプロジェクター2が画像を投射していない状態から、会議を行うために動作を開始するときの動作を示す。具体的には、プロジェクター2の電源が投入されたときや会議の開始が指示されたとき、または、端末装置6においてアプリが実行されたとき等に、図8の動作が開始される。また、図8の動作において、図5と共通する処理には同ステップ番号を付して説明を略する。
図8のステップSQ1において、プロジェクター2が仮想視認位置A1を取得する処理は、プロジェクター4に代えてオブジェクト5を利用すれば、図6と同様の処理を実行できる。
図8の処理において、端末装置6がユーザーデータ627をプロジェクター2に送信する処理を開始すると(ステップSR3)、プロジェクター2は、端末装置6から送信されるユーザーデータ627を受信する処理を開始する(ステップSQ31)。プロジェクター2は、受信したユーザーデータ627を、ユーザーデータ227として記憶し、ユーザーデータ227に基づき画像及び音声を出力する処理を開始する(ステップSQ32)。ステップSQ32で、プロジェクター2は、ユーザーデータ227に基づき、サブ画像2bを投射(表示)する。サブ画像2bは、図7に示すように、スクリーンSC1において会議用画像2aとともに表示される画像であり、参加者UBに関するユーザーデータに基づいて表示される。サブ画像2bは、予め用意された画像データ、または、端末装置6が撮像した撮像画像データに基づく画像である。
また、プロジェクター2は、ユーザーデータ227に基づいて、スピーカー26から音声を出力する。
また、プロジェクター2は、ユーザーデータ227に基づいて、スピーカー26から音声を出力する。
このように、第2実施形態の表示システム1Aは、音声出力や画像表示等の機能を持たないオブジェクト5を、プロジェクター4に代えて設置する構成において、表示システム1と同様に、臨場感に富む会議を実現できる。
なお、上述した各実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。例えば、上記実施形態では、表示装置として、プロジェクター2、プロジェクター4、及び端末装置6を例示した。本発明はこれに限定されず、例えば、プロジェクター2に代えて、会議用画像2aを表示する表示画面を備えた表示装置を用いることができる。また、プロジェクター4に代えて、ユーザー画像4aを表示する表示画面を備えた表示装置を用いることができる。これらの表示装置は、液晶表示パネルや有機ELディスプレイパネルを有する装置とすることができ、使用場所Aの壁面や天井面または机上に設置されるものであってもよい。また、端末装置6に代えて、ノート型コンピューターや、デスクトップ型のコンピューター等、表示画面を有する各種装置を用いることができる。また、端末装置6を、仮想画像6a及びサブ画像6bをスクリーンに投射するプロジェクターとして構成してもよい。
また、表示システム1、1Aを利用して会議を行う参加者は、複数の参加者UAと一人の参加者UBとの組合せに限定されない。例えば、使用場所Aの参加者UAは一人であってもよいし、より多数であってもよく、参加者UBも同様である。また、参加者UAと参加者UB及び仮想視認位置A1の位置関係は限定されない。使用場所Aにおける仮想視認位置A1は、参加者UBの数に対応して複数設定されてもよいし、一部の参加者UBに対応する少数の仮想視認位置A1のみを設定することも可能である。
また、端末装置6は、マイクのみを備える構成であってもよい。この場合、ユーザー画像4aは、予め用意された画像を利用し、端末装置6からプロジェクター2に音声データを含むユーザーデータを送信する構成とすればよい。
また、端末装置6は、動きセンサー76の検出値の変化に追従して、仮想視線方向VLを更新してもよく、更新された仮想視線方向VLを示す仮想視線データをプロジェクター2に送信してもよい。プロジェクター2は、仮想視線データが更新される毎に、仮想画像データを更新して端末装置6に送信すればよい。この構成によれば、端末装置6の動きに追従するように、仮想画像が変化するので、より一層の臨場感を演出できる。
また、上記各実施形態で説明した端末装置6に代えて、参加者UBが、HMD(Head Mounted Display:頭部装着型表示装置)を使用してもよい。HMDは、端末装置6と同様の形状を有する表示装置を、治具を用いて頭部に装着する構成であってもよいし、頭部に装着する専用の装置であってもよい。また、HMDが表示する画像のみを参加者UBが視認できる構成であってもよいし、表示画像とともにHMDを透過する外景を視認可能な、いわゆるシースルー型のHMDであってもよい。HMDが備える構成部は、例えば、図4に示した端末装置6の機能ブロックと同様とすることができる。
この場合、例えば、HMDが予め設定された方向または初期位置にあるときに、仮想視線方向VLに基づく仮想画像でなく、会議用画像2aを見ることが可能な構成とすることができる。さらに、参加者UBが頭を動かすことで、HMDの動きセンサー76により動きを検出した場合に、動きに対応して仮想視線方向VLが変化し、変化した仮想視線方向VLに基づく仮想画像をプロジェクター2からHMDに送信してもよい。さらにまた、カメラ271の撮像画像データから仮想画像を生成して、プロジェクター2からHMDに送信してもよい。また、HMDが、HMDの動きに追従して、仮想視線方向VLを更新してもよく、更新された仮想視線方向VLを示す仮想視線データをプロジェクター2に送信してもよい。プロジェクター2は、仮想視線データが更新される毎に、仮想画像データを更新してHMDに送信すればよい。これにより、参加者UBは、使用場所Aにおいて、参加者UAに並ぶ位置で会議に参加しているかのような臨場感を得ることができる。また、HMDを装着する参加者UBを、HMDにより撮像することは容易でないが、この場合には、参加者UBの画像を含むユーザーデータとして、予め用意された画像を用いてもよい。
また、ブロック図に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。
また、制御部が実行するプログラムは、記憶部または他の記憶装置(図示略)に記憶されてもよい。また、制御部が、外部の装置に記憶されたプログラムを取得して実行する構成としてもよい。
また、制御部が実行するプログラムは、記憶部または他の記憶装置(図示略)に記憶されてもよい。また、制御部が、外部の装置に記憶されたプログラムを取得して実行する構成としてもよい。
また、本発明は、表示システム1、1A、或いはプロジェクター2、4、及び端末装置6の制御方法を実現するためにコンピューターが実行するプログラムで構成してもよい。また、これらのプログラムをコンピューターで読み取り可能に記録した記録媒体、或いは、このプログラムを伝送する伝送媒体の態様で構成してもよい。上記記録媒体としては、磁気的、光学的記録媒体又は半導体メモリーデバイスを用いることができる。また、上記記録媒体は、表示システム1、1Aが備える各装置や、各装置に接続された外部装置が備える内部記憶装置であるRAM、ROM、HDD等の不揮発性記憶装置であってもよい。
その他、表示システム1、1Aを構成する機器の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
その他、表示システム1、1Aを構成する機器の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
1、1A…表示システム、2…プロジェクター(第1の表示装置、送信装置、表示装置)、2a…会議用画像(原画像)、2b…サブ画像、4…プロジェクター(オブジェクト)、4a…ユーザー画像、5…オブジェクト、6…端末装置(第2の表示装置、外部の表示装置)、6a…仮想画像、6b…サブ画像、10…通信ネットワーク、15A、15B、15C…通信リンク、20…制御部、22…記憶部(記憶部)、24…無線通信部(送信部、受信部)、25…音声処理部、26…スピーカー、27…位置検出部(検出部)、30…投射部(表示部)、40…制御部、42…記憶部、44…無線通信部、45…音声処理部、46…スピーカー、50…投射部、60…制御部、62…記憶部、64…無線通信部(第2装置送信部)、65…音声処理部、66…スピーカー、67…マイク、75…カメラ、76…動きセンサー、201…投射制御部、202…操作取得部、203…通信制御部、204…仮想画像生成部、221…設定データ、222…コンテンツデータ(原画像データ)、223…仮想位置データ、224…仮想視線データ、225…撮像画像データ、226…仮想画像データ、227…ユーザーデータ、271…カメラ(撮像部)、272…対象検出部、273…位置算出部、401…投射制御部、402…通信制御部、421…設定データ、422…ユーザーデータ、601…表示制御部、602…検出制御部、603…通信制御部、604…仮想位置指定部、621…設定データ、622…コンテンツデータ、623…仮想位置データ、624…仮想視線データ、625…撮像画像データ、626…仮想画像データ、627…ユーザーデータ、681…タッチパネル、A…使用場所(第1の拠点、視聴空間)、B…使用場所(第2の拠点)、A1…仮想視認位置、R…矢印、UA、UB…参加者、VL…仮想視線方向。
Claims (12)
- 原画像を表示する第1の表示装置と、
前記第1の表示装置に対して予め設定される仮想視認位置と、前記第1の表示装置との相対位置を記憶する記憶部と、
前記第1の表示装置により表示される原画像を前記仮想視認位置から視認した画像に相当する仮想画像データを生成する仮想画像生成部と、
前記仮想画像生成部により生成された前記仮想画像データを送信する送信装置と、
前記送信装置により送信された前記仮想画像データに基づいて前記仮想画像を表示する第2の表示装置と、
を備える表示システム。 - 第1の拠点に設置され、会議用画像を表示する第1の表示装置と、
前記第1の拠点において前記第1の表示装置に対して予め設定される仮想視認位置を記憶する記憶部と、
前記第1の表示装置により表示される前記会議用画像を前記仮想視認位置から視認した画像に相当する仮想画像データを生成する仮想画像生成部と、
前記仮想画像生成部により生成された前記仮想画像データを送信する送信装置と、
第2の拠点で使用され、前記送信装置により送信された前記仮想画像データに基づいて前記仮想画像を表示する第2の表示装置と、
を備える表示システム。 - 前記仮想視認位置に対応する位置に配置されるオブジェクトを有する、請求項1または2記載の表示システム。
- 前記送信装置は、前記オブジェクトの位置を検出する検出部を備え、
前記検出部により検出した前記オブジェクトの位置を前記仮想視認位置として前記記憶部に記憶する、請求項3記載の表示システム。 - 前記送信装置は、前記オブジェクトの位置が指定された場合に、指定された前記オブジェクトの位置を前記仮想視認位置として前記記憶部に記憶する、請求項3記載の表示システム。
- 前記仮想画像生成部は、前記第1の表示装置と前記仮想視認位置との相対位置、及び、前記会議用画像を示す会議用画像データに基づき、前記仮想画像データを生成する、請求項2記載の表示システム。
- 前記送信装置は、
前記仮想画像生成部により生成された前記仮想撮像画像データを前記第2の表示装置に送信する送信部と、
前記第1の表示装置が表示する画像を視認可能な視聴空間の少なくとも一部を撮像する撮像部と、を備え、
前記仮想画像生成部は、前記視聴空間を前記仮想視認位置から視認した画像に相当する仮想撮像画像データを生成する、請求項1から6のいずれか1項に記載の表示システム。 - 前記仮想画像生成部は、前記仮想視認位置を基準とする仮想視線方向が指定された場合に、前記仮想視認位置から前記仮想視線方向を見た場合に相当する前記仮想撮像画像データを生成する、請求項7記載の表示システム。
- 前記第2の表示装置は、前記仮想視線方向を指定する仮想視線データを送信する第2装置送信部を備え、
前記送信装置は、前記第2の表示装置により送信される前記仮想視線データを受信する受信部を備え、
前記仮想画像生成部は、前記受信部により受信された前記仮想視線データに基づき、前記仮想撮像画像データを生成する、請求項8記載の表示システム。 - 前記送信装置は前記第1の表示装置である、請求項1から9のいずれか1項に記載の表示システム。
- 原画像データに基づき原画像を表示する表示部を備える表示装置であって、
前記表示装置に対して予め設定される仮想視認位置と、前記表示装置との相対位置を記憶する記憶部と、
前記表示部により表示される画像を前記仮想視認位置から視認した画像に相当する仮想画像データを生成する仮想画像生成部と、
前記仮想画像生成部により生成された前記仮想画像データを外部の表示装置に送信する送信部と、
を備える表示装置。 - 原画像を表示する第1の表示装置、及び、第2の表示装置を備える表示システムの制御方法であって、
前記第1の表示装置に対して予め設定される仮想視認位置と、前記第1の表示装置との相対位置に基づいて、前記第1の表示装置により表示される原画像を前記仮想視認位置から視認した画像に相当する仮想画像データを生成し、
生成した前記仮想画像データを前記第2の表示装置に送信し、
前記第2の表示装置により、前記仮想画像データに基づいて前記仮想画像を表示する、
表示システムの制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017115811A JP2019004243A (ja) | 2017-06-13 | 2017-06-13 | 表示システム、表示装置、及び、表示システムの制御方法 |
US15/994,095 US20180357036A1 (en) | 2017-06-13 | 2018-05-31 | Display system, display device, and method of controlling display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017115811A JP2019004243A (ja) | 2017-06-13 | 2017-06-13 | 表示システム、表示装置、及び、表示システムの制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019004243A true JP2019004243A (ja) | 2019-01-10 |
Family
ID=64562191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017115811A Pending JP2019004243A (ja) | 2017-06-13 | 2017-06-13 | 表示システム、表示装置、及び、表示システムの制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20180357036A1 (ja) |
JP (1) | JP2019004243A (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7163656B2 (ja) * | 2018-07-30 | 2022-11-01 | 株式会社リコー | 配信システム、受信クライアント端末、配信方法 |
JP7028117B2 (ja) * | 2018-09-12 | 2022-03-02 | 株式会社リコー | 情報処理システム、情報処理装置、情報処理方法及びプログラム |
US11924393B2 (en) * | 2021-01-22 | 2024-03-05 | Valeo Comfort And Driving Assistance | Shared viewing of video among multiple users |
JP2023006798A (ja) * | 2021-06-30 | 2023-01-18 | 富士フイルム株式会社 | 投影装置、投影方法、制御装置、及び制御プログラム |
US11983822B2 (en) | 2022-09-02 | 2024-05-14 | Valeo Comfort And Driving Assistance | Shared viewing of video with prevention of cyclical following among users |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9407871B2 (en) * | 2014-03-31 | 2016-08-02 | Electronics And Telecommunications Research Instit | Apparatus and method for controlling eye-to-eye contact function |
-
2017
- 2017-06-13 JP JP2017115811A patent/JP2019004243A/ja active Pending
-
2018
- 2018-05-31 US US15/994,095 patent/US20180357036A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20180357036A1 (en) | 2018-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019004243A (ja) | 表示システム、表示装置、及び、表示システムの制御方法 | |
US10445917B2 (en) | Method for communication via virtual space, non-transitory computer readable medium for storing instructions for executing the method on a computer, and information processing system for executing the method | |
JP5012968B2 (ja) | 会議システム | |
JP2017092795A (ja) | 画像投射システム、プロジェクター、及び、画像投射システムの制御方法 | |
JP6953692B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6751205B2 (ja) | ディスプレイ装置及びその制御方法 | |
US10437544B2 (en) | Projection system and method for controlling projection system | |
JP2017227761A (ja) | 投影装置、投影システム、投影方法及びプログラム | |
JP6464692B2 (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP2019012443A (ja) | ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置 | |
WO2016157803A1 (ja) | 表示装置、表示装置の制御方法、書画カメラ、及び、書画カメラの制御方法 | |
JP2018088663A (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP4872482B2 (ja) | 遠隔支援装置、遠隔支援システム及び遠隔支援方法 | |
US10564801B2 (en) | Method for communicating via virtual space and information processing apparatus for executing the method | |
JP6540426B2 (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
JP5408175B2 (ja) | 投影装置、投影方法及びプログラム | |
JP2009229509A (ja) | 光学装置及び光学システム | |
JP5879839B2 (ja) | 画像投影システム | |
JP6733401B2 (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
JP2010015032A (ja) | プロジェクタ及びその制御方法並びに画像投射表示システム | |
JP6655751B1 (ja) | 映像表示制御装置、方法およびプログラム | |
US9860480B2 (en) | Method for processing information and electronic device | |
US11556308B2 (en) | Information processing system, information processing apparatus including circuitry to store position information of users present in a space and control environment effect production, information processing method, and room | |
JP2018164168A (ja) | 表示装置、表示方法及びプログラム | |
US20220078332A1 (en) | Information processing apparatus, information processing system, information processing method, and non-transitory recording medium |