JP2012147225A - プロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法 - Google Patents

プロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法 Download PDF

Info

Publication number
JP2012147225A
JP2012147225A JP2011003729A JP2011003729A JP2012147225A JP 2012147225 A JP2012147225 A JP 2012147225A JP 2011003729 A JP2011003729 A JP 2011003729A JP 2011003729 A JP2011003729 A JP 2011003729A JP 2012147225 A JP2012147225 A JP 2012147225A
Authority
JP
Japan
Prior art keywords
data
time
projector
unit
synchronization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011003729A
Other languages
English (en)
Other versions
JP2012147225A5 (ja
Inventor
Takashi Natori
孝 名取
Yoshiji Kozai
義治 幸西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011003729A priority Critical patent/JP2012147225A/ja
Priority to US13/069,985 priority patent/US8963802B2/en
Priority to CN201110080047.XA priority patent/CN102202201B/zh
Publication of JP2012147225A publication Critical patent/JP2012147225A/ja
Publication of JP2012147225A5 publication Critical patent/JP2012147225A5/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】特段の機器を必要とすることなく、複数の会議室等で同じ投射画像を共有することができるプロジェクターシステムを提供する。
【解決手段】画像および/または音のデータを入力するデータ入力部11と、入力したデータを出力するデータ出力部14、15、16、17と、出力される前のデータをキャプチャーし、複数のサブプロジェクター2に対して転送するデータ転送部と、を備え、データ出力部14、15、16、17は、データ転送部によりデータを転送した後、データ入力部11から入力された当該データを出力する。
【選択図】図1

Description

本発明は、入力された画像や音のデータを出力するプロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法に関するものである。
従来、この種のプロジェクターとして、画像データを入力するデータ入力部と、入力した画像データを投射する画像データ投射部と、を備えたものが知られている(特許文献1参照)。このようなプロジェクターは、プレゼンテーション等に用いられるものであって、ビデオデッキ等の外部装置からの画像データを、データ入力部により入力し、当該画像データを投射する。
特開2006−221084号公報
ところで、複数の会議室や複数の支部等の複数の個所で同じ画像を上映する場合のように、各個所にプロジェクターを設置し、複数の個所で同じ投射画像を共有する投射方法が求められている。しかしながら、上記のプロジェクターでは、仮に複数台用意したとしても、複数のプロジェクター間において投射タイミングを合わせることができず、同じ投射画像を共有することができないという問題があった。これに対し、スイッチャー等の分配器を用いて、タイミングを合わせて画像データを入力する方法が考えられるが、これでは、特段の機器を必要とし、プロジェクターシステム全体として複雑な構成となってしまう。これらは、音声の出力においても同様である。
本発明は、特段の機器を必要とすることなく、複数の個所で同じ出力音声や同じ投射画像を共有することができるプロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法を提供することを目的とする。
本発明のプロジェクターは、画像および/または音のデータを入力するデータ入力部と、入力したデータを出力するデータ出力部と、データ出力部により出力される前のデータをキャプチャーし、1以上の他のプロジェクターに対して転送するデータ転送部と、を備えるプロジェクターであって、データ出力部は、データ転送部によりデータを転送した後、データ入力部から入力された当該データを出力することを特徴とする。
また、本発明のプロジェクターシステムは、第1のプロジェクターと、1以上の第2のプロジェクターと、が接続されたプロジェクターシステムであって、第1のプロジェクターは、画像および/または音のデータを入力するデータ入力部と、入力したデータを出力する第1データ出力部と、第1データ出力部により出力される前のデータをキャプチャーし、1以上の第2のプロジェクターに対して転送するデータ転送部と、を備え、1以上の第2のプロジェクターは、第1のプロジェクターから転送されたデータを受信するデータ受信部と、データを受信した後、当該データを出力する第2データ出力部と、をそれぞれ備え、第1データ出力部は、データ転送部によりデータを転送した後、データ入力部から入力された当該データを出力することを特徴とする。
また、本発明のプロジェクターシステムのデータ出力方法は、第1のプロジェクターと、第1のプロジェクターに接続された1以上の第2のプロジェクターとを用いたプロジェクターシステムのデータ出力方法であって、第1のプロジェクターは、画像および/または音のデータを入力するデータ入力工程と、入力したデータを出力する第1データ出力工程と、第1データ出力工程により出力される前のデータをキャプチャーし、1以上の第2のプロジェクターに対して転送するデータ転送工程と、を実行し、1以上の第2のプロジェクターは、第1のプロジェクターから転送されたデータを受信するデータ受信工程と、データ受信工程の後、データを出力する第2データ出力工程と、をそれぞれ実行し、第1データ出力工程では、データ転送工程によりデータを転送した後、データ入力工程によって入力された当該データを出力することを特徴とする。
これらの構成によれば、1のプロジェクターから他のプロジェクターに出力前のデータを転送し、両プロジェクターで当該データを出力するため、特段の機器を必要とすることなく、同じ出力音声、投射画像を複数個所で共有することができる。特に、ネットワークを介してデータを転送することで、離れた拠点において出力音声、投射画像を共有できる。また、データを転送した後に、データ出力部によりデータ出力を行うため、キャプチャーおよびデータ送信による出力タイミングのタイムラグを抑制することができる。なお、上記データ出力部やデータ出力工程による画像のデータの出力は、当該データの投射を意味している。また、画像データのデータ転送方法は、無線通信を用いたものであっても良いし、有線通信を用いたものであっても良い。なお、ここにいう「キャプチャー」とは、画像データ(静止画データまたは動画データ)および/または音声データを取り込むことを意味する。すなわち、動画データに対しては、フレーム単位で切り出してサンプリングすることにより、キャプチャーを実行する。
本発明のプロジェクターにおいて、入力されたデータを一時記憶する一時記憶部を、更に備え、データ出力部は、一時記憶部に記憶されたデータを、所定の時間だけ遅らせて出力することが好ましい。
この構成によれば、入力されたデータを一時記憶し、出力タイミングを、所定の時間遅らせて(シフトさせて)出力することにより、1のプロジェクターと他のプロジェクターとにおける出力タイミングのタイムラグを少なくすることができる。
本発明のプロジェクターにおいて、1以上の他のプロジェクターに対するデータ送信にかかる時間を算出するための同期用信号を送信し、送信した1以上の他のプロジェクターから、同期用信号に対する応答信号を受信する同期用信号送受信部と、1以上の他のプロジェクターに対する、同期用信号の送信から応答信号の受信までにかかる送受信時間を取得する送受信時間取得部と、取得した送受信時間に基づいて、1以上の他のプロジェクターからのデータの出力を同期させるための同期調整時間を算出する同期調整時間算出部と、を更に備え、データ出力部は、同期調整時間算出部により算出した全ての同期調整時間のうちの最大時間を所定の時間として、一時記憶部に記憶されたデータを遅らせて出力し、データ転送部は、1以上の他のプロジェクターに対するデータの転送に際し、最大時間から転送先の他のプロジェクターの同期調整時間を差し引いた時間が経過した時に、当該転送先の他のプロジェクターに対してデータを転送することが好ましい。
また、本発明のプロジェクターシステムにおいて、第1のプロジェクターは、入力されたデータを一時記憶する一時記憶部と、1以上の第2のプロジェクターに対するデータ送信にかかる時間を算出するための同期用信号を送信し、送信した1以上の第2のプロジェクターから、同期用信号に対する応答信号を受信する同期用信号送受信部と、1以上の第2のプロジェクターに対する、同期用信号の送信から応答信号の受信までにかかる送受信時間を取得する送受信時間取得部と、取得した送受信時間に基づいて、1以上の第2のプロジェクターからのデータの出力を同期させるための同期調整時間を算出する同期調整時間算出部と、を更に備え、第1データ出力部は、一時記憶部に記憶された前記データを、同期調整時間算出部により算出した全ての同期調整時間のうちの最大時間だけ遅らせて出力し、データ転送部は、1以上の第2のプロジェクターに対するデータの転送に際し、最大時間から転送先の第2のプロジェクターの同期調整時間を差し引いた時間が経過した時に、当該転送先の第2のプロジェクターに対してデータを転送することが好ましい。
また、本発明のプロジェクターのデータ出力方法は、1以上の他のプロジェクターと接続可能なプロジェクターのデータ出力方法であって、画像および/または音のデータを入力するデータ入力工程と、入力したデータを出力するデータ出力工程と、データ出力工程により出力される前のデータをキャプチャーし、1以上の他のプロジェクターに対して転送するデータ転送工程と、入力されたデータを一時記憶部に記憶する一時記憶工程と、1以上の他のプロジェクターに対するデータ送信にかかる時間を算出するための同期用信号を送信し、送信した1以上の他のプロジェクターから、同期用信号に対する応答信号を受信する同期用信号送受信工程と、1以上の他のプロジェクターに対する、同期用信号の送信から応答信号の受信までにかかる送受信時間を取得する送受信時間取得工程と、取得した送受信時間に基づいて、1以上の他のプロジェクターからのデータの出力を同期させるための同期調整時間を算出する同期調整時間算出工程と、を実行し、データ出力工程では、一時記憶部に記憶されたデータを、同期調整時間算出工程により算出した全ての同期調整時間のうちの最大時間だけ遅らせて出力し、データ転送工程は、1以上の他のプロジェクターに対するデータの転送に際し、最大時間から転送先の他のプロジェクターの同期調整時間を差し引いた時間が経過した時に、当該転送先の他のプロジェクターに対してデータを転送することが好ましい。
これらの構成によれば、1のプロジェクター(第1のプロジェクター)と他のプロジェクター(第2のプロジェクター)との間のデータ送受信にかかる時間に基づいて、各プロジェクターにおけるデータ出力のタイムラグの要因となるデータ送信にかかる時間(データ送信時間)を導き、これを考慮した同期調整時間を算出する。そして、1のプロジェクターからのデータ出力を、算出した全ての同期調整時間の最大時間分だけ遅くすると共に、他のプロジェクターに対して同期調整時間が長い順に、送信タイミングをずらしながらデータを送信する。これにより、1以上の他のプロジェクターに対してデータを転送する場合、1以上の他のプロジェクターにおいては略同時にデータの受信が完了し、1のプロジェクターは、1以上の他のプロジェクターがデータを完全に受信し終えたタイミングでデータ出力するため、全てのプロジェクターからのデータ出力が同期するように調整することができる。すなわち、全てのプロジェクターからのデータ出力のタイムラグを軽減することができる。また、1のプロジェクターのみの処理で実現でき、他のプロジェクターに関しては特別な処理を必要としないため、簡単に実現することができる。
なお、上述の同期調整時間は、データ送信時間のみならず、他のプロジェクター側でのデータ処理時間(例えば、受信データの解凍処理、各種画像処理や各種音声処理などにかかる時間)等を考慮した時間としても良い。
本発明のプロジェクターにおいて、1以上の他のプロジェクターに対するデータ送信にかかる時間を算出するための同期用信号を送信し、送信した1以上の他のプロジェクターから、同期用信号に対する応答信号を受信する同期用信号送受信部と、1以上の他のプロジェクターに対する、同期用信号の送信から応答信号の受信までにかかる送受信時間を取得する送受信時間取得部と、取得した送受信時間に基づいて、1以上の他のプロジェクターからのデータの出力を同期させるための同期調整時間を算出する同期調整時間算出部と、を更に備え、データ出力部は、同期調整時間算出部により算出した全ての同期調整時間のうちの最大時間を所定の時間として、一時記憶部に記憶されたデータを遅らせて出力し、データ転送部は、1以上の他のプロジェクターに対するデータの転送に際し、データに加え、最大時間から転送先の他のプロジェクターの同期調整時間を差し引いた時間を同期時間情報として、当該転送先の他のプロジェクターに転送することが好ましい。
また、本発明のプロジェクターシステムにおいて、第1のプロジェクターは、入力されたデータを一時記憶する一時記憶部と、1以上の第2のプロジェクターに対するデータ送信にかかる時間を算出するための同期用信号を送信し、送信した1以上の第2のプロジェクターから、同期用信号に対する応答信号を受信する同期用信号送受信部と、1以上の第2のプロジェクターに対する、同期用信号の送信から応答信号の受信までにかかる送受信時間を取得する送受信時間取得部と、取得した送受信時間に基づいて、1以上の第2のプロジェクターからのデータの出力を同期させるための同期調整時間を算出する同期調整時間算出部と、を更に備え、第1データ出力部は、一時記憶部に記憶されたデータを、同期調整時間算出部により算出した全ての同期調整時間のうちの最大時間だけ遅らせて出力し、データ転送部は、1以上の第2のプロジェクターに対するデータの転送に際し、データに加え、最大時間から転送先の第2のプロジェクターの同期調整時間を差し引いた時間を同期時間情報として、当該転送先の第2のプロジェクターに転送し、1以上の第2のプロジェクターのデータ受信部は、データに加え、同期時間情報を受信し、第2データ出力部は、受信した同期時間情報が示す時間が経過した後、データを出力することが好ましい。
これらの構成によれば、1のプロジェクター(第1のプロジェクター)が、1以上の他のプロジェクター(第2のプロジェクター)に対してデータと共に同期時間情報を送信し、1以上の他のプロジェクターがこの同期時間情報を考慮して出力タイミングを調整することで、全てのプロジェクターからのデータ出力のタイムラグを少なくすることができる。すなわち、他のプロジェクターのそれぞれが、自身以外のプロジェクターがデータを受信し終えるまでの時間(同期時間情報)だけデータ出力を遅らせることで、全てのプロジェクターからのデータ出力が同期するように調整でき、データ出力のタイムラグを軽減することができる。また、1のプロジェクターは、他のプロジェクターに対して、画像や音声のデータに加えて同期時間情報を送信するだけで良いため、煩雑な処理をすることなく簡単に実現することができる。また、転送先となる他のプロジェクターの台数が多い場合であっても、上記の方法のように1のプロジェクターが全ての処理(同期調整するための処理)を行なう場合に比べ、1のプロジェクターの処理負荷を低減することができる。
本発明のプロジェクターにおいて、同期調整時間算出部は、取得した送受信時間の半分の時間を、同期調整時間として算出することが好ましい。
この構成によれば、同期調整時間を送受信時間の半分の時間とすることで、1のプロジェクターと1以上の他プロジェクターとを繋ぐネットワークの上り下りで速度が同じ場合はもとより、速度が異なる場合であっても、複雑な計算をすることなく、簡単に同期調整時間(1以上の他のプロジェクターに対するデータ送信(データ転送)にかかる時間)を算出することができる。
本発明のプロジェクターにおいて、同期用信号送受信部は、同期用信号および応答信号の送受信を、所定の時間の間隔で実行し、送受信時間取得部は、同期用信号送受信部による送受信が実行される度に、送受信時間を取得し、同期調整時間算出部は、送受信時間を取得する度に、当該送受信時間に基づいて、同期調整時間を算出することが好ましい。
この構成によれば、所定の時間の間隔で同期用信号の送受信を行ない、その都度、同期調整時間を算出しなおすことで、例えば、プロジェクターを利用している最中に(複数のプロジェクター間で、画像や音声を同期させて出力している最中に)、なんらかの原因(ネットワークの負荷や状況の変化など)により、データ出力タイミングにずれが生じたとしても、適宜補正することができ、結果として、複数のプロジェクター間における画像投射や音声出力のタイミングがずれることを抑制できる。なお、頻繁に同期調整時間を算出することは、逆にプロジェクターの処理やネットワークに負荷をかけることに繋がるため、この同期調整時間を算出する間隔は、比較的長い時間(例えば、10分や30分)にすることが好ましい。
本発明のプロジェクターにおいて、所定の時間の間隔を設定するタイミング設定部を、更に備え、同期用信号送受信部は、タイミング設定部にて設定した時間の間隔で、同期用信号および応答信号の送受信を実行することが好ましい。
この構成によれば、ユーザーがプロジェクターの利用環境(プロジェクターの利用時間やネットワーク環境など)に応じて、あるいはユーザーの好みに応じて時間を調整できるため、利便性が良い。なお、設定方法としては、ユーザーが直接、時間を入力する方法でも良いし、あるいは、予め用意された設定時間リスト(10分、15分、30分等)の中から、ユーザーが選択して設定する方法でも良い。
本発明のプロジェクターにおいて、同期用信号および応答信号の送受信の実行を操作する同期操作部を、更に備え、同期用信号送受信部は、同期操作部の操作をトリガーとして、同期用信号および応答信号の送受信を実行し、送受信時間取得部は、同期操作部の操作をトリガーとした同期用信号送受信部による送受信が実行される度に、送受信時間を取得し、同期調整時間算出部は、送受信時間を取得する度に、当該送受信時間に基づいて、同期調整時間を算出することが好ましい。
この構成によれば、任意のタイミングで(同期操作部が操作されたタイミングで)同期用信号の送受信を行い、これに伴う同期調整時間を算出することができる。例えば、ユーザーがプロジェクターを使用している最中に、各プロジェクター間で、画像出力(音声出力)にずれが生じていると感じた場合などに、同期用操作部を操作することによって、出力タイミングを同期するように補正できるため、利便性が良い。
本発明のプロジェクターにおいて、1以上の他のプロジェクターは、プロジェクターからのデータの受信に連動して、当該データを投射することが好ましい。
この構成によれば、他のプロジェクターは、データ受信に連動して、データ出力を行うので、1のプロジェクターと他のプロジェクターとのデータ出力が、データ転送を中心に連動することになる。そのため、出力音声、投射画像をリアルタイムで共有することができる。
本発明のプロジェクターにおいて、データ転送部によるデータの転送の要否を切り替えるための転送切替部を、更に備えたことが好ましい。
この構成によれば、転送切替部を有することで、ユーザーによって、データの転送の要否を適宜切り替えることができる。そのため、ユーザーは、本プロジェクター単体で音声出力、画像投射を行うことと、複数のプロジェクターによって音声出力、画像投射を行うことと、を適宜選択することができる。
本発明のプロジェクターにおいて、データ入力部は、データをアナログ信号によって入力するアナログ信号入力部と、データをデジタル信号によって入力するデジタル信号入力部と、を含み、アナログ信号によって入力されたデータを、デジタル信号に変換するデジタル変換部を、更に備えたことが好ましい。
この構成によれば、デジタル変換部により、アナログ信号によって入力されたデータを、デジタル信号に変換することができるため、アナログ信号によって入力されたデータを転送することができる。ゆえに、デジタル信号によって入力されたデータのみならず、アナログ信号によって入力されたデータにおいても、データの共有を実現することができる。
本発明のプロジェクターにおいて、データ転送部によるデータの転送前に、当該データを圧縮するデータ圧縮部を、更に備えたことが好ましい。
この構成によれば、データを圧縮して転送することで、データ転送速度を向上することができる。また、データ出力部は、データがキャプチャー、圧縮、および転送された後に、当該データを出力するため、出力タイミングによるタイムラグをより少なくすることができる。
本発明の第1実施形態に係るプロジェクターシステムの構成を示すブロック図である。 第1実施形態のプロジェクターシステムにおける映像投射動作を示すフローチャートである。 第2実施形態および第3実施形態に係るプロジェクターシステムの構成を示すブロック図である。 第2実施形態の同期処理における機能について説明する機能ブロック図である。 第2実施形態のプロジェクターシステムにおいて、プロジェクターが2台(メインプロジェクターおよび1台のサブプロジェクター)の場合の映像投射動作を示すフローチャートである。 第2実施形態のプロジェクターシステムにおいて、プロジェクターが3台(メインプロジェクターおよび2台のサブプロジェクター)の場合の映像投射動作を示すフローチャートである。 第3実施形態の同期処理における機能について説明する機能ブロック図である。 第3実施形態のプロジェクターシステムにおいて、プロジェクターが2台(メインプロジェクターおよび1台のサブプロジェクター)の場合の映像投射動作を示すフローチャートである。 第3実施形態のプロジェクターシステムにおいて、プロジェクターが3台(メインプロジェクターおよび2台のサブプロジェクター)の場合の映像投射動作を示すフローチャートである。
[第1実施形態]
以下、添付図面を参照し、本発明のプロジェクターを用いたプロジェクターシステムおよびデータ出力方法について説明する。図1に示すように、第1実施形態のプロジェクターシステムSY1は、メインプロジェクター1(プロジェクター、第1のプロジェクター)と、ネットワークNWを介してメインプロジェクター1に接続された複数のサブプロジェクター2(他のプロジェクター、第2のプロジェクター)とを備えている(図1では、3台以上のサブプロジェクター2が接続されている状態を例示する)。本プロジェクターシステムSY1は、メインプロジェクター1に投射する画像データ、および当該画像データの投射と同期して音声出力する音声データ(以下、画像データと、これと同期して出力する音声データとを関連付けたデータを「映像データ」と称する)を各サブプロジェクター2に転送することで、メインプロジェクター1および各サブプロジェクター2の間で、投射画像および音声を共有する構成を有している。
メインプロジェクター1と各サブプロジェクター2とは、それぞれ異なる拠点に配置されており、例えば、メインプロジェクター1を東京の拠点に配置し、1つ目のサブプロジェクター2を大阪の拠点に、2つ目のサブプロジェクター2を名古屋の拠点に配置する。なお、図示省略するが、各プロジェクター1、2とネットワークNWとの接続は、アクセスポイントを介した無線通信によって行われる。また、第1実施形態で述べる画像データは、動画データであっても良いし、静止画データであっても良い。
メインプロジェクター1は、映像データ入力部11(データ入力部)と、映像データ処理部12(デジタル変換部)と、映像データ一時記憶部13と、スピーカー14(データ出力部、第1データ出力部)と、ライトバルブ駆動部15と、ランプ駆動部16と、投射光学部17と、操作部18と、モード決定部19と、通信部20と、映像データ圧縮部21(データ圧縮部)と、これらを制御する制御部22と、制御に用いる各種データを記憶する記憶部23と、を備えている。
映像データ入力部11は、音声データ入力部31および画像データ入力部32を有している。音声データ入力部31は、外部機器からの各種音声データを入力するものであって、アナログ信号によって音声データを入力するアナログ信号音声入力部31a(アナログ信号入力部)と、デジタル信号によって音声データを入力するデジタル信号音声入力部31b(デジタル信号入力部)と、を含んでいる。すなわち、アナログ音声信号およびデジタル音声信号を入力可能に構成されている。具体的には、音声データ入力部31は、パーソナルコンピューターやCDプレーヤー、マイク、USBメモリーなどの外部機器から、アナログ信号もしくはデジタル信号の各種音声データを入力するためのものであって、AV端子やUSB端子等の複数の音声入力端子T1、T2、T3から成る。
一方、画像データ入力部32は、外部機器からの各種画像データを入力するものであって、アナログ信号によって画像データを入力するアナログ画像入力部32a(アナログ信号入力部)と、デジタル信号によって画像データを入力するデジタル画像入力部32b(デジタル信号入力部)と、を含んでいる。すなわち、アナログ画像信号(RGB信号やコンポジット画像信号など)およびデジタル画像信号を入力可能に構成されている。具体的には、画像データ入力部32は、パーソナルコンピューターやビデオプレーヤー、書画カメラ、USBメモリーなどの外部機器から、各種画像データを入力するためのものであって、AV端子やUSB端子等の複数の画像入力端子T4、T5、T6から成る。なお、音声データ入力部31と画像データ入力部32とを、共通の入力端子で構成するものであっても良い。
映像データ処理部12は、音声データ処理部33および画像データ処理部34を有している。音声データ処理部33は、入力した音声データに対し、出力特性を調整するための処理を施す。また、音声データ処理部33は、アナログ信号の音声データを、デジタル信号の音声データに変換する。
画像データ処理部34は、入力された画像データに対し、所定の画像処理を施す。具体的には、キーストーン歪補正処理、画質調整処理、画像サイズ調整処理、ガンマ補正処理、画像合成(重畳)処理等を行う。また、画像データ処理部34は、アナログ信号の画像データを、デジタル信号の画像データに変換する。
映像データ一時記憶部13は、映像データ処理部12で処理された映像データ(音声データおよび画像データ)を一時的に記憶する。ここでは、デジタル信号の映像データを記憶する。
スピーカー14は、音声データ処理部33で処理された音声データ、もしくは映像データ一時記憶部13に記憶された音声データに基づく音声を出力する。なお、スピーカー14に加え、音声出力機器に接続するための音声出力端子を有し、スピーカー14および音声出力機器から、選択的に音声を出力するものであっても良い。
ライトバルブ駆動部15は、液晶ドライバーであり、後述の液晶ライトバルブ36の各画素に、画像データに応じた駆動電圧を印加することにより、各画素の光透過率を設定する。
ランプ駆動部16は、放電発光型のランプである後述の光源ランプ35を点灯するために高電圧を発生して放電回路を形成するイグナイタ部と、点灯後の安定した点灯状態を維持するためのバラスト回路と、を有している(いずれも図示省略)。なお、光源ランプ35としては、超高圧水銀ランプ、メタルハライドランプ、キセノンランプ等を採用可能である。また、これら放電発光型のランプに限らず、発光ダイオード、有機EL素子、シリコン発光素子等の各種自己発光素子を採用しても良い。
投射光学部17は、スクリーンSC上に、画像を投射表示するものであり、光源ランプ35と、3原色に対応した3つの液晶ライトバルブ36と、投射レンズ37と、を有する。この投射光学部17による画像投射は、画像データ処理部34で処理された画像データ、もしくは、映像データ一時記憶部13に記憶された画像データに基づいて行なわれる。各液晶ライトバルブ36は、一対の透明基板間に液晶が封入された液晶パネル等によって構成される。各透明基板の内面には、液晶に対して微小領域毎に駆動電圧を印加可能な透明電極(画素)がマトリクス状に形成されている。
光源ランプ35から射出された照明光は、不図示の光分離光学系によって、R,G,Bの色光に分離された後、各色用の液晶ライトバルブ36を透過することによって、画像データに応じた光変調がなされる。また、変調された画像光は、不図示の光合成光学系(ダイクロイックプリズムなど)により画素毎に合成されてカラー画像化され、当該カラー画像化された画像光が投射レンズ37によって投射されることにより、スクリーンSC上に投射画像が表示される。すなわち、ライトバルブ駆動部15、ランプ駆動部16および投射光学部17(データ出力部、第1データ出力部)によって、画像データを、スクリーンSCに投射する。
なお、詳細は後述するが、上述の画像投射および音声出力を実行するにあたり、メインプロジェクター1のモードが、「共有モード」に設定されている場合は、映像データ処理部12による処理後の映像データ(音声データおよび画像データ)を映像データ一時記憶部13に一時記憶すると共に、映像データ一時記憶部13の映像データをサブプロジェクター2に転送した後に、メインプロジェクター1で画像投射およびこれと同期した音声出力を実行する。
操作部18は、ユーザーが各種設定および操作を行うためのものであり、メインプロジェクター1本体に備えられた操作パネルやリモコン(いずれも図示省略)により構成される。操作部18には、メインプロジェクター1のモードを、「単体モード」と、「共有モード」との間で切り替えるモード切替スイッチ18aが含まれている。「単体モード」は、メインプロジェクター1単体で画像データを投射し、且つメインプロジェクター1単体で音声データに基づく音声を出力するモードである。一方、「共有モード」は、メインプロジェクター1によって投射する画像データおよび出力する音声データを、複数のサブプロジェクター2に転送し、投射画像および出力音声を共有するモードである。すなわち、このモード切替スイッチ18aによって、映像データ(画像データおよび音声データ)の転送の要否を切り替える(転送切替部)。
モード決定部19は、モード切替スイッチ18aの操作に伴って、モードを選択的に決定する。すなわち、モード切替スイッチ18aの操作に応じて、モードを、「単体モード」と「共有モード」との間で切り替えて決定する。
通信部20は、サブプロジェクター2と通信を行なうためのネットワークインターフェースであり、例えばIEEE802.11a、IEEE802.11b、またはIEEE802.11gなどの無線LAN規格に対応した無線LAN通信を行なう。制御部22は、自身(メインプロジェクター1)のモードが「共有モード」である場合、出力前の映像データをキャプチャーして映像データ一時記憶部13に一時記憶し、一時記憶した映像データを、通信部20を介して複数のサブプロジェクター2に転送する。なお、ここにいう「キャプチャー」とは、出力前のデータ(映像データ)を取り込み、映像データ一時記憶部13に記憶することを意味する。また、通信方式としては、上述の無線通信に限らず、有線式のLANを用いてサブプロジェクター2と通信を行なうようにしても良い。なお、請求項のデータ転送部は、制御部22および通信部20を主要な構成要素とする。
映像データ圧縮部21は、音声データ圧縮部38および画像データ圧縮部39を有している。音声データ圧縮部38は、映像データの転送の前に、当該映像データに含まれる音声データを圧縮する。画像データ圧縮部39は、映像データの転送の前に、当該映像データに含まれる画像データを圧縮する。すなわち、サブプロジェクター2には、圧縮した映像データ(圧縮音声データおよび圧縮画像データ)を転送する。
なお、上記では、サブプロジェクター2に対して、画像データと音声データとを関連付けた映像データ(画像データと音声データとが同期するように対応付けたデータ)を送信するようにしているが、画像データと音声データとを別々に転送することも可能である。また、画像データのみの転送、もしくは音声データのみの転送を行うことも可能である。
一方、サブプロジェクター2は、通信部41(データ受信部)と、映像データ解凍部42と、映像データ処理部43と、スピーカー44(第2データ出力部)と、ライトバルブ駆動部45と、ランプ駆動部46と、投射光学部47と、これらを制御する制御部48と、制御に用いる各種データを記憶する記憶部49と、を備えている。なお、スピーカー44、ライトバルブ駆動部45、ランプ駆動部46および投射光学部47(第2データ出力部)については、メインプロジェクター1の各部と同様の構成を有しているため、ここでは詳細な説明を省略する。
通信部41は、メインプロジェクター1と通信を行なうためのネットワークインターフェースであり、メインプロジェクター1から転送された映像データ(圧縮された映像データ)を受信する。映像データ解凍部42は、音声データ解凍部51および画像データ解凍部52を有している。音声データ解凍部51は、受信した映像データに含まれる圧縮された音声データを解凍する。また、画像データ解凍部52は、受信した映像データに含まれる圧縮された画像データを解凍する。
映像データ処理部43は、音声データ処理部53および画像データ処理部54を有している。音声データ処理部53は、解凍した音声データに対し、出力特性を調整するための処理を施す。画像データ処理部54は、解凍した画像データに対し、サブプロジェクター2の投射特性に合わせた画像処理を施す。サブプロジェクター2は、この映像データ処理部43で処理された映像データに基づいて、ライトバルブ駆動部45、ランプ駆動部46および投射光学部47によりスクリーンSCに画像投射すると共に、これと同期してスピーカー44から音声出力を行なう。
次に、図2のフローチャートを参照して、プロジェクターシステムSY1の画像投射処理および音声出力処理(合わせて「映像出力処理」と称する)について説明する。本処理は、メインプロジェクター1の映像データ入力部11によって、外部機器から映像データ(画像データおよび音声データ)を入力したことに起因して行なわれるものである。また、モード決定部19によって予めモードが決定されているものとする。
図2に示すように、メインプロジェクター1(制御部22)は、外部機器から映像データが入力されると(S01:Yes,データ入力工程)、映像データ処理部12により当該映像データに対しデータ処理を行う(S02)。具体的には、画像データ処理部34により、アナログ信号の画像データをデジタル信号の画像データに変換すると共に、上記所定の画像処理を施す処理を行ない、音声データ処理部33により、アナログ信号の音声データをデジタル信号の音声データに変換すると共に、出力特性を調整するための処理を施す。
次に、メインプロジェクター1は、S02でデータ処理を施した後、自身に設定されたモードを判別する(S03)。その結果、モードが、「単体モード」であると判定された場合(S04:A)、メインプロジェクター1は、ライトバルブ駆動部15、ランプ駆動部16および投射光学部17により、処理後の画像データをスクリーンSCに投射すると共に、この画像投射と同期して、スピーカー14から、処理後の音声データに基づく音声を出力する(S05)。これにより、映像出力処理を終了する。
これに対し、モードが、「共有モード」であると判定された場合(S04:B)、メインプロジェクター1は、処理後の映像データをキャプチャーして、映像データ一時記憶部13に一時記憶する(S06)。その後、映像データ一時記憶部13に記憶された映像データを、映像データ圧縮部21により圧縮(画像圧縮および音声圧縮)すると共に(S07)、通信部20を介して、圧縮した映像データを複数のサブプロジェクター2に転送する(S08,データ転送工程)。また、メインプロジェクター1は、映像データの転送の後、当該映像データの転送に連動して、ライトバルブ駆動部15、ランプ駆動部16および投射光学部17により、映像データ一時記憶部13に記憶された画像データをスクリーンSCに投射すると共に、この画像投射と同期して、スピーカー14から、映像データ一時記憶部13に記憶された音声データに基づく音声を出力する(S09,第1データ出力工程)。
一方、各サブプロジェクター2は、メインプロジェクター1から映像データを受信すると(S10:Yes,データ受信工程)、その直後に、映像データ解凍部42により当該映像データを解凍すると共に(S11)、映像データ処理部43により、解凍した映像データに対しデータ処理を施す(S12)。その後、各サブプロジェクター2は、ライトバルブ駆動部45、ランプ駆動部46および投射光学部47により、処理後の画像データをスクリーンSCに投射すると共に、この画像投射と同期して、スピーカー44から、処理後の音声データに基づく音声を出力する(S13,第2データ出力工程)。これにより、本映像出力処理を終了する。
以上のように、第1実施形態によれば、メインプロジェクター1から複数のサブプロジェクター2に出力前の映像データ(投射前の画像データや出力前の音声データ)を転送し、全プロジェクター1、2により当該データを投射、出力するため、特段の機器を必要とすることなく、同じ投射画像および音声を複数個所で共有することができる。特に、ネットワークNWを介して映像データを転送することで、離れた拠点において投射画像および音声を共有できる。また、サブプロジェクター2に対して映像データを転送した後に、メインプロジェクター1側の画像投射や音声出力を行うため、映像データのキャプチャーおよびデータ送信による出力タイミングのタイムラグを抑制することができ、結果として、各サブプロジェクター2は、メインプロジェクター1の画像投射および音声出力に連動して(略同時に)、同じ内容の画像投射および音声出力を行なうことができる。
また、各サブプロジェクター2にて、データ受信に連動して、データ出力を行うことにより、メインプロジェクター1とサブプロジェクター2とのデータ出力が、データ転送を中心に連動することになるため、出力音声、投射画像をリアルタイムで共有することができる。
さらに、映像データの転送の要否を切り替えるためのモード切替スイッチ18aを有することで、ユーザーによって、データ転送の要否を適宜切り替えることができる。このため、ユーザーは、本メインプロジェクター1単体で画像投射や音声出力を行うことと、複数のプロジェクター1、2によって画像投射や音声出力を行うことと、をスイッチの切り替え操作のみで(ワンタッチで)、簡単に適宜選択することができる。
またさらに、映像データ処理部12(音声データ処理部33および画像データ処理部34)により、アナログ信号によって入力されたデータ(画像データおよび音声データ)を、デジタル信号に変換することができるため、アナログ信号によって入力されたデータを転送することができる。ゆえに、デジタル信号によって入力されたデータのみならず、アナログ信号によって入力されたデータにおいても、データの共有を実現することができる。
またさらに、映像データ圧縮部21(音声データ圧縮部38および画像データ圧縮部39)により、データを圧縮して転送することで、データ転送速度を向上することができる。
[第2実施形態]
次に、図3ないし図6を参照し、本発明の第2実施形態のプロジェクターシステムSY2における映像出力処理(画像投射処理および音声出力処理)について説明する。図3は、第2実施形態のプロジェクターシステムSY2の制御ブロック図である。基本的な構成は、第1実施形態のプロジェクターシステムSY1(図1参照)と同一であるが、メインプロジェクター1およびサブプロジェクター2に、同期処理部55、56を更に備え、これら各部の動作により、メインプロジェクター1が自身の映像データの出力タイミングを調整すると共に、各サブプロジェクター2に対する映像データの転送タイミングを調整することで、メインプロジェクター1および各サブプロジェクター2における画像投射および音声出力のタイミングを同期させる点で第1実施形態と異なっている。それ以外の点については、第1実施形態と同様である。
なお、図3において、第1実施形態と同様の構成部分については、先に説明した図1と同様の符号を付し、その詳細な説明を省略する。また、第1実施形態と同様の構成部分について適用される変形例は、本実施形態についても同様に適用される。以下、異なる点を中心に説明する。
図3に示すように、メインプロジェクター1は、同期処理部55および同期スイッチ18b(同期操作部)を更に備えている。同期処理部55は、メインプロジェクター1および各サブプロジェクター2における映像出力のタイムラグを抑制する処理、すなわち、映像出力タイミング(画像投射タイミングおよび音声出力タイミング)を同期させるための処理(同期処理)を実行する。具体的には、各サブプロジェクター2に対し、所定の信号(同期用信号)を送信し、各サブプロジェクター2からその応答信号を受信する。そして、同期用信号の送信から応答信号の受信までの時間(送受信時間)に基づいて、各サブプロジェクター2との間のデータ送信にかかる時間(同期調整時間)を算出する。第2実施形態のプロジェクターシステムSY2では、この同期調整時間に基づいて、各サブプロジェクター2に対する映像データの転送タイミング、および自身(メインプロジェクター1)の映像データの出力タイミングを調整し、全てのプロジェクター1、2における映像データの出力タイミングを同期させる。
同期スイッチ18bは、同期処理部55による処理の実行を手動で行なうためのスイッチであり、操作部18の構成要素の1つ(操作パネル上のスイッチやリモコンのスイッチ)に含まれる。ユーザーが、任意のタイミングで同期スイッチ18bを操作すると、メインプロジェクター1は、これをトリガーとして同期処理を実行する。
一方、サブプロジェクター2は、同期処理部56を更に備えている。この同期処理部56は、上述のメインプロジェクター1の同期処理部55と協働して、全てのプロジェクター1、2における映像データ出力タイミングを同期させる処理を実行するものである。第2実施形態のプロジェクターシステムSY2では、メインプロジェクター1から送信される同期用信号を受信した場合、当該同期用信号に対する応答信号を送信(返信)する。
次に、図4の機能ブロック図を参照して、メインプロジェクター1およびサブプロジェクター2の同期処理における機能について説明する。メインプロジェクター1は、メイン側同期用信号送受信手段61(同期用信号送受信部)、送受信時間取得手段62(送受信時間取得部)、同期時間算出手段63(同期調整時間算出部)、映像データ転送手段64(データ転送部)、およびメイン側映像データ出力手段65(データ出力部,第1データ出力部)を有している。メイン側同期用信号送受信手段61は、同期処理部55、通信部20を主要な要素として構成され、各サブプロジェクター2に対して同期用信号を送信し、送信した同期用信号に対する応答信号を各サブプロジェクター2から受信する。
送受信時間取得手段62は、同期処理部55を主要な要素として構成され、同期用信号の送信から応答信号を受信するまでの時間を取得する。すなわち、各サブプロジェクター2のそれぞれに対する、メインプロジェクター1との間の送受信時間を取得する。同期時間算出手段63は、同期処理部55を主要な要素として構成され、送受信時間取得手段62により取得した各サブプロジェクター2の送受信時間に基づいて、各サブプロジェクター2との間のデータ送信にかかる時間(同期調整時間)を算出する。本実施形態では、この同期調整時間として、送受信時間の半分の時間(送受信時間/2)を算出する。
映像データ転送手段64は、同期処理部55および通信部20を主要な要素として構成され、各サブプロジェクター2に対する映像データの転送タイミングを調整する。具体的には、各サブプロジェクター2について算出した同期調整時間のうち、最も長い同期調整時間(最大同期調整時間)を抽出し、この最大同期調整時間から、各サブプロジェクター2に対して算出された同期調整時間を差し引いた時間を、各サブプロジェクター2に対して映像データを転送する際の待ち時間(転送待機時間)とする。そして、この転送待機時間が経過した時に、各サブプロジェクター2に映像データを送信する。すなわち、同期調整時間が最大であるサブプロジェクター2に対しては、同期調整時間算出後、すぐに映像データの転送を実行し、それ以外のサブプロジェクター2に対しては、「最大同期調整時間−各サブプロジェクター2の同期調整時間」が経過した時に、映像データの転送を開始する。つまり、同期調整時間が長い順、言い換えれば、データ転送に最も時間がかかるサブプロジェクター2から順番に、タイミングをずらしながら映像データを転送する。これにより、全てのサブプロジェクター1、2において、同時に映像データを受信することとなる。
メイン側映像データ出力手段65は、同期処理部55、ライトバルブ駆動部15、ランプ駆動部16、投射光学部17およびスピーカー14を主要な要素として構成され、メインプロジェクター1からの映像出力タイミングを調整する。具体的には、上述で抽出した最大同期調整時間が経過した時に、映像データを出力する(画像投射および音声出力)。すなわち、全てのサブプロジェクター2が映像データを受信し終えた時に、メインプロジェクター1から映像データを出力する。
一方、サブプロジェクター2は、サブ側同期用信号送受信手段71、映像データ受信手段72(データ受信部)、およびサブ側映像データ出力手段73(第2データ出力部)を有している。サブ側同期用信号送受信手段71は、同期処理部56および通信部41を主要な要素として構成され、メインプロジェクター1から送信された同期用信号を受信し、受信した同期用信号に対する応答信号を送信(返信)する。映像データ受信手段72は、通信部41を主要な要素として構成され、メインプロジェクター1(映像データ転送手段64)から転送された映像データを受信する。サブ側映像データ出力手段73は、ライトバルブ駆動部45、ランプ駆動部46、投射光学部47およびスピーカー44を主要な要素として構成され、映像データ受信手段72により映像データを受信したタイミングで、当該映像データの出力(画像投射および音声出力)を実行する。
なお、本実施形態では、上述した同期用信号および応答信号の送受信、および送受信時間の取得は、Pingコマンドを用いて実現することもできる。すなわち、メインプロジェクター1がPingコマンドを実行(発行)することにより、各サブプロジェクター2に対して「echo request」パケット(同期用信号)を送信し、各サブプロジェクター2から「echo reply」パケット(応答信号)を受信する。この時のラウンドトリップタイムを送受信時間として取得する。詳しくは、Pingコマンドの実行(パケットの送受信)を複数回行い(例えば、4回や5回)、そのラウンドトリップタイムの平均時間を送受信時間として取得する。
また、上述のメイン側同期用信号送受信手段61、送受信時間取得手段62、同期時間算出手段63、およびサブ側同期用信号送受信手段71による各処理は、所定の時間の間隔(例えば、10分間隔や30分間隔。以下、「再同期調整時間」と称する)で繰返し実行される。すなわち、再同期調整時間として設定された時間の間隔で新しい同期調整時間が算出される。また、上述のように定期的に自動で同期調整時間を算出し直す以外に、ユーザーが同期スイッチ18bを操作した場合にも、これをトリガーとして同期調整時間を算出し直す。これにより、複数のプロジェクター1、2で、画像や音声を同期させて出力している最中に、例えば、ネットワークNWの負荷や状況が変化して、映像データの出力タイミングにずれが生じたとしても、適宜調整(補正)することができ結果として、複数のプロジェクター1、2における画像投射や音声出力のタイミングがずれることを抑制できる。
ここで、図5および図6のフローチャートを参照して、第2実施形態のプロジェクターシステムSY2の映像出力処理について説明する。本処理は、全てのプロジェクター1、2における映像出力タイミングを同期させる処理である。なお、図5は、プロジェクターが2台(メインプロジェクター1および1台のサブプロジェクター2)の場合の処理フローであり、図6は、プロジェクターが3台(メインプロジェクター1および2台のサブプロジェクター2)の場合の処理フローである。
まず、図5のフローチャートについて説明する。なお、出力対象となる映像データは、随時、映像データ入力部11から入力され、映像データ処理部12によってデータ処理されるものとする。また、メインプロジェクター1のモードは「共有モード」に設定されているものとする(図6も同様である)。モードが「単体モード」の場合は、図2のS04からS05の処理と同様の処理を行なう。
まず、メインプロジェクター1のモードが「共有モード」に設定されている状態で、映像データが入力され(データ入力工程)、データ処理されると、メインプロジェクター1は、サブプロジェクター2に対して同期用信号を送信する(S21,同期用信号送受信工程)。サブプロジェクター2は、メインプロジェクター1から同期用信号を受信すると(S22)、この信号に対する応答信号をメインプロジェクター1に対して返信する(S23)。次に、メインプロジェクター1は、サブプロジェクター2から応答信号を受信すると(S24,同期用信号送受信工程)、同期用信号の送信から応答信号の受信にかかる送受信時間を取得し(S25,送受信時間取得工程)、これに基づいて同期調整時間(送受信時間の半分の時間)を算出する(S26,同期調整時間算出工程)。
次に、メインプロジェクター1は、算出した同期調整時間のうちの最大同期調整時間を抽出する(S27)。この抽出は、例えばMax関数を用いて実行される。ここでは、サブプロジェクター2が1台であるため、同期調整時間=最大同期調整時間となる。次に、メインプロジェクター1は、サブプロジェクター2に対する転送待機時間を算出する(S28)。ここでは、同期調整時間=最大同期調整時間であるため、当該サブプロジェクター2に対する転送待機時間は「0」となる。
次に、メインプロジェクター1は、処理後の映像データ(処理後の画像データおよび音声データ)をキャプチャーして、映像データ一時記憶部13に一時記憶する(S29,一時記憶工程)。その後、メインプロジェクター1は、映像データ一時記憶部13に記憶された映像データを、映像データ圧縮部21により圧縮すると共に(S30)、通信部20を介して、圧縮した映像データをサブプロジェクター2に転送する(S31,データ転送工程)。すなわち、サブプロジェクター2が1台の場合は、S27により同期調整時間=最大同期調整時間となり、S28によりサブプロジェクター2に対する転送待機時間は「0」となるため、メインプロジェクター1は、S30の処理を実行後、すぐにサブプロジェクター2に対して、映像データの転送を行なう。
次に、メインプロジェクター1は、サブプロジェクター2への映像データの転送後、最大同期調整時間(=同期調整時間)が経過するまで、自身からの映像データの出力を待機し(S32;No)、最大同期調整時間が経過した後(S32;Yes)、映像データ一時記憶部13に記憶した映像データに基づいて、スクリーンSCに画像を投射すると共に、この画像投射と同期して、音声を出力する(S33,データ出力工程,第1データ出力工程)。
一方、サブプロジェクター2は、メインプロジェクター1から映像データを受信すると(S34:Yes,データ受信工程)、映像データ解凍部42により当該映像データ(圧縮画像データおよび圧縮音声データ)を解凍すると共に(S35)、映像データ処理部43により、解凍した映像データ(画像データおよび音声データ)に対しデータ処理を施す(S36)。その後、サブプロジェクター2は、処理後の画像データをスクリーンSCに投射すると共に、この画像投射と同期して、処理後の音声データに基づく音声を出力する(S37,第2データ出力工程)。すなわち、メインプロジェクター1が、最大同期調整時間分だけ映像データの出力を待機することにより、メインプロジェクター1からの映像出力は、サブプロジェクター2が映像データを受信した時に行なわれることになるため、結果として、メインプロジェクター1からの映像出力と、サブプロジェクター2からの映像出力は、同期して(略同時)に実行されることになる。
また、メインプロジェクター1は、S33の処理後、予め設定された再同期調整時間が経過したか否かを判定し、経過していない場合は(S38;No)、S29以降の処理(映像データの出力にかかる処理)を繰返す。一方、再同期調整時間が経過した場合(S38;Yes)、メインプロジェクター1は、S21以降の処理、すなわち、同期調整時間を再算出する処理を実行する。なお、この場合(S38;Yesの場合)、再同期調整時間のカウントはリセットされる。
次に、図6を参照して、プロジェクターが3台(メインプロジェクター1および2台のサブプロジェクター2)の場合の処理フローについて説明する。なお、サブプロジェクター2が3台以上の場合も、本フローと同様の処理手順を適用可能である。また、本フローでは、2台のサブプロジェクター2を、便宜上、サブプロジェクターAおよびサブプロジェクターBとし、サブプロジェクターAの同期調整時間を同期調整時間Ta、サブプロジェクターBの同期調整時間を同期調整時間Tbとする。また、同期調整時間Ta<同期調整時間Tbの関係が成り立つものとする。
まず、メインプロジェクター1のモードが「共有モード」に設定されている状態で、映像データが入力され(データ入力工程)、データ処理されると、メインプロジェクター1は、サブプロジェクターA、Bに対して、同期用信号を送信する(S41,同期用信号送受信工程)。サブプロジェクターA、Bは、メインプロジェクター1から同期用信号を受信すると(S42,S44)、この信号に対する応答信号をメインプロジェクター1に対して返信する(S43,S45)。次に、メインプロジェクター1は、サブプロジェクターA、Bのそれぞれから応答信号を受信すると(S46,同期用信号送受信工程)、各プロジェクターA、Bに対する同期用信号の送信から応答信号の受信にかかる送受信時間を取得し(S47,送受信時間取得工程)、これに基づいて各サブプロジェクターA、Bに対する同期調整時間(同期調整時間Ta=サブプロジェクターAに対する送受信時間の半分の時間、および同期調整時間Tb=サブプロジェクターBに対する送受信時間の半分の時間)を算出する(S48,同期調整時間算出工程)。
次に、メインプロジェクター1は、算出した同期調整時間TaおよびTbのうちの最大同期調整時間を抽出する(S49)。ここでは、最大同期調整時間として同期調整時間Tbを得る。次に、メインプロジェクター1は、各サブプロジェクターA、Bに対する転送待機時間を算出する(S50)。すなわち、サブプロジェクターAに対する転送待機時間は、「最大同期調整時間Tb−同期調整時間Ta」が算出される。一方、サブプロジェクターBに対する転送待機時間は、「最大同期調整時間Tb−同期調整時間Tb=0」が算出される。
次に、メインプロジェクター1は、処理後の映像データをキャプチャーして、映像データ一時記憶部13に一時記憶する(S51,一時記憶工程)。その後、映像データ一時記憶部13に記憶された映像データを、映像データ圧縮部21により圧縮すると共に、圧縮した映像データを映像データ一時記憶部13に記憶する(S52)。この圧縮映像データの記憶は、映像データを転送するサブプロジェクター2が2台以上の場合に行われ、この時、圧縮映像データは、S51で記憶した映像データ(未圧縮の映像データ)とは、異なる領域に記憶される。
次に、メインプロジェクター1は、S50で算出した各転送待機時間に基づいて、各サブプロジェクターA、Bに対して映像データの転送処理を開始する。この場合、メインプロジェクター1は、最初に、転送待機時間が「0」のサブプロジェクターBに対して、映像データ一時記憶部13に記憶した圧縮済の映像データを転送する(S53,データ転送工程)。そして、この転送終了後、メインプロジェクター1は、サブプロジェクターAの転送待機時間である「最大同期調整時間Tb−同期調整時間Ta」が経過するまで待機し(S54;No)、「最大同期調整時間Tb−同期調整時間Ta」が経過した時(S54;Yes)、サブプロジェクターAに対して映像データ一時記憶部13に記憶した圧縮済の映像データを転送する(S55,データ転送工程)。
次に、メインプロジェクター1は、サブプロジェクターAへの映像データの転送後、サブプロジェクターBへの映像データ転送時から最大同期調整時間Tbが経過したか否かを判定し、当該時間が経過するまで自身からの映像データの出力を待機する。つまり、ここでは、S54の段階で「最大同期調整時間Tb−同期調整時間Ta」の待機時間が発生しているため、メインプロジェクター1は、「最大同期調整時間Tb−(最大同期調整時間Tb−同期調整時間Ta)=同期調整時間Ta」が経過するまで待機する(S56;No)。そして、同期調整時間Taが経過した後(S56;Yes)、映像データ一時記憶部13に記憶した映像データ(未圧縮)に基づいて、スクリーンSCに画像を投射すると共に、この画像投射と同期して、音声を出力する(S57,データ出力工程,第1データ出力工程)。
一方、サブプロジェクターA、Bは、メインプロジェクター1からの映像データを受信すると(S58;Yes,S62;Yes,データ受信工程)、映像データ解凍部42により当該映像データを解凍すると共に(S59,S63)、映像データ処理部43により、解凍した映像データに対しデータ処理を施す(S60,S64)。その後、サブプロジェクターA、Bは、処理後の画像データをスクリーンSCに投射すると共に、この画像投射と同期して、処理後の音声データに基づく音声を出力する(S61,S65,第2データ出力工程)。すなわち、メインプロジェクター1が、サブプロジェクターAに対するデータ転送タイミングを遅らせることで、サブプロジェクターA、Bは、映像データを同じタイミングで受信し、且つメインプロジェクター1からの映像データの出力を最大同期調整時間Tb分だけ待機することにより、メインプロジェクター1からの映像出力は、サブプロジェクターA、Bが映像データを受信した時に行なわれることになるため、結果として、メインプロジェクター1からの映像出力と、サブプロジェクターA、Bからの映像出力は、同期して(略同時)に実行されることになる。
また、メインプロジェクター1は、S57の処理後、予め設定された再同期調整時間が経過したか否かを判定し、経過していない場合は(S66;No)、S51以降の処理(映像データの出力にかかる処理)を繰返す。一方、再同期調整時間が経過した場合(S66;Yes)、メインプロジェクター1は、S41以降の処理、すなわち、同期調整時間を再算出する処理を実行する。なお、この場合(S66;Yesの場合)、再同期調整時間のカウントはリセットされる。
なお、上述の図5および図6の処理中の任意のタイミングで、ユーザーにより同期スイッチ18bが操作された場合、メインプロジェクター1およびサブプロジェクター2は、この同期スイッチ18bの操作をトリガーとして、図5のS21からS28の処理または図6のS41からS50の処理を実行し、同期調整時間および転送待機時間を新たに算出し直す。
以上のように、第2実施形態によれば、メインプロジェクター1と各サブプロジェクター2との間のデータ送受信にかかる時間に基づいて、各サブプロジェクター2における映像データ出力のタイムラグの要因となるデータ送信にかかる時間(データ送信時間)を導き、これを考慮した同期調整時間を算出する。そして、メインプロジェクター1からの映像データ出力を、算出した全ての同期調整時間の最大時間分(最大同期調整時間)だけ遅くすると共に、各サブプロジェクター2に対して同期調整時間が長い順に(すなわち、データ転送に時間がかかる順に)、送信タイミングをずらしながら映像データを送信する。これにより、各サブプロジェクター2においては略同時に映像データの受信が完了し、メインプロジェクター1は、各サブプロジェクター2が映像データを完全に受信し終えたタイミングで映像データ出力するため、全てのプロジェクター1、2からの映像データ出力が同期するように調整することができる。すなわち、全てのプロジェクター1、2からの映像データ出力のタイムラグを軽減することができる。また、主要な処理はメインプロジェクター1のみで実行し、各サブプロジェクター2は特別な処理を必要としないため、簡単に実現することができる。
なお、第2実施形態では、再同期調整時間は予め設定されているものとしたが、これに限るものではなく、ユーザーにより時間設定が可能な構成にしても良い。例えば、操作部18における操作項目(操作メニュー)の1つとして、再同期調整時間設定項目(タイミング設定部)を設け、ユーザーが予め用意された設定時間リスト(10分、15分、30分等)の中から選択して設定するようにしても良いし、あるいは、ユーザーが直接、時間を入力して設定するようにしても良い。これにより、ユーザーがプロジェクター1、2の利用環境(プロジェクター1、2の利用時間やネットワーク環境など)に応じて、あるいはユーザーの好みに応じて時間を調整できるため、利便性が良い。
また、第2実施形態では、同期調整時間を、同期用信号の送受信時間の半分、すなわち、各サブプロジェクター2に対するデータ転送にかかる転送時間として算出しているが、これに限るものではない。例えば、上記に加え、サブプロジェクター2が映像データを受信した後に行なう解凍処理およびデータ処理の処理時間に起因するタイムラグも考慮して、同期調整時間を算出するようにしても良い。
[第3実施形態]
次に、図7ないし図9を参照し、本発明の第3実施形態のプロジェクターシステムSY3における映像出力処理について説明する。第3実施形態のプロジェクターシステムSY3は、基本的な機器構成は、第2実施形態のプロジェクターシステムSY2と同一であるが(図3参照)、メインプロジェクター1および各サブプロジェクター2における映像データの出力タイミングを同期させる方法が、第1実施形態および第2実施形態のプロジェクターシステムSY1、SY2とは異なる。具体的には、メインプロジェクター1および各サブプロジェクター2のそれぞれで、映像データの出力タイミングを調整し、メインプロジェクター1および各サブプロジェクター2における画像投射および音声出力のタイミングを同期させる点で異なっている。それ以外の点については、第1実施形態および第2実施形態のプロジェクターシステムSY1、SY2と同様である。
なお、図7において、第2実施形態と同様の部分については、先に説明した図4と同様の符号を付し、その詳細な説明を省略する。また、第1実施形態および第2実施形態と同様の構成部分について適用される変形例は、本実施形態についても同様に適用される。以下、異なる点を中心に説明する。
まず、図7の機能ブロック図を参照して、第3実施形態のプロジェクターシステムSY3のメインプロジェクター1およびサブプロジェクター2の同期処理における機能について説明する。メインプロジェクター1は、メイン側同期用信号送受信手段61、送受信時間取得手段62、同期時間算出手段63、映像データ転送手段81(データ転送部)、およびメイン側映像データ出力手段65を有している。なお、メイン側同期用信号送受信手段61、送受信時間取得手段62、同期時間算出手段63、およびメイン側映像データ出力手段65は、第2実施形態の各手段と同様であるため、説明を省略する。
映像データ転送手段81は、同期処理部55および通信部20を主要な要素として構成され、各サブプロジェクター2に対して映像データと共に、各サブプロジェクター2における当該映像データの出力タイミングの同期調整を行なうための情報(同期時間情報)を転送する。具体的には、各サブプロジェクター2について算出した同期調整時間のうち、最も長い同期調整時間(最大同期調整時間)を抽出し、この最大同期調整時間から、各サブプロジェクター2に対して算出された同期調整時間を差し引いた時間を、各サブプロジェクター2における映像データ出力時の待ち時間として転送する。すなわち、同期調整時間が最大であるサブプロジェクター2に対しては、待ち時間が「0」を示す同期時間情報を転送し、それ以外のサブプロジェクター2に対しては、待ち時間が「最大同期調整時間−各サブプロジェクター2の同期調整時間」を示す同期時間情報を転送する。
一方、サブプロジェクター2は、サブ側同期用信号送受信手段71、映像データ受信手段91(データ受信部)、およびサブ側映像データ出力手段92(第2データ出力部)を有している。サブ側同期用信号送受信手段71は、第2実施形態と同様であるため、説明を省略する。映像データ受信手段91は、通信部41を主要な要素として構成され、メインプロジェクター1(映像データ転送手段81)から転送された映像データおよび同期時間情報を受信する。サブ側映像データ出力手段92は、同期処理部56、ライトバルブ駆動部45、ランプ駆動部46、投射光学部47およびスピーカー44を主要な要素として構成され、映像データ受信手段91により受信した同期時間情報に基づいて、映像データの出力タイミングを調整して(遅らせて)、当該映像データの出力(画像投射および音声出力)を実行する。
ここで、図8および図9のフローチャートを参照して、第3実施形態のプロジェクターシステムSY3の映像出力処理について説明する。本処理は、全てのプロジェクター1、2における映像出力タイミングを同期させる処理である。なお、図8は、プロジェクターが2台(メインプロジェクター1および1台のサブプロジェクター2)の場合の処理フローであり、図9は、プロジェクターが3台(メインプロジェクター1および2台のサブプロジェクター2)の場合の処理フローである。
まず、図8のフローチャートについて説明する。なお、出力対象となる映像データは、随時、映像データ入力部11から入力され、映像データ処理部12によってデータ処理されるものとする。また、メインプロジェクター1のモードは「共有モード」に設定されているものとする(図9も同様である)。モードが「単体モード」の場合は、図2のS04からS05の処理と同様の処理を行なう。
まず、メインプロジェクター1のモードが「共有モード」に設定されている状態で、映像データが入力され、データ処理されると、メインプロジェクター1は、サブプロジェクター2に対して、同期用信号を送信する(S71)。サブプロジェクター2は、メインプロジェクター1から同期用信号を受信すると(S72)、この信号に対する応答信号をメインプロジェクター1に対して返信する(S73)。次に、メインプロジェクター1は、サブプロジェクター2から応答信号を受信すると(S74)、同期用信号の送信から応答信号の受信にかかる送受信時間を取得し(S75)、これに基づいて同期調整時間(送受信時間の半分の時間)を算出する(S76)。次に、メインプロジェクター1は、算出した同期調整時間のうちの最大同期調整時間を抽出する(S77)。ここでは、サブプロジェクター2が1台であるため、最大同期調整時間=同期調整時間となる。
次に、メインプロジェクター1は、算出した同期調整時間および最大同期調整時間に基づいて、サブプロジェクター2における映像出力タイミングを調整するための同期時間情報を生成する(S78)。ここでは、「最大同期調整時間=同期調整時間」であるため、同期時間情報には「待ち時間=0(最大同期調整時間−同期調整時間)」の情報が記される。次に、メインプロジェクター1は、処理後の映像データをキャプチャーして、映像データ一時記憶部13に一時記憶する(S79)。その後、映像データ一時記憶部13に記憶された映像データを、映像データ圧縮部21により圧縮すると共に(S80)、圧縮した映像データおよび同期時間情報をサブプロジェクター2に転送する(S81)。
次に、メインプロジェクター1は、サブプロジェクター2への映像データおよび同期時間情報の転送後、最大同期調整時間(=同期調整時間)が経過するまで、自身からの映像データの出力を待機(停止)し(S82;No)、最大同期調整時間が経過した後(S82;Yes)、映像データ一時記憶部13に記憶した映像データに基づいて、スクリーンSCに画像を投射すると共に、この画像投射と同期して、音声を出力する(S83)。
一方、サブプロジェクター2は、メインプロジェクター1から映像データおよび同期時間情報を受信すると(S84:Yes)、映像データ解凍部42により当該映像データを解凍すると共に(S85)、映像データ処理部43により、解凍した映像データに対しデータ処理を施す(S86)。その後、サブプロジェクター2は、同期時間情報として取得した時間が経過するまで映像データの出力を待機し(S87;No)、当該時間が経過した後に(S87;Yes)、処理後の画像データをスクリーンSCに投射すると共に、この画像投射と同期して、処理後の音声データに基づく音声を出力する(S88)。ここでは、同期時間情報として取得した時間は「0」であるため、サブプロジェクター2は、S86の処理を終えた後、すぐに映像データを出力する。
また、メインプロジェクター1は、S83の処理後、予め設定された再同期調整時間が経過したか否かを判定し、経過していない場合は(S89;No)、S79以降の処理(映像データの出力にかかる処理)を繰返す。一方、再同期調整時間が経過した場合(S89;Yes)、メインプロジェクター1は、S71以降の処理、すなわち、同期調整時間および同期時間情報を再算出する処理を実行する。なお、この場合(S89;Yesの場合)、再同期調整時間のカウントはリセットされる。
次に、図9を参照して、プロジェクターが3台(メインプロジェクター1および2台のサブプロジェクター2)の場合の処理フローについて説明する。なお、サブプロジェクター2が3台以上の場合も、本フローと同様の処理手順を適用可能である。また、本フローでは、2台のサブプロジェクター2を、便宜上、サブプロジェクターAおよびサブプロジェクターBとし、サブプロジェクターAの同期調整時間を同期調整時間Ta、サブプロジェクターBの同期調整時間を同期調整時間Tbとする。また、同期調整時間Ta<同期調整時間Tbの関係が成り立つものとする。
まず、メインプロジェクター1のモードが「共有モード」に設定されている状態で、映像データが入力され、データ処理されると、メインプロジェクター1は、サブプロジェクターA、Bに対して、同期用信号を送信する(S91)。サブプロジェクターA、Bは、メインプロジェクター1から同期用信号を受信すると(S92,S94)、この信号に対する応答信号をメインプロジェクター1に対して返信する(S93,S95)。次に、メインプロジェクター1は、サブプロジェクターA、Bのそれぞれから応答信号を受信すると(S96)、各プロジェクターA、Bに対する同期用信号の送信から応答信号の受信にかかる送受信時間を取得し(S97)、これに基づいて各サブプロジェクターA、Bに対する同期調整時間(同期調整時間Ta=サブプロジェクターAに対する送受信時間の半分の時間、および同期調整時間Tb=サブプロジェクターBに対する送受信時間の半分の時間)を算出する(S98)。
次に、メインプロジェクター1は、算出した同期調整時間TaおよびTbのうちの最大同期調整時間(ここでは、同期調整時間Tb)を抽出する(S99)。そして、メインプロジェクター1は、サブプロジェクターA、Bのそれぞれにおける映像出力タイミングを調整するための同期時間情報を生成する(S100)。ここでは、サブプロジェクターAに対する同期時間情報は、「最大同期調整時間Tb−同期調整時間Ta」となる。一方、サブプロジェクターBに対する同期時間情報は、「最大同期調整時間Tb−同期調整時間Tb=0」となる。
次に、メインプロジェクター1は、処理後の映像データをキャプチャーして、映像データ一時記憶部13に一時記憶する(S101)。その後、映像データ一時記憶部13に記憶された映像データを、映像データ圧縮部21により圧縮すると共に、圧縮した映像データを映像データ一時記憶部13に記憶する(S102)。この圧縮映像データの記憶は、映像データを転送するサブプロジェクター2が2台以上の場合に行われ、この時、圧縮映像データは、S101で記憶した映像データ(未圧縮の映像データ)とは、異なる領域に記憶される。
次に、メインプロジェクター1は、各サブプロジェクターA、Bに対して映像データおよび同期時間情報を転送する(S103)。そして、メインプロジェクター1は、サブプロジェクターA、Bへ映像データおよび同期時間情報を転送した後、最大同期調整時間Tbが経過するまで自身からの映像データの出力を待機する(S104;No)。そして、最大同期調整時間Tbが経過した後(S104;Yes)、メインプロジェクター1は、映像データ一時記憶部13に記憶した映像データ(未圧縮)に基づいて、スクリーンSCに画像を投射すると共に、この画像投射と同期して、音声を出力する(S105)。
一方、サブプロジェクターA、Bは、メインプロジェクター1から映像データおよび同期時間情報を受信すると(S106;Yes,S111;Yes)、映像データ解凍部42により当該映像データを解凍すると共に(S107,S112)、映像データ処理部43により解凍した映像データに対しデータ処理を施す(S108,S113)。その後、サブプロジェクターA、Bは、それぞれの同期時間情報として取得した時間が経過するまで映像データの出力を待機し(S109;No,S114;No)、当該時間が経過した後に(S109;Yes,S114;Yes)、処理後の画像データをスクリーンSCに投射すると共に、この画像投射と同期して、処理後の音声データに基づく音声を出力する(S110,S115)。ここでは、サブプロジェクターAは、S108の処理後、「最大同期調整時間Tb−同期調整時間Ta」の時間分だけ待機した後に映像データを出力し、サブプロジェクターBは、同期時間情報は「0」であるため、S113の処理後すぐに映像データを出力する。すなわち、メインプロジェクター1およびサブプロジェクターAが、映像出力タイミングを遅らせることにより、メインプロジェクター1およびサブプロジェクターAからの映像出力は、サブプロジェクターBが映像データを受信した時に行なわれることになるため、結果として、メインプロジェクター1からの映像出力と、サブプロジェクターA、Bからの映像出力は、同期して(略同時)に実行されることになる。
また、メインプロジェクター1は、S105の処理後、予め設定された再同期調整時間が経過したか否かを判定し、経過していない場合は(S116;No)、S101以降の処理(映像データの出力にかかる処理)を繰返す。一方、再同期調整時間が経過した場合(S116;Yes)、メインプロジェクター1は、S91以降の処理、すなわち、同期調整時間および同期時間情報を再算出する処理を実行する。なお、この場合(S116;Yesの場合)、再同期調整時間のカウントはリセットされる。
以上のように、第3実施形態によれば、メインプロジェクター1が、各サブプロジェクター2に対して映像データと共に同期時間情報を送信し、各サブプロジェクター2がこの同期時間情報を考慮して映像データの出力タイミングを調整することで、全てのプロジェクター1、2の映像データ出力のタイムラグを少なくすることができる。すなわち、メインプロジェクター1が最大同期調整時間だけ映像データの出力タイミングを遅らせ、各サブプロジェクター2のそれぞれが、自身以外の全てのサブプロジェクター2が映像データを受信し終えるまでの時間(同期時間情報)だけ映像データの出力タイミングを遅らせることで、全てのプロジェクター1、2からのデータ出力が同期するように調整でき、映像データを出力する際のタイムラグを軽減することができる。また、メインプロジェクター1は、各サブプロジェクター2に対して、映像データに加えて同期時間情報を送信するだけで良いため、特に、サブプロジェクター2の台数が多い場合には、第2実施形態の方法に比べて、メインプロジェクター1の処理負荷を低減が期待できる。
なお、第1実施形態ないし第3実施形態においては、メインプロジェクター1において映像データに対して上記所定の画像処理および音声処理を行った後に、当該映像データをサブプロジェクター2に転送する構成であったが、画像処理および音声処理を行わずに映像データを転送し、各プロジェクター1、2において上記所定の画像処理および音声処理を施すものであっても良い。
また、第1実施形態ないし第3実施形態においては、サブプロジェクター2を複数有する構成としたが、サブプロジェクター2を1台だけ有する構成であっても良い。
また、第1実施形態ないし第3実施形態においては、メインプロジェクター1とサブプロジェクター2とをネットワークNWを介して接続したが、メインプロジェクター1およびサブプロジェクター2をケーブルによって直接接続する構成であっても良い。
また、第1実施形態ないし第3実施形態においては、メインプロジェクター1から一方的に映像データを転送し、メインプロジェクター1に入力された映像データを連動投射(出力)するものであったが、メインプロジェクター1にサブプロジェクター2の機能を搭載し、且つサブプロジェクター2にメインプロジェクター1の機能を搭載することで、相互に映像データを転送し、各プロジェクター1、2に入力された映像データを連動投射(出力)する構成であっても良い。
なお、メインプロジェクター1と各サブプロジェクター2の映像出力タイミングの同期を、上記の第1実施形態ないし第3実施形態以外の方法で実現することも可能である(変形例)。例えば、メインプロジェクター1から、映像データ(音声データおよび画像データ)に関連付けて出力予定時刻を、各サブプロジェクター2に送信し、両プロジェクター1、2にて出力予定時刻に合わせて、データ出力を行う構成とすることも可能である。なお、出力予定時間は、複数のサブプロジェクター2における最大のタイムラグを越える時間とする。
また、各実施形態に係るプロジェクターシステムSY1、SY2、SY3の映像出力方法(上記各実施形態で示したフローチャート)の各工程をプログラムとして提供することが可能である。また、そのプログラムを記憶媒体(図示省略)に格納して提供することも可能である。記録媒体としては、CD−ROM、フラッシュROM、メモリカード(コンパクトフラッシュ(登録商標)、スマートメディア、メモリースティック等)、コンパクトディスク、光磁気ディスク、デジタルバーサタイルディスクおよびフレキシブルディスク等を利用することができる。
また、上述した実施例によらず、プロジェクターシステムSY1、SY2、SY3の装置構成や処理工程等について、本発明の要旨を逸脱しない範囲で、適宜変更も可能である。
また、上記の実施形態では、透過型液晶表示方式を採用しているが、反射型液晶表示方式、CRT表示方式やライトスイッチ表示方式(マイクロミラーデバイス方式)など、プロジェクターPJの表示原理は問わない。その他、本発明の要旨を逸脱しない範囲で、適宜変更が可能である。
1…メインプロジェクター 2…サブプロジェクター 11…映像データ入力部 13…映像データ一時記憶部 14,44…スピーカー 15,45…ライトバルブ駆動部 16,46…ランプ駆動部 17,47…投射光学部 18…操作部 18a…モード切替スイッチ 18b…同期スイッチ 19…モード決定部 20,41…通信部 21…映像データ圧縮部 22,48…制御部 31a…アナログ音声入力部 31b…デジタル音声入力部 32a…アナログ画像入力部 32b…デジタル画像入力部 55…同期処理部 61…メイン側同期用信号送受信手段 62…送受信時間取得手段 63…同期時間算出手段 64,81…映像データ転送手段 65…メイン側映像データ出力手段 71…サブ側同期用信号送受信手段 72,91…映像データ受信手段 73,92…サブ側映像データ出力手段 SY1,SY2,SY3…プロジェクターシステム

Claims (17)

  1. 画像および/または音のデータを入力するデータ入力部と、
    入力した前記データを出力するデータ出力部と、
    前記データ出力部により出力される前の前記データをキャプチャーし、1以上の他のプロジェクターに対して転送するデータ転送部と、を備えるプロジェクターであって、
    前記データ出力部は、前記データ転送部により前記データを転送した後、前記データ入力部から入力された当該データを出力することを特徴とするプロジェクター。
  2. 入力された前記データを一時記憶する一時記憶部を、更に備え、
    前記データ出力部は、前記一時記憶部に記憶された前記データを、所定の時間だけ遅らせて出力することを特徴とする請求項1に記載にプロジェクター。
  3. 前記1以上の他のプロジェクターに対するデータ送信にかかる時間を算出するための同期用信号を送信し、送信した前記1以上の他のプロジェクターから、前記同期用信号に対する応答信号を受信する同期用信号送受信部と、
    前記1以上の他のプロジェクターに対する、前記同期用信号の送信から前記応答信号の受信までにかかる送受信時間を取得する送受信時間取得部と、
    取得した前記送受信時間に基づいて、前記1以上の他のプロジェクターからの前記データの出力を同期させるための同期調整時間を算出する同期調整時間算出部と、を更に備え、
    前記データ出力部は、
    前記同期調整時間算出部により算出した全ての前記同期調整時間のうちの最大時間を前記所定の時間として、前記一時記憶部に記憶された前記データを遅らせて出力し、
    前記データ転送部は、
    前記1以上の他のプロジェクターに対する前記データの転送に際し、前記最大時間から転送先の前記他のプロジェクターの前記同期調整時間を差し引いた時間が経過した時に、当該転送先の他のプロジェクターに対して前記データを転送することを特徴とする請求項2に記載のプロジェクター。
  4. 前記1以上の他のプロジェクターに対するデータ送信にかかる時間を算出するための同期用信号を送信し、送信した前記1以上の他のプロジェクターから、前記同期用信号に対する応答信号を受信する同期用信号送受信部と、
    前記1以上の他のプロジェクターに対する、前記同期用信号の送信から前記応答信号の受信までにかかる送受信時間を取得する送受信時間取得部と、
    取得した前記送受信時間に基づいて、前記1以上の他のプロジェクターからの前記データの出力を同期させるための同期調整時間を算出する同期調整時間算出部と、を更に備え、
    前記データ出力部は、
    前記同期調整時間算出部により算出した全ての前記同期調整時間のうちの最大時間を前記所定の時間として、前記一時記憶部に記憶された前記データを遅らせて出力し、
    前記データ転送部は、
    前記1以上の他のプロジェクターに対する前記データの転送に際し、前記データに加え、前記最大時間から転送先の前記他のプロジェクターの前記同期調整時間を差し引いた時間を同期時間情報として、当該転送先の他のプロジェクターに転送することを特徴とする請求項2に記載のプロジェクター。
  5. 前記同期調整時間算出部は、
    取得した前記送受信時間の半分の時間を、前記同期調整時間として算出することを特徴とする請求項3または4に記載のプロジェクター。
  6. 前記同期用信号送受信部は、
    前記同期用信号および前記応答信号の送受信を、所定の時間の間隔で実行し、
    前記送受信時間取得部は、
    前記同期用信号送受信部による送受信が実行される度に、前記送受信時間を取得し、
    前記同期調整時間算出部は、
    前記送受信時間を取得する度に、当該送受信時間に基づいて、前記同期調整時間を算出することを特徴とする請求項3ないし5のいずれか1項に記載のプロジェクター。
  7. 前記所定の時間の間隔を設定するタイミング設定部を、更に備え、
    前記同期用信号送受信部は、
    前記タイミング設定部にて設定した時間の間隔で、前記同期用信号および前記応答信号の送受信を実行することを特徴とする請求項6に記載のプロジェクター。
  8. 前記同期用信号および前記応答信号の送受信の実行を操作する同期操作部を、更に備え、
    前記同期用信号送受信部は、
    前記同期操作部の操作をトリガーとして、前記同期用信号および前記応答信号の送受信を実行し、
    前記送受信時間取得部は、
    前記同期操作部の操作をトリガーとした前記同期用信号送受信部による送受信が実行される度に、前記送受信時間を取得し、
    前記同期調整時間算出部は、
    前記送受信時間を取得する度に、当該送受信時間に基づいて、前記同期調整時間を算出することを特徴とする請求項3ないし7のいずれか1項に記載のプロジェクター。
  9. 前記1以上の他のプロジェクターは、前記プロジェクターからの前記データの受信に連動して、当該データを投射することを特徴とする請求項1ないし8のいずれか1項に記載にプロジェクター。
  10. 前記データ転送部によるデータの転送の要否を切り替えるための転送切替部を、更に備えたことを特徴とする請求項1ないし9のいずれか1項に記載にプロジェクター。
  11. 前記データ入力部は、前記データをアナログ信号によって入力するアナログ信号入力部と、前記データをデジタル信号によって入力するデジタル信号入力部と、を含み、
    アナログ信号によって入力されたデータを、デジタル信号に変換するデジタル変換部を、更に備えたことを特徴とする請求項1ないし10のいずれか1項に記載のプロジェクター。
  12. 前記データ転送部による前記データの転送前に、当該データを圧縮するデータ圧縮部を、更に備えたことを特徴とする請求項1ないし11のいずれか1項に記載のプロジェクター。
  13. 第1のプロジェクターと、1以上の第2のプロジェクターと、が接続されたプロジェクターシステムであって、
    前記第1のプロジェクターは、
    画像および/または音のデータを入力するデータ入力部と、
    入力した前記データを出力する第1データ出力部と、
    前記第1データ出力部により出力される前の前記データをキャプチャーし、前記1以上の第2のプロジェクターに対して転送するデータ転送部と、を備え、
    前記1以上の第2のプロジェクターは、
    前記第1のプロジェクターから転送された前記データを受信するデータ受信部と、
    前記データを受信した後、当該データを出力する第2データ出力部と、をそれぞれ備え、
    前記第1データ出力部は、前記データ転送部により前記データを転送した後、前記データ入力部から入力された当該データを出力することを特徴とするプロジェクターシステム。
  14. 前記第1のプロジェクターは、
    入力された前記データを一時記憶する一時記憶部と、
    前記1以上の第2のプロジェクターに対するデータ送信にかかる時間を算出するための同期用信号を送信し、送信した前記1以上の第2のプロジェクターから、前記同期用信号に対する応答信号を受信する同期用信号送受信部と、
    前記1以上の第2のプロジェクターに対する、前記同期用信号の送信から前記応答信号の受信までにかかる送受信時間を取得する送受信時間取得部と、
    取得した前記送受信時間に基づいて、前記1以上の第2のプロジェクターからの前記データの出力を同期させるための同期調整時間を算出する同期調整時間算出部と、を更に備え、
    前記第1データ出力部は、
    前記一時記憶部に記憶された前記データを、前記同期調整時間算出部により算出した全ての前記同期調整時間のうちの最大時間だけ遅らせて出力し、
    前記データ転送部は、
    前記1以上の第2のプロジェクターに対する前記データの転送に際し、前記最大時間から転送先の前記第2のプロジェクターの前記同期調整時間を差し引いた時間が経過した時に、当該転送先の第2のプロジェクターに対して前記データを転送することを特徴とする請求項13に記載のプロジェクターシステム。
  15. 前記第1のプロジェクターは、
    入力された前記データを一時記憶する一時記憶部と、
    前記1以上の第2のプロジェクターに対するデータ送信にかかる時間を算出するための同期用信号を送信し、送信した前記1以上の第2のプロジェクターから、前記同期用信号に対する応答信号を受信する同期用信号送受信部と、
    前記1以上の第2のプロジェクターに対する、前記同期用信号の送信から前記応答信号の受信までにかかる送受信時間を取得する送受信時間取得部と、
    取得した前記送受信時間に基づいて、前記1以上の第2のプロジェクターからの前記データの出力を同期させるための同期調整時間を算出する同期調整時間算出部と、を更に備え、
    前記第1データ出力部は、
    前記一時記憶部に記憶された前記データを、前記同期調整時間算出部により算出した全ての前記同期調整時間のうちの最大時間だけ遅らせて出力し、
    前記データ転送部は、
    前記1以上の第2のプロジェクターに対する前記データの転送に際し、前記データに加え、前記最大時間から転送先の前記第2のプロジェクターの前記同期調整時間を差し引いた時間を同期時間情報として、当該転送先の第2のプロジェクターに転送し、
    前記1以上の第2のプロジェクターの前記データ受信部は、
    前記データに加え、前記同期時間情報を受信し、
    前記第2データ出力部は、
    受信した前記同期時間情報が示す時間が経過した後、前記データを出力することを特徴とする請求項13に記載のプロジェクターシステム。
  16. 1以上の他のプロジェクターと接続可能なプロジェクターのデータ出力方法であって、
    画像および/または音のデータを入力するデータ入力工程と、
    入力した前記データを出力するデータ出力工程と、
    前記データ出力工程により出力される前の前記データをキャプチャーし、前記1以上の他のプロジェクターに対して転送するデータ転送工程と、
    入力された前記データを一時記憶部に記憶する一時記憶工程と、
    前記1以上の他のプロジェクターに対するデータ送信にかかる時間を算出するための同期用信号を送信し、送信した前記1以上の他のプロジェクターから、前記同期用信号に対する応答信号を受信する同期用信号送受信工程と、
    前記1以上の他のプロジェクターに対する、前記同期用信号の送信から前記応答信号の受信までにかかる送受信時間を取得する送受信時間取得工程と、
    取得した前記送受信時間に基づいて、前記1以上の他のプロジェクターからの前記データの出力を同期させるための同期調整時間を算出する同期調整時間算出工程と、を実行し、
    前記データ出力工程では、
    前記一時記憶部に記憶された前記データを、前記同期調整時間算出工程により算出した全ての前記同期調整時間のうちの最大時間だけ遅らせて出力し、
    前記データ転送工程は、
    前記1以上の他のプロジェクターに対する前記データの転送に際し、前記最大時間から転送先の前記他のプロジェクターの前記同期調整時間を差し引いた時間が経過した時に、当該転送先の他のプロジェクターに対して前記データを転送することを特徴とするプロジェクターのデータ出力方法。
  17. 第1のプロジェクターと、前記第1のプロジェクターに接続された1以上の第2のプロジェクターとを用いたプロジェクターシステムのデータ出力方法であって、
    前記第1のプロジェクターは、
    画像および/または音のデータを入力するデータ入力工程と、
    入力した前記データを出力する第1データ出力工程と、
    前記第1データ出力工程により出力される前の前記データをキャプチャーし、前記1以上の第2のプロジェクターに対して転送するデータ転送工程と、を実行し、
    前記1以上の第2のプロジェクターは、
    前記第1のプロジェクターから転送された前記データを受信するデータ受信工程と、
    前記データ受信工程の後、前記データを出力する第2データ出力工程と、をそれぞれ実行し、
    前記第1のデータ出力工程では、前記データ転送工程により前記データを転送した後、前記データ入力工程によって入力された当該データを出力することを特徴とするプロジェクターシステムのデータ出力方法。
JP2011003729A 2010-03-26 2011-01-12 プロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法 Withdrawn JP2012147225A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011003729A JP2012147225A (ja) 2011-01-12 2011-01-12 プロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法
US13/069,985 US8963802B2 (en) 2010-03-26 2011-03-23 Projector, projector system, data output method of projector, and data output method of projector system
CN201110080047.XA CN102202201B (zh) 2010-03-26 2011-03-25 投影仪及其数据输出方法和投影仪系统及其数据输出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011003729A JP2012147225A (ja) 2011-01-12 2011-01-12 プロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法

Publications (2)

Publication Number Publication Date
JP2012147225A true JP2012147225A (ja) 2012-08-02
JP2012147225A5 JP2012147225A5 (ja) 2014-01-09

Family

ID=46790344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011003729A Withdrawn JP2012147225A (ja) 2010-03-26 2011-01-12 プロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法

Country Status (1)

Country Link
JP (1) JP2012147225A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014107826A (ja) * 2012-11-29 2014-06-09 Seiko Epson Corp 書画カメラ、映像音声出力システムおよび映像音声出力方法
JP2019028208A (ja) * 2017-07-28 2019-02-21 セイコーエプソン株式会社 プロジェクター、プロジェクターの制御方法および表示システム
JP2019211645A (ja) * 2018-06-05 2019-12-12 キヤノン株式会社 画像投射装置およびその制御方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11103319A (ja) * 1997-09-29 1999-04-13 Matsushita Electric Ind Co Ltd ネットワーク送受信装置および方法
JP2001356972A (ja) * 2000-06-15 2001-12-26 Fast Net Kk ネットワーク監視システム及びネットワーク監視方法
US20030126326A1 (en) * 2001-12-25 2003-07-03 Seiko Epson Corporation Projector control system and control method
JP2006003903A (ja) * 2005-06-17 2006-01-05 Seiko Epson Corp プロジェクタの制御システム及び制御方法、プロジェクタ並びにプロジェクタの制御装置
JP2007072130A (ja) * 2005-09-06 2007-03-22 Seiko Epson Corp 画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体
JP2010015032A (ja) * 2008-07-04 2010-01-21 Seiko Epson Corp プロジェクタ及びその制御方法並びに画像投射表示システム
WO2010023828A1 (ja) * 2008-08-29 2010-03-04 株式会社ソニー・コンピュータエンタテインメント 情報処理システムおよび情報処理装置
JP2011099881A (ja) * 2009-11-03 2011-05-19 Seiko Epson Corp 表示制御方法、表示制御プログラム及び表示装置
JP2011205523A (ja) * 2010-03-26 2011-10-13 Seiko Epson Corp プロジェクター、プロジェクターシステムおよびデータ出力方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11103319A (ja) * 1997-09-29 1999-04-13 Matsushita Electric Ind Co Ltd ネットワーク送受信装置および方法
JP2001356972A (ja) * 2000-06-15 2001-12-26 Fast Net Kk ネットワーク監視システム及びネットワーク監視方法
US20030126326A1 (en) * 2001-12-25 2003-07-03 Seiko Epson Corporation Projector control system and control method
JP2003198994A (ja) * 2001-12-25 2003-07-11 Seiko Epson Corp プロジェクタの制御システム及び制御方法
JP2006003903A (ja) * 2005-06-17 2006-01-05 Seiko Epson Corp プロジェクタの制御システム及び制御方法、プロジェクタ並びにプロジェクタの制御装置
JP2007072130A (ja) * 2005-09-06 2007-03-22 Seiko Epson Corp 画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体
JP2010015032A (ja) * 2008-07-04 2010-01-21 Seiko Epson Corp プロジェクタ及びその制御方法並びに画像投射表示システム
WO2010023828A1 (ja) * 2008-08-29 2010-03-04 株式会社ソニー・コンピュータエンタテインメント 情報処理システムおよび情報処理装置
JP2011099881A (ja) * 2009-11-03 2011-05-19 Seiko Epson Corp 表示制御方法、表示制御プログラム及び表示装置
JP2011205523A (ja) * 2010-03-26 2011-10-13 Seiko Epson Corp プロジェクター、プロジェクターシステムおよびデータ出力方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014107826A (ja) * 2012-11-29 2014-06-09 Seiko Epson Corp 書画カメラ、映像音声出力システムおよび映像音声出力方法
JP2019028208A (ja) * 2017-07-28 2019-02-21 セイコーエプソン株式会社 プロジェクター、プロジェクターの制御方法および表示システム
JP2019211645A (ja) * 2018-06-05 2019-12-12 キヤノン株式会社 画像投射装置およびその制御方法
JP7150488B2 (ja) 2018-06-05 2022-10-11 キヤノン株式会社 画像投射装置およびその制御方法

Similar Documents

Publication Publication Date Title
US8963802B2 (en) Projector, projector system, data output method of projector, and data output method of projector system
JP2018050144A (ja) プロジェクションシステム、制御装置、及びプロジェクションシステムの制御方法
JP6172610B2 (ja) テレビ会議用システム
TWI509342B (zh) Image signal supply device, image display device, control method of image signal supply device, and image display system
JP2017129770A (ja) 投影装置及び投影方法
US10303419B2 (en) Information processing system, display processing apparatus, display processing method, and recording medium
US10261404B2 (en) Display device and control method
JP2008051848A (ja) 表示装置、マルチディスプレイシステム、同期制御方法、同期制御プログラム、および記録媒体
US8775516B2 (en) Projector system and connection establishment method
JP2012147225A (ja) プロジェクター、プロジェクターシステム、プロジェクターのデータ出力方法およびプロジェクターシステムのデータ出力方法
JP2016180942A (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2017085446A (ja) 投影装置、投影方法及び投影システム
JP2017129704A (ja) 表示装置、プロジェクター、及び、表示装置の制御方法
JP6545034B2 (ja) 表示装置、表示方法及び表示システム
JP6700942B2 (ja) 投影型表示装置及びその制御方法
JP2011205523A (ja) プロジェクター、プロジェクターシステムおよびデータ出力方法
JP2019186628A (ja) 表示装置の制御装置、制御方法、表示システムおよびプログラム
US10623684B2 (en) Display device, and method of controlling display device
JP6251871B2 (ja) 投写型映像表示装置
US11657777B2 (en) Control method for display device and display device
JP6598633B2 (ja) 投影装置、及び投影装置の制御方法
JP2011186364A (ja) 画像表示システムおよび画像表示装置並びに画像表示方法
JP2019036055A (ja) 被制御装置およびその制御方法、プログラム並びに記憶媒体
JP2019146047A (ja) 表示装置及びプログラム
JP2021087203A (ja) 表示装置、およびプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20141014