JP2020190619A - 表示システムの制御方法、及び表示システム - Google Patents
表示システムの制御方法、及び表示システム Download PDFInfo
- Publication number
- JP2020190619A JP2020190619A JP2019095429A JP2019095429A JP2020190619A JP 2020190619 A JP2020190619 A JP 2020190619A JP 2019095429 A JP2019095429 A JP 2019095429A JP 2019095429 A JP2019095429 A JP 2019095429A JP 2020190619 A JP2020190619 A JP 2020190619A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projector
- display device
- display
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0386—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3147—Multi-projection systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/10—Projectors with built-in or built-on screen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2358/00—Arrangements for display data security
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
また、そのようなインタラクティブ機能を有するプロジェクターによって描かれた文字や図形等の情報を、ネットワーク経由で遠隔地に設けられた他のプロジェクターと共有する双方向のインタラクティブ技術が知られている(例えば、特許文献1参照)。
特許文献1に記載の画像投影システムでは、プロジェクターは、専用ペンによって入力されたペン描画情報を、ネットワーク経由で接続された他のプロジェクターへ送信する。また、他のプロジェクターは、受け取ったペン描画情報に基づいて、遠隔地でのペンによる描画状態を自身のデバイスへ反映する。
特許文献1に記載の画像投影システムでは、複数のプロジェクター間で共有されたペン描画情報に基づいて、各プロジェクターがペンにより入力された文字や図形等を描画する。また、ペン描画機能を有さないプロジェクター(いわゆる、非インタラクティブプロジェクター)は、ペン入力による文字や図形等の情報を画面に表示できない。そこで、ペン描画機能を有さないプロジェクターは、ペン描画機能を有するプロジェクター(いわゆる、インタラクティブプロジェクター)においてペンにより入力された文字や図形等の情報を共有できないという課題があった。
[1.表示システムの構成]
[1−1.表示システムの全体構成]
図1は、本実施形態に係る表示システム1の全体構成の一例を示す図である。
表示システム1は、第1プロジェクター100と、第2プロジェクター200と、第3プロジェクター300とを備える。
本実施形態では、ネットワークNWがインターネットであるが、本発明の実施形態はこれに限定されない。ネットワークNWがLAN(Local Area Network)でもよいし、ネットワークNWがWAN(Wide Area Network)でもよい。
第2プロジェクター200は、ネットワークNWを介して、第4プロジェクター400と互いに通信可能に接続される。
第3プロジェクター300は、ネットワークNWを介して、第5プロジェクター500と互いに通信可能に接続される。
なお、スクリーンSC1は、「第2表示面」の一例に対応し、スクリーンSC2は、「第1表示面」の一例に対応する。
図2は、第1プロジェクター100、指示体3A、及びスクリーンSC1の一例を示す斜視図である。
第1プロジェクター100〜第5プロジェクター500の各々は、略同一の構成を有するため、以下の説明では、図2及び図3を参照して、第1プロジェクター100の構成について説明し、第2プロジェクター200〜第5プロジェクター500の構成については説明を省略する。
指示体3Aは、「第2指示体」の一例に対応する。また、指示体3Bは、「第1指示体」の一例に対応する。以下の説明では、指示体3Aと指示体3Bとを指示体3と総称する場合がある。
指示体3Aは、本実施形態では、ユーザーが手に持って使用するペン型の指示体であって、発光可能な先端部31と、ユーザーが把持する軸部33とを有する。先端部31には近赤外光を発光するLED(Light Emitting Diode)等の光源が搭載されている。指示体3Aは、先端部31のスクリーンSC1への接触を検出し、先端部31において所定の発光間隔で光源が発光する。
また、スクリーンSC1は、壁に固定され、又は床面に立設された平板又は幕である。
本実施形態では、「第1表示面」及び「第2表示面」を含む表示面が、スクリーンSCであるが、表示面は、スクリーンSCに限定されず、例えば、壁面自体をスクリーンとして使用することも可能である。
図3は、指示体3A及び第1プロジェクター100の構成を示すブロック図である。
まず、指示体3Aの構成について説明する。指示体3Aは、信号光送受信部35、操作スイッチ36、制御部37及び電源部38を備える。これらの各部は、軸部33内に収容される。
また、指示体3Aは、ユーザーが棒状の軸部33を手に把持して、先端部31がスクリーンSC1に接触する状態で使用される。指示体3Aの先端部31が壁やスクリーンSC1等に接触すると、操作スイッチ36がオン状態になる。
換言すれば、信号光送受信部35は、操作スイッチ36がオンの場合には、操作スイッチ36がオフの場合における光源の点灯パターンと相違する点灯パターンで、光源を点灯させる。
第1プロジェクター100は、指示体3Aが発する赤外線信号である指示体信号光PSLに基づき、先端部31の位置を検出する。また、第1プロジェクター100は、指示体3Aが発する指示体信号光PSLの点灯パターンに基づき、操作スイッチ36がオンしているか否かを判定する。
第1プロジェクター100は、操作部、画像投射系、画像処理系及び第1制御部150を主要な構成として備える。画像投射系は、画像処理系によって処理された画像データに基づいて、画像光PLを生成する。画像光PLは、画像データの示す画像に対応する。
また、画像投射系は、生成した画像光PLをスクリーンSC1に投射する。画像処理系は、画像データを処理する。
リモコン受光部101は、リモコン7から送信される赤外線信号を受光する。リモコン受光部101は、受光した赤外線信号に対応する操作信号を生成し、生成した操作信号を第1制御部150に対して出力する。操作信号は、ユーザーによって操作されたリモコン7のスイッチに対応する信号である。
撮像部105は、第1制御部150の制御に従って、一定の時間間隔ごとにスクリーンSC1を含む範囲を撮像して撮像データを生成する。撮像部105は、生成した撮像データを第1制御部150に出力する。第1制御部150は、撮像部105から入力される撮像データを後述するメモリー160に一時的に記憶させる。
第1プロジェクター100は、画像処理系として、入出力インターフェイス131、無線通信部133、画像処理部135、フレームメモリー137及びキャプチャーメモリー139を備える。
また、複数のインターフェイスは、VGA(Video Graphics Array)や、D端子、S端子等のアナログインターフェイスであってもよい。また、複数のインターフェイスは、USB(Universal Serial Bus)やEthernet(登録商標)、IEEE1394等の通信インターフェイスであってもよい。
また、インターフェイス回路は、取り出した同期信号を第1制御部150に出力する。画像処理部135は、入力された同期信号に同期して画像データの1フレームを処理する。第1制御部150は、入力された同期信号に同期して第1プロジェクター100の各部を制御する。1フレームとは、1画面分の画像が表示される期間を示す。また、画像データの1フレームとは、同期信号に含まれる垂直同期信号により規定される垂直走査期間に表示される画像データに対応する。
無線通信部133は、アンテナで受信した電波からパケットデータを復調し、復調したパケットデータから画像データや同期信号を取り出す。無線通信部133は、取り出した画像データ及び同期信号を画像処理部135に出力し、同期信号を第1制御部150に出力する。
例えば、フレームメモリー137は、入出力インターフェイス131が備える複数のインターフェイスと、無線通信部133とに対応して複数のバンクを備える。画像処理部135は、複数のインターフェイスや無線通信部133から入力される画像データをフレームメモリー137の複数のバンクのいずれかに記憶させる。
第1制御部150は、機能ブロックとして、第1位置検出部171、第1送受信部173及び第1表示制御部175を備える。これらの機能ブロックは、プロセッサー170が制御プログラム165を実行することによって実現される機能を示す。
具体的には、第1位置検出部171は、信号光送信部103に、装置信号光ASLを一定間隔で送信させる。また、第1位置検出部171は、装置信号光ASLの送信タイミングに同期して、撮像部105に撮像を実行させる。撮像部105は、スクリーンSC1を含む範囲を撮像して撮像データを生成し、生成した撮像データを第1制御部150に出力する。撮像データは、メモリー160に一時的に記憶される。
具体的には、第1表示制御部175は、画像データを生成し、生成した画像データの画像処理を画像処理部135に実行させる。また、第1表示制御部175は、駆動部120を制御して表示部110に画像光PLを生成させ、生成させた画像光PLをスクリーンSC1に投射させる。
第1表示制御部175については、図4を参照して詳細に説明する。
図4は、第1制御部150、第2制御部250、及び第3制御部350の構成の一例を示すブロック図である。
図3を参照して説明したように、第1プロジェクター100の第1制御部150は、第1位置検出部171、第1送受信部173及び第1表示制御部175を備える。
なお、第1プロジェクター100は、指示体3Aからの入力を受け付けて描画画像を生成する場合と、指示体3Aからの入力を受け付けない場合とがある。前者の場合には、第1位置検出部171は不要であるため、図4では、第1位置検出部171を破線で示している。
第2プロジェクター200は、指示体3Bからの入力に基づき、文字、図形等の描画画像を生成する。また、第2プロジェクター200は、スクリーンSC2に画像を表示する。
第3プロジェクター300は、スクリーンSC3に画像を表示する。
なお、図2を参照して説明したように、第3プロジェクター300は、第3制御部350に指示体3の指示位置を検出する位置検出部を備えておらず、ペン描画機能を有しない非インタラクティブのプロジェクターである。
まず、第1プロジェクター100が指示体3Aからの入力を受け付けない場合の第1制御部150、第2制御部250、及び第3制御部350の各々の機能について説明する。
第2位置検出部271は、指示体3Bの指示位置を検出し、指示体3Bの指示位置の軌跡を示す第1情報J1を生成する。第2送受信部273は、第1情報J1を第1プロジェクター100に送信する。
次に、第1プロジェクター100が指示体3Aからの入力を受け付ける場合の第1制御部150、第2制御部250、及び第3制御部350の各々の機能について説明する。
また、第1位置検出部171は、指示体3Aの指示位置を検出し、指示体3Aの指示位置の軌跡を示す第2情報J2を生成する。第1制御部150は、第2情報J2に基づいて第3描画オブジェクトBJ3を生成する。
第2位置検出部271は、指示体3Bの指示位置を検出し、指示体3Bの指示位置の軌跡を示す第1情報J1を生成する。第2送受信部273は、第1情報J1を第1プロジェクター100に送信する。
本実施形態では、第1プロジェクター100がサーバー装置に設定され、第2プロジェクター200及び第3プロジェクター300の各々がクライアント装置に設定されている。
すなわち、第1プロジェクター100は、サーバー機能を実行する。具体的には、第1プロジェクター100は、第2プロジェクター200及び第3プロジェクター300に対して、第1プロジェクター100が生成した第1画像情報PJ1及び第2画像情報PJ2等の画像情報を送信する。
具体的には、第2プロジェクター200の第2制御部250は、サーバー機能を実行するメニューの表示が禁止されることによって、ユーザーがサーバー機能を実行するメニューを選択することができなくなり、第4プロジェクター400に対する第1画像情報PJ1及び第2画像情報PJ2の送信が禁止される。
具体的には、第3プロジェクター300の第3制御部350は、サーバー機能を実行するメニューの表示が禁止されることによって、ユーザーがサーバー機能を実行するメニューを選択することができなくなり、第5プロジェクター500に対する第1画像情報PJ1及び第2画像情報PJ2の送信が禁止される。
サーバー機能は、例えば、第1画像情報PJ1及び第2画像情報PJ2等のサーバー装置が有する情報を、クライアント装置に対して送信する機能を含む。
図5〜図7の各々は、第1制御部150、第2制御部250及び第3制御部350の各々の動作の一例を示す画像図である。なお、図5〜図7では、第1プロジェクターが指示体3Aからの入力を受け付ける場合について説明する。
図5に示すように、第1制御部150は、外部装置180から画像信号を受信し、第1画像情報PJ1を生成する。第1送受信部173は、第1画像情報PJ1を、第2プロジェクター200及び第3プロジェクター300に送信する。また、第1表示制御部175は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC1に表示する。
第3制御部350の第3送受信部373は、第1プロジェクター100から第1画像情報PJ1を受信する。そして、第3表示制御部375は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC3に表示する。
また、第2制御部250は、第1情報J1に基づいて第2描画オブジェクトBJ2を生成し、第2描画オブジェクトBJ2と第1画像P1とを重畳することによって第3画像情報PJ3を生成する。第2表示制御部275は、第3画像情報PJ3に対応する第3画像P3をスクリーンSC2に表示する。第2描画オブジェクトBJ2は、第1画像P1のペンギン画像PE2を囲む長円形状を示す。
図8は、第1プロジェクター100のアスペクト比と第2プロジェクター200のアスペクト比とが相違する場合の第2位置検出部271の動作の一例を示す画像図である。
図8の左上図は、第1プロジェクター100が、第1画像P1をスクリーンSC1に表示した状態を示す。ここでは、第1プロジェクター100のアスペクト比は、16:6である。すなわち、第1プロジェクター100の投射領域10のアスペクト比は、16:6である。これに対して第1画像P1のアスペクト比は、16:9である。
投射領域10は、第1画像P1と非表示領域AR1とを含む。非表示領域AR1は、投射領域10のうち、画像光PLが投射されない領域を示す。
また、スクリーンSC1は、投射領域10と非投射領域AR3とを含む。非投射領域AR3は、投射領域10の外側の領域を示す。
ここでは、第2プロジェクター200のアスペクト比は、4:3である。投射領域20は、第2プロジェクター200が画像光PLを投射可能なスクリーンSC2の範囲を示す。投射領域20は、第1画像P1と、非表示領域AR1と、非表示領域AR2とを含む。非表示領域AR2は、投射領域20のうち、画像光PLが投射されない領域を示す。
また、スクリーンSC2は、投射領域20と非投射領域AR4とを含む。非投射領域AR4は、投射領域20の外側の領域を示す。
オブジェクトBJAのうち、非表示領域AR2に含まれるオブジェクトBJXに対応する指示体3Bの指示位置を示す情報は、第2位置検出部271によって検出されない。
同様に、非表示領域AR1に含まれるオブジェクトに対応する指示体3Bの指示位置を示す情報は、第2位置検出部271によって検出されない。
すなわち、第2位置検出部271は、スクリーンSC2における第1画像P1の表示領域に対する指示体3Bの指示位置の軌跡を検出し、第1情報J1を生成する。
次に、図9及び図10を参照して、第1制御部150、第2制御部250及び第3制御部350の処理について説明する。
図9は、第1プロジェクター100が指示体3Aからの入力を受け付けない場合の第1制御部150、第2制御部250、及び第3制御部350の各々の処理を示す。
まず、ステップSA101において、第1制御部150は、外部装置180から画像信号を受信し、第1画像情報PJ1を生成し、第1送受信部173は、第1画像情報PJ1を、第2プロジェクター200及び第3プロジェクター300の各々に送信する。
次に、ステップSA103において、第1表示制御部175は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC1に表示する。
次に、ステップSA105において、第1送受信部173は、第1情報J1を第2プロジェクター200から受信する。
次に、ステップSA107において、第1制御部150は、第1情報J1に基づいて第1描画オブジェクトBJ1を生成する。
次に、ステップSA109において、第1制御部150は、第1描画オブジェクトBJ1と第1画像P1とを重畳することによって第2画像情報PJ2を生成し、第1送受信部173は、第2画像情報PJ2を第2プロジェクター200及び第3プロジェクター300の各々に送信する。
次に、ステップSA111において、第1表示制御部175は、第2画像情報PJ2に対応する第2画像P2をスクリーンSC1に表示し、処理が終了する。
まず、ステップSA201において、第2送受信部273は、第1画像情報PJ1を第1プロジェクター100から受信する。
次に、ステップSA203において、第2表示制御部275は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC2に表示する。
次に、ステップSA205において、第2位置検出部271は、指示体3B(第1指示体)の指示位置を検出し、指示体3Bの指示位置の軌跡を示す第1情報J1を生成する。
次に、ステップSA207において、第2送受信部273は、第1情報J1を第1プロジェクター100に送信する。
次に、ステップSA209において、第2制御部250は、第1情報J1に基づいて第2描画オブジェクトBJ2を生成し、第2描画オブジェクトBJ2と第1画像P1とを重畳することによって第3画像情報PJ3を生成する。そして、第2表示制御部275は、第3画像情報PJ3に対応する第3画像P3をスクリーンSC2に表示する。
次に、ステップSA211において、第2送受信部273は、第2画像情報PJ2を第1プロジェクター100から受信する。
次に、ステップSA213において、第2表示制御部275は、第3画像P3の表示を終了した後に、第2画像情報PJ2に対応する第2画像P2をスクリーンSC2に表示し、処理が終了する。
まず、ステップSA301において、第3送受信部373は、第1画像情報PJ1を第1プロジェクター100から受信する。
次に、ステップSA303において、第3表示制御部375は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC3に表示する。
次に、ステップSA305において、第3送受信部373は、第2画像情報PJ2を第1プロジェクター100から受信する。
次に、ステップSA307において、第3表示制御部375は、第2画像情報PJ2に対応する第2画像P2をスクリーンSC3に表示し、処理が終了する。
更に、第2表示制御部275が、所定時間が経過した場合に、第3画像P3のスクリーンSC2への表示を終了し、第1画像P1を再度スクリーンSC2に表示してもよい。
まず、ステップSB101において、第1制御部150は、外部装置180から画像信号を受信し、第1画像情報PJ1を生成し、第1送受信部173は、第1画像情報PJ1を、第2プロジェクター200及び第3プロジェクター300の各々に送信する。
次に、ステップSB103において、第1表示制御部175は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC1に表示する。
次に、ステップSB105において、第1位置検出部171は、指示体3A(第2指示体)の指示位置を検出し、指示体3Aの指示位置の軌跡を示す第2情報J2を生成する。
次に、ステップSB107において、第1制御部150は、第2情報J2に基づいて第3描画オブジェクトBJ3を生成する。そして、第1制御部150は、第3描画オブジェクトBJ3と第1画像P1とを重畳することによって第5画像情報PJ5を生成し、第1表示制御部175は、第1画像P1に換えて第5画像情報PJ5に対応する第5画像P5をスクリーンSC1に表示する。
次に、ステップSB109において、第1送受信部173は、第1情報J1を第2プロジェクター200から受信する。
次に、ステップSB111において、第1制御部150は、第1情報J1に基づいて第1描画オブジェクトBJ1を生成する。
次に、ステップSB113において、第1制御部150は、第1描画オブジェクトBJ1と、第3描画オブジェクトBJ3と、第1画像P1とを重畳することによって第4画像情報PJ4を生成する。そして、第1送受信部173は、第4画像情報PJ4を第2プロジェクター200及び第3プロジェクター300の各々に送信する。
次に、ステップSB115において、第1表示制御部175は、第5画像P5に換えて第4画像情報PJ4に対応する第4画像P4をスクリーンSC1に表示し、処理が終了する。
まず、ステップSB201において、第2送受信部273は、第1画像情報PJ1を第1プロジェクター100から受信する。
次に、ステップSB203において、第2表示制御部275は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC2に表示する。
次に、ステップSB205において、第2位置検出部271は、指示体3B(第1指示体)の指示位置を検出し、指示体3Bの指示位置の軌跡を示す第1情報J1を生成する。
次に、ステップSB207において、第2送受信部273は、第1情報J1を第1プロジェクター100に送信する。
次に、ステップSB209において、第2制御部250は、第1情報J1に基づいて第2描画オブジェクトBJ2を生成し、第2描画オブジェクトBJ2と第1画像P1とを重畳することによって第3画像情報PJ3を生成する。そして、第2表示制御部275は、第3画像情報PJ3に対応する第3画像P3をスクリーンSC2に表示する。
次に、ステップSB211において、第2送受信部273は、第4画像情報PJ4を第1プロジェクター100から受信する。
次に、ステップSB213において、第2表示制御部275は、第3画像P3の表示を終了し、第4画像情報PJ4に対応する第4画像P4をスクリーンSC2に表示し、処理が終了する。
まず、ステップSB301において、第3送受信部373は、第1画像情報PJ1を第1プロジェクター100から受信する。
次に、ステップSB303において、第3表示制御部375は、第1画像情報PJ1に対応する第1画像P1をスクリーンSC3に表示する。
次に、ステップSB305において、第3送受信部373は、第4画像情報PJ4を第1プロジェクター100から受信する。
次に、ステップSB307において、第3表示制御部375は、第4画像情報PJ4に対応する第4画像P4をスクリーンSC3に表示し、処理が終了する。
更に、第2表示制御部275が、所定時間が経過した場合に、第3画像P3のスクリーンSC2への表示を終了し、第1画像P1を再度スクリーンSC2に表示してもよい。
本実施形態に係る表示システム1の制御方法は、互いに通信可能に接続された第1プロジェクター100、第2プロジェクター200及び第3プロジェクター300を備える表示システム1の制御方法であって、第1プロジェクター100は、第1画像情報PJ1を第2プロジェクター200及び第3プロジェクター300の各々に送信し、第2プロジェクター200は、第1画像情報PJ1に基づき第1画像P1をスクリーンSC2に表示し、第2プロジェクター200は、スクリーンSC2に対する指示体3Bの位置を検出し、第2プロジェクター200は、指示体3Bの位置を示す第1情報J1を第1プロジェクター100に送信し、第1プロジェクター100は、第1情報J1に基づいて第1描画オブジェクトBJ1を生成し、第1描画オブジェクトBJ1を含む第2画像情報PJ2を第2プロジェクター200及び第3プロジェクター300の各々に送信し、第2プロジェクター200及び第3プロジェクター300の各々は、第2画像情報PJ2に基づき、第2画像P2を表示する。
このように、第2プロジェクター200が、指示体3Bの位置を示す第1情報J1を第1プロジェクター100に送信する。また、第1プロジェクター100が、第1情報J1に基づいて第1描画オブジェクトBJ1を生成し、第1描画オブジェクトBJ1を含む第2画像情報PJ2を第2プロジェクター200及び第3プロジェクター300の各々に送信する。したがって、第3プロジェクター300のようにペン描画機能を有さないプロジェクターであっても、ペンにより入力された文字や図形等の情報を共有できる。
よって、第1画像情報PJ1及び第2画像情報PJ2の少なくとも一方が第4プロジェクター400及び第5プロジェクター500の少なくとも一方に送信されることを抑制できる。したがって、第1画像情報PJ1及び第2画像情報PJ2に機密情報等が含まれている場合に、機密情報等の漏洩を抑制できる。
したがって、簡素な構成で、第1画像情報PJ1及び第2画像情報PJ2の少なくとも一方が第4プロジェクター400及び第5プロジェクター500の少なくとも一方に送信されることを抑制できる。
第2描画オブジェクトBJ2は、指示体3BによってスクリーンSC2上に描かれた文字や図形等の情報に対応する。よって、第2プロジェクター200が第2画像情報PJ2を受信する前に、第2描画オブジェクトBJ2をスクリーンSC2に表示できる。したがって、ユーザーの違和感を軽減できる。
したがって、第3画像P3をスクリーンSC2に表示することを開始してから所定時間が経過した場合に、第3画像P3のスクリーンSC2への表示を終了するため、所定時間を適正な時間に設定することによって、ユーザーの利便性を向上できる。
よって、第1プロジェクター100から第2画像情報PJ2を受信した場合に、第3画像P3のスクリーンSC2への表示を終了するため、第3画像P3に換えて第2画像P2をスクリーンSC2に表示できる。したがって、ユーザーの違和感を軽減できる。
よって、スクリーンSC2における第1画像P1の表示領域に対する指示体3Bの位置を検出するため、指示体3Bの位置を適正に検出できる。したがって、ユーザーの所望するオブジェクトをスクリーンSC2に表示できる。
よって、第1画像P1に第1描画オブジェクトBJ1を重畳して第2画像情報PJ2を生成するため、第2画像P2として適正な画像が生成される。したがって、ユーザーの所望する画像を表示できる。
よって、第4画像情報PJ4が第1描画オブジェクトBJ1及び第3描画オブジェクトBJ3を含むため、第1描画オブジェクトBJ1及び第3描画オブジェクトBJ3がスクリーンSC2及びスクリーンSC3の各々に表示される。また、第1描画オブジェクトBJ1は、スクリーンSC2に描画された文字や図形等の情報に対応し、第3描画オブジェクトBJ3は、スクリーンSC1に描画された文字や図形等の情報に対応する。したがって、ユーザーの利便性を向上できる。
よって、第1画像P1に第1描画オブジェクトBJ1及び第3描画オブジェクトBJ3を重畳して第4画像情報PJ4を生成するため、第4画像P4として適正な画像が生成される。したがって、ユーザーの所望する画像を表示できる。
このように、第2プロジェクター200が、指示体3Bの位置を示す第1情報J1を第1プロジェクター100に送信する。また、第1プロジェクター100が、第1情報J1に基づいて第1描画オブジェクトBJ1を生成し、第1描画オブジェクトBJ1を含む第2画像情報PJ2を第2プロジェクター200及び第3プロジェクター300の各々に送信する。したがって、第3プロジェクター300のようにペン描画機能を有さないプロジェクターであっても、ペンにより入力された文字や図形等の情報を共有できる。
上述した実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、異なる態様として本発明を適用することも可能である。
例えば、上記実施形態では、「表示装置」の一例として「プロジェクター」を示したが、本発明の第1表示装置〜第3表示装置等の「表示装置」は、液晶ディスプレイであってもよい。また、プラズマディスプレイパネルや有機ELパネル等を備えた表示装置であってもよい。
Claims (11)
- 互いに通信可能に接続された第1表示装置、第2表示装置、及び第3表示装置を備える表示システムの制御方法であって、
前記第1表示装置は、第1画像情報を前記第2表示装置及び第3表示装置の各々に送信し、
前記第2表示装置は、前記第1画像情報に基づき第1画像を第1表示面に表示し、
前記第2表示装置は、前記第1表示面に対する第1指示体の位置を検出し、
前記第2表示装置は、前記第1指示体の位置を示す第1情報を前記第1表示装置に送信し、
前記第1表示装置は、前記第1情報に基づいて第1描画オブジェクトを生成し、前記第1描画オブジェクトを含む第2画像情報を前記第2表示装置及び前記第3表示装置の各々に送信し、
前記第2表示装置及び前記第3表示装置の各々は、前記第2画像情報に基づき、第2画像を表示する、表示システムの制御方法。 - 前記第2表示装置は、前記第2表示装置と通信可能に接続された第4表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止され、
前記第3表示装置は、前記第3表示装置と通信可能に接続された第5表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止される、請求項1に記載の表示システムの制御方法。 - 前記第2表示装置は、サーバー機能を実行するメニューの表示が禁止されることによって、前記第4表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止され、
前記第3表示装置は、前記メニューの表示が禁止されることによって、前記第5表示装置に対する前記第1画像情報及び前記第2画像情報の送信が禁止される、請求項2に記載の表示システムの制御方法。 - 前記第2表示装置は、前記第1情報に基づいて第2描画オブジェクトを生成し、前記第2描画オブジェクトを含む第3画像を前記第1表示面に表示する、請求項1から3のいずれか1項に記載の表示システムの制御方法。
- 前記第2表示装置は、前記第3画像を前記第1表示面に表示することを開始してから所定時間が経過した場合に、前記第3画像の前記第1表示面への表示を終了する、請求項4に記載の表示システムの制御方法。
- 前記第2表示装置は、前記第1表示装置から前記第2画像情報を受信した場合に、前記第3画像の前記第1表示面への表示を終了する、請求項4に記載の表示システムの制御方法。
- 前記第2表示装置は、前記第1表示面における前記第1画像の表示領域に対する前記第1指示体の位置を検出する、請求項1から6のいずれか1項に記載の表示システムの制御方法。
- 前記第1表示装置は、前記第1画像に前記第1描画オブジェクトを重畳して前記第2画像情報を生成する、請求項1から7のいずれか1項に記載の表示システムの制御方法。
- 前記第1表示装置は、前記第1画像を第2表示面に表示し、前記第2表示面に対する第2指示体の位置を検出し、前記第2指示体の位置に基づいて第3描画オブジェクトを生成し、前記第1描画オブジェクト及び前記第3描画オブジェクトを含む第4画像情報を前記第2表示装置及び前記第3表示装置の各々に送信し、
前記第2表示装置及び前記第3表示装置の各々は、前記第4画像情報に基づき、第4画像を表示する、請求項1から8のいずれか1項に記載の表示システムの制御方法。 - 前記第1表示装置は、前記第1画像に前記第1描画オブジェクト及び前記第3描画オブジェクトを重畳して前記第4画像情報を生成する、請求項9に記載の表示システムの制御方法。
- 互いに通信可能に接続された第1表示装置、第2表示装置、及び第3表示装置を備える表示システムであって、
前記第1表示装置は、第1画像情報を前記第2表示装置及び第3表示装置の各々に送信する第1送信部を備え、
前記第2表示装置は、
前記第1画像情報に基づき第1画像を第1表示面に表示する表示制御部と、
前記第1表示面に対する指示体の位置を検出する位置検出部と、
前記指示体の位置を示す第1情報を前記第1表示装置に送信する第2送信部と、
を備え、
前記第1表示装置は、前記第1情報に基づいて描画オブジェクトを生成し、
前記第1送信部は、前記描画オブジェクトを含む第2画像情報を前記第2表示装置及び前記第3表示装置の各々に送信し、
前記第2表示装置及び前記第3表示装置の各々は、前記第2画像情報に基づき、第2画像を表示する、表示システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019095429A JP7238594B2 (ja) | 2019-05-21 | 2019-05-21 | 表示システムの制御方法、及び表示システム |
US16/878,750 US11360575B2 (en) | 2019-05-21 | 2020-05-20 | Control method for display system and display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019095429A JP7238594B2 (ja) | 2019-05-21 | 2019-05-21 | 表示システムの制御方法、及び表示システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020190619A true JP2020190619A (ja) | 2020-11-26 |
JP2020190619A5 JP2020190619A5 (ja) | 2022-03-30 |
JP7238594B2 JP7238594B2 (ja) | 2023-03-14 |
Family
ID=73454527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019095429A Active JP7238594B2 (ja) | 2019-05-21 | 2019-05-21 | 表示システムの制御方法、及び表示システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11360575B2 (ja) |
JP (1) | JP7238594B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023183997A (ja) * | 2022-06-17 | 2023-12-28 | セイコーエプソン株式会社 | 表示方法、及び表示システム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012054881A (ja) * | 2010-09-03 | 2012-03-15 | Sharp Corp | 会議システム、情報処理装置、情報処理方法及びコンピュータプログラム |
KR101457801B1 (ko) * | 2013-05-31 | 2014-11-03 | 현대엠엔소프트 주식회사 | 메모 입력이 가능한 터치 메모패드 및 터치 메모패드와 연동되는 모바일 디바이스를 이용한 메모 전송 방법 |
JP2015056030A (ja) * | 2013-09-12 | 2015-03-23 | 株式会社リコー | 画像処理装置および画像処理システム |
US20150095798A1 (en) * | 2013-09-27 | 2015-04-02 | Samsung Electronics Co., Ltd. | Method and device for sharing content |
JP2015135544A (ja) * | 2014-01-16 | 2015-07-27 | セイコーエプソン株式会社 | 表示装置、表示システムおよび表示方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4522129B2 (ja) * | 2004-03-31 | 2010-08-11 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
US8185828B2 (en) * | 2009-04-08 | 2012-05-22 | Cisco Technology, Inc. | Efficiently sharing windows during online collaborative computing sessions |
JP5810779B2 (ja) | 2011-09-16 | 2015-11-11 | 株式会社リコー | 画面共有システム、画面共有端末、電子黒板システムおよびプログラム |
JP2013156788A (ja) * | 2012-01-30 | 2013-08-15 | Hitachi Consumer Electronics Co Ltd | 教育支援システム及び情報端末 |
CN103425354B (zh) | 2012-05-25 | 2017-10-13 | 精工爱普生株式会社 | 数据处理装置、显示装置以及数据处理装置的控制方法 |
JP6286814B2 (ja) | 2012-05-25 | 2018-03-07 | セイコーエプソン株式会社 | 表示装置、表示制御方法、および、表示システム |
US20140160153A1 (en) * | 2012-12-07 | 2014-06-12 | Jatinder Pal Singh | Method and system for real-time learning and collaboration solution |
JP6387641B2 (ja) * | 2014-01-15 | 2018-09-12 | セイコーエプソン株式会社 | プロジェクター、表示装置、表示システムおよび表示装置の制御方法 |
JP2015149648A (ja) | 2014-02-07 | 2015-08-20 | 株式会社リコー | 画像投影装置、画像投影システム、及び画像投影装置の制御方法 |
JP6488653B2 (ja) * | 2014-11-07 | 2019-03-27 | セイコーエプソン株式会社 | 表示装置、表示制御方法および表示システム |
JP6492775B2 (ja) * | 2015-03-03 | 2019-04-03 | セイコーエプソン株式会社 | 表示装置および表示制御方法 |
-
2019
- 2019-05-21 JP JP2019095429A patent/JP7238594B2/ja active Active
-
2020
- 2020-05-20 US US16/878,750 patent/US11360575B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012054881A (ja) * | 2010-09-03 | 2012-03-15 | Sharp Corp | 会議システム、情報処理装置、情報処理方法及びコンピュータプログラム |
KR101457801B1 (ko) * | 2013-05-31 | 2014-11-03 | 현대엠엔소프트 주식회사 | 메모 입력이 가능한 터치 메모패드 및 터치 메모패드와 연동되는 모바일 디바이스를 이용한 메모 전송 방법 |
JP2015056030A (ja) * | 2013-09-12 | 2015-03-23 | 株式会社リコー | 画像処理装置および画像処理システム |
US20150095798A1 (en) * | 2013-09-27 | 2015-04-02 | Samsung Electronics Co., Ltd. | Method and device for sharing content |
JP2015135544A (ja) * | 2014-01-16 | 2015-07-27 | セイコーエプソン株式会社 | 表示装置、表示システムおよび表示方法 |
Also Published As
Publication number | Publication date |
---|---|
US11360575B2 (en) | 2022-06-14 |
JP7238594B2 (ja) | 2023-03-14 |
US20200371605A1 (en) | 2020-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9035971B2 (en) | Image display apparatus, image display method, and of image display program | |
CN107667526B (zh) | 电子设备及方法 | |
US9396520B2 (en) | Projector system and control method thereof | |
US9319651B2 (en) | Image projection apparatus, image projection method, and storage medium of program | |
US10768884B2 (en) | Communication apparatus, display apparatus, control method thereof, storage medium, and display system for configuring multi-display settings | |
US11061513B2 (en) | Method for controlling display device, and display device | |
US10536627B2 (en) | Display apparatus, method of controlling display apparatus, document camera, and method of controlling document camera | |
US9406280B2 (en) | Image display device, image display system, and method of controlling image display device | |
CN112422935A (zh) | 终端装置的控制方法以及记录介质 | |
JP2014191380A (ja) | 電子ペン、インタラクティブシステム、および電子ペンの制御方法 | |
JP7238594B2 (ja) | 表示システムの制御方法、及び表示システム | |
JP6806220B2 (ja) | 電子デバイス、及び電子デバイスの制御方法 | |
CN115834846B (zh) | 图像显示方法及投影仪 | |
JP2018022013A (ja) | 表示装置、表示システム、及び、表示装置の制御方法 | |
US11822225B2 (en) | Electronic apparatus and control method thereof | |
US20220276749A1 (en) | Control method for display apparatus and display apparatus | |
JP2017169086A (ja) | 表示装置、表示装置の制御方法及びプログラム | |
JP2012053603A (ja) | 情報表示システム | |
JP2009200846A (ja) | 指示システム、指示プログラム及び指示装置 | |
JP2020201330A (ja) | 表示装置の動作方法および表示装置 | |
JP2020064100A (ja) | 表示装置及び表示装置の制御方法 | |
JP6596935B2 (ja) | 表示装置、表示システム、及び、表示装置の制御方法 | |
JP2015156167A (ja) | 画像投影装置、画像投影装置の制御方法、および画像投影装置の制御プログラム | |
JP6471414B2 (ja) | 表示システム、表示装置、及び、表示方法 | |
US11172175B2 (en) | Method for controlling display device, and display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7238594 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |