JP2017010241A - 画像表示システムおよび画像表示方法 - Google Patents

画像表示システムおよび画像表示方法 Download PDF

Info

Publication number
JP2017010241A
JP2017010241A JP2015124490A JP2015124490A JP2017010241A JP 2017010241 A JP2017010241 A JP 2017010241A JP 2015124490 A JP2015124490 A JP 2015124490A JP 2015124490 A JP2015124490 A JP 2015124490A JP 2017010241 A JP2017010241 A JP 2017010241A
Authority
JP
Japan
Prior art keywords
attribute
line
image
projector
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015124490A
Other languages
English (en)
Other versions
JP6544073B2 (ja
JP2017010241A5 (ja
Inventor
俊樹 藤森
Toshiki Fujimori
俊樹 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015124490A priority Critical patent/JP6544073B2/ja
Priority to CN201610425963.5A priority patent/CN106257923B/zh
Priority to US15/188,318 priority patent/US20160371859A1/en
Publication of JP2017010241A publication Critical patent/JP2017010241A/ja
Publication of JP2017010241A5 publication Critical patent/JP2017010241A5/ja
Application granted granted Critical
Publication of JP6544073B2 publication Critical patent/JP6544073B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • H04N9/3176Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】第1領域から第2領域まで連続した軌跡が描かれた場合、その軌跡に応じて第2領域に描画される線の属性を、第1領域に描画される線の属性に応じて容易に決定する。
【解決手段】第2プロジェクター20は、第2領域に画像を投写する第2投写手段21と、指示体の軌跡に応じて線を描画する際の属性を記憶する第2記憶手段24と、第2領域における指示体の軌跡に応じた線であって第2記憶手段24に記憶されている属性で描画された線の画像を第2投写手段21に投写させる第2制御手段25と、第1記憶手段11に記憶されている属性を取得する取得手段27とを有し、時間的または空間的に連続し、かつ第1領域から第2領域にまたがった軌跡が一の指示体により描かれた場合、第2投写手段21は、第2領域における当該一の指示体の軌跡に応じた線であって取得手段27により取得された属性で描画された線の画像を第2投写手段21に投写させる。
【選択図】図3

Description

本発明は、指示体の軌跡に応じた線を描画する表示システムにおいて、描画される線の属性を指定する技術に関する。
いわゆるインタラクティブプロジェクターやタッチデバイスにおいては、一般に、一定の時間内に描かれた複数の線または単一のストロークで描かれた線を単一のオブジェクトとして管理している。既に描画されたオブジェクトの色等の属性は、後から変更することが可能である。しかし、オブジェクトの属性を後から変更するには、まず対象となるオブジェクトを選択し、次に、変更したい属性を指定するという手順が必要であった。例えば、特許文献1は、オブジェクトの属性を変更する操作を効率化するため、ユーザーの操作履歴に応じてツールバーの内容を変更することを開示している。
特許第4424592号公報
複数台のプロジェクターを並べて大きな画像を表示させる表示システムが知られている。しかし、特許文献1に記載の技術においては複数台のプロジェクターを用いることが想定されていなかった。
これに対し本発明は、第1プロジェクターおよび第2プロジェクターを有する表示システムにおいて、時間的または空間的に連続し、かつ前記第1領域から前記第2領域にまたがった軌跡が一の指示体により描かれた場合、その軌跡に応じて第2領域に描画される線の属性を、第1領域に描画される線の属性に応じて容易に決定することができる技術を提供する。
本発明の画像表示システムは、第1プロジェクターと、第2プロジェクターとを有し、前記第1プロジェクターは、第1領域に画像を投写する第1投写手段と、指示体の軌跡に応じて線を描画する際の当該線の属性である第1属性を記憶する第1記憶手段と、前記第1領域における前記指示体の軌跡に応じた線であって前記第1属性で描画された線の画像を前記第1投写手段に投写させる第1制御手段とを有し、前記第2プロジェクターは、前記第1領域と少なくとも一部が異なる第2領域に画像を投写する第2投写手段と、前記指示体の軌跡に応じて線を描画する際の当該線の属性である第2属性を記憶する第2記憶手段と、前記第1記憶手段に記憶されている前記第1属性を取得する取得手段と、前記第2領域における前記指示体の軌跡に応じた線であって、前記第1属性または前記第2属性で描画された線の画像を前記第2投写手段に投写させる第2制御手段とを有し、時間的または空間的に連続し、かつ前記第1領域から前記第2領域にまたがった軌跡が前記指示体により描かれた場合、前記第2投写手段は、前記第2領域における前記指示体の軌跡に応じた線であって前記取得手段により取得された前記第1属性で描画された線の画像を前記第2投写手段に投写させる。これらの構成により、時間的または空間的に連続し、かつ第1プロジェクターが画像を投写する第1領域から第2プロジェクターが画像を投写する第2領域にまたがる線が描画された場合、第2プロジェクターに記憶されている第2属性ではなく、第1プロジェクターに記憶されている第1属性で線を描画するため、当該線の属性が途中で変化してしまい、ユーザーの意図に反する線が描画されてしまう可能性を低減することができる。
時間的または空間的に連続し、かつ前記第1領域から前記第2領域にまたがった軌跡が前記指示体により描かれた場合、前記第2制御手段は、前記第2投写手段によって投写する画像における線の属性をユーザーに選択させるための画像オブジェクトを前記第2投写手段に投写させ、前記第2制御手段は、前記画像オブジェクトを介して選択された属性で描画された線の画像を前記第2投写手段に投写させてもよい。これにより、描画された線の属性がユーザーの意図に反していた場合、線の属性の変更が容易となる。
前記画像オブジェクトは、前記第2記憶手段に記憶されている属性を選択させるための選択肢を含んでもよい。これにより、描画された線の属性がユーザーの意図に反していた場合、線の属性の変更が容易となる。
時間的または空間的に連続し、かつ前記第1領域から前記第2領域にまたがった軌跡が一の指示体により描かれた場合、前記第2制御手段は、前記第2領域における指示体の軌跡に応じた線であって前記第2属性で描画された線、および当該線の属性を前記第1属性に変更するための画像オブジェクトを含む画像を前記第2投写手段に投写させ、前記画像オブジェクトを前記線の属性を前記第1属性に変更する指示が入力された場合、前記第2制御手段は、前記第1属性に変更された線の画像を前記第2投写手段に投写させてもよい。これにより、描画された線の属性がユーザーの意図に反していた場合、線の属性の変更が容易となる。
前記第2制御手段は、前記画像オブジェクトを表示してから所定の時間が経過すると、当該画像オブジェクトが消去された画像を前記第2投写手段に投写させてもよい。これにより、表示された画像オブジェクトを消去する操作を省くことができる。
前記取得手段により取得された属性で描画された線の画像が前記第2投写手段により投写された後で、前記軌跡とは不連続の別の軌跡が前記一の指示体により前記第2領域において描かれた場合、前記第2制御手段は、前記第2領域における当該一の指示体の軌跡に応じた線であって前記第2属性で描画された線の画像を前記第2投写手段に投写させてもよい。これにより、ユーザーの意図に反する線が描画されてしまう可能性を低減することができる。
また、本発明の画像表示方法は、第1プロジェクターおよび第2プロジェクターを有する画像表示システムにおける画像表示方法であって、前記第1プロジェクターが、第1領域に画像を投写するステップと、前記第1プロジェクターが、指示体の軌跡に応じて線を描画する際の当該線の属性である第1属性を第1記憶手段に記憶するステップと、前記第1プロジェクターが、前記第1領域における指示体の軌跡に応じた線であって前記第1属性で描画された線の画像を投写するステップと、前記第2プロジェクターが、前記第1領域と少なくとも一部が異なる第2領域に画像を投写するステップと、前記第2プロジェクターが、前記指示体の軌跡に応じて線を描画する際の当該線の属性である第2属性を第2記憶手段に記憶するステップと、前記第2プロジェクターが、前記第2領域における前記指示体の軌跡に応じた線であって前記第2記憶手段に記憶されている属性で描画された線の画像を投写するステップと、前記第2プロジェクターが、前記第1記憶手段に記憶されている前記第1属性を取得するステップと、時間的または空間的に連続し、かつ前記第1領域から前記第2領域にまたがった軌跡が前記指示体により描かれた場合、前記第2領域における前記指示体の軌跡に応じた線であって前記取得手段により取得された前記第1属性で描画された線の画像を投写するステップとを有する。これらの構成により、時間的または空間的に連続し、かつ第1プロジェクターが画像を投写する第1領域から第2プロジェクターが画像を投写する第2領域にまたがる線が描画された場合、第2プロジェクターに記憶されている第2属性ではなく、第1プロジェクターに記憶されている第1属性で線を描画するため、当該線の属性が途中で変化してしまい、ユーザーの意図に反する線が描画されてしまう可能性を低減することができる。
一実施形態に係る表示システム1の概要を示す図 関連技術に係る表示システムの問題点を例示する図 表示システム1の機能構成を例示する図 第1プロジェクター10のハードウェア構成を例示する図 第1プロジェクター10の動作を例示するフローチャート 指示体30の軌跡に応じて描画される線を例示する図 第2プロジェクター20の例1に係る動作を示すフローチャート 第2プロジェクター20の例1に係る動作を示すフローチャート 例1において指示体30の軌跡に応じて描画される線を例示する図 ポップアップメニューM1が表示された画面を例示する図 第2プロジェクター20の例2に係る動作を示すフローチャート 第2プロジェクター20の例2に係る動作を示すフローチャート ステップS312において投写される画面を例示する図 表示システム1の変形例1に係る構成を示す図
1.概要
図1は、一実施形態に係る表示システム1の概要を示す図である。表示システム1は、2台のプロジェクター(第1プロジェクター10および第2プロジェクター20)を含む。第1プロジェクター10は投写面のうち領域Aに、第2プロジェクター20は領域Bに、それぞれ画像を投写する。この例で、領域Aと領域Bとは隣接している。なお、領域Aと領域Bとは少なくとも一部が異なっていればよく、一部がオーバーラップしていてもよいし、間隔をおいて配置されてもよい。
この例で、第1プロジェクター10および第2プロジェクター20は、いずれも、いわゆるインタラクティブプロジェクターである。すなわち、第1プロジェクター10および第2プロジェクター20は、投写面上の指示体30の位置を検知し、検知した位置の軌跡(以下単に「指示体の軌跡」という)に応じた線を描画する機能を有する。
図2は、関連技術に係る表示システムの問題点を例示する図である。いま、指示体30を用いて、領域A内の点P1から領域B内の点P2まで1本の線を描く例を考える。指示体の軌跡に応じて描画される線の属性、例えば、色、太さ、および線種(実線、破線、鎖線等)は、プロジェクター毎に設定される。例えば、第1プロジェクター10においては線種が実線に、第2プロジェクター20においては線種が破線に設定されている場合、ユーザーは領域Aから領域Bまで連続した1本の線を描画しているつもりであるにもかかわらず、領域Aでは実線で、領域Bでは破線で線が描かれてしまう。
このようにユーザーの意図に反する属性の線が描かれてしまった場合、ユーザーは、線が描画された後でその属性を変更する必要がある。そのためには、ユーザーは、例えば、属性変更のためのUIを介してまず対象となる線を選択し、次に、変更したい項目を選択(例えば色、太さ、および線種の選択肢の中から線種を選択)し、さらに、属性の値を選択(例えば、実線、破線、および鎖線の選択肢の中から実線を選択)するという手順を踏む必要がある。このような操作はユーザーにとって煩雑であった。これに対し本実施形態では、2つのプロジェクターの表示領域にまたがる連続した線が描かれた場合に、2つのプロジェクターにより描画される線の属性を揃えやすくする技術を提供する。
2.構成
図3は、表示システム1の機能構成を例示する図である。第1プロジェクター10は、第1投写手段11、第1検知手段12、第1描画手段13、第1記憶手段14、および第1制御手段15を有する。第1投写手段11は、第1領域(図1の領域A)に画像を投写する。第1検知手段12は、第1領域における指示体の位置を検知する。第1描画手段13は、第1検知手段12により検知された位置の軌跡に応じた線を描画する。第1記憶手段14は、第1描画手段13が線を描画する際の線の属性(第1属性の一例)を記憶する。第1制御手段15は、第1描画手段13により描画された線の画像を第1投写手段11に投写させる。
第2プロジェクター20は、第2投写手段21、第2検知手段22、第2描画手段23、第2記憶手段24、第2制御手段25、判断手段26、および取得手段27を有する。第2投写手段21は、第2領域(図1の領域B)に画像を投写する。第2検知手段22は、第2領域における指示体の位置を検知する。第2描画手段23は、第2検知手段22により検知された位置の軌跡に応じた線を描画する。第2記憶手段24は、第2描画手段23が線を描画する際の線の属性(第2属性の一例)を記憶する。第2制御手段25は、第2描画手段23により描画された線の画像を第2投写手段21に投写させる。判断手段26は、第2領域において指示体の軌跡が検知された場合、その軌跡が第1領域に投写されている画像に係る線と時間的または空間的に連続しているか判断する。取得手段27は、第1記憶手段14に記憶されている属性を取得する。第2領域において検知された軌跡が第1領域に投写されている画像に係る線と連続していると判断された場合、第2描画手段23は、第2領域における指示体の軌跡に応じた線を、取得手段27により取得された属性、すなわち第1領域に投写されている線と共通の属性で描画する。第2制御手段25は、この線の画像を第2投写手段21に投写させる。
図4は、第1プロジェクター10および第2プロジェクター20のハードウェア構成を例示する図である。第1プロジェクター10は、CPU(Central Processing Unit)100、ROM(Read Only Memory)101、RAM(Random Access Memory)102、IF部104、画像処理回路105、投写ユニット106、操作パネル107、およびカメラ108を有する。
CPU100は、第1プロジェクター10の各部を制御する制御装置である。ROM101は、各種プログラムおよびデータを記憶した不揮発性の記憶装置である。RAM102は、データを記憶する揮発性の記憶装置であり、CPU100が処理を実行する際のワークエリアとして機能する。
IF部104は、外部装置と信号またはデータのやりとりを仲介するインターフェースである。IF部104は、外部装置と信号またはデータのやりとりをするための端子(例えば、VGA端子、USB端子、有線LANインターフェース、S端子、RCA端子、HDMI(High-Definition Multimedia Interface:登録商標)端子、マイクロフォン端子など)および無線LANインターフェースを含む。これらの端子は、映像入力端子に加え、映像出力端子を含んでもよい。IF部104は、異なる複数の映像供給装置から映像信号の入力を受け付けてもよい。
画像処理回路105は、入力された映像信号(以下「入力映像信号」という)に所定の画像処理(例えばサイズ変更、台形補正等)を施す。
投写ユニット106は、画像処理が施された映像信号に従って、スクリーンまたは壁面等の投写面に画像を投写する。投写ユニット106は、光源、光変調器、および光学系(いずれも図示略)を有する。光源は、高圧水銀ランプ、ハロゲンランプ、もしくはメタルハライドランプなどのランプ、またはLED(Light Emitting Diode)もしくはレーザーダイオードなどの固体光源、およびこれらの駆動回路を含む。光変調器は、光源から照射された光を映像信号に応じて変調する装置であり、例えば液晶パネルまたはDMD(Digital Mirror Device)、およびこれらの駆動回路を有する。なお、液晶パネルは、透過型および反射型のいずれの方式であってもよい。光学系は、光変調器により変調された光をスクリーンに投写する素子などで構成されており、例えばミラー、レンズ、およびプリズムを有する。光源および光変調器は色成分毎に設けられていてもよい。
操作パネル107は、ユーザーがプロジェクター10に対し指示を入力するための入力装置であり、例えば、キーパッド、ボタン、またはタッチパネルを含む。
カメラ108は、指示体30の位置を特定するためのカメラである。この例で、指示体30は、ペン先に発光体(例えば赤外線発光ダイオード)、圧力センサー、および制御回路(いずれも図示略)を有する。圧力センサーによりペン先が物体(投写面等)に触れたことが検知されると、制御回路は、所定の発光パターンで発光体を発光させる。カメラ108は赤外線カメラであり、投写面の画像を撮影する。CPU100は、カメラ108が撮影した画像から指示体30の位置および対応するイベントを特定する。
指示体30に関連するイベントには、例えばペンダウンイベントおよびペンアップイベントがある。ペンダウンイベントは、指示体30が表示面(この例ではスクリーンまたは壁面)に触れていることを示すイベントである。ペンダウンイベントは、指示体30が触れている位置を示す座標を含んでいる。ペンアップイベントは、それまで表示面に触れていた指示体30が表示面から離れたことを示すイベントである。ペンアップイベントは、指示体30が表示面から離れた位置を示す座標を含んでいる。
なお、カメラ108は、投写ユニット106により投写される画像の有効画素領域よりも広い範囲(すなわち画面の外)を撮影可能である。すなわち、プロジェクター10は、指示体30が画面の外にあっても(一定の範囲内であれば)、指示体30の位置を検知することが可能である。
この例で、第2プロジェクター20は第1プロジェクター10と共通のハードウェア構成を有している。第2プロジェクター20のハードウェア要素の符号は図4において括弧内に記載している。
第1プロジェクター10において。投写ユニット106は、第1投写手段11の一例である。カメラ108は、第1検知手段12の一例である。CPU100は、第1描画手段13および第1制御手段15の一例である。RAM102は、第1記憶手段14の一例である。
第2プロジェクター20において。投写ユニット206は、第2投写手段21の一例である。カメラ208は、第2検知手段22の一例である。CPU200は、第2描画手段23、第2制御手段25、および判断手段26の一例である。RAM202は、第2記憶手段24の一例である。IF部204は、取得手段27の一例である。
第1プロジェクター10および第2プロジェクター20は、互いにデータのやりとりが可能なように、IF部104およびIF部204を介して接続されている。この例で、第1プロジェクター10および第2プロジェクター20は、有線または無線で直接、接続されている。なお、第1プロジェクター10および第2プロジェクター20は、LANまたはインターネットを介して接続されてもよい。
3.動作
以下、表示システム1の動作例をいくつか説明する。以下の例では、第1プロジェクター10および第2プロジェクター20において、線を描画する際に用いられる属性値が記憶されている。属性値は、ユーザーの指示に応じて変更される。すなわち、ユーザーの指示が入力されると、記憶されている属性値が書き替えられる。以下の例では、線の属性としては、色、太さ、および線種の3つが用いられる。
3−1.線の描画
図5は、第1プロジェクター10の動作を例示するフローチャートである。ここではまず、1台のプロジェクターにおける線の描画について説明する。
ステップS100において、CPU100は、ペンダウンのイベントが発生したことを検知する。CPU100は、カメラ108により撮影された画像を所定の周期でサンプリングしており、この画像からペンダウンのイベントを検知する。
ステップS110において、CPU100は、検知されたペンダウンイベントが新たな画像オブジェクトを構成するものであるか判断する。空間的または時間的に連続したペンダウンイベントは、一連の画像オブジェクトを構成すると判断される。具体的には、前回(直前のサンプリングにおいて)から引き続きペンダウンイベントが検知された場合、そのペンダウンイベントは、前回のペンダウンイベントと連続していると判断される。前回のサンプリング時にはペンダウンイベントが検知されていないが、前々回以前のサンプリング時にペンアップイベントが検知されてからの経過時間がしきい値以下およびその時の指示体30の位置と今回検知された指示体30の位置との距離がしきい値以下の場合にも、そのペンダウンイベントは、前回検知されたペンダウンイベントと連続していると判断される。
検知されたペンダウンイベントが新たな画像オブジェクトを構成すると判断された場合(S110:YES)、CPU100は、処理をステップS120に移行する。検知されたペンダウンイベントが前回検知されたペンダウンイベントと連続していると判断された場合(S110:NO)、CPU100は、処理をステップS130に移行する。
ステップS120において、CPU100は、新たな画像オブジェクト(一連のペンダウンイベント)に識別子を付与する。
ステップS130において、CPU100は、ペンダウンイベントが発生したときの指示体30の座標を検知する。CPU100は、サンプリングされた画像から指示体30の座標を検知する。
ステップS140において、CPU100は、指示体30の座標を記憶する。CPU100は、指示体30の座標およびその座標が検知された時刻を示すデータを、その座標を含む画像オブジェクトの識別子とともにRAM102に記憶する。以下、指示体30の座標および時刻を示すデータを「描画情報」という。
ステップS150において、CPU100は、指示体30の軌跡を示す線(画像オブジェクト)を描画する。ここでいう「線を描画する」とは、線の画像を表示するためのデータを生成することをいう。CPU100は、RAM102に記憶されている一連の座標に応じて線を描画する。CPU100は、例えば各座標を通る線を描画する。CPU100は、一連のペンダウンイベントを1本の連続した線として描画する。RAM102には、描画される線の属性を指定するデータが記憶されている。CPU100は、このデータに従った属性の線を描画する。
ステップS160において、CPU100は、描画された線を示す画像を投写するように、投写ユニット106を制御する。ステップS100〜S160の処理は所定の周期で繰り返し実行される。なお、指示体30の座標を検知する周期、線を描画する周期、および投写される画像を更新する周期は同じでなく、それぞれ異なっていてもよい。
図6は、指示体30の軌跡に応じて描画される線を例示する図である。一連の軌跡は1本の線L1として描かれ、データ上、単一のオブジェクトとして扱われる。
3−2.領域Aおよび領域Bにまたがる線の描画
続いて、領域A内の始点から領域B内の終点まで連続した線の描画について説明する。領域Aにおける線の描画、すなわち第1プロジェクター10の動作は図5で説明したとおりである。以下では第2プロジェクター20の動作を中心に説明する。第2プロジェクター20の動作は何通りかあるのでそれらを順に説明する。
3−2−1.例1
図7は、第2プロジェクター20の例1に係る動作を示すフローチャートである。ここでは、特にペンダウンイベントが検知されたときの動作を示している。
ステップS200において、CPU200は、ペンダウンイベントが発生したことを検知する。CPU200は、カメラ208により撮影された画像を所定の周期でサンプリングしており、この画像からペンダウンイベントを検知する。
ステップS201において、CPU200は、検知されたペンダウンイベントが新たな画像オブジェクトを構成するものであるか判断する。検知されたペンダウンイベントが新たな画像オブジェクトを構成すると判断された場合(S201:YES)、CPU200は、処理をステップS202に移行する。検知されたペンダウンイベントが前回検知されたペンダウンイベントと連続していると判断された場合(S201:NO)、CPU100は、処理をステップS203に移行する。
ステップS202において、CPU200は、新たな画像オブジェクト(一連のペンダウンイベント)に識別子を付与する。
ステップS203において、CPU200は、ペンダウンイベントが発生したときの指示体30の座標を検知する。CPU200は、サンプリングされた画像から指示体30の座標を検知する。
ステップS204において、CPU200は、ペンダウンイベントが検知された位置が領域Bの端部近傍であるか判断する。ここで、端部近傍とは、例えば領域Bの端部(上、下、左、および右端)のうち、他のプロジェクターが存在する方向の辺から所定の距離内の範囲をいう。この例では投写面に向かって左辺の方向に第1プロジェクター10が存在するので、端部近傍とは、領域Bの左辺から所定の距離内の範囲をいう。他のプロジェクターとの位置関係を示す情報は、例えばROM201に記憶されている。ペンダウンイベントが検知された位置が領域Bの端部近傍であると判断された場合(S204:YES)、CPU200は、処理をステップS205に移行する。ペンダウンイベントが検知された位置が領域Bの端部近傍でないと判断された場合(S204:NO)、CPU200は、処理をステップS210に移行する。
ステップS205において、CPU200は、第1プロジェクター10から描画情報を取得する。具体的には、CPU200は、第1プロジェクター10に対し描画情報の送信を要求する。第1プロジェクター10は、この要求に応じて、描画情報を第2プロジェクター20に送信する。ここで送信される描画情報は、例えば、最も直近に検知された1点に関する描画情報である。
ステップS206において、CPU200は、第1プロジェクター10から取得された描画情報を用いて、第1プロジェクター10において最後に描画された画像オブジェクトと、第2プロジェクター20における新たな画像オブジェクトとが連続しているか判断する。具体的には、CPU200は、第1プロジェクター10から取得された描画情報(以下「第1描画情報」という)とステップS203において検知された描画情報(以下「第2描画情報」という)とを対比し、両者が所定の情報を満たしているか判断する。所定の条件とは、例えば、第1描画情報に係る指示体30の座標と第2描画情報に係る指示体30の座標との差がしきい値未満であり、かつ、これらの座標が検知された時刻の差がしきい値未満である、という条件である。ここで、座標の差のしきい値および時刻の差のしきい値は、それぞれ、画像オブジェクトが連続しているとみなせる程度に十分小さい距離および時間に相当する値である。
第1プロジェクター10において最後に描画された画像オブジェクトと第2プロジェクター20における新たな画像オブジェクトとが連続していると判断された場合(S206:YES)、CPU200は、処理をステップS207に移行する。これらが連続していないと判断された場合(S206:NO)、CPU200は、処理をステップS210に移行する。
ステップS207において、CPU200は、フラグをオンにする。このフラグは、オンであればその時点で描画をしようとしている画像オブジェクトが第1プロジェクター10により描画された画像オブジェクトと連続していることを示し、オフであれば連続していないことを示すフラグである。より詳細には、RAM202にこのフラグのデータを記憶する記憶領域があり、CPU200がこの記憶領域のデータを書き替えることのよってフラグのオン/オフが切り替えられる。
ステップS208において、CPU200は、第1プロジェクター10から画像オブジェクトの描画に関する属性値を取得する。具体的には、CPU200は、第1プロジェクター10に対し画像オブジェクトの描画に関する属性値の送信を要求する。第1プロジェクター10は、この要求に応じて、属性値を第2プロジェクター20に送信する。ここで送信される属性値は、最も直近に描画された画像オブジェクトの属性値(例えば、線の色、太さ、および線種)である。
ステップS209において、CPU200は、画像オブジェクトを描画する際の属性値を、第1プロジェクター10から取得された属性値に変更する。なお、CPU200は、変更前の属性値を、バックアップとしてRAM202に記憶しておく。
ステップS210において、CPU200は、指示体30の軌跡を示す線(画像オブジェクト)を描画する。CPU200は、RAM202に記憶されている一連の座標に応じて線を描画する。CPU200は、例えば各座標を通る線を描画する。CPU200は、一連のペンダウンイベントを1本の連続した線として描画する。RAM202には、描画される線の属性を指定するデータ(属性値のデータ)が記憶されている。CPU200は、このデータに従った属性の線を描画する。
第2プロジェクター20の画像オブジェクトが第1プロジェクター10の画像オブジェクトと連続している場合、ステップS209において描画される画像オブジェクトの属性は、第1プロジェクター10の画像オブジェクトと同じである。第2プロジェクター20の画像オブジェクトが第1プロジェクター10の画像オブジェクトと連続していない場合、ステップS209において描画される画像オブジェクトの属性は、第2プロジェクター20において設定されているものであり、第1プロジェクター10の画像オブジェクトと同じであるとは限らない。
ステップS211において、CPU200は、描画された線を示す画像を投写するように、投写ユニット206を制御する。ステップS200〜S211の処理は所定の周期で繰り返し実行される。なお、指示体30の座標を検知する周期、線を描画する周期、および投写される画像を更新する周期は同じでなく、それぞれ異なっていてもよい。
図8は、第2プロジェクター20の例1に係る動作を示すフローチャートである。ここでは、特にペンアップイベントが検知されたときの動作を示している。
ステップS300において、CPU200は、ペンアップイベントが発生したことを検知する。CPU200は、カメラ208により撮影された画像からペンアップイベントを検知する。
ステップS301において、CPU200は、画像オブジェクトが不連続となる条件が満たされたか判断する。画像オブジェクトが不連続となる条件とは、このペンアップイベントが検知される直前まで描画されていた画像オブジェクトと、この後で描画される画像オブジェクトとが別の(不連続な)画像オブジェクトと判断される条件である。この条件は、例えば、ペンアップイベントが検知されてから次のペンダウンイベントが検知されないまま経過した時間がしきい値を超えた、というものである。画像オブジェクトが不連続となる条件が満たされた場合(S301:YES)、CPU200は、処理をステップS302に移行する。画像オブジェクトが不連続となる条件が満たされなかった場合(S302:NO)、CPU200は待機する(この間に次のペンダウンイベントが検知されれば、図7のフローに従って処理が行われる)。
ステップS302において、CPU200は、画像オブジェクトを描画する際の属性値を、ステップS209(図7)において変更される前の値、すなわち、第2プロジェクター20において元々設定されていた値に戻す。ステップS303において、CPU200は、フラグをリセットすなわちオフにする。
このフローによれば、第1プロジェクター10から続く一連の画像オブジェクトの描画が終わると、画像オブジェクトの描画の際の属性値は、第2プロジェクター20において元々設定されていた値に戻される。すなわち、この後、ユーザーが領域Bで指示体30を動かすと、RAM202に記憶されている属性で描画された線が投写される。
図9は、例1において指示体30の軌跡に応じて描画される線を例示する図である。指示体30の軌跡に応じて、領域Aにおいては線L1が、領域Bにおいては線L2が描かれる。線L1および線L2は同じ属性で描かれる。この例は、いずれも実線で描かれている。
この例によれば、領域Aに描画された画像オブジェクトと連続した画像オブジェクトは、領域Bにおいて自動的に領域Aと共通の属性で描かれる。
なお、図8のフローにおいて、画像オブジェクトが不連続となる条件が満たされたときに、CPU200は、描画された画像オブジェクトの属性値を、RAM202にバックアップとして記憶されている属性値(すなわち第2プロジェクター20に元々設定されていた属性値)に変更する指示を受け付けるためのUIオブジェクトとしてポップアップメニュー(画像オブジェクトの一例)を投写するよう、投写ユニット206を制御する。
図10は、描画された画像オブジェクトの属性を変更するポップアップメニューM1が表示された画面を例示する図である。ポップアップメニューM1は、線L2の終点すなわちペンアップイベントが検知された位置に応じた位置(線L2の終点の近傍)に表示される。ポップアップメニューM1は、選択肢として、属性値をRAM202にバックアップとして記憶されている値に変更する項目を含む。この項目が投写されている位置にユーザーが指示体30でタッチすると、線L2の属性が変更される。
この例によれば、例えばユーザーが線L2を線L1とは別の画像オブジェクトとする意図で描いたにもかかわらず線L1と線L2とが連続した画像オブジェクトと認識されてしまった場合でも、簡単に線L2の属性を変更することができる。なお、CPU200は、ポップアップメニューM1が表示されてから所定の時間が経過したときに、ポップアップメニューM1を画面から消去してもよい。
なお上記の例では、第1プロジェクター10の機能と第2プロジェクター20の機能とが異なるものとして説明したが、実際には第1プロジェクター10の機能と第2プロジェクター20の機能とは共通しており、例えば領域B内の始点から領域A内の終点まで連続した線が描かれた場合には、上記の説明において第1プロジェクター10と第2プロジェクター20とを互いに読み替えた処理が行われてもよい。
3−2−2.例2
図11は、第2プロジェクター20の例2に係る動作を示すフローチャートである。ここでは、特にペンダウンイベントが検知されたときの動作を示している。図11においては、図7と共通する処理については共通の符号が用いられている。例2においては、ステップS209の属性値を変更する処理が行われない点が例1と相違している。すなわち例2においては、第1プロジェクター10によって描画された画像オブジェクトと連続した画像オブジェクトであると判断されても、第1プロジェクター10の属性値ではなく、第2プロジェクター20に設定されている属性値を用いて描画が行われる。
図12は、第2プロジェクター20の例2に係る動作を示すフローチャートである。ここでは、特にペンダウンイベントが検知されたときの動作を示している。図12においては、図8と共通する処理については共通の符号が用いられている。ステップS300およびS301の処理は、例1と共通である。ただし、例2のステップS301において、画像オブジェクトが不連続となる条件が満たされた場合(S301:YES)、CPU200は、処理をステップS312に移行する。
ステップS312において、CPU300は、描画した画像オブジェクトの属性を選択させるUIオブジェクトを投写するように、投写ユニット206を制御する。
図13は、ステップS312において投写される画面を例示する図である。ここでは、領域Aにおいて実線で線L1が、領域Bにおいて破線で線L2が描かれている。ペンアップイベントが検知された位置(すなわち線L2の終点)の近傍に、ポップアップメニューM2が表示されている。ポップアップメニューM2は、描画した画像オブジェクトの属性を選択させるUIオブジェクトの一例である。ポップアップメニューM2は、選択肢として、第1プロジェクター10と共通の属性値(例えば実線)に変更する項目、および第2プロジェクター20に設定されている属性値を維持する項目を含む。
再び図12を参照する。ステップS313において、CPU200は、ポップアップメニューM2に対するユーザーの操作に応じて、線L2の属性を変更する。ポップアップメニューM2において、例えば第1プロジェクター10と共通の属性値に変更する項目が選択された場合、線L2の属性は、線L1と共通のものに変更される。あるいは、第2プロジェクター20に設定されている属性値を維持する項目が選択された場合、線L2の属性は変更されず維持される。
ステップS314において、CPU200は、描画した画像オブジェクト(この例では線L2)を再描画する。再描画とは、変更前の属性で描画されていた線を消去し、変更後の属性で描画された線を新たに生成することをいう。ステップS315において、CPU200は、再描画された画像オブジェクトを含む画像を投写する。
ステップS316において、CPU200は、画像オブジェクトを描画する際の属性値を、ステップS313において変更される前の値、すなわち、第2プロジェクター20において元々設定されていた値に戻す。なお、ステップS313で属性の変更が行われなかった場合、ステップS313の処理はスキップされる。ステップS317において、CPU200は、フラグをリセットすなわちオフにする。
この例によれば、領域Aに描画された画像オブジェクトと連続した画像オブジェクトが描かれた場合、領域Bにおける属性を選択させるためのUIオブジェクトが自動的に表示される。なお、CPU200は、ポップアップメニューM2が表示されてから所定の時間が経過したときに、ポップアップメニューM2を画面から消去してもよい。
4.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
4−1.変形例1
図14は、表示システム1の変形例1に係る構成を示す図である。表示システム1を構成するプロジェクターの数は2つに限定されない。表示システム1は、3つ以上のプロジェクターにより構成されてもよい。図14は、表示システム1が、第1プロジェクター10および第2プロジェクター20に加え、領域Cに画像を投写する第3プロジェクター40および領域Dに画像を投写する第4プロジェクター50の4つのプロジェクターにより構成される例を示している。
図14の例では、領域A内の始点から領域Bを通過して領域C内の終点に達する連続した線が描かれている。領域B内の線L2の属性は、領域A内の線L1の属性と同じ値が用いられ、領域C内の線L3の属性は、線L2の属性と同じ(つまり線L1と同じ)値が用いられる。
4−2.変形例2
実施形態において、表示システム1を構成するプロジェクターの機能は等価である例を説明した。変形例2においては、複数のプロジェクターのうちあらかじめ定められた1台のプロジェクター(親機)が、それ以外のプロジェクター(子機)における画像オブジェクトの描画の際の属性を管理する。子機において他のプロジェクターの属性値が必要になった場合、その子機は親機に問い合わせる。親機において他のプロジェクターの属性値が必要になった場合、親機は、自身で記憶している情報を参照する。
例えば、図1の表示システム1において、第1プロジェクター10が親機であり、第2プロジェクター20が子機である例を考える。各プロジェクターは、自機が親機であるか子機であるかを示す情報、および自機が子機である場合には親機の識別子を記憶している。第2プロジェクター20は、所定のタイミング、例えば、属性値が変更される度に、その時点で有効な属性値を、親機である第1プロジェクター10に送信する。第1プロジェクター10は、子機において有効な属性値を、その子機の識別子と対応付けて記憶する。第2プロジェクター20において第1プロジェクター10の属性値が必要になった場合、第2プロジェクター20は第1プロジェクター10に属性値を問い合わせる。問い合わせがあった場合、第1プロジェクター10は、自身において描画に用いられる属性値を第2プロジェクター20に送信する。第1プロジェクター10において他のプロジェクターの属性値が必要になった場合、第1プロジェクター10は、自身で記憶している情報を参照する。
別の例で、図14の表示システム1において、第1プロジェクター10が親機であり、第2プロジェクター20、第3プロジェクター40、および第4プロジェクター50が子機である例を考える。各プロジェクターは、ネットワークを介して互いに接続されている。例えば第4プロジェクター50において第2プロジェクター20の属性値が必要になった場合、第4プロジェクター50は、第1プロジェクター10に属性値を問い合わせる。
なお、プロジェクターではなくサーバー装置(図示略)が、各プロジェクターにおいて描画に用いられる属性値を管理してもよい。この例で、すべてのプロジェクターは、所定のタイミング、例えば、属性値が変更される度に、その時点で有効な属性値を、サーバー装置に送信する。サーバー装置は、各プロジェクターにおいて有効な属性値を、そのプロジェクターの識別子と対応付けて記憶する。あるプロジェクターにおいて他のプロジェクターの属性値が必要になった場合、そのプロジェクターはサーバー装置に他のプロジェクターにおいて有効な属性値を問い合わせる。
4−3.他の変形例
第2プロジェクター20における具体的な処理のフローは、図7、8、11、および12に例示したものに限定されない。例えば、他のプロジェクターから属性値を取得するタイミングは、実施形態で例示したものに限定されない。これらのフローとは独立して、例えば所定のタイミングで定期的に他のプロジェクターから属性値を取得してもよい。
図3に示した機能を実現するためのハードウェア構成は図4で例示したものに限定されない。要求される機能を実現できるものであれば、各プロジェクターはどのようなハードウェア構成を有していてもよい。例えば、各プロジェクターは、検知手段(第1検知手段12および第2検知手段22)に相当するハードウェア要素として、いわゆるステレオカメラまたはレーザーカーテンを有していてもよい。また、指示体30の構成は実施形態で説明したものに限定されない。指示体30は、例えば、特定の波長帯の光を反射する塗料が塗られた構造体であってもよい。あるいは、指示体30は、ユーザーの指であってもよい。
1…表示システム、10…第1プロジェクター、11…第1投写手段、12…第1制御手段、13…第1検知手段、14…第1記憶手段、15…第1制御手段、20…第2プロジェクター、21…第2投写手段、22…第2制御手段、23…第2検知手段、24…第2記憶手段、25…第2制御手段、26…判断手段、27…取得手段、30…指示体、100…CPU、101…ROM、102…RAM、104…IF部、105…画像処理回路、106…投写ユニット、107…操作パネル、108…カメラ、200…CPU
201…ROM、202…RAM、204…IF部、205…画像処理回路、206…投写ユニット、207…操作パネル、208…カメラ

Claims (7)

  1. 第1プロジェクターと、
    第2プロジェクターと
    を有し、
    前記第1プロジェクターは、
    第1領域に画像を投写する第1投写手段と、
    指示体の軌跡に応じて線を描画する際の当該線の属性である第1属性を記憶する第1記憶手段と、
    前記第1領域における前記指示体の軌跡に応じた線であって前記第1属性で描画された線の画像を前記第1投写手段に投写させる第1制御手段と
    を有し、
    前記第2プロジェクターは、
    前記第1領域と少なくとも一部が異なる第2領域に画像を投写する第2投写手段と、
    前記指示体の軌跡に応じて線を描画する際の当該線の属性である第2属性を記憶する第2記憶手段と、
    前記第1記憶手段に記憶されている前記第1属性を取得する取得手段と、
    前記第2領域における前記指示体の軌跡に応じた線であって、前記第1属性または前記第2属性で描画された線の画像を前記第2投写手段に投写させる第2制御手段と、
    を有し、
    時間的または空間的に連続し、かつ前記第1領域から前記第2領域にまたがった軌跡が前記指示体により描かれた場合、前記第2投写手段は、前記第2領域における前記指示体の軌跡に応じた線であって前記取得手段により取得された前記第1属性で描画された線の画像を前記第2投写手段に投写させる
    画像表示システム。
  2. 時間的または空間的に連続し、かつ前記第1領域から前記第2領域にまたがった軌跡が前記指示体により描かれた場合、前記第2制御手段は、前記第2投写手段によって投写する画像における線の属性をユーザーに選択させるための画像オブジェクトを前記第2投写手段に投写させ、
    前記第2制御手段は、前記画像オブジェクトを介して選択された属性で描画された線の画像を前記第2投写手段に投写させる
    ことを特徴とする請求項1に記載の画像表示システム。
  3. 前記画像オブジェクトは、前記第2記憶手段に記憶されている属性を選択させるための選択肢を含む
    ことを特徴とする請求項2に記載の画像表示システム。
  4. 時間的または空間的に連続し、かつ前記第1領域から前記第2領域にまたがった軌跡が一の指示体により描かれた場合、前記第2制御手段は、前記第2領域における指示体の軌跡に応じた線であって前記第2属性で描画された線、および当該線の属性を前記第1属性に変更するための画像オブジェクトを含む画像を前記第2投写手段に投写させ、
    前記画像オブジェクトを前記線の属性を前記第1属性に変更する指示が入力された場合、前記第2制御手段は、前記第1属性に変更された線の画像を前記第2投写手段に投写させる
    ことを特徴とする請求項1ないし3のいずれか一項に記載の画像表示システム。
  5. 前記第2制御手段は、前記画像オブジェクトを表示してから所定の時間が経過すると、当該画像オブジェクトが消去された画像を前記第2投写手段に投写させる
    ことを特徴とする請求項2ないし4のいずれか一項に記載の画像表示システム。
  6. 前記取得手段により取得された属性で描画された線の画像が前記第2投写手段により投写された後で、前記軌跡とは不連続の別の軌跡が前記指示体により前記第2領域において描かれた場合、前記第2制御手段は、前記第2領域における当該指示体の軌跡に応じた線であって前記第2属性で描画された線の画像を前記第2投写手段に投写させる
    ことを特徴とする請求項1ないし5のいずれか一項に記載の画像表示システム。
  7. 第1プロジェクターおよび第2プロジェクターを有する画像表示システムにおける画像表示方法であって、
    前記第1プロジェクターが、第1領域に画像を投写するステップと、
    前記第1プロジェクターが、指示体の軌跡に応じて線を描画する際の当該線の属性である第1属性を第1記憶手段に記憶するステップと、
    前記第1プロジェクターが、前記第1領域における指示体の軌跡に応じた線であって前記第1属性で描画された線の画像を投写するステップと、
    前記第2プロジェクターが、前記第1領域と少なくとも一部が異なる第2領域に画像を投写するステップと、
    前記第2プロジェクターが、前記指示体の軌跡に応じて線を描画する際の当該線の属性である第2属性を第2記憶手段に記憶するステップと、
    前記第2プロジェクターが、前記第2領域における前記指示体の軌跡に応じた線であって前記第2記憶手段に記憶されている属性で描画された線の画像を投写するステップと、
    前記第2プロジェクターが、前記第1記憶手段に記憶されている前記第1属性を取得するステップと、
    時間的または空間的に連続し、かつ前記第1領域から前記第2領域にまたがった軌跡が前記指示体により描かれた場合、前記第2領域における前記指示体の軌跡に応じた線であって前記取得された前記第1属性で描画された線の画像を投写するステップと
    を有する画像表示方法。
JP2015124490A 2015-06-22 2015-06-22 画像表示システムおよび画像表示方法 Active JP6544073B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015124490A JP6544073B2 (ja) 2015-06-22 2015-06-22 画像表示システムおよび画像表示方法
CN201610425963.5A CN106257923B (zh) 2015-06-22 2016-06-16 图像显示系统以及图像显示方法
US15/188,318 US20160371859A1 (en) 2015-06-22 2016-06-21 Image display system and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015124490A JP6544073B2 (ja) 2015-06-22 2015-06-22 画像表示システムおよび画像表示方法

Publications (3)

Publication Number Publication Date
JP2017010241A true JP2017010241A (ja) 2017-01-12
JP2017010241A5 JP2017010241A5 (ja) 2018-07-12
JP6544073B2 JP6544073B2 (ja) 2019-07-17

Family

ID=57587131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015124490A Active JP6544073B2 (ja) 2015-06-22 2015-06-22 画像表示システムおよび画像表示方法

Country Status (3)

Country Link
US (1) US20160371859A1 (ja)
JP (1) JP6544073B2 (ja)
CN (1) CN106257923B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180128246A (ko) * 2017-05-23 2018-12-03 현대자동차주식회사 터치 패드 오인식 방지 방법 및 장치
JP2021128698A (ja) * 2020-02-17 2021-09-02 富士通株式会社 情報処理装置、情報処理プログラム、及び情報処理システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182109A (ja) * 2016-03-28 2017-10-05 セイコーエプソン株式会社 表示システム、情報処理装置、プロジェクター及び情報処理方法
EP3523738A4 (en) * 2016-10-07 2020-03-04 Kpmg Australia IP Holdings Pty Ltd METHOD AND SYSTEM FOR COLLECTING, VIEWING AND ANALYZING RISK DATA
US10521937B2 (en) 2017-02-28 2019-12-31 Corel Corporation Vector graphics based live sketching methods and systems
CN111145315A (zh) * 2019-12-14 2020-05-12 中国科学院深圳先进技术研究院 绘画方法、装置、玩具机器人及可读存储介质
JP2021099430A (ja) * 2019-12-23 2021-07-01 セイコーエプソン株式会社 表示装置の制御方法及び表示装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165335A (ja) * 2003-12-04 2005-06-23 Microsoft Corp スケーラブルディスプレイ
JP2007505371A (ja) * 2003-07-28 2007-03-08 クプカ,シグ,ジー. オブジェクトを囲むゾーンを用いるオンスクリーンオブジェクトの操作
US20070188719A1 (en) * 2006-02-15 2007-08-16 Mersive Technologies, Llc Multi-projector intensity blending system
JP2010176190A (ja) * 2009-01-27 2010-08-12 Ntt Docomo Inc モード設定システム
JP2010224535A (ja) * 2009-03-20 2010-10-07 Seiko Epson Corp コンピューター読み取り可能な記憶媒体、画像処理装置および画像処理方法
JP2011221940A (ja) * 2010-04-14 2011-11-04 Celsys:Kk 画像作成編集ツールのプレビュー方法およびプログラム
JP2014052930A (ja) * 2012-09-10 2014-03-20 Seiko Epson Corp 表示装置、および、表示装置の制御方法
JP2014063488A (ja) * 2012-09-21 2014-04-10 Sharp Corp デジタル・マーキング装置の特性を設定するための方法、システムおよび装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346583A (ja) * 2004-06-04 2005-12-15 Canon Inc 画像表示装置、マルチディスプレイ・システム、座標情報出力方法及びその制御プログラム
JP4561668B2 (ja) * 2006-03-28 2010-10-13 セイコーエプソン株式会社 プロジェクタ、表示画像調整方法、この方法を実行するプログラム、及びこのプログラムを記録した記録媒体
US8102332B2 (en) * 2009-07-21 2012-01-24 Seiko Epson Corporation Intensity scaling for multi-projector displays
JP5350488B2 (ja) * 2009-11-27 2013-11-27 キヤノン株式会社 画像処理装置および画像処理方法
US9110495B2 (en) * 2010-02-03 2015-08-18 Microsoft Technology Licensing, Llc Combined surface user interface
JP2011217303A (ja) * 2010-04-02 2011-10-27 Seiko Epson Corp マルチプロジェクションシステム及びマルチプロジェクションシステムにおけるプロジェクター設置方法
GB2487043B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction and illumination system and method
CN201984452U (zh) * 2010-11-22 2011-09-21 范治江 宽屏交互式电子白板系统
CN103246382B (zh) * 2012-02-13 2017-03-01 联想(北京)有限公司 控制方法及电子设备
JP5971973B2 (ja) * 2012-02-21 2016-08-17 キヤノン株式会社 投影装置
US9134814B2 (en) * 2012-04-05 2015-09-15 Seiko Epson Corporation Input device, display system and input method
KR20140046327A (ko) * 2012-10-10 2014-04-18 삼성전자주식회사 멀티 디스플레이 장치, 입력 펜, 멀티 디스플레이 장치의 제어 방법 및 멀티 디스플레이 시스템
US20140267019A1 (en) * 2013-03-15 2014-09-18 Microth, Inc. Continuous directional input method with related system and apparatus
JP6206804B2 (ja) * 2013-09-27 2017-10-04 パナソニックIpマネジメント株式会社 移動体追跡装置、移動体追跡システムおよび移動体追跡方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007505371A (ja) * 2003-07-28 2007-03-08 クプカ,シグ,ジー. オブジェクトを囲むゾーンを用いるオンスクリーンオブジェクトの操作
JP2005165335A (ja) * 2003-12-04 2005-06-23 Microsoft Corp スケーラブルディスプレイ
US20070188719A1 (en) * 2006-02-15 2007-08-16 Mersive Technologies, Llc Multi-projector intensity blending system
JP2010176190A (ja) * 2009-01-27 2010-08-12 Ntt Docomo Inc モード設定システム
JP2010224535A (ja) * 2009-03-20 2010-10-07 Seiko Epson Corp コンピューター読み取り可能な記憶媒体、画像処理装置および画像処理方法
JP2011221940A (ja) * 2010-04-14 2011-11-04 Celsys:Kk 画像作成編集ツールのプレビュー方法およびプログラム
JP2014052930A (ja) * 2012-09-10 2014-03-20 Seiko Epson Corp 表示装置、および、表示装置の制御方法
JP2014063488A (ja) * 2012-09-21 2014-04-10 Sharp Corp デジタル・マーキング装置の特性を設定するための方法、システムおよび装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180128246A (ko) * 2017-05-23 2018-12-03 현대자동차주식회사 터치 패드 오인식 방지 방법 및 장치
KR102355422B1 (ko) * 2017-05-23 2022-01-26 현대자동차주식회사 터치 패드 오인식 방지 방법 및 장치
JP2021128698A (ja) * 2020-02-17 2021-09-02 富士通株式会社 情報処理装置、情報処理プログラム、及び情報処理システム
JP7334649B2 (ja) 2020-02-17 2023-08-29 富士通株式会社 情報処理装置、情報処理プログラム、及び情報処理システム

Also Published As

Publication number Publication date
US20160371859A1 (en) 2016-12-22
CN106257923B (zh) 2020-04-14
JP6544073B2 (ja) 2019-07-17
CN106257923A (zh) 2016-12-28

Similar Documents

Publication Publication Date Title
JP6544073B2 (ja) 画像表示システムおよび画像表示方法
CN105938413B (zh) 显示装置以及显示控制方法
US10276133B2 (en) Projector and display control method for displaying split images
US9857969B2 (en) Display apparatus, display control method, and computer program
US9939943B2 (en) Display apparatus, display system, and display method
US10274816B2 (en) Display device, projector, and display control method
US9830723B2 (en) Both-direction display method and both-direction display apparatus
JP2017182109A (ja) 表示システム、情報処理装置、プロジェクター及び情報処理方法
US20150279336A1 (en) Bidirectional display method and bidirectional display device
WO2018109876A1 (ja) 表示装置、電子黒板システム及びユーザーインターフェース設定方法
JP6540275B2 (ja) 表示装置および画像表示方法
RU2665296C2 (ru) Способ двунаправленного отображения и устройство двунаправленного отображения
KR20180099954A (ko) 표시 장치, 프로젝터 및, 표시 제어 방법
JP6682768B2 (ja) 表示システム、表示装置、情報処理装置及び制御方法
JP6520227B2 (ja) 表示装置および表示制御方法
JP2016162331A (ja) 情報処理装置
US11983393B2 (en) Image processing method and image processing device
CN113093935B (zh) 显示装置的控制方法及显示装置
US20180039407A1 (en) Display device and display control method
US20220397977A1 (en) Image processing method and image processing device
JP2023097686A (ja) 表示方法、及び、表示装置
JP2016126548A (ja) 表示装置、表示制御プログラム
JP2020173328A (ja) 表示方法および表示装置
JP2020173327A (ja) 表示方法および表示装置
JP2017182246A (ja) 表示装置および情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180906

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R150 Certificate of patent or registration of utility model

Ref document number: 6544073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150