JP5585505B2 - 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム - Google Patents

画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム Download PDF

Info

Publication number
JP5585505B2
JP5585505B2 JP2011059053A JP2011059053A JP5585505B2 JP 5585505 B2 JP5585505 B2 JP 5585505B2 JP 2011059053 A JP2011059053 A JP 2011059053A JP 2011059053 A JP2011059053 A JP 2011059053A JP 5585505 B2 JP5585505 B2 JP 5585505B2
Authority
JP
Japan
Prior art keywords
image
superimposed
display
composite
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011059053A
Other languages
English (en)
Other versions
JP2012194850A (ja
Inventor
岳明 有住
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011059053A priority Critical patent/JP5585505B2/ja
Priority to TW101108518A priority patent/TW201241679A/zh
Priority to US14/001,741 priority patent/US10037120B2/en
Priority to PCT/JP2012/001793 priority patent/WO2012124329A1/en
Priority to CN201210068882.6A priority patent/CN102722289B/zh
Publication of JP2012194850A publication Critical patent/JP2012194850A/ja
Application granted granted Critical
Publication of JP5585505B2 publication Critical patent/JP5585505B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)

Description

本発明は、画像表示装置に画像を出力する画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラムに関する。
従来、表示面に対してタッチペン等の座標入力デバイスで操作を行うことにより、手書き入力を行うことが可能なシステムが知られている(例えば、特許文献1参照)。特許文献1記載のシステムのように、座標入力デバイスを用いて描画を行ったり、情報の処理を指示したりする場合、例えばメニュー画面のような操作用のグラフィックスを用いたグラフィカルユーザーインターフェイス(GUI:Graphical User Interface)が採用される。特許文献1のシステムでは、表示画面に操作用のグラフィックであるメニュー画面が配置され、このメニュー画面を操作することによって手書き入力した情報を処理させることが可能となっている。
特開2009−157448号公報
ところで、メニュー画面のような操作用のグラフィックスを表示すると、その表示位置においては描画等の操作を行えなくなるので、操作用のグラフィックスが不必要に表示されると操作性を損なうおそれがある。その一方で、操作用のグラフィックスが必要なときに表示されていないことも操作性を損なう要因となり得る。このため、必要な場合にGUIの操作用グラフィックスを表示する一方、この操作用グラフィックスが操作の妨げにならないような制御方法が望まれていた。
本発明は、上述した事情に鑑みてなされたものであり、画像が表示された表示面への操作により位置入力が可能なGUIの操作用グラフィックスを、操作の妨げにならないように適切に表示することを目的とする。
上記課題を解決するため、本発明は、画像を表示面に表示する画像表示装置、及び前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置とともに用いられる画像供給装置であって、前記操作検出装置が検出した指示位置に基づいて、原画像に重畳表示する重畳画像を生成する描画手段と、前記描画手段により生成された前記重畳画像を前記原画像に重畳して第1の合成画像を生成する第1の画像生成手段と、前記原画像が変化した場合に、前記描画手段が生成した前記重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成する第2の画像生成手段と、前記第2の合成画像を前記画像表示装置に出力する出力手段とを備えることを特徴とする。
本発明によれば、表示面に対する操作に応じて重畳画像が生成され、この重畳画像がもとの表示画像に重畳して表示され、さらに、もとの表示画像が変化した場合に、重畳画像の処理を指示するための操作用画像が表示される。これにより、操作に応じて画像を生成して表示する機能を実行する際に、この生成された画像の処理を指示する操作用画像を、画像を生成する操作の妨げにならないように、必要な場合に表示できる。
また、本発明は、上記画像供給装置において、前記操作用画像は、前記描画手段が生成した前記重畳画像、または前記第1の画像生成手段が生成した第1の合成画像の消去処理及び保存処理のうち少なくとも一方を指示するボタンを含むことを特徴とする。
本発明によれば、表示面に対する操作によって生成された重畳画像、またはこの重畳画像を原画像に重畳した第1の合成画像の保存または消去を指示できる操作用画像が必要な場合に表示されるので、画像を消去する操作や画像を保存する操作を速やかに行える。
また、本発明は、上記画像供給装置システムにおいて、前記第2の画像生成手段は、前記操作検出装置により検出された指示位置をもとに、前記操作用画像の表示位置を決定することを特徴とする。
本発明によれば、操作用画像を操作位置に近づけて表示し、利便性の向上を図ることや、操作の妨げにならないように操作位置から離れた場所に表示することができ、操作性の向上を図ることができる。
また、上記課題を解決するため、本発明は、画像を出力する画像供給装置と、前記画像供給装置が出力する画像を表示面に表示する画像表示装置と、前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置とを有し、前記画像供給装置は、原画像を取得して前記画像表示装置に出力する出力手段と、前記操作検出装置が検出した指示位置に基づいて、前記原画像に重畳表示する重畳画像を生成する描画手段と、前記描画手段により生成された重畳画像を前記原画像に重畳して第1の合成画像を生成する第1の画像生成手段と、前記原画像が変化した場合に、前記描画手段が生成した重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成する第2の画像生成手段と、前記第2の合成画像を前記画像表示装置に出力する出力手段とを備えることを特徴とする。
本発明によれば、表示面に対する操作に応じて重畳画像が生成され、この重畳画像がもとの表示画像に重畳して表示され、さらに、もとの表示画像が変化した場合に、重畳画像の処理を指示するための操作用画像が表示される。これにより、操作に応じて画像を生成して表示する機能を実行する際に、この生成された画像の処理を指示する操作用画像を、画像を生成する操作の妨げにならないように、必要な場合に表示できる。
また、本発明は、上記画像表示システムにおいて、前記表示面に対する位置指示操作と、位置指示操作以外の特定の操作とが可能な操作用デバイスを備え、前記操作検出装置は、前記操作用デバイスの位置指示操作により指示された位置を検出する一方、前記操作用デバイスによる前記特定の操作を検出し、前記画像供給装置の前記第2の画像生成手段は、前記操作検出装置が前記操作用デバイスによる特定の操作を検出した場合に、前記操作用画像を表示させることを特徴とする。
本発明によれば、操作用デバイスの特定の操作によって、操作用画像を表示させることができるので、表示画像の変化により表示する機能に加え、操作者が必要な場合に意図して操作用画像を呼び出すことができる。これにより、操作者の意図を反映して操作性のより一層の向上を図ることができる。
また、上記画像表示システムにおいて、前記画像表示装置が前記操作検出装置を備える構成としてもよく、この場合、画像表示装置によって表示面に対する操作を検出することで、表示面近傍の装置の数を減らして設置性を向上させることができ、また、より正確に操作を検出できる。
また、上記課題を解決するため、本発明は、画像を表示面に表示する画像表示装置であって、前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置が検出した指示位置に基づいて、原画像に重畳表示する重畳画像を生成する描画手段と、前記描画手段により生成された前記重畳画像を前記原画像に重畳して第1の合成画像を生成する第1の画像生成手段と、前記原画像が変化した場合に、前記描画手段が生成した前記重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成する第2の画像生成手段と、前記第2の合成画像を表示する表示手段とを備えることを特徴とする。
本発明によれば、画像表示装置が表示面に対する操作に応じて重畳画像を生成し、この重畳画像をもとの表示画像に重畳して表示し、さらに、もとの表示画像が変化した場合に、重畳画像の処理を指示するための操作用画像を表示する。これにより、操作に応じて画像を生成して表示する機能を実行する際に、この生成された画像の処理を指示する操作用画像を、画像を生成する操作の妨げにならないように、必要な場合に表示できる。
また、上記課題を解決するため、本発明は、画像を表示面に表示する画像表示装置、及び前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置とともに用いられる画像供給装置の制御方法であって、表示用の画像を取得して前記画像表示装置に出力するとともに、前記操作検出装置が検出した指示位置に基づいて、原画像に重畳表示する重畳画像を生成し、生成した前記重畳画像を前記原画像に重畳して第1の合成画像を生成して、前記画像表示装置に出力し、前記原画像が変化した場合には、生成した前記重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成し、この第2の合成画像を前記画像表示装置に出力することを特徴とする。
本発明の制御方法を実行することにより、表示面に対する操作に応じて重畳画像が生成され、この重畳画像がもとの表示画像に重畳して表示され、さらに、もとの表示画像が変化した場合に、重畳画像の処理を指示するための操作用画像が表示される。これにより、操作に応じて画像を生成して表示する機能を実行する際に、この生成された画像の処理を指示する操作用画像を、画像を生成する操作の妨げにならないように、必要な場合に表示できる。
また、上記課題を解決するため、本発明は、画像を表示面に表示する画像表示装置、及び前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置とともに用いられるコンピューターが実行可能なプログラムであって、前記コンピューターを、原画像を取得して前記画像表示装置に出力する出力手段と、前記操作検出装置が検出した指示位置に基づいて、原画像に重畳表示する重畳画像を生成する描画手段と、前記描画手段により生成された前記重畳画像を前記原画像に重畳して第1の合成画像を生成する第1の画像生成手段と、前記原画像が変化した場合に、前記描画手段が生成した前記重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成する第2の画像生成手段と、前記第2の合成画像を前記画像表示装置に出力する出力手段として機能させることを特徴とするプログラムである。
本発明のプログラムをコンピューターにより実行することで、表示面に対する操作に応じて重畳画像が生成され、この重畳画像がもとの表示画像に重畳して表示され、さらに、もとの表示画像が変化した場合に、重畳画像の処理を指示するための操作用画像が表示される。これにより、操作に応じて画像を生成して表示する機能を実行する際に、この生成された画像の処理を指示する操作用画像を、画像を生成する操作の妨げにならないように、必要な場合に表示できる。
また、画像を表示面に表示する画像表示装置、及び前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置とともに用いられるコンピューターコンピューターにより読み取り可能な記録媒体であって、上記記録媒体に、前記コンピューターを、原画像を取得して前記画像表示装置に出力する出力手段と、前記操作検出装置が検出した指示位置に基づいて、原画像に重畳表示する重畳画像を生成する描画手段と、前記描画手段により生成された前記重畳画像を前記原画像に重畳して第1の合成画像を生成する第1の画像生成手段と、前記原画像が変化した場合に、前記描画手段が生成した前記重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成する第2の画像生成手段と、前記第2の合成画像を前記画像表示装置に出力する出力手段として機能させるプログラムを、前記コンピューターによって読み取り可能に記録してもよい。
本発明によれば、操作に応じて画像を生成して表示する機能を実行する際に、この生成された画像の処理を指示するための操作用画像を、画像を生成する操作の妨げにならないように、必要な場合に表示できる。
本発明の実施形態に係る表示システムの構成を示す図である。 ペン型デバイスによるスクリーンへの操作の態様を示す図である。 表示システムの機能的構成を示すブロック図である。 スクリーンにメニューバーを表示する様子を示す図であり、(A)はメニューバーが表示されていない例を示し、(B)は表示用画像が切り替えられた例を示し、図4(C)はメニューバーが表示された例を示す。 操作用グラフィックスの構成例を示す図である。 操作用グラフィックスの表示態様の別の例を示す図である。 表示システムの動作を示すフローチャートである。
以下、図面を参照して本発明を適用した実施形態について説明する。
図1は、実施形態に係る表示システム10の構成を示す図である。
表示システム10(画像表示システム)は、スクリーンSCに画像を投射するプロジェクター11と、このプロジェクター11に対して画像を送信するPC(Personal Computer)13とを備えて構成される。プロジェクター11とPC13とは通信ネットワーク12を介して相互に通信可能に接続され、また、通信ネットワーク12には複数台のPC13が接続されている。各PC13は、それぞれプロジェクター11を制御するプロジェクター制御プログラム13Aを実行可能であり、個別にプロジェクター11を制御することが可能であるが、プロジェクター11を同時に制御可能なPC13は1台である。このため、各PC13は、他のPC13がプロジェクター11を制御していない状態で、プロジェクター11の制御を開始できる。
通信ネットワーク12は、例えばEthernet(登録商標)規格に準拠して構成されたLANであるが、その一部を公衆回線網や専用線で構成して遠隔地のPC13を接続してもよく、通信ネットワーク12の具体的構成は任意である。また、表示システム10が備えるPC13の数に制限はない。各PC13は同様の構成となっているため、図1には1台のPC13について機能ブロックを図示する。
プロジェクター11は、画像表示装置として機能し、スクリーンSCに対してPC13から入力される表示用画像201を投射する。また、プロジェクター11は操作検出装置として機能し、スクリーンSC上でペン型デバイス15が操作された場合に、このペン型デバイス15の操作位置を検出して、検出した位置をPC13に送信する。表示システム10では、スクリーンSCでペン型デバイス15を操作すると、このペン型デバイス15の操作に追従して描画画像211を描画して、投射中の表示用画像201に重ねて描画画像211をスクリーンSCに投射する機能を有する。これにより、表示用画像201に重ねて絵を描いたり、表示用画像201を用いたプレゼンテーションの実行中に、表示用画像201に文字や記号等を書き込んだりすることができる。また、ペン型デバイス15はスイッチ15Aを備えており、プロジェクター11はスイッチ15Aの操作を検出して後述するメニューバー221(図4(B))を表示する。
図2は、ペン型デバイス15によるスクリーンSCへの操作態様を示す図である。
この図2に示す例では、プロジェクター11は、画像を投射するための開口部(図示略)が設けられた天面部2Aを下方に向けた状態で使用されるものであり、スクリーンSCが形成される壁面に取り付けられたアーム14に、天面部2Aとは反対側の底面部2Bが固定されて使用される。底面部2Bには、アーム14に連結される金具類を取り付け可能な取付部が適所に複数設けられ、PC13等の外部の装置に繋がる通信ケーブルやプロジェクター11の電源ケーブル等が接続されるケーブル接続部(図示略)が設けられる。これらのケーブルはアーム14内を挿通し、表示システム10が設置された室の天井や壁面内部に配線される。また、スクリーンSCは壁面に固定された平板に限らず、壁面自体をスクリーンSCとして使用することも可能である。
プロジェクター11の外装筐体2には、図2の設置状態においてスクリーンSC側を向く傾斜面21Aが形成され、この傾斜面21Aから後述する投射光学系33(図3)が投射光をスクリーンSCに向けて投射する。このため図2に示すように、スクリーンSCには、斜め上方から投射光が当たって画像が投射される。
ここで、ペン型デバイス15を操作する操作者はスクリーンSCの前に立ち、ペン型デバイス15をスクリーンSC上で移動させ、或いはペン型デバイス15でスクリーンSC上の位置を指し示す操作を行う。ペン型デバイス15は、赤外光を放射する発光部(図示略)を備えており、プロジェクター11は、ペン型デバイス15が発する赤外光を受光して、スクリーンSCにおけるペン型デバイス15の位置を検出する機能を有する。具体的には、ペン型デバイス15は、その側面に赤外LEDを内蔵した発光窓を備え、この発光窓から赤外光を発する構成を有し、プロジェクター11は、赤外光を検出する赤外光撮像部を傾斜面21Aに設けて、傾斜面21AからスクリーンSCを撮影する。この構成により、スクリーンSC上におけるペン型デバイス15の位置をプロジェクター11によって検出できる。
また、プロジェクター11は、ペン型デバイス15の使用開始に先だって、予め用意された調整用の画像をスクリーンSCに投射し、この調整用の画像上の点をペン型デバイス15によって順次指し示す操作を行わせて、検出位置のキャリブレーションを行う。
さらに、ペン型デバイス15の側面には押圧操作可能なスイッチ15Aが設けられ、操作者がスイッチ15Aを押下すると、ペン型デバイス15の発光部からスイッチ15Aの操作を示す赤外線信号が送信される。この赤外線信号をプロジェクター11が受光し、デコードすることにより、ペン型デバイス15が指示する位置と、その位置におけるスイッチ15Aの操作とをプロジェクター11が検出できる。プロジェクター11は、検出した位置と、スイッチ15Aの操作の有無を示す情報とをPC13に送信する。
PC13は、プロジェクター11から受信した位置情報に基づき、この位置に投射画像に重ねて描画を行って新たな投射画像を作成する等の処理を行って、位置入力操作の内容を投射画像に反映させる。
また、PC13は、図1に示すように、基本制御プログラムを実行してPC13の各部を制御するとともに、各種アプリケーションプログラムを実行して、画像供給装置としての機能を実現するCPU131、CPU131が実行する基本制御プログラム等を不揮発的に記憶するROM132、CPU131が実行するプログラムやCPU131が処理するデータ等を一時的に記憶するRAM133、CPU131が実行するアプリケーションプログラム及び当該アプリケーションプログラムの機能により処理するデータを記憶する記憶部134、キーボードやマウス等の入力デバイスによる入力操作を検出して操作内容を示すデータをCPU131に出力する入力部135、CPU131による処理結果等をディスプレイやプリンター等の出力デバイスに出力する出力部136、及び、通信ネットワーク12を介して他のPC13やプロジェクター11との間で通信を実行する通信I/F137を備えている。
記憶部134は、プロジェクター11を制御して、プロジェクター11に画像を投射させるとともに、ペン型デバイス15による操作に対応した処理を行うためのアプリケーションプログラムであるプロジェクター制御プログラム13Aを記憶している。また、記憶部134は、プロジェクター11によって投射される表示画像データ13Bを記憶している。表示画像データ13Bは、静止画像データ、動画像データ、複数の静止画像を含むプレゼンテーションファイル等の統合データを含み、特定のアプリケーションプログラムにより再生可能なファイルを含む。PC13は、表示画像データ13Bを用いて出力部136によってディスプレイに画像を表示させるとともに、この表示される画像と同じ画像をプロジェクター11に送信することができ、また、表示画像データ13Bを再生してプロジェクター11に対してのみ画像を送信することもできる。
図3は、表示システム10の機能的構成を示すブロック図である。
プロジェクター11は、PC13やビデオ再生装置、DVD再生装置等の外部の装置に接続される外部I/F(インターフェイス)部101を備えている。例えば、外部I/F部101は、USBインターフェイス、有線または無線LANインターフェイス、アナログ映像信号が入力されるVGA端子、デジタル映像信号が入力されるDVI(Digital Visual Interface)、NTSC、PAL、SECAM等のコンポジット映像信号が入力されるS映像端子、コンポジット映像信号が入力されるRCA端子、コンポーネント映像信号が入力されるD端子、HDMI(登録商標)規格に準拠したHDMIコネクター等を備えている。本実施形態のプロジェクター11は、外部I/F部101のLANインターフェイスを介して通信ネットワーク12に接続される。
プロジェクター11は、大きく分けて光学的な画像の形成を行う光学系と映像信号を電気的に処理する画像処理系とからなる。光学系としての投射部3(表示手段)は、照明光学系31、光変調装置である液晶パネル32、及び投射光学系33から構成されている。照明光学系31は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)等からなる光源を備えている。また、照明光学系31は、光源が発した光を液晶パネル32に導くリフレクター及び補助リフレクターを備えていてもよく、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光の光量を液晶パネル32に至る経路上で低減させる調光素子等を備えたものであってもよい。
液晶パネル32は、後述する画像処理系からの信号を受けて、パネル面に画像を形成する。液晶パネル32は、カラーの投影を行うため、RGBの三原色に対応した3枚の液晶パネルからなる。そのため、照明光学系31からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系33に射出される。
投射光学系33は、投射する画像の拡大・縮小および焦点の調整を行うズームレンズ、ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調整用モーター、投射光をスクリーンSCに向ける凹面鏡等を備えている。投射光学系33は、液晶パネル32で変調された入射光を、ズームレンズを通してズーム調整及びフォーカス調整し、このズームレンズを通った光を凹面鏡によりスクリーンSC方向へ導き、スクリーンSC上に結像させる。この光学系には、制御部103の制御に従って投射光学系33が備える各モーターを駆動する投射光学系駆動部121、及び、制御部103の制御に従って照明光学系31が備える光源を駆動する光源駆動部117が接続されている。なお、投射光学系33の具体的構成は上記の例に限定されず、例えば凹面鏡を含むミラーを用いない構成により、液晶パネル32で変調された光をレンズによってスクリーンSCに投射し、結像させることも可能である。
一方、画像処理系は、プロジェクター11全体を統合的に制御する制御部103を中心に構成され、制御部103が処理するデータや制御部103が実行するプログラムを記憶した記憶部105、操作パネル23及びリモコン受光部41を介した操作を検出する入力処理部123、外部I/F部101を介して入力された入力映像を処理する表示制御部107、フレームメモリー115を備えた画像処理部113、表示制御部107から出力される映像信号に基づいて液晶パネル32を駆動して描画を行う光変調装置駆動部119を備えている。
制御部103は、記憶部105に記憶された制御プログラム105Aを読み出して実行することにより、プロジェクター11の各部を制御する。制御部103は、入力処理部123から入力される操作信号に基づいて、操作者が行った操作の内容を検出し、この操作に応じて表示制御部107、投射光学系駆動部121及び光源駆動部117を制御して、スクリーンSCに映像を投射させる。
プロジェクター11の外装筐体2には、各種スイッチ及びインジケーターランプを備えた操作パネル23が配置されている。操作パネル23は入力処理部123に接続されており、入力処理部123は、制御部103の制御に従い、プロジェクター11の動作状態や設定状態に応じて操作パネル23のインジケーターランプを適宜点灯或いは点滅させる。この操作パネル23のスイッチが操作されると、操作されたスイッチに対応する操作信号が入力処理部123から制御部103に出力される。
また、プロジェクター11は、操作者が使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を、リモコン受光部41によって受光する。リモコン受光部41は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作信号を生成し、制御部103に出力する。
外部I/F部101には表示制御部107が接続される。表示制御部107に接続された画像処理部113は、表示制御部107に外部I/F部101を介して入力される入力映像をフレームメモリー115に展開し、アナログ/デジタル変換、インターレース/プログレッシブ変換、解像度変換等の各種変換処理を適宜実行し、予め設定されたフォーマットの映像信号を生成して表示制御部107に出力する。表示制御部107は、画像処理部113により処理された映像信号を光変調装置駆動部119に出力し、液晶パネル32に表示させる。
また、プロジェクター11は、上述したようにペン型デバイス15が発する赤外光を検出する赤外線受光部42を備えている。赤外線受光部42は、具体的にはスクリーンSCの赤外光を撮影する撮像素子と、この撮像素子によって取得された撮影画像データを出力する撮影回路とを備えて構成される。赤外線受光部42は、制御部103の制御に従ってスクリーンSCを所定の周期で撮影し、撮影画像データを制御部103に出力する。
制御部103は、記憶部105に記憶された制御プログラム105Aを実行することにより、操作検出部102として機能する。この操作検出部102の機能により、プロジェクター11は操作検出装置として動作する。制御部103は、操作検出部102の機能によって、赤外線受光部42から入力される撮影画像データに基づいてスクリーンSC上におけるペン型デバイス15の指示位置を特定する。例えば、スクリーンSC上に仮想X−Y直交座標が設定され、操作検出部102は、赤外線受光部42から入力されるデータに基づいて、指示位置のX座標とY座標とを求める処理を行う。また、赤外線受光部42は、ペン型デバイス15がスイッチ15Aの操作時に発する赤外線信号を受信した場合に、対応する操作データを操作検出部102に出力する。操作検出部102は、赤外線受光部42から入力されるデータに基づいてスイッチ15Aの操作を検出する。操作検出部102は、ペン型デバイス15の指示位置とスイッチ15Aの操作状態とを示すデータを、外部I/F部101を介してPC13へ送信する。ここで送信先となるPC13は、現在プロジェクター制御プログラム13Aを実行してプロジェクター11を制御しているPC13である。
PC13は、図1に示すCPU131によってプロジェクター制御プログラム13Aを実行することにより、画像出力部51(出力手段)、出力画像生成部52(第1の画像生成手段)、重畳画像生成部53(描画手段)、及びGUI制御部54(第2の画像生成手段)としての機能を実現する。
PC13は、画像出力部51の機能により、記憶部134に記憶された表示画像データ13Bを再生して画像をプロジェクター11に送信する。また、PC13は、重畳画像生成部53の機能によって、プロジェクター11から通信I/F137により受信したデータに基づいて、ペン型デバイス15の指示位置を検出し、検出した位置の軌跡に沿って線や図形を描画する。すなわち、線や図形の画像を生成し、この生成した画像(重畳画像)を重畳画像生成部53に出力する。重畳画像生成部53は、現在出力中の画像(例えば、表示画像データ13Bを再生した画像)に、出力画像生成部52が生成した重畳画像を重畳して画像を合成し、新たな表示用の画像を生成する。そして、出力画像生成部52は、生成した新たな表示用の画像を画像出力部51によってプロジェクター11へ送信させる。
さらに、PC13は、GUI制御部54の機能により、スクリーンSCに後述するメニューバー221(図4(B))を表示させる制御を行う。GUI制御部54は、メニューバー221の画像を記憶部134から読み出して、重畳画像生成部53に出力し、重畳画像を生成して出力画像生成部52に出力する際に、メニューバー221の画像も合わせて重畳するよう制御を行い、メニューバー221の画像を出力画像生成部52へ出力する。出力画像生成部52は、出力中の画像に、重畳画像生成部53が生成した重畳画像と、GUI制御部54が取得したメニューバー221の画像とを重ねることで新たな表示用の画像を生成し、この画像を画像出力部51によって送信させる。
本実施形態のPC13は、プロジェクター11に表示させる画像が変化した場合に、GUI制御部54によりメニューバー221を表示させる。画像が変化した場合とは、例えば、複数枚のスライドからなるファイルを再生している間に、表示されるスライドが切り替わった場合を指す。PC13は、画像出力部51によりプロジェクター11に送信している画像を所定時間毎に比較して前後の画像の差分を求め、この差分が予め設定されたしきい値を越える場合に、画像が変化したと判定する。PC13は、静止画像であっても動画像であっても、所定のフレームレートでフレーム毎に画像を送信するので、静止画像であっても同一画像のフレームを連続して送信することになる。そこで、プロジェクター11にフレームを送信する毎に、その前に送信したフレームとの差分を求めれば、速やかに画像の変化を検出できる。なお、差分を求める処理の負荷を軽減するため、比較の頻度を複数フレーム毎にしてもよい。
図4は、スクリーンSCにメニューバー221を表示する様子を示す説明図であり、図4(A)はメニューバー221が表示されていない例を示し、図4(B)は表示用画像が切り替えられた例を示し、図4(C)はメニューバー221が表示された例を示す。
図4(A)の例ではスクリーンSCに教育用のスライドが表示用画像201として表示されており、ペン型デバイス15の軌跡に沿って描画画像211が表示されている。描画画像211は、操作検出部102が検出したペン型デバイス15の位置の軌跡をたどって重畳画像生成部53が生成した重畳画像である。
ここで、スクリーンSCに投射されている表示用画像201が、操作パネル23またはリモコンの操作によって図4(B)に示す表示用画像202に切り替えられると、表示用画像201と表示用画像202との差分がしきい値を越える。例えば、図4(B)に示す表示用画像202には、図4(A)に示す表示用画像201には無い線が現れている。表示用画像201は教育用の問題であり、表示用画像202は、教育用の表示用画像201の続きとして、正解が明記された画像となっている。表示用画像202で新たに現れた線、すなわち相違部分は問題の解答である。この表示用画像202と表示用画像201との差がしきい値を超えたことにより、スクリーンSCに投射中の表示用画像202に重ねて、図4(C)に示すようにメニューバー221が表示される。
ここで、表示用画像201は原画像に相当し、図4(A)及び(B)で表示用画像201に描画された描画画像211が重畳された画像は第1の合成画像に相当し、図4(C)でメニューバー221が重畳表示された画像は第2の合成画像に相当する。
メニューバー221は特定の機能が割り当てられたボタンが複数配置された操作用グラフィックス(操作用画像)であり、ペン型デバイス15によりメニューバー221の各ボタンを指定する操作を行うと、操作されたボタンに対応する処理をPC13が実行する。PC13は、GUI制御部54の機能によって、プロジェクター11にメニューバー221を表示させる。このため、GUI制御部54の機能によって、メニューバー221の表示位置、サイズ、配置されたボタンの種類等のデータを保持しており、ペン型デバイス15の操作位置に対応するボタンを特定し、このボタンに対応する動作をCPU131により実行できる。
図5は操作用グラフィックスの一態様としてのメニューバー221の構成例を示す図である。
この図5に示す例では、メニューバー221には描画ボタン231、描画設定ボタン232、消しゴムボタン233、UNDO/REDOボタン234、選択開始ボタン235、全消去ボタン241及び画面キャプチャーボタン242の各ボタンが配置されている。描画ボタン231及び描画設定ボタン232は、ペン型デバイス15の操作によって描画をする場合の線の太さや線の色、線の端の形状等を設定するボタンである。消しゴムボタン233は、ペン型デバイス15の操作により既に描画された線や記号等のうち指定した位置を消去する、いわゆる消しゴム機能の開始を指示するボタンである。UNDO/REDOボタン234は、直前に実行した動作の取り消しと、動作の再実行を指示するボタンである。選択開始ボタン235は、ペン型デバイス15の操作により既に描画された線や記号等の一部または全部を選択する動作の開始を指示するボタンであり、拡大ボタン236はペン型デバイス15の操作により既に描画された線や記号等の一部または全部の拡大表示を指示するボタンである。
また、全消去ボタン241は、ペン型デバイス15の操作により既に描画された線や記号等の全部の消去を指示するボタンであり、画面キャプチャーボタン242はペン型デバイス15の操作により既に描画された線や記号等の保存を指示するボタンである。画面キャプチャーボタン242の操作により、スクリーンSC上の描画画像211が、背景としてスクリーンSCに投射されている表示用画像201,202ごとキャプチャーされ、一つの画像としてPC13の記憶部134に保存される。
ここで、PC13は、描画画像211のみを画像として保存してもよいし、描画画像211と表示用画像201,202を区別可能なデータ形式で保存してもよい。また、キャプチャキャプチャーされたデータは、再びプロジェクター11によって表示用画像201,202とともに描画画像211を投射できるように記憶部134に記憶される。
このように、メニューバー221は、ペン型デバイス15の操作により描画された重畳画像としての描画画像211の処理を指示するボタンが集約された操作用グラフィックスである。図4(A)及び(B)に示すように、表示用画像201から表示用画像202に画像が変化した場合、ペン型デバイス15を操作する操作者は、既に描画した描画画像211を消したり、消した上で描き直したりすることが考えられる。この場合、描画画像211を保存し、消去し、再び描画可能な状態にするため、操作者はメニューバー221を表示させる必要が生じる。このため、表示用画像が変化したタイミングでメニューバー221を表示させることで、利便性が高まるという利点がある。また、表示用画像が変化していない間は描画画像211を処理する可能性が高くないので、メニューバー221を表示することで描画の妨げになる可能性がある。このため、表示用画像が変化した場合にメニューバー221を表示することで、通常時は邪魔にならず、必要なときにメニューバー221が現れる。このため、より一層の利便性の向上を図ることができる。
メニューバー221は、ペン型デバイス15の操作による描画操作に係る多数の機能、或いはPC13の制御により実行可能な全ての機能の操作ボタンが配置された操作用グラフィックスである。すなわち、ペン型デバイス15の操作によって、描画を行い、描画した内容の編集、消去及び保存に係る、PC13が実行可能な全て或いは多数の処理を指示するための操作用グラフィックスである。これに対し、ペン型デバイス15の操作によりPC13が実行可能な描画に係る処理の一部のみについて、当該処理を指示する操作用グラフィックスを表示する構成としてもよい。
図6は、操作用グラフィックスの一態様としてのメニューバー221の別の例を示す図である。
この図6の例では、複数のボタンを有するメニューバー221とは異なり、画面キャプチャーボタンのみが配置されたメニュー画像223や、全消去ボタンのみが配置されたメニュー画像225が表示される。これらメニュー画像223,225により指示される処理は、PC13が実行可能な描画に係る処理のうち一部のみであり、特に実行頻度が高い処理である画面キャプチャー(保存)、全消去(消去)を指示するボタンである。換言すれば、メニュー画像223及び225は、メニューバー221が対応している複数の機能のうち、一部の機能にそれぞれ対応する操作用グラフィックスである。また、メニュー画像223,225は、PC13が実行可能な処理のうち、描画領域であるスクリーンSCの投射領域全体に対する処理を指示する操作用グラフィックスということもできる。さらには、ペン型デバイス15の操作により描画を行った後で、次の表示用画像に切り替えて、新たに描画を開始する場合には、いったん描画された状態の投射領域全体を保存する画面キャプチャーを実行し、次いで全消去により描画内容を全て消去する動作が行われる。この観点から、メニュー画像223,225は、描画を終了して新たに描画を開始する際に必要な処理(機能)を指示するための操作用グラフィックスということができる。
これらメニュー画像223,225はボタンが一つであるためペン型デバイス15の操作の妨げにならないという利点がある。GUI制御部54(図3)は、スクリーンSCに表示される表示用画像の変化がしきい値を越えた場合に、メニュー画像223,225のみを表示用画像及び重畳画像に重畳させて表示させてもよい。
また、GUI制御部54がメニューバー221を表示させる位置は任意であるが、図6に示すようにスクリーンSC上右端の初期位置(規定の位置)としてもよいし、ペン型デバイス15の近くに表示してもよい。しかしながら、上記のようにペン型デバイス15の操作の妨げにならないことを考慮すると、ペン型デバイス15の近くに表示するのはメニュー画像223、225のような小型の操作用グラフィックスにすると良い。この場合に、メニュー画像223、225とメニューバー221とを組み合わせて、図6のように同時に表示しても良い。また、メニューバー221は表示させず、メニュー画像223及び225の少なくとも一方を表示しても良い。さらに、図6においてメニュー画像223及び225はそれぞれ1つの機能にのみ対応しているが、メニュー画像223及び225は2以上の機能に対応するものであっても良い。
図7は、表示システム10の動作を示すフローチャートであり、特に、PC13の動作を示す。
まず、プロジェクター11におけるリモコン装置や操作パネル23の操作、或いはPC13の入力部135が検出した操作によって、位置入力モードの開始が指示されると、CPU131はプロジェクター制御プログラム13Aを実行して位置入力モードの動作を開始する(ステップS11)。
続いて、CPU131はキャリブレーションを実行する(ステップS12)。このキャリブレーションでは、プロジェクター11にキャリブレーション用の画像を送信し、或いは、プロジェクター11が記憶部105からキャリブレーション用の画像を読み出して投射する。このキャリブレーション用の画像に対するペン型デバイス15の操作を検出し、検出した位置とキャリブレーション用のデータとを対比することでキャリブレーションが行われる。
その後、CPU131は記憶部134から表示画像データ13Bを取得して(ステップS13)、この表示画像データ13Bを再生して、画像出力部51による表示用画像の送信(出力)を開始する(ステップS14)。また、CPU131は、表示用画像の送信開始とともに、画像出力部51が取得してプロジェクター11に送信する画像の変化(フレーム間の差分)の検出を開始する(ステップS15)。
CPU131は、プロジェクター11が送信するデータに基づいてペン型デバイス15の指示位置を取得し(ステップS16)、取得した位置の軌跡に沿うように重畳画像生成部53の機能によって描画画像を生成する(ステップS17)。そして、出力画像生成部52の機能により描画画像を表示用の画像に重畳して新たな表示用の画像を生成して、画像出力部51によってプロジェクター11に送信する(ステップS18)。これにより、プロジェクター11がスクリーンSCに投射する画像が更新される。
CPU131は、画像出力部51が取得した画像に、しきい値を越える変化があったか否かを判別し(ステップS19)、変化があった場合にはGUI制御部54によってメニューバー221を表示する表示用の画像を生成して、画像出力部51によって11に出力し、スクリーンSCに投射させる(ステップS20)。
また、画像に変化がないと判別した場合であっても(ステップS19;No)、プロジェクター11からスイッチ15Aの操作を示すデータを受信した場合(ステップS21;Yes)には、ステップS20に移行してメニューバーを含む画像を投射させる。メニューバーを含む画像を表示させた後、CPU131は、位置入力モードを継続するか終了するかを判別し(ステップS22)、継続する場合(ステップS22;No)にはステップS16に戻る。また、画像に変化がなく(ステップS19;No)、スイッチ15Aの操作も無い場合(ステップS21;No)、CPU131はステップS22に移行する。
以上のように、本発明を適用した実施形態に係る表示システム10は、画像を出力するPC13と、PC13が出力する画像をスクリーンSCに投射する画像表示装置としての機能とスクリーンSCにおける位置指示操作に応じて指示位置を検出する操作検出部102とを有するプロジェクター11とを備え、PC13は、表示用の画像を取得してプロジェクター11に出力する画像出力部51と、操作検出部102が検出した指示位置に基づいて、表示用の画像に重畳表示する重畳画像を生成する重畳画像生成部53と、重畳画像生成部53により生成された重畳画像を表示用の画像に重畳して新たに表示用の画像を生成し、画像出力部51によって出力させる出力画像生成部52と、出力画像生成部52が重畳する前の画像が変化した場合に、重畳画像生成部53が生成した重畳画像の処理を指示するための操作用グラフィックスを、出力画像生成部52が生成した新たな表示用の画像に重畳し、この重畳した画像を画像出力部51によって出力させるGUI制御部54とを備えるので、スクリーンSCに対する操作に応じて描画画像211等の重畳画像が生成され、この重畳画像がもとの表示画像である表示用画像201,202に重畳して表示され、さらに、もとの表示画像が変化した場合に、重畳画像の処理を指示するための操作用グラフィックスが表示される。これにより、ペン型デバイス15の操作に応じて重畳画像を生成して表示する機能を実行する際に、この生成された画像の処理を指示する操作用グラフィックスを、画像を生成する操作の妨げにならないように、必要な場合に表示できる。すなわち、ペン型デバイス15を操作する操作者が、描画した重畳画像の処理を必要とする場合に、操作グラフィックスを表示させるので、不要な操作グラフィックスの表示によって操作を妨げることが無く、利便性の向上を図ることができる。
また、表示システム10は、スクリーンSCに対する位置指示操作と、位置指示操作以外にスイッチ15Aの押圧操作が可能なペン型デバイス15を備え、操作検出部102は、ペン型デバイス15の位置指示操作により指示された位置を検出する一方、スイッチ15Aの操作を検出し、PC13のGUI制御部54は、操作検出部102がスイッチ15Aの操作を検出した場合に、操作用グラフィックスを表示させる。このため、操作用グラフィックスを表示する機能に加え、操作者が必要な場合に意図してスイッチ15Aを操作することで、操作用グラフィックスを呼び出すことができる。これにより、操作者の意図を反映して操作性のより一層の向上を図ることができる。
また、プロジェクター11が操作検出部102を備え、スクリーンSCに対する操作を検出する構成としたので、スクリーンSC近傍の装置の数を減らして設置性を向上させることができ、また、より正確に操作を検出できる。
また、PC13は、重畳画像生成部53が生成した重畳画像の消去処理及び保存処理のうち少なくとも一方を指示するボタンを含むメニューバー221、メニュー画像223或いはメニュー画像225を操作用グラフィックスとして投射させる。このため、画像を消去する操作や画像を保存する操作を速やかに行える。
PC13はGUI制御部54の機能により、ペン型デバイス15の指示位置をもとに操作用グラフィックスの表示位置を決定するので、操作用グラフィックスをペン型デバイス15の操作位置に近づけて表示して利便性の向上を図ることができ、また、操作の妨げにならないように操作位置から離れた場所に表示することもでき、操作性の向上を図ることができる。
なお、上述した各実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、上記実施形態とは異なる態様として本発明を適用することも可能である。例えば、上記実施形態においては、プロジェクター11が操作検出部102の機能によって、ペン型デバイス15により指示された位置を検出し、指示状態を判定し、その結果を示す情報をPC13に送信する構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、赤外線受光部42を備え、操作検出部102の機能を実行する検出装置を、プロジェクター11とは別体として構成し、プロジェクター11またはPC13に接続する構成としても良い。
また、上記実施形態では、プロジェクター11が検出したペン型デバイス15の位置に基づいて、PC13が、重畳画像生成部53の機能により描画画像を生成して、出力画像生成部52の機能によって表示画像に重畳する処理、GUI制御部54の機能によって操作用グラフィックスを生成して出力画像生成部52の機能によって表示画像に重畳する処理を実行していたが、これら出力画像生成部52,重畳画像生成部53,及びGUI制御部54の機能をプロジェクター11が実行してもよい。この場合、プロジェクター11事態が上記処理を実行するためのプログラムを、記憶部105に記憶し、当該プログラムを制御部103が実行することで、上記機能を実現する。
また、上記実施形態では、光源が発した光を変調する手段として、RGBの各色に対応した3枚の透過型または反射型の液晶パネル32を用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、例えば、1枚の液晶パネルとカラーホイールを組み合わせた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせた方式等により構成してもよい。ここで、光変調装置として1枚のみの液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な構成であれば問題なく採用できる。
また、本発明の画像表示装置は、スクリーンSCに映像を投射するプロジェクターに限定されず、液晶表示パネルに画像/映像を表示する液晶モニターまたは液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に画像/映像を表示するモニター装置またはテレビ受像機、OLED(Organic light-emitting diode)、OEL(Organic Electro-Luminescence)等と呼ばれる有機EL表示パネルに画像/映像を表示するモニター装置またはテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の画像表示装置に含まれる。
また、図1及び図3に示した表示システム10の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。
PC13は記憶部134に記憶したプロジェクター制御プログラム13AをCPU131により実行し、プロジェクター11は記憶部105の制御プログラム105Aを制御部103により実行する構成として説明したが、プロジェクター制御プログラム13A或いは制御プログラム105Aを、通信ネットワーク12を介して接続された他の装置からダウンロードして実行しても良いし、可搬型の記録媒体にプロジェクター制御プログラム13Aまたは制御プログラム105Aを記録して、この記録媒体から上記各プログラムを読み取って実行する構成としても良い。
また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。その他、表示システム10の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
10…表示システム(画像表示システム)、11…プロジェクター(画像表示装置、操作検出装置)、12…通信ネットワーク、13…PC(画像供給装置)、13A…プロジェクター制御プログラム、15…ペン型デバイス(操作用デバイス)、15A…スイッチ、42…赤外線受光部、51…画像出力部(出力手段)、52…出力画像生成部(第1の画像生成手段)、53…重畳画像生成部(描画手段)、54…GUI制御部(第2の画像生成手段)、101…外部I/F部、102…操作検出部、103…制御部、105…記憶部、105A…制御プログラム、131…CPU、201、202…表示用画像、211…描画画像、221…メニューバー(操作用グラフィックス)、223、225…メニュー画像(操作用グラフィックス)、SC…スクリーン(投射面)。

Claims (9)

  1. 画像を表示面に表示する画像表示装置、及び前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置とともに用いられる画像供給装置であって、
    前記操作検出装置が検出した指示位置に基づいて、原画像に重畳表示する重畳画像を生成する描画手段と、
    前記描画手段により生成された前記重畳画像を前記原画像に重畳して第1の合成画像を生成する第1の画像生成手段と、
    前記原画像が変化した場合に、前記描画手段が生成した前記重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成する第2の画像生成手段と、
    前記第2の合成画像を前記画像表示装置に出力する出力手段と、
    を備えることを特徴とする画像供給装置。
  2. 前記操作用画像は、前記描画手段が生成した前記重畳画像、または前記第1の画像生成手段が生成した第1の合成画像の消去処理及び保存処理のうち少なくとも一方を指示するボタンを含むことを特徴とする請求項1記載の画像供給装置。
  3. 前記第2の画像生成手段は、前記操作検出装置により検出された指示位置をもとに、前記操作用画像の表示位置を決定することを特徴とする請求項1または2記載の画像供給装置。
  4. 画像を出力する画像供給装置と、前記画像供給装置が出力する画像を表示面に表示する画像表示装置と、前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置とを有し、
    前記画像供給装置は、
    原画像を取得して前記画像表示装置に出力する出力手段と、
    前記操作検出装置が検出した指示位置に基づいて、前記原画像に重畳表示する重畳画像を生成する描画手段と、
    前記描画手段により生成された重畳画像を前記原画像に重畳して第1の合成画像を生成する第1の画像生成手段と、
    前記原画像が変化した場合に、前記描画手段が生成した重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成する第2の画像生成手段と、
    前記第2の合成画像を前記画像表示装置に出力する出力手段と、
    を備えることを特徴とする画像表示システム。
  5. 前記表示面に対する位置指示操作と、位置指示操作以外の特定の操作とが可能な操作用デバイスを備え、
    前記操作検出装置は、前記操作用デバイスの位置指示操作により指示された位置を検出する一方、前記操作用デバイスによる前記特定の操作を検出し、
    前記画像供給装置の前記第2の画像生成手段は、前記操作検出装置が前記操作用デバイスによる特定の操作を検出した場合に、前記操作用画像を表示させることを特徴とする請求項4記載の画像表示システム。
  6. 前記画像表示装置は前記操作検出装置を備えることを特徴とする請求項4または5記載の画像表示システム。
  7. 画像を表示面に表示する画像表示装置であって、
    前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置が検出した指示位置に基づいて、原画像に重畳表示する重畳画像を生成する描画手段と、
    前記描画手段により生成された前記重畳画像を前記原画像に重畳して第1の合成画像を生成する第1の画像生成手段と、
    前記原画像が変化した場合に、前記描画手段が生成した前記重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成する第2の画像生成手段と、
    前記第2の合成画像を表示する表示手段と、
    を備えることを特徴とする画像表示装置。
  8. 画像を表示面に表示する画像表示装置、及び前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置とともに用いられる画像供給装置の制御方法であって、
    表示用の画像を取得して前記画像表示装置に出力するとともに、
    前記操作検出装置が検出した指示位置に基づいて、原画像に重畳表示する重畳画像を生成し、
    生成した前記重畳画像を前記原画像に重畳して第1の合成画像を生成して、前記画像表示装置に出力し、
    前記原画像が変化した場合には、生成した前記重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成し、この第2の合成画像を前記画像表示装置に出力すること、
    を特徴とする画像供給装置の制御方法。
  9. 画像を表示面に表示する画像表示装置、及び前記表示面における位置指示操作に応じて指示位置を検出する操作検出装置とともに用いられるコンピューターが実行可能なプログラムであって、
    前記コンピューターを、
    原画像を取得して前記画像表示装置に出力する出力手段と、
    前記操作検出装置が検出した指示位置に基づいて、原画像に重畳表示する重畳画像を生成する描画手段と、
    前記描画手段により生成された前記重畳画像を前記原画像に重畳して第1の合成画像を生成する第1の画像生成手段と、
    前記原画像が変化した場合に、前記描画手段が生成した前記重畳画像の処理を指示するための操作用画像を、前記第1の合成画像に重畳して第2の合成画像を生成する第2の画像生成手段と、
    前記第2の合成画像を前記画像表示装置に出力する出力手段と、
    して機能させることを特徴とするプログラム。
JP2011059053A 2011-03-17 2011-03-17 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム Expired - Fee Related JP5585505B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011059053A JP5585505B2 (ja) 2011-03-17 2011-03-17 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム
TW101108518A TW201241679A (en) 2011-03-17 2012-03-13 Image supply device, image display system, method of controlling image supply device, image display device, and recording medium
US14/001,741 US10037120B2 (en) 2011-03-17 2012-03-14 Image supply device, image display system, method of controlling image supply device, image display device, and recording medium
PCT/JP2012/001793 WO2012124329A1 (en) 2011-03-17 2012-03-14 Image supply device, image display system, method of controlling image supply device, image display device, and recording medium
CN201210068882.6A CN102722289B (zh) 2011-03-17 2012-03-15 图像供给装置、图像显示系统和图像供给装置的控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011059053A JP5585505B2 (ja) 2011-03-17 2011-03-17 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2012194850A JP2012194850A (ja) 2012-10-11
JP5585505B2 true JP5585505B2 (ja) 2014-09-10

Family

ID=46045041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011059053A Expired - Fee Related JP5585505B2 (ja) 2011-03-17 2011-03-17 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム

Country Status (5)

Country Link
US (1) US10037120B2 (ja)
JP (1) JP5585505B2 (ja)
CN (1) CN102722289B (ja)
TW (1) TW201241679A (ja)
WO (1) WO2012124329A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101909031B1 (ko) * 2012-07-26 2018-10-17 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
USD741367S1 (en) * 2012-11-28 2015-10-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
USD739875S1 (en) * 2012-11-28 2015-09-29 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
JP5803959B2 (ja) * 2013-03-18 2015-11-04 コニカミノルタ株式会社 表示装置及び表示装置の制御プログラム
JP2015031817A (ja) * 2013-08-02 2015-02-16 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP6304618B2 (ja) * 2013-11-05 2018-04-04 パナソニックIpマネジメント株式会社 照明装置
JP6146350B2 (ja) * 2014-03-18 2017-06-14 パナソニックIpマネジメント株式会社 情報処理装置およびコンピュータプログラム
JP6241353B2 (ja) * 2014-04-01 2017-12-06 セイコーエプソン株式会社 双方向表示方法および双方向表示装置
JP6359862B2 (ja) * 2014-04-17 2018-07-18 シャープ株式会社 タッチ操作入力装置、タッチ操作入力方法及びプログラム
US10528249B2 (en) * 2014-05-23 2020-01-07 Samsung Electronics Co., Ltd. Method and device for reproducing partial handwritten content
JP6488653B2 (ja) * 2014-11-07 2019-03-27 セイコーエプソン株式会社 表示装置、表示制御方法および表示システム
JP6682768B2 (ja) * 2015-03-27 2020-04-15 セイコーエプソン株式会社 表示システム、表示装置、情報処理装置及び制御方法
US20170110083A1 (en) * 2015-10-15 2017-04-20 Ricoh Company, Ltd. Information processing system, method for processing information, and computer program product
JP2017169086A (ja) * 2016-03-17 2017-09-21 セイコーエプソン株式会社 表示装置、表示装置の制御方法及びプログラム
JP6707945B2 (ja) * 2016-03-28 2020-06-10 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
JP6747025B2 (ja) * 2016-04-13 2020-08-26 セイコーエプソン株式会社 表示システム、表示装置、及び、表示システムの制御方法
JP6883256B2 (ja) * 2017-03-23 2021-06-09 カシオ計算機株式会社 投影装置
CN109272972B (zh) * 2018-11-30 2021-04-09 北京集创北方科技股份有限公司 显示装置及其控制方法
JP7469146B2 (ja) * 2020-06-01 2024-04-16 住友重機械工業株式会社 画像データ生成装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06242885A (ja) * 1993-02-16 1994-09-02 Hitachi Ltd 文書編集方法
US5970455A (en) 1997-03-20 1999-10-19 Xerox Corporation System for capturing and retrieving audio data and corresponding hand-written notes
JP3773670B2 (ja) * 1998-09-30 2006-05-10 株式会社東芝 情報呈示方法および情報呈示装置および記録媒体
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7036077B2 (en) * 2002-03-22 2006-04-25 Xerox Corporation Method for gestural interpretation in a system for selecting and arranging visible material in document images
JP4157337B2 (ja) * 2002-08-12 2008-10-01 株式会社リコー タッチパネル付きディスプレイ装置、タッチパネル付きディスプレイ装置の制御方法
US7663605B2 (en) * 2003-01-08 2010-02-16 Autodesk, Inc. Biomechanical user interface elements for pen-based computers
JP4900889B2 (ja) * 2005-01-21 2012-03-21 キヤノン株式会社 情報処理装置及びその制御方法とプログラム
US20060214947A1 (en) * 2005-03-23 2006-09-28 The Boeing Company System, method, and computer program product for animating drawings
US20060267966A1 (en) * 2005-05-24 2006-11-30 Microsoft Corporation Hover widgets: using the tracking state to extend capabilities of pen-operated devices
US7836390B2 (en) * 2006-01-26 2010-11-16 Microsoft Corporation Strategies for processing annotations
JP5211430B2 (ja) * 2006-03-02 2013-06-12 富士ゼロックス株式会社 電子会議システム、電子会議支援プログラム、電子会議支援方法、電子会議制御装置、会議サーバコンピュータ
US8793621B2 (en) * 2006-11-09 2014-07-29 Navisense Method and device to control touchless recognition
US8330773B2 (en) * 2006-11-21 2012-12-11 Microsoft Corporation Mobile data and handwriting screen capture and forwarding
JP4939959B2 (ja) * 2007-02-02 2012-05-30 ペンタックスリコーイメージング株式会社 携帯機器
US8490024B2 (en) * 2007-02-28 2013-07-16 Richard Harrison Site Design, Inc. Land plan development
CN101874404B (zh) * 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
JP2009157448A (ja) 2007-12-25 2009-07-16 Konica Minolta Holdings Inc 手書き情報入力表示システム
US9418054B2 (en) * 2008-05-12 2016-08-16 Adobe Systems Incorporated Document comment management
US9176943B2 (en) * 2008-05-12 2015-11-03 Adobe Systems Incorporated Comment presentation in electronic documents
US8432391B2 (en) * 2008-06-02 2013-04-30 Panasonic Corporation Remote control device and remote control method
US8566717B2 (en) * 2008-06-24 2013-10-22 Microsoft Corporation Rendering teaching animations on a user-interface display
KR101498623B1 (ko) * 2008-06-25 2015-03-04 엘지전자 주식회사 휴대 단말기 및 그 제어방법
JP2011018090A (ja) * 2009-07-07 2011-01-27 Panasonic Corp 電子ペン及び電子ペンシステム
EP2452258B1 (en) * 2009-07-07 2019-01-23 Elliptic Laboratories AS Control using movements
US20110107238A1 (en) * 2009-10-29 2011-05-05 Dong Liu Network-Based Collaborated Telestration on Video, Images or Other Shared Visual Content
KR20110066667A (ko) * 2009-12-11 2011-06-17 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
JP2011203830A (ja) * 2010-03-24 2011-10-13 Seiko Epson Corp 投写システム及びその制御方法
US20120066640A1 (en) * 2010-09-13 2012-03-15 Ati Technologies Ulc Apparatus for providing multi-mode warping of graphical user interface objects
KR101811909B1 (ko) * 2010-12-30 2018-01-25 톰슨 라이센싱 제스처 인식을 위한 장치 및 방법
US20120210200A1 (en) * 2011-02-10 2012-08-16 Kelly Berger System, method, and touch screen graphical user interface for managing photos and creating photo books
US8698873B2 (en) * 2011-03-07 2014-04-15 Ricoh Company, Ltd. Video conferencing with shared drawing

Also Published As

Publication number Publication date
CN102722289A (zh) 2012-10-10
TW201241679A (en) 2012-10-16
US10037120B2 (en) 2018-07-31
CN102722289B (zh) 2015-05-06
US20130328837A1 (en) 2013-12-12
JP2012194850A (ja) 2012-10-11
WO2012124329A1 (en) 2012-09-20

Similar Documents

Publication Publication Date Title
JP5585505B2 (ja) 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム
JP6064319B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US9519379B2 (en) Display device, control method of display device, and non-transitory computer-readable medium
JP5849560B2 (ja) 表示装置、プロジェクター、及び、表示方法
JP6088127B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
US9324295B2 (en) Display device and method of controlling display device
US11282422B2 (en) Display device, and method of controlling display device
JP6051828B2 (ja) 表示装置、及び、表示装置の制御方法
JP6064321B2 (ja) 表示装置、及び、表示制御方法
JP2013246285A (ja) 表示装置、表示制御方法、および、表示システム
JP6269801B2 (ja) プロジェクター、及び、プロジェクターの制御方法
US20120306915A1 (en) Display device, method of controlling display device, and recording medium
JP6273671B2 (ja) プロジェクター、表示システム、及びプロジェクターの制御方法
JP2012220595A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6296144B2 (ja) 表示装置、及び、表示制御方法
JP7238878B2 (ja) 表示装置および表示装置の制御方法
JP6056447B2 (ja) 表示装置、及び、表示装置の制御方法
JP2013195659A (ja) 表示装置、及び、表示制御方法
JP2014119530A (ja) 表示制御装置、プロジェクター、及び、プロジェクターの制御方法
JP2013218430A (ja) 入力装置、プロジェクター、表示システム、及び入力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140707

R150 Certificate of patent or registration of utility model

Ref document number: 5585505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees