JP2013134661A - 表示装置、プロジェクター及び表示システム - Google Patents
表示装置、プロジェクター及び表示システム Download PDFInfo
- Publication number
- JP2013134661A JP2013134661A JP2011285318A JP2011285318A JP2013134661A JP 2013134661 A JP2013134661 A JP 2013134661A JP 2011285318 A JP2011285318 A JP 2011285318A JP 2011285318 A JP2011285318 A JP 2011285318A JP 2013134661 A JP2013134661 A JP 2013134661A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- interface
- unit
- projector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/12—Synchronisation between the display unit and other units, e.g. other display units, video-disc players
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/20—Details of the management of multiple sources of image data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Projection Apparatus (AREA)
Abstract
【解決手段】表示装置10は、第1インターフェース11a及び第2インターフェース11bを備えるファンクションデバイス11を備えるとともに、記憶手段12に、第1インターフェース11a及び第2インターフェース11bに対して同一のクラスを割り当てた構成情報を記憶する。表示装置10は、表示面に対して第1指示体20aにより指示された第1位置と第2指示体20bにより指示された第2位置とを検出し、第1位置を表す第1座標データを第1インターフェース11aに割り当て、第2位置を表す第2座標データを第2インターフェース11bに割り当ててホスト装置30に供給する。
【選択図】図1
Description
イスにより指示された場合に、指示位置を検出し、検出した位置に対応するようにポイン
ター等を表示する装置が知られている(例えば、特許文献1参照)。特許文献1に記載の
装置を用いて、検出した位置の軌跡を描画すると、手書きの文字や図形などを表示するこ
とが可能である。
多いが、複数のポインティングデバイスの指示位置をホスト装置において認識しようとし
た場合、複数のポート及びケーブルによって装置間を接続したり、あるいは専用のデバイ
スドライバーをインストールしたりする必要があった。
そこで、本発明は、複数の指示体を簡単に複数のポインティングデバイスとして認識で
きるようにすることを目的とする。
ンターフェース及び第2インターフェースを有するファンクションデバイスと、前記第1
インターフェース及び前記第2インターフェースに対して同一のクラスを割り当てた構成
情報を記憶した記憶手段と、表示面に画像を表示する表示手段と、前記表示面に対して第
1指示体により指示された第1位置と第2指示体により指示された第2位置とを検出する
検出手段と、前記記憶手段に記憶された構成情報と、前記検出手段により検出された第1
位置を表す第1座標データと、前記検出手段により検出された第2位置を表す第2座標デ
ータとを前記ファンクションデバイスを介して前記ホスト装置に供給する供給手段であっ
て、前記第1座標データを前記第1インターフェースに割り当て、前記第2座標データを
前記第2インターフェースに割り当てて供給する供給手段とを備える構成を有する。
この表示装置によれば、複数の指示体を簡単に複数のポインティングデバイスとして認
識できるようにすることが可能である。
ターフェースに対してHID(Human Interface Device)クラスを割り当てた前記構成情
報を記憶する。
この態様によれば、ホスト装置に専用のデバイスドライバーをインストールしなくても
、複数の指示体を認識することが可能である。
スに対応するサブクラスを割り当て、前記第2インターフェースに対してデジタイザーに
対応するサブクラスを割り当てた前記構成情報を記憶する。
この態様によれば、複数の指示体を異なるポインティングデバイスとして認識すること
が可能である。
あるいは、前記記憶手段は、前記第1インターフェース及び前記第2インターフェース
に対してマウスに対応するサブクラスを割り当てた前記構成情報を記憶してもよいし、前
記第1インターフェース及び前記第2インターフェースに対してデジタイザーに対応する
サブクラスを割り当てた前記構成情報を記憶してもよい。
、第1インターフェース及び第2インターフェースを有するファンクションデバイスと、
前記第1インターフェース及び前記第2インターフェースに対して同一のクラスを割り当
てた構成情報を記憶した記憶手段と、光を投射することによって表示面に画像を表示する
表示手段と、前記表示面に対して第1指示体により指示された第1位置と第2指示体によ
り指示された第2位置とを検出する検出手段と、前記記憶手段に記憶された構成情報と、
前記検出手段により検出された第1位置を表す第1座標データと、前記検出手段により検
出された第2位置を表す第2座標データとを前記ファンクションデバイスを介して前記ホ
スト装置に供給する供給手段であって、前記第1座標データを前記第1インターフェース
に割り当て、前記第2座標データを前記第2インターフェースに割り当てて供給する供給
手段とを備える構成を有する。
このプロジェクターによれば、複数の指示体を簡単に複数のポインティングデバイスと
して認識できるようにすることが可能である。
体と、前記ファンクションデバイスを介して供給された前記構成情報、前記第1座標デー
タ及び前記第2座標データに基づき、前記第1位置又は前記第2位置に応じた処理を実行
する実行手段を備えるホスト装置とを備える構成を有する。
この表示システムによれば、複数の指示体を簡単に複数のポインティングデバイスとし
て認識できるようにすることが可能である。
を前記表示手段に描画させる処理を実行する。
この態様によれば、指示体による指示を表示装置による表示に反映させることが可能で
ある。
本発明は、ユーザーが表示面を指示体により指示し、その指示に応じた処理を実行する
ことが可能な表示システムにおいて、複数の指示体による指示を識別可能に受け付けるこ
とを特徴の一つとするものである。本発明の表示システムは、複数の指示体と、画像を表
示し、かつ指示体により指示された位置を検出する表示装置と、指示体による指示に応じ
た処理を実行するホスト装置とを備える構成において、ホスト装置と表示装置との接続を
USB規格に準拠して行うものとし、ホスト装置と表示装置との間を1本のUSBケーブ
ルによって接続する点に特徴を有する。
るものではない。しかし、以下においては、説明の便宜上、1名のユーザーが1本の指示
体を用いることとし、さらに、表示面に対して指示を行うユーザーの人数は2名であると
する。つまり、以下においては、2名のユーザーが1本ずつ、計2本の指示体を用いる表
示システムについて説明される。
ム1は、表示装置10と、指示体20a、20bと、ホスト装置30とを少なくとも備え
る。表示装置10は、図1に示す手段を一体に(すなわち単一の装置内に)備えたもので
あってもよいし、これらの手段を複数の装置の協働によって実現するものであってもよい
。
検出手段14と、供給手段15とを備える。また、ホスト装置30は、ホストコントロー
ラー31と、実行手段32とを備える。ホストコントローラー31とファンクションデバ
イス11とは、例えばUSBケーブルにより接続されているが、ワイヤレスUSBなどに
よって無線で接続されてもよい。
。ファンクションデバイス11は、USB規格に準拠して構成されており、第1インター
フェース11aと第2インターフェース11bとを有している。第1インターフェース1
1a及び第2インターフェース11bは、それぞれ1以上のエンドポイントを含んで構成
される。すなわち、ファンクションデバイス11は、いわゆる複合デバイス(composite
device)である。
ンクションデバイス11の構成を定義するためのデータ(ディスクリプター)である。本
発明の構成情報は、第1インターフェース11a及び第2インターフェース11bに同一
のクラスを割り当てている点に特徴を有する。第1インターフェース11a及び第2イン
ターフェース11bに割り当てられるクラスは、望ましくは汎用のHID(Human Interf
ace Device)クラスであるが、ベンダー等によって定義された独自のクラスであってもよ
い。また、本発明の構成情報は、クラスを表す情報のほかにサブクラス(マウス、デジタ
イザーなど)を表す情報を含んでいる。
レイや有機EL(electroluminescence)ディスプレイのように、表示面そのものを備え
るものであってもよいし、プロジェクターのように、スクリーンや壁面などを表示面とし
て用い、この表示面に光を投射することによって画像を表示するものであってもよい。
を検出する手段である。検出手段14は、指示体20a、20bによる指示を光学的に検
出したり、あるいは磁気的に検出したりするが、検出の方式自体は特に限定されない。検
出手段14は、検出した位置を表す座標データを出力する。なお、指示体20a、20b
は、ユーザーが表示面を指し示すための器具であり、例えば、筆記具を模したような棒状
の器具である。ただし、指示体20a、20bは、表示面を指し示すことが可能であれば
、その具体的形状を問わない。指示体20a、20bは、一方が本発明の第1指示体に相
当し、他方が本発明の第2指示体に相当する。
それぞれを位置を指示した指示体20a、20bを判別する機能をさらに有してもよい。
例えば、指示体20a、20bが光を射出し、検出手段14がその光を検出する構成の場
合であれば、指示体20a、20bが表示面に照射した光の色(すなわち波長)や照射パ
ターン(明滅のタイミングなど)によって互いを判別することが可能である。
し、別々の座標データとして出力することができる。ここでは、指示体20a、20bに
より指示された位置を表す座標データを、それぞれ「第1座標データ」、「第2座標デー
タ」という。第1座標データ及び第2座標データは、検出手段14が指示体20a、20
bを判別可能である場合、指示体20aにより指示された位置に対応するものを第1座標
データ、指示体20bにより指示された位置に対応するものを第2座標データ、というよ
うに、特定の指示体と対応付けることが可能である。
する手段である。供給手段15は、エニュメレーションの過程において構成情報を供給し
、その後、座標データを供給する。具体的には、供給手段15は、第1座標データを第1
インターフェース11aに割り当てるとともに、第2座標データを第2インターフェース
11bに割り当てて供給する。
ホストコントローラー31は、USB規格に準拠して構成されている。
実行手段32は、検出手段14によって検出された位置に応じた処理を実行する手段で
ある。実行手段32は、第1インターフェース11aに割り当てられた第1座標データと
、第2インターフェース11bに割り当てられた第2座標データとを識別し、それぞれの
座標データに応じた処理を実行することが可能である。実行手段32が実行する処理は、
検出手段14によって検出された位置や、当該位置に表示装置10によって表示されてい
る画像に応じて異なるが、例えば、表示面に表示されている画像を変更したり、後述する
メニューバーに対する指示に応じて表示装置10の動作を制御したりするものである。実
行手段32が実行する処理には、後述するポインターや手書き画像を描画させる処理が含
まれる。
図2は、上述した表示システム1の具体的な実施形態の一例の構成を示す図である。
プロジェクター100は、情報処理装置としてのPC(Personal Computer)300に
画像信号ケーブル等により有線接続されている。プロジェクター100にはPC300か
ら画像データが入力され、プロジェクター100は入力された画像データに基づいて、投
射面(表示面)としてのスクリーンSCに画像を投射する。また、プロジェクター100
はUSBケーブル等によりPC300に接続され、PC300との間で制御データ等を送
受信する。プロジェクター100は、PC300から入力された画像データが静止画像で
あっても動画像であっても投射できる。プロジェクター100は、壁面に固定された平板
に限らず、壁面自体をスクリーンSCとして使用することも可能である。ここで、スクリ
ーンSC上で画像が投射される範囲を実投射領域A12(表示可能領域)とする。
。また、PC300は、図1に示したホスト装置30の一例に相当し、ペン200は、図
1に示した指示体20a、20bの一例に相当する。なお、ペン200は、図2には1本
のみ示されているが、実際には、複数のユーザーのそれぞれに対応して複数本存在するも
のとする。
0を手に持って、スクリーンSCの実投射領域A12の任意の位置を指示する操作(位置
指示操作)によって実行できる。ペン200は、ペン型や棒形状の操作デバイスであって
、スクリーンSCの任意の位置を指し示すために用いられる。プロジェクター100は、
後述するようにペン200により指示された位置を検出する機能を有し、検出した位置の
座標を示す座標データ(座標情報)をPC300に出力する。
も筆記具で実際に筆記しているかのように文字や図形を描画させることができることを意
味し、ユーザーが表示面にインク等の色材で実際に着色して文字や図形を描くことを意味
するものではない。なお、以下においては、ユーザーが表示面に描く文字や図形を総称し
て「記号」ともいう。ここでいう記号は、さまざまな言語の文字のほか、数字、符号、学
術記号などを含み得る。また、図形には、円や多角形だけでなく、点や線も含まれる。
プロジェクター100は、大別して、スクリーンSC上のペン200の指示位置を検出
する位置検出ユニット110と、位置検出ユニット110が検出した指示位置の座標を、
画像データにおける座標に変換する座標変換部120と、PC300から入力される画像
データに基づいて表示用の画像処理を実行する画像処理ユニット130と、画像処理ユニ
ット130の制御に従ってスクリーンSCに画像を投射する投射ユニット140と、座標
変換部120が変換した変換後の座標をPC300に出力する出力部150と、入力部1
60と、これらの各部を制御する制御部170と、記憶部180と、ユーザーの操作を受
け付ける操作部190とを備えている。
、RAM(Random Access Memory)等により構成され、制御部170に接続された記憶部
180に記憶されている制御プログラムを読み出して実行し、プロジェクター100の各
部を制御する。また、記憶部180に記憶された制御プログラムを実行することで、制御
部170は後述するキャリブレーションを実行する。制御部170は、キャリブレーショ
ンを実行することにより、撮影画像データにおける座標と、キャリブレーションの対象と
なるスクリーンSC上の領域(例えば、実投射領域A12)における座標との対応関係を
表すパラメーター(座標変換パラメーター)を求める。記憶部180は、磁気的、光学的
記録装置または半導体記憶素子により構成され、制御プログラムを含む各種プログラム、
及び、各種設定値等のデータを記憶する。
ンジケーターランプを備え、プロジェクター100の外装筐体(図示略)に配置されてい
る操作パネルを備えてもよいし、いわゆるリモコン(リモートコントローラー)から赤外
線信号を受光する受光部を備えてもよい。制御部170は、プロジェクター100の動作
状態や設定状態に応じてインジケーターランプを適宜点灯あるいは点滅させる。また、操
作部190のスイッチが操作されると、操作されたスイッチに対応する操作信号が制御部
170に出力される。なお、操作部190は、赤外線信号に限らず、他の無線信号を受信
する構成であってもよい。
クター100のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した
赤外線信号を受光する。操作部190は、上記リモコンから受光した赤外線信号を受光素
子により受光し、この信号に対応する操作信号を制御部170に出力する。なお、プロジ
ェクター100に対する操作を表す操作信号をPC300からプロジェクター100に送
信し、この操作信号に基づいてプロジェクター100を制御することもできる。この場合
は、PC300も、プロジェクター100に対する操作をユーザーが入力するための操作
部として機能する。
制御部170は、操作部190から入力される操作信号に基づいて、ユーザーの操作を
検出し、この操作に従ってプロジェクター100を制御する。
は、画像データを入力するインターフェースであり、例えば、デジタル映像信号が入力さ
れるDVI(Digital Visual Interface)インターフェース、USB(Universal Serial
Bus)インターフェース及びLAN(Local Area Network)インターフェースや、NTS
C(National Television System Committee)、PAL(Phase Alternating Line)及び
SECAM(Sequentiel couleur a memoire)等の映像信号が入力されるS映像端子、コ
ンポジット映像信号が入力されるRCA端子、コンポーネント映像信号が入力されるD端
子、HDMI(High-Definition Multimedia Interface:登録商標)規格に準拠したHD
MIコネクター等の汎用インターフェースを用いることができる。また、入力部160が
、アナログ映像信号をデジタル画像データに変換するA/D変換回路を有し、VGA(Vi
deo Graphics Array)端子等のアナログ映像端子によりPC300に接続される構成とし
てもよい。なお、入力部160は有線通信によって画像信号の送受信を行ってもよく、無
線通信によって画像信号の送受信を行ってもよい。
定したDisplayPortを備えた構成としてもよく、具体的にはDisplayPortコネクターあるい
はMini Displayportコネクターと、Displayport規格に準拠したインターフェース回路と
を備えた構成としてもよい。この場合、プロジェクター100は、PC300や、PC3
00と同等の機能を有する携帯型デバイスが備えるDisplayPortに接続することができる
。
的に処理する画像処理系とに分類される。光学系は、照明光学系144、光変調装置14
5及び投射光学系146から構成される。照明光学系144は、キセノンランプ、超高圧
水銀ランプ、LED(Light Emitting Diode)、レーザー等からなる光源を備えている。
また、照明光学系144は、光源が発した光を光変調装置145に導くリフレクター及び
補助リフレクターを備えていてもよく、投射光の光学特性を高めるためのレンズ群、偏光
板、あるいは光源が発した光の光量を光変調装置145に至る経路上で低減させる調光素
子等を備えたものであってもよい。
の光を変調する。本実施形態では、透過型液晶パネルを用いて光変調装置145を構成し
た場合を例に挙げて説明する。この構成では、光変調装置145は、カラーの投影を行う
ため、R(Red)G(Green)B(Blue)の三原色に対応した3枚の液晶パネルからなる。
液晶パネルは、例えば縦横にマトリクス状に並ぶ所定数の画素を有する。照明光学系14
4からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する
。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学
系によって合成され、投射光学系146に射出される。
ズームの度合いを調整するズーム調整用モーター、フォーカスの調整を行うフォーカス調
整用モーター等を備えている。
投射ユニット140は、表示制御部132の制御に従って投射光学系146が備える各
モーターを駆動する投射光学系駆動部143と、表示制御部132から出力される画像信
号に基づいて光変調装置145を駆動して描画を行う光変調装置駆動部142と、制御部
170の制御に従って照明光学系144が備える光源を駆動する光源駆動部141とを備
えている。投射ユニット140は、図1に示した表示手段13に相当する。
御に従って画像データを処理する画像処理ユニット130により構成される。画像処理ユ
ニット130は、入力部160からの画像データを入力する画像入力部131と、画像入
力部131を介して入力された画像データを処理する表示制御部132と、表示制御部1
32の制御に従って画像をフレームメモリー134に展開し、投射部30が投射する画像
を生成する画像処理部133とを備えている。
(フレームレート、解像度、圧縮状態)の判別等を行い、光変調装置145に表示画像を
表示するために必要な処理を決定し、画像処理部133を制御して当該処理を実行する。
画像処理部133は、表示制御部132の制御に従って、画像入力部131を介して入力
された画像データをフレームメモリー134に展開し、インターレース/プログレッシブ
変換、解像度変換等の各種変換処理を適宜実行し、フレームメモリー134に描画した表
示画像を表示するための所定フォーマットの画像信号を生成して、表示制御部132に出
力する。なお、プロジェクター100は、入力された画像データの解像度やアスペクト比
を変更して表示することもでき、入力された画像データの解像度やアスペクト比を維持し
たままドットバイドットで表示することも可能である。また、画像処理部133は、表示
制御部132の制御に従って、キーストーン補正、カラーモードに対応した色調補正、画
像の拡大・縮小処理等の各種の画像処理を実行可能である。表示制御部132は、画像処
理部133により処理された画像信号を光変調装置駆動部142に出力し、光変調装置1
45に表示させる。また、画像処理部133は、表示中の画像データの解像度、アスペク
ト比、光変調装置145の液晶表示パネルにおける表示サイズ等の情報から、画像位置情
報を導出し、求めた画像位置情報を座標変換部120に出力する。画像位置情報は、実投
射領域A12内のどの位置に表示画像が投射される(表示される)のかを示す情報である
。換言すれば、画像位置情報は、実投射領域A12における表示画像の配置に関する情報
であって、実投射領域A12における表示画像の位置(配置)を示している。この画像位
置情報は、PC300の表示解像度が変化することによってPC300がプロジェクター
11に出力する画像データの解像度が変化した場合(例えば、PC300において解像度
に関する設定が変更された場合)等に変化する。
C上に結像した表示画像のキーストーン補正を実行させる。また、制御部170は、操作
部190から入力された操作信号に基づいて、表示制御部132を制御して表示画像の拡
大・縮小処理を実行させる。
検出する位置検出ユニット110を有する。位置検出ユニット110は、スクリーンSC
を撮影する撮像部111と、撮像部111を制御する撮影制御部112と、撮像部111
の撮影画像に基づいてペン200の指示位置を検出する位置検出処理部113と、この指
示位置の座標を算出する座標算出部114とを備えている。位置検出ユニット110は、
図1に示した検出手段14に相当する。
る投射可能領域A11に相当)を含む画角を撮影するデジタルカメラであり、撮影制御部
112の制御に従って撮影を実行し、撮影画像データを出力する。換言すれば、撮像部1
11は投射可能領域A11全体を含む範囲を撮影可能に設定されている。撮像部111は
、表示面を常時撮影していてもよいが、制御部170による制御に従い、必要なタイミン
グでのみ撮影を行ってもよい。撮影制御部112は、制御部170の制御に従って、撮像
部111を制御して撮影を実行させる。撮像部111が撮影時のズーム倍率、フォーカス
、絞りの調整を行う機構を有する場合、撮影制御部112は、これらの機構を制御して予
め設定された条件で撮影を実行させる。撮影後、撮影制御部112は撮像部111が出力
する撮影画像データを取得して、位置検出処理部113に出力する。撮像部111から出
力される撮影画像データは、RGBやYUV等の形式で表されるものであってもよく、輝
度成分のみを表すものであってもよい。また、撮影制御部112は、撮像部111から出
力される撮影画像データをそのまま位置検出処理部113へ出力してもよく、解像度の調
整や所定のファイルフォーマット(JPEG、BMPなど)への変換等を行った上で位置
検出処理部113へ出力してもよい。
ど)を撮像可能な構成であってもよい。撮像部111が非可視光を撮像可能な場合には、
ペン200が非可視光を射出し、撮像部111がペン200から射出された非可視光を撮
像する構成や、ペン200が非可視光を反射可能な反射部を備えており、制御部170の
制御によってプロジェクター100からスクリーンSCに対して非可視光を投射し、ペン
200の反射部によって反射された非可視光を撮像部111によって撮像する構成等を採
用することができる。
、この撮影画像データから、実投射領域A12の外部と実投射領域A12との境界、及び
、ペン200の画像を抽出し、ペン200による指示位置を特定する。ペン200の指示
位置は、例えば、ペン200の先端の位置である。位置検出処理部113は、検出した指
示位置の実投射領域A12における座標を求める。
置、及び座標変換パラメーターに基づいて座標の算出を行う。具体的に、座標算出部11
4は、位置検出処理部113が検出した指示位置の、実投射領域A12における座標を求
め、算出した座標を示す制御データを座標変換部120に出力する。なお以下の説明では
、座標を示すデータ(座標情報)を、「座標データ」、又は単に「座標」と称する場合が
ある。
ーに基づいて、座標算出部114が座標の変換を行う。この変換処理については後述する
。さらに、座標変換部120は、座標算出部114から出力された座標を後述する画像位
置情報に基づいて変換し、変換後の座標を出力部150に出力する。
全体であってもよく、実投射領域A12の一部であってもよい。実投射領域A12の一部
をキャリブレーションの対象とする場合としては、プロジェクター100の表示画像のア
スペクト比とスクリーンSCのアスペクト比とが異なる場合(例えば、プロジェクター1
00の表示解像度がWXGA(アスペクト比は15:9)で、スクリーンSCのアスペク
ト比が4:3である場合)に、プロジェクター100の表示画像の垂直方向の幅が、スク
リーンSCの垂直方向の幅と一致するように表示する場合が考えられる。この場合は、プ
ロジェクター100の実投射領域A12のうち、スクリーンSCに含まれる領域をキャリ
ブレーションの対象とし、それ以外の領域をキャリブレーションの対象外とすることが考
えられる。制御部170によって座標変換パラメーターが求められると、この座標変換パ
ラメーターに基づいて、座標算出部114が座標の変換を行う。この変換処理については
後述する。さらに、座標変換部120は、座標算出部114から出力された座標を後述す
る画像位置情報に基づいて変換し、変換後の座標を出力部150に出力する。
をPC300に出力する。出力部150は、図1に示したファンクションデバイス11、
記憶手段12及び供給手段15に相当する。すなわち、出力部150は、USB規格に準
拠してPC300に接続され、2つのインターフェースを有する。なお、記憶手段12は
、出力部150に含まれる構成ではなく、例えば記憶部180の一部によって構成されて
もよい。また、供給手段15も、制御部170の一機能であってもよい。
に一つのインターフェースに統合することももちろん可能である。例えば一つのUSBイ
ンターフェースで出力部150と入力部160との両方の機能を実現してもよい。また、
出力部150は、画像処理ユニット130が備える画像処理部133に接続され、座標変
換部120の変換処理後の座標を画像処理ユニット130に出力することも可能である。
出力部150の出力先は、制御部170により制御される。この出力部150が出力する
座標データ(第1座標データ及び第2座標データ)は、マウス、トラックボール、デジタ
イザー、あるいはペンタブレット等のポインティングデバイスが出力する座標データと同
様のデータとして、PC300に出力される。例えば、図5に示すようにペン200が第
1スイッチ211及び第2スイッチ212を備える場合は、第1スイッチ211、第2ス
イッチ212の押下は、それぞれ、マウスにおけるいわゆる右クリック、左クリックのい
ずれか一方と他方の操作に割り当てることができる。
ンティングデバイスが出力する座標データと同等に扱う場合は、これらの汎用的なポイン
ティングデバイスに対応した、汎用のデバイスドライバープログラムを利用することがで
きる。一般的に、これらの汎用のデバイスドライバープログラムは、PC300のOS(
Operating System)の一部としてあらかじめインストールされているため、汎用のデバイ
スドライバープログラムを利用する場合はデバイスドライバープログラムのインストール
を行う必要がない。また、汎用のデバイスドライバープログラムを利用することから、専
用のデバイスドライバープログラムを用意する必要がない一方で、プロジェクター100
とPC300との間でやり取りできる情報は、汎用のデバイスドライバープログラムの仕
様によって定められた範囲に限定される。
て、このデバイスドライバープログラムをPC300にインストールして使用してもよい
。この場合は専用のデバイスドライバープログラムが必要になる一方で、プロジェクター
100とPC300との間でやり取りできる情報は、専用のデバイスドライバープログラ
ムの仕様に応じて任意に設定することができる。
0は、制御プログラムを実行してPC300の各部を中枢的に制御するCPU310と、
CPU310により実行される基本制御プログラムや当該プログラムに係るデータを記憶
したROM320と、CPU310が実行するプログラムやデータを一時的に記憶するR
AM330と、プログラムやデータを不揮発的に記憶する記憶部340と、入力操作を検
出して入力内容を示すデータや操作信号をCPU310に出力する入力部350と、CP
U310による処理結果等を表示するための表示データを出力する表示部360と、外部
の装置との間でデータ等を送受信する外部I/F370とを備えており、これらの各部は
バスにより相互に接続されている。
力I/F380に入力デバイス381が接続される。入力I/F380は、図1に示した
ホストコントローラー31に相当し、入力デバイス381は、例えば、キーボード、ある
いは、マウスやデジタイザー等のポインティングデバイスである。
ロジェクター100から、ペン200による指示位置の座標が入力される。ここで、入力
I/F380には、プロジェクター100の出力部150が出力する座標データが、マウ
ス、トラックボール、デジタイザー、あるいはペンタブレット等のポインティングデバイ
スが出力する座標データと同様のデータとして入力される。したがって、PC300は、
プロジェクター100から入力される座標データを入力デバイスからの入力信号として処
理することができ、例えば、この座標データに基づいてマウスカーソルやポインターの移
動を行う等の動作を行える。
、画像出力I/F390には、モニター391と、プロジェクター100に繋がる画像信
号ケーブル(図示略)とが接続される。画像出力I/F390は、例えば、アナログ映像
信号が入力されるVGA(Video Graphics Array)端子、デジタル映像信号が入力される
DVIインターフェース、USBインターフェース、LANインターフェース及びLAN
インターフェース、NTSC、PAL及び、SECAM等の映像信号が入力されるS映像
端子、コンポジット映像信号が入力されるRCA端子、コンポーネント映像信号が入力さ
れるD端子、HDMI規格に準拠したHDMIコネクター等を複数備え、これら複数のコ
ネクターにモニター391及びプロジェクター100がそれぞれ接続される。また、画像
出力I/F390は、VESAが策定したDisplayPortを備えた構成としてもよく、具体
的にはDisplayPortコネクターあるいはMini DisplayPortコネクターと、DisplayPort規格
に準拠したインターフェース回路とを備えた構成としてもよい。この場合、PC300は
、プロジェクター100やモニター391あるいは他の機器に対し、DisplayPortを介し
てデジタル映像信号を出力できる。なお、画像出力I/F390は有線通信によって画像
信号の送受信を行ってもよく、無線通信によって画像信号の送受信を行ってもよい。
グラムの実行時に出力される画像データとを記憶している。CPU310は、表示制御プ
ログラムを実行すると、プロジェクター100に対して画像データを送信する処理を実行
する。この処理において、CPU310は画像データを再生するとともに、表示部360
によって所定の表示解像度の画像信号を生成させ、画像出力I/F390に出力させる。
ここで、表示部360は、アナログ信号を出力するコネクターに対してはアナログ画像信
号を出力し、デジタルデータを出力するコネクターに対してはデジタル画像データを出力
する。
の操作に対応する座標が入力された場合に、この座標に対応する位置に、ポインターP1
(図2)を表示するための画像を生成する。そして、CPU310は、再生中の画像デー
タにポインターP1を重ねた画像データを生成し、この画像データを入力I/F380か
らプロジェクター100に出力する。さらに、CPU310は、後述するように、手書き
領域の表示に関する設定や制御を実行する。すなわち、CPU310は、本実施形態にお
いては、図1に示した実行手段32に相当する機能を実現する。
このように、表示システム1においては、PC300によりプロジェクター100に出
力される画像データにポインターP1を重畳して描画する機能を、PC300が実行する
。
と、第2スイッチ212とを備える。第1スイッチ211は、ペン200の先端に設けら
れており、ユーザーがこれをスクリーンSCに押し付けることによって押下可能に構成さ
れたスイッチである。一方、第2スイッチ212は、ペン200の軸部に押下可能に設け
られている。第1スイッチ211及び第2スイッチ212は、それぞれ、マウスのボタン
のように機能することができる。また、第1スイッチ211の先端は開口しており、この
開口部から光(可視光又は非可視光)が射出されるように構成されている。
1及び第2スイッチ212を有し、ユーザーの操作に応じた操作信号を出力する操作部2
10と、操作部210からの操作信号に応じて光の照射態様を制御する照射制御部220
と、照射制御部220による制御に従って光を照射する照射部230とを備える。照射制
御部220は、ユーザーの操作に応じて光の照射パターン(点灯又は消灯する時間、間隔
、強度など)を変化させる。照射部230は、LEDやレーザーダイオードなどの光源を
有する。照射部230が射出する光は、可視光及び非可視光(赤外光など)のいずれであ
ってもよい。
形態において、それぞれのペン200は、光学的に判別できるように構成されている。ペ
ン200は、光の照射パターンを異ならせることによって、互いを判別可能に構成するこ
とができる。また、撮像部111が可視光を撮像可能な場合であれば、ペン200は、照
射する光の波長(すなわち色)を異ならせることで判別されてもよいし、ペン200の筐
体にバーコードやIDなどの画像を印刷やシールによって形成し、これを撮影して得られ
た撮影画像データを解析することによって判別されてもよい。このような画像解析は位置
検出処理部113で実行されてもよい。
り、(A)はペン200の指示位置に従ってポインターP1を投射した状態を示し、(B
)は指示位置に従って手書き画像H1を描画した状態を示す。
この例において、光変調装置145が有する液晶表示パネル全体を使用して表示画像を
投射した場合には、図7(A)に二点鎖線で示す投射可能領域A11に画像が結像する。
プロジェクター100がスクリーンSCの真正面に位置している場合を除き、投射可能領
域A11には図7(A)に示すように台形歪みが発生するので、プロジェクター100は
、表示制御部132の機能によりキーストーン補正を行う。このキーストーン補正の実行
後には、投射可能領域A11の一部である実投射領域A12に表示画像が投射される。実
投射領域A12は、通常、スクリーンSC上で長方形となり、かつ投射可能領域A11内
で最大のサイズとなるよう設定される。具体的には、光変調装置145の液晶表示パネル
の解像度と台形歪みの程度により決定されるが、最大サイズでなくてもよい。なお、プロ
ジェクター100から投射した画像に台形歪みが発生していなければ、このキーストーン
補正は実行しなくてもよい。この場合は、実投射領域A12は投射可能領域A11と一致
する。
12に対してキャリブレーションを実行する。このキャリブレーションでは、制御部17
0が画像処理部133を制御して所定のキャリブレーション用の画像を描画させる。この
キャリブレーション用の画像がスクリーンSCに投射された状態で、制御部170の制御
により位置検出ユニット110がスクリーンSCを撮影する。キャリブレーション用の画
像は、例えば白色の背景にいくつかのドットが配置された画像であり、あらかじめ記憶部
180等に記憶されている。なお、キャリブレーション用の画像は必ずしも記憶部180
等に記憶されている必要はなく、キャリブレーションの実行が必要になり、キャリブレー
ションを実行する毎に、制御部170がキャリブレーション用の画像をその都度生成する
構成であってもよい。
ってもよく、実投射領域A12の一部であってもよい。実投射領域A12の一部をキャリ
ブレーションの対象とする場合としては、プロジェクター100の表示画像のアスペクト
比とスクリーンSCのアスペクト比とが異なる場合(例えば、プロジェクター100の表
示解像度がWXGA(アスペクト比は15:9)で、スクリーンSCのアスペクト比が4
:3である場合)に、プロジェクター100の表示画像の垂直方向の幅が、スクリーンS
Cの垂直方向の幅と一致するように表示する場合が考えられる。この場合は、プロジェク
ター100の実投射領域A12のうち、スクリーンSCに含まれる領域をキャリブレーシ
ョンの対象とし、それ以外の領域をキャリブレーションの対象外とすることが考えられる
。
部と実投射領域A12との境界と、撮影画像データ中のドットを検出し、位置検出ユニッ
ト110の撮影範囲(画角)すなわち撮影画像における位置と、実投射領域A12上の位
置との対応関係を特定する。制御部170は、キャリブレーションにより特定された撮影
画像上の位置と実投射領域A12上の位置との対応関係に基づいて、後述するように座標
算出部114が用いる座標変換パラメーターを求める。座標変換パラメーターには、画像
処理部133が描画した画像上の座標と、撮影画像データ上で求められた座標とを対応付
けるデータ等が含まれる。座標算出部114は、この座標変換パラメーターに基づいて、
撮影画像データ上で求められた座標を画像処理部133が描画した画像上の座標に変換す
ることができる。座標算出処理は、この座標変換パラメーターに基づいて行われる。
ョン用プログラム(図示略)を実行することで行われるので、PC300においてキャリ
ブレーション用のプログラムをインストールして実行する必要がない。また、キャリブレ
ーションは、撮影画像データに基づいて制御部170が自動で行う処理であってもよく、
キャリブレーション用の画像に対してユーザーの操作が必要とする処理であってもよい。
さらに、キャリブレーションは、これらの処理を併用して行われてもよい。キャリブレー
ション用の画像に対するユーザーの操作は、キャリブレーション用の画像に含まれるドッ
トをユーザーがペン200で指示する操作等が考えられる。
投射された状態で撮影を実行し、図中に破線の矢印で示すように、撮影画像において実投
射領域A12の頂点のいずれかを原点とする直交座標を仮想的に設定して、この座標系に
おけるペン200の先端位置の座標を求める。この直交座標は、上記のキャリブレーショ
ンにより得られた座標変換パラメーターに基づいて設定される。その後、座標変換部12
0により、実投射領域A12に表示された画像データにおけるペン200の先端の座標が
求められると、この座標に従って、例えば図7(A)に示すポインターP1や、メニュー
バーM1が表示される。ポインターP1はペン200の先端位置を示す記号として描画さ
れる。ポインターP1は、単なる点の画像であってもよいし、十字や矢印の画像であって
もよい。また、メニューバーM1は、ペン200により操作可能なGUI(Graphical Us
er Interface)ウィジェットであり、メニューバーM1に配置されたボタンをペン200
により指示することで、ユーザーがプロジェクター100の動作に関する操作を行うこと
ができるようになる。ここにおいて、メニューバーM1によって可能な操作は、例えば、
線等の記号の描画、描画した手書き画像のデータの保存、消去、コピー、描画した操作画
像の移動、直前の操作を取り消す操作(アンドゥ)、アンドゥによって取り消した操作を
再び実行する操作(リドゥ)などである。
動させることで、ペン200の先端の軌跡に沿って手書き画像H1が描画される。この手
書き画像H1は、例えば、ポインターP1やメニューバーM1と同様に、ペン200の指
示位置を示す座標データに従ってPC300がプロジェクター100に描画させるもので
ある。また、ユーザーは、手書き画像H1を描画する前にメニューバーM1を指示するこ
とによって、手書き画像H1の線の色や太さを設定することが可能である。
に接続されたUSBフラッシュメモリーなどの外部記憶装置が記憶している画像データ等
)を順次表示させるスライドショー表示の制御用のボタンや、プロジェクター100の機
能自体に関する設定(アスペクト比の変更、カラーモードの変更等)を行うためのボタン
等を配置することも可能である。すなわち、メニューバーM1によって行われる操作には
、手書き画像の描画とは直接的には関係しないものも含まれ得る。制御部170は、ペン
200の指示位置が座標変換部120から出力された場合に、この座標を取得して、メニ
ューバーM1において指示されたボタンを特定し、指示操作に対応した動作を実行する。
における座標に変換する処理の様子を示す説明図であり、図8(A)は一連の動作の初期
状態を示し、図8(B)は、図8(A)の状態から表示画像の解像度を変更した状態を示
す。なお、以下の説明では、プロジェクター100が投射した画像に台形歪みが発生して
おらず、かつ光変調装置145の変調領域全体に表示された画像が実投射領域A12に表
示される場合について説明する。このとき、実投射領域A12は投射可能領域A11と一
致しており、実投射領域A12に表示される画像の解像度は、光変調装置145の液晶表
示パネルの解像度と等しい。
域A12に表示された画像の解像度は、いずれも1280×800ドットである。また、PC3
00から入力される画像データの解像度も1280×800ドットである。したがって、実投射
領域A12には、1280×800ドットの表示画像I11が表示されている。位置検出ユニッ
ト110は、実投射領域A12の左上隅を原点とし、右方向をX軸の正方向、下方向をY
軸の正方向とするX−Y直交座標系を設定し、実投射領域A12におけるペン200の指
示位置の座標(X1n,Y1n)を検出する。座標算出部114が出力する座標データは、指示
位置の座標(X1n,Y1n)を表している。
)である。具体的に、指示位置のX軸方向の座標X1nは、実投射領域A12の横幅W1に対
する、実投射領域A12の左辺から指示位置までの長さWP1の比率を表している。また、
指示位置のY軸方向の座標Y1nは、実投射領域A12の縦幅H1に対する、実投射領域A1
2の上辺から指示位置までの長さHP1の比率を表している。なおここでは、W1, WP1, H1,
及びHP1を画素数で表すものとする。
この場合、座標(X1n,Y1n)は、下記式(1)、(2)により算出される。
X1n=WP1÷W1 …(1)
Y1n=HP1÷H1 …(2)
例えば図8(A)に示す例で、WP1=400, HP1=300と仮定する。表示画像I11の解像
度は1280×800ドットなので、W1=1280、H1=800である。従って、X1n=400÷1280≒0.31
3、Y1n=300÷800=0.375と表すことができる。またこのとき、実投射領域A12の左上
の頂点、実投射領域A12の右上の頂点、左下の頂点、及び右下の頂点の座標は、それぞ
れ(0, 0)、(1, 0)、(0, 1)、(1, 1)と表される。なお図8(A)の状態では実投
射領域A12と、表示画像I11が表示された領域とは一致しているので、座標(X1n,Y
1n)は表示画像I11内で正規化された座標と考えることもできる。なお、本実施形態で
は、座標(X1n,Y1n)、及び後述する座標(X2n,Y2n)のいずれも0以上1以下の範囲で
座標の正規化を行っているが、正規化の方法はこれに限られない。座標の正規化には、論
理的に定義された任意の値(例えば、0以上32767以下の範囲など)を用いることが
できる。
示画像I12に切り替えられると、プロジェクター100は、画像データの縦方向の解像
度(768ドット)が、液晶表示パネルの縦方向の解像度(800ドット)まで拡大されるよう
に、画像データをスケーリングする。このスケーリングは縦方向及び横方向のいずれにつ
いても同様に行われるので、画像データの横方向の解像度(1024ドット)は、1024×(80
0÷768)≒1066ドットにスケーリングされる。この結果、スクリーンSCには、図8(B
)に示すように1066×800ドットの表示画像I12が投射される。この表示画像I12の
アスペクト比及び解像度は、表示画像I11のアスペクト比及び解像度とは異なっている
ため、表示画像I12が投射される領域は実投射領域A12とは一致しない。図8(B)
に示す例では、表示画像I12が投射される領域は実投射領域A12よりも小さい。また
、プロジェクター100はスケーリング後の画像ができるだけ中央に表示されるようにそ
の位置を変更している。そのため、実投射領域A12において、表示画像I11の左上の
頂点の位置と、表示画像I12の左上の頂点の位置は一致していない。
た状態で、表示画像I11を表示画像I12に変更すると、指示位置そのものは動いてい
ないが、指示位置と表示されている画像との相対位置は変化する。そのため、表示画像I
11の左上の頂点を原点として正規化された指示位置の座標(X1n, Y1n)と、表示画像I
12の左上の頂点を原点として正規化された指示位置の座標(X2n, Y2n)は異なる。この
ため、位置検出ユニット110が撮像部111の撮影画像データに基づいて算出した実投
射領域A12における指示位置の座標(X1n,Y1n)をもとにポインターP1を表示すると
、ポインターP1が実際の指示位置からずれてしまう。
頂点よりも107画素だけ右側にある(107=(1280-1066)÷2)。従って、表示画像I12
の左辺から指示位置までの長さをWP2、表示画像I12の上辺から指示位置までの長さをH
P2とすると、WP2=WP1-107=400-107=293、HP2=HP1=300である。また、表示画像I12の
解像度は1066×800ドットなので、表示画像I12の横幅W2及び縦幅H2は、W2=1066、H2
=800である。従って、表示画像I12の左上の頂点を原点として正規化された指示位置
の座標(X2n, Y2n)は、X2n=(400-107)÷1066≒0.275、Y2n=300÷800=0.375と表さ
れる。このようにX1n≠X2nとなり、表示画像の解像度が変化すると、指示位置の正規化座
標も変化する。
,Y1n)=(0.313, 0.375)にポインターP1を表示すると、ペン200の先端から離れ
た位置にポインターP1aが表示されてしまう。これは、PC300がポインターP1を
描画する際に、位置検出ユニット110から出力された正規化座標に基づいて、画像の左
上を原点として描画を行うためである。このように、実投射領域A12を基準として求め
た座標は表示画像の解像度の影響を受けてしまうので、PC300は、位置検出ユニット
110が算出した座標をそのままポインターP1の表示に利用することはできない。
うに、位置検出ユニット110の座標算出部114が算出した指示位置の座標(X1n,Y1n
)を、座標変換部120によって、表示中の表示画像における指示位置の座標(X2n,Y2n
)に変換する処理を行う。
(X1n,Y1n)を座標(X2n,Y2n)に変換する。この画像位置情報は、光変調装置145の
変調領域における画像の配置に関する情報である。また光変調装置145の変調領域は、
スクリーンSC上の実投射領域A12と対応している。従って画像位置情報は、実投射領
域A12に対する表示画像の位置(配置)を示している。本実施形態では、画像位置情報
は、実投射領域A12に対する表示画像の位置(配置)及びサイズを示している。この画
像位置情報に基づいて、座標変換部120は、表示画像における指示位置の座標を得る。
例えば図8に示した例では、W1、H1、W2及びH2は画像位置情報に相当する。また、表示画
像I11の左上端の座標(XO1,YO1)=(0、0)、及び表示画像I12の左上端の座標(
XO2,YO2)=(107, 0)も画像位置情報に相当する。なお、XO1,YO1,XO2,及びYO2は正
規化された座標ではなく、実投射領域A12(又は、光変調装置145の変調領域)にお
いて、実投射領域A12の左上の頂点(又は、光変調領域145の変調領域の左上の頂点
)を原点として、表示画像の左上の頂点の位置を画素数で表したものである。図8に示す
例では、表示画像I11の画像位置情報(XO1, YO1, W1, H1)=(0, 0, 1280, 800)で
あり、表示画像I12の画像位置情報(XO2, YO2, W2, H2)=(107, 0, 1166, 800)で
ある。
タにおいてポインターP1、メニューバーM1あるいは手書き画像H1を描画する場合に
、画像データ中の位置を特定する情報として利用できる。このため、表示画像の解像度や
ズーム率等に影響されることなく、ポインターP1、メニューバーM1及び手書き画像H
1を、正確に、ペン200による指示位置に合わせて描画できる。
像度や表示位置の影響を受ける。例えば、操作部190による操作や、PC300から送
信される制御信号に応じて、プロジェクター100が、表示解像度の変更、アスペクト比
の変更、ズーム、画像の表示位置の変更(移動)、多画面表示処理等、投射状態が変化す
るような処理を実行した場合には、画像位置情報も変化する。上述の通り、画像位置情報
は、実投射領域A12に対する画像配置領域(表示画像I11、I12が投射される(表
示される)領域)の配置に関する情報である。換言すれば、画像位置情報は、実投射領域
A12(表示可能領域)に対する表示画像の位置(配置)を示す情報である。また、PC
300の表示解像度が変化し、PC300がプロジェクター100に出力する画像データ
の解像度が変化した場合(例えば、PC300において解像度に関する設定が変更された
場合)にも、画像位置情報は変化する。なお「多画面表示処理」とは、プロジェクター1
00の実投射領域A12を複数の領域に区分して、複数の画像供給装置から入力された異
なる画像をこれらの領域に表示させる処理である。
に、制御部170及び表示制御部132から情報を取得して画像位置情報を更新し、更新
後の画像位置情報に基づいて座標を変換する。画像位置情報は、例えば、次に挙げるタイ
ミングで更新される。
・制御部170が、PC300から入力される画像データに関する情報(画像の解像度
など)の変化を検出したとき。
・プロジェクター100において、画像データの解像度を変更したとき。
・プロジェクター100において、画像データのアスペクト比を変更したとき。
・光変調装置145により描画する画像を、投射する画像データの画像処理によって拡
大/縮小するデジタルズーム機能を実行または解除したとき。
・実投射領域A12に対する表示画像の表示位置を変更したとき。
・上記のデジタルズーム機能により画像を拡大し、さらに画像処理によって画像の表示
位置を変更する機能を実行または解除したとき。
・光変調装置145により描画する画像と背景を含む全体すなわち実投射領域A12全
体の投射サイズを、画像データの画像処理を行うことにより拡大/縮小するテレワイド機
能を実行または解除したとき。
・上記のデジタルズーム機能により画像を縮小し、さらに画像処理によって画像の表示
位置を変更するピクチャーシフト機能を実行または解除したとき。
・複数の画像の同時表示を実行または解除したとき。
・座標変換部120から座標を出力する出力先が、画像処理ユニット130からPC3
00(出力部150)へ、あるいはその逆へ変更されたとき。
70の制御により、画像処理ユニット130によって実行される。なお、上記に列挙した
タイミングはあくまで一例であり、その他のタイミングで画像位置情報を更新することも
もちろん可能である。
による指示位置を検出して指示位置の座標を出力する動作を示す。
この図9に示す動作は、プロジェクター100の起動後、あるいは、操作部190の操
作によってポインターP1やメニューバーM1の表示が指示された場合に、投射を終了す
るまで一定時間毎に繰り返し実行される。
、キャリブレーションが必要か否かを示すユーザーの指示に基づいて行ってもよく、キャ
リブレーションを行う必要があるかどうかを制御部170が自動的に判別し、この判別結
果に基づいて自動的に行ってもよい。キャリブレーションが必要な場合には(ステップS
11;Yes)、図7(A)を参照して説明したようにキャリブレーションを実行する(
ステップS12)。すなわち、画像処理部133によりキャリブレーション用の画像を描
画させ、このキャリブレーション用の画像が投射された状態で位置検出ユニット110に
より撮影を実行させ、得られた撮影画像データにおける実投射領域A12の輪郭やキャリ
ブレーション用の画像に含まれる特徴点(ドット等)を検出することで、画像処理部13
3が描画した画像と撮影画像データとの対応関係を求める。なお、キャリブレーションは
プロジェクター100の使用を開始してから1度だけ行えばよく、特定の事象が発生しな
い限りは再度行う必要がない。例えば、次の(1)〜(3)のような場合には、新たにキ
ャリブレーションを行う必要がある。
(2)プロジェクター100の設置条件が変わった場合。例えば、スクリーンSCに対す
るプロジェクター100の相対的な位置(向きを含む)が変わった場合。
(3)光学条件が変わった場合。例えば、投射光学系146のフォーカスまたはズームの
状態が変わった場合。投射光学系146あるいは撮像部111の光軸が経時変化等により
ずれた場合。
態における撮影画像データ上の位置と画像処理部133が描画する画像上の位置との対応
関係が変化する(つまり、座標変換パラメーターが変化する)ので、改めてキャリブレー
ションを行う必要がある。逆にこれらの事象が発生しなければキャリブレーションを再度
行う必要はないので、プロジェクター100を前回使用してから今回使用するまでの間に
上記の事象が発生していなければ、キャリブレーションを行うことなく、前回のキャリブ
レーションで求めた座標変換パラメーターを再利用することもできる。キャリブレーショ
ンを行う必要があるかどうかを制御部170が判別する方法としては、例えば、操作部1
90においてキーストーン補正の実行を指示するスイッチの操作の有無に基づいて判別す
る方法や、プロジェクター100に傾きや動きを検出するセンサーを設け、このセンサー
の検出値の変化に基づいて判別する方法がある。また、投射光学系146におけるフォー
カス、ズームの調整を行った場合に、制御部170がキャリブレーションを自動で実行し
てもよい。また、ユーザーが、プロジェクター100の設置位置や光学条件の変化を知っ
て、キャリブレーション実行を指示する操作を行えるように、対応するスイッチを操作部
190やリモコンに設けてもよい。
む範囲を撮影させると、位置検出処理部113は撮影画像データを取得し(ステップS1
3)、この撮影画像データに基づいてペン200の指示位置を検出する(ステップS14
)。続いて、座標算出部114が、位置検出処理部113により検出された指示位置の座
標を算出する(ステップS15)。このステップS15で算出される座標は実投射領域A
12における座標であり、図8(A)で説明した座標(X1n,Y1n)である。
更新が必要な場合は制御部170及び表示制御部132から情報を取得して画像位置情報
を更新する(ステップS17)。このステップS17の処理は、ステップS15の後に限
定されず、上記に例示したタイミングで随時実行してもよい。
その後、座標変換部120は、座標算出部114が算出した座標を表示画像の画像デー
タにおける座標に変換する処理を行う(ステップS18)。変換後の座標は、図5(B)
で説明した座標(X2n,Y2n)である。
座標変換部120は、変換後の座標をPC300に出力し(ステップS19)、本処理
を終了する。
クリーンSCに表示画像を表示する投射ユニット140と、スクリーンSCにおける、表
示画像に対する指示位置を検出する位置検出処理部113と、スクリーンSC内の表示可
能領域(例えば、実投射領域A12)における指示位置の座標である第1の座標情報を算
出する座標算出部114と、座標算出部114により算出された第1の座標情報を、画像
データにおける座標である第2の座標情報に変換する座標変換部120と、座標変換部1
20により得られた第2の座標情報を出力する出力部150とを備え、ペン200による
指示位置の座標を、画像データにおける座標として出力するので、出力された座標を利用
するPC300等においては、表示解像度や表示領域の広さ等の表示態様に影響されずに
、指示位置と画像データとの相対位置を特定できる。画像データにおける指示位置の座標
を得る過程で、画像データ自体と指示位置とを直接対応づける必要がないため、画像デー
タのサイズ等が変化してもキャリブレーションを行う必要がない。したがって、キャリブ
レーションの実行頻度を減らすことができる。これにより、プロジェクター100の利便
性の向上を図ることができる。また、PC300側においてキャリブレーション用のプロ
グラムを実行する必要がないため、PC300の操作に不慣れなユーザーの負担を軽減で
きる。
示可能領域に対する表示画像の位置を示す情報である画像位置情報に基づいて、第2の座
標情報に変換するので、表示可能領域に対する表示画像の位置を示す情報である画像位置
情報が変化しても、ペン200による指示位置の座標を正確に変換して出力できる。
像データの解像度に基づいて第2の座標情報に変換する。例えば、座標変換部120は、
投射部30の表示解像度と画像データの解像度を反映した画像位置情報を用いて座標の変
換を行う。これにより、画像データの解像度が変化しても指示位置の座標を正確に変換し
て出力できる。
また、位置検出ユニット110は、撮像部111が撮影した撮影画像に基づいて、スク
リーンSC上のペン200の位置を検出することにより、実投射領域A12における指示
位置を検出するので、指示位置を速やかに検出できる。
画像データが表示された領域に含まれない場合、言い換えれば、指示位置が表示画像に含
まれない場合に、表示画像が表示された領域内で指示位置に近い位置の座標を、変換後の
座標とするので、画像が表示されていない位置が指示された場合であっても、指示位置の
座標を出力できる。また、出力される座標は指示位置に近い位置の座標であるため、指示
位置の座標と同様に、PC300等によって処理できる。
像データが表示された領域に含まれない場合、言い換えれば、指示位置が表示画像に含ま
れない場合に、変換後の座標を出力しないものとすることができ、この場合、PC300
は、画像に重なる位置への指示のみに対応した動作を行うことができる。
また、表示制御部132等により画像データに対する処理が実行されることにより、ス
クリーンSCにおける画像の表示態様が変更された場合に、座標変換部120は、表示態
様に応じて変化した画像位置情報に基づいて座標を変換する処理を行う。ここで新たに変
換された座標は、出力部150が出力する。これにより、表示画像の表示態様の変化に伴
って常に適正な座標を出力できる。
フェースを構成し、これらに同一のクラスを割り当てることにより、2本分のペン200
の座標データを1本のUSBケーブルで送信しつつ、PC300においてこれらを識別す
ることが可能になる。したがって、PC300は、複数のポートを占有することなく2本
のペン200を認識することが可能である。よって、複数のユーザーが同時に各々のペン
200を用いて手書きの操作をしても、それぞれの指示位置に応じたポインターP1や手
書き画像H1を表示させることが可能である。また、2つのインターフェースに汎用のH
IDクラスが割り当てられることによって、ユーザーは、PC300に専用のデバイスド
ライバーをインストールする必要もなくなる。
本発明は、上述した実施形態に限らず、以下に例示するさまざまな態様でも実施可能で
ある。また、本発明は、必要に応じて、以下に示す変形例を複数組み合わせた態様でも実
施することができる。
指示体を同時に利用することも可能なものである。この場合、表示装置は、指示体の数と
同数のインターフェースを有し、これらのインターフェースに同一のクラスが割り当てら
れるようにしてファンクションデバイスを構成すればよい。なお、マウスやデジタイザー
等のポインティングデバイスの中で、異なる使用環境(例えば、PC300のOSが異な
っている等)で対応できる可能性が高いのはマウスであるため、複数のインターフェース
に同一のクラスを割り当てる場合、マウスに対応するクラスを割り当てるのが好ましい。
は一部を他の装置によって実現するものであってもよい。例えば、本発明に係るプロジェ
クターは、撮像部111や撮影制御部112に相当する機能を有するデジタルカメラを接
続可能に構成されており、このデジタルカメラから撮影画像データを取得するものであっ
てもよい。また、位置検出ユニット110は、プロジェクター100やPC300以外の
装置であってもよい。この場合、位置検出ユニット110を、プロジェクター100から
独立した装置とすることができる。さらにこのとき、位置検出ユニット110が座標変換
部120に相当する機能を有していてもよい。
例に挙げて説明したが、表示装置10が、ホスト装置30をその内部に有する構成であっ
てもよい。この場合は実行手段32の機能も表示装置10が備えている。
たが、ペン200以外の指示体を用いてもよい。例えば、ユーザーの指を指示体として用
いることも可能である。
きは照射部230によって光を照射せず、第1スイッチ211又は第2スイッチが押下さ
れたときに照射部230によって光を照射する構成とすることができる。またペン200
は、照射部230によって常に光を照射し、第1スイッチ211又は第2スイッチ212
が押下されているときと押下されていないときで光の照射パターンを変化させても良い。
いずれの場合も、撮像部111によって撮影された画像を解析することで、第1スイッチ
211又は第2スイッチ212が押下されたか否か(第1スイッチ211又は第2スイッ
チ212が操作されたか否か)を検出することができる。またプロジェクター100は、
第1スイッチ211又は第2スイッチ212が押下された(操作された)ことを示す操作
情報(第1の操作情報)、及び第1スイッチ211又は第2スイッチの押下が解除された
(操作が解除された)ことを示す操作情報(第2の操作情報)を、PC300へ出力して
もよい。例えばプロジェクター100は、第1の操作情報を、マウスが左クリックされた
ことを示す情報としてPC300へ出力し、第2の操作情報を、マウスの左クリックが解
除されたことを示す情報としてPC300へ出力してもよい。また、プロジェクター10
0は、ペン200を識別するための識別情報、及び各ペン200の座標情報とともにこれ
らの情報をPC300に出力してもよい。さらに、プロジェクター100は、操作情報を
、マウス以外のポインティングデバイス(例えば、デジタイザーなど)の操作を表す情報
としてPC300に出力してもよい。
らPC300に出力することが可能である。また、プロジェクター100は、Bluetooth
(登録商標)やLAN等によって制御データをPC300に出力してもよい。
る表示装置は、液晶ディスプレイなどであってもよい。この場合、検出手段14に相当す
る構成は、デジタルカメラなどであってもよいが、表示面に重ねて設けられたタッチスク
リーン(タッチパネル)によって実現されてもよい。また、検出手段14としては、タッ
チスクリーンに限らず、周知のさまざまな構成を利用することが可能である。なお、本発
明に係る表示装置が表示面そのものを有する場合には、上述したキャリブレーション等の
動作が不要になる。
がRGBの各色に対応した3枚の透過型または反射型の液晶パネルを用いた構成を例に挙
げて説明したが、本発明はこれに限定されるものではなく、例えば、1枚の液晶パネルと
カラーホイールを組み合わせた方式、3枚のデジタルミラーデバイス(DMD)を用いた
方式、1枚のデジタルミラーデバイスとカラーホイールを組み合わせたDMD方式等によ
り構成してもよい。ここで、表示部として1枚のみの液晶パネルまたはDMDを用いる場
合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。ま
た、液晶パネル及びDMD以外にも、光源が発した光を変調可能な構成であれば問題なく
採用できる。
ェクター100が通信ネットワークを介して接続された他の装置からダウンロードして実
行してもよいし、可搬型の記録媒体に制御プログラムを記録して、この記録媒体から上記
各プログラムを読み取って実行する構成としてもよい。PC300が記憶していた表示制
御プログラムについても同様に、PC300が他の装置から表示制御プログラムをダウン
ロードして実行してもよいし、可搬型の記録媒体に記録された表示制御プログラムをPC
300が読み取って実行する構成としてもよい。
ターフェース、11b…第2インターフェース、12…記憶手段、13…表示手段、14
…検出手段、15…供給手段、20a、20b…指示体、30…ホスト装置、31…ホス
トコントローラー、32…実行手段、100…プロジェクター、110…位置検出ユニッ
ト、111…撮像部、112…撮影制御部、113…位置検出処理部、114…座標算出
部、120…座標変換部、130…画像処理ユニット、131…画像入力部、132…表
示制御部、133…画像処理部、134…フレームメモリー、140…投射ユニット、1
41…光源駆動部、142…光変調装置駆動部、143…投射光学系駆動部、144…照
明光学系、145…光変調装置、146…投射光学系、150…出力部、160…入力部
、170…制御部、180…記憶部、190…操作部、200…ペン、210…操作部、
211…第1スイッチ、212…第2スイッチ、220…照射制御部、230…照射部、
300…PC、310…CPU、320…ROM、330…RAM、340…記憶部、3
50…入力部、360…表示部、370…外部I/F、380…入力I/F、381…入
力デバイス、390…画像出力I/F、391…モニター、SC…スクリーン
Claims (8)
- ホスト装置とUSB(Universal Serial Bus)規格に準拠して接続し、第1インターフ
ェース及び第2インターフェースを有するファンクションデバイスと、
前記第1インターフェース及び前記第2インターフェースに対して同一のクラスを割り
当てた構成情報を記憶した記憶手段と、
表示面に画像を表示する表示手段と、
前記表示面に対して第1指示体により指示された第1位置と第2指示体により指示され
た第2位置とを検出する検出手段と、
前記記憶手段に記憶された構成情報と、前記検出手段により検出された第1位置を表す
第1座標データと、前記検出手段により検出された第2位置を表す第2座標データとを前
記ファンクションデバイスを介して前記ホスト装置に供給する供給手段であって、前記第
1座標データを前記第1インターフェースに割り当て、前記第2座標データを前記第2イ
ンターフェースに割り当てて供給する供給手段と
を備える表示装置。 - 前記記憶手段が、前記第1インターフェース及び前記第2インターフェースに対してH
ID(Human Interface Device)クラスを割り当てた前記構成情報を記憶する
ことを特徴とする請求項1に記載の表示装置。 - 前記記憶手段が、前記第1インターフェースに対してマウスに対応するサブクラスを割
り当て、前記第2インターフェースに対してデジタイザーに対応するサブクラスを割り当
てた前記構成情報を記憶する
ことを特徴とする請求項2に記載の表示装置。 - 前記記憶手段が、前記第1インターフェース及び前記第2インターフェースに対してマ
ウスに対応するサブクラスを割り当てた前記構成情報を記憶する
ことを特徴とする請求項2に記載の表示装置。 - 前記記憶手段が、前記第1インターフェース及び前記第2インターフェースに対してデ
ジタイザーに対応するサブクラスを割り当てた前記構成情報を記憶する
ことを特徴とする請求項2に記載の表示装置。 - ホスト装置とUSB(Universal Serial Bus)規格に準拠して接続し、第1インターフ
ェース及び第2インターフェースを有するファンクションデバイスと、
前記第1インターフェース及び前記第2インターフェースに対して同一のクラスを割り
当てた構成情報を記憶した記憶手段と、
光を投射することによって表示面に画像を表示する表示手段と、
前記表示面に対して第1指示体により指示された第1位置と第2指示体により指示され
た第2位置とを検出する検出手段と、
前記記憶手段に記憶された構成情報と、前記検出手段により検出された第1位置を表す
第1座標データと、前記検出手段により検出された第2位置を表す第2座標データとを前
記ファンクションデバイスを介して前記ホスト装置に供給する供給手段であって、前記第
1座標データを前記第1インターフェースに割り当て、前記第2座標データを前記第2イ
ンターフェースに割り当てて供給する供給手段と
を備えるプロジェクター。 - 請求項1ないし5のいずれか1項に記載の表示装置、第1指示体及び第2指示体と、
前記ファンクションデバイスを介して供給された前記構成情報、前記第1座標データ及
び前記第2座標データに基づき、前記第1位置又は前記第2位置に応じた処理を実行する
実行手段を備えるホスト装置と
を備える表示システム。 - 前記実行手段は、前記第1位置又は前記第2位置に応じた画像を前記表示手段に描画さ
せる処理を実行する
ことを特徴とする請求項7に記載の表示システム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011285318A JP6141596B2 (ja) | 2011-12-27 | 2011-12-27 | 表示装置、表示システム及び表示装置のデータ供給方法 |
CN201210519921.XA CN103186293B (zh) | 2011-12-27 | 2012-12-06 | 显示装置、显示系统以及显示装置的数据供给方法 |
US13/710,703 US9176599B2 (en) | 2011-12-27 | 2012-12-11 | Display device, display system, and data supply method for display device |
US14/868,046 US9684385B2 (en) | 2011-12-27 | 2015-09-28 | Display device, display system, and data supply method for display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011285318A JP6141596B2 (ja) | 2011-12-27 | 2011-12-27 | 表示装置、表示システム及び表示装置のデータ供給方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013134661A true JP2013134661A (ja) | 2013-07-08 |
JP2013134661A5 JP2013134661A5 (ja) | 2015-02-19 |
JP6141596B2 JP6141596B2 (ja) | 2017-06-07 |
Family
ID=48654014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011285318A Active JP6141596B2 (ja) | 2011-12-27 | 2011-12-27 | 表示装置、表示システム及び表示装置のデータ供給方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US9176599B2 (ja) |
JP (1) | JP6141596B2 (ja) |
CN (1) | CN103186293B (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015153183A (ja) * | 2014-02-14 | 2015-08-24 | シャープ株式会社 | 表示装置 |
JP2015158889A (ja) * | 2014-01-21 | 2015-09-03 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
JP2016015649A (ja) * | 2014-07-02 | 2016-01-28 | 株式会社リコー | プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 |
JP2016071864A (ja) * | 2014-09-26 | 2016-05-09 | パナソニックIpマネジメント株式会社 | プロジェクタ装置 |
JP2016177750A (ja) * | 2015-03-23 | 2016-10-06 | セイコーエプソン株式会社 | 位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法 |
JP2016184850A (ja) * | 2015-03-26 | 2016-10-20 | セイコーエプソン株式会社 | プロジェクターおよび検出方法 |
JP2017182110A (ja) * | 2016-03-28 | 2017-10-05 | セイコーエプソン株式会社 | 表示システム、表示装置、情報処理装置及び情報処理方法 |
US10025430B2 (en) | 2013-10-08 | 2018-07-17 | Maxell, Ltd. | Projection type image display device, manipulation detection device and projection type image display method |
JP2018160265A (ja) * | 2014-01-21 | 2018-10-11 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
WO2018203595A1 (ko) * | 2017-05-04 | 2018-11-08 | 임성현 | 터치 인터랙션이 가능한 프로젝터 |
JP2022546544A (ja) * | 2019-09-02 | 2022-11-04 | ネオラブ コンバージェンス インコーポレイテッド | 電子シャープペンシル |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2980005A1 (fr) * | 2011-09-09 | 2013-03-15 | Movea | Procede de controle d'un curseur par des mesures d'attitude d'un pointeur et pointeur mettant en oeuvre ledit procede |
US20130127738A1 (en) * | 2011-11-23 | 2013-05-23 | Microsoft Corporation | Dynamic scaling of touch sensor |
JP5874401B2 (ja) | 2012-01-06 | 2016-03-02 | セイコーエプソン株式会社 | 表示装置、プロジェクター、表示システム及びデバイスの切替方法 |
JP6241353B2 (ja) * | 2014-04-01 | 2017-12-06 | セイコーエプソン株式会社 | 双方向表示方法および双方向表示装置 |
JP6341755B2 (ja) * | 2014-05-26 | 2018-06-13 | キヤノン株式会社 | 情報処理装置、方法及びプログラム並びに記録媒体 |
KR102297797B1 (ko) * | 2014-07-30 | 2021-09-03 | 삼성전자 주식회사 | 전자 장치간 트리거 동작 방법 및 장치 그리고, 이를 지원하는 잭 액세서리 |
JP6350175B2 (ja) * | 2014-09-26 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、プロジェクター、及び、位置検出方法 |
JP6477131B2 (ja) * | 2015-03-27 | 2019-03-06 | セイコーエプソン株式会社 | インタラクティブプロジェクター,インタラクティブプロジェクションシステム,およびインタラクティブプロジェクターの制御方法 |
JP6451446B2 (ja) * | 2015-03-27 | 2019-01-16 | セイコーエプソン株式会社 | インタラクティブプロジェクター及びインタラクティブプロジェクションシステム |
JP6459705B2 (ja) * | 2015-03-27 | 2019-01-30 | セイコーエプソン株式会社 | インタラクティブプロジェクター、インタラクティブプロジェクションシステム、及び、インタラクティブプロジェクターの制御方法 |
US10698505B2 (en) | 2016-01-13 | 2020-06-30 | Hewlett-Packard Development Company, L.P. | Executing multiple pen inputs |
US20180059863A1 (en) * | 2016-08-26 | 2018-03-01 | Lenovo (Singapore) Pte. Ltd. | Calibration of pen location to projected whiteboard |
US11934616B2 (en) * | 2020-12-23 | 2024-03-19 | Seiko Epson Corporation | Image display system, method for controlling image display system, and method for controlling display apparatus |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008097371A (ja) * | 2006-10-12 | 2008-04-24 | Canon Inc | 表示システム、座標処理方法、及びプログラム |
JP2009538463A (ja) * | 2006-05-26 | 2009-11-05 | スマート テクノロジーズ ユーエルシー | プラグ・アンド・プレイ周辺格納ドライバー |
JP2010272078A (ja) * | 2009-05-25 | 2010-12-02 | Seiko Epson Corp | 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法 |
JP2011013396A (ja) * | 2009-07-01 | 2011-01-20 | Seiko Epson Corp | プロジェクター、画像投写システムおよび画像投写方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4272904B2 (ja) | 2003-03-06 | 2009-06-03 | キヤノン株式会社 | 表示装置及び表示装置の制御方法 |
US7256772B2 (en) * | 2003-04-08 | 2007-08-14 | Smart Technologies, Inc. | Auto-aligning touch system and method |
US7293117B2 (en) * | 2004-06-10 | 2007-11-06 | Microsoft Corporation | Self-installing peripheral device with memory wherein in response to user request for additional storage peripheral device being configured to remove installation software stored on memory |
US8184101B2 (en) * | 2007-10-03 | 2012-05-22 | Microsoft Corporation | Detecting touch on a surface via a scanning laser |
US20090273569A1 (en) * | 2008-05-01 | 2009-11-05 | Microsoft Corporation | Multiple touch input simulation using single input peripherals |
-
2011
- 2011-12-27 JP JP2011285318A patent/JP6141596B2/ja active Active
-
2012
- 2012-12-06 CN CN201210519921.XA patent/CN103186293B/zh active Active
- 2012-12-11 US US13/710,703 patent/US9176599B2/en active Active
-
2015
- 2015-09-28 US US14/868,046 patent/US9684385B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009538463A (ja) * | 2006-05-26 | 2009-11-05 | スマート テクノロジーズ ユーエルシー | プラグ・アンド・プレイ周辺格納ドライバー |
JP2008097371A (ja) * | 2006-10-12 | 2008-04-24 | Canon Inc | 表示システム、座標処理方法、及びプログラム |
JP2010272078A (ja) * | 2009-05-25 | 2010-12-02 | Seiko Epson Corp | 電子情報ボードシステム、電子情報ボード制御装置およびカーソル制御方法 |
JP2011013396A (ja) * | 2009-07-01 | 2011-01-20 | Seiko Epson Corp | プロジェクター、画像投写システムおよび画像投写方法 |
Non-Patent Citations (1)
Title |
---|
"Appendix E: Example USB Descriptors for HID Class Devices", UNIVERSAL SERIAL BUS (USB): DEVICE CLASS DEFINITION FOR HUMAN INTERFACE DEVICES (HID): FIRMWARE SPEC, vol. Version 1.11, JPN6016005255, 27 June 2001 (2001-06-27), pages 66 - 72, ISSN: 0003254472 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10025430B2 (en) | 2013-10-08 | 2018-07-17 | Maxell, Ltd. | Projection type image display device, manipulation detection device and projection type image display method |
US10719171B2 (en) | 2013-10-08 | 2020-07-21 | Maxell, Ltd. | Projection type image display device, manipulation detection device and projection type image display method |
JP2015158889A (ja) * | 2014-01-21 | 2015-09-03 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
JP2018160265A (ja) * | 2014-01-21 | 2018-10-11 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP2015153183A (ja) * | 2014-02-14 | 2015-08-24 | シャープ株式会社 | 表示装置 |
JP2016015649A (ja) * | 2014-07-02 | 2016-01-28 | 株式会社リコー | プロジェクタ装置、インタラクティブシステム、およびインタラクティブ制御方法 |
JP2016071864A (ja) * | 2014-09-26 | 2016-05-09 | パナソニックIpマネジメント株式会社 | プロジェクタ装置 |
JP2016177750A (ja) * | 2015-03-23 | 2016-10-06 | セイコーエプソン株式会社 | 位置検出装置、表示装置、位置検出装置の制御方法、及び、表示装置の制御方法 |
JP2016184850A (ja) * | 2015-03-26 | 2016-10-20 | セイコーエプソン株式会社 | プロジェクターおよび検出方法 |
JP2017182110A (ja) * | 2016-03-28 | 2017-10-05 | セイコーエプソン株式会社 | 表示システム、表示装置、情報処理装置及び情報処理方法 |
WO2018203595A1 (ko) * | 2017-05-04 | 2018-11-08 | 임성현 | 터치 인터랙션이 가능한 프로젝터 |
JP2022546544A (ja) * | 2019-09-02 | 2022-11-04 | ネオラブ コンバージェンス インコーポレイテッド | 電子シャープペンシル |
Also Published As
Publication number | Publication date |
---|---|
US20130162538A1 (en) | 2013-06-27 |
US9684385B2 (en) | 2017-06-20 |
JP6141596B2 (ja) | 2017-06-07 |
CN103186293A (zh) | 2013-07-03 |
CN103186293B (zh) | 2017-06-13 |
US9176599B2 (en) | 2015-11-03 |
US20160018907A1 (en) | 2016-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6141596B2 (ja) | 表示装置、表示システム及び表示装置のデータ供給方法 | |
JP5874401B2 (ja) | 表示装置、プロジェクター、表示システム及びデバイスの切替方法 | |
JP6064319B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
JP5849560B2 (ja) | 表示装置、プロジェクター、及び、表示方法 | |
US9519379B2 (en) | Display device, control method of display device, and non-transitory computer-readable medium | |
JP6088127B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP5488082B2 (ja) | 情報認識システム及びその制御方法 | |
CN108446047B (zh) | 显示装置以及显示控制方法 | |
JP2014052930A (ja) | 表示装置、および、表示装置の制御方法 | |
JP2013140533A5 (ja) | ||
JP2011203830A (ja) | 投写システム及びその制御方法 | |
JP6117470B2 (ja) | 表示装置、プロジェクター、画像表示方法及び表示システム | |
JP6064321B2 (ja) | 表示装置、及び、表示制御方法 | |
JP6051828B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP6269801B2 (ja) | プロジェクター、及び、プロジェクターの制御方法 | |
US20150279336A1 (en) | Bidirectional display method and bidirectional display device | |
JP6296144B2 (ja) | 表示装置、及び、表示制御方法 | |
JP6255810B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP2020201330A (ja) | 表示装置の動作方法および表示装置 | |
JP6056447B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
JP7302640B2 (ja) | 表示装置の動作方法および表示装置 | |
JP2013195659A (ja) | 表示装置、及び、表示制御方法 | |
JP2020173328A (ja) | 表示方法および表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141224 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20141224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160118 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160512 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160523 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20160610 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170508 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6141596 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |