JP2015158887A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2015158887A5 JP2015158887A5 JP2014062102A JP2014062102A JP2015158887A5 JP 2015158887 A5 JP2015158887 A5 JP 2015158887A5 JP 2014062102 A JP2014062102 A JP 2014062102A JP 2014062102 A JP2014062102 A JP 2014062102A JP 2015158887 A5 JP2015158887 A5 JP 2015158887A5
- Authority
- JP
- Japan
- Prior art keywords
- image
- calibration
- data
- unit
- indicator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 description 16
- 238000000034 method Methods 0.000 description 5
- 230000000051 modifying Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000875 corresponding Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Description
画像処理部40は、制御部30の制御に従って、画像I/F部12を介して入力される画像データを処理し、光変調装置駆動部46に画像信号を出力する。画像処理部40が実行する処理は、3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部40は、制御部30により指定された処理を実行し、必要に応じて、制御部30から入力されるパラメーターを使用して処理を行う。また、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F部12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F部12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
操作検出部17は、入力デバイスとして機能するリモコン受光部18及び操作パネル19に接続され、リモコン受光部18及び操作パネル19を介した操作を検出する。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
これに対し、図4(B)に示すように指示体80の指示位置を検出する場合、光出射装置60が出射する検出光Lを指示体80が反射した反射光を検出する。すなわち、撮影方向PAから撮影される撮影画像データから、検出光Lの反射光の像が検出される。検出光Lの出射方向はスクリーンSCとほぼ平行であり、検出光LはスクリーンSCから所定の距離(以下、距離G1とする)だけ離れている。距離G1はスクリーンSCに対する光出射装置60の取付位置により変化するが、構造上、距離G1をゼロにすることは困難である。このため、撮影方向PAから撮影した撮影画像データには、指示体80の先端において、スクリーンSCから距離G1だけ離れた反射位置80aで反射した反射光の像が写る。
図4(B)に示すように、反射位置80aは、撮影方向PAに対して斜めの方向に離れている。このため、撮影画像データに写る反射光の像の位置は、撮影方向PAにおいて、より離れた位置を指示体70で指示した場合の像と同じ位置になる。つまり、指示体80が接触点80bでスクリーンSCに接触した場合の反射光と、指示体70が接触点70bでスクリーンSCに接触した場合の光とが、撮像部51の撮影画像データでは同じ位置に写る。このため、指示体80が指し示す接触点80bは、撮影方向PAにおいて撮像部51から離れた接触点70bとして検出され、距離G2のずれを生じる。
図4(B)に示すように、反射位置80aは、撮影方向PAに対して斜めの方向に離れている。このため、撮影画像データに写る反射光の像の位置は、撮影方向PAにおいて、より離れた位置を指示体70で指示した場合の像と同じ位置になる。つまり、指示体80が接触点80bでスクリーンSCに接触した場合の反射光と、指示体70が接触点70bでスクリーンSCに接触した場合の光とが、撮像部51の撮影画像データでは同じ位置に写る。このため、指示体80が指し示す接触点80bは、撮影方向PAにおいて撮像部51から離れた接触点70bとして検出され、距離G2のずれを生じる。
図7に、キャリブレーションデータを登録したキャリブレーションデータ管理テーブルの一例を示す。図7に示すキャリブレーションデータ管理テーブルは、オートキャリブレーション画像121上に配置されたマークの識別番号と、各マークのオートキャリブレーション画像121上での中心座標とを対応づけて記録したテーブルである。キャリブレーションデータ管理テーブルは、オートキャリブレーション画像121に対応付けて記憶部110に記憶される。キャリブレーション管理テーブルには、各マークの識別番号に対応付けて、各マークのフレームメモリー44上での中心座標が記録されている。なお、各マークの位置座標として、中心座標に代えて、各マークの位置する範囲の座標値(X座標、Y座標における最大値、最小値)を記録しておくものであってもよい。このキャリブレーションデータ管理テーブルに記録された座標と、位置検出部50が撮影画像データから検出した座標とに基づき、撮影画像データ上の座標とフレームメモリー44上の座標とが対応付けられ、オートキャリブレーションデータ123が生成される。
キャリブレーション制御部39は、指示体80の指示位置の検出に関するキャリブレーションを、指示体70のマニュアルキャリブレーションと同様に実行できる。この場合、キャリブレーション制御部39は、マニュアル補正データ126を生成する。マニュアル補正データ126は、指示体80の指示位置を検出する場合に利用される。
マニュアル補正データ126は、図4(B)を参照して説明したように、指示体70の指示位置として検出した座標を、指示体80の指示位置の座標に補正するデータである。指示体80の指示位置の検出に関し、マニュアルキャリブレーションを行わない場合には、キャリブレーション制御部39は初期補正データ125を選択する。初期補正データ125は、図4(B)の距離G1を初期値にした場合の補正データであり、予め記憶部110に記憶される。光出射装置60の設置時には、スクリーンSCと検出光Lとの距離G1が、例えば10mm〜1mmとなるように調整され、実際にはスクリーンSCの面内で変化する。初期補正データ125は、距離G1の初期値を、例えば5mmに仮定した場合の補正データであり、初期補正データ125を使用すればマニュアルキャリブレーションを行わなくても指示体80の指示位置を検出できる。マニュアルキャリブレーションで作成されるマニュアル補正データ126を用いれば、距離G1の面内における差を反映した補正を行うことで、より高精度で指示体80の指示位置を検出できる。
つまり、検出制御部32は、位置検出部50の位置検出において、指示体70の指示位置を検出する場合には、オートキャリブレーションデータ123又はマニュアルキャリブレーションデータ124を用いて指示位置の座標を求める。指示体80の指示位置を検出する場合、検出制御部32は、オートキャリブレーションデータ123又はマニュアルキャリブレーションデータ124を用いて座標を求める処理で、初期補正データ125又はマニュアル補正データ126で補正を行う。言い換えれば、初期補正データ125及びマニュアル補正データ126は、指示体70の指示位置から指示体80の指示位置を求める差分のデータである。
マニュアル補正データ126は、図4(B)を参照して説明したように、指示体70の指示位置として検出した座標を、指示体80の指示位置の座標に補正するデータである。指示体80の指示位置の検出に関し、マニュアルキャリブレーションを行わない場合には、キャリブレーション制御部39は初期補正データ125を選択する。初期補正データ125は、図4(B)の距離G1を初期値にした場合の補正データであり、予め記憶部110に記憶される。光出射装置60の設置時には、スクリーンSCと検出光Lとの距離G1が、例えば10mm〜1mmとなるように調整され、実際にはスクリーンSCの面内で変化する。初期補正データ125は、距離G1の初期値を、例えば5mmに仮定した場合の補正データであり、初期補正データ125を使用すればマニュアルキャリブレーションを行わなくても指示体80の指示位置を検出できる。マニュアルキャリブレーションで作成されるマニュアル補正データ126を用いれば、距離G1の面内における差を反映した補正を行うことで、より高精度で指示体80の指示位置を検出できる。
つまり、検出制御部32は、位置検出部50の位置検出において、指示体70の指示位置を検出する場合には、オートキャリブレーションデータ123又はマニュアルキャリブレーションデータ124を用いて指示位置の座標を求める。指示体80の指示位置を検出する場合、検出制御部32は、オートキャリブレーションデータ123又はマニュアルキャリブレーションデータ124を用いて座標を求める処理で、初期補正データ125又はマニュアル補正データ126で補正を行う。言い換えれば、初期補正データ125及びマニュアル補正データ126は、指示体70の指示位置から指示体80の指示位置を求める差分のデータである。
プロジェクター10では、既にステップS3で、投射画像がスクリーンSCの投射領域に納まるようにユーザーによって調整されている。また、キャリブレーション制御部39は、オートキャリブレーション画像121に含まれるマークのうち、上下左右の各方向で最も外側に位置するマーク列がどのマーク列であるかを示すデータを取得する。このデータは、例えばオートキャリブレーション画像121に対応付けて記憶部110に記憶されている。
図11に示す例では、オートキャリブレーション画像121の左側で、最も外側に位置するマーク列は、マーク列Tである。キャリブレーション制御部39は、マーク列Tに含まれる各マークの中心座標を、図7に例示したキャリブレーションデータ管理テーブルから取得する。キャリブレーション制御部39は、取得した各マークの中心座標にマージンとなる所定値を加算して、スクリーンSCの左端を決定する。マーク列Tは、オートキャリブレーション画像121の左側で、最も外側に位置するマーク列であるため、各マークのY座標値から、所定値を減算してスクリーンSC左端の座標値とする。例えば、図11に示すマーク列TのマークT3(X3、Y3)の場合、Y座標値Y3から所定値αを減算した座標T3’(X3、Y3−α)が、T3におけるスクリーンSCの左端となる。キャリブレーション制御部39は、スクリーンSCの上下左右それぞれの方向で、端部の座標値を求める。なお、マークが存在しない領域については、補間処理によって端部の座標値を求めてもよい。キャリブレーション制御部39は、求めた上下左右それぞれの方向の座標値を記憶部110に保存する。次に、キャリブレーション制御部39は、求めたスクリーンSCの範囲のデータを使用して、マスク画像を作成する。キャリブレーション制御部39は、スクリーンSCの範囲外の領域で、画素値が0になるように設定したマスク画像を生成する。キャリブレーション制御部39は、生成したマスク画像を位置検出部50の撮影画像データ処理部56に送る。
図11に示す例では、オートキャリブレーション画像121の左側で、最も外側に位置するマーク列は、マーク列Tである。キャリブレーション制御部39は、マーク列Tに含まれる各マークの中心座標を、図7に例示したキャリブレーションデータ管理テーブルから取得する。キャリブレーション制御部39は、取得した各マークの中心座標にマージンとなる所定値を加算して、スクリーンSCの左端を決定する。マーク列Tは、オートキャリブレーション画像121の左側で、最も外側に位置するマーク列であるため、各マークのY座標値から、所定値を減算してスクリーンSC左端の座標値とする。例えば、図11に示すマーク列TのマークT3(X3、Y3)の場合、Y座標値Y3から所定値αを減算した座標T3’(X3、Y3−α)が、T3におけるスクリーンSCの左端となる。キャリブレーション制御部39は、スクリーンSCの上下左右それぞれの方向で、端部の座標値を求める。なお、マークが存在しない領域については、補間処理によって端部の座標値を求めてもよい。キャリブレーション制御部39は、求めた上下左右それぞれの方向の座標値を記憶部110に保存する。次に、キャリブレーション制御部39は、求めたスクリーンSCの範囲のデータを使用して、マスク画像を作成する。キャリブレーション制御部39は、スクリーンSCの範囲外の領域で、画素値が0になるように設定したマスク画像を生成する。キャリブレーション制御部39は、生成したマスク画像を位置検出部50の撮影画像データ処理部56に送る。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014062102A JP6398248B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出システム、及び、位置検出システムの制御方法 |
US14/598,795 US9639165B2 (en) | 2014-01-21 | 2015-01-16 | Position detection system and control method of position detection system |
CN201510028648.4A CN104793811B (zh) | 2014-01-21 | 2015-01-20 | 位置检测系统以及位置检测系统的控制方法 |
US15/467,772 US10114475B2 (en) | 2014-01-21 | 2017-03-23 | Position detection system and control method of position detection system |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014008627 | 2014-01-21 | ||
JP2014008627 | 2014-01-21 | ||
JP2014062102A JP6398248B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出システム、及び、位置検出システムの制御方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112440A Division JP6562124B2 (ja) | 2014-01-21 | 2018-06-13 | 位置検出システム、及び、位置検出システムの制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015158887A JP2015158887A (ja) | 2015-09-03 |
JP2015158887A5 true JP2015158887A5 (ja) | 2017-04-27 |
JP6398248B2 JP6398248B2 (ja) | 2018-10-03 |
Family
ID=53544737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014062102A Active JP6398248B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出システム、及び、位置検出システムの制御方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US9639165B2 (ja) |
JP (1) | JP6398248B2 (ja) |
CN (1) | CN104793811B (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015052765A1 (ja) * | 2013-10-08 | 2015-04-16 | 日立マクセル株式会社 | 投射型映像表示装置、操作検出装置及び投射型映像表示方法 |
JP6413236B2 (ja) * | 2013-12-20 | 2018-10-31 | セイコーエプソン株式会社 | プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法 |
JP6349838B2 (ja) * | 2014-01-21 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP2015158644A (ja) * | 2014-02-25 | 2015-09-03 | カシオ計算機株式会社 | 投影装置、投影方法及びプログラム |
JP6321148B2 (ja) * | 2014-05-09 | 2018-05-09 | マクセル株式会社 | 投写型映像表示装置 |
US10869009B2 (en) | 2015-09-30 | 2020-12-15 | Hewlett-Packard Development Company, L.P. | Interactive display |
JP6631280B2 (ja) * | 2016-02-03 | 2020-01-15 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出方法 |
JP6623812B2 (ja) * | 2016-02-17 | 2019-12-25 | セイコーエプソン株式会社 | 位置検出装置、及び、そのコントラスト調整方法 |
CN107239248B (zh) * | 2017-06-05 | 2020-06-19 | 京东方科技集团股份有限公司 | 显示装置和方法 |
CN111418238B (zh) * | 2017-07-06 | 2022-08-09 | 詹姆斯·R·塞勒凡 | 移动行人或车辆位置同步信号装置和方法 |
JP6935713B2 (ja) * | 2017-09-27 | 2021-09-15 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム及び位置検出装置の制御方法 |
WO2019159762A1 (ja) * | 2018-02-19 | 2019-08-22 | 株式会社村上開明堂 | 基準位置設定方法及び虚像表示装置 |
JP7010076B2 (ja) | 2018-03-13 | 2022-01-26 | セイコーエプソン株式会社 | 画像投写システム、プロジェクター及び画像投写システムの制御方法 |
JP2019159748A (ja) | 2018-03-13 | 2019-09-19 | セイコーエプソン株式会社 | 画像投写システム、指示体及び画像投写システムの制御方法 |
JP6835020B2 (ja) * | 2018-03-15 | 2021-02-24 | オムロン株式会社 | 画像処理システム、画像処理装置、画像処理プログラム |
DE102018108042B4 (de) * | 2018-04-05 | 2024-06-27 | Carl Zeiss Industrielle Messtechnik Gmbh | Optisches Messsystem |
JP6787363B2 (ja) * | 2018-05-10 | 2020-11-18 | セイコーエプソン株式会社 | 操作デバイス、位置検出システム及び操作デバイスの制御方法 |
JP7251095B2 (ja) * | 2018-10-22 | 2023-04-04 | セイコーエプソン株式会社 | 位置検出装置、表示装置、表示システム、及び、位置検出方法 |
JP7251094B2 (ja) * | 2018-10-22 | 2023-04-04 | セイコーエプソン株式会社 | 位置検出装置、表示システム、及び、位置検出方法 |
JP7188176B2 (ja) * | 2019-02-25 | 2022-12-13 | セイコーエプソン株式会社 | プロジェクター、画像表示システム及び画像表示システムの制御方法 |
JP7287222B2 (ja) | 2019-09-30 | 2023-06-06 | セイコーエプソン株式会社 | プロジェクター、及びプロジェクターの制御方法 |
JP2021128657A (ja) * | 2020-02-17 | 2021-09-02 | セイコーエプソン株式会社 | 位置検出方法、位置検出装置及び位置検出システム |
JP2022138883A (ja) * | 2021-03-11 | 2022-09-26 | セイコーエプソン株式会社 | 画像生成方法、制御方法、および情報処理装置 |
JP2023017206A (ja) | 2021-07-26 | 2023-02-07 | セイコーエプソン株式会社 | プロジェクターの制御方法、及びプロジェクター |
Family Cites Families (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7098891B1 (en) * | 1992-09-18 | 2006-08-29 | Pryor Timothy R | Method for providing human input to a computer |
US5694142A (en) * | 1993-06-21 | 1997-12-02 | General Electric Company | Interactive digital arrow (d'arrow) three-dimensional (3D) pointing |
US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
US5914709A (en) * | 1997-03-14 | 1999-06-22 | Poa Sana, Llc | User input device for a computer system |
JP3640156B2 (ja) * | 2000-02-22 | 2005-04-20 | セイコーエプソン株式会社 | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
US6803906B1 (en) * | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
JP2002163070A (ja) * | 2000-11-27 | 2002-06-07 | Matsushita Electric Ind Co Ltd | 電子黒板 |
US6731330B2 (en) * | 2001-01-30 | 2004-05-04 | Hewlett-Packard Development Company, L.P. | Method for robust determination of visible points of a controllable display within a camera view |
JP4037128B2 (ja) * | 2001-03-02 | 2008-01-23 | 株式会社リコー | 投影型表示装置、及びプログラム |
JP4250884B2 (ja) * | 2001-09-05 | 2009-04-08 | パナソニック株式会社 | 電子黒板システム |
JP2003108305A (ja) * | 2001-09-28 | 2003-04-11 | Fuji Photo Optical Co Ltd | プレゼンテーションシステム |
US6954197B2 (en) * | 2002-11-15 | 2005-10-11 | Smart Technologies Inc. | Size/scale and orientation determination of a pointer in a camera-based touch system |
DE10260305A1 (de) * | 2002-12-20 | 2004-07-15 | Siemens Ag | HMI Einrichtung mit einem optischem Touch Screen |
US7629967B2 (en) * | 2003-02-14 | 2009-12-08 | Next Holdings Limited | Touch screen signal processing |
WO2004081502A2 (en) * | 2003-03-12 | 2004-09-23 | O-Pen Aps | A system and a method of determining the position of a radiation emitting element |
US7411575B2 (en) * | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US7274356B2 (en) * | 2003-10-09 | 2007-09-25 | Smart Technologies Inc. | Apparatus for determining the location of a pointer within a region of interest |
US7355593B2 (en) * | 2004-01-02 | 2008-04-08 | Smart Technologies, Inc. | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
JP2005236421A (ja) * | 2004-02-17 | 2005-09-02 | Aruze Corp | 画像表示システム |
US7593593B2 (en) * | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
US7719523B2 (en) * | 2004-08-06 | 2010-05-18 | Touchtable, Inc. | Bounding box gesture recognition on a touch detecting interactive display |
WO2006018775A2 (en) * | 2004-08-12 | 2006-02-23 | Philips Intellectual Property & Standards Gmbh | Method and system for controlling a display |
US8508710B2 (en) * | 2004-12-02 | 2013-08-13 | Hewlett-Packard Development Company, L.P. | Display panel |
US7853041B2 (en) * | 2005-01-07 | 2010-12-14 | Gesturetek, Inc. | Detecting and tracking objects in images |
US7525538B2 (en) * | 2005-06-28 | 2009-04-28 | Microsoft Corporation | Using same optics to image, illuminate, and project |
US8164640B2 (en) * | 2005-06-30 | 2012-04-24 | Nokia Corporation | Camera control means to allow operating of a destined location of the information surface of a presentation and information system |
US7911444B2 (en) * | 2005-08-31 | 2011-03-22 | Microsoft Corporation | Input method for surface of interactive display |
US7843449B2 (en) * | 2006-09-20 | 2010-11-30 | Apple Inc. | Three-dimensional display system |
US8001613B2 (en) * | 2006-06-23 | 2011-08-16 | Microsoft Corporation | Security using physical objects |
JP4757144B2 (ja) | 2006-08-22 | 2011-08-24 | キヤノン株式会社 | 座標入力装置及びその制御方法、プログラム |
JP4650381B2 (ja) * | 2006-09-08 | 2011-03-16 | 日本ビクター株式会社 | 電子機器 |
US8212857B2 (en) * | 2007-01-26 | 2012-07-03 | Microsoft Corporation | Alternating light sources to reduce specular reflection |
US8159682B2 (en) * | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
US20090219253A1 (en) * | 2008-02-29 | 2009-09-03 | Microsoft Corporation | Interactive Surface Computer with Switchable Diffuser |
US8339378B2 (en) * | 2008-11-05 | 2012-12-25 | Smart Technologies Ulc | Interactive input system with multi-angle reflector |
JP2010119064A (ja) * | 2008-11-14 | 2010-05-27 | Sharp Corp | 色検出装置、色検出プログラム及びコンピュータ読み取り可能な記録媒体、並びに色検出方法 |
GB2466497B (en) * | 2008-12-24 | 2011-09-14 | Light Blue Optics Ltd | Touch sensitive holographic displays |
US20100201812A1 (en) * | 2009-02-11 | 2010-08-12 | Smart Technologies Ulc | Active display feedback in interactive input systems |
CN101833400B (zh) * | 2009-03-10 | 2012-06-13 | 广达电脑股份有限公司 | 光学式传感屏幕及面板传感方法 |
CN101582001A (zh) * | 2009-07-07 | 2009-11-18 | 松翰科技股份有限公司 | 触控屏幕、触控模块及控制方法 |
US8692768B2 (en) * | 2009-07-10 | 2014-04-08 | Smart Technologies Ulc | Interactive input system |
JP5521855B2 (ja) * | 2009-09-10 | 2014-06-18 | 株式会社リコー | 投影画像領域検出装置 |
TWI497358B (zh) * | 2009-11-18 | 2015-08-21 | Qisda Corp | 物體偵測系統 |
US8941620B2 (en) * | 2010-01-06 | 2015-01-27 | Celluon, Inc. | System and method for a virtual multi-touch mouse and stylus apparatus |
EP2545494A1 (en) * | 2010-03-12 | 2013-01-16 | Shafa Wala | Position capture input apparatus, system, and method therefor |
US20110241988A1 (en) * | 2010-04-01 | 2011-10-06 | Smart Technologies Ulc | Interactive input system and information input method therefor |
JP2012108771A (ja) * | 2010-11-18 | 2012-06-07 | Panasonic Corp | 画面操作システム |
JP2014507726A (ja) * | 2011-02-08 | 2014-03-27 | ハワース, インコーポレイテッド | マルチモーダルタッチスクリーン対話装置、方法、及び、システム |
US9100587B2 (en) * | 2011-07-22 | 2015-08-04 | Naturalpoint, Inc. | Hosted camera remote control |
US8872800B2 (en) * | 2011-11-02 | 2014-10-28 | Microsoft Corporation | Optical tablet stylus and indoor navigation system |
US9354748B2 (en) * | 2012-02-13 | 2016-05-31 | Microsoft Technology Licensing, Llc | Optical stylus interaction |
US10488948B2 (en) * | 2012-03-14 | 2019-11-26 | Texas Instruments Incorporated | Enabling physical controls on an illuminated surface |
US9134814B2 (en) * | 2012-04-05 | 2015-09-15 | Seiko Epson Corporation | Input device, display system and input method |
JP2014021790A (ja) * | 2012-07-19 | 2014-02-03 | Sharp Corp | 座標入力装置、座標検出方法、及び座標入力システム |
CN203054757U (zh) * | 2012-12-26 | 2013-07-10 | 锐达互动科技股份有限公司 | 一种同时支持触摸和红外笔的影像多点互动装置 |
US20140267031A1 (en) * | 2013-03-12 | 2014-09-18 | Kenneth J. Huebner | Spatially aware pointer for mobile appliances |
US9011246B1 (en) * | 2013-11-18 | 2015-04-21 | Scott Kier | Systems and methods for immersive backgrounds |
JP6413236B2 (ja) * | 2013-12-20 | 2018-10-31 | セイコーエプソン株式会社 | プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法 |
TWI528226B (zh) * | 2014-01-15 | 2016-04-01 | 緯創資通股份有限公司 | 影像式觸控裝置及其控制方法 |
JP6349838B2 (ja) * | 2014-01-21 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
JP6326895B2 (ja) * | 2014-01-21 | 2018-05-23 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP6375660B2 (ja) * | 2014-01-21 | 2018-08-22 | セイコーエプソン株式会社 | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 |
JP6387644B2 (ja) * | 2014-01-21 | 2018-09-12 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出方法 |
JP6405836B2 (ja) * | 2014-09-26 | 2018-10-17 | セイコーエプソン株式会社 | 位置検出装置、プロジェクター、及び、位置検出方法 |
JP6350175B2 (ja) * | 2014-09-26 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、プロジェクター、及び、位置検出方法 |
-
2014
- 2014-03-25 JP JP2014062102A patent/JP6398248B2/ja active Active
-
2015
- 2015-01-16 US US14/598,795 patent/US9639165B2/en active Active
- 2015-01-20 CN CN201510028648.4A patent/CN104793811B/zh active Active
-
2017
- 2017-03-23 US US15/467,772 patent/US10114475B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015158887A5 (ja) | ||
JP2015158885A5 (ja) | ||
JP6398248B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
US9992466B2 (en) | Projector with calibration using a plurality of images | |
JP2015158890A5 (ja) | ||
JP2015158888A5 (ja) | ||
JP2015159524A5 (ja) | ||
JP6326895B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6387644B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出方法 | |
JP6349838B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6459194B2 (ja) | プロジェクター、及び投写画像制御方法 | |
JP6375660B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6562124B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
JP2017116689A (ja) | 画像投写システム、画像投写システムの制御方法、端末装置、及び、プログラム | |
JP6750269B2 (ja) | プロジェクターおよび制御方法 | |
JP6569259B2 (ja) | 位置検出装置、表示装置、位置検出方法、及び、表示方法 | |
JP2015158884A5 (ja) | ||
JP5740843B2 (ja) | 電子機器 | |
JP2015158886A5 (ja) | ||
JP2015166923A5 (ja) | ||
JP6291911B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6291912B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP2015166922A5 (ja) | ||
JP6340860B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP2020191045A (ja) | 指示体、表示システムおよび動作方法 |