JP2015158887A - 位置検出システム、及び、位置検出システムの制御方法 - Google Patents
位置検出システム、及び、位置検出システムの制御方法 Download PDFInfo
- Publication number
- JP2015158887A JP2015158887A JP2014062102A JP2014062102A JP2015158887A JP 2015158887 A JP2015158887 A JP 2015158887A JP 2014062102 A JP2014062102 A JP 2014062102A JP 2014062102 A JP2014062102 A JP 2014062102A JP 2015158887 A JP2015158887 A JP 2015158887A
- Authority
- JP
- Japan
- Prior art keywords
- indicator
- unit
- light
- calibration
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Projection Apparatus (AREA)
Abstract
Description
本発明は上記事情に鑑みてなされたものであり、種類の異なる指示体の指示位置を、簡易な構成であっても撮影画像データを用いて精度よく検出することができる位置検出システム、及び、位置検出システムの制御方法を提供することを目的とする。
本発明の構成によれば、撮影画像データから、指示体としての第1指示体が発する光の像と、指示体としての第2指示体で反射した検出光の像との少なくとも一方を検出する。また、第1指示体と光出射装置との発光タイミングに基づいて、第1指示体と第2指示体との指示位置を区別して検出する。このため、種類の異なる指示体の指示位置を、簡易な構成であっても撮影画像データを用いて精度よく検出することができる。
本発明の構成によれば、第1指示体と第2指示体との区別を容易につけることができ、種類の異なる指示体の指示位置を、精度よく検出することができる。
本発明の構成によれば、第1指示体が複数であっても、各第1指示体の指示位置を区別して検出することができる。
本構成によれば、位置検出装置は、第1指示体と光出射装置との点灯タイミングに同期して、検出領域を撮影部により撮影することができる。このため、1指示体と第2指示体との指示位置を検出することができる。
本発明の構成によれば、撮影画像データから、指示体としての第1指示体が発する光の像と、指示体としての第2指示体で反射した検出光の像との少なくとも一方を検出する。また、第1指示体と光出射装置との発光タイミングに基づいて、第1指示体と第2指示体との指示位置を区別して検出する。このため、種類の異なる指示体の指示位置を、簡易な構成であっても撮影画像データを用いて精度よく検出することができる。
図1は、本発明を適用した実施形態に係るプロジェクションシステム1の構成を示す図である。プロジェクションシステム1は、スクリーンSC(投射面)の上方に設置されたプロジェクター10(位置検出装置)と、スクリーンSCの上部に設置された光出射装置(光源部)60とを備える。
光出射装置60は、固体光源からなる光源部61(図2)を有し、光源部61が発する光(本実施形態では赤外光)をスクリーンSCに沿って拡散させて出射(照射)する。光出射装置60の出射範囲を図1に角度θで示す。光出射装置60はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を出射し、この光はスクリーンSCに沿う光の層を形成する。本実施形態では角度θはほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と光の層とは近接していることが好ましく、本実施形態では、スクリーンSCの表面と光の層との距離は概ね10mm〜1mmの範囲内である。
指示操作に利用される指示体は、ペン型の指示体70を用いることができる。指示体70の先端部71は、押圧された場合に動作する操作スイッチ75(図2)を内蔵しているので、先端部71を壁やスクリーンSCに押しつける操作がされると操作スイッチ75がオンになる。指示体70は、ユーザーが棒状の軸部72を手に持って、先端部71をスクリーンSCに接触させるように操作され、先端部71をスクリーンSCに押しつける操作も行われる。先端部71には、赤外光を発する送受信部74(図2)を備える。プロジェクター10は、指示体70が発する赤外光に基づき、先端部71の位置を、指示位置として検出する。
光出射装置60が出射する光の層はスクリーンSCに近接しているので、指示体80において光が反射する位置は、スクリーンSCに最も近い先端、或いは指示位置と見なすことができる。このため、指示体80の反射光に基づき指示位置を特定できる。
さらに、指示位置を検出することによりポインティングデバイスとして動作し、スクリーンSCにプロジェクター10が画像を投射する画像投射領域における指示位置の座標を出力してもよい。また、この座標を用いてGUI(Graphical User Interface)操作を行ってもよい。
プロジェクター10は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター10は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター10は、アナログ画像信号に基づき画像を投射する機能を備えてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を、リモコン受光部18によって受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチ及びインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
撮像部51は、指示体70、80の指示位置を検出するために、スクリーンSCとその周辺部(検出領域)を撮影範囲として撮影する。また、撮像部51は、撮像光学系、撮像素子、インターフェイス回路等を有し、投射光学系23の投射方向を撮影する。撮像部51の撮像光学系は、投射光学系23と略同じ方向を向いて配置され、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする画角を有する。また、撮像素子は、赤外領域及び可視光領域の光を受光するCCDやCMOSが挙げられる。撮像部51は、撮像素子に入射する光の一部を遮るフィルターを備えてもよく、例えば、赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。また、撮像部51のインターフェイス回路は、撮像素子の検出値を読み出して出力する。
指示体検出部54は、撮影制御部53が撮像部51によって赤外光の撮影を実行させた場合の撮影画像データから、指示体70が発した赤外光の像と、指示体80に反射した反射光の像との少なくとも一方を検出する。さらに、指示体検出部54は、検出した像を、指示体70が発した光の像であるか、指示体80の反射光の像であるか判別してもよい。
座標算出部55は、指示体検出部54が検出した像の位置に基づき、撮影画像データにおける指示体70、80の指示位置の座標を算出して、制御部30に出力する。座標算出部55は、また、投射部20が投射した投射画像における指示体70、80の指示位置の座標を算出して、制御部30に出力してもよい。さらに、座標算出部55は、画像処理部40がフレームメモリー44に描画した画像データにおける指示体70、80の指示位置の座標や、画像I/F部12の入力画像データにおける指示体70、80の指示位置の座標を、算出してもよい。
電源部76は、電源として乾電池又は二次電池を有し、制御部73、送受信部74及び操作スイッチ75の各部に電力を供給する。
指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
制御部30は、指示体70による位置指示操作を検出する場合に、指示体検出部54を制御して、送信部52から同期用の信号を送信させる。すなわち、指示体検出部54は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター10の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された点灯パターンで、送受信部74の光源を点灯(発光)させる。この点灯のパターンは、光源の点灯と消灯をデータのオンとオフに対応させて、指示体70に固有のデータを表す。制御部73は設定されたパターンの点灯時間及び消灯時間に従って光源を点灯及び消灯させる。制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。
つまり、位置検出部50は指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、位置検出部50が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
指示体70が点灯するパターンは、指示体70の個体毎に固有のパターン、又は複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、指示体検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
プロジェクター10は、図1に示したように壁面や天井面から吊り下げる吊り下げ設置の他に、スクリーンSCの下方から投射を行う設置状態、机の天面などの水平面をスクリーンSCとして使用する設置状態等で使用できる。プロジェクター10の設置状態によっては光出射装置60の使用に適さないことがある。例えば、下方からスクリーンSCに投射を行う場合、ユーザーの体が光出射装置60の出射光を遮ってしまうことがあり、不適である。姿勢センサー47は、プロジェクター10の設置状態として想定される複数の設置状態を識別できるように、プロジェクター10の本体に設けられる。姿勢センサー47は、例えば、2軸のジャイロセンサー、1軸のジャイロセンサー、加速度センサー等を用いて構成される。制御部30は、姿勢センサー47の出力値に基づきプロジェクター10の設置状態を自動的に判定できる。制御部30が、光出射装置60の使用に不適な設置状態と判定した場合には、例えば、出射装置駆動部48が電源電圧やパルス信号の出力を停止する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、ユーザーが行った操作の内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45及び光変調装置駆動部46を制御して、スクリーンSCに画像を投射させる。投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
図4は、指示体70、80の指示位置を検出する様子を示す説明図であり、(A)は指示体70の指示位置を検出する様子を示し、(B)は指示体80の指示位置を検出する様子を示す。
図4(A)には撮像部51がスクリーンSCを撮影する撮影方向を符号PAで示す。指示体70の位置検出を行う場合、送受信部74は、指示体70の先端の発光位置70aから赤外光を出射する。発光位置70aは、指示体70がスクリーンSCに接する接触点70bに非常に近い。このため、撮影方向PAから撮影した撮影画像データから指示体70が発する光の像を検出する場合、この像の位置を、接触点70bの位置とみなすことができる。
図4(B)に示すように、反射位置80cは、撮影方向PAに対して斜めの方向に離れている。このため、撮影画像データに写る反射光の像の位置は、撮影方向PAにおいて、より離れた位置を指示体70で指示した場合の像と同じ位置になる。つまり、指示体80が接触点80bでスクリーンSCに接触した場合の反射光と、指示体70が接触点70bでスクリーンSCに接触した場合の光とが、撮像部51の撮影画像データでは同じ位置に写る。このため、指示体80が指し示す接触点80bは、撮影方向PAにおいて撮像部51から離れた接触点70bとして検出され、距離G2のずれを生じる。
具体的には、キャリブレーション制御部39が、指示体70の指示位置の検出に関するキャリブレーションを行うことにより、キャリブレーションデータを生成する。このキャリブレーションデータを使用すれば、例えば図4(A)に示すように、発光位置70aがスクリーンSCとの接触点70bに近い場合に、高精度で指示位置を検出できる。
補正データは、図4(B)の距離G1を定めるデータとすることができる。この場合、撮影画像データ上の座標又は投射画像上の座標ごとに、距離G1の大きさを示すデータを対応付けるテーブル形式、或いはマップデータとすることができる。また、撮影画像データ上の座標又は投射画像上の座標において予め設定された代表点について、距離G1の大きさを示すデータを対応付けるテーブル形式とすることができる。代表点から外れた座標の距離G1の大きさを求める必要がある場合は、補正対象の座標に近い代表点の距離G1を適用する方法や、補間演算により代表点の距離G1から補正対象の座標の距離G1を求める方法を利用できる。
また、例えば、補正データは、撮影画像データ上で検出された座標、又はキャリブレーションデータに基づき得られた投射画像上の座標をシフトさせるデータであってもよい。具体的には、座標のシフト量を定めるデータであってもよいし、座標を補正する関数であってもよい。また、補正データを、撮影画像データ上の座標又は投射画像上の座標ごとに異なるシフト量を実現するデータとすることもできる。この場合、補正対象の座標に、座標のシフト量を対応付けたテーブルとしてもよい。このテーブルは、撮影画像データ上の座標又は投射画像上の座標から選択される代表点にシフト量を対応付けてもよい。代表点以外の座標を補正する場合には、補正対象の座標に近い代表点のシフト量を適用する方法や、補間演算により代表点のシフト量から補正対象の座標のシフト量を求める方法を利用できる。
オートキャリブレーションは、スクリーンSCに、オートキャリブレーション用の画像を投射して、撮像部51で撮影し、撮影画像データを用いてキャリブレーションデータを生成する処理である。オートキャリブレーションは、プロジェクター10が自動的に実行可能な処理であり、ユーザーによる指示体70、80の操作を必要としない。オートキャリブレーションは、ユーザーがリモコンまたは操作パネル19で実行を指示した場合に限らず、制御部30が制御するタイミングで実行することもできる。例えば、プロジェクター10の電源オン直後等の動作開始時に行ってもよいし、後述する通常動作中に行ってもよい。オートキャリブレーションで投射されるオートキャリブレーション画像121は、予め記憶部110に記憶されている。
図6は、スクリーンSCに投射されたオートキャリブレーション画像121を撮像部51により撮影した撮影画像データの一例を示す。撮像部51の撮影画像データは、プロジェクター10を図1に示すように吊り下げ設置した場合に、スクリーンSCの斜め上方から撮影されるので、歪んだ画像となる。図5には、等間隔でマークが並ぶ矩形のオートキャリブレーション画像121を例示したが、図6の撮影画像データでは歪んだ形状の画像が写っており、この画像の内部に並ぶマークの間隔は、マークの位置によって異なっている。
キャリブレーション制御部39は、撮影画像におけるマークの座標値と、投射画像におけるマークの座標値とを対応付けることにより、テーブル形式または関数形式のオートキャリブレーションデータ123を作成する。オートキャリブレーション画像121のマークの投射画像における座標値は、予めオートキャリブレーション画像121とともに、或いはオートキャリブレーション画像121に含まれて記憶部110に記憶されている。キャリブレーション制御部39は、既にオートキャリブレーションデータ123が記憶されている場合、このオートキャリブレーションデータ123を更新する。
図8は、マニュアルキャリブレーション画像122の一例を示す。マニュアルキャリブレーション画像122は、ユーザーに指示体70で指示をさせるため、指示位置を示すマークを含む。図8のマニュアルキャリブレーション画像122は複数の指示用のマーク(○)が配置され、ユーザーは、マークの位置を指示体70で指示する。
ユーザーはスクリーンSCにマークが表示される毎に、新たに表示されたマークを指示体70で指示する。キャリブレーション制御部39はユーザーが操作を行う毎に、指示位置を検出する。そして、キャリブレーション制御部39は、撮影画像で検出した指示位置と、フレームメモリー44に描画された投射画像、すなわちマニュアルキャリブレーション画像122のマークとを対応付ける。キャリブレーション制御部39は、撮影画像データで検出した指示位置の座標値と、投射画像上のマークの座標値とを対応付けることにより、マニュアルキャリブレーションデータ124を作成する。
マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123と同様のデータ形式とすることも可能であるが、オートキャリブレーションデータ123を補正する補正データとすることができる。オートキャリブレーションデータ123は、撮影画像上の座標を投射画像上の座標に変換するデータである。これに対し、マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123を用いて変換された後の座標を、さらに補正するデータである。
マニュアル補正データ126は、図4(B)を参照して説明したように、指示体70の指示位置として検出した座標を、指示体80の指示位置の座標に補正するデータである。指示体80の指示位置の検出に関し、マニュアルキャリブレーションを行わない場合には、キャリブレーション制御部39は初期補正データ125を選択する。初期補正データ125は、図4(B)の距離G1を初期値にした場合の補正データであり、予め記憶部110に記憶される。光出射装置60の設置時には、スクリーンSCと検出光Lとの距離G1が、例えば10mm〜1mmとなるように調整され、実際にはスクリーンSCの面内で変化する。初期補正データ125は、距離G1の初期値を、例えば5mmに仮定した場合の補正データであり、初期補正データ125を使用すればマニュアルキャリブレーションを行わなくても指示体80の指示位置を検出できる。マニュアルキャリブレーションで作成されるマニュアル補正データ126を用いれば、距離G1の面内における差を反写した補正を行うことで、より高精度で指示体80の指示位置を検出できる。
つまり、検出制御部32は、位置検出部50の位置検出において、指示体70の指示位置を検出する場合には、オートキャリブレーションデータ123又はマニュアルキャリブレーションデータ124を用いて指示位置の座標を求める。指示体80の指示位置を検出する場合、検出制御部32は、オートキャリブレーションデータ123又はマニュアルキャリブレーションデータ124を用いて座標を求める処理で、初期補正データ125又はマニュアル補正データ126で補正を行う。言い換えれば、初期補正データ125及びマニュアル補正データ126は、指示体70の指示位置から指示体80の指示位置を求める差分のデータである。
続いて、キャリブレーション制御部39は、選択したオートキャリブレーション画像121を投射部20によりスクリーンSCに投射する(ステップS3)。オートキャリブレーション画像121がスクリーンSCに投射された状態で、ユーザーは、リモコン又は操作パネル19の操作により、オートキャリブレーション画像121がスクリーンSCの表示エリアに納まるように表示サイズや表示位置を調整してもよい。
キャリブレーション制御部39は、位置検出部50を制御して、撮像部51により撮影を実行させ(ステップS4)、撮像部51の撮影画像データを取得して、取得した撮影画像データに基づきオートキャリブレーションデータ123を作成する(ステップS5)。
図9は、背景画像作成処理の詳細を示すフローチャートである。
キャリブレーション制御部39は、マスク画像を作成する(ステップS111)。マスク画像は、撮像部51が撮影した撮影画像データから、スクリーンSCの表示エリアに相当する部分の画像データを切り出すための画像である。図10に、マスク画像の一例を示す。
キャリブレーション制御部39は、スクリーンSCの投射画像を撮影した撮影画像データから、スクリーンSCが写っている範囲を決定する。
図11に示す例では、オートキャリブレーション画像121の左側で、最も外側に位置するマーク列は、マーク列Tである。キャリブレーション制御部39は、マーク列Tに含まれる各マークの中心座標を、図7に例示したキャリブレーションデータ管理テーブルから取得する。キャリブレーション制御部39は、取得した各マークの中心座標にマージンとなる所定値を加算して、スクリーンSCの左端を決定する。マーク列Tは、オートキャリブレーション画像121の左側で、最も外側に位置するマーク列であるため、各マークのY座標値から、所定値を減算してスクリーンSC左端の座標値とする。例えば、図11に示すマーク列TのマークT3(X3、Y3)の場合、Y座標値Y3から所定値αを減算した座標T3’(X3、Y3−α)が、T3におけるスクリーンSCの左端となる。キャリブレーション制御部39は、スクリーンSCの上下左右それぞれの方向で、端部の座標値を求める。なお、マークが存在しない領域については、補完処理によって端部の座標値を求めてもよい。キャリブレーション制御部39は、求めた上下左右それぞれの方向の座標値を記憶部110に保存する。次に、キャリブレーション制御部39は、求めたスクリーンSCの範囲のデータを使用して、マスク画像を作成する。キャリブレーション制御部39は、スクリーンSCの範囲外の領域で、画素値が0になるように設定したマスク画像を生成する。キャリブレーション制御部39は、生成したマスク画像を位置検出部50の撮影画像データ処理部56に送る。
キャリブレーション制御部39は、第1背景画像データと第2背景画像データとを撮影すると、第2背景画像データから第1背景画像データを減算して、差分画像データを生成する(ステップS114)。なお、以下では、この差分画像データを光源ノイズデータと呼ぶ。キャリブレーション制御部39は、生成した光源ノイズデータを記憶部110に保存する。なお、第1背景画像データ及び第2背景画像データの撮影は、後述する通常動作中に行ってもよい。
ステップS7では、上述したステップS6の背景画像作成処理を実行する。図9のステップS111ではスクリーンSCにオートキャリブレーション画像121を投射して、マスク画像を作成するが、ステップS7においても同様である。
なお、図2に示す例では、位置検出部50がフレームメモリー58を備えている場合を例に説明した。位置検出部50がフレームメモリー58を備えていない簡易な構成の場合には、撮影画像データ処理部56は、第1位置検出画像データのうち、スクリーンSC領域の第1位置検出画像データだけを指示体検出部54に出力することで、マスク処理を行ってもよい。具体的には、撮影画像データ処理部56は、キャリブレーション制御部39から取得したマスク画像から、撮影画像データ上において、スクリーンSCに相当する領域の座標値を算出する。そして、撮影画像データ処理部56は、撮影制御部53から第1位置検出画像データを取得すると、算出した座標値に基づいて、スクリーンSCに相当する領域の第1位置検出画像データだけを指示体検出部54に出力する。
キャリブレーション制御部39は、図3に戻り、撮影画像データ上での指示座標と、対応するマークのオートキャリブレーション画像121上の座標とを対応付けて記憶部110に記憶させる(ステップS12)。
キャリブレーション制御部39は、リモコン又は操作パネル19の操作を検出し、マニュアルキャリブレーションを実行するか否かを判定する(ステップS16)。
通常動作とは、画像I/F部12に入力される入力画像に基づき、スクリーンSCに画像を投射し、指示体70、80により指示された指示位置を特定して、指示内容に応じた処理を行う動作である。
続いて、キャリブレーション制御部39は、選択したマニュアルキャリブレーション画像122を投射部20によりスクリーンSCに投射する(ステップS20)。ここで、ユーザーにより、指示体80を用いた操作が行われ(ステップS21)、キャリブレーション制御部39は、指示体80の指示位置を検出する指示位置検出処理を実行する(ステップS22)。このステップS22の指示位置検出処理は、上述したステップS11の指示位置検出処理と同様の処理であり、図14のように実行される。
この構成では、キャリブレーション制御部39がオートキャリブレーションまたはマニュアルキャリブレーションのいずれかを実行すれば、指示体70の指示位置の座標を求めることが可能となる。従って、図3の動作において、オートキャリブレーションデータ123が記憶されていない状態で、ステップS1でマニュアルキャリブレーションを選択することが可能となる。
また、指示体70には、指示体70を識別するIDが設定されており、第3フェーズにおいて指示体70は、設定されたIDに従って点灯する。指示体70を複数使用する場合も、指示体70ごとにIDを設定し、各指示体70は、設定されたIDに従って点灯する。例えば、指示体70のIDとして「1000」が割り当てられており、「1」で指示体70を点灯させ、「0」で指示体70を消灯させる設定であるとする。この場合、指示体70は、最初の第3フェーズにおいて点灯し、その後の2回目〜4回目の第3フェーズにおいては消灯する。従って、複数の指示体70を使用して指示操作を行う場合であっても、プロジェクター10は、各指示体70の指示位置を検出することができる。
また、上記実施形態及び変形例では、光出射装置60はプロジェクター10の本体とは別体で構成され、ケーブル60aで接続される構成を例示したが、本発明はこれに限定されない。例えば、光出射装置60をプロジェクター10の本体に一体に取り付けることも、プロジェクター10の本体に内蔵する構成としてもよい。また、光出射装置60が外部から電源の供給を受け、出射装置駆動部48との間で無線通信回線により接続されてもよい。
また、上記実施形態では、プロジェクター10から指示体70に対し、送信部52が発する赤外線信号を用いて指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。この構成は、電波通信や超音波無線通信により信号を送信する送信部をプロジェクター10に設け、同様の受信部を指示体70に設けることで実現できる。
上記実施形態では、ユーザーが、フロントプロジェクション型のプロジェクター10が画像を投射(表示)するスクリーンSC(投射面、表示面)に対して、指示体70、80による指示操作を行う態様について説明したが、ユーザーが、プロジェクター10以外の表示装置(表示部)が画像を表示する表示画面(表示面)に対して指示操作を行う態様であってもよい。この場合にも、光出射装置60や撮像部51は、表示装置と一体的に構成されてもよいし、表示装置とは別体で構成されてもよい。プロジェクター10以外の表示装置としては、リアプロジェクション(背面投射)型のプロジェクター、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を用いることができる。
また、図2に示したプロジェクションシステム1の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクションシステム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
Claims (5)
- 指示体の指示位置を検出する検出領域に検出光を出射する光出射装置と、前記検出領域での前記指示体の指示位置を検出する位置検出装置とを備える位置検出システムであって、
前記位置検出装置は、前記検出領域を撮影する撮影部と、前記撮影部の撮影画像データから、前記指示体としての第1指示体が発する光の像と、前記指示体としての第2指示体で反射した前記検出光の像との少なくとも一方を検出し、前記第1指示体と前記光出射装置との発光タイミングに基づいて、前記第1指示体と前記第2指示体との指示位置を区別して検出する位置検出部と、
を備えることを特徴とする位置検出システム。 - 前記位置検出部は、前記光出射装置の消灯後の撮影画像データに写った輝点の位置を前記第1指示体の指示位置として検出することを特徴とする請求項1記載の位置検出システム。
- 前記位置検出部は、複数の第1指示体が、各第1指示体に割り当てられた識別情報に応じて点滅する光を、前記撮影画像データに基づいて判定して、前記複数の第1指示体の指示位置を区別して検出することを特徴する請求項1又は2に記載の位置検出システム。
- 前記位置検出装置は、前記第1指示体の点灯タイミングを通知する同期用の信号を送信する第1送信部と、前記光出射装置に、前記検出光を出射させるタイミングを通知する信号を前記光出射装置に送信する第2送信部とを備えることを特徴とする請求項1から3のいずれか一項に記載の位置検出システム。
- 指示体の指示位置を検出する検出領域に検出光を出射する光出射装置と、前記検出領域での前記指示体の指示位置を検出する位置検出装置とを備える位置検出システムの制御方法であって、
前記検出領域を撮影部により撮影するステップと、
前記撮影部の撮影画像データから、前記指示体としての第1指示体が発する光の像と、前記指示体としての第2指示体で反射した前記検出光の像との少なくとも一方を検出し、前記第1指示体と前記光出射装置との発光タイミングに基づいて、前記第1指示体と前記第2指示体との指示位置を区別して検出するステップと、
を有することを特徴とする位置検出システムの制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014062102A JP6398248B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出システム、及び、位置検出システムの制御方法 |
US14/598,795 US9639165B2 (en) | 2014-01-21 | 2015-01-16 | Position detection system and control method of position detection system |
CN201510028648.4A CN104793811B (zh) | 2014-01-21 | 2015-01-20 | 位置检测系统以及位置检测系统的控制方法 |
US15/467,772 US10114475B2 (en) | 2014-01-21 | 2017-03-23 | Position detection system and control method of position detection system |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014008627 | 2014-01-21 | ||
JP2014008627 | 2014-01-21 | ||
JP2014062102A JP6398248B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出システム、及び、位置検出システムの制御方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112440A Division JP6562124B2 (ja) | 2014-01-21 | 2018-06-13 | 位置検出システム、及び、位置検出システムの制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015158887A true JP2015158887A (ja) | 2015-09-03 |
JP2015158887A5 JP2015158887A5 (ja) | 2017-04-27 |
JP6398248B2 JP6398248B2 (ja) | 2018-10-03 |
Family
ID=53544737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014062102A Active JP6398248B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出システム、及び、位置検出システムの制御方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US9639165B2 (ja) |
JP (1) | JP6398248B2 (ja) |
CN (1) | CN104793811B (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017138775A (ja) * | 2016-02-03 | 2017-08-10 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出方法 |
US10511819B2 (en) | 2018-03-13 | 2019-12-17 | Seiko Epson Corporation | Image projection system, projector, and method for controlling image projection system |
US10649547B2 (en) | 2018-03-13 | 2020-05-12 | Seiko Epson Corporation | Image projection system, pointing element, and method for controlling image projection system |
US10712874B2 (en) | 2017-09-27 | 2020-07-14 | Seiko Epson Corporation | Position detection device, position detection system, and method for controlling position detection device |
US11249594B2 (en) | 2019-09-30 | 2022-02-15 | Seiko Epson Corporation | Projector including a light detector and a controller and method for controlling the projector |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015052765A1 (ja) * | 2013-10-08 | 2015-04-16 | 日立マクセル株式会社 | 投射型映像表示装置、操作検出装置及び投射型映像表示方法 |
JP6413236B2 (ja) * | 2013-12-20 | 2018-10-31 | セイコーエプソン株式会社 | プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法 |
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP6349838B2 (ja) * | 2014-01-21 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
JP2015158644A (ja) * | 2014-02-25 | 2015-09-03 | カシオ計算機株式会社 | 投影装置、投影方法及びプログラム |
CN106233200B (zh) * | 2014-05-09 | 2018-07-17 | 麦克赛尔株式会社 | 投影型影像显示装置 |
CN108475103A (zh) | 2015-09-30 | 2018-08-31 | 惠普发展公司,有限责任合伙企业 | 交互式显示器 |
JP6623812B2 (ja) * | 2016-02-17 | 2019-12-25 | セイコーエプソン株式会社 | 位置検出装置、及び、そのコントラスト調整方法 |
CN107239248B (zh) * | 2017-06-05 | 2020-06-19 | 京东方科技集团股份有限公司 | 显示装置和方法 |
JP7376475B2 (ja) * | 2017-07-06 | 2023-11-08 | アール. セレバン、ジェームズ | 移動する歩行者または車両の位置の同期信号のためのデバイスおよび方法 |
DE112019000857T5 (de) * | 2018-02-19 | 2020-11-26 | Murakami Corporation | Referenzpositionseinstellverfahren und Vorrichtung zur Anzeige eines virtuellen Bilds |
JP6835020B2 (ja) * | 2018-03-15 | 2021-02-24 | オムロン株式会社 | 画像処理システム、画像処理装置、画像処理プログラム |
DE102018108042B4 (de) * | 2018-04-05 | 2024-06-27 | Carl Zeiss Industrielle Messtechnik Gmbh | Optisches Messsystem |
JP6787363B2 (ja) * | 2018-05-10 | 2020-11-18 | セイコーエプソン株式会社 | 操作デバイス、位置検出システム及び操作デバイスの制御方法 |
JP7251094B2 (ja) * | 2018-10-22 | 2023-04-04 | セイコーエプソン株式会社 | 位置検出装置、表示システム、及び、位置検出方法 |
JP7251095B2 (ja) * | 2018-10-22 | 2023-04-04 | セイコーエプソン株式会社 | 位置検出装置、表示装置、表示システム、及び、位置検出方法 |
JP7188176B2 (ja) * | 2019-02-25 | 2022-12-13 | セイコーエプソン株式会社 | プロジェクター、画像表示システム及び画像表示システムの制御方法 |
JP2021128657A (ja) * | 2020-02-17 | 2021-09-02 | セイコーエプソン株式会社 | 位置検出方法、位置検出装置及び位置検出システム |
JP2022138883A (ja) * | 2021-03-11 | 2022-09-26 | セイコーエプソン株式会社 | 画像生成方法、制御方法、および情報処理装置 |
JP2023017206A (ja) | 2021-07-26 | 2023-02-07 | セイコーエプソン株式会社 | プロジェクターの制御方法、及びプロジェクター |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010119064A (ja) * | 2008-11-14 | 2010-05-27 | Sharp Corp | 色検出装置、色検出プログラム及びコンピュータ読み取り可能な記録媒体、並びに色検出方法 |
JP2014021790A (ja) * | 2012-07-19 | 2014-02-03 | Sharp Corp | 座標入力装置、座標検出方法、及び座標入力システム |
Family Cites Families (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7098891B1 (en) * | 1992-09-18 | 2006-08-29 | Pryor Timothy R | Method for providing human input to a computer |
US5694142A (en) * | 1993-06-21 | 1997-12-02 | General Electric Company | Interactive digital arrow (d'arrow) three-dimensional (3D) pointing |
US5528263A (en) * | 1994-06-15 | 1996-06-18 | Daniel M. Platzker | Interactive projected video image display system |
US5914709A (en) * | 1997-03-14 | 1999-06-22 | Poa Sana, Llc | User input device for a computer system |
JP3640156B2 (ja) * | 2000-02-22 | 2005-04-20 | セイコーエプソン株式会社 | 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体 |
US6803906B1 (en) * | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
JP2002163070A (ja) * | 2000-11-27 | 2002-06-07 | Matsushita Electric Ind Co Ltd | 電子黒板 |
US6731330B2 (en) * | 2001-01-30 | 2004-05-04 | Hewlett-Packard Development Company, L.P. | Method for robust determination of visible points of a controllable display within a camera view |
JP4037128B2 (ja) * | 2001-03-02 | 2008-01-23 | 株式会社リコー | 投影型表示装置、及びプログラム |
JP4250884B2 (ja) * | 2001-09-05 | 2009-04-08 | パナソニック株式会社 | 電子黒板システム |
JP2003108305A (ja) * | 2001-09-28 | 2003-04-11 | Fuji Photo Optical Co Ltd | プレゼンテーションシステム |
US6954197B2 (en) * | 2002-11-15 | 2005-10-11 | Smart Technologies Inc. | Size/scale and orientation determination of a pointer in a camera-based touch system |
DE10260305A1 (de) * | 2002-12-20 | 2004-07-15 | Siemens Ag | HMI Einrichtung mit einem optischem Touch Screen |
US7629967B2 (en) * | 2003-02-14 | 2009-12-08 | Next Holdings Limited | Touch screen signal processing |
JP2006523869A (ja) * | 2003-03-12 | 2006-10-19 | オー−プン・アンパルトセルスカブ | 放射線を放射する要素の位置を測定するシステム及び方法 |
US7411575B2 (en) * | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
US7274356B2 (en) * | 2003-10-09 | 2007-09-25 | Smart Technologies Inc. | Apparatus for determining the location of a pointer within a region of interest |
US7355593B2 (en) * | 2004-01-02 | 2008-04-08 | Smart Technologies, Inc. | Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region |
JP2005236421A (ja) * | 2004-02-17 | 2005-09-02 | Aruze Corp | 画像表示システム |
US7593593B2 (en) * | 2004-06-16 | 2009-09-22 | Microsoft Corporation | Method and system for reducing effects of undesired signals in an infrared imaging system |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
US7719523B2 (en) * | 2004-08-06 | 2010-05-18 | Touchtable, Inc. | Bounding box gesture recognition on a touch detecting interactive display |
US9268411B2 (en) * | 2004-08-12 | 2016-02-23 | Koninklijke Philips N.V | Method and system for controlling a display |
US8508710B2 (en) * | 2004-12-02 | 2013-08-13 | Hewlett-Packard Development Company, L.P. | Display panel |
EP3693889A3 (en) * | 2005-01-07 | 2020-10-28 | QUALCOMM Incorporated | Detecting and tracking objects in images |
US7525538B2 (en) * | 2005-06-28 | 2009-04-28 | Microsoft Corporation | Using same optics to image, illuminate, and project |
EP1897010A1 (en) * | 2005-06-30 | 2008-03-12 | Nokia Corporation | Camera control means to allow operating of a destined location of the information surface of a presentation and information system |
US7911444B2 (en) * | 2005-08-31 | 2011-03-22 | Microsoft Corporation | Input method for surface of interactive display |
US7843449B2 (en) * | 2006-09-20 | 2010-11-30 | Apple Inc. | Three-dimensional display system |
US8001613B2 (en) * | 2006-06-23 | 2011-08-16 | Microsoft Corporation | Security using physical objects |
JP4757144B2 (ja) | 2006-08-22 | 2011-08-24 | キヤノン株式会社 | 座標入力装置及びその制御方法、プログラム |
JP4650381B2 (ja) * | 2006-09-08 | 2011-03-16 | 日本ビクター株式会社 | 電子機器 |
US8212857B2 (en) * | 2007-01-26 | 2012-07-03 | Microsoft Corporation | Alternating light sources to reduce specular reflection |
US8159682B2 (en) * | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
US20090219253A1 (en) * | 2008-02-29 | 2009-09-03 | Microsoft Corporation | Interactive Surface Computer with Switchable Diffuser |
US8339378B2 (en) * | 2008-11-05 | 2012-12-25 | Smart Technologies Ulc | Interactive input system with multi-angle reflector |
GB2466497B (en) * | 2008-12-24 | 2011-09-14 | Light Blue Optics Ltd | Touch sensitive holographic displays |
US20100201812A1 (en) * | 2009-02-11 | 2010-08-12 | Smart Technologies Ulc | Active display feedback in interactive input systems |
CN101833400B (zh) * | 2009-03-10 | 2012-06-13 | 广达电脑股份有限公司 | 光学式传感屏幕及面板传感方法 |
CN101582001A (zh) * | 2009-07-07 | 2009-11-18 | 松翰科技股份有限公司 | 触控屏幕、触控模块及控制方法 |
US8692768B2 (en) * | 2009-07-10 | 2014-04-08 | Smart Technologies Ulc | Interactive input system |
JP5521855B2 (ja) * | 2009-09-10 | 2014-06-18 | 株式会社リコー | 投影画像領域検出装置 |
TWI497358B (zh) * | 2009-11-18 | 2015-08-21 | Qisda Corp | 物體偵測系統 |
WO2011085023A2 (en) * | 2010-01-06 | 2011-07-14 | Celluon, Inc. | System and method for a virtual multi-touch mouse and stylus apparatus |
US9250746B2 (en) * | 2010-03-12 | 2016-02-02 | Shafa Wala | Position capture input apparatus, system, and method therefor |
US20110241988A1 (en) * | 2010-04-01 | 2011-10-06 | Smart Technologies Ulc | Interactive input system and information input method therefor |
JP2012108771A (ja) * | 2010-11-18 | 2012-06-07 | Panasonic Corp | 画面操作システム |
JP2014507726A (ja) * | 2011-02-08 | 2014-03-27 | ハワース, インコーポレイテッド | マルチモーダルタッチスクリーン対話装置、方法、及び、システム |
US9100587B2 (en) * | 2011-07-22 | 2015-08-04 | Naturalpoint, Inc. | Hosted camera remote control |
US8872800B2 (en) * | 2011-11-02 | 2014-10-28 | Microsoft Corporation | Optical tablet stylus and indoor navigation system |
US9354748B2 (en) * | 2012-02-13 | 2016-05-31 | Microsoft Technology Licensing, Llc | Optical stylus interaction |
US10488948B2 (en) * | 2012-03-14 | 2019-11-26 | Texas Instruments Incorporated | Enabling physical controls on an illuminated surface |
US9134814B2 (en) * | 2012-04-05 | 2015-09-15 | Seiko Epson Corporation | Input device, display system and input method |
CN203054757U (zh) * | 2012-12-26 | 2013-07-10 | 锐达互动科技股份有限公司 | 一种同时支持触摸和红外笔的影像多点互动装置 |
US20140267031A1 (en) * | 2013-03-12 | 2014-09-18 | Kenneth J. Huebner | Spatially aware pointer for mobile appliances |
US9011246B1 (en) * | 2013-11-18 | 2015-04-21 | Scott Kier | Systems and methods for immersive backgrounds |
JP6413236B2 (ja) * | 2013-12-20 | 2018-10-31 | セイコーエプソン株式会社 | プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法 |
TWI528226B (zh) * | 2014-01-15 | 2016-04-01 | 緯創資通股份有限公司 | 影像式觸控裝置及其控制方法 |
JP6387644B2 (ja) * | 2014-01-21 | 2018-09-12 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出方法 |
JP6349838B2 (ja) * | 2014-01-21 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
JP6375660B2 (ja) * | 2014-01-21 | 2018-08-22 | セイコーエプソン株式会社 | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 |
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP6326895B2 (ja) * | 2014-01-21 | 2018-05-23 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
JP6350175B2 (ja) * | 2014-09-26 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、プロジェクター、及び、位置検出方法 |
JP6405836B2 (ja) * | 2014-09-26 | 2018-10-17 | セイコーエプソン株式会社 | 位置検出装置、プロジェクター、及び、位置検出方法 |
-
2014
- 2014-03-25 JP JP2014062102A patent/JP6398248B2/ja active Active
-
2015
- 2015-01-16 US US14/598,795 patent/US9639165B2/en active Active
- 2015-01-20 CN CN201510028648.4A patent/CN104793811B/zh active Active
-
2017
- 2017-03-23 US US15/467,772 patent/US10114475B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010119064A (ja) * | 2008-11-14 | 2010-05-27 | Sharp Corp | 色検出装置、色検出プログラム及びコンピュータ読み取り可能な記録媒体、並びに色検出方法 |
JP2014021790A (ja) * | 2012-07-19 | 2014-02-03 | Sharp Corp | 座標入力装置、座標検出方法、及び座標入力システム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017138775A (ja) * | 2016-02-03 | 2017-08-10 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出方法 |
US10712874B2 (en) | 2017-09-27 | 2020-07-14 | Seiko Epson Corporation | Position detection device, position detection system, and method for controlling position detection device |
US10511819B2 (en) | 2018-03-13 | 2019-12-17 | Seiko Epson Corporation | Image projection system, projector, and method for controlling image projection system |
US10649547B2 (en) | 2018-03-13 | 2020-05-12 | Seiko Epson Corporation | Image projection system, pointing element, and method for controlling image projection system |
US11249594B2 (en) | 2019-09-30 | 2022-02-15 | Seiko Epson Corporation | Projector including a light detector and a controller and method for controlling the projector |
Also Published As
Publication number | Publication date |
---|---|
US20170192528A1 (en) | 2017-07-06 |
JP6398248B2 (ja) | 2018-10-03 |
US10114475B2 (en) | 2018-10-30 |
US20150205345A1 (en) | 2015-07-23 |
CN104793811A (zh) | 2015-07-22 |
CN104793811B (zh) | 2019-03-19 |
US9639165B2 (en) | 2017-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6398248B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
JP6326895B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6417690B2 (ja) | プロジェクター、表示装置、及び、プロジェクターの制御方法 | |
JP6349838B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6375660B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6413236B2 (ja) | プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法 | |
JP6387644B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出方法 | |
JP6562124B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
JP2015166893A (ja) | 位置検出装置、及び、位置検出装置の制御方法 | |
CN104898894B (zh) | 位置检测装置以及位置检测方法 | |
JP6569259B2 (ja) | 位置検出装置、表示装置、位置検出方法、及び、表示方法 | |
JP6340860B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6287432B2 (ja) | 操作デバイス、位置検出システム、及び、操作デバイスの制御方法 | |
JP6291912B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6291911B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6337558B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
US11778152B2 (en) | Method of controlling projector and projector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180613 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180807 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6398248 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |