JP6326895B2 - 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 - Google Patents
位置検出装置、位置検出システム、及び、位置検出装置の制御方法 Download PDFInfo
- Publication number
- JP6326895B2 JP6326895B2 JP2014062263A JP2014062263A JP6326895B2 JP 6326895 B2 JP6326895 B2 JP 6326895B2 JP 2014062263 A JP2014062263 A JP 2014062263A JP 2014062263 A JP2014062263 A JP 2014062263A JP 6326895 B2 JP6326895 B2 JP 6326895B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- light
- calibration
- unit
- indicator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、上述した事情に鑑みてなされたものであり、操作位置を検出する方式が異なるデバイスを組み合わせて、操作位置を検出する場合に、適切にキャリブレーションを行えるようにすることを目的とする。
本発明によれば、検出光以外の光を用いて指示位置を検出する第2の検出動作に関するキャリブレーションを行う際に、検出光がキャリブレーションに影響を与えない。このため、異なる複数の方式により指示位置を検出可能な構成において、適切にキャリブレーションを実行できる。
本発明によれば、キャリブレーションの実行中に検出光の出射を制限することで、キャリブレーション中に指示位置を検出する場合に検出光の影響を防止できる。このため、キャリブレーションにおいて、より正確に、かつ効率よく指示位置を検出できる。
本発明によれば、発光しない第1の指示体の指示位置と発光機能を有する第2の指示体の指示位置との両方を、光により検出できる。従って、検出方式が異なる複数の指示体を組み合わせて使用し、キャリブレーションを適切に実行できる。
本発明によれば、第1の指示体で反射した反射光と第2の指示体が発する光とを、検出部が区別することが可能になる。このため、検出方式が異なる複数の指示体を区別して、同時に使用し、指示位置を検出できる。
本発明によれば、可視領域外の光を利用して、複数の指示体による操作の指示位置を検出できる。
本発明によれば、操作面に画像を投射し、この操作面に対する操作の指示位置を検出できる。また、可視領域外の光を利用することにより、投射画像の視認性に影響を与えることなく、指示位置を検出できる。
本発明によれば、操作面に投射されたキャリブレーション用の画像を撮影することにより、可視領域外の光を利用せずに、キャリブレーションを実行できる。この場合、検出光がキャリブレーションに影響を与えないため、検出光の出射を制限せず、制御を簡易化できる。
本発明によれば、指示位置の検出方式が異なる複数の指示体を組み合わせて使用可能な位置検出装置の構成を簡略化できるので、低コスト化や耐久性の向上を図ることができる。
本発明によれば、検出光以外の光を用いて指示位置を検出する第2の検出動作に関するキャリブレーションを行う際に、検出光がキャリブレーションに影響を与えない。このため、異なる複数の方式により指示位置を検出可能な構成において、適切にキャリブレーションを実行できる。
本発明によれば、検出光以外の光を用いて指示位置を検出する第2の検出動作に関するキャリブレーションを行う際に、検出光がキャリブレーションに影響を与えない。このため、異なる複数の方式により指示位置を検出可能な構成において、適切にキャリブレーションを実行できる。
図1は、本発明を適用した実施形態に係るプロジェクションシステム1の構成を示す図である。プロジェクションシステム1は、スクリーンSC(投射面、操作面)の上方に設置されたプロジェクター10と、スクリーンSCの上部に設置された光出射装置60(光出射部)とを備える。
光出射装置60は、固体光源からなる光源部61(図2)を有し、光源部61が発する光をスクリーンSCに沿って拡散させて出射(照射)する。光出射装置60の出射範囲を図1に角度θで示す。光出射装置60はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を出射し、この光はスクリーンSCに沿う光の層を形成する。本実施形態では角度θはほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と光の層とは近接していることが好ましく、本実施形態では、スクリーンSCの表面と光の層との距離は概ね10mm〜1mmの範囲内である。
光出射装置60が出射する光は可視領域外の光であり、本実施形態では赤外光とする。
指示操作に利用される指示体は、ペン型の指示体70を用いることができる。指示体70の先端部71は、押圧された場合に動作する操作スイッチ75(図2)を内蔵しているので、先端部71を壁やスクリーンSCに押しつける操作がされると操作スイッチ75がオンになる。指示体70は、ユーザーが棒状の軸部72を手に持って、先端部71をスクリーンSCに接触させるように操作され、先端部71をスクリーンSCに押しつける操作も行われる。先端部71には、光を発する送受信部74(図2)を備える。プロジェクター10は、指示体70が発する光に基づき、先端部71の位置を、指示位置として検出する。指示体70が発する光は可視領域外の光であり、本実施形態では赤外光とする。
すなわち、指示体80の先端(例えば、指先)がスクリーンSCに接触するときに、光出射装置60が形成する光の層を遮る。このとき、光出射装置60が出射した光が指示体80に当たって反射し、反射光の一部は指示体80からプロジェクター10に向かって進む。プロジェクター10は、スクリーンSC側からの光、すなわち下方からの光を後述する位置検出部50により検出する機能を有するので、指示体80の反射光を検出できる。プロジェクター10は、指示体80で反射した反射光を検出することにより、指示体80によるスクリーンSCへの指示操作を検出する。また、プロジェクター10は指示体80により指示された指示位置を検出する。
光出射装置60が出射する光の層はスクリーンSCに近接しているので、指示体80において光が反射する位置は、スクリーンSCに最も近い先端、或いは指示位置と見なすことができる。このため、指示体80の反射光に基づき指示位置を特定できる。
具体的には、プロジェクションシステム1は、指示位置に図形を描画したり文字や記号を配置したりする処理、指示位置の軌跡に沿って図形を描画する処理、描画した図形や配置した文字または記号を消去する処理等を行う。また、スクリーンSCに描画された図形、配置された文字または記号を画像データとして保存することもでき、外部の装置に出力することもできる。
さらに、指示位置を検出することによりポインティングデバイスとして動作し、スクリーンSCにプロジェクター10が画像を投射する画像投射領域における指示位置の座標を出力してもよい。また、この座標を用いてGUI(Graphical User Interface)操作を行ってもよい。
プロジェクター10は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター10は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター10は、アナログ画像信号に基づき画像を投射する機能を備えてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F部12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチおよびインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
撮像部51は、撮像光学系、撮像素子、インターフェイス回路等を有し、投射光学系23の投射方向を撮影する。撮像部51の撮像光学系は、投射光学系23と略同じ方向を向いて配置され、投射光学系23がスクリーンSC上に画像を投射する範囲をカバーする画角を有する。また、撮像素子は、赤外領域及び可視光領域の光を受光するCCDやCMOSが挙げられる。撮像部51は、撮像素子に入射する光の一部を遮るフィルターを備えてもよく、例えば、赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。また、撮像部51のインターフェイス回路は、撮像素子の検出値を読み出して出力する。
座標算出部55は、指示体検出部54が検出した像の位置に基づき、撮影画像データにおける指示体70、80の指示位置の座標を算出して、制御部30に出力する。座標算出部55は、また、投射部20が投射した投射画像における指示体70、80の指示位置の座標を算出して、制御部30に出力してもよい。さらに、座標算出部55は、画像処理部40がフレームメモリー44に描画した画像データにおける指示体70、80の指示位置の座標や、画像I/F部12の入力画像データにおける指示体70、80の指示位置の座標を、算出してもよい。
電源部76は、電源として乾電池または二次電池を有し、制御部73、送受信部74、及び操作スイッチ75の各部に電力を供給する。
指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
制御部30は、指示体70による位置指示操作を検出する場合に、指示体検出部54を制御して、送信部52から同期用の信号を送信させる。すなわち、指示体検出部54は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター10の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された点灯パターンで、送受信部74の光源を点灯(発光)させる。この点灯のパターンは、光源の点灯と消灯をデータのオンとオフに対応させて、指示体70に固有のデータを表す。制御部73は設定されたパターンの点灯時間及び消灯時間に従って光源を点灯及び消灯させる。制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。
つまり、位置検出部50は指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、位置検出部50が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
指示体70が点灯するパターンは、指示体70の個体毎に固有のパターン、または、複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、指示体検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
プロジェクター10は、図1に示したように壁面や天井面から吊り下げる吊り下げ設置の他に、スクリーンSCの下方から投射を行う設置状態、机の天面などの水平面をスクリーンSCとして使用する設置状態等で使用できる。プロジェクター10の設置状態によっては光出射装置60の使用に適さないことがある。例えば、下方からスクリーンSCに投射を行う場合、ユーザーの体が光出射装置60の出射光を遮ってしまうことがあり、不適である。姿勢センサー47は、プロジェクター10の設置状態として想定される複数の設置状態を識別できるように、プロジェクター10の本体に設けられる。姿勢センサー47は、例えば、2軸のジャイロセンサー、1軸のジャイロセンサー、加速度センサー等を用いて構成される。制御部30は、姿勢センサー47の出力値に基づきプロジェクター10の設置状態を自動的に判定できる。制御部30が、光出射装置60の使用に不適な設置状態と判定した場合には、例えば、出射装置駆動部48が電源電圧やパルス信号の出力を停止する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、ユーザーが行った操作の内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45、及び光変調装置駆動部46を制御して、スクリーンSCに画像を投射させる。投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
図3に示すフローチャート及び各図を参照しながら、制御部30の処理手順、特にキャリブレーション制御部39の処理手順を説明する。
図4は、指示体70、80の指示位置を検出する様子を示す説明図であり、(A)は指示体70の指示位置を検出する様子を示し、(B)は指示体80の指示位置を検出する様子を示す。
図4(A)には撮像部51がスクリーンSCを撮影する撮影方向を符号PAで示す。指示体70の位置検出を行う場合、送受信部74は、指示体70の先端の発光位置70aから赤外光を出射する。発光位置70aは、指示体70がスクリーンSCに接する接触点70bに非常に近い。このため、撮影方向PAから撮影した撮影画像データから指示体70が発する光の像を検出する場合、この像の位置を、接触点70bの位置とみなすことができる。
図4(B)に示すように、反射位置80aは、撮影方向PAに対して斜めの方向に離れている。このため、撮影画像データに写る反射光の像の位置は、撮影方向PAにおいて、より離れた位置を指示体70で指示した場合の像と同じ位置になる。つまり、指示体80が接触点80bでスクリーンSCに接触した場合の反射光と、指示体70が接触点70bでスクリーンSCに接触した場合の光とが、撮像部51の撮影画像データでは同じ位置に写る。このため、指示体80が指し示す接触点80bは、撮影方向PAにおいて撮像部51から離れた接触点70bとして検出され、距離G2のずれを生じる。
具体的には、キャリブレーション制御部39が、指示体70の指示位置の検出に関するキャリブレーションを行って、キャリブレーションデータを生成する。このキャリブレーションデータを使用すれば、例えば図4(A)に示すように、発光位置70aがスクリーンSCとの接触点70bに近い場合に、高精度で指示位置を検出できる。
補正データは、図4(B)の距離G1を定めるデータとすることができる。この場合、撮影画像データ上の座標または投射画像上の座標ごとに、距離G1の大きさを示すデータを対応付けるテーブル形式、或いはマップデータとすることができる。また、撮影画像データ上の座標または投射画像上の座標において予め設定された代表点について、距離G1の大きさを示すデータを対応付けるテーブル形式とすることができる。代表点から外れた座標の距離G1の大きさを求める必要がある場合は、補正対象の座標に近い代表点の距離G1を適用する方法や、補間演算により代表点の距離G1から補正対象の座標の距離G1を求める方法を利用できる。
また、例えば、補正データは、撮影画像データ上で検出された座標、または、キャリブレーションデータに基づき得られた投射画像座標をシフトさせるデータであってもよい。具体的には、座標のシフト量を定めるデータであってもよいし、座標を補正する関数であってもよい。また、補正データを、撮影画像データ上の座標または投射画像上の座標ごとに異なるシフト量を実現するデータとすることもできる。この場合、補正対象の座標に、座標のシフト量を対応付けたテーブルとしてもよい。このテーブルは、撮影画像データ上の座標または投射画像上の座標から選択される代表点にシフト量を対応付けてもよい。代表点以外の座標を補正する場合には、補正対象の座標に近い代表点のシフト量を適用する方法や、補間演算により代表点のシフト量から補正対象の座標のシフト量を求める方法を利用できる。
オートキャリブレーションは、スクリーンSCに、オートキャリブレーション用の画像を投射して、撮像部51で撮影し、撮影画像データを用いてキャリブレーションデータを生成する処理である。オートキャリブレーションは、プロジェクター10が自動的に実行可能な処理であり、ユーザーによる指示体70、80の操作を必要としない。オートキャリブレーションは、ユーザーがリモコンまたは操作パネル19で実行を指示した場合に限らず、制御部30が制御するタイミングで実行することもできる。例えば、プロジェクター10の電源オン直後等の動作開始時に行ってもよいし、後述する通常動作中に行ってもよい。オートキャリブレーションで投射されるオートキャリブレーション画像121は、予め記憶部110に記憶されている。
図6は、スクリーンSCに投射されたオートキャリブレーション画像121を撮影した撮影画像データの一例を示す。撮像部51の撮影画像データは、プロジェクター10を図1に示すように吊り下げ設置した場合に、スクリーンSCの斜め上方から撮影されるので、歪んだ画像となる。図5には、等間隔でマークが並ぶ矩形のオートキャリブレーション画像121を例示したが、図6の撮影画像データでは歪んだ形状の画像が写っており、この画像の内部に並ぶマークの間隔は、マークの位置によって違いを生じている。
図7は、マニュアルキャリブレーション画像122の一例を示す。マニュアルキャリブレーション画像122は、ユーザーに指示体70で指示をさせるため、指示位置を示すマークを含む。図7のマニュアルキャリブレーション画像122は複数の指示用のマーク(○印)が配置され、ユーザーは、マークの位置を指示体70で指示する。
ユーザーはスクリーンSCにマークが表示される毎に、新たに表示されたマークを指示体70で指示する。キャリブレーション制御部39はユーザーが操作を行う毎に、指示位置を検出する。そして、キャリブレーション制御部39は、撮影画像で検出した指示位置と、フレームメモリー44に描画された投射画像、すなわちマニュアルキャリブレーション画像122のマークとを対応付ける。キャリブレーション制御部39は、撮影画像データで検出した指示位置の座標値と、投写画像上のマークの座標値とを対応付けることにより、マニュアルキャリブレーションデータ124を作成する。
マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123と同様のデータ形式とすることも可能であるが、オートキャリブレーションデータ123を補正する補正データとすることができる。オートキャリブレーションデータ123は、撮影画像上の座標を投射画像上の座標に変換するデータである。これに対し、マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123を用いて変換された後の座標を、さらに補正するデータである。
マニュアル補正データ126は、図4(B)を参照して説明したように、指示体70の指示位置として検出した座標を、指示体80の指示位置の座標に補正するデータである。指示体80の指示位置の検出に関し、マニュアルキャリブレーションを行わない場合には、キャリブレーション制御部39は初期補正データ125を選択する。初期補正データ125は、図4(B)の距離G1を初期値にした場合の補正データであり、予め記憶部110に記憶される。光出射装置60の設置時には、スクリーンSCと検出光Lとの距離G1が、例えば10mm〜1mmとなるように調整され、実際にはスクリーンSCの面内で変化する。初期補正データ125は、距離G1の初期値を、例えば5mmに仮定した場合の補正データであり、初期補正データ125を使用すればマニュアルキャリブレーションを行わなくても指示体80の指示位置を検出できる。マニュアルキャリブレーションで作成されるマニュアル補正データ126を用いれば、距離G1の面内における差を反映した補正を行うことで、より高精度で指示体80の指示位置を検出できる。
つまり、検出制御部32は、位置検出部50の位置検出において、指示体70の指示位置を検出する場合には、オートキャリブレーションデータ123を用いて指示位置の座標を求める。ここで、マニュアルキャリブレーションデータ124が記憶部110に記憶されている場合、オートキャリブレーションデータ123で求めた座標をマニュアルキャリブレーションデータ124により補正して指示位置の座標を求める。
指示体80の指示位置を検出する場合、検出制御部32は、オートキャリブレーションデータ123またはマニュアルキャリブレーションデータ124を用いて座標を求める処理で、初期補正データ125またはマニュアル補正データ126で補正を行う。言い換えれば、初期補正データ125及びマニュアル補正データ126は、指示体70の指示位置から指示体80の指示位置を求める差分のデータである。
続いて、キャリブレーション制御部39は、選択したオートキャリブレーション画像121を投射部20によりスクリーンSCに投射する(ステップS4)。オートキャリブレーション画像121がスクリーンSCに投射された状態で、ユーザーは、リモコンまたは操作パネル19の操作により、オートキャリブレーション画像121がスクリーンSCの表示エリアに納まるように表示サイズや表示位置を調整してもよい。
キャリブレーション制御部39は、位置検出部50を制御して、撮像部51により撮影を実行させ(ステップS5)、撮像部51の撮影画像データを取得して、取得した撮影画像データに基づきオートキャリブレーションデータ123を作成する(ステップS6)。
ステップS7で、キャリブレーション制御部39は、光出射装置60の動作制限をオンにする。光出射装置60の動作制限は、光源部61の発光を停止させる処理である。具体的には、出射制御部33が出射装置駆動部48を制御して、光源部61への電源及び/又はパルス信号の出力を停止させる。この動作制限がオンになることで、光出射装置60は検出光の出射を停止し、指示体80の操作は検出されなくなる。
キャリブレーション制御部39は、位置検出部50が検出した撮影画像データ上での指示座標と、対応するマークのオートキャリブレーション画像121上の座標とを対応付けて記憶部110に記憶させる(ステップS12)。
また、全てのマークの指示位置の検出が済んだ場合、キャリブレーション制御部39は、ステップS12で一時的に記憶した指示位置の座標とマークの位置とに基づき、マニュアルキャリブレーションデータ124を作成する(ステップS14)。ここで作成されたマニュアルキャリブレーションデータ124は記憶部110に記憶される。
その後、キャリブレーション制御部39は、光出射装置60の動作制限をオフにする(ステップS15)。すなわち、出射制御部33によって、出射装置駆動部48から光出射装置60への電源及びパルス信号の出力が開始され、光出射装置60が検出光の出射を開始する。
キャリブレーション制御部39は、リモコンまたは操作パネル19の操作を検出し、マニュアルキャリブレーションを実行するか否かを判定する(ステップS17)。
通常動作とは、画像I/F部12に入力される入力画像に基づき、スクリーンSCに画像を投射し、指示体70、80により指示された指示位置を特定して、指示内容に応じた処理を行う動作である。
続いて、キャリブレーション制御部39は、選択したマニュアルキャリブレーション画像122をスクリーンSCに投射する(ステップS21)。ここで、ユーザーにより、指示体80を用いた操作が行われ(ステップS22)、キャリブレーション制御部39は、指示体70の指示位置を検出する指示位置検出処理を実行する(ステップS23)。このステップS22の指示位置検出処理は、上述したステップS11の指示位置検出処理と同様の処理である。
この構成では、キャリブレーション制御部39がオートキャリブレーションまたはマニュアルキャリブレーションのいずれかを実行すれば、指示体70の指示位置の座標を求めることが可能となる。従って、図3のステップS2では、オートキャリブレーションデータ123が記憶されていない状態であっても、マニュアルキャリブレーションを選択することが可能となる。
第2フェーズは、位置検出のフェーズであり、光出射装置60の光源部61と、指示体70の送受信部74とが点灯する。プロジェクター10は、光出射装置60と指示体70の発光タイミングに合わせて、撮像部51により撮影範囲を撮影する。例えば、第2フェーズで指示体70が発光するタイミングで撮像部51が撮影を行うと、指示体70の発光と、指示体80で反射した検出光とが撮影画像に写る。また、撮像部51が、指示体70が発光しないタイミングで撮影すれば、撮影画像には指示体80の反射光が写る。
第4フェーズは、第2フェーズと同様の位置検出のフェーズであり、光出射装置60の光源部61と、指示体70の送受信部74とが点灯する。
従って、第3フェーズの撮影画像と、第2フェーズ及び第4フェーズの撮影画像とを比較することで、検出制御部32は、第2フェーズ及び第4フェーズの撮影画像に写る光の像が、指示体70の光の像か指示体80の反射光の像かを識別できる。各フェーズの時間が十分に短い場合には、連続する第2、第3及び第4フェーズの撮影画像に写る像の位置が近くなる。このため、指示体70の光と指示体80の反射光の識別は容易である。
また、位置検出部50が指示体70及び指示体80の指示位置に対応して動作する通常動作モードでは、出射制御部33が、光出射装置60を、指示体70の発光と異なる発光パターンで間欠的に発光させる。例えば図8の例では、第1〜第4の各フェーズのうち指示体70が発光するフェーズと光出射装置60が発光するフェーズは一致しない。これにより、指示体80で反射した反射光と指示体70が発する光とを、位置検出部50が区別でき、検出方式が異なる複数の指示体を区別して、同時に使用し、指示位置を検出できる。また、光出射装置60及び指示体70は、可視領域外の光を発し、位置検出部50は、可視領域外の光に基づき指示位置を検出する。操作面であるスクリーンSCに画像を投射する投射部20を備えたプロジェクター10に、本発明を適用することで、投射画像の視認性に影響を与えることなく、指示体70及び指示体80の指示位置を検出できる。
また、上記実施形態では、光出射装置60はプロジェクター10の本体とは別体で構成され、ケーブル60aで接続される構成を例示したが、本発明はこれに限定されない。例えば、光出射装置60をプロジェクター10の本体に一体に取り付けることも、プロジェクター10の本体に内蔵する構成としてもよい。また、光出射装置60が外部から電源の供給を受け、出射装置駆動部48との間で無線通信回線により接続されてもよい。
また、上記実施形態では、プロジェクター10から指示体70に対し、送信部52が発する赤外線信号を用いて指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。この構成は、電波通信や超音波無線通信により信号を送信する送信部をプロジェクター10に設け、同様の受信部を指示体70に設けることで実現できる。
上記実施形態では、ユーザーが、フロントプロジェクション型のプロジェクター10が画像を投射(表示)するスクリーンSC(投射面、表示面)に対して、指示体70、80による指示操作を行う態様について説明したが、ユーザーが、プロジェクター10以外の表示装置(表示部)が画像を表示する表示画面(表示面)に対して指示操作を行う態様であってもよい。この場合にも、光出射装置60や撮像部51は、表示装置と一体的に構成されてもよいし、表示装置とは別体で構成されてもよい。プロジェクター10以外の表示装置としては、リアプロジェクション(背面投射)型のプロジェクター、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を用いることができる。
また、図2に示したプロジェクションシステム1の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクションシステム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
Claims (11)
- 検出光を出射する光出射部と、
操作面上で指示された指示位置を、前記検出光を用いて検出する第1の検出動作と、前記検出光以外の光を用いて検出する第2の検出動作と、を行う検出部と、
前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行するキャリブレーション制御部と、を備え、
前記キャリブレーション制御部は、前記検出光以外の光を用いて実際の指示位置を検出することにより、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付ける操作式のキャリブレーションを実行し、前記操作式のキャリブレーションの実行中に前記検出光の出射を制限すること、を特徴とする位置検出装置。 - 検出光を出射する光出射部と、
操作面上で指示された指示位置を、前記検出光を用いて検出する第1の検出動作と、前記検出光以外の光を用いて検出する第2の検出動作と、を行う検出部と、
前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行するキャリブレーション制御部と、を備え、
前記キャリブレーション制御部は、前記キャリブレーションの実行中に前記検出光の出射を制限し、
前記検出部は、前記第1の検出動作で、前記検出光を反射する第1の指示体で反射する反射光に基づき、前記第1の指示体の指示位置を検出し、前記第2の検出動作で、発光機能を有する第2の指示体が発する光に基づき前記第2の指示体の指示位置を検出すること、を特徴とする位置検出装置。 - 前記検出部が前記第1の検出動作で検出される指示位置および前記第2の検出動作で検出される指示位置に対応して動作する通常動作モードを実行可能であり、
前記通常動作モードで、前記光出射部を、前記第2の指示体の発光と異なる発光パターンで発光させる出射制御部を備えること、を特徴とする請求項2記載の位置検出装置。 - 前記光出射部は、可視領域外の光を発し、
前記検出部は、前記光出射部が発する可視領域外の光及び前記第2の指示体が発する可視領域外の光に基づき指示位置を検出すること、を特徴とする請求項2または3に記載の位置検出装置。 - 前記操作面に画像を投射する投射部を備えたプロジェクターであること、を特徴とする請求項4記載の位置検出装置。
- 前記投射部が投射する画像を撮影する撮像部を備え、
前記キャリブレーション制御部は、前記投射部によりキャリブレーション用の画像を投射した状態で前記撮像部が撮影した撮影画像に基づき、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるオートキャリブレーションを実行し、
前記オートキャリブレーションの実行中は前記検出光の出射を制限しないこと、を特徴とする請求項5記載の位置検出装置。 - 前記検出部は、前記第1の指示体で反射した反射光および前記第2の指示体が発する光を共通の手段により検出すること、を特徴とする請求項2から6のいずれかに記載の位置検出装置。
- 操作面を操作する第1及び第2の指示体の操作位置を検出する位置検出装置と、検出光を出射する光出射装置と、を備え、
前記位置検出装置は、
前記検出光を用いて指示位置を検出する第1の検出動作と、前記検出光以外の光を用いて指示位置を検出する第2の検出動作と、を行う検出部と、
前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行するキャリブレーション制御部と、を備え、
前記キャリブレーション制御部は、前記検出光以外の光を用いて実際の指示位置を検出することにより、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付ける操作式のキャリブレーションを実行し、前記操作式のキャリブレーションの実行中に前記検出光の出射を制限すること、
を特徴とする位置検出システム。 - 操作面を操作する第1及び第2の指示体の操作位置を検出する位置検出装置と、検出光を出射する光出射装置と、を備え、
前記位置検出装置は、
前記検出光を用いて指示位置を検出する第1の検出動作と、前記検出光以外の光を用いて指示位置を検出する第2の検出動作と、を行う検出部と、
前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行するキャリブレーション制御部と、を備え、
前記キャリブレーション制御部は、前記キャリブレーションの実行中に前記検出光の出射を制限し、
前記検出部は、前記第1の検出動作で、前記検出光を反射する第1の指示体で反射する反射光に基づき、前記第1の指示体の指示位置を検出し、前記第2の検出動作で、発光機能を有する第2の指示体が発する光に基づき前記第2の指示体の指示位置を検出すること、
を特徴とする位置検出システム。 - 検出光を出射し、
操作面上で指示された指示位置を、前記検出光を用いて検出する第1の検出動作と、前記検出光以外の光を用いて検出する第2の検出動作と、を行い、
前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行し、
前記検出光以外の光を用いて実際の指示位置を検出することにより、前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付ける操作式のキャリブレーションを実行し、前記操作式のキャリブレーションの実行中に前記検出光の出射を制限すること、
を特徴とする位置検出装置の制御方法。 - 検出光を出射し、
操作面上で指示された指示位置を、前記検出光を用いて検出する第1の検出動作と、前記検出光以外の光を用いて検出する第2の検出動作と、を行い、
前記第2の検出動作で検出する位置と前記操作面上の位置とを対応付けるキャリブレーションを実行し、前記キャリブレーションの実行中に前記検出光の出射を制限し、
前記第1の検出動作で、前記検出光を反射する第1の指示体で反射する反射光に基づき、前記第1の指示体の指示位置を検出し、前記第2の検出動作で、発光機能を有する第2の指示体が発する光に基づき前記第2の指示体の指示位置を検出すること、
を特徴とする位置検出装置の制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014062263A JP6326895B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
CN201510020488.9A CN104793810B (zh) | 2014-01-21 | 2015-01-15 | 位置检测装置、位置检测系统和位置检测装置的控制方法 |
US14/598,535 US10088919B2 (en) | 2014-01-21 | 2015-01-16 | Position detecting device, position detecting system, and controlling method of position detecting device |
US16/034,500 US11016582B2 (en) | 2014-01-21 | 2018-07-13 | Position detecting device, position detecting system, and controlling method of position detecting device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014008632 | 2014-01-21 | ||
JP2014008632 | 2014-01-21 | ||
JP2014062263A JP6326895B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015158888A JP2015158888A (ja) | 2015-09-03 |
JP2015158888A5 JP2015158888A5 (ja) | 2017-04-27 |
JP6326895B2 true JP6326895B2 (ja) | 2018-05-23 |
Family
ID=53544501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014062263A Expired - Fee Related JP6326895B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US10088919B2 (ja) |
JP (1) | JP6326895B2 (ja) |
CN (1) | CN104793810B (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6413236B2 (ja) * | 2013-12-20 | 2018-10-31 | セイコーエプソン株式会社 | プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法 |
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP6349838B2 (ja) * | 2014-01-21 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
JP6510969B2 (ja) * | 2015-12-22 | 2019-05-08 | 本田技研工業株式会社 | サーバおよびサーバクライアントシステム |
JP6690272B2 (ja) * | 2016-02-05 | 2020-04-28 | セイコーエプソン株式会社 | 位置検出システム、自発光指示体、および固有情報取得方法 |
JP6634904B2 (ja) * | 2016-03-16 | 2020-01-22 | セイコーエプソン株式会社 | 電子デバイス、及び電子デバイスの制御方法 |
EP4152132A1 (en) * | 2016-12-07 | 2023-03-22 | FlatFrog Laboratories AB | An improved touch device |
US10694648B2 (en) * | 2017-01-06 | 2020-06-23 | Korvis LLC | System for inserting pins into an article |
WO2019045629A1 (en) | 2017-09-01 | 2019-03-07 | Flatfrog Laboratories Ab | IMPROVED OPTICAL COMPONENT |
JP7124375B2 (ja) * | 2018-03-26 | 2022-08-24 | セイコーエプソン株式会社 | 電子ペン、表示システムおよび電子ペンの制御方法 |
US12055969B2 (en) | 2018-10-20 | 2024-08-06 | Flatfrog Laboratories Ab | Frame for a touch-sensitive device and tool therefor |
EP4066089B1 (en) | 2019-11-25 | 2024-09-25 | FlatFrog Laboratories AB | A touch-sensing apparatus |
US11893189B2 (en) | 2020-02-10 | 2024-02-06 | Flatfrog Laboratories Ab | Touch-sensing apparatus |
JP7338659B2 (ja) | 2021-03-30 | 2023-09-05 | セイコーエプソン株式会社 | 指示体の検出方法及びプロジェクションシステム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3670896B2 (ja) * | 1999-08-06 | 2005-07-13 | 日立ソフトウエアエンジニアリング株式会社 | 電子ボードシステム |
JP2002132448A (ja) * | 2000-10-24 | 2002-05-10 | Canon Inc | 入力装置及びプロジェクタ |
US20060001654A1 (en) * | 2004-06-30 | 2006-01-05 | National Semiconductor Corporation | Apparatus and method for performing data entry with light based touch screen displays |
US8319832B2 (en) | 2008-01-31 | 2012-11-27 | Denso Corporation | Input apparatus and imaging apparatus |
JP2009181423A (ja) * | 2008-01-31 | 2009-08-13 | Denso Corp | 操作入力装置 |
JP5593802B2 (ja) | 2010-04-16 | 2014-09-24 | セイコーエプソン株式会社 | 位置検出システム及びその制御方法、並びにプログラム |
US8872763B2 (en) * | 2011-01-19 | 2014-10-28 | Seiko Epson Corporation | Position detecting system and position detecting method |
JP5673191B2 (ja) * | 2011-02-21 | 2015-02-18 | セイコーエプソン株式会社 | インタラクティブシステム、位置情報変換方法、およびプロジェクター |
JP2012208926A (ja) * | 2011-03-15 | 2012-10-25 | Nikon Corp | 検出装置、入力装置、プロジェクタ、及び電子機器 |
US9134814B2 (en) | 2012-04-05 | 2015-09-15 | Seiko Epson Corporation | Input device, display system and input method |
JP2014206634A (ja) * | 2013-04-12 | 2014-10-30 | 船井電機株式会社 | 電子機器 |
-
2014
- 2014-03-25 JP JP2014062263A patent/JP6326895B2/ja not_active Expired - Fee Related
-
2015
- 2015-01-15 CN CN201510020488.9A patent/CN104793810B/zh active Active
- 2015-01-16 US US14/598,535 patent/US10088919B2/en active Active
-
2018
- 2018-07-13 US US16/034,500 patent/US11016582B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11016582B2 (en) | 2021-05-25 |
CN104793810A (zh) | 2015-07-22 |
JP2015158888A (ja) | 2015-09-03 |
US20180321761A1 (en) | 2018-11-08 |
US10088919B2 (en) | 2018-10-02 |
CN104793810B (zh) | 2019-05-31 |
US20150204658A1 (en) | 2015-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6326895B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6398248B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
JP6349838B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6387644B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出方法 | |
JP6417690B2 (ja) | プロジェクター、表示装置、及び、プロジェクターの制御方法 | |
JP6375660B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6562124B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
CN104898894B (zh) | 位置检测装置以及位置检测方法 | |
JP6569259B2 (ja) | 位置検出装置、表示装置、位置検出方法、及び、表示方法 | |
JP6287432B2 (ja) | 操作デバイス、位置検出システム、及び、操作デバイスの制御方法 | |
JP6340860B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6291912B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6291911B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6337558B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180320 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6326895 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |