JP2015158890A - 位置検出装置、位置検出システム、及び、位置検出方法 - Google Patents
位置検出装置、位置検出システム、及び、位置検出方法 Download PDFInfo
- Publication number
- JP2015158890A JP2015158890A JP2014062267A JP2014062267A JP2015158890A JP 2015158890 A JP2015158890 A JP 2015158890A JP 2014062267 A JP2014062267 A JP 2014062267A JP 2014062267 A JP2014062267 A JP 2014062267A JP 2015158890 A JP2015158890 A JP 2015158890A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- indicator
- image
- distance
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B21/00—Projectors or projection-type viewers; Accessories therefor
- G03B21/14—Details
- G03B21/145—Housing details, e.g. position adjustments thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0386—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry for light pen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04166—Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Projection Apparatus (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】プロジェクター10は、スクリーンSCを撮影する撮像部51と、撮像部51の撮影画像に基づいて指示体80の指示位置を検出する位置検出部50と、を備える。位置検出部50は、指示体80で検出光が反射した反射光を撮像部51の撮影画像から検出し、撮影画像から検出した反射光の位置と、スクリーンSCから撮像部51までの距離とに基づいて、指示体80の指示位置を求める。
【選択図】図2
Description
本発明は、上述した事情に鑑みてなされたものであり、操作面における指示体の指示位置を、撮影画像を用いてより正確に検出できるようにすることを目的とする。
本発明によれば、撮像部と操作面との位置関係に基づいて、撮影画像から検出される指示位置を補正して求めることができる。これにより、例えば指示体において検出光が反射する反射位置と操作面との位置関係により、撮影画像で検出される位置と指示体の指示位置とが一致しない場合であっても、操作面における指示体の指示位置をより正確に検出できる。
本発明によれば、操作面から離れた位置で反射した反射光をもとに、操作面において指示された位置を求めることができる。
本発明によれば、記憶部に記憶された距離データを利用することで、位置検出を行う毎に距離を求める必要がなく、操作面における指示位置を速やかに検出できる。
本発明によれば、プロジェクターが画像を投射する操作面で行われる操作に対応して、指示位置を検出できる。
本発明によれば、キャリブレーションを実行することにより操作面から指示体の反射位置までの距離データを生成できる。これにより、キャリブレーションの実行後に、指示位置を正確に検出し、検出した指示位置を投射画像における位置として求めることが可能になる。
本発明によれば、操作面から撮像部の基準位置までの距離を測定することが可能なため、より正確に指示位置を求めることができる。
本発明によれば、位置検出装置から検出光を出射して、この検出光を指示体で反射させることにより、発光機能等を持たない指示体の指示位置を検出できる。
本発明によれば、撮像部と操作面との位置関係に基づいて、撮影画像から検出される指示位置を補正して求めることができる。これにより、例えば指示体において検出光が反射する反射位置と操作面との位置関係により、撮影画像で検出される位置と指示体の指示位置とが一致しない場合であっても、操作面における指示体の指示位置をより正確に検出できる。
本発明によれば、撮像部と操作面との位置関係に基づいて、撮影画像から検出される指示位置を補正して求めることができる。これにより、例えば指示体において検出光が反射する反射位置と操作面との位置関係により、撮影画像で検出される位置と指示体の指示位置とが一致しない場合であっても、操作面における指示体の指示位置をより正確に検出できる。
図1は、本発明を適用した実施形態に係るプロジェクションシステム1(位置検出システム)の構成を示す図である。プロジェクションシステム1は、スクリーンSC(投射面、操作面)の上方に設置されたプロジェクター10(位置検出装置)と、スクリーンSCの上部に設置された光出射装置60(光出射部)とを備える。
光出射装置60は、固体光源からなる光源部61(図2)を有し、光源部61が発する光をスクリーンSCに沿って拡散させて出射(照射)する。光出射装置60の出射範囲を図1に角度θで示す。光出射装置60はスクリーンSCの上端より上に設置され、下向きに角度θの範囲に光を出射し、この光はスクリーンSCに沿う光の層を形成する。本実施形態では角度θはほぼ180度に達し、スクリーンSCのほぼ全体に、光の層が形成される。スクリーンSCの表面と光の層とは近接していることが好ましく、本実施形態では、スクリーンSCの表面と光の層との距離は概ね10mm〜1mmの範囲内である。
光出射装置60が出射する光は可視領域外の光であり、本実施形態では赤外光とする。
指示操作に利用される指示体は、ペン型の指示体70を用いることができる。指示体70の先端部71は、押圧された場合に動作する操作スイッチ75(図2)を内蔵しているので、先端部71を壁やスクリーンSCに押しつける操作がされると操作スイッチ75がオンになる。指示体70は、ユーザーが棒状の軸部72を手に持って、先端部71をスクリーンSCに接触させるように操作され、先端部71をスクリーンSCに押しつける操作も行われる。先端部71には、光を発する送受信部74(図2)を備える。プロジェクター10は、指示体70が発する光に基づき、先端部71の位置を、指示位置として検出する。指示体70が発する光は可視領域外の光であり、本実施形態では赤外光とする。
すなわち、指示体80の先端(例えば、指先)がスクリーンSCに接触するときに、光出射装置60が形成する光の層を遮る。このとき、光出射装置60が出射した光が指示体80に当たって反射し、反射光の一部は指示体80からプロジェクター10に向かって進む。プロジェクター10は、スクリーンSC側からの光、すなわち下方からの光を後述する位置検出部50により検出する機能を有するので、指示体80の反射光を検出できる。プロジェクター10は、指示体80で反射した反射光を検出することにより、指示体80によるスクリーンSCへの指示操作を検出する。また、プロジェクター10は指示体80により指示された指示位置を検出する。
光出射装置60が出射する光の層はスクリーンSCに近接しているので、指示体80において光が反射する位置は、スクリーンSCに最も近い先端、或いは指示位置と見なすことができる。このため、指示体80の反射光に基づき指示位置を特定できる。
具体的には、プロジェクションシステム1は、指示位置に図形を描画したり文字や記号を配置したりする処理、指示位置の軌跡に沿って図形を描画する処理、描画した図形や配置した文字または記号を消去する処理等を行う。また、スクリーンSCに描画された図形、配置された文字または記号を画像データとして保存することもでき、外部の装置に出力することもできる。
さらに、指示位置を検出することによりポインティングデバイスとして動作し、スクリーンSCにプロジェクター10が画像を投射する画像投射領域における指示位置の座標を出力してもよい。また、この座標を用いてGUI(Graphical User Interface)操作を行ってもよい。
プロジェクター10は、外部の装置に接続されるインターフェイスとして、I/F(インターフェイス)部11及び画像I/F(インターフェイス)部12を備える。I/F部11及び画像I/F部12は有線接続用のコネクターを備え、上記コネクターに対応するインターフェイス回路を備えていてもよい。また、I/F部11及び画像I/F部12は、無線通信インターフェイスを備えていてもよい。有線接続用のコネクター及びインターフェイス回路としては有線LAN、IEEE1394、USB等に準拠したものが挙げられる。また、無線通信インターフェイスとしては無線LANやBluetooth(登録商標)等に準拠したものが挙げられる。画像I/F部12には、HDMI(登録商標)インターフェイス等の画像データ用のインターフェイスを用いることもできる。画像I/F部12は、音声データが入力されるインターフェイスを備えてもよい。
画像I/F部12は、デジタル画像データが入力されるインターフェイスである。本実施形態のプロジェクター10は、画像I/F部12を介して入力されるデジタル画像データに基づき画像を投射する。なお、プロジェクター10は、アナログ画像信号に基づき画像を投射する機能を備えてもよく、この場合、画像I/F部12は、アナログ画像用のインターフェイスと、アナログ画像信号をデジタル画像データに変換するA/D変換回路とを備えてもよい。
光変調装置22は、例えばRGBの三原色に対応した3枚の透過型液晶パネルを備え、この液晶パネルを透過する光を変調して画像光を生成する。光源部21からの光はRGBの3色の色光に分離され、各色光は対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系23に射出される。
画像処理部40はフレームメモリー44に接続されている。画像処理部40は、画像入力I/F12から入力される画像データをフレームメモリー44に展開して、展開した画像データに対し上記の各種処理を実行する。画像処理部40は、処理後の画像データをフレームメモリー44から読み出して、この画像データに対応するR、G、Bの画像信号を生成し、光変調装置駆動部46に出力する。
光変調装置駆動部46は、光変調装置22の液晶パネルに接続される。光変調装置駆動部46は、画像処理部40から入力される画像信号に基づいて液晶パネルを駆動し、各液晶パネルに画像を描画する。
リモコン受光部18は、プロジェクター10のユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を、リモコン受光部18によって受光する。リモコン受光部18は、上記リモコンから受光した赤外線信号をデコードして、上記リモコンにおける操作内容を示す操作データを生成し、制御部30に出力する。
操作パネル19は、プロジェクター10の外装筐体に設けられ、各種スイッチおよびインジケーターランプを有する。操作検出部17は、制御部30の制御に従い、プロジェクター10の動作状態や設定状態に応じて操作パネル19のインジケーターランプを適宜点灯及び消灯させる。この操作パネル19のスイッチが操作されると、操作されたスイッチに対応する操作データが操作検出部17から制御部30に出力される。
撮像部51は、撮像光学系、撮像素子、インターフェイス回路等を有し、投射光学系23の投射方向を撮影する。撮像部51の撮像光学系は、投射光学系23と略同じ方向を向いて配置され、投射光学系23がスクリーンSC上に画像を投射する範囲(投射範囲)を含む画角を有する。また、撮像素子は、赤外領域及び可視光領域の光を受光するCCDやCMOSが挙げられる。撮像部51は、撮像素子に入射する光の一部を遮るフィルターを備えてもよく、例えば、赤外光を受光させる場合に、主に赤外領域の光を透過するフィルターを撮像素子の前に配置させてもよい。また、撮像部51のインターフェイス回路は、撮像素子の検出値を読み出して出力する。
座標算出部55は、指示体検出部54が検出した像の位置に基づき、撮影画像データにおける指示体70、80の指示位置の座標を算出して、制御部30に出力する。座標算出部55は、また、投射部20が投射した投射画像における指示体70、80の指示位置の座標を算出して、制御部30に出力してもよい。さらに、座標算出部55は、画像処理部40がフレームメモリー44に描画した画像データにおける指示体70、80の指示位置の座標や、画像I/F部12の入力画像データにおける指示体70、80の指示位置の座標を、算出してもよい。
電源部76は、電源として乾電池または二次電池を有し、制御部73、送受信部74、及び操作スイッチ75の各部に電力を供給する。
指示体70は、電源部76からの電源供給をオン/オフする電源スイッチを備えていてもよい。
制御部30は、指示体70による位置指示操作を検出する場合に、指示体検出部54を制御して、送信部52から同期用の信号を送信させる。すなわち、指示体検出部54は、制御部30の制御に従って、送信部52の光源を所定の周期で点灯させる。送信部52が周期的に発する赤外光が、位置検出部50と指示体70とを同期させる同期信号として機能する。
一方、制御部73は、電源部76から電源の供給が開始され、所定の初期化動作を行った後、プロジェクター10の送信部52が発する赤外光を、送受信部74により受光する。送信部52が周期的に発する赤外光を送受信部74により受光すると、制御部73は、この赤外光のタイミングに同期させて、予め設定された点灯パターンで、送受信部74の光源を点灯(発光)させる。この点灯のパターンは、光源の点灯と消灯をデータのオンとオフに対応させて、指示体70に固有のデータを表す。制御部73は設定されたパターンの点灯時間及び消灯時間に従って光源を点灯及び消灯させる。制御部73は、電源部76から電源が供給されている間、上記のパターンを繰り返し実行する。
つまり、位置検出部50は指示体70に対し、同期用の赤外線信号を周期的に送信し、指示体70は、位置検出部50が送信する赤外線信号に同期して、予め設定された赤外線信号を送信する。
指示体70が点灯するパターンは、指示体70の個体毎に固有のパターン、または、複数の指示体70に共通のパターンと個体毎に固有のパターンとを含むものとすることができる。この場合、指示体検出部54は、撮影画像データに複数の指示体70が発する赤外光の像が含まれる場合に、各々の像を、異なる指示体70の像として区別できる。
プロジェクター10は、図1に示したように壁面や天井面から吊り下げる吊り下げ設置の他に、スクリーンSCの下方から投射を行う設置状態、机の天面などの水平面をスクリーンSCとして使用する設置状態等で使用できる。プロジェクター10の設置状態によっては光出射装置60の使用に適さないことがある。例えば、下方からスクリーンSCに投射を行う場合、ユーザーの体が光出射装置60の出射光を遮ってしまうことがあり、不適である。姿勢センサー47は、プロジェクター10の設置状態として想定される複数の設置状態を識別できるように、プロジェクター10の本体に設けられる。姿勢センサー47は、例えば、2軸のジャイロセンサー、1軸のジャイロセンサー、加速度センサー等を用いて構成される。制御部30は、姿勢センサー47の出力値に基づきプロジェクター10の設置状態を自動的に判定できる。制御部30が、光出射装置60の使用に不適な設置状態と判定した場合には、例えば、出射装置駆動部48が電源電圧やパルス信号の出力を停止する。
例えば、スクリーンSCが取り付けられた壁や天井に、距離測定用の子機(図示略)を設置する方法が挙げられる。この子機はプロジェクター10とは別体として構成される。この場合、距離測定部59は、子機との間で超音波やレーザー光や無線信号を送受信する構成を有し、例えば発信器と受信機、光源と受光器、或いは送受信機を備える。また、子機も同様に、距離測定部59との間で超音波やレーザー光や無線信号を送受信する構成を有し、例えば受信機と発信器、ミラー、送受信機である。プロジェクター10の本体に設けられた距離測定部59と子機との間で超音波やレーザー光や無線信号を送受信することによって、子機と距離測定部59との間の距離を求め、この距離に基づき距離Lを求めることができる。この場合、子機とスクリーンSCの表面(操作面)との位置関係、及び、距離測定部59と撮像部51の基準位置(後述)との位置関係に対応した関数やオフセット量を定めておくことで、距離Lを正確に算出できる。
また、例えば、距離測定部59が、伸縮可能な測定治具を備え、この測定治具をプロジェクター10からスクリーンSC側に伸ばすことで、距離Lを測定できる。この場合、距離測定部59は、伸縮可能な治具と、治具の伸長量を検出するリニアエンコーダーやロータリーエンコーダー等の検出器を備える。また、治具を伸縮させるモーターやアクチュエーター等の駆動部を備えてもよい。
距離測定部59は、制御部30の制御に従って測定動作を実行し、測定動作の結果を制御部30に出力する。
投射制御部31は、操作検出部17から入力される操作データに基づいて、ユーザーが行った操作の内容を取得する。投射制御部31は、ユーザーが行った操作に応じて画像処理部40、光源駆動部45、及び光変調装置駆動部46を制御して、スクリーンSCに画像を投射させる。投射制御部31は、画像処理部40を制御して、上述した3D(立体)画像と2D(平面)画像の判別処理、解像度変換処理、フレームレート変換処理、歪み補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等を実行させる。また、投射制御部31は、画像処理部40の処理に合わせて光源駆動部45を制御し、光源部21の光量を制御する。
キャリブレーション制御部39は、指示体70の指示位置に関するキャリブレーションとして、オートキャリブレーションとマニュアルキャリブレーションとを実行できる。
オートキャリブレーションは、スクリーンSCに、オートキャリブレーション用の画像を投射して、撮像部51で撮影し、撮影画像データを用いてキャリブレーションデータを生成する処理である。オートキャリブレーションは、プロジェクター10が自動的に実行可能な処理であり、ユーザーによる指示体70、80の操作を必要としない。オートキャリブレーションは、ユーザーがリモコンまたは操作パネル19で実行を指示した場合に限らず、制御部30が制御するタイミングで実行することもできる。例えば、プロジェクター10の電源オン直後等の動作開始時に行ってもよいし、後述する通常動作中に行ってもよい。オートキャリブレーションで投射されるオートキャリブレーション画像121は、予め記憶部110に記憶されている。
図4は、スクリーンSCに投射されたオートキャリブレーション画像121を撮像部51により撮影した撮影画像データの一例を示す。撮像部51の撮影画像データは、プロジェクター10を図1に示すように吊り下げ設置した場合に、スクリーンSCの斜め上方から撮影されるので、歪んだ画像となる。図3には、等間隔でマークが並ぶ矩形のオートキャリブレーション画像121を例示したが、図4の撮影画像データでは歪んだ形状の画像が写っており、この画像の内部に並ぶマークの間隔は、マークの位置によって異なっている。
キャリブレーション制御部39は、撮影画像におけるマークの座標値と、投射画像におけるマークの座標値とを対応付けることにより、テーブル形式または関数形式のオートキャリブレーションデータ123を作成する。オートキャリブレーション画像121のマークの投射画像における座標値は、予めオートキャリブレーション画像121とともに、或いはオートキャリブレーション画像121に含まれて記憶部110に記憶されている。キャリブレーション制御部39は、既にオートキャリブレーションデータ123が記憶されている場合、このオートキャリブレーションデータ123を更新する。
図5は、マニュアルキャリブレーション画像122の一例を示す。マニュアルキャリブレーション画像122は、ユーザーに指示体70で指示をさせるため、指示位置を示すマークを含む。図5のマニュアルキャリブレーション画像122は複数の指示用のマーク(○)が配置され、ユーザーは、マークの位置を指示体70で指示する。
ユーザーはスクリーンSCにマークが表示される毎に、新たに表示されたマークを指示体70で指示する。キャリブレーション制御部39はユーザーが操作を行う毎に、指示位置を検出する。そして、キャリブレーション制御部39は、撮影画像で検出した指示位置と、フレームメモリー44に描画された投射画像、すなわちマニュアルキャリブレーション画像122のマークとを対応付ける。キャリブレーション制御部39は、撮影画像データで検出した指示位置の座標値と、投射画像上のマークの座標値とを対応付けることにより、マニュアルキャリブレーションデータ124を作成する。
マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123と同様のデータ形式とすることも可能であるが、オートキャリブレーションデータ123を補正する補正データとすることができる。オートキャリブレーションデータ123は、撮影画像上の座標を投射画像上の座標に変換するデータである。これに対し、マニュアルキャリブレーションデータ124は、オートキャリブレーションデータ123を用いて変換された後の座標を、さらに補正するデータである。
図6に示すように、プロジェクター10はスクリーンSCの上方に設置され、撮像部51はスクリーンSCの前方側の離れた位置から、スクリーンSCを俯瞰して撮影する。撮像部51の撮影方向を、図7(A)、(B)には矢印PAで示す。
このため、撮像部51の撮影画像データにおいて、反射光の位置は、撮像部51の撮影方向PAをスクリーンSC上まで延長した点80cで発光する光と同じ位置になる。つまり、撮影画像データにおいては、指示体80が接触位置80bを指示した場合の反射光は、例えば指示体70が点80cを指示した場合と同じ位置で検出される。
従って、位置検出部50が指示体80の指示位置を指示体70と同様に検出すると、接触位置80bが指示された場合に、指示位置が点80cとして検出され、ずれを生じる。このずれを、誤差Errとする。
そこで、プロジェクター10は、指示体80の指示位置を検出する場合に、指示体70と同様に指示位置を検出してから、検出した位置について距離LDに基づく補正を行う。
光出射装置60の設置時には、スクリーンSCと検出光LCとの距離LDが、例えば10mm〜1mmとなるように調整されるが、実際にはスクリーンSCの面内で変化する。初期補正データ125は、距離LDの標準的な値として、例えば5mmに設定される。
マニュアルキャリブレーションで算出された距離LDは、マニュアル補正データ126(距離データ)として記憶部110に記憶される。マニュアル補正データ126は、撮影画像データ上の座標または投射画像上の座標ごとに、距離LDの値を対応付けるテーブル形式、或いはマップデータとすることができる。また、撮影画像データ上の座標または投射画像上の座標において予め設定された代表点について、距離LDの値を対応付けるテーブル形式とすることができる。指示位置を補正する処理で、代表点から外れた座標の距離LDの値が必要な場合は、補正対象の座標に近い代表点の距離LDを適用する方法や、補間演算により代表点の距離LDから補正対象の座標の距離LDを求める方法を利用できる。マニュアル補正データ126はマニュアルキャリブレーションの結果から算出されるデータであり、現実のスクリーンSCと光出射装置60の設置状態を反映している。このため、マニュアル補正データ126を利用すれば、距離LDの面内における差を反映した補正を行うことができ、より高精度で指示体80の指示位置を求めることができる。
以下の説明では、図8(A)に示すように、スクリーンSCにおける左下隅を原点ZとするX−Y直交座標系を設定する。原点Zから水平方向をX軸、垂直方向をY軸とし、スクリーンSCの右上隅の座標を(xIWB,yIWB)とする。指示体70、80の操作領域は、撮像部51の画角やスクリーンSCのサイズ等に基づき設定される。
図8(B)の側面視図では、指示体80の指示位置を検出する場合に、指示体80が指し示すスクリーンSC上の指示位置のY座標をyとし、指示体80で検出光LCが反射する反射位置を点Dとする。また、指示体80の指示位置を、指示体70の指示位置と同様に求めた場合に得られる指示位置のY座標をypとする。Y座標ypとY座標yの差を、Y軸方向の誤差yErrとする。また、撮像部51の基準位置を示す点Cを通りスクリーンSCに垂直な直線がスクリーンSCと同一平面で交わる点を、点Nとする。
図8(C)の平面視図では、指示体80の指示位置を検出する場合に、指示体80が指し示すスクリーンSC上の指示位置のX座標をxとする。また、指示体80の指示位置を、指示体70の指示位置と同様に求めた場合に得られる指示位置のX座標をxpとする。X座標xpとX座標xの差を、X軸方向の誤差xErrとする。
この図中、点C、点N及びY軸(スクリーンSC)上の座標ypとを結ぶ三角形C−N−ypと、点D及びY軸(スクリーンSC)上の座標y、ypとを結ぶ三角形D−y−ypとは、相似である。従って、下記式(1)の関係が成り立つ。下記式(1)を変形して下記式(2)を得ることができ、さらに変形すると、LDの値を求める下記式(3)が得られる。
また、スクリーンSCの表面から検出光LCまでの距離LDを、上記式(3)により求めることができる。
図8(C)中、点C、点N及びX軸(スクリーンSC)上の座標xpを結ぶ三角形C−N−xpと、点D及びX軸(スクリーンSC)上の座標x及びxpとを結ぶ三角形D−x−xpとは、相似である。従って、下記式(4)の関係が成り立つ。下記式(4)を変形して下記式(5)が得ることができ、さらに変形すると、LDの値を求める下記式(6)が得られる。
キャリブレーション制御部39は、投射制御部31によって指示体70に関するキャリブレーションの実行を指示するメニュー画面を、投射部20により投射させる(ステップS11)。キャリブレーション制御部39は、リモコンまたは操作パネル19の操作を検出し(ステップS12)、オートキャリブレーションが選択された場合はステップS13に移行し、マニュアルキャリブレーションが選択された場合にはステップS15に移行する。
その後、キャリブレーション制御部39は、検出したマークの座標をもとにオートキャリブレーションデータ123を生成し、記憶部110に記憶させる(ステップS14)。
その後、キャリブレーション制御部39は、検出した座標をもとにマニュアルキャリブレーションデータ124を生成し、記憶部110に記憶させる(ステップS16)。
次に、キャリブレーション制御部39は、指示体80の指示位置の検出に関するマニュアルキャリブレーションを実行するか否かを選択するユーザーインターフェイスを、投射部20により投射させる(ステップS18)。キャリブレーション制御部39は、リモコンまたは操作パネル19の操作を検出し、マニュアルキャリブレーションを実行するか否かを判定する(ステップS19)。
なお、通常動作とは、画像I/F部12に入力される入力画像に基づき、スクリーンSCに画像を投射し、指示体70、80により指示された指示位置を特定して、指示内容に応じた処理を行う動作である。
この構成では、キャリブレーション制御部39がオートキャリブレーションまたはマニュアルキャリブレーションのいずれかを実行すれば、指示体70の指示位置の座標を求めることが可能となる。従って、図9の動作において、オートキャリブレーションデータ123が記憶されていない状態で、ステップS12でマニュアルキャリブレーションを選択することが可能となる。
また、記憶部110は、距離演算部37によって求められた、スクリーンSCから指示体80の反射位置までのスクリーンSCに垂直な方向における距離を示すマニュアル補正データ126を記憶する。位置検出部50は、記憶部110に記憶されたマニュアル補正データ126に基づいて指示体80の指示位置を求める。これにより、記憶部110に記憶されたマニュアル補正データ126を利用することで、位置検出を行う毎に距離LDを求める必要がなく、スクリーンSCにおける指示位置を速やかに検出できる。
また、プロジェクター10は、撮像部51の撮影画像における位置と投射部20により投射される画像との位置を対応付けるキャリブレーションを実行するキャリブレーション制御部39を備える。距離演算部37は、キャリブレーション制御部39が実行するキャリブレーションの結果に基づいてマニュアル補正データ126を生成する。これにより、キャリブレーションを実行することによりマニュアル補正データ126を生成できる。このため、キャリブレーションの実行後に、指示位置を正確に検出し、検出した指示位置を投射画像における位置として求めることが可能になる。
また、プロジェクター10は、スクリーンSCから撮像部51の基準位置までのスクリーンSCに垂直な方向における距離Lを求める距離測定部59を備えるので、より正確に指示位置を求めることができる。
また、スクリーンSCに沿って検出光を出射する光出射装置60を備えるので、検出光を出射して、この検出光を指示体80で反射させることにより、発光機能等を持たない指示体80の指示位置を検出できる。
また、上記実施形態では、プロジェクター10から指示体70に対し、送信部52が発する赤外線信号を用いて指示体70に同期用の信号を送信する構成を説明したが、同期用の信号は赤外線信号に限定されない。例えば、電波通信や超音波無線通信により同期用の信号を送信する構成としてもよい。この構成は、電波通信や超音波無線通信により信号を送信する送信部をプロジェクター10に設け、同様の受信部を指示体70に設けることで実現できる。
また、上記実施形態では、撮影画像データから検出した指示位置を初期補正データ125またはマニュアル補正データ126に基づき補正する演算処理を、位置検出部50が実行するものとして説明したが、制御部30が演算処理を行ってもよい。
上記実施形態では、ユーザーが、フロントプロジェクション型のプロジェクター10が画像を投射(表示)するスクリーンSC(投射面、表示面)に対して、指示体70、80による指示操作を行う態様について説明したが、ユーザーが、プロジェクター10以外の表示装置(表示部)が画像を表示する表示画面(表示面)に対して指示操作を行う態様であってもよい。この場合にも、光出射装置60や撮像部51は、表示装置と一体的に構成されてもよいし、表示装置とは別体で構成されてもよい。プロジェクター10以外の表示装置としては、リアプロジェクション(背面投射)型のプロジェクター、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、プラズマディスプレイ、CRT(陰極線管)ディスプレイ、SED(Surface-conduction Electron-emitter Display)等を用いることができる。
また、図2に示したプロジェクションシステム1の各機能部は機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、プロジェクションシステム1の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
Claims (9)
- 操作面を撮影する撮像部と、
前記撮像部の撮影画像に基づいて指示体の指示位置を検出する検出部と、を備え、
前記検出部は、前記指示体で検出光が反射した反射光を前記撮像部の撮影画像から検出し、前記撮影画像から検出した反射光の位置と、前記操作面から前記撮像部までの距離とに基づいて、前記指示体の指示位置を求めること、
を特徴とする位置検出装置。 - 前記操作面から前記撮像部の基準位置までの前記操作面に垂直な方向における距離に基づいて、前記操作面から前記指示体の反射位置までの前記操作面に垂直な方向における距離を求める演算部を備えること、を特徴とする請求項1記載の位置検出装置。
- 前記演算部によって求められた、前記操作面から前記指示体の反射位置までの前記操作面に垂直な方向における距離を示す距離データを記憶する記憶部を備え、
前記検出部は、前記記憶部に記憶された前記距離データに基づいて前記指示体の指示位置を求めること、
を特徴とする請求項2記載の位置検出装置。 - 前記操作面に画像を投射する投射部を備えたプロジェクターとして構成され、
前記撮像部によって前記投射部の投射範囲を撮影すること、を特徴とする請求項3記載の位置検出装置。 - 前記撮像部の撮影画像における位置と前記投射部により投射される画像との位置を対応付けるキャリブレーションを実行するキャリブレーション制御部を備え、
前記演算部は、前記キャリブレーション制御部が実行するキャリブレーションの結果に基づいて前記距離データを生成すること、を特徴とする請求項4記載の位置検出装置。 - 前記操作面から前記撮像部の基準位置までの前記操作面に垂直な方向における距離を求める距離測定部を備えること、を特徴とする請求項2から5のいずれかに記載の位置検出装置。
- 前記操作面に沿って前記検出光を出射する光出射部を備えること、を特徴とする請求項1から6のいずれかに記載の位置検出装置。
- 指示体により操作される操作面に沿って検出光を出射する光出射装置と、前記指示体の指示位置を検出する位置検出装置と、を備え、
前記位置検出装置は、
前記操作面を撮影する撮像部と、
前記撮像部の撮影画像に基づいて前記指示体の指示位置を検出する検出部と、を備え、
前記検出部は、前記指示体で検出光が反射した反射光を前記撮像部の撮影画像から検出し、前記撮影画像から検出した反射光の位置と、前記操作面から前記撮像部までの距離とに基づいて、前記指示体の指示位置を求めること、
を特徴とする位置検出システム。 - 操作面において指示体により指示された位置を検出する位置検出方法であって、
前記操作面を撮影し、
前記指示体で検出光が反射した反射光を撮影画像から検出し、前記撮影画像から検出した反射光の位置と、前記操作面から撮影位置までの距離とに基づいて、前記指示体の指示位置を求めること、
を特徴とする位置検出方法。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014062267A JP6387644B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出装置、位置検出システム、及び、位置検出方法 |
TW104101572A TW201535162A (zh) | 2014-01-21 | 2015-01-16 | 位置檢測裝置、位置檢測系統及位置檢測方法 |
KR1020167022516A KR101811794B1 (ko) | 2014-01-21 | 2015-01-20 | 위치 검출 장치, 위치 검출 시스템 및, 위치 검출 방법 |
EP15740024.3A EP3098697A4 (en) | 2014-01-21 | 2015-01-20 | Position detection device, position detection system, and position detection method |
US15/110,297 US10429994B2 (en) | 2014-01-21 | 2015-01-20 | Position detection device, position detection system, and position detection method |
CN201580003532.3A CN105874414B (zh) | 2014-01-21 | 2015-01-20 | 位置检测装置、位置检测系统以及位置检测方法 |
PCT/JP2015/000238 WO2015111402A1 (ja) | 2014-01-21 | 2015-01-20 | 位置検出装置、位置検出システム、及び、位置検出方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014008636 | 2014-01-21 | ||
JP2014008636 | 2014-01-21 | ||
JP2014062267A JP6387644B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出装置、位置検出システム、及び、位置検出方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015158890A true JP2015158890A (ja) | 2015-09-03 |
JP2015158890A5 JP2015158890A5 (ja) | 2017-04-27 |
JP6387644B2 JP6387644B2 (ja) | 2018-09-12 |
Family
ID=53681214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014062267A Expired - Fee Related JP6387644B2 (ja) | 2014-01-21 | 2014-03-25 | 位置検出装置、位置検出システム、及び、位置検出方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10429994B2 (ja) |
EP (1) | EP3098697A4 (ja) |
JP (1) | JP6387644B2 (ja) |
KR (1) | KR101811794B1 (ja) |
CN (1) | CN105874414B (ja) |
TW (1) | TW201535162A (ja) |
WO (1) | WO2015111402A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017138775A (ja) * | 2016-02-03 | 2017-08-10 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出方法 |
TWI635324B (zh) * | 2016-05-24 | 2018-09-11 | 仁寶電腦工業股份有限公司 | 投影裝置 |
JP2020134856A (ja) * | 2019-02-25 | 2020-08-31 | セイコーエプソン株式会社 | プロジェクター、画像表示システム及び画像表示システムの制御方法 |
WO2022163835A1 (ja) * | 2021-01-29 | 2022-08-04 | パナソニックIpマネジメント株式会社 | 投写制御方法、および、投写制御装置 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6398248B2 (ja) * | 2014-01-21 | 2018-10-03 | セイコーエプソン株式会社 | 位置検出システム、及び、位置検出システムの制御方法 |
JP6349838B2 (ja) * | 2014-01-21 | 2018-07-04 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 |
US20170094238A1 (en) * | 2015-09-30 | 2017-03-30 | Hand Held Products, Inc. | Self-calibrating projection apparatus and process |
CN106610757B (zh) * | 2016-08-26 | 2019-08-02 | 北京一数科技有限公司 | 一种投影触控方法、装置及设备 |
US10567715B2 (en) * | 2017-03-24 | 2020-02-18 | Seiko Epson Corporation | Image display apparatus and method for controlling the same |
CN109945790B (zh) * | 2017-12-21 | 2020-09-01 | 中国科学院长春光学精密机械与物理研究所 | 一种为大型直立物体建立特征点的光学方法 |
JP2020039082A (ja) * | 2018-09-05 | 2020-03-12 | セイコーエプソン株式会社 | 表示装置、表示システムおよび表示装置の制御方法 |
CN110362262B (zh) | 2019-06-14 | 2022-09-06 | 明基智能科技(上海)有限公司 | 显示系统及其画面操作方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004513416A (ja) * | 2000-09-07 | 2004-04-30 | カネスタ インコーポレイテッド | ユーザオブジェクトと仮想転送装置との相互作用を検出しそして位置決めする擬似三次元方法及び装置 |
JP2011253255A (ja) * | 2010-05-31 | 2011-12-15 | Canon Inc | 情報処理装置およびその動作方法 |
JP2012150635A (ja) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | 位置検出システム、表示システム及び情報処理システム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6710770B2 (en) * | 2000-02-11 | 2004-03-23 | Canesta, Inc. | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device |
JP2003099194A (ja) | 2001-09-21 | 2003-04-04 | Ricoh Co Ltd | ポインティング位置検出方法、ポインティング位置検出装置およびポインティング装置 |
US20030234346A1 (en) * | 2002-06-21 | 2003-12-25 | Chi-Lei Kao | Touch panel apparatus with optical detection for location |
JP2011043986A (ja) * | 2009-08-21 | 2011-03-03 | Seiko Epson Corp | 光学式情報入力装置、光学式入力機能付き電子機器、および光学式情報入力方法 |
JP5593802B2 (ja) | 2010-04-16 | 2014-09-24 | セイコーエプソン株式会社 | 位置検出システム及びその制御方法、並びにプログラム |
GB2487043B (en) * | 2010-12-14 | 2013-08-14 | Epson Norway Res And Dev As | Camera-based multi-touch interaction and illumination system and method |
JP2012208926A (ja) | 2011-03-15 | 2012-10-25 | Nikon Corp | 検出装置、入力装置、プロジェクタ、及び電子機器 |
-
2014
- 2014-03-25 JP JP2014062267A patent/JP6387644B2/ja not_active Expired - Fee Related
-
2015
- 2015-01-16 TW TW104101572A patent/TW201535162A/zh unknown
- 2015-01-20 CN CN201580003532.3A patent/CN105874414B/zh active Active
- 2015-01-20 KR KR1020167022516A patent/KR101811794B1/ko active IP Right Grant
- 2015-01-20 WO PCT/JP2015/000238 patent/WO2015111402A1/ja active Application Filing
- 2015-01-20 US US15/110,297 patent/US10429994B2/en active Active
- 2015-01-20 EP EP15740024.3A patent/EP3098697A4/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004513416A (ja) * | 2000-09-07 | 2004-04-30 | カネスタ インコーポレイテッド | ユーザオブジェクトと仮想転送装置との相互作用を検出しそして位置決めする擬似三次元方法及び装置 |
JP2011253255A (ja) * | 2010-05-31 | 2011-12-15 | Canon Inc | 情報処理装置およびその動作方法 |
JP2012150635A (ja) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | 位置検出システム、表示システム及び情報処理システム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017138775A (ja) * | 2016-02-03 | 2017-08-10 | セイコーエプソン株式会社 | 位置検出装置、位置検出システム、及び、位置検出方法 |
CN107037893A (zh) * | 2016-02-03 | 2017-08-11 | 精工爱普生株式会社 | 位置检测装置、位置检测系统以及位置检测方法 |
TWI635324B (zh) * | 2016-05-24 | 2018-09-11 | 仁寶電腦工業股份有限公司 | 投影裝置 |
JP2020134856A (ja) * | 2019-02-25 | 2020-08-31 | セイコーエプソン株式会社 | プロジェクター、画像表示システム及び画像表示システムの制御方法 |
US11061512B2 (en) | 2019-02-25 | 2021-07-13 | Seiko Epson Corporation | Projector, image display system, and method for controlling image display system |
JP7188176B2 (ja) | 2019-02-25 | 2022-12-13 | セイコーエプソン株式会社 | プロジェクター、画像表示システム及び画像表示システムの制御方法 |
WO2022163835A1 (ja) * | 2021-01-29 | 2022-08-04 | パナソニックIpマネジメント株式会社 | 投写制御方法、および、投写制御装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3098697A4 (en) | 2017-09-20 |
CN105874414B (zh) | 2019-01-01 |
US10429994B2 (en) | 2019-10-01 |
KR20160111454A (ko) | 2016-09-26 |
WO2015111402A1 (ja) | 2015-07-30 |
EP3098697A1 (en) | 2016-11-30 |
TW201535162A (zh) | 2015-09-16 |
KR101811794B1 (ko) | 2017-12-22 |
JP6387644B2 (ja) | 2018-09-12 |
US20160328089A1 (en) | 2016-11-10 |
CN105874414A (zh) | 2016-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6387644B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出方法 | |
US10114475B2 (en) | Position detection system and control method of position detection system | |
JP6349838B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
JP6326895B2 (ja) | 位置検出装置、位置検出システム、及び、位置検出装置の制御方法 | |
US9992466B2 (en) | Projector with calibration using a plurality of images | |
JP6375660B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6562124B2 (ja) | 位置検出システム、及び、位置検出システムの制御方法 | |
CN104898894B (zh) | 位置检测装置以及位置检测方法 | |
JP6569259B2 (ja) | 位置検出装置、表示装置、位置検出方法、及び、表示方法 | |
JP6291912B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6291911B2 (ja) | 位置検出装置、及び、位置検出方法 | |
JP6340860B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 | |
JP6337558B2 (ja) | 位置検出装置、プロジェクター、位置検出システム、及び、位置検出装置の制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170322 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180717 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180730 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6387644 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |