JP4820285B2 - 自動位置合わせタッチシステムおよび方法 - Google Patents

自動位置合わせタッチシステムおよび方法 Download PDF

Info

Publication number
JP4820285B2
JP4820285B2 JP2006504099A JP2006504099A JP4820285B2 JP 4820285 B2 JP4820285 B2 JP 4820285B2 JP 2006504099 A JP2006504099 A JP 2006504099A JP 2006504099 A JP2006504099 A JP 2006504099A JP 4820285 B2 JP4820285 B2 JP 4820285B2
Authority
JP
Japan
Prior art keywords
touch
image
pointer
coordinate system
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006504099A
Other languages
English (en)
Other versions
JP2006522967A (ja
Inventor
ジェラルド ディー. モリソン、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart Technologies ULC
Original Assignee
Smart Technologies ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart Technologies ULC filed Critical Smart Technologies ULC
Publication of JP2006522967A publication Critical patent/JP2006522967A/ja
Application granted granted Critical
Publication of JP4820285B2 publication Critical patent/JP4820285B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は概してタッチシステムに関し、特に自動位置合わせ(auto−aligning)タッチシステムと、タッチシステムを自動的に位置合わせ(align)する方法に関する。
タッチシステムは当該技術でよく知られており、通常、ポインタを用いて接触がなされるタッチ表面を有するタッチスクリーンを含んでいる。タッチ表面とのポインタの接触は検出されて、タッチスクリーンの、ポンインタとの接触がなされた領域を表す対応出力ポンタ位置を生成するのに使用される。使用できるタッチシステムには基本的には2つ一般的な種類があり、それらは「アクティブ」タッチシステムと「パッシブ」タッチシステムに広く分類される。
アクティブタッチシステムは、ユーザが、搭載型電源、一般にはバッテリの形態を通常必要とする特殊なポインタでタッチ表面を接触させることによってポインタ位置データを生成するのを可能にする。特殊なポインタは、タッチ表面を起動する、赤外線光、可視光、超音波周波数、電磁周波数などの信号を発射する。
パッシブタッチシステムは、ユーザが、パッシブポインタでタッチ表面を接触させてポインタ位置データを生成するのを可能にし、タッチ表面を起動するために特殊なポインタを使用する必要はない。パッシブポインタは、タッチ表面上の興味のある所定の領域に接触させることができる指、ある種の材料できたシリンダ、あるいは他の適宜な物体であってよい。パッシブタッチシステムでは特殊なアクチィブなポインタは必要ないので、バッテリの電源レベルおよび/またはポインタの損傷、盗みまたはポインタの位置ずれはユーザにとって問題ではない。
2001年7月5日に出願され、公開番号WO02/03316で2002年1月10日に公開され、本発明の譲受人に譲渡された国際PCT出願PCT/CA01/00980は、コンピュータで生成された画像が提示されるタッチ表面を含むタッチスクリーンを有する、カメラベースのタッチシステムを開示している。矩形のベゼル(bezel)すなわちフレームがタッチ表面を囲み、デジタルカメラをその隅において支持する。デジタルカメラは、タッチ表面を囲み、タッチ表面に沿って見る、重なった視野を有している。デジタルカメラは異なった場所から画像を取り込み、画像データを生成する。デジタルカメラによって取得された画像データはデジタルシグナルプロセッサによって処理されて、取得された画像データにポインタが存在するかどうか判定される。取得された画像データにポインタが存在すると判定されると、デジタルシグナルプロセッサはポインタ特徴データをマスタコントローラに伝え、マスタコントローラは、ポインタ特徴データを処理し、ポインタのタッチ表面に対する位置を、三角測量術(triangulation)を用いて求める。ポインタ位置データは、1つまたは複数のアプリケーションプログラムを実行するコンピュータに送られる。コンピュータは、ポインタ位置データを用いて、タッチ表面上に提示されたコンピュータ生成画像を更新する。したがって、ポインタのタッチ表面への接触は、文書(writing)または線図(drawing)として記録し、またはコンピュータによって実行されるアプリケーションプログラムの実行を制御するために使用される。
このパッシブのカメラベースのタッチシステムおよび事実すべてのタッチシステムにおいて、タッチ表面に表示される画像を生成する機構はタッチ能力を有する機構と異なり別個である。タッチシステムが所望の高解像度を維持するためには、タッチシステムの座標系は画像生成器の座標系に正確にマッピング(mapping)されなければならない。座標系のこの作成は通常、位置合わせ(alignment)手続きを必要とする人手の介入によって行われる。
例えば、本発明の被譲渡人であるSMART Technologiesに与えられた米国特許5,448,263は、タッチスクリーンの座標系がコンピュータディスプレイの座標系にマッピングされるのを可能にする位置合わせルーチンを実行するコンピュータに接続されているパッシブタッチシステムを開示している。位置合わせルーチンの間、既知のコンピュータディスプレイ座標にある複数の基準マークがタッチスクリーンのタッチ表面上に表示され、ユーザにポインタを用いて、基準マークに触れるように促す。ポインタの接触に応答して、タッチスクリーンは、ポインタ接触がなされたタッチ表面上の特定の場所を表すポインタ位置データを出力する。タッチスクリーンによって出力されたポインタ位置データはコンピュータに伝えられる。基準マークのディスプレイ座標は既知であるので、コンピュータは、タッチスクリーンによって出力されたポインタ位置データを用いてコンピュータディスプレイ座標系をタッチスクリーン座標系にマッピングすることができる。
この位置合わせルーチンはコンピュータディスプレイ座標系をタッチスクリーン座標系にマッピングするのを可能にするが、そのような位置合わせルーチンを実行することは不便であり、特に、コンピュータで生成された画像をタッチ表面上に投射するのにスタンドアロンプロジェクタが用いられるタッチシステムにおいて厄介であることがある。そのようなタッチシステムでは、プロジェクタとタッチスクリーンが互いに僅かに位置ずれを起こすと、ユーザは、コンピュータディスプレイ座標系をタッチスクリーン座標系に再度マッピングするために、それらがしていることを中断し、位置合わせルーチンを実行しなければならない。理解されるように、コンピュータディスプレイ座標系をタッチスクリーン座標系にアラインすることに対処する、タッチシステムの改良が望まれている。
本発明の目的は、新規な自動位置合わせタッチシステムとタッチシステムを自動的に位置合わせする方法を提供することにある。
本発明の一態様によれば、画像が表示されるタッチ表面を備えたタッチスクリーンを有するタッチシステムにおいて、タッチスクリーン座標系をディスプレイ座標系に自動的にマッピングする方法であって、
前記ディスプレイ座標系での位置がコンピュータによって既知で、固有のコンピュータオペレーティングシステム表示要素である少なくとも1つの基準マークを前記表示された画像中に含めるステップと、
前記表示された画像を含む、前記タッチ表面の画像を取得するステップと、
前記取得された画像を基準マークライブラリーに格納された基準マークと比較することによって、前記取得された画像中の前記の少なくとも1つの基準マークを認識するステップと、
前記取得された画像中の前記の認識された少なくとも1つの基準マークの前記タッチスクリーン座標系に対する位置を求めるステップと、
前記求められた位置と、前記少なくとも1つの基準マークの、前記ディスプレイ座標系での位置を用いて前記タッチスクリーン座標系を前記ディスプレイ座標系に自動的にマッピングするステップと
を有する、タッチスクリーン座標系をディスプレイ座標系に自動的にマッピングする方法が提供される。
好ましい実施態様では、固有のコンピュータオペレーティングシステム表示要素が、アイコンやツールバー部分などであり、好ましい実施態様では、前記表示された画像が、前記ディスプレイ座標系での位置が既知の複数の基準マークを含むことも望ましい。
本発明の他の態様によれば、タッチシステムであって、
画像が表示されるタッチ表面を有するタッチスクリーンと、
前記の表示された画像を含む、前記タッチ表面の画像を取得する少なくとも1つのカメラと、
ポインタの前記タッチ表面との接触に応答して、ポインタの接触がなされた前記タッチ表面上の前記ポインタの位置を表すポインタ位置データを生成するポインタ接触データ生成器と、
前記の少なくとも1つのカメラと前記ポインタ接触データ生成器と通信するプロセッサであって、前記表示された画像中の、固有のコンピュータオペレーティングシステム表示要素である基準マークを用いて、前記タッチシステムの座標系を自動的に校正し、校正されたポインタ位置データを用いて前記タッチ表面上に表示された画像を提示するのに使われる画像データを更新するプロセッサと、
を有し、
前記プロセッサは、三角測量術を用いて前記基準マークの位置を計算して前記タッチスクリーン座標系における前記基準マークの位置を求め、該計算された位置を用いて前記タッチスクリーン座標系をディスプレイ座標系にマッピングし、前記マッピングが、前記画像データを更新する前に前記ポインタ位置データを校正するのに用いられる、
タッチシステムが提供される。
本発明は、表示された画像中の既知の点と、タッチスクリーンの既知の座標系の間のずれを、取得された画像データから求めることができるので、画像座標系をタッチスクリーン座標系に、ユーザの介入なしに、リアルタイムに自動的にマッピングすることができるという利点がある。
次に、本発明の実施形態を、添付図面を参照して詳細に説明する。
本発明は概して、少なくとも1つの既知の基準マークを有する画像が提示されるタッチ表面の取得された画像を用いて、タッチスクリーン座標系をディスプレイ座標系にマッピングすることでタッチスクリーンを自動的に校正するタッチシステムおよび方法に関する。その結果、タッチシステムを、ポインタがタッチスクリーンのタッチ表面に接触したときにリアルタイムに校正することができ、したがって高解像度を維持し、人手による介入を必要とする位置合わせルーチンを実行する必要性を回避することができる。本発明は基本的に、例えば、電子ホワイトボード、タッチ液晶表示(LCD)パネル、パーソナルディジタルアシスタント(PDA)、および携帯タッチシステムなどのタッチ表面に表示画像を位置合わせする必要がある用途において用いられるのに適している。本発明の好ましい実施形態を以下に説明する。
図1および図2を参照すると、本発明によるカメラベースタッチシステムが図示され、全体が参照番号50を付けられている。図からわかるように、タッチシステム50は、コンピュータで生成された画像が提示されるタッチ表面60を有するタッチスクリーンを含んでいる。タッチ表面60は本実施形態では縁62によって区画された平坦な矩形のシート材料である。ポインタアレイ64がタッチ表面60の底縁に沿って設けられ、タッチ表面60に接触するのに用いられるポインタを保持している。一対のカメラ66がタッチ表面60に付属している。カメラ66はこの特定の実施形態ではタッチ表面60の上側の対向する、隣り合った隅に位置しており、それらの視野が概ねタッチ表面60の平面に沿うように向きが定められている。カメラ66は、タッチ表面60全体を囲む、破線68で示された、重なる視野(FOV)を有している。
カメラ66は、2次元のCMOSイメージセンサと、これに付属するレンズアセンブリを含むのが好ましい。このCMOSイメージセンサは、任意のピクセル列を選択できるので、画像フレームを高いフレームレート(すなわち、200フレーム/秒を超える)で取得するように動作することができる20×640のピクセルサブアレイ用に構成されている。
カメラ66は、その視野内のタッチ表面60の画像を取得し、この取得された画像を処理し、ポインタがこの取得された画像内にあるかどうか判定する。ポインタが取得された画像内にあると、この画像データはさらに処理され、ポインタの特性がタッチ表面60に接触するか、タッチ表面の上方にあるかを判定する。次に、ポインタの特性、状態、および/または診断情報を含むポインタ情報パケット(PIP)がカメラ66によって生成され、マスタコントローラ54に基づくデジタルシグナルプロセッサ(DSP)に生の画像データと一緒に送られる。その目的はここで説明する。マスタコントローラ54はカメラ66によって生成されたPIPを処理して、ポインタのタッチ表面60に対する位置を、三角測量術を用いて求め、対応するポインタ位置データを生成する。
マスタコントローラ54は生成されたポインタ位置データをコンピュータ56に出力する。コンピュータ56は1つまたは2つ以上のアプリケーションプログラムを実行し、プロジェクタ58によって用いられるコンピュータ生成画像を出力し、コンピュータ生成画像をタッチ表面上に表示する。タッチスクリーン52、マスタコントローラ56、およびプロジェクタ58は、タッチ表面60へのポインタの接触が、文書または線図として記録され、またはコンピュータ56によって実行されるアプリケーションの実行を制御するのに用いることができるようにクローズドループを形成する。コンピュータ56によって出力されたコンピュータ生成画像データはまたポインタの動作を反映するように更新される。
画像データをカメラ66によって取得し、カメラ、マスタコントローラ54、コンピュータ56によって処理する方法の詳細は2001年7月5日に出願され、2002年1月10日に公開番号WO02/03316で公開され、SMART Technologie社に譲渡された国際PCT出願PCT/CA01/00980に記載され、その内容は引用文献としてここに含まれる。したがって、そのような詳細はここでは詳しくは説明しない。
タッチシステム50を校正するために、タッチシステム50は、画像がカメラ66によって取得され、処理されるとき、コンピュータディスプレイ座標系をタッチスクリーン座標系にマッピングする自動校正処理を実行する。自動校正処理は、コンピュータディスプレイ座標系が既知であること、そしてタッチステム50を校正するためには、求められた基準マーク位置が既知のコンピュータディスプレイ座標系上にマッピングできるように、タッチスクリーン50上の基準マークの位置を求めることだけが必要であるという原理に基づいている。
図2はタッチスクリーン52のタッチ表面60に表示されたコンピュータ生成画像70を示している。図からわかるように、コンピュータ生成画像70は、コンピュータディスプレイ座標系をタッチスクリーン座標系にマッピングするのに使われる複数の基準マーク72を含んでいる。この特定の実施形態では、基準マーク72はコンピュータ生成画像70の頂辺および底辺の右側の隅に提示された十字記号と、コンピュータ生成画像70頂辺および底辺の左側の隅に提示されたコンピュータオペレーティングシステムディスプレイ要素を含んでいる。この例では、コンピュータオペレーティングシステムディスプレイ要素はウインドウス(商標)のツールバーの一部、すなわちスタートボタン、マイコンピュータアイコンを含んでいる。十字記号はコンピュータ56によって実行されるソフトウェアによって生成され、コンピュータ生成画像データに挿入される。
コンピュータ生成画像中の基準マークを認識するために、コンピュータ56は、基準マークの考えられる変位や回転の原因となるように拡張できるパターンライブラリ、すなわち基準マーク画像のデータベースを格納する。基準マーク画像は、高速アクセスおよび処理を可能にするためにウエイブレット(wavelet)圧縮を用いて格納される。パターンライブラリのためのウエイブレット画像圧縮格納と検索は従来公知であり、James S.Walter著「A Primer on Wavelets and their Scientific Applications」Chapma & Hall/CR発行、1999年、89−92頁に記載されている。
前述したように、タッチ表面60の画像とコンピュータ生成画像70はカメラ66によって取得されるので、カメラは画像データを処理してポインタがその中に存在するかどうか判定する。ポインタが画像データに存在すると、ポインタ特徴データがカメラ66によって生成され、生の画像データとともにマスタコントローラ54に送られる。マスタコントローラ54はポインタ特徴データを処理してポインタのタッチスクリーン座標系に対する位置を求め、ポインタ位置データを生の画像データと共にコンピュータ56に出力する。
生の画像データに応答して、コンピュータ56は自動位置合わせを実行する。この処理の間、コンピュータ56はパターンライブラリにアクセスし、取得画像中の基準マーク72を認識するためにパターン認識を用いて生の画像データを格納されている基準マーク画像と比較する。基準マークが一旦認識されると、コンピュータ56は三角測量術を用いてタッチスクリーン52上の基準マーク72の位置を計算し、これによってタッチスクリーン座標系における基準マーク72の位置を求めることが可能になる。コンピュータディスプレイ座標系における基準マーク72の位置はわかっているので、タッチスクリーン座標系における基準マーク72の計算された位置を既知のコンピュータディスプレイ座標系にマッピングすることができる。
参照を容易にするために次の例を考える。基準マークがコンピュータディスプレイ座標系における位置Xcdcs、Ycdscsに中心合わせされていることがわかっている。基準マークが表示され、カメラ60によって取得された画像中に取り込まれると、タッチスクリーン60上のその位置は位置Xts、Ytsにあると計算される。したがって、ポインタがタッチスクリーン52に位置Xts、Ytsで接すると、ポインタが接触した位置はコンピュータディスプレイ座標系における位置Xcdcs、Ycdscsに対応する。
この自動位置合わせ処理をいくつかの基準マーク52について行うことによって、タッチスクリーン52全体をコンピュータディスプレイ座標系に正確にマッピングすることができる。
コンピュータディスプレイ座標系における基準マーク72の既知の座標と、基準マーク72の計算されたタッチスクリーン座標を用いて、コンピュータ56はタッチスクリーン座標系をコンピュータディスプレイ座標系に自動的にマッピングする。タッチスクリーン座標系がコンピュータディスプレイ座標系にマッピングされているため、マスタコントローラ54によってコンピュータ56に送られたポインタ位置データはリアルタイムに校正される。前述したように、校正されたポインタ位置データは文書または線図として記録され、またはコンピュータ56によって実行されるアプリケーションプログラムの実行を制御するのに使うことができる。
取得された画像中の基準マーク72のタッチスクリーン座標系に対する位置を求めるために三角測量術を用いてカメラ画像データを処理するものとしてタッチシステム50を記述したが、当業者は、取得された画像中の基準マーク72の位置を求める他の方法を用いてもよいことを理解するであろう。例えば、ステレオロジー(stereology)は画像表面中の距離を測定するのに使用される一般に知られた画像処理技術であり、取得画像中の基準マーク72のタッチスクリーン座標系に対する位置を求めるために本タッチシステムで用いてもよい。
理解されるように、画像がカメラ66によって取得されると、タッチスクリーン座標系とコンピュータディスプレイ座標系はタッチ表面60上に提示された画像に含まれる複数の基準マーク72に基づいて自動的にマッピングされる。これはタッチシステムのリアルタイムの自動校正を可能にし、手動校正の要求とは際立っている。
次に、図3から5を参照すると、本発明によるタッチシステムの他の実施形態が図示され、全体が参照番号150を付けられている。この実施形態では、類似の参照番号が簡単のために「100」を加えて類似の部品を示すために用いられている。カメラベースタッチシステム150は、本発明の譲受人であるSMART Technologies社に譲渡された先に触れた国際PCT出願WO02/03316に開示されたものと非常に類似している。
図からわかるように、タッチシステム150は、DSPベースのマスタコントローラ154に接続されたタッチスクリーン152を含んでいる。マスタコントローラ154はまたコンピュータ156に接続されている。コンピュータ156は1つまたは2つ以上のアプリケーションプログラムを実行し、コンピュータ生成画像をプロジェクタ158に出力する。プロジェクタ158はタッチスクリーン152の表面160上にコンピュータ生成画像を提示する。タッチスクリーン152、マスタコントローラ154、コンピュータ156、およびプロジェクタ158は、ポインタのタッチスクリーン152上への接触を文書または線図として記録したり、あるいはコンピュータ156によって実行されるアプリケーションプログラムに実行を制御するために使うことができるようにクローズドループを構成している。
前述の実施形態と異なり、タッチ表面160は、2003年1月30に出願され、本発明の譲受人であるSMART Technologies社に譲渡された米国特許出願(番号は入手不能)に開示されたようなベゼル、すなわちフレーム162によって仕切られている。DSPベースのカメラ166がベゼル162の各コーナに設けられている。各デジタルカメラ166は、その視野がタッチ面160全体を囲み、かつ概ねタッチ面160全体を見渡すように取り付けられている。
高解像度カメラ170がプロジェクタ158の上方でタッチ面160の前に位置し、タッチ表面160とベゼル162の両方を含むタッチスクリーン152の画像を取得する。カメラ170によって取得された画像データはコンピュータ156に送られ、タッチスクリーン座標系をコンピュータディスプレイ座標系に自動的にマッピングし、それによって、ここにさらに記載するようにタッチシステム152を校正するのに使われる。
ポインタが取得された画像中に存在するかどうか判定するためにデジタルカメラ166による画像の取得に関するタッチシステム150の動作に関して、タッチシステム150の動作は国際PCT出願WO02/03316に記載されたものと同じであり、したがってここでは詳しくは説明しない。
タッチスクリーン座標系とコンピュータディスプレイ座標系を、第1の実施形態におけるような三角測量術を用いてタッチ表面上の基準マークの位置を計算するために生のカメラ画像データを用いないで整列することについて、この実施形態では、ベゼル162の対向する辺の、生のカメラピクセルにおける距離が測定され、それから物理距離に変換される。ベゼルはタッチシステム150の一部であるので、ベゼルのタッチスクリーン座標系における座標はわかっている。このことは、表示されたマークとベゼル162の間の距離を生のカメラピクセルで測定するのを可能にする。したがって、ポインタがタッチ表面160に近づき、デジタルカメラ166によって取得された画像中に取り込まれと、タッチスクリーン座標とポインタ座標はわかっているので、ポインタの位置とベゼル162の間の距離をコンピュータ156によって直ちに計算することができる。タッチ表面160上の表示されたマークとベゼル162の間のずれを、この情報を用いて、生のカメラピクセルと物理距離の間の求められた関係により計算することができる。
例えば、カメラ170がタッチスクリーンの画像を取得し、画像データをコンピュータ156に送ると、コンピュータは、ベゼルの下左側の隅がピクセルX1lb、Y1lbにあり、ベゼルの下右側の隅がピクセルX2rb、Y2rbにあると判定する。ベゼルの隅同士間の距離は50インチ(127センチメータ)であるとわかっている。カメラ170はまた、ピクセルX3ts、Y3ts上に中心合わせされた、表示されたマークを見る。コンピュータ156はピクセルX1lb、Y1lbとX2rb、Y2rbに対するタッチスクリーン座標を、それらがベゼルの位置であるのでわかっている。その結果、コンピュータ156は、ベゼルの隅の位置の生カメラピクセル座標をベゼルの隅の位置のタッチスクリーン座標にマッピングすることによって、表示されたマークのタッチスクリーン座標を計算することができる。次に、表示されたマークのタッチスクリーン座標を計算することができる。
低解像度カメラ170を用いる場合、タッチスクリーンの一部を見、ベゼル162と表示されたマークの間のずれを測定するのを可能にするためにズームレンズを用いることができる。あるいは、距離を測定するたに一対のカメラとステレオロジー
技術を用いることができる。
次に、図6と図7を参照すると、本発明によるタッチシステムのさらに他の実施形態が図示され、全体に参照番号250を付けられている。この特定の例におけるタッチシステム250は、本発明の譲受人であるSMART Technologies社に譲渡された、Martinに付与された米国特許5,448,263に示されているものと類似している。タッチシステム250はディスプレイ表面の上方に配置されたアクティブオーバレイ(overlay)を含んでいる。この場合のアクティブオーバレイは、コンピュータ生成画像が提示され、ベゼル262によって縁を付けられたタッチ表面260を有するアナログ抵抗性タッチ感応スクリーン252である。ポインタトレイ264がタッチ表面の底縁に沿って設けられ、タッチ表面160に接触するのに使われるポインタを収容する。
タッチ表面260へのポインタ接触がなされると、タッチセンシティブスクリーン252は、ポンインタ接触がなされた、タッチ表面上の場所を示すポインタ位置データ出力を生成する。タッチセンシティブスクリーン252によって出力されたポインタ位置データはコンピュータ256に送られる。コンピュータ256は、1つまたは2つ以上のアプリケーションプログラムを実行し、プロジェクタ258によってコンピュータ生成画像をタッチ表面260に提示するのに使われるコンピュータ生成画像データを出力する。先の実施形態と同様に、タッチ表面に表示されたコンピュータ生成画像270は、図に示される基準マーク272を含んでいる。タッチスクリーン252とコンピュータ256とプロジェクタ258は、タッチ表面260へのポインタ接触が文書または線図として記録され、あるいはコンピュータ256によって実行されるアプリケーションプログラムの実行を制御するのに使われるようにクローズドループを構成している。コンピュータ256によって出力されたコンピュータ生成画像データ出力はポインタ動作を反映するように更新もされる。
高解像度カメラ266がプロジェクタ258の上方でタッチ表面260の前に位置し、タッチ表面260とベゼル262の両方を含むタッチスクリーン252の画像を取得する。カメラ266によって取得された画像データはコンピュータ256に送られ、タッチ表面252の座標系をコンピュータ座標系に自動的にマッピングし、それによってタッチシステム250を校正するのに使われる。
校正の間、コンピュータ256が、タッチ表面260へのポインタ接触に応答してタッチスクリーン252によって出力されたポインタ位置データ出力を入力すると、コンピュータ256はカメラ266から画像を取得する。第1の実施形態の場合と同じように、コンピュータ256は取得されたカメラ画像をパターンライブラリ中の基準マーク画像と比較し、取得されたカメラ画像中の基準マークの位置を見つける。コンピュータ256は次に基準マーク272とベゼル262間の距離を前述したように計算する。
基準マークのコンピュータディスプレイ座標系における座標がわかり、基準マーク272のベゼル262に対する、したがって既知のタッチスクリーン座標系に対するずれが計算されたので、コンピュータ256はタッチスクリーン座標系をコンピュータディスプレイ座標系に自動的にマッピングする。タッチスクリーン座標系がコンピュータディスプレイ座標系にマッピングされると、タッチスクリーン252によってコンピュータ256に送られたポインタ位置データは処理される前に校正され、コンピュータ生成画像データを更新するのに使われる。
タッチシステム250はフロントプロジェクションシステムとして図示されているが、当業者はタッチシステムがリアプロジェクションタイプであってもよいことを理解するであろう。タッチシステムがフロントプロジェクションタイプまたはリアプロジェクションタイプであるとは無関係に、コンピュータ生成画像は直接または1つまたは2つ以上のミラーを介して間接的にタッチ表面に投影されてもよい。
解像度を上げるために、ズームレンズまたはテレフォトレンズをカメラ266とともに用いて取得された画像の詳細度を高めるようにしてもよく、それによって基準マーク272とベゼル262の間のずれをより正確に計算できる。これは勿論、タッチスクリーン座標系をコンピュータディスプレイ座標系にマッピングする際により高い解像度をもたらす。
コンピュータ生成画像中に表示された基準マークはコンピュータ生成画像の4つの隅に位置しているが、当業者は、基準マークがコンピュータ生成画像内の他の位置に位置していてもよいことを理解するであろう。より多いまたはより少ないマークを用いてもよい。さらに、基準マークはソフトウェアで生成された基準マークと元々あるコンピュータオペレーティングシステムディスプレイ要素の両方を含むものとして示したが、どのタイプの基準マークも適している。
当業者によって理解されるように、ポインタ位置データおよび/または画像データの処理を、タッチスクリーンに接続されたスタンドアロンコンピュータまたはタッチスクリーンに組み込まれた処理ユニットによって行ってもよい。
本発明の好ましい実施形態を説明したが、当業者は、添付の特許請求の範囲によって定められた本発明の要旨および範囲を逸脱することなく種々の変更および変形がなされてもよいことを理解するであろう。
本発明によるカメラベースタッチシステムの側面図である。 図1のカメラベースタッチシステムの一部を構成するタッチシステムの正面図である。 本発明によるカメラベースタッチシステムの他の実施形態の概略図である。 図3のカメラベースタッチシステムの一部を構成するタッチスクリーンの斜視図である。 図3のカメラベースタッチシステムの側面図である。 本発明によるカメラベースタッチシステムのさらに他の実施形態の側面図である。 図6のカメラベースタッチシステムの一部を構成するタッチスクリーンの正面図である。

Claims (14)

  1. 画像が表示されるタッチ表面を備えたタッチスクリーンを有するタッチシステムにおいて、タッチスクリーン座標系をディスプレイ座標系に自動的にマッピングする方法であって、
    前記ディスプレイ座標系での位置がコンピュータによって既知で、固有のコンピュータオペレーティングシステム表示要素である少なくとも1つの基準マークを前記表示された画像中に含めるステップと、
    前記表示された画像を含む、前記タッチ表面の画像を取得するステップと、
    前記取得された画像を基準マークライブラリーに格納された基準マークと比較することによって、前記取得された画像中の前記の少なくとも1つの基準マークを認識するステップと、
    前記取得された画像中の前記の認識された少なくとも1つの基準マークの前記タッチスクリーン座標系に対する位置を求めるステップと、
    前記求められた位置と、前記少なくとも1つの基準マークの、前記ディスプレイ座標系での位置を用いて前記タッチスクリーン座標系を前記ディスプレイ座標系に自動的にマッピングするステップと
    を有する、タッチスクリーン座標系をディスプレイ座標系に自動的にマッピングする方法。
  2. 前記固有のコンピュータオペレーティングシステム表示要素がアイコンまたはツールバー部分である、請求項1に記載の方法。
  3. 前記表示された画像が、前記ディスプレイ座標系での位置が既知の複数の基準マークを含む、請求項1に記載の方法。
  4. 複数の基準マークが前記表示された画像の各隅に隣接して含まれている、請求項に記載の方法。
  5. 前記基準マークの、前記タッチスクリーン座標系における位置が三角測量術によって求められる、請求項に記載の方法。
  6. 前記少なくとも1つの基準マークの、前記タッチスクリーン座標系における位置が三角測量術によって求められる、請求項1に記載の方法。
  7. 前記基準マークの前記タッチスクリーン座標系での位置が、前記タッチスクリーンの既知の縁と前記基準マークの間の、生のカメラピクセルでの距離を計算することによって求められる、請求項に記載の方法。
  8. 前記表示された画像を前記タッチ表面上に提示するのに用いられた画像データを、前記マッピングを用いて校正されたポインタ接触データを用いて更新することをさらに有する、請求項1記載の方法。
  9. タッチシステムであって、
    画像が表示されるタッチ表面を有するタッチスクリーンと、
    前記の表示された画像を含む、前記タッチ表面の画像を取得する少なくとも1つのカメラと、
    ポインタの前記タッチ表面との接触に応答して、ポインタの接触がなされた前記タッチ表面上の前記ポインタの位置を表すポインタ位置データを生成するポインタ接触データ生成器と、
    前記の少なくとも1つのカメラと前記ポインタ接触データ生成器と通信するプロセッサであって、前記表示された画像中の、固有のコンピュータオペレーティングシステム表示要素である基準マークを用いて、前記タッチシステムの座標系を自動的に校正し、校正されたポインタ位置データを用いて、前記タッチ表面上に表示された画像を提示するのに使われる画像データを更新するプロセッサと、
    を有し、
    前記プロセッサは、三角測量術を用いて前記基準マークの位置を計算して前記タッチスクリーン座標系における前記基準マークの位置を求め、該計算された位置を用いて前記タッチスクリーン座標系をディスプレイ座標系にマッピングし、前記マッピングが、前記画像データを更新する前に前記ポインタ位置データを校正するのに用いられる、
    タッチシステム。
  10. 前記タッチ表面と前記ポインタ接触データ生成器が、前記タッチ表面へのポインタの接触に応答してポインタ位置データを生成するアクティブタッチセンシティブスクリーンの一部を構成する、請求項に記載のタッチシステム。
  11. 前記プロセッサから前記画像データを受け取り、前記画像を前記タッチ表面に投射するプロジェクタをさらに有する、請求項10に記載のタッチシステム。
  12. 前記少なくとも1つのカメラが前記プロジェクタに隣接して位置している、請求項11に記載のタッチシステム。
  13. 前記タッチ表面を囲む、重なる視野を有する少なくとも1対のカメラを含み、前記少なくとも1対のカメラは異なった場所から前記タッチ表面の画像を取得して画像データを生成し、前記ポインタ接触生成器は前記1対のカメラによって生成された画像データを処理して、前記ポインタが前記少なくとも1対のカメラによって取得画像中で取得されたとき前記ポインタの前記タッチ表面に対する位置を求め、前記ポインタ位置データを生成する、請求項に記載のタッチシステム。
  14. 固有のコンピュータオペレーティングシステム表示要素はアイコンまたはツールバーの一部である、請求項13に記載のタッチシステム。
JP2006504099A 2003-04-08 2004-04-06 自動位置合わせタッチシステムおよび方法 Expired - Fee Related JP4820285B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/408,785 US7256772B2 (en) 2003-04-08 2003-04-08 Auto-aligning touch system and method
US10/408,785 2003-04-08
PCT/CA2004/000519 WO2004090706A2 (en) 2003-04-08 2004-04-06 Auto-aligning touch system and method

Publications (2)

Publication Number Publication Date
JP2006522967A JP2006522967A (ja) 2006-10-05
JP4820285B2 true JP4820285B2 (ja) 2011-11-24

Family

ID=33130523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006504099A Expired - Fee Related JP4820285B2 (ja) 2003-04-08 2004-04-06 自動位置合わせタッチシステムおよび方法

Country Status (7)

Country Link
US (1) US7256772B2 (ja)
EP (2) EP1611503B1 (ja)
JP (1) JP4820285B2 (ja)
CN (2) CN100465865C (ja)
CA (1) CA2521418C (ja)
ES (1) ES2392228T3 (ja)
WO (1) WO2004090706A2 (ja)

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
JP2004094653A (ja) * 2002-08-30 2004-03-25 Nara Institute Of Science & Technology 情報入力システム
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US8508508B2 (en) * 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
CN100458670C (zh) * 2003-05-19 2009-02-04 株式会社伊特 使用了区域图像传感器的位置检测装置
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US20050156901A1 (en) * 2004-01-20 2005-07-21 Guolin Ma Touch screen display system
US20050168448A1 (en) * 2004-01-30 2005-08-04 Simpson Zachary B. Interactive touch-screen using infrared illuminators
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7538759B2 (en) * 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US20060202974A1 (en) * 2005-03-10 2006-09-14 Jeffrey Thielman Surface
CN100356305C (zh) * 2005-04-12 2007-12-19 南京Lg新港显示有限公司 图像设备的触摸笔实现装置及其控制方法
US20070115397A1 (en) * 2005-06-24 2007-05-24 Fakespace Labs, Inc. Projection display with internal calibration bezel for video
US20070064004A1 (en) * 2005-09-21 2007-03-22 Hewlett-Packard Development Company, L.P. Moving a graphic element
KR100800998B1 (ko) 2005-12-24 2008-02-11 삼성전자주식회사 홈 네트워크 기기 제어 장치 및 방법
US8190785B2 (en) * 2006-05-26 2012-05-29 Smart Technologies Ulc Plug-and-play device and method for enhancing features and settings in an interactive display system
KR101098200B1 (ko) * 2006-06-19 2011-12-23 뉴콤 테크노 가부시키가이샤 전자 유도에 의해 물체를 검출하는 물체 검출 장치
US8022941B2 (en) 2006-10-12 2011-09-20 Disney Enterprises, Inc. Multi-user touch screen
US8563880B2 (en) * 2006-10-24 2013-10-22 Newcom, Inc. Operating tool with conductor pieces
US9442607B2 (en) * 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
KR101346865B1 (ko) * 2006-12-15 2014-01-02 엘지디스플레이 주식회사 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법
WO2008128096A2 (en) 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
KR100936816B1 (ko) * 2007-05-26 2010-01-14 이문기 카메라와 마크 출력에의한 포인팅 장치
US20130187854A1 (en) 2007-05-26 2013-07-25 Moon Key Lee Pointing Device Using Camera and Outputting Mark
HUP0700391A2 (en) * 2007-06-05 2008-12-29 Zsombor Lazar Method of determining an intrusion into a monitored area and system for generating output signals in response to such intrusion
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
KR20100055516A (ko) 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
KR20100075460A (ko) 2007-08-30 2010-07-02 넥스트 홀딩스 인코포레이티드 저 프로파일 터치 패널 시스템
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US20090213067A1 (en) * 2008-02-21 2009-08-27 International Business Machines Corporation Interacting with a computer via interaction with a projected image
CN101546235B (zh) * 2008-03-28 2011-07-27 旭丽电子(广州)有限公司 触控面板模块及决定触控面板上压触点位置的方法
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US8373657B2 (en) * 2008-08-15 2013-02-12 Qualcomm Incorporated Enhanced multi-touch detection
US20100079385A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for calibrating an interactive input system and interactive input system executing the calibration method
US8810522B2 (en) 2008-09-29 2014-08-19 Smart Technologies Ulc Method for selecting and manipulating a graphical object in an interactive input system, and interactive input system executing the method
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
CN104536624B (zh) * 2009-03-25 2018-02-27 上海聚然智能科技有限公司 设有校准功能的光学触摸屏系统
JP5710589B2 (ja) * 2009-04-08 2015-04-30 クゥアルコム・インコーポレイテッドQualcomm Incorporated 改良されたハンドヘルド画面検知ポインタ
TWI390436B (zh) * 2009-04-17 2013-03-21 Raydium Semiconductor Corp 光學式觸控裝置及其運作方法
TWI399676B (zh) * 2009-06-30 2013-06-21 Pixart Imaging Inc 觸控螢幕之物件偵測校正系統及其方法
CA2772424A1 (en) 2009-09-01 2011-03-10 Smart Technologies Ulc Interactive input system with improved signal-to-noise ratio (snr) and image capture method
US8502789B2 (en) 2010-01-11 2013-08-06 Smart Technologies Ulc Method for handling user input in an interactive input system, and interactive input system executing the method
US20110187678A1 (en) * 2010-01-29 2011-08-04 Tyco Electronics Corporation Touch system using optical components to image multiple fields of view on an image sensor
CN101727243B (zh) * 2010-02-02 2014-04-30 中兴通讯股份有限公司 一种触摸屏校准参数的获取方法及装置
JP2011210188A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置、画像表示方法、画像表示プログラム、および画像表示プログラムを記録した記録媒体
CN102238361B (zh) * 2010-04-22 2013-07-31 联想(北京)有限公司 一种终端及其显示方法
US10133411B2 (en) 2010-06-11 2018-11-20 Qualcomm Incorporated Auto-correction for mobile receiver with pointing technology
TWI419030B (zh) * 2010-08-06 2013-12-11 Quanta Comp Inc 光學觸控系統
CN102402343B (zh) * 2010-09-09 2014-11-05 广达电脑股份有限公司 光学触控系统
CA2719659C (en) * 2010-11-05 2012-02-07 Ibm Canada Limited - Ibm Canada Limitee Haptic device with multitouch display
TWI423101B (zh) * 2010-12-08 2014-01-11 Wistron Corp 應用於一觸控物位於一螢幕之一觸控面上之定位補償之方法及其光學式觸控模組
TWI446248B (zh) * 2010-12-24 2014-07-21 Wistron Corp 補償影像間時間差的方法及使用該方法的電子裝置
TWI408570B (zh) * 2010-12-31 2013-09-11 Wintek Corp 互動式投影裝置以及互動式投影裝置的操作方法
RU2605349C2 (ru) * 2011-02-04 2016-12-20 Конинклейке Филипс Н.В. Управляемая жестами система, которая использует проприоцепцию, чтобы создавать абсолютную систему координат
TWI450155B (zh) * 2011-02-15 2014-08-21 Wistron Corp 應用於光學式觸控裝置之校正資訊計算方法及系統
CN102446035B (zh) * 2011-08-31 2014-04-23 广东威创视讯科技股份有限公司 触摸笔颜色识别方法及装置
US8937600B1 (en) 2011-09-02 2015-01-20 Infragistics, Inc. Method and apparatus for interpreting multi-touch events
US9648301B2 (en) 2011-09-30 2017-05-09 Moon Key Lee Image processing system based on stereo image
TWI454999B (zh) * 2011-11-21 2014-10-01 Wistron Corp 光學觸控螢幕、校正裝置及其校正方法
CN102508582B (zh) * 2011-11-30 2015-01-07 无锡海森诺科技有限公司 光学触摸标定自动调节方法
TWI450150B (zh) * 2011-12-21 2014-08-21 Wistron Corp 觸控方法及觸控系統
CN103186329B (zh) * 2011-12-27 2017-08-18 富泰华工业(深圳)有限公司 电子设备及其触摸输入控制方法
JP6141596B2 (ja) * 2011-12-27 2017-06-07 セイコーエプソン株式会社 表示装置、表示システム及び表示装置のデータ供給方法
TWI475446B (zh) * 2012-04-24 2015-03-01 Wistron Corp 光學式觸控系統及其擷取訊號調整之方法
JP5995539B2 (ja) * 2012-06-06 2016-09-21 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN102789340B (zh) * 2012-06-27 2015-12-16 深圳市巨龙科教高技术股份有限公司 一种电子白板的白板坐标获取方法、装置及电子白板
CN103885641B (zh) * 2012-12-20 2017-07-25 联想(北京)有限公司 信息处理的方法及电子设备
US9804689B2 (en) 2013-02-19 2017-10-31 Pixart Imaging Inc. Handheld pointer device and pointer positioning method thereof
CN103218084A (zh) * 2013-03-22 2013-07-24 安徽状元郎电子科技有限公司 一种光学电子白板系统
US9483171B1 (en) * 2013-06-11 2016-11-01 Amazon Technologies, Inc. Low latency touch input rendering
CN104239877B (zh) * 2013-06-19 2019-02-05 联想(北京)有限公司 图像处理的方法和图像采集设备
US20150370441A1 (en) * 2014-06-23 2015-12-24 Infosys Limited Methods, systems and computer-readable media for converting a surface to a touch surface
CN104423632B (zh) * 2013-08-19 2017-08-29 联想(北京)有限公司 一种对电子笔的定位的方法及系统
JP2016001354A (ja) * 2014-06-11 2016-01-07 パナソニックIpマネジメント株式会社 投影領域設定装置および当該投影領域設定装置を用いた作業検知システム
WO2016018418A1 (en) 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Misalignment detection
EP2985678B1 (en) * 2014-08-11 2019-04-24 Alpine Electronics, Inc. Position detection system and method of calibrating a position detection system
US10884546B2 (en) 2014-09-04 2021-01-05 Hewlett-Packard Development Company, L.P. Projection alignment
KR102355516B1 (ko) * 2015-04-30 2022-01-26 삼성디스플레이 주식회사 터치 스크린 표시 장치 및 그의 구동 방법
CN105808143B (zh) * 2016-03-07 2019-09-24 联想(北京)有限公司 一种信息处理方法及电子设备
US10140539B2 (en) * 2016-09-23 2018-11-27 Optofidelity Oy Calibration device for camera-finger—offset
CN107274750A (zh) * 2017-06-13 2017-10-20 苏州佳世达电通有限公司 指标校正方法及指标校正系统
CN107577351A (zh) * 2017-09-26 2018-01-12 歌尔科技有限公司 投影区域的坐标映射方法、装置、投影仪及投影系统
TWI658357B (zh) * 2018-03-19 2019-05-01 幸芯科技有限公司 具有省電機制的主動式觸控系統與訊號發送方法
CN108803895A (zh) * 2018-05-04 2018-11-13 歌尔科技有限公司 坐标确定方法、装置和设备
CN110764642B (zh) * 2019-10-10 2022-04-22 福建工大云技术有限公司 一种视觉投影校准的方法和装置
CN111337188B (zh) * 2020-05-18 2020-09-01 深圳市千分一智能技术有限公司 电子笔校准方法、装置、设备及可读存储介质
KR20220049936A (ko) * 2020-10-15 2022-04-22 현대모비스 주식회사 프로젝션 스위칭 장치

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181605A (ja) * 1991-12-27 1993-07-23 Seiko Instr Inc 座標読み取り機能付き投影表示装置およびその表示スクリーンおよびその表示装置
JPH09189529A (ja) * 1996-01-11 1997-07-22 Pfu Ltd 形状認識対象物に形状照明を照射した画像を用いる形状認識方法及び装置
JPH1185376A (ja) * 1997-09-02 1999-03-30 Fujitsu Ltd 光学式位置検出装置付き情報表示装置
JP2000020677A (ja) * 1998-06-11 2000-01-21 Inventec Corp 画像取込み/メッセージ表示装置
JP2001325069A (ja) * 2000-03-07 2001-11-22 Nikon Gijutsu Kobo:Kk 位置検出装置およびその方法
WO2002007073A2 (en) * 2000-07-13 2002-01-24 Koninklijke Philips Electronics N.V. Pointing direction calibration in camera-based system applications
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
JP2002236547A (ja) * 2001-02-07 2002-08-23 Ricoh Co Ltd 情報入力システム

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4144449A (en) 1977-07-08 1979-03-13 Sperry Rand Corporation Position detection apparatus
JPS5936295B2 (ja) 1981-06-23 1984-09-03 株式会社日立国際電気 光学式座標入力装置
US4558313A (en) 1981-12-31 1985-12-10 International Business Machines Corporation Indicator to data processing interface
US4507557A (en) 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
DE3616490A1 (de) 1985-05-17 1986-11-27 Alps Electric Co Ltd Optische koordinaten-eingabe-vorrichtung
JPS6375918A (ja) 1986-09-19 1988-04-06 Alps Electric Co Ltd 座標入力装置
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US5097516A (en) 1991-02-28 1992-03-17 At&T Bell Laboratories Technique for illuminating a surface with a gradient intensity line of light to achieve enhanced two-dimensional imaging
CA2058219C (en) 1991-10-21 2002-04-02 Smart Technologies Inc. Interactive display system
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US5317140A (en) 1992-11-24 1994-05-31 Dunthorn David I Diffusion-assisted position location particularly for visual pen detection
US5502568A (en) 1993-03-23 1996-03-26 Wacom Co., Ltd. Optical position detecting unit, optical coordinate input unit and optical position detecting method employing a pattern having a sequence of 1's and 0's
GB2286100A (en) * 1994-01-19 1995-08-02 Ibm Touch-sensitive display apparatus
US5737740A (en) 1994-06-27 1998-04-07 Numonics Apparatus and method for processing electronic documents
US5638092A (en) 1994-12-20 1997-06-10 Eng; Tommy K. Cursor control system
JPH08240407A (ja) 1995-03-02 1996-09-17 Matsushita Electric Ind Co Ltd 位置検出入力装置
US5786810A (en) 1995-06-07 1998-07-28 Compaq Computer Corporation Method of determining an object's position and associated apparatus
JPH0991094A (ja) 1995-09-21 1997-04-04 Sekisui Chem Co Ltd タッチパネルの座標検出装置
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
TW394879B (en) 1996-02-09 2000-06-21 Sega Enterprises Kk Graphics processing system and its data input device
JP3807779B2 (ja) 1996-05-29 2006-08-09 富士通株式会社 座標検出装置
US5936615A (en) 1996-09-12 1999-08-10 Digital Equipment Corporation Image-based touchscreen
JP3624070B2 (ja) 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
JP3876942B2 (ja) 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US6161066A (en) 1997-08-18 2000-12-12 The Texas A&M University System Advanced law enforcement and response technology
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
TW449709B (en) 1997-11-17 2001-08-11 Hewlett Packard Co A method for distinguishing a contact input
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
EP2256605B1 (en) 1998-01-26 2017-12-06 Apple Inc. Method and apparatus for integrating manual input
WO1999040562A1 (en) 1998-02-09 1999-08-12 Joseph Lev Video camera computer touch screen system
JP2000105671A (ja) 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
JP2000089913A (ja) * 1998-09-08 2000-03-31 Gunze Ltd タッチパネル入力座標変換装置
DE19845030A1 (de) 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6335724B1 (en) 1999-01-29 2002-01-01 Ricoh Company, Ltd. Method and device for inputting coordinate-position and a display board system
JP2000267813A (ja) * 1999-03-17 2000-09-29 Sharp Corp タッチパネル入力式電子機器
TW459192B (en) 1999-06-25 2001-10-11 Toshiba Corp Electronic apparatus and electronic system provided with the same
JP2001060145A (ja) * 1999-08-23 2001-03-06 Ricoh Co Ltd 座標入力/検出システムおよびその位置合わせ調整方法
JP3905670B2 (ja) 1999-09-10 2007-04-18 株式会社リコー 座標入力検出装置、情報記憶媒体及び座標入力検出方法
JP4057200B2 (ja) 1999-09-10 2008-03-05 株式会社リコー 座標入力装置および座標入力装置の記録媒体
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP3934846B2 (ja) 2000-03-06 2007-06-20 株式会社リコー 座標入力/検出装置、電子黒板システム、受光素子の位置ズレ補正方法及び記憶媒体
JP2001265516A (ja) 2000-03-16 2001-09-28 Ricoh Co Ltd 座標入力装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
ATE453147T1 (de) 2000-07-05 2010-01-15 Smart Technologies Ulc Verfahren für ein kamerabasiertes berührungssystem
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US6774889B1 (en) * 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
GB2378073B (en) 2001-07-27 2005-08-31 Hewlett Packard Co Paper-to-computer interfaces
KR100474724B1 (ko) * 2001-08-04 2005-03-08 삼성전자주식회사 터치스크린을 가지는 장치 및 그 장치에 외부디스플레이기기를 연결하여 사용하는 방법
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP3920067B2 (ja) 2001-10-09 2007-05-30 株式会社イーアイティー 座標入力装置
US7038659B2 (en) 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
US20030226968A1 (en) 2002-06-10 2003-12-11 Steve Montellese Apparatus and method for inputting data
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181605A (ja) * 1991-12-27 1993-07-23 Seiko Instr Inc 座標読み取り機能付き投影表示装置およびその表示スクリーンおよびその表示装置
JPH09189529A (ja) * 1996-01-11 1997-07-22 Pfu Ltd 形状認識対象物に形状照明を照射した画像を用いる形状認識方法及び装置
JPH1185376A (ja) * 1997-09-02 1999-03-30 Fujitsu Ltd 光学式位置検出装置付き情報表示装置
JP2000020677A (ja) * 1998-06-11 2000-01-21 Inventec Corp 画像取込み/メッセージ表示装置
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
JP2001325069A (ja) * 2000-03-07 2001-11-22 Nikon Gijutsu Kobo:Kk 位置検出装置およびその方法
WO2002007073A2 (en) * 2000-07-13 2002-01-24 Koninklijke Philips Electronics N.V. Pointing direction calibration in camera-based system applications
JP2004504675A (ja) * 2000-07-13 2004-02-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ会議及び他のカメラベースのシステム適用におけるポインティング方向の較正方法
JP2002236547A (ja) * 2001-02-07 2002-08-23 Ricoh Co Ltd 情報入力システム

Also Published As

Publication number Publication date
CA2521418C (en) 2013-09-10
ES2392228T3 (es) 2012-12-05
CA2521418A1 (en) 2004-10-21
EP1611503A2 (en) 2006-01-04
CN1784649A (zh) 2006-06-07
CN101533312A (zh) 2009-09-16
EP2287709A1 (en) 2011-02-23
JP2006522967A (ja) 2006-10-05
US7256772B2 (en) 2007-08-14
CN101533312B (zh) 2012-07-04
US20040201575A1 (en) 2004-10-14
CN100465865C (zh) 2009-03-04
WO2004090706A3 (en) 2005-01-13
WO2004090706A2 (en) 2004-10-21
EP1611503B1 (en) 2012-07-11

Similar Documents

Publication Publication Date Title
JP4820285B2 (ja) 自動位置合わせタッチシステムおよび方法
US7492357B2 (en) Apparatus and method for detecting a pointer relative to a touch surface
JP5042437B2 (ja) カメラベースのタッチシステム
US9971455B2 (en) Spatial coordinate identification device
CA2670357C (en) Interactive input system and method
JP2003065716A (ja) 物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体
US20130106792A1 (en) System and method for enabling multi-display input
JP2006258798A (ja) 改良された形状特徴化のためのデバイスおよび方法
JP2015064724A (ja) 情報処理装置
US20190243456A1 (en) Method and device for recognizing a gesture, and display device
JP2016153996A (ja) 座標取得システム、ディスプレイ装置、座標取得方法およびプログラム
JPWO2019171635A1 (ja) 操作入力装置、操作入力方法、及びプログラム
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
WO2023194616A1 (en) Calibration method for an electronic display screen for touchless gesture control
CN103488348A (zh) 影像感测器群组的定位方法
JP2019164440A (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091118

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100218

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100225

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100318

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110120

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110902

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees