JP4995395B2 - 物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体 - Google Patents

物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体 Download PDF

Info

Publication number
JP4995395B2
JP4995395B2 JP2002161283A JP2002161283A JP4995395B2 JP 4995395 B2 JP4995395 B2 JP 4995395B2 JP 2002161283 A JP2002161283 A JP 2002161283A JP 2002161283 A JP2002161283 A JP 2002161283A JP 4995395 B2 JP4995395 B2 JP 4995395B2
Authority
JP
Japan
Prior art keywords
cam
reference frame
angle
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002161283A
Other languages
English (en)
Other versions
JP2003065716A (ja
Inventor
モリスン ジェラルド
ホールムグレイン デイヴィッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart Technologies ULC
Original Assignee
Smart Technologies ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart Technologies ULC filed Critical Smart Technologies ULC
Publication of JP2003065716A publication Critical patent/JP2003065716A/ja
Application granted granted Critical
Publication of JP4995395B2 publication Critical patent/JP4995395B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は全般的には目標の取得に関し、特に、三角測量を使用して物体の位置の決定を容易にするためにカメラのオフセットを計算する方法に関する。
【0002】
【従来の技術】
タッチ・システムは、当該分野において公知であり、接触表面を有するタッチ・スクリーンを通常有し、利用者の入力を生成するために、接触表面上でポインタを使用して接触が行われる。接触表面とポインタとの接触が検出され、接触が行われた接触表面の領域によって対応する出力を生成するために使用される。
【0003】
「カメラベースのタッチ・システム」と題する、2001年7月5日に出願され、本発明の譲受人に譲渡された、国際PCT特許出願公開明細書第02/03316号に、カメラベースのタッチ・システムが開示されている。このタッチ・システムは、マスター・コントローラに結合されたタッチ・スクリーンと、マスター・コントローラに結合されたコンピュータを有する。コンピュータは、1つまたは複数のアプリケーション・プログラムを実行し、タッチ・スクリーン上に提示されるディスプレイ出力を供給する。タッチ・スクリーン、マスター・コントローラ、コンピュータおよびプロジェクタによりシステムが形成されており、利用者がタッチ・スクリーンに接触すると、コンピュータにより書き込みあるいは描画として記録されるように、あるいは、コンピュータにより実行されるアプリケーション・プログラムの実行を制御するために使用できる。
【0004】
タッチ・スクリーンは、矩形のベゼルあるいはフレームにより縁取られた矩形の平坦な薄板の形式の接触表面を有する。2次元のディジタル信号処理プロセサ(DSP)ベースのCMOSディジタル・カメラが、タッチ・スクリーンのそれぞれの隅に隣接して搭載されている。各ディジタル・カメラの視界が接触表面の指定された端縁を含むように、各ディジタル・カメラはタッチ・スクリーンに向けられている。この方法で、全部の接触表面がディジタル・カメラの視界の中とされる。接触表面に接近したポインタが少なくとも2個のディジタル・カメラの視界の中に現れるように、ディジタル・カメラの視界はさらに重なり合っている。これは、接触表面に対するこのようなポインタの位置を、三角測量を使用して計算することを可能にする。
【0005】
タッチ・システムの動作中は、各ディジタル・カメラは、その視界の中の接触表面の画像を所望のフレーム・レートで捉える。捉えられた画像内にポインタが存在するか否かを決定するために、取得された画像はディジタル・カメラにより処理される。取得された画像内にポインタが有れば、取得された画像内のポインタの中線あるいは先端部を決定するために、取得された画像は画像を取得したディジタル・カメラによりさらに処理される。ポインタの中線あるいは先端部は、数によって表される。このポインタ情報はディジタル・カメラによりポインタ情報パケット(以下、PIP:Pointer Information Packetと称する)に変換され、PIPはマスター・コントローラに送信されるために待ち行列に入れられる。
【0006】
マスター・コントローラは、ディジタル・カメラに対してPIPをポーリングする。マスター・コントローラがPIPを受信すると、マスター・コントローラはポインタの中線あるいは先端部を表す数をディジタル・カメラの分解能で除算する。次にマスター・コントローラは、この結果をディジタル・カメラの視界(以下、FOV:Field of Viewと称する)により乗算し、次に一定の誤差修正較正角度δを減算し、角度φを得る。計算された角度φは、PIPを生成したディジタル・カメラの視界内に包含されるタッチ・スクリーンの指定された周縁と、画像内のポインタと交差するディジタル・カメラの光軸から延びている直線との間に形成された角度であると推定される。
【0007】
上述のように、ディジタル・カメラの照準は、ポインタがタッチ・スクリーンに接近したときに、少なくとも2個のディジタル・カメラにより取得された画像内にポインタが捉えられることを保証する。結果として、ポインタがタッチ・スクリーンに接近したときに、少なくとも2つのPIPがマスター・コントローラにより受信され、したがって、マスター・コントローラによって2つの角度が計算される。2つの角度が利用できるので、マスター・コントローラは、取得された画像内でポインタと交差する、PIPを生成したディジタル・カメラの光軸から延びている直線の交点を決定する。三角測量を使用して、直交座標内のタッチ・スクリーンに対するポインタの位置が計算される。ついで、マスター・コントローラは、このポインタ位置データをパーソナル・コンピュータに送信する。この方法で、パーソナル・コンピュータに送信されたポインタ位置データは、書き込みあるいは描画として記録されることが可能であり、あるいは、コンピュータにより実行されるアプリケーション・プログラムの実行を制御するために使用することができる。さらに、接触表面上に提示された情報がポインタの動きを反映するように、コンピュータはディスプレイ出力を更新する。
【0008】
上述のように、各ディジタル・カメラは、タッチ・スクリーンの隅に隣接して搭載され、各ディジタル・カメラの視界が接触表面の指定された周縁を含むようにされる。理想的には、マスター・コントローラにより計算された角度がタッチ・スクリーンに対応する基準フレームにもとづくように、各ディジタル・カメラの視界の限界は、タッチ・スクリーンの指定された周縁を超えて既知の量だけ僅かに拡がっている。しかし実際には、機械的公差、光学的効果、およびディジタル・カメラの配置によって、ディジタル・カメラの視界は、タッチ・スクリーンの指定された周縁に対して未知の量だけ角度がオフセットしている。
【0009】
【発明が解決しようとする課題】
上述したタッチ・システムにおいては、ディジタル・カメラの角度オフセットを考慮するために、角度の計算の中で、一定の誤差修正較正角度δが計算された角度から減算される。当然ながら、この較正は複数のディジタル・カメラの角度オフセットは既知であり等しいと仮定している。残念ながら、各ディジタル・カメラの角度オフセットは通常異なる。さらに、各ディジタル・カメラの角度オフセットは、タッチ・システムの出荷や設置などの際に変化する恐れがある。結果として、ディジタル・カメラの角度オフセットは、一定の誤差修正較正角度によっては、通常正しくは補償されない。ディジタル・カメラの実際の角度オフセットが既知でない限り、接触表面に対するポインタの位置を計算された角度にもとづいて三角測量を使用して計算するとき、計算された位置が実際の位置とは大幅に異なる恐れがある。問題を複雑にすることは、1対のディジタル・カメラの画像データがポインタの位置を三角測量するために使用されるとき、1対のディジタル・カメラによっては、ポインタの計算された位置が大幅に変化する恐れがある。このことが、タッチ・スクリーンに対するポインタの位置を正確に計算することを難しくすることは、十分理解されよう。タッチ・スクリーン上の接触がコンピュータ機能を起動するために使用できるように、タッチ・スクリーンがコンピュータ・ディスプレイに写像される対話型のシステムにおいては、タッチ・スクリーン上にポインタの接触位置を正確に決定することが非常に重要である。
【0010】
したがって本発明の目的は、三角測量を使用して物体位置の決定を容易にするための、カメラのオフセットを計算する新規な方法を提供することである。
【0011】
【課題を解決するための手段】
本発明の一つの態様によれば、物体が捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法であって、
前記捉えられた画像は前記基準フレーム内に重なり合う視界を有する少なくとも2個のカメラにより撮られ、少なくとも1個の前記カメラは視界の限界が前記基準フレームの境界を超えて拡がることをもたらすオフセット角度を有するものとし、
前記少なくとも2個のカメラのそれぞれを使用して、前記基準フレーム内の少なくとも1つの場所における前記物体の画像を捉えるステップと、
各場所に対して、
各画像内の前記物体の前記位置を決定するステップと、
各画像に対して前記決定された位置を前記基準フレームの座標系に対応する座標系に配置するステップと、
各場所における前記物体の少なくとも1つの前記位置と前記少なくとも1個のカメラの前記オフセット角度を決定するために、前記決定された位置を処理するステップと、を有する方法が提供される。
【0012】
この場合、各画像内の前記物体の前記決定された位置は角度φにより表され、前記角度は、前記基準フレームの境界を超えて拡がる前記視界の前記限界と、前記画像内の前記物体と交差する前記カメラから延びる直線との間に形成される角度に等しいこととしてもよい。
【0013】
また、前記処理の間に、前記角度のそれぞれは前記基準フレーム座標系内の直交座標(xi、yi)の位置に変換されることとしてもよい。
【0014】
また、捉えられた画像が矩形の基準フレームの隅にあるカメラにより取得される方法であって、前記カメラのそれぞれは前記基準フレームに対して視界のオフセットを有し、前記処理の間に前記角度φのそれぞれは角度ωに変換され、前記角度ωは、
ω=α−δ
により表され、ここで、
δは前記カメラのオフセットであり、
αは、前記カメラ・オフセットを除外し、かつ前記基準フレーム座標系の前記y軸を基準とする前記角度φと等しく、前記角度ωのそれぞれは次式に適合され、
【0015】
【数2】
Figure 0004995395
ここで、
camおよびycamは、前記カメラの前記直交座標の座標であり、
iおよびyiは前記物体の前記直交座標の座標、したがって前記直交座標の位置(xi、yi)および前記カメラ・オフセットを得る、捉えられた画像が矩形の基準フレームの隅にあるカメラにより取得されることとしてもよい。
【0016】
また、前記適合は、線形化技法を使用して実行されることとしてもよい。
【0017】
さらに、前記線形化技法は、ムーア・ペンローズ疑似逆方法であるとしてもよい。
【0018】
本発明の他の態様によれば、物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法であって、
前記捉えられた画像は前記基準フレーム内の重なり合う視界を有する少なくとも2個のカメラにより撮られ、前記少なくとも2個のカメラのそれぞれの視界の限界は前記基準フレームの境界を包含しており、前記カメラの少なくとも1個はオフセットしていて前記カメラの視界の限界が前記境界を超えて拡がるものとし、
各画像内の物体の位置を決定するステップであって、各画像内の物体の位置は角度により表されており、前記角度は前記基準フレームの境界を含む視界の限界と前記画像内の物体と交差するカメラから延びる直線との間に形成される角度に等しい、各画像内の物体の位置を決定するステップと、
前記少なくとも1個のカメラの前記オフセット角度を決定するステップと、
前記角度を較正するために、前記少なくとも1個のカメラにより撮られた前記画像内の物体の位置を表す前記角度から前記オフセット角度を減算するステップと、
三角測量を使用して前記基準フレームに対する前記物体の位置を計算するために、前記較正された角度を使用するステップを有する方法が提供される。
【0019】
この場合、前記少なくとも2個のカメラのそれぞれはオフセットしており、前記少なくとも2個のカメラのそれぞれに対する前記オフセット角度は、前記角度を較正するために決定し使用されることとしてもよい。
【0020】
本発明のさらに他の態様によれば、重なり合う視界を有する少なくとも2個のカメラと前記カメラの画像データを処理するプロセッサとを備え、基準フレームに対して重なり合う視界内の物体の位置は各カメラにより取得された画像内に捉えられた物体の位置データを三角測量することにより決定されるタッチ・システムを較正する方法であって、
各カメラの前記オフセット角度を前記基準フレームに対して決定するステップと、
前記物体位置データを較正するために、前記オフセット角度を使用するステップと、
前記基準フレームに対する前記物体の前記位置を決定するために、三角測量の間に前記較正された物体の位置データを使用するステップを有する方法が提供される。
【0021】
本発明のさらに他の態様によれば、基準フレームならびに前記基準フレーム内で重なり合う視界を有する少なくとも2個のカメラを備え、前記基準フレームに対する物体の位置は前記物体の捉えられた画像から三角測量にもとづいて決定され、オフセット角度を定めるために前記少なくとも2個のカメラの前記視界は前記基準フレームの座標系に対して回転されるタッチ・システムを較正する方法であって、
前記少なくとも2個のカメラのそれぞれを使用して、前記基準フレーム内の少なくとも1つの場所において前記物体の画像を捉えるステップと、
各場所に対して、
各画像内の前記物体の前記位置を決定するステップであって、各画像内の前記物体の位置は角度φにより表され、前記角度は前記基準フレームを超えて拡がる前記視界の限界と前記画像内の前記物体と交差する前記カメラから延びる直線との間に形成される角度に等しいとするステップと、
各画像に対して決定された前記角度ならびに基準フレームに設けられた座標系に対する前記少なくとも2個のカメラの位置にもとづいて、前記少なくとも2個のカメラの前記オフセット角度を数学的に計算するステップを有する方法が提供される。
【0022】
この場合、各カメラの前記オフセット角度は、最小自乗法を使用して計算されることとしてもよい。
【0023】
本発明のさらに他の態様によれば、タッチシステムであって、
接触表面を取り囲む全体として矩形の基準フレームであり、1つの隅が前記接触表面に設けられる座標系の原点を定める、基準フレームと、
前記基準フレームのそれぞれの隅に隣接するカメラであり、各カメラは前記接触表面に向けられていて前記カメラの視界内の前記接触表面の画像を捉え、前記カメラの視界は前記基準フレーム内で重なり合い、前記カメラの視界は前記基準フレームに対してオフセットしているカメラと、
前記捉えられた画像を処理し、画像内に物体が現れたときに物体の位置データを生成するプロセッサであり、前記プロセッサは前記物体の位置データを使用して矩形の座標における前記原点に対する前記物体の位置を三角測量にもとづいて決定し、前記プロセッサはさらに前記カメラのオフセット角度を決定するために較正ルーチンを実行し、前記位置決定に先だって前記物体の位置データを調整するために前記オフセット角度を使用するプロセッサと、により、前記捉えられた画像を処理し画像内に物体が現れるときに物体の位置データを生成するプロセッサを有するタッチ・システムが提供される。
【0024】
本発明のさらに他の態様によれば、複数のカメラのオフセット角度を決定するコンピュータ・プログラムを格納するコンピュータで読み取り可能な媒体であって、
前記コンピュータ・プログラムは、
基準直交座標系の全体にわたる異なる位置の複数のカメラにより生成された物体の位置データにもとづいてカメラのオフセット角度を決定し、各カメラにより生成された前記物体の位置データは前記カメラの前記視界内の少なくとも1つの場所における前記それぞれのカメラの視界内の物体の位置を表すものであり、
各カメラにより生成された前記物体の位置データを前記直交座標系に関連づけるコンピュータ・プログラムコードと、
前記関連づけられた物体の位置データと前記座標系に対する前記カメラの位置にもとづいて、各カメラの前記オフセット角度を数学的に計算するコンピュータ・プログラムコードを有するコンピュータ読み取り可能な媒体が提供される。
【0025】
上記のように構成される本発明においては、実際のディジタル・カメラのオフセットは実時間で計算されるので、ディジタル・カメラの視界はタッチ・スクリーンの座標系に対応する座標系に基準づけることが可能であるという点で、本発明は利点がある。この方法では、一対のディジタル・カメラの視界内の物体の位置が三角測量を使用して計算される場合、物体の計算された位置はタッチ・スクリーンに対する物体の実際の位置と非常に高精度で一致する。さらに、ディジタル・カメラのオフセットはタッチ・システムの設置後に実行される較正ルーチンで高精度で数学的に計算されるので、製造時におけるディジタル・カメラの高精度搭載の必要性は緩和される。ディジタル・カメラの搭載に対する機械的公差を緩和しうるので、本タッチ・システムは、高い分解能を保証しつつ、より速く、かつ低コストで製造することが可能である。
【0026】
【発明の実施の形態】
図1は、PCT特許出願公開明細書第02/03316号に説明された形式のタッチ・システムを示し、全体として参照番号50により識別される。
【0027】
図からわかるように、タッチ・システム50は、ディジタル信号処理プロセッサ(DSP)ベースのマスター・コントローラ54と結合したタッチ・スクリーン52を有する。マスター・コントローラ54は、さらにコンピュータ56に結合されている。コンピュータ56は、1つまたは複数のアプリケーション・プログラムを実行し、プロジェクタ58を介してタッチ・スクリーン52に提示されるディスプレイ出力を供給する。利用者がタッチ・スクリーン52に接触すると、コンピュータ56により書き込みあるいは描画として記録されるように、あるいは、コンピュータ56により実行されるアプリケーション・プログラムの実行を制御するために使用できるように、タッチ・スクリーン52、マスター・コントローラ54、コンピュータ56およびプロジェクタ58は、システムを形成している。
【0028】
コンピュータ56が実行するアプリケーション・プログラムは、複数のカメラのオフセット角度を決定するコンピュータ・プログラムを格納するコンピュータ56が読み取り可能な媒体であって、コンピュータ・プログラムは、基準直交座標系の全体にわたる異なる位置の複数のカメラにより生成された物体の位置データにもとづいてカメラのオフセット角度を決定し、各カメラにより生成された物体の位置データは前記カメラの前記視界内の少なくとも1つの場所における前記それぞれのカメラの視界内の物体の位置を表すものであり、各カメラにより生成された前記物体の位置データを前記直交座標系に関連づけるコンピュータ・プログラムコードと、関連づけられた物体の位置データと座標系に対するカメラの位置にもとづいて、各カメラの前記オフセット角度を数学的に計算するコンピュータ・プログラムコードを有するコンピュータ56が読み取り可能な媒体により提供されるものであり、本発明は媒体をも含む。
【0029】
図2は、タッチ・スクリーン52の構成を詳細に示す図である。図2からわかるように、タッチ・スクリーン52は、矩形のフレーム62により縁取りされた接触表面60を有する。接触表面60は、受動性材料の矩形の平坦な薄板である。ディジタル信号処理プロセッサが組み込まれたCMOSディジタル・カメラDCcamは、タッチ・スクリーン52のそれぞれの隅に隣接してマウントされている。各ディジタル・カメラDCcamは、その視界が接触表面60の指定された周縁を含むように、接触表面60に向けられている。図2に示す指定では、ディジタル・カメラDC0およびDC3の視界は接触表面60の下部の水平な端縁62aを包含し、ディジタル・カメラDC1およびDC2の視界は接触表面60の上部の水平な端縁62bを包含している。
【0030】
機械的公差、光学的効果、および接触表面60に対するディジタル・カメラの配置によって、各ディジタル・カメラDCcamの視界は、視界が含む接触表面60の指定された周縁に対して、通常は角度がオフセットしている。各ディジタル・カメラの角度のオフセットは、角度δcamにより示されている。
【0031】
タッチ・システム50の動作中は、各ディジタル・カメラDCcamは、その視界の中の接触表面60の画像を所望のフレーム・レートで取得する。捉えられた画像内にポインタがあるかどうかを決定するために、取得された画像はディジタル・カメラDCcamにより処理される。取得された画像内にポインタが有れば、捉えられた画像内のポインタの中線あるいは先端部を決定するために、捉えられた画像は画像を取得したディジタル・カメラによりさらに処理される。ポインタの中線あるいは先端部は、数によって表される。このポインタ情報はディジタル・カメラDCcamによりポインタ情報パケット(PIP)に変換され、PIPはマスター・コントローラ54に送信されるために待ち行列に入れられる。上述の画像処理に関する詳細は、PCT特許出願公開明細書第02/03316号に説明されている。
【0032】
マスター・コントローラ54は、ディジタル・カメラに対してPIPをポーリングする。マスター・コントローラ54がPIPを受信すると、マスター・コントローラは、次式を使用して角度φcamを計算するために、ポインタの中線あるいは先端部を表す数とディジタル・カメラの視界を使用する。
【0033】
【数3】
Figure 0004995395
ここで、
xは、ディジタル・カメラで取得された画像中のポインタの中線あるいは先端部を表す画素位置であり、aは、ディジタル・カメラの分解能、すなわち各画素列における画素の総数である。
【0034】
計算された角度φcamは、PIPを生成したディジタル・カメラの接触表面60の指定された周縁を超えて延びている視界の限界と、画像内のポインタと交差するディジタル・カメラの光軸から延びている直線との間に形成された角度に等しい。視界の限界は、視界内の接触表面60の指定された周縁(すなわち、この場合にはx軸)を超えて既知の量だけ延びていることが望ましい。しかし、ほとんどすべての場合に、各ディジタル・カメラDCの角度のオフセットは異なり、かつ未知である。
【0035】
ポインタが接触表面60に接近すると、少なくとも2つのディジタル・カメラにより取得された画像にポインタは収集される。結果として、少なくとも2つのPIPがマスター・コントローラ54により受信され、したがって、マスター・コントローラ54により2つの角度φcamが計算される。2つの角度φcamが利用できるので、マスター・コントローラ54は、取得された画像内でポインタと交差する、PIPを生成したディジタル・カメラの光軸から延びている直線の交点を決定することができる。直交座標内のタッチ・スクリーンに対するポインタの位置は、ディジタル・カメラDCcamの視界の限界が接触表面60の指定された周縁を超えて延びている量が既知であれば、三角測量を使用して正確に計算することが可能である。しかし、角度φcamが接触表面の指定された周縁に対して偏っている量は未知であるから、この方法でポインタの位置を計算すると、接触表面60に対するポインタの実際の位置を正確には決定しない。結果として、接触表面60に対するポインタの実際の位置が決定されるように、ディジタル・カメラDCcamの角度のオフセットδcamを考慮するために、タッチ・システム50の較正が必要である。
【0036】
タッチ・システム50を較正するためには、計算された角度φcamのそれぞれを接触表面60上の矩形の位置(xi,yi)に変換することが必要である。接触表面60上の座標( i ,y i )と角度φcamの間には、この変換の実行を可能にする関係が存在する。タッチ・スクリーン座標系の原点がディジタル・カメラDC0にあり、タッチ・スクリーンの水平および垂直の寸法がそれぞれBxおよびByであるとすれば、次式が適用される。
【0037】
【数4】
Figure 0004995395
各角度φcamをタッチ・スクリーン座標系に対応する共通の基準フレームに関係づけ、すべての4個のディジタル・カメラDCcamに適用する単一の数式を創り出すためには、上の数式においていくつかの定義を変えることが必要である。最初に、次式により定義される1組の角度βcamを導入する。
【0038】
【数5】
Figure 0004995395
角度βcamは、タッチ・スクリーンの指定された周縁、この場合には水平な端縁62aおよび62b、を基準とする角度φcamである。次に、タッチ・スクリーン座標系のy軸を基準とし、次のように角度βcamと関連する1組の角度αcamを導入する。
【0039】
【数6】
Figure 0004995395
α cam は、y軸の負方向を基準として時計回りに測られる角度に相当する。ここまでの説明ではオフセット角度δ cam は角度の大きさで表されていたが、α cam をこのように定めたことに対応して、以下では、オフセット角度δ cam は、その絶対値はここまでの説明におけるものと同じものであるが、タッチ・スクリーンの指定された周縁から時計回り方向にオフセット角度が測られる場合には正、反時計回り方向に測られる場合には負の値を有するものとする。
最後に、角度αcamに関連する角度ωcamの第3の組を次のように導入する。
【0040】
【数7】
Figure 0004995395
角度αcamを数式(0.7)から(0.10)に述べた定義で置換し、角度βcamを数式(0.6)に述べた定義で置換すれば、角度ωcamを次式のように表現することができる。
【0041】
【数8】
Figure 0004995395
数式(0.12)から(0.15)は、角度φcamをタッチ・スクリーン座標系に対応する基準フレームに代入することを可能にすることが、理解されよう。さらに、角度αcamは次式で表現することができる。
【0042】
【数9】
Figure 0004995395
角度αcamを角度ωcamに関して表現すれば、次式を得る。
【0043】
【数10】
Figure 0004995395
したがって、接触表面60上の少なくとも1つのポインタ接触点に対応する角度φcamが得られるとすれば、数式(0.17)は、タッチ・スクリーンに接近しているポインタの直交座標(xi、yiとディジタル・カメラDC cam のオフセット角度δ cam とを計算することを可能にする形態角度ωcamを適合させる方法を与える。これは、接触表面上の所与の接触に対して、角度ωcamは数式(0.12)から(0.15)を使用して計算可能であり、タッチ・スクリーン座標系に対してディジタル・カメラDCcamの座標(xcam、ycam)は既知であり、ポインタ座標(xi、yi)は各ディジタル・カメラに対して同一である、という事実に依存している。しかし、数式(0.17)は座標(xi、yi)において非線形であるので、角度ωcamを適合させるためには線形化技法を使用することが必要である。
【0044】
したがって本発明によれば、タッチ・システム50の較正の間に、ポインタは複数の接触点において接触表面60に接触するように使用される。接触表面60上の各接触点(xi、yi)に対して、各接触点は各ディジタル・カメラDCcamの視界内にあると仮定して、角度ω0からω3が計算される。数式(0.17)を使用して、連立方程式が作られる。この連立方程式から、各接触点(xi、yi)の座標、および各ディジタル・カメラDCcamのオフセット角度δcamが、非線形最小二乗法技法を使用して決定できる。較正の間に使用された接触点の数によって、この連立方程式は優決定、あるいは劣決定である。
【0045】
この連立方程式が優決定であるか劣決定であるかにかかわらず、この連立方程式の処理を統一するために、特異値分割(以下、SVD:Singular Value Decompositionと称する)にもとづくムーア・ペンローズ疑似逆方法(Moore-Penrose pseudo-inverse method)が最小2乗解を決定するために使用される。
【0046】
マトリックスは常に次の方法で分解し得ることは、十分理解されよう。
【0047】
【数11】
Figure 0004995395
マトリックスAは、任意の形状を有することができる。マトリックスUおよびVは直交行列であり、次式を意味する。
【0048】
【数12】
Figure 0004995395
対角行列Sは、マトリックスAの固有値の2乗に関連するマトリックスAの特異値により完全に構成される。特異値分割の重要性(SVD)は、特異値分割を使用してマトリックスAの逆が常に計算できるという事実にある。さらに、不完全に決定された問題(poorly determined problem)が生じたときに、この反転を制御することが可能である。解が
【0049】
【数13】
Figure 0004995395
となるであろう連立1次方程式
【0050】
【数14】
Figure 0004995395
を考える。
【0051】
マトリックスUおよびVは共に直交行列であるから、SVDはマトリックスAの逆を次式により表すことを可能にする。
【0052】
【数15】
Figure 0004995395
不完全に決定された状態において、いくつかの特異値は非常に小さいであろう、その結果マトリックスS-1が形成されるとき大きい値が生じ、それは望ましくない。この場合に、最小の特異値の逆は零に設定される。これは、解の不完全に決定された部分を除外する効果を有する。最小2乗問題に対して、これは強力な道具である。最小2乗問題に対する通常の標準方程式法は、優決定の場合には、
【0053】
【数16】
Figure 0004995395
を解くことにもとづいており、劣決定の場合には、
【0054】
【数17】
Figure 0004995395
を解くことにもとづいている。結果として、連立方程式に対する解は、劣決定あるいは優決定のどの場合にも、1つの方法を使用して決定することが可能である。
【0055】
ディジタル・カメラDCcamに対するオフセット角度δ cam が判れば、オフセット角度δcamは、マスター・コントローラ54によりメモリに格納される。タッチ・システム50の動作の間、マスター・コントローラ54が角度φcamを計算する時、結果を調整するために、ディジタル・カメラの実際のオフセット角度δ cam が使用される。したがって、接触表面60に対するポインタの位置を決定するために、計算された角度φcamを使用してマスター・コントローラ54により三角測量が実行される場合、計算された位置は接触表面60に対するポインタの実際の位置を正確に反映する。これは、角度φcamがタッチ・スクリーンの指定された周縁、したがって、タッチ・スクリーン座標系を基準としている事実に依存している。
【0056】
タッチ・システム50は画像をタッチ・スクリーンに投射するためのプロジェクタを有すると説明したが、これは必要ではないことを当業者は十分理解するであろう。タッチ・スクリーンは透明でも半透明でもよく、また、ディスプレイ装置上に提示されるディスプレイがタッチ・スクリーンを介して見えるように、ディスプレイ装置の上に置かれてもよい。さらに、タッチ・スクリーンは、フレームにより縁取りされた矩形の薄板である必要はない。実際には、タッチ・スクリーンは2個以上のカメラの重なる視界内の実質的に任意の表面であってよい。
【0057】
角度ωcamを数式(0.17)に適合させるためにムーア・ペンローズ疑似逆方法が使用されたが他の数学的線形化技法が使用できることを、当業者は十分理解するであろう。たとえば、2次のニュートン最小自乗法あるいはガウス・ニュートン最小自乗法を使用して、角度ωcamを数式(0.17)に適合させることができる。
【0058】
タッチ・システム50は、タッチ・スクリーンのそれぞれの隅に隣接して1個ずつ位置する4個のディジタル・カメラを有するものとして示されたが、異なる数のカメラを有するタッチ・システムにも、較正方法は適用できる。たとえば、図3は、2個のみのディジタル信号処理プロセッサベースのディジタル・カメラDCcamを有するタッチ・スクリーン52'を示す。ディジタル・カメラに対するディジタル・カメラ・オフセットδを決定するためには、タッチ・スクリーンに対する座標系を定義することが最初に必要である。この例においては、ディジタル・カメラDC'1が座標系の原点にあるとし、x軸は右方を指し、y軸は下方を指している。垂直のタッチ・スクリーン次元Byが除外されるように、この条件が使用される。
【0059】
図3から、角度φcamは次式により定義されることが判る。
【0060】
【数18】
Figure 0004995395
ここで、Bxは、ディジタル・カメラDC'1とDC'2の間の水平距離である。これらの数式をxおよびyに対して解くことにより、初期の推定値は次式となる。
【0061】
【数19】
Figure 0004995395
ここで必要な情報は、まさに変数Bxに対する項を含む計画行列の要素である。これらを、適切な関数の勾配として表現すると次式を得る。
【0062】
【数20】
Figure 0004995395
これが意味することのすべては、Bxの変化に対応して計画行列に特別の列があることである。
【0063】
この場合には、角度ωcamおよびオフセット角度δcamを注意深く定めることが必要である。この場合、角度ωcamは次式で表現される。
【0064】
【数21】
Figure 0004995395
さらに、オフセット角度の最終値に180度を加え、符号を反転することによって、オフセット角度δcamの正確な方向が得られる。
本連立方程式は劣決定であるから、最小二乗法最小ノルム解(least squares minimum-norm solution)が使用される。訂正ベクトル
【0065】
【外1】
Figure 0004995395
は、次式により得られる。
【0066】
【数22】
Figure 0004995395
タッチ・スクリーン52'の隅に位置する2個のディジタル・カメラを有することに加えて、ディジタル・カメラDC'camは、タッチ・スクリーンに対して図4に示す構成で位置してもよい。この例においては、対角線の距離dがディジタル・カメラを分離している。ディジタル・カメラDC'1が(xc,0)に位置し、ディジタル・カメラDC'2が(0,yc)に位置していれば、距離dは次式により与えられる。
【0067】
【数23】
Figure 0004995395
角度φcamは、次式により定義される。
【0068】
【数24】
Figure 0004995395
(xi,yi)に対して解くと、次式を得る。
【0069】
【数25】
Figure 0004995395
角度φcamに対する一般式は次式で与えられるが、上記の数式は良い初期推定値である。
【0070】
【数26】
Figure 0004995395
ここで、カメラ・オフセット角度δcamが導入される。
【0073】
システムは、基準フレーム内の表面に対する一対のカメラの重なる視界の中の直交座標内の物体の位置を正確に決定できるように、カメラ・オフセットが直交基準フレーム(Cartesian reference frame)に関連して決定されることを可能にすることが十分理解されよう。
【図面の簡単な説明】
【図1】本発明によるタッチ・システムの略図である。
【図2】図1に示すタッチ・システムの一部を形成するタッチ・スクリーンの正面図であり、カメラのオフセット角度を示している。
【図3】タッチ・スクリーンの他の実施例の正面図である。
【図4】タッチ・スクリーンのさらに他の実施例の正面図である。
【符号の説明】
50 タッチ・システム
52 タッチ・スクリーン
54 マスター・コントローラ
56 コンピュータ
58 プロジェクタ
60 接触表面

Claims (4)

  1. xy座標系である基準フレーム座標系が定義される基準フレームに対する物体の位置を、該物体の捉えられた画像から三角測量の結果にもとづいて決定する方法であり、前記捉えられた画像は前記基準フレームを包含する視界を有する4個のカメラによって撮られ、前記各カメラのそれぞれの視界は前記基準フレームの境界を包含しており、前記カメラの少なくとも1個はその視界の限界が前記境界を超えて延び、それによって前記視野の限界と前記基準フレームの境界の間に形成されるオフセット角度を有している、前記方法であって、
    各画像内の前記物体の位置は角度φによって表されており、該角度は画像を取得した前記カメラの視界の限界と、前記画像内の前記物体と交差する、前記カメラから延びる直線との間に形成される角度に等しい、各画像内の前記物体の位置を決定するステップと、
    前記カメラのオフセット角度を数学的に計算して前記角度を較正するステップと、
    前記カメラによって撮られた前記画像内の前記物体の位置を表す前記角度から前記計算されたオフセット角度を減算するステップと、
    各カメラに対して、三角測量を使用して前記基準フレームに対する、基準フレーム座標における前記物体の位置を計算するために、前記較正された角度を使用するステップと、
    を有し、
    前記オフセット角度は、前記4個のカメラのそれぞれを使用して前記基準フレーム内の複数の場所における前記物体の画像を取得し、各場所に対して前記カメラのいずれのものであるかを特定する指標として添え字"cam"を使用し、前記カメラのオフセット角度をδ cam とし、前記較正のために捉えられた画像における物体の位置を角度φ cam で表わすものとし、前記角度φ cam のそれぞれを前記基準フレーム座標系でのy軸の負方向を基準とした方位角である角度ω cam に変換して、前記角度ω cam を次式を用いて展開された連立方程式を解くことによって計算され、
    Figure 0004995395
    ここで前記ω cam は、前記y軸の負方向を基準として表した、前記較正のために捉えられた画像における前記物体の方位角であり、
    前記δ cam は、前記基準フレームの境界に対し、前記視野の限界が時計回り方向にずれた場合に正の値をとり、反時計回り方向にずれた場合に負の値をとるものであり、
    cam およびy cam は、前記カメラの前記基準フレーム座標系での座標であり、
    i およびy i は、前記基準フレーム座標系における前記物体の座標である、
    物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法。
  2. 記捉えられた画像は、矩形の基準フレームの隅にあるカメラによって取得される請求項に記載の方法。
  3. 個のカメラと前記個のカメラによって取得された画像を処理するプロセッサとを備え、xy座標系である基準フレーム座標系が定義される基準フレームに対する前記カメラの視にある物体の、前記基準フレームに対する位置が、前記カメラによって取得された画像から計算された物体の位置データを三角測量することによって決定されるタッチ・システムにおいて、前記基準フレームに対する物体の位置を決定する方法であって、
    前記基準フレームに対する各カメラのオフセット角度を数学的に計算するステップであって、前記オフセット角度は前記カメラの視界の限界と前記基準フレームの境界によって形成される角度を表す、ステップと、
    各カメラに対して、計算されたオフセット角度を用いて、当該カメラによって取得された画像から求められた物体の位置データを較正するステップと、
    前記較正された物体の位置データを使用して、三角測量の間に前記物体の、前記基準フレームに対する前記物体の前記位置を決定するステップと、
    を有し、
    前記オフセット角度は、前記4個のカメラのそれぞれを使用して前記基準フレーム内の複数の場所における前記物体の画像を取得し、各場所に対して、前記カメラのいずれのものであるかを特定する指標として添え字"cam"を使用し、前記カメラのオフセット角度をδ cam とし、前記較正のために捉えられた画像における物体の位置を角度φ cam で表わすものとし、前記角度φ cam のそれぞれを前記基準フレーム座標系でのy軸の負方向を基準とした方位角である角度ω cam に変換して、前記角度ω cam を次式を用いて展開された連立方程式を解くことによって計算され、
    Figure 0004995395
    ここで前記ω cam は、前記y軸の負方向を基準として表した、前記較正のために捉えられた画像における前記物体の方位角であり、
    前記δ cam は、前記基準フレームの境界に対し、前記視野の限界が時計回り方向にずれた場合に正の値をとり、反時計回り方向にずれた場合に負の値をとるものであり、
    cam およびy cam は、前記カメラの前記基準フレーム座標系での座標であり、
    i およびy i は、前記基準フレーム座標系における前記物体の座標である、
    基準フレームに対する物体の位置を決定する方法。
  4. xy座標系である基準フレーム座標系が定義される基準フレームと、前記基準フレームを包含する視界を有する少なくとも個のカメラを備え、前記基準フレームに対する物体の位置が、該物体の捉えられた画像から三角測量の結果にもとづいて決定され、オフセット角度を定めるために前記カメラの前記視界は前記境界を越えて延び、各オフセット角度は前記カメラの視界の限界と前記基準フレームの境界によって形成される角度を表す、タッチ・システムを較正する方法であって、
    前記4個のカメラを使用して、前記基準フレーム内の複数の場所において前記物体の画像を捉えるステップと、
    各場所に対して、前記カメラのいずれのものであるかを特定する指標として添え字"cam"を使用して、
    各取得された画像内の前記物体の前記位置を決定するステップであって、各取得された画像内の前記物体の位置は角度φ cam によって表され、該角度φ cam は前記基準フレームを超えて延びる前記画像を取得したカメラの視界の限界と前記画像内の前記物体と交差する前記カメラから延びる直線との間に形成される角度に等しい、ステップと、
    各画像に対して、決定された前記角度φ cam ならびに基準フレームに設けられた座標系に対する前記カメラの位置にもとづいて、前記カメラの前記オフセット角度を数学的に計算するステップと、
    を有し、
    前記計算するステップにおいて、前記各カメラのオフセット角度δ cam は、前記角度φ cam のそれぞれを前記基準フレーム座標系でのy軸の負方向を基準とした方位角である角度ω cam に変換し、前記角度ω cam を次式を用いて展開された連立方程式を解くことによって計算され、
    Figure 0004995395
    ここで前記ω cam は、前記y軸の負方向を基準として表わした、前記画像における前記物体の方位角であり、
    前記δ cam は、前記基準フレームの境界に対し、前記視野の限界が時計回り方向にずれた場合に正の値をとり、反時計回り方向にずれた場合に負の値をとるものであり、
    cam およびy cam は、前記カメラの前記基準フレーム座標系での座標であり、
    i およびy i は、前記基準フレーム座標系における前記物体の座標である、
    タッチ・システムを較正する方法。
JP2002161283A 2001-06-01 2002-06-03 物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体 Expired - Fee Related JP4995395B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/870,698 US6919880B2 (en) 2001-06-01 2001-06-01 Calibrating camera offsets to facilitate object position determination using triangulation
US09/870698 2001-06-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008239379A Division JP2008309804A (ja) 2001-06-01 2008-09-18 物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体

Publications (2)

Publication Number Publication Date
JP2003065716A JP2003065716A (ja) 2003-03-05
JP4995395B2 true JP4995395B2 (ja) 2012-08-08

Family

ID=25355934

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2002161283A Expired - Fee Related JP4995395B2 (ja) 2001-06-01 2002-06-03 物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体
JP2008239379A Ceased JP2008309804A (ja) 2001-06-01 2008-09-18 物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2008239379A Ceased JP2008309804A (ja) 2001-06-01 2008-09-18 物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体

Country Status (4)

Country Link
US (1) US6919880B2 (ja)
EP (2) EP1262909A3 (ja)
JP (2) JP4995395B2 (ja)
CA (1) CA2386094C (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309804A (ja) * 2001-06-01 2008-12-25 Smart Technologies Ulc 物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
US7692625B2 (en) * 2000-07-05 2010-04-06 Smart Technologies Ulc Camera-based touch system
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
DE10361018C9 (de) * 2003-12-23 2021-03-04 QUISS Qualitäts-Inspektionssysteme und Service GmbH Verfahren zum Erkennen einer auf einem Substrat aufzubringenden Struktur mit mehreren Kameras sowie eine Vorrichtung hierfür
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US7460110B2 (en) * 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7538759B2 (en) * 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
ES2627850T3 (es) * 2004-07-20 2017-07-31 Elekta Ltd. Calibración de dispositivos de obtención de imágenes por ultrasonido
US20070165007A1 (en) * 2006-01-13 2007-07-19 Gerald Morrison Interactive input system
US8593502B2 (en) * 2006-01-26 2013-11-26 Polycom, Inc. Controlling videoconference with touch screen interface
US8872879B2 (en) * 2006-01-26 2014-10-28 Polycom, Inc. System and method for controlling videoconference with touch screen interface
US20070205994A1 (en) * 2006-03-02 2007-09-06 Taco Van Ieperen Touch system and method for interacting with the same
WO2008001210A2 (en) * 2006-06-29 2008-01-03 Pierre De Hill Survey instrument and a method of surveying
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
DE102007021537B4 (de) * 2006-12-13 2020-01-02 Lg Display Co., Ltd. Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion
KR101346865B1 (ko) * 2006-12-15 2014-01-02 엘지디스플레이 주식회사 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법
US8139045B2 (en) * 2006-12-15 2012-03-20 Lg Display Co., Ltd. Display device having multi-touch recognizing function and driving method thereof
US8115753B2 (en) 2007-04-11 2012-02-14 Next Holdings Limited Touch screen system with hover and click input methods
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
CA2697856A1 (en) 2007-08-30 2009-03-05 Next Holdings, Inc. Low profile touch panel systems
US8432377B2 (en) 2007-08-30 2013-04-30 Next Holdings Limited Optical touchscreen with improved illumination
US20090066657A1 (en) * 2007-09-12 2009-03-12 Richard Charles Berry Contact search touch screen
US8049740B2 (en) * 2007-10-26 2011-11-01 Tyco Electronics Corporation Method and apparatus for laplace constrained touchscreen calibration
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US20090277697A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System And Pen Tool Therefor
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US20090278794A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System With Controlled Lighting
US20100079385A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for calibrating an interactive input system and interactive input system executing the calibration method
JP2012504817A (ja) * 2008-10-02 2012-02-23 ネクスト ホールディングス リミティド タッチ検出システムにおいてマルチタッチを解像するステレオ光センサ
WO2010052772A1 (ja) * 2008-11-05 2010-05-14 富士通株式会社 カメラ角度算出装置、カメラ角度算出方法およびカメラ角度算出プログラム
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
US20110095977A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system incorporating multi-angle reflecting structure
US20110187678A1 (en) * 2010-01-29 2011-08-04 Tyco Electronics Corporation Touch system using optical components to image multiple fields of view on an image sensor
US20110234542A1 (en) * 2010-03-26 2011-09-29 Paul Marson Methods and Systems Utilizing Multiple Wavelengths for Position Detection
US8338725B2 (en) * 2010-04-29 2012-12-25 Au Optronics Corporation Camera based touch system
TWI421753B (zh) * 2010-08-12 2014-01-01 Lite On Semiconductor Corp Calibration method, detection device and optical touch panel for optical touch panel
US8269750B2 (en) * 2010-08-13 2012-09-18 Omnivision Technologies, Inc. Optical position input system and method
CN102375565B (zh) * 2010-08-13 2013-11-06 原相科技股份有限公司 可切换撷取范围的交互式指向装置与切换撷取范围的方法
US10026407B1 (en) 2010-12-17 2018-07-17 Arrowhead Center, Inc. Low bit-rate speech coding through quantization of mel-frequency cepstral coefficients
TWI446248B (zh) * 2010-12-24 2014-07-21 Wistron Corp 補償影像間時間差的方法及使用該方法的電子裝置
TWI450155B (zh) * 2011-02-15 2014-08-21 Wistron Corp 應用於光學式觸控裝置之校正資訊計算方法及系統
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
TWI475446B (zh) * 2012-04-24 2015-03-01 Wistron Corp 光學式觸控系統及其擷取訊號調整之方法
US9507462B2 (en) * 2012-06-13 2016-11-29 Hong Kong Applied Science and Technology Research Institute Company Limited Multi-dimensional image detection apparatus
CN102789340B (zh) * 2012-06-27 2015-12-16 深圳市巨龙科教高技术股份有限公司 一种电子白板的白板坐标获取方法、装置及电子白板
CN102880361B (zh) * 2012-10-12 2015-09-09 南京芒冠股份有限公司 电子白板设备的定位校准方法
US9473740B2 (en) 2012-10-24 2016-10-18 Polycom, Inc. Automatic positioning of videoconference camera to presenter at presentation device
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9632658B2 (en) 2013-01-15 2017-04-25 Leap Motion, Inc. Dynamic user interactions for display control and scaling responsiveness of display objects
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
EP3379459A1 (en) 2017-03-24 2018-09-26 Tata Consultancy Services Limited System and method for telecom inventory management
US10094662B1 (en) 2017-03-28 2018-10-09 Trimble Inc. Three-dimension position and heading solution
US10341618B2 (en) 2017-05-24 2019-07-02 Trimble Inc. Infrastructure positioning camera system
US10406645B2 (en) 2017-05-24 2019-09-10 Trimble Inc. Calibration approach for camera placement
US10300573B2 (en) 2017-05-24 2019-05-28 Trimble Inc. Measurement, layout, marking, firestop stick
US10347008B2 (en) 2017-08-14 2019-07-09 Trimble Inc. Self positioning camera system to 3D CAD/BIM model
US10339670B2 (en) 2017-08-29 2019-07-02 Trimble Inc. 3D tool tracking and positioning using cameras
US10685197B2 (en) 2017-11-17 2020-06-16 Divine Logic, Inc. Systems and methods for tracking items
CN108132727A (zh) * 2017-12-07 2018-06-08 青岛海信电器股份有限公司 基于触控平台的笔迹调整方法及装置
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
US11002541B2 (en) 2019-07-23 2021-05-11 Trimble Inc. Target positioning with electronic distance measuring and bundle adjustment
US10997747B2 (en) 2019-05-09 2021-05-04 Trimble Inc. Target positioning with bundle adjustment

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1109539A (en) * 1978-04-05 1981-09-22 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications Touch sensitive computer input device
JPS5936295B2 (ja) 1981-06-23 1984-09-03 株式会社日立国際電気 光学式座標入力装置
US4507557A (en) 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
DE3616490A1 (de) 1985-05-17 1986-11-27 Alps Electric Co Ltd Optische koordinaten-eingabe-vorrichtung
JPS6375918A (ja) 1986-09-19 1988-04-06 Alps Electric Co Ltd 座標入力装置
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5724743A (en) * 1992-09-04 1998-03-10 Snap-On Technologies, Inc. Method and apparatus for determining the alignment of motor vehicle wheels
US5502568A (en) 1993-03-23 1996-03-26 Wacom Co., Ltd. Optical position detecting unit, optical coordinate input unit and optical position detecting method employing a pattern having a sequence of 1's and 0's
JPH08240407A (ja) 1995-03-02 1996-09-17 Matsushita Electric Ind Co Ltd 位置検出入力装置
US5786810A (en) 1995-06-07 1998-07-28 Compaq Computer Corporation Method of determining an object's position and associated apparatus
JPH0991094A (ja) 1995-09-21 1997-04-04 Sekisui Chem Co Ltd タッチパネルの座標検出装置
JP3807779B2 (ja) 1996-05-29 2006-08-09 富士通株式会社 座標検出装置
US5936615A (en) 1996-09-12 1999-08-10 Digital Equipment Corporation Image-based touchscreen
JP3624070B2 (ja) 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
US6153836A (en) * 1997-04-02 2000-11-28 Goszyk; Kurt A. Adjustable area coordinate position data-capture system
JP3876942B2 (ja) 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
AU2439399A (en) 1998-02-09 1999-08-23 Haim Azaria Video camera computer touch screen system
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6335724B1 (en) 1999-01-29 2002-01-01 Ricoh Company, Ltd. Method and device for inputting coordinate-position and a display board system
JP4057200B2 (ja) * 1999-09-10 2008-03-05 株式会社リコー 座標入力装置および座標入力装置の記録媒体
JP3934846B2 (ja) 2000-03-06 2007-06-20 株式会社リコー 座標入力/検出装置、電子黒板システム、受光素子の位置ズレ補正方法及び記憶媒体
JP2001265516A (ja) 2000-03-16 2001-09-28 Ricoh Co Ltd 座標入力装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
US7692625B2 (en) 2000-07-05 2010-04-06 Smart Technologies Ulc Camera-based touch system
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6919880B2 (en) * 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008309804A (ja) * 2001-06-01 2008-12-25 Smart Technologies Ulc 物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体

Also Published As

Publication number Publication date
EP1262909A3 (en) 2006-02-22
EP2302490A3 (en) 2012-03-28
US20030043116A1 (en) 2003-03-06
EP2302490A2 (en) 2011-03-30
CA2386094C (en) 2008-07-22
US6919880B2 (en) 2005-07-19
EP1262909A2 (en) 2002-12-04
CA2386094A1 (en) 2002-12-01
JP2003065716A (ja) 2003-03-05
JP2008309804A (ja) 2008-12-25

Similar Documents

Publication Publication Date Title
JP4995395B2 (ja) 物体の捉えられた画像から基準フレームに対する物体の位置を三角測量にもとづいて決定する方法、タッチシステムおよびタッチシステムの較正方法と媒体
US7256772B2 (en) Auto-aligning touch system and method
KR101947935B1 (ko) 3차원 측정 시스템의 갱신 보정 방법
JP5122948B2 (ja) タッチ面に対応するポインタを検出するための装置及び方法
US9866818B2 (en) Image processing apparatus and method, image processing system and program
Zhou et al. A novel optimization method of camera parameters used for vision measurement
CA2866919C (en) Method for generally continuously calibrating an interactive input system
JP2011513724A (ja) 基準座標上の視覚的イメージを利用した客体位置の測定方法
US9838587B2 (en) System for registration of virtual space and real space, method for registering display apparatus and image sensor, and electronic device registered using the method
JP2011155412A (ja) 投影システムおよび投影システムにおける歪み修正方法
KR20120069429A (ko) 프로젝터와 에피폴라 기하학을 기반으로 한 카메라의 방사 왜곡 보정 시스템과 그 방법
KR101239671B1 (ko) 렌즈에 의한 왜곡 영상 보정방법 및 그 장치
KR101165340B1 (ko) 카메라를 이용한 프로젝터 교정 시스템 및 이를 이용한 교정 방법
CN111145268A (zh) 一种视频注册方法及装置
Morrison et al. 7.4: Machine Vision Passive Touch Technology for Interactive Displays
JPH0886609A (ja) ビーム光投影式3次元センサによる計測方法及びキャリブレーション方法並びにそれらの装置
Linder et al. Lens Distortion and Calibration
Wang et al. A Partition-Based Five-Point Coordinate Conversion Method for Large Scale Interactive Whiteboard
Zuurmond Accurate camera position determination by means of moiré pattern analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050518

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070531

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080521

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101115

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120315

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4995395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees