JP4814214B2 - 長寸の物体の方向パラメータを決定するための装置及び方法 - Google Patents

長寸の物体の方向パラメータを決定するための装置及び方法 Download PDF

Info

Publication number
JP4814214B2
JP4814214B2 JP2007502826A JP2007502826A JP4814214B2 JP 4814214 B2 JP4814214 B2 JP 4814214B2 JP 2007502826 A JP2007502826 A JP 2007502826A JP 2007502826 A JP2007502826 A JP 2007502826A JP 4814214 B2 JP4814214 B2 JP 4814214B2
Authority
JP
Japan
Prior art keywords
angle
plane
axis
probe radiation
detector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007502826A
Other languages
English (en)
Other versions
JP2008523353A (ja
Inventor
ザング、グアングア・ジー
ブエーマン、デイル・エイチ
マンデラ、マイケル・ジェイ
ゴンザレズ−バノス、ヘクター・エイチ
カール、スチュワート・アール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronic Scripting Products Inc
Original Assignee
Electronic Scripting Products Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronic Scripting Products Inc filed Critical Electronic Scripting Products Inc
Publication of JP2008523353A publication Critical patent/JP2008523353A/ja
Application granted granted Critical
Publication of JP4814214B2 publication Critical patent/JP4814214B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • G01B11/27Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes
    • G01B11/272Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes for testing the alignment of axes using photoelectric detection means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

本発明は、一般には先端が平面に接触する長寸の物体の1若しくは複数の方向パラメータの決定に関する。
物体が、基平面、不動点、線または基準面などの静止基準に対して動くとき、これらの基準に対する物体の傾斜の情報を用いて、様々な運動パラメータを導き出すことができる。実際に、基準に対する物体の傾斜は、通常、物体をナビゲートするかまたは物体の軌跡に関する情報を得るために必要である。長い間、そのような物体の運動方程式をパラメータで表示するために、多くの有用な座標系及び方法が開発されてきた。理論的背景については、非特許文献1などの古典力学の教科書を参照されたい。物体追跡及び傾斜測定の一般的な例として、特許文献1及び2並びにそれらの引用文献中に数例が見受けられる。
方位距離測定の一分野においては、長寸の物体が平面に接触している間にその物体の傾斜を知ることは重要である。通常、傾斜は、平面との接点を通過する物体の軸線に対して画定される。場合によっては、この軸線は長寸の物体の中心線でもある。各種の長寸の物体は、平面に接触している間の当該物体の傾斜の情報が役に立つ。これらの物体には、地面に接触しているときの歩行用の棒、ディスプレイまたは投射面に接触しているときのポインタ、筆記面に接触しているときの筆記装置、入力スクリーンに接触しているときのスタイラスが含まれる。
傾斜を決定する必要性は、ペン、スタイラスなどの入力装置の分野で非常に感じられる。ここでは、ユーザによって書かれたかまたはトレースされた情報を分析するために、傾斜を知らなければならない。原理上は、ペンの傾斜を測定するために多くの方法が適用可能である。そのような方法は、超音波を用いる測距装置、可視光を含む電磁放射線、及びその他の装置を利用することができる。例えば、特許文献3は3軸検出方法を開示している。特許文献4は電磁波の飛行時間の差を用いる方法を教示しており、また別の文献は飛行時間法をマイクロ波に適用することを教示している。更に別のアプローチは、例えば特許文献5に記載されているような較正目盛または特許文献6に記載されているような補助較正システム全体を用いる。垂直方向に対するペンの傾斜を測定する更に別の方法は、特許文献7に記載されているような磁気双極子によって生成されかつライティングボードに垂直に方向付けられた磁場を測定するためのペンに取り付けられたセンサを利用する。残念ながら、これらの方法は全て扱いにくく、使用者に制限を課している。というのも、ペンから送られる信号は外部装置が受信しなければならないからである。換言すれば、ペンは自身の傾斜を内蔵機器により独立して判定することができない。
明らかに、自身の内蔵機器により独立して傾斜を判定することができるペン及びスタイラス入力装置を有することが望ましい。原理上は、ジャイロスコープ及び加速度計などの内部センサを用いるペンを、外部装置なしにその傾斜を導き出すように設計することができる。特許文献8は、2軸加速度センサを用いる方法を提唱しており、傾斜角はペンの角速度を積分することによって判定される。また、3軸加速度センサ及び3軸ジャイロスコープを用いる特許文献9及び10も興味深い。特許文献11は、ペンの傾斜による誤差を補償するようにペンの先端に加速度センサが付着され、ペンの上部に信号処理部が配置されている構造を教示している。
残念ながら、内部センサは通常、加速度計については時間の2乗で、ジャイロスコープについては時間に対して直線的に増加するドリフト誤差及び累積誤差があるという欠点がある。内部センサのこれらの制限を克服するために、特許文献12は、地面に対する電子ペンの中心線の方向角及び筆記面からのペンの高さを検出するための光学3次元検出装置の使用を教示している。その一方で、ペンの運動を検出するための3軸加速度計が用いられる。光学装置は、ビームスポットを形成するために筆記面にビームを放射するための光源などの部分と、カメラなどの検出部分と、筆記面から反射した光からビームスポットを検出するための対応する光学部品とを有する。
特許文献12は、問題を解決するために一歩先に進むことを教示しているが、一般的に筆記具及び長寸の物体の方向パラメータを決定する際に用いるためには尚も融通性、効率、精度に欠けている。
米国特許第5,786,804号明細書 米国特許第6,023,291号明細書 米国特許第5,166,668号明細書 米国特許第5,997,958号明細書 米国公開特許公報第2003/0025951号明細書 米国公開特許公報第2002/0141616号明細書 米国公開特許公報第2002/0180714号明細書 特開平6−67799号明細書 米国特許第5,902,968号明細書 米国特許第5,981,884号明細書 米国特許第5,434,371号明細書 米国公開特許公報第2002/0148655号明細書 Goldstein et al., Classical Mechanics, 3rd Edition, Addison Wesley 2002
従来技術の不十分な点を考慮して、本発明の目的は、長寸の物体の1若しくは複数の方向パラメータを決定するための装置及び方法を提供することである。方向パラメータは傾斜角であることができ、方法は、平面に接触しているときのペン、鉛筆、またはスタイラスなどの筆記具、棒、ポインタ、ロボットアームなどの長寸の物体に適用可能である。より詳細には、平面への法線と長寸の物体の軸線、例えば物体の中心軸の間の傾斜角θ及び軸線の周りのロール角ψを求めるための装置及び方法を提供することが本発明の目的である。
本発明の別の目的は、装置が小型で、ペン、鉛筆、またはスタイラスなどの内蔵型筆記具との適合性があることを確実にすることである。
図面と共に詳細な説明を読めば、これらの、そして多くの他の利点が明らかになるであろう。
本発明は、その先端が接点で表面に接触するような長寸の物体の1若しくは複数の方向パラメータを決定するための装置を提供する。装置は、第1の視点から既知のパターンでプローブ放射線により平面を照明するための長寸の物体上に取り付けられた投光器を有する。表面から長寸の物体まで戻るプローブ放射線の散乱部分を検出するための検出器が、第1の視点とは異なる第2の視点で長寸の物体上に取り付けられる。装置はまた、投射されたプローブ放射線と検出されたプローブ放射線の差から方向パラメータを決定するためのユニットを有する。より正確に言えば、差は、投射されたプローブ放射線によって生成される特徴部と検出器によって検出されるような特徴部の間で確立される。換言すれば、この差は、表面上に特徴部を生成するプローブ放射線の既知のパターンと、表面から戻る散乱部分において検出されるパターンの間に存在する。
方向パラメータには、表面に対する長寸の物体の方向を決定するために用いられる任意の角度を含めることができる。1つの有用な方向パラメータは、長寸の物体の軸線(例えば中心軸)と接点での表面への法線間の傾斜角θである。このケースでは、傾斜角θは第2のオイラー角である。別の有用な方向パラメータは、長寸の物体の軸線の周りに画定されるロール角ψである。ロール角ψは第3のオイラー角であることに留意されたい。
投光器によって生成されるプローブ放射線のパターンは、1若しくは複数の方向パラメータを決定するのに十分な表面からの散乱に関する情報を供給するように選択される。例えば、プローブ放射線のパターンは、線の集合、楕円、矩形、または多角形などの非対称パターンを形成する。円、正方形、正多角形などの特徴部の特殊な場合が含まれることが分かる。必要なパターンを生成するために、投光器は、ホログラフィック素子、回折素子、屈折素子、反射素子及びこれらの任意の組合せなどの構造化された光学部品(structured light optic)を用いることができる。
ある好適実施形態において、長寸の物体は、ペン、鉛筆またはスタイラスなどの筆記具である。或いは、長寸の物体は、ポインタ、棒、ロボットアーム、または、その方向パラメータのうちの1若しくは複数の情報からの利益を得るその他の長寸の物体であることができる。
別の実施形態において、装置は、長寸の物体が平面上に位置し、方向パラメータが、物体の軸線と平面への法線間の傾斜角θなどの少なくとも1つの方向パラメータであるときに用いられるように設計される。ここでは、投光器は、長寸の物体の軸線に対して既知の角度σでプローブ放射線により平面を照明する。検出器は、長寸の物体の軸線に対して一定の散乱角度τで表面から戻る散乱部分を検出する。計時装置(timing unit)は、散乱部分の検出時間及びプローブ放射線の既知の投射時間から傾斜角θを導き出す。傾斜角θは第2のオイラー角に等しいことに留意されたい。
この実施形態において、角度σを変えることは好ましい。このことは、あるスキャンパターンで角度σを変化させる走査装置により達成されることができる。例えば、走査装置は、x‐偏向γを導入することによって角度σを変化させるための一軸スキャナである。或いは、走査装置は、x‐偏向γ及びy‐偏向γを導入することによって角度σを変化させるための二軸スキャナである。二軸スキャナを使用するとき、スキャンパターンは、ラスタスキャンパターン、ラインスキャンパターン、またはリサジュー図形であることができる。
更に別の実施形態において、投光器は、既知のパターンで平面上へプローブ放射線を投射するための構造化された光学部品を有する。適切な構造化された光学部品には、ホログラフィック素子、回折素子、屈折素子、及び反射素子が含まれる。適切なパターンには、線グリッド、円、正方形、正多角形の特殊な場合を含む線の集合、楕円、矩形、多角形が含まれる。
投光器は、使い勝手が良いように、検出器の上方または下方に取り付けられる。散乱角度τで散乱部分を選択するために、検出器は、散乱角度τで平面から検出器へ戻る散乱部分のみを受け入れるための狭画角受容ユニット(narrow field angle reception unit)を有する。狭画角受容ユニットは、円筒レンズ、視準レンズ、厚い開口、開口系またはスリットなどの任意の適切な要素であることができる。検出器は、光検出器アレイ、即ち感光性画素のアレイであることができる。このケースでは、装置が、散乱角度τで受容される散乱部分の重心を決定するための重心計算装置を有することも重宝である。
ある好適実施形態において、プローブ放射線は、適切な光学部品の助けを借りて、スキャンビームに形成される。場合によっては、光学部品は、プローブ放射線を複数のスキャンビームに形成することができる。また、計時装置は長寸の物体上に取り付けられ、投光器は、単一周波数fでプローブ放射線を放射するための単一周波数エミッタを用いる。例えば、エミッタはレーザ、例えばレーザダイオードまたは垂直キャビティ面発光レーザレーザ(VCSEL)である。
本発明の方法は、長寸の物体の先端が或る接点で表面に接触しているとき、その物体の少なくとも1つの方向パラメータを決定するために用いられることができる。この方法は、長寸の物体上の第1の視点から既知のパターン(例えば所定の特徴部をトレースアウトする非対称パターンまたはスキャンパターン)でプローブ放射線により表面を照明することを必要とする。この方法はまた、長寸の物体上の第2の視点でプローブ放射線の散乱部分を収集または検出することを必要とする。1若しくは複数の方向パラメータ、即ち第2及び第3のオイラー角θ,ψは、プローブ放射線と散乱部分の差から決定される。この方法は、表面が平面であるかまたは非平面幾何学形状を有するときに用いられることができる。
長寸の物体が平面上で操作されているときに、傾斜角θなどの少なくとも1つの方向パラメータを決定する別の方法がある。この方法において、平面は、物体軸に対して既知の角度σでプローブ放射線によって照明され、物体に戻るプローブ放射線の散乱部分は、長寸の物体の軸線に対して既知の角度τで検出される。散乱部分の検出時間及びプローブ放射線の投射時間から少なくとも1つの方向パラメータ、例えば傾斜角θを導き出すために計時装置が用いられる。この方法において、スキャンパターン、例えば一軸または二軸スキャンパターンで角度σを変えることは好ましい。
本発明の詳細について、図面を参照しながら詳しく述べる。
本発明は、長寸の物体10の姿勢を表すために本明細書中で用いられているようなオイラー回転を先ずレビューすることにより最も良く理解されることになろう。姿勢には、長寸の物体10の位置及び空間的な方向が含まれる。図1Aに、非回転物体座標(X’,Y’,Z’)の原点に先端12を有する長さlの長寸の物体10を示す。物体10の軸線は、本実施形態ではC.A.で示される中心線または中心軸であるが、Z’軸と同一線上にある。軸線C.A.は、先端12及び非回転物体座標(X’,Y’,Z’)の原点を通過する。既知のパターンでプローブ放射線16を投射するための投光器14が、物体10上に取り付けられる。投光器14は、高さh、軸線C.A.からのオフセット距離qの、平面(X’‐Z’)中の第1の視点18から放射線16を投射する。物体10に戻るプローブ放射線16の散乱部分22を収集または検出するための検出器20が物体10上の投光器14の下に取り付けられる。検出器は、高さh、軸線C.A.からのオフセット距離qの、平面(Y’‐Z’)中の第2の視点24で散乱部分22を検出する。当然のことながら、一般に視点18、24は垂直平面に含まれる必要はない。
当業者であれば、物体10の回転を説明するための多くの規約が存在することが分かるであろう。ここで選択された系においては、回転規約を可視化するように物体10は初期の直立位置から物体座標と共に回転される。検出器20は、先ず、Y’軸に整合される。
図1Aに、Z’軸周りに回転する物体座標(X’,Y’,Z’)の第1のオイラー角φによる第1の反時計回り回転を示す。物体座標のこの回転は、Z’軸に影響しないので、1回回転(once rotated)Z’’軸は非回転Z’軸と同一線上にある(Z’’=Z’)。他方では、軸X’及びY’は第1のオイラー角だけ回転され、1回回転軸X’’及びY’’ができる。
図1Bに、1回回転物体座標(X’’,Y’’,Z’’)に適用された第2のオイラー角θによる第2の反時計回り回転を示す。この第2の回転は、1回回転X’’軸の周りで行われるので、これはX’’軸に影響しない(X’’’=X’’)。他方では、軸Y’’及びZ’’は第2のオイラー角θだけ回転され、2回回転軸Y’’’及びZ’’’ができる。この第2の回転は、1回回転軸Y’’及び2回回転軸Y’’’、Z’’’を含む平面Πにおいて実行される。物体10の軸線C.A.は、平面Πにおいて第2のオイラー角θで反時計回り回転し、2回回転軸Z’’’と同一線上にある(共線的)ままであることに留意されたい。
図1Cに示されるように、第3のオイラー角ψによる第3の反時計回り回転が、2回回転物体座標(X’’’,Y’’’,Z’’’)に適用される。ψによる回転は、3つのオイラー角全てによって回転される物体軸Zと既に同一線上にある2回回転軸Z’’’の周りで実行される。一方、2回回転軸X’’’及びY’’’はψによって回転され、3つのオイラー角全てによって回転される物体軸X、Yを与える。3つのオイラー角φ、θ、ψ全てによって回転される物体軸X、Y、Zは、オイラー回転物体座標(X,Y,Z)を画定する。物体10の先端12は、オイラー回転の間、全ての物体座標の原点にあることに留意されたい。物体10の軸線C.A.及び投光器14の第1の視点18を含む平面Σはここでは軸Z’及び軸Zを含む平面Πに角度(π/2)‐ψをなすことにも留意されたい。
図2において、3つのオイラー回転全ての後、接点28で平面26に接触する先端12を有する物体10の詳細を示す。図2では、より見やすくするために、図1Cにおいて用いられているものと異なる第3のオイラー角ψ値が選択されることに留意されたい。表面26は、ワールド座標(Xo,Yo,Zo)において(Xo,Yo)平面によって画定される。ワールド座標において、3つのオイラー回転前の物体軸Z’は平面(Xo,Yo)に垂直である。ここで、第2のオイラー角θは、物体Z軸を中心としたものではない物体座標の反時計回り回転のみを画定する(この第2の回転は軸Z’、Z’’、またはZ’’’よりもx’’=X’’’軸を中心としたものである)。従って、オイラー角θは、完全にオイラー回転された物体軸Z即ち軸線C.A.と、先端12の接点28で平面(Xo,Yo)に垂直である元の物体軸Z’との間の傾斜角θである。
投光器14は、第1の視点18を有する構造化された光学部品30を有する。このケースでは、光学部品30は単レンズである。しかしながら、幾つかのレンズ及び他の光学素子を含むより複雑な光学部品を光学部品30として用いることができることを理解されたい。投光器14はまた、プローブ放射線16を生成するためのエミッタ32を有する。この実施形態においては、エミッタ32は、アクティブピクセル34を有するアクティブアレイである。はっきり分かるように、図にはアクティブピクセル34のうち数個だけを示している。適切なピクセル34を活動化することによって、アクティブアレイ32は既知の幾何学的なパターンでプローブ放射線16を生成し、プローブ放射線16が表面26を照明するとき対応する特徴部38を生成する。
図2において、パターン36は矩形として示されている。しかし、一般には、矩形グリッド、正方形、円、点、正多角形の特殊な場合を含むグリッド、矩形、楕円、曲線、多角形などの線の集合を含む任意の対称または非対称パターンを用いることができる。投光器14によって生成されるプローブ放射線16のパターン36は、物体10の方向パラメータを導き出すのに適切な特徴部38を照明するように選択される。ここで、被選択パターンを生成するために、光学部品30は、ホログラフィック素子、回折素子、屈折素子、反射素子及びこれらの任意の組合せなどの素子から制限なく選択されることができる。
検出器20は、表面26からの散乱後にそこから物体10に戻るプローブ放射線16の散乱部分22を受け入れるための光学部品40を有する。本実施形態において、光学部品40は単一のレンズである。尤も、種々の光学素子が光学部品40として用いられることができることを当業者は理解されよう。検出器20はまた、光検出器42を有し、このケースでは感光性画素44の光検出器アレイを有する。分かり易くするために数画素44のみを示す。光学部品40は、プローブ放射線16の散乱部分22を光検出器アレイ42に映し出しかつ/または投射し、特徴部38の画像46または投射を得る。
この実施形態の動作は、平面26上に位置するときに物体10の方向が特徴部38の形状に影響するという事実に基づく。一方で、物体10の姿勢の残りのパラメータ、即ち平面(X−Z)上の先端12の位置は、特徴部38の形状に影響しない。というのも、表面26が平面であるからである。ここで、物体10の方向を表す3つのオイラー角(φ,θ,ψ)のうち、2つのオイラー角のみがプローブ放射線16のパターン36によって生成される特徴部38の形状に影響を及ぼす。これら2つは、第2及び第3のオイラー角、即ち傾斜角及びロール角θ,ψである。
この装置は、先端12が表面26に接触しているときに作動する。この状態は、適切な装置または技術によって、例えば先端12付近に取り付けられたセンサ(図示せず)の助けを借りて確認される。作動中に、アクティブアレイ32は、表面26を照明するプローブ放射線16を放射する。プローブ放射線16は矩形パターン36で放射され、構造化された光学部品30はプローブ放射線16を第1の視点18から表面26で中心軸C.A.に対して平面にΣおいて角度σで投射する。プローブ放射線16は、矩形パターン36で伝播し、表面26上に特徴部38を生成する。特徴部38は、光学部品30の倍率に依ってパターン36より小さいか同じサイズであるかまたは大きく、オイラー角θ,ψの関数として矩形パターン36の幾何学形状から歪められる。このことを理解するために、先ず一般的なオイラー回転の結果を見てみよう。
物体10の先端12が表面26に接触するポイント28でのオイラー回転座標(X,Y,Z)の原点は、ワールド平面(Xo,Yo)にある。このワールド平面は、非回転物体座標(X’,Y’,Z’)の平面(X’,Y’)と同一平面上にある(共平面)ことに留意されたい。物体座標(非回転及び回転)の原点は、ワールド座標(Xo,Yo,Zo)の原点から変位ベクトルDoだけ離隔しており、このときDoの長さ即ち|Do|は
Figure 0004814214
である。
ワールド平面(Xo,Yo)の原点は、目の前にある用途に便利なように選択または画定できることに留意されたい。しかし、一般には、長寸の物体10の方向の他にパラメータを画定する必要がなければ、即ち姿勢情報が必要でないときには、ワールド座標(Xo,Yo,Zo)の原点及び変位ベクトルDoの情報は要求されない。
ベクトルrが、高さh、軸線C.A.からのオフセットqの視点18から放射線16が平面26に投射するポイントPまで引かれた線であるとしよう。ベクトルrは、軸線C.A.に対して角度σをなし、Σ平面、即ちオイラー回転物体座標(X,Y,Z)の平面(X−Z)にある。ベクトルrが表面26を通過することになるならば、ベクトルrは同様にΣ平面に含まれるポイントPでオイラー回転物体座標のX軸と交差することになることに留意されたい。
ポイントPがパターン36の中心に対応する特徴部38の中心を画定するとしよう。表面26上の任意の点の物体座標を与えると、幾つかのステップを経て表面26上の同じ点に対してワールド座標中の位置を得ることができる。実際のところ、以下の導出は、特定のポイントPのみならず任意の点に当てはまる。先ずは、非回転物体座標中の平面(X’,Y’)からオイラー回転物体座標中の平面(X,Y)へ座標変換する必要がある。この変換は、オイラー角において行列Rにより画定される。
Figure 0004814214
下記の行列Rを適用して非回転物体座標(X’,Y’,Z’)中の点(x’,y’,z’)の座標をオイラー回転物体座標(X,Y,Z)中の点(x,y,z)に変換する。
Figure 0004814214
オイラー回転から非回転物体座標への逆座標変換は、次のように行う。
Figure 0004814214
ここで、上付き文字Tは行列Rの転置を示す。
ポイントP及びポイントPを含むベクトルrに沿った同一線上の一連のポイントPは、次のパラメータ式
Figure 0004814214
によってオイラー回転物体座標において説明できることを出願人は認めている。ここでsはパラメータである。ベクトルrに沿って伝播するプローブ放射線16がワールド平面(Xo,Yo)上で、即ち(Xo,Yo,0)で衝当するポイントPでは、パラメータsの値は
Figure 0004814214
である。
このs値を式3に代入することにより、オイラー回転物体座標中のポイントPが求められる。ここで、式2Bからの転置行列Rを用いて、ワールド座標(Xo,Yo,Zo)におけるスキャンポイントPoを求めることができる。
Figure 0004814214
ポイントPoがワールド平面(Xo,Yo)の表面26になければならないので、ワールド座標中のポイントPoのZ oの値は0でなければならないことに留意されたい。ベクトルrの長さは、第1の視点18からポイントPへのプローブ放射線16の伝播距離を表し、以下のように決定される。
Figure 0004814214
図3では、特徴部38に関する最後の2回のオイラー回転の結果をより詳しく見ている。より見やすくするために、特徴部38の角(かど)へ伝播するプローブ放射線16の4つの線が描かれている。これらの角は、ポイントP、P、P、Pと呼ばれる。ここで、式3〜5を用いて、平面(X−Y)に投射される非変形特徴部38の幾何学形状が既知である限り最後の2回のオイラー角、即ち傾斜角及びロール角θ,ψの関数として特徴部38の変形を導き出すことができる。特徴部38の幾何学形状は、全てのオイラー回転の前に、または少なくとも最後の2回のオイラー回転の前に経験的に決定されることができるか、または先験的(アプリオリ)に(例えばパターン36及び装置の他の定型的な光学的及び機械的性質から)決定されることができる。
一般に、光学部品30は、1より大きいかまたは小さい倍率を有することができる。しかし、倍率に関係なく、プローブ放射線16の後方散乱部分16’(図2を参照)は特徴部38の変形に関する情報を何らもたらさないであろう。それは、後方散乱部分16’は自身が投射された視点と同じ視点即ち第1の視点18に戻るからである。このため、特徴部38は、光学部品40によって与えられる第2の視点24から検出器20により見られなければならない。従って、検出器20は、ベクトルgに沿って表面26から散乱した後に物体10に戻るプローブ放射線16の散乱部分22を検出する。散乱部分22は、中心軸 C.A.に対して散乱角度τで第2の視点24に到達する。
視点18と24間の離隔距離Λは、
Figure 0004814214
で表すことができる。
を非常に小さな値に減らさない限り、即ち視点24が先端12のかなり上方に維持されるようにする限り、増加する離隔距離Λが装置の性能を向上させることに留意されたい。式7Aは図2の実施形態の場合のように視点18、24が直角になっている特殊な場合に限られることにも留意されたい。一般に、視点18、24は、式7Aが
Figure 0004814214
になるように、互いに関して任意の角度αであることができる。
特徴部38の変形は、視点24から特徴部38の変形を捕える画像46から判定される。画像46の形状はベクトルgによって決まるが、ベクトルgは、ベクトルrを計算するために上述の数学的形式を用いて計算される。これは、参照用に既知の角度σ、高さh、h及びオフセットqに対してPの座標が先ず決定された後に行われる。計算に関する追加情報は、Trucco, Emanuele, Verri, Alessandro, Introductory Techniques for 3-D Computer Vision, New York: Prentice Hall1998, ISBN 0-13-261108-2、Faugeras, Olivier D., Three-Dimensional Computer Vision: A Geometric Viewpoint, Cambridge, MA: MIT Press1993, ISBN262-06158-9 などのステレオ視(立体視)の文献に見つけられる。光学部品30が既知の画像倍率及び歪曲を有するとき、かつ画像46の実寸が既知であるとき、3次元視の分野において理解されるように、そして以下で更に説明するように、距離情報即ちベクトルs、r、gの長さは深さに基づき画像46に含まれることにも留意されたい。
画像46から第2及び第3のオイラー角θ,ψを決定するために、検出器アレイ42は、図4のブロック図に示されるように画素44からユニット48へ画像46を読み出す。通常、検出器アレイ42上に投射される画像46は、光学部品40に因るワーピング及び光学収差によってワープ及び歪曲されて歪曲画像46’になる。従って、ユニット48に到達後、無ワーピング/無歪曲(unwarping and undistorting)モジュール50が画像46を前処理し、ワーピング及び歪曲(ディストーション)を取り除いて特徴部38の透視投影において画像46を回収する。無ワーピング/無歪曲画像46は、次に比較モジュール52によって処理され、プローブ放射線16と散乱部分22の差から少なくとも1つの方向パラメータ(このケースでは傾斜角及びロール角θ,ψ)を決定する。より正確に言えば、プローブ放射線16と散乱部分22の差は、プローブ放射線16のパターン36によって生成される特徴部38と散乱部分22によって生成される被投射特徴部38の画像46との差である。決定は、ルックアップテーブル54に格納された対応するオイラー角ペアθ,ψで歪曲特徴部38のライブラリの助けを借りてなされる。テーブル54は、パターン36が視点18から表面26上に投射される特定の角度σに対し、物体10を回転させる前に作成されるのが好ましい。光学部品に起因する一定の歪曲を組み込むようにテーブル54を作成し、それによってモジュール50の必要性をなくすこともできることに留意されたい。
可能なオイラー角θ,ψの各ペアは、所与の角度値に対して、特徴部38の独特な歪曲を生成する。テーブル54において画像46と特徴部38間の一致(マッチング)が見つけられたとき、対応する値θ及びψがデータ56として出力される。特徴部38とその画像46との比較は、アクティブアレイ32によって投射されるパターン36が非対称であるときに特に便利である。それは、非対称パターン36が、変形が各オイラー角θ,ψの組に固有であるような非対称な特徴部38を生成するからである。適切な非対称パターンには、例えば、非直交線の集合、楕円、正多角形でない多角形が含まれる。
図5は、高さhの第1の視点84を備えた第1の光学部品82及び高さhの第2の視点88を備えた第2の光学部品86を有する長寸の物体80の平面Σにおける側断面図である。この実施形態においては、オフセットq及びqが共に0であるように視点84、88は共に物体80の中心軸C.A.上にある。物体80は、Z軸に沿った軸線C.A.及び物体軸Z’’とZ間で画定される第2のオイラー角θと共に、そのオイラー回転位置にある。物体80の先端90は、平面92に接触している。平面(X、Y)は破線で表されている。
平面Σにおいて、表面92の元の位置と最終位置間の傾斜角ηはオイラー角θ、ψの関数である。
Figure 0004814214
ここで、表面92上の線分Γ上に向けられた第1及び第2の光学部品82、86両方を考える。線分Γは、平面Σにおける特徴部94の一部分に対応する。特徴部94は、光学部品82または86のいずれかを介してまたは長寸の物体80上または既知の遠隔位置にある第3の光学部品100(破線で示されるような)を介して表面92を照明することができる投光器98から或るパターンで伝播するプローブ放射線96によって生成される。より見やすくするために、対応する傾斜角ηと、表面26上の特徴部38及び平面(X−Y)中の非変形特徴部38における一辺から対向する一辺までの一部分の線分Γ,Γ´とを図3の3次元図に示した。
再び図5を参照すると、光学部品82及び86の視点84及び88から見たような線分Γの長さは、小角近似範囲内で対する角度ε,εに比例する。対する角度がより大きい場合、テイラー展開を用いることができることに留意されたい。視点84、88から見た線分Γの長さは、視点84及び88からの半径方向の距離r及びgにも比例する。従って、視点84、88から見たΓ及びΓで示される線分Γの長さは、
Figure 0004814214
である。ここで、角度ε,εは、ラジアンで表されている。
本実施形態において、特徴部94は、軸線C.A.に対して角度σで光学部品82を介して表面92を照明する投光器98からのプローブ放射線96によって生成される。特徴部94は、光学部品86を介してプローブ放射線96の散乱部分104を収集する検出器102によって検出される。散乱部分104は、軸線C.A.に対して散乱角度τで物体80に戻る。視点84及び88はΛだけ離れているので、線分Γに対する角度ε,εは一般的に光学部品82及び86で異なる。
式9A及び9Bは、特徴部94を生成するプローブ放射線96のパターンがどこから投射されるか、どこで検出されるまたは見られるかに関係なく、線分Γ,Γの長さを説明する。本実施形態において、実際の線分Γは、第2及び第3のオイラー回転の前に表面92上に投射されることになるようなその原長Γ´から変形される。対する角度εは不変であることに留意されたい。最後の2回のオイラー回転後に表面92上に投射される線分Γの長さは、
Figure 0004814214
ここで、
Figure 0004814214
であり、σは対する角度εの中心にある。最後の2回のオイラー回転前の線分Γ´の長さは、三角法の助けを借り、(ε,εの小角近似内で)
Figure 0004814214
の関係を用いて、線分Γに関して表すことができ、
Figure 0004814214
が得られる。
線分Γは、対する角度εで、視点88から光学部品86により観察される。散乱角度τと同様に角度εのこの値も、角度ηの値によって決まる。即ち、最後の2回のオイラー回転によって決まる。これらの回転前に対する角度εの中心での散乱角度τは、角度σに関して
Figure 0004814214
で表すことができ、対する角度εは、
Figure 0004814214
で表すことができる。
ここで、最後の2回のオイラー回転の後、散乱角度τ及び対する角度εは、次式のように変わる。
Figure 0004814214
Figure 0004814214
ここで、式15を式9Bに代入すると、検出器102の光学部品86を通して見られるような線分Γの長さが求められる。即ち、
Figure 0004814214
ベクトルgの長さは、既知の角度ηで、即ち較正のために既知の第2及び第3のオイラー角ペアに対して、r(式6を参照)と同じように計算することができる。このとき、角度ηは、既知の角度で、例えばη=0での線分Γと最後の2回のオイラー回転から生じる新たな角度η≠0での線分Γの長さの差から決定される。
図3に立ち戻ることから明らかなように、角度ηが分かっても、最後の2回のオイラー角θ,ψの値は未だ得られない。これは、異なるオイラー角θ,ψのペアが同じ角度を生成することができるためである。例えば、破線で示されるように、第3のオイラー角ψがより大きく、角度θが同じであれば、角度の値は同じになる。従って、どのオイラー角ペアθ,ψが角度ηの決定値に関係するかを判定するために平面92上の特徴部94の2次元幾何学形状などの追加情報が必要である。とりわけ、再び図5を参照すると、正しいオイラー角ペアθ,ψを決定するために平面Σに垂直な方向に沿って特徴部94における一辺から対向する一辺までの一部分に対応する線分を視点88から、または異なる視点からでさえも観察ことができる。このため、単に表面92上に投射される特徴部94の2次元形状の変化から、決定された角度ηをどのオイラー角ペアθ,ψが生じさせているかを特徴部94の変形が示すことができるように、プローブ放射線96のパターンが非対称であることが好ましい。
或いは、別の視点であって、線分Γを観察するため及び当該他の視点から見られるような第3の長さΓからの追加情報を得るための別の視点を与えることができる。さらに他の別法においては、より多くの特徴部は中心軸C.A.周りの異なる角度位置で生成されることができ、これらの特徴部は、視点88から及び/または更に他の点または視点から観察されることができる。3つの、同一線上にはなくかつ同一平面上にある点の情報が、表面、例えば表面92を画定するのに十分であるという事実に基づき、特徴部94からオイラー角θ,ψを求めるために多種多様の代替解法を用いることができることは、ステレオ視の当業者に理解されよう。これらの代替アプローチについては、Faugeras, Olivier D., Three-Dimensional Computer Vision: A. Geometric Viewpoint (op-cit.) を含むステレオ視に関する標準的な文献に見つけることができる。
図6は、平面114に接触する先端112を有する別の長寸の物体110の等角図である。物体110はオイラー回転座標(X,Y,Z)中に示されており、ワールド平面(Xo,Yo)は平面114に対応する。例えば、物体110がポインタであれば表面114はスクリーンまたはパッドであることができ、物体110が筆記具、例えばペンまたは鉛筆であれば表面114は1枚の紙であることができ、物体110がスタイラスであれば表面114はデジタル入力装置のスクリーンであることができる。この実施形態において、ワールド座標(Xo,Yo,Zo)の原点Xo,Yo,Zoは、表面114の右上隅にある。
物体110は、プローブ放射線118により平面114を照明するための投光器として走査装置116を用いる。走査装置116は、プローブ放射線118のエミッタ120及びアーム124に取り付けられたスキャンミラー122を有する。エミッタ120は、コヒーレント源、例えばレーザダイオードまたは垂直キャビティ面発光レーザレーザ(VCSEL)であるのが好ましいが、発光ダイオード(LED)を含む非コヒーレント源も用いることができる。本実施形態において、エミッタ120は、プローブ放射線118を、周波数f、物体110の中心軸C.A.への放射角度μで放射するVCSELである。平行スキャンビーム126を形成するためにプローブ放射線118の経路に光学部品130(図7を参照)が供給される。
スキャンミラー122は、高さhにありかつ軸線C.A.に垂直に延在するスキャンアーム124上に取り付けられる。スキャンアーム124の長さはqである。スキャンミラー122は、軸線C.A.に対して角度σでスキャンビーム126を反射させる。実際には、スキャンミラー122は、スキャンビーム126が表面114上に投射される角度σを制御しかつ変えるために用いられる。今ここに示されているように、スキャンミラー122は不偏向位置即ち中立位置にあり、そのミラー軸M.A.は軸線C.A.に平行である。それゆえに、プローブ放射線118が中立位置においてスキャンミラー122から表面114で投射される角度である角度σは、放射角度に等しい。
スキャンビーム126は、ベクトルrによって示される経路に沿って向けられ、表面114に衝当し、ワールド座標(Xo,Yo,Zo)のワールド平面(Xo,Yo)において(xo ,yo ,0)でスキャンポイントPoを形成する。物体110の先端112でのオイラー回転座標(X,Y,Z)の原点は、表面114上にあり、即ちワールド平面(Xo,Yo)にもある。このワールド平面は、非回転物体座標(X’,Y’,Z’)の平面(X’,Y’)と同一平面上にあることに留意されたい。物体座標(非回転及び回転)の原点は、ワールド座標(Xo,Yo,Zo)の原点から変位ベクトルDoだけ離隔している。また、ワールド座標(Xo,Yo,Zo)におけるスキャンポイントPoは、非回転平面(X’,Y’)において、またはワールド平面(Xo,Yo)において、軸X’に対して角度βであるベクトルdoだけ物体座標の原点から離隔している。
図7にもっと良く説明されているように、スキャンアーム124、スキャンミラー122、エミッタ120、光学部品130が走査装置116の全ての部品である。走査装置116は、角度σを変えることによって表面114の上方の光学部品130によってスキャンビーム126に平行にされるプローブ放射線118をスキャンする。これを達成するために、走査装置116は、X及びYで示される2つの軸に沿って角度σを変えるためのX‐ドライバ134及びY‐ドライバ136で構成される二軸スキャナ132を有する。スキャンミラー122は二軸スキャンミラーであり、MEMミラーであるのが好ましい。代わりに、単一の二軸スキャンミラー122に代えて2つの一軸ミラーを用いることもできる。一軸ミラー及び二軸ミラーは共に当該分野で既知である。この実施形態では走査軸線X及びYは直交するが、このことが必須でないことを当業者は理解するであろう。
X‐ドライバ134は、軸Xへのミラー122のx‐偏向γを制御することによって角度σを変える。Y‐ドライバ136は、軸Yへのミラー122のy‐偏向γを制御することによって角度σを変える。偏向が小さい場合、角度σの変化は、角度σのx‐成分及びy‐成分即ちσ及びσで表すことができるので、次式のように表すことができる。
Figure 0004814214
角度σのx‐成分及びy‐成分は、中立即ち不偏向位置において指標となるミラー軸M.A.に対して、またはオイラー回転物体座標において物体110の軸線C.A.に対して同等に画定されることに留意されたい。
再び図6を参照すると、スキャンビーム126即ちベクトルrがスキャンポイントPoで表面114に衝当することに留意されたい。表面114上のワールド座標におけるスキャンポイントPoの位置を求めるために、幾つかのステップが必要である。先ずは、図1Aないし図Cで画定されるのと同じように画定される非回転物体座標からオイラー回転物体座標中の平面(X,Y)へ座標変換する必要がある。この変換は、上記したように、オイラー角において行列Rにより画定される。また、上記したように、行列Rを適用して非回転物体座標(X’,Y’,Z’)中の点(x’,y’,z’)の座標をオイラー回転物体座標(X,Y,Z)中の点(x,y,z)に変換し、行列Rの転置を用いて逆変換を行う。
ここで、ワールド座標における表面114上のスキャンポイントPoの位置は、二軸スキャナ116によって制御される。上述の数学的形式を利用し、式からの転置行列Rを用いて、ワールド座標(Xo,Yo,Zo)におけるスキャンポイントPo、即ちPo(xo ,yo ,0)が求められる。
Figure 0004814214
さらに、ワールド座標における先端112の絶対位置を知る必要がなく、物体110の方向だけ分かればよいのであれば、ベクトルDoの情報は必要なく、それを追加することは不要である。スキャンポイントPoはワールド平面(Xo,Yo)にあるので、ワールド座標中のポイントPoのzo の値は0でなければならないことに留意されたい。
ベクトルrの長さは、ミラー122からスキャンポイントPoへのスキャンビーム126の伝播距離を表し、次のように決定される。
Figure 0004814214
ベクトルrの長さの情報を用いて、図6に示されるような表面114へのスキャンビーム126の入射角δを決定する。角度δは、物体座標の原点からスキャンポイントPoへのベクトルdoと、ミラー122からスキャンポイントPoへのベクトルrの間の角度である。よって、角度δを次式で表すことができる。
Figure 0004814214
ここで(x,y,z)はオイラー回転物体座標におけるスキャンポイントPoの座標である。非回転物体軸X’に対するベクトルdoの角度βは、軸X’またはワールド軸Xoを用いた内積の微分法から求められる。
平面114を照明するプローブ放射線118は、表面114の物理的特性のみならず、表面114へのプローブ放射線118の入射方向、プローブ放射線118の周波数fに基づき散乱する。双方向反射率分布関数(bidirectional reflectance distribution function:BRDF)は、プローブ放射線118の散乱部分138のスペクトル特性及び空間特性を表す。BRDFは、全ての入射及び反射方向に対する反射ラジアンスと入射線束密度の比である。入射方向は、方向余弦χ、κ、ζによって十分に表されるが、これらはベクトルrとワールド単位ベクトル
Figure 0004814214
の内積から得られる。同様に、単位ベクトル
Figure 0004814214
への方向余弦(図示せず)は、散乱部分138の反射方向を表す。
多くの場合に表面114はランベルト面(完全散乱面)であるかまたはほぼランベルト面であり、BRDFはζ=0(法線入射)での最高値から連続的な減少を示す。表面114がランベルト面であってもなくても、そのBRDFは、較正のために予期される入射方向及び反射方向で測定されるべきである。最も単純な場合には、第3のオイラー角ψはπ/2または3π/2に近いかまたは等しい。これらのケースでは、BRDFは、方向余弦を計算する必要なしに、表面114に対して入射角δまたは表面法線
Figure 0004814214
に対して角度δ’=(π/2)‐δで直接表される。他のオイラー角値ψでは、入射方向を十分に表すために方向余弦が用いられなければならない。
表面114へのプローブ放射線116の散乱部分138の反応は、それゆえに、反射方向の関数として散乱部分散乱部分138の強度の変化によって表されることができる。一般的に、表面114への散乱部分138の反応には、強度の変化のみならず、偏光ベースの反応を含めることができる。
物体110は、散乱角度τで平面114から軸線C.A.に戻るプローブ放射線118の散乱部分138を検出するための検出器140を有する。より見やすくするために、角度τで戻る散乱部分138を符号139で示している。検出器140は、走査装置116から離隔するように高さhで取り付けられる。投光器または走査装置116は、スキャンミラー122の位置即ち高さh、軸線C.A.からのオフセットqによって決まる第1の視点を有する。同時に、検出器140は、高さh、軸線C.A.からのゼロオフセットで第2の視点を有する。
検出器140は、散乱角度τで到達する散乱部分139から長寸の物体110の少なくとも1つの方向パラメータを決定するために用いられる。この実施形態において、走査装置116は、放射状パターンを用いて、軸線C.A.及び長さqのアーム124によって画定される平面において角度σをいろいろに変える。従って、時間的及び空間的にプローブ放射線118を変えるパターン即ちスキャンビーム126のスキャンパターンによって表面114上に生成される特徴部142はスキャンラインであり、或いはより正確に言えば放射状スキャンラインである。走査装置116は二軸であるが、一軸スキャンミラーを備えた一軸走査装置を用いて放射状スキャンライン142を生成することもできることに留意されたい。
散乱角度τで戻る散乱部分139のみが考慮されることを確実にするために、検出器140は図8に示されるような狭画角受容ユニット144を有する。ユニット144は、円筒レンズ、視準レンズ、厚い開口または開口系、スリット、または、散乱角度τで到達していない散乱部分138を取り除くためのその他の適切な装置であることができる。
検出器140は、散乱部分139を測定するための光検出器146を有する。光検出器146は、複数の画素148を有する光検出器アレイであるのが好ましい。従って、散乱部分139がアレイ146に衝当するとき、散乱部分139は、複数の画素148上に延在するスポット150を作り出す。散乱部分139のスポット150の重心152の情報を用いて、散乱部分139がより正確に散乱角度で到達していることを確認することができる。
検出器140は高さhで取り付けられ、ユニット144は散乱角度τで到達する散乱部分139しか受け入れないので、スキャンライン142に沿った点であって当該点から散乱部分139が光検出器146に当たるようにすることができるような点が1つ存在する。この図において、これはスキャンポイントPoである。スキャンライン142に沿った全ての他の点では、散乱角度τで到達する散乱部分139は受け入れられないことになる。というのも、この散乱部分139は検出器140の上方または下方のいずれかにユニット144から遠く離れて到達することになるからである。これは図6中にスキャンポイントP及びPからスキャンライン142に沿って到達する散乱部分139に対して破線で示されている。
図9に、走査装置116を操作しかつ物体110の少なくとも1つの方向パラメータを導き出すための例示的な制御回路156のブロック図を示す。当業者は、種々の制御回路を使用可能であること、制御回路のデザインはとりわけ検出器140、光源120及び走査装置116の型に依ることを理解されよう。光源120は、パルスモードまたは連続モードでの作動ができることにも留意されたい。
回路156は、走査装置116と、検出器140とに接続される。回路156は、検出器140に接続された増幅器158と、増幅器158に接続された増幅器アナログデジタル変換器ADC160とを有する。増幅器158は、検出器140からの信号を増幅し、増幅器158は、トランスインピーダンスアンプ、オペアンプ、または他の適切な増幅器であることができる。ADC160は、増幅器158からの増幅信号をデジタル化するために適合される。回路156は、検出器140により生成された信号に対応するデジタル信号を受信するためにADC160に接続された演算処理装置162も有する。
演算処理装置162は、スポット150の重心152を計算するための重心計算装置164を有する。更に、ユニット156は、検出器140によって散乱部分139の検出時間から物体110の少なくとも1つの方向パラメータを導き出すための計時装置166を有する。計時装置166は、モジュール168と通信する。モジュール168には、スキャンライン142に対する角度の時間値σ(t)を表にしたルックアップテーブルが含まれる。
このケースにおいて、角度σ(t)即ちスキャン角度はx‐偏向γによってのみいろいろに変えられ、スキャンライン142を生成する。換言すれば、二軸スキャナ116は、X‐ドライバ134のみを用いてx‐偏向γをいろいろに変え、一方でy‐偏向γは0に保持される。(上記したように、このケースでは一軸スキャナを用いることもできる。)より正確に言えば、X‐ドライバ134は、x‐偏向γを次のように周期的に変える。
Figure 0004814214
ここで、ωは角周波数であり、Aは偏向振幅である。従って、スキャン角度σ(t)の瞬間値は、式17に式21を代入して求められる。
Figure 0004814214
異なる傾斜角ηでは、スキャンライン142に沿ったポイントPであってそこからの散乱部分139がユニット144によって検出器140に受け入れられるような当該ポイントPの位置は異なることに注意することが重要である。結果的に、散乱部分139が検出器140によって検出されるとき、スキャン角度σ(t)の各サイクル中の検出時間tdet.は傾斜角ηの関数として異なる。従って、最後の2回のオイラー回転によって生成されかつスキャンアーム124、軸線C.A.、スキャンライン142と同じ平面に含まれる角度ηは、検出時間tdet.の関数として表にすることができる。モジュール168は、散乱部分139の検出時間tdet.をスキャン角度σ(t)=σ(tdet.)の瞬間値及び対応する角度ηにインデックス付けするのが好ましい。迅速な応答を確実にするために、モジュール168は高速アクセスメモリである。或いは、モジュール168は、ルックアップテーブルを用いるよりも検出時間tdet.及びスキャン角度σ(tdet.)の瞬間値に基づき角度ηの値を計算することができる。
プローブ放射線118の生成を制御するために回路156のレーザパルスドライバ170がVCSEL120に接続される。コントローラ172は、回路156の動作を調整し、それを走査装置116及び検出器140により同期させる。このために、コントローラ172は、X‐ドライバ134、Y‐ドライバ136、レーザパルスドライバ170、増幅器158、ADC160、及び演算処理装置162に接続される。
作動中に、長寸の物体110は動きを実行し、その間に先端112は表面114上にある。好適実施形態において、角度ηの値は、物体110がはっきりと感知できる量だけ変動する時間に比べて非常に短い期間の間に決定される。コントローラ172は、VCSEL120及び走査装置116の操作速度を調整することによって動作が十分に高速であることを確実にする。具体的には、コントローラ172は、レーザパルスドライバ170に、VCSEL120を一定のパルス速度で、または連続的にでさえも、駆動するように命令する。角度σ(t)が変化するのは、X‐ドライバ134がコントローラ172によってx‐偏向γを変化させて放射状スキャンライン142を生成するように命令されるためである。プローブ放射線118のスキャンビーム126は、表面114上を通過し、プローブ放射線118の散乱部分138を生成する。上記したように、表面114上のスキャンポイントPoから戻る散乱部分139のみが(図5を参照)必要な高さ及び散乱角度τにあり、ユニット144から検出器140に受け入れられる。
ここで、コントローラ172は、角度σ(t)が十分に高速に変化するように、即ち連続する放射状スキャンライン142が高反復率で生成されるように、走査装置116のX‐ドライバ134を操作する。例えば、物体110が、棒、ポインタなどの人間が操作する用具であるか、またはペン、鉛筆、またはスタイラスなどの筆記具であるとき、角度σ(t)は、何らかの感知できる人間の動きが起こる前に1つの完全なスキャンライン142を実行するのに十分速く変化するのが好ましい。
スキャンライン142がスキャンポイントPの連続する位置から構成され、当該ライン142がVCSEL120のパルシングに依り不連続または連続であることができることに留意されたい。スキャンライン142以外のパターンは、x‐偏向γ及びy‐偏向γを変えて角度σ(t)を便利なパターンで変化させるようにX‐ドライバ134及びY‐ドライバ136に指示するコントローラ172によって生成されることができることに留意されたい。
作動中に、検出器140は、散乱角度τで戻るプローブ放射線118の散乱部分139の強度に対応する信号を生成する。増幅器158は、この信号を、ADC160によってデジタル信号に変換するのに十分な増幅率レベルまで増幅する。コントローラ172は、この過程を監視し、必要に応じて増幅器158の増幅率を調整する。
増幅信号は、演算処理装置162に搬送される。散乱部分139が観察されるとき、演算処理装置162は、角度σ(t)の連続スキャン中に検出時間tdet.を記録する。具体的には、重心計算装置164は、スポット150の重心152の位置から散乱角度τの正確な値を監視する。重心152が中心の画素148上に位置するときにスポット150の重心152が散乱角度に正確に対応するが、重心152が散乱角度に正確に対応するとき、当該時間は計時装置166によって検出時間tdet.として取られる。
計時装置166によって記録される検出時間tdet.に対して、瞬間スキャン角度σ(tdet.)の正確な値を知る必要がある。この値は、X‐ドライバ134から、または好適にはスキャンミラー122の瞬間偏向を確かめるミラー監視機構(図示せず)から、得ることができる。このケースでは、計時装置166によって記録されかつモジュール168に送られる2つの検出時間t及びtに対して、対応する瞬間偏向σ及びσは、ミラー監視機構から得られる。
検出時間tdet.の関数としてのスキャン角度σ(t)のグラフを図10に示す。X‐ドライバ134によって駆動されるようなスキャン角度σ(t)の理想的な値を破線で示す。実線は、ミラー監視機構によって記録されるようなスキャン角度σ(t)の実測値を示す。再び図9を参照すると、モジュール168におけるルックアップテーブルは、傾斜角ηの値、即ち信号が検出されたスキャン角度σ及びσに対応するη及びηを見つけ出すために用いられる。従って、傾斜角η及びηは、計時装置166によって記録される散乱部分139の検出時間から得られる。モジュール168はルックアップテーブルを当てにするよりもむしろ検出時間、高さh,h、散乱角度τに基づき角度η及びηの計算を行うための処理装置を有することができることに留意されたい。
角度ηは、物体110の有用な方向パラメータを表すが、オイラー角θ,ψの一方または両方を求めるために多くの場合望ましい。これらは、追加測定により導き出される。例えば、軸線C.A.に垂直かつアーム124に垂直なアームを備えた追加走査装置を物体110上に取り付けることができる。この追加アームは、スキャンミラーを備えることができ、平面Σに垂直な平面における傾斜角ηを測定するために用いられることができる。同じ検出器140かまたは新たな走査装置のために設けられる別の検出器のいずれかを用いて、この第2の走査装置によって生成される散乱部分を求め、検出時間を測定することができる。この別の平面における角度ηの値が分かれば、オイラー角θ,ψの値を導き出すことができる。
ある好適実施形態において、検出時間tdet.の決定が物体上(on-board)で行われるように、計時装置166は物体110上に取り付けられる。実際に、回路156全体が物体110上に取り付けられることができる。或いは、モジュール168は遠隔にあり、通信リンク(図示せず)を介して回路156の残部との通信を維持する。計時装置166からのフィードバックに応じてコントローラ172がx‐偏向γの振幅及びDCオフセットを減少させ、それによって傾斜角の瞬間値に対応する値σ(t)近辺を振動させるようにスキャン角度σ(t)の範囲を縮小することも好ましい。そのようなフィードバック装置は、角度の実時間追跡を可能にする。
物体110の走査装置116の別の操作モードを図11に示す。このケースでは、X‐ドライバ134及びY‐ドライバ136は、二軸スキャンパターン142’を生成するために用いられる。従って、x‐偏向γ及びy‐偏向γのためにスキャン角度σ(t)は変わる。スキャンパターン142’は、ラスタスキャンパターン、ラインスキャンパターン、リサジュー図形、または他の何らかのスキャンパターンであることができる。ある好適実施形態において、二軸スキャナ116は、X‐ドライバ134及びY‐ドライバ136を用いて、x‐偏向γ及びy‐偏向γを次のように周期的に変える。
Figure 0004814214
この式において、Δはx‐偏向γとy‐偏向γ間の位相差であり、A及びBは度で表される偏向振幅である。σ(t)の瞬間値は、式17に式23を代入して求められる。
Figure 0004814214
式24がリサジュー図形の一般的なパラメータ公式化を表し、スキャンパターン142’がそれ故にリサジュー図形であることを当業者は認識されたい。スキャンライン142とは異なり、リサジュー図形142’は平面Σに限定されないことに留意されたい。従って、物体110は、破線で示されているように平面Σにおいてのみよりは全ての方位方向(軸線C.Aに関する方向)から軸線C.A.に散乱角度τで戻る散乱部分139を受け入れる検出ユニット140’を有する。
この実施形態において、傾斜角ηが変わると、リサジュー図形142’上の点であってそこからの散乱部分139が検出器140に受け入れられるような当該リサジュー図形142’上の点が変わる。これらの点は、自身の方位位置を変化させることに留意されたい。従って、リサジュー図形142’の使用は、傾斜角ηからオイラー角θ,ψを決定する際に用いられることができる追加の方位情報を供給する。
平面204に接触する先端202を有する長寸の物体200の別の実施形態を図12に示す。長寸の物体200は、投光器206及び検出器208を備えている。投光器206は、第1の視点216からパターン214でプローブ放射線212により表面204を照明するための光源210を有する。投光器206は、視点216が長寸の物体200の中心軸線C.A.上にあるように物体200の上端部に取り付けられる。
投光器206は、空間において3次元放射パターン214でプローブ放射線212を投射するための構造化された光学部品を有する。ホログラフィック素子、回折素子、屈折素子、反射素子を含む任意の型の光学部品を用いることができる。光学部品を構成する素子は、固定されることができるかまたは投射されるパターン214に依存して動くことができる。例えば、パターン214が経時的に変化することになっていなければ、可動部は必要ない。その一方で、パターン214が経時的に変化することになっていれば、構造化された光学部品を取り付けるために回転、旋回または傾斜型の台や他の周知の装置などの可動部が用いられることができる。本実施形態において、パターン214は非対称パターンである。
検出器208は、第2の視点218を有し、既知の高さで物体200上に取り付けられる。検出器208は、第2の視点218へ表面204から戻るプローブ放射線212の散乱部分220を検出する。散乱部分220は、プローブ放射線212のパターン214が表面204を照明するとき生成される特徴部224の形状によって規定されるパターン222で戻る。本実施形態において、パターン214は非対称であるので非対称特徴部224を生成する。更に、この実施形態においては、3次元放射パターン214の形状は経時的に変えられない。上記した理由で、傾斜角ηの変化または同等に最後の2回のオイラー角θ,ψのいずれかの変化は、特徴部224の形状に影響し、それゆえ放射パターン222を部分的に変える。
検出器208の部品には、図13に一層良く示されているように、第2の視点218を画定するイメージング光学部品226及び画像平面228が含まれる。光学部品226における画像の中心的なオクルージョン230及び画像平面228に落とされた対応する影232は、物体200による中心的なオブスキュレーションに起因する。複数の画素236を有する画像アレイ234は、光学部品226によって映し出されるプローブ放射線212の散乱部分220を記録するため、画像平面228に位置決めされる。
中心軸C.A.に対して散乱角度τで検出器208に入る散乱部分220は、円錐240の表面に沿って伝播しなければならず、円錐240の表面は、散乱角度τを生じさせるプローブ放射線212に対する全ての可能な散乱点を画定する。円錐240と表面204の交差は表面204上の点の軌跡242を示すが、そこでは、物体200に戻りかつ散乱角度τで検出器208に入る散乱部分220をプローブ放射線212が生成する。軌跡242は、傾斜角ηが0であるときには円形であり、そうでなければ楕円であることに留意されたい。軌跡242の任意の点から散乱角度τで戻る散乱部分220に対応する円238は、画像平面228において画像アレイ234上に示されている。
作動中に、パターン224は、投光器206によって表面204上に投射され、特徴部224を生成する。散乱部分220は、検出器208に戻り、アレイ234の上へ映し出される。全てのプローブ放射線212のうち、軸線C.A.に対して角度σ、σ、σで投射されるプローブ放射線の線212A、212B、212Cは、それぞれポイントP、P、Pで表面204を照明する。ポイントP、P、Pは軌跡242の一部であるので、ポイントP、P、Pからの散乱部分の線220A、220B、220Cは散乱角度τで軸線C.A.に戻り、円238上に映し出される。従って、円238は狭画角即ち散乱角度τを画定する。
パターン214が既知であるので、円238上の散乱部分220によって生成される点(ポイント)、具体的に言うとポイントP’、P’、P’の情報は、物体200の少なくとも1つの方向パラメータ即ち角度を決定するのに十分である。更に、角度ηは、円238上のポイントP’、P’、P’の位置に基づきオイラー角θ,ψに分解されることができる。多くの場合には、円238上の2つの異なる点はオイラー角θ,ψを決定するのに十分であることになることに留意されたい。少なくとも1つの方向パラメータの実際の決定は、画像アレイ234と通信している演算処理装置(図示せず)によって行われる。前述同様に、決定を効率的にするためにルックアップテーブル及び他の既知の技術を用いることができる。パターン214はいろいろに変わることができ、投光器206によって一度に投射されるよりもパターン214は1若しくは複数の一軸及び/または二軸スキャナまたは適切なその組合せを含む適切な走査装置によって走査されることもできることに留意されたい。この実施形態の別の変型においては、画素236の数を減らすために、画像アレイ234は、円238の円周に沿って配置された画素236しか有しないことがある。
投光器252が検出器254の下方に取り付けられた長寸の物体250の更に別の実施形態の部分概略図を図14に示す。分かり易くするために、物体250は部分的にしか示されておらず、通常はベクトルRによって示されている。投光器252は、第1の視点262から格子パターン260においてプローブ放射線258により表面256を照明する。投光器252は任意の適切な型のものであることができ、格子パターン260は、連続的に、周期的に、断続的に及び/または部分的にかのいずれかで投射されるか、任意の順番で、例えばラインまたはラスタスキャンでスキャンアウトされることができる。いずれにせよ、表面256上に投射されるとき、パターン260は傾斜角の関数として変形され、特徴部263が形成される。
検出器254は、表面256上の特徴部263から第2の視点266に戻るプローブ放射線258の散乱部分264を検出する。第2の視点266は、検出器254の一部であるレンズ268によって画定される。検出器254はまた、レンズ268によって画定される画像平面272に配置される画像アレイ270を有する。プローブ放射線258と散乱部分264の差から少なくとも1つの方向パラメータを決定するためのユニット274は、画像アレイ270と通信している。
物体250は、ペン、鉛筆、またはスタイラスなどの筆記具であることができる。ある好適実施形態において、物体250はペンであり、表面256は紙面である。
作動中に、物体250の先端276は表面256に接触し、投光器252は表面256に格子パターン260を投射する。物体250の方向、及びさらに具体的には最後の2回のオイラー角θ,ψは、格子パターン260を特徴部263に変形させる。画像アレイ270の助けを借りて、レンズ268によって与えられる第2の視点266から特徴部263を観察することが、(上記した技術のいずれかによる)オイラー角の回収を可能にする。それに加えて、格子パターン260の使用により、表面256の幾何形状を認識することが可能になる。例えば、格子パターン260が表面256上へ投射される一方で、表面幾何形状の較正のためにオイラー角θ,ψは0である。あとで、表面幾何形状は、物体250の種々の姿勢でのオイラー角θ,ψを導き出すときに考慮される。従って、この実施形態では表面256は平面である必要がない。表面方向の決定におけるグリッドの使用に関する詳細については、Wang, Y. F., Mitiche, A., and Aggarwal, J. K., "Computation of Surface Orientation and Structure of Objects Using Grid Coding", PAMI (9), No. 1, January 1987, pp. 129-137、Shrikhande, N., and Stockman, G.C., "Surface Orientation from a Projection Grid", PAMI (11), No. 6, June 1989, pp.650-655 を参照されたい。
投光器及び検出器の視点は互いに関連して設置されることができ、各システムは2つ以上の視点を有することができることに留意されたい。スキャニング(走査)を利用するケースと同じである。というのも、それぞれの視点を画定する別々のスキャンミラーを備えた多くのスキャンアームが用いられることができるからである。更に、検出器は、アレイよりもむしろ単一光検出器を含む任意の型の光検出器を用いることができる。
本発明が種々の他の実施形態の余地を残していることは当業者に明らかであろう。
長寸の物体のオイラー回転を示す図である。 長寸の物体のオイラー回転を示す図である。 長寸の物体のオイラー回転を示す図である。 オイラー回転姿勢がより詳細な、図1Aないし図1Cの長寸の物体を示す3次元図である。 図1Aないし図1Cの長寸の物体の最後の2回のオイラー回転を示す3次元図である。 図1Aないし図1Cの長寸の物体の傾斜角及びロール角θ,ψを回収するための操作を示すブロック図である。 Σ平面における別の長寸の物体の側断面図である。 プローブ放射線のパターンを投射するための走査装置を備えた長寸の物体の等角図である。 例示的な二軸スキャナを示す3次元図である。 図6の長寸の物体が用いる検出器の詳細図である。 図6の長寸の物体に対する傾斜角θの導出を示すブロック図である。 検出時間の関数としてのスキャン角度のグラフである。 異なる操作モードの図6の長寸の物体の等角図である。 長寸の物体の別の実施形態の等角図である。 図12に詳細に示されている長寸の物体の検出器を示す部分3次元図である。 その投光器が検出器の下に取り付けられた長寸の物体の更に別の実施形態の部分概略図である。

Claims (21)

  1. 平面及び前記平面への法線に接触する先端を有する長寸の物体の少なくとも1つの方向パラメータを決定するための装置であって、
    a)前記長寸の物体の軸線と角度σをなすプローブ放射線により前記平面を照明するための前記長寸の物体上の投光器と、
    b)前記軸線に対して所定の散乱角度で前記平面から戻る前記プローブ放射線の散乱部分を検出するための前記投光器から離隔した前記長寸の物体上の検出器と、
    c)前記散乱部分の検出時間から前記少なくとも1つの方向パラメータを導き出すための計時装置と、
    d)前記角度σを変化させ前記平面上にスキャンパターンを形成するための走査装置とを含み、
    前記散乱部分の検出時間は、該検出時間における前記角度σと前記少なくとも1つの方向パラメータとの対応づけにより前記少なくとも1つの方向パラメータを導くために用いられることを特徴とする装置。
  2. 前記少なくとも1つの方向パラメータが、前記長寸の物体の軸線と前記接点での前記表面への法線間の傾斜角θを含むことを特徴とする請求項に記載の装置。
  3. 前記少なくとも1つの方向パラメータが、前記軸線の周りのロール角ψを更に含むことを特徴とする請求項に記載の装置。
  4. 前記走査装置が、x‐偏向γを導入することによって角度σを変化させるための一軸スキャナを含むことを特徴とする請求項に記載の装置。
  5. 前記走査装置が、x‐偏向γ及びy‐偏向γを導入することによって角度σを変化させるための二軸スキャナを含むことを特徴とする請求項に記載の装置。
  6. 前記走査装置が、前記角度σを変化させるための二軸スキャナを含み、前記スキャンパターンが、ラスタスキャンパターン、ラインスキャンパターン、リサジュー図形からなる群から選択されることを特徴とする請求項に記載の装置。
  7. 前記投光器が、所定のパターンで前記平面上へ前記プローブ放射線を投射するための構造化された光学部品を含むことを特徴とする請求項に記載の装置。
  8. 前記構造化された光学部品が、ホログラフィック素子、回折素子、屈折素子、反射素子からなる群から選択される少なくとも1つの素子であることを特徴とする請求項に記載の装置。
  9. 前記所定のパターンが、線の集合、楕円、矩形、多角形からなる群から選択されることを特徴とする請求項に記載の装置。
  10. 前記投光器が、前記検出器の上方に取り付けられることを特徴とする請求項に記載の装置。
  11. 前記検出器が、前記所定の散乱角度τで前記平面から戻る前記散乱部分のみを受け入れるための狭画角受容ユニットを更に含むことを特徴とする請求項に記載の装置。
  12. 前記狭画角受容ユニットが、円筒レンズ、視準レンズ、厚い開口、開口系、スリットからなる群から選択されることを特徴とする請求項11に記載の装置。
  13. 前記検出器が光検出器アレイを含むことを特徴とする請求項に記載の装置。
  14. 前記散乱部分の重心を決定するための重心計算装置を更に含むことを特徴とする請求項13に記載の装置。
  15. 前記プローブ放射線をスキャンビームに形成するための光学部品を更に含むことを特徴とする請求項に記載の装置。
  16. 前記長寸の物体が、筆記具、ポインタ、ロボットアーム、棒からなる群から選択されることを特徴とする請求項に記載の装置。
  17. 前記筆記具が、ペン、鉛筆、スタイラスからなる群から選択されることを特徴とする請求項16に記載の装置。
  18. 前記計時装置が前記長寸の物体上に配置されることを特徴とする請求項に記載の装置。
  19. 前記投光器が、単一周波数fで前記プローブ放射線を放射するための単一周波数エミッタを含むことを特徴とする請求項に記載の装置。
  20. 平面に接触する先端を有する長寸の物体の軸線と前記平面の法線間の傾斜角θを決定する方法であって、
    a)前記長寸の物体上に投光器を供給する過程と、
    b)前記長寸の物体上に前記投光器から離隔して検出器を供給する過程と、
    c)前記投光器から前記軸線と角度σをなすプローブ放射線により前記平面を照明する過程と、
    d)前記軸線に対して所定の散乱角度τで戻る前記プローブ放射線の散乱部分を前記検出器により検出する過程と、
    e)前記散乱部分の検出時間から前記傾斜角θを導き出すための計時装置を供給する過程とを含み、
    前記角度σが変化し前記平面上にスキャンパターンを形成し、
    前記散乱部分の検出時間は、該検出時間における前記角度σと少なくとも1つの方向パラメータとの対応づけにより前記傾斜角θを導くために用いられることを特徴とする方法。
  21. 前記スキャンパターンが、一軸スキャンパターン及び二軸スキャンパターンの群から選択されることを特徴とする請求項20に記載の方法。
JP2007502826A 2004-03-08 2005-02-16 長寸の物体の方向パラメータを決定するための装置及び方法 Expired - Fee Related JP4814214B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/796,236 US7023536B2 (en) 2004-03-08 2004-03-08 Apparatus and method for determining orientation parameters of an elongate object
US10/796,236 2004-03-08
PCT/US2005/005047 WO2005091837A2 (en) 2004-03-08 2005-02-16 Apparatus and method for determining orientation parameters of an elongate object

Publications (2)

Publication Number Publication Date
JP2008523353A JP2008523353A (ja) 2008-07-03
JP4814214B2 true JP4814214B2 (ja) 2011-11-16

Family

ID=34912562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007502826A Expired - Fee Related JP4814214B2 (ja) 2004-03-08 2005-02-16 長寸の物体の方向パラメータを決定するための装置及び方法

Country Status (7)

Country Link
US (1) US7023536B2 (ja)
EP (1) EP1735588A4 (ja)
JP (1) JP4814214B2 (ja)
KR (1) KR101026611B1 (ja)
CN (1) CN101523154B (ja)
CA (1) CA2558732C (ja)
WO (1) WO2005091837A2 (ja)

Families Citing this family (127)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE357680T1 (de) 2000-10-07 2007-04-15 David Dickerson Informationssystem und verfahren zur zurverfügungstellen von informationen unter verwendung eines holographischen elements
JP4260634B2 (ja) * 2002-02-15 2009-04-30 富士通株式会社 画像変換方法及び装置、画像認識装置、ロボット制御装置並びに画像投影装置
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7729515B2 (en) * 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US8542219B2 (en) * 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US8799303B2 (en) 2004-02-15 2014-08-05 Google Inc. Establishing an interactive environment for rendered documents
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US20060041484A1 (en) 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20080313172A1 (en) 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8621349B2 (en) 2004-04-01 2013-12-31 Google Inc. Publishing techniques for adding value to a rendered document
US8793162B2 (en) 2004-04-01 2014-07-29 Google Inc. Adding information or functionality to a rendered document via association with an electronic counterpart
US20070300142A1 (en) 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US9460346B2 (en) 2004-04-19 2016-10-04 Google Inc. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
KR100703698B1 (ko) * 2005-02-16 2007-04-05 삼성전자주식회사 공간 필기 인식 장치 및 방법, 그리고 상기 방법을 기록한기록 매체
US9405372B2 (en) * 2006-07-14 2016-08-02 Ailive, Inc. Self-contained inertial navigation system for interactive control using movable controllers
US9050528B2 (en) * 2006-07-14 2015-06-09 Ailive Inc. Systems and methods for utilizing personalized motion control in virtual environment
US7835592B2 (en) * 2006-10-17 2010-11-16 Seiko Epson Corporation Calibration technique for heads up display system
NO327279B1 (no) 2007-05-22 2009-06-02 Metaio Gmbh Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning
DE102007033486B4 (de) * 2007-07-18 2010-06-17 Metaio Gmbh Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
DE112007003635T5 (de) 2007-08-30 2010-09-30 Razer (Asia-Pacific) Pte. Ltd. System und Verfahren zur Deaktivierung von Tasten
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
WO2009049272A2 (en) 2007-10-10 2009-04-16 Gerard Dirk Smits Image projector with reflected light tracking
DE112007003723T5 (de) * 2007-11-30 2011-02-17 Razer (Asia-Pacific) Pte. Ltd. Ergonomische Mauseinrichtung mit mehrfach programmierbaren Tasten
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
US8655622B2 (en) * 2008-07-05 2014-02-18 Ailive, Inc. Method and apparatus for interpreting orientation invariant motion
US8159455B2 (en) * 2008-07-18 2012-04-17 Apple Inc. Methods and apparatus for processing combinations of kinematical inputs
ES2482997T3 (es) 2008-11-10 2014-08-05 Metaio Gmbh Método y sistema para analizar una imagen generada mediante al menos una cámara
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
WO2010105246A2 (en) 2009-03-12 2010-09-16 Exbiblio B.V. Accessing resources based on capturing information from a rendered document
EP2382599B1 (en) 2009-07-29 2012-12-12 Metaio GmbH Method for determining the pose of a camera with respect to at least one real object
DE102009037835B4 (de) 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
DE102009049073A1 (de) 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
EP2339537B1 (en) * 2009-12-23 2016-02-24 Metaio GmbH Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
US8589015B2 (en) * 2010-02-12 2013-11-19 Webtech Wireless Inc. Vehicle sensor calibration for determining vehicle dynamics
EP2542957B1 (en) 2010-03-01 2020-07-08 Apple Inc. Method of displaying virtual information in a view of a real environment
TWI430136B (zh) * 2010-03-22 2014-03-11 Au Optronics Corp 互動式立體顯示系統以及距離計算方法
WO2012054231A2 (en) 2010-10-04 2012-04-26 Gerard Dirk Smits System and method for 3-d projection and enhancements for interactivity
JP5713634B2 (ja) * 2010-11-10 2015-05-07 矢崎総業株式会社 部品位置計測方法
WO2012083982A1 (en) 2010-12-21 2012-06-28 Metaio Gmbh Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object
CN103415860B (zh) 2011-01-27 2019-07-12 苹果公司 确定第一和第二图像间的对应关系的方法以及确定摄像机姿态的方法
WO2012123951A2 (en) 2011-03-17 2012-09-20 N-Trig Ltd. Interacting tips for a digitizer stylus
WO2012126522A1 (en) 2011-03-23 2012-09-27 Metaio Gmbh Method for registering at least one part of a first and second image using a collineation warping function
JP5941146B2 (ja) 2011-07-29 2016-06-29 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. 投影取込システム、プログラムおよび方法
KR101773988B1 (ko) 2011-07-29 2017-09-01 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 시각적 계층화 시스템 및 시각적 계층화 방법
US9521276B2 (en) 2011-08-02 2016-12-13 Hewlett-Packard Development Company, L.P. Portable projection capture device
WO2013029675A1 (en) 2011-08-31 2013-03-07 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment
US8896688B2 (en) 2011-11-04 2014-11-25 Hewlett-Packard Development Company, L.P. Determining position in a projection capture system
CN102566594B (zh) * 2012-01-18 2014-06-04 浙江大学 基于微视觉反馈的微构件声操纵二维平移方法
US9134814B2 (en) * 2012-04-05 2015-09-15 Seiko Epson Corporation Input device, display system and input method
EP2842121B1 (en) 2012-04-24 2020-05-27 Hewlett-Packard Development Company, L.P. System for displaying an image
US9652043B2 (en) 2012-05-14 2017-05-16 Hewlett-Packard Development Company, L.P. Recognizing commands with a depth sensor
US8837780B2 (en) 2012-06-22 2014-09-16 Hewlett-Packard Development Company, L.P. Gesture based human interfaces
US20140000516A1 (en) * 2012-06-29 2014-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Digital point marking transfer
US20140002615A1 (en) * 2012-07-02 2014-01-02 Sony Pictures Technologies Inc. System and method for correcting binocular photography with homographic transformations
US8831285B2 (en) 2012-07-26 2014-09-09 Hewlett-Packard Development Company, L.P. Detecting objects with a depth sensor
US8971568B1 (en) * 2012-10-08 2015-03-03 Gerard Dirk Smits Method, apparatus, and manufacture for document writing and annotation with virtual ink
US9297942B2 (en) 2012-10-13 2016-03-29 Hewlett-Packard Development Company, L.P. Imaging with polarization removal
US8982261B2 (en) 2012-10-13 2015-03-17 Hewlett-Packard Development Company, L.P. Imaging with interleaved detection accumulations
US9143696B2 (en) 2012-10-13 2015-09-22 Hewlett-Packard Development Company, L.P. Imaging using offsetting accumulations
US9274651B2 (en) 2012-11-05 2016-03-01 Hewlett-Packard Development Company, L.P. Apparatus to track a pointing device
US9146668B2 (en) 2013-01-31 2015-09-29 Hewlett-Packard Development Company, L.P. Graphical element placement on a display surface
EP2967322A4 (en) 2013-03-11 2017-02-08 Magic Leap, Inc. System and method for augmented and virtual reality
US9852512B2 (en) 2013-03-13 2017-12-26 Electronic Scripting Products, Inc. Reduced homography based on structural redundancy of conditioned motion
US8970709B2 (en) * 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty
US9148573B2 (en) 2013-03-15 2015-09-29 Hewlett-Packard Development Company, L.P. Non-uniform correction illumination pattern
KR20230113418A (ko) 2013-03-15 2023-07-28 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US9323338B2 (en) 2013-04-12 2016-04-26 Usens, Inc. Interactive input system and method
US9776364B2 (en) 2013-08-09 2017-10-03 Apple Inc. Method for instructing a 3D printing system comprising a 3D printer and 3D printing system
US10126880B2 (en) 2013-08-22 2018-11-13 Hewlett-Packard Development Company, L.P. Projective computing system
EP3039515B1 (en) 2013-08-30 2020-02-19 Hewlett-Packard Development Company, L.P. Touch input association
US9513721B2 (en) 2013-09-12 2016-12-06 Microsoft Technology Licensing, Llc Pressure sensitive stylus for a digitizer
US10324563B2 (en) 2013-09-24 2019-06-18 Hewlett-Packard Development Company, L.P. Identifying a target touch region of a touch-sensitive surface based on an image
CN105723300B (zh) 2013-09-24 2020-10-27 惠普发展公司,有限责任合伙企业 基于表示对象的图像确定分割边界
US10114512B2 (en) 2013-09-30 2018-10-30 Hewlett-Packard Development Company, L.P. Projection system manager
US10003777B2 (en) 2013-11-21 2018-06-19 Hewlett-Packard Development Company, L.P. Projection screen for specularly reflecting light
EP3100136A4 (en) 2014-01-31 2018-04-04 Hewlett-Packard Development Company, L.P. Touch sensitive mat of a system with a projector unit
CN106255938B (zh) 2014-02-28 2019-12-17 惠普发展公司,有限责任合伙企业 传感器和投影仪的校准
US9810913B2 (en) 2014-03-28 2017-11-07 Gerard Dirk Smits Smart head-mounted projection system
DE102014106837B4 (de) * 2014-05-15 2018-12-27 Stabilo International Gmbh Driftkompensation / Parallelminimierung
US9377533B2 (en) 2014-08-11 2016-06-28 Gerard Dirk Smits Three-dimensional triangulation and time-of-flight based tracking systems and methods
US9874951B2 (en) * 2014-11-03 2018-01-23 Microsoft Technology Licensing, Llc Stylus for operating a digitizer system
US10417801B2 (en) 2014-11-13 2019-09-17 Hewlett-Packard Development Company, L.P. Image projection
KR101618035B1 (ko) * 2015-01-29 2016-05-04 주식회사 트레이스 스타일러스 펜의 기울기 정보를 이용하는 디지타이저 장치
CN104697488B (zh) * 2015-04-02 2017-06-13 北京天源科创风电技术有限责任公司 一种平面法线方位角测量方法及其应用
US10043282B2 (en) 2015-04-13 2018-08-07 Gerard Dirk Smits Machine vision for ego-motion, segmenting, and classifying objects
WO2016185581A1 (ja) * 2015-05-20 2016-11-24 オリンパス株式会社 標本形状測定方法及び標本形状測定装置
US9922244B2 (en) 2015-09-03 2018-03-20 Gestigon Gmbh Fast and robust identification of extremities of an object within a scene
US9740312B2 (en) 2015-09-09 2017-08-22 Microsoft Technology Licensing, Llc Pressure sensitive stylus
EP3163537A1 (en) * 2015-10-30 2017-05-03 Thomson Licensing Method and apparatus for determining accurate area light illumination using ellipsoid based functions
WO2017106875A1 (en) 2015-12-18 2017-06-22 Gerard Dirk Smits Real time position sensing of objects
US9813673B2 (en) 2016-01-20 2017-11-07 Gerard Dirk Smits Holographic video capture and telepresence system
CN112416149A (zh) * 2016-03-08 2021-02-26 禾瑞亚科技股份有限公司 侦测触控笔的倾斜角的触控控制装置与其控制方法
US9841828B2 (en) 2016-04-20 2017-12-12 Microsoft Technology Licensing, Llc Pressure sensitive stylus
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
US10346949B1 (en) 2016-05-27 2019-07-09 Augmented Pixels, Inc. Image registration
JP6487385B2 (ja) * 2016-07-20 2019-03-20 ファナック株式会社 ロボットの原点位置較正装置および方法
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
EP3532863A4 (en) * 2016-10-31 2020-06-03 Gerard Dirk Smits FAST SCAN LIDAR WITH DYNAMIC VOXEL PROBE
WO2018092247A1 (ja) * 2016-11-17 2018-05-24 オリンパス株式会社 標本形状測定方法及び標本形状測定装置
CN110226184B (zh) 2016-12-27 2023-07-14 杰拉德·迪尔克·施密茨 用于机器感知的系统和方法
US10318022B2 (en) 2017-01-30 2019-06-11 Microsoft Technology Licensing, Llc Pressure sensitive stylus
WO2018209096A2 (en) 2017-05-10 2018-11-15 Gerard Dirk Smits Scan mirror systems and methods
CN107270826B (zh) * 2017-06-29 2019-11-22 西安理工大学 一种孔的视觉测量方法
US10591605B2 (en) 2017-10-19 2020-03-17 Gerard Dirk Smits Methods and systems for navigating a vehicle including a novel fiducial marker system
WO2019148214A1 (en) 2018-01-29 2019-08-01 Gerard Dirk Smits Hyper-resolved, high bandwidth scanned lidar systems
US12014515B2 (en) * 2018-05-20 2024-06-18 Avular B.V. Estimating a pose of a spatially movable platform
EP4276520A3 (en) 2018-08-31 2024-01-24 Magic Leap, Inc. Spatially-resolved dynamic dimming for augmented reality device
US11073500B2 (en) 2018-11-07 2021-07-27 The Boeing Company Systems and methods for automatic alignment and focusing of light in laser ultrasound testing
EP3908876A4 (en) 2019-01-11 2022-03-09 Magic Leap, Inc. TIME MULTIPLEXED DISPLAY OF VIRTUAL CONTENT AT VARIOUS DEPTHS
JPWO2020246168A1 (ja) * 2019-06-04 2021-10-28 株式会社Ihi 軌道上物体の直下点位置推定方法
US11372320B2 (en) 2020-02-27 2022-06-28 Gerard Dirk Smits High resolution scanning of remote objects with fast sweeping laser beams and signal recovery by twitchy pixel array
US20230107896A1 (en) * 2020-04-03 2023-04-06 Xtia Ltd. Measurement device, measurement method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043349A (ja) * 1999-07-27 2001-02-16 Fujitsu Ltd 顔姿勢検知装置
JP2003029915A (ja) * 2001-04-12 2003-01-31 Samsung Electronics Co Ltd コンピュータ用電子ペンデータ入力装置及び座標測定方法
JP2003215244A (ja) * 2002-01-18 2003-07-30 Omron Corp 測距装置の軸調整用ターゲット及び軸調整方法

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6259438B1 (en) 1998-06-04 2001-07-10 Wacom Co., Ltd. Coordinate input stylus
US5166668A (en) 1991-04-10 1992-11-24 Data Stream Corporation Wireless pen-type input device for use with a computer
US5239489A (en) 1991-05-06 1993-08-24 International Business Machines Corporation Pen position and tilt estimators for a digitizer tablet
US5434371A (en) 1994-02-01 1995-07-18 A.T. Cross Company Hand-held electronic writing tool
JP3437239B2 (ja) 1994-02-16 2003-08-18 オリンパス光学工業株式会社 情報再生装置
CN1101056C (zh) 1995-06-22 2003-02-05 3Dv系统有限公司 生成距景物距离的图象的方法和装置
GB9516441D0 (en) 1995-08-10 1995-10-11 Philips Electronics Uk Ltd Light pen input systems
US5786804A (en) 1995-10-06 1998-07-28 Hewlett-Packard Company Method and system for tracking attitude
US6081261A (en) 1995-11-01 2000-06-27 Ricoh Corporation Manual entry interactive paper and electronic document handling and processing system
JPH09146691A (ja) 1995-11-17 1997-06-06 Hitachi Ltd 情報処理装置
CN1148161A (zh) * 1996-02-12 1997-04-23 中国人民解放军空军第八研究所 一种实时测量运动体位移姿态角的装置
US5902968A (en) 1996-02-20 1999-05-11 Ricoh Company, Ltd. Pen-shaped handwriting input apparatus using accelerometers and gyroscopes and an associated operational device for determining pen movement
US6493032B1 (en) 1996-06-24 2002-12-10 Be Here Corporation Imaging arrangement which allows for capturing an image of a view at different resolutions
US5894370A (en) * 1996-07-26 1999-04-13 Asahi Kogaku Kogyo Kabushiki Kaisha Inclination monitoring system
US6023291A (en) 1996-10-16 2000-02-08 Space Systems/Loral, Inc. Satellite camera attitude determination and image navigation by means of earth edge and landmark measurement
JP2942215B2 (ja) * 1997-06-16 1999-08-30 八洲電機株式会社 ペ ン
US5977958A (en) 1997-06-30 1999-11-02 Inmotion Technologies Ltd. Method and system for digitizing handwriting
US5974365A (en) * 1997-10-23 1999-10-26 The United States Of America As Represented By The Secretary Of The Army System for measuring the location and orientation of an object
US6034716A (en) 1997-12-18 2000-03-07 Whiting; Joshua B. Panoramic digital camera system
US6212296B1 (en) 1997-12-23 2001-04-03 Ricoh Company, Ltd. Method and apparatus for transforming sensor signals into graphical images
US6181329B1 (en) 1997-12-23 2001-01-30 Ricoh Company, Ltd. Method and apparatus for tracking a hand-held writing instrument with multiple sensors that are calibrated by placing the writing instrument in predetermined positions with respect to the writing surface
AU6633798A (en) 1998-03-09 1999-09-27 Gou Lite Ltd. Optical translation measurement
US6424407B1 (en) 1998-03-09 2002-07-23 Otm Technologies Ltd. Optical translation measurement
US6033086A (en) 1998-04-30 2000-03-07 Hewlett-Packard Company Compact illumination system for image scanner
US6249274B1 (en) 1998-06-30 2001-06-19 Microsoft Corporation Computer input device with inclination sensors
GB9828473D0 (en) * 1998-12-24 1999-02-17 British Aerospace Non-contact positioning apparatus
US6291829B1 (en) 1999-03-05 2001-09-18 Hewlett-Packard Company Identification of recording medium in a printer
AUPQ363299A0 (en) 1999-10-25 1999-11-18 Silverbrook Research Pty Ltd Paper based information inter face
US7178718B2 (en) 1999-05-25 2007-02-20 Silverbrook Research Pty Ltd Methods and systems for object identification and interaction
JP4618840B2 (ja) * 2000-02-21 2011-01-26 株式会社沖データ 座標入力装置
US6639685B1 (en) 2000-02-25 2003-10-28 General Motors Corporation Image processing method using phase-shifted fringe patterns and curve fitting
US20020048404A1 (en) 2000-03-21 2002-04-25 Christer Fahraeus Apparatus and method for determining spatial orientation
US6686579B2 (en) 2000-04-22 2004-02-03 International Business Machines Corporation Digital pen using speckle tracking
JP3867512B2 (ja) 2000-06-29 2007-01-10 富士ゼロックス株式会社 画像処理装置および画像処理方法、並びにプログラム
US6650320B1 (en) 2000-08-16 2003-11-18 International Business Machines Corporation Digital pen using visible image and autocorrelation of substrate pattern
US6592039B1 (en) 2000-08-23 2003-07-15 International Business Machines Corporation Digital pen using interferometry for relative and absolute pen position
US6685579B2 (en) * 2001-04-10 2004-02-03 Acushnet Company Multi-layer cover polyurethane golf ball
US6885759B2 (en) 2001-03-30 2005-04-26 Intel Corporation Calibration system for vision-based automatic writing implement
FR2825499B1 (fr) 2001-06-05 2004-07-23 Commissariat Energie Atomique Dispositif et procede de localisation de la pointe d'un stylo sur un support de numerisation
US6966495B2 (en) 2001-06-26 2005-11-22 Anoto Ab Devices method and computer program for position determination
GB2378073B (en) 2001-07-27 2005-08-31 Hewlett Packard Co Paper-to-computer interfaces
US20030034961A1 (en) 2001-08-17 2003-02-20 Chi-Lei Kao Input system and method for coordinate and pattern
JP3768135B2 (ja) 2001-09-28 2006-04-19 三洋電機株式会社 ディジタルカメラ
EP1302891A1 (de) * 2001-10-12 2003-04-16 Siemens Aktiengesellschaft Vorrichtung zum Erfassen und Darstellen von Bewegungen
US6741364B2 (en) * 2002-08-13 2004-05-25 Harris Corporation Apparatus for determining relative positioning of objects and related methods
US7088440B2 (en) * 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043349A (ja) * 1999-07-27 2001-02-16 Fujitsu Ltd 顔姿勢検知装置
JP2003029915A (ja) * 2001-04-12 2003-01-31 Samsung Electronics Co Ltd コンピュータ用電子ペンデータ入力装置及び座標測定方法
JP2003215244A (ja) * 2002-01-18 2003-07-30 Omron Corp 測距装置の軸調整用ターゲット及び軸調整方法

Also Published As

Publication number Publication date
KR101026611B1 (ko) 2011-04-04
EP1735588A2 (en) 2006-12-27
CN101523154A (zh) 2009-09-02
CA2558732A1 (en) 2005-10-06
CN101523154B (zh) 2011-02-23
US7023536B2 (en) 2006-04-04
WO2005091837A3 (en) 2005-12-15
EP1735588A4 (en) 2016-09-28
US20050195387A1 (en) 2005-09-08
JP2008523353A (ja) 2008-07-03
CA2558732C (en) 2011-07-19
KR20070007127A (ko) 2007-01-12
WO2005091837A2 (en) 2005-10-06

Similar Documents

Publication Publication Date Title
JP4814214B2 (ja) 長寸の物体の方向パラメータを決定するための装置及び方法
US7113270B2 (en) Determination of an orientation parameter of an elongate object with a scan beam apparatus
US7110100B2 (en) Apparatus and method for determining an inclination of an elongate object contacting a plane surface
JP5425368B2 (ja) 不変特徴部を有する平面上で長寸の物体の先端の絶対位置を決定するための方法及び装置
US10665012B2 (en) Augmented reality camera for use with 3D metrology equipment in forming 3D images from 2D camera images
US10837756B2 (en) Multi-dimensional measuring system with measuring instrument having 360° angular working range
EP2831624B1 (en) Coordinate measurement system and method
JP4809778B2 (ja) 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置
US7230689B2 (en) Multi-dimensional measuring system
KR100682960B1 (ko) 레이저 직선자 및 이를 이용한 거리 측정 및 라인 투사방법
US6508403B2 (en) Portable apparatus for 3-dimensional scanning
JP2009300265A (ja) 水中移動体の位置検知装置
JPH09114588A (ja) ペン型入力装置
Milanović et al. MEMSEye for optical 3D position and orientation measurement
KR102460361B1 (ko) 캘리브레이션 시스템 및 방법
JP2006268854A (ja) ハンドヘルドオブジェクトの加速度からハンドヘルドオブジェクトの位置を求める方法及びシステム
CA2346278C (en) Portable apparatus for 3-dimensional scanning
Yamashita et al. Three-dimensional stereometric measurement system using optical scanners, cylindrical lenses, and line sensors
JPH0843045A (ja) 3次元測定装置

Legal Events

Date Code Title Description
A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A072

Effective date: 20080527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100824

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100923

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110224

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110719

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110818

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110825

R150 Certificate of patent or registration of utility model

Ref document number: 4814214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees