JP4809778B2 - 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置 - Google Patents

長寸の物体の姿勢から得られた姿勢データの処理方法及び装置 Download PDF

Info

Publication number
JP4809778B2
JP4809778B2 JP2006551639A JP2006551639A JP4809778B2 JP 4809778 B2 JP4809778 B2 JP 4809778B2 JP 2006551639 A JP2006551639 A JP 2006551639A JP 2006551639 A JP2006551639 A JP 2006551639A JP 4809778 B2 JP4809778 B2 JP 4809778B2
Authority
JP
Japan
Prior art keywords
data
posture
subset
application
tip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006551639A
Other languages
English (en)
Other versions
JP2007525663A (ja
Inventor
カール、スチュワート・アール
マンデラ、マイケル・ジェイ
ザング、グアングア・ジー
ゴンザレズ−バノス、ヘクター・エイチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronic Scripting Products Inc
Original Assignee
Electronic Scripting Products Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronic Scripting Products Inc filed Critical Electronic Scripting Products Inc
Publication of JP2007525663A publication Critical patent/JP2007525663A/ja
Application granted granted Critical
Publication of JP4809778B2 publication Critical patent/JP4809778B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Analysis (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)

Description

本発明は、一般的に、平面と接触する先端を有する長寸の物体の姿勢から得られた姿勢データを処理する方法及び装置に関するものである。
物体が、地面、定点、線、又は基準面などの静止基準に対して動くとき、前記基準に対する物体の傾斜情報を、前記物体の動作や姿勢の様々なパラメータを導き出すのに使用することができる。長年の間、物体の姿勢を追跡し、その動作をパラメータ化するための数多くの有用な座標系及び方法が開発されてきた。理論的背景に関しては、「Goldstein et al., Classical Mechanics, 3rd Edition, Addison Wesley 2002」などの古典力学の教科書を参照されたい。
ある特定の分野では、物体の先端が平面と接触している間の、前記先端の位置を得るために、前記物体の姿勢を知ることが重要である。様々なタイプの長寸の物体が、その姿勢の情報及び位置、より正確には前記先端が平面と接触している間の前記先端の絶対位置(世界座標系における絶対位置)を利用可能である。これらの物体としては、地面と接触する歩行棒、ディスプレイ又は投影面と接触するポインタ、筆記面と接触する筆記用具、入力スクリーンと接触するスタイラス(スタイラス)がある。
先端又はペン先の絶対位置を測定する必要性は、ペンやスタイラスなどの入力デバイスの分野に深く関わっている。ここでは、先端の絶対位置は、ユーザが筆記面に書いた(又はなぞった)情報を分析するために知る必要がある。先端の相対位置及び絶対位置を提供する、数多くのペン及び入力デバイスの技術が従来技術で議論されている。それらの技術のいくつかは、慣性ナビゲーションデバイス(ジャイロスコープ及び加速度計を含む)を利用しており、米国特許第6,492,981号、第6,212,296号、第6,181,329号、第5,981,884号、第5,902,968号に開示されている。他の技術は、慣性ナビゲーションと圧力検出とを組み合わせており、米国特許第6,081,261号、第5,434,371号に開示されている。ペン先にかかる圧力の取得及び分析の技術は、米国特許第5,548,092号に開示されている。別の技術では、1つの受信器と、筆記表面に近接する複数の補助デバイスとを使用した三角測量を利用しており、米国特許第6,177,927号、第6,124,847号、第6,104,387号、第6,100,877号、第5,977,958号、第5,484,966号に開示されている。短無線周波(RF)パルス、赤外線(IR)パルス、超音波パルスなどを含む様々な形態の放射線が、三角測量及び関連する技術に使用できる。デジタイザ(digitizer)又はタブレット(tablet)を使用する別の方法が、米国特許第6,050,490号、第5,750,939号、第4,471,162号に開示されている。
また、従来技術は、表面上におけるペン又はスタイラスの先端の相対位置(ある場合では絶対位置)の測定を、光学系を使用して行っている。例えば、米国特許第6,153,836号では、スタイラスから2つの受信器へ2本の光線を放射し、受信器で、平面で規定される2次元座標系に対する角度を測定する技術を開示している。スタイラスの先端位置は、それらの角度及び受信器の位置情報を用いて得られる。米国特許第6,044,165号は、ペンの先端の圧力検出と、世界座標に位置し、ペン及び紙を撮像するカメラを備えた光学画像化システム(optical imaging system)との統合について開示している。別の技術では、ペンの先端及びその近傍を観察する光学システムを使用している。これらの技術としては、特に、米国特許第6,031,936号、第5,960,124号、第5,850,058号がある。別の方法では、米国特許第5,103,486号では、ペンに、光学ボールポント(optical ballpoint)を使用することが開示されている。最近では、光源を備え、紙に光を照射する光学システムが、米国特許第6,650,320号、第6,592,039号、WO 00/217222、米国特許出願第2003−0106985号、第2002−0048404号に開示されている。
ある従来技術では、筆記面には、光学システムが認識可能な特別な記号が書き込まれる。この特別な記号を利用するペンの早い時期の例は、米国特許第5,661,506号、第5,652,412号に開示されている。最近の技術は、米国特許出願第2003−0107558号及び関連文献に開示されている。さらなる文献としては、米国特許第10/640,942号、第10/745,371号、及びそれらに引用されている文献を参照されたい。
上記した従来技術の大部分は、筆記面上における前記先端の相対位置を得ることに限定される。タブレット及びデジタイザを用いれば絶対位置を取得できるが、それらは大きくて不便である。タブレットではなくて光学システムを使用して前記先端の絶対位置を得る方法では、筆記面に書かれた記号とペンの先端との関係の観察により大きく依存する。この方法は、準タブレット(quasi-tablet)として機能する、特別に記号のある筆記面を必要するという制限がある。
さらに、面倒なことに、光学系を用いる最新式のペン及びスタイラスは、通常は限定されたデータセットを生成する。つまり、作成されたデータのほとんどは、筆記面上で移動する軌跡に対応している。その一方で、ペン又はスタイラスから得られるデータのリッチストリームを利用可能なアプリケーションは数多く存在する。実際、従来技術では、ユーザが使用するペン又はスタイラスと、コンピュータなどの機械との間の相互作用が限定されている多くの場合を示している。ペン又はスタイラスから得られるデータのリッチストリームを利用可能なアプリケーション及びシステムの例については、米国特許第6,565,611号、第5,502,114号、第6,493,736号、第6,474,888号、第6,454,482号、第6,415,256号、第6,396,481、米国特許出願第2003−0195820号、第2003−0163525号、第2003−0107558号、第2003−0038790号、第2003−0029919号、第2003−0025713号、第2003−0006975号、第2002−0148655号、第2002−0145587号、及び米国特許第6,661,920号を参照されたい。
従来技術の欠点を鑑みて、本発明は、長寸の物体(例えば、筆記用具、棒、ポインタ、又はロボットアーム)の姿勢から得られた姿勢データを処理する装置及び方法を提供することを目的とする。特に、本発明は、このような方法で得られた姿勢データの処理、及び、アプリケーションで制御データ又は入力デバイスとして使用するために前記姿勢データのサブセットの特定を行う装置及び方法を提供することを目的とする。
本発明は、その先端が、1つ以上の不変特徴部を有する平面と接触している長寸の物体の姿勢から得られた姿勢データを処理する方法を提供する。この方法では、前記先端は表面上に置かれ、前記長寸の物体の物理的な姿勢が、前記不変特徴部を利用して、前記長寸の物体の搭載された測定器によって光学的に測定される。この測定において、測定器に備えられた走査システムが、プローブ放射線で平面を走査して、プローブ放射線の散乱波の強度を測定し、そして、走査パターンに応じて変化する散乱波の強度と平面及び不変特徴部の情報とから姿勢を決定する。前記姿勢に対応する姿勢データが作成され、その姿勢データのサブセットが特定される。前記サブセットは、例えばユーザアプリケーションなどのアプリケーションに送信され、サブセットは命令データ又は入力データとして機能する。長寸の物体は、その先端を表面に接触させたままで、動かすことができる。したがって、好ましい実施形態では、本方法は、連続的な測定時間ti毎に得られた姿勢データによって、長寸の物体の動作を目的とする時間分解能で表すことができるように、姿勢データは測定時間ti毎に定期的に測定される。
サブセットは、長寸の物体の空間での方位を表す方位データの全て又は一部を含む。方位データは、適切な座標(例えば、極座標)における方位を示す傾斜角θ又は任意の角度又は角度の組み合わせを含む。又は、サブセットは、前記表面上における前記先端の位置データの全て又は一部を含む。位置データは、任意の不変特徴部に対しての前記先端の相対位置である。或いは、位置データは、世界座標上における前記先端の絶対位置である。さらに、サブセットは、方位データと位置データの組み合わせを含むことができる。
ある実施形態では、長寸の物体の方位データはオイラー角で表され、姿勢データのサブセットは少なくとも1つのオイラー角を含む。実際には、本実施形態では、傾斜角θは、単純に第2のオイラー角である。また、サブセットは、ロール角ψ(第3のオイラー角)と回転角φ(第1のオイラー角)を含むことができる。方位データに含まれるものは、任意の種類の入力として使用することができる。例えば、方位データは、アプリケーションで命令コマンドとして使用される制御データや、アプリケーションに入力される又は単にアプリケーション・フォーマットとして保存される入力データとして使用可能である。当然、位置データは、任意の入力(制御データ及び入力データを含む)として使用可能である。例えば、前記アプリケーションがモーション・キャプチャー・アプリケーションの場合は、サブセットは姿勢データの全てを含むことができる。
不変特徴部(invariant feature)は、恒久的又は一時的なものであり得、空間的又は経時的なものであり得る。平面は、例えば、スクリーン、タブレット(tablet)、メモ帳、又はユーザが手書きできるその他の種類の表面であり得る。この実施形態では、長寸の物体は、例えば、ペン、鉛筆、又はスタイラス(stylus)などの手書き用具であることが好ましい。また一般的に、長寸の物体は、ポインタ、ロボットアーム、又は棒である。つまり、長寸の物体は、その姿勢が、入力データの生成に使用できる任意の物体である。
本発明は、その先端が表面と接触している長寸の物体の動作を表す姿勢データを処理するための装置をさらに提供する。この装置は、前記姿勢を光学的に測定する光学測定手段を備えている。前記光学測定手段は、前記長寸の物体に搭載される。測定は、測定時間ti毎に定期的に行われる。測定周期は、前記アプリケーションと、姿勢及び要求される姿勢データの分解能(例えば、時間分解能)とに応じて選択される。この装置は、姿勢に対応する姿勢データの作成、及び姿勢データのサブセットの特定を行うためのプロセッサを備えている。また、この装置は、サブセットをアプリケーションに送信するための通信リンクを備えている。
プロセッサは、長寸の物体に搭載されることが好ましい。プロセッサで大量のデータ処理を行う場合は、プロセッサは長寸の物体の外部に遠隔的に配置する。通信リンクは、無線通信リンクであることが好ましい。
プロセッサによって姿勢データから分離されたサブセットは、サブセットのさらなる処理のために、例えば、サブセットを力データとして使用するユーザアプリケーションを実行するホスト(サブセットが入力データとして使用されるホスト)の位置に応じて、入同一又は異なる通信リンクを介してアプリケーションに送信される。例えば、ホストはコンピュータであり、アプリケーションはデータファイルである。この場合、サブセットは、データファイルに入力される入力データを含む。又は、ホストはデジタルデバイスであり、ユーザアプリケーションは命令を実行する実行ファイルである。この場合は、サブセットは制御データを含む。アプリケーションは、長寸の物体の動作を捕捉するためのモーション・キャプチャー・アプリケーションであり得る。又は、アプリケーションは、長寸の物体の動作中における、前記表面上における前記先端の軌跡を捕捉するためのトレース・キャプチャー・アプリケーションであり得る。
図1は、長寸の物体(elongated object)14の姿勢から得られた姿勢データ(pose data)12を処理するための装置10を示す図である。長寸の物体14は、その先端16を平面18と接触させながら移動する。装置10は、測定時間毎に、長寸の物体14の姿勢を表す姿勢データ12を処理する。したがって、姿勢データ12は、先端16を平面18と接触させながら行われる(ユーザによって動かされる)長寸の物体14の動作を表す。先端16が平面18と接触していることは、センサ20(例えば、圧電素子又は他の適切なセンサ)によって確認することができる。
長寸の物体14は、任意の種類の一般的な長寸の物体であり、その静止中又は動作中の姿勢から有用な姿勢データ12が生成される。例えば、長寸の物体14は、歩行の補助に使用される棒である。又は、長寸の物体14はロボットアームであり、表面18は加工物の表面である。また他の場合では、長寸の物体14はポインタであり、表面18はスクリーンである。或いは、長寸の物体14は、ペン、鉛筆又はスタイラス(stylus)などのメモ用具であり、表面18はメモ面である。本実施形態では、長寸の物体14はポインタであり、表面18はスクリーン又はトレース面である。
長寸の物体14には、表面18上に存在する1つ又はそれ以上の不変特徴部(invariant feature)32、34、36を用いて、物体14の姿勢を光学的に測定する測定器22が搭載されている。本実施形態では、全ての不変特徴部32、34、36は、表面18上に存在する。しかし、表面18上に十分な数の特徴が存在する場合は、表面18以外に存在する特徴を使用することも可能である。
本実施形態では、不変特徴部は、縁32、基準点34、及び表面構造体36である。これらの不変特徴部は、ただ単に、表面18と一時的又は恒久的に関連付けられ、物体14の姿勢の測定に使用される特徴の典型例にすぎない。不変特徴部32、34、36は、表面18上における先端16の相対的又は絶対的な位置を導出するのに使用される。また、不変特徴部32、34、36は、ポインタ14の姿勢の残存部分、すなわち、ポインタ14の方向を測定するのに使用される。不変特徴部32、34、36の位置は、世界座標(X,Y,Z)で定義することが望ましい。さらに、もし可能であれば、不変特徴部32、34、36の位置は、物体14が取り得る全ての姿勢において、少なくとも前記不変特徴部の一部が測定器22から見える位置であることが好ましい。
物体14に搭載された測定器22を使用して物体14の姿勢を取得する、様々な光学測定方法を用いることができる。それらのどの方法でも、測定器22は、任意の周知の姿勢取得技術(pose recovery technique)を用いて、搭載素子によって姿勢データを取得する。前記姿勢取得技術としては、幾何学的不変性(geometric invariance)、三角測量(triangulation)、測距(ranging)、経路積分(path integration)、動作分析(motion analysis)などがある。好ましい実施形態では、測定器22は、画像化システム(imaging system)や走査システムなどの光学測定器であり、ポインタ14に搭載されて、表面18上に存在する1つ又は複数の不変特徴部32,34,36を参照して前記物体14の姿勢を測定する。
装置10は、ポインタ14の姿勢に対応した姿勢データ12の作成、及び、アプリケーション28から要求される姿勢データ12のサブセット48の特定を行うためのプロセッサ26を備えている。特に、アプリケーション28は、姿勢データ12の全部又は一部を含んでいるサブセット48を使用する。なお、本実施形態ではプロセッサ26はポインタ14の外部に遠隔的に配置しているが、プロセッサ26をポインタ14に搭載することもできる。
通信リンク24は、姿勢データ12をアプリケーション28に送信するために設けられる。通信リンク24は、ポインタ14に搭載された無線送信器30を使用して通信を行う無線通信リンクであることが望ましい。ある実施形態では、プロセッサ26とアプリケーション28はポインタ14に搭載され、通信リンク24は電気的に接続される。他の実施形態では、通信リンク24として、有線遠隔リンクを用いることができる。
操作中は、ユーザ38は、ポインタ14を手に持つ。ユーザ38は、ポインタ14の先端16を、不変特徴部32、34、36を有する表面18上に置き、ポインタ14が動作40を行うように、ポインタ14を動かす。見やすくするために、動作40は点線42、44で示した。点線42、44は、ポインタ14の先端16と後端46とから推測した、ポインタ14の動作40中の位置を示している。本発明では、線42は先端16の軌跡と見なされる。また本発明では、動作40は、先端16と表面18との接触が無くなった時点で終了すると定義される。
動作40は、終端46又は先端16の動きを生成しない、即ち軌跡42を生成しない。つまり、動作40は、先端16が表面18と接触し続ける必要があるということ以外は、他のパラメータには制限されない。したがって、ポインタ14の方向の変化は、ただ単に、表面18上での先端16の位置の変化(x及びy座標の変化)として、動作40と見なされる。この場合では、ポインタ14の方向は、ポインタ14の中心軸C.A.(Center Axis)に対しての、傾斜角θ、回転角φ、及びロール角ψによって表される。前記3つの角度の内、少なくとも1つの角度の変化は動作40に相当する。
この場合では、先端16は、点42で表面18に接地する。接地時、ポインタ14の中心軸C.A.は、表面法線Z´に対して傾斜し、傾斜角θはθとなる。さらに、回転角φはφとなり、ロール角ψはψとなる。便宜上、本実施形態では、角θ、φ、ψはオイラー角(Euler angles)とする。もちろん、ポインタ14の方向を表すのに、他の角度を用いることもできる。つまり、当業者なら容易に理解できるであろうが、ポインタ14の回転を表すのに、他の従来の方法を用いることもできる。例えば、4つのカーライル・クライン角(four Caylyle-Klein angles)又は四元数(quaternion)を用いることができる。
図2A〜2Cは、オイラー角を用いたポインタ14の方向の表し方を示している。図2Aに示すように、未回転の物体座標(X´,Y´,Z´)の起点に位置する先端16から測定したポインタ14の長さはl(L)である。ポインタ14の中心軸C.A.は、Z´軸と同一直線上にあり、先端16と未回転の物体座標(X´,Y´,Z´)の起点を通る。ここで慣習的に用いられる受動的な回転では、ポインタ14が最初の直立位置から回転する間は、物体座標はポインタ14に付随する。
図2Aは、物体座標(X´,Y´,Z´)のZ´軸に対して行われた、第1のオイラー角φでの第1の反時計方向の回転を示している。物体座標の回転はZ´軸に影響を与えないので、一度回転させたZ´´軸は未回転のZ´軸と同一直線上にある(Z´´=Z´)。他方では、軸X´及び軸Y´は第1のオイラー角φで回転し、一度回転した軸X´´及び軸Y´´となる。
図2Bは、一度回転した物体座標(X´´,Y´´,Z´´)に対して行われた、第2のオイラー角θでの第2の反時計方向の回転を示している。この第2の回転は、一度回転したX´´軸に対して行われる。そのため、X´´軸には影響を与えない(X´´´=X´´)。他方では、軸Y´´及び軸Z´´は、第2のオイラー角θで回転し、二度回転した軸Y´´´及び軸Z´´´となる。この第2の回転は、一度回転した軸Y´´及び軸Z´´、並びに、二度回転した軸Y´´´及び軸Z´´´が存在する平面Π上で行われる。ポインタ14の軸C.A.は、平面Π上で第2のオイラー角θで反時計方向に回転する。軸C.A.は依然として二度回転した軸Z´´´と同一直線上にある。
図2Cは、二度回転させた物体座標(X´´,Y´´,Z´´)に対して行われた、第3のオイラー角ψでの第3の反時計方向の回転を示している。角ψでの回転は、二度回転した軸Z´´´に対して行われる。Z´´´は、3つのオイラー角全てで回転させた物体軸Zと同一直線状になる。その一方で、二度回転した軸X´´´、Y´´´は、角ψで回転し、3つのオイラー角全てで回転させた軸Y、Zとなる。3つのオイラー角φ、θ及びψの全てで回転させた物体軸X、Y、Zは、オイラー回転させた物体座標(X,Y,Z)を規定する。オイラー回転中、ポインタ14の先端16は、全ての物体座標における基点のままである。
図1に戻って、ポインタ14の姿勢は、ポインタ14の方向、すなわちオイラー角(φ、θ、ψ)と、先端16の位置、すなわち先端16が表面18と接触している点の座標(X,Y,Z)を含んでいる。便宜上、ポインタ14の方向と、先端16の位置は、世界座標(X,Y,Z)で表す。世界座標(X,Y,Z)は世界基点(0,0,0)を有しており、その世界基点は表面18上での先端16の絶対位置を表すのに使用される。つまり、世界座標(X,Y,Z)は、ポインタ14の姿勢における任意のパラメータの絶対尺度として使用することができる。また、ポインタ14の姿勢における任意のパラメータは、例えば、非静止又は相対座標(X,Y,Z)を参照して、又は単に以前の姿勢に対して、相対的に表すことができる。
ポインタ14の絶対的な姿勢は、世界座標(X,Y,Z)に対するポインタ14の方向を表すオイラー回転した物体座標を用いると便利である。そのためには、3つのオイラー回転を行う前の、世界座標(X,Y,Z)における物体軸Z´の方向は、平面(X,Y)に対して垂直である。第2のオイラー角θは、Z軸(Z´、Z´´、Z´´´)に対してではなく、X軸(X´´=X´´´)に対する物体座標の反時計方向の回転のみを規定する。したがって、オイラー角θは、完全にオイラー回転させた物体軸Z又は軸C.A.と、元の物体軸Z´との間の傾斜角θであり、先端16が接触する点において平面(X,Y)に対して垂直である。
光学測定器22は、ポインタ14の動作40中の姿勢を、測定時間ti毎に測定し、プロセッサ26は、対応する姿勢データ12を作成する。姿勢データ12は、測定時間tiにおける、パラメータ(φ,θ,ψ,x,y,z)の測定値から構成される。それらの位置が世界座標(X,Y,Z)で規定された不変特徴部32,34,36は、姿勢データ12を世界座標(X,Y,Z)で表すために、光学測定器22に使用される。定期的な測定間隔は、姿勢データ12の使用及び目的とする性能(例えば、時間分解能)によって異なる。測定間隔は、規定時間又は頻度スケジュールに限定されない。言い換えれば、姿勢の任意の2つの連続的な測定の間では、時間は自由である。しかし、測定器22は、動作40を表す姿勢データ12をアプリケーション28で必要とされる時間分解能で取得するのに十分に高い頻度で、姿勢を測定することが好ましい。
通信リンク24の無線送信器30は、測定時間tiに取得した姿勢データ12又はパラメータ(φ,θ,ψ,x,y,z)をプロセッサ26へ送信する。姿勢データ12は、バーストモードで、分割モードで、任意の若しくはプリセットされた時間に、又は他の所望する方法で連続的に送信することができる。プロセッサ26は、姿勢データ12のサブセット48(例えば、先端16の絶対位置(x,y))を作成し、作成したサブセット48をアプリケーション28へ送信する。アプリケーション28は、測定時間tiでの先端16の絶対位置(x,y)を使用して、ポインタ14が行った動作40として、表面18上における先端16の軌跡42をチャートする。言い換えれば、ユニット28は、先端16の動きに対応する軌跡42を取得する。ユニット28が取得した軌跡42の分解能は、姿勢測定の回数又は測定時間tiの頻度を増やすことによって向上させることができる。また、姿勢データ12は、送信機30、プロセッサ26及びアプリケーション28の間での適切な通信のためにフォーマットされる。任意の適切な、通信及びフォーマットの標準規格、例えば、IEEEインターフェース規格を利用することができる。フォーマット規格の具体的な例については、「Rick Poyner, LGC/Telegraphics,"Wintab(TM) Interface Specification: 16-bit and 32-bit API Reference", revision of May 9,1996; Universal Serial Bus(USB), "Device Class Definition for Human Interface Devices(HID)", Firmware Specification, USB Implementers' Forum, June 27, 2001 and six-degree of freedom interface by Ulrica Larsson and Johanna Pettersson, "Development and evaluation of a 6DOF interface to be used in a medical application", Thesis, Linkopings University, Department of Science and Technology, Sweden, June 5, 2002」を参照されたい。
残りの姿勢データ12、すなわち、(φ,θ,ψ,z)も、本発明で使用することができる。特に、プロセッサ26は、さらなるサブセットを作成すること、又は、残りの姿勢データを単一サブセットとしてアプリケーション28(又は別の機能を提供する他のデバイス)へ送信することを行うことができる。姿勢データ12から得られた方向及び位置の任意の組み合わせを、サブセット48に使用することができる。つまり、ある実施形態では、プロセッサ26は、アプリケーション28で全ての姿勢データ12を使用することができるように、サブセット48内に全ての姿勢データ12を保持する。このことは、アプリケーション28が、表面18上における先端16の軌跡だけではなく、全ての動作40を復元する場合に行われる。例えば、このことは、アプリケーション28が、モーション・キャプチャー・アプリケーション(motion-capture application)を備えている場合に行われる。今一度説明すると、動作40の時間分解能は、測定時間tiの頻度を増やすことによって向上させることができる。この場合は、ゆっくりと変化する姿勢データ12のパラメータがオーバーサンプリングされることに留意されたい。
なお、表面18は平面であるため、パラメータzの値が変化しないことに注意されたい。したがって、zは定値として決定され(z=0)、送信機300から送信すべきデータ量を減らすために、姿勢データ12から外される。
図3は、プロセッサ26による姿勢データ12の処理と、処理されたデータのアプリケーション28での使用を示すブロック図である。第1のステップ50では、姿勢データ12は、通信リンク24を介してプロセッサ26に受け取られる。第2のステップ52では、プロセッサ26は、姿勢データ12のどの部分又はサブセット48が必要であるかを判断する。この選択は、アプリケーション28に基づいて行われる。例えば、アプリケーション28が軌跡42をチャートするトレース・キャプチャ・アプリケーション(trace-capture application)である場合は、先端16の位置データ、すなわち(x,y)だけがサブセット48に含まれればよい。他方では、アプリケーション28がモーション・キャプチャ・アプリケーションである場合は、サブセット48に、全ての姿勢データ12が含まれる必要がある。
ステップ58では、全ての姿勢データ12が選択され、サブセットのフォーマット又は作成ステップ60Aに送られる。ステップ60Aでは、アプリケーション28で必要とされるサブセット48Aの形態で、姿勢データ12が作成される。例えば、姿勢データ12は、特定の順序で配置され、適切なフッター、ヘッダー及び冗長ビット(図示せず)が与えられる、又は、例えば、Rick Poyner、LGC/Telegraphics(op. cit.)などの、別のデータポーティング規格で表される。
ステップ62、姿勢データ12の一部のみが選択される。部分的に選択する際の、3つの例示的な場合を示す。第1の場合は、アプリケーション28が位置データのみを必要とする。従って、ステップ59Bでは、位置データ(x,y,z)のみが選択され、残りの姿勢データ12は廃棄される。次のステップ60Bでは、位置データ(x,y,z)が、アプリケーション28で必要とされるサブセット48Bの形態で作成される、及び/又は、データポーティング規格で表される。第2の場合は、ステップ59Cでは、方向データ(φ,θ,ψ)のみが選択され、残りの姿勢データ12は廃棄される。その後、ステップ60Cは、方向データ(φ,θ,ψ)が、アプリケーション28で使用されるサブセット48Cの形態で作成される。第3の場合は、ステップ59Dでは、ある位置データとある方向データとを組み合わせた姿勢データ12が選択され、ステップ60Dで同様に処理されて、サブセット48Dが作成される。
上述した機能は、プロセッサ26とアプリケーション28との間で共有することが可能なことは(例えば、システム構成及びデータポーティング規格で定めるところにより)、当業者なら容易に理解できるであろう。例えば、サブセット48のある処理は、アプリケーション28で受け取り次第行われる。また、ある実施形態では、任意の適切なアルゴリズムに従って、姿勢データ12は送信器で前処理される、又は、対応するサブセットの作成前又は作成後の任意の時点で後処理される。例えば、異なる測定時間tiで取得された姿勢データ12、又は連続的なサブセット48に対して、統計的アルゴリズム(例えば、最小二乗近似)を適用することができる。さらに、姿勢データ12のパラメータの一部又は全部の時間微分、すなわち
Figure 0004809778
などの数量を計算することができる。また、様々なサンプリング技術、例えば、オーバーサンプリングを使用することもできる。
サブセット48は、通信チャンネル72を介して、アプリケーション28に送信される。アプリケーション28は、入力として、その使用目的に従って処理又は送られたサブセット48を受信する。例えば、ステップ64では、サブセット48は制御データとして使用される。したがって、サブセット48は、実行命令66として、又は実行命令の一部として用いられる。他方では、ステップ68では、サブセット48は、入力データとして使用され、データファイル70に保存される。
ある実施形態では、アプリケーション28はプロセッサ26に情報を送り、サブセット48の選択基準を変更する。そのような情報は、通信チャンネル72又は他のリンク(例えば、フィードバック・リンク74)を介して送られる。例えば、アプリケーション28は、サブセット48Aが送信されることを要求し、サブセット48Aをデータファイル70の入力データとして使用する。また、別の場合では、アプリケーション28は、サブセット48Cが送信されることを要求し、サブセット48Cを実行命令66のための命令データとして使用する。他の実施形態では、プロセッサ26は、任意のサブセット48を、入力データ又は命令データとして処理できるように、優先順位を指示することができる。別の実施形態では、ユーザ38は、別の装置(例えば、ポインタ14に搭載された図示しないスイッチ)を用いて、サブセット48の用途(命令データとして用いるか、入力データとして用いるか)を指示することができる。サブセット48として送信されたデータを、プロセッサ26及びアプリケーション28の両方で判断及び処理する、様々な能動的又は受動的方法が存在することを当業者なら容易に理解できるであろう。
一般に、ポインタ14内に搭載された光学測定器によって行われる光学的測定は、様々な方法により実行される。例えば、図4は、その先端102が、不変特徴部106を有する平面104と接触している長寸の物体100を示している。不変特徴部106は、方向、サイズ、及び平面104上の位置が分かっている多角形である。見やすくするために、物体100の一部だけを示している。物体100は、軸Zに沿って一直線である。軸Zは、世界座標(図示せず)を参照するのに使用される中心軸C.A.と同一直線上にある。
光学測定システム108は物体100に搭載され、姿勢の光学測定を行う。つまり、システム108は、不変特徴部106を使用して、物体100の姿勢を光学的に測定するための、画像化システム又は画像キャプチャ・システム(image capturing system)である。画像システム108は、レンズ110と画像キャプチャ・デバイス(image capturing device)112(電子光学センサ、又はレンズ110によって規定される像平面(image surface)114上に位置するピクセル・アレイの形式の)を備えている。レンズ110は、近隣の環境の3D投影情報を保存するために、広角Θと、実質的に単一の視点とを有していることが好ましい。レンズ110としては、ミラー、アパーチュア(aperture)、フィールド・フラットナー(field flattener)、イメージ・ガイド(image guide)などの光リレーを伴う、屈折系、反射系及び/又は反射屈折系のなどの様々な光学系がある。実際には、レンズ110は、結像面(imaging surface)104に適したものが選択される。
アレイ112は、直交する軸X,Yによって表される像平面114上に位置する結像ピクセル116を有している。軸X,Yは、回転した物体座標の軸X,Yと平行である。未回転の物体座標から、回転した物体座標までのオイラー角は図示したとおりである。
動作中は、日光や人工照明などの放射線118が、表面104上に入射する。放射線118の散乱部分118´は、中心軸C.A.に対して傾斜角θで長寸の物体110へ至る。より正確に言えば、不変特徴部106の角の点Pから経路120に沿って伝搬される散乱部分118´は、立体角Θで到着し、画像化システム108によって像平面114上の結像点Pに結像される。点P、不変特徴部106及び平面104の残りの部分、又はそれらの一部からの散乱部分118´は、画像情報を伝達する。この空間強度変化及び画像情報は、アレイ112の結像ピクセル116上に生成された表面104及び不変特徴部106の画像から位置を復元する任意の方法に従って、物体100の姿勢を決定するのに使用される。透視画像化(perspective imaging)がこの目的に適切であることを、当業者なら容易に理解できるであろう。適切な結像光学系及び方法の詳細については、米国特許出願第10/640,942号を参照されたい。
図5は、他のオンボード光学測定器の実施形態を示す図である。長寸の物体130の先端132は、不変特徴部136を有する平面134と接触している。長寸の物体130は、オンボード光学測定器として、走査システム138を備えている。未回転の物体座標から、回転した物体座標までのオイラー角が示されている。不変特徴部136は、四角形136Aと線136Bとを含み、両方のサイズと、世界座標(X,Y,Z)における方向及び位置は分かっている。
走査システム138は、プローブ放射線142の線源140、アーム144、及び、プローブ放射線142を表面134へ導く走査ミラー146を備えている。走査システム138は、表面134と不変特徴部136を走査するために、走査ミラー146を駆動させるためのドライバを有している。例えば、走査ミラー146は、2軸ドライバによって駆動される2軸走査ミラーである。ミラー146は、放射線146を、ミラー軸M.A.(mirror axis)に対して走査角σで方向づける。本実施形態では、ミラー軸M.A.は、物体130の中心軸C.A.と平行である。ドライバは、走査パターン148に従って、走査角σを変化させて、表面134及び特徴136の走査を達成する。特定の走査角にすると、放射線142は、平面134の点Pに、平面134に対して入射角(傾斜角)δで入射する。点Pは、ドライバと物体130の姿勢とによって決定される走査パターン148に従って、平面134及び特徴136上を移動する。
プローブ放射線142は、表面134に対するプローブ放射線142の入射方向、プローブ放射線142の周波数f、並びに、平面134及び不変特徴部136の物理的特性に基づいて、点Pで散乱する。プローブ放射線142の、平面134及び特徴136に対しての後方散乱波142´は、走査時における後方散乱波142´の強度の経時的変化によって表すことができる。一般に、平面134及び特徴136に対しての後方散乱波142´の反応は、強度の変化だけでなく、偏向に基づく反応も含んでいる。プローブ放射線142の平面134及び不変特徴部136に対しての後方散乱波142´の反応は、物体130の姿勢を測定するのに使用される。不変特徴部は、プローブ放射線142に対する検出可能な反応を生成し、その世界座標における位置が固定されている任意の不変特徴部を使用することができる。
3D空間における物体130の姿勢は、平面134上における先端132の位置と、三次元空間における物体130の方向とを含む。この実施形態では、世界座標(X,Y,Z)における先端132の位置はベクトルDによって表され、方向はオイラー角(φ,θ,ψ)で表される。このことは、長寸の物体130の平面134に対する傾きは、物体130の軸(この実施形態では中心軸C.A.)と平面134の法線(すなわち軸Z´)との間の傾斜角θで表され、第2のオイラー角θと同値なので、特に都合が良い。
平面134並びに不変特徴部136A及び136Bによって、プローブ放射線142の走査点Pに対応する後方散乱波142´の強度は、経時的に変化する。後方散乱波142´の強度の経時的変化は、検出器150で測定される。本実施形態では、検出器150と光学素子152(例えばビーム・スプリッター)は物体130上に設けられ、光学素子152によってプローブ放射線142の後方散乱波142´を検出器150に導き、検出器150で強度変化を測定する。物体130の姿勢は、任意の適切な時空間的走査技術(spatio-temporal scanning technique)に従って、走査パターン148、平面134及び不変特徴部136の情報から得られる。傾斜角(第2のオイラー角)θ及び第3のオイラー角ψなどのさらなる情報によって、先端132の絶対位置を導き出すことができる。角度θ及びψは、傾斜計(図示しない)又は他の適切な機器及び/又は方法から得ることができる。物体130の姿勢を測定するのに使用できる走査技術の具体例は、米国特許出願第10/745,371号に開示されている。
他の実施形態では、オンボード光学測定器は、画像化及び走査素子を組み合わせた混成システムであり得る。例えば、画像化及び走査混成素子を形成するのに、受動結像ピクセル及び能動照明ピクセルを備えているピクセル・アレイを使用することができる。さらに、異なる複点を有するシステムを使用すれば、ステレオ・画像化及び走査技術を使用することができる。別の実施形態では、イメージ・モードではなく投影モードで作動するピクセル・アレイを備えた光学システムを使用することができる。すなわち、そのシステムの光学素子は、画像化だけではなく、ピクセル・アレイからの放射線の投影も行う。当業者なら、光学測定器は様々なものが存在することを容易に理解できるであろう。
図6は、長寸の物体200がメモ用具(例えば、ペン、鉛筆、スタイラス)である場合の好適な実施形態の立体図である。とりわけ、メモ用具200はペンであり、その先端(ペン先)202は、テーブル表面208において、一枚の紙206の平面204と接触している。ペン200の中心軸C.A.は、オイラー回転されたペン座標軸(X,Y,Z)のZ軸と一直線上にある。第2のオイラー角に相当する、Z´軸(表面法線)に対する傾斜角θが示されている。
ペン200の上端212に、ハウジング210が取り付けられている。ハウジング210は、ペン200の姿勢を光学的に測定するための光学測定器214を備えている。光学測定器214は、画像化システム、走査システム、又はそれらの複合システムである。紙206の表面204は、ペーパーエッジ形態の不変特徴部216A、216B、216C、及び216Dを有している。特徴216は、光学測定器214が、ペン200の姿勢を測定するのに使用される。
ハウジング210は、光学測定器214で測定された姿勢に対応する姿勢データの作成、及び、姿勢データのサブセット220の特定を行うプロセッサ218を備えている。また、ハウジング210は、サブセット220をアプリケーション224へ無線通信リンク226を介して送信するための送信器222を備えている。ハウジング210内の要素とそれら動作については上述した通りなので、この実施形態では、その詳細な説明を省略する。
ユーザは、手228にペン200を保持し、表面204と接触させたままで動かして、例えば、手書きのマークを描く。見やすくするために、手228は破線で表している。圧力センサ又は他のデバイス(図示せず)は、ペン先202と表面204との間の接触を確認する。ユーザが筆記している間、光学測定器はペン200の姿勢を定期的に測定する。特に、ペン200が筆記に対応する動作をしている間は、姿勢データがペン200の動作をアプリケーション224で使用するのに十分に詳細に表すように、光学測定器214は、ペンの姿勢を測定時間ti毎に定期的に測定する。
例えば、アプリケーション224が一般的なモーション・キャプチャ・アプリケーションである場合は、測定時間tiの周期は、約75Hzである。あるモーション・キャプチャ・アプリケーション(例えば、バイオメトリック・アプリケーション)では、例えば、手228の生体測定を得るために、ペン200の動作の正確な情報を必要とし、測定時間tiの周期はより短い間隔(例えば、100Hz以上)に設定される。特に、バイオメトリック・アプリケーションがユーザ照合アプリケーションである場合は、このような正確な情報が必要とされる。他の実施形態では、アプリケーション224は、ペン220で紙206上に書かれた軌跡230A、230B及び230Cを捕捉するためのトレース・キャプチャ・アプリケーションである。より正確に言えば、アプリケーション224は、オンライン又はオフラインの手書き認識アプリケーションであり、手書きを正確に認識するためには、約100Hz(Δt=1/100s)の測定時間tiを必要とする。別のアプリケーション224では、連続的な測定の間に、紙表面204上で移動するペン先202の距離Δsは、約1/200インチ又は約12mmである必要がある。さらに別の実施形態では、トレース・キャプチャ・アプリケーションは、手書き認識よりも高精度な、署名照合アプリケーションである。生体測定アプリケーションは、ユーザ識別及び/又は署名照合としても実行できることに注意されたい。本実施形態では、アプリケーション224は、オンラインの手書き認識アプリケーションであり、測定時間tiは約100Hzの周期で繰り返される。
操作中、ペン200の動きに変換すべく、ユーザは手228を動かす。その結果、紙206の表面204上に、インクの軌跡230が形成される。軌跡230は、動作中、ペン先204が表面204と接触しているときに、書き込み点(writing point)で形成される。光学測定器214は、軌跡230が作成されている間、測定時間ti毎に定期的に、不変特徴部216を利用してペン200の姿勢を測定する。
第1の書き込み点PWdnは、ある場合では、ペンダウンと言われ、書き込み点の最後Pupは、ペンアップと言われる。それらは、ペン200の動作中232にペン先202によって形成された軌跡230Aに示される。ペン先202が特定の測定時間tのときに位置する中間書き込み点PWmが示される。また、それらの間の時間間隔Δtを図示する目的で、連続的な測定時間tとtn+1での2つの書き込み点も示されている。軌跡230Bは、ユーザが書いている過程を示している。軌跡230Cは、既に書かれたものを示しており、連続的な測定時間tとtn+1での2つの書き込み点は、距離Δsで離れている。
アプリケーション224は、オンラインの手書き認識アプリケーションであり、各軌跡230A、230B及び230Cにおける、ペンダウン点とペンアップ点との間での測定時間tの周期は約100Hzである。つまり、時間間隔Δtは約1/100秒となる。したがって、測定器214で測定されたペン200の姿勢の時間分解能は、約1/100秒である。
プロセッサ218は、ペンダウンとペンアップとの間の動作中にペン200が取る一連の姿勢に対応する姿勢データを作成する。また、プロセッサ218は、アプリケーション224を実行するためのサブセットに必要な姿勢データを特定する。ある手書き認識アプリケーションでは、サブセット220は、書き込み点PWiに対応する測定時間tでのペン先202の絶対位置のみを含んでいる。言い換えれば、サブセット220は、ペン200の方向データではなく、表面204におけるペン先202の位置データのみを含んでいる。さらに、書き込み点PWiの位置は、紙206の右上隅を起点とするグローバル座標(X,Y,Z)における対応するベクトルDで表される。
他の実施形態では、手書き認識アプリケーション224は、サブセット220の方向データを必要とする。例えば、オンライン手書き認識アプリケーション224は、サブセット220に傾斜角θが含まれることを必要とする。傾斜角θは、第2のオイラー角であることに注意されたい。別の手書き認識アプリケーション224は、サブセット220にそれ以上又は全てのデータ、すなわち、3つのオイラー角が含まれることを必要とする。実際は、プロセッサ218は、例えば、通信リンク226を介して、任意の時間に、アプリケーション224からサブセット220に関する特定の要求を知らされる。サブセット220がさらなる情報、例えば、それらの全ての位置及び方向データの任意の組み合わせの一次又は高次微分(例えば、二次微分)
Figure 0004809778
を含んでいる場合は、それらはプロセッサによって計算されサブセットに含められる。又は、アプリケーション224によって計算される。
別の実施形態では、ペン200は軌跡230を残さないスタイラスである。言い換えれば、ペン先は、印を作らない点である。この実施形態では、表面204は、紙面である必要はなく、筆記ができる他の平面を代わりに使用することができる。その他の点では、この方法は上述した実施形態と同じである。
図7は、先端252を有する長寸の物体250の姿勢から取得した姿勢データを処理する装置248の他の実施形態を示す。物体250は、先端252が軌跡を作らないスタイラスである。物体250は、光学測定器及びプロセッサ(図示せず)を有するハウジング254を備えている。また、物体250は、通信を行うための無線通信器262を備えている。
先端252は、不変特徴部258A、258B、258C及び258Dを有する平面256に置かれる。測定器は、先端252が表面256と接触している間、特徴258を使用して、測定時間ti毎に、スタイラス250の姿勢を定期的に測定する。プロセッサは、姿勢に対応する姿勢データを作成し、送信するサブセット260を特定する。この場合は、サブセット260は全ての姿勢データを含んでおり、各測定時間tiの後にタイムスタンプ(ti)と共に送信される。位置データは、光学測定器によって選択される世界座標(X,Y,Z)のベクトルDの形式で表される。方向データは、オイラー角で表される。
送信器262は、通信リンク264A、264B、264C及び264Dを介して、サブセット260を要求する常駐アプリケーションを備えた様々なデバイスに、サブセット260を送信する。具体的には、リンク264Aは、ネットワーク266と接続しており、ネットワーク266は、サブセット260を要求するアプリケーション270を実行するコンピュータ(パーソナル・コンピュータなど)268と接続している。ネットワーク266は、どんな種類のネットワークでもよく、インターネット、ローカルエリア・ネットワーク(Local Area Network:LAN)、電話ネットワーク、又はサブセット260を送信できる任意のネットワークで有り得る。リンク264Bは、ウエブ274を介してコンピュータ268と通信するローカル・ホスト(ホスト・コンピュータなど)272と接続する。アプリケーション270は、コンピュータ268とローカル・ホスト272との間で共有することができる。又は、コンピュータ268とローカル・ホスト272は、それぞれ固有のアプリケーションを用いることができる。また、ローカル・ホスト272は、中継コンピュータとしてのみ機能することもできる。リンク264Cは、コンピュータ268と直接的に接続している。リンク264Cは、例えば、スタイラス250がコンピュータ268に近接して操作中にのみ使用可能な短距離リンクであり得る。リンク264Dは、他のアプリケーションを実行するデバイス276と接続している。例えば、デバイス276は、パーソナル・デジタル・アシスタント(Personal Digital Assistant:PDA)又は携帯電話である。実際は、リンク264Dは、赤外線リンクであり得る。この場合、無線リンク262の代わりに赤外線送信器が使用される。スタイラス250は、リンク264の任意の組み合わせを介して、通信する必要がある任意のデバイスといつでも通信することができる。デバイスは、リンク264を使用して、スタイラス250といつでも通信することができる。
操作中は、スタイラス250は、サブセット260内に、世界座標で表される絶対位置又はベクトルDを含むことができる。又は、スタイラス250は、サブセット260内に、相対位置データ又は相対座標(X,Y,Z)におけるベクトルDriを含むことができる。別の実施形態では、サブセット260は、前回の位置に対する相対位置データ、すなわち、ベクトルΔD=Dri−Dri−1を含むことができる。これは、あるアプリケーションでは、先端252の相対位置の情報のみを必要とするからである。姿勢データの作成及びサブセット260の特定は、ペン250と他のデバイスとの間で共有できるタスクであることに留意されたい。実際は、姿勢データを導出するための姿勢の処理、及びサブセット260の特定に必要なプロセッサは、別のデバイス(例えば、コンピュータ268)に設けることができる。
図8は、メモ用具520のサブセット260からの命令及び入力データのいくつかの例示的な使用を示すブロック図である。第1のステップ50では、サブセット260が、通信リンク264を介して、ローカル・ホスト又はネットワークに受け取られる。サブセット260がリモート・ホストを対象としたものであれば、ステップ282でサブセット260はリモート・ホストへ送られる。
第2のステップ284では、目的とするホスト(ローカル・ホスト又はリモート・ホスト)のプロセッサは、サブセット260の要求を判断する。この選択は、目的とするアプリケーション300に基づいて行われる。例えば、アプリケーション300がサブセット260に既に含まれているパラメータだけを必要とする場合、サブセット260は処理又は直接的な使用のために、ステップ286に送られる。または、アプリケーション300がさらなるパラメータを必要とする場合、サブセット260は、さらなるパラメータを導出するために、ステップ288へ送られる。
例えば、さらなるパラメータは、サブセット260に含まれる1つ又は複数のパラメータの導関数である。したがって、サブセット260は、微分モジュール290に送られ、その後、サブセット260に導関数を追加する追加モジュール292へ送られる。この例では、オイラー角φ及びθの時間微分が要求される。したがって、作成されたサブセット260´には、オイラー角φ及びθの時間微分が含まれる。又は、サブセット160に含まれる1つ又は複数のパラメータの統計情報が要求される。この場合、サブセット260は、統計モジュール294に送られ、その後、サブセット260に統計情報を追加する追加モジュール296に送られる。この例では、統計情報は、第2のオイラー角θの標準偏差である。したがって、作成されたサブセット260´´には、サブセット260のパラメータとオイラー角θの標準偏差が含まれる。
当業者なら、上記した機能は、ローカル・ホストとリモート・ホストとの間、同様にアプリケーション300との間で共有できることを容易に理解できるであろう(例えば、システム構成やデータポーティング規格で定められたところにより)。例えば、サブセット260の作成及び追加は、アプリケーション300で受信次第行うこともできる。
サブセット260は、入力データとして使用するために、アプリケーション300へ送信される。前記入力データは、その使用に応じて送信又は処理される。例えば、ステップ302では、サブセット260´は、制御データとして使用される。したがって、サブセット260´は、実行命令又は実行命令の一部と見なされ、実行ファイル310で使用される。他方では、ステップ306では、サブセット260´´は、入力データとして使用され、データファイル308に保存される。
ある特定の用途では、アプリケーション300は、トレース・キャプチャ・アプリケーションであり、サブセット260´は、標準的なブール論理に従って、制御データとして使用される。具体的には、アプリケーションは、命令データをブール論理命令(例えば、 OR、AND、XOR)へ変換するために、関数を再フォーマットするブール論理記号を含んでいる。
図9は、本発明に係る装置の別な実施形態を示す図である。この実施形態では、長寸の物体320は、不変特徴部324A及び324Bを有するメモ表面322上で使用されるメモ用具である。メモ表面322は、メモ用具320が搭載された光学測定器によって姿勢を測定できる、スクリーン、パッド、紙面、又は任意の都合の良い面であり得る。メモ用具320は、ペン、鉛筆、又はスタイラス(stylus)である。
ユーザ326は、先端328を表面322上に置き、姿勢データを生成すべく動作を行うことによりメモ用具320を使用する。姿勢データは、サブセットに加工され、様々なユーザデバイスに送信される。前記デバイスとしては、例えば、メインフレーム・コンピュータ330、ジョイスティック332、携帯電話334、パーソナル・コンピュータ336、携帯情報端末(PDF)が挙げられる(ただし、これらに限定されるものではない)。各デバイスは、サブセットの適切な部分を使用する。例えば、ジョイスティック332は、オイラー角φ,θ以外のパラメータはすべて削除し、オイラー角φ,θを制御データとして使用する。又は、ジョイスティック332は、オイラー角ψを残し、オイラー角ψをボタン機能を有効にするための制御データとして使用する。他方では、携帯電話334は、オイラー角を電話番号の選択に使用し、位置データを、電話をかける命令を実行する制御データとして使用する。
長寸の物体は、その物理的な姿勢が有用なデータを生成することができる、任意の細長いデバイスで有り得ることに留意されたい。したがって、上記した例では、長寸の物体がメモ用具、ポインタ、棒又はロボットアームの場合を示しているが、他の長寸の物体を使用することも可能である。また、姿勢データから特定されるサブセットに、長寸の物体に搭載されている又は搭載されていない他のデバイスで生成された様々な付加的なデータを追加することもできる。さらに、姿勢データ及び/又はサブセット内のデータは、必要に応じて、ユーザ保護又は他の理由のために暗号化することもできる。
以上、本発明の様々な実施形態を説明したが、これらの実施形態は例示的なものであり、本発明を限定するものではない。本発明の細部の実施にあたっては、当業者は、開示された実施例に様々な改良を加えることが可能である。本発明の範囲は、特許請求の範囲及びその均等範囲によってのみ規定されるものである。
本発明に係る装置を三次元的に表した図であり、その先端が表面と接触している長寸の物体の動作を示している。 ここで用いられるオイラー回転の規定を示す図であり、第1のオイラー角φでの第1の回転を示している。 ここで用いられるオイラー回転の規定を示す図であり、第2のオイラー角θでの第2の回転を示している ここで用いられるオイラー回転の規定を示す図であり、第3のオイラー角ψでの第3の回転を示している。 姿勢データをサブセットヘフォーマット又は処理する方法を説明するブロック図である。 姿勢を測定するための画像化システムを備えた長寸の物体を三次元的に表した図である。 姿勢を測定するための走査システムを備えた長寸の物体を三次元的に表した図である。 長寸の物体が平面にメモ書きするためのメモ用具である場合の、好ましい用途を三次元的に表す図である。 姿勢データを、通信リンクを介してリモート・デバイスに通信するメモ用具を示す図である。 図7のメモ用具の姿勢データから得られた命令及び入力データの使用を示すブロック図である。 本発明に係る装置の別の実施形態を示す図である。

Claims (30)

  1. 先端を有する長寸の物体の姿勢から得られた姿勢データを処理する方法であって、
    (a)前記先端を、不変特徴部を有する平面上に置くステップと、
    (b)前記姿勢を、前記長寸の物体に搭載された測定器で、前記不変特徴部を利用して光学的に測定するステップと、
    (c)前記姿勢に対応する姿勢データを作成するステップと、
    (d)前記姿勢データのサブセットを特定するステップと、
    (e)前記サブセットをアプリケーションに送信するステップと
    を含み、
    前記測定するステップは、
    前記測定器に備えられた走査システムが、プローブ放射線で前記平面を走査して、前記プローブ放射線の散乱波の強度を測定するステップと、
    走査パターンに応じて変化する前記散乱波の強度と、前記平面及び前記不変特徴部の情報とから前記姿勢を決定するステップとを含むことを特徴とする方法。
  2. 請求項1に記載の方法であって、
    前記姿勢データが前記長寸の物体の動作を表すように、前記長寸の物体の動作中は、前記測定は測定時間ti毎に定期的に行われることを特徴とする方法。
  3. 請求項1に記載の方法であって、
    前記サブセットは、方位データを含むことを特徴とする方法。
  4. 請求項3に記載の方法であって、
    前記サブセットは、傾斜角θを含むことを特徴とする方法。
  5. 請求項3に記載の方法であって、
    前記サブセットは、少なくとも1つのオイラー角を含むことを特徴とする方法。
  6. 請求項3に記載の方法であって、
    前記方位データは、制御データ及び入力データから成る群より選択される入力として使用されることを特徴とする方法。
  7. 請求項2に記載の方法であって、
    前記サブセットは、前記表面上における前記先端の位置データを含むことを特徴とする方法。
  8. 請求項7に記載の方法であって、
    前記位置データは、前記先端の前記不変特徴部に対しての位置を含むことを特徴とする方法。
  9. 請求項7に記載の方法であって、
    前記位置データは、前記表面上における前記先端の絶対位置を含むことを特徴とする方法。
  10. 請求項7に記載の方法であって、
    前記位置データは、前記先端の前回の絶対位置に対しての位置を含むことを特徴とする方法。
  11. 請求項7に記載の方法であって、
    前記位置データは、制御データ及び入力データから成る群より選択される入力として使用されることを特徴とする方法。
  12. 請求項1に記載の方法であって、
    前記表面はメモ面であり、前記長寸の物体はメモ用具であることを特徴とする方法。
  13. 請求項12に記載の方法であって、
    前記メモ面は、スクリーン、タブレット、メモ帳、及び紙表面から成る群より選択されることを特徴とする方法。
  14. 請求項1に記載の方法であって、
    前記長寸の物体は、メモ用具、ポインタ、ロボットアーム、及び棒から成る群より選択されることを特徴とする方法。
  15. 請求項14に記載の方法であって、
    前記メモ用具は、ペン、鉛筆、及びスタイラスから成る群より選択されることを特徴とする方法。
  16. 先端を有する長寸の物体の姿勢から得られた姿勢データを処理する装置であって、
    (a)前記先端が置かれる、不変特徴部を有する平面と、
    (b)前記長寸の物体に搭載され、前記姿勢を、前記不変特徴部を利用して光学的に測定する光学測定手段と、
    (c)前記姿勢に対応する姿勢データの作成、及び前記姿勢データのサブセットの特定を行うプロセッサと、
    (d)前記サブセットをアプリケーションへ送信する通信リンクと
    を備え
    前記光学測定手段は、
    プローブ放射線で前記平面を走査して、前記プローブ放射線の散乱波の強度を測定する走査システムと、
    走査パターンに応じて変化する前記散乱波の強度と、前記平面及び前記不変特徴部の情報とから前記姿勢を決定する姿勢決定手段とを備えることを特徴とする装置。
  17. 請求項16に記載の装置であって、
    前記光学測定手段は、前記姿勢を測定時間ti毎に定期的に測定するための定期的測定手段を含むことを特徴とする装置。
  18. 請求項16に記載の装置であって、
    前記プロセッサは、前記長寸の物体に搭載されることを特徴とする装置。
  19. 請求項16に記載の装置であって、
    前記通信リンクは、無線通信リンクであることを特徴とする装置。
  20. 請求項16に記載の装置であって、
    前記長寸の物体は、メモ用具、ポインタ、ロボットアーム、及び棒から成る群より選択されることを特徴とする装置。
  21. 請求項20に記載の装置であって、
    前記メモ用具は、ペン、鉛筆、及びスタイラスから成る群より選択されることを特徴とする装置。
  22. 請求項16に記載の装置であって、
    前記アプリケーションはデータファイルを含み、前記サブセットは前記データファイルに入力される入力データを含むことを特徴とする装置。
  23. 請求項16に記載の装置であって、
    前記アプリケーションは実行ファイルを含み、前記サブセットは前記実行ファイルに入力される制御データを含むことを特徴とする装置。
  24. 請求項16に記載の装置であって、
    前記アプリケーションは、モーション・キャプチャー・アプリケーションを含むことを特徴とする装置。
  25. 請求項24に記載の装置であって、
    前記モーション・キャプチャー・アプリケーションは、バイオメトリック・アプリケーションを含むことを特徴とする装置。
  26. 請求項25に記載の装置であって、
    前記バイオメトリック・アプリケーションは、ユーザ照合アプリケーションを含むことを特徴とする装置。
  27. 請求項16に記載の装置であって、
    前記アプリケーションは、トレース・キャプチャー・アプリケーションを含むことを特徴とする装置。
  28. 請求項27に記載の装置であって、
    前記トレース・キャプチャー・アプリケーションは、手書き認識アプリケーションを含むことを特徴とする装置。
  29. 請求項27に記載の装置であって、
    前記トレース・キャプチャー・アプリケーションは、署名照合アプリケーションを含むことを特徴とする装置。
  30. 請求項27に記載の装置であって、
    前記トレース・キャプチャー・アプリケーションは、ブール論理記号再フォーマット機能を含むことを特徴とする装置。
JP2006551639A 2004-01-30 2005-01-27 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置 Expired - Fee Related JP4809778B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/769,484 US8542219B2 (en) 2004-01-30 2004-01-30 Processing pose data derived from the pose of an elongate object
US10/769,484 2004-01-30
PCT/US2005/003616 WO2005074653A2 (en) 2004-01-30 2005-01-27 Processing pose data derived from the pose of an elongate object

Publications (2)

Publication Number Publication Date
JP2007525663A JP2007525663A (ja) 2007-09-06
JP4809778B2 true JP4809778B2 (ja) 2011-11-09

Family

ID=34808142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006551639A Expired - Fee Related JP4809778B2 (ja) 2004-01-30 2005-01-27 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置

Country Status (7)

Country Link
US (1) US8542219B2 (ja)
EP (1) EP1738348A4 (ja)
JP (1) JP4809778B2 (ja)
KR (1) KR101101091B1 (ja)
CN (1) CN101107649A (ja)
CA (1) CA2553960C (ja)
WO (1) WO2005074653A2 (ja)

Families Citing this family (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE50112248D1 (de) 2000-10-07 2007-05-03 David Dickerson Informationssystem und Verfahren zur Zurverfügungstellen von Informationen unter Verwendung eines Holographischen Elements
WO2003064116A2 (en) 2002-01-31 2003-08-07 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
US7952570B2 (en) 2002-06-08 2011-05-31 Power2B, Inc. Computer navigation
FI117986B (fi) * 2003-06-17 2007-05-15 Onesys Oy Menetelmä ja järjestelmä navigoimiseksi tosiaikaisesti kolmiulotteisessa lääketieteellisessä kuvamallissa
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8799303B2 (en) 2004-02-15 2014-08-05 Google Inc. Establishing an interactive environment for rendered documents
US20060041484A1 (en) 2004-04-01 2006-02-23 King Martin T Methods and systems for initiating application processes by data capture from rendered documents
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US20080313172A1 (en) 2004-12-03 2008-12-18 King Martin T Determining actions involving captured information and electronic content associated with rendered documents
US8621349B2 (en) 2004-04-01 2013-12-31 Google Inc. Publishing techniques for adding value to a rendered document
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20070300142A1 (en) 2005-04-01 2007-12-27 King Martin T Contextual dynamic advertising based upon captured rendered text
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US8793162B2 (en) 2004-04-01 2014-07-29 Google Inc. Adding information or functionality to a rendered document via association with an electronic counterpart
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US9460346B2 (en) 2004-04-19 2016-10-04 Google Inc. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
CN100407118C (zh) * 2004-10-12 2008-07-30 日本电信电话株式会社 三维指示方法和三维指示装置
US7483010B2 (en) * 2004-12-22 2009-01-27 Himax Technologies Limited Frame-varying addressing method of color sequential display
US10452207B2 (en) 2005-05-18 2019-10-22 Power2B, Inc. Displays and information input devices
WO2008111079A2 (en) 2007-03-14 2008-09-18 Power2B, Inc. Interactive devices
WO2008002239A1 (en) * 2006-06-28 2008-01-03 Anoto Ab Operation control and data processing in an electronic pen
US8437535B2 (en) 2006-09-19 2013-05-07 Roboticvisiontech Llc System and method of determining object pose
NO327279B1 (no) 2007-05-22 2009-06-02 Metaio Gmbh Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning
DE102007033486B4 (de) * 2007-07-18 2010-06-17 Metaio Gmbh Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
US7957583B2 (en) 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
CN101896875B (zh) 2007-08-30 2013-12-18 雷蛇(亚太)私人有限公司 按键失效系统与方法
DE102007045834B4 (de) 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
US9128539B2 (en) * 2007-11-30 2015-09-08 Razer (Asia-Pacific) Pte Ltd Ergonomic mouse device with multi-programmable buttons
US20090167702A1 (en) * 2008-01-02 2009-07-02 Nokia Corporation Pointing device detection
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
US8675965B2 (en) 2008-11-10 2014-03-18 Metaio Gmbh Method and system for analyzing an image generated by at least one camera
US8990235B2 (en) 2009-03-12 2015-03-24 Google Inc. Automatically providing content associated with captured information, such as information captured in real-time
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
EP2382599B1 (en) 2009-07-29 2012-12-12 Metaio GmbH Method for determining the pose of a camera with respect to at least one real object
DE102009037835B4 (de) 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
US20230349693A1 (en) * 2009-09-03 2023-11-02 Electronic Scripting Products, Inc. System and method for generating input data from pose estimates of a manipulated object by using light data and relative motion data
DE102009049073A1 (de) 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
EP2339537B1 (en) * 2009-12-23 2016-02-24 Metaio GmbH Method of determining reference features for use in an optical object initialization tracking process and object initialization tracking method
US9170766B2 (en) 2010-03-01 2015-10-27 Metaio Gmbh Method of displaying virtual information in a view of a real environment
US8638450B2 (en) 2010-08-04 2014-01-28 Boulder Innovation Group Inc. Methods and systems for realizing reduced complexity in three-dimensional digitizer systems
JP5621464B2 (ja) * 2010-09-24 2014-11-12 富士ゼロックス株式会社 動作検出装置、記録システム及びプログラム
US9208563B2 (en) 2010-12-21 2015-12-08 Metaio Gmbh Method for determining a parameter set designed for determining the pose of a camera and/or for determining a three-dimensional structure of the at least one real object
CN103415860B (zh) 2011-01-27 2019-07-12 苹果公司 确定第一和第二图像间的对应关系的方法以及确定摄像机姿态的方法
EP2689393A1 (en) 2011-03-23 2014-01-29 Metaio GmbH Method for registering at least one part of a first and second image using a collineation warping function
US8791901B2 (en) * 2011-04-12 2014-07-29 Sony Computer Entertainment, Inc. Object tracking with projected reference patterns
US8687172B2 (en) 2011-04-13 2014-04-01 Ivan Faul Optical digitizer with improved distance measurement capability
CN103703763B (zh) 2011-07-29 2018-02-27 惠普发展公司,有限责任合伙企业 视觉分层的系统和方法
BR112014002186B1 (pt) 2011-07-29 2020-12-29 Hewlett-Packard Development Company, L.P sistema de projeção de captura, meio executável de processamento e método de colaboração em espaço de trabalho
US9521276B2 (en) 2011-08-02 2016-12-13 Hewlett-Packard Development Company, L.P. Portable projection capture device
CN103988226B (zh) 2011-08-31 2017-09-26 Metaio有限公司 用于估计摄像机运动以及用于确定实境三维模型的方法
US9454245B2 (en) * 2011-11-01 2016-09-27 Qualcomm Incorporated System and method for improving orientation data
US8896688B2 (en) 2011-11-04 2014-11-25 Hewlett-Packard Development Company, L.P. Determining position in a projection capture system
JP6141887B2 (ja) * 2012-02-29 2017-06-07 クゥアルコム・インコーポレイテッドQualcomm Incorporated 書き込まれた内容のための空間的に関係する注釈の表示
CN104081450B (zh) 2012-04-24 2016-09-07 惠普发展公司,有限责任合伙企业 用于显示图像的系统
US20130300831A1 (en) 2012-05-11 2013-11-14 Loren Mavromatis Camera scene fitting of real world scenes
US9652043B2 (en) 2012-05-14 2017-05-16 Hewlett-Packard Development Company, L.P. Recognizing commands with a depth sensor
US8837780B2 (en) 2012-06-22 2014-09-16 Hewlett-Packard Development Company, L.P. Gesture based human interfaces
CN102789576B (zh) * 2012-06-29 2015-09-09 鸿富锦精密工业(深圳)有限公司 签名特征提取系统及方法
US20140032164A1 (en) * 2012-07-26 2014-01-30 Andy Liao Identifying and locating plural signal emitters
US8831285B2 (en) 2012-07-26 2014-09-09 Hewlett-Packard Development Company, L.P. Detecting objects with a depth sensor
EP2893422A4 (en) 2012-09-06 2016-05-18 Interphase Corp SENSOR FUSION WITH ABSOLUTE AND RELATIVE POSITIONING IN AN INTERACTIVE DISPLAY SYSTEM
US9143696B2 (en) 2012-10-13 2015-09-22 Hewlett-Packard Development Company, L.P. Imaging using offsetting accumulations
US9297942B2 (en) 2012-10-13 2016-03-29 Hewlett-Packard Development Company, L.P. Imaging with polarization removal
US8982261B2 (en) 2012-10-13 2015-03-17 Hewlett-Packard Development Company, L.P. Imaging with interleaved detection accumulations
US9274651B2 (en) 2012-11-05 2016-03-01 Hewlett-Packard Development Company, L.P. Apparatus to track a pointing device
DE102013200080A1 (de) * 2013-01-07 2014-07-10 Christian Walloth Stiftförmiges Handwerkzeug
US9146668B2 (en) 2013-01-31 2015-09-29 Hewlett-Packard Development Company, L.P. Graphical element placement on a display surface
KR102387314B1 (ko) 2013-03-11 2022-04-14 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US9148573B2 (en) 2013-03-15 2015-09-29 Hewlett-Packard Development Company, L.P. Non-uniform correction illumination pattern
CN105229719B (zh) 2013-03-15 2018-04-27 奇跃公司 显示系统和方法
US9323338B2 (en) 2013-04-12 2016-04-26 Usens, Inc. Interactive input system and method
US9063330B2 (en) 2013-05-30 2015-06-23 Oculus Vr, Llc Perception based predictive tracking for head mounted displays
JP6098386B2 (ja) * 2013-06-18 2017-03-22 船井電機株式会社 プロジェクタ
US9776364B2 (en) 2013-08-09 2017-10-03 Apple Inc. Method for instructing a 3D printing system comprising a 3D printer and 3D printing system
KR101800981B1 (ko) 2013-08-22 2017-11-23 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 투사 컴퓨팅 시스템
US10168897B2 (en) 2013-08-30 2019-01-01 Hewlett-Packard Development Company, L.P. Touch input association
US10156937B2 (en) 2013-09-24 2018-12-18 Hewlett-Packard Development Company, L.P. Determining a segmentation boundary based on images representing an object
US10324563B2 (en) 2013-09-24 2019-06-18 Hewlett-Packard Development Company, L.P. Identifying a target touch region of a touch-sensitive surface based on an image
US10114512B2 (en) 2013-09-30 2018-10-30 Hewlett-Packard Development Company, L.P. Projection system manager
USD738374S1 (en) 2013-11-15 2015-09-08 Oculus Vr, Llc Virtual reality headset
WO2015076811A1 (en) 2013-11-21 2015-05-28 Hewlett-Packard Development Company, L.P. Projection screen for specularly reflecting infrared light
WO2015116220A1 (en) 2014-01-31 2015-08-06 Hewlett-Packard Development Company, L.P. Touch sensitive mat of a system with a projector unit
WO2015130320A1 (en) 2014-02-28 2015-09-03 Hewlett-Packard Development Company, L.P. Calibration of sensors and projector
DE102014106837B4 (de) 2014-05-15 2018-12-27 Stabilo International Gmbh Driftkompensation / Parallelminimierung
JP6757114B2 (ja) * 2014-06-03 2020-09-16 シャープ株式会社 入力表示装置
US9411440B2 (en) 2014-08-22 2016-08-09 Qualcomm Incorporated Digital ultrasonic emitting base station
US10417801B2 (en) 2014-11-13 2019-09-17 Hewlett-Packard Development Company, L.P. Image projection
US9846972B2 (en) 2015-04-06 2017-12-19 Scope Technologies Us Inc. Method and apparatus for sharing augmented reality applications to multiple clients
CN105056503B (zh) * 2015-07-28 2017-09-22 湖南人文科技学院 一种训练用的标枪测绘、标定方法
US9922244B2 (en) 2015-09-03 2018-03-20 Gestigon Gmbh Fast and robust identification of extremities of an object within a scene
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
JP6987797B2 (ja) 2016-03-11 2022-01-05 カールタ インコーポレイテッド リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
US10346949B1 (en) 2016-05-27 2019-07-09 Augmented Pixels, Inc. Image registration
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
US10564724B1 (en) * 2016-09-20 2020-02-18 Apple Inc. Touch-based input device with haptic feedback
EP3646058A4 (en) * 2017-06-30 2020-12-02 Kaarta, Inc. SYSTEMS AND METHODS FOR IMPROVING SCAN AND IMAGING
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
AU2019217515A1 (en) 2018-02-06 2020-06-25 Magic Leap, Inc. Systems and methods for augmented reality
WO2019165194A1 (en) 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
WO2020047486A1 (en) 2018-08-31 2020-03-05 Magic Leap, Inc. Spatially-resolved dynamic dimming for augmented reality device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296290A (ja) * 1998-04-09 1999-10-29 Ricoh Co Ltd ペン型入力装置及び文字認識方法
JP2000275013A (ja) * 1999-03-24 2000-10-06 Mr System Kenkyusho:Kk 視点位置姿勢の決定方法、コンピュータ装置および記憶媒体
JP2000293303A (ja) * 1999-02-03 2000-10-20 Ricoh Co Ltd 座標入力装置、情報処理システムおよび媒体
JP2001100908A (ja) * 1999-09-28 2001-04-13 Fujitsu Ltd ペン先軌跡生成方法、ペン型入力装置及びペン装着ユニット
JP2001148025A (ja) * 1999-09-07 2001-05-29 Nikon Gijutsu Kobo:Kk 位置検出装置及びその方法、平面姿勢検出装置及びその方法
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム

Family Cites Families (128)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6259438B1 (en) 1998-06-04 2001-07-10 Wacom Co., Ltd. Coordinate input stylus
US4070649A (en) 1976-12-01 1978-01-24 Said Sanford J. Wright, By Said Peter Anderson And Said Ralph Grimes Multi-modal data input/output apparatus and method compatible with bio-engineering requirements
JPS5921077B2 (ja) 1981-12-28 1984-05-17 富士通株式会社 座標読取装置
US5226091A (en) 1985-11-05 1993-07-06 Howell David N L Method and apparatus for capturing information in drawing or writing
US5103486A (en) 1990-04-19 1992-04-07 Grippi Victor J Fingerprint/signature synthesis
US5953735A (en) 1991-03-20 1999-09-14 Forcier; Mitchell D. Script character processing method and system with bit-mapped document editing
JP2726594B2 (ja) 1991-04-01 1998-03-11 八洲電機株式会社 記憶ペン
US5166668A (en) 1991-04-10 1992-11-24 Data Stream Corporation Wireless pen-type input device for use with a computer
JP3103928B2 (ja) 1991-12-27 2000-10-30 株式会社日立製作所 可搬型ペン入力装置およびペン入力計算機システム
US5294792A (en) 1991-12-31 1994-03-15 Texas Instruments Incorporated Writing tip position sensing and processing apparatus
JPH0644005A (ja) 1992-01-24 1994-02-18 Seiko Instr Inc 座標入力装置
US5333209A (en) 1992-03-24 1994-07-26 At&T Bell Laboratories Method of recognizing handwritten symbols
US5852434A (en) 1992-04-03 1998-12-22 Sekendur; Oral F. Absolute optical position determination
US5477012A (en) 1992-04-03 1995-12-19 Sekendur; Oral F. Optical position determination
US5870492A (en) 1992-06-04 1999-02-09 Wacom Co., Ltd. Hand-written character entry apparatus
DK0649549T3 (da) 1992-07-08 1997-08-18 Smart Pen Inc Apparat og fremgangsmåde til afbildning af skrevne informationer
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
DE69307544T2 (de) 1992-11-17 1997-08-07 Lectra Systemes Sa Verfahren und vorrichtung zur erfassung und behandlung grafischer information
US5717743A (en) * 1992-12-16 1998-02-10 Texas Instruments Incorporated Transparent telephone access system using voice authorization
JPH06266490A (ja) 1993-03-12 1994-09-22 Toshiba Corp 情報入力装置および情報入力における位置認識システム
US6366697B1 (en) 1993-10-06 2002-04-02 Xerox Corporation Rotationally desensitized unistroke handwriting recognition
US5484966A (en) 1993-12-07 1996-01-16 At&T Corp. Sensing stylus position using single 1-D image sensor
US5434371A (en) 1994-02-01 1995-07-18 A.T. Cross Company Hand-held electronic writing tool
IL108566A0 (en) 1994-02-04 1994-05-30 Baron Research & Dev Company L Handwriting input apparatus using more than one sensing technique
US5577135A (en) 1994-03-01 1996-11-19 Apple Computer, Inc. Handwriting signal processing front-end for handwriting recognizers
WO1995027935A1 (fr) 1994-04-07 1995-10-19 Japan Nesamac Corporation Appareil d'introduction de donnees du type a prehension de crayon et appareil d'introduction de donnees
JP3641283B2 (ja) 1994-04-08 2005-04-20 富士通株式会社 グラフィックデータ生成装置
US5737740A (en) 1994-06-27 1998-04-07 Numonics Apparatus and method for processing electronic documents
US5781661A (en) 1994-06-29 1998-07-14 Nippon Telegraph And Telephone Corporation Handwritting information detecting method and apparatus detachably holding writing tool
US5652412A (en) 1994-07-11 1997-07-29 Sia Technology Corp. Pen and paper information recording system
US5774602A (en) 1994-07-13 1998-06-30 Yashima Electric Co., Ltd. Writing device for storing handwriting
EP0693739A3 (en) 1994-07-13 1997-06-11 Yashima Denki Kk Method and apparatus capable of storing and reproducing handwriting
US5748808A (en) 1994-07-13 1998-05-05 Yashima Electric Co., Ltd. Image reproducing method and apparatus capable of storing and reproducing handwriting
US5544255A (en) 1994-08-31 1996-08-06 Peripheral Vision Limited Method and system for the capture, storage, transport and authentication of handwritten signatures
US6091835A (en) 1994-08-31 2000-07-18 Penop Limited Method and system for transcribing electronic affirmations
US6262719B1 (en) 1994-09-02 2001-07-17 Packard Bell Nec, Inc. Mouse emulation with a passive pen
US5768417A (en) 1994-09-09 1998-06-16 Motorola, Inc. Method and system for velocity-based handwriting recognition
US5661506A (en) 1994-11-10 1997-08-26 Sia Technology Corporation Pen and paper information recording system using an imaging pen
JPH09508997A (ja) 1994-12-07 1997-09-09 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ データ処理装置
US6044165A (en) 1995-06-15 2000-03-28 California Institute Of Technology Apparatus and method for tracking handwriting from visual input
US5694153A (en) * 1995-07-31 1997-12-02 Microsoft Corporation Input device for providing multi-dimensional position coordinate signals to a computer
AU6685596A (en) * 1995-07-31 1997-02-26 Microsoft Corporation Computer input device and method of operation
GB9516441D0 (en) 1995-08-10 1995-10-11 Philips Electronics Uk Ltd Light pen input systems
US6081261A (en) 1995-11-01 2000-06-27 Ricoh Corporation Manual entry interactive paper and electronic document handling and processing system
JPH09146691A (ja) 1995-11-17 1997-06-06 Hitachi Ltd 情報処理装置
US5902968A (en) 1996-02-20 1999-05-11 Ricoh Company, Ltd. Pen-shaped handwriting input apparatus using accelerometers and gyroscopes and an associated operational device for determining pen movement
US6686910B2 (en) 1996-04-22 2004-02-03 O'donnell, Jr. Francis E. Combined writing instrument and digital documentor apparatus and method of use
US6573887B1 (en) 1996-04-22 2003-06-03 O'donnell, Jr. Francis E. Combined writing instrument and digital documentor
DE19625767A1 (de) 1996-06-27 1998-01-08 Mm Lesestift Manager Memory Lesegerät für die optische Erfassung und Speicherung von visuell markierten und projizierten alphanumerischen Zeichen, Graphiken und fotografischen Bildern
WO1998015914A1 (en) 1996-10-04 1998-04-16 Philips Electronics N.V. Method and apparatus for on-line handwriting recognition based on feature vectors that use aggregated observations derived from time-sequential frames
US6130666A (en) 1996-10-07 2000-10-10 Persidsky; Andre Self-contained pen computer with built-in display
US6031936A (en) 1997-01-29 2000-02-29 Yashima Electric Co., Ltd. Handwriting detecting and storing apparatus
US5930380A (en) 1997-02-11 1999-07-27 Lucent Technologies, Inc. Method and apparatus for verifying static signatures using dynamic information
US6292177B1 (en) 1997-03-05 2001-09-18 Tidenet, Inc. Marking device for electronic presentation board
JP3624070B2 (ja) 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
US6153836A (en) 1997-04-02 2000-11-28 Goszyk; Kurt A. Adjustable area coordinate position data-capture system
US6104387A (en) 1997-05-14 2000-08-15 Virtual Ink Corporation Transcription system
US6188392B1 (en) 1997-06-30 2001-02-13 Intel Corporation Electronic pen device
US5977958A (en) 1997-06-30 1999-11-02 Inmotion Technologies Ltd. Method and system for digitizing handwriting
JP3475048B2 (ja) 1997-07-18 2003-12-08 シャープ株式会社 手書き入力装置
US6108444A (en) 1997-09-29 2000-08-22 Xerox Corporation Method of grouping handwritten word segments in handwritten document images
US5939702A (en) 1997-10-10 1999-08-17 Motorola, Inc. Writing implement having an integrated optical reader
US6050490A (en) 1997-10-31 2000-04-18 Hewlett-Packard Company Handheld writing device and related data entry system
US5955719A (en) 1997-12-19 1999-09-21 A. T. Cross Company Data/pen well
US6212296B1 (en) 1997-12-23 2001-04-03 Ricoh Company, Ltd. Method and apparatus for transforming sensor signals into graphical images
US6181329B1 (en) 1997-12-23 2001-01-30 Ricoh Company, Ltd. Method and apparatus for tracking a hand-held writing instrument with multiple sensors that are calibrated by placing the writing instrument in predetermined positions with respect to the writing surface
US6184873B1 (en) 1998-01-20 2001-02-06 Electronics For Imaging, Inc. Pen positioning system
WO1999039302A1 (en) 1998-01-28 1999-08-05 California Institute Of Technology Camera-based handwriting tracking
US6456749B1 (en) 1998-02-27 2002-09-24 Carnegie Mellon University Handheld apparatus for recognition of writing, for remote communication, and for user defined input templates
JP2000105671A (ja) 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
US6124847A (en) 1998-05-14 2000-09-26 Virtual Ink, Corp. Collapsible detector assembly
US6147681A (en) 1998-05-14 2000-11-14 Virtual Ink, Corp. Detector for use in a transcription system
US6100877A (en) 1998-05-14 2000-08-08 Virtual Ink, Corp. Method for calibrating a transcription system
US6177927B1 (en) 1998-05-14 2001-01-23 Virtual Ink Corp. Transcription system kit
US6111565A (en) 1998-05-14 2000-08-29 Virtual Ink Corp. Stylus for use with transcription system
JP4119004B2 (ja) 1998-05-19 2008-07-16 株式会社東芝 データ入力システム
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
JP3191284B2 (ja) 1998-06-23 2001-07-23 日本電気株式会社 文字入力装置
US6249274B1 (en) 1998-06-30 2001-06-19 Microsoft Corporation Computer input device with inclination sensors
WO2000011596A1 (en) 1998-08-18 2000-03-02 Digital Ink, Inc. Handwriting device with detection sensors for absolute and relative positioning
US6335723B1 (en) 1998-10-02 2002-01-01 Tidenet, Inc. Transmitter pen location system
US6625296B2 (en) 1998-11-03 2003-09-23 Fuji Xerox Co., Ltd. Method and system for freeform digital ink annotation of data traces
US6414673B1 (en) 1998-11-10 2002-07-02 Tidenet, Inc. Transmitter pen location system
US6415256B1 (en) 1998-12-21 2002-07-02 Richard Joseph Ditzik Integrated handwriting and speed recognition systems
US6167376A (en) 1998-12-21 2000-12-26 Ditzik; Richard Joseph Computer system with integrated telephony, handwriting and speech recognition functions
US6687876B1 (en) 1998-12-30 2004-02-03 Fuji Xerox Co., Ltd. Method and system for maintaining freeform ink annotations on changing views
US6335724B1 (en) 1999-01-29 2002-01-01 Ricoh Company, Ltd. Method and device for inputting coordinate-position and a display board system
US6565611B1 (en) 1999-02-26 2003-05-20 Xerox Corporation Automatic index creation for handwritten digital ink notes
JP2000284895A (ja) 1999-03-31 2000-10-13 Hitachi Software Eng Co Ltd 座標入力ペン並びにそれを用いた電子ボード、座標入力システム及び電子ボードシステム
US6396481B1 (en) 1999-04-19 2002-05-28 Ecrio Inc. Apparatus and method for portable handwriting capture
US7178718B2 (en) 1999-05-25 2007-02-20 Silverbrook Research Pty Ltd Methods and systems for object identification and interaction
AUPQ363299A0 (en) 1999-10-25 1999-11-18 Silverbrook Research Pty Ltd Paper based information inter face
GB2351817A (en) * 1999-06-26 2001-01-10 Touch Controls Ltd A pointing device for controlling a computer application
US6348914B1 (en) 1999-10-05 2002-02-19 Raja S. Tuli Writing device for storing handwriting
WO2001030591A1 (en) 1999-10-25 2001-05-03 Silverbrook Research Pty Ltd Electronically controllable pen with sensor
US20030061188A1 (en) * 1999-12-23 2003-03-27 Linus Wiebe General information management system
US6661920B1 (en) 2000-01-19 2003-12-09 Palm Inc. Method and apparatus for multiple simultaneously active data entry mechanisms on a computer system
JP4618840B2 (ja) * 2000-02-21 2011-01-26 株式会社沖データ 座標入力装置
US20020048404A1 (en) 2000-03-21 2002-04-25 Christer Fahraeus Apparatus and method for determining spatial orientation
SE0000949L (sv) 2000-03-21 2001-09-22 Anoto Ab Positionsinformation
US6686579B2 (en) 2000-04-22 2004-02-03 International Business Machines Corporation Digital pen using speckle tracking
JP3867512B2 (ja) 2000-06-29 2007-01-10 富士ゼロックス株式会社 画像処理装置および画像処理方法、並びにプログラム
US6650320B1 (en) 2000-08-16 2003-11-18 International Business Machines Corporation Digital pen using visible image and autocorrelation of substrate pattern
US6592039B1 (en) 2000-08-23 2003-07-15 International Business Machines Corporation Digital pen using interferometry for relative and absolute pen position
US20020158848A1 (en) 2001-03-09 2002-10-31 Oral Sekendur Optical position determination on plain paper
AU2001298118A1 (en) 2000-11-29 2009-07-29 Oral F. Sekendur Optical position determination on any surface
US20020163511A1 (en) 2000-11-29 2002-11-07 Sekendur Oral Faith Optical position determination on any surface
US20020118181A1 (en) 2000-11-29 2002-08-29 Oral Sekendur Absolute optical position determination
WO2002064380A1 (fr) 2001-02-15 2002-08-22 Mitsubishi Pencil Kabushikikaisha Instrument pour ecrire
JP2004519772A (ja) 2001-02-22 2004-07-02 フィッシャー,エドワード 手書き文字記録及び認識装置
US6422775B1 (en) 2001-03-23 2002-07-23 Intel Corporation Digital messaging pen
KR100408518B1 (ko) 2001-04-12 2003-12-06 삼성전자주식회사 컴퓨터용 전자펜 데이타 입력장치 및 좌표 측정 방법
IL142659A0 (en) 2001-04-18 2002-03-10 Intellipen Ltd Electronic pen-like input device
FR2825499B1 (fr) 2001-06-05 2004-07-23 Commissariat Energie Atomique Dispositif et procede de localisation de la pointe d'un stylo sur un support de numerisation
US6966495B2 (en) 2001-06-26 2005-11-22 Anoto Ab Devices method and computer program for position determination
US7057615B2 (en) 2001-06-28 2006-06-06 Microsoft Corporation Method and system for representing and displaying digital ink
US6727891B2 (en) 2001-07-03 2004-04-27 Netmor, Ltd. Input device for personal digital assistants
GB2378073B (en) 2001-07-27 2005-08-31 Hewlett Packard Co Paper-to-computer interfaces
US20030034961A1 (en) 2001-08-17 2003-02-20 Chi-Lei Kao Input system and method for coordinate and pattern
US20030038790A1 (en) 2001-08-22 2003-02-27 Seiko Epson Corporation Information processing system, input/output apparatus, personal digital assistant, and display apparatus
US7385595B2 (en) 2001-11-30 2008-06-10 Anoto Ab Electronic pen and method for recording of handwritten information
US20030146906A1 (en) 2002-02-04 2003-08-07 Chung-Chen Lin Tracking and pressure-sensitive digital pen
US6938222B2 (en) 2002-02-08 2005-08-30 Microsoft Corporation Ink gestures
US20030163525A1 (en) 2002-02-22 2003-08-28 International Business Machines Corporation Ink instant messaging with active message annotation
US7110100B2 (en) * 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7023536B2 (en) * 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7113270B2 (en) * 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296290A (ja) * 1998-04-09 1999-10-29 Ricoh Co Ltd ペン型入力装置及び文字認識方法
JP2000293303A (ja) * 1999-02-03 2000-10-20 Ricoh Co Ltd 座標入力装置、情報処理システムおよび媒体
JP2000275013A (ja) * 1999-03-24 2000-10-06 Mr System Kenkyusho:Kk 視点位置姿勢の決定方法、コンピュータ装置および記憶媒体
JP2001148025A (ja) * 1999-09-07 2001-05-29 Nikon Gijutsu Kobo:Kk 位置検出装置及びその方法、平面姿勢検出装置及びその方法
JP2001100908A (ja) * 1999-09-28 2001-04-13 Fujitsu Ltd ペン先軌跡生成方法、ペン型入力装置及びペン装着ユニット
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム

Also Published As

Publication number Publication date
CA2553960A1 (en) 2005-08-18
KR20070017321A (ko) 2007-02-09
US8542219B2 (en) 2013-09-24
EP1738348A4 (en) 2008-09-17
CA2553960C (en) 2015-04-21
WO2005074653A3 (en) 2007-03-22
EP1738348A2 (en) 2007-01-03
KR101101091B1 (ko) 2011-12-30
US20050168437A1 (en) 2005-08-04
CN101107649A (zh) 2008-01-16
JP2007525663A (ja) 2007-09-06
WO2005074653A2 (en) 2005-08-18

Similar Documents

Publication Publication Date Title
JP4809778B2 (ja) 長寸の物体の姿勢から得られた姿勢データの処理方法及び装置
KR100465241B1 (ko) 가상 필기 평면을 이용한 모션 인식 시스템 및 그 인식방법
KR100408518B1 (ko) 컴퓨터용 전자펜 데이타 입력장치 및 좌표 측정 방법
KR101076938B1 (ko) 불변 특징부를 갖는 표면에 대한 긴 물체의 팁의절대위치를 결정하는 방법과 장치
US7952561B2 (en) Method and apparatus for controlling application using motion of image pickup unit
JP4567664B2 (ja) 平らな筆記記入面からの情報を光学的に推定するための装置
US7729515B2 (en) Optical navigation apparatus using fixed beacons and a centroid sensing device
US20060028457A1 (en) Stylus-Based Computer Input System
JP5930618B2 (ja) 空間手書きシステム及び電子ペン
US7203383B2 (en) Handwritten character recording and recognition device
JP2004227563A (ja) 慣性センサの積分
JP2008523353A (ja) 長寸の物体の方向パラメータを決定するための装置及び方法
CN110785729B (zh) 用于产生模拟笔画且用于模拟笔画的数字存储的电子装置和用于使模拟记录数字化的输入系统及方法
KR20060069985A (ko) 착용형 범용 3차원 입력 시스템
JPH09319510A (ja) ペン型入力装置
WO2002058029A2 (en) Optical position determination on any surface
JP4644800B2 (ja) 3次元位置入力装置
KR20010052283A (ko) 목적물을 제어하는 제어 장치 및 방법
KR20120037739A (ko) 손동작 기반 사용자 인터페이스 장치 및 그 방법
JP2010086367A (ja) 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
WO2002069247A1 (en) Handwritten character recording and recognition device
JPH10240437A (ja) ペン型入力システム
KR20020085099A (ko) 펜형 컴퓨터 입력 장치
WO2002033528A1 (en) Hand held electronic pen device, a system and a method for recording a motion pattern of the tip of a pen device, a computer program product and element

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20070918

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110811

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110819

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140826

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4809778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees