JP2004513443A - 電子ユーザ装着インタフェイス装置及びそれを使用した方法 - Google Patents

電子ユーザ装着インタフェイス装置及びそれを使用した方法 Download PDF

Info

Publication number
JP2004513443A
JP2004513443A JP2002540133A JP2002540133A JP2004513443A JP 2004513443 A JP2004513443 A JP 2004513443A JP 2002540133 A JP2002540133 A JP 2002540133A JP 2002540133 A JP2002540133 A JP 2002540133A JP 2004513443 A JP2004513443 A JP 2004513443A
Authority
JP
Japan
Prior art keywords
interface
computer
computer system
user
electronic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002540133A
Other languages
English (en)
Inventor
デボー,デイビッド
ウツクリ,アバニンドラ
ウツクリ,クマー
クラーク,ジョナサン
ジェンティル,ジョン ジェイ.
ジェンティル,アンソニー アール.
Original Assignee
エッセンシャル リアリティー,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エッセンシャル リアリティー,インコーポレイティド filed Critical エッセンシャル リアリティー,インコーポレイティド
Publication of JP2004513443A publication Critical patent/JP2004513443A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Abstract

手に装着するグローブ、ネックレス、アンクル・ブレスレット、ソックス又はシャツのようなユーザ装着インタフェイスは、埋め込みエレクトロニクス、放射源及びセンサ技術を含む。インタフェイスの開始位置及び動作は、X、Y及びZ軸位置決めを支援するエレクトロニクス及びファームウエア/ソフトウエアと共に、コンピュータのモニタ上で追跡される。インタフェイスの表面に埋め込まれた電気抵抗センサは、インタフェイスの表層に位置するLEDアレイ、及び特定のユーザの体(例えば、親指、指数字及び手)の動作から全ての動き、位置及びゼスチャーを検出するために視線システムと協働する。ユーザの動作及び位置は、x、y、z及びヨー、ピッチ、ロールデータをコンピュータ基調の装置に提供するために、検出及び処理される。

Description

【0001】
[関連出願]
本出願は、仮出願「グローブ・インタフェイス装置」、シリアル番号60/276,292、2001年3月16日出願及び、同じ名称の第2仮出願「グローブ・インタフェイス装置」、シリアル番号60/245,088、2000年11月2日出願の利益を主張するものである。さらに、共にペンディング中の出願、「影基準のレンジ及び方向ファインダ」は、ここに引用文献として組み込まれる。
【0002】
[発明の属する技術分野]
本発明は、一般的に言って、コンピュータI/O装置に関する。特に、本発明は、体に装着する要素の形態をした多軸入力装置に関する。
【0003】
[従来の技術]
1980年の初頭、マッキントッシュ(登録商標)コンピュータは、広く受入られているコンピュータ・ソフトウエアの中で、グラフィック・ユーザ・インタフェイス(GUI)を最初に使用した。GUIは、アイコン、ウインドウ、ボタン、メニュー及びダイアログボックスを使用して作るグラフィック基準のマウス主体のユーザ・インタフェイスであり、アイコンを操作することによって、ユーザにコマンドの選択、プログラム、ファイル及びホルダーの管理をすることを許容する。マッキントッシュ・システムはまた、オンスクリーンでの操作を単純化するマウスの使用で有名であった。
【0004】
特にゲーム及びデザイン市場において、コンピュータ・アプリケーションは、2次元のビジュアル・インタフェイスから、直感的な、現実をシミュレートする3次現のビジュアル・インタフェイスへ移行しつつある。マウスは発展したが、入力装置の方法は少ししか変化しなかった。入力装置は、3次元入力装置がひどく高いために、マウス、キーボード、ジョイスティック及び専用の機制御器のような2次元の製品によって独占されている。
【0005】
必要なのは、さらに直感的且つ正確な情報入力手段−オフライン環境における人間の反応方法に匹敵する直接入力−を提供することによって、2次元及び3次元ソフトウエア操作のためのユーザのニーズを務める安価な3次元入力装置である。
【0006】
本発明に係るインタフェイス装置は、さらに直感的且つ正確な情報入力手段−オフライン環境における人間の反応方法に匹敵する直接入力−を提供することによって、2D及び3Dソフトウエア操作のためのユーザのニーズを務める入力装置を提供する。
【0007】
ビデオゲームは、そのような入力装置の高められた生産性からの利益を生む1つの領域にすぎない。他の領域には、音楽の作曲及び指揮、光のオーケストラ及び音の制御、物体形成及び操作、ウエブ・サーフィン及びブラウジング等が、それらに限定されるものではないが、含まれる。実際にインターネットを捕まえようという消費者の要望が、現実味を帯びてくる。
【0008】
[発明の要約]
本発明に係る入力システムは、エレクトロニクスを伴なった手にはめるグローブ、ネックレス、アンクル・ブレスレット、ソックス又はシャツと言ったユーザ装着インタフェイス、放射源、及びユーザの自然な体の動き(例えば、手)及び3次元空間における位置を検出するためのセンサ技術を有する。ユーザの動作及び位置は、x、y、z及びヨー、ピッチ、ロールデータをコンピュータ基調の装置に提供するために、検出及び処理される。
【0009】
好ましいグローブ実施形態において、インタフェイス装置は、全ての指及び手首認識を提供する5つの指の曲がり感度まで処理し、及び好ましくはインターネット・ナビゲーションを提供するためのウエブに組み込まれたソフトウエアを含む。5つの指の曲がり感度までは、インタフェイス装置のハウジング又は「繊維」に埋め込まれたセンサの使用(好ましい実施形態では15)を通じて達成される。加えて、LEDなどの放射源(好ましい実施形態では16のアレイ)パターンは、信号を離間した追跡装置、3次元における放射源の位置を追跡することができる、に提供する。装置は、軽く及び快適で、カスタム化及び特定化された材料と協働する。
【0010】
単独の追跡ステーション(共に継続中のアプリケーション「影ベースのレンジ及び方向ファインダ」にセンサの詳細な働きが提供されている)は、(グローブのLEDからの放射源から検出される)放射物体の3次元位置を決定するため使用される複数の3次元方向検出器を提供する。物体の3次元位置は、第1の軸及び検出器の第1ペアの夫々の検出された入射強度の比から決定される垂直によって定義される平面上の放射物体の第1の2次元方向によって提供される。加えて、第2の軸及び垂直によって定義される平面上の放射物体の第2の2次元方向は、検出器の第2ペアの夫々の検出された入射強度の比から決定される。図7に示されるように、3次元方向検出器700及び702の夫々からの物体(704)の距離が決定され、次に、検出器間の既知の距離を用いた三角測量を使用して、物体の3次元方向が決定される。
【0011】
[発明の実施の形態]
図面が添付され、ここで本発明に係る1又はそれ以上の好ましい実施形態が詳細に記載されるが、本開示が発明の原理の例示及びその実践のための関連する機能的な列挙にすぎず、発明を記載される実施形態に限定する意図を有するものでないことを理解されたい。当業者であれば、本発明の範囲内で、多くの他の可能性のある変形例を想定できるものと思われる。
【0012】
本発明に係る入力装置の第1の実施形態は、一般的に、エレクトロニクスを伴った手にはめるグローブ、光発光体、検出器、位置追跡器及び関連回路、及びPC又はゲーム操作器などのコンピュータ基調の装置へ入力を提供するためのコントローラを含むシステムを有している。システムは、ユーザの自然な手の動作、ゼスチャ及び3次元空間における位置の検出を提供する。ユーザの手の動き及び位置のそれ以前に検出した値と関連する動作は、コンピュータ基調の装置への入力を提供する。
【0013】
装置の好ましい実施形態は、埋め込まれたエレクトロニクス、放射源及びセンサ技術を伴った手にはめるグローブから構成される。開始位置及び装置の動作は、X、Y及びZ軸位置決めをサポートするエレクトロニクス及びファームウエア/ソフトウエアを伴ったコンピュータ・モニタ上で追跡される。本発明に係る装置はまた、親指及び指数字の特別な動作からゼスチャを認識することができる。グローブのような装置の位置決め及び動作認識は、グローブのような装置の戦略的な場所に位置されたセンサを通じて達成される。そのようなセンサは、ピッチ(pit)、ヨー(yaw)及びロール(roll)を含む一般的な3次元空間における指の曲がり及び手の動作を追跡する。
【0014】
図1は、本発明に係る入力システム100の実施形態を示している。システムは、埋め込まれたエレクトロニクス104を伴ったグローブ102、センサ(図示せず)、放射源105(LED)、放射源の位置を追跡するための追跡ヘッド106、及び本実施形態では離間されたコントロール・ボックス108にハウジングされているコンピュータ・インタフェイス・エレクトロニクスを有する。コントロール・ボックス108のエレクトロニクスは、ユーザの手の動き及び位置を示すデータをケーブル109(又は同等な無線送信)を通じてコンピュータ(図示せず)に提供する入力として働く。グローブは、埋め込まれたエレクトロニクス104を使用して、親指及び指数字の特別の動作をコントロール・ボックス108に通信する。これは、入力として手の動き及びゼスチャの認識を使用することを許容する。追跡ヘッド106は、放射源105の位置検出によって認識されるように、3次元位置情報をコントロール・ボックス108へ提供する。位置及び動き情報が結合することによって、ユーザの自然な手の動作を、入力として使用することが許容される。
【0015】
図2には、図1のシステムとコントロール・ボックス108と追跡ユニット106(追跡ヘッド106a及び106bを含む)が結合して1つの形態を有している一体ステーション107が示されている。PC又は他の同等なコンピュータ・システムと接続されたモニタ114は、グローブ104のユーザ制御によるデータ入力を表示する。1つのグローブが示されているが、多数のグローブを含む他の実施形態も本発明の範囲内である。
【0016】
システムは、指の曲がり、手の動作及び位置などの、通常の3次元空間内で検出できる全てを追跡する。これは、ヨー、ピッチ、ロール動作の測定を可能とする。ヨー(yaw)、ピッチ(pitch)、ロール(roll)動作は、図3に示される。ヨーは、地面と平行な面に沿った動作として定義される。ヨーの動きは、手の平を地面に向けて且つ平行に保持し、この水平面上で左右に回転することによって達成される。ピッチは、手の先に平行且つ手首に垂直な、例えば親指の下方から入り且つ小指の下方から出るような軸に沿った動作として定義される。ピッチは、手のひらを地面に平行に保持しながら、手首を上下に動かすことによって成される。ロールは、地面に平行で、手の中指の先端から入り且つ手のひらと平行に手首の中を通るような軸についての手の回転として定義される。ロールは、手のひらを地面に向けて手を平らに保ち、親指が上がり且つ小指が下がるように、又はその反対に、腕を回すことによって成される。
【0017】
親指及び指の認識は、グローブ102に戦略的な場所に配置されているセンサを通じて達成され、例えば、他の各指にはそれぞれ2つのセンサを、親指には外転センサを配置する。指の曲げの感知又は指の動作によるグローブ繊維の伸びは、ストリップ・センサ又は電気抵抗が変化する導電性インク(例えば、しかしそれに限定されるものではないが、歪ゲージ、フレキシブルな基板上のカーボンベースのインク)を通じて起こることが好ましい。手の指の位置の変更は、ベースラインのバイアス電圧及び抵抗によって検出される。指の位置(好ましくは、指毎に両方のナックル)を感知する他のタイプのセンサが、本発明の範囲を逸脱することなく、代替利用することができる。
【0018】
ユーザの手の位置は、グローブ102上にマウントされたLEDと連動したX、Y及びZ軸位置決めをサポートするエレクトロニクス、ファームウエア/ソフトウエアを用いて、追跡ヘッド106によって追跡される。10−16の赤外LEDが、4つのLEDからなる、3つ又は4つのグループでマウントされることが好ましい。しかしながら、本発明の範囲内で、LEDの数及びパターンの変更を行うことが可能である。可視光を含む、電磁スペクトラムにおける他のレンジで発光するLEDも、本発明の範囲内である。各グループのLEDは、少なくとも3つのLEDによる1セットが追跡ヘッド106との視線を手の向きに係らず確保できるように、手の周りの異なった領域に置かれることが好ましい。各グループにおいて、LEDは同じ平面上に無いような構成を提供するようなパターン、理想的には三角形を基調としたピラミッド構成とされることが好ましい。これらのLEDは、グローブ102を追跡ヘッド106によって追跡される点光源とする。
【0019】
グローブ102の完全な3次元位置は、追跡ヘッド106を使用して決定される。追跡ヘッド106は、グローブの3次元位置を決定するために既知の距離を隔てて互いに配置された少なくとも2つの3次元方向検出器110a及び110bを働かせる。これは、概念的に、図5に記載されている。3次元方向検出器500は、ポイントAに位置している。第2の類似の検出器502はポイントBに位置している。ポイントA及びBは、通常ベースラインと呼ばれる既知の距離dを隔てている。検出器500は、ポイントAから放射物体504の3次元方向を計測する。同様に、検出器502は、ポイントBから放射物体504の3次元方向を計測する。一旦、両方の方向が決定されると、三角測量によって、各ポイントA又はBから物体までの距離が計算される。理解されるように、この配置は、発光源500の完全な3次元位置を、各検出器から放射物体の距離及び3次元方向として計測できるようにしている。
【0020】
これらの3次元方向検出器には、多くの利点がある:
・入射放射はアパチャによって制限されず、平面検出器の1つは常に十分に照射されている。相対的なスケールで、各平面検出器からの個々の信号は、1(正面で)から0の「範囲にあり」、4つの平面検出器による全体の信号は、4(正面で)から2の範囲となる。これは、信号が1/4から1の範囲にあるマークェット(Marquet)法に比べて顕著な改善である。
【0021】
・前のシステムよりさらに大きい使用可能範囲を提供するために、検出器領域の大部分が常に照射されている。
【0022】
・各方向の1つの検出器は、全ての角度において完全に照射され、その信号が標準化を提供する。
【0023】
・検出器は、マウントの難しさ及び費用を最小にするために、同じ平面上に配置される。加えて、並んだ検出器位置の角度に正確性は必要ない。
【0024】
・安価な太陽電池セルを含んだ検出器要素を利用することができるであろう。
【0025】
・ミラーやレンズといった、高価な光学要素は必要ない。
【0026】
・平面検出器は、セントラル・アパチャが必要であるが、お互いの直ぐ近くに配置される必要はない。したがって、高価なセグメントされた平面検出器よりも安価なシングル平面検出器を使用することができる。
【0027】
・光は、同じ角度で、両方の検出器の1つの軸を打つ。このように、ランバーティアン(Lambertian)動作からの逸脱は、それらの両方に同じ方法で影響を与える。この理由により、及び強度比のみが計算に使用されるという事実により、計測の正確さは入射角によって変化することはない。
【0028】
追加の実施形態において、光源からの放射は変調され、変調された周波数でのみ検出がなされる。これは、全体放射からの識別を提供する。加えて、この技術は、いくつかの光源のための位置情報を計測する能力を提供する。異なった光源からの信号は、FDM、TDM、PCM等の変調技術を使用して区別される。検出器側での適切なデコードを通じて、全ての光源の位置は、それで同時に発見される。このように、システムは、いくつかの光源の同時検出に容易に拡張することができ、光源の数はデータ処理速度や能力によってのみ制限される。
【0029】
各グループのLEDは、長さを調整可能なマウントバーの後ろのコーナに好ましくは位置される光学追跡ヘッドに視線を確保するために、手の異なった領域に位置されることが好ましい。このバーは、ユーザデスク又はテーブルトップに置かれている「ドッキング・ステーション」に付着される。「ドッキング・ステーション」は、ユーザの手にグローブのような装置を装着又は取り除く助けをするような対策を含んでいても良い。「ドッキング・ステーション」は、グローブのような装置のための保管場所として使用されても良い。「ドッキング・ステーション」の中に、多様なエレクトロニクス構成要素がハウジングされている。
【0030】
コントロール・ボックス108(図1)は、USBコントローラをハウジングし、1つのUSBケーブル(ホストPC接続)、グローブに付着する2つのケーブル及び光学追跡ヘッドを有することが好ましい。コントロール・ボックスは、USBコントローラ、発振器、フィルタキャパシタ及びアナログ・マルチプレクサ・チップを有する。本システムの要望に合った代表的なUSBベースのマイクロ・コントローラは、ビルトインされた8ビット・アナログ・デジタル・コンバータを伴った6MIPS、RISCコアを有してもよい。USBコントローラは、8Kのインストラクションのための十分なコードスペースを有し、インシステム(in−system)のプログラム可能なチップであることが好ましい。また、そのようなコントローラは、アップデートやバグ調整をする新しいプログラムがホストコンピュータから直接USBコントローラにダウンロードされることを許容するFLASHメモリと協働することが好ましい。
【0031】
インタフェイス装置は、PCやゲーム機で直接「プラグ・アンド・プレイ」ができるように、USB製品であることが好ましい。インタフェイス装置のブロック図が図4に示されている。今日、市場にあるPCは、完全にUSB利用可能であり、ソニー、セガ、任天堂及びマイクロソフトによる最新のゲーム機も同様である。本発明に係る装置は、パーソナルコンピュータ、スタンドアロンのビデオゲーム機及び全ての他のUSB対応の3Dソフトウエア・プラットフォーム、に対して、自然なインタフェイスを目指し、PC,マック/アップル及びゲーム機の周辺機器として働く。それの動作パフォーマンスは、メモリボード、RAM,グラフィック・カード及びユーザのPCのモニタ能力に完全に依存し、本発明に係る装置はUSBポートを経由してCPUと通信を行う。
【0032】
示されているように、システムは、追跡回路402、コントロール・ボックス回路440、及びグローブ回路406を有している。追跡回路は、光学追跡マルチプレクサ・ボード、差動増幅器、DiffLV、DiffRV、DiffLH、DiffRH、SumL、SumR、DiffB及び配電を含むメインセクション412、左及び右追跡検出器408、ヘッドへの出力アンプ410、関連する信号転送MUX414、及びケーブル・コネクタ416を含む。
【0033】
コントロール・ボックス404は、マイクロ・コントローラ、及びフラッシュメモリ、クロック/タイミング用のクリスタル、多様なアナログ制御回路420、電源422及びコネクタ424、コンピュータ又はPCやゲーム機と言ったエレクトロニクス基調の装置への接続のためのUSB426などの支援構成要素を含んでいる。
【0034】
グローブ回路406は、LEDアレイ(16)及び関連するデコーダ/ドライバ429、アナログ曲がりセンサ430(8)/432(7)及び関連するインタフェイスMUX431を含む。LEDは光信号を出力するように駆動され、曲がりセンサは(通常は電気抵抗ストリップ・センサの歪(キャパシタの変化)に基づいた)動作信号を返す。信号のルーティングは434を通じて制御され、ハードワイヤ、プログラム可能又は通常の手段によって予めプログラムされたものでありうる。コネクタ436は、コントローラ404へI/O信号を提供する。
【0035】
[追跡アルゴリズム]
LEDからの角度及び位置を決定するためのアルゴリズムは、3つの大きなステップに分解することができる。第1のステップは、個々のLEDからの光が検出器ヘッドに入る角度を決定することである。次のステップは、空間における各LEDの位置情報を決定するための三角測量に関係する。最後のステップは、空間における全てのLEDの位置情報を与えて、手全体の向きを計算することである。
【0036】
ステップ1:入力角の計算
図6参照:
壁の高さOA=h
検出器の長さBD=L
影の長さOC=x
壁の根元から検出器の端までの長さOB=d
検出器の幅=w
tanθ=x/h
OC=x=htanθ
検出器の影部分BC=OC−OB=htanθ−d
それゆえ、照射部分CD=BD−BC=L−(htanθ−d)=(L−htanθ+d)。
検出器#1からの信号I=kLw
検出器#2からの信号I=kw(L−htanθ+d)
ここで、kは比例係数であり、検出器感度、システムゲイン等を含む。それは、両方のチャネルに対して同じであるとみなされる。
それゆえ、比R=(I−I)/I=[kLw−{kw(l−htanθ+d)}]/kLw=(htanθ−d)/L。
それゆえ、tanθ=(LR+d)/h。
θ=arctan[(LR+d)/h]。
これは、検知器がパッケージの表面において右であることを推定している。フィルタの屈折は、修正を必要とする。図を見ると、フィルタが存在するとき、影が伸びることが分かる。フィルタが検出器に接着していた場合、EFによる追加の影の長さが計算される:
EF=tanφ
Sinθ=nsinφ
sinθ=tanθ及びsinφ=tanφとすると、
EF=tanθ/n。
それゆえ、照射領域=lw−lw(htanθ+ttanθ/n−d)=lw[1−tanθ(h+t/n)+d]。
即ち、hは(h+t/n)によって置き換えられる。
それゆえ、解は、
θ=arctan[(LR+d)/(h+t/n)]
h=4mm、t=0.5mm及びn=1.5とすると、修正量は4.0に対して約0.3となる。
検出器がフィルタから空間sを隔てている場合の影を示す図7を参照する。
フィルタが検出器に接着しておらず、図全体のように、その2つに空気/真空の空間「s」がある場合、
式は、
θ=arctan[(LR+d)/(h+t/n+s)]となり、
L=w=3mmとみなし、
及び、検出器のカソード端は、パッケージ端から(2.15−1.5)=0.65mmにあるとする。
それゆえ、dは、0.65mmに非常に近くなる。
ステップ2:三角測量位置情報
図8を参照する:
一旦、両方の検出器への水平及び垂直入力角が決定されると、LEDのx、y、z位置を三角測量することができる。
上記の図から、O及びOは、2つの検出器ヘッドを表し、同じX軸に位置している。Y及びYは2つのY軸であり、Z及びZは2つのZ軸である。DはLEDの位置である。
XZ平面におけるその投影は、Zに対してθだけ傾いたOCである。Y平面における投影は、角度φに対するOFである。第2の検出器Oからの対応する角は、θ及びφである。検出器は、ただ軸Xに添って置かれているため、φ=φ、Y=Y=Y及びZ=Z=Zである。
・注意:方向ファインダにおいてX及びYの検出器のセットによって測定された角度があり、それらは通常定義され指向的なコサインを計算するために使用される角θ及びφとは異なる。
=Z=OA=OB=Z、は両者に共通である。
=OK=AC=Ztanθ
=OK=BC=Ztanθ
=X+d
したがって、Ztanθ=Ztanθ+d
Z(tanθ−tanθ)=d
Z=d/(tanθ−tanθ
それゆえ、X=d/(tanθ−tanθ)*tanθ及び
=d/(tanθ−tanθ)*tanθ
【0037】
【数1】
Figure 2004513443
【0038】
式は、厳密であって、正確な+及び−の符号を提供する。
上記の式では、前のステップにおいて成された検出器ヘッド計算から直接得ることができるので、角度のtanを計算することさえ不必要である。
ステップ3:向き情報の計算
図9参照:
このステージで我々は、参照するカメラフレームにおいて、全ての見ることができるLEDのx、y、z位置情報を有している。
記述しなければならない参照する3つのメインフレームがある。第1フレームは、我々の幾何学が参照するカメラフレームと考えることができる、ワールド座標フレーム(the world co−ordinate frame)(フレーム0)である。次に、参照する他のフレームは、全てのLEDがその中に位置する、ヘッド又はリストの参照フレーム(フレーム1)である。最後に、特別の3つのLEDのグループを使用した他のフレーム(フレーム2)を作ることができる。フレーム2はフレーム1に対して一定であり、ユーザが空間上でシステムを動かすにつれてフレーム1はフレーム0に対して動いている。
以下は、任意の回転マトリクスR=R 、φ、*R 、Θ*R 、Ψである。ここで、φはシステムのロール、Θはピッチ、Ψはヨーである。
【0039】
【数2】
Figure 2004513443
【0040】
この一般行列を与えられ、行列の列が、変換空間における基本ベクトルを作る。逆に、一般空間で基本ベクトルのセット(i,j,k)を与えれば、簡単にポイントを絶対ワールド・フレームから相対ワールド・フレームに変換する回転行列を作ることができる。
問題に対し、変換マトリクスR0−>1を得ることが必要である。
【0041】
0−>2=R0−>11−>2
0−>2[R1−>2=R0−>11−>2[R1−>2
0−>2[R1−>2=R0−>1
逆変換は、それの置き換えになる。
それゆえに、R0−>1=R0−>2[R1−>2
この式から、我々は、ポイントをカメラフレームから手首フレームへ(フレーム0からフレーム1へ)移す変換行列を計算することができる。R0−>2を得るために、カメラから見えるLEDからの基本セットを作り、回転行列を作るだけでよい。R1−>2は、同じ方法で手の原点に関して、同じLEDの物理幾何学的な測定によって計算することができる。
3D位置の任意のセットを与える基本セットを作るために、以下のアルゴリズムを使用することができる(図10参照)。
既知のポイント(A及びB)に関する2つのベクトルを作るために、基本ベクトルのセット、A、AXB、AX(AXB)を作ることができる。それらのベクトルを列ベクトルi、j及びkによって正規化した後、回転行列R0−>2を得る。完全に同じポイント及び同じ計算を使用して、我々はまた行列[R1−>2を作ることができる。これらの2つの行列を使用して、R0−>1を計算することができる。
0−>1を行列を上述した一般のヨー/ピッチ/ロール行列と同じに設定し、角度を解くことによって、正確な角度を計算することができる。
【0042】
【数3】
Figure 2004513443
【0043】
これらが、必要な角度である。これは、第1象限において働く。他の象限は、行列の要素の符号のコンビネーションを使用することによって、見つけることができる。
【0044】
広範囲なコンピュータ支援デザイン(CAD)アプリケーションにおける専門家は、3D視覚化ツールを使用する。建築家、ゲーム・デザイナー、製品デザイナー、機械デザイナー、設計技術者及びアニメーション映画作製者の全ては、3Dでの作製、操作及びアニメ化をするためにPC基調のデザイン・ソフトウエアを使用する。この市場ニーズは、ユーザが、伝統的に時間を消費し且つ多重な動作プロセスを必要とする3D物体を作ろうとしている、むしろそれらを単純に操作したいという、ゲーム市場におけるものとは区別される。
【0045】
最近、全てのソフトウエアは、主要な入力装置、キーボード、マウス、ライトペン及びデジタイズ・タブレット、のために設計されている。所定の装置(すなわち、デジタイズ・タブレットによる作図)によって可能な仕事が有用である一方、主にそれが覚えにくいという理由で、一般のソフトウエアはそのようなユーザにいつもフラストレーションを提供している。
【0046】
この市場に対するアプリケーションは、使用されるソフトウエア及びグループの機能的な要求に基づいて4つのセグメントにまとめることができる。これらのセグメントは、建築、工学技術及び建設(AEC)市場、機械工学(ME又は機械的コンピュータ支援デザインのためのMCAD)市場、ゲーム開発市場及びフィルム/ビデオ市場である。
【0047】
単純に要約すると、本発明に係るグローブ装置は、現存するマウス又は現在のアプリケーションに組み込まれた制御コマンドを再現することとなる。しかしながら、本発明に係る装置の拡張能力に気づくことにより、開発者は現存する又は将来のアプリケーションのための完全に新しいコマンド及びユーザインタフェイスを作ることができるであろう。現在のコンピュータ・ユーザインタフェイスは、プログラミング言語及び大サイズのファイルが到着した場合にも可能な帯域幅として3Dインタフェースを発展させるであろう。
【0048】
主要なユーザは、インターネット・ブラウジング世帯である。調査では、PCを所有する世帯の家族全員が、異なった理由で、PCを使用していることを示している。かれら全てが、オンラインで、インターネットを、やはり異なった理由で使用している。ブロードバンドの発展が、平均的なインターネットユーザのためのコンテンツを作成する3Dデザイナーにとっての主要なインセンティブであろう。これは、ウエブ開発者に、現実のように見える物体をイーコマース・サイトのなかに協働させ、現実の部屋ように見え且つ3D空間を通じた操作を要求するデスクトップ及びブラウザを作り、及びPCユーザの全てのインターネット上の経験を完全に変えてしまうことを可能とする。本発明に係るグローブ又は他の体に着ける装置は、全てのユーザが直感的にこのような環境の中で働くことを可能とするであろう。
【0049】
本発明に係るグローブ・インタフェイス装置は、コンピュータ及びゲーム機市場での使用に対応した周辺機器である。本発明に係る装置は、ゲーム、科学的視覚化、アニメーション、コンピュータ支援デザイン(CAD)、バーチャル・リアリティ、工業デザイン、訓練及び教育、及びウエブブラウジングを含む、ただしそれに限定されるわけではないが、多くのユーザのために設計されている。そのようなグローブ装置は、パーソナルコンピュータ、スタンドアロンのビデオゲーム機又は他のUSB装置のためのインタフェイスとして務め、空間中で手、手首及び指等のユーザの体の一部の位置を正確に決定及び追跡するための多様なセンサを提供する。
【0050】
[結論]
システム及び方法が、ユーザが装着するインタフェイス装置の有効な実現化のための上記の実施形態に示されている。多くの好ましい実施形態が示され且つ記載されているが、そのような開示に本発明を限定する意図がないこと、むしろ添付される特許請求の範囲に規定された発明の範囲及び精神の中に存在する全ての修正例及び変形例を含もうとする意図があることを理解されたい。例えば、本発明は、ソフトウエア/プログラム、コンピュータ環境、特定のコンピュータ・ハードウエア、又は特定のLED又はセンサの部品、パターン又は配置に限定されるべきではない。
【0051】
加えて、2方向の触覚のあるフィードバック技術プロセスのように、リモート・ロボット工学的オペレーション、視覚障害者のための「ブライル(Braille)」ウエブサイト、繊維を感じることができるオンライン・ショッピング、完全に新しいレベルの教育、医師と患者が異なった沿岸に位置する場合の手術、に機会が帰着するであろう。魅力及び将来のオプションと協働したグローブ装置の他の実施形態では、無線製品、汗及び心拍測定の可能性、触覚フィードバックの提供及び利用の可能性、及び取り外し可能な電子技術の使用を通じてグローブ繊維を交換する可能性が含まれる。
【0052】
アイコン及びそれが記載する機能要素に関する上記魅力は、多様なコンピュータ環境において実現化される。例えば、本発明は、通常のIBMPC又は環境、マルチノーダル(multinodal)システム(例えば、LAN)又はネットワーク・システム(例えば、インターネット、WWW,無線ウエブ)上で実現化されうる。全てのそれらに関係するプログラミング及びデータは、静的又は動的なコンピュータ・メモリに格納され、ユーザによって通常のコンピュータ記録媒体、表示(即ち、CRT)及び/又はハードコピー(即ち、プリントされた)フォーマットとして取出される。本発明のプログラミングは、GUI及びI/O装置プログラミングの業界における当業者によって、実現化されるであろう。
【図面の簡単な説明】
【図1】
本発明に係る好ましい実施形態におけるシステムを示す図である。
【図2】
本発明に係る第2の実施形態におけるシステムを示す図である。
【図3】
手のための、ピッチ、ヨー及びロールを示す図である。
【図4】
図1で使用されるシステムのエレクトロニクスを示す図である。
【図5】
本発明に係る追跡システムによって使用される三角測量を示す図である。
【図6】
検出器の幾何学的な概略を示す図である。
【図7】
図6の検出器がフィルタから離れている場合の影を示す図である。
【図8】
検出器ヘッドの幾何学的な概要を示す図である。
【図9】
参照フレームを示す図である。
【図10】
任意の3D位置を与える基本セットの作製を示す図である。

Claims (27)

  1. コンピュータ・システムへデータ入力を提供するためのコンピュータ・インタフェイスであって、
    前記コンピュータ・システムへ作用的に接続している電子ユーザ装着装置を有し、前記電子ユーザ装着装置は、
    複数の埋め込まれた電気抵抗センサと、
    前記装置の外側表面に配置された放射発光体アレイと、
    前記発光体を追跡するために前記放射発光体アレイに作用する位置追跡装置と、及び
    前記埋め込まれた電気抵抗センサからの出力及び前記位置追跡装置の出力と作用的に接続する処理コントローラとを有し、
    前記処理コントローラは、前記センサ及び位置追跡装置からデータを受取り、前記装置の動き及び位置を表すコンピュータ・インタフェイス入力を、コンピュータ・インタフェイスに転送する、
    コンピュータ・インタフェイス。
  2. 前記電子ユーザ装着装置は、フレキシブルなグローブ、ネックレス、アンクル・ブレスレット、ソックス又はシャツを有する請求項1に記載のコンピュータ・インタフェイス。
  3. 前記電気抵抗センサは、フレキシブルな基板上のインク堆積物を有する請求項1に記載のコンピュータ・インタフェイス。
  4. 前記放射発光体は、LEDを有する請求項1に記載のコンピュータ・インタフェイス。
  5. 前記コンピュータ装置は、パーソナルコンピュータ、スタンドアロンのビデオゲーム機又はUSB装置を含む請求項1に記載のコンピュータ・インタフェイス。
  6. 前記インタフェイスは、ユーザの手、手首、個々の指、脚、足、首及び胴のいずれか一つ又はそれらの組み合わせを正確に追跡する請求項1に記載のインタフェイス。
  7. 前記インタフェイスは、インターネット・ナビゲーションを支援するためのウエブに組み込まれたコードを含む請求項1に記載のコンピュータ・インタフェイス。
  8. 前記コンピュータ・システムとの作用的な接続は、標準ケーブル接続、USB又は無線接続である請求項1に記載のコンピュータ・インタフェイス。
  9. 前記USB接続は、プラグ・アンド・プレイ能力を提供する請求項8に記載のコンピュータ・インタフェイス。
  10. 前記インタフェイスは、前記フレキシブル・グローブの座標化された動作の検出によって成されたゼスチャを認識する請求項2に記載のコンピュータ・インタフェイス。
  11. 前記インタフェイスは、前記フレキシブル・グローブのヨー、ピッチ及びロールの動作を計測する請求項2に記載のコンピュータ・インタフェイス。
  12. 前記放射発光体アレイは、前記位置追跡装置上にマウントされた水平及び垂直検出器クラスタに入力を提供する請求項1に記載のコンピュータ・インタフェイス。
  13. 前記コンピュータ・インタフェイスは、前記装置のためのドッキング・ステーションをさらに有する請求項1に記載のコンピュータ・インタフェイス。
  14. 前記インタフェイスは、x、y、z、ヨー、ピッチ及びロールを含む6次の動きを追跡する請求項1に記載のコンピュータ・インタフェイス。
  15. 前記インタフェイスは、音楽の作曲及び指揮、光のオーケストラ及びサウンドコントロール、物体形成及び操作、又はウエブ・サーフィン及びブラウジングに適用される請求項1に記載のコンピュータ・インタフェイス。
  16. 電子インタフェイスを使用してコンピュータ・システムへ位置入力を提供するための方法であって、前記インタフェイスは、ユーザ装着可能装置、複数の埋め込みセンサ、埋め込み放射発光体アレイ、前記放射発光体アレイと作用する位置追跡装置及び処理コントローラを有し、前記方法は、
    前記センサから、ユーザの体の特定の動作を示す動作信号を検出し、
    前記位置追跡装置において、前記放射発光体アレイからの位置信号を検出し、及び
    前記動作信号と前記位置信号を処理して、データ入力信号を、前記コンピュータ・システムに出力するステップを有し、
    前記ユーザ装着可能装置の動き及び位置を表す前記データ入力信号は、前記コンピュータ・システムのアプリケーション・インタフェイスに提供される方法。
  17. 前記センサからの動作信号を検出するステップは、さらに前記センサにおける抵抗変化を検出することを有する請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
  18. 前記センサは、フレキシブル基板上のインク堆積物を有する請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
  19. 前記放射発光体アレイはLEDを有する請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
  20. コンピュータ・システムは、パーソナルコンピュータ、スタンドアロンのビデオゲーム機又はUSB装置を有する請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
  21. 前記方法は、ユーザの手、手首、個々の指、脚、足、首及び胴のいずれか一つ又はそれらの組み合わせを正確に追跡する請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
  22. 前記方法は、インターネット・ナビゲーションにおいてユーザを支援する請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
  23. USB接続は、プラグ・アンド・プレイ能力を提供する請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
  24. 前記方法は、前記インタフェイスの座標化された動作を検出することによって成されるゼスチャを認識する請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
  25. 前記方法は、x、y、z、ヨー、ピッチ及びロールを含む6次の動きを追跡する請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
  26. 前記インタフェイスは、音楽の作曲及び指揮、光のオーケストラ及びサウンドコントロール、物体形成及び操作、又はウエブ・サーフィン及びブラウジングに適用される請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
  27. 前記ユーザ装着可能装置は、フレキシブルなグローブ、ネックレス、アンクル・ブレスレット、ソックス又はシャツを有する請求項16に記載の電子インタフェイスを使用してコンピュータ・システムにデータ入力を提供する方法。
JP2002540133A 2000-11-02 2001-10-30 電子ユーザ装着インタフェイス装置及びそれを使用した方法 Pending JP2004513443A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US24508800P 2000-11-02 2000-11-02
US27629201P 2001-03-16 2001-03-16
PCT/US2001/048224 WO2002037466A1 (en) 2000-11-02 2001-10-30 Electronic user worn interface device

Publications (1)

Publication Number Publication Date
JP2004513443A true JP2004513443A (ja) 2004-04-30

Family

ID=26936984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002540133A Pending JP2004513443A (ja) 2000-11-02 2001-10-30 電子ユーザ装着インタフェイス装置及びそれを使用した方法

Country Status (5)

Country Link
EP (1) EP1340218A1 (ja)
JP (1) JP2004513443A (ja)
AU (1) AU2002230814A1 (ja)
TW (1) TW543028B (ja)
WO (1) WO2002037466A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016130940A (ja) * 2015-01-14 2016-07-21 東洋紡株式会社 手袋型入力装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2797598A1 (en) * 2003-11-03 2005-05-03 Intelligent Devices Inc. Method of producing medium-to thin-film pressure and humidity sensors by flexographic printing
WO2005064299A2 (en) * 2003-12-26 2005-07-14 Toyota Jidosha Kabushiki Kaisha Device and method for sensing and displaying convexo concave
GB2458583B (en) * 2005-01-18 2009-12-09 Rallypoint Inc Sensing input actions
DE102005011432B4 (de) 2005-03-12 2019-03-21 Volkswagen Ag Datenhandschuh
TWI412392B (zh) * 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
WO2008042219A2 (en) * 2006-09-29 2008-04-10 Nellcor Puritan Bennett Llc User interface and identification in a medical device systems and methods
US9482755B2 (en) 2008-11-17 2016-11-01 Faro Technologies, Inc. Measurement system having air temperature compensation between a target and a laser tracker
WO2012141810A1 (en) 2011-03-03 2012-10-18 Faro Technologies, Inc. Target apparatus and method
WO2011045786A2 (en) 2009-10-13 2011-04-21 Rami Parham Wearable device for generating input for computerized systems
US9880619B2 (en) 2010-02-23 2018-01-30 Muy Interactive Ltd. Virtual reality system with a finger-wearable control
CA2828222A1 (en) 2010-02-23 2011-09-01 Muv Interactive Ltd. A system for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US9377885B2 (en) 2010-04-21 2016-06-28 Faro Technologies, Inc. Method and apparatus for locking onto a retroreflector with a laser tracker
US8537371B2 (en) 2010-04-21 2013-09-17 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US8422034B2 (en) 2010-04-21 2013-04-16 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US8724119B2 (en) 2010-04-21 2014-05-13 Faro Technologies, Inc. Method for using a handheld appliance to select, lock onto, and track a retroreflector with a laser tracker
US9772394B2 (en) 2010-04-21 2017-09-26 Faro Technologies, Inc. Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
EP2418562B1 (en) * 2010-08-13 2013-04-17 Deutsches Primatenzentrum GmbH (DPZ) Modelling of hand and arm position and orientation
US9164173B2 (en) 2011-04-15 2015-10-20 Faro Technologies, Inc. Laser tracker that uses a fiber-optic coupler and an achromatic launch to align and collimate two wavelengths of light
JP2014516409A (ja) 2011-04-15 2014-07-10 ファロ テクノロジーズ インコーポレーテッド レーザトラッカの改良位置検出器
US9482529B2 (en) 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9686532B2 (en) 2011-04-15 2017-06-20 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
JP6099675B2 (ja) 2012-01-27 2017-03-22 ファロ テクノロジーズ インコーポレーテッド バーコード識別による検査方法
WO2014142807A1 (en) * 2013-03-12 2014-09-18 Intel Corporation Menu system and interactions with an electronic device
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
EP2916210B1 (en) 2014-03-05 2017-07-12 Markantus AG Finger-worn device for providing user input
US9395174B2 (en) 2014-06-27 2016-07-19 Faro Technologies, Inc. Determining retroreflector orientation by optimizing spatial fit
KR102343657B1 (ko) * 2014-08-28 2021-12-24 삼성전자주식회사 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들
WO2016097841A2 (en) * 2014-12-16 2016-06-23 Quan Xiao Methods and apparatus for high intuitive human-computer interface and human centric wearable "hyper" user interface that could be cross-platform / cross-device and possibly with local feel-able/tangible feedback
US9665174B2 (en) * 2015-02-20 2017-05-30 Sony Interactive Entertainment Inc. Magnetic tracking of glove fingertips with peripheral devices
US9652038B2 (en) 2015-02-20 2017-05-16 Sony Interactive Entertainment Inc. Magnetic tracking of glove fingertips
CN104732983B (zh) * 2015-03-11 2018-03-16 浙江大学 一种交互式音乐可视化方法和装置
US11696704B1 (en) 2020-08-31 2023-07-11 Barron Associates, Inc. System, device and method for tracking the human hand for upper extremity therapy
CN112632407B (zh) * 2020-12-18 2022-10-14 湖南科技大学 一种顾及地理环境异质性的空间抽样方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US6069594A (en) * 1991-07-29 2000-05-30 Logitech, Inc. Computer input device with multiple switches using single line
US6049327A (en) * 1997-04-23 2000-04-11 Modern Cartoons, Ltd System for data management based onhand gestures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016130940A (ja) * 2015-01-14 2016-07-21 東洋紡株式会社 手袋型入力装置

Also Published As

Publication number Publication date
TW543028B (en) 2003-07-21
WO2002037466A1 (en) 2002-05-10
AU2002230814A1 (en) 2002-05-15
EP1340218A1 (en) 2003-09-03

Similar Documents

Publication Publication Date Title
JP2004513443A (ja) 電子ユーザ装着インタフェイス装置及びそれを使用した方法
CA2714534C (en) Method and apparatus for providing input to a processor, and a sensor pad
KR101666096B1 (ko) 강화된 제스처 기반 상호작용 시스템 및 방법
JP6271444B2 (ja) ジェスチャー認識装置及び方法
Strohmeier et al. zPatch: Hybrid resistive/capacitive etextile input
US8878807B2 (en) Gesture-based user interface employing video camera
US20200310561A1 (en) Input device for use in 2d and 3d environments
US11209916B1 (en) Dominant hand usage for an augmented/virtual reality device
US10481742B2 (en) Multi-phase touch-sensing electronic device
Visell et al. Contact sensing and interaction techniques for a distributed, multimodal floor display
CN110383218A (zh) 指点设备及其制造方法
US7804486B2 (en) Trackball systems and methods for rotating a three-dimensional image on a computer display
Kim et al. High-resolution touch floor system using particle swarm optimization neural network
Zhang et al. Operating virtual panels with hand gestures in immersive vr games: Experiences with the leap motion controller
Breslauer et al. Leap motion sensor for natural user interface
JPH0269798A (ja) デイスプレイされたオブジエクトを回転する方法
Mahdikhanlou et al. Object manipulation and deformation using hand gestures
Klamka et al. CHARM: Cord-based haptic augmented reality manipulation
JP6932267B2 (ja) コントローラ装置
Bogue Sensors for interfacing with consumer electronics
Varma et al. Gestural interaction with three-dimensional interfaces; current research and recommendations
Savaş et al. Hand gesture recognition with two stage approach using transfer learning and deep ensemble learning
US11775064B1 (en) Multiple-magnet hand-mounted position-tracking device
US11874955B2 (en) Electronic device
US11687166B2 (en) Image processing system and image processing device