JP2004500657A - 仮想入力装置を用いたデータ入力方法および装置 - Google Patents

仮想入力装置を用いたデータ入力方法および装置 Download PDF

Info

Publication number
JP2004500657A
JP2004500657A JP2001559183A JP2001559183A JP2004500657A JP 2004500657 A JP2004500657 A JP 2004500657A JP 2001559183 A JP2001559183 A JP 2001559183A JP 2001559183 A JP2001559183 A JP 2001559183A JP 2004500657 A JP2004500657 A JP 2004500657A
Authority
JP
Japan
Prior art keywords
user
finger
keyboard
key
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001559183A
Other languages
English (en)
Other versions
JP2004500657A5 (ja
Inventor
ラフィー アバス
バムジ サイラス
カリーミ ナジム
シヴジ シラズ
Original Assignee
カネスタ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カネスタ インコーポレイテッド filed Critical カネスタ インコーポレイテッド
Publication of JP2004500657A publication Critical patent/JP2004500657A/ja
Publication of JP2004500657A5 publication Critical patent/JP2004500657A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1632External expansion units, e.g. docking stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1673Arrangements for projecting a virtual keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0221Arrangements for reducing keyboard size for transport or storage, e.g. foldable keyboards, keyboards with collapsible keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/228Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air

Abstract

ユーザは、キーボードの画像のような仮想入力装置(50)を使用して、PDA、形態電話、または器具装置のようなコンパニオンシステム(80)にデジタルデータを入力する。センサ(20)は、キーが実際のキーボード上にある場所に対する、ユーザの指(30)の位置に関する三次元位置情報を捕捉する。この情報は、仮想キーが何時打たれたかを決定するために、指(30)の位置、速度および形状に関して処理される。この処理されたデジタル情報は、コンパニオンシステム(80)に出力される。コンパニオンシステム(80)は、ユーザの指を示すキーボードの画像を含むキーボードの画像、および/または仮想入力装置上でユーザがデータを入力した通りの英数字テキストを表示することができる。

Description

【0001】
(先に提出された出願との関係)
1999年11月4日に出願された「電子装置への入力コマンドの3D検知のための方法および装置」と題する、本願の出願人が出願人である米国仮特許出願第06/163,445号に基づいて優先権を主張する。本願の譲受人であるCanasta, Inc.に譲渡されたこの先の出願を、本明細書の一部として本願に援用する。
【0002】
また、本願と共通の譲受人であるCanasta, Inc.に譲渡された、1999年9月22日に提出された、出願人Cyrus Bamjiの「CMOS適合性の三次元画像センサIC」と題する同時係属米国特許出願第09/401,059号についても参照する。この同時係属米国特許出願もまた、本明細書の一部として本願に援用する。
【0003】
(発明の分野)
本発明は一般に、コンピュータシステムを含む電子システムに対する、コマンドおよび/またはデータ(ここではまとめて「データ」という)の入力に関する。更に詳細に言えば、本発明は、計算装置の形状要因がキーボードのような通常のサイズの入力装置を排除するとき、または計算装置と入力装置との間の距離のためにケーブルで計算装置に結合された従来の入力装置の使用が不便であるときに、データを入力するための方法および装置に関する。
【0004】
(発明の背景)
入力されたデータを受信および処理するコンピュータシステムは、当該技術において周知である。典型的には、このようなシステムは中央演算ユニット(CPU)と、永続性の読取り専用メモリー(ROM)と、ランダムアクセスメモリー(RAM)と、CPU、メモリー、データおよびコマンドを入力する装置が結合される少なくとも一つの入力ポート、および結果を表示するためにモニターが結合される典型的には一つの出力ポートを相互接続する少なくとも一つのバスとを含んでいる。データを入力するための従来技術には、キーボード、マウス、ジョイスティック、遠隔制御装置、電子ペン、タッチ式パネルもしくはパッドもしくはディスプレー画面、スイッチおよびノブ、並びに最近では手書き認識および音声認識が含まれる。
【0005】
コンピュータシステムおよびコンピュータ式システムは、最近になって、インタララクティブTV、セットトップボックス(set top box)、電子金銭登録機、合成音楽発生器、所謂携帯用情報端末(PDA)のような手持ち型形態装置、および無線電話を含む新世代電子装置への用途が見出されている。従来の入力方法および装置は、このようなシステムと共に使用するときに常に適切または便利であるとは限らない。
【0006】
例えば、幾つかの携帯コンピュータシステムは、全体のシステムがユーザの手またはポケットの中にフィットできるまでに縮小されてきている。小さなディスプレーを見ることの困難性を克服するために、該システムのユーザが着用する眼鏡フレームにクリップで留まる商業的に入手可能なバーチャルディスプレーアクセサリーを使用することが可能である。ユーザは、該アクセサリー(1インチVGAでよい)を覗き、おそらく15インチの大ディスプレーに現れるものを見ることになる。
【0007】
キーボードおよび/またはマウス様の入力装置は、コンパニオンコンピュータまたはコンピュータ様システムの中にデータを入力または編集するために、おそらく最も効率的な技術であることが研究によって示されている。不運なことに、小さいサイズの入力装置はデータを入力できる速度をかなり遅くする可能性があるから、サイズが小さい入力装置に関連した問題を克服することは更に困難である。例えば、幾つかのPDAシステムは、約3インチ×7インチのキーボードを有する。データおよびコマンドはキーボードを介してPDAに入力され得るが、略6インチ×12インチの完全サイズのキーボードを使用する場合に比較して、入力速度は低下し且つ不快レベルが増大する。他のPDAシステムでは、キーボードを単純に除去し、ユーザがその上に針で英数字の文字を書くようにタッチ画面を提供する。次いで、PDA内の手書き認識ソフトウエアが、ユーザが針で接触感受性画面上に書いた英数字文字を解釈および認識しようと試みる。幾つかのPDAは、キーボードの画像を接触感受性画面に表示し、ユーザが針で種々のキーにタッチすることによりデータを入力することを可能にする。他のシステムにおいて、ユーザとコンピュータシステムとの間の距離が、配線で接続された入力装置の便利な使用を排除する。例えば、居間環境におけるユーザとセットトップボックスとの間の距離は、ナビゲートするための配線で接続されたマウスの使用を排除する。
【0008】
電子装置へのデータおよびコマンド入力のもう一つの方法は、ユーザの動作およびジェスチャーの視覚画像を認識し、次いでこれを解釈し、付随のコンピュータシステムのためのコマンドに変換することである。このような一つのアプローチが、「コマンドまたはデータを光学的入力するための方法および装置」と題するKorthの米国特許第5,767,842号(1998)に記載されている。Korthは、ユーザが想像上の即ち仮想のキーボード、例えばキーボードのキーのテンプレートまたは印刷された輪郭をもったキーボードサイズの紙片上でタイプする、コンピュータシステムを提案した。このテンプレートは、仮想キーボードキー上でのタイピングに際して、ユーザの指を案内するために用いられる。仮想キーボードに焦点を当てた従来のTV(二次元)ビデオカメラは、ユーザが仮想キーボード上で「タイプする」ときに、ユーザの指が接触チしている仮想キーの認識を可能にすると述べられていた。
【0009】
しかし、Korthの方法は、彼の相対的発光データに対する依存、実際には不充分な周囲照明源から生じる固有の曖昧さに支配される。従来の二次元ビデオカメラによるビデオ信号出力は人間の目による画像認識に適したフォーマットであるが、この信号出力は、視認された画像のコンピュータ認識には適していない。例えば、Korth型の適用においてユーザの指の位置を追跡するためには、コンピュータが実行可能なソフトウエアは、ビデオカメラ出力信号における画素の明度における変化を使用して、各指の輪郭を決定しなければならない。このような追跡および輪郭決定は、背景の色または照明を正確に制御できず、実際にユーザの指に似せることができないときには、達成するのが困難な仕事である。更に、Korthによって必要とされるビデオの各フレーム(典型的には少なくとも100画素×100画素)は、グレースケールまたはカラースケールコード(典型的にはRGBと称される)を有するに過ぎない。このようなRGB値データに制限されるので、Korthシステムにおけるマイクロプロセッサまたは信号プロセッサは、最良の場合でも、周囲の照明条件が最適であれば、背景画像に対する指の輪郭を検出できるに過ぎない。
【0010】
付随する問題は、ユーザの指を追跡する際の潜在的な曖昧さと同様に重要である。従来のビデオカメラは二次元画像データを出力し、ビデオシーンにおける対象の実際の形状および距離に関する明瞭な情報を提供しないので、Korthの技術では曖昧さが不可避である。実際に、Korthのビデオカメラの視点からは、カメラレンズの軸に沿ったタイピング動作を検出することは非常に困難であろう。従って、複雑なキー動作を充分に捕えるためには、異なる視点を有する複数のカメラが必要とされるであろう。また、Korthの図1が示唆するように、遮られないユーザの手の各指の視野を得ることが困難である可能性があ。例えば、右の人差し指の画像を得ることは、右の中指の画像を遮る存在によって排除される等々である。簡単に言えば、周囲照明が良好で、カメラの視点が良好でも、Korthの方法は、ユーザの指が仮想キーボード上のどの列に触れているかに関する曖昧さを含む多くの欠点を有している。
【0011】
深さ情報を得る試みにおいては、夫々が異なる視角から問題の物体を狙う複数の二次元ビデオカメラを使用して、Korthのアプローチを反復してもよい。この提案は単純に思えるが、それは実際的ではない。種々のカメラのキャリブレーションは扱い難く、また二倍のカメラを配備するのと同様に潜在的に高価である。夫々のカメラは、観察する対象に対して、また相互に対して正確にキャリブレートされなければならない。充分な正確さを達成するためには、キーボードに関して左右の頂部に立体カメラを配置しなければならないであろう。この構成でも、これらのカメラは少なくとも一つのカメラの視野内にある指を遮る指に悩まされるであろう。更に、種々のカメラにより出力された二次元ビデオ画像情報から三次元情報を作成するために必要なコンピュータ処理は、画像データを処理するために使用されるコンピュータシステムのオーバーヘッド処理に寄与する。理解できるように、複数のカメラを使用することは、Korthの信号処理要件を実質的に複雑化するであろう。最後に、タイピング動作を行っているユーザの指のような、微細なオブジェクト(対象物)の移動を検出および認識するために要求されるカメラからオブジェクトへの必要な、距離解像度を達成するのは困難であるかもしれない。
【0012】
簡単に言えば、Korthのアプローチを使用して、タイピングをしているユーザの手の、二次元の明度に基づくビデオ画像を検査し、何時どの指が何れのキー(バーチャル等)にタッチするかを正確に決定するのは現実的でない可能性がある。たとえ二次元のビデオ情報処理がKorthによるコンピューター化されたパターン認識で増強されたされたとしても、この欠点は残る。また、現実的に、Korthの技術はそれ自身が携帯性がないのが分かる。例えば、画像取得システムおよび周囲光源は本質的に常時オンされることになるであろうし、また充分な動作電力を消費して有意義なバッテリー動作を排除するであろう。Korthのシステムがデータ取得のフレーム速度を低下またはパワーダウンできたとしても、該システムはやはり充分な周囲照明を必要とするであろう。
【0013】
Korthのビデオカメラ(またはおそらくは複数のカメラ)はキーボード上の視点を必要とするから、電力要件を別にしても、Korthの二次元画像システムは携帯電話のような小さいコンパニオン装置のための携帯性がない。この要件は、該システムが動作している間、および搬送中に保存される間の両方において、Korthのシステムの実際上のサイズに制限を課す。
【0014】
コンピュータ処理システムに電気的に接続されていない仮想キーボードまたは他の仮想入力装置を用いて、ユーザが、コンパニオンコンピュータ処理装置にデータを入力できる方法およびシステムが必要とされている。このような方法およびシステムによって実施されるデータ入力インターフェースエミュレーションは、このましくは複数の画像取得装置を有することなく、ユーザの何れの指が何れの時間シーケンスにおいて仮想入力装置上の何れのキー(または他の記号)に触れているかに関する、三次元的に取得された有意義な情報を提供すべきである。好ましくは、このようなシステムは、該システムの出力が、コンパニオンコンピュータ処理システムが入力として直接使用可能な走査コードまたは他のフォーマットであることができるように、信号処理を含むべきである。最後に、このようなシステムは携帯可能で、且つセットアップおよび動作が容易であるべきである。
【0015】
本発明は、このような方法およびシステムを提供する。
【0016】
(発明の概要)
本発明は、ユーザが、手動入力装置の受動仮想エミュレーションからコンパニオンコンピュータシステム(PDA、無線電話、またはデジタル入力信号を受信するように適合された何れかの電子システムまたは器具)へ、コマンドおよびデータ(ここでは纏めてデータと言う)を入力するのを可能にする。本発明は、周囲の光がなくても、キーボード、キーパッドまたはデジタル化表面のような入力装置をエミュレートするのに用いられるテンプレートを保持または表示する基板上での、ユーザの指の配置に関する三次元データをリアルタイムで捕捉するように機能する三次元センサ撮像(イメージング)システムを含んでいる。この基板は、好ましくは受動的であり、キーボードのキーの印刷された画像、またはキーボードのキーの行および列に対応する場所の境界を画する単純な目印線を含む、折畳み可能または巻回可能な紙片またはプラスチック片であればよい。この基板は、Z軸がテンプレートのキー行を定義し、X軸がテンプレートのキー列を定義し、Y軸が基板上の垂直高さを示す水平なX−Z面上にあるものとして定義され得る。所望であれば、基板キーボードの代りに、本発明は光を使用して、コンパニオン装置の正面の作業面に、格子または多分はキーボードの画像を投射するプロジェクターを含むことができる。投影されたパターンは、この表面上で「タイピング」する際のユーザのガイドとして働くであろう。この投影装置は、好ましくはコンパニオン装置の中に含まれるか、またはこれに取付け可能であろう。
【0017】
或いは、タイピングのガイドとしての基板は除去することができる。その代りに、コンパニオンコンピュータ装置の画面を使用して英数字文字を表示し、コンパニオン装置正面のデスクトップまたは他の作業表面(多分テーブルの頂面)上で、ユーザによって「タイプ」されるようにしてもよい。熟練したタッチタイピストでないユーザのために、本発明はその代りに(または追加して)、ユーザによって「押され」または「タイプ」されるようなキーボードの「キー」を示すディスプレー画像を提供することができる。「キー」は、ユーザの指の直下にあることが認められた「キー」が画面において一つの色で強調することができる一方、実際に駆動されたと認められる「キー」はもう一つの色またはコントラストで強調することができる。この構成は、ユーザがコンパニオン装置の正面にある作業表面、おそらくは仮想キーボード上でタイプ打ちすることを可能にするであろう。好ましくは、ユーザが仮想キーボードをタイプ打ちするときに、コンパニオン装置上に表示されたテキスト領域に対応するテキストが現れる。
【0018】
従って、種々の形式のフィードバックを使用して、仮想タイピングをしているユーザを案内することができる。ユーザの手の何れの指が、如何なる順序で何れの仮想キーまたは仮想キー位置をタイプしたかが、三次元センサシステムによって決定される。好ましくは、この三次元センサシステムは、中央演算ユニット(CPU)並びに関連の読取り専用メモリー(ROM)およびランダムアクセスメモリー(RAM)を備えた信号処理ユニットを含んでいる。ROMの中には、信号処理ユニットCPUによって実行されるソフトウエアルーチンが保存されており、三次元位置情報が受信され且つ実質的にリアルタイムで、コンパニオンコンピュータシステムへの装置入力として直接適合したキー走査データまたは他のフォーマットのデータに変換されるようになっている。好ましくは、この三次元センサは特定の波長の光を放出し、走査される対象、例えばユーザの手の種々の表面領域からの戻りエネルギー飛行時間を検出する。
【0019】
タイプ打ちセッションの開始時に、ユーザはその指を作業表面または仮想キーボード(存在するとき)の上またはその近傍に配置する。ユーザまたは他の対象が三次元センサの撮像領域内に来るまで、本発明は低電力消費のスタンバイモードのままである。スタンバイモードにおいては、動作電力を節約するために、放出された光パルスの反復速度は1秒当り約1〜10パルスに低下されるが、これは本発明がバッテリー駆動であるときには重要な要件である。このようにして、本発明は比較的少数のパルスしか放出しないが、Z軸方向の解像度が粗くまたは低いとしても、画像データを取得することができる。三次元捕捉のための別の方法では、取得フレーム速度および解像度を低下させて、電力を節約する方法を使用してもよい。このような低解像度の情報でも、本発明に撮像視野内にあるオブジェクトの存在を警戒するためには充分である。対象が撮像視野に入ると、本発明の動作を支配するCPUは、高パルス速度を用る正常な動作モードに入ることを指令し、システムの機能はフルパワーで動作する。動作電力を保存するために、ユーザの指または潜在的な関連対象が撮像視野から除かれたとき、本発明はパワーダウンしてスタンバイ電力モードに戻る。このようなパワーダウンは、好ましくは、時間閾値を超える長時間に亘って関連対象が静止状態のままであるときにも生じる。
【0020】
次に、ユーザがその指を全て仮想キーボードのホーム行キー(例えばA,S,D,F,J,K,L,;)に置いたと仮定する。或いは、仮想キーボードが存在しないときは、本発明が実施されるコンパニオン装置の正面の作業スペースに置いたと仮定する。既にフルパワーモードにある本発明は、好ましくはソフトキーキャリブレーションを開始し、該キャリブレーションではユーザ入力に基づいて、コンピュータがキーボードのキーに位置を割り当てる。ユーザの指は一定の(意図する)キー上に置かれ、これら指の正確な位置に基づき、該ソフトウエアはユーザの指の位置に基づいてキーボード上のキーに位置を割当てる。
【0021】
ユーザが基板テンプレート上に示されたキーを「タイプ打ち」するとき、またはユーザがコンパニオン装置の正面の作業スペース上(現実のキーボードが存在したとき場合に「キー」が正常に存在する場所)をタイプ打ちするときに、三次元センサシステムはユーザの指を見る。このセンサシステムは、キーボード、マウス等のような従来の入力装置によって出力されたデータから機能的に区別され得るフォーマットで、データをコンパニオンコンピュータシステムに出力する。好ましくは信号処理ユニットCPU(またはコンパニオンコンピュータシステムのCPU)によって実効されるソフトウエアは、入ってくる三次元情報を処理し、基板または作業表面(仮想キーボードが存在しないとき)の画像に対する三次元空間内のユーザの手および指の位置を認識する。
【0022】
好ましくは、このソフトウエアルーチンは、Z軸の不連続性を調べることにより、各フレーム内のユーザの指の輪郭を同定する。指がキーを「タイプ打ち」し、またはキーボード(現実または仮想の)が存在するとした場合にキーが存在するであろう作業表面の領域で「タイプ打ち」すると、ユーザの指と仮想キーボードまたは作業表面との間の物理的インターフェースが検出される。このソフトウエアルーチンは、好ましくは光学的に取得されたデータを調べ、連続的なフレームにおけるこのようなインターフェース境界の位置を突止めて、指のY軸速度を計算する。(他の実施例では、超音波のような低周波数エネルギーを代りに用いることができるであろう)。このような垂直方向の指の運動が停止し、またはルーチンによっては指が基板と接触したときに、問題の指の座標(Z,X)から押されている仮想キーが同定される。次いで、適切なKEYDOWNイベントコマンドを発することができる。本発明は全ての指(親指を含む)について同様の分析を行い、異なるキーが接触される(例えば「押される」)順序を正確に決定する。このようにして、ソフトウエアは適切なKEYUP、KEYDOWNおよび走査コードデータコマンドを、コンパニオンコンピュータシステムに発する。
【0023】
当該ソフトウエアルーチンは、好ましくは、タイプ打ちの際のユーザの手のドリフティングにおけるエラー、例えば、仮想キーボード上での変位を認識して補正する。該ソフトウエアルーチンは更に、実際にはキーを「押す」ことなく、指を仮想キーの上に静止させたユーザから生じるエラーを低減するために、幾つかのヒステリシスを提供する。測定エラーは、タイプ打ちアプリケーションにおいて、Z値を追跡するためのフレーム速度要件がX値およびY値を追跡するためのフレーム速度要件よりも低いことを維持することによって、更に低減される。即ち、Z方向の指の移動は、典型的には他の軸方向での指の移動よりも遅い。本発明はまた、キーボードまたは他の作業表面上において、種々の競合する指の間の衝撃時間を識別する。好ましくは、このような識別は、識別すべきものがY寸法のタイミングであるので、充分に高いフレーム速度でのX軸、Y軸のデータ値を観察することによって達成される。Z軸観察は、異なる指の間の識別を必要とせず、従ってフレーム速度は、一つの指が異なるキーの間でZ方向に移動できる速度によって支配され得る。好ましくは、本発明によって与えられるソフトウエアルーチンは、ノイズまたはジッタを低減するために、Z軸の取得されたデータを幾つかのフレームに亘って平均化する。X値およびY値についての有効なフレーム速度に対するZ値の有効フレーム速度は減少するが、Z値の正確さは向上し、やはり有意義なデータ取得のフレーム速度が得られる。
【0024】
ソフトウエアルーチンは、ユーザが、おそらくは同時にコントロールおよびシフトを押しながら、単に一定のキーの組合せで「タイプ打ち」することによって、コンパニオンコンピュータシステムを英数字データ入力モードがらグラフィックモードにトグル切換えすることを可能にする。グラフィックモードにおいて、テンプレートはデジタル化テーブルをエミュレートし、またユーザが該テンプレートを横切ってその指をドラッグするときには、接触している点の(Z,X)位置は、線、署名または他の図形を描画するために使用されるであろう。
【0025】
好ましくは,コンパニオンコンピュータシステムに結合されたディスプレーは、ユーザに入力された英数字または他のデータを、実質的にリアルタイムで表示することができる。キーボードのキーおよび指の画像を描写することに加えて、コンパニオンコンピュータシステムのディスプレーは、入力されようとしている英数字を示すブロックカーソルを与えることができる。追加の形態の入力フィードバックは、幾つかまたは全てのキーの下に弾性領域を形成して、「キー」がユーザの指に触れたときに触覚フィードバックを提供することによって達成される。適切なコンパニオン装置が用いられるならば、該コンパニオン装置は、「タイプ打ち」されたキーの名前を一字一字発音する。例えば、ユーザが「cat」の語をタイプしたときには、文字「c」−「a」−「t」を発音する。ユーザの指を検出した際にコンパニオン装置に電子的なキークリック音を出させることによって、単純な形態の音声フィードバックが提供される。
【0026】
本発明の他の特徴および利点は、添付の図面と関連させて好ましい実施例を記載している以下の説明から明かになるであろう。
【0027】
(好ましい実施例の詳細な説明)
図1Aは、指が基板50(ここでは机または他の作業表面60の頂面に示されている)の上で「タイプ打ち」するときに、本質的に縁をユーザの手40の指30に向けて焦点を結ぶ三次元センサ20を具備した、三次元センサシステム10を示している。好ましくは、基板50はデータ入力装置、例えばキーボードを表す線または目印を含んだ、印刷または投影されたテンプレート70を有している。こうして、テンプレート70は図示のようにキーボードの印刷された画像を有していてもよいが、キーは電子的に受動的であり、単に現実のキーの表現に過ぎない。基板50はZ−X面にあるものとして定義され、該面内において、X軸に沿った種々の点は左列から右列へのキー位置に関連し、Z軸に沿った種々の点は前方から後方へのキー位置に関連し、またY軸位置はZ−X面上の垂直距離に関連する。(X,Y,Z)位置は、ベクトル位置点の連続体であり、図1Aに示した数個の点よりもかなり多い種々の軸位置が定義され得ることを理解すべきである。
【0028】
所望であれば,テンプレート70は、単にキーが存在する場所を示す行ラインおよび列ラインだけを含んでいてもよい。その上にテンプレート70が印刷され、または他の方法で現されている基板50は、図示の例ではキーボードをエミュレートする仮想入力装置である。このような基板50および/またはテンプレート70を、ここでは、デジタルデータおよび/またはコマンドを入力するための仮想キーボードまたは仮想装置と称する。このような仮想入力装置の利点は、それが紙または可撓性プラスチックに印刷され得ることであり、また図2Aに示すように折り畳まれ、図2Bに示すように巻回(または折畳んで巻回)されることである。キーの配置は、幾つかの図では図示を容易にするために示した矩形マトリックスである必要はなく、現実のQWERTYキーボードにおけるように、千鳥状の位置即ちオフセットした位置にレイアウトされてもよい。図2Bはまた、テンプレート70として印刷された別のキーセット(ここではキリルアルファベット文字)をもった装置を示している。所望であれば、一つのキーセットをテンプレートの片面に印刷し、第二のキーセットを多面に印刷することもできるであろう(例えば英語文字およびロシア文字)。
【0029】
図1B〜1Dに関して説明したように、代替法として、仮想キーボードの画像はコンパニオン装置に結合された画面に表示されてもよい。この実施例において、所望であれば基板および作業表面を省略し、ユーザが空中で「タイプ打ち」するようにしてもよい。この実施例は、使用している「キーボード」(例えば英語キーボード、またはドイツ語キーボード、またはロシア語キーボードを提示するもの)の飛行中の交換を可能にして、デジタイザーシート等をエミュレートする点において特に融通性がある。種々のキーボードおよびキーセットは、コンパニオン装置または器具80に結合された画面90上に単純に表示される。理解できるように、本発明と共に使用されるコンパニオン装置のディスプレー上に、種々の文字セットを有する仮想キーの表示された画像として別のキーセットを提示することにより、大きな融通性が達成される。従って、図1Bにおいて、ガイドとしての仮想キーボードは除去され、携帯性および融通性を更に促進している。
【0030】
種々の実施例において、仮想キーボード50(図1Aに示すもの)から、または仮想キーボードのない作業表面60(図1Bに示すもの)からユーザが入力すべきデータ(および/またはコマンド)は、コンパニオンコンピュータまたは他のシステム80に結合されるであろう。コンパニオンコンピュータシステムまたはコンピュータ様システムは限定されず、PDA、無線電話、ラップトップPC、ペンに基づくコンピュータ、またはデータを入力することが望まれる他の如何なる電子システムであってもよい。仮想キーボードが使用される場合には、好ましくは、使用しないときには折畳んだり巻回してもよい。その折畳まれたサイズまたは巻回されたサイズは、データおよびコマンドを入力するために使用されるPDAまたは他のコンパニオンコンピュータシステム80と共に保存するために、充分に小さくすることができる。例えば、折畳まれたとき、キーボードは略2.5インチ×3インチ、好ましくは少なくとも8インチ×8インチよりも小さくすればよい。PDAのための仮想キーボードは、PDAの背面のポケットにフィットする大きさの、折畳まれた形態因子を有すればよいであろう。しかし、使用されるときには、該仮想キーボードは広げられ、または巻戻されて、仮想キーボードではあっても実質的に完全なサイズになる。
【0031】
ユーザがデータをコンパニオンシステム80に入力するときに、典型的にはシステム80に存在するディスプレー90は、仮想キーボードから入力されているデータ100、例えばPDAに入力され得るテキスト、無線電話に入力され得るeメール等をリアルタイムで表示することができる。一実施例では、ブロックカーソル102が、タイプされるべきことを本発明が認知した個々の英数字の表示、例えば図1Aの文字「d」を取囲む。この視覚的フィードバックは、ユーザがデータ入力の正確さを確認するのを補助し、おそらくは望ましい文字がタイプされるのを保証するために、ユーザの指を再配置する際のガイドを提供する。ユーザに更なるフィードバックを与えるために、各仮想キーが押されたときに、システム80によって「キークリック」のような音声フィードバックを発生することができる。所望であれば、ユーザに触覚フィードバックを与えるために、仮想キーボードに受動的バンプ107を形成してもよい。例として、このようなバンプは、例えば弾性プラスチックで製造された仮想キーボードの各「キー」の下に形成された半球であってもよい。
【0032】
上述のように、仮想キーボード(基板またはコンパニオン装置の正面の作業表面であってもよい)の画像をコンパニオン装置の画面に表示することにより、追加またはた代替として、視覚的フィードバックを与えることもできる。ユーザがタイプ打ちをするとき、ユーザは、ユーザの指がキーボードに対して動くときに、その指を示すキーボードの画像によってガイドされる。この画像は、ユーザの指の直下にあるキーの強調を含むことができ、またキーが実際に押されれば、このようなキーは異なる色またはコントラストで強調することができる。所望であれば、実際の英数字が「タイプ打ち」されたときに該文字が画面の上方部分に現れ、またユーザの指が重ねられた仮想キーの画像が画面の下方部分に現れるように、コンパニオン装置の画面を「分割」することができる。
【0033】
図1Aおよび図1Bにおいて、コンパニオンシステム80は受台110に装着して示されており、該受台には三次元センサ20が永久的に取り付けられている。或いは、センサ20を、好ましくはコンパニオン装置80の下方部分に永久的に取り付けることができる。センサ20からの出力は、経路120を介してコンパニオン装置80のデータ入力ポート130に接続される。受台等が使用されるときは、受台110への装置80の挿入を使用して、センサ20の出力と装置80への入力との間を自動的に接続してもよい。
【0034】
ここで説明するように、図1Bの構成は、有利なことに、図1Aに示したような印刷された仮想キーボードがなくても、ユーザがコンパニオン装置80にデータを入力するのを可能にする。理解を容易にするために、X軸およびY軸に沿った格子線が、コンパニオン装置80の正面の作業表面領域60に示されている。ここで述べる種々のソフトウエアマッピング技術は、ユーザの指が何れのキーを打とうとしているか(キーが存在するとして)を本発明によって識別するのを可能にする。図1Aの実施例は、仮想キーボードからの触覚フィードバックを可能にするのに対して、図1Bの実施例はそうではない。従って、装置80の画面90は、ユーザのタイプ打ちを補助するために画像を表示するのが好ましい。勿論、図1Aの実施例のように、「タイプ打ち」の際にユーザの指が表面60を押すと、装置80が聴覚的なキークリックオンを発するようにしてもよい。
【0035】
図1Cは、適切な装置80から入手可能なある種の視覚的補助を示しており、この補助は勿論、図1Aの実施例と共に使用してもよい。図1Cにおいて、画面90は少なくともキーボード115の画像の一部、並びに実際のまたは仮想のキーボード上にあるキーに対する、手および指の位置を示すユーザの手の輪郭または他の表現を表示する。図示を容易にするために、図1Cは、ユーザの左手の位置のみを示している。ユーザの指がキーに「接触」し、またはキーに「接触」するほど十分に近接している(例えば、キーボードが存在するとして、このようなキーが存在する表面60上の位置)とき、およびキーが「押され」または「タイプ打ち」されるときに、装置80は異なる色またはコントラストを使用して該キーを強調することができる。例えば、図1Cでは、「Y」キーが強調またはコントラストを付して示されており、これによって、該キーがユーザの左人差し指で接触されているかまたは接触されようとしていること、或いは押されていることを示すことができる。図1Dに示すように、分割された画面ディスプレーが装置80によって提供され、ここで画面の一部は、存在しないキーボード上でのユーザの指配置をガイドする画像を描画する一方、画面のもう一つの部分は、ユーザが装置80に入力したデータまたはコマンドを示す。図1Dは、画面上で単語「key」の綴りが完了するときにタイプ打ちされているもの、例えば単語「key」の文字「Y」が強調されている対応のテキストを示しているが、その代りに、データ100は図形であってもよい。例えば、ユーザは装置80に図形モードを入力するように命令することができ、その際に、表面60を横切る(または仮想キーボード70を横切る)指の動きが図形、例えばユーザの署名が、人差し指または針を用いて表面60の上に「書かれる」。ユーザの指または針は、纏めて「ユーザの指」と称することができる。
【0036】
任意に、本発明に付随したソフトウエア(例えば図3におけるソフトウエア285)は、単語の内容を用いて、「タイプ打ち」エラーの減少を補助することができる。入力されている言語、例えば英語におけるテキストの語彙が予め知られていると仮定する。コンパニオン装置の中のメモリーは、当該言語において最も頻繁に使用される単語を含む辞書を保存し、ユーザが仮想キーボード上または薄い空気中で単語を「タイプ打ち」するときに、コンパニオン装置のソフトウエアは、こうしてタイプ打ちされた文字を上記辞書の候補単語に適合させるであろう。例えば、ユーザが「S」を入力すれば、文字「S」で始まる全ての単語が候補であり;ユーザが「SU」を入力すれば、「SU」で始まる全ての単語が候補である。ユーザが「SZ」をタイプ打ちすれば、少なくとも英語においては、適合する候補単語は存在しないであろう。ユーザが更に多くの文字をタイプ打ちすると共に、タイプ打ちされている単語に合致し得る候補単語の組は処理可能なサイズにまで減少する。或る閾値点において、例えば候補単語のサイズが5〜10語にまで減少したときに、当該ソフトウエアは、ユーザによってタイプ打ちされるべき次の文字に可能性を割当てることができる。例えば、ユーザが既に「SUBJ」を入力していれば、次の文字は「W」であるよりも「E」である確率が高い。しかし、文字「E」および「W」は、実際のキーボードまたは仮想キーボード上で隣接しているから、ユーザは文字「W」のキーに近接した領域を押す可能性がある。この例では、コンパニオン装置のソフトウエアを使用してキー入力を訂正し、ユーザが文字「E」を入力する意図であったと仮定することがができる。
【0037】
次に、三次元センサ20の動作を見てみると、該センサは既知周波数の放射線を放出して、光学視野内にある対象の表面で戻って来たエネルギーを検出する。放出された放射線が、図1Aおよび図1Bに線140として示されている。センサ20は、ユーザの何れの指先30がテンプレート70の何れの部分に接触するか、例えば何れの仮想キーに如何なる順序で接触するかを決定するために、Z軸に沿って照準を合わせる。図1Bに示したように、テンプレート70が存在せず、またユーザが装置80の前の作業空間で単純にタイプ打ちしたとしても、センサ20は意義のあるデータを出力するように機能するであろう。このような実施例において、コンパニオン装置80の画面90は、文字「T」のためのキー107のように、「押された」かまたは直下にある「キー」が強調されたキーボード105の画像100’を表示することができるであろう。
【0038】
図1Aおよび1Bに示すように、所望であれば、タイプ打ちしているユーザをガイドするために、可視光線147を放出する照明または他のプロジェクタ145を使用して、仮想キーボードの画像を投影することができるであろう。例えば、タイプ打ちしているユーザをガイドするために、可視光源(おそらくは可視波長のレーザ光)を回折レンズと共に使用して、画像を投影してもよい。このような実施例では、おそらく共通の図形ファイルフォーマット(例えばGIF)にしたキーボードの画像が、レンズ上の回折パターンを「エッチ」するために使用される。投影された画像の一部はユーザの指の表面に向かうが、その上でタイプ打ちする基板が存在しなくても、このような投影されたガイドは有用であり得る。35806アラバマ州ハンツビルのMEMS Optical, LLCから入手可能な光学系を含む回折光学系の使用は、このような投影型の実施例の実施における用途を見出す可能性がある。
【0039】
図3は、好ましくはCMOS IC 210上に製造される、三次元画像センサシステム200の一例を示すブロック図である。システム200は、三次元センサ20と同じハウジング内に配置されて、本発明を実施するために使用される。本明細書の一部として本願に引用する同時係属の米国特許出願第09/401,059号に更に詳細に記載されているように、このようなシステムは、有利なことに可動部分を必要とせず、また比較的少数のオフチップ部品、主に発光ダイオード(LED)またはレーザ光源222および関連の集光システムを必要とするに過ぎず、適切なシールドが与えられれば、その上にIC 210が製造される共通の基板上にレーザ光源220を結合してもよい。上記で引用した同時係属の米国実用特許出願に開示された三次元センサ20に関して本発明を説明したが、本発明は他の三次元センサを用いて実施してもよいことが理解されるべきである。
【0040】
システム200は画素検出器240のアレイ230を含んでおり、その夫々は、関連の検出器によって出力された検出電荷を処理するための、専用の回路250を有している。仮想キーボード認識アプリケーションにおいて、アレイ230は、15×100画素および対応する15×100の処理回路250を含むことができる。なお、アレイのサイズは、Korthの従来技術による二次元ビデオシステムが必要とするよりも実質的に小さい。Korthは4:3のアスペクト比、幾つかの例では2:1のアスペクト比を必要とするのに対して、本発明は3:1よりも実質的に小さいアスペクト比、好ましくは約2:15または1:15のアスペクト比を使用して、データを入手および処理する。図1Aおよび図1Bを参照すると、相対的に大きいX軸範囲が含まれなければならないが、基板50に対するセンサ20の縁を前にした配置では、比較的小さいY軸距離を含む必要があるに過ぎないことが理解される。
【0041】
ユーザがタイプ打ちしている間は、仮想キーの行に沿ってユーザの種々の指を識別するために、高いフレーム速度が必要とされる。しかし、タイプ打ちしている所定の指の前後の動きは、実際にはそれほど迅速ではない。従って、Z軸データの取得速度はX軸およびY軸データよりも小さく、例えば、Z軸データについては10フレーム/秒であり、X軸およびY軸データについては30フレーム/秒である。
【0042】
低下されたZ軸フレーム速度の実際的な利点は、キーボードの指位置情報を得る際に、本発明によって必要とされる電流が少ないことである。実際に、取得された情報を信号処理する際、本発明はフレームに亘ってZ軸情報を平均することができ、例えば、Z軸位置情報についてのフレームの1/3を調べる。得られたZ軸値は、三つの連続的な画像フレームが処理された同じZ値を共有するように、三つの連続する30フレーム/秒のフレームに亘って平均化すればよい。Z値についての有効フレーム速度は、X軸およびY軸データの取得速度の1/3に低下するが、Zデータの精度は、ノイズおよびジッタを平均化することによって改善される。このような、Z値に対するX値およびY値の異なるフレーム速度の使用は、本発明には有用である。例えば、X軸およびY軸データに対するZ軸データの減少した取得速度は、電流の消耗を最小化し、また冗長な信号処理を伴った信号プロセッサ(CPU 260)の負担を回避する。
【0043】
従って、従来技術のKorth様システムは、周囲光の存在下で二次元明度データを取得するのに対して、本発明は、周囲光を必要とせずに三次元画像データを取得する。本質的に、本発明は人間が接触により対象を感じるのに類似して、三次元対象、例えば指および基板を検知することができる。有利なことに、これは比較的小さな動作電力、例えば10 mWで略3.3 DVCを使用して達成することができる。これによって、本発明はバッテリー動作が可能であり、また比較的小さく且つ可動形態で製造することを可能にする。
【0044】
ユーザの手および指ならびに基板の三次元画像データが、1秒当り複数フレームで、アレイ230から入手可能である。このデータを使用して、本発明は基板に対する、または基板が存在しないときには、キーボードがコンパニオン装置80の前の作業表面上にあるとしたときの仮想キーが存在する場所に対する、手および指の三次元画像を構築する。そうするための例示技術は、出願人Bamjiによる先に参照した同時係属の米国特許出願に記載されている。飛行時間データからこのような三次元画像を構築することは、例えばKorthが示唆しているような二次元明度に基づくデータを使用して、空間的関連を推測する従来技術の方法よりも優れている。なお、飛行時間法は、Bamji特許出願に記載されているような、戻りパルス時間測定、位相もしくは周波数検出、または高速シャッタ法を含む可能性がある。飛行時間に依存しない他の方法は、立体画像、および相対強度から深さを識別する明度に基づく技術を含む、三次元データを捕捉することができる。
【0045】
実際に、アレイ230は、5文字/秒(約60語/分)の仮想タイピングを処理するのに充分なフレーム速度、即ち、30フレーム/秒でデータを取得および発生することができる。アレイ230が、例えばX軸画素の数nおよびY軸画素の数mを含む矩形であるとき、n=100でm=15であれば、1,500画素を含む格子が形成される。データの各フレームについて、アレイ230における各画素は、センサ20から、画素により捕捉された対象(例えばユーザの指の一部、基板の一部等)の表面までのベクトル距離を表す値、例えばベクトル値またはZ値を有するであろう。このデータは、Korthの明度に基づく画像データよりも遥かに有用である。Korthのデータは最良でも、ユーザの指および仮想キーボード上の二次元位置を決定する際の、RGBグレイスケール値またはカラースケール値をもったビデオフレームを与えるに過ぎない。
【0046】
取得された三次元データの使用は、ソフトウエア285が、ユーザの指の実際の形状(名目上は幾分円筒形と仮定される)を決定することを可能にし、従って他の指、基板上の位置、および三次元センサ20に対する相対的な指の位置を決定することを可能にする。例えば図1Aにおいて、指がY=0の位置に移動するのが検知されるとき、その指は、おそらくは仮想キーをタイプするように準備されていると決定することができる。その指がZ=Z1の領域に接近していることが検知されれば、その指はおそらく、仮想キーボード上のキーの第1行にある仮想キーをタイプするために準備されている。仮想キーが押されようとしているかどうかの決定もまた、速度データを考慮する。例えば、Y=0に向けて迅速に下方に動いていると検出されたユーザの指は、おそらくは仮想キーを打つ準備ができている。
【0047】
図3において、IC 210はまた、マイクロプロセッサまたはマイクロコントローラユニット260(CPUと称する)、ランダムアクセスメモリー270(RAM)および読取り専用メモリー280(ROM)を含んでおり、該ROMの一部は、好ましくは本発明を実施するためにCPUにより実行されるソフトウエアルーチン285を保持している。コントローラユニット260は、好ましくは略50 MHzで動作する16ビットのRISCマイクロプロセッサである。他の機能のうちで、CPU 260は対象までのベクトル距離および対象の距離の計算を行うが、この対象は基板およびユーザの手である。IC 210は更に、高速分配クロック290、種々のコンピュータ処理、光駆動の入力/出力(I/O)回路300、およびインターフェースデータ/コマンド入力/出力(I/O)回路310を含んでいる。デジタルキーボード走査型のデータ若しくはデジタイザータブレット/マウス型のデータが、I/O 310、例えばシステム200に結合されたCOMおよび/またはUSB型ポートから出力される。
【0048】
好ましくは、画素検知検出器の二次元アレイ230は、標準の商業的シリコン技術を使用して製造され、これは有利なことに、回路250、260、270、280、290、および300を同じIC 210上に製造することを可能にする。理解できるように、このような回路を画素検出器のアレイと共に同じIC上に製造する能力は、より短い信号経路に起因して、処理および遅延時間を短縮することができる。
【0049】
各画素検出器は、電流源、理想的ダイオード、分流(shunt)インピーダンスおよびノイズ電流源の並列組合せとして表すことができる。各画素検出器は、その上に来る入力光子エネルギーの量に比例した電流を出力するであろう。好ましくは、CMOS製造法を使用して、CMOS画素ダイオードまたは光ゲート検出器装置のアレイを製造する。例えば、ウエルへの拡散またはウエル/基板接合を使用して、光ダイオードを製造すればよい。ウエル/基板型の光ダイオードは赤外(IR)光に対して感受性であり、小さいキャパシタンスを示し、従って好ましいものである。
【0050】
図3および図4に示すように、回路250には各画素検出器240が結合される。各回路250は好ましくはパルスピーク検出器310、高速カウンタ320を含み、また高速クロック290へのアクセスを有する。好ましくは、IC 210に形成された高速クロック200は、好ましくは略500MHzの固定周波数の連続的な高周波数クロックパルス列を出力し、低デューティーサイクルのパルスとして出力される。勿論、その代りに他の高速クロックパラメータを使用してもよい。このパルス列は、各高速補間カウンタ320の入力ポートに結合される。Bamjiの係属中の特許出願に記載されているように、カウンタ320は、好ましくはサブカウントすることができ、70 psのオーダーで時間を解像できる。また好ましくは、各カウンタ320は、START信号(例えカウント開始)を受信するポート、停止信号(例えばカウントの停止)を受信するポート、およびCONTROL信号(例えば累積されたカウントのリセット)を受信するポートを有する。CONTROLおよびSTART信号はコントローラ260から入手可能であり、CLOCK信号はクロックユニット290から入手可能であり、STOP信号はパルスピーク検出器310から入手可能である。
【0051】
仮想キーボード50は、センサレンズと実質的に同じ平面内で、三次元センサ20から略20 cmの距離に配置される。典型的なセンサのレンズ角度は略60°であるから、20 cmの距離は、仮想キーボードの光適用範囲を保証する。図3では、図示を容易にするために、センサ20の光放出と集められた光との間の距離が誇張されている。
【0052】
概観すると、システム200は次のように動作する。時間t0において、マイクロプロセッサ260は、既知波長の光パルスを放出するように光源220に命令し、光は焦点レンズ288’を通過して、3000,000 km/secの光速(C)で問題の対象、例えば基板50およびユーザの指30に向けて進む。光源220が充分に強力であれば、レンズ288’は省略してもよい。撮像される対象の表面において、少なくとも幾らかの光が反射されてシステム200の方に戻され、検出器アレイによって検知される。図3において、問題の対象はユーザの手の指30であり、また存在するときには、ma/で示した基板50は、「タイプ打ち」の際にユーザの指の配置をガイドするために、キーボードのキー70または投影された格子線のような目で見える目印を含んでいる。
【0053】
図1Aに示されるように、基板上の他のキーの位置に対する基板50上の仮想キー70(または他のユーザが利用可能な目印)の位置は、X−Z平面上の二次元において既知である。「タイプ打ち」の間に、ユーザの指が基板50上で前後に移動して仮想キー70に接触するときに、戻ってきた光エネルギーを調べて、何れの仮想キーが何時ユーザの指に接触したかを同定することは、CPU 260およびソフトウエアルーチン285の機能である。この情報が得られたら、与えられるデータまたはコマンドが恰も実際のキーボードまたは他の入力装置によって発生されたかのように、適切なKEYUP、KEYDOWNおよびキー走査コードまたは他の出力信号が、コンパニオン装置80の入力ポートに与えられる。
【0054】
時間t0において、アレイ230の各画素カウンタ310がCONTROL信号を受信し、これはカウンタ内に先に保持されている全てのカウントをリセットする。時間t0において、コントローラ260はSTARTコマンドを各カウンタに発し、これにより各カウンタはカウントを開始して、クロック290からのCLOCKパルスを蓄積する。光パルスの往復の飛行時間(TOF)の間に各カウンタはCLOCKパルスを蓄積するが、より大きな蓄積クロック数はより長いTOF、即ち、撮像される対象の光反射点とシステム200との間のより大きな距離を表す。
【0055】
システム200に結合された焦点レンズ288の基本的な性質は、撮像される対象20の表面上の点からの反射光が、このような点に焦点を合わされたアレイ中の画素にのみ向けられるようにすることである。従って、時間t1では、対象20の表面上の最も近接した点から反射された光子エネルギーは、レンズ/フィルター288を通過し、当該点に焦点を合わされたアレイ230における画素検出器240に向けられる。レンズ288に付随するフィルタは、光源220によって放出された波長を有する光だけが、減衰せずに検出器アレイに入射することを保証する。
【0056】
アレイ230内の一つの特定の画素検出器240が、最も近いユーザの指先70上における最も近い表面点に集光されると仮定する。関連の検出器300は、このような対象点から入射される光子エネルギーに反応した画素検出器が出力する電圧を検出するであろう。パルス検出器300は、好ましくは、画素出力電流または電圧における小さいが迅速な変化を検知する増幅ピーク検出器として実施される。迅速に変化する出力電圧が検出のために充分に大きいとき、検出器300内の論理素子(例えばSRフリップフロップ)がトグルして出力パルスをラッチし、該出力パルスはSTOP信号として関連のカウンタ320に与えられる。従って、関連のカウンタ320内に蓄積されたカウントの数は、問題の指先の近傍部位への往復TOF、計算可能な距離Z1を示すであろう。
【0057】
距離Z1は、以下の関係から決定することができ、ここでCは光速である。
Z1=C・(t1−t0)/2
【0058】
その後の或る時間t2では、ユーザの指先の幾分離れた点からの光子エネルギーがレンズ288に到達し、アレイ230に向けられて、もう一つの画素検出器によって検出されるであろう。それまで、この他の検出器に付随したカウンタは、時間t1でカウントを停止したカウンタを除くすべてのカウンタと同様に、時間t0から出発してCLOCKパルスをカウントし続けている。時間t2において、入射して来た光子エネルギーを受信および検出したばかりの画素に関連したパルス検出器は、関連のカウンタにSTOPコマンドを発するであろう。このカウンタに蓄積されたカウントは、指先の中間点への往復TOF、距離Z2を反映するであろう。IC 210内において、メモリー280に保存されたソフトウエアルーチン285を実行するコントローラ260は、対象表面上の各光反射点についてのTOFデータに関連した距離を計算することができる。速度は、取得されたデータの連続するフレームを調べることによって計算することができる。
【0059】
同様にして、時間t3では、アレイにおける更にもう一つの画素検出器が、その関連のパルス検出器300についての到達したばかりの充分な光子エネルギーを検出して、関連のカウンタにSTOPコマンドを発するであろう。このカウンタに蓄積されたカウントは、撮像される対象までの更に遠い距離Z3についてのTOFデータを表す。図示を容易にするために、図3は全てが一つの指先に向かう三つの放出された光線および光反射を示しているが、実際には、実質的に全ての基板およびユーザの指が光源220からの照射を受け、少なくとも幾らかのエネルギーを、三次元センサ20に結合されたレンズ288の中に反射させるであろう。
【0060】
該アレイ中の幾つかの画素は、勿論、光が集光される対象点からの充分な反射光を受け取らない。従って、所定の時間(コントローラ260にプログラムすればよい)が経過した後、センサアレイの各ピクセルに付随するカウンタは、パルス検出に起因して停止されるであろう(または、距離Z=無限の標的に対応したカウントを保持すると思われる)
【0061】
上記のように、この適用において、システム200は略20 cm〜30 cm、例えば「約20 cm+基板50上の仮想キーの頂部行と底部行を分離する距離」の範囲内で、正確に対象を撮像できれば充分である。夫々の反射光パルスが検出されたら、アレイの各画素について、カウンタが計算したTOF距離値が決定され、好ましくは、ユニット270に付随したRAMのフレームバッファー内に保存される。好ましくは、マイクロプロセッサ260がRAMに保存された連続フレームを調べ、視野内にある対象および対象位置を同定する。次いで、マイクロプロセッサ260は対象、例えば指の運動速度を計算することができる。距離および速度を計算することに加えて、マイクロプロセッサおよび関連のオンチップ回路は、好ましくはユーザの指の外形または輪郭を認識して、基板表面から指表面を識別するようにプログラムされる。指の輪郭が同定されると、システム200は、COMもしくはUSBまたは他のポートを介して、関連のデジタルデータおよびコマンドをコンパニオンコンピュータシステムに出力する。
【0062】
上記の例は、三つの別々の時間t1、t2、t3において光子エネルギーを受取った三つの画素検出器が、関連のカウンターをオフさせ、その蓄積されたカウントを使用して、視野内にある指表面および基板への距離Z1、Z2、Z3を計算する方法を説明している。実際には、本発明は三つだけではなく、アレイのサイズに応じて、各光パルス当り数千または数万のこのような計算を処理するであろう。このような処理は、ICチップ210で行うことができ、例えば、マイクロプロセッサ260を使用して、ROM 280に保存された(または保存可能な)ルーチンを実行することにより行うことができる。アレイにおける各画素検出器は、検出アレイ上での独特な位置を有しており、各画素検出器に結合された高速カウンタにより出力されたカウントを独特に同定することができる。従って、二次元検出アレイ230によって集められたTOFデータは、ユーザの指および基板のような三次元対象への正確な距離を与えるように信号処理される。CMOS適合性の検出器240からの出力は、所望のときにはランダムにアクセスされることができ、如何なる順序でもTOF DATAを出力することを可能にする。
【0063】
光源220は、好ましくは波長が略800 nmのエネルギーを放出するLEDまたはレーザであるが、その代りに他の波長を使用することもできるであろう。波長が800 nm未満では、放出された光が可視光になり始め、レーザ効率が低下する。900 nmを越えると、CMOSセンサ効率が迅速に低下し、IC 210のようなシリコン基板上に製造された装置については、如何なる場合にも1100nmが波長の上限である。上述のように、特定の波長を有する光パルスを放出することによって、また、異なる波長の入射光をフィルター除去することによって、システム200は周囲光があってもなくても動作可能である。基板50が、例えば視覚的キーの外形を定義する隆起線を含むときは、ユーザは暗所で文字をタイプ打ちすることができ、それでもシステム200は適正に機能するであろう。周囲光に依存することなく機能するこの能力は、Korthによって記載されたような従来技術のスキームとは全く対照的である。上記のように、熟練したタッチタイピストではないユーザでも、本発明は、コンパニオン装置80のディスプレーに視覚的キー−ボードの画像を与えることによって、暗所で使用することができる。
【0064】
上述のように、レンズ288は、好ましくはフィルターされた入射光エネルギーをセンサアレイ230の上に集光させて、アレイにおける各画素が、視野の中にある唯一の特定の点(例えば対象表面上の点)のみから光を受取るようになっている。光波伝播の特性は、通常のレンズ288を使用して光をセンサアレイ上に集光させることを可能にする。レンズが放出された光を収束する必要がある場合に、ミラー型の構成を使用すれば、288,288’の代りに一つのレンズを用いることができるであろう。
【0065】
実際の用途において、センサアレイ230は、好ましくは約1 cmのオーダーで標的距離を識別するのに充分な解像度を有しており、これは各画素が、約70 ps(例えば、1 cm/C)のオーダーで時間差を解像できなければならないことを意味する。CMOSで実行されるシステム仕様に関して言えば、高速カウンタ320は約70 ps以内の時間を解像できなければならず、またピークパルス検出器310は低ノイズの高速ユニットであり、略数百マイクロボルト(μV)のオーダーの検出感度で約70 ps(約100サンプルを平均化した後)を解像できなければならない。正確な距離測定には、パルス検出器の応答時間が全経過時間から除かれることを必要とする。最後に、回路280から出力されたCLOCK信号は約2 nsのオーダーの時間間隔を有するべきである。
【0066】
上記のように、各補間カウンタ320は、好ましくは略1 cmの距離を解像することができ、これは約70 ps以下の時間解像性を意味する。有効な70 psサイクル時間をもった10ビットカウンタを使用することにより、約10 m(例えば1,024 cm)の最大システム検出距離を生じるであろう。通常の10ビットカウンタの実施は、典型的には略40ゲートの最悪の場合の経路を必要とし、その夫々が典型的には200 psを必要とし、全伝播時間としては約8 nsを必要とするであろう。このことは、最速のシステムクロックサイクル時間を約10 nsに制限するであろう。費用をかけてキャリールックアヘッド(carry look−ahead)ハードウエアを使用すれば、カウンタ伝播時間は短縮されるが、それでも2 nsのシステムサイクル時間を実施するのは全く困難であろう。
【0067】
必要なサイクル時間を達成するためには、時には線型シフトレジスタ(LSR)と称される所謂擬ランダムシーケンスカウンタ(PRSC)を使用すればよい。PRSCユニットを含む高速カウンタを実施するための詳細は、出願人の先に引用した同時係属実用特許出願の中に存在する。
【0068】
次に、光学視野内にあるユーザの指の輪郭認識に含まれる要件について、二つのユーザの指の断面図を描いた図5を参照して説明する。+の記号は、指を撮像するアレイ210における各画素センサについてのベクトル距離値のサブフレーム(フレーム内)サンプルを示している。画素センサに伴う固有のノイズは、取得された各サンプルにおいて、画像化された指対象の同じ点への可変ベクトル距離を生じる。ノイズを低減して信号/ノイズ比を改善するために、センサは各画素についての測定値を平均化して、図5の記号○で示されるフレームについての平均値を生じる。図5の記号□は、平均値を解釈するために、テンプレートまたは1組の保存された指形状の断面例がルーチン285に用いられるときの、訂正された平均を表している。この方法は距離測定精度を向上させ、ユーザの指の認識における曖昧さを減少させる。
【0069】
データ捕捉ノイズは、ユーザの指を認識して指の移動および速度を決定するために必要な、最小フレーム速度に影響する可能性がある。本発明において使用されるTOFに基づく画像において、画素レベルのノイズは、撮像される対象が静止したままであっても、一つのフレームからもう一つのフレームに移るときの、所定の画素についての距離値における変動として表される。
図示を容易にするために、図1A、図2Aおよび図2Bに示されたキーボードの画像は、マトリックス、たとえば均一な行および列として描かれている。しかし、実際には、特に図6に示すように、標準のQWERTY型のキーボード(および他のキー構成をもった実際のキーボード)は、オフセット構成即ち千鳥状の構成でレイアウトされている。本発明は有利なことに、実際のキーボードレイアウトの千鳥状配置を考慮することにより、Z軸解像度を低下させる。従って、キーボードの頂部から第二行は右側に若干シフトされ、第三行(頂部から)は更に右側にシフトされる、等々である。この千鳥状配置によって、キーは、隣接行におけるキーに対してオフセットした位置で各行に配置される。例えば、図6におけるキーボードの文字「G」に注意されたい。点線を付した矩形領域400は、ユーザが文字「G」を打っていると仮定したときの許容可能な範囲を示している。例えば、矩形領域内での如何なる仮想接触も、ユーザの指が文字「G」上で接触するものとして明瞭に解釈されるであろう。Zで示されたこの矩形の高さは、Z軸座標の検出において許容可能な最大エラーマージンである。なお、このマージンはQWERTYキーボードにおける単一行の高Rさよりも大きい。また、キーのための認識領域は矩形である必要はなく、如何なる合理的な形状、例えばキーを中心とする楕円であってもよい。
【0070】
取得された三次元データのフレームは、CPU 270およびルーチン285に利用可能になるので、取得されたデータからのユーザの指の認識が進められる。この仕事は、該データが実際にユーザの指の三次元表現を含んでおり、また指は合理的に周知の形状であり、例えば縁を前にしてみたときに、それらは幾分円筒形の形状である点において単純化される。上述したように、指形状の例示テンプレート並びに指および手の帰納法をメモリー280に保存することは、指の位置の認識および追跡に必要なCPU時間を減少することによって、指の認識を促進する。このような信号処理は、データ捕捉ノイズを迅速に低減することができ、また取得された三次元データからユーザの指を更に容易に識別することができる。信号/ノイズ比もまた、フレーム内状態において改善することができる、この状態では撮像されているシーンの知識、例えば、当該シーンは仮想キーボードおよびユーザの手を含んでいることがが知られている。
【0071】
ユーザの指が認識されると、次いで、ソフトウエアルーチン285(または多分CPU 260以外により実行される均等なルーチン)は、この指の位置および移動(例えば、単位時間あたりの位置の相対的変化)を決定することができる。指を表すデータは三次元であるから、ルーチン258は容易に背景画像を排除して、ユーザの手にのみ焦点を当てることができる。Korthの二次元撮像スキームでは、背景対象(例えばユーザのスリーブ、腕、身体、椅子の輪郭など)の形状および移動が対象の追跡および認識ソフトウエアルーチンを混乱させ得るので、この仕事は非常に困難である。
【0072】
指先の輪郭を使用することにより、ルーチン285はZ軸距離測定値を使用して、仮想キーボードの行に対する指の位置、例えば、図1Aにおける距離Z1およびZ2を決定する。上述のように、このような軸測定値の粒状度は、図1Aに示したものよりも実質的に大きい、X軸距離測定値は、仮想キーボードの列に対する指先の位置についてのデータを提供する。行および列の座標数を使用することにより、ソフトウエア285は、各指が接触している実際の仮想キー、例えば図1Aにおいて左人差し指で触れられているキー「T」を決定することができる。
【0073】
ユーザが、キーボード、数字パッド、電話パッドなどのような特定の仮想入力装置上で指を配向させるのを補助するために、コンパニオン装置80内のソフトウエアを使用して、該装置に結合した画面90(例えばPDAまたは形態電話の画面)または装置80に接続された表示端末に、ソフトキーボードを表示することができる。このソフトキーボードの画像は、例えばユーザの指の直下にあるキーを強調することによって、仮想キーボード50上の(またはこれに近接した)全てのキーについてユーザの指の位置を示すであろう。キーが実際に打たれると(ユーザの指の移動によって感知される)、異なる色またはコントラストを使用して、打たれたキーを強調することができる。仮想キーが正しい開始位置にないときは、ユーザは、仮想キーボードまたは他の入力装置を適正な開始位置に配置するように、コンパニオン装置に命令することができる。例えば、ユーザが右手の指をホーム行のJ、K、Lおよび「;」のキー上に配置し、左手の指をF、D、SおよびAのキー上に配置することによって典型的にキー入力を始めれば、ソフトウエアは仮想キーボードのキーをこのような位置に移動させるであろう。
【0074】
装置50上の何れの仮想キーがタイプ打ちされ、または打撃されたかを決定するために、ユーザの指の縦方向のY軸運動が検知される。機械的キーボード上でのタイプ打ちの際には幾つかの指が同時に動くが、CONTROLキーおよび「P」キーを押すような二重キー入力がなく、またはタイプエラーがなければ、通常は一つの指だけがキーを打つ。本発明においては、ソフトウエアルーチン285が、取得された情報の連続的フレームから指の運動情報を決定する。有利なことに、人間の手は指の動きに対して一定の制限を課し、この制限は、ユーザの手および指の画像のモデル化に採用される。例えば、指の結合的性質は、指の移動の間に一定の結びつきを課する。指関節における自由度は、例えば他の指の近くへの動き、または他の指から遠くへの動きのような、各指の運動に対して一定の自由度を与える。ルーチン285は、有利には幾つかの帰納法を用いて、何れの仮想キーが実際に打たれているかを決定することができる。例えば、指の上方への移動の検出に続く指の迅速な下降移動として、キーストロークが検出され得る。最も小さいY軸位置または最も大きい下向き速度を有するユーザの指が、キー入力指、例えば仮想データ入力装置上の仮想キーの一つを打つであろう指として選択される。
【0075】
ユーザによる意図しないキー入力は、インテリジェントにユーザの指の移動をモニターすることによって識別される。例えば、ユーザは意図しないキー入力をトリガーすることなく、指を基板50の上に静止させることがある。これは、機械的キーボードを使用するタイピストが、何れのキーをもタイプするために充分に強く押さずに、その指をキーの上に静止させる場合に類似している。本発明のユーザは、如何なるキーをも意図せずにトリガーすることなく、その指を仮想キーボード上で柔らかく移動させることも許容される。ソフトウエア285は、意図的なジェスチャーのみが、データまたはコマンドをコンパニオンコンピュータ装置80に入力するため有効なキー入力として認められるように、その動作をキャリブレートすることができる。
【0076】
ソフトウエア285は、CPU 270のようなCPUによって実行されるときに、何れの仮想キーが本発明のユーザによってタイプ打ちされているかを認識するための、アルゴリズム若しくはルーチンを実行するために使用することができる。該アルゴリズムのための入力データは、センサ20からの三次元の光情報である。一つの例示アルゴリズムは三つの段階、即ち、テンプレートを構築および個別化する段階、キャリブレーション段階、および仮想キーボードまたは作業表面上でタイピングしているユーザを実際に追跡する段階を有するものと見做し得る。以下の説明においては、全ての指を使用した正常なタイプ打ちが行われているものと仮定する。例えば一本または二本の指だけが使用される場合には、アルゴリズムの特別のケースが適用されるであろう。
【0077】
テンプレートは、異なるユーザの異なるタイプ打ち姿勢についての予め定められたモデルであるとして理解される。この分類のテンプレートは、システムユーザ集団の分析に基づいており、彼等の種々のタイプ打ちスタイルが分類されるであろう。なお、これらのテンプレートは、入力データの例(例えば、タイプ位置にある指を観察することにより集められたデータの例)から、または追跡すべき対象の幾何学的性質の予めプログラムされた数学的記述(例えば、指についての円筒形状の記述)から誘導すればよい。得られたテンプレートは、ROM 280および特にルーチン285が製造されるときに作成すればよい。キーボードのキーの位置および形状は、ユーザに対して一定の共通スタイルを課するので、多くの予め定義されたテンプレートの数は過剰に大きい必要はないことが理解されるであろう。
【0078】
好ましくは、本発明の個々のユーザはまた、テンプレートを構築するために必要なステップを通してユーザをガイドする訓練ツールを使用して、彼等自身の専用のテンプレートを構築することができる。例えば、ソフトウエア285の訓練プログラム部分は、ユーザの指を仮想キーボード(もし存在すれば)、またはコンパニオン装置80の正面にある作業表面上のタイピング位置に配置するようにユーザに告げるコマンドを、ディスプレー90に提示することができる。次いで、訓練プログラムは、各指の下にある仮想キーを反復して押すようにユーザに告げるであろう。光学的に捕捉された親指の移動は、他の指の移動とは異なり、典型的には仮想キーボードまたは作業表面のスペースバー領域を再度押すように限定されるので、特別なケースとして取扱うことができる。
【0079】
テンプレートを作成する際に、ユーザの手の異なる指として、テンプレート画像における対象の分類を構築するのが望ましい。以下で更に詳細に述べるように、この方法の工程は、ユーザの手の物理的性質に関して、クラシファイヤ(分類子、classifier)、またはアルゴリズムルーチンのための情報を集める。その後、実際のタイプ打ちの際に、該クラシファイヤはこのテンプレートを使用して、取得されたフレームにおける画像を迅速にユーザの各指にマップする。テンプレート構築の一部として、好ましくは、ユーザの指位置の特定のキーボードキーへのマッピングを、静止位置において定義するのが望ましい。例えば、ルーチン285およびCPU 270は、静止時にユーザの左手の指が「A」「S」「D」および「F」キーに触れ、またユーザの右手の指が「J」「K」「L」および「;」キーに触れることを、コンパニオン装置80に指令することができる。このような方法工程は、仮想キーボードを、特定のユーザのスタイルに個別化する。この個別化プロセスは一回だけ実行され、またユーザのタイプ打ち姿勢が、タイプ打ちされたときに同定されたエラーキーが多すぎるようになるまで実質的に変化しない限り、反復する必要はない。本発明によるキャリブレーションプロセスは、次のようにして実行することができる。タイプ打ちセッションにおいて、ユーザは、テキスト入力モードのコンパニオン装置80で当該アプリケーションを実行させることにより、コンパニオン装置80に信号を送る。例えば装置80がPDAであれば、ユーザは針または指で画面80に表示されたテキスト領域に接触することにより、コンパニオン80アプリケーションの入力焦点をテキストフィールドに設定する。他のコンパニオン装置は、このような装置に付随した手順を使用して、適切なテキスト入力モードに設定すればよい。
【0080】
次に、ユーザの指が、仮想キーボード上または単純な作業表面上の、三次元センサ20の正面の作業表面におけるタイプ打ち位置に配置される。この工程は、タイプ打ちセッションが開始される前に、ユーザの指をテンプレートの要素にマップするため、およびユーザの指を仮想キーボード(または作業表面)のキーにキャリブレートするために使用される。
【0081】
この際に、三次元センサ20は、ユーザの指の輪郭マップを反復して捕捉するであろう。こうして捕捉されたデータは、ソフトウエア285によって、例えばテーブルまたは図7A〜7Oに示すようなマトリックス中に配置されるであろう。
【0082】
図7Aは、センサ20によって撮像された、実際のキーボード上でのユーザの左手でのタイプ打ちを描写している。センサ20の視野(FOV)は、意図的に上方の作業表面(この例では実際のキーボード)に向けられる。左手の5本の指が示されており、指1(親指)、指2、指3、指4、および指5(小指)として同定されている。指の背後および指の間の斜線を付した領域は、本発明によってユーザの指の一部と看做すためには暗すぎる領域を示している。勿論、実際の設定においては、理解および描写の容易さのためにここに示したような均一に暗い領域ではなく、段階的に変化する暗さが存在するであろう。
【0083】
重なった格子様のマトリックスまたは表が図7Aに示されており、ここには種々の領域が、ユーザの指の関連表面部分とセンサ20との間の正規化されたベクトル距離を表す定量化されたディジットを有している。これらの定量化された距離値は、例えばソフトウエア285により、本発明によってダイナミックに計算されたことが理解される。図7Aに示したマッピングにおいて、1、2のような低いディジット値は近接した距離を表し、7、8のような高い値は大きな距離を表す。「d」値は知覚された不連続性を表す。センサ20に関連する技術に応じて、「d」の値は広範に振動する可能性があり、また背景対象が存在しないことを示すことができる。図7Aにおいて、定量化された距離値は、(7および8の相対的に高い距離値によって示されるように)ユーザの左親指の方がユーザの左人差し指(それらの距離値は相対的に低い;例えば1)よりもセンサ20から更に遠いことを示している。また、一般に、ユーザの左小指はユーザの人差し指よりもセンサ20から遠いことが分かる。
【0084】
図7Aの中央部分は、正規化された距離値を示す表またはマトリックスであり、適用可能な場合は「d」が入力される。同様のテーブルが、図7B〜図7Oにも示されている。このテーブルエントリーは、ユーザの指の輪郭を表すことができ、またユーザの指の外形への距離データの潜在的なマッピングを示す補助となるように、これらのテーブルには影線が付されている。テーブル中の列を示す図7AのFOV部分からの矢印は、データの種々の列が如何にして実際にユーザの指位置の輪郭を表すことができるかを示している。図7A〜図7Oに示すテーブルにおいて、○で囲んだ数字「1」「2」…「5」は、ユーザの左親指(指「1」)、人差し指、中指、薬指、および小指(指「5」)の知覚された位置に対応する輪郭をそれぞれ描いている。
【0085】
先に述べたように、センサ20から得られたデータからのユーザの指位置の同定を補助するために、好ましくは、テンプレートが本発明において使用される。テンプレートは、不連続性が必ずしも明らかでないときに、指の間の境界を識別する際に分類アルゴリズム(またはクラシファイヤ)285を補助することができる。例えば図7Aにおいて、第三および第四のユーザの指(指3および指4)は相互に比較的近接している。
【0086】
図7Aの下方部分に示されているのは、ユーザがタイプ打ちしているもののダイナミックな表示であり、センサに知覚された距離値およびダイナミックな速度値の本発明による分析、並びに何れのキー(現実のまたは仮想の)がどの時点で押されるかを認識する全体の仕事に関連した帰納法に基づいている。従って、図7Aにおける瞬間捕捉において、コンパニオン装置80のディスプレー90上に部分的にタイプ打ちされたフレーズ100が現れているので、ユーザの左人差し指(指2)は、おそらく文章「The quick brown fox jumped over the lazy dog」中の文字「f」を丁度タイプ打ちしたばかりのように見える。
【0087】
好ましくは、ソフトウエアルーチン285のキャリブレーション段階は、ユーザフレンドリーである。従って、ルーチン285は本質的に、仮想キーボードをユーザの指の下に移動または回転させる。このような手順は、センサ20から得られる画像をテンプレートの指にマッピングし、次いで接触されたキーをユーザの本来の位置にマッピングすることによって実行することができ、前記本来の位置はテンプレート構築段階にいて決定されたものである。
【0088】
このキャリブレーション工程は、初期状態または静止状態を定義し、また静止位置にあるユーザの指をキーボード上の特定のキーにマップする。図1Bに示したように、接触されまたは非常に近接している「キー」107は、勿論画面90が入手可能であると仮定して、好ましくはコンパニオン装置の画面90に表示されたソフトキーボード105上で強調される。この静止位置はまた、ユーザの指がタイプ打ちバーストの終了時に取る位置であろう。
【0089】
実際のタイプ打ちの間にルーチン285はユーザの指を検知し、指の動きを仮想キーボード上の正しいキーにマップする。アルゴリズムのこの段階を開始する前に、関連のコンパニオン装置80アプリケーションは、テキスト入力モードになっており、キーボードイベント(例えば、KEYUPおよびKEYDOWN)を受け入れる準備ができているであろう
【0090】
ルーチン285(または均等物)は、多くの方法で実施すればよい。好ましい実施例において、ルーチン285は三つのモジュールを使用する。「クラシファイヤ」モジュールは、各フレームにおけるクラスターをユーザの指にマップするために使用される。「トラッカー(追跡子、tracker)」モジュールは、キーストローク指運動を調査することによって、またユーザの指と仮想キーボードまたは他の作業表面との間の衝撃点の座標を決定することによって、活性な指の移動を追跡するために使用される。第三の「マッパー(マップ子、mapper)」モジュールは、仮想キーボード上の特定のキーに対するユーザの指の衝撃点をマップし、キーイベント(事象)をコンパニオン装置80に送る。次に、これらの例示モジュールについて更に詳細に説明する。
【0091】
クラシファイヤモジュールの役割は、光学的に取得されたデータの各フレームにおいて、センサ20によって発生されたシーンの輪郭マップを感知することである。クラスターモジュールは、同じ表面の一部である等の、一定の共通の性質を有するクラスターを同定するであろう。重要なこととして、クラシファイヤは、取得されたデータの連続的フレームにおける他のクラスターから同じクラスターが同定されるように、各クラスターをラベルするであろう。また、クラスターは各クラスターの境界を決定し、特に各クラスターの先端(これはユーザの指の先端にマップする)を決定する。その目的は、ユーザの指認識それ自体ではなく、全ての意図および目的について、仮想キーまたはキーの仮想位置を押すために使用されるスチィック即ちスタイラスを、ユーザが保持できることにある。従って、上記で述べたテンプレートは、主にこれらのクラスターに意味を与えて、クラスターの形成を補助するために使用される。
【0092】
クラスターを形成しまたはクラスターを配置する一つの方法は、最も近い隣接条件を使用して、最も近い隣接パーティションを形成することであり、各パーティションはユーザの各指にマップされる。このようなマッピングは、ユーザの左手について五つのパーティションを生じ、ユーザの右手について五つのパーティションを生じるであろう。ここで、左手および右手のパーティションは別々に処理することができる。
【0093】
パーティション形成の一つの方法は、Llyodのアルゴリズムに基づいている。画像処理の分野では周知の各アルゴリズムの詳細は、Allen Gersho and Robert Grayによるテキスト「Vector Quantization and Signal Compression」に見出すことができる。第362頁を参照のこと。例えば、Ct={ci;i=1,...5}が一方の手のためのパーティション組であるとしよう。各パーティションにおいて、1組の点Pi,t={r:d(r, c)<d(r, c);全てについてj<>i}が定義され、ここで関数d( )は、この組における二点間の距離の尺度である。もしd (r, c) = d (r, c) であれば、より小さいインデックスを持った該組の中の点を配置することによって、この「tie」を破壊することができる。二点aおよびbについて、d (a, b) は (x−x+ (y−y+ (z−zとして定義され、ここでx,yおよびzはセンサ20から得られる軸測定値である。関数中心(Pi,t)は、Pi,tにおける重さの中心即ち重心として定義することができる。次に、Pi+1={重心(Pi,t);i=1,...5}を定義する。新たな重心を使用して、上記のようにPi,t+1を求めることができる。二つの連続するP組のメンバーシップが変化せずに残るまで、繰返しが継続される(例えば、ルーチン285またはその均等物によって)。典型的には、繰返しは3〜4回の繰返しのうちに収斂し、最終の組Pにおける点は、各ユーザの指についての点のクラスターである。この方法において、クラシファイヤの最終的な目的はユーザの指の認識それ自身ではなく、むしろ、何れのキーがユーザの指によって打たれたかを決定することである。この所見は、システムの特性に影響しないタイプ打ち領域の周辺におけるクラスタリングの不正確さに、クラシファイヤが耐えることを可能にする。
【0094】
次に、図7A〜7Oに示されたマトリックスに関して、トラッカーモジュールを更に充分に説明する。知覚されたクラスターは、好ましくはトラッカーモジュールに入力され、これは各クラスターの移動の追跡を維持するであろう。トラッカーモジュールは、特に迅速な上下運動について警戒しており、該クラスターの速度および方向を計算するであろう。
【0095】
図7D〜図7Kは、ユーザの第二の指が上方に持ち上がり、次いで下に動いて、該指の末端下にある(仮想)キーを打つときに、得られた一連の画像を示すマトリックステーブルを描写している。好ましくは、トラッカーモジュールによって綿密にモニターされる各クラスターの先端は、クラスターモジュールによって同定されているであろう。実際の画像において、ユーザの他の指は僅かしか動かない可能性があるが、説明している例では、このクラシファイヤは、左人差し指(指2)の加速度が他の指の動きよりも著しく高いことを決定する。
【0096】
図7D〜図7Eにおいては、知覚されたクラスター(例えばユーザの指)の方向および先端を示す矢印が加えられている。クラスターまたは指の動きは、図7D〜7Fでは上方に向いており、図7Fはユーザの指の最大上方位置、例えばセンサ20により取得されたデータによって決定される最大Y軸位置を表している。図7Gから図7Hにおいて、クラスターまたは指が今度は下方、例えば仮想キーボード50即ち作業表面60に向けて動いている。図7Iでは、ユーザの指の仮想キーまたは作業表面上のキー位置との接触が知覚される。
【0097】
指先の垂直方向速度は、ルーチン285(または他のルーチン)によって幾つかの方法で計算することができる。好ましい実施例では、トラッカーモジュールが、指先の最高位置と最低位置との間の差をシーケンスの間に取得したフレームの数で割ることによって、ユーザの指先(クラシファイヤによって同定されたもの)の垂直速度を計算する。この速度は、1秒当りのフレーム速度とは独立したフレームの数によって、Y軸解像度に関して計算される。キー打撃を登録するために、この計算されたY軸速度は閾値速度に等しいか、またはこれよりも高くなければならない。閾値速度はソフトウエア285によって使用されるパラメータであり、好ましくは、個別化段階の際にユーザによって調節可能である。
【0098】
図7J〜図7Oは、より複雑なシーケンスがユーザの左人差し指(指2)の上下方向の運動を示すような、マトリックステーブルを描写している。図7Oでは、この指の運動は、仮想キーボード(またはこのような仮想キー場存在しない場合には装置80の正面の作業表面上の位置)の第1行におけるキー上の、キーストロークにおいて最高点に達するように示されている。
【0099】
次に、「マッパー」モジュールについて見てみると、キーストロークが検出されたことが決定されたときに、トラッカーモジュールがマッパーモジュールの信号を送り、またトラッカーモジュールがクラスター先端のクラスター先端(X,Y,Z)座標を通過させる。マッパーモジュールは、Z軸値を使用して仮想キーボード上の行位置を決定し、またX軸値およびY軸値を使用して当該行内のキーを決定する。例えば図1Aを参照すると、座標(X,Y,Z)位置(7,0,3)は仮想キーボード上の文字「T」を特定する。ここでも、種々のモジュールは好ましくはソフトウエアルーチン285を含むが、その代りに、CPU 285以外の他のCPUによって実行されるルーチンを含む他のルーチンを使用してもよいことが理解される。
【0100】
特許請求の範囲に定義された本発明の主題および精神から逸脱することなく、開示された実施例に改変および変形が加えられてもよい。例えば、所望であれば二以上のセンサを用いて三次元位置情報を取得してもよい。
【図面の簡単な説明】
【図1A】本発明に従って、受動基板キーボードテンプレートと共に使用される三次元センサシステムを示している。
【図1B】本発明に従って、基板キーボードテンプレートを伴わずに使用され得る三次元センサシステムを示している。
【図1C】本発明に従って、仮想キーに接触しているユーザの指を示している、仮想キーボードのコンパニオン装置ディスプレーを描いている。
【図1D】図1Cのディスプレーを描いており、本発明に従って、ユーザが仮想キーボード上で入力した追加のテキストを示している。
【図2A】本発明に従って部分的に折り畳まれた配置の受動基板を示している。
【図2B】本発明に従って部分的に巻回された配置の、異なった文字セットを有する受動基板を示している。
【図3】それを用いて本発明を実施できる、三次元信号処理およびセンサシステムの一実施例を示すブロック図である。
【図4】それを用いて本発明を実施し得る三次元センサシステムで使用できる、関連の光子パルス検出器および高速カウンタを備えた単一画素検出器の一例を示すブロック図である。
【図5】本発明に従うユーザの指の輪郭認識を示している。
【図6】本発明に従った、押された仮想キーの同定における千鳥状キー配置の使用を示している。
【図7A】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7B】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7C】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7D】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7E】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7F】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7G】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7H】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7I】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7J】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7K】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7L】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7M】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7N】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。
【図7O】本発明に従って、ユーザの指位置の同定に使用するために光学的に取得された三次元データから作成した、クラスターマトリックスを示している。

Claims (21)

  1. ユーザが、仮想入力装置を使用してコンパニオンシステムに手動でデータを入力するための方法であって:
    (a)その上でユーザがユーザの指でデータを入力し得る作業表面に対する、少なくとも一つの前記ユーザの指の相対的位置に関する三次元位置情報を捕捉できるセンサを準備する工程と;
    (b)前記センサによって捕捉された情報を処理して、前記ユーザの指が前記作業表面の一部に接触しているかどうかを決定し、もし接触しているならば、その接触の位置を決定する工程と;
    (c)前記コンパニオンシステムに、前記接触の位置に釣合ったデジタル情報を出力する工程とを含む方法。
  2. 請求項1に記載の方法であって、前記センサは、前記センサから前記ユーザの指の表面部分への飛行時間を使用して前記情報を捕捉する方法。
  3. 請求項1に記載の方法であって、工程(a)は、約2:1未満のアスペクト比を有する固体センサを準備することを含む方法。
  4. 請求項1に記載の方法であって、前記ユーザの指は、(i)ユーザの手の指、および(ii)ユーザの指によって制御される針器具(スタイラス)からなる群から選択される方法。
  5. 請求項1に記載の方法であって、前記作業表面は、(i)三次元空間、(ii)物理的に平坦な表面、(iii)基板、(iv)ユーザが視認可能な実際のキーボードの画像を持った基板、(v)ユーザが視認可能な実際のキーボードの画像が投影される基板、(vi)ユーザが視認可能なタイプ打ちガイドが投影される基板、(vii)実際のキーボードのユーザが視認可能な画像を有し、且つ前記ユーザの指で押したときに触覚フィードバックを提供する受動的なキー様領域を含む受動的基板、(viii)使用するために展開したときには少なくとも6インチ×12インチであるが、使用しないときには約6インチ×8インチである基板からなる群から選択される方法。
  6. 請求項1に記載の方法であって、更に、前記方法のユーザに対して、前記ユーザの指の配置をガイドするためのフィードバックを提供することを含み、該フィードバックは、(i)実際のキーボードに対するユーザのタイプ打ちをエミュレートする触覚フィードバック、(ii)前記コンパニオン装置により発生される聴覚フィードバック、(iii)少なくとも一つのキーボードキーの画像を描いた、前記コンパニオン装置上に表示される視覚的フィードバック、(iv)前記コンパニオン装置上に表示された視覚的フィードバックであって、前記指に隣接したキーが前記指に接触したキーから視覚的に識別されるキーボードキーを描いた視覚的フィードバック、および(v)前記ユーザの指により入力されたデータを表す前記コンパニオン装置に表示された視覚的フィードバック、からなる群から選択される少なくとも一つの種類のフィードバックを含む方法。
  7. 請求項1に記載の方法であって、前記データは、(i)英数字文字を表すデジタルコード、(ii)コマンドを表すデジタルコード、(iii)前記ユーザの指によってトレースされる点の位置を表すデジタルコード、からなる群から選択される少なくとも一つの種類のデータを含む方法。
  8. 請求項1に記載の方法であって、前記工程(c)は前記作業表面上における前記ユーザの指の先端部分の空間的位置を決定することを含み、この決定は、(i)前記先端部分の三次元位置、(ii)少なくとも一つの方向での前記先端部分の速度情報、(iii)前記ユーザの指のテンプレートモデルに対する取得された情報のマッチング、(iv)ヒステリシス情報処理、および(v)入力されているデータの言語知識のうちの少なくとも一つを用いて行われる方法。
  9. 請求項1に記載の方法であって、更に、前記ユーザの指の先端部分の三次元位置を実際のキーボード上のキーにマッピングすることと、前記作業表面に存在していた前記キーの何れがタイプ打ちされたかを同定することとを含む方法。
  10. 請求項1に記載の方法であって、前記ユーザの指は前記方法のユーザの手の指を含み、前記センサによってフレームでデータが捕捉され、また前記工程(b)は、連続するフレームで取得されたデータを処理して、少なくとも二つの指の垂直速度成分を含む前記ユーザの手の少なくとも二つの指に関する三次元位置情報を決定することを含む方法。
  11. 請求項1に記載の方法であって、前記コンパニオンシステムは、(i)PDA、(ii)無線電話、(iii)セットトップボックス、(iv)コンピュータ、および(v)入力データを受け入れるように適合された器具、からなる群から選択された少なくとも一つの装置を含む方法。
  12. ユーザによって手動で与えられるデジタル入力を受取るように適合されたコンパニオン装置と共に使用するためのシステムであって:
    ユーザがユーザの指を用いて前記コンパニオン装置にデータを入力できる作業表面に対する、少なくとも一つのユーザの指の相対的位置の三次元位置情報を捕捉できるセンサと;
    前記センサによって捕捉された情報を処理して、前記ユーザの指が前記作業表面の一部に接触したかどうかを決定し、また接触したときには、前記接触の位置を決定するためのプロセッサとを具備し、
    前記プロセッサは、前記接触の位置に釣合ったデジタル情報を前記コンパニオンシステムに出力するシステム。
  13. 請求項12に記載のシステムであって、前記センサは約2:1未満のアスペクト比を有するエネルギー放出装置を使用し、また前記情報は前記センサから前記ユーザの指の表面部分への飛行時間を使用して捕捉されるシステム。
  14. 請求項12に記載のシステムであって、前記ユーザの指は、(i)ユーザの手の指、および(ii)ユーザの手によって制御される針器具からなる群から選択されるシステム。
  15. 請求項12に記載のシステムであって、前記作業表面は、(i)三次元空間、(ii)物理的に平坦な表面、(iii)基板、(iv)ユーザが視認可能な実際のキーボードの画像を持った基板、(v)ユーザが視認可能な実際のキーボードの画像が投影される基板、(vi)ユーザが視認可能なタイプ打ちガイドが投影される基板、(vii)実際のキーボードのユーザが視認可能な画像を有し、且つ前記ユーザの指で押したときに触覚フィードバックを提供する受動的なキー様領域を含む受動的基板、(viii)使用するために展開したときには少なくとも6インチ×12インチであるが、使用しないときには約6インチ×8インチである基板からなる群から選択されるシステム。
  16. 請求項12に記載のシステムであって、前記システムは前記システムのユーザに対して、前記ユーザの指の配置をガイドするフィードバックを与え、該フィードバックは、(i)実際のキーボードに対するユーザのタイプ打ちをエミュレートする触覚フィードバック、(ii)前記コンパニオン装置により発生される聴覚フィードバック、(iii)少なくとも一つのキーボードキーの画像を描いた、前記コンパニオン装置上に表示される視覚的フィードバック、(iv)前記コンパニオン装置上に表示された視覚的フィードバックであって、前記指に隣接したキーが前記指に接触したキーから視覚的に識別されるキーボードキーを描いた視覚的フィードバック、および(v)前記ユーザの指により入力されたデータを表す前記コンパニオン装置に表示された視覚的フィードバック、からなる群から選択される少なくとも一つの種類のフィードバックを含むシステム。
  17. 請求項12に記載のシステムであって、前記データは、(i)英数字文字を表すデジタルコード、(ii)コマンドを表すデジタルコード、(iii)前記ユーザの指によってトレースされる点の位置を表すデジタルコード、からなる群から選択される少なくとも一つの種類のデータを含むシステム。
  18. 請求項12に記載のシステムであって、前記プロセッサは、前記作業表面上における前記ユーザの指の先端部分の空間的位置を決定することを含み、この決定は、(i)前記先端部分の三次元位置、(ii)少なくとも一つの方向での前記先端部分の速度情報、(iii)前記ユーザの指のテンプレートモデルに対する取得された情報のマッチング、(iv)ヒステリシス情報処理、および(v)入力されているデータの言語知識のうちの少なくとも一つを用いて行われるシステム。
  19. 請求項12に記載のシステムであって、前記プロセッサは、前記ユーザの指の先端部分の三次元位置を実際のキーボード上のキーにマッピングし、また前記作業表面に存在していた前記キーの何れがタイプ打ちされたかを同定するシステム。
  20. ユーザが仮想入力装置を用いて手動でデータを入力することを可能にするシステムであって:
    ユーザがユーザの指を用いて前記コンパニオン装置にデータを入力できる作業表面に対する、少なくとも一つのユーザの指の相対的位置の三次元位置情報を捕捉できるセンサと;
    前記センサによって捕捉された情報を処理して、前記ユーザの指が前記作業表面の一部に接触したかどうかを決定し、また接触したときには、前記接触の位置を決定するためのプロセッサと;
    前記プロセッサ〜出力される前記接触の位置に釣合ったデジタル情報を受取るように接続されたコンパニオンシステムとを具備するシステム。
  21. 請求項20に記載のシステムであって、前記ユーザの指は、(i)ユーザの手の指、および(ii)ユーザの手によって制御される針器具からなる群から選択され、また前記作業表面は、(i)三次元空間、(ii)物理的に平坦な表面、(iii)基板、(iv)ユーザが視認可能な実際のキーボードの画像を持った基板、(v)ユーザが視認可能な実際のキーボードの画像が投影される基板、(vi)ユーザが視認可能なタイプ打ちガイドが投影される基板、(vii)実際のキーボードのユーザが視認可能な画像を有し、且つ前記ユーザの指で押したときに触覚フィードバックを提供する受動的なキー様領域を含む受動的基板、(viii)使用するために展開したときには少なくとも6インチ×12インチであるが、使用しないときには約6インチ×8インチである基板からなる群から選択されるシステム。
JP2001559183A 2000-02-11 2001-02-12 仮想入力装置を用いたデータ入力方法および装置 Pending JP2004500657A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/502,499 US6614422B1 (en) 1999-11-04 2000-02-11 Method and apparatus for entering data using a virtual input device
PCT/US2001/040090 WO2001059975A2 (en) 2000-02-11 2001-02-12 Method and apparatus for entering data using a virtual input device

Publications (2)

Publication Number Publication Date
JP2004500657A true JP2004500657A (ja) 2004-01-08
JP2004500657A5 JP2004500657A5 (ja) 2005-01-20

Family

ID=23998118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001559183A Pending JP2004500657A (ja) 2000-02-11 2001-02-12 仮想入力装置を用いたデータ入力方法および装置

Country Status (10)

Country Link
US (2) US6614422B1 (ja)
EP (1) EP1332488B1 (ja)
JP (1) JP2004500657A (ja)
KR (1) KR100811015B1 (ja)
CN (1) CN1232943C (ja)
AT (1) ATE481674T1 (ja)
AU (1) AU2001261818A1 (ja)
DE (1) DE60143094D1 (ja)
HK (1) HK1058425A1 (ja)
WO (1) WO2001059975A2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008004331A1 (fr) * 2006-07-06 2008-01-10 Sony Computer Entertainment Inc. Procédé et dispositif d'émission vocale, liés à des images
JP2008287714A (ja) * 2007-05-21 2008-11-27 Korea Advanced Inst Of Science & Technol バイオレーダーと勾配センサーを使用した文字入力装置
JP2011081586A (ja) * 2009-10-07 2011-04-21 Seiko Epson Corp 位置検出機能付き投射型表示装置
JP2011513873A (ja) * 2008-03-12 2011-04-28 エーティーラブ・インコーポレーテッド 接触センサ装置及びその装置のポインティング座標決定方法
JP2011086029A (ja) * 2009-10-14 2011-04-28 Seiko Epson Corp 位置検出機能付き投射型表示装置
JP4846871B1 (ja) * 2010-10-28 2011-12-28 善博 和田 キー入力装置、それを備える携帯端末および携帯端末を入力装置として機能させるためのプログラム
WO2012124730A1 (ja) * 2011-03-15 2012-09-20 株式会社ニコン 検出装置、入力装置、プロジェクタ、及び電子機器
JP2013143082A (ja) * 2012-01-12 2013-07-22 Fujitsu Ltd 指位置検出装置、指位置検出方法及び指位置検出用コンピュータプログラム
JP2013195246A (ja) * 2012-03-19 2013-09-30 Fujitsu Ltd 測距装置及び入力装置
JP2013218395A (ja) * 2012-04-05 2013-10-24 Sony Corp 情報処理装置、プログラム及び情報処理方法
JP2014157515A (ja) * 2013-02-15 2014-08-28 Konica Minolta Inc タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
JP2014203323A (ja) * 2013-04-08 2014-10-27 船井電機株式会社 空間入力装置
JPWO2013069447A1 (ja) * 2011-11-08 2015-04-02 ソニー株式会社 センサ装置、解析装置および記憶媒体
JP2015153353A (ja) * 2014-02-19 2015-08-24 パイオニア株式会社 情報処理装置及び方法、並びにコンピュータプログラム
JP2017037583A (ja) * 2015-08-14 2017-02-16 レノボ・シンガポール・プライベート・リミテッド コンピュータの入力システム
JP2017107606A (ja) * 2017-03-15 2017-06-15 船井電機株式会社 空間入力装置
JP2017522633A (ja) * 2014-05-15 2017-08-10 フェデラル エクスプレス コーポレイション 配達処理のためのウェアラブル・デバイスおよびその使用方法

Families Citing this family (589)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7831358B2 (en) * 1992-05-05 2010-11-09 Automotive Technologies International, Inc. Arrangement and method for obtaining information using phase difference of modulated illumination
US7808479B1 (en) * 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US7268774B2 (en) * 1998-08-18 2007-09-11 Candledragon, Inc. Tracking motion of a writing instrument
US20100008551A9 (en) * 1998-08-18 2010-01-14 Ilya Schiller Using handwritten information
US7233321B1 (en) 1998-12-15 2007-06-19 Intel Corporation Pointing device with integrated audio input
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US7106888B1 (en) * 1999-05-25 2006-09-12 Silverbrook Research Pty Ltd Signature capture via interface surface
US20030132950A1 (en) * 2001-11-27 2003-07-17 Fahri Surucu Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains
US20080122799A1 (en) * 2001-02-22 2008-05-29 Pryor Timothy R Human interfaces for vehicles, homes, and other applications
US6611252B1 (en) * 2000-05-17 2003-08-26 Dufaux Douglas P. Virtual data input device
JP2003535405A (ja) * 2000-05-29 2003-11-25 ブイケービー インコーポレイティド 文字・数字及び他のデータを入力する仮想データ入力装置及び方法
NO20003006L (no) * 2000-06-09 2001-12-10 Idex Asa Mus
US6803906B1 (en) * 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6906793B2 (en) * 2000-12-11 2005-06-14 Canesta, Inc. Methods and devices for charge management for three-dimensional sensing
US20020061217A1 (en) * 2000-11-17 2002-05-23 Robert Hillman Electronic input device
US6690354B2 (en) * 2000-11-19 2004-02-10 Canesta, Inc. Method for enhancing performance in a system utilizing an array of sensors that sense at least two-dimensions
FI113094B (fi) * 2000-12-15 2004-02-27 Nokia Corp Parannettu menetelmä ja järjestely toiminnon aikaansaamiseksi elektronisessa laitteessa ja elektroninen laite
CA2433791A1 (en) 2001-01-08 2002-07-11 Vkb Inc. A data input device
US6943774B2 (en) * 2001-04-02 2005-09-13 Matsushita Electric Industrial Co., Ltd. Portable communication terminal, information display device, control input device and control input method
US6968073B1 (en) 2001-04-24 2005-11-22 Automotive Systems Laboratory, Inc. Occupant detection system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US6904570B2 (en) * 2001-06-07 2005-06-07 Synaptics, Inc. Method and apparatus for controlling a display of data on a display screen
US6727891B2 (en) * 2001-07-03 2004-04-27 Netmor, Ltd. Input device for personal digital assistants
US8339379B2 (en) * 2004-04-29 2012-12-25 Neonode Inc. Light-based touch screen
JP2003152851A (ja) * 2001-11-14 2003-05-23 Nec Corp 携帯端末装置
US7257255B2 (en) * 2001-11-21 2007-08-14 Candledragon, Inc. Capturing hand motion
JP2003233805A (ja) * 2001-12-04 2003-08-22 Canon Inc 画像入力装置
WO2003054683A2 (en) * 2001-12-07 2003-07-03 Canesta Inc. User interface for electronic devices
KR20030050741A (ko) * 2001-12-19 2003-06-25 삼성전자주식회사 화면 크기와 입력키의 수가 제한되는 휴대용 기기에서의빠르고 간편한 캐릭터 입력 방법 및 이를 이용하는 휴대용기기
US7071924B2 (en) * 2002-01-10 2006-07-04 International Business Machines Corporation User input method and apparatus for handheld computers
US6977643B2 (en) * 2002-01-10 2005-12-20 International Business Machines Corporation System and method implementing non-physical pointers for computer devices
US10242255B2 (en) 2002-02-15 2019-03-26 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
US7340077B2 (en) * 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
GB2386346B (en) * 2002-03-12 2005-06-15 Eleksen Ltd Flexible foldable keyboard
US20030197685A1 (en) * 2002-04-23 2003-10-23 Leland Yi Wireless keyboard with a built-in web camera
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) * 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
US20030226968A1 (en) * 2002-06-10 2003-12-11 Steve Montellese Apparatus and method for inputting data
WO2004003656A2 (en) * 2002-06-26 2004-01-08 Vkb Inc. Multifunctional integrated image sensor and application to virtual interface technology
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP3630153B2 (ja) * 2002-07-19 2005-03-16 ソニー株式会社 情報表示入力装置及び情報表示入力方法、並びに情報処理装置
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US6922187B2 (en) * 2002-07-23 2005-07-26 International Business Machines Corporation Method and apparatus for implementing a compact portable computer system
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
US20040041716A1 (en) * 2002-08-29 2004-03-04 Compx International Inc. Virtual keyboard and keyboard support arm assembly
US20040041828A1 (en) * 2002-08-30 2004-03-04 Zellhoefer Jon William Adaptive non-contact computer user-interface system and method
US7526120B2 (en) * 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
US20040066500A1 (en) * 2002-10-02 2004-04-08 Gokturk Salih Burak Occupancy detection and measurement system and method
US20040075735A1 (en) * 2002-10-17 2004-04-22 Koninklijke Philips Electronics N.V. Method and system for producing a pseudo three-dimensional display utilizing a two-dimensional display device
US6999008B2 (en) * 2002-10-21 2006-02-14 Actisys, Corporation Universal mobile keyboard
US7133031B2 (en) * 2002-10-31 2006-11-07 Microsoft Corporation Optical system design for a universal computing device
US7009594B2 (en) * 2002-10-31 2006-03-07 Microsoft Corporation Universal computing device
US7133563B2 (en) * 2002-10-31 2006-11-07 Microsoft Corporation Passive embedded interaction code
US8896575B2 (en) * 2002-11-04 2014-11-25 Neonode Inc. Pressure-sensitive touch screen
US7337410B2 (en) * 2002-11-06 2008-02-26 Julius Lin Virtual workstation
US7774075B2 (en) * 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US20040113956A1 (en) * 2002-12-12 2004-06-17 International Business Machines Corporation Apparatus and method for providing feedback regarding finger placement relative to an input device
US7576727B2 (en) * 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US20040119690A1 (en) * 2002-12-24 2004-06-24 Watters Scott W. System and method to interact remotely with an application displayed on a display device
US7102617B2 (en) * 2002-12-30 2006-09-05 Motorola, Inc. Compact optical pointing apparatus and method
TW594549B (en) * 2002-12-31 2004-06-21 Ind Tech Res Inst Device and method for generating virtual keyboard/display
US7194699B2 (en) * 2003-01-14 2007-03-20 Microsoft Corporation Animating images to reflect user selection
EP1590714B1 (de) * 2003-02-03 2007-10-17 Siemens Aktiengesellschaft Projektion von synthetischer information
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7886236B2 (en) * 2003-03-28 2011-02-08 Microsoft Corporation Dynamic feedback for gestures
US7176438B2 (en) * 2003-04-11 2007-02-13 Canesta, Inc. Method and system to differentially enhance sensor dynamic range using enhanced common mode reset
US6919549B2 (en) * 2003-04-11 2005-07-19 Canesta, Inc. Method and system to differentially enhance sensor dynamic range
US7382360B2 (en) * 2003-04-15 2008-06-03 Synaptics Incorporated Methods and systems for changing the appearance of a position sensor with a light effect
KR100682885B1 (ko) * 2003-04-23 2007-02-15 삼성전자주식회사 공간형 정보 입력 장치 및 방법, 이를 위한 소프트 키매핑 방법 및 그에 따른 가상 키보드
US7054045B2 (en) * 2003-07-03 2006-05-30 Holotouch, Inc. Holographic human-machine interfaces
US7173605B2 (en) * 2003-07-18 2007-02-06 International Business Machines Corporation Method and apparatus for providing projected user interface for computing device
US7581182B1 (en) * 2003-07-18 2009-08-25 Nvidia Corporation Apparatus, method, and 3D graphical user interface for media centers
US8217896B2 (en) * 2003-07-31 2012-07-10 Kye Systems Corporation Computer input device for automatically scrolling
US8487915B1 (en) 2003-09-11 2013-07-16 Luidia Inc. Mobile device incorporating projector and pen-location transcription system
US7382356B2 (en) * 2003-09-15 2008-06-03 Sharper Image Corp. Input unit for games and musical keyboards
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
EP1670216B1 (en) * 2003-09-18 2012-01-25 Vodafone Group PLC Information communication terminal
US7439074B2 (en) * 2003-09-30 2008-10-21 Hoa Duc Nguyen Method of analysis of alcohol by mass spectrometry
DE602004016185D1 (de) * 2003-10-03 2008-10-09 Automotive Systems Lab Insassenerfassungssystem
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US20050088407A1 (en) * 2003-10-24 2005-04-28 Matthew Bell Method and system for managing an interactive video display system
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
KR20060111472A (ko) * 2003-10-31 2006-10-27 브이케이비 인코포레이티드 가상 인터페이스 투사 및 검출을 위한 광학 장치
US20050148432A1 (en) * 2003-11-03 2005-07-07 Carmein David E.E. Combined omni-directional treadmill and electronic perception technology
US20050096985A1 (en) * 2003-11-04 2005-05-05 Werden Todd C. Business system and method for a virtual point of sale system in a retail store
JP4611667B2 (ja) * 2003-11-25 2011-01-12 健爾 西 情報入力器、収納装置、情報入力装置、及び情報処理装置
TWI227462B (en) * 2003-12-16 2005-02-01 Ind Tech Res Inst Projector device with virtual input element image
US20050141752A1 (en) * 2003-12-31 2005-06-30 France Telecom, S.A. Dynamically modifiable keyboard-style interface
US8225226B2 (en) * 2003-12-31 2012-07-17 Abb Research Ltd. Virtual control panel
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
WO2005065034A2 (en) * 2004-01-05 2005-07-21 Dikla Hasson System and method for improving typing skills
US7583842B2 (en) * 2004-01-06 2009-09-01 Microsoft Corporation Enhanced approach of m-array decoding and error correction
US20070159453A1 (en) * 2004-01-15 2007-07-12 Mikio Inoue Mobile communication terminal
US7263224B2 (en) * 2004-01-16 2007-08-28 Microsoft Corporation Strokes localization by m-array decoding and fast image matching
US7755608B2 (en) * 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
US8139141B2 (en) * 2004-01-28 2012-03-20 Microsoft Corporation Single chip red, green, blue, distance (RGB-Z) sensor
US7212109B2 (en) * 2004-02-13 2007-05-01 Ge Medical Systems Global Technology Company, Llc Hygienic input device for medical information systems
JP4522113B2 (ja) 2004-03-11 2010-08-11 キヤノン株式会社 座標入力装置
JP4429047B2 (ja) * 2004-03-11 2010-03-10 キヤノン株式会社 座標入力装置及びその制御方法、プログラム
WO2005091651A2 (en) * 2004-03-18 2005-09-29 Reactrix Systems, Inc. Interactive video display system
JP2005267424A (ja) * 2004-03-19 2005-09-29 Fujitsu Ltd データ入力装置、情報処理装置、データ入力方法、データ入力プログラム
JP4475634B2 (ja) * 2004-03-26 2010-06-09 キヤノン株式会社 情報処理装置および方法
US7379562B2 (en) * 2004-03-31 2008-05-27 Microsoft Corporation Determining connectedness and offset of 3D objects relative to an interactive surface
US20050227217A1 (en) * 2004-03-31 2005-10-13 Wilson Andrew D Template matching on interactive surface
JP2005293473A (ja) * 2004-04-05 2005-10-20 Yokogawa Electric Corp 電子機器
US20050225473A1 (en) * 2004-04-08 2005-10-13 Alex Hill Infrared emission sensor
US7706638B1 (en) 2004-04-26 2010-04-27 National Semiconductor Corporation System, apparatus and method for color machine vision with black and white photoelectric sensor
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
RU2366113C2 (ru) * 2004-05-14 2009-08-27 Нокиа Корпорейшн Конфигурирование функциональных клавиш
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US20050273201A1 (en) * 2004-06-06 2005-12-08 Zukowski Deborra J Method and system for deployment of sensors
US7787706B2 (en) 2004-06-14 2010-08-31 Microsoft Corporation Method for controlling an intensity of an infrared source used to detect objects adjacent to an interactive display surface
US7515135B2 (en) * 2004-06-15 2009-04-07 Research In Motion Limited Virtual keypad for touchscreen display
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
KR100636483B1 (ko) 2004-06-25 2006-10-18 삼성에스디아이 주식회사 트랜지스터와 그의 제조방법 및 발광 표시장치
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US20070046643A1 (en) * 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7719523B2 (en) 2004-08-06 2010-05-18 Touchtable, Inc. Bounding box gesture recognition on a touch detecting interactive display
US7724242B2 (en) * 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US20060036947A1 (en) * 2004-08-10 2006-02-16 Jelley Kevin W User interface controller method and apparatus for a handheld electronic device
US20060050062A1 (en) * 2004-08-19 2006-03-09 Masanori Ozawa Input device
US7576725B2 (en) * 2004-10-19 2009-08-18 Microsoft Corporation Using clear-coded, see-through objects to manipulate virtual objects
KR100663515B1 (ko) * 2004-11-08 2007-01-02 삼성전자주식회사 휴대 단말 장치 및 이를 위한 데이터 입력 방법
US20060101504A1 (en) * 2004-11-09 2006-05-11 Veveo.Tv, Inc. Method and system for performing searches for television content and channels using a non-intrusive television interface and with reduced text input
WO2006053011A2 (en) * 2004-11-09 2006-05-18 Veveo, Inc. Method and system for secure sharing, gifting, and purchasing of content on television and mobile devices
US20070266406A1 (en) * 2004-11-09 2007-11-15 Murali Aravamudan Method and system for performing actions using a non-intrusive television with reduced text input
US7895218B2 (en) * 2004-11-09 2011-02-22 Veveo, Inc. Method and system for performing searches for television content using reduced text input
DE102005061211B4 (de) 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
US7467075B2 (en) * 2004-12-23 2008-12-16 Covidien Ag Three-dimensional finite-element code for electrosurgery and thermal ablation simulations
US20130128118A1 (en) * 2004-12-23 2013-05-23 Kuo-Ching Chiang Smart TV with Multiple Sub-Display Windows and the Method of the Same
US20060152482A1 (en) 2005-01-07 2006-07-13 Chauncy Godwin Virtual interface and control device
US7796116B2 (en) 2005-01-12 2010-09-14 Thinkoptics, Inc. Electronic equipment for handheld vision based absolute pointing system
CN100410857C (zh) * 2005-01-27 2008-08-13 时代光电科技股份有限公司 资料输入装置
US7539513B2 (en) * 2005-02-02 2009-05-26 National Telephone Products, Inc. Portable phone with ergonomic image projection system
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
US9760214B2 (en) * 2005-02-23 2017-09-12 Zienon, Llc Method and apparatus for data entry input
CN101142617B (zh) * 2005-02-23 2012-06-20 杰龙公司 数据输入方法和装置
WO2006090386A2 (en) * 2005-02-24 2006-08-31 Vkb Inc. A virtual keyboard device
US7826074B1 (en) 2005-02-25 2010-11-02 Microsoft Corporation Fast embedded interaction code printing with custom postscript commands
US20060192763A1 (en) * 2005-02-25 2006-08-31 Ziemkowski Theodore B Sound-based virtual keyboard, device and method
US20060215913A1 (en) * 2005-03-24 2006-09-28 Microsoft Corporation Maze pattern analysis with image matching
JP4612853B2 (ja) * 2005-03-29 2011-01-12 キヤノン株式会社 指示位置認識装置及びそれを有する情報入力装置
CN100367159C (zh) * 2005-04-04 2008-02-06 技嘉科技股份有限公司 虚拟键盘
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US20060242562A1 (en) * 2005-04-22 2006-10-26 Microsoft Corporation Embedded method for embedded interaction code array
US7421439B2 (en) 2005-04-22 2008-09-02 Microsoft Corporation Global metadata embedding and decoding
US7499027B2 (en) * 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
US20060244720A1 (en) * 2005-04-29 2006-11-02 Tracy James L Collapsible projection assembly
WO2006117736A1 (en) * 2005-05-04 2006-11-09 Koninklijke Philips Electronics, N.V. System and method for projecting control graphics
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US7729539B2 (en) * 2005-05-31 2010-06-01 Microsoft Corporation Fast error-correcting of embedded interaction codes
US7580576B2 (en) * 2005-06-02 2009-08-25 Microsoft Corporation Stroke localization and binding to electronic document
US20060279532A1 (en) * 2005-06-14 2006-12-14 Olszewski Piotr S Data input device controlled by motions of hands and fingers
US7525538B2 (en) * 2005-06-28 2009-04-28 Microsoft Corporation Using same optics to image, illuminate, and project
US8122034B2 (en) 2005-06-30 2012-02-21 Veveo, Inc. Method and system for incremental search with reduced text entry where the relevance of results is a dynamically computed function of user input search string character count
US20070008293A1 (en) * 2005-07-06 2007-01-11 International Business Machines Corporation Touch sensitive device and display
US20070019103A1 (en) * 2005-07-25 2007-01-25 Vkb Inc. Optical apparatus for virtual interface projection and sensing
US20070019099A1 (en) * 2005-07-25 2007-01-25 Vkb Inc. Optical apparatus for virtual interface projection and sensing
TW200708064A (en) * 2005-08-03 2007-02-16 Elan Microelectronics Corp Sensor array device of handheld image moving tracking sensor
US7817816B2 (en) * 2005-08-17 2010-10-19 Microsoft Corporation Embedded interaction code enabled surface type identification
US7779011B2 (en) * 2005-08-26 2010-08-17 Veveo, Inc. Method and system for dynamically processing ambiguous, reduced text search queries and highlighting results thereof
US7788266B2 (en) * 2005-08-26 2010-08-31 Veveo, Inc. Method and system for processing ambiguous, multi-term search queries
WO2007025119A2 (en) * 2005-08-26 2007-03-01 Veveo, Inc. User interface for visual cooperation between text input and display device
US7911444B2 (en) * 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US20070063979A1 (en) * 2005-09-19 2007-03-22 Available For Licensing Systems and methods to provide input/output for a portable data processing device
US20070063982A1 (en) * 2005-09-19 2007-03-22 Tran Bao Q Integrated rendering of sound and image on a display
KR100631779B1 (ko) * 2005-10-07 2006-10-11 삼성전자주식회사 데이터 입력 장치 및 상기 장치를 이용한 데이터 입력 감지방법
US20070114277A1 (en) * 2005-11-21 2007-05-24 International Business Machines Corporation Apparatus and method for commercial transactions
US7644054B2 (en) * 2005-11-23 2010-01-05 Veveo, Inc. System and method for finding desired results by incremental search using an ambiguous keypad with the input containing orthographic and typographic errors
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US8279168B2 (en) * 2005-12-09 2012-10-02 Edge 3 Technologies Llc Three-dimensional virtual-touch human-machine interface system and method therefor
KR101286412B1 (ko) * 2005-12-29 2013-07-18 삼성전자주식회사 다중기능 가상 사용자 입력 장치 및 방법
US8060840B2 (en) 2005-12-29 2011-11-15 Microsoft Corporation Orientation free user interface
US20070260703A1 (en) * 2006-01-27 2007-11-08 Sankar Ardhanari Methods and systems for transmission of subsequences of incremental query actions and selection of content items based on later received subsequences
KR20080106265A (ko) * 2006-02-16 2008-12-04 에프티케이 테크놀로지스 리미티드 컴퓨팅 시스템에 데이터를 입력하는 시스템 및 방법
US7515143B2 (en) * 2006-02-28 2009-04-07 Microsoft Corporation Uniform illumination of interactive display panel
US8380726B2 (en) * 2006-03-06 2013-02-19 Veveo, Inc. Methods and systems for selecting and presenting content based on a comparison of preference signatures from multiple users
FR2898315B1 (fr) * 2006-03-08 2009-02-20 Peugeot Citroen Automobiles Sa Interface de commande d'un equipement fixe ou nomade de vehicule, avec utilisation d'un clavier virtuel
US8614669B2 (en) * 2006-03-13 2013-12-24 Navisense Touchless tablet method and system thereof
US8334841B2 (en) * 2006-03-13 2012-12-18 Navisense Virtual user interface method and system thereof
US8578282B2 (en) * 2006-03-15 2013-11-05 Navisense Visual toolkit for a virtual user interface
US7777728B2 (en) * 2006-03-17 2010-08-17 Nokia Corporation Mobile communication terminal
US8073860B2 (en) 2006-03-30 2011-12-06 Veveo, Inc. Method and system for incrementally selecting and providing relevant search engines in response to a user query
US10048860B2 (en) 2006-04-06 2018-08-14 Google Technology Holdings LLC Method and apparatus for user interface adaptation
EP3822819A1 (en) 2006-04-20 2021-05-19 Veveo, Inc. User interface methods and systems for selecting and presenting content based on user navigation and selection actions associated with the content
US9152241B2 (en) * 2006-04-28 2015-10-06 Zienon, Llc Method and apparatus for efficient data input
KR100756521B1 (ko) 2006-05-03 2007-09-10 포텍마이크로시스템(주) 유아 교육용 프로젝션 키보드 시스템 및 이를 이용한 키입력 방법
US7755026B2 (en) * 2006-05-04 2010-07-13 CandleDragon Inc. Generating signals representative of sensed light that is associated with writing being done by a user
US20080018598A1 (en) * 2006-05-16 2008-01-24 Marsden Randal J Hands-free computer access for medical and dentistry applications
US7492445B1 (en) * 2006-06-05 2009-02-17 Cypress Semiconductor Corporation Method and apparatus for robust velocity prediction
US7830368B2 (en) 2006-06-06 2010-11-09 3M Innovative Properties Company Keypad with virtual image
WO2007144014A1 (en) * 2006-06-15 2007-12-21 Nokia Corporation Mobile device with virtual keypad
US20150121287A1 (en) * 2006-07-03 2015-04-30 Yoram Ben-Meir System for generating and controlling a variably displayable mobile device keypad/virtual keyboard
US7728816B2 (en) * 2006-07-10 2010-06-01 Cypress Semiconductor Corporation Optical navigation sensor with variable tracking resolution
US8913003B2 (en) * 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US8316324B2 (en) * 2006-09-05 2012-11-20 Navisense Method and apparatus for touchless control of a device
US8037414B2 (en) 2006-09-14 2011-10-11 Avaya Inc. Audible computer user interface method and apparatus
CA2989780C (en) * 2006-09-14 2022-08-09 Veveo, Inc. Methods and systems for dynamically rearranging search results into hierarchically organized concept clusters
US20080176201A1 (en) * 2006-09-20 2008-07-24 Technologies Humanware Canada Inc. User interface for an audio book player
TWI333624B (en) * 2006-09-27 2010-11-21 Chia Hoang Lee A virtual input device and the input method thereof
US7925986B2 (en) 2006-10-06 2011-04-12 Veveo, Inc. Methods and systems for a linear character selection display interface for ambiguous text input
WO2008063987A2 (en) 2006-11-13 2008-05-29 Veveo, Inc. Method of and system for selecting and presenting content based on user identification
US20080114615A1 (en) * 2006-11-15 2008-05-15 General Electric Company Methods and systems for gesture-based healthcare application interaction in thin-air display
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
EP1937032B1 (en) * 2006-12-20 2020-11-04 Electrolux Home Products Corporation N.V. Household appliance
KR100796779B1 (ko) 2007-01-02 2008-01-22 주식회사 셀런 무선입력장치의 다차원 공간맵핑을 통한 스캔 데이터송수신 방법 및 이를 위한 무선입력장치
US20080166175A1 (en) * 2007-01-05 2008-07-10 Candledragon, Inc. Holding and Using an Electronic Pen and Paper
CN100456219C (zh) * 2007-01-19 2009-01-28 崔永浩 借助物理传感方式令按键多重复用的键盘及其实现方法
US8212857B2 (en) 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US20080252596A1 (en) * 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
EP2135155B1 (en) 2007-04-11 2013-09-18 Next Holdings, Inc. Touch screen system with hover and click input methods
US7895518B2 (en) * 2007-04-27 2011-02-22 Shapewriter Inc. System and method for preview and selection of words
US9176598B2 (en) 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
KR100913962B1 (ko) * 2007-05-14 2009-08-26 삼성전자주식회사 이동통신 단말기의 문자 입력 방법 및 장치
CN101311881A (zh) * 2007-05-25 2008-11-26 佛山市顺德区顺达电脑厂有限公司 电子装置的辅助输入方法
US20080313574A1 (en) * 2007-05-25 2008-12-18 Veveo, Inc. System and method for search with reduced physical interaction requirements
US8549424B2 (en) * 2007-05-25 2013-10-01 Veveo, Inc. System and method for text disambiguation and context designation in incremental search
US8296294B2 (en) 2007-05-25 2012-10-23 Veveo, Inc. Method and system for unified searching across and within multiple documents
TWI334023B (en) * 2007-06-21 2010-12-01 Coretronic Corp Optical sensing module and display device using the same
US8246456B2 (en) * 2007-06-22 2012-08-21 Wms Gaming Inc. Wagering game machine with virtual input device
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
US20090048707A1 (en) 2007-08-15 2009-02-19 Deline Jonathan E Fuel dispenser
US8432377B2 (en) 2007-08-30 2013-04-30 Next Holdings Limited Optical touchscreen with improved illumination
WO2009029764A1 (en) 2007-08-30 2009-03-05 Next Holdings, Inc. Low profile touch panel systems
WO2009035705A1 (en) 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
US9001016B2 (en) * 2007-09-19 2015-04-07 Nvidia Corporation Hardware driven display restore mechanism
US9110624B2 (en) 2007-09-21 2015-08-18 Nvdia Corporation Output restoration with input selection
US20090083035A1 (en) * 2007-09-25 2009-03-26 Ritchie Winson Huang Text pre-processing for text-to-speech generation
US8010895B2 (en) * 2007-10-24 2011-08-30 E-Lead Electronic Co., Ltd. Method for correcting typing errors according to character layout positions on a keyboard
WO2009059479A1 (en) * 2007-11-07 2009-05-14 Pohsien Chiu Input devices with virtual input interfaces
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
CN101452354B (zh) * 2007-12-04 2012-08-22 纬创资通股份有限公司 电子装置的输入方法、内容显示方法及其应用
KR101352994B1 (ko) * 2007-12-10 2014-01-21 삼성전자 주식회사 적응형 온 스크린 키보드 제공 장치 및 그 제공 방법
KR101079598B1 (ko) * 2007-12-18 2011-11-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
TWI357518B (en) * 2007-12-21 2012-02-01 Coretronic Corp Display screen and sensor module thereof
US8138896B2 (en) 2007-12-31 2012-03-20 Apple Inc. Tactile feedback in an electronic device
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
WO2009099296A2 (en) * 2008-02-05 2009-08-13 Lg Electronics Inc. Virtual optical input device for providing various types of interfaces and method of controlling the same
WO2009099280A2 (en) * 2008-02-05 2009-08-13 Lg Electronics Inc. Input unit and control method thereof
JP4626658B2 (ja) * 2008-02-14 2011-02-09 ソニー株式会社 表示装置、撮像装置および位置検出装置
WO2009107935A2 (en) * 2008-02-28 2009-09-03 Lg Electronics Inc. Virtual optical input device with feedback and method of controlling the same
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8358277B2 (en) 2008-03-18 2013-01-22 Microsoft Corporation Virtual keyboard based activation and dismissal
EP2103751A1 (de) * 2008-03-19 2009-09-23 BrainLAB AG Einbaueinheit für Anzeigevorrichtungen
CN101266520B (zh) * 2008-04-18 2013-03-27 上海触乐信息科技有限公司 一种可实现灵活键盘布局的系统
KR100969681B1 (ko) * 2008-05-02 2010-07-14 주식회사 그린벨임베디드시스템 키보드 인식방법
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US20090289188A1 (en) * 2008-05-20 2009-11-26 Everspring Industry Co., Ltd. Method for controlling an electronic device through infrared detection
WO2009148210A1 (en) * 2008-06-02 2009-12-10 Lg Electronics Inc. Virtual optical input unit and control method thereof
US8595218B2 (en) * 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US8820939B2 (en) 2008-06-17 2014-09-02 The Invention Science Fund I, Llc Projection associated methods and systems
US8723787B2 (en) 2008-06-17 2014-05-13 The Invention Science Fund I, Llc Methods and systems related to an image capture projection surface
US8540381B2 (en) 2008-06-17 2013-09-24 The Invention Science Fund I, Llc Systems and methods for receiving information associated with projecting
US8308304B2 (en) 2008-06-17 2012-11-13 The Invention Science Fund I, Llc Systems associated with receiving and transmitting information related to projection
US8384005B2 (en) 2008-06-17 2013-02-26 The Invention Science Fund I, Llc Systems and methods for selectively projecting information in response to at least one specified motion associated with pressure applied to at least one projection surface
US8733952B2 (en) 2008-06-17 2014-05-27 The Invention Science Fund I, Llc Methods and systems for coordinated use of two or more user responsive projectors
US8608321B2 (en) 2008-06-17 2013-12-17 The Invention Science Fund I, Llc Systems and methods for projecting in response to conformation
US8376558B2 (en) 2008-06-17 2013-02-19 The Invention Science Fund I, Llc Systems and methods for projecting in response to position change of a projection surface
US20090310038A1 (en) 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Projection in response to position
US8944608B2 (en) 2008-06-17 2015-02-03 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US8267526B2 (en) 2008-06-17 2012-09-18 The Invention Science Fund I, Llc Methods associated with receiving and transmitting information related to projection
US8936367B2 (en) 2008-06-17 2015-01-20 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US8641203B2 (en) 2008-06-17 2014-02-04 The Invention Science Fund I, Llc Methods and systems for receiving and transmitting signals between server and projector apparatuses
US20090309826A1 (en) 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and devices
JP5015072B2 (ja) * 2008-06-18 2012-08-29 株式会社リコー 入力装置及び画像形成装置
US8068641B1 (en) 2008-06-19 2011-11-29 Qualcomm Incorporated Interaction interface for controlling an application
US9152258B2 (en) * 2008-06-19 2015-10-06 Neonode Inc. User interface for a touch screen
US7777899B1 (en) * 2008-06-19 2010-08-17 Gesturetek, Inc. Interaction interface for controlling an application
US8106749B2 (en) * 2008-07-14 2012-01-31 Sony Ericsson Mobile Communications Ab Touchless control of a control device
US8165881B2 (en) * 2008-08-29 2012-04-24 Honda Motor Co., Ltd. System and method for variable text-to-speech with minimized distraction to operator of an automotive vehicle
US20100057465A1 (en) * 2008-09-03 2010-03-04 David Michael Kirsch Variable text-to-speech for automotive application
US8228345B2 (en) * 2008-09-24 2012-07-24 International Business Machines Corporation Hand image feedback method and system
CN101685342B (zh) * 2008-09-26 2012-01-25 联想(北京)有限公司 一种动态虚拟键盘的实现方法及装置
US8750938B2 (en) 2008-09-29 2014-06-10 Microsoft Corporation Glow touch feedback for virtual input devices
US8427424B2 (en) 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
US8133119B2 (en) 2008-10-01 2012-03-13 Microsoft Corporation Adaptation for alternate gaming input devices
US20100177035A1 (en) * 2008-10-10 2010-07-15 Schowengerdt Brian T Mobile Computing Device With A Virtual Keyboard
KR100967356B1 (ko) * 2008-10-14 2010-07-05 고려대학교 산학협력단 3차원 손 모델 생성 기술을 이용한 가상 입력 방법 및 장치
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US20110212774A1 (en) * 2008-11-14 2011-09-01 Karl Wudtke Terminal including a button and button having projected images and method
US8503932B2 (en) * 2008-11-14 2013-08-06 Sony Mobile Comminications AB Portable communication device and remote motion input device
EP2189884A1 (fr) * 2008-11-18 2010-05-26 Gemalto SA Clavier virtuel projeté et sécurisé
US8423916B2 (en) * 2008-11-20 2013-04-16 Canon Kabushiki Kaisha Information processing apparatus, processing method thereof, and computer-readable storage medium
US20100134409A1 (en) * 2008-11-30 2010-06-03 Lenovo (Singapore) Pte. Ltd. Three-dimensional user interface
GB2466023A (en) * 2008-12-08 2010-06-09 Light Blue Optics Ltd Holographic Image Projection Systems
TWI470478B (zh) * 2008-12-26 2015-01-21 Inventec Appliances Corp 電子裝置之虛擬鍵盤結構及其資料輸入方法
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8140970B2 (en) * 2009-02-23 2012-03-20 International Business Machines Corporation System and method for semi-transparent display of hands over a keyboard in real-time
JP5201015B2 (ja) * 2009-03-09 2013-06-05 ブラザー工業株式会社 ヘッドマウントディスプレイ
WO2010103482A2 (en) * 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US20100251176A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Virtual keyboard with slider buttons
US20100251161A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Virtual keyboard with staggered keys
US8375311B2 (en) * 2009-03-24 2013-02-12 Disney Enterprises, Inc. System and method for determining placement of a virtual object according to a real-time performance
US20110256927A1 (en) 2009-03-25 2011-10-20 MEP Games Inc. Projection of interactive game environment
US20110165923A1 (en) 2010-01-04 2011-07-07 Davis Mark L Electronic circle game system
US9971458B2 (en) 2009-03-25 2018-05-15 Mep Tech, Inc. Projection of interactive environment
TWI507945B (zh) 2009-03-27 2015-11-11 Tpk Touch Solutions Inc 觸控裝置及其光源結構
CN201444297U (zh) 2009-03-27 2010-04-28 宸鸿光电科技股份有限公司 触控装置、其激光光源组及其激光光源结构
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8416193B2 (en) * 2009-05-21 2013-04-09 Microsoft Corporation Method of visualizing an input location
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
CN104808821A (zh) * 2009-05-26 2015-07-29 美国智能科技有限公司 数据输入方法及装置
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8176442B2 (en) 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8145594B2 (en) 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8803889B2 (en) 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US7914344B2 (en) 2009-06-03 2011-03-29 Microsoft Corporation Dual-barrel, connector jack and plug assemblies
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
WO2011011024A1 (en) * 2009-07-23 2011-01-27 Hewlett-Packard Development Company, L.P. Display with an optical sensor
US9274547B2 (en) 2009-07-23 2016-03-01 Hewlett-Packard Development Compamy, L.P. Display with an optical sensor
JP5127792B2 (ja) 2009-08-18 2013-01-23 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記録媒体
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
DE202009005253U1 (de) 2009-09-09 2010-01-07 Tpk Touch Solutions Inc. Berührungsvorrichtung, Laserquellenmodul und Laserquellenstruktur
US9166714B2 (en) 2009-09-11 2015-10-20 Veveo, Inc. Method of and system for presenting enriched video viewing analytics
US9122393B2 (en) * 2009-09-30 2015-09-01 At&T Mobility Ii Llc Predictive sensitized keypad
US9128610B2 (en) * 2009-09-30 2015-09-08 At&T Mobility Ii Llc Virtual predictive keypad
US8810516B2 (en) * 2009-09-30 2014-08-19 At&T Mobility Ii Llc Angular sensitized keypad
US8816965B2 (en) * 2009-09-30 2014-08-26 At&T Mobility Ii Llc Predictive force sensitive keypad
US20110074692A1 (en) * 2009-09-30 2011-03-31 At&T Mobility Ii Llc Devices and Methods for Conforming a Virtual Keyboard
US8812972B2 (en) * 2009-09-30 2014-08-19 At&T Intellectual Property I, L.P. Dynamic generation of soft keyboards for mobile devices
KR101081476B1 (ko) 2009-10-14 2011-11-08 건국대학교 산학협력단 햅틱 u테이블
US20110126094A1 (en) * 2009-11-24 2011-05-26 Horodezky Samuel J Method of modifying commands on a touch screen user interface
JP5506375B2 (ja) * 2009-12-25 2014-05-28 キヤノン株式会社 情報処理装置及びその制御方法
JP5005758B2 (ja) * 2009-12-25 2012-08-22 株式会社ホンダアクセス 自動車における車載機器の操作装置
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
US20110191330A1 (en) 2010-02-04 2011-08-04 Veveo, Inc. Method of and System for Enhanced Content Discovery Based on Network and Device Access Behavior
US20110191516A1 (en) * 2010-02-04 2011-08-04 True Xiong Universal touch-screen remote controller
US8730309B2 (en) * 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
JP5499762B2 (ja) * 2010-02-24 2014-05-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び画像処理システム
US9665278B2 (en) * 2010-02-26 2017-05-30 Microsoft Technology Licensing, Llc Assisting input from a keyboard
EP2363055A1 (en) 2010-03-01 2011-09-07 Electrolux Home Products Corporation N.V. Projector and household appliance comprising such a projector
GB2479858A (en) * 2010-03-23 2011-11-02 Secretpc Ltd Projector with virtual keyboard
US8818027B2 (en) * 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
TWI423096B (zh) * 2010-04-01 2014-01-11 Compal Communication Inc 具可觸控投影畫面之投影系統
US9529523B2 (en) 2010-04-23 2016-12-27 Handscape Inc. Method using a finger above a touchpad for controlling a computerized system
US9639195B2 (en) 2010-04-23 2017-05-02 Handscape Inc. Method using finger force upon a touchpad for controlling a computerized system
US9678662B2 (en) 2010-04-23 2017-06-13 Handscape Inc. Method for detecting user gestures from alternative touchpads of a handheld computerized device
US8384683B2 (en) * 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
US9542032B2 (en) 2010-04-23 2017-01-10 Handscape Inc. Method using a predicted finger location above a touchpad for controlling a computerized system
US9891820B2 (en) 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a virtual keyboard from a touchpad of a computerized device
US9311724B2 (en) 2010-04-23 2016-04-12 Handscape Inc. Method for user input from alternative touchpads of a handheld computerized device
US9310905B2 (en) 2010-04-23 2016-04-12 Handscape Inc. Detachable back mounted touchpad for a handheld computerized device
US9891821B2 (en) 2010-04-23 2018-02-13 Handscape Inc. Method for controlling a control region of a computerized device from a touchpad
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US20110285651A1 (en) * 2010-05-24 2011-11-24 Will John Temple Multidirectional button, key, and keyboard
CN102959616B (zh) 2010-07-20 2015-06-10 苹果公司 自然交互的交互真实性增强
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
US8918734B2 (en) 2010-07-28 2014-12-23 Nuance Communications, Inc. Reduced keyboard with prediction solutions when input is a partial sliding trajectory
US8449118B2 (en) 2010-08-13 2013-05-28 T-Mobile Usa, Inc. Device-adjacent ambiently displayed image
US8451192B2 (en) 2010-08-13 2013-05-28 T-Mobile Usa, Inc. Utilization of interactive device-adjacent ambiently displayed images
JP5601083B2 (ja) * 2010-08-16 2014-10-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US20120059647A1 (en) * 2010-09-08 2012-03-08 International Business Machines Corporation Touchless Texting Exercise
US20120062518A1 (en) * 2010-09-09 2012-03-15 Light Blue Optics Ltd Touch Sensing Systems
US8577915B2 (en) 2010-09-10 2013-11-05 Veveo, Inc. Method of and system for conducting personalized federated search and presentation of results therefrom
US8959013B2 (en) * 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
CN103221912A (zh) * 2010-10-05 2013-07-24 惠普发展公司,有限责任合伙企业 输入命令
KR101044320B1 (ko) * 2010-10-14 2011-06-29 주식회사 네오패드 가상 키입력수단의 배경화면 컨텐츠 제공 방법 및 시스템
US20130275907A1 (en) * 2010-10-14 2013-10-17 University of Technology ,Sydney Virtual keyboard
WO2012052069A1 (en) * 2010-10-22 2012-04-26 Sony Ericsson Mobile Communications Ab Mobile communication device with three-dimensional sensing and a method therefore
CN102467298A (zh) * 2010-11-18 2012-05-23 西安龙飞软件有限公司 一种虚拟手机键盘的实现方式
KR101189869B1 (ko) * 2010-11-25 2012-10-10 최진원 단축키 지원 키보드
US9019239B2 (en) * 2010-11-29 2015-04-28 Northrop Grumman Systems Corporation Creative design systems and methods
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8839134B2 (en) * 2010-12-24 2014-09-16 Intel Corporation Projection interface techniques
EP2659339A1 (en) * 2010-12-30 2013-11-06 Danmarks Tekniske Universitet Input device with three-dimensional image display
KR101816721B1 (ko) * 2011-01-18 2018-01-10 삼성전자주식회사 센싱 모듈, gui 제어 장치 및 방법
WO2012107892A2 (en) 2011-02-09 2012-08-16 Primesense Ltd. Gaze detection in a 3d mapping environment
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US9329469B2 (en) 2011-02-17 2016-05-03 Microsoft Technology Licensing, Llc Providing an interactive experience using a 3D depth camera and a 3D projector
US9480907B2 (en) 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US9035940B2 (en) * 2011-03-08 2015-05-19 Nokia Corporation Apparatus and associated methods
US8963883B2 (en) 2011-03-17 2015-02-24 Symbol Technologies, Inc. Touchless interactive display system
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
CN102693066B (zh) * 2011-03-25 2015-05-27 国基电子(上海)有限公司 触控式电子装置及其虚拟键盘操作方法
US8928589B2 (en) * 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
AU2011242487B2 (en) * 2011-05-16 2015-12-03 Handscape Inc., A Delaware Corporation Method for user input from the back panel of a handheld computerized device
TW201248452A (en) * 2011-05-30 2012-12-01 Era Optoelectronics Inc Floating virtual image touch sensing apparatus
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
JP5914992B2 (ja) * 2011-06-02 2016-05-11 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP5880916B2 (ja) 2011-06-03 2016-03-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
GB201110156D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch-sensitive display devices
GB201110157D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices
GB201110159D0 (en) 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch sensitive display devices
EP2725458B1 (en) * 2011-06-23 2016-06-15 Fujitsu Limited Information processing device, input control method, and input control program
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9448724B2 (en) * 2011-07-11 2016-09-20 International Business Machines Corporation Dynamically customizable touch screen keyboard for adapting to user physiology
US20140189569A1 (en) * 2011-07-18 2014-07-03 Syntellia, Inc. User interface for text input on three dimensional interface
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US20130063366A1 (en) 2011-09-13 2013-03-14 Google Inc. User inputs of a touch-sensitive device
US20130249821A1 (en) * 2011-09-27 2013-09-26 The Board of Trustees of the Leland Stanford, Junior, University Method and System for Virtual Keyboard
GB201117542D0 (en) 2011-10-11 2011-11-23 Light Blue Optics Ltd Touch-sensitive display devices
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
CN103176592B (zh) * 2011-12-22 2015-09-30 光宝科技股份有限公司 虚拟投影输入系统及其输入检测方法
WO2013108032A1 (en) 2012-01-20 2013-07-25 Light Blue Optics Limited Touch sensitive image display devices
WO2013108031A2 (en) 2012-01-20 2013-07-25 Light Blue Optics Limited Touch sensitive image display devices
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
KR101953165B1 (ko) 2012-02-24 2019-05-22 토마스 제이. 모스카릴로 제스처 인식 디바이스들 및 방법들
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
CN104246682B (zh) * 2012-03-26 2017-08-25 苹果公司 增强的虚拟触摸板和触摸屏
GB201205303D0 (en) 2012-03-26 2012-05-09 Light Blue Optics Ltd Touch sensing systems
US8928590B1 (en) 2012-04-03 2015-01-06 Edge 3 Technologies, Inc. Gesture keyboard method and apparatus
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
GB201206121D0 (en) 2012-04-05 2012-05-16 Bryant Jacklyn Apparatus and method for aiding the learning of a skill
US8850349B2 (en) 2012-04-06 2014-09-30 Google Inc. Smart user-customized graphical keyboard
KR20130115750A (ko) * 2012-04-13 2013-10-22 포항공과대학교 산학협력단 가상 키보드 상의 키 입력을 인식하는 방법 및 그 장치
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US9069168B2 (en) * 2012-05-04 2015-06-30 Yong Yan Means for setting separation walls with predetermined heights and shapes on keypads to prevent unintended key hits
US9122395B2 (en) * 2012-05-29 2015-09-01 Garett Engle Method of capturing system input by relative finger positioning
WO2013183938A1 (ko) * 2012-06-08 2013-12-12 주식회사 케이엠티글로벌 공간상의 위치인식을 통한 사용자인터페이스 방법 및 장치
CN102778951B (zh) * 2012-06-15 2016-02-10 惠州华阳通用电子有限公司 使用虚拟按键的输入设备及输入方法
JP5962249B2 (ja) * 2012-06-21 2016-08-03 富士通株式会社 文字入力プログラム、情報処理装置および文字入力方法
US8934675B2 (en) * 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
DE102012013503B4 (de) * 2012-07-06 2014-10-09 Audi Ag Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
US9317109B2 (en) 2012-07-12 2016-04-19 Mep Tech, Inc. Interactive image projection accessory
US9305229B2 (en) 2012-07-30 2016-04-05 Bruno Delean Method and system for vision based interfacing with a computer
KR101385263B1 (ko) * 2012-08-23 2014-04-16 주식회사 셀루온 가상 키보드를 위한 시스템 및 방법
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
TWI472954B (zh) * 2012-10-09 2015-02-11 Cho Yi Lin 可承載通訊電子裝置之可攜式電子輸入裝置及其系統
CN103729132B (zh) * 2012-10-15 2017-09-29 联想(北京)有限公司 一种字符输入方法、装置、虚拟键盘及电子设备
KR20140055173A (ko) 2012-10-30 2014-05-09 삼성전자주식회사 입력 장치 및 그의 입력 제어 방법
US10824297B2 (en) 2012-11-26 2020-11-03 Google Llc System for and method of accessing and selecting emoticons, content, and mood messages during chat sessions
JP2014109876A (ja) * 2012-11-30 2014-06-12 Toshiba Corp 情報処理装置、情報処理方法及びプログラム
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
DE102013000072A1 (de) * 2013-01-08 2014-07-10 Audi Ag Bedienschnittstelle für eine handschriftliche Zeicheneingabe in ein Gerät
EP2946272A4 (en) 2013-01-21 2016-11-02 Keypoint Technologies India Pvt Ltd TEXT ENTRY SYSTEM AND METHOD
IN2013CH00469A (ja) 2013-01-21 2015-07-31 Keypoint Technologies India Pvt Ltd
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
JP2014170149A (ja) * 2013-03-05 2014-09-18 Funai Electric Co Ltd プロジェクタ
JP6037900B2 (ja) * 2013-03-11 2016-12-07 日立マクセル株式会社 操作検出装置及び操作検出方法
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
JP6171502B2 (ja) * 2013-04-04 2017-08-02 船井電機株式会社 プロジェクタおよびプロジェクタ機能を有する電子機器
US20140354602A1 (en) * 2013-04-12 2014-12-04 Impression.Pi, Inc. Interactive input system and method
US9323338B2 (en) 2013-04-12 2016-04-26 Usens, Inc. Interactive input system and method
WO2014176370A2 (en) 2013-04-23 2014-10-30 Handscape Inc. Method for user input from alternative touchpads of a computerized system
KR101411569B1 (ko) 2013-06-05 2014-06-27 고려대학교 산학협력단 가상 키보드를 이용한 정보 처리 장치 및 방법
US10533850B2 (en) 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US9778546B2 (en) 2013-08-15 2017-10-03 Mep Tech, Inc. Projector for projecting visible and non-visible images
CN104423578B (zh) * 2013-08-25 2019-08-06 杭州凌感科技有限公司 交互式输入系统和方法
US10168897B2 (en) 2013-08-30 2019-01-01 Hewlett-Packard Development Company, L.P. Touch input association
CN103558948A (zh) * 2013-10-31 2014-02-05 中山大学 一种应用在虚拟光学键盘人机交互方法
KR102206053B1 (ko) * 2013-11-18 2021-01-21 삼성전자주식회사 입력 도구에 따라 입력 모드를 변경하는 전자 장치 및 방법
US9857971B2 (en) * 2013-12-02 2018-01-02 Industrial Technology Research Institute System and method for receiving user input and program storage medium thereof
US9529465B2 (en) 2013-12-02 2016-12-27 At&T Intellectual Property I, L.P. Secure interaction with input devices
CN103631382A (zh) * 2013-12-20 2014-03-12 大连大学 一种激光投影虚拟键盘
KR101483605B1 (ko) * 2014-01-03 2015-01-16 주식회사 큐브전자 빔프로젝터를 갖는 태블릿컴퓨터
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN104866070A (zh) * 2014-02-20 2015-08-26 联想(北京)有限公司 信息处理的方法及电子设备
CN103809756B (zh) * 2014-02-24 2018-08-31 联想(北京)有限公司 一种信息处理方法及电子设备
CN103793061B (zh) * 2014-03-03 2017-01-11 联想(北京)有限公司 一种控制方法及电子设备
FR3020480A1 (fr) * 2014-04-24 2015-10-30 Vincent Donnet Dispositif et procede interface de controle d'un terminal de communication
CN104049772B (zh) * 2014-05-30 2017-11-07 北京搜狗科技发展有限公司 一种输入方法、装置和系统
US9766806B2 (en) 2014-07-15 2017-09-19 Microsoft Technology Licensing, Llc Holographic keyboard display
CN105451052B (zh) * 2014-08-28 2018-08-03 鸿富锦精密工业(深圳)有限公司 虚拟键盘建立方法及系统
CN105468209A (zh) * 2014-09-25 2016-04-06 硕擎科技股份有限公司 输入设备的虚拟二维定位模块及虚拟输入设备
CN107077221A (zh) * 2014-09-29 2017-08-18 惠普发展公司有限责任合伙企业 虚拟键盘
US9733048B2 (en) 2015-01-06 2017-08-15 Egismos Technology Corporation Shooting training and game system with virtual target
KR102345911B1 (ko) 2015-01-16 2022-01-03 삼성전자주식회사 가상 입력 장치 및 이를 이용한 사용자 입력 수신 방법
JP2016162162A (ja) * 2015-03-02 2016-09-05 株式会社リコー 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム及び接触検出方法
KR101873842B1 (ko) * 2015-03-11 2018-07-04 한양대학교 산학협력단 깊이 센서를 이용하는 가상 입력 장치 및 이를 이용하는 방법
US9804718B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Context based peripheral management for interacting with an information handling system
US11106314B2 (en) 2015-04-21 2021-08-31 Dell Products L.P. Continuous calibration of an information handling system projected user interface
US9791979B2 (en) * 2015-04-21 2017-10-17 Dell Products L.P. Managing inputs at an information handling system by adaptive infrared illumination and detection
US9983717B2 (en) * 2015-04-21 2018-05-29 Dell Products L.P. Disambiguation of false touch inputs at an information handling system projected user interface
US11243640B2 (en) 2015-04-21 2022-02-08 Dell Products L.P. Information handling system modular capacitive mat with extension coupling devices
US9690400B2 (en) 2015-04-21 2017-06-27 Dell Products L.P. Information handling system interactive totems
US9720550B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Adaptable input active zones at an information handling system projected user interface
US10139854B2 (en) 2015-04-21 2018-11-27 Dell Products L.P. Dynamic display resolution management for an immersed information handling system environment
US9921644B2 (en) 2015-04-21 2018-03-20 Dell Products L.P. Information handling system non-linear user interface
US9753591B2 (en) 2015-04-21 2017-09-05 Dell Products L.P. Capacitive mat information handling system display and totem interactions
US9720446B2 (en) 2015-04-21 2017-08-01 Dell Products L.P. Information handling system projected work space calibration
US9804733B2 (en) 2015-04-21 2017-10-31 Dell Products L.P. Dynamic cursor focus in a multi-display information handling system environment
CN104881135B (zh) * 2015-05-28 2018-07-03 联想(北京)有限公司 一种信息处理方法及电子设备
CN104951073B (zh) * 2015-06-19 2017-03-29 济南大学 一种基于虚拟界面的手势交互方法
US9971457B2 (en) 2015-06-26 2018-05-15 Intel Corporation Audio augmentation of touch detection for surfaces
CN106325488B (zh) * 2015-07-09 2019-07-09 北京搜狗科技发展有限公司 一种输入方法、输入装置、服务器和输入系统
IL244777A0 (en) * 2015-07-26 2016-07-31 Hagar Shema A device and method for studying people
US11241216B2 (en) * 2015-09-09 2022-02-08 Canon Medical Systems Corporation Method of controlling portable information terminal and medical diagnostic imaging apparatus
JP6753049B2 (ja) * 2015-10-09 2020-09-09 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法。
US9898809B2 (en) * 2015-11-10 2018-02-20 Nanjing University Systems, methods and techniques for inputting text into mobile devices using a camera-based keyboard
US20170161903A1 (en) * 2015-12-03 2017-06-08 Calay Venture S.á r.l. Method and apparatus for gesture recognition
US20170160818A1 (en) * 2015-12-04 2017-06-08 Synerdyne Corporation Reprogramable multi-host, multi-character set keyboard
US10166995B2 (en) * 2016-01-08 2019-01-01 Ford Global Technologies, Llc System and method for feature activation via gesture recognition and voice command
WO2017151476A1 (en) * 2016-02-29 2017-09-08 Lampix Method and apparatus for providing user interfaces with computerized systems and interacting with a virtual environment
CN205540572U (zh) * 2016-03-08 2016-08-31 硕擎科技股份有限公司 供搭配手机使用的虚拟输入设备
TWI695307B (zh) * 2016-04-29 2020-06-01 姚秉洋 螢幕鍵盤之顯示方法及其電腦程式產品與非暫態電腦可讀取媒體
USD795349S1 (en) 2016-05-24 2017-08-22 Tangible Play, Inc. Programming tile
USD795348S1 (en) * 2016-05-24 2017-08-22 Tangible Play, Inc. Programming tile
USD811485S1 (en) * 2016-05-24 2018-02-27 Tangible Play, Inc. Programming tile
USD812143S1 (en) * 2016-05-24 2018-03-06 Tangible Play, Inc. Programming tile
USD811486S1 (en) * 2016-05-24 2018-02-27 Tangible Play, Inc. Programming tile
US10146337B2 (en) * 2016-09-15 2018-12-04 Samsung Electronics Co., Ltd. Digital handwriting device and method of using the same
US10139973B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system totem tracking management
US10146366B2 (en) 2016-11-09 2018-12-04 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10139951B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system variable capacitance totem input management
US10139930B2 (en) 2016-11-09 2018-11-27 Dell Products L.P. Information handling system capacitive touch totem management
US10496216B2 (en) 2016-11-09 2019-12-03 Dell Products L.P. Information handling system capacitive touch totem with optical communication support
US10499039B2 (en) 2016-12-15 2019-12-03 Egismos Technology Corporation Path detection system and path detection method generating laser pattern by diffractive optical element
US20180267615A1 (en) * 2017-03-20 2018-09-20 Daqri, Llc Gesture-based graphical keyboard for computing devices
CN110832441B (zh) * 2017-05-19 2023-12-26 奇跃公司 用于虚拟、增强和混合现实显示系统的键盘
FR3075425A1 (fr) * 2017-12-14 2019-06-21 Societe Bic Appareil pour application de realite augmentee
US11460911B2 (en) 2018-01-11 2022-10-04 Steelseries Aps Method and apparatus for virtualizing a computer accessory
CN108196730A (zh) * 2018-01-18 2018-06-22 安徽三弟电子科技有限责任公司 一种多功能的激光虚拟键盘系统
KR102163825B1 (ko) * 2018-02-24 2020-10-13 링크플로우 주식회사 사용자 장치의 사용자 인터페이스 구현 방법 및 이러한 방법을 수행하는 장치
US10459528B2 (en) 2018-02-28 2019-10-29 Dell Products L.P. Information handling system enhanced gesture management, control and detection
TWI650677B (zh) * 2018-03-08 2019-02-11 三竹資訊股份有限公司 顯示動態虛擬鍵盤之方法及其電腦程式產品
WO2019169644A1 (zh) * 2018-03-09 2019-09-12 彼乐智慧科技(北京)有限公司 一种信号输入的方法及装置
CN108646910A (zh) * 2018-03-20 2018-10-12 重庆邮电大学 一种基于深度图像的三维动态手指文本输入系统及方法
US10719173B2 (en) * 2018-04-04 2020-07-21 Facebook Technologies, Llc Transcribing augmented reality keyboard input based on hand poses for improved typing accuracy
US11188154B2 (en) * 2018-05-30 2021-11-30 International Business Machines Corporation Context dependent projection of holographic objects
KR102076350B1 (ko) * 2018-06-12 2020-02-11 박행운 가상 데이터 입력 화면을 이용한 오디오 데이터 입출력 장치 및 이의 실행 방법
US10635199B2 (en) 2018-06-28 2020-04-28 Dell Products L.P. Information handling system dynamic friction touch device for touchscreen interactions
US10817077B2 (en) 2018-06-28 2020-10-27 Dell Products, L.P. Information handling system touch device context aware input tracking
US10664101B2 (en) 2018-06-28 2020-05-26 Dell Products L.P. Information handling system touch device false touch detection and mitigation
US10852853B2 (en) 2018-06-28 2020-12-01 Dell Products L.P. Information handling system touch device with visually interactive region
US10761618B2 (en) 2018-06-28 2020-09-01 Dell Products L.P. Information handling system touch device with automatically orienting visual display
US10795502B2 (en) 2018-06-28 2020-10-06 Dell Products L.P. Information handling system touch device with adaptive haptic response
US10976820B2 (en) * 2018-07-12 2021-04-13 Microsoft Technology Licensing, Llc Natural interactions with virtual objects and data through touch
CN109144332B (zh) * 2018-10-12 2024-02-06 中国计量大学 移动电子设备及其便携式键盘和智能感知输入法
US10902250B2 (en) * 2018-12-21 2021-01-26 Microsoft Technology Licensing, Llc Mode-changeable augmented reality interface
CN109480904A (zh) * 2018-12-25 2019-03-19 无锡祥生医疗科技股份有限公司 一种超声成像方法、装置及系统
KR102269466B1 (ko) * 2019-05-21 2021-06-28 이진우 동작 인식 기반의 문자 입력 방법 및 그 장치
US10924639B2 (en) 2019-05-29 2021-02-16 Disney Enterprises, Inc. System and method for polarization and wavelength gated transparent displays
US11392290B2 (en) 2020-06-26 2022-07-19 Intel Corporation Touch control surfaces for electronic user devices and related methods
CN112684916A (zh) * 2021-01-12 2021-04-20 维沃移动通信有限公司 信息输入方法、装置及电子设备
CN115033170A (zh) * 2022-05-20 2022-09-09 阿里巴巴(中国)有限公司 一种基于虚拟键盘的输入控制系统、方法及相关装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US5174759A (en) * 1988-08-04 1992-12-29 Preston Frank S TV animation interactively controlled by the viewer through input above a book page
US5198877A (en) 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
US5168531A (en) * 1991-06-27 1992-12-01 Digital Equipment Corporation Real-time recognition of pointing information from video
DE69204045T2 (de) * 1992-02-07 1996-04-18 Ibm Verfahren und Vorrichtung zum optischen Eingang von Befehlen oder Daten.
JP3419050B2 (ja) * 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5969698A (en) * 1993-11-29 1999-10-19 Motorola, Inc. Manually controllable cursor and control panel in a virtual image
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US6281878B1 (en) * 1994-11-01 2001-08-28 Stephen V. R. Montellese Apparatus and method for inputing data
US6229913B1 (en) * 1995-06-07 2001-05-08 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two-images due to defocus
DE19539955A1 (de) * 1995-10-26 1997-04-30 Sick Ag Optische Erfassungseinrichtung
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
AU2123297A (en) * 1996-02-12 1997-08-28 Golf Age Technologies Golf driving range distancing apparatus and methods
WO1998009270A1 (en) * 1996-08-28 1998-03-05 Via, Inc. Touch screen systems and methods
US6252598B1 (en) * 1997-07-03 2001-06-26 Lucent Technologies Inc. Video hand image computer interface
US6115128A (en) * 1997-09-17 2000-09-05 The Regents Of The Univerity Of California Multi-dimensional position sensor using range detectors
US6037882A (en) * 1997-09-30 2000-03-14 Levy; David H. Method and apparatus for inputting data to an electronic system
US6043805A (en) * 1998-03-24 2000-03-28 Hsieh; Kuan-Hong Controlling method for inputting messages to a computer
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US6266048B1 (en) * 1998-08-27 2001-07-24 Hewlett-Packard Company Method and apparatus for a virtual display/keyboard for a PDA
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6512838B1 (en) * 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US6678039B2 (en) * 2001-05-23 2004-01-13 Canesta, Inc. Method and system to enhance dynamic range conversion useable with CMOS three-dimensional imaging

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008004331A1 (fr) * 2006-07-06 2008-01-10 Sony Computer Entertainment Inc. Procédé et dispositif d'émission vocale, liés à des images
US8113953B2 (en) 2006-07-06 2012-02-14 Sony Computer Entertainment Inc. Image-linked sound output method and device
JP2008287714A (ja) * 2007-05-21 2008-11-27 Korea Advanced Inst Of Science & Technol バイオレーダーと勾配センサーを使用した文字入力装置
JP2011513873A (ja) * 2008-03-12 2011-04-28 エーティーラブ・インコーポレーテッド 接触センサ装置及びその装置のポインティング座標決定方法
JP2011081586A (ja) * 2009-10-07 2011-04-21 Seiko Epson Corp 位置検出機能付き投射型表示装置
JP2011086029A (ja) * 2009-10-14 2011-04-28 Seiko Epson Corp 位置検出機能付き投射型表示装置
JP4846871B1 (ja) * 2010-10-28 2011-12-28 善博 和田 キー入力装置、それを備える携帯端末および携帯端末を入力装置として機能させるためのプログラム
WO2012056864A1 (ja) * 2010-10-28 2012-05-03 Wada Yoshihiro 入力装置、当該入力装置を備えた情報機器、コンピュータを入力装置として機能させるためのプログラム、および入力装置を用いて文字を入力するための方法
WO2012124730A1 (ja) * 2011-03-15 2012-09-20 株式会社ニコン 検出装置、入力装置、プロジェクタ、及び電子機器
JPWO2013069447A1 (ja) * 2011-11-08 2015-04-02 ソニー株式会社 センサ装置、解析装置および記憶媒体
JP2013143082A (ja) * 2012-01-12 2013-07-22 Fujitsu Ltd 指位置検出装置、指位置検出方法及び指位置検出用コンピュータプログラム
JP2013195246A (ja) * 2012-03-19 2013-09-30 Fujitsu Ltd 測距装置及び入力装置
JP2013218395A (ja) * 2012-04-05 2013-10-24 Sony Corp 情報処理装置、プログラム及び情報処理方法
JP2014157515A (ja) * 2013-02-15 2014-08-28 Konica Minolta Inc タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
JP2014203323A (ja) * 2013-04-08 2014-10-27 船井電機株式会社 空間入力装置
JP2015153353A (ja) * 2014-02-19 2015-08-24 パイオニア株式会社 情報処理装置及び方法、並びにコンピュータプログラム
JP2017522633A (ja) * 2014-05-15 2017-08-10 フェデラル エクスプレス コーポレイション 配達処理のためのウェアラブル・デバイスおよびその使用方法
JP2017037583A (ja) * 2015-08-14 2017-02-16 レノボ・シンガポール・プライベート・リミテッド コンピュータの入力システム
JP2017107606A (ja) * 2017-03-15 2017-06-15 船井電機株式会社 空間入力装置

Also Published As

Publication number Publication date
CN1439151A (zh) 2003-08-27
DE60143094D1 (de) 2010-10-28
ATE481674T1 (de) 2010-10-15
KR100811015B1 (ko) 2008-03-11
WO2001059975A2 (en) 2001-08-16
AU2001261818A1 (en) 2001-08-20
EP1332488A2 (en) 2003-08-06
WO2001059975A3 (en) 2002-01-31
EP1332488A4 (en) 2006-06-14
CN1232943C (zh) 2005-12-21
EP1332488B1 (en) 2010-09-15
KR20020079847A (ko) 2002-10-19
US6614422B1 (en) 2003-09-02
US20040046744A1 (en) 2004-03-11
HK1058425A1 (en) 2004-05-14

Similar Documents

Publication Publication Date Title
US6614422B1 (en) Method and apparatus for entering data using a virtual input device
US11755137B2 (en) Gesture recognition devices and methods
US11093086B2 (en) Method and apparatus for data entry input
US6512838B1 (en) Methods for enhancing performance and data acquired from three-dimensional image systems
US10209881B2 (en) Extending the free fingers typing technology and introducing the finger taps language technology
US8022928B2 (en) Free-space pointing and handwriting
US5900863A (en) Method and apparatus for controlling computer without touching input device
KR102335132B1 (ko) 하나의 단일 감지 시스템을 이용하는 멀티 모드 제스처 기반의 상호작용 시스템 및 방법
US20060028457A1 (en) Stylus-Based Computer Input System
JP3529510B2 (ja) 情報入力装置および情報入力装置の制御方法
GB2470654A (en) Data input on a virtual device using a set of objects.
US20160092031A1 (en) Virtual two-dimensional positioning module of input device and virtual device with the same
US20120206353A1 (en) Hybrid pointing device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060306

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070305

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070730