JP5166008B2 - テキストを入力する装置 - Google Patents

テキストを入力する装置 Download PDF

Info

Publication number
JP5166008B2
JP5166008B2 JP2007311928A JP2007311928A JP5166008B2 JP 5166008 B2 JP5166008 B2 JP 5166008B2 JP 2007311928 A JP2007311928 A JP 2007311928A JP 2007311928 A JP2007311928 A JP 2007311928A JP 5166008 B2 JP5166008 B2 JP 5166008B2
Authority
JP
Japan
Prior art keywords
finger
sequence
trigger events
character
stroke
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007311928A
Other languages
English (en)
Other versions
JP2008146645A (ja
Inventor
ダブリュー ニューマン マーク
パートリッジ カート
ベゴール ジェームズ
リー スンギョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Palo Alto Research Center Inc
Original Assignee
Palo Alto Research Center Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Palo Alto Research Center Inc filed Critical Palo Alto Research Center Inc
Publication of JP2008146645A publication Critical patent/JP2008146645A/ja
Application granted granted Critical
Publication of JP5166008B2 publication Critical patent/JP5166008B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、電子装置にテキストを入力する技術に関する。具体的には、本発明は、シーケンシャル・タップ(順次叩く動作)を使用してテキストを入力する方法および装置に関する。
可搬型、いわゆるモバイル電子装置は、日常生活の重要な一部になるにつれて、コンピュータ使用環境の拡張を推進しており、その結果「ノマディック・ライフ(遊牧生活)」の概念が出現している。このようなノマディック・ライフを営む人は、タスク(作業)が絶えず中断されかつ異なるタスク同士が互いを中断するマルチタスキング状況に直面することが多い。このマルチタスキング状況では、テキスト入力に対する要求が変化し、かつユーザの環境(たとえば、リビング・ルームのソファ、車内、空港の待合室、歩道、またはオフィスの廊下)、ユーザの同時並行的な活動(たとえば、歩行、対話、読書、自動車の運転、自転車の運転、TV視聴、食事、または幼児を抱っこすること)、およびテキスト入力の目的(たとえば、書き写し、覚書、約束、連絡情報、注意書き、運転目的地などの用途入力、SMSなどの通信、またはeメール)に依存する。これらの因子の組み合わせのそれぞれは、テキスト入力装置に対する異なる要求を示唆している。いくつかの状況では、”ツウィドラ(Twiddler)”(米国特許第5267181号明細書)などの片手持ち装置が有用であり、他の場合には、電話での「マルチタップ(複数回叩くこと)」または予測テキスト入力で十分である。
このようなテキスト入力装置を選択するのに使用される基準は、「情況適切性(contextual appropriateness)」によって決定することができる。情況適切性の最も重要な部分では、ドーリッシュ(Dourish)が生態学的な視点から述べたように、人間の認知は、神経現象に限られるのではなく、人間、行動、環境を含む複合体内に位置する(Dourish, P., Where the Action Is, MIT Press, 2001を参照されたい。)。したがって、モバイルテキスト入力システムを選択して使用するための情況適切性には、ユーザが押しつけと感じることなしに、あるタスクを別のタスクに切り替えるのを可能にする短い装置取得時間、効率的なテキスト入力、経験および動作をあまり要求しないこと、ならびに形状因子が含まれる。
装置取得タスクは、多くのモバイルテキスト入力システムにおいて、満足できるものとなっていない。ボタン・ベースのモバイルテキスト入力装置を取り扱うための典型的な操作では通常、「掴む−押す−放す」のような一連の動作が行われる。言い換えれば、装置は、カバンまたはポケットに携帯されるかまたは携帯されるものの適切な表面上に取り付けられることが多い。前アクションとして、ユーザは、装置を「掴んで」各指に対する装置上のボタンの位置を調整する必要がある。装置に文字を入力する際、ユーザは正しい位置/ボタンを「押さなければ」ならない。最後に、ユーザが装置を最初の位置に戻すことを要求する「放す」という後アクションが主アクションの後で行われる。
形状因子は、モバイル装置のユーザにとって重要なもう1つの情況適切性因子である。装置の小型化は、携帯装置に搭載された最新技術を携帯または着用する人に有用である。しかし、装置の小型化と人間の物理的制約との適切な兼ね合せの決定は複雑である。一方では、小さくて薄い形状因子を有する装置は、優先順位が装置の携帯性である消費者にとって魅力的である。他方では、特に、1本の指に複数のボタンが割り当てられるインタフェースを使用する際、装置を制御するボタンが小さすぎるかまたはボタンが多すぎてユーザが装置を適切に制御できないため、ユーザは苦労することがある。アコット(Accot)およびザイ(Zhai)は、装置のサイズおよび移動スケールが入力制御品質に影響を与え、かつ小さな移動スケールの性能限界が運動精度によって制限される傾向があると述べている( J. Accot and S. Zhai, Scale Effects in Sterring Law Tasks, Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, ACM Press, 2001)。この結果は、装置内の物理的にスケーリング可能なシステムとは異なり、限られた運動精度公差内で装置を制御する人体のスケールが一定であることに基づく結果である。したがって、装置小型化の限界は、技術的制約ではなく人体の物理的制約によって決定される傾向がある。
情況適切性の必要条件を満たす多くのテキスト入力機構が提案されており、各機構はそれ自体の速度およびエラー特性を有する。本明細書では、片方の手しか必要としない技術に注目する。というのは、非デスクトップ環境では、他方の手は、ある物品の保持や運転のような他の作業で占有されることがあるからである。しかし、たいていの既存の解決策は、誤って押すのを無くすのに十分な程度に大きくしなければならないが、装置を小型化し指をすべてのボタンに容易に届かせるようにするために全体として小さな空間を占有しなければならないボタンのアレイを含む。このような制約のために、望ましい方法よりも低速でより不満足なテキスト入力方法になることが多い。
モバイル装置の設計者は、ユーザがスタイラスを使用してモバイル装置にテキストを入力する片手持ちテキスト入力システムであるユニストークス(Unistrokes)システム(米国特許第5596656号明細書)またはグラフィティ(Graffiti)システムなどのシステムを提案している。このようなシステムでは、ユーザは、特別に用意されたパッド上に一連の定義済みのストロークのうちの1つを入力し、そのストロークは次に、モバイル装置によって文字またはアクション(すなわち、「バックスペース」などのアクション)として解釈される。
他のモバイル装置設計者は、テキスト入力用の手持ち携帯ユニットであるツウィドラ(Twiddler)などのシステムを提案している。ツウィドラ(Twiddler)は、一方の面上にテキスト入力ボタンを有し、他方の面上に制御ボタンを有する。ユーザは、装置を使用する際、押すことに対してボタンがどのように反応するかを選択する(すなわち、テキスト文字、数字、またはASCII文字を出力することによって反応する)。ツウィドラは、「和音型(chorded)」つまりピアノで和音を弾くような同時操作による入力装置である。言い換えれば、ツウィドラでは、ユーザがいくつかの文字を入力する場合に複数のボタンを同時に押し続ける必要がある。
米国特許第5267181号明細書
残念なことに、上述の各システムはそれぞれ、場合によっては情況適切性の1つまたは複数の態様を満たすが、各システムは他の態様を満たさないかまたは独自の問題を生じさせることが多い。
本発明の一実施態様は、テキストを入力するシステムを提供する。システムは、指トリガ・イベントのシーケンスを受け取ることによって起動する。システムは次に、指トリガ・イベントのシーケンスを指トリガ・イベントの1つまたは複数の所定のシーケンスと一致させることを試みる。シーケンスがある所定のシーケンスと一致した場合、システムはこの所定のシーケンスに対応する少なくとも1つの文字を出力する。
この実施態様の一変形態様では、システムは、指トリガ・イベントのシーケンスを受信する間に、(1)一連の指トリガ・イベントを検出し、(2)一連のイベントにおける各イベントを生じさせた指を識別し、(3)一連のイベントにおける各イベントを生じさせた指の識別表示を記録する。
この実施態様の一変形態様では、一連の指トリガ・イベントを検出することは、(1)接触検知表面に対する指の接触を検出すること、(2)音響検知表面に対する指のタップを検出すること、(3)筋肉の運動、骨の運動、皮膚中の電気インパルス、その他の生理学的指標のうちの少なくとも1つを測定することによって、指の動きを検出すること、あるいは(4)少なくとも1本の指に着用されるかまたは取り付けられるかまたは移植されたセンサを使用して指の動きを検出することのうちの少なくとも1つを含む。
この実施態様の一変形態様では、システムは、指トリガ・イベントのシーケンスを一致させることを試みる際に、所定数の指トリガ・イベントがいつ生じたかを判定する。所定数の指トリガ・イベントが生じている際、システムは、所定数の指トリガ・イベントを指トリガ・イベントの1つまたは複数の所定のシーケンスと一致させることを試みる。
この実施態様の一変形態様では、システムは、指トリガ・イベントのシーケンスを一致させることを試みる際に、シーケンスの終わりの指トリガ・イベントがいつ生じたかを判定する。
この実施態様の一変形態様では、システムは、指トリガ・イベントのシーケンスを一致させることを試みる際に、指トリガ・イベントのシーケンスにおける各指トリガ・イベントが生じるたびに、指トリガ・イベントとその前の指トリガ・イベントのシーケンスとの組み合わせが指トリガ・イベントの所定のシーケンスのプレフィックスであるかどうかを判定する。指トリガ・イベントとその前の指トリガ・イベントのシーケンスとの組み合わせが指トリガ・イベントの所定のシーケンスのプレフィックスである場合、システムは次の指トリガ・イベントを待つ。指トリガ・イベントとその前の指トリガ・イベントのシーケンスとの組み合わせが指トリガ・イベントの所定のシーケンスのプレフィックスではない場合、システムは、指トリガ・イベントとその前の指トリガ・イベントのシーケンスとの組み合わせを指トリガ・イベントの1つまたは複数の所定のシーケンスと一致させることを試みる。
この実施態様の一変形態様では、システムは、指トリガ・イベントのシーケンスが指トリガ・イベントの一連の所定のシーケンスにおける指トリガ・イベントの所定の一シーケンスに一致しない場合、エラー信号を出力し、指トリガ・イベントの次のシーケンスの受信を開始する。
この実施態様の一変形態様では、指トリガ・イベントのシーケンスは、人体の他の部分によってトリガされるイベントまたは機械的装置を操作することによってトリガされるイベントのうちの少なくとも一方を含む。さらに、他の一変形態様では、特定の1本の指による指トリガ・イベントが、指トリガ・イベントのシーケンスにおける直前のイベントの繰り返しを表す。
本発明の各実施形態は、様々な表面上へのテキストの入力を容易にする。第1の実施形態では、テキスト入力システムは、単一接触検知/容量表面などの「検知表面」を含んでいる。単一接触抵抗/容量表面は、「タブレット」パーソナル・コンピュータ(PC)または「ラップトップ」パーソナル・コンピュータ(PC)などのタッチパッド・ポインティング・デバイスに広く使用されている。
しかし、単一接触表面は、指タップ動作による複数回の接触を検出することができないので、予想されない検出が生じる可能性がある。たとえば、ユーザが第1の指を放す前に第2の指でタップすると、単一接触表面は、この2回のタップを2回の別々のタップではなくポイント・アンド・ドラッグ動作と解釈することがある。多接触抵抗/容量表面はこの問題を解決するもう1つの表面である。しかし、多接触抵抗/容量表面は高価であり、市場に普及してはいない。
他の実施形態では、テキスト入力システムは「補助的な普通の表面」を含む。つまり、前述のPC等の入力装置として構成されたタブレットやタッチパッドなどではなく、机の天板等の単純な表面を含む。たとえば、補助的な普通の表面は、”タッパー(Tapper)”(Paradiso等、2002年)などの音響センサまたは視覚センサによって実現される検知表面であってよい。この手法は、レストランのテーブル、ダッシュボード、歩道を一時的に検知表面に転用するようにできる。
他の実施形態では、テキスト入力システムは、着用可能な装置を含む。たとえば、手首または手取り付け音響センサが着用可能な装置として機能することができる。曲げセンサおよび加速度計によってサポートされる手袋または指着用インタフェースは、着用可能な装置の考えられる形状因子である。第2の形状因子は、「スマート・ダスト」などの小形加速度計によって実現される爪取り付けインタフェースである。
他の実施形態では、上記のテキスト入力システムは、マウスや携帯電話などの小形電子装置自体の表面上で実現される。このようなシステムは、(ユーザが、テキスト入力システムを使用するには装置を「掴んで押して戻す」必要があるため)装置取得時間を短縮するという最初の目標を完全には実現しないが、すでに普及している既存の装置を使用すると、テキスト入力システムをより容易に採用することができる。
上述の実現オプションを絞り込むには、以下の設計上の制約および基準を使用することができる。所与の指でタップするかまたは押したことの検出を試みる際、その実施に影響を与える2つの異なる種類の指タップ動作に対処しなければならない。第1の場合には、ユーザは、最初にタップした指を放した後で第2の指でタップする。この場合、2回の別々の指タップが行われる。他の場合には、ユーザは、第1の指を放す前に第2の指でタップする。前者の場合、指タップのシーケンス(連続動作)として容易に検出される。しかし、指タップが順次行われたかそれとも「和音」のように行われたかを区別するのは、後者の場合には困難である。自然な指タップ動作では各指タップ間の間隔が非常に短い場合があるため、可能性として後者の場合を無くすことは困難であり、そのため検出時にエラーが生じる恐れがある。これを防ぐために、本発明の実施形態から和音オプションを除外することができ、テキスト入力システムの入力をできるだけ明確な一貫したものにする。
他の実施形態は、掌、肘、足のような人体の他の部分によるタップを含む、他の物体(エンティティ(entity))によるタップを検出する。他の実施形態は、スタイラスのような、ユーザによって操作される物体、または人体の他の部分を使用して操作される装置によるタップを検出する。
タップ・イベントを生じさせた物体がどれであるかは、上記の各節で説明したように様々な方法で捕捉することができる。しかし、自然なタップ動作用のロケーション・フリー・インタフェースを実現する場合、本発明の各実施形態では、タップ・イベント(1回のタップ動作)のシーケンスを受信している間の、そのタップ・イベントの位置を考慮しない。さらに、本発明の各実施形態では、タップ・イベントのシーケンスを受信する間のタップ・イベントの持続時間も圧力も考慮しない。その代わり、これらの実施形態は、シーケンスにおける各タップ・イベントを生じさせた物体がどれであるかのみを考慮する。
図1〜4は、本発明の各実施形態による例示的なテキスト入力システムを示している。図1〜4の各システムでは、ユーザは、指の動きの定義済みシーケンスを使用してモバイルコンピューティング装置に入力すべき文字またはアクション(すなわち、ctrlまたはバックスペース)を示す。このような指の動きは、指によるタップ、押下、または移動であってよい。図示の都合上、以下の各節では、指トリガ・イベントに応答するテキスト入力システムについて論じる。しかし、他の実施形態では、テキスト入力システムは、以下の各節で論じる原則を使用して、人体の他の部分またはユーザによって操作される機械的装置を含む他の物体によってタップすることまたは押すことに応答する。
図1は、本発明の実施形態による接触検知装置に結合されたPDA100を示している。接触検知装置102は、ユーザ104の指からの圧力(すなわち、タップまたは押下)を電気信号に変換し、この信号をパーソナル・デジタル・アシスタント(PDA)100に送る。接触検知パネル106が容量性であっても抵抗性であってもよいことに留意されたい。
接触検知装置102は、イーサネット(登録商標)やUSB結合装置などによって電気配線を通してPDA100に結合することができる。または、赤外線、802.11無線、Bluetoothなどの無線リンクを通してPDA100に結合することができる。
図1では、図2〜4と同様に、接触検知装置102がPDA100に結合されるように示されているが、他の実施形態では、テキスト入力システムが、デスクトップ・コンピュータ、携帯電話、モバイルコンピューティング装置、他の電子装置などの装置に結合される。他の代替実施形態では、テキスト入力システムがPDAに組み込まれる。
動作時には、ユーザ104が接触検知パネル106を指でタップするかまたは押すと、接触検知装置102が、ユーザが104がどの指を使用して接触検知パネル106に接触したかを認識する。接触検知装置102は次いで、どの指が接触したかを示す信号をPDA100に発する。
PDA100は、このような信号のシーケンスを受信した後、信号のシーケンスを定義済みのシーケンスのテーブルと比較、照合し、信号のシーケンスをテキスト文字(すなわち、「A」、「9」、もしくは「<」など)またはアクション(すなわち、バックスペース、削除、もしくはctrlなど)に変換する。他の実施形態では、接触検知装置102は、指接触シーケンスを直接文字またはアクションに変換し、その文字またはアクションをPDA100に送信する。
図2は、本発明の一実施形態による、PDA100に結合された指取り付け発信装置110および手首取り付けトランシーバ112を示している。本発明の一実施形態では、指取り付け発信装置110は、低出力無線送信器に結合された加速度計、衝撃センサ、または曲げセンサである。他の実施形態では、指取り付け装置は、「スマート・ダスト」加速度計などとして、爪に埋め込まれるかまたは他の方法で爪の表面上に組み込まれる。
本発明の一実施形態では、指取り付け発信装置110は、低出力無線信号を使用して無線で指の動きを手首取り付けトランシーバ112に伝達する。他の実施形態では、指取り付け発信装置100は、有線結合装置などによって手首取り付け発信装置110に直接電気的に結合される。たとえば、手首取り付けトランシーバ112を含む手袋に指取り付け発信装置110を組み込むことができ、この場合、手袋は、指取り付け発信装置110をトランシーバ112に結合する配線を含む。
動作時には、指取り付け発信装置110は、指が叩く動作をしたとき(または指で他の定義済みの動きが行われたとき)にそれを検出し、次いで、どの指でタップしたかの識別情報である識別子を含む信号によってこのタップを手首取り付けトランシーバ112に伝達する。手首取り付けトランシーバ112は、どの指で叩かれたかを示す信号をPDA100に発する。PDA100は、このような信号のシーケンスを受信した後、信号のシーケンスを定義済みのシーケンスの予め記憶されたテーブルと比較し、信号のシーケンスをテキスト文字またはアクションに変換する。他の実施形態では、手首取り付けトランシーバ112は、タップのシーケンスを直接文字またはアクションに変換し、その文字またはアクションをPDA100に送信する。
図3は、本発明の一実施形態による、PDAに結合された手首取り付け検出装置120を示している。手首取り付け検出装置120は、骨伝導マイクロフォン、生体電気信号、筋肉の運動、またはその他の指の動きの生理学的指標を使用して指の動き(指でタップすることなど)を検出する。
動作時には、手首取り付け検出装置120は、指でタップされたとき(または指で他の定義済みの動きが行われたとき)にそれを検出し、どの指でタップしたかの識別子を含む信号によってこのタップをPDA100に伝達する。PDA100は、このような信号を受信した後、信号のシーケンスを定義済みシーケンスの予め記憶されたテーブルと比較し、信号のシーケンスをテキスト文字またはアクションに変換する。他の実施形態では、手首取り付け検出装置120は、タップのシーケンスを直接文字またはアクションに変換し、その文字またはシーケンスをPDA100に送信する。
図4は、本発明の一実施形態による、PDAに結合された音響センサ130を示している。音響センサ130は2つのマイクロフォン132を含んでいる。
動作時には、ユーザ104が指でタップすると、両方のマイクロフォン132がタップの音を捕捉する。次いで、音響センサが、各マイクロフォン132への音の到達時間を比較し、到達時間の差からどの指でタップしたかを判定する。次いで、音響センサ130は、どの指でタップしたかを示す識別子を含む、タップを示す信号をPDA100に発する。PDA100は、このような信号のシーケンスを受信した後、信号のシーケンスを定義済みシーケンスのテーブルと比較し、信号のシーケンスをテキスト文字またはアクションに変換する。他の実施形態では、手首取り付け検出装置120がタップのシーケンスを直接文字またはアクションに変換し、その文字またはアクションをPDA100に送信する。
前述の各節で説明した制約が与えられたと仮定すると、本発明の各実施形態は、アルペジオ式タップ・イベントを使用する(すなわち、タップまたは押下を同時ではなく別々に行う)。例示の都合上、タップ・イベントは、片方の手の指によって生じると仮定し、すなわち、各指ごとに1つの、5つの離散した入力に限定されるテキスト入力システムを仮定する。したがって、潜在的な各文字を複数のタップのシーケンスにマップした。たとえば、本発明の一実施形態は、各シーケンスの長さが3である指のシーケンスに各アルファベット文字を割り当てる(図8参照)。しかし、他の物体によってタップを認識する他の実施形態では、文字マッピングがこのようなタップ・イベントを含むように拡張される。
アルペジオ式指タップを使用するテキスト入力システムの1つの利点は、システムが、指で定義済みの位置を押すかまたはタップすることを必要とせずに、どの指でアクションを実行したかを簡単に判定できることである。ロケーション・フリー特性は、タップが定義済みの位置を押す動作よりも自然でよりストレスが少ないため有効である。ロケーション・フリー・システムでは、どのボタンを押すかではなくどの指でタップするかが重要であるので、ユーザが検知表面を指でタップするときには物理的キーボード・レイアウトも仮想キーボード・レイアウトも必要ない。必要な物品は、テキスト入力システムのユーザを助ける視覚的補助装置(または「指ストローク−文字マップ」)だけである。
本発明の各実施形態は、効率および学習可能性(したがって適応性)を向上させるために、最も有効な指ストローク−文字マップを設けることを試みる。指ストローク−文字のどのマッピングを使用するかを決定する際、マップ上に示すべき文字の順序およびその順序で各文字にマップされる指ストロークの数を検討した。
このような検討に基づいて、本発明の各実施形態では、指ストローク−文字マップにアルファベット順を使用してアルファベット順の学習済みの認識マップを再使用する。指ストローク−文字マップのアルファベット順は、ユーザに対する認識および知覚要件を低減させると考えられ、スミス(Smith)およびザイ(Zhai)は、指ストローク−文字マップのアルファベット順がテキスト・インタフェースの望ましい態様であることを示した(B. A. Smith & S. Zhai, Optimized Virtual Keyboards with and without Alphabetical Ordering - A Novice User Study, Proc. INTERACT 2001 - IFIP International Conference on Human-Computer Interaction, 2001参照)。SmithおよびZhaiによれば、「アルファベット・チューニング」による視覚的探索はアルファベット・チューニング無しの探索よりも9%速い。
さらに、本発明の各実施形態は、様々な長さのシーケンスを混ぜたシーケンス(すなわち、1桁または2桁のシーケンスを含むシーケンス)ではなく1組の3桁の数のシーケンスを指ストローク−文字マップに使用する。このようなシーケンスとしては、指ストローク−文字マップ内に一貫したパターンを維持するようなシーケンスが選択される。これは、人間の動作において制御されたプロセスから自動プロセスに移る際には一貫したパターンが重要であることが示されているからである(M. Ingmarsson, D. Dinka, and S. Zhai, TNT: A Numeric Keypad Based Text Input Method, Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, ACM Press, 2004参照)。
本発明の他の実施形態では、文字頻度ベースの指ストローク−文字マップを使用する。文字頻度ベース・マッピングは、各文字にほぼ任意のシーケンスを割り当てることを犠牲にして文字ストローク効率を最適化する。したがって、最も頻繁に使用される文字(従来、「e-t-a−o−n−s−h−r−d−l−u」の順で頻度が高いと考えられている)は最も短いタップ動作シーケンスを有する。
他の実施形態では、「クワーティ」位置(キーボードの左上からQWERTYの順となる一般的なキー配列)ベースの指ストローク−文字マッピングを使用して学習可能性を助け、特にクワーティ・ユーザの初心者の「推測可能性」をサポートする。このようなマッピングは、従来のクワーティ・キーボード上の文字の位置を利用する。あるそのようなマッピングは、各キーを固有に識別できるように各列、手、および指に数字を割り当てる。「r」や「t」(どちらも1番上の列にあり、通常左手の人差し指によって接触される)のようなどちらとも取れるキーは、第4のタップによって曖昧さを排除すること、つまり区別することができる。したがって、このようなシステムにおける文字のマップ・エントリは「列、手、指、および(必要に応じて)曖昧さ排除」というフォーマットであってよい。このような実施形態では、1番下の列=1(人差し指)、中央の列=2(中指)、1番上の列=3(薬指);ならびに左手=1、右手=2と仮定すると、q=314(すなわち、1番上の列、左手、小指)、w=313(1番上の行、左手、薬指)...r=3111(すなわち、1番上の列、左手、人差し指、第1の文字)、およびt=3112(すなわち、1番上の列、左手、人差し指、第2の文字)となる。
従来のクワーティ・キーボードは各列に10個の一次キーを有することに留意されたい。本発明の一実施形態(「第1のタップ割り当て」実施形態)では、クワーティ・キーをそれぞれが5つの文字から成る6つの群にグループ分けする(”QWERT”、”YUIOP”、”ASDFG”、”HJKL;”、”ZXCVB”、”NM<>/”)。文字を選択する場合、ユーザは2回のタップを実行する。第1のタップはこれらの6つの群のうちの1つを選択し、第2のタップは、群内の文字を選択する。これは、ユーザが、第1のタップが特定の群にどのように対応しているかを記憶するだけでよいので学習しやすい。群内の文字の位置は、クワーティ・レイアウトについてのユーザの知識から予測することができる。
このような「第1のタップ割り当て」の一例は、”T”(かなり「逆方向(他の指から離れる方向)に向けられた」親指、図7参照)が”QWERT”を選択し、通常の親指が”ASDFG”を選択し、人差し指が”ZXCVB”を選択し、薬指が”NM<>/”を選択し、小指が”HJKL;”を選択し、かなり逆方向に向けられた小指が”YUIOP”を選択する。(数字1〜5に対応する)広げた親指または(数字6〜0に対応する)広げた小指を使用した第2のタップでは、ユーザは数字を選択することができる。中指は、スペース・バー、リターン、バックスペース、タブ、キャップ、およびその他の記号を入力する。
他の実施形態では、指ストローク−文字マッピングに「文字形状」を使用してマッピングの推測可能性を助ける。たとえば、形状ベースのマッピングは、開/閉、上昇/下降、左向き/右向きのような様々な活字特徴の各々に指を割り当てる。
他の実施形態では、前述の指ストローク−文字マッピングの組み合わせを使用する。たとえば、母音に単一指タップを割り当てることができ、一方、子音にアルファベット順で指タップ・シーケンスを割り当てる。表1は、1=人差し指、2=中指、3=薬指、4=小指、およびT=親指と仮定した場合の例示的なマッピングおよび対応する指ストローク・シーケンスを示している。
Figure 0005166008
このマッピングを使用すると、句”hello world”は以下のように入力される。
23T2T32T32T4TT122T4T43T32T14TT
(比較のために、12キー(またはマルチタップ)入力装置では、上記の句は4433555P555666#96667775553として入力される。この場合、P=ポーズ(重字を入力するときに必要である)である。)
他の実施形態は、大文字ロック・モードに切り替えたり大文字ロック・モードから切り替えたり、バックスペース・キーを入力したり、数字/記号にアクセスしたりするためのモディファイア・キーに特別なシーケンスを使用する。バックスペースを除いて、アクション文字は通常、それほど頻繁には実行されず、したがって、アクション文字を入力するのにより呼び出すのが困難なシーケンスが必要であっても性能が著しく損なわれることはない。したがって、バックスペースは、すべての指を一度に下ろすことや、掌によるアクションや、おそらく動作など、入力が非常な容易なマッピングに割り当てられ、一方、他のアクション・キーにはより複雑なシーケンスが割り当てられる。
他の実施形態は、所与の指ストローク−文字マップを作成する際に指の敏捷性および指同士の間の敏捷性を考慮する。(たとえば、人差し指が小指よりも敏捷であり、したがって、人差し指では小指よりも迅速にタップすることができ、したがって、「1−2」のようなシーケンスは「4−3」のようなシーケンスよりも高速に実行することができると仮定する。)
他の実施形態では、タップまたは押下入力モードを拡張し、指タップと指ストロークの組み合わせを使用して各指に関連する文字の曖昧さを排除することができる。たとえば、クワーティ型指ストローク−文字マッピングでは、左手中指は文字「e」(1番上の列)、「d」(ホーム列)、および「c」(1番下の列)を入力する。「e」を選択する場合、ユーザは中指で押して上方向を指し示し、「d」の場合、ユーザは中指でタップし、「c」の場合、ユーザは中指で押して下方向を指し示す。斜め動作を使用して人差し指に関連する文字群の曖昧さを排除することができる(たとえば、左手人差し指はr、t、f、g、c、v、bを入力し、右人差し指はy、u、h、j、n、mを入力する)。
他の実施形態では、掌を使用してモードを変更するかまたはアクションを実行することができ、あるいは掌を選択モディファイアとして使用することができる。たとえば、掌の手首に近い部分を使用して小文字、大文字、アクション(すなわち、タブ、上/下、ホームなど)のような複数の指ストローク−文字マップを切り替えることができる。一方、掌はバックスペース・インジケータとして働くことができる。
他の実施形態では、肘や、足や、掌のような人体の他の部分によって生じさせられるタップ・イベント、または人体の一部を使用して操作されるスタイラスやその他の機械的装置などの機械的装置によって生じさせられるタップ・イベントが、文字マッピングの一部として使用される。
他の実施形態では、システムは、マッピング構成だけでなく、ユーザが指ストロークのシーケンスを入力している間に次にどの指でタップするかに応じて生成することのできる文字に関する視覚的フィードバックもユーザに与える。
図5〜7は、本発明の一実施形態による指を識別するプロセスを示している。さらに、図8〜10は、本発明の一実施形態による指ストローク−文字マップを示している。
具体的には、図5は、本発明の一実施形態による、指の第1の各指の識別子を示している。図5では、指の識別子は、指「1」としての人差し指から始まり、手を横切って、指「4」である小指に移動し、次に指「5」である親指に移動する。図6は、本発明の一実施形態による指の第2の識別子を示している。図6では、指の識別子は、指「1」としての親指から始まり、手を横切って、指「5」である親指に移動する。図7は、本発明の一実施形態による、掌の識別子を含む指の第3の識別子を示している。図7では、点線の円は、指および掌の識別子を示している。親指以外の各指は、1つの識別子を有し(すなわち、人差し指には「2」)、掌は1つの識別子を有する。これに対して、親指は3つの識別子「1」、「T」、「#」を有する。したがって、本発明の各実施形態では、テキスト入力システムには親指が3つの別々のタップ物体に見える(すなわち、各識別表示ごとに1つのタップ物体として扱われる)。ここでは、掌のタップ・イベントも、指のタップ・イベントと同様指トリガ・イベントと呼ぶ。
ユーザ104は、テキスト入力システム(図1〜4のシステムなど)を使用して所与の文字を出力する際、テキスト入力システムの指ストローク−文字マッピングに従って指の一連の動き(すなわち、タップまたは押下)を実行する。たとえば、図8は、本発明の一実施形態による指ストローク−文字マップ300を示している。図8では、文字「A」はシーケンス「1−1−1」にマップされる。図5の指識別システムを使用する場合、ユーザ104は、「A」文字については人差し指を使用して3回タップするかまたは押す。あるいは、ユーザ104は、「B」文字については人差し指で2回、中指で1回タップするかまたは押す。図6の指識別システムを使用する場合、ユーザ104は、「A」文字については親指を使用して3回タップするかまたは押し、「B」文字については親指を使用して2回タップするかまたは押し、人差し指を使用して1回タップするかまたは押す。図7の指識別システムを使用する場合、ユーザ104は、図6と同様の指ストロークを実行し、親指で「T」識別表示または「#」識別表示ではなく「1」識別表示としてタップする。
他の実施形態では、1本の指が「繰り返しストローク」指として働き、ユーザ104がタップするかまたは押すときに、シーケンスにおける最後の指ストロークを繰り返す。たとえば、図9は、本発明の一実施形態による「繰り返し」指ストロークを用いる指ストローク−文字マップ310を示している。小指を「繰り返しストローク」指として用いる図5の指識別システムを使用する場合、ユーザ104は、「A」文字については、人差し指でタップするかまたは押し、次に小指でタップするかまたは押し、最後に再び人差し指でタップするかまたは押す。(小指でタップするかまたは押すと、人差し指の「繰り返し」、すなわち、図8の「1−1−1」指ストロークと同一のシーケンスになることに留意されたい。)あるいは、ユーザ104は「B」文字については人差し指−小指−中指というパターンでタップするかまたは押す。所望の指で2回タップすると、所望の指でタップし、次に「繰り返しストローク」指でタップするよりも遅くなることがあるので、「繰り返しストローク」指を使用することによってユーザ104はテキストをより高速に入力できることに留意されたい。
他の実施形態では、いくつかの固有の文字/数字マップがテキスト入力装置に関連付けされる。図10は、本発明の一実施形態による2つの数字マップ、指ストローク−アルファベット文字マップ330、および指ストローク−ASCII文字を含む指ストローク−文字マップ332を示している。図10の文字マップが2つの指ストローク・シーケンスを使用して各文字または数字を表し、それによってテキストの入力が簡略化されることに留意されたい。
図10に示されているように、数字マップとアルファベット/ASCII文字マップとの切り替えは、親指の「#」識別子を使用して行われる。「数字モード」(すなわち、数字指ストローク−文字マップを使用する)では、親指で「T」識別子をタップするかまたは押すと最初の5つの数字と最後の5つの数字が循環的に切り替わる。各数字マップ内では、所与の指で1回タップするかまたは押すと、対応する数字が出力される。たとえば、最初の5つの数字のマップがアクティブである間に親指の「1」識別子を使用すると数字1が出力され、最後の5つの数字のマップがアクティブである場合には数字6が出力される。あるいは、文字モードでは、「T−T」をタップするかまたは押す(すなわち、親指で「T」識別子の位置を2回タップする)と、アルファベット文字マップとASCII文字マップが循環的に切り換わる。これらのマップ内では、2ストローク・シーケンスを入力すると、対応する文字が出力されるかまたは対応するアクションが実行される。
30個の「一次」キーおよび10個の数字キーだけでなく、7個の特別記号キー、4個のスペース・キー(スペース、バックスペース、リターン、タブ)、およびいくつかのモディファイア・キー(シフト、コントロール、alt、エスケープ、ウィンドウ、削除、挿入、ホーム/終了、ページ上/下、矢印、ファンクションなど)がある。中指および5+2個の識別子を使用することによって、7個の特別記号キーをカバーすることができる。4個のスペース・キーは、他の親指識別子によって示すことができ、またはおそらく手全体を表面に押し付ける(たとえば、手全体を押し付けるのがスペースであってよく、一方、親指を除いて手全体を押し付けるのがバックスペースであってよい)ことによって示すことができる。モディファイア・キーは、モデル・シーケンスによってアクセスすることも他の親指識別子によってアクセスすることもできる。
図11は、本発明の一実施形態による、所定の長さのシーケンスを使用してテキストを入力するプロセスを示すフローチャートを示している。例示のために指イベントが使用されているが、他の実施形態では、テキストを入力するプロセスは、人体の他の部分やユーザ104によって操作される機械的装置のような他の物体によって生じさせられるイベントを含むことに留意されたい。
プロセスは、システムがタップ・イベント(すなわち、指ストローク)を検出したときに開始する(ステップ400)。たとえば、ユーザ104は、指で接触検知パネル106をタップするかまたは押すか、あるいは指取り付け発信装置110がユーザ104の指に取り付けられている間に指による認識される動きを実行することができる。
システムは、どの指がイベントを生じさせたかを判定し、指の識別子をシーケンス・バッファ内のエントリとして格納する(ステップ402)。システムは次に、シーケンス・バッファを検査して、シーケンス・バッファにエントリを格納することによってバッファが所定のサイズに達したかどうかを判定する(ステップ404)。たとえば、本発明の一実施形態では、シーケンス・バッファは、システムが3つの異なる指ストロークに関連する指識別子をシーケンス・バッファに格納したときに所定のサイズに達する。シーケンス・バッファが所定のサイズに達していない場合、システムはステップ400に戻り、次の指トリガ・イベントを待つ。シーケンス・バッファが所定のサイズに達している場合、システムは、シーケンス・バッファ上に格納されているシーケンスを指ストローク−文字マップ内のシーケンスと比較する(ステップ406)。指ストローク−文字マップは、いくつかの指ストローク・シーケンスおよび各シーケンスに対応する出力文字を含んでいる。
システムは、指ストローク・シーケンスが指ストローク−文字マップ内の指ストローク・シーケンスに一致するかどうかを判定する(ステップ408)。指ストローク・シーケンスが指ストローク−文字マップ内の指ストローク・シーケンスに一致しない場合、システムはエラーを示し、シーケンス・バッファをリセットする(ステップ410)。指ストローク・シーケンスが指ストローク−文字マップ内の指ストローク・シーケンスに一致する場合、システムは文字を出力し、バッファをリセットする(ステップ412)。
図12は、本発明の一実施形態による、終了イベントを使用してテキストを入力するプロセスを示すフローチャートを示している。プロセスは、システムが指トリガ・イベント(すなわち、指ストローク)を検出したときに開始する(ステップ420)。
システムは次に、どの指がイベントを生じさせたかを判定し、指の識別子が「終了」指識別子に一致するかどうかを判定する(ステップ422)。たとえば、終了指識別子は、かなり逆方向に向けられた親指に対応する「#」または「T」を検出することを含む(図7参照)。指識別子が終了指識別表示に一致しない場合、システムは指の識別表示をシーケンス・バッファに追加する(ステップ424)。システムは次にステップ420に戻り、次の指トリガ・イベントを待つ。指識別表示が終了指識別表示に一致する場合、
システムは、シーケンス・バッファ上に格納されているシーケンスを指ストローク−文字マップ内のシーケンスと比較する(ステップ426)。
システムは次に、指ストローク・シーケンスが指ストローク−文字マップ内に存在する指ストローク・シーケンスに一致するかどうかを判定する(ステップ428)。指ストローク・シーケンスが指ストローク−文字マップ内に存在する指ストローク・シーケンスに一致しない場合、システムはエラーを示し、シーケンス・バッファをリセットする(ステップ430)。指ストローク・シーケンスが指ストローク−文字マップ内に存在する指ストローク・シーケンスに一致する場合、システムは文字を出力し、シーケンス・バッファをリセットする(ステップ428)。
図13は、本発明の一実施形態による、プレフィックスを使用してテキストを入力するプロセスを示すフローチャートである。プロセスは、システムが指トリガ・イベント(すなわち、指ストローク)を検出したときに開始する(ステップ440)。
システムは次に、どの指がイベントを生じさせたかを判定し、指の識別子をシーケンス・バッファ内のエントリとして格納する(ステップ442)。システムは次に、シーケンス・バッファ上に格納されているシーケンスを指ストローク−文字マップ内のシーケンスと比較する(ステップ444)。
システムは、指ストローク・シーケンスが指ストローク−文字マップ内に存在する指ストローク・シーケンスに一致するかどうかを判定する(ステップ446)。指ストローク・シーケンスが指ストローク−文字マップ内に存在する指ストローク・シーケンスに一致する場合、システムは文字を出力し、バッファをリセットする(ステップ448)。指ストローク・シーケンスが指ストローク−文字マップ内に存在する指ストローク・シーケンスに一致しない場合、システムは、指ストロークにおける少なくとも1つの文字のプレフィックス(例えば上位の所定数の桁、例えば2桁)が文字マップに一致するかどうかを判定する(ステップ450)。指ストロークにおける少なくとも1つの文字のプレフィックスが文字マップに一致する場合、システムはステップ440に戻り、次の指トリガ・イベントを待つ。指ストロークにおける少なくとも1つの文字のプレフィックスが文字マップに一致しない場合、システムはエラーを示し、シーケンス・バッファをリセットする(ステップ452)。
<付記>
(1)
テキストを入力する装置であって、
指、掌、肘、脚等の身体の各部位の動き、または前記身体の各部位の動きに関連して動く物体の動きである指トリガ・イベントのシーケンスを受け取る受取り部と、
前記指トリガ・イベントのシーケンスと文字情報を対応づけしたテーブルを記憶する記憶部と、
前記受け取られたシーケンスと、前記テーブルに記された記憶されたシーケンスとを照合する照合部と、
照合の結果、受け取られたシーケンスが記憶されたシーケンスに一致した場合、前記テーブルにより記憶されたシーケンスに対応付けられた文字情報を、受け取られたシーケンスに対応する文字情報として出力する出力部と、
を含む、装置。
(2)
(1)に記載の装置であって、
前記受取り部は、
一連の指トリガ・イベントを検出し、
各イベントを生じさせた前記身体の部位またはこれに関連して動く前記物体を識別し、
その前記身体の部位または前記物体に対し予め定められた識別子を記録することにより、前記指トリガ・イベントのシーケンスを受け取るように構成される、
装置。
(3)
(2)に記載の装置であって、
前記受取り部は、
前記身体の部位またはこれに関連して動く前記物体が接触したこと、および接触した位置を検出する接触検知表面を有し、
前記接触した位置に基づき、各イベントを生じさせた前記身体の部位または前記物体を識別する、
装置。
(4)
(2)に記載の装置であって、
前記受取り部は、
前記身体の部位または個連関連して動く前記物体が叩いたことにより、音を発生する音響発生表面と、
前記音が発生した位置を検出する位置検出集音部と、
を有し、
前記音が発生した位置に基づき、各イベントを生じさせた前記身体の部位または前記物体を識別する、
装置。
(5)
(2)に記載の装置であって、
前記受取り部は、
前記身体の部位の動作を、筋肉の運動、骨の運動、皮膚内の電気インパルスその他の生理学的指標のうちの少なくとも1つを測定することにより検出する生理学的指標検出部を有し、この生理学的指標に基づき、各イベントを生じさせた前記身体の部位を識別する、
装置。
(6)
(2)に記載の装置であって、
前記受取り部は、
前記身体の部位に装着され、その部位の動きを検出するセンサを使用して、当該身体の部位の動作を検出する動作検出部を有し、検出された動作に基づき、各イベントを生じさせた前記身体の部位を識別する、
装置。
(7)
(1)に記載の装置であって、
前記照合部は、前記指トリガ・イベントのシーケンスを照合する際に、一つのシーケンスに含まれる最大の指トリガ・イベントの数より小さい、予め定められた所定数の指トリガ・イベントが生じたときに、この所定数の指トリガ・イベントで構成される部分シーケンスと、前記記憶されたシーケンスの上位の前記所定数の部分シーケンスとを照合する工程を含む、
装置。
本発明の一実施形態による接触検知装置に結合されたPDAを示す図である。 本発明の一実施形態による、一連の指取り付け発信装置PDAに結合された手首取り付けトランシーバを示す図である。 本発明によるPDAに結合された手首取り付け検出装置を示す図である。 本発明の一実施形態によるPDAに結合された音響センサを示す図である。 本発明の一実施形態による指の第1の識別子を示す図である。 本発明の一実施形態による指の第2の識別子を示す図である。 本発明の一実施形態による掌の識別子を含む指の第3の指識子を示す図である。 本発明の一実施形態による指ストローク−文字マップを示す図である。 本発明の一実施形態による「繰り返し」指ストロークを含む指ストローク−文字マップを示す図である。 本発明の一実施形態による2つの数字マップ、指ストローク−アルファベット文字マップ、および指ストローク−ASCII文字を含む指ストローク−文字マップを示す図である。 本発明の一実施形態による所定の長さのシーケンスを使用してテキストを入力するプロセスを示すフローチャートである。 本発明の一実施形態による終了イベントを使用してテキストを入力するプロセスを示すフローチャートである。 本発明の一実施形態によるプレフィックスを使用してテキストを入力するプロセスを示すフローチャートである。
符号の説明
100 PDA、102 接触検知装置、104 ユーザの手、106 接触検知パネル、110 指取り付け発信装置、112 手首取り付けトランシーバ、120 手首取り付け検出装置、130 音響センサ、132 マイクロフォン、300 指ストローク−文字マップ、310 指ストローク−文字マップ、330 指ストローク−アルファベット文字マップ、332 指ストローク−ASCII文字マップ。

Claims (1)

  1. テキストを入力する装置であって、
    指トリガ・イベントのシーケンスを受け取るように構成された受取り部と、
    前記受取り部に結合され、前記受け取られた指トリガ・イベントのシーケンスを指トリガ・イベントの予め記憶されたシーケンスに一致させることを試みるように構成された一致部と、
    前記一致部に結合され、前記受け取られた指トリガ・イベントのシーケンスが前記記憶されたシーケンスに一致する場合にこの記憶されたシーケンスに対応する少なくとも1つの文字を出力するように構成された出力部と、
    を含み、
    前記受取り部は、一連の指トリガ・イベントを検出し、前記一連の指トリガ・イベントにおける各イベントを生じさせた指を識別し、前記一連の指トリガ・イベントにおける各イベントを生じさせた前記指の識別子を記録することによって前記指トリガ・イベントのシーケンスを受け取るように構成され、
    さらに、前記受取り部は、
    接触検知表面に対する指の接触を検出することと、音響検知表面に対する指のタップ(叩くこと)を検出することと、筋肉の運動、骨の運動、皮膚内の電気インパルスその他の生理学的指標のうちの少なくとも1つを測定することによって指の動きを検出することと、少なくとも1本の指に着用されるか、取り付けられるか、または移植されたセンサを使用して指の動きを検出すること、のうちの少なくとも1つによって前記一連の指トリガ・イベントを検出するように構成され、
    特定の1本の指による指トリガ・イベントが、指トリガ・イベントのシーケンスにおける直前のイベントの繰り返しを表す、
    装置。
JP2007311928A 2006-12-06 2007-12-03 テキストを入力する装置 Expired - Fee Related JP5166008B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/635,331 2006-12-06
US11/635,331 US20080136679A1 (en) 2006-12-06 2006-12-06 Using sequential taps to enter text

Publications (2)

Publication Number Publication Date
JP2008146645A JP2008146645A (ja) 2008-06-26
JP5166008B2 true JP5166008B2 (ja) 2013-03-21

Family

ID=39358355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007311928A Expired - Fee Related JP5166008B2 (ja) 2006-12-06 2007-12-03 テキストを入力する装置

Country Status (4)

Country Link
US (1) US20080136679A1 (ja)
EP (1) EP1933225A3 (ja)
JP (1) JP5166008B2 (ja)
KR (1) KR20080052438A (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070097245A1 (en) * 2005-10-31 2007-05-03 Battles Amy E Digital camera having a touch pad
CN101369180A (zh) * 2007-08-15 2009-02-18 联想(北京)有限公司 手指指点装置
US8031172B2 (en) * 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
US20090125848A1 (en) * 2007-11-14 2009-05-14 Susann Marie Keohane Touch surface-sensitive edit system
US8519950B2 (en) * 2007-11-19 2013-08-27 Nokia Corporation Input device
US8358277B2 (en) 2008-03-18 2013-01-22 Microsoft Corporation Virtual keyboard based activation and dismissal
KR20100048090A (ko) * 2008-10-30 2010-05-11 삼성전자주식회사 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법
US8856690B2 (en) * 2008-10-31 2014-10-07 Sprint Communications Company L.P. Associating gestures on a touch screen with characters
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8502704B2 (en) * 2009-03-31 2013-08-06 Intel Corporation Method, apparatus, and system of stabilizing a mobile gesture user-interface
JP5414429B2 (ja) * 2009-09-07 2014-02-12 株式会社構造計画研究所 文字入力装置、文字入力システム、処理出力装置
KR101165077B1 (ko) * 2011-04-04 2012-07-12 박찬봉 문자 입력 방법, 이를 이용하는 문자 입력 장치 및 문자 입력 시스템
US9064436B1 (en) 2012-01-06 2015-06-23 Google Inc. Text input on touch sensitive interface
CH706836B1 (de) * 2012-08-28 2014-10-31 Yves Swiss Ag Künstlicher Nagel mit eingearbeitetem Transponder und Anbindung an eine Software-Applikation, zum Aufsetzen auf einen Finger- oder Zehennagel.
WO2015052588A2 (en) * 2013-10-10 2015-04-16 Itay Katz Systems, devices, and methods for touch-free typing
US20160275576A1 (en) * 2013-12-19 2016-09-22 Twin Harbor Labs, LLC System and Method for Alerting Servers Using Vibrational Signals
US9355418B2 (en) 2013-12-19 2016-05-31 Twin Harbor Labs, LLC Alerting servers using vibrational signals
US10146330B2 (en) * 2014-06-18 2018-12-04 Matthew Swan Lawrence Systems and methods for character and command input
US20160070464A1 (en) * 2014-09-08 2016-03-10 Siang Lee Hong Two-stage, gesture enhanced input system for letters, numbers, and characters
WO2016074087A2 (en) * 2014-11-11 2016-05-19 Helio Technology Inc. A method of detecting user input in a 3d space and a 3d input system employing same
US10599216B2 (en) * 2015-03-02 2020-03-24 Tap Systems Inc. Arbitrary surface and finger position keyboard
WO2016206117A1 (en) * 2015-06-26 2016-12-29 Intel Corporation Technologies for micro-motion-based input gesture control of wearable computing devices
MY202195A (en) 2015-11-23 2024-04-16 Verifone Inc Systems and methods for authentication code entry in touch-sensitive screen enabled devices
US10684701B1 (en) 2017-04-27 2020-06-16 Tap Systems Inc. Tap device with multi-tap feature for expanded character set
CN111273815B (zh) * 2020-01-16 2022-12-02 业成科技(成都)有限公司 手势触控方法和手势触控系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267181A (en) * 1989-11-03 1993-11-30 Handykey Corporation Cybernetic interface for a computer that uses a hand held chord keyboard
US5281966A (en) * 1992-01-31 1994-01-25 Walsh A Peter Method of encoding alphabetic characters for a chord keyboard
JP2698320B2 (ja) * 1993-08-31 1998-01-19 日本電信電話株式会社 常装着型入力システム、常装着型意図伝達システム、常装着型音楽用キーボードシステム及び常装着型点字入出力システム
US5596656B1 (en) * 1993-10-06 2000-04-25 Xerox Corp Unistrokes for computerized interpretation of handwriting
US5828323A (en) * 1994-05-03 1998-10-27 Bartet; Juan F. High speed keyboard for computers
US5552782A (en) * 1994-11-04 1996-09-03 Horn; Martin E. Single-hand mounted and operated keyboard
JP3425347B2 (ja) * 1996-12-12 2003-07-14 日本電信電話株式会社 人体経由情報伝達装置
EP1717683A3 (en) * 1998-01-26 2010-03-17 Apple Inc. Method and apparatus for integrating manual input
US6542091B1 (en) * 1999-10-01 2003-04-01 Wayne Allen Rasanen Method for encoding key assignments for a data input device
US6670894B2 (en) * 2001-02-05 2003-12-30 Carsten Mehring System and method for keyboard independent touch typing
US6952173B2 (en) * 2001-04-04 2005-10-04 Martin Miller Miniaturized 4-key computer keyboard operated by one hand
US7170430B2 (en) * 2002-03-28 2007-01-30 Michael Goodgoll System, method, and computer program product for single-handed data entry
US7595742B2 (en) * 2004-10-29 2009-09-29 Lenovo (Singapore) Pte. Ltd. System and method for generating language specific diacritics for different languages using a single keyboard layout
FR2878343B1 (fr) * 2004-11-22 2008-04-04 Tiki Systems Soc Par Actions S Dispositif d'entree de donnees
US7649478B1 (en) * 2005-11-03 2010-01-19 Hyoungsoo Yoon Data entry using sequential keystrokes
US7674053B1 (en) * 2005-12-22 2010-03-09 Davidson Lindsay A Dual key pod data entry device

Also Published As

Publication number Publication date
JP2008146645A (ja) 2008-06-26
US20080136679A1 (en) 2008-06-12
KR20080052438A (ko) 2008-06-11
EP1933225A2 (en) 2008-06-18
EP1933225A3 (en) 2009-08-26

Similar Documents

Publication Publication Date Title
JP5166008B2 (ja) テキストを入力する装置
JP5243967B2 (ja) 指に取り付けるセンサーを用いた情報入力
US8125440B2 (en) Method and device for controlling and inputting data
Kölsch et al. Keyboards without keyboards: A survey of virtual keyboards
Kim et al. A new wearable input device: SCURRY
US7548231B1 (en) Devices having input controls for efficient input of data
US6670894B2 (en) System and method for keyboard independent touch typing
US20040239624A1 (en) Freehand symbolic input apparatus and method
WO2000072300A1 (en) Data entry device recording input in two dimensions
WO2009002787A2 (en) Swipe gestures for touch screen keyboards
SG177239A1 (en) Data entry system
JP2005521969A (ja) Qwerty型マッピングおよびタイピングをエミュレートする縮小キーボード・システム
US20030179178A1 (en) Mobile Text Entry Device
CN101124532A (zh) 计算机输入设备
US20010033268A1 (en) Handheld ergonomic mouse
US7023426B1 (en) User input device
US20100207887A1 (en) One-handed computer interface device
JPH11143608A (ja) 文字入力方法及び文字入力装置
WO2008047172A2 (en) Glove as computer control input unit
WO2014072734A1 (en) Gesture input method and apparatus
JP2001242986A (ja) 情報入力装置
CN102405456A (zh) 数据输入系统
WO2010031123A1 (en) Input apparatus and method
EP2033080A1 (en) Data input device
JP2018173961A (ja) 入力デバイス、入力方法及び入力プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120222

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees