JP4975634B2 - データを制御し入力するための方法およびデバイス - Google Patents
データを制御し入力するための方法およびデバイス Download PDFInfo
- Publication number
- JP4975634B2 JP4975634B2 JP2007542040A JP2007542040A JP4975634B2 JP 4975634 B2 JP4975634 B2 JP 4975634B2 JP 2007542040 A JP2007542040 A JP 2007542040A JP 2007542040 A JP2007542040 A JP 2007542040A JP 4975634 B2 JP4975634 B2 JP 4975634B2
- Authority
- JP
- Japan
- Prior art keywords
- sensing
- data input
- zones
- zone
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0235—Character input methods using chord techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03543—Mice or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
−仮想キーボードのような用途において、三次元の距離を評価し計算することができるデバイス。
−その行動プロファイルによるユーザ識別のためのコンピュータによる方法。
これらの解決方法の欠点は、これらの解決方法が、デバイスの操作を学習するのに時間をかけている初心者が使用するのにも、またこのデバイスから性能を引き出そうとしている熟練者が使用するのにも適していないことである。実際に、このデバイスが複雑であり、扱いにくいために、コーディング・キーボードを発見し、学習する最初のステップのところで、ユーザはいつでもつまずき、ほとんどの場合その学習を断念してしまう。ユーザの器用さおよび気後れを考慮してある案内または手引きも存在しない。これらの解決方法のどれも同時および連続したキー作動モードによりオブジェクトの生成を結合することを可能にする特定の装置を提案していない。
プログラムにより解釈される。
−DEDを補足し、ユーザに対するその利点を拡張する、リアルタイムまたはオフラインで、電子手段により解釈する簡単な手書きの生成。
−第三者のデバイスおよびシステムとの任意のユーザの関係に制限されないで、高い性能認証および識別機能を個人オブジェクトに付与する可能性。
生成するための以降のステップを含む。この場合、上記能動テーブルからのオブジェクトの少なくとも第1の部分に対して、1つのオブジェクトを指定し/選択する上記ステップは、連続組合せモードで上記オブジェクトを指定することにより、または同時組合せモードで上記オブジェクトを指定することにより同様にうまく行うことができる。
−本発明の方法は、能動テーブルの各ボックスに関連する組合せに対応する感知ゾーンの指定方法を示す情報の記号による視覚的提示を行うステップをさらに含む。この場合、上記記号による提示自身は、仮想キーボードの技術により感知できるものであってもよい。
−上記調査ステップは、視覚的、音響的または触覚的記号による提示ステップを含み、能動テーブルからのボックスおよびそれが含むオブジェクトに関連する1つ程度の組合せが存在する場合に、それらおよびその段階まですでに指定された感知ゾーンを共有する組合せに関連するオブジェクトとのユーザの相互作用を含むステップ中に、作動したまたは作動を停止した感知ゾーンを、視覚的、音響的または触覚的に強調する。
・異なる感知ゾーンの、および各感知ゾーンに対しては、その生成にすでに選択した感知ゾーンの他にこの感知ゾーンの作動を必要とするオブジェクトのDEDにリンクしている視覚化手段上の提示ステップ。
の指定/選択の上記ステップは、単に連続モードで組合せを指定するだけで行われる。
−オブジェクトの第2の部分の少なくとも1つのもっと小さい部分に対する、オブジェクトの指定/選択の上記ステップは、1つの感知ゾーン上の1回の押下−解放により行われる。
・第1のクリアリング時間遅延(テンポ2)と等しい、純粋なBitap連続モードの外側の組合せに対するものであり、
・第1の感知ゾーンから第2の感知ゾーンへ1つのアクチュエータが快適に移動することができるように、第1の時間遅延よりも長い第2のクリアリング時間遅延(テンポ0)に等しい、純粋なBitap連続モード内の組合せに対するものである。
−このデバイスは、少なくとも1つの電子ポインタを案内する移動検出手段をさらに含む。上記移動検出手段は、感知検出ゾーン、上記の主なゾーンZiに隣接する手段、および検出ゾーンを含む手段のすべてまたは一部からなるグループからのものである。
また、本発明は、すでに説明した少なくとも1つのデータ入力装置DEDおよびコンピュータ装置を含むデータ入力システムに関する。上記DEDは、それらにより生成されたオブジェクトを通して、自分たちが接続されるコンピュータ装置を同時に案内する。
図1は、それにより、以後DEDと呼ぶ組合せデータ入力装置が、3本の「敏捷な」指(人差し指、中指および薬指)に関連する隣接する3つの主な検出ゾーン(11、12および13)を有する本発明のある実施形態を示す。これらのゾーンは、形状が指に対応するように配列されていて、各ゾーンは2つの隣接する感知ゾーン(上部または「前部」および下部または「後部」ゾーン)を含む。多くの場合、特に熟練者モードの場合には、例えば、ソフトウェア処理またはハードウェア構成により、対応する敏捷な指により一度に1つのゾーンだけが論理的に作動する。図24(c)、図24(d)および図25(b)に示すように、これは初心者には適していない。この実施形態を使用すれば、手の運動の可能性およびそれらに命令し制御する脳から最大の利益を入手することができる。何故なら、指だけが要求する運動は簡単であり、広い許容範囲を有しているからである。さらに、指先の触感および位置に関連する指自身の運動感覚は簡単なものであり、人間の手および脳に対するものとははっきりと異なる。この実施形態は、本発明を制限するものではないこと、論理感知ゾーンの数がある主ゾーンと他の主ゾーンとの間で変化する実施態様も、本発明に関連して思い付くことができることを理解されたい。
形態を考えることができる場合でも、N+1の異なる状態を使用することができる。特に、異なる論理ゾーン間の曖昧さを避け、作動停止するゾーンとこの遷移期間内に作動状態にあるゾーンとの間に冗長な情報を生成する場合には、N+1の異なる状態を使用することができる。
種々のアクチュエータ
本発明によるDEDの感知ゾーンの主なアクチュエータとして指を使用することが最も明確な解決方法である。しかし、任意のタイプのアクチュエータを使用することができ、異なる論理ゾーンを指定するためにこれらを一緒に混合することもできる。任意のタイプのアクチュエータとしては、目およびまぶた(身体障害者用)、頭部、第1の実施形態の場合には、1本から3本までの指、任意のタイプの電子ポインタ等を追跡するためのデバイスを含むスタイラス、ペン、四肢の末端、移動体の一部等がある。以下の説明においては、本発明の説明を制限しないで、アクチュエータを指定する異なる用語を使用する。
組合せ上の精度
それぞれの場合において、特に図1の実施形態の場合には、語の組合せは広義に理解しなければならないし、(指定/作動の順序を考慮する)配列か、または(指定/作動の順序を考慮に入れない)数学的意味での組合せ、または2つの「混合」組合せを含む。現在まで数学的意味でほぼ排他的な組合せの「コーディング・キーボード」の従来のコンセプトのこの拡大は、異なるコンテキストを考慮に入れるために、1から5まで変化する多数の指またはアクチュエータまたはそれらにより操作されるアクチュエータにより、実施形態1からのそれのような1つの所与のデバイスを使用できるようにするという目的を有している。この場合、ユーザが自分自身および自分の好みを発見する。そのため、本発明は、その1つの内容が指定され、次に、コンテキスト、DEDが実施される技術、移動できるアクチュエータの数、ユーザの好みに適合するテーブル内のその「アドレス」を「書き込む」ためのプロセスにより確認される「ボックス」を含むすべてのコンテキストに共通なテーブル内の5本の指を持つ人間の手の機能による規範的配列である。以下にチェックする制限を考慮するために、少数のボックスはすべてのプロセスに対してアクセスすることができないし、その内容は、規範的配列からの他のボックス内にコピーすることができる。別の方法としては、1つの主なゾーンの感知ゾーン間の非排他性に依存する他の組合
せを、少数の組合せだけにアクセスするモードに追加することができる。別の方法としては、2つの感知ゾーンに複数回タッチすることができない技術の場合には、通常は相互に排他的である2つの感知ゾーンを同時に押すのと同じことができるように、1つの追加ゾーンを追加することができる。
同時組合せモードおよび連続モード
タイプ1の実施態様との可能な数学的組合せに関連しているので、各指は、数学的には27の組合せに対応する3つの状態をとることができ、Guyot−Sionnestの特許FR85/11532号に開示されているように、26の記号のアルファベットをアドレス指定することができる。図5は、ストリップ表示による、図1のデバイスによる26の可能な有用な組合せとラテン語のアルファベット文字との間の関連の一例を示す。図5の例の場合には、デバイス上でアルファベットの各文字を生成するために、このストリップは、上記各文字を組合せのチェッカー盤の形をしている1つの表示に対応させる(黒いボックスは、ユーザの指が指定したボックスである)。例えば、3本の敏捷な指が、それぞれ、その検出ゾーンの上部または前部の感知ゾーンを作動した場合には、デバイスは、図5のストリップの場合、全部の指が3つの上部感知ゾーン全部から離れた場合に作動する「Y」を提示する。これは、押下した場合にトリガされる従来のキーボードとは異なり、関連する最後の指が離れた後でだけ主として組合せを確認するコーディング・システムの技術的現状の一般的な機能である。アドホック・ソフトウェアを使用すれば、対応するオブジェクトを作動するために提供した組合せを解釈することができる。このソフトウェアは、例えば、作動したゾーンの識別子を検索することができ、図5に示すような能動対応テーブルの助けを借りて、これらの識別子の組合せが決定した文字を生成することができる。
連続モードによるプロセス
連続モードの重要な点のうちの1つは、「技術」のところで以下に説明するように、特に、好適には片方の手で操作することが好ましい移動体(電話、マルチメディア・プレーヤ等)上で実施される、または他方の手が塞がっている場合、またはDEDを保持するための支持体がない場合、または同時押下することができない技術で作られている場合(現在のタッチスクリーン、仮想ゾーン)、本発明によるDEDに対して多くの場合実用的な1つのアクチュエータにより容易に実施することができることである。また、1つのアクチュエータにより連続モードを使用すれば、同様にポインティング・デバイスであるスタイラスにより動作を行うことができ、簡単なポインタで感知ゾーン上またはその記号による表示上で遠隔動作を行うこともできる。
かなり自然であり、種々様々なアクチュエータにより適用可能であるために特に関心がある第1の連続変形例は、タッチパッドまたはタッチスクリーンタイプの表面上でのアクチュエータのスライド動作である。「スライド」と呼ばれる連続モードのこの変形例の場合には、1つのアクチュエータがゾーン上を下降し、次に1つまたは2つの他のものにより潜在的に通過しながら、他のゾーンの方向にスライドし、次に上昇し、これにより配列を確認する。このスライド・モードは、タッチスクリーン上のスタイラスまたは指、例えば、スクリーン上の感知ゾーンの表示自身のような仮想ゾーン上のポインタ、またはタッチパッド(会社名)のようなその運動を追跡することができるゾーン上の親指のような指、技術現状による規格、またはタッチスクリーンにより使用することができる。構成した組合せは、第1のゾーンおよび最後のゾーンの関連であってもよいし、またはスライドにより形成されたすべてのゾーンの関連であってもよい。スタイラスでこの「スライド」を行った場合には、草書書込みをアプローチする。さらに、この草書は、感知ゾーンを使用しなくても、紙およびペンまたは鉛筆により、または例えば、大型のカーソルの大きさの非常に狭い面内の感知スクリーン・タブレット上で行うことができ、そのため手書き認識システムに近いものになるが、書込みが簡単になりそのために容易に認識することができることを理解することができるだろう。
な3つの指の組合せを追加することができ、および6つのゾーンを同時に押すことによる第4の組合せを追加することができる。これらの解決方法は、押下力が小さく、適当な形状をしていて、斜めで間隔を有する表面の従来のキー、または依然として普及していない複数回タッチすることができるタッチパッドまたはタッチスクリーンのある種の技術を使用した場合だけ使用することができる。曖昧さおよび誤差のリスクは依然として低いけれども、(ある順番の、それ故、若干遅い)連続指定からの(順番づけされていないで、そのため短い)同時指定を明確に規定する時間遅延しきい値(テンポ1)の定義によりSuccessitapおよび同時組合せ間の違いを強調すると有利である。指を同時に押す際の平均的技量の典型的な値は、テンポ1の場合、20msである。
同時モードをベースとするプロセス
最も迅速であるが、最も多くのアクチュエータを必要とする指定および確認モードは、感知ゾーンの指定の順序が考慮されず、3つの敏捷な指により管理される主なゾーンの物理的に作動停止になったことに気が付いた場合に確認が行われ、ある時間遅延(テンポ2)より短い確認時間の際に依然として作動していたゾーンだけを考慮する「同時」と呼ぶことができるモードである。この後部の時間遅延デバイスは、指を持ち上げる動作は絶対的に同時ではないことを考慮に入れ、任意のゾーンが作動され、その後で作動停止されるのを避けるために必要なものである。何故なら、(CyKeyのような)大部分のコーディング・キーボード上で見られるように、前の確認を考慮に入れることができるからである。物理ゾーンから指が離れる度に、テンポ2がトリガされ、その時間切れの際に関連する論理ゾーンが作動を停止する。このテンポ2は、例えば、調査、または試験およびエラー中に作動し、次に作動を停止するゾーンに対してクリアリング時間遅延としての働きをする。テンポ2はゼロに低減することはできない。何故なら、この場合、ユーザが探し出したゾーンは、確認した組合せの一部を形成していないように見えるからである。同時に指を離す際の熟練度の典型的な値、テンポ2の場合50msである。また、この値をあまり大きくすることはできない。何故なら、クリアリングがあまりに遅く、そのため後で説明する案内のための重要な機能である調査を阻害するからである。ゾーンの作動の順序を考慮しなければ、指の運動がもっと楽になる。特に組合せ間の遷移は、6つのゾーン上で26の有用な組合せしかできないし、ゾーンが8つの場合には3本の指を使用しなければならない。作動した組合せの確認をトリガするイベントが来た場合には(例えば、それ以上物理ゾーンが作動しない場合には)、生成されたオブジェクトは、その論理ゾーンが依然として能動状態にある組合せに対応するオブジェクトであり、このことはそのクリアリング時間遅延テンポ2がまだ時間切れになっていないことを意味する。
(T9またはiTap)または6文字(Tengo)に関連するコードを生成することで満足し、それらをタイプする代わりに、ユーザが選択しさえすればよい音節(syllable)または語を示唆することにより、ソフトウェアおよびその語彙テーブルに曖昧さを除去させることからなる。これは既存のシステムにとっていつでも有利なものというわけではない。本発明の場合には、2つのキーを同時に押下した場合、18の各可能な組合せは、処理し易い低い曖昧さに対応する2つの単一のキーのタイピングの順序により、2つの異なる配列に対応するだけである。ルートまたは1つの語は、非常に多くの場合唯一の可能性である。幾つかの選択がある場合で、コーディング・キーボードの場合には、キーボードを見ないので、スクリーンしか見ることができず、そのため直ちにシステム・メッセージを見ることになり、次に(以下に記載する)対話型提示に関連する動的案内システムにより、運動および確認キーを作動しなくても、動的案内の選択位置にリンクしている組合せによりそれらを選択する方法で選択を提示する。見て、クリックすると、その語のタイプを終えるよりも速い暗黙の組合せを生成する。それ故、テキストを生成中の言語に対して明確化ソフトウェアを使用することができる場合には、非常に容易にそれ故速い速度で、「Bitap」および次に「Successitap」で開始したユーザにとって自然な方法で、2本の指でキーを同時に押すことができる。この場合、関心のある変形例は、Tritapを行うために、自由な3本の指を使用する。この場合、第1の2本の指は同時に動作し、第3の指はその後で動作する。
きりと区別することができる時間遅延しきい値(テンポ1)の定義を必ず行わなければならない。20ms程度の長さにすれば、連続的な組合せがそのように正しく見えるために、それらの上にあまり長い遅延を起こさないで、平均的ユーザであれば正しい同時組合せを生成することができる。
第3の好適な混合プロセス
第3の特に重要な混合モードは、「Bitap」プロセスの場合のように、図7および図25の列73である、「ピボット組合せ」と呼ばれる1回の押下−解放により通常行われる「同時」モードからの6つの特定の組合せが、2回の押下−解放により生成されるという唯一の制限の下で、「Bitap」モード、「Successitap」モードおよび「同時」(「Simultap」)モードを同時に可能にするモードである。この混合モードの利点は、同じ構成の同じDEDを、1〜3本の指またはアクチュエータ(図24の列73)と一緒に使用することができることである。このモードは、以下に説明する「Tritap」プロセス、または「高度」プロセスの場合のように、異なる組合せの数を増やすのではなく、使用できる指の数に従って、異なるプロセスにより、「Bitap」ストリップの広い意味での同じ可能な36の組合せを生成することができることである。
モード(b)は、図6のモードに類似していて、BitapモードとSuccessitapモードとを結合することができる。この場合、白いボックスは、作動した第1のゾーンであり、黒いボックスは、同時(テンポ1)を超えた第2のゾーンである。同時先行を有するが、組合せのための指定Simultapに接続する第3のボックスの追加によりこれらの併発から容易に識別することができる(図において二重にアンダーラインを引いた)8つのBitap組合せであることに留意されたい。例えば、a1およびa2のような、幾つかの近くの連続組合せを明確にするために、ユーザは、作動した組合せを確認することができるようにする明確化のための第3のゾーン(菱形を含むボックス)を使用することができる。
めである。初心者は速度が遅いので、2つの論理ゾーンのその作動はこの時間遅延よりも当然長い。それ故、この共存は、本質的にはBitap(1つのアクチュエータ)またはSuccessitap(少なくとも2つのアクチュエータ)をベースとする初心者モードを使用している。熟練者の場合には、熟練者は速度が十分速いので、同時時間遅延以下の時間内に2つのゾーンを作動することができる。それ故、熟練者は、本質的にSimultapモードをベースとする熟練者モードを使用することができる。
高度プロセス
熟練したユーザのための図8の「高度」プロセスの場合には、指定モードは、同時(81、83および84)組合せと連続(82)組合せとを結合する。すでに説明したように、時間遅延しきい値(テンポ1)の定義により、(ある順序により、それ故若干遅い)連続指定から、(順番に配列されていないで、それ故短い)同時指定を明確に識別することができる。全部で50の組合せに対する、同じ物により、可能な組合せの数を、6つの1本指の配列/組合せ+24の2本指のSuccessitap配列+20の同時の2本および3本指の組合せとする。「Tritap」モードと、図1の実施態様に対する1サイクルの指定−確認中にアクセスすることができる組合せの数を増大するための「高度」モ
ードとのどちらかの選択は、その好みおよび技術によりユーザが行い、また、タイプ1の実施態様上の3本の敏捷な指の他に、最大5つの感知ゾーンを有する第4の主なゾーン上の親指(例えば、1回のサイクル中にアクセスすることができる6×27−1=161の組合せのように、選択に6を掛ける)および2つの感知ゾーンを有する第5の主なゾーン上の小指(3による乗算、または例えば、1回のサイクル中にアクセスすることができる、3×6×27−1=486の組合せ)を作動させる、下記の実施態様2タイプの解決方法に匹敵するものでなければならない。
特定の確認
通常、本明細書に記載する発明の場合には、組合せは、最後の指(Bitap、スライド)を持ち上げるか、または組合せを構成している異なる指(Successitap、および同時)を持ち上げた場合に確認される。敏捷な指を置いている限りは確認は行われず、そのためそれを誤って生成する前にクリアリング時間遅延により組合せを訂正することができ、以下に説明するように、スクリーン提示または他のデバイスは、能動ストリップおよびテーブルの内容を調査する(それにより従来のまたは仮想のキーボード上の探索をエミュレートし、初心者および熟練者が自分たちが意識してまたは再帰的にまだ記憶していないオブジェクトを発見することができるようにする)。
プロセス機能の比較
これはユーザが必ず行わなければならないものではないが、本発明は、ユーザの個人テーブルを異なる指定および確認プロセスに対するものと論理的に同じにすることができるようにしようとする。この場合、これらの配列または組合せまたは混合によりアドレスすることができる等しい数のボックスを想定する。
オブジェクトの性質
本発明は、英数字タイプのコンピュータ・オブジェクトに限定されない。何故なら、本発明は、例えば、指の特定の組合せへ、例えば、コンピュータ上でのアプリケーションの開始、またはテレビジョンのオフのような制御するデバイスの機能を割り当てることができるからである。
隔制御用のマウス等)を使用しないで、装置上で制御することができるすべてのものを、ほとんど動かさない手の指で制御することができることである。
テーブル/ストリップの構成
ストリップは、すでに説明した異なる性質の例のオブジェクトを含むことができる。あるコンテキストの場合には、特にコンピュータ領域内においては、電子ポインタより遥かに迅速に、従来のキーボードより遥かにコンパクトに、小型の携帯または個人電子オブジェクトのデバイスより遥かに強力に、本発明のデバイスによりこれらのものを提示し、指定し、および作動することができるようにするために、すべての使用できるコンピュータ・オブジェクト(アイコン、コマンド、アプリケーション等)を記録し、これらコンピュータ・オブジェクトをストリップおよびテーブルの形に組織することができるようにするデバイスまたはソフトウェアを使用すると有利である。
技術
「マウス」による解決方法は、大部分の移動性解決方法には適していない。これらの場合には、マウスをセットするための面がない場合には、異なる検出ゾーンおよびポインタを実施するための種々の技術が存在する。とりわけ、1つの面上でこの実施態様1に対して3つの独立している主ゾーン(「多重タッチ」)およびこれらの各ゾーン内で2つの論理感知ゾーンを生成することができるようにするTouchpad(会社名)タイプの容量性または抵抗性センサに関連する技術に留意されたい。ゾーン境界間の管理は、異なる指の異なる押下に対応する論理ゾーンを作動するためのこのセンサが供給する座標を解釈するソフトウェアにより行うことができる。幾つかのセンサは、指の影響および適用の拡張ゾーンに対応する一組の座標を提供する。この場合には、ソフトウェアにより、有意の点を、センサが提供する(それ故、指の座標を構成する)一組の座標に、または大多数の座標が上部または前部(下部または後部)ゾーンのうちの1つ内に位置している場合には、上部(下部)の点に関連付けることができる。有意の点の選択は、異なる論理検出ゾーン上のアクチュエータの動作を最もよく識別することができるように行わなければならない。容量性解決方法の利点は、携帯電話のようなシステム内でその統合を可能にするセンサが薄いことである(図21および図22)。抵抗性技術を使用すれば、等価の感知ゾーンを実施することができる。この場合、主な違いは感知ゾーンを作動するのに必要な力にある。オブジェクトの指定および確認を遅くする抵抗性技術の場合にはヌルでなく、意識しないで作動することができる容量性技術の場合にはヌルである。
。
視覚、聴覚、触覚および力覚フィードバック
従来のキーボードを使用した場合には、特に移動体に対して実施した場合には、大多数のユーザは、自分の目またはマウスで自分が案内するその指でどのキーを作動するのかを見て、フィードバックがスクリーン上に表示される。うまく設計したコーディング・キーボードは、指により動きを簡単なものにし、大多数のユーザは、指先からの触覚フィードバック、方陣の相対的動きからの力覚フィードバックを利用している。
感知ゾーン1〜6の実施のために可能な寸法
実施態様1によるDEDの寸法は、使用するアクチュエータにより変化する。
このことは移動および個々の状況での非常に関心のある妥協案とすることができる。
要するに、実施態様1によるDEDは、強力なものである(指の1回の動作で、基本的には36、最大108の可能な組合せにすることもできる)一方で、非常にコンパクトなデバイスであってもよい。それ故、サイズを低減すると、可能な速度がある程度遅くなるが、移動体上の他の周知の書込手段の場合の書込速度以下にはならない。
実施態様2
図9に示すように、他の実施形態は、5つの主要なゾーン、すなわち、3本の敏捷な指用のすでに説明した実施形態1と同じ3つのゾーン(91)、親指に関連する1つの主要なゾーン(92)、および小指に関連する1つの主要なゾーン(93)からなる。
(従来のキーボード上のShiftキー、またはCtr1キーまたはAltキーのような)「修正」キーとしてこれらの2つの追加の主要なゾーンを論理的に位置させることにより、このタイプの実施態様は、実施態様1の説明の際にすでに説明した制限を超える、図面の1つの動作サイクル内の可能な組合せの数をかなり増大し、それにより順番なしで「同時」プロセスに移行することができ、それにより、もう1つの迅速さの要因である、再帰モードに遥かに迅速に有利になることができる。サイズについての制限が報告されているが、この場合、タイプ2の実施態様はその性質のためにタイプ1の実施態様より大きい。
2〜5の主要なゾーンを実施するための可能な寸法
その主な目的が最小のサイズであった実施態様1に関連して、タイプ2の実施態様の主な目的は、5本の指を効果的にまた快適に使用することができるようにすることである。
この場合には、この実施態様は、図10に示すように、5つの主要なゾーンが隣接していて、一緒にある種のグラフィック・タブレットを実施するように、それをする傾向がある。この図の場合には、実線は5つの主要な独立ゾーン(100〜104)の境界を示し、点線は1つの主要なゾーン内において排他的な感知ゾーン(10xa,10xb,...、ここで、x=0〜4)内で相互にそれらを分離する。
テーブルの回転または置換
さらに図9を参照すると、親指(92)および小指(93)に関連する主要なゾーンにより、使用することができる生の組合せの配列についての概念上の設計、およびその組合せにより、そのオブジェクトを3本の敏捷な指の組合せにより指定することができる、36、33、30または26のボックスの能動テーブルを変えることができる。我々にとって、ストリップという用語は、所与の親指および小指の位置に対する上記タイプ1の実施態様上の敏捷な指の組合せにより指定することができる一組の26、30、33または36(「高度」および「Tritap」プロセスに対して50または108まで携帯できる)オブジェクトを意味する。この場合、親指および小指ゾーンは、Shift、Ctrl、Alt、AltGr、Fn、WinまたはApple等のタイプ、意味修整キー、一定の数のキーと一緒に使用することができる記号およびコマンドの数を増大するために広く一般に使用されるしっかりと確立されたコンセプトである。それ故、テーブルという用語は、「親指および小指」の組合せに従ってすべての可能なストリップを結合する。ケース2の場合には、その主要なゾーン上の6つの親指の可能な状態により指定することができる6つの異なるストリップがある。これは、その3つの状態間の小指の動作により、組合せの指定および確認に対する基本的なサイクル中に行った親指または小指の簡単な位置決めにより、18の異なるストリップを指定することができる。組合せの確認のための手段の特定の実施および構成の場合には、3本の敏捷な指により組合せを確認するために、親指または小指ゾーンの作動を停止する必要はない。これにより、依然として、1本、2本または3本の敏捷な指だけを動かすよりも、誰にとっても、特に初心者にとって相変わらず難しい、1回のサイクル中に4本または5本の指を動かさなければならない場合を少なくすることができる。案内についてすでに説明し、以下に説明するように、本発明による設計には、確認を計算し、行動する前に作動し、作動を停止した特定の感知ゾーンをクリアするクリアリング時間遅延(テンポ2)が存在する。これにより、3本の敏捷な指のうちの少なくとも1本が感知ゾーンを作動している間に、親指または小指の動きは、関連するストリップの簡単な変化、それ故、3本の敏捷な指のゾーンだけの作動停止により確認され、作動されるボックスおよび内容の変化に変換される。
DEDポインティング・デバイス
図1または図9について考察してみると、検出ゾーンに対して幾つかの技術を使用すると、その上またはその中でアクチュエータの連続運動を決定することができる面または連続容積(図10)を入手することができる。
チ」)に適用できる、各主要なゾーンの場合、ポインタ・デバイスまたは特定のポインタ・デバイスを使用することができるスクリーンの一部は、出力から定義したスクリーンの各部分に対応する。この解決方法は、特に、スクリーンの一方の端から他方の端に自分のアクチュエータをスライドさせなくても、1つ以上のドキュメントまたはウィンドウ内の幾つかの別々のタスクを管理することができるようにする幾つかの別々のカーソル間を行き来しなくても、スクリーンのある部分から他の部分に非常に迅速に移動することができるようにする。スクリーンの内容の音響による表示の場合には、手の5つの部分により物理的に知覚することができる主要なゾーンに関連するこの絶対的な対応により、例えば、コンピュータを使用している盲目の人々用の周知のプロセスにより、音響または触覚的提示によりスクリーンのところでログしなくても、スクリーン上の内容およびそこで移動したものを迅速に分析することができる。
特定の実施形態の場合には、ジョイスティックまたはデバイスの感知検出ゾーンに並置されているタッチパッド・タイプの手段によりマウス機能が実施される。
指定−確認プロセスの管理
図11は、本発明によるオブジェクトの生成を示す。
110:考えることにより、ユーザは自分が生成したいオブジェクトを決定する。
112:それ故、ユーザは、アクチュエータ(指)により案内された対話型の助けによりまたはよらないで、このオブジェクトを指定する。
115:それにより、指定し確認したオブジェクトが生成され、作動される。
記号による提示
本発明の場合には、デバイスを使用中であっても、視覚化スクリーン(または任意の他の提示手段)上に情報を提示するという問題がある。
選択/作動された場合には、個々に表示されるだけである。
感知ゾーン上の指の位置の表示の最初の変形であるこの手書きは、連続している草書の形で、または前に存在しているグリッド内での滑ったまたは先の尖った形で手書きにより非常に簡単に生成できることが分かっているし、容易に認識することができることが分かっている。何故なら、それが簡単な書体認識デバイスにとって容易に識別することができる簡単な要素で形成されているからである。例えば、幾つかのダイオードまたは等価物を含む光学式鉛筆は、中央のトレースの始まりと終わりに関する上部および下部の太い縦の線の連続を容易に検出する。同様に、グリッドに関して、物理的に表示されているまたは表示されていないベクトルおよび点を非常に容易に引くことができ、その後でリアルタイムまたは後で検出し、識別し、36の基本的組合せに関連するモデルに接続する。最大6つの上部および下部アクセントを容易に識別することができるので、最大216の可能性に上る基準テーブルを変更するための基本的な一組の記号を定義することができる。
を学習するための、または走査する前に印刷した文書に認識できるように注を付けるための有用性の範囲が拡がることである。認識を簡単にすると、特種なゾーン等を使用しなくても、書く時点でリアルタイムの場合よりももっと少ないリソースでそれを行うことができる。
調査−学習
すでに説明した動的および静的提示の組合せ、および指定プロセスのためのすでに説明したクリアリング・プロセスにより、初心者または(熟練者を含む)躊躇するユーザは、種々のストリップの内容を調査することができ、自分の指がその組合せをまだ確認しないうちに、所望の組合せを正しく行うために、自分の指を調整することができる。
これらのものは、特に、「Bitap」、「Successitap」および「同時」プロセスによりすでに説明したクリアリング・プロセスにより実施することができる。これらのものは、まだ物理的に解放されていないゾーン、構成可能なしきい値時間間隔(テンポ2およびテンポ0)内だけに解放され、作動した感知ゾーンのクリアリングを特徴とするゾーンを、論理的に能動状態にあると見なす。確認後、すべての感知ゾーンは、論理的に作動を停止する。この解決方法も、一緒に確認した組合せの一部である感知ゾーン、およびその一部でないゾーンをはっきり区別することができる。
メニューおよび異なる選択と一緒に並べてまたは永久に動的に置くことができる。このようにして、初心者は、昔の方法で練習しているうちに、他の時にコマンドを作動するために、自分の指の動きだけを使用する方法を理解する。
躊躇−取消し
ユーザが論理ゾーンを間違って指定した場合には、DEDは、物理的に作動される敏捷な指に割り当てられたもう1つの感知ゾーンが依然としてある場合に限って、ユーザが間違ったゾーンから自分の指を離した後で、同時に解放するための異なるプロセスのところですでに定義した時間遅延(テンポ2)より長い時間に、間違って指定した論理ゾーンを1回だけ「クリア」することができる。これにより、間違った位置を持つ指を離す前に敏捷な指に割り当てられたもう1つのゾーンを物理的に作動する必要がある。こうすることができるので、ユーザはアクセス可能な調査学習経験をつむことができ、また初心者に対してエラー再確認許容範囲を提供することができる。
修正−明確化−予測−完了
また、本発明は、DEDで実施される修正、明確化、予測、および完了のための手段に関する。2つの様態を、すなわち、指の検出の態様、および入力したものの意味論の態様を考えることができる。
立および構成による材料手段を含む。本発明によれば、1つの主要なゾーンの感知ゾーンは、ある場合に非常に迅速に行われない行動を除いて、ほとんど全体的に相互に排他的である。そのため、アクチュエータがゾーンにうっかり触れた場合、システムは、軽くタッチした第1のものに優先順位を与え、同時に軽くタッチした場合には、技術により、力がより大きいまたは表面積がより広いゾーンに優先順位を与える。基本的には、本発明に適合している感知ゾーンは、従来のキーボードのキーのように、移動のしきい値を越えて移動する必要はなく、抵抗がなくなった感じを与え、対照的に、力が弱い場合または力が加わらなかった場合、ほとんど動かないか全然動かない。実際には、最初に、一秒間に数回の押下を迅速に行う指は、これらの運動および力により遅くなり、さらに指の運動が簡単なものであるので、有意のエリア上を移動する指によるタッチ・タイピングによりほとんどいつでもすれすれに移動する所望のキーとその付近のキーを識別しても意味がない。
た句の冒頭から、およびDEDを使用しているコンテキスト(ソフトウェア)からの文法的および意味論的分析の関数として意味論の示唆を提供する。スクリーン上に位置する能動バンドが、空のボックス、またはその時点で役に立たないオブジェクトを含んでいるボックスを含んでいる場合には、このバンドは、ユーザに意味論予測または言語予測が提案した1つまたは幾つかのオブジェクト(語、句の一部、コマンド等)を示すように修正される。別の方法としては、これらの新しいオブジェクトの1つまたは幾つかによりオプションとしてのストリップが生成され、スクリーンの都合の良いエリア内でユーザに提示される。より詳細に説明すると、これは、語「自身」の冒頭部分の入力の後で指定することができる3つの提案を示す図19の場合である。この修正したまたは生成したストリップは、ユーザがそれを所望する場合には、視覚的にまたは任意の他の手段によりユーザに提示される。それ故、これが示唆からできている場合には、後者は、より迅速に所望のオブジェクトを効果的に生成することができる。一方、従来のシステムを使用した場合には、多くの場合、示唆の選択は、ユーザがキーを見ている場合には、ユーザはそんなに早い時期に示唆を見ないということを考慮に入れないで、意図する語の文字のタイピングを終了するより遅い。
自動構成および適合
ある実施形態によれば、デバイスは、すでに説明したステップおよび機構を管理するためのソフトウェア・モジュールを含む。このことは特に、これらの目的の関数としてユーザ構成インタフェースの提供を可能にする。
・テンポ0は、純粋なBitapモードの場合には、1つのアクチュエータを第1の感知ゾーンから第2の感知ゾーンに移動するためにユーザが使用することができる時間を定義する。
・テンポ2は、物理的に解放したゾーンの確認およびクリアリング時間遅延のためのものである。
・テンポ4は、ユーザが指を確認または追加する前に躊躇した場合に、案内視覚化の再現を管理するためのものである。
・テンポ6は、DED感知ゾーンの作動によりトリガされた禁止の前にポインタの動きをクリアするためのものである。
−好適な指定および確認モード(Bitap、Slide、Successitap、同時、混合、高度等)の選択
−ユーザの手の形状の関数としての論理感知ゾーンの構成
−アクチュエータの選択
−テーブル/ストリップ(オブジェクトの性質、好みによるオブジェクトの位置決め)の構成。
システム
図12の実施形態の場合には、DEDデバイス(120)は、有線接続(122)(USBケーブル、ネットワーク・ケーブル)または無線接続(123)(赤外線、Bluetooth、WiFi、RF等)により、データが入力される装置(121)に接続している。
合、フランス語では数十にしかすぎない)、このシステムは、現在存在する最速のもの、Qwerty−Azerty、直接ステノタイプおよびVeloType(会社名)よりもっと生産的になる。
DED+スクリーン
しかし、技術的現状での共通使用を含む特定の実施形態の場合には、DEDは、潜在的にコンピュータの仲介により少なくとも1つの表示スクリーンに接続している。この表示スクリーンにより、学習のためおよびこの組合せデータ入力装置を使用するための有用なモジュールによりDEDの性能を向上することができる。
実施例:携帯電話に内蔵されているDED
DEDの特定の用途は、ますます盛んに端末として使用されていて、そのため従来の12キーを超えるヒューマンマシン・インタフェース、カーソル移動管理キー、および「入力」キーおよび「エスケープ」キーを必要とする携帯電話に関連する。
−本発明によるプロセスを実施し、例えば、図20の標準数字キーパッド上の6+4+2のキーをベースとするソフトウェアに限定される設置1。標準キーの押下が難しいために、2本の親指に対してBitapおよびSuccessitapモードだけが実際に可能であるが、従来のキーパッドおよびプロセスより遥かに高速で、より高性能で、キーを全然見ないで入力およびコマンドすることがすでに可能である。図20の例の場合には、また図5の文法を使用した場合には、通常の携帯電話キーが使用され、キー「1」および
「2」を押下すると、文字「B」が生成される。それ故、このソフトウェア実施態様は、もっとコストが高く壊れやすいタッチスクリーンを設置しなくても、仮想キーボードの能力および柔軟性を提供する。
認証および識別によるDED実施の例
DEDは、外部手段と通信する電子オブジェクトである。外部手段が受動的なものでなく、DEDと通信し、それが送信するものを制御することができる場合には、DEDの電子システム内に、DED用の認証手段、および技術的現状により、ユーザがバイパスすることができないプロセスによりこれら外部手段と通信しているユーザの識別を含むと有利である。
ができる。この新しい解決方法は、アドホック・マネージャが定義するセキュリティ・リスクのために、ユーザだけが知っていると考えられ、漏洩から保護される情報の入力に対する従来の要求、または生物測定読取装置(biometric reader)上の指を置くようにとの従来の要求に並置される。ある人が自分自身の個人的な理由のために携行し、使用する個人DED内のこの人のための認証および識別手段を内蔵させることにより、技術的現状により「トークン」と呼ばれるオブジェクトを遥かに快適に使用することができる。この方法により、本発明によるDEDを使用すれば、トークンの大きな制限のために、その周知の弱点が依然として支配的な「ログイン」+「パスワード」の組合せを置換することにより、ネットワークおよび携帯電話上のセキュリティを遥かに容易に実質的に強化することができる(これらは、作業を中断する特定のオブジェクトを着用しなければならない)。
Claims (22)
- 感知手段を備えるデータ入力デバイスがデータを入力するデータ入力方法であって、
前記感知手段は、少なくとも1つのアクチュエータの仲介によって作動されることができ、
前記少なくとも1つのアクチュエータは、作動された前記感知手段の組合せにしたがって、アドホック・コンピュータ・プログラムに、能動対応テーブルが備えるオブジェクトを指定させ且つ作動させ、
前記感知手段は、少なくとも3つの検出ゾーンを備え、
前記検出ゾーンそれぞれは、それぞれがFi(Fi=1,2,3...)個の異なる感知ゾーンを備え、
前記データ入力方法は、前記データ入力デバイスによって、
前記オブジェクトを指定し且つ選択するための少なくとも1つの選択ステップ(112)と;
指定され且つ選択された前記オブジェクトを確認し、生成する確認生成ステップ(114,115)と
を有し、
前記能動対応テーブルに含まれる複数の前記オブジェクトのうちの1以上のオブジェクトを有するグループを、第1グループとすると、
前記第1グループが有する前記オブジェクトを選択するために、前記選択ステップ(112)は、連続組合せモードまたは、同時組合せモードで行われ、
前記同時組合せモードでは、前記オブジェクトはそれぞれ、少なくとも1つの前記感知ゾーンが作動されると同時に指定され且つ選択され、
前記連続組合せモードでは、前記オブジェクトはそれぞれ、時間遅延しきい値内に作動された少なくとも1つの前記感知ゾーンの作動順序によって指定され且つ選択され、
前記同時組合せモードは、前記時間遅延しきい値によって、前記連続組合せモードとは異なることが識別される、データ入力方法。 - 前記データ入力方法はさらに、前記オブジェクトに対応する前記感知ゾーンの指定方法を示す情報を、記号によって視覚的に提示するステップ(111)を有し、
前記記号による提示は、それ自身、仮想キーボードの技術によって感知されることができる、
請求項1記載のデータ入力方法。 - 前記データ入力方法は、前記選択ステップ(112)と前記確認生成ステップ(114,115)との間に、前記能動対応テーブルの内容を調査する調査ステップを有する、
請求項1または2記載のデータ入力方法。 - 前記調査ステップは、視覚的、音響的または触覚的記号による提示ステップを有し、
前記提示ステップは、前記感知ゾーンそれぞれとユーザが相互作用するステップ中に作動したまたは作動停止した前記感知ゾーンを、視覚的、音響的、または触覚的に強調し、
前記提示ステップはさらに、前記能動対応テーブルからのボックスに関連し且つ前記能動対応テーブルが有する前記オブジェクトに関連する組合せが1つになるまで、既に指定された前記感知ゾーンを共有する組合せに関連するオブジェクトを、視覚的、音響的、または触覚的に強調する、
請求項3記載のデータ入力方法。 - 視覚化手段に接続している前記データ入力デバイス上において、前記調査ステップは、
前記視覚化手段上に、作動された前記感知ゾーンとは異なる前記感知ゾーンと、異なる前記感知ゾーンそれぞれに対するオブジェクトである新規オブジェクトとを提示するステップであって、前記新規オブジェクトの生成は、すでに選択した前記感知ゾーンに加えて、異なる前記感知ゾーンの作動を必要とすることと;
ユーザが異なる前記感知ゾーンを選択した場合、またはすでに選択した前記感知ゾーンを解放した場合に、選択された前記感知ゾーンの提示と選択された前記感知ゾーンに対する前記オブジェクトである選択オブジェクトの提示とを更新する時間遅延ステップであって、前記選択オブジェクトは、同時に指定された、または1以上の時間遅延よりも短い過去の時間間隔において指定された全ての前記感知ゾーンである全指定感知ゾーンと、前記全指定感知ゾーンから依然として生成されうる前記オブジェクトとを検討するための前記感知ゾーンの組合せに関連することと
を有する、
請求項3または4記載のデータ入力方法。 - 前記感知手段は、3つの前記検出ゾーン(11〜13)を備え、
前記検出ゾーン(11〜13)はそれぞれ、2つの互いに異なる前記感知ゾーンを備え、
前記データ入力デバイス上で、連続モードでの前記オブジェクトの指定は、6つの前記感知ゾーンのうちの少なくとも2つの前記感知ゾーンの連続作動を有する、
請求項1〜5いずれか1項記載のデータ入力方法。 - 前記第1グループに含まれる複数の前記オブジェクトとは異なる1以上のオブジェクトを有するグループを、第2グループとすると、
前記第2グループが有する前記オブジェクトを選択するために、前記選択ステップ(112)は、前記連続モードで前記感知ゾーンの組合せを指定するだけで行われる、
請求項6記載のデータ入力方法。 - 前記第2グループが有する前記オブジェクトを選択するために、前記選択ステップ(112)は、1つの前記感知ゾーンの1回の押下と解放だけにより行われる、
請求項7記載のデータ入力方法。 - 前記確認生成ステップ(114,115)は、すべての前記感知ゾーンの選択解除を検
出し、
確認された前記オブジェクトは、クリアリング時間間隔が経過するまで選択されている前記感知ゾーンから構成されていて、
前記クリアリング時間間隔は、
前記同時組合せモードにおける組合せでは、第1のクリアリング時間遅延(テンポ2)に等しく、
前記連続組合せモードにおける組合せでは、前記第1のクリアリング時間遅延(テンポ2)よりも大きい第2のクリアリング時間遅延(テンポ0)に等しい、
請求項1〜8いずれか1項記載のデータ入力方法。 - 前記データ入力デバイスはさらに、少なくとも1つの追加の検出ゾーンである追加検出ゾーンと、複数のテーブルとをさらに備え、
前記追加検出ゾーンはそれぞれ、複数の論理ゾーンから構成され、
前記能動対応テーブルは、前記複数のテーブルのうちの1つであり、
前記データ入力方法はさらに、前記データ入力デバイス上で、前記論理ゾーンのうちの少なくとも1つを作動することによって、前記複数のテーブルのうちの1つで前記能動対応テーブルを置換するステップを有する、
請求項1〜9いずれか1項記載のデータ入力方法。 - 前記データ入力方法はさらに、
一連の指定したまたは確認した前記オブジェクトに対する訂正、明確化、および予測ステップであって、前記訂正、明確化、および予測ステップでは、少なくとも1つの示唆された音節または語を有する、示唆されたテーブルを生成できることと;
示唆された前記テーブルを、視覚的、音響的、または触覚的に提示するステップと
を有し、
前記選択ステップ(112)では、示唆された前記テーブルから、前記オブジェクトを指定、調査、および確認しうること
請求項1〜10いずれか1項記載のデータ入力方法。 - 指定され、確認され、生成された前記オブジェクトは、一組のコンピュータおよび電子オブジェクトから選択され、
前記一組のコンピュータおよび電子オブジェクトは、1または幾つかの英数字と、標準句と、画像と、アイコンと、スクローリング・メニュー項目と、前記データ入力デバイスが接続された他のコンピュータまたは電子装置上に常駐するコマンドおよびコンピュータプログラムとのうちのいずれかである、
請求項1〜11いずれか1項記載のデータ入力方法。 - 複数の前記感知ゾーンのうちの作動された感知ゾーンを、作動感知ゾーンとし、
作動されていない感知ゾーンを、未作動感知ゾーンとすると、
前記作動感知ゾーンを使用することによって作動された前記オブジェクトの組合せは、明確化のために少なくとも1つの前記未作動感知ゾーンを用いることによって、明確にされる、
請求項1記載のデータ入力方法。 - 作動された前記感知ゾーンを使用することによって作動された前記オブジェクトの組合せは、明確化ソフトウェアを用いることによって、明確にされる、
請求項1記載のデータ入力方法。 - 感知手段を備えるデータ入力デバイスであって、
前記感知手段は、少なくとも1つのアクチュエータの仲介によって作動されることができ、
前記少なくとも1つのアクチュエータは、作動された前記感知手段の組合せにしたがって、アドホック・コンピュータ・プログラムに、能動対応テーブルが備えるオブジェクトを指定させ且つ作動させ、
前記感知手段は、少なくとも3つの検出ゾーンを備え、
前記検出ゾーンそれぞれは、それぞれがFi(Fi=1,2,3...)個の異なる感知ゾーンを備え、
前記データ入力デバイスは、
前記オブジェクトを指定し且つ選択し、
指定され且つ選択された前記オブジェクトを確認し、生成するように構成され、
前記能動対応テーブルに含まれる複数の前記オブジェクトのうちの1以上のオブジェクトを有するグループを、第1グループとすると、
前記第1グループが有する前記オブジェクトを選択するために、前記選択ステップ(112)は、連続組合せモードまたは、同時組合せモードで行われ、
前記同時組合せモードでは、前記オブジェクトはそれぞれ、少なくとも1つの前記感知ゾーンが作動されると同時に指定され且つ選択され、
前記連続組合せモードでは、前記オブジェクトはそれぞれ、時間遅延しきい値内に作動された少なくとも1つの前記感知ゾーンの作動順序によって指定され且つ選択され、
前記同時組合せモードは、前記時間遅延しきい値によって、前記連続組合せモードとは異なることが識別される、データ入力デバイス。 - 前記データ入力デバイスはさらに、少なくとも1つの電子ポインタを案内する移動検出手段を備え、
前記移動検出手段は、前記感知ゾーンの全部または一部と、前記検出ゾーンに隣接する手段と、前記検出ゾーンを有する手段とのうちのいずれか1つである、
請求項15記載のデータ入力デバイス。 - 前記データ入力デバイスはさらに、少なくとも1つの追加の検出ゾーンである追加検出ゾーンと、複数のテーブルとをさらに備え、
前記追加検出ゾーンはそれぞれ、複数の論理ゾーンから構成され、
前記能動対応テーブルは、前記複数のテーブルのうちの1つであり、
少なくとも1つの前記追加検出ゾーンは、前記データ入力デバイスが有するソフトウェア手段によって、前記論理ゾーンのうちの少なくとも1つが作動された場合、前記複数のテーブルのうちの1つによって前記能動対応テーブルを置換するように構成される、
請求項15または16記載のデータ入力デバイス。 - 前記データ入力デバイスは、前記データ入力デバイスの認証のためのものであり、前記データ入力デバイスに特有の電子チップ・タイプの手段を含み、
前記電子チップは、ユーザが前記データ入力デバイス上で使用している使用プロファイルの関数としての英数字列と、前記データ入力デバイスからオブジェクトを生成するために作動することができる感知手段によってユーザが入力した文字列とを生成するのに適している、
請求項15〜17いずれか1項記載のデータ入力デバイス。 - 前記検出ゾーンが有する前記感知ゾーンはそれぞれ、相互に排他的である、
請求項15〜18いずれか1項記載のデータ入力デバイス。 - 請求項15〜19いずれか1項記載の少なくとも1つのデータ入力デバイスと、コンピュータ装置とを備えるデータ入力システムであって、前記データ入力デバイスは、少なくとも1つの前記データ入力デバイスが生成した前記オブジェクトを介して、少なくとも1
つの前記データ入力デバイスが接続している前記コンピュータ装置を同時に動作させる、データ入力システム。 - 前記データ入力システムはさらに、視覚的、音響的または触覚的提示のための手段を備え、
前記視覚的、音響的または触覚的提示のための手段は、前記能動対応テーブルと、選択された前記感知ゾーンと、複数の前記オブジェクトのうちの少なくとも1つを作動するために指定される前記感知ゾーンとを記号によって表示することができるようにする、
請求項20記載のシステム。 - 請求項1記載のデータ入力方法を実施するためにコンピュータを、
前記選択ステップ(112)を実行する手段、および
前記確認生成ステップ(114、115)を実行する手段
として機能させるためのコンピュータ・プログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0452712 | 2004-11-22 | ||
FR0452712A FR2878343B1 (fr) | 2004-11-22 | 2004-11-22 | Dispositif d'entree de donnees |
FR0508462A FR2878344B1 (fr) | 2004-11-22 | 2005-08-09 | Dispositif de commandes et d'entree de donnees |
FR0508462 | 2005-08-09 | ||
PCT/FR2005/002878 WO2006053991A1 (fr) | 2004-11-22 | 2005-11-18 | Procede et dispositif de commandes et d'entree de donnees |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008521112A JP2008521112A (ja) | 2008-06-19 |
JP4975634B2 true JP4975634B2 (ja) | 2012-07-11 |
Family
ID=35589305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007542040A Expired - Fee Related JP4975634B2 (ja) | 2004-11-22 | 2005-11-18 | データを制御し入力するための方法およびデバイス |
Country Status (5)
Country | Link |
---|---|
US (1) | US8125440B2 (ja) |
EP (1) | EP1839108A1 (ja) |
JP (1) | JP4975634B2 (ja) |
FR (1) | FR2878344B1 (ja) |
WO (1) | WO2006053991A1 (ja) |
Families Citing this family (89)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100772453B1 (ko) * | 2006-11-17 | 2007-11-01 | 삼성전자주식회사 | 휴대용 단말기에서 문자 입력 방법 및 장치 |
US7777732B2 (en) * | 2007-01-03 | 2010-08-17 | Apple Inc. | Multi-event input system |
US8310453B1 (en) * | 2007-10-02 | 2012-11-13 | Avaya Inc. | Touch-screen sign-in key |
US20090122018A1 (en) * | 2007-11-12 | 2009-05-14 | Leonid Vymenets | User Interface for Touchscreen Device |
EP2344946A1 (en) * | 2008-10-07 | 2011-07-20 | Tiki'labs | Method and device for controlling an inputting data |
US20100110020A1 (en) * | 2008-10-31 | 2010-05-06 | Sprint Communications Company L.P. | Virtual press number pad |
US8856690B2 (en) * | 2008-10-31 | 2014-10-07 | Sprint Communications Company L.P. | Associating gestures on a touch screen with characters |
JP2010157039A (ja) * | 2008-12-26 | 2010-07-15 | Toshiba Corp | 電子機器、入力制御方法 |
US20100238118A1 (en) * | 2009-03-20 | 2010-09-23 | Sony Ericsson Mobile Communications Ab | System and method for providing text input to a communication device |
KR101115467B1 (ko) * | 2009-09-30 | 2012-02-24 | 주식회사 팬택 | 가상 키보드 제공 단말 및 그 방법 |
US8279091B1 (en) * | 2009-11-03 | 2012-10-02 | The United States Of America As Represented By The Secretary Of The Navy | RFID system for gesture recognition, information coding, and processing |
US20110138284A1 (en) * | 2009-12-03 | 2011-06-09 | Microsoft Corporation | Three-state touch input system |
CN102906682B (zh) | 2010-04-23 | 2016-10-26 | 谷歌技术控股有限责任公司 | 使用触摸检测表面的电子设备和方法 |
US10238362B2 (en) | 2010-04-26 | 2019-03-26 | Gary And Mary West Health Institute | Integrated wearable device for detection of fetal heart rate and material uterine contractions with wireless communication capability |
WO2011140518A1 (en) * | 2010-05-06 | 2011-11-10 | West Wireless Health Institute | Multipurpose, modular platform for mobile medical instrumentation |
EP2577430A4 (en) * | 2010-05-24 | 2016-03-16 | Will John Temple | MULTIDIRECTIONAL BUTTON, KEY AND KEYBOARD |
US20110310126A1 (en) * | 2010-06-22 | 2011-12-22 | Emil Markov Georgiev | Method and system for interacting with datasets for display |
US9717412B2 (en) | 2010-11-05 | 2017-08-01 | Gary And Mary West Health Institute | Wireless fetal monitoring system |
US9261972B2 (en) | 2011-04-21 | 2016-02-16 | Inpris Innovative Products Ltd | Ergonomic motion detection for receiving character input to electronic devices |
US10146428B2 (en) | 2011-04-21 | 2018-12-04 | Inpris Innovative Products From Israel Ltd | Device, system, and methods for entering commands or characters using a touch screen |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US8863042B2 (en) * | 2012-01-24 | 2014-10-14 | Charles J. Kulas | Handheld device with touch controls that reconfigure in response to the way a user operates the device |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
WO2013169875A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
DE202013012233U1 (de) | 2012-05-09 | 2016-01-18 | Apple Inc. | Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt |
CN104487928B (zh) | 2012-05-09 | 2018-07-06 | 苹果公司 | 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面 |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
EP3264252B1 (en) | 2012-05-09 | 2019-11-27 | Apple Inc. | Device, method, and graphical user interface for performing an operation in accordance with a selected mode of operation |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
CN108287651B (zh) | 2012-05-09 | 2021-04-13 | 苹果公司 | 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置 |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
CN109298789B (zh) | 2012-05-09 | 2021-12-31 | 苹果公司 | 用于针对激活状态提供反馈的设备、方法和图形用户界面 |
CN109062488B (zh) | 2012-05-09 | 2022-05-27 | 苹果公司 | 用于选择用户界面对象的设备、方法和图形用户界面 |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
JP5832377B2 (ja) * | 2012-05-31 | 2015-12-16 | 京セラドキュメントソリューションズ株式会社 | 操作入力装置、情報処理装置 |
US10209781B2 (en) * | 2012-06-12 | 2019-02-19 | Logitech Europe S.A. | Input device with contoured region |
EP2939095B1 (en) | 2012-12-29 | 2018-10-03 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
JP6138274B2 (ja) | 2012-12-29 | 2017-05-31 | アップル インコーポレイテッド | ユーザインタフェース階層をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース |
CN107831991B (zh) | 2012-12-29 | 2020-11-27 | 苹果公司 | 用于确定是滚动还是选择内容的设备、方法和图形用户界面 |
KR101958582B1 (ko) | 2012-12-29 | 2019-07-04 | 애플 인크. | 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
KR20170081744A (ko) | 2012-12-29 | 2017-07-12 | 애플 인크. | 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
JP6021729B2 (ja) * | 2013-04-30 | 2016-11-09 | 株式会社ベネッセコーポレーション | 入力デバイス及びタッチパネル表示システム |
JP6470485B2 (ja) * | 2013-06-21 | 2019-02-13 | シャープ株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
US9245205B1 (en) * | 2013-10-16 | 2016-01-26 | Xerox Corporation | Supervised mid-level features for word image representation |
US20160154570A1 (en) * | 2014-03-26 | 2016-06-02 | Unanimous A. I., Inc. | Iterative suggestion modes for real-time collaborative intelligence systems |
US10133460B2 (en) | 2014-03-26 | 2018-11-20 | Unanimous A.I., Inc. | Systems and methods for collaborative synchronous image selection |
US10817158B2 (en) | 2014-03-26 | 2020-10-27 | Unanimous A. I., Inc. | Method and system for a parallel distributed hyper-swarm for amplifying human intelligence |
US11269502B2 (en) | 2014-03-26 | 2022-03-08 | Unanimous A. I., Inc. | Interactive behavioral polling and machine learning for amplification of group intelligence |
US11151460B2 (en) | 2014-03-26 | 2021-10-19 | Unanimous A. I., Inc. | Adaptive population optimization for amplifying the intelligence of crowds and swarms |
US10110664B2 (en) * | 2014-03-26 | 2018-10-23 | Unanimous A. I., Inc. | Dynamic systems for optimization of real-time collaborative intelligence |
US12079459B2 (en) | 2014-03-26 | 2024-09-03 | Unanimous A. I., Inc. | Hyper-swarm method and system for collaborative forecasting |
AU2015236010A1 (en) | 2014-03-26 | 2016-11-10 | Unanimous A.I. LLC | Methods and systems for real-time closed-loop collaborative intelligence |
US10817159B2 (en) | 2014-03-26 | 2020-10-27 | Unanimous A. I., Inc. | Non-linear probabilistic wagering for amplified collective intelligence |
US12001667B2 (en) | 2014-03-26 | 2024-06-04 | Unanimous A. I., Inc. | Real-time collaborative slider-swarm with deadbands for amplified collective intelligence |
US9940006B2 (en) | 2014-03-26 | 2018-04-10 | Unanimous A. I., Inc. | Intuitive interfaces for real-time collaborative intelligence |
US11941239B2 (en) | 2014-03-26 | 2024-03-26 | Unanimous A.I., Inc. | System and method for enhanced collaborative forecasting |
US10146330B2 (en) * | 2014-06-18 | 2018-12-04 | Matthew Swan Lawrence | Systems and methods for character and command input |
US20160098162A1 (en) * | 2014-10-06 | 2016-04-07 | Lenovo (Singapore) Pte. Ltd. | Pen based locking mechanism |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9785305B2 (en) | 2015-03-19 | 2017-10-10 | Apple Inc. | Touch input cursor manipulation |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US10152208B2 (en) | 2015-04-01 | 2018-12-11 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US10120567B2 (en) * | 2015-04-02 | 2018-11-06 | Inpris Innovative Products From Israel Ltd | System, apparatus and method for vehicle command and control |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
KR102313755B1 (ko) * | 2017-06-07 | 2021-10-18 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
US11449167B2 (en) | 2017-06-26 | 2022-09-20 | Inpris Innovative Products Fromisrael, Ltd | Systems using dual touch and sound control, and methods thereof |
CN108196696B (zh) * | 2018-01-02 | 2022-02-22 | 京东方科技集团股份有限公司 | 一种可穿戴输入装置、主机、输入方法及电子系统 |
JP6647348B2 (ja) * | 2018-06-29 | 2020-02-14 | キヤノン株式会社 | 電子機器 |
KR102063678B1 (ko) * | 2018-08-20 | 2020-01-09 | 주식회사 이와이엘 | 모바일기기의 스머지 및 훔쳐보기 공격 방지를 위한 시스템 및 사용자 패턴 인증 방법 |
US11329823B2 (en) | 2019-09-26 | 2022-05-10 | Bank Of America Corporation | User authentication using tokens |
US10749678B1 (en) | 2019-09-26 | 2020-08-18 | Bank Of America Corporation | User authentication using tokens |
US11140154B2 (en) | 2019-09-26 | 2021-10-05 | Bank Of America Corporation | User authentication using tokens |
US11303629B2 (en) | 2019-09-26 | 2022-04-12 | Bank Of America Corporation | User authentication using tokens |
US11949638B1 (en) | 2023-03-04 | 2024-04-02 | Unanimous A. I., Inc. | Methods and systems for hyperchat conversations among large networked populations with collective intelligence amplification |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE420447B (sv) * | 1978-11-21 | 1981-10-05 | Ibm Svenska Ab | Metod for generering av teckenkoder medelst ett tangentbord samt anordning for utforande av metoden |
JPS5943777B2 (ja) * | 1981-09-30 | 1984-10-24 | 富士通株式会社 | マトリツクス方式によるテンキ−からの文字入力方式 |
FR2585487B1 (fr) * | 1985-07-29 | 1990-09-07 | Guyot Sionnest Laurent | Claviers pour ordinateurs, < a 70 cm2 et a moins de 13 contacts actionnes de facon combinee par les doigts d'une seule main |
US5535421A (en) * | 1993-03-16 | 1996-07-09 | Weinreich; Michael | Chord keyboard system using one chord to select a group from among several groups and another chord to select a character from the selected group |
US6107997A (en) * | 1996-06-27 | 2000-08-22 | Ure; Michael J. | Touch-sensitive keyboard/mouse and computing device using the same |
WO1997023816A1 (en) * | 1995-12-21 | 1997-07-03 | Philips Electronics N.V. | User identification system for data processing equipment with keyboard |
ES2178773T3 (es) * | 1996-08-23 | 2003-01-01 | Wolf Heider Rein | Procedimiento y dispositivo para la introduccion de datos con una sola mano. |
EP1717684A3 (en) * | 1998-01-26 | 2008-01-23 | Fingerworks, Inc. | Method and apparatus for integrating manual input |
US6552717B2 (en) * | 1998-02-27 | 2003-04-22 | Spice Technologies, Inc | OHAI technology user interface |
US6512838B1 (en) * | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
JP3440240B2 (ja) * | 2001-01-15 | 2003-08-25 | 肇 中原 | 文字等の入力装置 |
CA2411227C (en) * | 2002-07-03 | 2007-01-09 | 2012244 Ontario Inc. | System and method of creating and using compact linguistic data |
US20060242607A1 (en) * | 2003-06-13 | 2006-10-26 | University Of Lancaster | User interface |
FI116499B (fi) * | 2004-03-02 | 2005-11-30 | Nokia Corp | Viestintallennuspaikkojen hallinta |
-
2005
- 2005-08-09 FR FR0508462A patent/FR2878344B1/fr not_active Expired - Fee Related
- 2005-11-18 US US11/791,406 patent/US8125440B2/en not_active Expired - Fee Related
- 2005-11-18 JP JP2007542040A patent/JP4975634B2/ja not_active Expired - Fee Related
- 2005-11-18 EP EP05818245A patent/EP1839108A1/fr not_active Withdrawn
- 2005-11-18 WO PCT/FR2005/002878 patent/WO2006053991A1/fr active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2008521112A (ja) | 2008-06-19 |
EP1839108A1 (fr) | 2007-10-03 |
FR2878344B1 (fr) | 2012-12-21 |
US8125440B2 (en) | 2012-02-28 |
FR2878344A1 (fr) | 2006-05-26 |
WO2006053991A1 (fr) | 2006-05-26 |
US20080015115A1 (en) | 2008-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4975634B2 (ja) | データを制御し入力するための方法およびデバイス | |
US20110209087A1 (en) | Method and device for controlling an inputting data | |
Bonner et al. | No-look notes: accessible eyes-free multi-touch text entry | |
US8542206B2 (en) | Swipe gestures for touch screen keyboards | |
US9304602B2 (en) | System for capturing event provided from edge of touch screen | |
EP2209646B1 (en) | Wireless handheld device able to accept text input and methods for inputting text on a wireless handheld device | |
US20040155870A1 (en) | Zero-front-footprint compact input system | |
CN109074167B (zh) | 针对盲人或视障人士的用于计算设备多媒体管理的小工具 | |
US20040239624A1 (en) | Freehand symbolic input apparatus and method | |
NZ582991A (en) | Using gliding stroke on touch screen and second input to choose character | |
WO2004044664A1 (en) | Virtual workstation | |
TW200530901A (en) | Text entry system and method | |
KR20120006976A (ko) | 데이타입력시스템 | |
JP2006527439A (ja) | ユーザインタフェース | |
JP2013527539A5 (ja) | ||
US8887084B2 (en) | Letter input method | |
US20220129126A9 (en) | System for capturing event provided from edge of touch screen | |
US20210247849A1 (en) | Input device, signal processing unit thereto, and method to control the input device | |
JP2010517159A (ja) | 電気電子機器のボタン効率増大方法 | |
Fennedy et al. | Investigating performance and usage of input methods for soft keyboard hotkeys | |
Ni | A framework of freehand gesture interaction: techniques, guidelines, and applications | |
Chakraborty et al. | BlindGuide: An audio based eyes-free caller guide for people with visual impairment | |
Kurosu | Human-Computer Interaction. Interaction Technologies: 20th International Conference, HCI International 2018, Las Vegas, NV, USA, July 15–20, 2018, Proceedings, Part III | |
KR101654710B1 (ko) | 손동작 기반 문자 입력 장치 및 이를 이용한 문자 입력 방법 | |
Orozco et al. | Implementation and evaluation of the Daisy Wheel for text entry on touch-free interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081114 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20090602 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20090602 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110405 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110628 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110705 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110802 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110809 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110905 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110912 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120321 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120411 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150420 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |