JP7109448B2 - dynamic spacebar - Google Patents

dynamic spacebar Download PDF

Info

Publication number
JP7109448B2
JP7109448B2 JP2019538660A JP2019538660A JP7109448B2 JP 7109448 B2 JP7109448 B2 JP 7109448B2 JP 2019538660 A JP2019538660 A JP 2019538660A JP 2019538660 A JP2019538660 A JP 2019538660A JP 7109448 B2 JP7109448 B2 JP 7109448B2
Authority
JP
Japan
Prior art keywords
trackpad
computing device
touch input
spacebar
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019538660A
Other languages
Japanese (ja)
Other versions
JP2020506467A (en
Inventor
ロバーツ-ホフマン,ケイティ・リー
ムーニー,チャールズ・ジマー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2020506467A publication Critical patent/JP2020506467A/en
Priority to JP2021184047A priority Critical patent/JP7426367B2/en
Application granted granted Critical
Publication of JP7109448B2 publication Critical patent/JP7109448B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Description

分野
本明細書は、コンピュータ入力装置に関する。
FIELD This specification relates to computer input devices.

背景
ラップトップコンピュータは、ヒンジを介してキーボードに繋がれたスクリーンを備える。ユーザがキーボード上でキー入力すると、対応する文字がスクリーン上に現れる。携帯電話またはタブレット端末など、スクリーンしか備えないデバイスでは、デバイス上で実行中のアプリケーションおよび当該アプリケーションの状態によって異なるタッチキーボードをスクリーンが表示する。
BACKGROUND A laptop computer has a screen that is connected to a keyboard via a hinge. When the user types a key on the keyboard, the corresponding letter appears on the screen. In a device with only a screen, such as a mobile phone or a tablet terminal, the screen displays a different touch keyboard depending on the application running on the device and the state of the application.

概要
タッチキーボード上でキー入力する場合、キーボードを見ていないときにユーザがキーボード配列を把握できる3次元の機械式のキーをこのキーボードが含まないため、ユーザは間違いを起こしやすいだろう。タッチキーボードでは、ユーザがスペースバーを選択することを意図していても、キーボードを見ておらず、かつ、スペースバーの位置を触って感じることができないため、隣接するトラックパッド(スペースバーの真下に位置する場合もある)を選択してしまう可能性がある。このため、ユーザがスペースバーを選択したと思っているのにもかかわらず、単語の終わりにいるときにカーソルが前進しないため、ユーザは困惑してしまうだろう。トラックパッドを選択したことによってカーソルがスクリーン上のどこかに移動してしまっていた場合、ユーザは、カーソルの位置を正しい位置に直さなければならないだろう。
Overview When typing on a touch keyboard, the user may be prone to mistakes because the keyboard does not include three-dimensional mechanical keys that allow the user to grasp the keyboard layout when not looking at the keyboard. With a touch keyboard, even if the user intended to select the spacebar, they were not looking at the keyboard and could not feel the location of the spacebar, so the adjacent trackpad (directly below the spacebar) ) may be selected. This can confuse users because the cursor does not advance when they are at the end of a word, even though they think they have selected the spacebar. If the trackpad selection had moved the cursor somewhere on the screen, the user would have to reposition the cursor to the correct position.

この問題を解決するために、タッチキーボードを有するコンピューティングデバイスは、スペースバーの真下に位置するトラックパッドの一部を含むようにスペースバー有効領域のサイズを動的に調整してもよい。コンピューティングデバイスは、コンピューティングデバイスのコンテキストに基づいてスペースバー有効領域のサイズを調整してもよい。たとえば、ユーザがキー入力中であり、かつ、完全な単語の末尾にいる場合、コンピューティングデバイスは、スペースバー有効領域のサイズを拡大してもよい。この場合、ユーザは、トラックパッドよりもスペースバーを選択する可能性が高くなる。同様に、ユーザがキー入力中であり、かつ、現在の単語が不完全である場合、コンピューティングデバイスは、スペースバー有効領域のサイズを、スペースバーを超えて拡大しなくてもよい。この場合、ユーザは、現在の単語が完全である場合よりもスペースバーを選択する可能性が低くなる。 To solve this problem, computing devices with touch keyboards may dynamically adjust the size of the spacebar effective area to include the portion of the trackpad located directly below the spacebar. A computing device may adjust the size of the spacebar effective area based on the context of the computing device. For example, if the user is typing and at the end of a complete word, the computing device may increase the size of the spacebar effective area. In this case, the user is more likely to select the spacebar rather than the trackpad. Similarly, if the user is typing and the current word is incomplete, the computing device may not extend the size of the spacebar effective area beyond the spacebar. In this case, the user is less likely to select the spacebar than if the current word were complete.

本願に記載の発明の主題の革新的な態様によると、動的スペースバーを実装するための方法は、タッチスクリーンキーボードおよびトラックパッドを含むコンピューティングデバイスが、コンピューティングデバイスのコンテキストを判断する動作と、トラックパッド上のタッチ入力を受け付ける動作と、コンピューティングデバイスが、コンピューティングデバイスの予め判断されたコンテキストに基づいて、トラックパッド上のタッチ入力がタッチスクリーンキーボードのスペースバーの選択であると特定する動作と、コンピューティングデバイスのディスプレイに出力するために、トラックパッド上のタッチ入力がスペースバーの選択であるとコンピューティングデバイスが特定したことに基づいて、スペースバーの選択の表示を提供する動作とを含む。 According to innovative aspects of the inventive subject matter described herein, a method for implementing a dynamic spacebar is provided by a computing device including a touchscreen keyboard and trackpad that determines the context of the computing device. , the act of accepting touch input on the trackpad, and the computing device identifying the touch input on the trackpad as a selection of the spacebar of a touchscreen keyboard based on the pre-determined context of the computing device. and an act of providing an indication of the spacebar selection based on the action and the computing device identifying the touch input on the trackpad as the spacebar selection for output to the computing device display. including.

これらのおよびその他の実装形態は、各々、必要に応じて、下記の特徴のうちの1つ以上を含み得る。コンピューティングデバイスのコンテキストを判断する動作は、完全な単語がカーソルの位置よりも前にあると判断することを含む。トラックパッド上のタッチ入力がタッチスクリーンキーボードのスペースバーの選択であると特定する動作は、さらに、完全な単語がカーソルの前にあると判断することに基づく。コンピューティングデバイスのコンテキストを判断する動作は、トラックパッド上のタッチ入力が、ドラッグ操作ではなく、タップ操作であると判断することを含む。トラックパッド上のタッチ入力がタッチスクリーンキーボードのスペースバーの選択であると特定する動作は、さらに、トラックパッド上のタッチ入力が、ドラッグ操作ではなく、タップ操作であると判断することに基づく。コンピューティングデバイスのコンテキストを判断する動作は、タッチスクリーンキーボードの予め定められた数のホームキーにユーザの指がタッチしていると判断することを含む。トラックパッド上のタッチ入力がタッチスクリーンキーボードのスペースバーの選択であると特定する動作は、さらに、タッチスクリーンキーボードの予め定められた数のホームキーにユーザの指がタッチしていると判断することに基づく。 These and other implementations may each optionally include one or more of the following features. The act of determining the context of the computing device includes determining that the complete word precedes the cursor position. The act of identifying a touch input on the trackpad as a spacebar selection on a touchscreen keyboard is further based on determining that a complete word is in front of the cursor. The act of determining the context of the computing device includes determining that a touch input on the trackpad is a tap operation rather than a drag operation. The act of identifying the touch input on the trackpad as a selection of the spacebar of the touchscreen keyboard is further based on determining that the touch input on the trackpad is a tap operation rather than a drag operation. The act of determining the context of the computing device includes determining that the user's finger is touching a predetermined number of home keys of the touch screen keyboard. The act of identifying the touch input on the trackpad as a spacebar selection of the touchscreen keyboard is further determining that the user's finger is touching a predetermined number of home keys of the touchscreen keyboard. based on.

コンピューティングデバイスのコンテキストを判断する動作は、トラックパッドの片側でユーザの手のひらがタッチスクリーンキーボードの一部にタッチしていると判断することを含む。トラックパッド上のタッチ入力がタッチスクリーンキーボードのスペースバーの選択であると特定する動作は、さらに、トラックパッドの片側でユーザの手のひらがタッチスクリーンキーボードの一部にタッチしていると判断することに基づく。タッチスクリーンキーボードおよびトラックパッドは、タッチ入力装置上に示される輪郭によって識別される。コンピューティングデバイスのディスプレイとタッチ入力装置とは別個である。タッチスクリーンキーボードは、スペースバーの画像を描画する。トラックパッド上のタッチ入力を受け付ける動作は、描画されたスペースバーの画像内の位置におけるタッチ入力を受け付けないことを含む。描画されたスペースバーの画像は、描画されたスペースバーの画像の下に隣接している。動作は、コンピューティングデバイスのさらなるコンテキストを判断する動作と、トラックパッド上のさらなるタッチ入力を受け付ける動作と、コンピューティングデバイスが、さらなるコンテキストに基づいて、トラックパッド上のさらなるタッチ入力がトラックパッドの選択であると特定する動作と、コンピューティングデバイスのディスプレイに出力するために、トラックパッド上のさらなるタッチ入力がトラックパッドの選択であるとコンピューティングデバイスが特定したことに基づいて、トラックパッドの選択の表示を提供する動作をさらに含む。 The act of determining the context of the computing device includes determining that the user's palm on one side of the trackpad is touching a portion of the touchscreen keyboard. The action of identifying touch input on the trackpad as a spacebar selection on the touchscreen keyboard also determines that the user's palm is touching a portion of the touchscreen keyboard on one side of the trackpad. based on Touchscreen keyboards and trackpads are identified by outlines shown on the touch input device. The computing device display and touch input device are separate. The touchscreen keyboard draws an image of the spacebar. The act of accepting touch input on the trackpad includes not accepting touch input at locations within the rendered image of the spacebar. The drawn spacebar image is adjacent to and below the drawn spacebar image. The actions include determining additional context of the computing device, accepting additional touch input on the trackpad, and determining whether the additional touch input on the trackpad is selected based on the additional context. and that the computing device determined that further touch input on the trackpad would select the trackpad for output to the computing device display. Further includes the act of providing the indication.

動作は、スペースバー上の別のタッチ入力を受け付ける動作と、コンピューティングデバイスが、トラックパッド上のさらなるタッチ入力がトラックパッドの選択であると特定することに基づいて、スペースバー上の別のタッチ入力がトラックパッドの選択であると特定する動作と、コンピューティングデバイスのディスプレイに出力するために、スペースバー上の別のタッチ入力がトラックパッドの選択であるとコンピューティングデバイスが特定したことに基づいて、トラックパッドの選択のさらなる表示を提供する動作とをさらに含む。コンピューティングデバイスのコンテキストを判断する動作は、単語の接頭語がカーソルの前にあると判断することを含む。トラックパッド上のさらなるタッチ入力がトラックパッドの選択であると特定する動作は、さらに、単語の接頭語がカーソルの前にあると判断することに基づく。動作は、トラックパッド上のタッチ入力を受け付けることに基づいて、かつ、トラックパッド上のタッチ入力がスペースバーの選択であるとコンピューティングデバイスが特定したことに基づいて、タッチスクリーンジェスチャに関連する操作を行わない動作をさらに含む。 Based on the act of accepting another touch input on the spacebar and the computing device identifying further touch input on the trackpad as a selection of the trackpad, another touch on the spacebar. Based on the action of identifying an input as a trackpad selection and the computing device identifying another touch input on the spacebar as a trackpad selection for output to the computing device display. and providing a further indication of the trackpad selection. The act of determining the context of the computing device includes determining that the word prefix is in front of the cursor. The act of identifying a further touch input on the trackpad as a trackpad selection is further based on determining that the word prefix is in front of the cursor. The action is an operation associated with a touchscreen gesture based on receiving touch input on the trackpad and based on the computing device identifying the touch input on the trackpad as a spacebar selection. further includes the act of not performing

この態様のその他の実装形態は、方法に含まれるこれらの動作を実行するように各々が構成された対応するシステム、装置、およびコンピュータ記憶装置上に記録されたコンピュータプログラムを含む。 Other implementations of this aspect include corresponding systems, apparatus, and computer programs recorded on computer storage devices, each configured to perform those operations included in the method.

本願に記載の発明の主題は、下記の利点のうちの1つ以上を有してもよい。コンピューティングデバイスは、意図しないユーザ入力をユーザが提供する可能性が低くなるよう、ユーザがスペースバーを選択する可能性が高いと判断することに応答してスペースバーに対応する有効領域を動的に調整する。動的キーボードは、タッチ面上に位置していてもよく、これによって、キーボードを薄型化することができる。タッチキーボードによって機械コンポーネントの必要性が少なくなり、費用を抑えてデバイスを製造でき、かつ、キーボードが故障しにくくなる。 The inventive subject matter described in this application may have one or more of the following advantages. The computing device dynamically adjusts the effective area corresponding to the spacebar in response to determining that the user is likely to select the spacebar so that the user is less likely to provide unintended user input. adjust to A dynamic keyboard may be located on the touch surface, which allows the keyboard to be thin. A touch keyboard reduces the need for mechanical components, makes the device less expensive to manufacture, and makes the keyboard less prone to failure.

本明細書に記載の発明の主題の1つ以上の実装形態の詳細を、添付の図面および以下の説明に記載する。発明の主題のその他の特徴、態様、および利点は、説明、図面、および特許請求の範囲から明らかになるであろう。 The details of one or more implementations of the inventive subject matter described in this specification are set forth in the accompanying drawings and the description below. Other features, aspects, and advantages of the inventive subject matter will become apparent from the description, drawings, and claims.

動的スペースバーを有するコンピューティングデバイスの例を示す図である。FIG. 3 illustrates an example computing device with a dynamic spacebar; 動的スペースバーを有するコンピューティングデバイスの例を示す図である。FIG. 3 illustrates an example computing device with a dynamic spacebar; 動的スペースバーを実装するためのシステム例を示す図である。FIG. 2 illustrates an example system for implementing a dynamic spacebar; 動的スペースバーを実装するための処理例を示す図である。FIG. 10 illustrates an example process for implementing a dynamic spacebar; コンピューティングデバイスおよびモバイルコンピューティングデバイスの例を示す図である。1 illustrates an example computing device and a mobile computing device; FIG.

図面の全体にわたって、同じ参照番号は、対応する部分を表す。
詳細な説明
図1は、動的スペースバーを有する例示的なコンピューティングデバイス105を示す図である。簡潔に言うと、以下により詳細を説明するが、コンピューティングデバイス105は、コンピューティングデバイス105のコンテキストを用いて、スペースバーの近くで行われるタッチ入力が、スペースバーの選択であるか、またはトラックパッドの選択であるかを判断する。
Like reference numbers denote corresponding parts throughout the drawings.
DETAILED DESCRIPTION FIG. 1 is a diagram illustrating an exemplary computing device 105 with a dynamic spacebar. Briefly, as described in more detail below, the computing device 105 uses the context of the computing device 105 to determine whether a touch input made near the spacebar is a selection of the spacebar or a track. Determine pad selection.

図1に示すように、システム100は、コンピューティングデバイス105のインスタンスを2つ含む。コンピューティングデバイス105aおよび105bは、「the quick brown fox jumped over the lazy dog」という文をユーザがキー入力している様子を示している。コンピューティングデバイス105aは、ユーザが単語「over」をキー入力している途中のコンピューティングデバイス105を示している。コンピューティングデバイス105bは、ユーザが単語「over」をキー入力し終えたコンピューティングデバイス105を示している。 As shown in FIG. 1, system 100 includes two instances of computing device 105 . Computing devices 105a and 105b show a user keying in the sentence "the quick brown fox jumped over the lazy dog." Computing device 105a shows computing device 105 in the middle of a user keying in the word "over." Computing device 105b shows computing device 105 where the user has finished keying in the word "over."

コンピューティングデバイス105は、ヒンジ式デバイスであり、ヒンジ115の一方側にスクリーン110を備え、ヒンジ115の他方側にキーボード120とトラックパッド125とを備える。ヒンジ115は、閉じられたときにスクリーン110がキーボード120に面するよう、または、スクリーン110およびキーボード125が外に向くよう、360度回転するように構成されてもよい。上下に移動し、ユーザがキーを押下したときに有効になる機械式のキーの代わりに、キーボード120およびトラックパッド125がタッチ面上にあってもよい。タッチ面は、抵抗型タッチ面であってもよく、静電容量型タッチ面であってもよい。単語「fox」をキー入力するために、ユーザは、文字「f」、「o」、および「x」に対応するタッチ面の領域を押す。 Computing device 105 is a hinged device with screen 110 on one side of hinge 115 and keyboard 120 and trackpad 125 on the other side of hinge 115 . Hinge 115 may be configured to rotate 360 degrees such that screen 110 faces keyboard 120 when closed, or screen 110 and keyboard 125 face outward. Instead of mechanical keys that move up and down and activate when the user presses a key, the keyboard 120 and trackpad 125 may be on the touch surface. The touch surface may be a resistive touch surface or a capacitive touch surface. To key in the word "fox," the user presses areas of the touch surface corresponding to the letters "f," "o," and "x."

いくつかの実装形態では、キーボード120のキーおよびトラックパッド125の位置は、タッチ面上にペイントまたはプリントされてもよい。この例では、キーボード120のレイアウトおよびトラックパッド125は、ユーザがコンピューティングデバイス105とやり取りをするとき、またはコンピューティングデバイス105を折りたたむときに、変化しなくてもよい。ペイントされたキーボード120およびトラックパッド125は、コンピューティングデバイス105の電源が切れても見えたままである。いくつかの実装形態では、キーボード120のキーおよびトラックパッド125の位置は、表示装置を用いてタッチ面上に表示されてもよい。たとえば、タッチ面は、キーボード120のキーおよびトラックパッド125の位置を表示するためのLCDディスプレイを含むタッチスクリーンであってもよい。この例では、電源が入ったときにキーボード120のキーおよびトラックパッド125の位置が現れてもよい。いくつかの実装形態では、キーボード120のキーおよびトラックパッド125の位置は、ヒンジ115の角度が特定の範囲内である場合のみ現れてもよい。スクリーン110がキーボード120に面したときのヒンジの角度が0度であった場合、スクリーン110およびキーボード125が外側に面したときのヒンジの角度が360度であった場合、たとえば、ヒンジ115が10度と270度との間であった場合にのみキーボード120のキーおよびトラックパッド125の位置が現れてもよい。このように、コンピューティングデバイス105は、コンピューティングデバイス105が閉じられておらず、かつ、「タブレット」モードでない場合にのみキーを提示してもよい。 In some implementations, the keyboard 120 keys and trackpad 125 locations may be painted or printed on the touch surface. In this example, the layout of keyboard 120 and trackpad 125 may not change when the user interacts with computing device 105 or when computing device 105 is folded. The painted keyboard 120 and trackpad 125 remain visible even when the computing device 105 is powered off. In some implementations, the positions of the keyboard 120 keys and trackpad 125 may be displayed on the touch surface using a display device. For example, the touch surface may be a touch screen that includes an LCD display for displaying the positions of keyboard 120 keys and trackpad 125 . In this example, the keyboard 120 keys and trackpad 125 positions may appear when the power is turned on. In some implementations, the positions of the keyboard 120 keys and trackpad 125 may appear only if the angle of the hinge 115 is within a certain range. If the hinge angle is 0 degrees when screen 110 faces keyboard 120, if the hinge angle is 360 degrees when screen 110 and keyboard 125 face outward, for example, hinge 115 is 10 degrees. The positions of keyboard 120 keys and trackpad 125 may only appear if they are between degrees and 270 degrees. In this manner, computing device 105 may present keys only when computing device 105 is not closed and not in "tablet" mode.

キーボード120が機械コンポーネントを含まないので、キーボード120とトラックパッド125とを含むコンピューティングデバイス105の部分は、他のラップトップコンピュータよりも薄くてもよい。これに加えて、機械コンポーネントを排除したことによってキーボード120の機械故障が生じる可能性がなくなったので掃除が簡単になったり、耐水性が向上したりし得る。タッチ面が表示装置を備える場合、キーボード120のレイアウトを簡単に変更することができるだろう。たとえば、コンピューティングデバイス105は、キーボード120のレイアウトを異なる言語用レイアウトに変更したり、その他のデザインを表示させるようディスプレイを変更したりしてもよい。 Because keyboard 120 does not include mechanical components, the portion of computing device 105 that includes keyboard 120 and trackpad 125 may be thinner than other laptop computers. In addition, the elimination of mechanical components eliminates the possibility of mechanical failure of the keyboard 120, which may facilitate cleaning and improve water resistance. The layout of the keyboard 120 could easily be changed if the touch surface included a display. For example, computing device 105 may change the layout of keyboard 120 to a layout for a different language, or change the display to display other designs.

キーボード120が平坦なタッチ面であることによる別の結果として、ユーザの指がどのキーの上に位置しているのかまたは接触しているのかを、ユーザがキーボード120を見ないで判断することができない可能性がある。いくつかの実装形態では、キーボード120は、ユーザが手をキーボード120の上に置いたときに正しい位置に手を置くことができるようにする1つ以上の隆起した要素をキーボード120上に含んでもよい。これに加えて、コンピューティングデバイス120は、キーボード120のキーのサイズまたはトラックパッド125のサイズを、異なるコンテキストに応じて調整できてもよい。この例では、キーボード120の見た目は同じであってもよい。代わりに、選択されると、スペースバー130の選択に相当するまたはスペースバー130の選択をもたらすスペースバー130の領域のサイズが拡大したり縮小したりしてもよい。同様に、コンピューティングデバイス105は、デバイスのコンテキストに基づいてその他のキーまたはトラックパッド125の有効領域を調整してもよい。 Another result of keyboard 120 being a flat touch surface is that the user can determine which keys the user's fingers are on or touching without looking at keyboard 120 . may not be possible. In some implementations, keyboard 120 may include one or more raised elements on keyboard 120 that allow a user to place their hands in the correct position when placing them on keyboard 120 . good. Additionally, the computing device 120 may be able to adjust the size of the keys of the keyboard 120 or the size of the trackpad 125 according to different contexts. In this example, keyboard 120 may look the same. Alternatively, when selected, the size of the area of spacebar 130 that corresponds to or results in the selection of spacebar 130 may expand or contract. Similarly, computing device 105 may adjust the effective area of other keys or trackpad 125 based on the context of the device.

コンピューティングデバイス105aに図示した例では、ユーザの手135aは、キーボード120aの上に置かれている。ユーザの指140aは、左手については、「a s d f」、右手については「j k l ;」などのホームキー145aの上に置かれている。本明細書では、「指」は、人差し指、中指、薬指、および小指をまとめて指し、親指は含まれない。ユーザの親指150aは、スペースバー130の上に置かれていてもよい。ユーザの手のひら155aは、パームレスト160aの上に置かれていてもよい。 In the illustrated example of computing device 105a, user's hands 135a rest on keyboard 120a. The user's finger 140a rests on a home key 145a, such as "a s d f" for the left hand and "j k l ;" for the right hand. As used herein, "fingers" refers collectively to the index, middle, ring and pinky fingers and excludes the thumb. The user's thumb 150 a may rest on the spacebar 130 . The user's palm 155a may rest on palm rest 160a.

コンピューティングデバイス105aは、文書処理アプリケーションまたは電子メールアプリケーションなど、テキスト入力アプリケーションを実行中である。テキスト入力アプリケーションは、フォアグラウンドで実行中であり、テキスト入力アプリケーションがスクリーン110a上に現れている。システムアプリケーション、および、ブラウザ、写真エディタ、動画エディタ、またはその他の同様のアプリケーションなどその他のユーザアプリケーションなど、その他のアプリケーションがバックグラウンドで実行中であってもよい。コンピューティングデバイス105a上で、ユーザは、テキスト165a「the quick brown fox jumped ov」をキー入力し終えている。コンピューティングデバイス105aは、コンピューティングデバイス105aのコンテキストを判断する。コンテキストは、スクリーン110a上のテキスト165aの一部に基づき得る。 Computing device 105a is running a text entry application, such as a word processing application or an email application. A text input application is running in the foreground and the text input application appears on screen 110a. Other applications may be running in the background, such as system applications and other user applications such as browsers, photo editors, video editors, or other similar applications. On the computing device 105a, the user has keyed in the text 165a "the quick brown fox jumped ov". Computing device 105a determines the context of computing device 105a. Context may be based on a portion of text 165a on screen 110a.

コンテキストは、「ov」など不完全な単語の終わりにカーソルが位置していることであってもよい。この例では、ユーザがキー入力中であり、かつ、カーソルが不完全な単語の終わりに位置しているので、ユーザがスペースバー130aを押す可能性がない。コンテキストは、ユーザの指140aの位置に基づいてもよい。ユーザの指140aがホームキー145aの上に置かれているので、ユーザは、キー入力ポジションにある可能性があるので、スペースバー130aを押す可能性が高い。コンテキストは、ユーザの手のひら155aの位置に基づいてもよい。ユーザの手のひら155aがパームレスト160aの上に位置しているので、ユーザは、キー入力ポジションにある可能性があるので、タッチパッドとやり取りを行うよりもスペースバー130aを押す可能性が高い。 The context may be that the cursor is positioned at the end of an incomplete word such as "ov". In this example, since the user is keying in and the cursor is positioned at the end of the incomplete word, there is no possibility that the user will press the spacebar 130a. The context may be based on the position of the user's finger 140a. Since the user's finger 140a is resting on the home key 145a, the user is likely to be in a keying position and therefore likely to press the spacebar 130a. The context may be based on the position of the user's palm 155a. Since the user's palm 155a is located on the palmrest 160a, the user is likely to be in a keying position and is more likely to press the spacebar 130a than to interact with the touchpad.

コンピューティングデバイス105aは、これら上述したコンテキストの各々を重み付けして全体的なコンテキストを判断してもよい。この例では、コンピューティングデバイス105aは、スクリーン上のテキストおよびカーソルの位置に、ユーザの手のひら155aの位置および/またはユーザの指140aの位置よりも重い重み付けをしてもよい。いくつかの実装形態では、キーボード120aがタッチ入力装置であるので、ユーザは、パームレスト160aなど、入力装置の有効領域上にしか手のひら155aを置くことができない。この場合、コンピューティングデバイス105aは、ユーザの指140aの位置を判断できない可能性がある。いくつかの実装形態では、タッチ入力装置は、様々なタッチの圧力を検出できてもよい。この例では、ユーザは、キーを有効にしないで指140aをホームキー145aの上に置くことができてもよい。ユーザは、キーを有効にするために圧力を上げることができてもよい。いくつかの実装形態では、タッチ入力装置は、指、手のひら、またはその他の手の部位の存在を検出できてもよい。この例では、ユーザは、タッチ入力装置を直接タッチしなくてもよく、代わりに、タッチ入力装置がユーザの存在を検出できるタッチ入力装置の閾値距離内にいてもよい。いくつかの実装形態では、タッチによって実現される機能のいずれも、存在によって実現されてもよい。 Computing device 105a may weight each of these aforementioned contexts to determine the overall context. In this example, the computing device 105a may weight the text and cursor position on the screen more heavily than the position of the user's palm 155a and/or the position of the user's finger 140a. In some implementations, because keyboard 120a is a touch input device, the user can only rest palm 155a on the effective area of the input device, such as palm rest 160a. In this case, computing device 105a may not be able to determine the position of user's finger 140a. In some implementations, a touch input device may be able to detect the pressure of various touches. In this example, the user may be able to place finger 140a on home key 145a without activating the key. The user may be able to increase the pressure to activate the key. In some implementations, a touch input device may be able to detect the presence of a finger, palm, or other hand part. In this example, the user may not touch the touch input device directly, but instead may be within a threshold distance of the touch input device where the touch input device can detect the user's presence. In some implementations, any functionality realized by touch may be realized by presence.

ユーザがキー入力しており、かつ、単語の途中であることにコンピューティングデバイス105aのコンテキストが関連していることに基づいて、コンピューティングデバイス105aは、タッチ入力装置上に輪郭が描かれたスペースバー130aのサイズおよび形状にスペースバー有効領域170aを維持する。この例では、スペースを入力するために、ユーザは、スペースバー130aによって輪郭が描かれた領域内のタッチ面に接触することによって、スペースバー130aを選択する。ユーザが、トラックパッド125aなど、スペースバー130aの外側の領域でタッチ面に接触した場合、コンピューティングデバイス105aは、この入力を、トラックパッド125aの入力と解釈する。 Based on the context of the computing device 105a being related to the user keying in and being in the middle of a word, the computing device 105a displays the outlined space on the touch input device. Maintain the spacebar effective area 170a to the size and shape of the bar 130a. In this example, to enter space, the user selects spacebar 130a by contacting the touch surface within the area delineated by spacebar 130a. If the user contacts a touch surface in an area outside spacebar 130a, such as trackpad 125a, computing device 105a interprets this input as input for trackpad 125a.

コンピューティングデバイス105bは、ユーザが単語「over」をキー入力し終えた後のコンピューティングデバイス105bを示している。この例では、ユーザがキー入力中であり、かつ、カーソルが完全な単語の終わりに位置しているので、ユーザがスペースバー130bを押す可能性がある。コンテキストは、ユーザの指140bの位置に基づいてもよい。ユーザの指140bがホームキー145bの上に置かれているので、ユーザは、キー入力ポジションにある可能性があるので、ユーザの指140bがホームキーの上に置かれていない場合よりも、スペースバー130bを押す可能性が高い。コンテキストは、ユーザの手のひら155bの位置に基づいてもよい。ユーザの手のひら155bがパームレスト160bの上に位置しているので、ユーザは、キー入力ポジションにある可能性があるので、スペースバー130bを押す可能性が高い。 Computing device 105b shows computing device 105b after the user has finished keying in the word "over." In this example, since the user is keying in and the cursor is positioned at the end of a complete word, the user may press spacebar 130b. The context may be based on the position of the user's finger 140b. With the user's finger 140b resting on the home key 145b, the user is likely to be in the keying position, so the space is greater than if the user's finger 140b was not resting on the home key. It is likely that the bar 130b will be pushed. The context may be based on the position of the user's palm 155b. Since the user's palm 155b is positioned over palm rest 160b, the user is likely in a keying position and is likely to press space bar 130b.

コンピューティングデバイス105bは、これら判断されたコンテキストの各々を異なるように重み付けして全体的なコンテキストを判断してもよい。この例では、コンピューティングデバイス105bは、スクリーン上のテキストおよびカーソルの位置をユーザの手のひら155bの位置および/またはユーザの指140bの位置よりも重く、軽く、または同じに重み付けしてもよい。ユーザがキー入力しており、かつ、単語の終わりにいることにコンピューティングデバイス105bのコンテキストが関連していることに基づいて、コンピューティングデバイス105bは、スペースバー有効領域170bを、タッチ入力装置上に輪郭が描かれたスペースバー130bのサイズおよび形状よりも大きくする。この例では、スペースを入力するために、ユーザは、スペースバー130aおよびトラックパッド125bの一部を含む有効領域170bによって輪郭が描かれた領域を選択する。ユーザが、有効領域170b下のトラックパッド125aの一部など、有効領域170bの外側の領域を選択した場合、コンピューティングデバイス105bは、入力がトラックパッド125bの入力(たとえば、マウスカーソルを移動するまたはマウスカーソル「クリック」を提供することによる)であると解釈する。 Computing device 105b may weight each of these determined contexts differently to determine the overall context. In this example, the computing device 105b may weight the text and cursor position on the screen more, less, or equal to the position of the user's palm 155b and/or the user's finger 140b. Based on the context of computing device 105b being relevant to the user keying in and being at the end of a word, computing device 105b causes spacebar effective area 170b to be displayed on the touch input device as larger than the size and shape of spacebar 130b outlined in . In this example, to enter a space, the user selects the area delineated by active area 170b, which includes spacebar 130a and a portion of trackpad 125b. If the user selects an area outside of the active area 170b, such as a portion of the trackpad 125a below the active area 170b, the computing device 105b determines that the input on the trackpad 125b (e.g., moving the mouse cursor or by providing a mouse cursor "click").

図2は、動的スペースバーを有する例示的なコンピューティングデバイス205を示す図である。簡潔に言うと、以下により詳細を説明するが、コンピューティングデバイス205は、コンピューティングデバイス205のコンテキストを用いて、スペースバーの近くで行われるタッチ入力がスペースバーの選択であるか、またはトラックパッドの選択であるかを判断する。 FIG. 2 is a diagram illustrating an exemplary computing device 205 with a dynamic spacebar. Briefly, as described in more detail below, computing device 205 uses the context of computing device 205 to determine whether a touch input made near the spacebar is a spacebar selection or a trackpad. to determine whether it is a choice of

コンピューティングデバイス205の構成は、コンピューティングデバイス105と同様である。スクリーン210は、キーボード220とトラックパッド225とを備えるタッチ入力装置にヒンジ式で連結されている。スペースバー有効領域270は、動的な領域であり、コンピューティングデバイスのコンテキストとともに変化する。たとえば、コンテキストがカーソルの前に不完全な単語を含む場合、スペースバー有効領域270は、トラックパッド225の一部を含む。コンテキストがカーソルの前に完全な単語を含む場合、スペースバー有効領域270は、スペースバーのみを含む。 The configuration of computing device 205 is similar to that of computing device 105 . Screen 210 is hinged to a touch input device comprising keyboard 220 and trackpad 225 . Spacebar effective area 270 is a dynamic area, changing with the context of the computing device. For example, spacebar effective area 270 includes a portion of trackpad 225 if the context includes an incomplete word before the cursor. If the context includes a complete word before the cursor, spacebar-enabled area 270 only includes the spacebar.

コンピューティングデバイス205aは、ユーザが完全または不完全な単語「jump」をキー入力した後のコンピューティングデバイス205aを示している。「Jump」には「ed」などの接尾語が続いている可能性があり、「jump」が完全である可能性もある。この例では、コンピューティングデバイス205aは、カーソルの前の単語の完全性だけでなく、それ以上のことに基づいて、トラックパッド225の一部を含むようにスペースバー有効領域170aを調整してもよい。コンテキストを判断するためのさらなる判断要素は、ユーザの指240aがホームキー245a上(または、その判断された距離内)に位置していること、および/またはユーザの手のひら255aがパームレスト260a上に位置していることに基づいてもよい。「jump」が完全であるか不完全であるかが不確定であることと組み合わせてこれらの要素の一方または両方を使用して、コンピューティングデバイス205aは、ユーザがトラックパッド225aの代わりにスペースバー230aを選択する可能性が高いと判断する。したがって、コンピューティングデバイス205aは、トラックパッド225aの上部を含むようにスペースバー有効領域270aを拡張してもよい。 Computing device 205a shows computing device 205a after the user has keyed in the complete or incomplete word "jump." "Jump" may be followed by a suffix such as "ed" and "jump" may be complete. In this example, computing device 205a may adjust spacebar effective area 170a to include a portion of trackpad 225 based on more than just the integrity of the word in front of the cursor. good. Further determining factors for determining context are whether the user's finger 240a is positioned on (or within a determined distance of) the home key 245a and/or whether the user's palm 255a is positioned on the palm rest 260a. It may be based on what you are doing. Using one or both of these factors in combination with the uncertainty of whether a "jump" is complete or incomplete, computing device 205a allows the user to press spacebar instead of trackpad 225a. 230a is likely to be selected. Accordingly, computing device 205a may extend spacebar effective area 270a to include the top of trackpad 225a.

拡張されたスペースバー有効領域270aでは、ユーザは、トラックパッド225aの上部を選択してもよく、コンピューティングデバイス205aは、この選択をスペースバー230aの選択であると解釈する。この例では、ユーザの親指250aが、トラックパッド225aの下部を選択する。トラックパッド225aの選択が拡張されたスペースバー有効領域270aよりも下で行われたため、コンピューティングデバイス205aは、この選択をトラックパッド225aの選択であると解釈する。スペースバー有効領域270のサイズを判断するために用いられる要素の1つは、最近の入力がトラックパッド225aへの入力であったかどうかであってもよい。このように、トラックパッド225のユーザ選択の後、コンピューティングデバイス205は、トラックパッド225aのユーザ選択の前のスペースバー有効領域270のサイズに対してスペースバー有効領域270のサイズを縮小してもよい。 In extended spacebar effective area 270a, the user may select the top of trackpad 225a, which computing device 205a interprets as selecting spacebar 230a. In this example, the user's thumb 250a selects the bottom of trackpad 225a. Because the selection of trackpad 225a occurred below extended spacebar effective area 270a, computing device 205a interprets this selection as a selection of trackpad 225a. One of the factors used to determine the size of spacebar effective area 270 may be whether the most recent input was on trackpad 225a. Thus, after user selection of trackpad 225, computing device 205 may reduce the size of spacebar effective area 270 relative to the size of spacebar effective area 270 prior to user selection of trackpad 225a. good.

コンピューティングデバイス205bは、ユーザが不完全な単語「th」をキー入力した後のコンピューティングデバイス205bを示している。コンピューティングデバイス205bは、ユーザが「th」など不完全な単語の途中にいる間にスペースバー230bを選択する可能性が少なくなることに基づいて、スペースバー230bのみを含むようにスペースバー有効領域270aを調整してもよい。コンテキストを判断するためのさらなる要素は、ユーザの指240bがホームキー245b上に位置していること、および/またはユーザの手のひら255bがパームレスト260b上に位置していることに基づいてもよい。最近のユーザ入力が不完全な単語「th」を提供したという判断と組み合わせてこれらの要素の一方または両方を使用して、コンピューティングデバイス205bは、スペースバー230bおよびトラックパッド225bを含むキーボード220bの一部をユーザが選択した場合、ユーザがトラックパッド225bを選択するつもりである可能性が高いと判断してもよい。したがって、コンピューティングデバイス205bは、スペースバー230bのみを含むようにスペースバー有効領域270bを設定してもよい(または、スペースバー230bを表すプリントされたまたは仮想グラフィックスによって示される領域よりも小さい)。 Computing device 205b shows computing device 205b after the user has keyed in the incomplete word "th". Computing device 205b adjusts the spacebar effective area to include only spacebar 230b, based on the fact that the user is less likely to select spacebar 230b while in the middle of an incomplete word such as "th." 270a may be adjusted. A further factor for determining context may be based on the user's finger 240b being positioned on the home key 245b and/or the user's palm 255b being positioned on the palm rest 260b. Using one or both of these factors in combination with the determination that recent user input provided an incomplete word "th", computing device 205b may use keyboard 220b, including spacebar 230b and trackpad 225b. If the user selects a portion, it may be determined that there is a high probability that the user intends to select trackpad 225b. Accordingly, computing device 205b may set spacebar effective area 270b to include only spacebar 230b (or smaller than the area indicated by printed or virtual graphics representing spacebar 230b). .

スペースバー有効領域270bがスペースバー230bのみを含んでいる場合、ユーザは、トラックパッド225bの上部を選択してもよく、コンピューティングデバイス205bは、この選択をトラックパッド225aの選択であると解釈する。この例では、ユーザの親指250bは、トラックパッド225bの上部を選択する。トラックパッド225bの上部は、コンテキストによっては、スペースバー有効領域270bに含まれ得る。この選択はトラックパッド225bの領域内であり、スペースバー有効領域270bはスペースバー230bしか含まないので、コンピューティングデバイス205bは、この選択をトラックパッド225bの選択と解釈する。 If spacebar effective area 270b only includes spacebar 230b, the user may select the top of trackpad 225b, which computing device 205b interprets as selecting trackpad 225a. . In this example, the user's thumb 250b selects the top of trackpad 225b. The top of trackpad 225b may be included in spacebar effective area 270b, depending on the context. Because this selection is within the area of trackpad 225b and spacebar effective area 270b only includes spacebar 230b, computing device 205b interprets this selection as a selection of trackpad 225b.

図3は、動的スペースバーを実装するための例示的なシステム300を示す図である。システム300は、動的スペースバーを有するシステムの様々な構成要素を示している。たとえば、システム300は、図1のコンピューティングデバイス105または図2のコンピューティングデバイス205と同様であってもよい。いくつかの実装形態では、システム300は、携帯電話、タブレット、または同様のデバイスなど、タッチスクリーン入力装置を有する任意のデバイスであってもよい。 FIG. 3 illustrates an exemplary system 300 for implementing dynamic spacebars. System 300 shows various components of a system with a dynamic spacebar. For example, system 300 may be similar to computing device 105 of FIG. 1 or computing device 205 of FIG. In some implementations, system 300 may be any device with a touch screen input device, such as a mobile phone, tablet, or similar device.

システム300は、タッチ検出部305を含む。タッチ検出部305は、タッチ入力装置によって受け付けられたタッチの位置および圧力を検出するように構成される。タッチ入力装置は、静電容量型タッチデバイスであってもよく、抵抗型タッチデバイスであってもよい。タッチ検出部305は、タッチイベントごとに、起点と終点とを出力する。これに加えて、タッチ検出部305は、タッチイベントの各位置におけるタッチの圧力を出力する。ユーザがスクリーンの異なる位置を同時にタッチした場合、タッチ検出部305は、位置ごとのタッチデータを出力してもよい。たとえば、ユーザは、タッチ入力装置のある位置をタッチし、指を別の位置にドラッグし、タッチ入力装置から指を離してもよい。この例では、タッチ検出部305は、ユーザの指の進路を示すデータ、および進路に沿ったタッチの圧力を示すデータを出力する。手のひらなど、タッチが指よりも大きい可能性がある場合、タッチ検出部305は、ユーザがタッチ入力装置に接触する領域、およびこの領域内の各位置の圧力を出力してもよい。 System 300 includes touch detector 305 . The touch detector 305 is configured to detect the position and pressure of touches received by the touch input device. The touch input device may be a capacitive touch device or a resistive touch device. The touch detection unit 305 outputs a start point and an end point for each touch event. In addition, the touch detection unit 305 outputs the touch pressure at each position of the touch event. When the user simultaneously touches different positions on the screen, the touch detection unit 305 may output touch data for each position. For example, the user may touch one location on the touch input device, drag the finger to another location, and lift the finger from the touch input device. In this example, the touch detection unit 305 outputs data indicating the path of the user's finger and data indicating the pressure of the touch along the path. In cases where the touch may be larger than a finger, such as the palm of the hand, the touch detector 305 may output the area where the user touches the touch input device and the pressure at each location within this area.

タッチ検出部は、タッチデータをタッチインタプリタ310に提供する。タッチインタプリタ310は、このタッチデータを解釈し、ユーザインタフェース生成部315が表示のために出力する操作を判断する。タッチインタプリタ310は、いくつかのモジュールからデータを受け付け、これらのモジュールからのデータを用いてタッチデータの解釈を向上させる。 The touch detector provides touch data to touch interpreter 310 . The touch interpreter 310 interprets this touch data and determines the operation that the user interface generator 315 outputs for display. Touch interpreter 310 accepts data from several modules and uses data from these modules to improve the interpretation of touch data.

また、タッチインタプリタ310は、指位置特定部320および手のひら位置特定部325を利用して、受け付けたタッチデータに基づいて指、親指、および手のひらの位置を判断する。たとえば、タッチ検出部305は、タッチの位置の座標、対応する圧力、およびタッチのサイズを提供してもよい。指位置特定部320は、位置、圧力、およびサイズを、様々なタッチ範囲および閾値と比較して、タッチが指であったかどうか、または親指であったかどうかを判断してもよい。同様に、手のひら位置特定部325は、位置、圧力、およびサイズを様々なタッチ範囲および閾値と比較して、タッチが手のひらであったかどうかを判断してもよい。いくつかの実装形態では、タッチインタプリタ310は、指位置特定部320および手のひら位置特定部325から十分なデータを受け付けて、指、手のひら、および親指の各々を識別することによってユーザの手の位置を特定してもよい。いくつかの実装形態では、タッチインタプリタは、様々な距離範囲および閾値を用いて指、手のひら、および親指の各々を識別してもよい。いくつかの実装形態では、指ラベル、手のひらラベル、および親指ラベルの各々が、たとえば、タッチが親指に対応する可能性を示す信頼スコアを含んでもよい。タッチインタプリタ310は、ユーザインタフェース生成部315に提供する操作および命令を判断する際、信頼スコアを様々な閾値および範囲と比較してもよい。 Touch interpreter 310 also utilizes finger position identifier 320 and palm position identifier 325 to determine the positions of the fingers, thumb, and palm based on the received touch data. For example, touch detector 305 may provide the coordinates of the location of the touch, the corresponding pressure, and the size of the touch. Finger locator 320 may compare position, pressure, and size to various touch ranges and thresholds to determine whether the touch was a finger or a thumb. Similarly, palm locator 325 may compare position, pressure, and size to various touch ranges and thresholds to determine whether the touch was with the palm. In some implementations, touch interpreter 310 receives sufficient data from finger locator 320 and palm locator 325 to determine the position of the user's hand by identifying each of the fingers, palm, and thumb. may be specified. In some implementations, the touch interpreter may identify each finger, palm, and thumb using different distance ranges and thresholds. In some implementations, the finger labels, palm labels, and thumb labels may each include a confidence score that indicates, for example, the likelihood that the touch corresponds to the thumb. Touch interpreter 310 may compare confidence scores to various thresholds and ranges when determining operations and commands to provide to user interface generator 315 .

いくつかの実装形態では、指位置特定部320および手のひら位置特定部325は、手および指の位置に加えて、またはその代わりに、手の角度および指の角度を算出してもよい。たとえば、指位置特定部320および手のひら位置特定部325は、中指と手のひらとのペアの各々に交差する軸に沿って計測したときのユーザの手同士の間の角度が60度であると算出してもよい。別の例として、これらの角度の基準線は、右手の手のひらと、右手の中指と、左手の中指とが交差する線、および左手の手のひらと左手の中指とが交差する線によって規定されてもよい。 In some implementations, finger locator 320 and palm locator 325 may calculate hand and finger angles in addition to or instead of hand and finger positions. For example, finger locator 320 and palm locator 325 calculate that the angle between the user's hands as measured along the axis that intersects each of the middle finger and palm pairs is 60 degrees. may As another example, the reference lines for these angles may be defined by the lines that intersect the palm of the right hand, the middle finger of the right hand, and the middle finger of the left hand, and the lines that intersect the palm of the left hand and the middle finger of the left hand. good.

タッチインタプリタ310は、キーボード/トラックパッドレイアウトモジュール330からデータを受け付ける。キーボード/トラックパッドレイアウトモジュール330は、タッチ入力装置上のキーボードのレイアウトおよびトラックパッドに関するデータを提供する。キーボードおよびトラックパッドがタッチ入力装置上にペイントされている場合、キーボード/トラックパッドレイアウトモジュール330は、同一データをタッチインタプリタ310に提供する。キーボードおよびトラックパッドが動的である場合、キーボード/トラックパッドレイアウトモジュール330は、キーボード上のキーの各々の位置およびトラックパッドの位置を示すデータを提供する。この位置データは、キーの各々およびトラックパッドの座標を含んでもよい。また、キーボード/トラックパッドレイアウトモジュール330は、キーボードレイアウトが対応する言語を提供してもよい。タッチ入力装置上にキーボードが表示されていない場合、キーボード/トラックパッドレイアウトモジュール330は、そのことを示すデータをタッチインタプリタ310に提供してもよい。 Touch interpreter 310 accepts data from keyboard/trackpad layout module 330 . The keyboard/trackpad layout module 330 provides data regarding the layout of keyboards and trackpads on touch input devices. Keyboard/trackpad layout module 330 provides the same data to touch interpreter 310 when the keyboard and trackpad are painted on the touch input device. If the keyboard and trackpad are dynamic, keyboard/trackpad layout module 330 provides data indicating the position of each of the keys on the keyboard and the position of the trackpad. This position data may include the coordinates of each of the keys and the trackpad. Keyboard/trackpad layout module 330 may also provide the language that the keyboard layout supports. If a keyboard is not displayed on the touch input device, keyboard/trackpad layout module 330 may provide data to touch interpreter 310 indicating so.

タッチインタプリタ310は、コンテキスト識別部335からコンテキストデータを受け付ける。コンテキスト識別部は、システム300のコンテキストを識別する。タッチインタプリタ310は、コンテキストデータ、タッチデータ、およびキーボードデータを分析してユーザインタフェース生成部315に提供する操作および命令を判断する。いくつかの実装形態では、コンテキスト識別部335は、言語モデル340の少なくとも一部に基づいてコンテキストデータを生成してもよい。言語モデル340は、様々な言語の語彙を含む。コンテキスト識別部335は、システム300のスクリーン上のテキストを、語彙に含まれる用語と比較してもよい。ユーザがキー入力中であり、かつ、現在キー入力されている用語が語彙に含まれる用語の接頭語に対応する場合、コンテキスト識別部335は、単語をキー入力していることがコンテキストであると識別してもよい。この例では、単語の接頭語は単語の最初の部分を意味すると解釈されるべきであるが、それ自体が完全な単語ではない。当該別の方法では、単語の接頭語は、単語の一部であり、完全ではない。たとえば、ユーザは、「jum」をキー入力しており、カーソルが「m」の後ろに位置しているかもしれない。コンテキスト識別部335は、用語「jum」を言語モデル340に含まれる語彙と比較してもよい。コンテキスト識別部335は、「jum」が不完全な単語であると判断し、単語をキー入力するというコンテキストがタッチインタプリタ310に提供される。いくつかの実装形態では、システム300の言語が特定の言語に設定されてもよい。この例では、コンテキスト識別部335は、コンテキストデータを生成するために、選択された言語に対応する言語モデルとキー入力された用語を比較するだけでよい。 Touch interpreter 310 receives context data from context identifier 335 . The context identifier identifies the context of system 300 . Touch interpreter 310 analyzes context data, touch data, and keyboard data to determine operations and instructions to provide to user interface generator 315 . In some implementations, context identifier 335 may generate context data based at least in part on language model 340 . Language model 340 includes vocabularies for various languages. The context identifier 335 may compare the text on the screen of the system 300 with terms contained in the vocabulary. If the user is keying and the term currently being keyed in corresponds to a prefix of a term in the vocabulary, the context identifier 335 determines that keying the word is the context. may be identified. In this example, the word prefix should be taken to mean the beginning of the word, but not the complete word itself. In the alternative, the word prefix is part of the word and not the complete word. For example, the user may have keyed in "jum" and the cursor is positioned after the "m". Context identifier 335 may compare the term “jum” to the vocabulary contained in language model 340 . The context identifier 335 determines that "jum" is an incomplete word and provides the context to the touch interpreter 310 to key in the word. In some implementations, the language of system 300 may be set to a specific language. In this example, the context identifier 335 need only compare the keyed-in terms with the language model corresponding to the selected language to generate the context data.

いくつかの実装形態では、コンテキスト識別部335は、システム300上で実行中の現在のプロセス345の少なくとも一部に基づいてコンテキストデータを生成してもよい。現在のプロセス340は、1つ以上のフォアグラウンドプロセス350およびバックグラウンドプロセスを含んでもよい。バックグラウンドのうちのいくつか、および、場合によっては、フォアグラウンドプロセスは、システムプロセスを含んでもよい。フォアグラウンドプロセス350およびバックグラウンドプロセス、のうちのいくつかは、ブラウザアプリケーション、電子メールアプリケーション、文書処理アプリケーション、写真編集アプリケーション、その他の同様のユーザアプリケーションなど、ユーザアプリケーションを含んでもよい。また、これらのプロセスは、ブラウザを介してサーバ上で実行中のウェブプロセスを含んでもよい。コンテキスト識別部335は、現在のプロセス345およびフォアグラウンドプロセス350を調べ、プロセスに基づいてコンテキストデータを生成する。たとえば、コンテキストデータは、フォアグラウンドでウェブ電子メールアプリケーションをブラウザで実行中であり、バックグラウンドで音楽プレーヤを実行中であってもよい。別の例として、コンテキストデータは、写真エディタをフォアグラウンドで実行中であってもよく、または文書処理アプリケーションをフォアグラウンドで実行中であってもよい。 In some implementations, the context identifier 335 may generate context data based at least in part on the current process 345 running on the system 300 . Current processes 340 may include one or more foreground processes 350 and background processes. Some of the background and possibly foreground processes may include system processes. Some of the foreground processes 350 and background processes may include user applications, such as browser applications, email applications, word processing applications, photo editing applications, and other similar user applications. These processes may also include web processes running on a server via a browser. The context identifier 335 examines the current process 345 and the foreground process 350 and generates context data based on the processes. For example, the context data may be a web email application running in a browser in the foreground and a music player running in the background. As another example, the context data may be a photo editor running in the foreground, or a word processing application running in the foreground.

また、いくつかの実装形態では、現在のプロセス345およびフォアグラウンドプロセス350は、マウスポインタもしくはカーソル、またはその両方の位置に関するデータを提供してもよい。たとえば、文書処理アプリケーションのカーソル位置は、「jum」の終わりであってもよい。現在のプロセス345は、カーソルの位置が「jum」の後であることを記述したデータをコンテキスト識別部335に提供してもよい。別の例として、マウスポインタは、ブラウザウィンドウのスクロールバーに位置していてもよい。現在のプロセス345は、マウスポインタの位置がブラウザウィンドウのスクロールバーにあることを記述したデータを提供してもよい。いくつかの実装形態では、マウスポインタの位置は、座標ペアによって特定されてもよい。 Also, in some implementations, current process 345 and foreground process 350 may provide data regarding the position of the mouse pointer and/or cursor. For example, the cursor position in a word processing application may be at the end of a "jum". The current process 345 may provide data to the context identifier 335 describing the cursor position after "jum". As another example, the mouse pointer may be positioned on the scroll bar of the browser window. The current process 345 may provide data describing the position of the mouse pointer in the browser window's scroll bar. In some implementations, the location of the mouse pointer may be specified by a coordinate pair.

コンテキスト識別部335は、タッチインタプリタ310に関するコンテキストデータを提供する。タッチインタプリタ310は、コンテキストデータ、指の位置、手のひらの位置、親指の位置、およびキーボードレイアウトのうちの1つ以上の任意の組合せを評価し、タッチ検出部305からタッチデータを受け付けたことに応答してユーザインタフェース生成部315に提供する操作および命令を判断する。タッチインタプリタ310は、受け付けたデータをルールセットと比較して、適切な操作を決定してもよい。これに代えて、またはこれに加えて、タッチインタプリタ310は、機械学習および/またはニューラルネットワークを利用して、タッチデータに応答する適切な操作を判断してもよい。いくつかの実装形態では、タッチインタプリタ310は、主に、トラックパッド領域に位置し、かつ、スペースバーの閾値距離内のタッチがトラックパッドの選択であるかどうか、またはスペースバーの選択であるかどうかを判断するように構成される。 Context identifier 335 provides context data for touch interpreter 310 . Touch interpreter 310 evaluates any combination of one or more of context data, finger position, palm position, thumb position, and keyboard layout and responds to receiving touch data from touch detector 305 . to determine the operations and commands to be provided to the user interface generation unit 315 . Touch interpreter 310 may compare the received data to a rule set to determine the appropriate manipulation. Alternatively or additionally, touch interpreter 310 may utilize machine learning and/or neural networks to determine appropriate manipulations in response to touch data. In some implementations, the touch interpreter 310 is primarily located in the trackpad area and determines whether touches within the threshold distance of the spacebar are trackpad selections or spacebar selections. configured to determine whether

識別された操作に基づいて、タッチインタプリタ310は、この操作を識別するデータをユーザインタフェース生成部315に提供する。ユーザインタフェース生成部315は、識別された操作に基づいてユーザインタフェースを更新する。たとえば、この操作がスペースバーの選択であった場合、ユーザインタフェース生成部315は、カーソルを進める。この操作がトラックパッドの選択であった場合、ユーザインタフェース生成部315は、マウスポインタが指しているオブジェクトを選択し、カーソルをマウスポインタの位置に移動する、または別の適切な操作を行う。 Based on the identified manipulation, touch interpreter 310 provides data identifying the manipulation to user interface generator 315 . User interface generator 315 updates the user interface based on the identified operation. For example, if this operation was a selection of the space bar, the user interface generator 315 advances the cursor. If this operation was a trackpad selection, the user interface generator 315 selects the object pointed to by the mouse pointer, moves the cursor to the location of the mouse pointer, or performs another appropriate operation.

いくつかの実装形態では、トラックパッドは、シングルクリックおよびダブルクリックを受け付けるように構成される。ユーザは、トラックパッドの輪郭内のスペースの中をタップすることによってシングルクリックを入力してもよい。ユーザは、トラックパッドの輪郭内のスペースの中を2回タップすることによってダブルクリックを入力してもよい。いくつかの実装形態では、トラックパッドの輪郭内のタッチ入力装置の部分は、スクロールなどの操作を行うためにユーザが有効にし得る特別なクリック領域であってもよい。いくつかの実装形態では、有効なトラックパッドのサイズは、ユーザ入力の間、変化してもよい。キーボードおよびトラックパッドを含むタッチ入力装置が滑らかで連続した面であるので、トラックパッドの輪郭の外をユーザがドラッグできるよう、効果的なトラックパッド領域のサイズが拡大してもよい。たとえば、ユーザは、マウスポインタがスクリーン上のオブジェクトの上に位置しているときにダブルタップすることによって、当該オブジェクトを選択してもよい。ユーザは、2回目のタップの終わりに指を下げたままにしてオブジェクトのドラッグを開始してもよい。ユーザがドラッグ動作を開始すると、タッチ入力装置全体を大体埋めるように効果的なトラックパッド領域が拡大してもよい。ユーザがスクリーンの端から端までオブジェクトをドラッグしている間、ユーザの指は、文字「k」キーまたは別のキーに移動してもよい。ドラッグ動作時にトラックパッドのサイズが拡大するので、文字「k」キーは、有効にならない。その代わりに、ユーザは、指がトラックパッドの輪郭の外側にある場合でも、オブジェクトを移動し続ける。 In some implementations, the trackpad is configured to accept single and double clicks. A user may enter a single click by tapping in a space within the trackpad outline. A user may enter a double-click by tapping twice within a space within the trackpad outline. In some implementations, the portion of the touch input device within the outline of the trackpad may be a special click area that the user may enable to perform operations such as scrolling. In some implementations, the effective trackpad size may change during user input. Because touch input devices, including keyboards and trackpads, are smooth, continuous surfaces, the size of the effective trackpad area may be increased to allow users to drag outside the contours of the trackpad. For example, a user may select an object on the screen by double-tapping when the mouse pointer is positioned over the object. The user may keep the finger down at the end of the second tap and begin dragging the object. As the user initiates a drag motion, the effective trackpad area may expand to approximately fill the entire touch input device. While the user is dragging an object across the screen, the user's finger may move to the letter "k" key or another key. The letter 'k' key is not enabled because the size of the trackpad increases during the drag operation. Instead, the user continues to move the object even when the finger is outside the contour of the trackpad.

いくつかの実装形態では、システム300は、コンテキストデータへのアクセスを規制するように構成されるプライバシーコントロールモジュールを含む。コンテキスト識別部335がコンテキストを判断する際に特定の種類の情報を考慮しないで済むよう、ユーザは、プライバシーコントロールモジュールの設定を選んでもよい。たとえば、ユーザは、コンテキストを判断する際に、システム300上で実行中のバックグラウンドアプリケーションにコンテキスト識別部335がアクセスしないようにする設定を選択してもよい。別の例として、ユーザは、コンテキストを判断する際にコンテキスト識別部335がキー入力された単語など前回のユーザ入力を使用しないようにする設定を選択してもよい。 In some implementations, system 300 includes a privacy control module configured to regulate access to contextual data. The user may choose to configure the privacy control module so that the context identifier 335 does not consider certain types of information when determining context. For example, the user may select a setting that prevents the context identifier 335 from accessing background applications running on the system 300 when determining context. As another example, the user may select a setting that prevents context identifier 335 from using previous user input, such as keyed-in words, when determining context.

図4は、動的スペースバーを実装するための例示的な処理400を示す図である。一般に、処理400は、スペースバー上またはスペースバーの近くでのユーザ入力がスペースバーの選択、または、トラックパッドとスペースバーとの間に他のキーが位置しないようにスペースバーの下に隣接して位置するトラックパッドの選択であるかどうかを判断する。処理400は、図1に示すシステム100、図2に示すシステム200、または図3に示すシステム300など、1つ以上のコンピュータを含むコンピュータシステムによって実行されるものとして説明する。 FIG. 4 depicts an exemplary process 400 for implementing a dynamic spacebar. In general, process 400 ensures that user input on or near the spacebar selects the spacebar, or is adjacent below the spacebar so that no other key is positioned between the trackpad and the spacebar. Determines whether the selection of the trackpad located at the Process 400 is described as being performed by a computer system including one or more computers, such as system 100 shown in FIG. 1, system 200 shown in FIG. 2, or system 300 shown in FIG.

タッチキーボードとトラックパッドとを備えるシステムは、システムのコンテキストを判断する(410)。いくつかの実装形態では、タッチキーボードおよびトラックパッドは、1つのタッチ入力装置上に示される輪郭によって識別される。いくつかの実装形態では、コンピューティングデバイスのディスプレイとタッチ入力装置とは別個である。たとえば、ディスプレイとタッチ入力装置とは、ヒンジによって接続されていてもよい。いくつかの実装形態では、キーボードは、スペースバーの画像を含む。いくつかの実装形態では、ディスプレイは、タッチ入力装置である。いくつかの実装形態では、システムは、不完全な単語がカーソルの前にあることがコンテキストであると判断する。たとえば、カーソルは、「ove」の後に位置している可能性がある。いくつかの実装形態では、システムは、完全または不完全な単語がカーソルよりも前にあることがコンテキストであると判断する。たとえば、カーソルは、「jump」の後に位置している可能性がある。 A system with a touch keyboard and trackpad determines 410 the context of the system. In some implementations, touch keyboards and trackpads are identified by outlines shown on one touch input device. In some implementations, the display of the computing device and the touch input device are separate. For example, the display and touch input device may be connected by a hinge. In some implementations, the keyboard includes an image of the spacebar. In some implementations the display is a touch input device. In some implementations, the system determines that context is an incomplete word in front of the cursor. For example, the cursor may be positioned after "ove". In some implementations, the system determines context to be a complete or incomplete word before the cursor. For example, the cursor may be positioned after "jump".

システムは、トラックパッド上のタッチ入力を受け付ける(420)。いくつかの実装形態では、システムは、タッチ入力がタップ入力であることがシステムのコンテキストであると判断する。タップ入力とは、ユーザが指でタッチ面と接触し、1ミリ秒など短時間で指を離すことであってもよい。いくつかの実装形態では、タッチ入力は、トラックパッドによってスペースバー下に輪郭が描かれた位置において受け付けられてもよい。トラックパッドは、スペースバーの下に隣接してもよい。いくつかの実装形態では、システムは、ユーザの指がキーボードのホームキーに接触していることがシステムのコンテキストであると判断する。いくつかの実装形態では、システムは、ユーザの手のひらがトラックパッドの片側に位置するパームレストに接触していることがシステムのコンテキストであると判断する。 The system accepts touch input on the trackpad (420). In some implementations, the system determines that the context of the system is that the touch input is a tap input. A tap input may be a user touching a touch surface with a finger and releasing the finger for a short period of time, such as 1 millisecond. In some implementations, touch input may be received by the trackpad at the location outlined below the spacebar. A trackpad may be adjacent and under the spacebar. In some implementations, the system determines that the context of the system is that the user's finger is touching the home key of the keyboard. In some implementations, the system determines that the user's palm is in contact with a palm rest located on one side of the trackpad to be the system's context.

システムは、システムの予め判断されたコンテキストに基づいて、トラックパッド上のタッチ入力がタッチキーボードのスペースバーの選択であると特定する(430)。いくつかの実装形態では、システムは、カーソルの前の完全な単語に基づいて、タッチ入力がスペースバーの選択であると特定する。いくつかの実装形態では、システムは、タッチ入力がタップ入力であることにも基づいて、タッチ入力が(たとえば、少なくとも判断された距離をドラッグする入力ではなく)スペースバーの選択であると特定する。いくつかの実装形態では、ユーザの指がホームキーに接していることに基づいて、システムは、タッチ入力がスペースバーの選択であると特定する。いくつかの実装形態では、システムは、ユーザの手のひらがパームレスト上にあることに基づいて、タッチ入力がスペースバーの選択であると特定する。 The system identifies (430) the touch input on the trackpad as a selection of the spacebar on the touch keyboard based on the system's pre-determined context. In some implementations, the system identifies a touch input as a spacebar selection based on the complete word before the cursor. In some implementations, the system identifies the touch input as a spacebar selection (e.g., as opposed to an input that drags at least the determined distance) also based on the touch input being a tap input. . In some implementations, the system identifies the touch input as a spacebar selection based on the user's finger touching the home key. In some implementations, the system identifies the touch input as a spacebar selection based on the user's palm resting on the palm rest.

いくつかの実装形態では、システムは、コンテキストの組合せに基づいて、タッチ入力がスペースバーの選択であると特定する。たとえば、コンテキストは、カーソルが、「jump」など完全または不完全な単語の終わりにあるであってもよい。この例では、システムは、ユーザの指がホームキーに接触していることに基づいて、および/またはユーザの手のひらがパームレスト上に位置していることに基づいて、タッチ入力がスペースバーの選択であると特定してもよい。いくつかの実装形態では、完全または不完全な単語の終わりにあるカーソルと組み合わせたタッチ入力の種類(たとえば、タップ、長押し、ドラッグなど)は、タッチ入力がスペースバーの選択であるか、またはトラックパッドの選択であるかを判断するのに十分なデータではない場合がある。たとえば、各コンテキストは、対応するスコアに関連付けられていてもよく、様々なコンテキストについてのスコアの各々は、重み付けされてから合計され、結果として生じるスコアが閾値を超えるかどうかが判断されてもよい。この閾値では、入力は、スペースバーが表示されている領域の外の位置においてタッチ面に接触しても、スペースバー入力であると判断されることになる。 In some implementations, the system identifies the touch input as a spacebar selection based on a combination of contexts. For example, the context may be that the cursor is at the end of a complete or incomplete word, such as "jump." In this example, the system determines that touch input is spacebar selection based on the user's finger contacting the home key and/or based on the user's palm resting on the palm rest. It may be specified that there is In some implementations, the type of touch input combined with the cursor at the end of a complete or incomplete word (e.g., tap, long press, drag, etc.) is either a spacebar selection or There may not be enough data to determine if it is a trackpad selection. For example, each context may be associated with a corresponding score, and each of the scores for the various contexts may be weighted and then summed to determine if the resulting score exceeds a threshold. . At this threshold, an input will be determined to be a spacebar input even if it touches the touch surface at a location outside the area where the spacebar is displayed.

いくつかの実装形態では、システムは、ホームキー上に位置しているユーザの指のサブセットに基づいてタッチ入力の特定を行ってもよい。たとえば、ユーザの8つの指のうち6つの指がホームキー上に位置している場合、システムは、ユーザの指が実質的にホームキー上にあると解釈してもよい。いくつかの実装形態では、6つのキーまたは別の数のキーは、特定のホームキーを含んでもよい。たとえば、左手の指は、「asdf」キー上にあり、右手の指のうち2本は、ユーザの指が効果的にホームキー上にあるとシステムが解釈するためのホームキー上にある。いくつかの実装形態では、いくつかの数のホームキーおよび/または特定のホームキーがユーザの好みで選択されてもよい。 In some implementations, the system may base touch input identification on the subset of the user's fingers that are located on the home key. For example, if six of the user's eight fingers are located on the home key, the system may interpret that the user's finger is effectively on the home key. In some implementations, six keys or another number of keys may include a specific home key. For example, the fingers of the left hand are on the "asdf" key and two of the fingers of the right hand are on the home key for the system to interpret that the user's fingers are effectively on the home key. In some implementations, some number of home keys and/or specific home keys may be selected by user preference.

システムは、ディスプレイに出力するために、トラックパッド上のタッチ入力がスペースバーの選択であるとシステムが特定したことに基づいて、スペースバーの選択の表示を提供する(440)。たとえば、システムは、カーソルを進めてもよい。いくつかの実装形態では、タッチ入力は、長押しもしくはドラッグ、または、タッチ入力操作とは異なる操作を開始する別の種類のタッチ面ジェスチャであってもよい。この例では、システムは、タッチ面ジェスチャ操作を行わなくてもよい。 The system provides an indication of the spacebar selection based on the system's identification of the touch input on the trackpad as a spacebar selection (440) for output to the display. For example, the system may advance the cursor. In some implementations, touch input may be a long press or drag, or another type of touch surface gesture that initiates a different operation than a touch input operation. In this example, the system may not perform touch surface gesture manipulations.

いくつかの実装形態では、システムは、トラックパッド上のさらなるタッチ入力を受け付ける。システムは、単語の接頭語がカーソルの前にあることがシステムのコンテキストであると判断してもよい。この例では、システムは、スペースバーの閾値距離内のトラックパッドの選択はトラックパッドの選択であると判断してもよい。単語が不完全である場合ユーザがスペースバーを選択する可能性がないので、システムは、タッチ入力がトラックパッドの選択であると判断してもよい。 In some implementations, the system accepts additional touch input on the trackpad. The system may determine that the word prefix in front of the cursor is the system's context. In this example, the system may determine that selecting a trackpad within a threshold distance of the spacebar is selecting a trackpad. Since the user is unlikely to select the spacebar if the word is incomplete, the system may determine that the touch input is a trackpad selection.

図5は、本明細書に記載の技術を実施するために利用され得るコンピューティングデバイス500およびモバイルコンピューティングデバイス550の例を示す図である。コンピューティングデバイス500は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、およびその他適切なコンピュータなど、様々な形態のデジタルコンピュータを表すよう意図される。モバイルコンピューティングデバイス550は、携帯情報端末、携帯電話、スマートフォン、およびその他同様のコンピューティングデバイスなど、様々な形態のモバイル機器を表すよう意図される。本明細書に示す構成要素、それらの接続および関係、ならびにそれらの機能は、例示に過ぎず、限定ではない。 FIG. 5 is a diagram illustrating an example computing device 500 and mobile computing device 550 that can be utilized to implement the techniques described herein. Computing device 500 is intended to represent various forms of digital computers, such as laptops, desktops, workstations, personal digital assistants, servers, blade servers, mainframes, and other suitable computers. Mobile computing device 550 is intended to represent various forms of mobile equipment such as personal digital assistants, cell phones, smart phones, and other similar computing devices. The components, their connections and relationships, and their functions shown herein are exemplary only and not limiting.

コンピューティングデバイス500は、プロセッサ502と、メモリ504と、記憶装置506と、メモリ504と複数の高速拡張ポート510とをつなぐ高速インタフェース508と、低速拡張ポート514と記憶装置506とをつなぐ低速インタフェース512とを備える。プロセッサ502、メモリ504、記憶装置506、高速インタフェース508、高速拡張ポート510、および低速インタフェース512の各々は、様々なバスを用いて互いに接続されており、共通のマザーボード上に実装されてもよく、またはその他の方法で適宜実装されてもよい。プロセッサ502は、コンピューティングデバイス500内で実行するための命令を処理することができ、命令は、高速インタフェース508に連結されたディスプレイ51など、外付けの入出力装置上のGUIのためのグラフィック情報を表示するためのメモリ504に格納された命令または記憶装置506上に格納された命令を含む。その他の実装形態では、複数のプロセッサおよび/または複数のバスが複数のメモリおよび複数種類のメモリとともに適宜利用されてもよい。また、(たとえば、サーババンク、ブレードサーバ群、または多重プロセッサシステムなどとしての)必要な動作の一部を各々が提供する複数のコンピューティングデバイスが接続されてもよい。 Computing device 500 includes processor 502 , memory 504 , storage device 506 , high speed interface 508 connecting memory 504 and multiple high speed expansion ports 510 , and low speed interface 512 connecting low speed expansion port 514 and storage device 506 . and Each of processor 502, memory 504, storage device 506, high speed interface 508, high speed expansion port 510, and low speed interface 512 are connected to each other using various buses and may be implemented on a common motherboard; Or it may be appropriately implemented by other methods. Processor 502 is capable of processing instructions for execution within computing device 500 , where the instructions are graphical information for a GUI on an external input/output device, such as display 51 coupled to high speed interface 508 . includes instructions stored in memory 504 or instructions stored on storage device 506 for displaying the . In other implementations, multiple processors and/or multiple buses may be utilized, as appropriate, along with multiple memories and types of memory. Also, multiple computing devices may be connected (eg, as a server bank, blade server cluster, or multi-processor system, etc.) each providing part of the required operations.

メモリ504は、コンピューティングデバイス500内の情報を格納する。いくつかの実装形態では、メモリ504は、1つまたは複数の揮発性記憶装置である。いくつかの実装形態では、メモリ504は、1つまたは複数の不揮発性記憶装置である。また、メモリ504は、磁気ディスクまたは光ディスクなど、別の形態のコンピュータ読み取り可能な媒体であってもよい。 Memory 504 stores information within computing device 500 . In some implementations, memory 504 is one or more volatile storage devices. In some implementations, memory 504 is one or more non-volatile storage devices. Memory 504 may also be another form of computer-readable medium, such as a magnetic or optical disk.

記憶装置506は、コンピューティングデバイス500用の大容量ストレージを提供することができる。いくつかの実装形態では、記憶装置506は、フロッピー(登録商標)ディスク装置、ハードディスク装置、光ディスク装置、またはテープ装置、フラッシュメモリもしくは他の同様の固体メモリ装置、または、ストレージエリアネットワークもしくはその他の構成に含まれる装置を含む装置のアレイなど、コンピュータ読み取り可能な媒体であってもよく、または、当該コンピュータ読み取り可能な媒体を含んでもよい。命令が情報担体に格納され得る。この命令は、1つ以上の処理装置(たとえば、プロセッサ502)によって実行されると、上述した方法など、1つ以上の方法を実行する。また、命令は、コンピュータ読み取り可能な媒体または機械読み取り可能な媒体など(たとえば、メモリ504、記憶装置506、またはプロセッサ502上のメモリ)、1つ以上の記憶装置によって格納され得る。 Storage device 506 may provide mass storage for computing device 500 . In some implementations, storage device 506 may be a floppy disk drive, hard disk drive, optical disk drive, or tape drive, flash memory or other similar solid-state memory device, or a storage area network or other configuration. It may be or include a computer-readable medium, such as an array of devices, including the devices contained in a. Instructions may be stored on the information carrier. The instructions, when executed by one or more processing units (eg, processor 502), perform one or more methods, such as those described above. The instructions may also be stored by one or more storage devices, such as computer-readable media or machine-readable media (eg, memory 504, storage device 506, or memory on processor 502).

高速インタフェース508は、コンピューティングデバイス500用の多くの帯域幅を必要とする動作を管理し、低速インタフェース512は、より低い帯域幅の多くを必要とする動作を管理する。このような機能の割振りは、例示に過ぎない。いくつかの実装形態では、高速インタフェース508は、(たとえば、グラフィックスプロセッサまたはアクセラレータを通じて)メモリ504、ディスプレイ516に連結され、高速拡張ポート510に連結される。高速拡張ポート510は、様々な拡張カードを受け付けてもよい。この実装形態では、低速インタフェース512は、記憶装置506および低速拡張ポート514に連結される。様々な通信ポート(たとえば、USB、Bluetooth(登録商標)、Ethernet(登録商標)、無線Ethernet)を含み得る低速拡張ポート514は、キーボード、ポインティングデバイス、スキャナなどの1つ以上の入出力装置、または、スイッチもしくはルータなどのネットワーク装置に、たとえば、ネットワークアダプタを通じて連結されてもよい。 High-speed interface 508 manages bandwidth-intensive operations for computing device 500, and low-speed interface 512 manages much of the lower bandwidth-intensive operations. This allocation of functionality is exemplary only. In some implementations, high speed interface 508 is coupled to memory 504 , display 516 (eg, through a graphics processor or accelerator), and to high speed expansion port 510 . High-speed expansion port 510 may accept various expansion cards. In this implementation, low speed interface 512 is coupled to storage device 506 and low speed expansion port 514 . Low-speed expansion port 514, which can include various communication ports (e.g., USB, Bluetooth, Ethernet, wireless Ethernet), supports one or more input/output devices such as keyboards, pointing devices, scanners, or , to network devices such as switches or routers, for example, through network adapters.

コンピューティングデバイス500は、図示したような複数の異なる形態で実現されてもよい。たとえば、標準的なサーバ520として、または多くの場合、このようなサーバの群で実現されてもよい。これに加えて、ラップトップコンピュータ522など、パーソナルコンピュータで実現されてもよい。また、ラックサーバシステム524の一部として実現されてもよい。これに代えて、コンピューティングデバイス500の構成要素は、モバイルコンピューティングデバイス550など、モバイル機器に含まれるその他の構成要素と組み合わされてもよい。このようなデバイスの各々は、コンピューティングデバイス500およびモバイルコンピューティングデバイス550のうちの1つ以上を含んでよく、互いに通信を行う複数のコンピューティングデバイスによってシステム全体が構成されてもよい。 Computing device 500 may be embodied in a number of different forms as shown. For example, it may be implemented as a standard server 520, or often a group of such servers. Additionally, it may be implemented on a personal computer, such as laptop computer 522 . It may also be implemented as part of the rack server system 524 . Alternatively, the components of computing device 500 may be combined with other components included in mobile equipment, such as mobile computing device 550 . Each such device may include one or more of computing device 500 and mobile computing device 550, and the overall system may consist of multiple computing devices communicating with each other.

モバイルコンピューティングデバイス550は、特に、プロセッサ552と、メモリ564と、ディスプレイ554などの入出力装置と、通信インタフェース566と、送受信装置568とを備える。モバイルコンピューティングデバイス550には、追加ストレージを提供するためのマイクロドライブまたはその他の装置など、記憶装置が提供されてもよい。プロセッサ552、メモリ564、ディスプレイ554、通信インタフェース566、および送受信装置568の各々は、様々なバスを用いて互いに接続されており、当該構成要素のうちのいくつかは、共通のマザーボード上に実装されてもよく、またはその他の方法で適宜実装されてもよい。 Mobile computing device 550 includes, among other things, processor 552 , memory 564 , input/output devices such as display 554 , communication interface 566 , and transceiver 568 . Mobile computing device 550 may also be provided with storage, such as a microdrive or other device for providing additional storage. Processor 552, memory 564, display 554, communication interface 566, and transceiver 568 are each connected together using various buses, some of which are mounted on a common motherboard. or implemented in other ways as appropriate.

プロセッサ552は、メモリ564に格納された命令を含む命令をモバイルコンピューティングデバイス550内で実行できる。プロセッサ552は、別個の複数のアナログプロセッサおよびデジタルプロセッサを含むチップのチップセットとして実現されてもよい。プロセッサ552によって、たとえば、ユーザインタフェースの制御、モバイルコンピューティングデバイス550によって実行されるアプリケーション、およびモバイルコンピューティングデバイス550による無線通信など、モバイルコンピューティングデバイス550のその他の構成要素間の協調が可能になってもよい。 Processor 552 can execute instructions within mobile computing device 550 , including instructions stored in memory 564 . Processor 552 may be implemented as a chipset of chips containing separate analog and digital processors. Processor 552 enables coordination among other components of mobile computing device 550, such as, for example, control of the user interface, applications executed by mobile computing device 550, and wireless communications by mobile computing device 550. may

プロセッサ552は、ディスプレイ554に連結された制御インタフェース558および表示インタフェース556を通じてユーザと通信してもよい。ディスプレイ554は、たとえば、TFT(Thin-Film-Transistor Liquid Crystal Display)ディスプレイもしくはOLED(Organic Light Emitting Diode)ディスプレイ、またはその他の適切なディスプレイ技術であってもよい。表示インタフェース556は、グラフィック情報およびその他の情報をユーザに提示するためにディスプレイ554を駆動するための適切な回路を備えてもよい。制御インタフェース558は、ユーザからコマンドを受け付け、プロセッサ552に実行を依頼するために変換してもよい。これに加えて、外部インタフェース562は、モバイルコンピューティングデバイス550がその他のデバイスと近距離通信可能になるよう、プロセッサ552との通信を提供してもよい。外部インタフェース562によって、たとえば、いくつかの実装形態では有線通信、その他の実装形態では無線通信が可能になってもよく、また、複数のインタフェースが利用されてもよい。 Processor 552 may communicate with a user through control interface 558 and display interface 556 coupled to display 554 . The display 554 may be, for example, a Thin-Film-Transistor Liquid Crystal Display (TFT) display or an Organic Light Emitting Diode (OLED) display, or other suitable display technology. Display interface 556 may include suitable circuitry for driving display 554 to present graphical and other information to a user. Control interface 558 may accept commands from a user and translate them for submission to processor 552 . In addition, external interface 562 may provide communication with processor 552 to enable mobile computing device 550 to communicate with other devices in close proximity. External interface 562 may allow, for example, wired communication in some implementations and wireless communication in other implementations, and multiple interfaces may be utilized.

メモリ564は、モバイルコンピューティングデバイス550内の情報を格納する。メモリ564は、1つまたは複数のコンピュータ読み取り可能な媒体、1つまたは複数の揮発性記憶装置、または、1つまたは複数の不揮発性記憶装置、のうちの1つ以上として実現され得る。また、拡張メモリ574が拡張インタフェース572を通してモバイルコンピューティングデバイス550に提供および接続されてもよい。拡張インタフェース572は、たとえば、SIMM(Single In Line Memory Module)カードインタフェースを含んでもよい。拡張メモリ574は、モバイルコンピューティングデバイス550のための追加の記憶空間を提供してもよく、または、モバイルコンピューティングデバイス550のためのアプリケーションまたはその他の情報も格納してもよい。具体的には、拡張メモリ574は、上述した処理を実行または補助するための命令を含んでもよく、セキュアな情報も含んでもよい。よって、たとえば、拡張メモリ574は、モバイルコンピューティングデバイス550のためのセキュリティモジュールとして提供されてもよく、モバイルコンピューティングデバイス550のセキュアな使用を可能にする命令がプログラムされていてもよい。これに加えて、セキュアなアプリケーションは、ハッキングできない方法でSIMMカード上にID情報を置くなど、追加情報とともにSIMMカードを介して提供されてもよい。 Memory 564 stores information within mobile computing device 550 . Memory 564 may be implemented as one or more of one or more computer-readable media, one or more volatile storage devices, or one or more non-volatile storage devices. Expansion memory 574 may also be provided and connected to mobile computing device 550 through expansion interface 572 . Expansion interface 572 may include, for example, a SIMM (Single In Line Memory Module) card interface. Extended memory 574 may provide additional storage space for mobile computing device 550 or may also store applications or other information for mobile computing device 550 . Specifically, expansion memory 574 may include instructions for performing or assisting in the processes described above, and may also include secure information. Thus, for example, expansion memory 574 may be provided as a security module for mobile computing device 550 and may be programmed with instructions that enable secure use of mobile computing device 550 . In addition to this, secure applications may be provided through the SIMM card with additional information, such as placing identity information on the SIMM card in a way that cannot be hacked.

メモリは、たとえば、後述するフラッシュメモリおよび/またはNVRAMメモリ(不揮発性RAM)を含んでもよい。いくつかの実装形態では、命令が情報担体に格納されている。当該命令は、1つ以上の処理装置(たとえば、プロセッサ552)によって実行されると、上述した方法など、1つ以上の方法を実行する。また、命令は、1つ以上のコンピュータ読み取り可能な媒体または機械読み取り可能な媒体(たとえば、メモリ564、拡張メモリ574、またはプロセッサ552上のメモリ)など、1つ以上の記憶装置によって格納され得る。いくつかの実装形態では、命令は、たとえば、送受信装置568または外部インタフェース562を介して伝播信号で受信され得る。 The memory may include, for example, flash memory and/or NVRAM memory (non-volatile RAM) as described below. In some implementations the instructions are stored on an information carrier. The instructions, when executed by one or more processing units (eg, processor 552), perform one or more methods, such as those described above. The instructions may also be stored by one or more storage devices, such as one or more computer-readable or machine-readable media (eg, memory 564, expansion memory 574, or memory on processor 552). In some implementations, the instructions may be received in a propagated signal via transceiver 568 or external interface 562, for example.

モバイルコンピューティングデバイス550は、通信インタフェース566を通して無線通信を行ってもよい。通信インタフェース566は、必要であれば、デジタル信号処理回路を備えてもよい。通信インタフェース566によって、特に、GSM(登録商標)音声通話(Global System for Mobile communications)、SMS(Short Message Service)、EMS(Enhanced Messaging Service)、or MMSメッセージング(Multimedia Messaging Service)、CDMA(Code Division Multiple Access)、TDMA(Time Division Multiple Access)、PDC(Personal Digital Cellular)、WCDMA(登録商標)(Wideband Code Division Multiple Access)、CDMA2000、またはGPRS(General Packet Radio サービス)など、様々なモードまたはプロトコル下の通信を可能にし得る。このような通信は、たとえば、無線周波数を利用する送受信装置568によって生じてもよい。これに加えて、Bluetooth、WiFi、またはその他のこのような送受信装置を用いるなどして近距離通信が生じてもよい。これに加えて、追加のナビゲーション関連または位置関連の無線データをGPS(Global Positioning System)受信モジュール570がモバイルコンピューティングデバイス550に提供してもよい。追加のナビゲーション関連または位置関連の無線データは、モバイルコンピューティングデバイス550上で実行するアプリケーションによって適宜利用されてもよい。 Mobile computing device 550 may communicate wirelessly through communication interface 566 . Communication interface 566 may include digital signal processing circuitry, if desired. Communication interface 566 enables, among other things, GSM voice calls (Global System for Mobile communications), SMS (Short Message Service), EMS (Enhanced Messaging Service), or MMS messaging (Multimedia Messaging, Multimedia Messaging Service (DMA)). Access), TDMA (Time Division Multiple Access), PDC (Personal Digital Cellular), WCDMA (Wideband Code Division Multiple Access), CDMA2000, or various protocols such as GPRS (General Packet or General Packet Mode) Rad can enable communication. Such communication may occur, for example, by means of transceiver 568 utilizing radio frequencies. Additionally, near field communication may occur, such as by using Bluetooth, WiFi, or other such transceiving devices. In addition, additional navigation-related or location-related wireless data may be provided to mobile computing device 550 by Global Positioning System (GPS) receiving module 570 . Additional navigation-related or location-related wireless data may be utilized by applications running on mobile computing device 550 as appropriate.

また、モバイルコンピューティングデバイス550は、オーディオコーデック560を用いて、音声による通信を行ってもよい。オーディオコーデック560は、ユーザからの音声情報を受信し、使用可能なデジタル情報に変換してもよい。同様に、オーディオコーデック560は、たとえば、モバイルコンピューティングデバイス550のハンドセットにおいて、スピーカを通してなど、ユーザのために音を生成してもよい。このような音は、音声電話通話からの音声を含んでもよく、録音音声(たとえば、音声メッセージ、音楽ファイルなど)を含んでもよく、モバイルコンピューティングデバイス550上で動作するアプリケーションによって生成された音も含んでもよい。 Mobile computing device 550 may also use audio codec 560 to communicate by voice. Audio codec 560 may receive audio information from a user and convert it into usable digital information. Similarly, audio codec 560 may generate sounds for the user, such as through a speaker in a handset of mobile computing device 550, for example. Such sounds may include sounds from voice telephone calls, may include recorded sounds (e.g., voice messages, music files, etc.), and may also include sounds generated by applications running on the mobile computing device 550. may contain.

モバイルコンピューティングデバイス550は、図示したような複数の異なる形態で実現されてもよい。たとえば、携帯電話580として実現されてもよい。また、スマートフォン582、携帯情報端末、または他の同様のモバイル機器の一部として実現されてもよい。 Mobile computing device 550 may be implemented in a number of different forms as shown. For example, it may be implemented as a mobile phone 580 . It may also be implemented as part of a smart phone 582, personal digital assistant, or other similar mobile device.

本明細書において説明したシステムおよび技術のさまざまな実装形態は、デジタル電子回路、集積回路、専用に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合せで実現することができる。これらのさまざまな実装形態は、プログラム可能なシステム上で実行可能および/または解釈可能な1つ以上のコンピュータプログラムでの実装を含み得る。このシステムは、特定用途プロセッサまたは汎用プロセッサであり得る少なくとも1つのプログラム可能なプロセッサと、ストレージシステムと、少なくとも1つの入力装置と、少なくとも1つの出力装置とを備え、プロセッサは、データおよび命令を送受信するために、ストレージシステム、少なくとも1つ以上の入力装置、および少なくとも1つ以上の出力装置に連結される。 Various implementations of the systems and techniques described herein may be digital electronic circuits, integrated circuits, specially designed application-specific integrated circuits (ASICs), computer hardware, firmware, software, and/or It can be realized by a combination. These various implementations may include implementation in one or more computer programs executable and/or interpretable on a programmable system. The system comprises at least one programmable processor, which may be a special purpose processor or a general purpose processor, a storage system, at least one input device, and at least one output device, wherein the processor transmits and receives data and instructions. To do so, it is coupled to a storage system, at least one or more input devices, and at least one or more output devices.

これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても知られる)は、プログラム可能なプロセッサ用の機械命令を含み、高レベルの手続き形言語および/もしくはオブジェクト指向プログラミング言語で、ならびに/またはアセンブリ言語/機械言語で実現できる。本明細書において使用するとき、用語「機械読み取り可能な媒体」および「コンピュータ読み取り可能な媒体」は、機械読み取り可能な信号として機械命令を受け付ける機械読み取り可能な媒体を含むプログラム可能なプロセッサに機械命令および/またはデータを提供するために使用される任意のコンピュータプログラムプロダクト、装置、および/またはデバイス(たとえば、磁気ディスク、光学ディスク、メモリ、PLD(Programmable Logic Device))を指す。用語「機械読み取り可能な信号」は、プログラム可能なプロセッサに機械命令および/またはデータを提供するために使用される任意の信号を指す。 These computer programs (also known as programs, software, software applications, or code) contain machine instructions for programmable processors, are in high-level procedural and/or object-oriented programming languages, and/or It can be implemented in assembly language/machine language. As used herein, the terms "machine-readable medium" and "computer-readable medium" refer to instructions to a programmable processor, including any machine-readable medium that accepts machine instructions as machine-readable signals. and/or any computer program product, apparatus, and/or device (eg, magnetic disk, optical disk, memory, Programmable Logic Device (PLD)) used to provide data. The term "machine-readable signal" refers to any signal used to provide machine instructions and/or data to a programmable processor.

ユーザとのやり取りを可能にするために、本明細書に記載のシステムおよび技術は、ユーザに情報を表示するための表示装置(たとえば、ブラウン管(CRT)または液晶ディスプレイ(LCD)モニタ)と、ユーザがコンピュータに入力を行えるキーボードおよびポインティングデバイス(たとえば、マウスまたはトラックボール)とを備えたコンピュータ上に実装され得る。その他の種類のデバイスを使ってユーザとのやり取りを可能にすることもでき、たとえば、ユーザに提供されるフィードバックは、任意の形式の感覚フィードバック(たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であり得、ユーザからの入力は、音響入力、音声入力、触覚入力など、任意の形式で受け付けられ得る。 To enable interaction with a user, the systems and techniques described herein include a display device (e.g., cathode ray tube (CRT) or liquid crystal display (LCD) monitor) for displaying information to the user and a can be implemented on a computer with a keyboard and pointing device (eg, mouse or trackball) that allows input to the computer. Other types of devices may also be used to enable user interaction, e.g., the feedback provided to the user may be any form of sensory feedback (e.g., visual, auditory, or tactile feedback). Possibly, input from the user may be received in any form, such as acoustic input, voice input, tactile input, and the like.

本明細書に記載のシステムおよび技術は、(たとえば、データサーバとしての)バックエンド・コンポーネントを備えるコンピュータシステム、ミドルウェア・コンポーネント(たとえば、アプリケーションサーバ)を備えるコンピュータシステム、フロントエンド・コンポーネント(たとえば、本明細書に記載のシステムおよび技術の実装形態とユーザがやり取りできるグラフィカルユーザーインターフェースまたはウェブブラウザを有するクライアントコンピュータ)を備えるコンピュータシステム、または、このようなバックエンド・コンポーネント、ミドルウェア・コンポーネント、フロントエンド・コンポーネントの任意の組み合わせで実現され得る。システムの構成要素は、任意の形態または媒体のデジタルデータ通信(たとえば、通信ネットワーク)によって互いに接続され得る。通信ネットワークとして、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネットなどが挙げられる。 The systems and techniques described herein include computer systems with back-end components (e.g., as data servers), computer systems with middleware components (e.g., application servers), front-end components (e.g., a client computer having a graphical user interface or web browser that enables users to interact with implementations of the systems and techniques described herein; or any such back-end, middleware, or front-end components; Any combination of The components of the system can be connected together by any form or medium of digital data communication (eg, a communication network). Communication networks include local area networks (LAN), wide area networks (WAN), the Internet, and the like.

コンピュータシステムは、クライアントとサーバとを含み得る。クライアントおよびサーバは、一般に、互いから離れており、通常、通信ネットワークを通じてやり取りを行う。クライアントとサーバとの関係は、それぞれのコンピュータ上で動作し、クライアントとサーバとの関係を互いに有するコンピュータプログラムによって成り立つ。 The computer system can include clients and servers. A client and server are generally remote from each other and typically interact through a communication network. The relationship of client and server is established by virtue of computer programs running on the respective computers and having a client-server relationship to each other.

いくつかの実装形態の詳細を上述したが、その他の変更も可能である。たとえば、クライアントアプリケーションは、デリゲート(複数可)にアクセスするものとして説明したが、その他の実装形態では、当該デリゲート(複数可)は、1つ以上のサーバ上で実行されているアプリケーションなど、1つ以上のプロセッサによって実施されるその他のアプリケーションによって採用されてもよい。これに加えて、図に示した論理フローは、所望の結果を実現するために、順次または図示した特定の順序である必要はない。これに加えて、記載のフローにその他の動作が提供されてもよく、動作が排除されてもよく、記載のシステムにその他の構成要素が追加または削除されてもよい。したがって、他の実装形態が添付の特許請求の範囲に含まれる。 Although some implementation details have been given above, other modifications are possible. For example, although a client application has been described as accessing a delegate(s), in other implementations, the delegate(s) may be a single entity, such as an application running on one or more servers. It may also be employed by other applications implemented by the above processors. Additionally, the logic flow depicted in the figures need not be sequential or in the particular order shown to achieve desired results. In addition, other operations may be provided in the described flows, operations may be eliminated, and other components may be added or deleted from the described systems. Accordingly, other implementations are within the scope of the appended claims.

Claims (18)

コンピュータにより実現される方法であって、
タッチキーボードおよびトラックパッドを含むコンピューティングデバイスが、前記コンピューティングデバイスのコンテキストを判断するステップを含み、前記コンピューティングデバイスのコンテキストを判断するステップは、完全な単語がカーソルの位置よりも前にあると判断するステップを含み
前記トラックパッド上のタッチ入力を受け付けるステップと、
前記コンピューティングデバイスが、前記コンピューティングデバイスの予め判断されたコンテキストに基づくとともに、完全な単語が前記カーソルの前にあると判断することにさらに基づいて、前記トラックパッド上の前記タッチ入力が前記タッチキーボードのスペースバーの選択であると特定するステップと、
前記コンピューティングデバイスのディスプレイに出力するために、前記トラックパッド上の前記タッチ入力が前記スペースバーの選択であると前記コンピューティングデバイスが特定したことに基づいて、前記スペースバーの選択の表示を提供するステップとを含む、方法。
A computer-implemented method comprising:
A computing device including a touch keyboard and a trackpad includes determining a context of said computing device, wherein determining a context of said computing device determines that a complete word precedes a cursor position. including the step of determining
accepting touch input on the trackpad;
The touch input on the trackpad by the computing device based on a pre-determined context of the computing device and further based on determining that a complete word is in front of the cursor. is the touch keyboard spacebar selection;
providing an indication of the spacebar selection based on the computing device identifying the touch input on the trackpad as the spacebar selection for output to a display of the computing device. and a method.
前記コンピューティングデバイスのコンテキストを判断するステップは、前記トラックパッド上の前記タッチ入力が、ドラッグ操作ではなく、タップ操作であると判断するステップを含み、
前記トラックパッド上の前記タッチ入力が前記タッチキーボードのスペースバーの選択であると特定するステップは、さらに、前記トラックパッド上の前記タッチ入力が、ドラッグ操作ではなく、タップ操作であると判断することに基づく、請求項に記載の方法。
determining the context of the computing device includes determining that the touch input on the trackpad is a tap operation rather than a drag operation;
The step of identifying the touch input on the trackpad as a selection of the space bar of the touch keyboard further comprises determining that the touch input on the trackpad is a tap operation rather than a drag operation. 2. The method of claim 1 , based on.
前記コンピューティングデバイスのコンテキストを判断するステップは、前記タッチキーボードの予め定められた数のホームキーにユーザの指がタッチしていると判断するステップを含み、
前記トラックパッド上の前記タッチ入力が前記タッチキーボードのスペースバーの選択であると特定するステップは、さらに、前記タッチキーボードの前記予め定められた数のホームキーに前記ユーザの指がタッチしていると判断することに基づく、請求項1または2に記載の方法。
determining the context of the computing device includes determining that a user's finger is touching a predetermined number of home keys of the touch keyboard;
Identifying the touch input on the trackpad as a spacebar selection of the touch keyboard further comprises touching the predetermined number of home keys of the touch keyboard with the user's finger. 3. A method according to claim 1 or 2 , based on determining that
前記コンピューティングデバイスのコンテキストを判断するステップは、前記トラックパッドの片側でユーザの手のひらが前記タッチキーボードの一部にタッチしていると判断するステップを含み、
前記トラックパッド上の前記タッチ入力が前記タッチキーボードのスペースバーの選択であると特定するステップは、さらに、前記トラックパッドの片側で前記ユーザの手のひらが前記タッチキーボードの一部にタッチしていると判断することに基づく、請求項1~3のいずれか1項に記載の方法。
Determining the context of the computing device includes determining that a user's palm on one side of the trackpad is touching a portion of the touch keyboard;
Identifying the touch input on the trackpad as a spacebar selection of the touch keyboard further comprises identifying a portion of the touch keyboard touched by the user's palm on one side of the trackpad. A method according to any one of claims 1 to 3 , which is based on judging.
前記タッチキーボードおよび前記トラックパッドは、タッチ入力装置上に示される輪郭によって識別される、請求項1~4のいずれか1項に記載の方法。 A method according to any preceding claim, wherein the touch keyboard and the trackpad are identified by outlines shown on the touch input device. 前記コンピューティングデバイスの前記ディスプレイと前記タッチ入力装置とは別個である、請求項に記載の方法。 6. The method of claim 5 , wherein the display of the computing device and the touch input device are separate. 前記タッチキーボードは、前記スペースバーの画像を描画し、
前記トラックパッド上の前記タッチ入力を受け付けるステップは、前記描画されたスペースバーの画像内の位置における前記タッチ入力を受け付けないステップを含む、請求項1~6のいずれか1項に記載の方法。
the touch keyboard draws an image of the spacebar;
A method according to any preceding claim, wherein accepting the touch input on the trackpad comprises rejecting the touch input at a location within the rendered spacebar image.
前記描画されたスペースバーの画像は、前記タッチキーボードの下に隣接している、請求項に記載の方法。 8. The method of claim 7 , wherein the rendered spacebar image is adjacent and under the touch keyboard. 前記コンピューティングデバイスのさらなるコンテキストを判断するステップと、
前記トラックパッド上のさらなるタッチ入力を受け付けるステップと、
前記コンピューティングデバイスが、前記さらなるコンテキストに基づいて、前記トラックパッド上の前記さらなるタッチ入力が前記トラックパッドの選択であると特定するステップと、
前記コンピューティングデバイスの前記ディスプレイに出力するために、前記トラックパッド上の前記さらなるタッチ入力が前記トラックパッドの選択であると前記コンピューティングデバイスが特定したことに基づいて、前記トラックパッドの選択の表示を提供するステップとを含む、請求項1~8のいずれか1項に記載の方法。
determining further context of the computing device;
accepting further touch input on the trackpad;
said computing device identifying said further touch input on said trackpad as a selection of said trackpad based on said further context;
displaying a selection of the trackpad based on the computing device identifying the further touch input on the trackpad as selecting the trackpad for output to the display of the computing device. A method according to any one of claims 1 to 8 , comprising the step of providing
前記スペースバー上の別のタッチ入力を受け付けるステップと、
前記コンピューティングデバイスが、前記トラックパッド上の前記さらなるタッチ入力が前記トラックパッドの選択であると特定することに基づいて、前記スペースバー上の前記別のタッチ入力が前記トラックパッドの選択であると特定するステップと、
前記コンピューティングデバイスの前記ディスプレイに出力するために、前記スペースバー上の前記別のタッチ入力が前記トラックパッドの選択であると前記コンピューティングデバイスが特定したことに基づいて、前記トラックパッドの選択のさらなる表示を提供するステップとを含む、請求項に記載の方法。
accepting another touch input on the spacebar;
the further touch input on the spacebar being the selection of the trackpad based on the computing device identifying the further touch input on the trackpad as the selection of the trackpad; a step of identifying;
selection of the trackpad based on the computing device identifying the another touch input on the spacebar as selection of the trackpad for output to the display of the computing device. and providing further indications .
前記コンピューティングデバイスの前記さらなるコンテキストを判断するステップは、単語の接頭語が前記カーソルの前にあると判断するステップを含み、
前記トラックパッド上の前記さらなるタッチ入力がトラックパッドの選択であると特定するステップは、さらに、単語の接頭語が前記カーソルの前にあると判断することに基づく、請求項または10に記載の方法。
determining the additional context of the computing device includes determining that a prefix of a word is in front of the cursor;
11. The step of identifying the further touch input on the trackpad as a trackpad selection is further based on determining that a word prefix is in front of the cursor. Method.
前記トラックパッド上の前記タッチ入力を受け付けることに基づいて、かつ、前記トラックパッド上の前記タッチ入力が前記スペースバーの選択であると前記コンピューティングデバイスが特定したことに基づいて、トラックパッドジェスチャに関連する操作を行わないステップを含む、請求項1~11のいずれか1項に記載の方法。 based on receiving the touch input on the trackpad and based on the computing device identifying the touch input on the trackpad as the selection of the spacebar, to a trackpad gesture. 12. A method according to any one of claims 1 to 11 , comprising the step of not performing the associated operation. 1つ以上のコンピュータと、
命令を格納した1つ以上の記憶装置とを備え、前記命令は、前記1つ以上のコンピュータによって実行されると、前記1つ以上のコンピュータに動作を実行させるよう動作可能であり、前記動作は、
タッチキーボードおよびトラックパッドを含むコンピューティングデバイスが、前記コンピューティングデバイスのコンテキストを判断することを含み、前記コンピューティングデバイスのコンテキストを判断することは、完全な単語がカーソルの位置よりも前にあると判断するステップを含み
前記トラックパッド上のタッチ入力を受け付けることと、
前記コンピューティングデバイスが、前記コンピューティングデバイスの予め判断されたコンテキストに基づくとともに、完全な単語が前記カーソルの前にあると判断することにさらに基づいて、前記トラックパッド上の前記タッチ入力が前記タッチキーボードのスペースバーの選択であると特定することと、
前記コンピューティングデバイスのディスプレイに出力するために、前記トラックパッド上の前記タッチ入力が前記スペースバーの選択であると前記コンピューティングデバイスが特定したことに基づいて、前記スペースバーの選択の表示を提供することとを含む、システム。
one or more computers;
and one or more storage devices storing instructions, said instructions being operable to cause said one or more computers to perform an action when executed by said one or more computers, said action comprising: ,
A computing device that includes a touch keyboard and trackpad includes determining a context of the computing device , wherein determining the context of the computing device includes determining that a complete word precedes a cursor position. including the step of determining
accepting touch input on the trackpad;
The touch input on the trackpad by the computing device based on a pre-determined context of the computing device and further based on determining that a complete word is in front of the cursor. is the touch keyboard spacebar selection;
providing an indication of the spacebar selection based on the computing device identifying the touch input on the trackpad as the spacebar selection for output to a display of the computing device. a system, including:
前記コンピューティングデバイスのコンテキストを判断することは、前記トラックパッド上の前記タッチ入力が、ドラッグ操作ではなく、タップ操作であると判断することを含み、
前記トラックパッド上の前記タッチ入力が前記タッチキーボードのスペースバーの選択であると特定することは、さらに、前記トラックパッド上の前記タッチ入力が、ドラッグ操作ではなく、タップ操作であると判断することに基づく、請求項13に記載のシステム。
Determining the context of the computing device includes determining that the touch input on the trackpad is a tap operation rather than a drag operation;
Identifying the touch input on the trackpad as a selection of the space bar of the touch keyboard further includes determining that the touch input on the trackpad is a tap operation rather than a drag operation. 14. The system of claim 13 , based on.
前記コンピューティングデバイスのコンテキストを判断することは、前記タッチキーボードの予め定められた数のホームキーにユーザの指がタッチしていると判断することを含み、
前記トラックパッド上の前記タッチ入力が前記タッチキーボードのスペースバーの選択であると特定することは、さらに、前記タッチキーボードの前記予め定められた数のホームキーに前記ユーザの指がタッチしていると判断することに基づく、請求項13または14のいずれか1項に記載のシステム。
Determining the context of the computing device includes determining that a user's finger is touching a predetermined number of home keys of the touch keyboard;
Identifying the touch input on the trackpad as a selection of the spacebar of the touch keyboard further comprises touching the predetermined number of home keys of the touch keyboard with the user's finger. 15. A system according to any one of claims 13 or 14 , based on determining that
前記コンピューティングデバイスのコンテキストを判断することは、前記トラックパッドの片側でユーザの手のひらが前記タッチキーボードの一部にタッチしていると判断することを含み、
前記トラックパッド上の前記タッチ入力が前記タッチキーボードのスペースバーの選択であると特定することは、さらに、前記トラックパッドの片側で前記ユーザの手のひらが前記タッチキーボードの一部にタッチしていると判断することに基づく、請求項1315のいずれか1項に記載のシステム。
Determining the context of the computing device includes determining that a user's palm on one side of the trackpad is touching a portion of the touch keyboard;
Identifying the touch input on the trackpad as a spacebar selection of the touch keyboard further identifies a portion of the touch keyboard touched by the user's palm on one side of the trackpad. A system according to any one of claims 13 to 15 , based on determining.
前記タッチキーボードおよび前記トラックパッドは、タッチ入力装置上に示される輪郭によって識別される、請求項1316のいずれか1項に記載のシステム。 The system of any one of claims 13-16 , wherein the touch keyboard and the trackpad are identified by outlines shown on the touch input device. 請求項1~12のいずれか1項に記載の方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the method according to any one of claims 1 to 12 .
JP2019538660A 2017-02-10 2017-10-25 dynamic spacebar Active JP7109448B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021184047A JP7426367B2 (en) 2017-02-10 2021-11-11 dynamic spacebar

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/429,903 US10234985B2 (en) 2017-02-10 2017-02-10 Dynamic space bar
US15/429,903 2017-02-10
PCT/US2017/058288 WO2018147910A1 (en) 2017-02-10 2017-10-25 Dynamic space bar

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021184047A Division JP7426367B2 (en) 2017-02-10 2021-11-11 dynamic spacebar

Publications (2)

Publication Number Publication Date
JP2020506467A JP2020506467A (en) 2020-02-27
JP7109448B2 true JP7109448B2 (en) 2022-07-29

Family

ID=60269970

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019538660A Active JP7109448B2 (en) 2017-02-10 2017-10-25 dynamic spacebar
JP2021184047A Active JP7426367B2 (en) 2017-02-10 2021-11-11 dynamic spacebar

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021184047A Active JP7426367B2 (en) 2017-02-10 2021-11-11 dynamic spacebar

Country Status (6)

Country Link
US (2) US10234985B2 (en)
EP (1) EP3580646B1 (en)
JP (2) JP7109448B2 (en)
KR (1) KR102253626B1 (en)
CN (1) CN110199253B (en)
WO (1) WO2018147910A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10234985B2 (en) * 2017-02-10 2019-03-19 Google Llc Dynamic space bar
US20190079668A1 (en) * 2017-06-29 2019-03-14 Ashwin P Rao User interfaces for keyboards
US11126283B2 (en) * 2019-06-05 2021-09-21 Apple Inc. Systems, methods, and computer-readable media for handling user input gestures on an extended trackpad of an electronic device

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6724370B2 (en) 2001-04-12 2004-04-20 International Business Machines Corporation Touchscreen user interface
CN100383713C (en) 2004-12-31 2008-04-23 联想(北京)有限公司 Information input device of portable electronic device and control method thereof
US20080297475A1 (en) 2005-08-02 2008-12-04 Woolf Tod M Input Device Having Multifunctional Keys
JP4366393B2 (en) * 2006-11-06 2009-11-18 アルプス電気株式会社 Input device
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US8525776B2 (en) 2008-10-27 2013-09-03 Lenovo (Singapore) Pte. Ltd Techniques for controlling operation of a device with a virtual touchscreen
TW201025093A (en) * 2008-12-30 2010-07-01 Ortek Technology Inc Method of converting touch pad into touch mode or number-key and/or hot-key input mode
US20110018812A1 (en) 2009-07-21 2011-01-27 Cisco Technology, Inc. Fast Typographical Error Correction for Touchscreen Keyboards
KR20110062740A (en) * 2009-12-04 2011-06-10 권철휘 Mouse on the keyboard controlled by thumb finger
US8782556B2 (en) * 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
US9019207B1 (en) * 2010-09-28 2015-04-28 Google Inc. Spacebar integrated with trackpad
EP2646894A2 (en) * 2010-11-30 2013-10-09 Cleankeys Inc. Dynamically located onscreen keyboard
US8982069B2 (en) * 2011-03-17 2015-03-17 Intellitact Llc Keyboard with integrated touch surface
US8933888B2 (en) * 2011-03-17 2015-01-13 Intellitact Llc Relative touch user interface enhancements
US9007297B2 (en) * 2011-08-31 2015-04-14 Lenovo (Singapore) Pte. Ltd. Information handling devices with touch-based reflective display
JP5204286B2 (en) * 2011-11-02 2013-06-05 株式会社東芝 Electronic device and input method
US8436829B1 (en) 2012-01-31 2013-05-07 Google Inc. Touchscreen keyboard simulation for performance evaluation
JP5458130B2 (en) * 2012-03-09 2014-04-02 株式会社東芝 Electronic device and input control method
US20130285927A1 (en) 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard with correction of previously input text
US9041654B2 (en) 2012-07-18 2015-05-26 Sap Se Virtual touchscreen keyboards
US8810519B2 (en) * 2012-07-30 2014-08-19 Motorola Mobility Llc Touch sensor integrated with a keyboard spacebar
JP5779156B2 (en) * 2012-09-07 2015-09-16 レノボ・シンガポール・プライベート・リミテッド Information input device, input method thereof, and computer-executable program
US20140109016A1 (en) * 2012-10-16 2014-04-17 Yu Ouyang Gesture-based cursor control
MX2015013077A (en) * 2013-03-15 2016-09-29 Forbes Holten 3Rd Norris Space optimizing micro keyboard method and apparatus.
CN104615361B (en) * 2013-11-01 2018-11-09 联想(北京)有限公司 A kind of electronic equipment and response method
US20150193010A1 (en) 2014-01-03 2015-07-09 Lenovo (Singapore) Pte. Ltd. Hardware keyboard for display keyboard
TWI575444B (en) * 2014-03-12 2017-03-21 新益先創科技股份有限公司 Command input device and command input method
US9329713B2 (en) * 2014-03-28 2016-05-03 Dell Products L.P. Non-line-of-sight touch input device
US10152227B2 (en) 2014-08-26 2018-12-11 International Business Machines Corporation Free form user-designed single-handed touchscreen keyboard
US9639184B2 (en) * 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10409412B1 (en) * 2015-09-30 2019-09-10 Apple Inc. Multi-input element for electronic device
US10234985B2 (en) 2017-02-10 2019-03-19 Google Llc Dynamic space bar

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
特開2013-098826号公報
特開2014-052864号公報
米国特許出願公開第2014/0310213号明細書
米国特許出願公開第2015/0277598号明細書
米国特許第09019207号明細書

Also Published As

Publication number Publication date
CN110199253B (en) 2021-05-07
CN110199253A (en) 2019-09-03
EP3580646A1 (en) 2019-12-18
US20180232093A1 (en) 2018-08-16
EP3580646B1 (en) 2021-12-15
KR20190091327A (en) 2019-08-05
US10234985B2 (en) 2019-03-19
WO2018147910A1 (en) 2018-08-16
JP7426367B2 (en) 2024-02-01
US20190265833A1 (en) 2019-08-29
JP2022031713A (en) 2022-02-22
JP2020506467A (en) 2020-02-27
KR102253626B1 (en) 2021-05-18
US10817109B2 (en) 2020-10-27

Similar Documents

Publication Publication Date Title
US10025385B1 (en) Spacebar integrated with trackpad
US10282090B2 (en) Systems and methods for disambiguating intended user input at an onscreen keyboard using dual strike zones
US8810535B2 (en) Electronic device and method of controlling same
US20210049321A1 (en) Device, method, and graphical user interface for annotating text
JP7426367B2 (en) dynamic spacebar
US20110242138A1 (en) Device, Method, and Graphical User Interface with Concurrent Virtual Keyboards
US20120019540A1 (en) Sliding Motion To Change Computer Keys
US20100100854A1 (en) Gesture operation input system
US20120030624A1 (en) Device, Method, and Graphical User Interface for Displaying Menus
US20110175826A1 (en) Automatically Displaying and Hiding an On-screen Keyboard
US20130342452A1 (en) Electronic device including touch-sensitive display and method of controlling a position indicator
US11822780B2 (en) Devices, methods, and systems for performing content manipulation operations
JP2017111797A (en) Devices, methods, and graphical user interfaces for keyboard interface functionalities
US10684758B2 (en) Unified system for bimanual interactions
US9727151B2 (en) Avoiding accidental cursor movement when contacting a surface of a trackpad
US10095403B2 (en) Text input on devices with touch screen displays
US20200356248A1 (en) Systems and Methods for Providing Continuous-Path and Delete Key Gestures at a Touch-Sensitive Keyboard
US20130293483A1 (en) Selectable object display method and apparatus
EP2660698A9 (en) Selectable object display method and apparatus
WO2022261008A2 (en) Devices, methods, and graphical user interfaces for interacting with a web-browser

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210713

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211111

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220222

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220524

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220621

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220719

R150 Certificate of patent or registration of utility model

Ref document number: 7109448

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150