JP6602372B2 - コンテキスト情報に基づくタッチ表面の非アクティブ領域 - Google Patents
コンテキスト情報に基づくタッチ表面の非アクティブ領域 Download PDFInfo
- Publication number
- JP6602372B2 JP6602372B2 JP2017510499A JP2017510499A JP6602372B2 JP 6602372 B2 JP6602372 B2 JP 6602372B2 JP 2017510499 A JP2017510499 A JP 2017510499A JP 2017510499 A JP2017510499 A JP 2017510499A JP 6602372 B2 JP6602372 B2 JP 6602372B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- user
- touch
- touch surface
- tool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of two-dimensional [2D] relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
[0026] 図1は、本明細書に記載の技術を実装できる例示的なアーキテクチャ100を示している。アーキテクチャ100は、ユーザおよび/または他の物体によるタッチ入力を受け取るように構成された1つまたは複数のデバイス102(以下、「デバイス102」)を具備する。デバイス102は、ユーザと相互作用している間に、ユーザの利き手を識別し、タッチ表面上の不慮のタッチ入力を識別して、その他さまざまな演算を行うようにしてもよい。また、アーキテクチャ100は、ユーザの手に関する特性の格納、ユーザによるタッチ入力の評価に有用となり得る設定(preference)またはその他任意の情報の書き込み等、遠隔リソースをデバイス102に提供するサービスプロバイダ104を具備する。
・ユーザの四肢に関する特性:ユーザによる過去のタッチ入力の評価によって決定し得る指、手のひら、手首、腕等のサイズまたは形状。場合により、サイズ、形状、および/または位置を幾何学的形状と称する。
・ユーザの言語(たとえば、ユーザがやり取り可能な口語または文語)
・ユーザの利き手:ユーザが右利きであるか左利きであるか(たとえば、左手で書くか右手で書くか)、ユーザが入力ツールの保持に通常、右手を使うか左手を使うか(たとえば、ユーザが特定割合の時間よりも長く、右手を使う)、ユーザが右利きまたは左利きと考えられる程度(たとえば、両手で書くユーザは、右手よりも左手の方が安定する場合がある)
・入力挙動:ユーザの過去のタッチ表面との相互作用方法(たとえば、ユーザは通常、スタイラスをタッチ表面に置く直前に手のひらをタッチ表面に添える。ユーザは、入力ツールを保持する指をタッチ表面に添える。ユーザは、各単語を終了したとき、タッチ表面との接触を断つ。ユーザは、握った拳に入力ツールを保持する。ユーザは、入力ツールを保持しつつ指を広げる。ユーザは、ピンチジェスチャでズームすることが多い)
・ユーザと関連付けられた入力ツール。場合により、入力ツールは、当該入力ツールを識別する一意の識別子を格納してもよい。一意の識別子は、サービスプロバイダ104に送信されて、1人または複数のユーザを入力ツールと関連付けてもよい。このため、サービスプロバイダ104は、入力ツールの一意の識別子を格納してもよい。
・その他任意の情報
[0043] 図2は、図1の例示的なデバイス102の詳細を示した図である。図2に示すように、デバイス102は、1つまたは複数のプロセッサ112、メモリ114、およびタッチ表面106のほか、1つまたは複数のディスプレイ202、1つまたは複数のセンサ204、1つまたは複数のキーボード206、および入力ツール108を具備してもよい。1つまたは複数のディスプレイ202としては、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機LEDディスプレイ、プラズマディスプレイ、電子ペーパーディスプレイ、またはその他任意の種類の技術が挙げられ得る。タッチ表面106がタッチスクリーンとして実装されている場合、1つまたは複数のディスプレイ202は、タッチ表面106に組み込まれていてもよい。
・タッチ表面106の幾何学的形状:タッチ表面106のサイズ、形状、および/または位置。タッチ表面106の位置は、デバイス102の筐体に相対的なものであってもよい(たとえば、タッチスクリーンが筐体の右側にオフセットしている)。非アクティブ領域のサイズおよび/または形状は、タッチ表面106のサイズおよび/または形状に合わせてスケーリングされてもよい。一例として、タッチ表面のサイズが比較的大きい場合は、サイズがより小さなタッチ表面に対して、比較的大きな非アクティブ領域が規定されてもよい。
・タッチ表面106へのタッチ入力の幾何学的形状:タッチ入力のサイズ、形状、および/または位置。非アクティブ領域のサイズおよび/または形状は、タッチ入力のサイズおよび/または形状に合わせてスケーリングされてもよい。一例として、タッチ入力が相対的に円形である場合は、円形の非アクティブ領域が規定されてもよい。別の例において、タッチ入力(手のひらに由来すると仮定)が比較的大きな場合は、非アクティブ領域が相対的に大きく規定され、タッチ入力を中心として当該タッチ入力を囲んでもよい。
・入力ツールおよび/またはユーザによるタッチ入力の進行方向および/または速度。一例として、非アクティブ領域のサイズは、タッチ入力の速度増加に合わせて大きくなってもよい。
・タッチ表面106と相互作用しているユーザの数。一例として、複数の入力ツールがタッチ表面と相互作用していることが検出された場合(複数のユーザを示している場合)は、複数の非アクティブ領域が作成されてもよい。非アクティブ領域はそれぞれ、複数のユーザでない場合の普通のサイズより小さく、これにより、ユーザが入力を与えられる十分な空間をタッチ表面106上に提供してもよい。
・デバイス102上で現在動作しているアプリケーションに関する情報。この情報は、現在実行されているアプリケーションおよび/またはタッチ表面106を介してアプリケーションにより表示されているコンテンツの種類を示してもよい。一例として、ユーザによるタッチ表面106への書き込みを可能とする書き込みアプリケーションが動作している場合は、ユーザが書き込み中に意図せずタッチ表面106に接触してしまう可能性がより高いため、動作している音楽アプリケーション用に作成された非アクティブ領域に対して、より大きな非アクティブ領域が作成されてもよい。場合によっては、アプリケーションの動作中に非アクティブ領域を使用可能であるか否かを示す設定をアプリケーションが含んでもよい。
・デバイス102の配向(たとえば、角度位置)。デバイス102(および/または、タッチ表面106)は、横長モードで、縦長モードで、水平横臥(たとえば、机上)で、垂直起立(たとえば、壁掛け)で、特定の角度(たとえば、45°)で等配向していてもよい。一例として、非アクティブ領域は、デバイス102が第1の配向(たとえば、水平)で配向している場合に第1の特性(サイズ、形状、および位置)を含み、デバイス102が第2の配向(たとえば、垂直)で配向している場合に第2の特性を含む。例示として、デバイス102が机上にある場合は、デバイス102が壁に掛かっている場合よりも、非アクティブ領域が入力ツール108の下側に大きく延びていてもよい。デバイス102が机上で水平な場合は、ユーザがうっかり手首をタッチ表面106に添えてしまう可能性がより高いためである。
・デバイス102を使用しているユーザと関連付けられた任意のユーザ情報(たとえば、ユーザの手に関する特性、ユーザの言語、ユーザの利き手、入力挙動、ユーザと関連付けられた入力ツール等)。一例として、ユーザが右手を使っていることが検出された場合は、非アクティブ領域が入力ツール108の右側に向かって延びていてもよい。別の例において、左から右へと書き込まれる英語でユーザが書いている場合は、右から左へと書き込まれる言語で書いている別のユーザの非アクティブ領域よりも、非アクティブ領域が入力ツール108の右側に大きく延びていてもよい。さらに別の例においては、ユーザによる過去のタッチ入力あるいは識別されたタッチ入力を解析することによって識別されるユーザの手のひらのサイズに合わせて、非アクティブ領域がスケーリングされてもよい。さらに、過去の入力挙動から、入力ツール108を保持している手の中指をユーザが意図せず入力ツール108に添えているものと決定された場合は、非アクティブ領域が入力ツール108の上方に延び、中指によるタッチ入力を囲んでもよい。
・その他任意の情報
[0057] 図3は、ユーザの利き手(たとえば、入力ツールを現在使用しているユーザの手)を検出する例示的な技術を示している。この例においては、上記技術によって、入力ツールの使用時にタッチ表面106上で最も新しく生じた一時的入力302〜314を解析するようにしてもよい。たとえば、利き手検出が実行される時点までの期間において、一時的入力302〜314のうちの1つまたは複数がタッチ表面106から除去される。一時的入力302〜314は、ユーザの手により与えられてもよい。この例においては、一時的入力302〜312がユーザの右手316により与えられる一方、一時的入力314がユーザの左手318により与えられている。ユーザの右手316は、一時的入力310および312を覆うように示していないが、これらの入力は、入力ツールを保持しているユーザの指(たとえば、ユーザの右手316の指)に由来する。図示のように、ツール入力320は、入力ツールによるタッチ入力の受取り位置を示している。
[0060] 図4A、図4B、図4C、および図4Dは、タッチ入力の抑制に使用できる例示的な非アクティブ領域402、404、406、および408をそれぞれ示している。非アクティブ領域402、404、406、および408はそれぞれ、入力ツール108等の入力ツールによるタッチ入力に対して、タッチ表面106で位置決めされている。非アクティブ領域402、404、406、および408は、入力ツールによるタッチ入力(ツール入力と表記)を囲むものとして示しているが、入力ツールによるタッチ入力は囲まれていなくてもよい。さらに、非アクティブ領域402、404、406、および408は、特定の形状で示しているが、任意の種類の多角形、楕円形、湾曲線形状等、任意の形状が用いられてもよい。
[0067] 図7、図8、および図9は、本明細書に記載の技術を使用する例示的なプロセス700、800、および900を示している。説明を容易にするため、プロセス700、800、および900は、図1のアーキテクチャ100で実行されるものとして記載している。たとえば、プロセス700、800、および900の個々の動作のうちの1つまたは複数は、デバイス102により実行されてもよい。しかし、プロセス700、800、および900は、他のアーキテクチャで実行されてもよい。さらに、他のプロセスの実行にアーキテクチャ100が用いられてもよい。
(実施例)
[0128] 以上、構造的特徴および/または方法論的動作に固有の表現で実施形態を説明したが、本開示は、必ずしも上記固有の特徴または動作に限定されないことを理解されたい。むしろ、上記固有の特徴および動作は、実施形態を実施する例示的な形態として本明細書に開示している。
Claims (16)
- コンピュータデバイスが、タッチ表面を介した入力ツールによるタッチ入力を受け取るステップであって、前記入力ツールがスタイラス、ペン、または別の入力アイテムのうちの少なくとも1つを含む、ステップと、
前記入力ツールに関連付けられたユーザの手を識別するステップと、
前記コンピュータデバイスが、前記タッチ表面を介して現在表示されている選択可能なグラフィカル要素を識別するステップと、
前記コンピュータデバイスが、前記選択可能なグラフィカル要素の位置および前記入力ツールに関連付けられた前記ユーザの前記手に少なくとも部分的に基づいて、前記タッチ表面に非アクティブ領域を規定するステップであって、前記選択可能なグラフィカル要素の少なくとも一部の周りに前記非アクティブ領域を規定することを含み、前記非アクティブ領域は前記入力ツールによるタッチ入力の位置を囲む、ステップと、
前記選択可能なグラフィカル要素の選択を可能にするステップと、
前記非アクティブ領域で受け取られた前記ユーザによるタッチ入力を抑制するステップと、
を含む方法。 - 前記非アクティブ領域は、
前記タッチ表面の形状、
筐体内の前記タッチ表面の位置、
前記ユーザによる前記タッチ入力または前記ユーザによる別のタッチ入力の幾何学的形状、
前記タッチ表面と相互作用しているユーザの数、
前記入力ツールと関連付けられた前記ユーザに関する情報、
現在動作しているアプリケーションに関する情報、
前記タッチ表面の配向、または
前記ユーザの言語、
のうちの少なくとも1つに基づいて規定される、請求項1に記載の方法。 - 前記入力ツールによる前記タッチ入力が前記タッチ表面上での位置を変更した場合に、前記入力ツールによる前記タッチ入力に関連させて前記非アクティブ領域を維持するステップをさらに含む、請求項1または2に記載の方法。
- 前記入力ツールによる前記タッチ入力が前記タッチ表面上に留まる間、前記タッチ表面において前記非アクティブ領域を維持するステップをさらに含む、請求項1〜3のいずれか一項に記載の方法。
- 前記非アクティブ領域は、前記入力ツールの前記タッチ入力の前記位置から前記タッチ表面の底縁部まで延びるとともに、前記入力ツールの前記タッチ入力の前記位置から前記タッチ表面の上縁部まで延びる、請求項1〜4のいずれか一項に記載の方法。
- 入力ツールによるタッチ入力を受け取るタッチ表面と、
前記タッチ表面に対して通信可能に結合された1つまたは複数のプロセッサと、
前記1つまたは複数のプロセッサに対して通信可能に結合されたメモリと、
を備えるシステムであって、前記メモリは、実行された場合に前記1つまたは複数のプロセッサに、
前記入力ツールに関連付けられたユーザの手を識別することと、
前記タッチ表面を介して現在表示されている選択可能なグラフィカル要素を識別することと、
前記選択可能なグラフィカル要素の位置および前記入力ツールに関連付けられた前記ユーザの前記手に少なくとも部分的に基づいて、前記タッチ表面の非アクティブ領域を規定することであって、前記選択可能なグラフィカル要素の少なくとも一部の周りに前記非アクティブ領域を規定することを含み、前記非アクティブ領域は前記入力ツールによるタッチ入力の位置を囲み、前記システムが第1のタイプの入力を受け取ることが可能になったときに前記非アクティブ領域の第1のサイズまたは形状を規定すること、および、前記システムが第2のタイプの入力を受け取ることが可能になったときに前記非アクティブ領域の第2のサイズまたは形状を規定することを含む、ことと、
前記選択可能なグラフィカル要素の選択を可能にすることと、
前記非アクティブ領域においてユーザから受け取られたタッチ入力を非意図的なものとして分類することと、
を含む動作を実行させるコンピュータ可読命令を格納する、システム。 - 前記非アクティブ領域は、前記入力ツールによる前記タッチ入力の位置および前記入力ツールによる前記タッチ入力の進行方向に少なくとも部分的に基づいて規定される、請求項6に記載のシステム。
- 前記非アクティブ領域は、当該システムの配向に少なくとも部分的に基づいて規定され、前記規定することは、当該システムが第1の配向に配向していることに応答して第1の特性を有するように前記非アクティブ領域を構成すること、および、当該システムが第2の配向に配向していることに応答して第2の特性を有するように前記非アクティブ領域を構成することを含み、前記第1の特性および前記第2の特性はそれぞれ、サイズ、形状、または位置のうちの少なくとも1つを含む、請求項6または7に記載のシステム。
- 前記非アクティブ領域は、前記ユーザの言語に少なくとも部分的に基づいて規定され、前記規定することは、前記ユーザが第1の言語でやり取りすることに応答して第1の特性を有するように前記非アクティブ領域を構成すること、および、前記ユーザが第2の言語でやり取りすることに応答して第2の特性を有するように前記非アクティブ領域を構成することを含み、前記第1の特性および前記第2の特性はそれぞれ、サイズ、形状、または位置のうちの少なくとも1つを含む、請求項6〜8のいずれか一項に記載のシステム。
- 前記非アクティブ領域は、前記タッチ表面の幾何学的形状に少なくとも部分的に基づいて規定され、前記タッチ表面の前記幾何学的形状は、サイズ、形状、または位置のうちの少なくとも1つを含み、前記非アクティブ領域のサイズ、形状、または位置のうちの少なくとも1つは、前記タッチ表面の前記サイズ、前記形状、または前記位置のうちの少なくとも1つと関連する、請求項6〜9のいずれか一項に記載のシステム。
- 前記非アクティブ領域は、前記ユーザによる前記タッチ入力の幾何学的形状に少なくとも部分的に基づいて規定され、前記ユーザによる前記タッチ入力の前記幾何学的形状は、サイズ、形状、または位置のうちの少なくとも1つを含み、前記非アクティブ領域のサイズ、形状、または位置のうちの少なくとも1つは、前記ユーザによる前記タッチ入力の前記サイズ、前記形状、または前記位置のうちの少なくとも1つと関連する、請求項6〜10のいずれか一項に記載のシステム。
- 前記動作が、
前記非アクティブ領域において前記ユーザから受け取られた1つまたは複数の付加的なタッチ入力が、タッチ入力の速度、進行方向、または数のうちの少なくとも1つと関連する1つまたは複数の基準を満たすものと決定することと、
前記ユーザによる前記1つまたは複数の付加的なタッチ入力が前記1つまたは複数の基準を満たすとの決定に応答して、前記ユーザによる前記1つまたは複数の付加的なタッチ入力を意図的なものとして分類することと
をさらに含む、請求項6〜11のいずれか一項に記載のシステム。 - 実行された場合に、
タッチ表面を介した入力ツールによるタッチ入力を受け取ることと、
前記入力ツールに関連付けられたユーザの手を識別することと、
前記タッチ表面を介して現在表示されている選択可能なグラフィカル要素を識別することと、
前記選択可能なグラフィカル要素の位置および前記入力ツールに関連付けられた前記ユーザの前記手に少なくとも部分的に基づいて、前記タッチ表面の特定領域を規定することであって、前記選択可能なグラフィカル要素の少なくとも一部の周りに前記特定領域を規定することを含み、前記特定領域は前記入力ツールによるタッチ入力の位置を囲み、書き込み入力に関連付けられているアプリケーションのタイプに応答して、前記特定領域の第1のサイズまたは形状を規定すること、および、書き込み入力以外の別のタイプの入力に関連付けられているアプリケーションのタイプに応答して、前記特定領域の第2のサイズまたは形状を規定することを含み、前記第1のサイズまたは形状は、前記第2のサイズまたは形状よりも大きい、ことと、
前記選択可能なグラフィカル要素の選択を可能にすることと、
前記タッチ表面の前記特定領域内でユーザから受け取られたタッチ入力の処理を無効化することと、
を含む動作の実行を1つまたは複数のプロセッサに指示するコンピュータ可読命令を格納した1つまたは複数のコンピュータ可読記憶媒体。 - 前記動作が、
前記入力ツールから一意の識別子を取得することと、
前記一意の識別子を利用してユーザ情報を取得することであって、前記ユーザ情報が、前記ユーザの設定、前記ユーザの四肢に関する特性、前記ユーザの利き手、または前記ユーザの言語のうちの少なくとも1つを示す、ことと、
をさらに含み、
前記タッチ表面の前記特定領域は、前記ユーザ情報に少なくとも部分的に基づいて規定される、請求項13に記載の1つまたは複数のコンピュータ可読記憶媒体。 - 前記動作が、
前記特定領域において、前記ユーザによる1つまたは複数の付加的なタッチ入力を受け取ることと、
(i)前記ユーザによる前記1つまたは複数の付加的なタッチ入力の速度が速度基準を満たすとの決定、(ii)前記ユーザによる前記1つまたは複数の付加的なタッチ入力の進行方向が特定の方向であるとの決定、または(iii)前記ユーザによる前記1つまたは複数の付加的なタッチ入力の数が数基準を満たすとの決定のうちの少なくとも1つを行うことと、
前記決定に応答して、前記ユーザによる前記1つまたは複数の付加的なタッチ入力の処理を有効化することと、 をさらに含む、請求項13または14に記載の1つまたは複数のコンピュータ可読記憶媒体。 - 前記ユーザの手を識別するステップは、
前記入力ツールによるタッチ入力の特定の側において、前記入力ツールによるタッチ入力の別の側に比べて、より多くのタッチ入力が前記ユーザから受け取られているものと決定することと、
前記特定の側に少なくとも部分的に基づいて、ユーザが左手で入力ツールを使用しているか右手で使用しているかを決定することと、 を含む、請求項1に記載の方法。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US14/485,493 | 2014-09-12 | ||
| US14/485,493 US9804707B2 (en) | 2014-09-12 | 2014-09-12 | Inactive region for touch surface based on contextual information |
| PCT/US2015/049546 WO2016040720A1 (en) | 2014-09-12 | 2015-09-11 | Inactive region for touch surface based on contextual information |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2017527906A JP2017527906A (ja) | 2017-09-21 |
| JP2017527906A5 JP2017527906A5 (ja) | 2018-09-20 |
| JP6602372B2 true JP6602372B2 (ja) | 2019-11-06 |
Family
ID=54200078
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017510499A Active JP6602372B2 (ja) | 2014-09-12 | 2015-09-11 | コンテキスト情報に基づくタッチ表面の非アクティブ領域 |
Country Status (11)
| Country | Link |
|---|---|
| US (1) | US9804707B2 (ja) |
| EP (1) | EP3195100B1 (ja) |
| JP (1) | JP6602372B2 (ja) |
| KR (1) | KR102385759B1 (ja) |
| CN (1) | CN106605203B (ja) |
| AU (1) | AU2015314951B2 (ja) |
| BR (1) | BR112017003262B1 (ja) |
| CA (1) | CA2959683C (ja) |
| MX (1) | MX370918B (ja) |
| RU (1) | RU2705431C2 (ja) |
| WO (1) | WO2016040720A1 (ja) |
Families Citing this family (25)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6381032B2 (ja) * | 2012-06-08 | 2018-08-29 | 日本電気株式会社 | 電子機器、その制御方法及びプログラム |
| KR101580570B1 (ko) | 2014-06-10 | 2015-12-28 | 주식회사 하이딥 | 터치 센서 패널의 제어방법 및 제어장치 |
| KR20160023298A (ko) * | 2014-08-22 | 2016-03-03 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 입력 인터페이스 제공 방법 |
| US9626020B2 (en) | 2014-09-12 | 2017-04-18 | Microsoft Corporation | Handedness detection from touch input |
| US9910540B2 (en) | 2015-04-13 | 2018-03-06 | International Business Machines Corporation | Management of a touchscreen interface of a device |
| US10216405B2 (en) * | 2015-10-24 | 2019-02-26 | Microsoft Technology Licensing, Llc | Presenting control interface based on multi-input command |
| WO2017110257A1 (ja) * | 2015-12-21 | 2017-06-29 | ソニー株式会社 | 情報処理装置および情報処理方法 |
| US10725627B2 (en) * | 2016-07-15 | 2020-07-28 | International Business Machines Corporation | Managing inputs to a user interface with system latency |
| JP6784115B2 (ja) * | 2016-09-23 | 2020-11-11 | コニカミノルタ株式会社 | 超音波診断装置及びプログラム |
| US20180101986A1 (en) * | 2016-10-10 | 2018-04-12 | Aaron Mackay Burns | Drawing in a 3d virtual reality environment |
| CN106708407B (zh) * | 2016-12-16 | 2019-05-03 | Oppo广东移动通信有限公司 | 防止触摸按键误触发的方法、装置及移动终端 |
| WO2020003970A1 (ja) | 2018-06-25 | 2020-01-02 | 株式会社ワコム | タッチic及び外部プロセッサを含むシステムで実行される方法 |
| CN109308205B (zh) * | 2018-08-09 | 2020-12-01 | 腾讯科技(深圳)有限公司 | 应用程序的显示适配方法、装置、设备及存储介质 |
| JP7225638B2 (ja) * | 2018-09-26 | 2023-02-21 | 富士フイルムビジネスイノベーション株式会社 | 情報処理システムおよびプログラム |
| JP2021033543A (ja) * | 2019-08-22 | 2021-03-01 | 株式会社ワコム | 入力装置 |
| CN110501897B (zh) * | 2019-08-30 | 2021-08-17 | 安徽华米信息科技有限公司 | 智能手表及其触控方法 |
| TWI709891B (zh) * | 2019-09-19 | 2020-11-11 | 義隆電子股份有限公司 | 觸控裝置及其操作方法 |
| CN114077825A (zh) | 2020-08-05 | 2022-02-22 | 华为技术有限公司 | 添加批注的方法、电子设备及相关装置 |
| US11385741B2 (en) * | 2020-08-31 | 2022-07-12 | Microsoft Technology Licensing, Llc | Method to reduce blanking area for palm rejection in low cost in-cell displays |
| KR20220104471A (ko) * | 2021-01-18 | 2022-07-26 | 삼성전자주식회사 | 폴더블 디스플레이를 포함하는 전자 장치 및 그 제어 방법 |
| US11537239B1 (en) * | 2022-01-14 | 2022-12-27 | Microsoft Technology Licensing, Llc | Diffusion-based handedness classification for touch-based input |
| JP7473832B1 (ja) | 2022-12-01 | 2024-04-24 | 富士通クライアントコンピューティング株式会社 | 電子機器及びプログラム |
| US12487742B2 (en) | 2023-03-28 | 2025-12-02 | Microsoft Technology Licensing, Llc | Touch classifier system using context data |
| US11989369B1 (en) | 2023-03-30 | 2024-05-21 | Microsoft Technology Licensing, Llc | Neural network-based touch input classification |
| WO2025028784A1 (ko) * | 2023-08-02 | 2025-02-06 | 삼성전자 주식회사 | 전자 장치 및 전자 장치에서 디스플레이의 터치 센싱을 위한 스캔 방법 |
Family Cites Families (39)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| TW528981B (en) | 2001-10-25 | 2003-04-21 | Compal Electronics Inc | Portable computer and related method for preventing input interruption by write-tracking input region |
| US7847789B2 (en) * | 2004-11-23 | 2010-12-07 | Microsoft Corporation | Reducing accidental touch-sensitive device activation |
| US8018440B2 (en) * | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
| KR100826532B1 (ko) * | 2006-03-28 | 2008-05-02 | 엘지전자 주식회사 | 이동 통신 단말기 및 그의 키 입력 검출 방법 |
| KR101442542B1 (ko) * | 2007-08-28 | 2014-09-19 | 엘지전자 주식회사 | 입력장치 및 이를 구비한 휴대 단말기 |
| US8402391B1 (en) | 2008-09-25 | 2013-03-19 | Apple, Inc. | Collaboration system |
| EP3654141A1 (en) | 2008-10-06 | 2020-05-20 | Samsung Electronics Co., Ltd. | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
| TW201104531A (en) | 2009-07-17 | 2011-02-01 | Egalax Empia Technology Inc | Method and device for palm rejection |
| GB2486843B (en) * | 2009-08-25 | 2014-06-18 | Promethean Ltd | Interactive surface with a plurality of input detection technologies |
| CN102072733A (zh) * | 2009-11-25 | 2011-05-25 | 神达电脑股份有限公司 | 将标示语言内容覆盖于地图资料上的方法与个人导航装置 |
| US8587532B2 (en) | 2009-12-18 | 2013-11-19 | Intel Corporation | Multi-feature interactive touch user interface |
| US8660978B2 (en) | 2010-12-17 | 2014-02-25 | Microsoft Corporation | Detecting and responding to unintentional contact with a computing device |
| US9244545B2 (en) * | 2010-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Touch and stylus discrimination and rejection for contact sensitive computing devices |
| KR101977613B1 (ko) | 2011-01-05 | 2019-05-14 | 삼성전자주식회사 | 입력 장치의 입력 오류를 정정하기 위한 방법 및 장치 |
| WO2012111010A1 (en) | 2011-02-15 | 2012-08-23 | N-Trig Ltd. | Tracking input to a multi-touch digitizer system |
| JP5774350B2 (ja) * | 2011-04-12 | 2015-09-09 | シャープ株式会社 | 電子機器、手書き入力方法、および手書き入力プログラム |
| US20130009915A1 (en) * | 2011-07-08 | 2013-01-10 | Nokia Corporation | Controlling responsiveness to user inputs on a touch-sensitive display |
| US20130021269A1 (en) | 2011-07-20 | 2013-01-24 | Google Inc. | Dynamic Control of an Active Input Region of a User Interface |
| US8644884B2 (en) | 2011-08-04 | 2014-02-04 | Qualcomm Incorporated | Sensor-based user interface control |
| FR2979025A1 (fr) | 2011-08-12 | 2013-02-15 | Stantum | Procede de caracterisation de toucher sur un ecran tactile |
| US9002699B2 (en) * | 2011-11-14 | 2015-04-07 | Microsoft Technology Licensing, Llc | Adaptive input language switching |
| KR101967632B1 (ko) * | 2012-02-13 | 2019-04-11 | 삼성전자주식회사 | 사용자 인터페이스를 가진 태블릿 |
| US9632612B2 (en) * | 2012-02-23 | 2017-04-25 | Parade Technologies, Ltd. | Circuits, systems, and methods for processing the proximity of large objects, including large objects on touch screens |
| JP5864319B2 (ja) * | 2012-03-19 | 2016-02-17 | シャープ株式会社 | 電子機器、電子機器を制御するための方法、および、電子機器を制御するためのプログラム |
| KR102164453B1 (ko) * | 2012-04-07 | 2020-10-13 | 삼성전자주식회사 | 투명 디스플레이를 포함하는 디바이스에서 오브젝트 제어 방법 및 그 디바이스와 기록 매체 |
| WO2013160934A1 (en) | 2012-04-24 | 2013-10-31 | Hitachi, Ltd. | Storage apparatus, computer system and snapshot creation method |
| EP2662756A1 (en) | 2012-05-11 | 2013-11-13 | BlackBerry Limited | Touch screen palm input rejection |
| US20130300672A1 (en) | 2012-05-11 | 2013-11-14 | Research In Motion Limited | Touch screen palm input rejection |
| US20130300696A1 (en) * | 2012-05-14 | 2013-11-14 | N-Trig Ltd. | Method for identifying palm input to a digitizer |
| KR20130136276A (ko) | 2012-06-04 | 2013-12-12 | 삼성전자주식회사 | 단말기의 펜 입력 보정장치 및 방법 |
| KR20130138880A (ko) | 2012-06-11 | 2013-12-20 | 삼성전자주식회사 | 단말기의 터치 입력 제어장치 및 방법 |
| KR102040857B1 (ko) | 2012-07-17 | 2019-11-06 | 삼성전자주식회사 | 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기 |
| JP5944802B2 (ja) * | 2012-09-19 | 2016-07-05 | シャープ株式会社 | 通信端末装置、設定方法、プログラム、および、記録媒体 |
| KR20140046557A (ko) | 2012-10-05 | 2014-04-21 | 삼성전자주식회사 | 다점 입력 인식 방법 및 그 단말 |
| US9483146B2 (en) | 2012-10-17 | 2016-11-01 | Perceptive Pixel, Inc. | Input classification for multi-touch systems |
| US9411461B2 (en) | 2012-10-17 | 2016-08-09 | Adobe Systems Incorporated | Moveable interactive shortcut toolbar and unintentional hit rejecter for touch input devices |
| KR102184288B1 (ko) * | 2013-01-17 | 2020-11-30 | 삼성전자주식회사 | 입력 유닛에 햅틱 효과를 제공하는 휴대 단말 및 방법 |
| US9836154B2 (en) | 2013-01-24 | 2017-12-05 | Nook Digital, Llc | Selective touch scan area and reporting techniques |
| US9626020B2 (en) | 2014-09-12 | 2017-04-18 | Microsoft Corporation | Handedness detection from touch input |
-
2014
- 2014-09-12 US US14/485,493 patent/US9804707B2/en active Active
-
2015
- 2015-09-11 CA CA2959683A patent/CA2959683C/en active Active
- 2015-09-11 WO PCT/US2015/049546 patent/WO2016040720A1/en not_active Ceased
- 2015-09-11 AU AU2015314951A patent/AU2015314951B2/en not_active Ceased
- 2015-09-11 RU RU2017107457A patent/RU2705431C2/ru active
- 2015-09-11 EP EP15771346.2A patent/EP3195100B1/en active Active
- 2015-09-11 KR KR1020177009815A patent/KR102385759B1/ko active Active
- 2015-09-11 JP JP2017510499A patent/JP6602372B2/ja active Active
- 2015-09-11 CN CN201580049157.6A patent/CN106605203B/zh active Active
- 2015-09-11 MX MX2017003151A patent/MX370918B/es active IP Right Grant
- 2015-09-11 BR BR112017003262-7A patent/BR112017003262B1/pt active IP Right Grant
Also Published As
| Publication number | Publication date |
|---|---|
| RU2705431C2 (ru) | 2019-11-07 |
| EP3195100B1 (en) | 2020-04-01 |
| RU2017107457A (ru) | 2018-09-10 |
| MX370918B (es) | 2020-01-09 |
| CA2959683A1 (en) | 2016-03-17 |
| JP2017527906A (ja) | 2017-09-21 |
| BR112017003262B1 (pt) | 2023-11-21 |
| EP3195100A1 (en) | 2017-07-26 |
| KR102385759B1 (ko) | 2022-04-11 |
| KR20170053711A (ko) | 2017-05-16 |
| AU2015314951A1 (en) | 2017-03-16 |
| BR112017003262A2 (pt) | 2017-11-28 |
| WO2016040720A1 (en) | 2016-03-17 |
| MX2017003151A (es) | 2017-05-23 |
| RU2017107457A3 (ja) | 2019-04-17 |
| CA2959683C (en) | 2022-10-04 |
| AU2015314951B2 (en) | 2020-06-18 |
| CN106605203B (zh) | 2020-05-29 |
| US9804707B2 (en) | 2017-10-31 |
| US20160077663A1 (en) | 2016-03-17 |
| CN106605203A (zh) | 2017-04-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6602372B2 (ja) | コンテキスト情報に基づくタッチ表面の非アクティブ領域 | |
| JP2017531246A (ja) | タッチ入力からの利き手の検出 | |
| CN105339884B (zh) | 用户输入的分类 | |
| CN107533430B (zh) | 触摸输入作为非预期的或预期的分类 | |
| JP2025111730A (ja) | オフスクリーンジェスチャ検出を使用したコンピューティングデバイス対話モードの開始 | |
| EP3433713B1 (en) | Selecting first digital input behavior based on presence of a second, concurrent, input |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20170420 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180813 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180813 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190411 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190417 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190708 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190913 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191008 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6602372 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |