JP6631541B2 - タッチ入力のための方法及びシステム - Google Patents
タッチ入力のための方法及びシステム Download PDFInfo
- Publication number
- JP6631541B2 JP6631541B2 JP2016569608A JP2016569608A JP6631541B2 JP 6631541 B2 JP6631541 B2 JP 6631541B2 JP 2016569608 A JP2016569608 A JP 2016569608A JP 2016569608 A JP2016569608 A JP 2016569608A JP 6631541 B2 JP6631541 B2 JP 6631541B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- gesture
- gesture components
- components
- inputs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 46
- 230000033001 locomotion Effects 0.000 claims description 103
- 239000011159 matrix material Substances 0.000 claims description 49
- 230000006870 function Effects 0.000 claims description 35
- 238000001514 detection method Methods 0.000 claims description 21
- 238000000354 decomposition reaction Methods 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 9
- 210000003811 finger Anatomy 0.000 description 30
- 238000012549 training Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 14
- 241000699666 Mus <mouse, genus> Species 0.000 description 10
- 239000013598 vector Substances 0.000 description 9
- 238000007429 general method Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 238000004883 computer application Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 210000002808 connective tissue Anatomy 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000011068 loading method Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Description
上記の実施形態に加えて、以下の付記が開示される。
(付記1)
タッチデータを取得することと、
生成されるジェスチャ成分の数を選択することと、
前記タッチデータ及び前記ジェスチャ成分の数に基づきジェスチャ成分の組を生成することと、
前記ジェスチャ成分の組を非一時的なコンピュータ可読媒体に記憶することと
を有する方法。
(付記2)
前記タッチデータを取得することは、タッチ検知面におけるタッチ接触を検知することを含む、
付記1に記載の方法。
(付記3)
前記タッチデータを取得することは、所定の時間インターバルで周期的に前記タッチデータを捕捉することを更に含む、
付記2に記載の方法。
(付記4)
前記タッチデータを取得することは、ユーザのインジケーションを受け取り、該インジケーションに基づき前記タッチデータを捕捉することを更に含む、
付記2に記載の方法。
(付記5)
前記タッチデータは、絶対運動、相対運動、絶対位置、相対位置、絶対近接、相対近接、近接の変化、絶対サイズ、相対サイズ、又はサイズの変化のうちの少なくとも1つを含む、
付記1に記載の方法。
(付記6)
前記生成されるジェスチャ成分の数は、コンピュータシステムの制御入力の数に基づく、
付記1に記載の方法。
(付記7)
前記タッチデータは、行列において記憶され、
前記ジェスチャ成分の組を生成することは、前記行列の疎行列分解を実施することを含む、
付記1に記載の方法。
(付記8)
前記ジェスチャ成分は非直交である、
付記1に記載の方法。
(付記9)
ジェスチャ成分の数は、前記タッチデータを検知するために使用されるタッチ検知システムによって検出されることが可能な自由度の数よりも多い、
付記1に記載の方法。
(付記10)
第1のタッチ入力の組を取得することと、
夫々の第1のタッチ入力を前記ジェスチャ成分に基づくコンピュータシステムのサンプル制御入力と対にすることと、
第2のタッチ入力を取得することと、
前記コンピュータシステムのランタイム制御入力を決定するよう前記第2のタッチ入力に基づき前記第1のタッチ入力の組を補間することと
を更に有する付記1に記載の方法。
(付記11)
プロセッサと、
前記プロセッサに、
タッチデータを取得させ、
生成されるジェスチャ成分の数を選択させ、
前記タッチデータ及び前記ジェスチャ成分の数に基づきジェスチャ成分の組を生成させ、
前記ジェスチャ成分の組を非一時的なコンピュータ可読媒体に記憶させる
よう構成された命令を記憶しているメモリと
を有するシステム。
(付記12)
タッチ検知面を更に有し、
前記タッチデータを取得することは、タッチ検知面におけるタッチ接触を検知することを含む、
付記11に記載のシステム。
(付記13)
前記タッチデータを取得することは、所定の時間インターバルで周期的に前記タッチデータを捕捉することを更に含む、
付記12に記載のシステム。
(付記14)
前記タッチデータを取得することは、ユーザのインジケーションを受け取り、該インジケーションに基づき前記タッチデータを捕捉することを更に含む、
付記12に記載のシステム。
(付記15)
前記タッチデータは、絶対運動、相対運動、絶対位置、相対位置、絶対近接、相対近接、近接の変化、絶対サイズ、相対サイズ、又はサイズの変化のうちの少なくとも1つを含む、
付記11に記載のシステム。
(付記16)
前記生成されるジェスチャ成分の数は、コンピュータシステムの制御入力の数に基づく、
付記11に記載のシステム。
(付記17)
前記タッチデータは、行列において記憶され、
前記ジェスチャ成分の組を生成することは、前記行列の疎行列分解を実施することを含む、
付記11に記載のシステム。
(付記18)
前記ジェスチャ成分は非直交である、
付記11に記載のシステム。
(付記19)
ジェスチャ成分の数は、前記タッチデータを検知するために使用されるタッチ検知システムによって検出されることが可能な自由度の数よりも多い、
付記11に記載のシステム。
(付記20)
前記命令は更に、前記プロセッサに、
第1のタッチ入力の組を取得させ、
夫々の第1のタッチ入力を前記ジェスチャ成分に基づくコンピュータシステムのサンプル制御入力と対にさせ、
第2のタッチ入力を取得させ、
前記コンピュータシステムのランタイム制御入力を決定するよう前記第2のタッチ入力に基づき前記第1のタッチ入力の組を補間させる、
付記11に記載のシステム。
(付記21)
タッチデータを取得することと、
生成されるジェスチャ成分の数を選択することと、
前記タッチデータ及び前記ジェスチャ成分の数に基づきジェスチャ成分の組を生成することと、
前記ジェスチャ成分の組を非一時的なコンピュータ可読媒体に記憶することと
を有する方法を実施するよう実行可能なコンピュータ実行可能命令を記憶している非一時的なコンピュータ可読媒体。
(付記22)
前記タッチデータを取得することは、タッチ検知面におけるタッチ接触を検知することを含む、
付記21に記載のコンピュータ可読媒体。
(付記23)
前記タッチデータを取得することは、所定の時間インターバルで周期的に前記タッチデータを捕捉することを更に含む、
付記22に記載のコンピュータ可読媒体。
(付記24)
前記タッチデータを取得することは、ユーザのインジケーションを受け取り、該インジケーションに基づき前記タッチデータを捕捉することを更に含む、
付記22に記載のコンピュータ可読媒体。
(付記25)
前記タッチデータは、絶対運動、相対運動、絶対位置、相対位置、絶対近接、相対近接、近接の変化、絶対サイズ、相対サイズ、又はサイズの変化のうちの少なくとも1つを含む、
付記21に記載のコンピュータ可読媒体。
(付記26)
前記生成されるジェスチャ成分の数は、コンピュータシステムの制御入力の数に基づく、
付記21に記載のコンピュータ可読媒体。
(付記27)
前記タッチデータは、行列において記憶され、
前記ジェスチャ成分の組を生成することは、前記行列の疎行列分解を実施することを含む、
付記21に記載のコンピュータ可読媒体。
(付記28)
前記ジェスチャ成分は非直交である、
付記21に記載のコンピュータ可読媒体。
(付記29)
ジェスチャ成分の数は、前記タッチデータを検知するために使用されるタッチ検知システムによって検出されることが可能な自由度の数よりも多い、
付記21に記載のコンピュータ可読媒体。
(付記30)
前記方法は、
第1のタッチ入力の組を取得することと、
夫々の第1のタッチ入力を前記ジェスチャ成分に基づくコンピュータシステムのサンプル制御入力と対にすることと、
第2のタッチ入力を取得することと、
前記コンピュータシステムのランタイム制御入力を決定するよう前記第2のタッチ入力に基づき前記第1のタッチ入力の組を補間することと
を更に有する、付記21に記載のコンピュータ可読媒体。
(付記31)
付記1乃至10のうちいずれか一つに記載の方法を実施するようプロセッサによって実行可能なプログラムコード命令を有するコンピュータプログラム。
Claims (14)
- タッチ検知面から、行列において記憶されるタッチデータを取得することと、
生成されるジェスチャ成分の数を選択することと、
前記行列の疎行列分解を実施することによって、前記タッチデータ及び前記ジェスチャ成分の数に基づきジェスチャ成分の組を生成することと、
前記タッチ検知面から第1のタッチ入力を取得することと、
前記ジェスチャ成分の組に対する前記第1のタッチ入力の投影を決定することと、
前記投影に基づきコンピュータシステムの複数の制御入力を決定することと
を有する方法。 - 前記生成されるジェスチャ成分の数は、前記コンピュータシステムの制御入力の数に基づく、
請求項1に記載の方法。 - 前記ジェスチャ成分は非直交である、
請求項1又は2に記載の方法。 - 前記ジェスチャ成分の数は、前記タッチデータを検知するために使用されるタッチ検知システムによって検出されることが可能な自由度の数よりも多い、
請求項1又は2に記載の方法。 - 前記複数の制御入力を決定することは、
トレーニングされたタッチ入力の組を取得することと、
夫々のトレーニングされたタッチ入力を前記コンピュータシステムのサンプル制御入力と対にすることと、
前記トレーニングされたタッチ入力の組を前記第1のタッチ入力に基づき補間することと
を含む、請求項1乃至4のうちいずれか一項に記載の方法。 - 前記トレーニングされたタッチ入力の組を補間することは、前記トレーニングされたタッチ入力の線形マッピング関数を決定することを含む、
請求項5に記載の方法。 - 前記第1のタッチ入力は、絶対運動、相対運動、絶対位置、相対位置、絶対近接、相対近接、近接の変化、絶対サイズ、相対サイズ、又はサイズの変化のうちの少なくとも1つを含む、
請求項1乃至6のうちいずれか一項に記載の方法。 - 前記ジェスチャ成分の組を非一時的なコンピュータ可読媒体において記憶することと、
前記投影を非一時的なコンピュータ可読媒体において記憶することと
を更に有する請求項1に記載の方法。 - 第2のタッチ入力を取得することと、
前記コンピュータシステムのランタイム制御入力を決定するよう前記第2のタッチ入力に基づき前記第1のタッチ入力の組を補間することと
を更に有する請求項1に記載の方法。 - プロセッサに、
タッチ検知面から、行列において記憶されるタッチデータを取得させ、
生成されるジェスチャ成分の数を選択させ、
前記行列の疎行列分解を実施することによって、前記タッチデータ及び前記ジェスチャ成分の数に基づきジェスチャ成分の組を生成させ、
前記タッチ検知面から第1のタッチ入力を取得させ、
前記ジェスチャ成分の組に対する前記第1のタッチ入力の投影を決定させ、
前記投影に基づきコンピュータシステムの複数の制御入力を決定させる
よう構成された命令を記憶しているメモリを有するシステム。 - 前記生成されるジェスチャ成分の数は、当該システムの制御入力の数に基づく、
請求項10に記載のシステム。 - 前記プロセッサは、
前記ジェスチャ成分の組を非一時的なコンピュータ可読媒体において記憶し、
前記投影を非一時的なコンピュータ可読媒体において記憶する
よう更に構成される、請求項10に記載のシステム。 - 前記プロセッサは、
第2のタッチ入力を取得し、
当該システムのランタイム制御入力を決定するよう前記第2のタッチ入力に基づき前記第1のタッチ入力の組を補間する
よう更に構成される、請求項10に記載のシステム。 - タッチ検知面から、行列において記憶されるタッチデータを取得することと、
生成されるジェスチャ成分の数を選択することと、
前記行列の疎行列分解を実施することによって、前記タッチデータ及び前記ジェスチャ成分の数に基づきジェスチャ成分の組を生成することと、
前記タッチ検知面から第1のタッチ入力を取得することと、
前記ジェスチャ成分の組に対する前記第1のタッチ入力の投影を決定することと、
前記投影に基づきコンピュータシステムの複数の制御入力を決定することと
を有する方法を実施するよう実行可能なコンピュータ実行可能命令を記憶している非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14305801 | 2014-05-28 | ||
EP14305801.4 | 2014-05-28 | ||
PCT/EP2015/061577 WO2015181159A1 (en) | 2014-05-28 | 2015-05-26 | Methods and systems for touch input |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017517071A JP2017517071A (ja) | 2017-06-22 |
JP2017517071A5 JP2017517071A5 (ja) | 2018-06-28 |
JP6631541B2 true JP6631541B2 (ja) | 2020-01-15 |
Family
ID=50943256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016569608A Expired - Fee Related JP6631541B2 (ja) | 2014-05-28 | 2015-05-26 | タッチ入力のための方法及びシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10268368B2 (ja) |
EP (1) | EP3149566A1 (ja) |
JP (1) | JP6631541B2 (ja) |
KR (1) | KR20170009979A (ja) |
CN (1) | CN106575200A (ja) |
WO (4) | WO2015181163A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10096133B1 (en) * | 2017-03-31 | 2018-10-09 | Electronic Arts Inc. | Blendshape compression system |
CN111957032B (zh) * | 2019-02-22 | 2024-03-08 | 网易(杭州)网络有限公司 | 游戏角色控制方法、装置、设备和存储介质 |
US10902618B2 (en) | 2019-06-14 | 2021-01-26 | Electronic Arts Inc. | Universal body movement translation and character rendering system |
US11504625B2 (en) | 2020-02-14 | 2022-11-22 | Electronic Arts Inc. | Color blindness diagnostic system |
US11232621B2 (en) | 2020-04-06 | 2022-01-25 | Electronic Arts Inc. | Enhanced animation generation based on conditional modeling |
US11648480B2 (en) | 2020-04-06 | 2023-05-16 | Electronic Arts Inc. | Enhanced pose generation based on generative modeling |
US11830121B1 (en) | 2021-01-26 | 2023-11-28 | Electronic Arts Inc. | Neural animation layering for synthesizing martial arts movements |
US11526235B1 (en) * | 2021-05-18 | 2022-12-13 | Microsoft Technology Licensing, Llc | Artificial intelligence model for enhancing a touch driver operation |
US11887232B2 (en) | 2021-06-10 | 2024-01-30 | Electronic Arts Inc. | Enhanced system for generation of facial models and animation |
US11670030B2 (en) | 2021-07-01 | 2023-06-06 | Electronic Arts Inc. | Enhanced animation generation based on video with local phase |
US11562523B1 (en) | 2021-08-02 | 2023-01-24 | Electronic Arts Inc. | Enhanced animation generation based on motion matching using local bone phases |
US11782522B1 (en) * | 2022-03-25 | 2023-10-10 | Huawei Technologies Co., Ltd. | Methods and systems for multimodal hand state prediction |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6701296B1 (en) * | 1988-10-14 | 2004-03-02 | James F. Kramer | Strain-sensing goniometers, systems, and recognition algorithms |
US20070177804A1 (en) * | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US6249606B1 (en) * | 1998-02-19 | 2001-06-19 | Mindmaker, Inc. | Method and system for gesture category recognition and training using a feature vector |
US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US7170496B2 (en) * | 2003-01-24 | 2007-01-30 | Bruce Peter Middleton | Zero-front-footprint compact input system |
US7519223B2 (en) * | 2004-06-28 | 2009-04-14 | Microsoft Corporation | Recognizing gestures and using gestures for interacting with software applications |
US9063647B2 (en) * | 2006-05-12 | 2015-06-23 | Microsoft Technology Licensing, Llc | Multi-touch uses, gestures, and implementation |
US7956847B2 (en) * | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
US8175728B2 (en) * | 2007-12-13 | 2012-05-08 | Georgia Tech Research Corporation | Detecting user gestures with a personal mobile communication device |
US8345014B2 (en) * | 2008-07-12 | 2013-01-01 | Lester F. Ludwig | Control of the operating system on a computing device via finger angle using a high dimensional touchpad (HDTP) touch user interface |
US8169414B2 (en) * | 2008-07-12 | 2012-05-01 | Lim Seung E | Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface |
US8390577B2 (en) * | 2008-07-25 | 2013-03-05 | Intuilab | Continuous recognition of multi-touch gestures |
US20100095234A1 (en) | 2008-10-07 | 2010-04-15 | Research In Motion Limited | Multi-touch motion simulation using a non-touch screen computer input device |
US8436821B1 (en) * | 2009-11-20 | 2013-05-07 | Adobe Systems Incorporated | System and method for developing and classifying touch gestures |
KR101058612B1 (ko) * | 2009-12-28 | 2011-08-22 | 박원주 | 멀티터치가 가능한 터치스크린을 이용한 화상의 색 보정 방법 |
US8286102B1 (en) * | 2010-05-27 | 2012-10-09 | Adobe Systems Incorporated | System and method for image processing using multi-touch gestures |
US20110314427A1 (en) | 2010-06-18 | 2011-12-22 | Samsung Electronics Co., Ltd. | Personalization using custom gestures |
US8754862B2 (en) | 2010-07-11 | 2014-06-17 | Lester F. Ludwig | Sequential classification recognition of gesture primitives and window-based parameter smoothing for high dimensional touchpad (HDTP) user interfaces |
US9134799B2 (en) * | 2010-07-16 | 2015-09-15 | Qualcomm Incorporated | Interacting with a projected user interface using orientation sensors |
US9459733B2 (en) * | 2010-08-27 | 2016-10-04 | Inputdynamics Limited | Signal processing systems |
US8743064B2 (en) * | 2010-09-17 | 2014-06-03 | A.I. Solutions, Inc. | Gesture orbit design |
US20120092286A1 (en) * | 2010-10-19 | 2012-04-19 | Microsoft Corporation | Synthetic Gesture Trace Generator |
JP2014507726A (ja) * | 2011-02-08 | 2014-03-27 | ハワース, インコーポレイテッド | マルチモーダルタッチスクリーン対話装置、方法、及び、システム |
US20130132903A1 (en) * | 2011-03-22 | 2013-05-23 | Aravind Krishnaswamy | Local Coordinate Frame User Interface for Multitouch-Enabled Applications |
US20120280927A1 (en) * | 2011-05-04 | 2012-11-08 | Ludwig Lester F | Simple touch interface and hdtp grammars for rapid operation of physical computer aided design (cad) systems |
US8751972B2 (en) * | 2011-09-20 | 2014-06-10 | Google Inc. | Collaborative gesture-based input language |
US10430066B2 (en) * | 2011-12-06 | 2019-10-01 | Nri R&D Patent Licensing, Llc | Gesteme (gesture primitive) recognition for advanced touch user interfaces |
US20130198690A1 (en) * | 2012-02-01 | 2013-08-01 | Microsoft Corporation | Visual indication of graphical user interface relationship |
GB201203832D0 (en) * | 2012-03-05 | 2012-04-18 | Elliptic Laboratories As | User input system |
US8698778B2 (en) * | 2012-07-30 | 2014-04-15 | Olympus Ndt | Method of manipulating impedance plane with a multi-point touch on touch screen |
US9874977B1 (en) * | 2012-08-07 | 2018-01-23 | Amazon Technologies, Inc. | Gesture based virtual devices |
US9323985B2 (en) * | 2012-08-16 | 2016-04-26 | Microchip Technology Incorporated | Automatic gesture recognition for a sensor system |
US9001035B2 (en) * | 2012-10-19 | 2015-04-07 | Red Bird Rising, Llc | Configured input display for communicating to computational apparatus |
US9201580B2 (en) * | 2012-11-13 | 2015-12-01 | Adobe Systems Incorporated | Sound alignment user interface |
US20140375572A1 (en) * | 2013-06-20 | 2014-12-25 | Microsoft Corporation | Parametric motion curves and manipulable content |
CN103559809B (zh) * | 2013-11-06 | 2017-02-08 | 常州文武信息科技有限公司 | 基于计算机的现场交互演示系统 |
US9594893B2 (en) * | 2014-01-15 | 2017-03-14 | Lenovo (Singapore) Pte. Ltd. | Multi-touch local device authentication |
TWI509533B (zh) * | 2014-04-23 | 2015-11-21 | Novatek Microelectronics Corp | 多重掃描之觸控系統的相位補償方法及相位補償電路 |
US9678664B2 (en) * | 2015-04-10 | 2017-06-13 | Google Inc. | Neural network for keyboard input decoding |
-
2015
- 2015-05-26 US US15/314,495 patent/US10268368B2/en not_active Expired - Fee Related
- 2015-05-26 CN CN201580039463.1A patent/CN106575200A/zh active Pending
- 2015-05-26 WO PCT/EP2015/061582 patent/WO2015181163A1/en active Application Filing
- 2015-05-26 WO PCT/EP2015/061579 patent/WO2015181161A1/en active Application Filing
- 2015-05-26 EP EP15724667.9A patent/EP3149566A1/en not_active Ceased
- 2015-05-26 WO PCT/EP2015/061581 patent/WO2015181162A1/en active Application Filing
- 2015-05-26 KR KR1020167036156A patent/KR20170009979A/ko unknown
- 2015-05-26 JP JP2016569608A patent/JP6631541B2/ja not_active Expired - Fee Related
- 2015-05-26 WO PCT/EP2015/061577 patent/WO2015181159A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2015181163A1 (en) | 2015-12-03 |
JP2017517071A (ja) | 2017-06-22 |
US20180239526A1 (en) | 2018-08-23 |
WO2015181162A1 (en) | 2015-12-03 |
CN106575200A (zh) | 2017-04-19 |
US10268368B2 (en) | 2019-04-23 |
KR20170009979A (ko) | 2017-01-25 |
EP3149566A1 (en) | 2017-04-05 |
WO2015181159A1 (en) | 2015-12-03 |
WO2015181161A1 (en) | 2015-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6631541B2 (ja) | タッチ入力のための方法及びシステム | |
US12086323B2 (en) | Determining a primary control mode of controlling an electronic device using 3D gestures or using control manipulations from a user manipulable input device | |
US20220083880A1 (en) | Interactions with virtual objects for machine control | |
EP3552085B1 (en) | Multi-task machine learning for predicted touch interpretations | |
JP5702296B2 (ja) | ソフトウェアキーボード制御方法 | |
US20200004403A1 (en) | Interaction strength using virtual objects for machine control | |
Le et al. | Investigating the feasibility of finger identification on capacitive touchscreens using deep learning | |
Oh et al. | The challenges and potential of end-user gesture customization | |
US9696882B2 (en) | Operation processing method, operation processing device, and control method | |
Matlani et al. | Virtual mouse using hand gestures | |
WO2022267760A1 (zh) | 按键功能执行方法、装置、设备及存储介质 | |
US10222866B2 (en) | Information processing method and electronic device | |
TWI564780B (zh) | 觸控螢幕姿態技術 | |
Huang et al. | SpeciFingers: Finger Identification and Error Correction on Capacitive Touchscreens | |
US20200174580A1 (en) | Method and system to automatically map physical objects into input devices in real time | |
US11782548B1 (en) | Speed adapted touch detection | |
KR20140086805A (ko) | 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체 | |
EP4439258A1 (en) | Mode switching between touchless pointer operation and typing activities using a computer device | |
EP4439240A1 (en) | Emulation of a physical input device for touchless control of a computer device | |
Lu et al. | Realizing multi-touch-like gestures in 3d space | |
Matulic et al. | Deep Learning-Based Hand Posture Recognition for Pen Interaction Enhancement | |
Gaur | AUGMENTED TOUCH INTERACTIONS WITH FINGER CONTACT SHAPE AND ORIENTATION | |
HANI | Detection of Midair Finger Tapping Gestures and Their Applications | |
Wu | Study and design of interaction techniques to facilitate object selection and manipulation in virtual environments on mobile devices | |
Bunscheit | Imaginary Interfaces: Development of user interfaces for creating highly mobile screen-less devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180516 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180516 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181220 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190207 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191029 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20191111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6631541 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |