RU2017107538A - Обнаружение доминирования одной из рук сенсорного ввода - Google Patents
Обнаружение доминирования одной из рук сенсорного ввода Download PDFInfo
- Publication number
- RU2017107538A RU2017107538A RU2017107538A RU2017107538A RU2017107538A RU 2017107538 A RU2017107538 A RU 2017107538A RU 2017107538 A RU2017107538 A RU 2017107538A RU 2017107538 A RU2017107538 A RU 2017107538A RU 2017107538 A RU2017107538 A RU 2017107538A
- Authority
- RU
- Russia
- Prior art keywords
- touch
- user
- input
- tool
- inputs
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04162—Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Claims (42)
1. Способ, содержащий этапы, на которых:
принимают, посредством вычислительного устройства, один или более сенсорных вводов от пользователя через сенсорную поверхность;
принимают, посредством вычислительного устройства, сенсорный ввод с инструмента ввода через сенсорную поверхность;
определяют, посредством вычислительного устройства, что каждый из одного или более сенсорных вводов от пользователя остается на сенсорной поверхности в течение менее чем предварительно определенного количества времени; и
анализируют один или более сенсорных вводов от пользователя для определения того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки, причем данный анализ основан, по меньшей мере отчасти, на одном или более местоположениях одного или более сенсорных вводов от пользователя на сенсорной поверхности относительно местоположения сенсорного ввода с инструмента ввода на сенсорной поверхности; и
устанавливают неактивную область, в которой сенсорные вводы подавляются, основываясь на доминировании одной из рук пользователя,
при этом неактивная область для леворукого пользователя идет дальше вверх от сенсорного ввода инструмента ввода, чем неактивная область для праворукого пользователя идет вверх от сенсорного ввода инструмента ввода.
2. Способ по п. 1, в котором неактивная область окружает сенсорный ввод из инструмента ввода.
3. Способ по п. 1, в котором упомянутый анализ дополнительно основан на отношении (i) числа пользовательских сенсорных вводов на одной стороне сенсорного ввода с помощью инструмента относительно (ii) числа пользовательских сенсорных вводов на другой стороне сенсорного ввода с помощью инструмента.
4. Способ по любому из пп. 1-3, в котором упомянутый анализ включает в себя этапы, на которых:
определяют, что одно или более местоположений одного или более сенсорных вводов от пользователя кластеризуются совместно на сенсорной поверхности в пределах конкретной близости друг к другу;
идентифицируют сторону сенсорного ввода с инструмента ввода, на которой одно или более местоположений одного или более сенсорных вводов от пользователя кластеризуются совместно; и
определяют, использует ли пользователь инструмент ввода с помощью левой руки или правой руки, по меньшей мере отчасти, на основе идентифицированной стороны.
5. Способ по любому из пп. 1-4, в котором упомянутый анализ включает в себя этапы, на которых:
определяют, что местоположение конкретного сенсорного ввода, из числа одного или более сенсорных вводов от пользователя, на сенсорной поверхности находится в пределах предварительно определенной близости к местоположению сенсорного ввода с инструмента ввода на сенсорной поверхности;
классифицируют этот конкретный сенсорный ввод в качестве непреднамеренного; и
используют этот конкретный сенсорный ввод для определения того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки.
6. Способ по любому из пп. 1-5, в котором упомянутый анализ включает в себя этапы, на которых:
определяют, что местоположение конкретного сенсорного ввода, из числа одного или более сенсорных вводов от пользователя, на сенсорной поверхности находится за пределами предварительно определенной близости к местоположению сенсорного ввода с инструмента ввода на сенсорной поверхности;
классифицируют этот конкретный сенсорный ввод в качестве намеренного; и
используют другой сенсорный ввод из одного или более сенсорных вводов от пользователя для определения того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки.
7. Один или более машиночитаемых носителей данных, на которых сохранены машиноисполняемые инструкции, которые при их исполнении предписывают одному или более процессорам осуществлять способ по любому из предшествующих пунктов.
8. Система, содержащая:
сенсорную поверхность, чтобы принимать (i) несколько пользовательских сенсорных вводов от пользователя и (ii) сенсорный ввод с помощью инструмента от инструмента ввода, причем каждый из нескольких пользовательских сенсорных вводов остается на сенсорной поверхности в течение менее чем предварительно определенного количества времени;
один или более процессоров, функционально соединенных с сенсорной поверхностью;
запоминающее устройство, функционально соединенное с одним или более процессорами и приспособленное сохранять данные для каждого из нескольких пользовательских сенсорных вводов в течение предварительно определенного периода времени;
модуль определения доминирования одной из рук, исполняемый посредством одного или более процессоров для того, чтобы определять, использует ли пользователь инструмент ввода с помощью левой руки или правой руки, на основе местоположений нескольких пользовательских сенсорных вводов от пользователя на сенсорной поверхности относительно местоположения сенсорного ввода с инструмента ввода на сенсорной поверхности; и
модуль задания неактивных областей, исполняемый посредством одного или процессоров для того, чтобы задавать неактивную область, в которой сенсорный ввод подавляется, на основе доминирования одной из рук пользователя,
при этом неактивная область для леворукого пользователя идет дальше вверх от сенсорного ввода инструмента ввода, чем неактивная область для праворукого пользователя идет вверх от сенсорного ввода инструмента ввода.
9. Система по п. 8, в которой упомянутое определение дополнительно основано на отношении (i) числа пользовательских сенсорных вводов на одной стороне сенсорного ввода с помощью инструмента к (ii) числу пользовательских сенсорных вводов на другой стороне сенсорного ввода с помощью инструмента.
10. Система по п. 8 или 9, в которой модуль определения доминирования одной из рук сконфигурирован использовать упомянутое значение для определения того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки, посредством:
определения того, что отношение превышает предварительно определенное отношение; и
определения, в ответ на определение того, что отношение превышает предварительно определенное отношение, того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки, по меньшей мере отчасти, на основе отношения.
11. Система по любому из пп. 8-10, дополнительно содержащая модуль управления запоминающим устройством, исполняемый посредством одного или более процессоров для того, чтобы:
определять, что пользовательский сенсорный ввод из нескольких пользовательских сенсорных вводов остается на сенсорной поверхности в течение менее чем предварительно определенного количества времени;
в ответ на определение того, что пользовательский сенсорный ввод из нескольких пользовательских сенсорных вводов остается на сенсорной поверхности в течение менее чем это предварительно определенное количество времени, инструктировать сохранение данных для пользовательского сенсорного ввода в запоминающем устройстве в течение предварительно определенного периода времени; и
в ответ на истечение предварительно определенного периода времени, инструктировать удаление данных для пользовательского сенсорного ввода из запоминающего устройства.
12. Система по любому из пп. 8-11, в которой модуль определения доминирования одной из рук сконфигурирован:
определять, что, по меньшей мере, некоторые из нескольких пользовательских сенсорных вводов принимаются на сенсорной поверхности в пределах конкретной близости друг к другу; и
использовать местоположение этих, по меньшей мере, некоторых из нескольких пользовательских сенсорных вводов для определения того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки.
13. Система по любому из пп. 8-12, в которой по меньшей мере одно из предварительно определенного количества времени или предварительно определенного периода времени сконфигурировано по меньшей мере одним из пользователя, приложения, которое реализуется в системе, и платформы, которая реализуется в системе.
14. Система по любому из пп. 8-13, в которой сенсорная поверхность содержит по меньшей мере одно из сенсорного экрана и указательной панели.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/485,510 | 2014-09-12 | ||
US14/485,510 US9626020B2 (en) | 2014-09-12 | 2014-09-12 | Handedness detection from touch input |
PCT/US2015/049545 WO2016040719A1 (en) | 2014-09-12 | 2015-09-11 | Handedness detection from touch input |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2017107538A true RU2017107538A (ru) | 2018-09-07 |
Family
ID=54151422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2017107538A RU2017107538A (ru) | 2014-09-12 | 2015-09-11 | Обнаружение доминирования одной из рук сенсорного ввода |
Country Status (11)
Country | Link |
---|---|
US (1) | US9626020B2 (ru) |
EP (1) | EP3191930B1 (ru) |
JP (1) | JP2017531246A (ru) |
KR (1) | KR20170055518A (ru) |
CN (1) | CN106605202B (ru) |
AU (1) | AU2015314950A1 (ru) |
BR (1) | BR112017003211A2 (ru) |
CA (1) | CA2959771A1 (ru) |
MX (1) | MX2017003150A (ru) |
RU (1) | RU2017107538A (ru) |
WO (1) | WO2016040719A1 (ru) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170115693A1 (en) * | 2013-04-25 | 2017-04-27 | Yonggui Li | Frameless Tablet |
US9804707B2 (en) | 2014-09-12 | 2017-10-31 | Microsoft Technology Licensing, Llc | Inactive region for touch surface based on contextual information |
WO2016122385A1 (en) | 2015-01-28 | 2016-08-04 | Flatfrog Laboratories Ab | Dynamic touch quarantine frames |
EP3537269A1 (en) | 2015-02-09 | 2019-09-11 | FlatFrog Laboratories AB | Optical touch system |
US9977519B2 (en) * | 2015-02-25 | 2018-05-22 | Synaptics Incorporated | Active pen with bidirectional communication |
US10095361B2 (en) | 2015-03-18 | 2018-10-09 | Microsoft Technology Licensing, Llc | Stylus detection with capacitive based digitizer sensor |
CN106293444B (zh) * | 2015-06-25 | 2020-07-03 | 小米科技有限责任公司 | 移动终端、显示控制方法及装置 |
EP3387516B1 (en) | 2015-12-09 | 2022-04-20 | FlatFrog Laboratories AB | Improved stylus identification |
US10296146B2 (en) | 2015-12-22 | 2019-05-21 | Microsoft Technology Licensing, Llc | System and method for detecting grip of a touch enabled device |
US10423268B2 (en) | 2015-12-22 | 2019-09-24 | Microsoft Technology Licensing, Llc | System and method for detecting grounding state of a touch enabled computing device |
US10963159B2 (en) * | 2016-01-26 | 2021-03-30 | Lenovo (Singapore) Pte. Ltd. | Virtual interface offset |
CN107153480B (zh) * | 2016-03-03 | 2020-02-07 | 禾瑞亚科技股份有限公司 | 用于设定手掌忽视区的触控处理方法、装置与系统 |
US10514844B2 (en) * | 2016-11-16 | 2019-12-24 | Dell Products L.P. | Automatically modifying an input area based on a proximity to one or more edges |
WO2018096430A1 (en) | 2016-11-24 | 2018-05-31 | Flatfrog Laboratories Ab | Automatic optimisation of touch signal |
WO2018106172A1 (en) * | 2016-12-07 | 2018-06-14 | Flatfrog Laboratories Ab | Active pen true id |
PL3667475T3 (pl) | 2016-12-07 | 2022-11-21 | Flatfrog Laboratories Ab | Zakrzywione urządzenie dotykowe |
EP3458946B1 (en) | 2017-02-06 | 2020-10-21 | FlatFrog Laboratories AB | Optical coupling in touch-sensing systems |
EP3602258B1 (en) | 2017-03-22 | 2024-05-08 | FlatFrog Laboratories AB | Pen differentiation for touch displays |
CN110663015A (zh) | 2017-03-28 | 2020-01-07 | 平蛙实验室股份公司 | 触摸感应装置和用于组装的方法 |
WO2019039984A1 (en) * | 2017-08-23 | 2019-02-28 | Flatfrog Laboratories Ab | ENHANCED PEN ENHANCEMENT |
US11256371B2 (en) | 2017-09-01 | 2022-02-22 | Flatfrog Laboratories Ab | Optical component |
US10452191B2 (en) * | 2017-10-27 | 2019-10-22 | Dell Products, L.P. | Systems and methods for automatically switching between touch layers of an interactive workspace based upon the use of accessory devices |
KR102344971B1 (ko) * | 2017-10-30 | 2021-12-31 | 에스케이텔레콤 주식회사 | 터치 인식 방법 및 그 장치 |
US11567610B2 (en) | 2018-03-05 | 2023-01-31 | Flatfrog Laboratories Ab | Detection line broadening |
US10678348B2 (en) | 2018-03-12 | 2020-06-09 | Microsoft Technology Licensing, Llc | Touch detection on an ungrounded pen enabled device |
US10616349B2 (en) | 2018-05-01 | 2020-04-07 | Microsoft Technology Licensing, Llc | Hybrid sensor centric recommendation engine |
WO2020153890A1 (en) | 2019-01-25 | 2020-07-30 | Flatfrog Laboratories Ab | A videoconferencing terminal and method of operating the same |
JP2023512682A (ja) | 2020-02-10 | 2023-03-28 | フラットフロッグ ラボラトリーズ アーベー | 改良型タッチ検知装置 |
US11513604B2 (en) | 2020-06-17 | 2022-11-29 | Motorola Mobility Llc | Selectable response options displayed based-on device grip position |
US20230221838A1 (en) * | 2022-01-13 | 2023-07-13 | Motorola Mobility Llc | Configuring An External Presentation Device Based On User Handedness |
US11726734B2 (en) | 2022-01-13 | 2023-08-15 | Motorola Mobility Llc | Configuring an external presentation device based on an impairment of a user |
US11537239B1 (en) * | 2022-01-14 | 2022-12-27 | Microsoft Technology Licensing, Llc | Diffusion-based handedness classification for touch-based input |
US11989369B1 (en) | 2023-03-30 | 2024-05-21 | Microsoft Technology Licensing, Llc | Neural network-based touch input classification |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW528981B (en) | 2001-10-25 | 2003-04-21 | Compal Electronics Inc | Portable computer and related method for preventing input interruption by write-tracking input region |
US7847789B2 (en) | 2004-11-23 | 2010-12-07 | Microsoft Corporation | Reducing accidental touch-sensitive device activation |
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US8193965B2 (en) * | 2007-11-19 | 2012-06-05 | L-3 Communications Cyterra Corporation | Forward-looking detection radar |
US8402391B1 (en) | 2008-09-25 | 2013-03-19 | Apple, Inc. | Collaboration system |
EP3654141A1 (en) * | 2008-10-06 | 2020-05-20 | Samsung Electronics Co., Ltd. | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
TW201104531A (en) | 2009-07-17 | 2011-02-01 | Egalax Empia Technology Inc | Method and device for palm rejection |
GB2486843B (en) | 2009-08-25 | 2014-06-18 | Promethean Ltd | Interactive surface with a plurality of input detection technologies |
US8587532B2 (en) | 2009-12-18 | 2013-11-19 | Intel Corporation | Multi-feature interactive touch user interface |
CN102375652A (zh) * | 2010-08-16 | 2012-03-14 | 中国移动通信集团公司 | 移动终端用户界面调整系统及其调整方法 |
US8660978B2 (en) | 2010-12-17 | 2014-02-25 | Microsoft Corporation | Detecting and responding to unintentional contact with a computing device |
US9244545B2 (en) * | 2010-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Touch and stylus discrimination and rejection for contact sensitive computing devices |
KR101977613B1 (ko) | 2011-01-05 | 2019-05-14 | 삼성전자주식회사 | 입력 장치의 입력 오류를 정정하기 위한 방법 및 장치 |
WO2012111010A1 (en) | 2011-02-15 | 2012-08-23 | N-Trig Ltd. | Tracking input to a multi-touch digitizer system |
US20130009915A1 (en) | 2011-07-08 | 2013-01-10 | Nokia Corporation | Controlling responsiveness to user inputs on a touch-sensitive display |
US20130021269A1 (en) | 2011-07-20 | 2013-01-24 | Google Inc. | Dynamic Control of an Active Input Region of a User Interface |
US8644884B2 (en) | 2011-08-04 | 2014-02-04 | Qualcomm Incorporated | Sensor-based user interface control |
FR2979025A1 (fr) | 2011-08-12 | 2013-02-15 | Stantum | Procede de caracterisation de toucher sur un ecran tactile |
CN102591576B (zh) * | 2011-12-27 | 2014-09-17 | 华为终端有限公司 | 一种手持设备及触摸响应方法 |
US8527722B1 (en) | 2012-04-24 | 2013-09-03 | Hitachi, Ltd. | Selecting a snapshot method based on cache memory consumption |
US20130300672A1 (en) | 2012-05-11 | 2013-11-14 | Research In Motion Limited | Touch screen palm input rejection |
EP2662756A1 (en) | 2012-05-11 | 2013-11-13 | BlackBerry Limited | Touch screen palm input rejection |
US20130300696A1 (en) | 2012-05-14 | 2013-11-14 | N-Trig Ltd. | Method for identifying palm input to a digitizer |
KR20130136276A (ko) * | 2012-06-04 | 2013-12-12 | 삼성전자주식회사 | 단말기의 펜 입력 보정장치 및 방법 |
KR20130138880A (ko) | 2012-06-11 | 2013-12-20 | 삼성전자주식회사 | 단말기의 터치 입력 제어장치 및 방법 |
KR102040857B1 (ko) | 2012-07-17 | 2019-11-06 | 삼성전자주식회사 | 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기 |
KR101987098B1 (ko) * | 2012-09-25 | 2019-09-30 | 삼성전자주식회사 | 터치 입력을 처리하는 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말 |
KR20140046557A (ko) | 2012-10-05 | 2014-04-21 | 삼성전자주식회사 | 다점 입력 인식 방법 및 그 단말 |
US9411461B2 (en) | 2012-10-17 | 2016-08-09 | Adobe Systems Incorporated | Moveable interactive shortcut toolbar and unintentional hit rejecter for touch input devices |
US9483146B2 (en) | 2012-10-17 | 2016-11-01 | Perceptive Pixel, Inc. | Input classification for multi-touch systems |
US9836154B2 (en) * | 2013-01-24 | 2017-12-05 | Nook Digital, Llc | Selective touch scan area and reporting techniques |
CN103699882A (zh) * | 2013-12-17 | 2014-04-02 | 百度在线网络技术(北京)有限公司 | 一种用于生成个性化输入面板的方法和装置 |
US9804707B2 (en) | 2014-09-12 | 2017-10-31 | Microsoft Technology Licensing, Llc | Inactive region for touch surface based on contextual information |
-
2014
- 2014-09-12 US US14/485,510 patent/US9626020B2/en active Active
-
2015
- 2015-09-11 RU RU2017107538A patent/RU2017107538A/ru not_active Application Discontinuation
- 2015-09-11 WO PCT/US2015/049545 patent/WO2016040719A1/en active Application Filing
- 2015-09-11 CN CN201580048981.XA patent/CN106605202B/zh active Active
- 2015-09-11 EP EP15767405.2A patent/EP3191930B1/en active Active
- 2015-09-11 BR BR112017003211A patent/BR112017003211A2/pt not_active Application Discontinuation
- 2015-09-11 KR KR1020177009793A patent/KR20170055518A/ko unknown
- 2015-09-11 JP JP2017510575A patent/JP2017531246A/ja active Pending
- 2015-09-11 AU AU2015314950A patent/AU2015314950A1/en not_active Abandoned
- 2015-09-11 CA CA2959771A patent/CA2959771A1/en not_active Abandoned
- 2015-09-11 MX MX2017003150A patent/MX2017003150A/es unknown
Also Published As
Publication number | Publication date |
---|---|
CN106605202A (zh) | 2017-04-26 |
WO2016040719A1 (en) | 2016-03-17 |
US9626020B2 (en) | 2017-04-18 |
BR112017003211A2 (pt) | 2017-11-28 |
US20160077616A1 (en) | 2016-03-17 |
KR20170055518A (ko) | 2017-05-19 |
MX2017003150A (es) | 2017-05-23 |
JP2017531246A (ja) | 2017-10-19 |
EP3191930B1 (en) | 2020-07-15 |
EP3191930A1 (en) | 2017-07-19 |
CN106605202B (zh) | 2020-05-22 |
CA2959771A1 (en) | 2016-03-17 |
AU2015314950A1 (en) | 2017-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2017107538A (ru) | Обнаружение доминирования одной из рук сенсорного ввода | |
MX355254B (es) | Identificacion del conductor de un vehículo. | |
WO2016191737A3 (en) | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device | |
MX2017008246A (es) | Agentes de escalamiento de asistente personal digital entre dispositivos. | |
WO2017027625A3 (en) | Devices, methods, and graphical user interfaces for content navigation and manipulation | |
JP2018531442A5 (ru) | ||
WO2014157872A3 (en) | Portable device using touch pen and application control method using the same | |
MX2016016624A (es) | Proteccion de datos con base en el reconocimiento del usuario y gestos. | |
WO2014024122A3 (en) | An apparatus and associated methods | |
EP2711825A3 (en) | System for providing a user interface for use by portable and other devices | |
WO2015052588A3 (en) | Systems, devices, and methods for touch-free typing | |
WO2015106013A3 (en) | Transforming a user interface icon into an enlarged view | |
GB2558985A (en) | Predicting user needs for a particular context | |
EP2827225A3 (en) | System and method for activating a hidden control | |
WO2013093706A3 (en) | User interfaces with peep-hole and associate! apparatus and methods | |
WO2014035680A3 (en) | Systems and methods for a wearable touch-sensitive device | |
EP2759919A3 (en) | Methods and devices for simultaneous multi-touch input | |
WO2017116813A3 (en) | Haptic feedback for non-touch surface interaction | |
TW201612724A (en) | Electronic device and display interface adjusting method thereof | |
MX2017013477A (es) | Deteccion de vehiculo lidar y vision. | |
EP2624103A3 (en) | System and method for rocking and static touch object detection on an input device | |
MA51748A (fr) | Dispositif de detection tactile avec interface tactile en materiau composite | |
JP2015527662A5 (ru) | ||
EP3128415A3 (en) | Computing device, process control method, and process control program | |
WO2015189710A3 (en) | Apparatus and method for disambiguating information input to a portable electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FA93 | Acknowledgement of application withdrawn (no request for examination) |
Effective date: 20180912 |