RU2017107538A - Обнаружение доминирования одной из рук сенсорного ввода - Google Patents

Обнаружение доминирования одной из рук сенсорного ввода Download PDF

Info

Publication number
RU2017107538A
RU2017107538A RU2017107538A RU2017107538A RU2017107538A RU 2017107538 A RU2017107538 A RU 2017107538A RU 2017107538 A RU2017107538 A RU 2017107538A RU 2017107538 A RU2017107538 A RU 2017107538A RU 2017107538 A RU2017107538 A RU 2017107538A
Authority
RU
Russia
Prior art keywords
touch
user
input
tool
inputs
Prior art date
Application number
RU2017107538A
Other languages
English (en)
Inventor
Олумуйива М. ДУРОДЖАЙЕ
Дэвид АБЗАРИАН
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2017107538A publication Critical patent/RU2017107538A/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Claims (42)

1. Способ, содержащий этапы, на которых:
принимают, посредством вычислительного устройства, один или более сенсорных вводов от пользователя через сенсорную поверхность;
принимают, посредством вычислительного устройства, сенсорный ввод с инструмента ввода через сенсорную поверхность;
определяют, посредством вычислительного устройства, что каждый из одного или более сенсорных вводов от пользователя остается на сенсорной поверхности в течение менее чем предварительно определенного количества времени; и
анализируют один или более сенсорных вводов от пользователя для определения того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки, причем данный анализ основан, по меньшей мере отчасти, на одном или более местоположениях одного или более сенсорных вводов от пользователя на сенсорной поверхности относительно местоположения сенсорного ввода с инструмента ввода на сенсорной поверхности; и
устанавливают неактивную область, в которой сенсорные вводы подавляются, основываясь на доминировании одной из рук пользователя,
при этом неактивная область для леворукого пользователя идет дальше вверх от сенсорного ввода инструмента ввода, чем неактивная область для праворукого пользователя идет вверх от сенсорного ввода инструмента ввода.
2. Способ по п. 1, в котором неактивная область окружает сенсорный ввод из инструмента ввода.
3. Способ по п. 1, в котором упомянутый анализ дополнительно основан на отношении (i) числа пользовательских сенсорных вводов на одной стороне сенсорного ввода с помощью инструмента относительно (ii) числа пользовательских сенсорных вводов на другой стороне сенсорного ввода с помощью инструмента.
4. Способ по любому из пп. 1-3, в котором упомянутый анализ включает в себя этапы, на которых:
определяют, что одно или более местоположений одного или более сенсорных вводов от пользователя кластеризуются совместно на сенсорной поверхности в пределах конкретной близости друг к другу;
идентифицируют сторону сенсорного ввода с инструмента ввода, на которой одно или более местоположений одного или более сенсорных вводов от пользователя кластеризуются совместно; и
определяют, использует ли пользователь инструмент ввода с помощью левой руки или правой руки, по меньшей мере отчасти, на основе идентифицированной стороны.
5. Способ по любому из пп. 1-4, в котором упомянутый анализ включает в себя этапы, на которых:
определяют, что местоположение конкретного сенсорного ввода, из числа одного или более сенсорных вводов от пользователя, на сенсорной поверхности находится в пределах предварительно определенной близости к местоположению сенсорного ввода с инструмента ввода на сенсорной поверхности;
классифицируют этот конкретный сенсорный ввод в качестве непреднамеренного; и
используют этот конкретный сенсорный ввод для определения того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки.
6. Способ по любому из пп. 1-5, в котором упомянутый анализ включает в себя этапы, на которых:
определяют, что местоположение конкретного сенсорного ввода, из числа одного или более сенсорных вводов от пользователя, на сенсорной поверхности находится за пределами предварительно определенной близости к местоположению сенсорного ввода с инструмента ввода на сенсорной поверхности;
классифицируют этот конкретный сенсорный ввод в качестве намеренного; и
используют другой сенсорный ввод из одного или более сенсорных вводов от пользователя для определения того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки.
7. Один или более машиночитаемых носителей данных, на которых сохранены машиноисполняемые инструкции, которые при их исполнении предписывают одному или более процессорам осуществлять способ по любому из предшествующих пунктов.
8. Система, содержащая:
сенсорную поверхность, чтобы принимать (i) несколько пользовательских сенсорных вводов от пользователя и (ii) сенсорный ввод с помощью инструмента от инструмента ввода, причем каждый из нескольких пользовательских сенсорных вводов остается на сенсорной поверхности в течение менее чем предварительно определенного количества времени;
один или более процессоров, функционально соединенных с сенсорной поверхностью;
запоминающее устройство, функционально соединенное с одним или более процессорами и приспособленное сохранять данные для каждого из нескольких пользовательских сенсорных вводов в течение предварительно определенного периода времени;
модуль определения доминирования одной из рук, исполняемый посредством одного или более процессоров для того, чтобы определять, использует ли пользователь инструмент ввода с помощью левой руки или правой руки, на основе местоположений нескольких пользовательских сенсорных вводов от пользователя на сенсорной поверхности относительно местоположения сенсорного ввода с инструмента ввода на сенсорной поверхности; и
модуль задания неактивных областей, исполняемый посредством одного или процессоров для того, чтобы задавать неактивную область, в которой сенсорный ввод подавляется, на основе доминирования одной из рук пользователя,
при этом неактивная область для леворукого пользователя идет дальше вверх от сенсорного ввода инструмента ввода, чем неактивная область для праворукого пользователя идет вверх от сенсорного ввода инструмента ввода.
9. Система по п. 8, в которой упомянутое определение дополнительно основано на отношении (i) числа пользовательских сенсорных вводов на одной стороне сенсорного ввода с помощью инструмента к (ii) числу пользовательских сенсорных вводов на другой стороне сенсорного ввода с помощью инструмента.
10. Система по п. 8 или 9, в которой модуль определения доминирования одной из рук сконфигурирован использовать упомянутое значение для определения того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки, посредством:
определения того, что отношение превышает предварительно определенное отношение; и
определения, в ответ на определение того, что отношение превышает предварительно определенное отношение, того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки, по меньшей мере отчасти, на основе отношения.
11. Система по любому из пп. 8-10, дополнительно содержащая модуль управления запоминающим устройством, исполняемый посредством одного или более процессоров для того, чтобы:
определять, что пользовательский сенсорный ввод из нескольких пользовательских сенсорных вводов остается на сенсорной поверхности в течение менее чем предварительно определенного количества времени;
в ответ на определение того, что пользовательский сенсорный ввод из нескольких пользовательских сенсорных вводов остается на сенсорной поверхности в течение менее чем это предварительно определенное количество времени, инструктировать сохранение данных для пользовательского сенсорного ввода в запоминающем устройстве в течение предварительно определенного периода времени; и
в ответ на истечение предварительно определенного периода времени, инструктировать удаление данных для пользовательского сенсорного ввода из запоминающего устройства.
12. Система по любому из пп. 8-11, в которой модуль определения доминирования одной из рук сконфигурирован:
определять, что, по меньшей мере, некоторые из нескольких пользовательских сенсорных вводов принимаются на сенсорной поверхности в пределах конкретной близости друг к другу; и
использовать местоположение этих, по меньшей мере, некоторых из нескольких пользовательских сенсорных вводов для определения того, использует ли пользователь инструмент ввода с помощью левой руки или правой руки.
13. Система по любому из пп. 8-12, в которой по меньшей мере одно из предварительно определенного количества времени или предварительно определенного периода времени сконфигурировано по меньшей мере одним из пользователя, приложения, которое реализуется в системе, и платформы, которая реализуется в системе.
14. Система по любому из пп. 8-13, в которой сенсорная поверхность содержит по меньшей мере одно из сенсорного экрана и указательной панели.
RU2017107538A 2014-09-12 2015-09-11 Обнаружение доминирования одной из рук сенсорного ввода RU2017107538A (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/485,510 2014-09-12
US14/485,510 US9626020B2 (en) 2014-09-12 2014-09-12 Handedness detection from touch input
PCT/US2015/049545 WO2016040719A1 (en) 2014-09-12 2015-09-11 Handedness detection from touch input

Publications (1)

Publication Number Publication Date
RU2017107538A true RU2017107538A (ru) 2018-09-07

Family

ID=54151422

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2017107538A RU2017107538A (ru) 2014-09-12 2015-09-11 Обнаружение доминирования одной из рук сенсорного ввода

Country Status (11)

Country Link
US (1) US9626020B2 (ru)
EP (1) EP3191930B1 (ru)
JP (1) JP2017531246A (ru)
KR (1) KR20170055518A (ru)
CN (1) CN106605202B (ru)
AU (1) AU2015314950A1 (ru)
BR (1) BR112017003211A2 (ru)
CA (1) CA2959771A1 (ru)
MX (1) MX2017003150A (ru)
RU (1) RU2017107538A (ru)
WO (1) WO2016040719A1 (ru)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170115693A1 (en) * 2013-04-25 2017-04-27 Yonggui Li Frameless Tablet
US9804707B2 (en) 2014-09-12 2017-10-31 Microsoft Technology Licensing, Llc Inactive region for touch surface based on contextual information
WO2016122385A1 (en) 2015-01-28 2016-08-04 Flatfrog Laboratories Ab Dynamic touch quarantine frames
EP3537269A1 (en) 2015-02-09 2019-09-11 FlatFrog Laboratories AB Optical touch system
US9977519B2 (en) * 2015-02-25 2018-05-22 Synaptics Incorporated Active pen with bidirectional communication
US10095361B2 (en) 2015-03-18 2018-10-09 Microsoft Technology Licensing, Llc Stylus detection with capacitive based digitizer sensor
CN106293444B (zh) * 2015-06-25 2020-07-03 小米科技有限责任公司 移动终端、显示控制方法及装置
EP3387516B1 (en) 2015-12-09 2022-04-20 FlatFrog Laboratories AB Improved stylus identification
US10296146B2 (en) 2015-12-22 2019-05-21 Microsoft Technology Licensing, Llc System and method for detecting grip of a touch enabled device
US10423268B2 (en) 2015-12-22 2019-09-24 Microsoft Technology Licensing, Llc System and method for detecting grounding state of a touch enabled computing device
US10963159B2 (en) * 2016-01-26 2021-03-30 Lenovo (Singapore) Pte. Ltd. Virtual interface offset
CN107153480B (zh) * 2016-03-03 2020-02-07 禾瑞亚科技股份有限公司 用于设定手掌忽视区的触控处理方法、装置与系统
US10514844B2 (en) * 2016-11-16 2019-12-24 Dell Products L.P. Automatically modifying an input area based on a proximity to one or more edges
WO2018096430A1 (en) 2016-11-24 2018-05-31 Flatfrog Laboratories Ab Automatic optimisation of touch signal
WO2018106172A1 (en) * 2016-12-07 2018-06-14 Flatfrog Laboratories Ab Active pen true id
PL3667475T3 (pl) 2016-12-07 2022-11-21 Flatfrog Laboratories Ab Zakrzywione urządzenie dotykowe
EP3458946B1 (en) 2017-02-06 2020-10-21 FlatFrog Laboratories AB Optical coupling in touch-sensing systems
EP3602258B1 (en) 2017-03-22 2024-05-08 FlatFrog Laboratories AB Pen differentiation for touch displays
CN110663015A (zh) 2017-03-28 2020-01-07 平蛙实验室股份公司 触摸感应装置和用于组装的方法
WO2019039984A1 (en) * 2017-08-23 2019-02-28 Flatfrog Laboratories Ab ENHANCED PEN ENHANCEMENT
US11256371B2 (en) 2017-09-01 2022-02-22 Flatfrog Laboratories Ab Optical component
US10452191B2 (en) * 2017-10-27 2019-10-22 Dell Products, L.P. Systems and methods for automatically switching between touch layers of an interactive workspace based upon the use of accessory devices
KR102344971B1 (ko) * 2017-10-30 2021-12-31 에스케이텔레콤 주식회사 터치 인식 방법 및 그 장치
US11567610B2 (en) 2018-03-05 2023-01-31 Flatfrog Laboratories Ab Detection line broadening
US10678348B2 (en) 2018-03-12 2020-06-09 Microsoft Technology Licensing, Llc Touch detection on an ungrounded pen enabled device
US10616349B2 (en) 2018-05-01 2020-04-07 Microsoft Technology Licensing, Llc Hybrid sensor centric recommendation engine
WO2020153890A1 (en) 2019-01-25 2020-07-30 Flatfrog Laboratories Ab A videoconferencing terminal and method of operating the same
JP2023512682A (ja) 2020-02-10 2023-03-28 フラットフロッグ ラボラトリーズ アーベー 改良型タッチ検知装置
US11513604B2 (en) 2020-06-17 2022-11-29 Motorola Mobility Llc Selectable response options displayed based-on device grip position
US20230221838A1 (en) * 2022-01-13 2023-07-13 Motorola Mobility Llc Configuring An External Presentation Device Based On User Handedness
US11726734B2 (en) 2022-01-13 2023-08-15 Motorola Mobility Llc Configuring an external presentation device based on an impairment of a user
US11537239B1 (en) * 2022-01-14 2022-12-27 Microsoft Technology Licensing, Llc Diffusion-based handedness classification for touch-based input
US11989369B1 (en) 2023-03-30 2024-05-21 Microsoft Technology Licensing, Llc Neural network-based touch input classification

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW528981B (en) 2001-10-25 2003-04-21 Compal Electronics Inc Portable computer and related method for preventing input interruption by write-tracking input region
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8193965B2 (en) * 2007-11-19 2012-06-05 L-3 Communications Cyterra Corporation Forward-looking detection radar
US8402391B1 (en) 2008-09-25 2013-03-19 Apple, Inc. Collaboration system
EP3654141A1 (en) * 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
TW201104531A (en) 2009-07-17 2011-02-01 Egalax Empia Technology Inc Method and device for palm rejection
GB2486843B (en) 2009-08-25 2014-06-18 Promethean Ltd Interactive surface with a plurality of input detection technologies
US8587532B2 (en) 2009-12-18 2013-11-19 Intel Corporation Multi-feature interactive touch user interface
CN102375652A (zh) * 2010-08-16 2012-03-14 中国移动通信集团公司 移动终端用户界面调整系统及其调整方法
US8660978B2 (en) 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
KR101977613B1 (ko) 2011-01-05 2019-05-14 삼성전자주식회사 입력 장치의 입력 오류를 정정하기 위한 방법 및 장치
WO2012111010A1 (en) 2011-02-15 2012-08-23 N-Trig Ltd. Tracking input to a multi-touch digitizer system
US20130009915A1 (en) 2011-07-08 2013-01-10 Nokia Corporation Controlling responsiveness to user inputs on a touch-sensitive display
US20130021269A1 (en) 2011-07-20 2013-01-24 Google Inc. Dynamic Control of an Active Input Region of a User Interface
US8644884B2 (en) 2011-08-04 2014-02-04 Qualcomm Incorporated Sensor-based user interface control
FR2979025A1 (fr) 2011-08-12 2013-02-15 Stantum Procede de caracterisation de toucher sur un ecran tactile
CN102591576B (zh) * 2011-12-27 2014-09-17 华为终端有限公司 一种手持设备及触摸响应方法
US8527722B1 (en) 2012-04-24 2013-09-03 Hitachi, Ltd. Selecting a snapshot method based on cache memory consumption
US20130300672A1 (en) 2012-05-11 2013-11-14 Research In Motion Limited Touch screen palm input rejection
EP2662756A1 (en) 2012-05-11 2013-11-13 BlackBerry Limited Touch screen palm input rejection
US20130300696A1 (en) 2012-05-14 2013-11-14 N-Trig Ltd. Method for identifying palm input to a digitizer
KR20130136276A (ko) * 2012-06-04 2013-12-12 삼성전자주식회사 단말기의 펜 입력 보정장치 및 방법
KR20130138880A (ko) 2012-06-11 2013-12-20 삼성전자주식회사 단말기의 터치 입력 제어장치 및 방법
KR102040857B1 (ko) 2012-07-17 2019-11-06 삼성전자주식회사 펜 인식 패널을 포함한 단말기의 기능 운용 방법 및 이를 지원하는 단말기
KR101987098B1 (ko) * 2012-09-25 2019-09-30 삼성전자주식회사 터치 입력을 처리하는 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
KR20140046557A (ko) 2012-10-05 2014-04-21 삼성전자주식회사 다점 입력 인식 방법 및 그 단말
US9411461B2 (en) 2012-10-17 2016-08-09 Adobe Systems Incorporated Moveable interactive shortcut toolbar and unintentional hit rejecter for touch input devices
US9483146B2 (en) 2012-10-17 2016-11-01 Perceptive Pixel, Inc. Input classification for multi-touch systems
US9836154B2 (en) * 2013-01-24 2017-12-05 Nook Digital, Llc Selective touch scan area and reporting techniques
CN103699882A (zh) * 2013-12-17 2014-04-02 百度在线网络技术(北京)有限公司 一种用于生成个性化输入面板的方法和装置
US9804707B2 (en) 2014-09-12 2017-10-31 Microsoft Technology Licensing, Llc Inactive region for touch surface based on contextual information

Also Published As

Publication number Publication date
CN106605202A (zh) 2017-04-26
WO2016040719A1 (en) 2016-03-17
US9626020B2 (en) 2017-04-18
BR112017003211A2 (pt) 2017-11-28
US20160077616A1 (en) 2016-03-17
KR20170055518A (ko) 2017-05-19
MX2017003150A (es) 2017-05-23
JP2017531246A (ja) 2017-10-19
EP3191930B1 (en) 2020-07-15
EP3191930A1 (en) 2017-07-19
CN106605202B (zh) 2020-05-22
CA2959771A1 (en) 2016-03-17
AU2015314950A1 (en) 2017-03-09

Similar Documents

Publication Publication Date Title
RU2017107538A (ru) Обнаружение доминирования одной из рук сенсорного ввода
MX355254B (es) Identificacion del conductor de un vehículo.
WO2016191737A3 (en) Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
MX2017008246A (es) Agentes de escalamiento de asistente personal digital entre dispositivos.
WO2017027625A3 (en) Devices, methods, and graphical user interfaces for content navigation and manipulation
JP2018531442A5 (ru)
WO2014157872A3 (en) Portable device using touch pen and application control method using the same
MX2016016624A (es) Proteccion de datos con base en el reconocimiento del usuario y gestos.
WO2014024122A3 (en) An apparatus and associated methods
EP2711825A3 (en) System for providing a user interface for use by portable and other devices
WO2015052588A3 (en) Systems, devices, and methods for touch-free typing
WO2015106013A3 (en) Transforming a user interface icon into an enlarged view
GB2558985A (en) Predicting user needs for a particular context
EP2827225A3 (en) System and method for activating a hidden control
WO2013093706A3 (en) User interfaces with peep-hole and associate! apparatus and methods
WO2014035680A3 (en) Systems and methods for a wearable touch-sensitive device
EP2759919A3 (en) Methods and devices for simultaneous multi-touch input
WO2017116813A3 (en) Haptic feedback for non-touch surface interaction
TW201612724A (en) Electronic device and display interface adjusting method thereof
MX2017013477A (es) Deteccion de vehiculo lidar y vision.
EP2624103A3 (en) System and method for rocking and static touch object detection on an input device
MA51748A (fr) Dispositif de detection tactile avec interface tactile en materiau composite
JP2015527662A5 (ru)
EP3128415A3 (en) Computing device, process control method, and process control program
WO2015189710A3 (en) Apparatus and method for disambiguating information input to a portable electronic device

Legal Events

Date Code Title Description
FA93 Acknowledgement of application withdrawn (no request for examination)

Effective date: 20180912