RU2683171C2 - Вероятностное обнаружение касания - Google Patents

Вероятностное обнаружение касания Download PDF

Info

Publication number
RU2683171C2
RU2683171C2 RU2016151206A RU2016151206A RU2683171C2 RU 2683171 C2 RU2683171 C2 RU 2683171C2 RU 2016151206 A RU2016151206 A RU 2016151206A RU 2016151206 A RU2016151206 A RU 2016151206A RU 2683171 C2 RU2683171 C2 RU 2683171C2
Authority
RU
Russia
Prior art keywords
touch
location
input
computing device
response
Prior art date
Application number
RU2016151206A
Other languages
English (en)
Other versions
RU2016151206A (ru
RU2016151206A3 (ru
Inventor
Йуенкеен ЧЕОНГ
Майкл БОХЭН
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2016151206A publication Critical patent/RU2016151206A/ru
Publication of RU2016151206A3 publication Critical patent/RU2016151206A3/ru
Application granted granted Critical
Publication of RU2683171C2 publication Critical patent/RU2683171C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Изобретение относится к корректировке сенсорных вводов на вычислительном устройстве. Технический результат заключается в повышении точности сенсорного ввода. Такой результат достигается за счет того, что осуществляют отображение графического пользовательского интерфейса на чувствительном к касаниям дисплее, прием сенсорного ввода через датчик касания чувствительного к касаниям дисплея в обнаруженном местоположении, выполнение вероятностного определения предполагаемого местоположения касания на основе ввода и отображение ответа на ввод в скорректированном местоположении на графическом пользовательском интерфейсе, которое корректируется относительно обнаруженного местоположения на основе вероятностного определения. 8 з.п. ф-лы, 13 ил.

Description

Уровень техники
[0001] Чувствительное к касанию вычислительное устройство может использовать датчик касания и устройство отображения, чтобы предоставлять возможность пользовательского взаимодействия с графическим пользовательским интерфейсом. Датчики касания могут использовать любую из множества технологий для обнаружения сенсорных вводов данных, включающих в себя емкостные, резистивные и оптические технологии. Аналогично, пользователи могут выполнять вводы данных с помощью различных отличающихся инструментов для сенсорного ввода (ввода касанием), таких как один или более стилусов и/или человеческих пальцев.
Сущность изобретения
[0002] Раскрываются варианты осуществления, которые относятся к использованию вероятностных определений, чтобы корректировать обнаруженные местоположения сенсорного ввода в системах сенсорного ввода. Например, один раскрытый вариант осуществления предоставляет способ работы чувствительного к касаниям дисплея вычислительного устройства. Способ включает в себя отображение графического пользовательского интерфейса на чувствительном к касаниям дисплее, прием сенсорного ввода через датчик касания чувствительного к касаниям дисплея в обнаруженном местоположении, выполнение вероятностного определения предполагаемого местоположения касания на основе ввода и отображение ответа на ввод данных в скорректированном местоположении на графическом пользовательском интерфейсе, которое корректируется относительно обнаруженного местоположения на основе вероятностного определения.
[0003] Данная сущность предусмотрена для того, чтобы в упрощенной форме представить набор идей, которые дополнительно описываются ниже в подробном описании. Эта сущность не имеет намерением ни то, чтобы идентифицировать ключевые признаки или важнейшие признаки заявленного предмета изобретения, ни то, чтобы использоваться таким образом, что она ограничивает объем заявленного предмета изобретения. Кроме того, заявленный предмет изобретения не ограничен реализациями, которые разрешают какие-либо или все недостатки, отмеченные в любой части данного раскрытия сущности.
Краткое описание чертежей
[0004] Фиг. 1A-C схематично иллюстрируют примеры параллакса, который может возникать во время использования системы обнаружения касания.
[0005] Фиг. 2A и 2B показывают примерную корректировку, выполненную по отношению к обнаруженному местоположению касания на основе вероятностного определения возможного предполагаемого местоположения касания.
[0006] Фиг. 3A и 3B показывают другую примерную корректировку, выполненную по отношению к обнаруженному местоположению касания на основе вероятностного определения возможного предполагаемого местоположения касания.
[0007] Фиг. 4 показывает дополнительную примерную корректировку, выполненную по отношению к обнаруженному местоположению касания на основе вероятностного определения возможного предполагаемого местоположения касания.
[0008] Фиг. 5A показывают еще одну примерную корректировку, выполненную по отношению к обнаруженному местоположению касания на основе вероятностного определения возможного предполагаемого местоположения касания.
[0009] Фиг. 5B иллюстрирует отмену примерной корректировки на фиг. 5A через пользовательский ввод.
[0010] Фиг. 6 схематично иллюстрирует примерный набор данных местоположения касания, который может быть использован, чтобы выполнять вероятностное определение возможного предполагаемого местоположения касания в соответствии с реализацией этого изобретения.
[0011] Фиг. 7 показывает блок-схему последовательности операций, иллюстрирующую способ для определения возможного предполагаемого местоположения касания в соответствии с реализацией этого изобретения.
[0012] Фиг. 8 показывает блок-схему вычислительного устройства в соответствии с реализацией этого изобретения.
Подробное описание изобретения
[0013] Как описано выше, чувствительные к касаниям вычислительные устройства могут принимать ввод данных через устройство ввода, такое как человеческий палец или стилус. Во время сенсорного ввода может возникать различие между местоположением, в котором ввод применяется к вычислительному устройству, и местоположением, в котором ввод обнаруживается вычислительным устройством. Различные факторы могут способствовать этому эффекту, который называется в данном документе параллаксом независимо от источника различия.
[0014] Фиг. 1A-C схематично иллюстрируют чувствительный к касаниям дисплей 102 вычислительного устройства и иллюстрируют примеры того, как такой параллакс может возникать. Чувствительный к касаниям дисплей 102 содержит покрывающий лист 108 (например, стеклянный), дисплей 110 (например, LCD или OLED-дисплей) и датчик 112 касания (например, емкостной или резистивный датчик), которые вместе формируют объединенный комплект 114 дисплея и сенсорного устройства. Должно быть понятно, что датчик касания может быть расположен между покрывающим листом и дисплеем в некоторых реализациях.
[0015] В качестве первого примера параллакса фиг. 1A показывает, по ссылке 104, стилус 106, выполняющий касание в физическом местоположении 116 и обнаруживаемый посредством датчика 112 касания в обнаруженном местоположении 118. В примере по ссылке 104 обнаруженное местоположение 118 соответствует физическому местоположению 116, когда чувствительный элемент 120, расположенный в стилусе 106 и используемый посредством емкостного датчика касания, чтобы обнаруживать касание, вертикально выравнивается с кончиком стилуса, где физическое соприкосновение имеет место. По существу, дисплей 110 отображает ответ на сенсорный ввод данных в отображенном местоположении 122, которое соответствует физическому местоположению 116. В то время как отображенный ответ на касание по ссылке 104 является правильным местоположением, следует отметить, что пользователь 124 воспринимает физическое местоположение ответа, отображаемого на сенсорный ввод данных, как находящееся в воспринимаемом местоположении 126, которое смещено от отображенного местоположения 122, вследствие непрямого угла человеческого глаза относительно поверхности комплекта 114. Этот тип параллакса называется в данном документе "визуальным" параллаксом и может вынуждать пользователя выполнять сенсорные вводы данных в неправильных местоположениях.
[0016] В качестве другого примера параллакса, как указано по ссылке 128 на фиг. 1B, чувствительный элемент 120 вертикально не выравнивается с физическим местоположением 116' сенсорного ввода вследствие угловой ориентации стилуса 106 относительно поверхности покрывающего листа. Следовательно, датчик 112 касания обнаруживает сенсорный ввод в обнаруженном местоположении 118', которое отличается от физического местоположения 116', и которое также отличается от отображаемого местоположения 122' элемента пользовательского интерфейса (например, курсора, маркировки и т.д.), который отображается в ответ на обнаруженный сенсорный ввод. Этот тип параллакса называется в данном документе "аппаратным" параллаксом. Это различие может быть усугублено, когда угол между стилусом и плоскостью поверхности покрывающего листа 108 уменьшается. Пример этого показан по ссылке 130 на фиг. 1C, где относительно более значительное различие между физическим местоположением 116'' касания и обнаруженным местоположением 118'' возникает вследствие угловой ориентации стилуса, и относительно более значительное различие получается в результате между физическим местоположением 116'' и отображаемым местоположением 122'' элемента UI.
[0017] Системы сенсорного ввода могут корректировать аппаратный параллакс через калибровку, чтобы определять смещение, которое необходимо применять к обнаруживаемым сенсорным вводам. Однако, такая компенсация может быть неэффективной для различных углов касания стилуса.
[0018] Визуальный и/или аппаратный параллакс могут вызывать различные проблемы, такие как ошибочный выбор элементов пользовательского интерфейса вопреки намерению пользователя. Чтобы смягчать такие проблемы, вычислительное устройство может отображать визуальные ориентиры, такие как курсор, перекрестие и т.д., чтобы иллюстрировать обнаруженное местоположение пользователю. Однако, визуальные ориентиры могут перекрывать элементы пользовательского интерфейса, отображаемые посредством дисплея, и могут привносить задержку, когда ориентиры запаздывают за движением стилуса 106, которая может ухудшать пользовательское восприятие. Откалиброванные фиксированные смещения также могут быть применены, чтобы корректировать местоположения касаний. Однако, использование откалиброванных смещений для применения к сенсорным вводам, вместо визуальных ориентиров, может недостаточно компенсировать вариации в угловой ориентации стилуса 106, как описано выше.
[0019] Соответственно, в данном документе раскрываются примеры, которые вероятностно определяют предполагаемое местоположение касания на основе обнаруженного местоположения сенсорного ввода. Примеры, описанные в данном документе, могут смягчать параллакс, возникающий в ходе применения сенсорного ввода, без отображения визуальных ориентиров, которые ухудшают пользовательское восприятие. Фиг. 2A и 2B иллюстрируют примерную корректировку обнаруженного местоположения касания в соответствии с реализацией этого изобретения. Как показано на фиг. 2A, сенсорный ввод применяется посредством стилуса 202 к чувствительному к касаниям вычислительному устройству 204. В то время как вычислительное устройство 204 показано в форме планшетного вычислительного устройства, будет понятно, что любые другие подходящие формы вычислительных устройств находятся в рамках этого изобретения.
[0020] Вычислительное устройство 204 включает в себя дисплей 206, отображающий графический пользовательский интерфейс (GUI), включающий в себя виртуальную клавиатуру 208, которая, на основе сенсорного ввода, принимаемого от стилуса 202, может создавать текст на дисплее, например, в приложении обработки текста или электронной почты, работающем на вычислительном устройстве. Как показано, кончик стилуса физически касается сенсорного дисплея в границах отображенной клавиши "T". Однако, вследствие аппаратного параллакса, сенсорный ввод обнаруживается в местоположении между клавишами "Y" и "T". Таким образом, чтобы определять, какие из соседних клавиш пользователь возможно предполагает выбрать, вычислительное устройство 204 может включать в себя инструкции, которые являются исполняемыми, чтобы выполнять вероятностное определение предполагаемого местоположения касания на основе обнаруженного местоположения сенсорного ввода. Примерные аппаратные реализации вычислительного устройства 204 описываются ниже со ссылкой на фиг. 8.
[0021] Фиг. 2B иллюстрирует ответ, который может быть отображен на основе выполнения вероятностного определения. На этом чертеже может быть видно, что клавиша "T" отображенной клавиатуры выбирается на основе определения того, что вероятно предполагаемое местоположение касания было в границах клавиши "T".
[0022] Вероятностное определение может использовать любую подходящую информацию, чтобы определять возможное предполагаемое местоположение касания. Например, вероятностное определение может использовать в качестве входных данных обнаруженное местоположение 210 сенсорного ввода, местоположения одного или более элементов пользовательского интерфейса, отображаемых, когда сенсорный ввод принимается (например, клавиши 'T' и 'Y' на фиг. 2A и 2B), а также устанавливать ранее определенный разброс местоположений касания вокруг предполагаемого местоположения касания.
[0023] Вероятностное определение может включать в себя определение соответствующих вероятностей сенсорного ввода, предполагаемого для двух или более элементов пользовательского интерфейса. Например, могут быть определены вероятности для клавиш виртуальной клавиатуры 208 в пределах порогового расстояния от обнаруженного местоположения 210. В изображенном примере 'T' и 'Y' могут считаться возможно предполагаемыми местоположениями касания. Соответственно, вероятностные определения для каждой из этих клавиш могут быть выполнены посредством определения соответствующих расстояний (например, в направлениях x и y) между клавишами и обнаруженным местоположением 210. Будет понятно, что любое подходящее вычисление или вычисления могут быть использованы, чтобы определять вероятность или вероятности возможных предполагаемых местоположений касания, и что в некоторых реализациях различные вероятностные функции могут быть использованы в различных случаях.
[0024] В примере, показанном на фиг. 2B, вероятностное определение, выполняемое для клавиши 'T', в этом случае дает вероятность выше вероятности, предоставленной посредством вероятностного определения для клавиши 'Y'. По существу, клавиша 'T' выбирается в качестве предполагаемого местоположения касания на основе вероятностных определений. В этом примере клавиша 'T' находится ближе к обнаруженному местоположению, чем клавиша 'Y'. Однако, в некоторых случаях, клавиша, которая находится дальше от обнаруженного местоположения, может быть определена как более вероятная, в зависимости от природы используемого статистического распределения, относительных позиций обнаруженного местоположения касания по сравнению с элементами пользовательского интерфейса, вероятностной функции, используемой, чтобы определять вероятности, и потенциально других факторов.
[0025] Результатом вероятностного определения в этом случае является применение смещения обнаруженного местоположения в скорректированное местоположение (например, местоположение в границах клавиши 'Y'). В противоположность способам, которые применяют фиксированное, откалиброванное смещение по отношению к сенсорным вводам, смещение в этом случае определяется динамически и может изменяться как по величине, так и по направлению между сенсорными вводами. Дополнительно, корректировка может быть определена на основе одного или более элементов пользовательского интерфейса, отображаемых, когда принимается сенсорный ввод.
[0026] Как упомянуто выше, в некоторых реализациях пороговое условие может быть применено к элементу пользовательского интерфейса при определении того, предназначен ли обнаруженный сенсорный ввод для элемента. Например, могут быть применены пороговая минимальная вероятность, пороговое максимальное расстояние и/или другие пороговые условия. В случае, когда элементы пользовательского интерфейса не удовлетворяют каким-либо примененным пороговым условиям, ответ на сенсорный ввод может быть вместо этого отображен в обнаруженном местоположении, или вероятностное определение может все еще использоваться, чтобы определять смещение для применения.
[0027] Фиг. 3A и 3B показывают другую примерную корректировку, выполняемую по отношению к отображаемому ответу на сенсорный ввод, на основе вероятностного определения предполагаемого местоположения касания. Как видно на фиг. 3A, сенсорный ввод применяется посредством стилуса 202 к сенсорному (чувствительному к касаниям) вычислительному устройству 204 в обнаруженном местоположении 302. Аналогично обнаруженному местоположению 210, обнаруженное местоположение 302 лежит между клавишами 'Y' и 'T'. В этом примере, в отличие от примера на фиг. 2A и 2B, обнаруженное местоположение 302 совпадает с физическим местоположением, в котором происходит касание. Однако, вследствие оптического параллакса, пользователь касается дисплея в неправильном местоположении, воспринимая касание как находящееся в пределах клавиши 'Y'. В этом примере вероятностное определение, выполняемое для клавиши 'Y', дает вероятность выше вероятности, которая предоставлена посредством вероятностного определения, выполненного для клавиши 'T'. Соответственно, клавиша 'Y' выбирается в качестве предполагаемого местоположения касания. Таким образом, ответ на сенсорный ввод отображается в скорректированном местоположении 304, имеющем смещение как по направлению, так и по величине, отличное от смещения, примененного в примере на фиг. 2A-2B.
[0028] В некоторых реализациях вероятностное определение может быть дополнительно основано на контексте GUI, представляемого посредством дисплея 206. Любая подходящая контекстная информация может быть использована. В качестве одного примера, каждая клавиша виртуальной клавиатуры 208 может иметь ассоциированную частоту выбора. Таким образом, частота выбора может быть использована, чтобы взвешивать вероятностное определение, так что более часто выбираемая клавиша может быть взвешена с большим коэффициентом, чем менее часто выбираемая клавиша. В качестве другого примера, контекстная информация может содержать информацию, относящуюся к другим принимаемым пользовательским вводам. Например, клавиши на виртуальной клавиатуре 208, которые заканчивают или иначе сочетаются с незаконченным словом, вводимым в настоящий момент через виртуальную клавиатуру 208, могут быть взвешены выше клавиш, которые таковыми не являются. В качестве другого примера, корректировки в обнаруженных местоположениях касания могут быть определены на основе, по меньшей мере, частично, местоположения на дисплее 206, в котором сенсорный ввод был принят - например, другое смещение может быть определено для вводов в верхнем левом квадранте дисплея, чем для сенсорных вводов, принимаемых в нижнем правом квадранте дисплея. Аналогично, различные статистические распределения могут быть использованы в качестве входных данных для вероятностных определений в зависимости от местоположения на дисплее 206, в котором сенсорный ввод принимается.
[0029] Подходы, описанные в данном документе, также могут быть применены к вводам с "наведением курсора", в которых устройство ввода наводит курсор сверху, но не выполняет физическое соприкосновение с вычислительным устройством. Термины "сенсорный ввод" и т.п., когда используются в данном документе, ссылаются как на физическое касание, так и на ввод с наведением курсора. Таким образом, в некоторых реализациях, вычислительное устройство 204 может обнаруживать приближение объекта (например, стилуса, пальца) к сенсорному дисплею и выполнять множество вероятностных определений предполагаемых местоположений касания объекта с частотой дискретизации, когда объект приближается к датчику касания. В некоторых примерах вероятностные определения могут быть определены во время приближения объекта для сигналов, сформированных в датчике касания посредством объекта, который превысил пороговое отношение сигнал-шум (SNR), а не для сигналов, которые падают ниже порогового SNR.
[0030] Фиг. 4 показывает еще один пример корректировки отображаемого ответа на обнаруженный сенсорный ввод в соответствии с реализацией этого изобретения. Здесь, геометрическая форма 402 была ранее нарисована на дисплее 206 вычислительного устройства 204 в ответ на сенсорный ввод свободной формы посредством стилуса 202, и стилус был поднят от дисплея 206 после рисования формы 402. Стилус 202 затем приводится в соприкосновение с дисплеем 206 еще раз, в обнаруженном местоположении 404, которое отделено от конечной точки 406 формы 402. В ответ на прием этого сенсорного ввода вероятностное определение предполагаемого местоположения касания выполняется на основе обнаруженного местоположения 404 и формы 402, используя в качестве входных данных ранее активированную и активную в настоящий момент форму 402. На основе вероятностного определения определяется, что предполагаемое местоположение касания соответствует ранее активированному местоположению касания или элементу пользовательского интерфейса, который в настоящий момент находится в активном состоянии, а именно, конечной точке 406 ранее выполненного пользовательского ввода, формирующего форму 402. Таким образом, сенсорный ввод может быть "притянут" к ранее выполненному пользовательскому вводу, предоставляя возможность в этом примере пользователю возобновлять рисование формы 402. Пример реализации такого ответа на притягивание описывается более подробно ниже.
[0031] Фиг. 5A показывает другой пример корректировки отображаемого ответа на обнаруженный сенсорный ввод на основе вероятностного определения возможного предполагаемого местоположения касания. В этом примере текст "Dial" (набор номера), за исключением точки над 'i', был отображен на дисплее 206 вычислительного устройства 204 в ответ на сенсорный ввод, принятый посредством стилуса 202. Чтобы закончить текст и нарисовать точку над 'i', сенсорный ввод применяется в обнаруженном местоположении 502, которое отделено от 'i'. В ответ на прием этого сенсорного ввода вероятностное определение предполагаемого местоположения касания может приводить в результате к тому, что отображаемое местоположение притягивается к ранее нанесенной и еще активной конечной точке символа 'i'. Соответственно, может быть возможным, что ответ на сенсорный ввод отображается в скорректированном местоположении 504, так что ввод ошибочно притягивается к палочке символа 'i'. Однако, в этом случае, пользователь не имел намерением выполнять ввод в скорректированном местоположении 504. По существу, пользователь может выбирать выполнение отменяющего ввода, указывающего, что сенсорный ввод был интерпретирован неправильно. Отменяющий ввод может быть выполнен любым подходящим образом, например, посредством кнопки 506 отмены, кнопки стирания предыдущего символа, управления стилусом 202 в качестве ластика и т.д.
[0032] В ответ на прием отменяющего ввода ответ на сенсорный ввод снова отображается в обнаруженном местоположении 502, как показано на фиг. 5B, предоставляя возможность отображения точки над 'i'. Дополнительно, в некоторых примерах, отменяющий ввод также может выключать вероятностное определение для одного или более последующих сенсорных вводов, так что ответ на последующий ввод отображается в обнаруженном местоположении вместо скорректированного местоположения. В некоторых реализациях элементы управления могут быть отображены в GUI, представленном посредством дисплея 206, предоставляющие возможность пользователю явно включать и выключать корректировку и/или притягивание местоположения сенсорного ввода для сенсорного ввода.
[0033] Как упомянуто выше, вероятностное определение возможного предполагаемого местоположения касания может использовать ввод ранее определенного набора данных о местоположении сенсорного ввода. Фиг. 6 схематично иллюстрирует пример предварительно определенного набора обнаруженных местоположений 602 касания около предполагаемого местоположения касания 604, который может быть использован в качестве такого статистического распределения. В этом примере предполагаемое местоположение касания 604 может соответствовать, например, центру элемента пользовательского интерфейса, представленному на GUI.
[0034] Набор ранее определенных местоположений касания может быть изначально сформирован через тестирование, например, во время разработки чувствительной к касаниям системы. Набор данных дополнительно может быть обновлен во времени на основе сенсорных вводов, принимаемых через датчик касания вычислительного устройства 204. Например, наблюдаемые расстояния и направления между обнаруженными местоположениями касания и часто выбираемыми клавишами на виртуальной клавиатуре 208 могут быть добавлены к существующим расстояниям между обнаруженными местоположениями 602 касания и предполагаемым местоположением касания 604, пока касания не были отменены. При обновлении набора данных часто выбираемые элементы пользовательского интерфейса могут быть использованы для получения данных с тем, чтобы получать больше данных в единицу времени. Аналогично, элементы пользовательского интерфейса в различных отображаемых местоположениях могут быть выбраны, поскольку характеристики разброса могут изменяться в зависимости от местоположения на экране. Нормальное распределение разброса может быть допустимым в некоторых реализациях, и параметры, такие как среднее расстояние и стандартное отклонение (также как и другие параметры устройства, такие как угол стилуса), могут обновляться на периодической основе.
[0035] Статистическое распределение также может быть основано на других критериях. Критерии могут включать в себя, например, размер стилуса 202 (например, размер кончика стилуса) и/или угол, под которым стилус ориентируется относительно поверхности вычислительного устройства 204. Статистическое распределение может также изменяться в зависимости от размера, формы и/или типа элемента пользовательского интерфейса, с которым его расстояния ассоциируются. Кроме того, два или более статистических распределения могут быть использованы в качестве входных данных для вероятностных определений, выполняемых на вычислительном устройстве 204. Например, статистическое распределение, используемое для данного вероятностного определения, может изменяться в зависимости от местоположения, в котором сенсорный ввод принимается на вычислительном устройстве.
[0036] Фиг. 7 показывает блок-схему последовательности операций, иллюстрирующую способ 700 для вероятностного определения предполагаемого местоположения касания в соответствии с реализацией этого изобретения. Способ 700 может быть выполнен на вычислительном устройстве через выполнение инструкций, сохраненных в подсистеме хранения данных вычислительного устройства.
[0037] На этапе 702 способ 700 содержит отображение GUI на чувствительном к касаниям дисплее (например, дисплее 206 на фиг. 2) вычислительного устройства (например, вычислительного устройства 204 на фиг. 2). GUI может включать или может не включать в себя один или более элементов пользовательского интерфейса, таких как одна или более клавиш виртуальной клавиатуры (например, виртуальной клавиатуры 208 на фиг. 2). На этапе 704 сенсорный ввод принимается через датчик касания вычислительного устройства в обнаруженном местоположении. В некоторых примерах касание может быть физическим касанием на поверхности сенсорного дисплея. В других примерах прием сенсорного ввода может включать в себя, на этапе 706, обнаружение ввода с наведением курсора от объекта, когда объект приближается к датчику касания.
[0038] Продолжая, на этапе 710, способ 700 содержит выполнение вероятностного определения предполагаемого местоположения касания на основе сенсорного ввода, принятого на этапе 704. В некоторых реализациях, единственное, или фиксированное число, вероятностного определения(ий) может быть выполнено для каждого обнаруженного сенсорного ввода, когда сенсорный ввод касается чувствительного к касаниям дисплея. В других реализациях выполнение вероятностного определения может включать в себя, на этапе 712, выполнение множества вероятностных определений предполагаемых местоположений касания с частотой дискретизации, например, когда ввод с наведением курсора приближается к датчику касания. В таких реализациях вероятностные определения могут быть выполнены на основе того, превышают ли сигналы, индуцируемые в датчике касания посредством ввода с наведением курсора, предварительно определенное SNR, как описано выше. Дополнительно, в некоторых реализациях, как указано на этапе 714, вероятностное определение может использовать контекст GUI, отображенного на этапе 702, в качестве входных данных, как описано выше. Дополнительно, в некоторых примерах, вероятностное определение может включать в себя, на этапе 716, использование статистического распределения, содержащего набор местоположений касаний (например, в форме смещений) относительно возможного предполагаемого местоположения касания в качестве входных данных для вероятностного определения.
[0039] В некоторых реализациях способ 700 может содержать, на этапе 718, определение того, удовлетворяет ли результат, предоставленный посредством вероятностного определения, выполненного на этапе 710, пороговому условию, такому как минимальная вероятность. В других реализациях такое пороговое значение может не применяться.
[0040] Продолжая, если определяется, что вероятность, предоставленная посредством вероятностного определения, не превышает пороговое условие, способ 700 переходит к этапу 720, где ответ на сенсорный ввод отображается в обнаруженном местоположении. С другой стороны, если определяется, что вероятность, предоставленная посредством вероятностного определения, превышает пороговое условие, способ 700 необязательно переходит к этапу 722, где определяется, удовлетворяют ли какие-либо ранее активированные местоположения сенсорного ввода, которые в настоящее время активны, пороговому условию (например, пороговому расстоянию, пороговой вероятности и т.д.). Если не существуют ранее активированные местоположения сенсорного ввода, которые активны в настоящий момент, и которые удовлетворяют пороговому условию, тогда ответ на сенсорный ввод отображается в скорректированном местоположении, соответствующем результату вероятностного определения на этапе 718. С другой стороны, если существуют такие ранее активированные местоположения сенсорного ввода, тогда способ содержит, на этапе 725, отображение ответа на сенсорный ввод в скорректированном местоположении, соответствующем ранее активированному местоположению касания, как указано по ссылке 724.
[0041] Как упомянуто выше, в некоторых случаях вероятностное определение возможного предполагаемого местоположения касания может приводить в результате к корректировке, которая не соответствует фактическому намерению пользователя. В таких случаях пользователь может отменять корректировку. По существу, способ 700 содержит, на этапе 726, определение того, принимается ли отменяющий пользовательский ввод. Если отменяющий пользовательский ввод не принимается, статистическое распределение, используемое для вероятностного определения, может быть обновлено на этапе 728 на основе сенсорного ввода, принятого на этапе 704. Если, однако, отменяющий ввод был принят, тогда способ 700 переходит к этапу 730, где ответ на отменяющий ввод отображается в обнаруженном местоположении. Дополнительно, на этапе 732, ответ на последующий сенсорный ввод также может быть отображен в обнаруженном местоположении.
[0042] В некоторых вариантах осуществления способы и процессы, описанные в данном документе, могут быть привязаны к вычислительному устройству из одного или более вычислительных устройств. В частности, такие способы и процессы могут быть реализованы как компьютерная прикладная программа или служба, прикладной программный интерфейс (API), библиотека и/или другой компьютерный программный продукт.
[0043] Фиг. 8 схематично показывает неограничивающий вариант осуществления вычислительного устройства 800, которое может совершать один или более способов и процессов, описанных выше. Вычислительное устройство 800 показано в упрощенной форме. Вычислительное устройство 800 может принимать форму одного или более персональных компьютеров, серверных компьютеров, планшетных компьютеров, домашних развлекательных компьютеров, сетевых вычислительных устройств, игровых устройств, мобильных вычислительных устройств, устройств мобильной связи (например, смартфонов), и/или других вычислительных устройств, имеющих сенсорные экраны (например, приборы, такие как термостаты, сигнализаторы, кухонные приборы, автомобильные компьютеры, другие приборы с встроенными вычислительными устройствами, управляемыми с помощью сенсорного экрана, и т.д.).
[0044] Вычислительное устройство 800 включает в себя логическую подсистему 802 и подсистему 804 хранения данных. Вычислительное устройство 800 может необязательно включать в себя подсистему 806 отображения, подсистему 808 ввода, подсистему 810 связи и/или другие компоненты, непоказанные на фиг. 8.
[0045] Логическая подсистема 802 включает в себя одно или более физических устройств, сконфигурированных, чтобы выполнять инструкции. Например, логическая машина может быть сконфигурирована, чтобы выполнять инструкции, которые являются частью одного или более приложений, служб, программ, алгоритмов, библиотек, объектов, компонентов, структур данных или других логических конструкций. Такие инструкции могут быть реализованы, чтобы выполнять, задачу, реализовывать тип данных, изменять состояние одного или более компонентов, добиваться технического эффекта или иначе приходить к желаемому результату.
[0046] Логическая машина может включать в себя один или более процессоров, сконфигурированных, чтобы выполнять инструкции программного обеспечения. Дополнительно или альтернативно, логическая машина может включать в себя одну или более аппаратных или микропрограммных логических машин, выполненных с возможностью приводить в исполнение аппаратные или микропрограммные инструкции. Процессоры логической машины могут быть одноядерными или многоядерными, и инструкции, выполняемые в них, могут быть сконфигурированы для последовательной, параллельной и/или распределенной обработки. Отдельные компоненты логической машины необязательно могут быть распределены между двумя или более отдельных устройств, которые могут быть расположены удаленно и/или сконфигурированы с возможностью координированной обработки. Аспекты логической машины могут быть виртуализированы и выполнены посредством удаленно доступных, сетевых вычислительных устройств, сконфигурированных в конфигурацию облачного вычисления.
[0047] Подсистема 804 хранения данных включает в себя одно или более физических устройств, сконфигурированных, чтобы удерживать инструкции, исполняемые логической машиной, чтобы реализовывать способы и процессы, описанные в данном документе. Когда такие способы и процессы реализуются, состояние подсистемы 804 хранения данных может быть преобразовано - например, чтобы хранить различные данные.
[0048] Подсистема 804 хранения данных может включать в себя съемные и/или встроенные устройства. Подсистема 804 хранения данных может включать в себя оптическое запоминающее устройство (например, CD, DVD, HD-DVD, диск Blu-Ray и т.д.), полупроводниковое запоминающее устройство (например, RAM, EPROM, EEPROM и т.д.) и/или магнитное запоминающее устройство (например, накопитель на жестком диске, накопитель на гибком диске, ленточный накопитель, MRAM и т.д.), среди прочих. Подсистема 804 хранения данных может включать в себя энергозависимые, энергонезависимые, динамические, статические, для чтения/записи, только для чтения, со случайным доступом, с последовательным доступом, адресуемые по местоположению, адресуемые по файлу и/или адресуемые по контенту устройства.
[0049] Будет понятно, что подсистема 804 хранения данных включает в себя одно или более физических устройств. Однако, аспекты инструкций, описанные в данном документе, альтернативно могут распространяться посредством среды передачи данных (например, электромагнитного сигнала, оптического сигнала и т.д.), которая не удерживается посредством физического носителя в течение определенного срока действия.
[0050] Аспекты логической подсистемы 802 и подсистемы 804 хранения данных могут быть объединены вместе в один или более аппаратных логических компонентов. Такие аппаратные логические компоненты могут включать в себя программируемые пользователем вентильные матрицы (FPGA), программные и прикладные специализированные интегральные схемы (PASIC/ASIC), программные и прикладные специализированные стандартные продукты (PSSP/ASSP), систему на кристалле (SOC) и сложные программируемые логические устройства (CPLD), например.
[0051] Термины "способ" и "программа" могут быть использованы, чтобы описывать аспект вычислительного устройства 800, реализованный, чтобы выполнять конкретную функцию. В некоторых случаях, способ или программа может быть реализован посредством логической подсистемы 802, выполняющей инструкции, хранимые посредством подсистемы 804 хранения данных. Будет понятно, что различные способы и/или программы могут быть реализованы из одного и того же приложения, службы, блока кода, объекта, библиотеки, алгоритма, API, функции т.д. Аналогично, один и тот же способ и/или программа могут быть реализованы посредством различных приложений, служб, блоков кода, объектов, алгоритмов, API, функций и т.д. Термины "способ" и "программа" могут охватывать отдельные или группы исполняемых файлов, файлов данных, библиотек, драйверов, сценариев, записей базы данных и т.д.
[0052] Будет понятно, что "служба", когда используется в данном документе, является прикладной программой, выполняемой в течение множества пользовательских сеансов. Служба может быть доступна одному или более компонентам системы, программам и/или другим службам. В некоторых реализациях служба может работать на одном или более серверных вычислительных устройствах.
[0053] Подсистема 806 отображения может использоваться, чтобы представлять визуальное представление данных, хранимых посредством подсистемы 804 хранения данных. Это визуальное представление может принимать форму GUI. Когда описанные в данном документе способы и процессы изменяют данные, хранимые машиной хранения данных, и, таким образом, преобразуют состояние машины хранения данных, состояние подсистемы 806 отображения может аналогично преобразовываться, чтобы визуально представлять изменения в лежащих в основе данных. Подсистема 806 отображения может включать в себя одно или более устройств отображения, использующих фактически любой тип технологии. Такие устройства отображения могут быть объединены с логической подсистемой 802 и/или подсистемой 804 хранения данных в совместно используемой оболочке, или такие устройства отображения могут быть периферийными устройствами отображения.
[0054] Подсистема 808 ввода может содержать или взаимодействовать с одним или более устройствами пользовательского ввода, такими как сенсорный экран дисплея, клавиатура, мышь или игровой контроллер. В некоторых вариантах осуществления подсистема ввода может содержать или взаимодействовать с выбранными компонентами естественного пользовательского ввода (NUI). Такие компоненты могут быть интегрированными или периферийными, и преобразование и/или обработка действий ввода может управляться встроенным или внешним образом. Например, NUI-компоненты могут включать в себя микрофон для распознавания речи и/или голоса; инфракрасную, цветную, стереоскопическую и/или глубинную камеру для машинного зрения и/или распознавания жестов; устройство отслеживания головы, устройство отслеживания глаз, акселерометр и/или гироскоп для обнаружения движения и/или распознавания намерения; также как и компоненты, чувствительные к электрическому полю, для оценки активности мозга.
[0055] Когда включена, подсистема 810 связи может быть сконфигурирована, чтобы соединять с возможностью связи вычислительное устройство 800 с одним или более другими вычислительными устройствами. Подсистема 810 связи может включать в себя проводные и/или беспроводные устройства связи, совместимые с одним или более различными протоколами связи. В качестве неограничивающих примеров, подсистема связи может быть сконфигурирована для связи через беспроводную телефонную сеть или проводную или беспроводную локальную или глобальную вычислительную сеть. В некоторых вариантах осуществления подсистема связи может предоставлять возможность вычислительному устройству 800 отправлять и/или принимать сообщения к и/или от других устройств по сети, такой как Интернет.
[0056] Будет понятно, что конфигурации и/или подходы, описанные в данном документе, представлены для примера, и что эти конкретные варианты осуществления или примеры не должны рассматриваться в ограничивающем смысле, поскольку возможны многочисленные вариации. Конкретные процедуры или способы, описанные в данном документе, могут представлять одну или более из любого числа стратегий обработки. По существу, различные иллюстрированные и/или описанные действия могут быть выполнены в иллюстрированной и/или описанной последовательности, в других последовательностях, параллельно или исключены. Аналогично, порядок вышеописанных процессов может быть изменен.
[0057] Предмет изучения настоящего открытия включает в себя все новые и неявные комбинации и вспомогательные комбинации различных процессов, систем и конфигураций, и другие признаки, функции, действия и/или свойства, раскрытые в данном документе, а также любые или все их эквиваленты.

Claims (24)

1. Чувствительное к касаниям вычислительное устройство, содержащее:
дисплей;
датчик касания;
логическую подсистему; и
подсистему хранения данных, хранящую инструкции, исполняемые логической подсистемой, чтобы:
отображать графический пользовательский интерфейс на дисплее чувствительного к касаниям вычислительного устройства,
принимать сенсорный ввод через датчик касания чувствительного к касаниям вычислительного устройства в обнаруженном местоположении,
выполнять вероятностное определение предполагаемого местоположения касания на основе сенсорного ввода, и
отображать ответ на сенсорный ввод в скорректированном месте на графическом пользовательском интерфейсе, которое корректируется относительно обнаруженного местоположения на основе вероятностного определения;
при этом инструкции дополнительно исполняются, чтобы:
после отображения ответа в скорректированном местоположении принимать отменяющий ввод через датчик касания,
в ответ на отменяющий ввод отображать ответ на сенсорный ввод в обнаруженном местоположении, и
отображать ответ на последующий сенсорный ввод, принимаемый через датчик касания, в обнаруженном местоположении последующего сенсорного ввода.
2. Чувствительное к касаниям вычислительное устройство по п. 1, в котором отображение ответа включает в себя отображение ответа в скорректированном местоположении, если вероятность, предоставленная посредством вероятностного определения, удовлетворяет пороговому условию, и отображение ответа в обнаруженном местоположении, если вероятность не удовлетворяет пороговому условию.
3. Чувствительное к касаниям вычислительное устройство по п. 2, в котором пороговое условие основывается на расстоянии между обнаруженным местоположением и предполагаемым местоположением касания.
4. Чувствительное к касаниям вычислительное устройство по п. 1, в котором инструкции дополнительно являются исполняемыми, чтобы обнаруживать приближение объекта к датчику касания, и
выполнять множество вероятностных определений предполагаемых местоположений касания объекта с частотой дискретизации, когда объект приближается к датчику касания.
5. Чувствительное к касаниям вычислительное устройство по п. 1, в котором вероятностное определение дополнительно основывается на контексте графического пользовательского интерфейса, причем контекст содержит информацию, относящуюся к одной или более клавишам на виртуальной клавиатуре, отображенной на графическом пользовательском интерфейсе.
6. Чувствительное к касаниям вычислительное устройство по п. 1, в котором выполнение вероятностного определения включает в себя:
определение расстояния между обнаруженным местоположением и одним или более возможными предполагаемыми местоположениями касания, и
выбор предполагаемого местоположения касания из одного или более возможных предполагаемых местоположений касания, используя статистическое распределение расстояний в качестве входных данных для вероятностного определения.
7. Чувствительное к касаниям вычислительное устройство по п. 6, в котором инструкции являются дополнительно исполняемыми, чтобы обновлять статистическое распределение на основе сенсорных вводов, принимаемых через датчик касания.
8. Чувствительное к касаниям вычислительное устройство по п. 6, в котором инструкции являются исполняемыми, чтобы использовать различное статистическое распределение в зависимости от местоположения, в котором сенсорный ввод был принят.
9. Чувствительное к касаниям вычислительное устройство по п. 1, в котором предполагаемое местоположение касания соответствует ранее активированному местоположению касания, которое в настоящий момент находится в активном состоянии.
RU2016151206A 2014-06-27 2015-06-24 Вероятностное обнаружение касания RU2683171C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/318,248 US10025427B2 (en) 2014-06-27 2014-06-27 Probabilistic touch sensing
US14/318,248 2014-06-27
PCT/US2015/037308 WO2015200412A1 (en) 2014-06-27 2015-06-24 Probabilistic touch sensing

Publications (3)

Publication Number Publication Date
RU2016151206A RU2016151206A (ru) 2018-06-26
RU2016151206A3 RU2016151206A3 (ru) 2019-01-28
RU2683171C2 true RU2683171C2 (ru) 2019-03-26

Family

ID=53794470

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016151206A RU2683171C2 (ru) 2014-06-27 2015-06-24 Вероятностное обнаружение касания

Country Status (10)

Country Link
US (1) US10025427B2 (ru)
EP (1) EP3161605A1 (ru)
JP (1) JP6500041B2 (ru)
KR (1) KR102390783B1 (ru)
CN (1) CN106662974B (ru)
AU (1) AU2015280103B2 (ru)
CA (1) CA2949130A1 (ru)
MX (1) MX361297B (ru)
RU (1) RU2683171C2 (ru)
WO (1) WO2015200412A1 (ru)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI592845B (zh) * 2015-08-28 2017-07-21 晨星半導體股份有限公司 適應性調整觸控閥值的方法與相關控制器
US9927917B2 (en) * 2015-10-29 2018-03-27 Microsoft Technology Licensing, Llc Model-based touch event location adjustment
US20180329492A1 (en) * 2017-05-09 2018-11-15 Microsoft Technology Licensing, Llc Parallax correction for touch-screen display
CN110110264A (zh) * 2018-01-10 2019-08-09 华为技术有限公司 触摸热区的调节方法、装置、设备和触摸屏终端设备
US10616528B2 (en) * 2018-05-30 2020-04-07 Microsoft Technology Licensing, Llc Graphical display supporting multi-location camera
KR102657878B1 (ko) * 2019-08-06 2024-04-17 삼성전자주식회사 전자 장치 및 그 장치에서 수행하는 디스플레이 방법
NL2024026B1 (en) * 2019-10-16 2021-06-17 Microsoft Technology Licensing Llc Keyboard for touch-sensitive display device
CN111552429B (zh) * 2020-04-29 2021-07-23 杭州海康威视数字技术股份有限公司 一种图形选中方法、装置及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761689A (en) * 1994-09-01 1998-06-02 Microsoft Corporation Autocorrecting text typed into a word processing document
US6040824A (en) * 1996-07-31 2000-03-21 Aisin Aw Co., Ltd. Information display system with touch panel
RU2338238C2 (ru) * 2005-05-30 2008-11-10 Самсунг Электроникс Ко., Лтд. Способ и система ввода информации
US20110238612A1 (en) * 2010-03-26 2011-09-29 Microsoft Corporation Multi-factor probabilistic model for evaluating user input
US20120169646A1 (en) * 2010-12-29 2012-07-05 Microsoft Corporation Touch event anticipation in a computing device
RU2501068C2 (ru) * 2008-03-11 2013-12-10 Майкрософт Корпорейшн Интерпретация неоднозначных вводов на сенсорном экране
RU2012145555A (ru) * 2010-03-26 2014-05-10 Тенсент Текнолоджи (Шэньчжэнь) Компани Лимитед Способ и устройство для оценки нажатия клавиши на сенсорном экране

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6727896B2 (en) 2001-08-01 2004-04-27 Microsoft Corporation Correction of alignment and linearity errors in a stylus input system
US8004503B2 (en) 2006-02-21 2011-08-23 Microsoft Corporation Auto-calibration of a touch screen
US7843427B2 (en) * 2006-09-06 2010-11-30 Apple Inc. Methods for determining a cursor position from a finger contact with a touch screen display
US20080094376A1 (en) 2006-10-23 2008-04-24 Dietz Paul H Stylus calibration system and method
US20080100586A1 (en) 2006-10-26 2008-05-01 Deere & Company Method and system for calibrating a touch screen
TWI450137B (zh) 2006-12-11 2014-08-21 Elo Touch Solutions Inc 用於校準觸控螢幕上之目標之方法及設備
JP4803089B2 (ja) * 2007-03-28 2011-10-26 Kddi株式会社 タッチパネルによる入力装置およびその方法
US20090213083A1 (en) * 2008-02-26 2009-08-27 Apple Inc. Simulation of multi-point gestures with a single pointing device
KR101219733B1 (ko) * 2008-12-04 2013-01-08 한국전자통신연구원 직물형 터치패드 및 이를 이용한 접촉 감지방법
US8619043B2 (en) 2009-02-27 2013-12-31 Blackberry Limited System and method of calibration of a touch screen display
GB201108200D0 (en) * 2011-05-16 2011-06-29 Touchtype Ltd User input prediction
US8300023B2 (en) * 2009-04-10 2012-10-30 Qualcomm Incorporated Virtual keypad generator with learning capabilities
KR101157592B1 (ko) * 2009-08-25 2012-06-18 주식회사 애트랩 입력 장치 및 입력 장치의 접촉 위치 검출 방법
US20110084922A1 (en) * 2009-10-14 2011-04-14 Research In Motion Limited Electronic device including touch-sensitive display and method of controlling same
CN101719022A (zh) * 2010-01-05 2010-06-02 汉王科技股份有限公司 用于全功能键盘的字符输入方法及其处理装置
US20110221684A1 (en) * 2010-03-11 2011-09-15 Sony Ericsson Mobile Communications Ab Touch-sensitive input device, mobile device and method for operating a touch-sensitive input device
KR20130010252A (ko) * 2011-07-18 2013-01-28 고려대학교 산학협력단 가상 키보드 크기 조절 장치 및 방법
US9262076B2 (en) * 2011-09-12 2016-02-16 Microsoft Technology Licensing, Llc Soft keyboard interface
US20130154957A1 (en) 2011-12-20 2013-06-20 Lenovo (Singapore) Pte. Ltd. Snap to center user interface navigation
JP2014006883A (ja) * 2012-05-31 2014-01-16 Canon Inc 電子機器及び情報処理装置及びその制御方法
EP2696605A1 (en) * 2012-08-09 2014-02-12 Ntt Docomo, Inc. Apparatus and method for energy efficient location sensing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761689A (en) * 1994-09-01 1998-06-02 Microsoft Corporation Autocorrecting text typed into a word processing document
US6040824A (en) * 1996-07-31 2000-03-21 Aisin Aw Co., Ltd. Information display system with touch panel
RU2338238C2 (ru) * 2005-05-30 2008-11-10 Самсунг Электроникс Ко., Лтд. Способ и система ввода информации
RU2501068C2 (ru) * 2008-03-11 2013-12-10 Майкрософт Корпорейшн Интерпретация неоднозначных вводов на сенсорном экране
US20110238612A1 (en) * 2010-03-26 2011-09-29 Microsoft Corporation Multi-factor probabilistic model for evaluating user input
RU2012145555A (ru) * 2010-03-26 2014-05-10 Тенсент Текнолоджи (Шэньчжэнь) Компани Лимитед Способ и устройство для оценки нажатия клавиши на сенсорном экране
US20120169646A1 (en) * 2010-12-29 2012-07-05 Microsoft Corporation Touch event anticipation in a computing device

Also Published As

Publication number Publication date
RU2016151206A (ru) 2018-06-26
WO2015200412A1 (en) 2015-12-30
KR102390783B1 (ko) 2022-04-25
MX361297B (es) 2018-12-03
EP3161605A1 (en) 2017-05-03
JP2017519295A (ja) 2017-07-13
CN106662974B (zh) 2020-08-11
KR20170024063A (ko) 2017-03-06
AU2015280103B2 (en) 2020-05-28
MX2016016623A (es) 2017-04-27
CN106662974A (zh) 2017-05-10
US20150378510A1 (en) 2015-12-31
CA2949130A1 (en) 2015-12-30
RU2016151206A3 (ru) 2019-01-28
AU2015280103A1 (en) 2016-11-17
JP6500041B2 (ja) 2019-04-10
US10025427B2 (en) 2018-07-17

Similar Documents

Publication Publication Date Title
RU2683171C2 (ru) Вероятностное обнаружение касания
US9189095B2 (en) Calibrating eye tracking system by touch input
US20160378251A1 (en) Selective pointer offset for touch-sensitive display device
US9262012B2 (en) Hover angle
US9495098B2 (en) Detecting input based on multiple gestures
EP3070582B1 (en) Apparatus, method, and program product for setting a cursor position
US20180239440A1 (en) Information processing apparatus, information processing method, and program
JP2015230693A (ja) 情報処理装置、入力方法、コンピュータプログラム、及び記録媒体
US11054943B1 (en) Touch restriction region for touch-sensitive display
EP2230589A1 (en) Touch screen display device
EP2891968B1 (en) Soft keyboard with keypress markers
US20240126385A1 (en) Touch-sensitive input device
KR102198867B1 (ko) 사용자 입력 방법 및 이를 수행하기 위한 사용자 인터페이스 장치
US20240149146A1 (en) Infinite drag and swipe u turn
WO2021126412A1 (en) Mapping user inputs in two directions to a single direction for one-handed device interactions with graphical sliders
US10275146B2 (en) Virtual navigation apparatus, navigation method, and non-transitory computer readable medium thereof
CN118056175A (zh) 触控笔触觉组件
Weaver et al. Techniques for Disambiguation of Uncertain User Input

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20200625