RU2649945C2 - Способ улучшения распознавания касаний и электронное устройство для его осуществления - Google Patents

Способ улучшения распознавания касаний и электронное устройство для его осуществления Download PDF

Info

Publication number
RU2649945C2
RU2649945C2 RU2014151736A RU2014151736A RU2649945C2 RU 2649945 C2 RU2649945 C2 RU 2649945C2 RU 2014151736 A RU2014151736 A RU 2014151736A RU 2014151736 A RU2014151736 A RU 2014151736A RU 2649945 C2 RU2649945 C2 RU 2649945C2
Authority
RU
Russia
Prior art keywords
touch
electronic device
detected
touch input
distance
Prior art date
Application number
RU2014151736A
Other languages
English (en)
Other versions
RU2014151736A (ru
Inventor
Санг-Хеон КИМ
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Publication of RU2014151736A publication Critical patent/RU2014151736A/ru
Application granted granted Critical
Publication of RU2649945C2 publication Critical patent/RU2649945C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Изобретение относится к устройствам распознавания касания. Технический результат заключается в повышении точности распознавания информации касания. Способ включает в себя этапы, на которых, когда обнаружено касание, определяют режим ввода касанием для касания, определяют контрольное расстояние с учетом режима ввода касанием и определяют тип события, соответствующий касанию, путем сравнения расстояния изменения точки касания, относящейся к касанию, с контрольным расстоянием. 2 н. и 22 з.п. ф-лы, 7 ил.

Description

ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕ
Настоящее изобретение относится, в общем, к электронному устройству, имеющему сенсорный экран. Более конкретно, настоящее изобретение относится к аппаратуре и способу для распознавания касания в электронном устройстве, имеющем сенсорный экран.
ПРЕДПОСЫЛКИ ИЗОБРЕТЕНИЯ
По мере того, как увеличивается использование мультимедийных сервисов с использованием электронного устройства, увеличивается объем информации, которая должна обрабатываться портативным электронным устройством, и объем информации, которая должна отображаться. В результате, есть нарастающий интерес в электронном устройстве, имеющем сенсорный экран, в котором его пространство используется более эффективно и размер его дисплейного блока можно увеличить вследствие, отчасти, повышенной его эффективности.
Сенсорный экран представляет собой устройство ввода/вывода для выполнения ввода и отображения информации на сенсорном экране. Следовательно, когда электронное устройство включает в себя сенсорный экран для ввода, а также для вывода, отдельное устройство ввода, такое как физическая клавишная панель, не требуется в портативном электронном устройстве, что, в свою очередь, позволяет увеличить его область отображения.
Однако, поскольку электронное устройство, имеющее сенсорный экран, не включает в себя отдельное устройство ввода, такое как клавишная панель, работа такого электронного устройства отличается от работы электронных устройств, имеющих отдельное устройство ввода. Соответственно, для электронного устройства, имеющего сенсорный экран, требуется отдельный пользовательский интерфейс для сенсорного экрана, поскольку сенсорный экран работает как на ввод, так и на вывод.
РАСКРЫТИЕ ИЗОБРЕТЕНИЯ
РЕШЕНИЕ ЗАДАЧИ
Настоящее изобретение направлено на устранение, по меньшей мере, некоторых из вышеуказанных проблем и/или недостатков известных электронных устройств посредством предоставления аппаратуры и способа для распознавания информации ввода касанием в электронном устройстве, имеющем сенсорный экран.
Настоящим изобретением могут быть предложены аппаратура и способ для задания контрольного расстояния в электронном устройстве, имеющем сенсорный экран, для распознавания касания, в целях снижения ошибки распознавания информации касания.
Настоящим изобретением могут быть предложены аппаратура и способ для адаптивного определения контрольного расстояния в электронном устройстве, имеющем сенсорный экран, для распознавания касания, в целях снижения ошибки распознавания информации касания.
Настоящим изобретением могут быть предложены аппаратура и способ для адаптивного определения режима контрольного расстояния в электронном устройстве, имеющем сенсорный экран, для распознавания касания в соответствии с вводом касанием.
Настоящим изобретением могут быть предложены аппаратура и способ для распознавания касания нажатием в электронном устройстве, имеющем сенсорный экран, с учетом контрольного расстояния для распознавания касания.
Настоящим изобретением могут быть предложены аппаратура и способ для адаптивного определения контрольного расстояния в электронном устройстве, имеющем сенсорный экран, для распознавания касания нажатием.
Настоящим изобретением могут быть предложены аппаратура и способ для адаптивного определения контрольного расстояния в электронном устройстве, имеющем сенсорный экран, для распознавания касания нажатием в соответствии с характеристикой прикладной программы.
Настоящим изобретением могут быть предложены аппаратура и способ для адаптивного определения контрольного расстояния в электронном устройстве, имеющем сенсорный экран, для распознавания касания нажатием в соответствии с характеристикой пользовательского интерфейса.
Настоящим изобретением могут быть предложены аппаратура и способ для адаптивного определения контрольного расстояния в электронном устройстве, имеющем сенсорный экран, для распознавания касания нажатием в соответствии с характеристикой точки касания.
Настоящим изобретением могут быть предложены аппаратура и способ для распознавания касания нажатием в электронном устройстве, имеющем сенсорный экран, путем использования контрольного расстояния для распознавания касания нажатием в момент времени, когда касание прекращается.
Согласно первому иллюстративному аспекту настоящего изобретения, способ распознавания информации касания в электронном устройстве предпочтительно включает в себя этапы, на которых: когда касание обнаружено, определяют режим ввода касанием для этого касания; определяют контрольное расстояние с учетом режима ввода касанием; и определяют тип события, соответствующий данному касанию, путем сравнения расстояния изменения точки касания, связанной с упомянутым касанием, с контрольным расстоянием.
Согласно второму иллюстративному аспекту настоящего изобретения, электронное устройство предпочтительно включает в себя: сенсорный экран; и блок обработки касания для определения контрольного расстояния с учетом режима ввода касанием для касания, когда касание обнаруживается на сенсорном экране, и определения типа события, соответствующего обнаруженному касанию, путем сравнения расстояния изменения точки касания, в которой обнаружено упомянутое касание, с контрольным расстоянием.
ПЕРЕЧЕНЬ ФИГУР ЧЕРТЕЖЕЙ
Вышеописанные признаки и прочие характеристики и преимущества настоящего изобретения станут более понятны для специалиста из нижеследующего подробного описания, при его рассмотрении в сочетании с сопровождающими чертежами, на которых:
Фиг. 1 - схема, показывающая один пример блочной конфигурации электронного устройства согласно иллюстративному варианту осуществления настоящего изобретения;
Фиг. 2 - схема, показывающая один пример детальной блочной конфигурации процессора согласно иллюстративному варианту осуществления настоящего изобретения;
Фиг. 3 - схема, показывающая иллюстративное функционирование процесса распознавания касания нажатием в электронном устройстве согласно иллюстративному варианту осуществления настоящего изобретения;
Фиг. 4 - схема, показывающая иллюстративное функционирование процесса для распознавания касания нажатием в соответствии с характеристикой прикладной программы в электронном устройстве согласно иллюстративному варианту осуществления настоящего изобретения;
Фиг. 5 - схема, показывающая иллюстративное функционирование процесса для распознавания касания нажатием в соответствии с характеристикой пользовательского интерфейса в электронном устройстве согласно иллюстративному варианту осуществления настоящего изобретения;
Фиг. 6 - схема, показывающая иллюстративное функционирование процесса для распознавания касания нажатием в соответствии с характеристикой точки касания в электронном устройстве согласно иллюстративному варианту осуществления настоящего изобретения;
Фиг. 7 - схема, показывающая иллюстративное функционирование процесса распознавания касания нажатием в электронном устройстве согласно другому иллюстративному варианту осуществления настоящего изобретения.
НАИЛУЧШИЙ РЕЖИМ ДЛЯ ОСУЩЕСТВЛЕНИЯ ИЗОБРЕТЕНИЯ
Иллюстративные варианты осуществления настоящего изобретения будут описаны здесь ниже со ссылкой на сопровождающие чертежи. В нижеследующем описании изобретения, подробные описания широко известных функций или конфигураций могут быть опущены, когда их включение привело бы к ненужному затруднению понимания специалистом существенных аспектов настоящего изобретения. Кроме того, используемые здесь термины определяются согласно функциям настоящего изобретения. Таким образом, термины могут варьироваться в зависимости от намерений или практического опыта пользователей или операторов. Следовательно, используемые здесь термины должны пониматься так, как они бы понимались специалистом на основе приведенных здесь описаний.
Настоящим изобретением обеспечивается технология для распознавания информации касания в электронном устройстве, имеющем сенсорный экран.
В нижеследующем описании примеры электронного устройства могут включать в себя, но не в ограничительном смысле, портативное электронное устройство, имеющее сенсорный экран, портативный терминал, терминал мобильной связи, персональное цифровое информационное устройство (PDA), компьютер-лэптоп, смартфон, нетбук, телевизор, мобильное устройство с возможностью работы в Интернете (MID), ультрамобильный персональный компьютер (UMPC), планшетный ПК, настольный компьютер, интеллектуальный телевизор, цифровую камеру, наручные часы, навигационное устройство, MP3-плеер и т.п., при этом были перечислены лишь некоторые неограничивающие варианты. Кроме того, электронное устройство может включать в себя любое устройство беспроводной связи, имеющее сочетание функций двух или более устройств из числа примеров вышеописанных устройств.
Настоящим изобретением может также обеспечиваться технология для идентификации типа события, соответствующего информации касания, обнаруженной посредством сенсорного экрана в электронном устройстве. В частности, в нижеследующем описании технология для идентификации касания нажатием и перетаскивания в соответствии с информацией касания, обнаруженной посредством сенсорного экрана в электронном устройстве, описывается в качестве одного неограничивающего примера. Пользователь выполняет операцию приложения касания и операцию снятия касания по отношению к конкретной точке на сенсорном экране для ввода посредством касания нажатием. Однако, датчик касания электронного устройства может обнаружить перемещения касания в количестве "n" между приложением касания и снятием касания. Следовательно, электронное устройство может идентифицировать перетаскивание, соответствующее касанию нажатием и перемещению касания, путем игнорирования перемещения касания, выполняемого в пределах контрольного расстояния от координат касания, к которым приложено касание, из числа перемещений касания, выполняемых между приложением касания и снятием касания. Например, касание нажатием представляет собой ряд операций, выполняемых пользователем для приложения касания и затем снятия касания в отношении конкретной точки на сенсорном экране, в качестве клика по этой конкретной точке. Снятие касания - это операция прекращения касания, обнаруженного в качестве приложения касания на сенсорном экране.
На Фиг. 1 показана иллюстративная работа блочной конфигурации электронного устройства согласно иллюстративному варианту осуществления настоящего изобретения.
В соответствии с примером по Фиг. 1, электронное устройство 100 может включать в себя память 110, блок 120 обработки данных, блок 130 обработки звука, блок 140 управления вводом/выводом, сенсорный экран 150 и устройство 160 ввода. В данном случае, память 110 может быть предусмотрена в виде совокупности различных типов устройств хранения данных.
СООТВЕТСТВУЮЩИЕ КОМПОНЕНТЫ ОПИСЫВАЮТСЯ ЗДЕСЬ НИЖЕ.
Память 110 содержит один или более невременных машиночитаемых носителей, которые могут включать хранение машиноисполняемого кода в блоке 111 хранения программ для хранения программы для управления работой электронного устройства 100 и блок 112 хранения данных для хранения данных, сгенерированных во время исполнения программы аппаратными средствами, таким как процессор или микропроцессор.
Блок 111 хранения программ предпочтительно включает в себя программу 113 графического пользовательского интерфейса (GUI), программу 114 обнаружения касания, программу 115 обработки касания и по меньшей мере одну прикладную программу 116. В рассматриваемом случае программы, хранящиеся в блоке 111 хранения программ, могут быть выражены в виде набора инструкций, который содержит набор инструкций, которые загружаются в процессор, микропроцессор или контроллер для исполнения.
Программа 113 GUI включает в себя по меньшей мере один компонент программного обеспечения (машиноисполняемый код), который загружается в аппаратные средства и исполняется для предоставления графического пользовательского интерфейса на дисплейном блоке 152. Например, программа 113 GUI включает в себя инструкцию для отображения информации о прикладных программах, исполняемых процессором 122, на дисплейном блоке 152.
Программа 114 обнаружения касания может включать в себя по меньшей мере один компонент программного обеспечения (машиноисполняемый код), который загружается в аппаратные средства и исполняется для преобразования информации касания, обнаруженной через блок 151 сенсорного ввода, в форму инструкции. Например, программа 114 обнаружения касания может преобразовывать информацию касания, обнаруженную посредством блока 151 сенсорного ввода, в форму такой инструкции, как приложение касания, перемещение касания или снятие касания.
Продолжая ссылаться на Фиг. 1, программа 115 обработки касания включает в себя по меньшей мере один компонент программного обеспечения (машиноисполняемый код), который загружается в аппаратные средства и исполняется для идентификации касания нажатием и перетаскивания в соответствии с инструкцией касания, определенной программой 114 обнаружения касания. Например, программа 115 обработки касания может идентифицировать касание нажатием и перетаскивание путем сравнения расстояния изменения координат касания в соответствии с перемещением касания, обнаруженным между приложением касания и снятием касания, с контрольным расстоянием. В этом случае, например, программа 115 обработки касания может адаптивно определять контрольное расстояние в соответствии с режимом ввода касанием.
В другом примере, программа 115 обработки касания может определять, использовать или нет контрольное расстояние для идентификации касания нажатием и перетаскивания, с учетом по меньшей мере одной из характеристики прикладной программы, которая исполняется в электронном устройстве 100, характеристики пользовательского интерфейса, отображаемого на дисплейном блоке 152, и характеристики точки касания. В данном случае, контрольное расстояние может фиксированным образом задаваться в соответственных электронных устройствах или может быть определено с учетом размера и разрешения дисплейного блока в электронном устройстве.
Прикладная программа 116 включает в себя компонент программного обеспечения (машиноисполняемый код), который загружается в аппаратные средства и исполняется для по меньшей мере одной прикладной программы, инсталлированной в электронном устройстве 100.
Блок 120 обработки данных, который содержит аппаратные средства, исполняющие машиноисполняемый код, который конфигурирует процессор для работы, может включать в себя интерфейс 121 памяти, по меньшей мере один процессор 122 и периферийный интерфейс 123. В рассматриваемом случае, интерфейс 121 памяти, по меньшей мере один процессор 122 и периферийный интерфейс 123, которые включены в состав блока 120 обработки данных, могут быть интегрированы в по меньшей мере одну интегральную схему, либо могут быть реализованы как отдельные компоненты.
Интерфейс 121 памяти исполняет код для управления доступом к памяти 110 со стороны компонентов, таких как процессор 122 и периферийный интерфейс 123.
Периферийный интерфейс 123 управляет подсоединением периферийного устройства ввода/вывода электронного устройства 100 к процессору 122 и интерфейсу 121 памяти.
Процессор 122, который содержит аппаратные средства, такие как, например, микропроцессор или процессор, обеспечивает электронному устройству 100 возможность предоставлять различные мультимедийные сервисы путем исполнения по меньшей мере одной загружаемой в него программы программного обеспечения. В этом случае процессор 122 может исполнять по меньшей мере одну программу, сохраненную в памяти 110, и обеспечивать предоставление одной или более функций, соответствующих исполнению данной программы, или управление ими.
Блок 130 обработки звука содержит кодек и предоставляет аудиоинтерфейс между пользователем и электронным устройством 100 посредством, например, громкоговорителя 131 и микрофона 132.
Блок 140 управления вводом/выводом содержит аппаратные средства и предоставляет интерфейс между устройствами ввода/вывода, такими как сенсорный экран 150 и устройство 160 ввода, и периферийным интерфейсом 123.
Сенсорный экран 150 представляет собой устройство ввода/вывода для выполнения ввода и вывода информации и включает в себя блок 151 сенсорного ввода и дисплейный блок 152 для, соответственно, ввода и вывода. Сенсорный экран может содержать, например, структуру на основе тонкопленочной технологии (TFT).
Блок 151 сенсорного ввода подает информацию касания, обнаруженную посредством сенсорной панели, в блок 120 обработки данных через блок 140 управления вводом/выводом. Блок сенсорного ввода может содержать, например, виртуальную клавиатуру.
Дисплейный блок 152 выводит отображение информации о состоянии электронного устройства 100, а также символы, вводимые пользователем, движущиеся изображения, неподвижные изображения и т.п.
Устройство 160 ввода подает входные данные, сгенерированные посредством выполненного пользователем выбора, в блок 120 обработки данных через блок 140 управления вводом/выводом. Например, устройство 160 ввода включает в себя только управляющие кнопки для управления электронным устройством 100. Управляющие кнопки могут содержать функциональные клавиши. В другом примере устройство 160 ввода может включать в себя клавишную панель для приема входных данных от пользователя.
Хотя это и не показано на чертежах, электронное устройство 100 может дополнительно включать в себя систему связи для выполнения по меньшей мере одного из речевой связи и функции обмена данными. В этом случае, система связи может быть разделена на множество коммуникационных подмодулей, которые поддерживают разные сети связи. Например, сети связи могут включать в себя, но не в ограничительном смысле, сеть GSM (стандарт Глобальной системы мобильной связи), сеть EDGE (развитие стандарта GSM с увеличенной скоростью передачи данных), сеть множественного доступа с кодовым разделением каналов (CDMA), широкополосную сеть множественного доступа с кодовым разделением каналов (W-CDMA), сеть LTE (стандарт Долгосрочного развития), сеть множественного доступа с ортогональным частотным разделением каналов (OFDMA), беспроводную локальную сеть (LAN), сеть Bluetooth, сеть связи ближнего поля (NFC) и т.п.
На Фиг. 2 показана детальная блочная конфигурация процессора 122 согласно иллюстративному варианту осуществления настоящего изобретения.
Как проиллюстрировано на Фиг. 2, процессор 122 может включать в себя блок 200 обнаружения касания, блок 210 исполнения прикладных программ и блок 220 управления графикой. Специалисту должно быть понятно, что при самой допустимо широкой интерпретации элементы по Фиг. 2 составляют охраняемый предмет изобретения и могут совместно использовать аппаратные средства, такие как интегральные схемы для работы и/или процессоры, вспомогательные процессоры.
Продолжая ссылаться на Фиг. 2, блок 200 обнаружения касания включает в себя аппаратные средства для генерирования инструкции, соответствующей информации касания, обнаруженной посредством блока 151 сенсорного ввода, путем исполнения программы 114 обнаружения касания, хранящейся в блоке 111 хранения программ, и передает эту инструкцию в блок 210 исполнения прикладных программ. Например, блок 200 обнаружения касания может генерировать инструкцию, такую как приложение касания, перемещение касания или снятие касания, в соответствии с информацией касания, обнаруженной посредством блока 151 сенсорного ввода, и передавать эту инструкцию в блок 210 исполнения прикладных программ.
Кроме того, в одном примере, блок 200 обнаружения касания передает информацию режима ввода касанием для информации касания в блок 210 исполнения прикладных программ. В качестве примера, блок 200 обнаружения касания может передавать информацию режима ввода касанием в блок 210 исполнения прикладных программ в форме инструкции для информации касания. В другом примере, блок 200 обнаружения касания может передавать информацию режима ввода касанием в блок 210 исполнения прикладных программ посредством использования отдельного управляющего сигнала. В еще одном примере, блок 200 обнаружения касания может передавать информацию режима ввода касанием в блок 210 исполнения прикладных программ посредством использования идентификаторов режима ввода касанием. В этом случае, блок 200 обнаружения касания может идентифицировать режим ввода касанием с учетом типа модуля ввода, который обнаруживает информацию касания в блоке 151 сенсорного ввода. Более конкретно, блок 151 сенсорного ввода может включать в себя различные модули ввода для соответственных режимов ввода касанием. Следовательно, блок 200 обнаружения касания может идентифицировать режим ввода касанием с учетом типа модуля ввода, который обнаруживает информацию касания. В данном случае информация режима ввода касанием представляет собой режим ввода информации касания через блок 151 сенсорного ввода, такой как касание рукой или касание пером. Следует также понимать, что по всей заявке термин "касание" включает бесконтактное взаимодействие, которое происходит в пределах заранее определенного расстояния от сенсорного экрана, с тем чтобы датчики могли его зафиксировать.
Блок 210 исполнения прикладных программ включает в себя аппаратные средства для исполнения любой одной из одной или более прикладных программ 116, хранящихся в блоке 111 хранения программ, для предоставления сервиса, соответствующего этой прикладной программе. В этом случае, блок 210 исполнения прикладных программ может исполнять прикладную программу согласно касанию нажатием или операции перетаскивания, определенным блоком 212 обработки касания.
Блок 212 обработки касания распознает касание нажатием и перетаскивание с учетом инструкции, принятой из блока 200 обнаружения касания. Например, блок 212 обработки касания может определять, осуществлено ли перемещение касания между приложением касания и снятием касания, обнаруженным блоком 200 обнаружения касания, путем исполнения программы 115 обработки касания, хранящейся в блоке 111 хранения программ. Если перемещение касания осуществлено между приложением касания и снятием касания, блок 212 обработки касания может идентифицировать касание нажатием и перетаскивание путем сравнения расстояния изменения координат касания, соответствующего перемещению касания, с контрольным расстоянием. В этом случае блок 212 обработки касания может адаптивно определять контрольное расстояние в соответствии с режимом ввода касанием. Здесь, режим ввода касанием включает в себя режим ввода касанием рукой и режим ввода касанием пером. В другом примере, блок 212 обработки касания может по выбору использовать контрольное расстояние для идентификации касания нажатием и перетаскивания с учетом по меньшей мере одной из характеристики прикладной программы, которая исполняется блоком 210 исполнения прикладных программ, характеристики пользовательского интерфейса, отображаемого на дисплейном блоке 152, и характеристики точки касания, как проиллюстрировано на Фиг. 4-6.
Блок 220 управления графикой обеспечивает дисплейному блоку 152 возможность отображать информацию о прикладной программе, исполняемой блоком 210 исполнения прикладных программ, с тем чтобы пользователь мог определять данную информацию.
В вышеописанном иллюстративном варианте осуществления электронное устройство 100 может распознавать касание нажатием и перетаскивание посредством использования процессора 122, включающего в себя блок 200 обнаружения касания, блок 210 исполнения прикладных программ и блок 220 управления графикой.
В другом варианте осуществления электронное устройство 100 может распознать касание нажатием и перетаскивание посредством использования одного модуля, включенного в процессор 122.
В вышеописанном иллюстративном варианте осуществления электронное устройство 100 может генерировать инструкцию для информации касания, обнаруженной посредством блока 151 сенсорного ввода, путем использования блока 200 обнаружения касания из состава процессора 122.
В другом варианте осуществления электронное устройство 100 может генерировать инструкцию для информации касания посредством использования блока 151 сенсорного ввода и подавать эту инструкцию в блок 120 обработки данных.
Далее будет описываться способ распознавания касания нажатием в прикладной программе, которая исполняется блоком 210 исполнения прикладных программ.
На Фиг. 3 представлена логическая блок-схема, показывающая иллюстративное функционирование процесса для распознавания касания нажатием в электронном устройстве согласно иллюстративному варианту осуществления настоящего изобретения.
Обращаясь теперь к Фиг. 3, на этапе 301 электронное устройство определяет, обнаружено или нет приложение касания во время исполнения прикладной программы. Например, электронное устройство 100 может определять, обнаружено ли приложение касание, посредством блока 151 сенсорного ввода, проиллюстрированного на Фиг. 1.
Когда обнаружено приложение касания, электронное устройство выполняет этап 303, на котором электронное устройство определяет режим ввода касанием для приложения касания. Например, электронное устройство может выполнить определение касаемо способа, которым было выполнение приложение касания, например, было ли приложение касания, обнаруженное на этапе 301, осуществлено посредством касания рукой или касания пером.
После определения режима ввода касанием, на этапе 305 электронное устройство определяет контрольное расстояние в соответствии с режимом ввода касанием. Например, когда обнаруживается информация касания, введенная посредством касания рукой, электронное устройство может выбрать первое контрольное расстояние в списке контрольных расстояний в соответствии с режимами ввода касанием. С другой стороны, когда обнаружена информация касания, введенная посредством касания пером, электронное устройство может выбрать второе контрольное расстояние в списке контрольных расстояний в соответствии с режимами ввода касанием. В рассматриваемом случае второе контрольное расстояние больше первого контрольного расстояния.
Продолжая ссылаться на Фиг. 3, на этапе 307 электронное устройство определяет, изменилась ли точка касания. Иными словами, электронное устройство может определять, изменилась ли точка приложения касания, обнаруженная на этапе 301, по перемещению касания.
Когда точка касания не изменилась, электронное устройство выполняет этап 311, на котором электронное устройство определяет, прекращено ли приложение касания, обнаруженное на этапе 301 (например, путем выявления того, обнаружено ли снятие касания).
С другой стороны, при определении на этапе 307 того, что точка касания изменилась, электронное устройство далее выполняет этап 309. На этапе 309 электронное устройство сравнивает расстояние изменения точки касания с контрольным расстоянием для определения того, изменилось ли расстояние изменения сверх контрольного расстояния. Иными словами, электронное устройство может определить, меньше ли расстояние перемещения от координат точки приложения касания, чем контрольное расстояние.
Когда на этапе 309 расстояние изменения больше или равно контрольному расстоянию, электронное устройство распознает, что произошло изменение точки касания сверх контрольного расстояния. Следовательно, электронное устройство выполняет этап 315, на котором электронное устройство распознает, что обнаружено событие перетаскивания. Таким образом, электронное устройство выполняет операцию, соответствующую событию перетаскивания в прикладной программе.
С другой стороны, когда на этапе 309 расстояние изменения точки касания меньше контрольного расстояния, электронное устройство распознает, что изменения точки касания сверх контрольного расстояния не произошло. Следовательно, электронное устройство переходит к этапу 311. На этапе 311 электронное устройство определяет, обнаружено ли снятие касания или нет. В целях ясности, электронное устройство может определить, прекращено ли приложение касания, обнаруженное на этапе 310.
Когда на этапе 311 снятие касания не обнаруживается, электронное устройство повторно выполняет этап 307, чтобы снова определить, изменилась ли точка касания.
С другой стороны, когда снятие касания обнаружено на этапе 311, электронное устройство выполняет этап 313, на котором электронное устройство распознает, что обнаружено событие касания нажатием. Следовательно, электронное устройство выполняет операцию, соответствующую событию касания нажатием в прикладной программе.
После этого электронное устройство завершает выполнение алгоритма.
На Фиг. 4 показана логическая блок-схема, иллюстрирующая функционирование процесса для распознавания касания нажатием в соответствии с характеристикой прикладной программы согласно иллюстративному варианту осуществления настоящего изобретения.
Ссылаясь на Фиг. 4, на этапе 401 процессор или микропроцессор исполняет прикладную программу, которая загружается, например, в блок исполнения прикладных программ. Например, электронное устройство может исполнять прикладную программу, выбранную по информации касания, сгенерированной пользователем.
После этого на этапе 403 электронное устройство определяет, использовать ли контрольное расстояние, в соответствии с характеристикой прикладной программы, которая исполняется, чтобы распознать касание нажатием. Например, в случае, когда прикладной программе нужно предоставить выбор для информации, отображаемой на дисплейном блоке 152, электронное устройство может определить, что контрольное расстояние используется для распознавания касания нажатием. С другой стороны, в случае, когда прикладная программа является чувствительной к информации перетаскивания, как в случае рисования проекта или эскиза, электронное устройство может определить, что контрольное расстояние не используется для распознавания касания нажатием.
На этапе 403, после факта определения того, контрольное расстояние не используется для распознавания касания нажатием, электронное устройство завершает выполнение алгоритма. В этом случае, электронное устройство может, например, не использовать контрольное расстояние для распознавания касания нажатием или может использовать фиксированное контрольное расстояние.
С другой стороны, при определении на этапе 403 того, что контрольное расстояние используется для распознавания касания нажатием, на этапе 405 электронное устройство определяет, обнаружено ли приложение касания. Например, электронное устройство может определять, обнаружено ли приложение касания, посредством блока 151 сенсорного ввода, показанного на Фиг. 1.
Когда на этапе 405 обнаружено приложение касания, электронное устройство далее выполняет этап 407. На этапе 407 электронное устройство определяет режим ввода касанием для приложения касания, обнаруженного на этапе 405. Например, электронное устройство может определить, было ли приложение касания, обнаруженное на этапе 405, осуществлено посредством касания рукой или касания пером (таким как стилус). Следует опять же отметить, что приложение касания включает в себя сценарий, в котором, например, перо проходит в пределах заранее заданного расстояния от поверхности сенсорного экрана, что может считаться приложением касания без физического контакта.
После определения режима ввода касанием, на этапе 409 электронное устройство определяет контрольное расстояние в соответствии с режимом ввода касанием.
После этого на этапе 411 электронное устройство определяет, изменилась ли точка касания или нет. Иными словами, электронное устройство может определить, изменилась ли точка приложения касания, обнаруженная на этапе 405, по перемещению касания.
Когда на этапе 411 точка приложения касания не изменилась, электронное устройство затем выполняет этап 415. На этапе 415 электронное устройство определяет, обнаружено ли снятие касания. Иными словами, на этапе 415 электронное устройство может определить, прекращено ли приложение касания, обнаруженное на этапе 405.
С другой стороны, если на этапе 411 точка приложения касания изменилась, электронное устройство выполняет этап 413. На этапе 413 электронное устройство сравнивает расстояние изменения точки касания с контрольным расстоянием, чтобы определить, изменилось ли расстояние изменения сверх контрольного расстояния. Иными словами, на этапе 413 электронное устройство определяет, меньше ли расстояние изменения точки касания, чем контрольное расстояние.
Когда на этапе 413 расстояние изменения точки касания больше или равно контрольному расстоянию, электронное устройство распознает то, что произошло изменение точки касания сверх контрольного расстояния. Следовательно, электронное устройство выполняет этап 419. На этапе 419 электронное устройство распознает, что обнаружено событие перетаскивания. Таким образом, электронное устройство выполняет операцию, соответствующую событию перетаскивания в прикладной программе.
С другой стороны, если на этапе 413 расстояние изменения точки касания меньше контрольного расстояния, электронное устройство распознает то, что изменения точки касания сверх контрольного расстояния не произошло. Следовательно, электронное устройство выполняет этап 415. На этапе 415 электронное устройство определяет, обнаружено ли снятие касания. Иными словами, электронное устройство может определить, прекращено ли приложение касания, обнаруженное на этапе 405.
Когда на этапе 415 снятие касания не обнаружено, электронное устройство повторно выполняет этап 411, чтобы снова определить, изменилась ли точка касания или нет.
С другой стороны, когда на этапе 415 обнаруживается снятие касания, электронное устройство затем выполняет этап 417. На этапе 417 электронное устройство распознает, что обнаружено событие касания нажатием. Следовательно, электронное устройство выполняет операцию, соответствующую событию касания нажатием в прикладной программе.
После этого электронное устройство завершает выполнение алгоритма.
На Фиг. 5 показана логическая блок-схема, иллюстрирующая функционирование процесса для распознавания касания нажатием в соответствии с характеристикой пользовательского интерфейса в электронном устройстве согласно иллюстративному варианту осуществления настоящего изобретения.
Ссылаясь на Фиг. 5, на этапе 501 электронное устройство определяет, обнаружено ли приложение касания во время исполнения прикладной программы. Например, электронное устройство может определять, обнаружено ли приложение касания, посредством блока 151 сенсорного ввода, показанного на Фиг. 1.
Когда на этапе 501 обнаружено приложение касания, электронное устройство далее выполняет этап 503. На этапе 503 электронное устройство определяет характеристику пользовательского интерфейса, отображаемого на дисплейном блоке 152. Например, электронное устройство может определить, может ли событие, соответствующее касанию нажатием, быть выполнено посредством пользовательского интерфейса, отображаемого на дисплейном блоке 152.
После этого на этапе 505 электронное устройство определяет, используется ли контрольное расстояние, в соответствии с характеристикой пользовательского интерфейса, чтобы распознать касание нажатием. Например, в случае, когда событие, соответствующее касанию нажатием, может быть выполнено посредством пользовательского интерфейса, отображаемого на дисплейном блоке 152, электронное устройство может определить, что контрольное расстояние используется для распознавания касания нажатием.
При определении на этапе 505 того, что контрольное расстояние не используется для распознавания касания нажатием, электронное устройство завершает выполнение алгоритма. В этом случае, электронное устройство может не использовать контрольное расстояние для распознавания касания нажатием или может использовать фиксированное контрольное расстояние.
С другой стороны, при определении на этапе 505 того, что контрольное расстояние используется для распознавания касания нажатием, электронное устройство выполняет этап 507. На этапе 507 электронное устройство определяет режим ввода касанием для приложения касания. Например, электронное устройство может определить, было ли приложение касания, обнаруженное на этапе 501, осуществлено посредством касания рукой или касания пером. Аналогично вышеприведенному описанию по Фиг. 4, электронное устройство может также фиксировать бесконтактное касание, проходящее в пределах заранее определенного расстояние от сенсорного экрана без осуществления физического контакта.
После определения режима ввода касанием, на этапе 509 электронное устройство определяет контрольное расстояние в соответствии с режимом ввода касанием.
После этого на этапе 511 электронное устройство определяет, изменилась ли точка касания или нет. Иными словами, электронное устройство может определить, изменилась ли точка приложения касания, обнаруженная на этапе 501, по перемещению касания.
Продолжая ссылаться на Фиг. 5, когда точка приложения касания не изменилась, электронное устройство затем выполняет этап 515. На этапе 515 электронное устройство определяет, обнаружено ли снятие касания. Иными словами, электронное устройство может определить, прекращено ли приложение касания, обнаруженное на этапе 501.
С другой стороны, если на этапе 511 точка приложения касания изменилась, электронное устройство выполняет этап 513. На этапе 513 электронное устройство сравнивает расстояние изменения точки касания с контрольным расстоянием, чтобы определить, произошло ли изменение точки касания сверх контрольного расстояния. Иными словами, электронное устройство может определить, меньше ли расстояние изменения точки касания, чем контрольное расстояние.
Когда на этапе 513 расстояние изменения точки касания больше или равно контрольному расстоянию, электронное устройство распознает то, что произошло изменение точки касания сверх контрольного расстояния. Следовательно, электронное устройство выполняет этап 519. На этапе 519 электронное устройство распознает, что обнаружено событие перетаскивания. Таким образом, электронное устройство выполняет операцию, соответствующую событию перетаскивания в прикладной программе.
С другой стороны, если расстояние изменения точки касания меньше контрольного расстояния, электронное устройство распознает то, что изменения точки касания сверх контрольного расстояния не произошло. Следовательно, электронное устройство выполняет этап 515. На этапе 515 электронное устройство определяет, обнаружено ли снятие касания. Иными словами, электронное устройство может определить, прекращено ли приложение касания, обнаруженное на этапе 501.
Когда на этапе 515 снятие касания не обнаружено, электронное устройство повторно выполняет этап 511, чтобы снова определить, изменилась ли точка касания или нет.
С другой стороны, когда на этапе 515 обнаруживается снятие касания, электронное устройство затем выполняет этап 517. На этапе 517 электронное устройство распознает, что обнаружено событие касания нажатием. Следовательно, электронное устройство выполняет операцию, соответствующую событию касания нажатием в прикладной программе.
После этого электронное устройство завершает выполнение алгоритма.
На Фиг. 6 показан процесс для распознавания касания нажатием в соответствии с характеристикой точки касания в электронном устройстве согласно иллюстративному варианту осуществления настоящего изобретения.
Ссылаясь на Фиг. 6, на этапе 601 электронное устройство определяет, обнаружено ли приложение касания во время исполнения прикладной программы. Например, электронное устройство может определять, обнаружено ли приложение касания, посредством блока 151 сенсорного ввода, показанного на Фиг. 1.
Когда приложение касания обнаружено, электронное устройство определяет характеристику точки касания на этапе 603. Например, электронное устройство может определить, может ли событие, соответствующее касанию нажатием, быть выполнено посредством точки касания.
После этого на этапе 605 электронное устройство определяет, следует ли использовать контрольное расстояние, в соответствии с характеристикой точки касания, чтобы распознать касание нажатием. Например, в случае, когда событие, соответствующее касанию нажатием, может быть выполнено посредством точки касания, электронное устройство может определить, что контрольное расстояние используется для распознавания касания нажатием.
При определении на этапе 605 того, что контрольное расстояние не используется для распознавания касания нажатием, электронное устройство завершает выполнение алгоритма. В этом случае, электронное устройство может не использовать контрольное расстояние для распознавания касания нажатием или может использовать фиксированное контрольное расстояние.
С другой стороны, когда на этапе 605 электронное устройство определяет, что контрольное расстояние используется для распознавания касания нажатием, тогда на этапе 607 электронное устройство определяет режим ввода касанием для приложения касания. Например, электронное устройство может определить, было ли приложение касания, обнаруженное на этапе 601, осуществлено посредством касания рукой или касания пером.
После определения режима ввода касанием на этапе 607, на этапе 609 электронное устройство определяет контрольное расстояние в соответствии с режимом ввода касанием.
После этого на этапе 611 электронное устройство определяет, изменилась ли точка касания или нет. Иными словами, электронное устройство может определить, изменилась ли точка приложения касания, обнаруженная на этапе 601, по перемещению касания.
Когда в соответствии с этапом 611 точка приложения касания не изменилась, электронное устройство на этапе 515 определяет, обнаружено ли снятие касания. Иными словами, электронное устройство может определить, прекращено ли приложение касания, обнаруженное на этапе 601.
С другой стороны, если на этапе 611 точка приложения касания изменилась, электронное устройство далее выполняет этап 613. На этапе 613 электронное устройство сравнивает расстояние изменения точки касания с контрольным расстоянием, чтобы определить, произошло ли изменение точки касания сверх контрольного расстояния. Иными словами, электронное устройство может определить, меньше ли расстояние изменения точки касания, чем контрольное расстояние.
Когда на этапе 613 расстояние изменения точки касания больше или равно контрольному расстоянию, электронное устройство распознает то, что произошло изменение точки касания сверх контрольного расстояния. Следовательно, электронное устройство выполняет этап 619. На этапе 619 электронное устройство распознает, что обнаружено событие перетаскивания. Таким образом, электронное устройство выполняет операцию, соответствующую событию перетаскивания в прикладной программе.
С другой стороны, если на этапе 613 расстояние изменения точки касания меньше контрольного расстояния, электронное устройство распознает то, что изменения точки касания сверх контрольного расстояния не произошло. Следовательно, электронное устройство переходит к этапу 615. На этапе 615 электронное устройство определяет, обнаружено ли снятие касания. Иными словами, электронное устройство может определить, прекращено ли приложение касания, обнаруженное на этапе 601.
Когда на этапе 615 снятие касания не обнаружено, электронное устройство повторно выполняет этап 611, чтобы снова определить, изменилась ли точка касания или нет.
С другой стороны, когда на этапе 615 обнаруживается снятие касания, электронное устройство затем выполняет этап 617. На этапе 617 электронное устройство распознает, что обнаружено событие касания нажатием. Следовательно, электронное устройство выполняет операцию, соответствующую событию касания нажатием в прикладной программе.
После этого электронное устройство завершает выполнение алгоритма.
Согласно вышеописанному иллюстративному варианту осуществления, электронное устройство может по выбору использовать контрольное расстояние в соответствии с режимом ввода касанием для предотвращения нераспознавания касания нажатием вследствие малого перемещения касания, обнаруженного между приложением касания и снятия касания.
В еще одном иллюстративном варианте осуществления электронное устройство может использовать контрольное расстояние в соответствии с режимом ввода касанием в момент времени снятия касания, чтобы распознать касание нажатием, как иллюстрируется Фиг. 7.
На Фиг. 7 показан процесс для распознавания касания нажатием в электронном устройстве согласно еще одному иллюстративному варианту осуществления настоящего изобретения.
Согласно Фиг. 7, на этапе 701 электронное устройство определяет, обнаружено или нет приложение касания во время исполнения прикладной программы. Например, электронное устройство 100 может определять, обнаружено ли приложение касания, посредством блока 151 сенсорного ввода, проиллюстрированного на Фиг. 1.
Когда на этапе 701 обнаружено приложение касания, на этапе 703 электронное устройство определяет режим ввода касанием для приложения касания. Например, электронное устройство может определить, осуществлено ли приложение касания, обнаруженное на этапе 701, посредством касания рукой или касания пером.
После определения на этапе 703 режима ввода касанием, на этапе 705 электронное устройство определяет контрольное расстояние в соответствии с режимом ввода касанием. Например, когда обнаруживается информация касания, введенная посредством касания рукой, электронное устройство может выбрать первое контрольное расстояние в списке контрольных расстояний в соответствии с режимами ввода касанием. С другой стороны, когда обнаружена информация касания, введенная посредством касания пером, электронное устройство может выбрать второе контрольное расстояние в списке контрольных расстояний в соответствии с режимами ввода касанием. В рассматриваемом случае второе контрольное расстояние больше первого контрольного расстояния.
После этого на этапе 707 электронное устройство определяет, изменилась ли точка касания. Иными словами, электронное устройство может определить, изменилась ли точка приложения касания, обнаруженная на этапе 701, по перемещению касания.
Когда, в соответствии с этапом 707, точка касания не изменилась, электронное устройство затем выполняет этап 711. На этапе 711 электронное устройство определяет, обнаружено ли снятие касания. Иными словами, электронное устройство может определить, прекращено ли приложение касания, обнаруженное на этапе 701.
С другой стороны, если точка касания изменилась на этапе 707, электронное устройство выполняет этап 709. На этапе 709 электронное устройство прокручивает экран в соответствии с изменением точки касания. Иными словами, электронное устройство распознает, что сгенерировано событие перетаскивания, в соответствии с изменением точки касания и выполняет операцию, соответствующую событию перетаскивания.
После этого на этапе 711 электронное устройство определяет, обнаружено ли снятие касания. Например, электронное устройство может определить, прекращено ли приложение касания, обнаруженное на этапе 701.
Когда на этапе 711 снятие касания не обнаруживается, электронное устройство повторно выполняет этап 707, чтобы снова определить, изменилась ли точка касания.
С другой стороны, когда снятие касания обнаруживается на этапе 711, электронное устройство выполняет этап 713. На этапе 713 электронное устройство сравнивает расстояние изменения точки касания с контрольным расстоянием для определения того, произошло ли изменение точки касания сверх контрольного расстояния. Иными словами, электронное устройство может определить, меньше ли расстояние перемещения точки касания, чем контрольное расстояние.
Когда расстояние изменения больше или равно контрольному расстоянию, электронное устройство распознает, что произошло изменение точки касания сверх контрольного расстояния. Таким образом, электронное устройство завершает выполнение алгоритма.
С другой стороны, когда на этапе 713 расстояние изменения точки касания меньше контрольного расстояния, электронное устройство распознает, что изменения точки касания сверх контрольного расстояния не произошло. Следовательно, электронное устройство выполняет этап 715. На этапе 715 электронное устройство распознает, что обнаружено событие касания нажатием. Таким образом, электронное устройство выполняет операцию, соответствующую событию касания нажатием в прикладной программе.
После этого электронное устройство завершает выполнение алгоритма.
В вышеописанном иллюстративном варианте осуществления электронное устройство может определить контрольное расстояние для адаптивного распознавания касания нажатием в соответствии с касанием рукой и касанием пером. В то же время, электронное устройство может адаптивно определять контрольное расстояние для распознавания события касания нажатием аналогичным образом по отношению к режимам ввода, отличающимся от касания рукой и касания пером.
В вышеописанном иллюстративном варианте осуществления электронное устройство может распознавать, что сгенерировано событие перетаскивания, когда расстояние изменения точки касания больше или равно контрольному расстоянию. В то же время, электронное устройство может генерировать события касания, отличающиеся от события перетаскивания, при учете расстояния изменения точки касания в соответствии с характеристикой прикладной программы, которая исполняется.
Как описывалось выше, электронное устройство, оснащенное сенсорным экраном, может точно распознавать информацию касания посредством адаптивного задания контрольного расстояния для распознавания касания нажатием.
Вышеописанная аппаратура и способ функционирования согласно настоящему изобретению могут быть реализованы в аппаратных средствах, а также, отчасти, в виде микропрограммного обеспечения (firmware), либо в виде программного обеспечения или компьютерного кода, которые сохранены на невременном машиночитаемом носителе, таком как постоянное запоминающее устройство (ПЗУ) на компакт-диске (CD ROM), оперативное запоминающее устройство (ОЗУ, RAM), дискете, жестком диске или магнито-оптическом диске, либо компьютерного кода, скачанного через сеть, который изначально хранился на удаленном носителе записи или невременном машиночитаемом носителе, и сохраненного на локальном невременном носителе записи, с тем, чтобы способы, описанные выше, могли быть загружены в аппаратные средства, такие как компьютер общего назначения или процессор специального назначения, либо в программируемые или специализированные аппаратные средства, такие как специализированная интегральная схема (ASIC) или программируемая вентильная матрица (FPGA). Как должно быть понятно специалисту, компьютер, процессор, микропроцессорный контроллер или программируемые аппаратные средства включают в себя компоненты памяти, например, ОЗУ, ПЗУ, флэш-память и т.п., которые могут хранить или принимать программное обеспечение или компьютерный код, которые, при обращении к нему и исполнении его компьютером, процессором или аппаратными средствами, реализуют описанные здесь способы обработки. Кроме того, должно быть ясно, что, когда компьютер общего назначения обращается к коду для реализации обработки, показанной здесь, исполнение данного кода преобразует этот компьютер общего назначения в специализированный компьютер для выполнения описанной здесь обработки. Помимо этого, специалистам должно быть понятно, что "процессор", или "микропроцессор", или "контроллер" содержит аппаратные средства в заявленном изобретении. Приложенная формула изобретения определяет объем настоящего изобретения в наиболее широкой допустимой ее интерпретации.
Термины "блок" или "модуль", используемые в настоящей заявке, должны пониматься как относящиеся к аппаратным средствам, таким как процессор или микропроцессор, сконфигурированный для определенных требующихся функций, либо невременному машиночитаемому носителю, содержащему машиноисполняемый код, в соответствии с существом настоящего изобретения, и не должны рассматриваться как относящиеся к программному обеспечению как таковому.
Хотя настоящее изобретение было проиллюстрировано и показано со ссылкой на некоторые иллюстративные варианты его осуществления, специалистам должно быть понятно, что в нем могут быть выполнены различные изменения в форме и деталях, не выходя за рамки существа и объема изобретения, определяемого прилагаемой формулой изобретения. Таким образом, объем изобретения определяется не подробным описанием изобретения, а приложенной формулой изобретения, и все различия, подпадающие под данный объем, должны считаться включаемыми в настоящее изобретение.

Claims (45)

1. Способ распознавания информации касания в электронном устройстве, содержащий этапы, на которых:
обнаруживают ввод касанием через сенсорный экран;
идентифицируют режим ввода касанием, соответствующий обнаруженному вводу касанием;
определяют контрольное расстояние на основе идентифицированного режима ввода касанием;
определяют тип события, соответствующий вводу касанием, обнаруженному посредством сенсорного экрана, путем сравнения расстояния изменения точки касания, относящейся к вводу касанием, обнаруженному посредством сенсорного экрана, с контрольным расстоянием; и
исполняют прикладную программу на основе этого определенного типа события.
2. Способ по п. 1, в котором идентифицированный режим ввода касанием включает в себя один из режима ввода касанием рукой или пальцем и режима ввода касанием пером.
3. Способ по п. 2, в котором упомянутое определение контрольного расстояния содержит один из этапов, на которых:
выбирают первое контрольное расстояние, когда обнаружен ввод касанием в режиме ввода касанием рукой или пальцем; и
выбирают второе контрольное расстояние, когда обнаружен ввод касанием в режиме ввода касанием пером,
при этом второе контрольное расстояние устанавливают большим первого контрольного расстояния.
4. Способ по п. 1, в котором упомянутое определение типа события содержит этапы, на которых:
сравнивают расстояние изменения точки касания, обнаруженной посредством сенсорного экрана, с контрольным расстоянием, когда точка касания, в которой обнаружен ввод касанием, изменилась; и
определяют, сгенерировано ли событие перетаскивания, в соответствии с результатом сравнения расстояния изменения точки касания с контрольным расстоянием.
5. Способ по п. 4, дополнительно содержащий этапы, на которых:
когда событие перетаскивания не сгенерировано, определяют, прекращен ли ввод касанием в отношении сенсорного экрана; и
в качестве реакции на определение того, что ввод касанием прекращен, выявляют, что сгенерировано событие касания нажатием для точки, в которой обнаружен ввод касанием.
6. Способ по п. 1, в котором прикладная программа исполняется посредством процессора, при этом способ дополнительно содержит этап, на котором определяют, следует ли определять тип события с учетом контрольного расстояния, в соответствии с характеристикой прикладной программы.
7. Способ по п. 1, дополнительно содержащий этап, на котором: когда ввод касанием обнаружен посредством сенсорного экрана, определяют, следует ли определять тип события на основе контрольного расстояния, в соответствии с характеристикой пользовательского интерфейса, отображаемого на сенсорном экране.
8. Способ по п. 1, дополнительно содержащий этап, на котором: когда обнаружен ввод касанием, определяют, следует ли определять тип события с учетом контрольного расстояния, в соответствии с характеристикой точки касания, в которой обнаружен ввод касанием.
9. Способ по п. 1, в котором упомянутое определение типа события содержит этапы, на которых:
когда обнаруженный ввод касанием прекращен, сравнивают расстояние изменения точки касания с контрольным расстоянием; и
определяют тип события для обнаруженного ввода касанием в соответствии с результатом сравнения расстояния изменения точки касания с контрольным расстоянием.
10. Способ по п. 9, дополнительно содержащий этап, на котором: когда точка касания, в которой обнаружен ввод касанием, изменилась до того, как ввод касанием был прекращен, распознают, что сгенерировано событие перетаскивания, в соответствии с изменением точки касания.
11. Электронное устройство для распознавания информации касания, содержащее:
сенсорный экран;
блок обработки касания, находящийся на связи с сенсорным экраном, при этом блок обработки касания выполнен с возможностью:
обнаруживать ввод касанием через сенсорный экран,
идентифицировать режим ввода касанием, соответствующий обнаруженному вводу касанием,
определять контрольное расстояние на основе идентифицированного режима ввода касанием и
определять тип события для обнаруженного ввода касанием путем сравнения расстояния изменения точки касания, в которой обнаружен данный ввод касанием, с контрольным расстоянием; и
блок исполнения прикладных программ, выполненный с возможностью исполнять прикладную программу на основе этого определенного типа события.
12. Электронное устройство по п. 11, в котором режим ввода касанием, идентифицированный блоком обработки касания, включает в себя один из режима ввода касанием рукой и режима ввода касанием пером.
13. Электронное устройство по п. 12, при этом контрольное расстояние содержит одно из первого контрольного расстояния, выбираемого блоком обработки касания, когда обнаруживается ввод касанием в режиме ввода касанием рукой, и второго контрольного расстояния, выбираемого блоком обработки касания, когда обнаруживается ввод касанием в режиме ввода касанием пером, при этом второе контрольное расстояние устанавливается большим первого контрольного расстояния.
14. Электронное устройство по п. 11, в котором блок обработки касания выполнен с возможностью определять, сгенерировано ли событие перетаскивания, путем сравнения расстояния изменения точки касания с контрольным расстоянием, когда точка касания, в которой обнаружено касание, изменилась.
15. Электронное устройство по п. 14, в котором блок обработки касания выполнен с возможностью определять, прекращен ли ввод касанием в отношении сенсорного экрана, когда событие перетаскивания не сгенерировано, и определять событие касания нажатием для точки касания, в которой обнаружен ввод касанием, когда ввод касанием в отношении сенсорного экрана прекращен.
16. Электронное устройство по п. 11, в котором блок обработки касания выполнен с возможностью определять контрольное расстояние, используемое для определения типа события с учетом контрольного расстояния, в соответствии с характеристикой прикладной программы, и определять режим ввода касанием для ввода касанием, обнаруженного посредством сенсорного экрана, когда тип события определяется с учетом контрольного расстояния.
17. Электронное устройство по п. 11, в котором блок обработки касания выполнен с возможностью определять, следует ли определять тип события с учетом контрольного расстояния, в соответствии с характеристикой пользовательского интерфейса, отображаемого на сенсорном экране, когда обнаружен ввод касанием, и определять режим ввода касанием для ввода касанием, когда тип события определяется с учетом контрольного расстояния.
18. Электронное устройство по п. 11, в котором блок обработки касания выполнен с возможностью определять, когда обнаружен ввод касанием на сенсорном экране, следует ли определять тип события с учетом контрольного расстояния, в соответствии с характеристикой точки касания, в которой обнаружен ввод касанием, и определять режим ввода касанием для ввода касанием, когда тип события определяется с учетом контрольного расстояния.
19. Электронное устройство по п. 11, в котором блок обработки касания выполнен с возможностью определять тип события для обнаруженного ввода касанием путем сравнения расстояния изменения точки касания с контрольным расстоянием, когда обнаруженный ввод касанием прекращен.
20. Электронное устройство по п. 19, в котором блок обработки касания выполнен с возможностью определять, что сгенерировано событие перетаскивания, в соответствии с изменением точки касания, когда точка касания, в которой обнаружен ввод касанием, изменилась до того, как ввод касанием был прекращено.
21. Электронное устройство по п. 11, дополнительно содержащее блок обнаружения касания, выполненный с возможностью преобразовывать информацию касания, обнаруженную посредством сенсорного экрана, в инструкцию, при этом блок обработки касания выполнен с возможностью определять контрольное расстояние с учетом режима ввода касанием для информации касания, принятой от блока обнаружения касания.
22. Электронное устройство по п. 21, в котором блок обработки касания выполнен с возможностью принимать информацию режима ввода касанием от блока обнаружения касания.
23. Электронное устройство по п. 21, в котором блок обработки касания выполнен с возможностью определять режим ввода касанием для информации касания согласно упомянутой инструкции для информации касания, принятой от блока обнаружения касания.
24. Электронное устройство по п. 21, в котором блок обработки касания выполнен с возможностью определять режим ввода касанием для информации касания на основе информации идентификации режима ввода касанием, принятой от блока обнаружения касания.
RU2014151736A 2012-06-22 2013-06-12 Способ улучшения распознавания касаний и электронное устройство для его осуществления RU2649945C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020120067194A KR102096070B1 (ko) 2012-06-22 2012-06-22 터치 인식 개선 방법 및 그 전자 장치
KR10-2012-0067194 2012-06-22
PCT/KR2013/005189 WO2013191408A1 (en) 2012-06-22 2013-06-12 Method for improving touch recognition and electronic device thereof

Publications (2)

Publication Number Publication Date
RU2014151736A RU2014151736A (ru) 2016-07-10
RU2649945C2 true RU2649945C2 (ru) 2018-04-05

Family

ID=48672425

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014151736A RU2649945C2 (ru) 2012-06-22 2013-06-12 Способ улучшения распознавания касаний и электронное устройство для его осуществления

Country Status (11)

Country Link
US (1) US9588607B2 (ru)
EP (1) EP2677413B1 (ru)
JP (1) JP6625312B2 (ru)
KR (1) KR102096070B1 (ru)
CN (1) CN103513822B (ru)
AU (1) AU2013206371B2 (ru)
BR (1) BR112014032330A2 (ru)
CA (1) CA2873358C (ru)
RU (1) RU2649945C2 (ru)
TW (1) TW201403448A (ru)
WO (1) WO2013191408A1 (ru)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9483171B1 (en) * 2013-06-11 2016-11-01 Amazon Technologies, Inc. Low latency touch input rendering
KR102464280B1 (ko) 2015-11-06 2022-11-08 삼성전자주식회사 입력 처리 방법 및 장치
CN107704126A (zh) * 2017-09-22 2018-02-16 广州视源电子科技股份有限公司 一种触摸数据的分离方法、装置、设备和存储介质
JP7377088B2 (ja) * 2019-12-10 2023-11-09 キヤノン株式会社 電子機器およびその制御方法、プログラム、並びに記憶媒体
US11291910B2 (en) * 2020-02-14 2022-04-05 Mediatek Inc. Apparatuses and methods for providing a virtual input key
US20220147223A1 (en) * 2020-11-07 2022-05-12 Saad Al Mohizea System and method for correcting typing errors

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090288044A1 (en) * 2008-05-19 2009-11-19 Microsoft Corporation Accessing a menu utilizing a drag-operation
US20100066705A1 (en) * 2000-11-10 2010-03-18 Microsoft Corporation Highlevel active pen matrix
US20100141589A1 (en) * 2008-12-09 2010-06-10 Microsoft Corporation Touch input interpretation
RU2391696C2 (ru) * 2004-09-24 2010-06-10 Нокиа Корпорейшн Способ приема вводов от пользователя электронного устройства
US20100315366A1 (en) * 2009-06-15 2010-12-16 Samsung Electronics Co., Ltd. Method for recognizing touch input in touch screen based device

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683522A (ja) * 1992-09-01 1994-03-25 Fujitsu Ltd 座標入力方式
JP2994888B2 (ja) * 1992-11-25 1999-12-27 シャープ株式会社 入力処理装置および入力処理方法
EP1607847A1 (en) * 2004-06-15 2005-12-21 Research In Motion Limited Method and apparatus for changing the transparency level of a virtual keypad on a touchscreen display.
JP4213633B2 (ja) * 2004-06-16 2009-01-21 富士通株式会社 タッチパネル型情報システムおよびプログラム
TWI357012B (en) * 2007-05-15 2012-01-21 Htc Corp Method for operating user interface and recording
KR101467885B1 (ko) 2008-01-04 2014-12-02 엘지전자 주식회사 터치스크린의 감도를 조절할 수 있는 휴대 단말기 및 그제어방법
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
KR20100043437A (ko) 2008-10-20 2010-04-29 삼성전자주식회사 터치 스크린을 구비한 컴퓨팅 기기의 입력 판단 장치 및 방법
KR101545880B1 (ko) * 2008-12-22 2015-08-21 삼성전자주식회사 터치 스크린을 구비한 단말기 및 그 단말기의 데이터 표시 방법
JP5058187B2 (ja) * 2009-02-05 2012-10-24 シャープ株式会社 携帯情報端末
JP2010205105A (ja) * 2009-03-05 2010-09-16 Hitachi Software Eng Co Ltd 電子ボードシステム、マウスイベント擬似発生方法及び入力座標補正方法
JP5262990B2 (ja) * 2009-05-22 2013-08-14 富士通モバイルコミュニケーションズ株式会社 携帯端末
US20120212440A1 (en) * 2009-10-19 2012-08-23 Sharp Kabushiki Kaisha Input motion analysis method and information processing device
CN102279687B (zh) * 2010-06-08 2015-03-18 胜华科技股份有限公司 触控面板与其应用的触控式显示装置
US8587547B2 (en) * 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9141285B2 (en) * 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US20120120002A1 (en) * 2010-11-17 2012-05-17 Sony Corporation System and method for display proximity based control of a touch screen user interface

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100066705A1 (en) * 2000-11-10 2010-03-18 Microsoft Corporation Highlevel active pen matrix
RU2391696C2 (ru) * 2004-09-24 2010-06-10 Нокиа Корпорейшн Способ приема вводов от пользователя электронного устройства
US20090288044A1 (en) * 2008-05-19 2009-11-19 Microsoft Corporation Accessing a menu utilizing a drag-operation
US20100141589A1 (en) * 2008-12-09 2010-06-10 Microsoft Corporation Touch input interpretation
US20100315366A1 (en) * 2009-06-15 2010-12-16 Samsung Electronics Co., Ltd. Method for recognizing touch input in touch screen based device

Also Published As

Publication number Publication date
AU2013206371A1 (en) 2014-01-16
US9588607B2 (en) 2017-03-07
EP2677413B1 (en) 2020-09-23
KR102096070B1 (ko) 2020-04-14
EP2677413A3 (en) 2017-07-19
JP6625312B2 (ja) 2019-12-25
EP2677413A2 (en) 2013-12-25
CN103513822A (zh) 2014-01-15
CA2873358C (en) 2021-12-07
RU2014151736A (ru) 2016-07-10
KR20140000388A (ko) 2014-01-03
AU2013206371B2 (en) 2018-06-28
TW201403448A (zh) 2014-01-16
BR112014032330A2 (pt) 2017-06-27
CN103513822B (zh) 2018-03-30
WO2013191408A1 (en) 2013-12-27
JP2014006904A (ja) 2014-01-16
US20130342485A1 (en) 2013-12-26
CA2873358A1 (en) 2013-12-27

Similar Documents

Publication Publication Date Title
KR102479491B1 (ko) 복수의 운영체제가 설치된 디바이스를 제어하는 방법 및 디바이스
KR102311221B1 (ko) 오브젝트 운용 방법 및 이를 지원하는 전자 장치
RU2649945C2 (ru) Способ улучшения распознавания касаний и электронное устройство для его осуществления
RU2616536C2 (ru) Способ, устройство и терминальное устройство для отображения сообщений
KR102060155B1 (ko) 양면 디스플레이를 사용하는 전자장치의 멀티태스킹 제어 방법 및 장치
US9772747B2 (en) Electronic device having touchscreen and input processing method thereof
US20140240261A1 (en) Method for determining touch input object and electronic device thereof
KR102307215B1 (ko) 데이터 처리 방법 및 전자 디바이스
US9632693B2 (en) Translation of touch input into local input based on a translation profile for an application
US20160026272A1 (en) Method for displaying screen in electronic device, and electronic device thereof
WO2015000429A1 (zh) 智能选词的方法和装置
US9383858B2 (en) Method and device for executing an operation on a mobile device
KR102327205B1 (ko) 콘텐트를 공유하는 방법 및 콘텐트 공유 시스템
US20150042589A1 (en) Method and electronic device for wireless connection
US9342736B2 (en) Electronic device having sensor unit and operating method thereof
US20210223920A1 (en) Shortcut Key Control Method and Terminal
RU2705437C2 (ru) Проверка нажатия для определения разрешения на прямые манипулирования в ответ на пользовательские действия
US20140232659A1 (en) Methods, apparatuses, and computer program products for executing functions based on hover gestures or touch gestures
US20140043286A1 (en) Method for identifying touch pen in electronic device, and electronic device
KR20140112810A (ko) 터치스크린에서 드로잉 포인트에 대한 별도의 객체 디스플레이뷰 제공 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
US9870085B2 (en) Pointer control method and electronic device thereof
US20160267175A1 (en) Electronic apparatus and method of extracting highlight section of sound source
US20150331564A1 (en) Interaction method and apparatus of smart device
US20150062128A1 (en) Image processing method and apparatus therefor
JP2016062156A (ja) 端末装置

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20200613