RU2559749C2 - Система ввода информации касанием с тремя состояниями - Google Patents

Система ввода информации касанием с тремя состояниями Download PDF

Info

Publication number
RU2559749C2
RU2559749C2 RU2012127679/08A RU2012127679A RU2559749C2 RU 2559749 C2 RU2559749 C2 RU 2559749C2 RU 2012127679/08 A RU2012127679/08 A RU 2012127679/08A RU 2012127679 A RU2012127679 A RU 2012127679A RU 2559749 C2 RU2559749 C2 RU 2559749C2
Authority
RU
Russia
Prior art keywords
touch
state
screen
user interface
graphical user
Prior art date
Application number
RU2012127679/08A
Other languages
English (en)
Other versions
RU2012127679A (ru
Inventor
Дэниел Джон ВИГДОР
Джаррод ЛОМБАРДО
Аннуска Золиоми ПЕРКИНС
Шон ХЕЙЗ
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2012127679A publication Critical patent/RU2012127679A/ru
Application granted granted Critical
Publication of RU2559749C2 publication Critical patent/RU2559749C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Изобретение относится к устройствам ввода с экраном ввода касанием, имитирующим устройства ввода с тремя состояниями. Техническим результатом является расширение возможностей использования мобильного устройства людям со слабым зрением за счет обеспечения средства проверки воздействия касанием экрана до установления контакта с ним. Предложен способ обеспечения пользовательского интерфейса для мобильного устройства. Способ включает в себя этап, на котором отображают элемент графического пользовательского интерфейса на воспринимающем касание экране, а также, согласно способу, принимают первое касание на воспринимающем касание экране в местоположении отображаемого элемента графического пользовательского интерфейса. Кроме того, в ответ на принятое первое касание, входят в первое состояние, которое включает в себя обеспечение аудиоподсказки, указывающей действие, которое имело бы место, если была выполнена функция, связанная с элементом графического пользовательского интерфейса. 3 н. и 17 з.п. ф-лы, 17 ил.

Description

УРОВЕНЬ ТЕХНИКИ, К КОТОРОМУ ОТНОСИТСЯ ИЗОБРЕТЕНИЕ
[0001] Чувствительные к касанию экраны устройства отображения стали все более распространены как вариант традиционных клавиатур и других человеко-машинных интерфейсов («HMI») для приема записи данных или другого ввода от пользователя. Экраны ввода касанием используют в различных устройствах, включающих в себя как портативные, так и стационарные устройства. Портативные устройства с экранами ввода касанием обычно включают в себя, например, мобильные телефоны, карманный персональный компьютер («КПК») и персональные медиа-плееры, которые воспроизводят музыку и видео. Стационарные устройства, которые используют экраны ввода касанием, обычно включают в себя, например, те, которые используются на транспортных средствах, терминалах торговых точек («POS») и оборудовании, используемом в медицинском и промышленном приложениях.
[0002] Возможность непосредственно касаться и манипулировать данными на экране ввода касанием является сильным доводом для пользователей. Во многих отношениях экраны ввода касанием могут быть использованы в качестве более предпочтительного механизма ввода, чем традиционная мышь. При использовании экрана ввода касанием, пользователь может просто прикоснуться к экрану непосредственно на графическом элементе пользовательского интерфейса (например, значке), который он хочет выбрать, вместо того, чтобы позиционировать курсор по пользовательскому интерфейсу с помощью мыши.
[0003] Экраны ввода касанием могут служить и для отображения вывода от вычислительного устройства пользователю и приема ввода от пользователя. Опции ввода пользователя могут быть отображены, например, в качестве управления, навигации или значков объекта на экране. Когда пользователь выбирает опцию ввода касанием ассоциированного значка на экране с помощью пера или пальца, вычислительное устройство считывает положение касания и отправляет сообщение приложению или служебной программе, которая представляет значок.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
[0004] Традиционные устройства ввода с экраном ввода касанием могут быть проблематичными для пользователей со слабым зрением, потому что они не способны визуально судить о совмещении своего пальца или пера с желаемым графическим элементом пользовательского интерфейса, появляющимся на экране, до контакта с ним. Кроме того, они не обладают средством для проверки воздействия касания экрана до установления контакта с ним, к этому времени базовое приложение уже будет действовать в ответ на этот контакт.
[0005] Чтобы преодолеть это ограничение, в данной реализации обеспечено устройство ввода с экраном ввода касанием, которое имитирует устройство ввода с 3 состояниями, такое как мышь. Одно из этих состояний используется для предварительного просмотра эффекта активации графического элемента пользовательского интерфейса при касании экрана. В этом состоянии предварительного просмотра касание графического элемента пользовательского интерфейса на экране с помощью пальца или пера не побуждает к выполнению действия, ассоциированного с этим элементом. Вернее, при касании экрана в состоянии предварительного просмотра, пользователю обеспечивают аудио метки, указывающие, какое действие произошло бы, если действие, ассоциированное с элементом, к которому выполнено касание, было бы выполнено.
[0006] В некоторых реализациях, после того, как пользователь определил положение графического элемента пользовательского интерфейса, который он или она желает выбрать, пользователь может поместить второй палец или перо на экране ввода касанием, в то время как первый палец или перо поддерживает контакт с элементом. Таким способом желаемый графический элемент пользовательского интерфейса может быть активирован. То есть, перевод экрана ввода касанием во второе состояние, посредством установки контакта со вторым пальцем или пером, побуждает базовое приложение к ответу, как это было бы при выборе этого элемента с использованием традиционного устройства ввода.
[0007] Эта сущность изобретения обеспечена для введения выбора понятий в упрощенной форме, которые дополнительно описаны ниже в подробном описании. Эта сущность изобретения не предназначена для идентификации ключевых признаков или существенных признаков заявленного объекта изобретения, также не предназначена для использования в качестве помощи при определении объема заявленного объекта изобретения.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
[0008] Фиг. 1 показывает иллюстративное портативное вычислительное окружение, в котором пользователь взаимодействует с устройством, использующим экран касания для приема пользовательских вводов.
[0009] Фиг. 2 показывает различные иллюстративные конструктивные решения вычислительного устройства, в которых может быть использован экран касания.
[0010] Фиг. 3 показывает диаграмму состояния для традиционного устройства ввода мыши.
[0011] Фиг. 4 показывает диаграмму состояния для традиционного устройства ввода экрана ввода касанием.
[0012] Фиг. 5 показывает один пример диаграммы состояния для устройства ввода с экраном ввода касанием с 3 состояниями.
[0013] Фиг. 6 показывает палец пользователя, касающийся экрана ввода касанием, который представляет меню опций.
[0014] Фиг. 7 показывает палец пользователя на Фиг. 6, касающийся опции, обозначенной «Scatter View» (Просмотр Разброса).
[0015] Фиг. 8 показывает палец, касающийся экрана ввода касанием, показанного на Фиг. 6-7, который побуждает круг к представлению на экране ввода касанием, центрированным относительно положения, где палец создает контакт с экраном.
[0016] Фиг. 9 показывает второй палец, касающийся экрана ввода касанием, показанного на Фиг. 8, чтобы активировать выбранный графический элемент пользовательского интерфейса.
[0017] Фиг. 10 - иллюстративная архитектура, которая показывает функциональные компоненты, которые могут быть установлены на вычислительном устройстве, которое использует экран касания для приема пользовательских вводов.
Подробное описание вариантов реализации
[0018] Фиг. 1 показывает иллюстративное портативное вычислительное окружение 100, в котором пользователь 102 взаимодействует с устройством 105, с использованием экрана 110 ввода касанием для приема пользовательских вводов. Устройство 105, как показано на фиг.1, обычно конфигурируется как портативная компьютерная платформа или информационное оборудование, такое как мобильный телефон, интеллектуальный телефон, карманный персональный компьютер, ультра-мобильный ПК (персональный компьютер), карманное устройство игр, персональный медиа-плейер, и т.п.
Как правило, экран 110 ввода касанием собирают из компонента датчика касания, который сконструирован на компоненте отображения. Компонент отображения отображает изображения способом, подобно типичному монитору на PC или переносному компьютеру. Во многих приложениях устройство 105 будет использовать жидкокристаллическое устройство отображения («ЖК-монитор») из-за его легкого веса, тонкости и низкой цены. Однако, в альтернативных применениях, могут быть использованы другие традиционные технологии отображения, включающие в себя, например, электронно-лучевые трубки («ЭЛТ»), плазменные экраны и электролюминесцентные экраны.
[0019] Компонент датчика касания установлен поверх компонента отображения. Датчик касания прозрачен, так что отображение может быть видно через него. Много различных типов технологий датчика касания являются известными и могут быть применены как подходящие, чтобы соответствовать потребностям конкретной реализации. Они включают в себя резистивную, емкостную, ближнего поля, оптическую визуализацию, с измерителем деформаций, с дисперсионным сигналом, с распознаванием акустического импульса, инфракрасную и поверхностную акустико-волновую технологии, среди других. Некоторые современные экраны ввода касанием могут различить среди многократных, единовременные точки касания и/или являются чувствительными к давлению. Взаимодействие с экраном 110 ввода касанием, как правило, выполняется с использованием пальцев или больших пальцев или для неемкостного типа датчиков касания, также может быть использовано перо.
[0020] На Фиг. 2 показаны другие иллюстративные конструктивные решения, в которых может использоваться вычислительное устройство, включающие в себя настольные компьютеры 1301, ноутбуки 1302, планшетные компьютеры 1303, портативные компьютеры 1304, карманные персональные помощники 1305, медиа-плееры 1306, мобильные телефоны 1307, и т.п. Кроме того, компьютер может быть комбинацией этих типов, например, устройство, которое является комбинацией карманного персонального компьютера, медиа-плеера и мобильного телефона.
[0021] В то время как многие конструктивные решения, показанные на фиг. 1 и 2 являются портативными, настоящая компоновка может быть также использована в любом стационарном вычислительном устройстве, где используются экраны ввода касанием. Эти устройства включают в себя, например, банковские автоматы («ATM»), терминалы торговых точек («POS») или киоски самообслуживания и т.п., также используются авиакомпаниями, банками, ресторанами, и розничными учреждениями, чтобы дать возможность пользователям осуществлять запросы, самим обслуживать выполнение подсчета стоимости всех покупок и получения чека или завершать другие типы сделок. Также рассмотрены промышленные, медицинские, и другие приложения, в которых используются экраны ввода касанием, например, для управления машинами или оборудованием, размещения заказов, управления инвентарем, и т.д. Экраны ввода касанием также становятся все более распространенными в автомобилях для управления подсистемами, такими как отопление, вентиляция и кондиционирование воздуха («HVAC»), развлечения и навигация. Новые поверхностные компьютерные продукты, в частности, Microsoft SurfaceTM корпорации Microsoft Corporation также могут быть приспособлены для использования с настоящим устройством ввода.
[0022] Чтобы облегчить понимание способов, методов и систем, описанных в настоящем документе, может быть полезно сравнить операцию обычной мыши с традиционным устройством ввода с экраном ввода касанием, используя диаграммы состояния для моделирования их функциональности.
[0023] Во-первых, когда мышь находится вне ее отслеживаемого диапазона (так происходит, когда механическая мышь оторвана от поверхности), мышь находится в состоянии 0, которое может быть упомянуто как вне диапазона. Далее, рассмотрим мышь, которая находится в пределах ее отслеживаемого диапазона, но никакая ее кнопка не нажата. Это состояние может быть упомянуто как слежение, которое описывает состояние, в котором курсор или указатель, возникающие на экране, следуют за перемещением мыши. Состояние слежения может быть упомянуто как состояние 1. В состоянии слежения курсор или указатель могут быть позиционированы на любом желаемом графическом элементе пользовательского интерфейса посредством перемещения мыши. Мышь может также осуществлять операцию во втором состоянии (упомянутом как состояние 2), когда кнопка нажата. В этом состоянии, которое может быть упомянуто как протягивание, графические элементы пользовательского интерфейса или объекты перемещаются («протягиваются») на устройстве отображения так, что они следуют за перемещением мыши. Следует отметить, что действие выбора значка может быть рассмотрено как подсостояние состояния протягивания, поскольку выбор влечет за собой нажатие и отпускание кнопки.
[0024] Фиг. 3 показывает диаграмму состояния для мыши, описанную выше. В состоянии 0 мышь находится вне диапазона, и в состоянии 1 она находится в состоянии слежения. Мышь может входить в состояние 1 из состояния 0, посредством ее приведения обратно в диапазон. В случае механической мыши это влечет за собой возвращение мыши на поверхность, такую как коврик для мыши. Мышь может войти в состояние 2 из состояния 1, посредством нажатия («щелчком») кнопки. Мышь может быть также возвращена в состояние 1 из состояния 2, отпусканием кнопки.
[0025] Фиг. 4 показывает диаграмму состояния для традиционного устройства ввода с экраном ввода касанием, которое, как предполагается, способно чувствовать только один бит давления, а именно, касание или без касания. В то время как мышь имеет три состояния, устройство ввода с экраном ввода касанием имеет только два состояния, которые соответствуют состоянию 0 (вне диапазона) и состоянию 2 (протягивание). То есть, традиционное устройство ввода с экраном ввода касанием не имеет отслеживаемого состояния.
[0026] Отсутствие отслеживаемого состояния в традиционном устройстве ввода с экраном ввода касанием может быть преодолено зрячими пользователями, потому что они способны визуально судить о совмещении их пальца или пера с желаемым графическим элементом пользовательского интерфейса, возникающим на экране, до контакта с ним. Пользователи со слабым зрением, однако, не имеют средства для проверки воздействия касания экрана до установления контакта с ним, к этому времени базовое приложение уже будет действовать в ответ на этот контакт.
[0027] Чтобы преодолеть это ограничение, обеспечено устройство ввода с экраном ввода касанием, которое имитирует устройство ввода с 3 состояниями, такое как мышь. Дополнительное состояние используется для предварительного просмотра эффекта входа в состояние 2 при касании экрана. В этом состоянии предварительного просмотра касание графического элемента пользовательского интерфейса на экране не побуждает к действию, ассоциированному с этим элементом, которое должно быть выполнено. Вернее, когда экрана касаются во время состояния предварительного просмотра, пользователю обеспечивают аудио метки, указывающие, какое действие произошло бы, если устройство ввода с экраном ввода касанием было бы в состоянии 2.
[0028] Фиг. 5 показывает один пример диаграммы состояния для устройства ввода с экраном ввода касанием с 3 состояниями. Состояния 0 и 2 соответствуют состояниям 0 и 2, показанным на фиг. 4. Следует отметить, однако, что в целях обобщения состояние 2 на фиг. 5, упоминается как состояние касания, которое может включать в себя действия, такие как протягивание и выбор графического элемента пользовательского интерфейса, к которому выполнено касание. Например, второе состояние может позволить графическому элементу пользовательского интерфейса быть протянутым на экране ввода касанием в ответ на перемещение первого касания вдоль экрана ввода касанием. В дополнение к этим двум состояниям, новое состояние, состояние 1, также обеспечено, которое в некоторых реализациях может упоминаться как состояние предварительного просмотра аудио. Состояние предварительного просмотра аудио может быть введено из состояния вне диапазона (состояние 0), касанием экрана с помощью одного пальца или пера. По мере того, как во время этого состояния осуществляют контакт с различными графическими элементами пользовательского интерфейса, обеспечивают аудио метку, описывающую функцию элемента, с которым осуществляют контакт. Например, как показано на фиг. 6, палец пользователя принимают посредством экрана ввода касанием, который используют с компьютерным продуктом Microsoft SurfaceTM. Палец касается экрана, который представляет меню 205 опций. В результате приема пальца на экране ввода касанием генерируется круг 210 на экране ввода касанием. На фиг. 7 палец касается опции, обозначенной «Scatter View». В ответ на касание генерируется аудио метка, которая сообщает «Просмотр Разброса».
[0029] Как только пользователь определил положение графического элемента пользовательского интерфейса, который он или она желает выбрать, пользователь может войти в состояние 2, посредством размещения второго пальца или пера на экране ввода касанием, в то время как первый палец или перо поддерживает контакт с элементом. Таким способом желаемый графический элемент пользовательского интерфейса может быть активирован. То есть, перевод экрана ввода касанием во второе состояние, посредством установки контакта со вторым пальцем или пером, побуждает базовое приложение к ответу, как это было бы при выборе элемента с использованием традиционного устройства ввода.
[0030] Как указано на фиг. 5, пользователь может выйти из второго состояния, отрывая второй палец или перо от экрана ввода касанием, что возвращает экран в состояние предварительного просмотра аудио. То есть, обнаружение отсутствия второго пальца или пера, возвращает экран в состояние предварительного просмотра аудио.
[0031] В некоторых реализациях в состоянии касания может быть осуществлен вход из состояния предварительного просмотра аудио, посредством размещения второго пальца или пера в любом месте на экране или, как вариант, на заранее заданном участке экрана. В других реализациях пользователь устанавливает контакт с экраном в непосредственной близости с первым пальцем или пером. Например, в некоторых случаях второй палец или перо устанавливает контакт в пределах заранее заданного расстояния от первого пальца или пера. Один такой пример показан на фиг. 8. В этом примере круг 210 представлен на экране ввода касанием, центрированным относительно положения, где первый палец или перо устанавливает контакт с экраном, чтобы войти в состояние касания. Палец контактирует с прямоугольником 220, обозначенный как «Large Item» (Большой Элемент). После касания прямоугольника 220 пользователю представляют аудио метку «Большой Элемент». Чтобы войти в состояние касания, пользователь использует второй палец или перо для установления контакта с экраном в пределах круга 210, который отображен. На фиг. 9. показано это устройство ввода в состоянии касания. Второй палец приводит к образованию круга 230, который, как показано, перекрывает круг 210.
[0032] Фиг. 10 - иллюстративная архитектура 400, которая показывает функциональные компоненты, которые могут быть установлены на вычислительном устройстве, которое использует экран ввода касанием для приема пользовательских вводов. Функциональные компоненты являются реализуемыми в качестве альтернативы с помощью программного обеспечения, аппаратного обеспечения, программно-аппаратного обеспечения или различных комбинаций программного обеспечения, аппаратного обеспечения и программно-аппаратного обеспечения. Например, функциональные компоненты в иллюстративной архитектуре 404 могут быть созданы во время периода прогона через исполнение инструкций, хранимых в памяти, процессором.
[0033] Ведущее приложение 407, как правило, используется для обеспечения конкретной желаемой функциональности. Однако, в некоторых случаях, признаки и функции, реализуемые ведущим приложением 407, в качестве альтернативы могут быть обеспечены операционной системой устройства или межплатформенным программным обеспечением. Например, операции файловой системы и ввод посредством экрана ввода касанием могут быть поддержаны в качестве функций основной операционной системы в некоторых реализациях.
[0034] Компонент 420 предварительного просмотра аудио выполнен с возможностью предоставления различных событий ввода ведущему приложению 407 и функционирует как посредник между ведущим приложением и аппаратно-зависимыми контроллерами ввода. Эти контроллеры включают в себя: контроллер 425 экрана ввода касанием, контроллер 430 аудио и, возможно, другие контроллеры 428 ввода (например, контроллер клавиатуры), которые могут быть, в основном, реализованы как драйверы устройства в программном обеспечении. Контроллер 425 экрана ввода касанием взаимодействует с экраном ввода касанием, который абстрагируется в одном слое 440 аппаратного обеспечения на фиг.11. Среди других функций, контроллер 425 экрана ввода касанием выполнен с возможностью сбора данных, указывающих координаты касания и/или давления, приложенного к экрану касания и отправки собранных данных назад компоненту 420 предварительного просмотра аудио, как правило, в виде событий ввода.
[0035] Таким образом, компонент 420 предварительного просмотра аудио скомпонован с возможностью приема событий ввода, например физических (абсолютных) координат от контроллера 425 экрана ввода касанием. Характер событий ввода определяет состояние экрана ввода касанием. То есть, способ, которым пользователь осуществляет контакт с экраном с помощью одного или двух пальцев или перьев, определяет, находится ли экран вне диапазона, в предварительном просмотре аудио или состоянии касания. В состоянии предварительного просмотра компонент 420 предварительного просмотра аудио затем формулирует соответствующие запросы ведущему приложению, чтобы получить информацию относительно функциональности, выполняемой графическим элементом пользовательского интерфейса, с которым выполнено касание или установлен контакт. Например, если ведущее приложение 407 делает возможным программный доступ, компонент 420 предварительного просмотра аудио может извлекать данные ведущему приложению 407, который идентифицирует графический элемент пользовательского интерфейса, который пользователь выбрал, либо в состоянии предварительного просмотра аудио, либо в состоянии касания. Если компонент 420 предварительного просмотра аудио не может осуществлять программный доступ к содержимому ведущего приложения 407, ведущая программа, возможно, должна быть записана для включения соответствующих API, которые могут предоставить необходимую информацию компоненту 420 предварительного просмотра аудио. Извлеченные данные, как правило, в виде текста, могут подвергаться преобразованию текста в речь, используя конвертер текста в речь или модуль, к которому осуществлен доступ посредством компонента 420 предварительного просмотра аудио. В качестве альтернативы, извлеченные данные могут быть использованы для генерирования аудио данных, которые указывают функцию, выполняемую посредством активирования графического элемента пользовательского интерфейса, к которому выполнено касание или установлен контакт. Например, в некоторых случаях различимый тон может быть использован для представления часто используемых графических элементов пользовательского интерфейса, таких как «сохранить», «закрыть», и т.п. Компонент 420 предварительного просмотра аудио может затем предоставить аудио данные контроллеру 434 аудио, который может отправлять управляющий сигнал генератору аудио в уровень 440 аппаратного обеспечения так, что рендеринг аудио может быть осуществлен.
[0036] Используемые в этом приложении термины «компонент» и «система» и т.п. предназначены для отсылки к связанному с компьютером объекту, либо аппаратному обеспечению, комбинации аппаратного обеспечения и программного обеспечения, программному обеспечению, либо программному обеспечению при выполнении. Например, компонентом может быть, но без ограничения этим, процесс, выполняемый в процессоре, процессор, объект, экземпляр, исполняемый файл, поток управления, программа и/или компьютер. Посредством иллюстрации, и приложение, выполняемое на компьютере, и компьютер могут являться компонентом. Один или более компонентов могут постоянно находиться в пределах процесса и/или потока управления и компонент может быть локализован на одном компьютере и/или распределен между двумя или более компьютерами.
[0037] Кроме того, заявленный объект изобретения может быть реализован в качестве способа, устройства или изделия производства с использованием стандартных методов программирования и/или машиностроения для создания программного обеспечения, встроенного программного обеспечения, аппаратного обеспечения или любой их комбинации для управления компьютером для реализации раскрытого объекта изобретения. Термин «изделие производства», использованный в настоящем документе, предназначен, чтобы охватить машиночитаемую компьютерную программу, доступную с любого считываемого компьютером устройства или носителя данных. Например, считываемый компьютером носитель данных может включать в себя, но без ограничения, магнитные устройства хранения данных (например, жесткий диск, дискета, магнитные полосы...), оптические диски (например, компакт-диск (CD), цифровой универсальный диск (DVD)...), смарт-карты и устройства флэш-памяти (например, карта, накопитель, ключевой диск...). Конечно, специалисты в данной области техники признают, что много модификаций могут быть сделаны для этой конфигурации, не отступая от объема или сущности заявленного объекта изобретения.
[0038] Хотя объект изобретения был описан на языке, характерном для структурных признаков и/или методологических действий, следует понимать, что объект изобретения, определенный в приложенной формуле изобретения, не обязательно ограничен конкретными признаками или действиями, описанными выше. Наоборот, конкретные признаки или действия, описанные выше, раскрыты в качестве примера форм реализации формулы изобретения.

Claims (20)

1. Способ обеспечения пользовательского интерфейса для мобильного устройства, содержащий этапы, на которых:
отображают элемент графического пользовательского интерфейса на воспринимающем касание экране;
принимают первое касание на воспринимающем касание экране в местоположении отображаемого элемента графического пользовательского интерфейса;
в ответ на принятое первое касание, входят в первое состояние, которое включает в себя обеспечение аудиоподсказки, которая указывает действие, которое имело бы место, если была выполнена функция, связанная с элементом графического пользовательского интерфейса;
вслед за исполнением аудиоподсказки, принимают второе касание на воспринимающем касание экране, продолжая принимать первое касание; и
в ответ на принятое второе касание, входят во второе состояние, которое включает в себя выполнение упомянутой функции.
2. Способ по п. 1, при этом второе состояние позволяет элементу графического пользовательского интерфейса подвергаться перетаскиванию на воспринимающем касание экране в ответ на перемещение первого касания вдоль воспринимающего касание экрана, находясь во втором состоянии.
3. Способ по п. 1, при этом во второе состояние входят, только если второе касание принято на предопределенной части воспринимающего касание экрана.
4. Способ по п. 1, при этом во второе состояние входят, только если второе касание принято на части воспринимающего касание экрана, которая отдалена от местоположения, в котором принято первое касание, меньше чем на предопределенное расстояние.
5. Способ по п. 1, при этом элемент графического пользовательского интерфейса представляет часть пользовательского интерфейса приложению, которое исполняется на электронном устройстве, и при этом упомянутая функция побуждает приложение реагировать предопределенным образом.
6. Способ по п. 5, при этом упомянутый вход в первое состояние не побуждает приложение реагировать в соответствии с упомянутой функцией.
7. Способ по п. 1, дополнительно содержащий этапы, на которых:
вслед за входом во второе состояние, обнаруживают отсутствие второго касания; и
в ответ на отсутствие второго касания, осуществляют возврат в первое состояние.
8. Система отображения воспринимающего касание экрана, содержащая вычислительное устройство и программное обеспечение, которые вместе сконфигурированы для выполнения действий, содержащих:
отображение элемента графического пользовательского интерфейса на воспринимающем касание экране;
прием первого касания на воспринимающем касание экране в местоположении отображаемого элемента графического пользовательского интерфейса;
в ответ на принятое первое касание, вход в первое состояние, которое включает в себя обеспечение аудиоподсказки, которая указывает действие, которое имело бы место, если была выполнена функция, связанная с элементом графического пользовательского интерфейса;
вслед за исполнением аудиоподсказки, прием второго касания на воспринимающем касание экране, продолжая принимать первое касание; и
в ответ на принятое второе касание, вход во второе состояние, которое включает в себя выполнение упомянутой функции.
9. Система по п. 8, при этом аудиоподсказка включает в себя речь.
10. Система по п. 8, при этом второе состояние позволяет элементу графического пользовательского интерфейса подвергаться перетаскиванию на воспринимающем касание экране в ответ на перемещение первого касания вдоль воспринимающего касание экрана, находясь во втором состоянии.
11. Система по п. 8, при этом во второе состояние входят, только если второе касание принято на предопределенной части воспринимающего касание экрана.
12. Система по п. 8, при этом во второе состояние входят, только если второе касание принято на части воспринимающего касание экрана, которая отдалена от местоположения, в котором принято первое касание, меньше чем на предопределенное расстояние.
13. Система по п. 8, при этом упомянутая функция побуждает приложение реагировать предопределенным образом.
14. Считываемый компьютером носитель, хранящий исполняемые инструкции, которые при исполнении вычислительным устройством побуждают вычислительное устройство выполнять действия, содержащие:
отображение элемента графического пользовательского интерфейса на воспринимающем касание экране;
прием первого касания на воспринимающем касание экране в местоположении отображаемого элемента графического пользовательского интерфейса;
в ответ на первое касание, вход в первое состояние, которое включает в себя обеспечение аудиоподсказки, которая указывает действие, которое имело бы место, если была выполнена функция, связанная с элементом графического пользовательского интерфейса;
вслед за исполнением аудиоподсказки, прием второго касания на воспринимающем касание экране, продолжая принимать первое касание; и
в ответ на принятое второе касание, вход во второе состояние, которое включает в себя выполнение упомянутой функции.
15. Считываемый компьютером носитель по п. 14, при этом аудиоподсказка включает в себя речь.
16. Считываемый компьютером носитель по п. 14, при этом второе состояние позволяет элементу графического пользовательского интерфейса подвергаться перетаскиванию на воспринимающем касание экране в ответ на перемещение первого касания вдоль воспринимающего касание экрана, находясь во втором состоянии.
17. Считываемый компьютером носитель по п. 14, при этом упомянутая функция побуждает приложение реагировать предопределенным образом.
18. Считываемый компьютером носитель по п. 17, при этом упомянутое первое состояние не побуждает приложение реагировать в соответствии с упомянутой функцией.
19. Считываемый компьютером носитель по п. 14, при этом во второе состояние входят, только если второе касание принято на предопределенной части воспринимающего касание экрана.
20. Считываемый компьютером носитель по п. 14, при этом во второе состояние входят, только если второе касание принято на части воспринимающего касание экрана, которая отдалена от местоположения, в котором принято первое касание, меньше чем на предопределенное расстояние.
RU2012127679/08A 2009-12-03 2010-11-23 Система ввода информации касанием с тремя состояниями RU2559749C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/630,381 US20110138284A1 (en) 2009-12-03 2009-12-03 Three-state touch input system
US12/630,381 2009-12-03
PCT/US2010/057701 WO2011068713A2 (en) 2009-12-03 2010-11-23 Three-state touch input system

Publications (2)

Publication Number Publication Date
RU2012127679A RU2012127679A (ru) 2014-01-10
RU2559749C2 true RU2559749C2 (ru) 2015-08-10

Family

ID=44083226

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2012127679/08A RU2559749C2 (ru) 2009-12-03 2010-11-23 Система ввода информации касанием с тремя состояниями

Country Status (9)

Country Link
US (1) US20110138284A1 (ru)
EP (1) EP2507698B1 (ru)
JP (1) JP5775526B2 (ru)
KR (1) KR101872533B1 (ru)
CN (1) CN102763062B (ru)
AU (1) AU2010326223B2 (ru)
CA (1) CA2779706C (ru)
RU (1) RU2559749C2 (ru)
WO (1) WO2011068713A2 (ru)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9953392B2 (en) 2007-09-19 2018-04-24 T1V, Inc. Multimedia system and associated methods
US9965067B2 (en) 2007-09-19 2018-05-08 T1V, Inc. Multimedia, multiuser system and associated methods
US8600816B2 (en) * 2007-09-19 2013-12-03 T1visions, Inc. Multimedia, multiuser system and associated methods
EP2490113B1 (en) * 2011-02-15 2016-11-23 Lg Electronics Inc. Display device and method of controlling operation thereof
TWI441052B (zh) * 2011-02-24 2014-06-11 Avermedia Tech Inc 手勢操作方法及多媒體播放裝置
US20130021269A1 (en) * 2011-07-20 2013-01-24 Google Inc. Dynamic Control of an Active Input Region of a User Interface
WO2013068793A1 (en) * 2011-11-11 2013-05-16 Nokia Corporation A method, apparatus, computer program and user interface
KR20170106506A (ko) * 2012-03-21 2017-09-20 김시환 단계적 정보 제공 시스템 및 방법
JP5798532B2 (ja) * 2012-08-23 2015-10-21 株式会社Nttドコモ ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
CN102902477A (zh) * 2012-08-24 2013-01-30 中国电力科学研究院 一种基于触摸屏的电力系统仿真控制方法
KR101940220B1 (ko) 2012-10-23 2019-01-18 엘지디스플레이 주식회사 전원제어부를 포함하는 표시장치 및 그 구동방법
JP5806270B2 (ja) * 2013-09-21 2015-11-10 株式会社豊田自動織機 タッチスイッチモジュール
CN104516559A (zh) * 2013-09-27 2015-04-15 华硕电脑股份有限公司 触控输入装置的多点触控方法
CN103942000A (zh) * 2014-04-23 2014-07-23 宁波保税区攀峒信息科技有限公司 —种触摸事件识别方法
US20160267800A1 (en) * 2014-11-03 2016-09-15 Genius Factory Inc. Electronic device and method for providing learning information using the same
US9542037B2 (en) 2015-03-08 2017-01-10 Apple Inc. Device, method, and user interface for processing intensity of touch contacts
US10015364B2 (en) * 2015-05-11 2018-07-03 Pictureworks Pte Ltd System and method for previewing digital content
US10671343B1 (en) * 2016-06-30 2020-06-02 Amazon Technologies, Inc. Graphical interface to preview functionality available for speech-enabled processing
DE102016216318A1 (de) 2016-08-30 2018-03-01 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung eines elektronischen Gerätes
EP3736677A1 (en) * 2019-05-10 2020-11-11 MyScript A method and corresponding device for selecting and editing handwriting input elements
US20200379716A1 (en) * 2019-05-31 2020-12-03 Apple Inc. Audio media user interface
CN110908580B (zh) * 2019-11-11 2021-11-02 广州视源电子科技股份有限公司 控制应用的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6532005B1 (en) * 1999-06-17 2003-03-11 Denso Corporation Audio positioning mechanism for a display
KR20080107547A (ko) * 2007-06-07 2008-12-11 에스케이 텔레콤주식회사 이동 단말기에서 멀티 터치를 동시 인식하는 방법 및 멀티터치를 동시 인식 가능한 이동 단말기
RU2008116281A (ru) * 2005-09-30 2009-11-10 Нокиа Корпорейшн (Fi) Способ, устройство, компьютерная программа и графический интерфейс пользователя для пользовательского ввода в электронное устройство

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4307266A (en) * 1978-08-14 1981-12-22 Messina John D Communication apparatus for the handicapped
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US6009355A (en) * 1997-01-28 1999-12-28 American Calcar Inc. Multimedia information and control system for automobiles
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7358956B2 (en) * 1998-09-14 2008-04-15 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US6999066B2 (en) * 2002-06-24 2006-02-14 Xerox Corporation System for audible feedback for touch screen displays
US7023427B2 (en) * 2002-06-28 2006-04-04 Microsoft Corporation Method and system for detecting multiple touches on a touch-sensitive screen
US7814439B2 (en) * 2002-10-18 2010-10-12 Autodesk, Inc. Pan-zoom tool
US20050071761A1 (en) * 2003-09-25 2005-03-31 Nokia Corporation User interface on a portable electronic device
JP4387242B2 (ja) * 2004-05-10 2009-12-16 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
US20070182595A1 (en) * 2004-06-04 2007-08-09 Firooz Ghasabian Systems to enhance data entry in mobile and fixed environment
WO2006020305A2 (en) * 2004-07-30 2006-02-23 Apple Computer, Inc. Gestures for touch sensitive input devices
US20060077182A1 (en) * 2004-10-08 2006-04-13 Studt Peter C Methods and systems for providing user selectable touch screen functionality
US7735012B2 (en) * 2004-11-04 2010-06-08 Apple Inc. Audio user interface for computing devices
JP2006139615A (ja) * 2004-11-12 2006-06-01 Access Co Ltd 表示装置、メニュー表示プログラムおよびタブ表示プログラム
FR2878344B1 (fr) * 2004-11-22 2012-12-21 Sionnest Laurent Guyot Dispositif de commandes et d'entree de donnees
US20090213086A1 (en) * 2006-04-19 2009-08-27 Ji Suk Chae Touch screen device and operating method thereof
KR20070113022A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 사용자 입력에 반응하는 터치스크린 장치 및 이의 작동방법
US20070257891A1 (en) * 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
KR100748469B1 (ko) * 2006-06-26 2007-08-10 삼성전자주식회사 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기
US7880728B2 (en) * 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
US7843427B2 (en) * 2006-09-06 2010-11-30 Apple Inc. Methods for determining a cursor position from a finger contact with a touch screen display
US7581186B2 (en) * 2006-09-11 2009-08-25 Apple Inc. Media manager with integrated browsers
JP2008097172A (ja) * 2006-10-10 2008-04-24 Sony Corp 表示装置および表示方法
US20080129520A1 (en) * 2006-12-01 2008-06-05 Apple Computer, Inc. Electronic device with enhanced audio feedback
US7777732B2 (en) * 2007-01-03 2010-08-17 Apple Inc. Multi-event input system
US8970503B2 (en) * 2007-01-05 2015-03-03 Apple Inc. Gestures for devices having one or more touch sensitive surfaces
US7924271B2 (en) * 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
US8144129B2 (en) * 2007-01-05 2012-03-27 Apple Inc. Flexible touch sensing circuits
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8519964B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
JP2008204275A (ja) * 2007-02-21 2008-09-04 Konica Minolta Business Technologies Inc 入力操作装置および入力操作方法
WO2008128096A2 (en) * 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
US9830804B2 (en) * 2007-06-19 2017-11-28 At & T Intellectual Property, I, L.P. Methods, apparatuses, and computer program products for implementing situational control processes
WO2009044770A1 (ja) * 2007-10-02 2009-04-09 Access Co., Ltd. 端末装置、リンク選択方法および表示プログラム
KR101398134B1 (ko) * 2007-10-04 2014-05-20 엘지전자 주식회사 휴대 단말기의 동영상 재생장치 및 방법
US8063905B2 (en) * 2007-10-11 2011-11-22 International Business Machines Corporation Animating speech of an avatar representing a participant in a mobile communication
US20090102805A1 (en) * 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
US20090122018A1 (en) * 2007-11-12 2009-05-14 Leonid Vymenets User Interface for Touchscreen Device
US20090166098A1 (en) * 2007-12-31 2009-07-02 Apple Inc. Non-visual control of multi-touch device
KR101499546B1 (ko) * 2008-01-17 2015-03-09 삼성전자주식회사 터치 스크린 장치의 디스플레이 영역 제어 방법, 장치, 및기록매체
US8237665B2 (en) * 2008-03-11 2012-08-07 Microsoft Corporation Interpreting ambiguous inputs on a touch-screen
JP4853507B2 (ja) * 2008-10-30 2012-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8456420B2 (en) * 2008-12-31 2013-06-04 Intel Corporation Audible list traversal
US9489131B2 (en) * 2009-02-05 2016-11-08 Apple Inc. Method of presenting a web page for accessibility browsing
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
US8681106B2 (en) * 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US9262063B2 (en) * 2009-09-02 2016-02-16 Amazon Technologies, Inc. Touch-screen user interface
EP2494432B1 (en) * 2009-10-27 2019-05-29 Harmonix Music Systems, Inc. Gesture-based user interface
US8446392B2 (en) * 2009-11-16 2013-05-21 Smart Technologies Ulc Method for determining the location of a pointer in a pointer input region, and interactive input system executing the method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6532005B1 (en) * 1999-06-17 2003-03-11 Denso Corporation Audio positioning mechanism for a display
RU2008116281A (ru) * 2005-09-30 2009-11-10 Нокиа Корпорейшн (Fi) Способ, устройство, компьютерная программа и графический интерфейс пользователя для пользовательского ввода в электронное устройство
KR20080107547A (ko) * 2007-06-07 2008-12-11 에스케이 텔레콤주식회사 이동 단말기에서 멀티 터치를 동시 인식하는 방법 및 멀티터치를 동시 인식 가능한 이동 단말기

Also Published As

Publication number Publication date
EP2507698B1 (en) 2020-09-02
CN102763062A (zh) 2012-10-31
KR101872533B1 (ko) 2018-08-02
CA2779706A1 (en) 2011-06-09
US20110138284A1 (en) 2011-06-09
EP2507698A4 (en) 2016-05-18
CN102763062B (zh) 2015-09-16
AU2010326223A1 (en) 2012-05-24
WO2011068713A3 (en) 2011-09-29
AU2010326223B2 (en) 2014-05-01
RU2012127679A (ru) 2014-01-10
CA2779706C (en) 2019-06-04
JP2013513164A (ja) 2013-04-18
KR20120117809A (ko) 2012-10-24
WO2011068713A2 (en) 2011-06-09
EP2507698A2 (en) 2012-10-10
JP5775526B2 (ja) 2015-09-09

Similar Documents

Publication Publication Date Title
RU2559749C2 (ru) Система ввода информации касанием с тремя состояниями
JP5129140B2 (ja) タッチスクリーン型インターフェースを用いるコンピュータの作動
US9146672B2 (en) Multidirectional swipe key for virtual keyboard
KR100259452B1 (ko) 터치스크린용 가상 포인팅 디바이스
US10156980B2 (en) Toggle gesture during drag gesture
US11307758B2 (en) Single contact scaling gesture
KR100260867B1 (ko) 터치스크린포인팅디바이스의분리및합체를위한방법및시스템
KR100260866B1 (ko) 터치스크린포인팅디바이스의분리를위한방법및시스템
KR100255284B1 (ko) 가상 포인팅 디바이스를 생성하기 위한 컴퓨터 장치, 컴퓨터 시스템의 지시 방법 및 컴퓨터 사용가능 매체를 구비한 제조 물품
US5790104A (en) Multiple, moveable, customizable virtual pointing devices
US5856824A (en) Reshapable pointing device for touchscreens
US5933134A (en) Touch screen virtual pointing device which goes into a translucent hibernation state when not in use
KR100255285B1 (ko) 가상 포인팅 디바이스를 생성하기 위한 컴퓨터 시스템, 컴퓨터 시스템의 지시 방법, 및 컴퓨터 사용가능 매체를 구비한 제조 물품
US20140306897A1 (en) Virtual keyboard swipe gestures for cursor movement
US5812118A (en) Method, apparatus, and memory for creating at least two virtual pointing devices
JP2009509235A (ja) タッチスクリーン型ユーザ・インターフェース上への仮想入力装置の配置
US9026691B2 (en) Semi-autonomous touch I/O device controller operation under control of host

Legal Events

Date Code Title Description
HZ9A Changing address for correspondence with an applicant