RU2591671C2 - Краевой жест - Google Patents

Краевой жест Download PDF

Info

Publication number
RU2591671C2
RU2591671C2 RU2013152636/08A RU2013152636A RU2591671C2 RU 2591671 C2 RU2591671 C2 RU 2591671C2 RU 2013152636/08 A RU2013152636/08 A RU 2013152636/08A RU 2013152636 A RU2013152636 A RU 2013152636A RU 2591671 C2 RU2591671 C2 RU 2591671C2
Authority
RU
Russia
Prior art keywords
gesture
edge
determining
computer
implemented method
Prior art date
Application number
RU2013152636/08A
Other languages
English (en)
Other versions
RU2013152636A (ru
Inventor
Дженнифер НАН
Джесси Клэй САТТЕРФИЛД
Дэвид А. МЭТТЬЮЗ
Томас П. РУССО
Роберт Дж. ДЖЕРРЕТТ
Вэйдун ЧЖАО
Дженсен ХАРРИС
Чайтанья Дев САРИН
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47220136&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=RU2591671(C2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2013152636A publication Critical patent/RU2013152636A/ru
Application granted granted Critical
Publication of RU2591671C2 publication Critical patent/RU2591671C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Abstract

Изобретение относится к пользовательским интерфейсам. Технический результат заключается в обеспечении возможности выполнять выбор пользовательского интерфейса, не видимого в настоящий момент на дисплее посредством краевого жеста. Такой результат достигается тем, что принимают жест, выполняемый посредством чувствительного к жестам дисплея, определяют, что жест имеет начальную точку на краю чувствительного к жестам дисплея и более позднюю точку не на краю, определяют, находится ли линия от начальной точки до более поздней точки в пределах заранее определенного угла отклонения от перпендикуляра, идущего от края, и, в качестве реакции передают жест в операционную систему, связанную с чувствительным к жестам дисплеем. 2. н. и 18 з.п. ф-лы, 14 ил.

Description

УРОВЕНЬ ТЕХНИКИ
Обычные методы выбора пользовательского интерфейса, который в настоящий момент не является видимым на дисплее, часто смущают, занимают ценное пространство дисплея, не могут везде применяться на разных устройствах или обеспечивают плохой опыт взаимодействия пользователя.
Некоторые обычные методы, например, позволяют выполнять выбор пользовательского интерфейса посредством экранных элементов управления на панели задач, в пределах плавающего окна или на кадре окна. Эти экранные элементы управления, однако, занимают ценное доступное на дисплее пространство и могут раздражать пользователей тем, что требуют, чтобы пользователи находили и выбирали правильный элемент управления.
Некоторые другие обычные методы позволяют выполнять выбор пользовательского интерфейса посредством аппаратных средств, таких как быстрые клавиши и кнопки. В лучшем случае, эти методы требуют, чтобы пользователи помнили, какую клавишу, комбинацию клавиш или аппаратную кнопку выбрать. Даже в этом наилучшем случае пользователи часто случайно выбирают клавиши или кнопки. Кроме того, во многих случаях не могут везде применяться методы выбора аппаратных средств, так как аппаратные средства на вычислительных устройствах могут изменяться в соответствии с моделью, поколением, поставщиком или производителем устройства. В таких случаях, любые методы не будут работать или будут работать по-разному на разных вычислительных устройствах. Осложняет проблему то, что пользователям необходимо помнить правильные аппаратные средства, так как многие пользователи имеют многочисленные устройства, и, поэтому, им может быть необходимо помнить разные выборы аппаратных средств для разных устройств. Кроме того, для многих вычислительных устройств выбор аппаратных средств заставляет пользователей заниматься вычислительным устройством вне нормального хода взаимодействия пользователя, например, когда устройство с сенсорным экраном требует, чтобы пользователь сменил его или ее ментальную и физическую ориентацию с взаимодействий на основе дисплея на взаимодействия на основе аппаратных средств.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
Данный документ описывает методики и устройства, позволяющие выполнять краевой жест. В некоторых вариантах осуществления эти методики и устройства позволяют выполнять выбор пользовательского интерфейса, не видимого в настоящий момент на дисплее, посредством краевого жеста, который легко использовать и запомнить.
Это краткое изложение сущности изобретения обеспечивается для введения упрощенных принципов, делающих возможным краевой жест, который дополнительно описывается ниже в разделе «Подробное описание». Это краткое изложение сущности изобретения не предназначено ни для определения существенных признаков заявленного изобретения, ни для использования при определении объема заявленного изобретения. Методики и/или устройства, позволяющие выполнять краевой жест, также упоминаются в данном документе отдельно или вместе в качестве «методик», разрешенных контекстом.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Варианты осуществления, позволяющие выполнять краевой жест, описываются с ссылкой на нижеследующие чертежи. Одинаковые позиции используются на чертежах для ссылки на подобные признаки и компоненты:
Фиг.1 иллюстрирует примерную систему, в которой могут быть реализованы методики, позволяющие выполнять краевой жест.
Фиг.2 иллюстрирует примерный способ, позволяющий выполнять краевые жесты, основанный на том, что краевой жест приблизительно перпендикулярен краю, у которого жест начинается.
Фиг.3 иллюстрирует примерное планшетное вычислительное устройство, имеющее сенсорный дисплей, представляющий иммерсивный интерфейс.
Фиг.4 иллюстрирует примерный иммерсивный интерфейс по фиг.3 вместе с примерными краями.
Фиг.5 иллюстрирует примерный иммерсивный интерфейс по фиг.3 и 4 вместе с линиями углового отклонения от перпендикулярной линии и линии от начальной точки до более поздней точки жеста.
Фиг.6 иллюстрирует края иммерсивного интерфейса, показанного на фиг.4, вместе с двумя зонами на правом краю.
Фиг.7 иллюстрирует интерфейс выбора приложения, представленный модулем системного интерфейса в ответ на краевой жест и над иммерсивным интерфейсом и веб-страницей по фиг.3.
Фиг.8 иллюстрирует примерный способ, позволяющий выполнять краевые жесты, включающий в себя определение интерфейса для представления, основываясь на некотором факторе жеста.
Фиг.9 иллюстрирует примерный способ, позволяющий выполнять расширение представления или прекращение представления пользовательского интерфейса, представленного в ответ на краевой жест, или представление другого пользовательского интерфейса.
Фиг.10 иллюстрирует портативный компьютер, имеющий сенсорный дисплей, имеющий оконный интерфейс электронной почты и два иммерсивных интерфейса.
Фиг.11 иллюстрирует интерфейсы по фиг.10 вместе с двумя жестами, имеющими начальную точку, более поздние точки и одну или несколько последующих точек.
Фиг.12 иллюстрирует оконный интерфейс электронной почты по фиг.10 и 11 вместе с интерфейсом обработки электронной почты в ответ на краевой жест.
Фиг.13 иллюстрирует интерфейсы по фиг.12 вместе с интерфейсом дополнительных вариантов выбора электронной почты, представленным в ответ на жест, определенный, что он имеет последующую точку на заданном расстоянии от края.
Фиг.14 иллюстрирует примерное устройство, в котором могут быть реализованы методики, позволяющие выполнять краевые жесты.
ПОДРОБНОЕ ОПИСАНИЕ
Обзор
Данный документ описывает методики и устройства, позволяющие выполнять краевой жест. Эти методики позволяют пользователю быстро и легко выбрать интерфейс, не видимый в настоящий момент на устройстве пользователя, а также другие операции.
Рассмотрим случай, когда пользователь просматривает фильм на планшетном вычислительном устройстве. Предположим, что фильм воспроизводится на иммерсивном интерфейсе, занимающем весь дисплей, и что пользователь хотел бы проверить свою веб-страницу социальной сети без остановки фильма. Описанные методики и устройства позволяют ей выбрать другие интерфейсы посредством простого жеста проведения пальцем, начинаемого на краю ее дисплея. Она может провести пальцем с одного края ее дисплея и вытащить пользовательский интерфейс, позволяющий ей выбрать свой веб-сайт социальной сети. Или, вместо этого, предположим, что она хотела бы взаимодействовать с мультимедийным приложением, воспроизводящим фильм таким образом, который не разрешается иммерсивным интерфейсом, например, отобразить меню, делающее возможным субтитры или комментарии режиссера. Она может провести пальцем с другого края дисплея ее планшета и извлечь меню управления для иммерсивного интерфейса и быстро и легко выбрать элементы и/или команды из этого меню.
В обоих этих случаях, ценное доступное пространство, используемое для воспроизведения фильма, не занималось экранными элементами управления, и пользователю не требовалось запоминать и находить аппаратную кнопку. Кроме того, ни один жест, кроме одного, начинающегося от края, не используется предлагаемыми методиками в данном примере, тем самым позволяя иммерсивному интерфейсу использовать почти все обычно доступные жесты. Кроме того, рассматривая краевые жесты или части их, предлагаемые методики не оказывают влияние на рабочие характеристики жеста или систему сенсорного ввода, так как краевые жесты могут быть обработаны перед тем, как весь жест будет завершен, избегая задержки, связанной с обработкой всех жестов, начатых где-то в другом месте.
Это только два примера из многочисленных путей, в которых предложенные здесь методики делают возможными и используют краевые жесты, прочие из которых описываются ниже.
Примерная система
Фиг.1 иллюстрирует примерную систему 100, в которой могут быть воплощены методики, позволяющие выполнять краевой жест. Система 100 включает в себя вычислительное устройство 102, которое изображено с шестью примерами: портативный компьютер 104, планшетный компьютер 106, смартфон 108, телевизионная абонентская приставка 110, настольный компьютер 112 и игровое устройство 114, хотя также могут использоваться другие вычислительные устройства и системы, такие как серверы и нетбуки.
Вычислительное устройство 102 включает в себя процессор(-ы) 116 компьютера и считываемые компьютером носители 118 данных (носители 118). Носители 118 включают в себя операционную систему 120, модуль 122 оконного режима, модуль 124 иммерсивного режима, модуль 126 системного интерфейса, обработчик 128 жестов и одно или несколько приложений 130, причем каждое имеет одно или несколько пользовательских интерфейсов 132 приложения.
Вычислительное устройство 102 также включает в себя или имеет доступ к одному или нескольким дисплеям 134 и механизмам 136 ввода. Четыре примерных дисплея показаны на фиг.1. Механизмы 136 ввода могут включать в себя, например, чувствительные к жестам датчики и устройства, такие как сенсорные датчики и датчики отслеживания движения (например, на основе камеры), а также мыши (автономные или интегральные с клавиатурой), сенсорные площадки и микрофоны с сопровождающим программным обеспечением распознавания голоса. Механизмы 136 ввода могут быть отдельными или интегральными с дисплеями 134; интегральные примеры включают в себя чувствительные к жестам дисплеи с интегрированными чувствительными к касанию или чувствительными к движению датчиками.
Модуль 122 оконного режима представляет пользовательские интерфейсы 132 приложения посредством окон, имеющих фреймы. Эти фреймы могут обеспечивать элементы управления, посредством которых можно взаимодействовать с приложением, и/или элементы управления, позволяющие пользователю перемещать и изменять размер окна.
Модуль 124 иммерсивного режима обеспечивает окружение, посредством которого пользователь может просматривать и взаимодействовать с одним или несколькими приложениями 130 при помощи пользовательских интерфейсов 132 приложения. В некоторых вариантах осуществления это окружение представляет содержимое приложений и делает возможным взаимодействие с приложениями с малым фреймом окна или без фрейма окна и/или без необходимости для пользователя уметь обращаться с компоновкой фрейма окна или первичностью относительно других окон (например, какое окно является активным или находится впереди) или вручную изменять размер или располагать пользовательские интерфейсы 132 приложения.
Это окружение, но это не требуется, может размещаться и/или возникать без использования оконного окружения, реализующей концепцию рабочего стола. Таким образом, в некоторых случаях модуль 124 иммерсивного режима представляет иммерсивную среду, которая не является окном (даже без реального фрейма) и предотвращает использование дисплеев, подобных рабочему столу (например, панель задач). Кроме того, в некоторых вариантах осуществления эта иммерсивная среда подобна операционной системе в том, что она не является закрываемой или способной деинсталлироваться. Когда она не требуется, в некоторых случаях эта иммерсивная среда дает возможность использовать все или почти все пиксели дисплея приложениями. Примеры иммерсивных сред приводятся ниже как часть описания предлагаемых методик, хотя они не являются исчерпывающими или они не предназначены для ограничения методик, описанных в данном документе.
Модуль 126 системного интерфейса обеспечивает один или несколько интерфейсов, посредством которых делается возможным взаимодействие с операционной системой 120, такие как, например, запускающий приложение интерфейс, меню запуска или системные инструментальные средства или меню вариантов выбора.
Операционная система 120, модули 122, 124 и 126, а также обработчик 128 жестов могут быть отдельными друг от друга или объединенными или интегрированными в любую подходящую форму.
Примерные способы
Фиг.2 описывает способ 200, позволяющий выполнять краевые жесты, основываясь на том, что краевой жест приблизительно перпендикулярен краю, на котором начинается жест. В частях последующего описания ссылка может делаться на систему 100 по фиг.1, ссылка на которую делается только для примера.
На этапе 202 принимают жест. Этот жест может приниматься в различных частях дисплея, таких как над оконным интерфейсом, иммерсивным интерфейсом или без интерфейса. Кроме того, этот жест может выполняться и приниматься различным образом, таким как указатель, отслеживающий перемещение, принимаемое посредством сенсорной панели, мыши или перекатываемого шарика, или физическое движение, выполненное рукой(-ами), пальцем(-ами) или стилусом, принятое посредством чувствительного к движению или чувствительного к касанию механизма. В некоторых случаях, жест принимается вне или близко к физическому краю дисплея (например, когда палец или стилус встречается с краем дисплея) посредством, например, сенсорного цифрового преобразователя, емкостного сенсорного экрана или емкостного датчика.
В качестве примера рассмотрим фиг.3, которая иллюстрирует планшетное вычислительное устройство 106. Планшет 106 включает в себя сенсорный дисплей 302, показанный отображающим иммерсивный интерфейс 304, который включает в себя веб-страницу 306. В качестве части текущего примера, на этапе 202 обработчик 128 жестов принимает жест 308, как показано на фиг.3.
На этапе 204 определяют, находится ли начальная точка жеста на краю. Как отмечено выше, рассматриваемым краем может быть край пользовательского интерфейса, или иммерсивного, или оконного, и/или дисплея. В некоторых случаях, конечно, краем пользовательского интерфейса также является край дисплея. Размер края может изменяться, основываясь на различных факторах касаемо дисплея или интерфейса. Малый дисплей или интерфейс может иметь меньший размер в абсолютных или пиксельных выражениях, чем большой дисплей или интерфейс. Высокочувствительный механизм ввода также допускает меньший край. В некоторых случаях, край может простираться за край дисплея или экрана, когда механизм ввода способен принимать часть жеста за пределами дисплея или экрана. Примерные края являются прямоугольником и изменяются от одного до двадцати пикселей по одной размерности и границей интерфейса в интерфейсе или дисплее по другой размерности, хотя вместо этого могут использоваться другие размеры и формы, включая выпуклые и вогнутые края.
Продолжая текущий пример, рассмотрим фиг.4, которая иллюстрирует иммерсивный интерфейс 304 и жест 308 по фиг.3, а также левый край 402, верхний край 404, правый край 406 и нижний край 408. Для визуальной ясности веб-страница 306 не показана. В данном примере размерности интерфейса и дисплея имеют умеренные размеры, между размерами смартфонов и размерами многочисленных портативных и настольных дисплеев. Края 402, 404, 406 и 408 имеют малую размерность в двадцать пикселей или около 10-15 мм в абсолютных выражениях, причем область каждого показана ограниченной пунктирными линиями на двадцати пикселях от границы дисплея на границах 410, 412, 414 и 416 края соответственно.
Обработчик 128 жестов определяет, что жест 308 имеет начальную точку 418 и что эта начальная точка 418 находится в пределах левого края 402. Обработчик 128 жестов определяет начальную точку в данном случае посредством приема данных, указывающих координаты [X, Y] в пикселях, на которых жест 308 начинается, и сравнения первой из этих координат с теми пикселями, которые содержатся в пределах каждого края 402-408. Обработчик 128 жестов часто может определять начальную точку и то, находится ли она на краю, быстрее частоты дискретизации, таким образом вызывая малое или отсутствие снижения рабочих характеристик, по сравнению с методами, которые просто передают жесты непосредственно на видимый интерфейс, над которым выполняется жест.
Возвращаясь, в целом, к способу 200, если на этапе 204 определено, что начальная точка жеста не находится на краю, способ 200 переходит по пути «Нет» на этап 206. На этапе 206 передают жесты на видимый пользовательский интерфейс, такой как расположенный снизу интерфейс, над которым принимается жест. Изменяя текущий пример, предположим, что было определено, что жест 308 не имеет начальной точки в пределах края. В таком случае обработчик 128 жестов передает буферизованные данные для жеста 308 на иммерсивный пользовательский интерфейс 304. После передачи жеста способ 200 завершается.
Если на этапе 204 определено, что начальная точка жеста находится на краю, способ 200 переходит по пути «Да» на этап 208. В необязательном порядке, на этапе 204 может быть определена длина части жеста перед переходом способа на этап 208. В некоторых случаях определение длины части жеста позволяет выполнять определение начальной точки перед завершением жеста. Этап 208 реагирует на положительное определение по этапу 204 определением того, является ли линия от начальной точки до более поздней точки жеста приблизительно перпендикулярной краю.
На этапе 208 в некоторых вариантах осуществления определяют используемую более позднюю точку. Обработчик 128 жестов, например, может определить более позднюю точку жеста, основываясь на том, что более поздняя точка принимается на заранее заданном расстоянии от края или начальной точки, такой как вне границы 410 края для края 402, или через двадцать пикселей от начальной точки 418, все на фиг.4. В некоторых других вариантах осуществления обработчик 128 жестов определяет более позднюю точку, основываясь на том, что она принимается через заранее заданное время после приема начальной точки, такая величина времени несколько больше, чем используемая, как правило, вычислительным устройством 102 для определения того, что жестом является жест касания и удержания или парящий жест.
Для текущего варианта осуществления обработчик 128 жестов использует принятую позже точку жеста 308, принятую вне края 402, если только принятая позже точка принимается в течение заранее заданного времени. Если не принимается никакая точка вне края в течение заранее заданного времени, обработчик 128 жестов переходит на этап 206 и передает жест 308 иммерсивному интерфейсу 304.
Используя начальную точку, на этапе 208 определяют, является ли линия от начальной точки до более поздней точки жеста приблизительно перпендикулярной краю. Различные углы отклонения могут использоваться при данном определении по этапу 208, такие как пять, десять, двадцать или тридцать градусов.
В качестве примера, рассмотрим угол отклонения в тридцать градусов от перпендикуляра. Фиг.5 иллюстрирует это примерное отклонение, изображая иммерсивный интерфейс 304, жест 308, левый край 402, левую границу 410 края и начальную точку 418 по фиг.3 и 4 вместе с линиями 502 отклонения в тридцать градусов от линии 504 перпендикуляра. Таким образом, обработчик 128 жестов определяет, что линия 506 от начальной точки 418 до более поздней точки 508 (которая находится на примерно двадцати градусах от перпендикуляра) является приблизительно перпендикулярной, основываясь на нахождении в пределах линии 502 примерного отклонения в тридцать градусов.
Как правило, если на этапе 208 определено, что линия не является приблизительно перпендикулярной краю, способ 200 переходит по пути «Нет» на этап 206 (например, траектория пальца изогнута). Как отмечено частично выше, на этапе 208 также может быть определено, что более поздняя точка или другой аспект жеста дисквалифицирует жест. Примеры включают в себя то, что, когда более поздняя точка находится в пределах края, например, из-за жеста парения, касания, нажатия и удержания или вверх и вниз (например, для прокрутки содержимого в пользовательском интерфейсе), когда, как установлено, жестом является жест единственного ввода и принимается второй ввод (например, первый палец начинает на краю, но второй палец затем соприкасается где-нибудь еще), или если событие касания происходит во время или перед жестом (например, палец уже выполняет соприкосновение где-то в другом месте, или соприкосновение принимается где-то в другом месте во время жеста).
Если на этапе 208 определено, что линия является приблизительно перпендикулярной, на основе более поздней точки вне края, способ 200 переходит по пути «Да» на этап 210.
Этап 210 реагирует на положительное определение по этапу 208 посредством передачи жеста на объект, отличающийся от видимого пользовательского интерфейса. Этим объектом не является пользовательский интерфейс, над которым был принят жест, предполагая, что он вообще был принят над пользовательским интерфейсом. На этапе 210 может быть определено, какому объекту также передать жест, например, основываясь на крае или зоне края, в которой принимается начальная точка жеста. Рассмотрим фиг.6, например, которая иллюстрирует иммерсивный интерфейс 304 и края 402, 404, 406 и 408 на фиг.4, но добавляет верхнюю зону 602 и нижнюю зону 604 к правому краю 406. Начальная точка в верхней зоне 602 может приводить к другому объекту (или даже этому же объекту, но другому пользовательскому интерфейсу, обеспечиваемому в ответ), чем начальная точка, принятая нижней зоной 604. Аналогично, начальная точка на верхнем краю 404 может приводить к другому объекту или интерфейсу, чем левый край 402 или нижний край 408.
В некоторых случаях, этим объектом является приложение, ассоциированное с пользовательским интерфейсом. В таком случае, передача жеста объекту может быть действующей для того, чтобы вызвать представление приложением второго пользовательского интерфейса, позволяющего выполнять взаимодействие с приложением. В вышеприведенном примере с фильмом объектом может быть медиаплеер, воспроизводящий фильм, но не иммерсивный интерфейс, отображающий фильм. Медиаплеер может затем представить второй пользовательский интерфейс, позволяющий выполнять выбор субтитров или комментарий режиссера, а не выбор, предоставляемый интерфейсом, отображающим фильм, такой как «пауза», «воспроизведение» и «останов». Эта возможность разрешается на фиг.1, где одно из приложений 130 может включать в себя или быть способным выполнять представление более одного пользовательского интерфейса 132 приложения. Таким образом, на этапе 210 может передаваться жест модулю 126 системного интерфейса, одному из приложений 130, представляющему в настоящий момент пользовательский интерфейс, или другому из приложений 130, не ограничиваясь перечисленными тремя возможностями.
Завершая текущий вариант осуществления, на этапе 210 обработчик 128 жестов передает жест 308 модулю 126 системного интерфейса. Модуль 126 системного интерфейса принимает буферизованную часть жеста 308 и продолжает принимать остальную часть жеста 308, когда он выполняется пользователем. Фиг.7 иллюстрирует возможную реакцию на прием жеста 308, изображая интерфейс 702 выбора приложения, представленный модулем 126 системного интерфейса, и над иммерсивным интерфейсом 304 и веб-страницей 306 с фиг.3. Интерфейс 702 выбора приложения позволяет выполнять выбор различных других приложений и их соответствующих интерфейсов в выбираемых плитках (tile) 704, 706, 708 и 710 приложения.
Примерный интерфейс 702 выбора приложения представляет собой иммерсивный пользовательский интерфейс, представляемый с использованием модуля 124 иммерсивного режима, хотя это не является жестким требованием. Представленными интерфейсами, или списком их, могут быть, вместо этого, оконные и представленные с использованием модуля 122 на основе окон. Оба этих модуля показаны на фиг.1.
На этапе 210 может, также или вместо этого, быть определено передать жест другим объектам и/или интерфейсам, основываясь на других факторах касаемо принятого жеста. Примерные факторы более подробно описаны в способе 800 ниже.
Отметьте, что способ 200 и другие способы, описанные в данном документе ниже, могут выполняться в реальном времени, например, когда выполняется и принимается жест. Это позволяет, среди прочего, пользовательскому интерфейсу, представляемому в ответ на жест, представляться до завершения жеста. Кроме того, пользовательский интерфейс может представляться постепенно, по мере приема жеста. Это позволяет осуществлять взаимодействие пользователя по вытягиванию пользовательского интерфейса из края в виде жеста с пользовательским интерфейсом, имеющим вид «прилипнувшего» к жесту (например, к точке мыши или пальцу человека, выполняющему жест).
Фиг.8 изображает способ 800, позволяющий выполнять краевые жесты, включая определение интерфейса для представления, основываясь на некоторых факторах жеста. В частях последующего описания ссылка может делаться на систему 100 по фиг.1, ссылка на которую сделана только для примера. Способ 800 может действовать полностью или частично отдельно от других способов, описанных в данном документе, или совместно с ними.
На этапе 802 определяют, что жест, выполненный над пользовательским интерфейсом, имеет начальную точку на краю пользовательского интерфейса и более позднюю точку не в пределах края. Этап 802 может функционировать аналогично способу 200 или использовать его аспекты, такие как определение более поздней точки, на которой основать определение по этапу 802. Этап 802 может осуществляться также по-другому.
В одном случае, например, на этапе 802 определяют, что жестом является жест проведения одним пальцем, начинающийся на краю видимого иммерсивного пользовательского интерфейса и имеющий более позднюю точку не на краю, но не основанную на угле жеста. Основываясь на этом определении, этап 802 переходит к этапу 804, а не передает жест видимому иммерсивному пользовательскому интерфейсу.
На этапе 804 определяют, какой интерфейс представлять, основываясь на одном или нескольких факторах жеста. Этап 804 может делать это, основываясь на окончательной или промежуточной длине жеста, того, является ли жест с единственной точкой или с многими точками (например, одним пальцем или многими пальцами), или скорости жеста. В некоторых случаях, два или более факторов жеста определяют, какой интерфейс представить, такого как жест перетаскивания и удержания, имеющий длину перетаскивания и время удержания, или жест перетаскивания и размещения, имеющий длину перетаскивания и позицию размещения. Таким образом, на этапе 804 может быть определено представить меню запуска в ответ на жест многими пальцами, интерфейс выбора приложения в ответ на относительно короткий жест одним пальцем или, например, интерфейс управления системой, позволяющий выполнять выбор для отключения вычислительного устройства 102 в ответ на относительно длинный жест одним пальцем. Чтобы это сделать, обработчик 128 жестов может определять длину жеста, скорость или число вводов (например, пальцев).
В ответ, на этапе 806 представляют определенный пользовательский интерфейс. Определенным пользовательским интерфейсом может быть любой из этих упомянутых в данном документе, а также полностью новый визуальный объект, такой как новая страница электронной книги, дополнительный визуальный объект (например, панель инструментов или навигационная панель) или модифицированный вид текущего пользовательского интерфейса (представляющего текст текущего пользовательского интерфейса с другим шрифтом, цветом или подсвечиванием). В некоторых случаях, могут представляться визуальные или невизуальные эффекты, такие как действия, относящиеся к видеоигре, или звуковые эффекты, ассоциированные с текущим или представленным пользовательским интерфейсом.
Предположим, в качестве примера, что обработчик 128 жестов определяет, основываясь на факторе жеста, представить пользовательский интерфейс, позволяющий выполнять взаимодействие с операционной системой 120. В ответ модуль 126 системного интерфейса представляет данный пользовательский интерфейс. Представление пользовательского интерфейса может осуществляться подобным образом, описанным в других способах, например, с постепенным отображением пользовательского интерфейса 702 выбора приложения на фиг.7.
После способа 200 и/или способа 800 в целом или частично, предложенные методики могут переходить на выполнение способа 900 по фиг.9. Способ 900 позволяет выполнять расширение пользовательского интерфейса, представление другого интерфейса или прекращение представления пользовательского интерфейса, представленного в ответ на краевой жест.
На этапе 902 принимают последующую точку жеста и после представления по меньшей мере некоторой части второго пользовательского интерфейса. Как отмечено частично выше, способы 200 и/или 800 могут представлять или вызывать представление второго пользовательского интерфейса, такого как второй пользовательский интерфейс для этого же приложения, ассоциированного с текущим пользовательским интерфейсом, другого приложения или системного пользовательского интерфейса.
В качестве примера, рассмотрим фиг.10, которая иллюстрирует портативный компьютер 104, имеющий сенсорный дисплей 1002, отображающий оконный интерфейс 1004 электронной почты и два иммерсивных интерфейса 1006 и 1008. Оконный интерфейс 1004 электронной почты ассоциирован с приложением, которое управляет электронной почтой, которое может быть удаленным или локальным для портативного компьютера 104. Фиг.10 также иллюстрирует два жеста 1010 и 1012. Жест 1010 выполняется прямой линией, тогда как жест 1012 изменяет направление на обратное (показан двумя стрелками, чтобы показать два направления).
Фиг.11 иллюстрирует жест 1010, имеющий начальную точку 1102, более позднюю точку 1104 и последующую точку 1106, и жест 1012, имеющий эту же начальную точку 1102, более позднюю точку 1108 и первую последующую точку 1110 и вторую последующую точку 1112. Фиг.11 также изображает нижний край 1114, область 1116 более поздней точки и область 1118 добавления интерфейса.
На этапе 904 определяют, основываясь на последующей точке, включает ли в себя жест изменение направления на обратное, удлинение или ничего. На этапе 904 может быть определено изменение направления на обратное в направлении жеста посредством определения того, что последующая точка находится на краю или ближе к краю, чем предшествующая точка жеста. На этапе 904 может быть определено, что жест удлиняется, основываясь на том, что последующая точка находится на заранее заданном расстоянии от края или более поздней точки. Если ни одно из перечисленного не определено как истинное, способ 900 может повторять этапы 902 и 904 для приема и анализа дополнительных последующих точек до тех пор, пока не завершится жест. Если на этапе 904 определено, что имеется изменение направления на обратное, способ 900 переходит по пути «Изменение направления на обратное» на этап 906. Если на этапе 904 определено, что жест удлиняется, способ 900 переходит по пути «Удлинение» на этап 908.
В контексте настоящего примера, предположим, что обработчик 128 жестов принимает первую последующую точку 1110 жеста 1012. Обработчик 128 жестов затем определяет, что первая последующая точка 1110 не находится на краю 1114, не находится ближе, чем предшествующая точка жеста к краю 1114 (например, не находится ближе, чем более поздняя точка 1108), и не находится на заранее заданном расстоянии от края или более поздней точки посредством того, что не находится в пределах зоны 1118 добавления интерфейса. В таком случае, способ 900 возвращается на этап 902.
При второй итерации этапа 902 предположим, что обработчик 128 жестов принимает вторую последующую точку 1112. В таком случае, обработчик 128 жестов определяет, что вторая последующая точка 112 находится ближе к краю 1114, чем первая последующая точка 1110 и, таким образом, жест 1012 включает в себя изменение направления на обратное. Обработчик 128 жестов затем переходит на этап 906 для прекращения представления второго пользовательского интерфейса, ранее представленного в ответ на жест. В качестве примера, рассмотрим фиг.12, которая иллюстрирует интерфейс 1202 обработки электронной почты. В данном примерном случае этапа 906 обработчик 128 жестов вызывает прекращение представления приложением электронной почты интерфейса 1202 в ответ на изменение направления на обратное жеста 1012 (не показан удаленным).
На этапе 908, однако, представляют или вызывают представление третьего пользовательского интерфейса или расширение второго пользовательского интерфейса. В некоторых случаях, представление третьего пользовательского интерфейса вызывает прекращение представления второго пользовательского интерфейса посредством либо аннулирования представления, либо скрытия второго пользовательского интерфейса (например, представление третьего пользовательского интерфейса поверх второго пользовательского интерфейса). Продолжая текущий пример, рассмотрим фиг.13, которая иллюстрирует интерфейс 1302 дополнительных опций электронной почты в ответ на определение того, что жест 1010 имеет последующую точку 1106 на заранее заданном расстоянии от края 1104, в данном случае в пределах зоны 1118 добавления интерфейса по фиг.11. Эти зона и заранее заданное расстояние могут устанавливаться на основе размера пользовательского интерфейса, ранее представленного в ответ на жест. Таким образом, пользователь, желающий добавить дополнительные элементы управления, может просто продлить жест за пользовательский интерфейс, представленный в ответ на более раннюю часть жеста.
Способ 900 может повторяться для добавления дополнительных пользовательских интерфейсов или расширения представленного пользовательского интерфейса. Возвращаясь к примерному интерфейсу 702 по фиг.7, например, обработчик 128 жестов может продолжать добавлять интерфейсы или элементы управления к интерфейсу 702, по мере того жест 308 проходит за пределы интерфейса 702, например, посредством представления дополнительного набора выбираемых плиток приложения. Если жест 308 проходит за эти дополнительные плитки, обработчик 128 жестов может вызвать представление модулем 124 системного интерфейса другого интерфейса, рядом с плитками, чтобы дать возможность пользователю выбрать элементы управления, такие как приостановить, ожидать, переключить режимы (иммерсивный на оконный и наоборот) или отключить вычислительное устройство 102.
Хотя вышеприведенные примерные пользовательские интерфейсы, представленные в качестве реакции на краевой жест, являются непрозрачными, они также могут быть частично прозрачными. Это может быть полезным тем, что не загораживает содержимое. В примере с фильмом, описанном выше, представляемый пользовательский интерфейс может быть частично прозрачным, тем самым позволяя то, что фильм только частично загораживается во время использования пользовательского интерфейса. Аналогично, в примере по фиг.12 и 13, интерфейсы 1202 и 1302 могут быть частично прозрачными, тем самым позволяя пользователю видеть текст электронной почты, в тоже время также выбирать элемент управления в одном из интерфейсов.
Предшествующее описание описывает способы, в которых предложенным подходом делаются возможными и используются краевые жесты. Эти способы показаны в виде наборов этапов, которые задают операции, выполняемые, но необязательно ограниченные порядком, показанным для выполнения операций соответствующими блоками.
Аспекты этих способов могут быть реализованы аппаратными средствами (например, неизменяемыми логическими схемами), программно-аппаратными средствами, системой на кристалле (SoC), программными средствами (firmware), ручной обработкой или любой их комбинацией. Программная реализация представляет программный код, который выполняет заданные задачи при его исполнении процессором компьютера, такой как программное обеспечение, приложения, подпрограммы, программы, объекты, компоненты, структуры данных, процедуры, модули, функции и т.п. Программный код может сохраняться на одном или нескольких считываемых компьютером устройствах памяти, как локальных, так и/или удаленных от процессора компьютера. Способы также могут практически использоваться в распределенной вычислительной среде посредством многочисленных вычислительных устройств.
Примерное устройство
Фиг.14 иллюстрирует различные компоненты примерного устройства 1400, которое может быть реализовано в виде любого типа клиента, сервера и/или вычислительного устройства, как описано с ссылкой на предыдущие фиг.1-13, для реализации методик, позволяющих выполнять краевые жесты. В вариантах осуществления устройство 1400 может быть реализовано в виде одного или комбинации проводных и/или беспроводных устройств, в виде телевизионного клиентского устройства (например, телевизионной приставки, цифрового видеозаписывающего устройства (DVR) и т.д.), бытового прибора, вычислительного устройства, серверного устройства, портативного вычислительного устройства, пользовательского устройства, устройства связи, устройства видеообработки и/или рендеринга, бытового устройства, игрового устройства, электронного устройства и/или в виде другого типа устройства. Устройство 1400 также может ассоциироваться с пользователем (например, человеком) и/или объектом, который приводит в действие устройство, так что устройство описывает логические устройства, которые включают в себя пользователей, программное обеспечение, программно-аппаратное обеспечение и/или комбинацию устройств.
Устройство 1400 включает в себя устройства 1402 связи, которые позволяют выполнять проводную и/или беспроводную передачу данных 1404 устройства (например, принятые данные, данные, которые принимаются, данные, запланированные для широковещательной передачи, пакеты данных для данных и т.д.). Данные 1404 устройства или другой контент устройства может включать в себя конфигурационные установки устройства, медиаконтент, хранимый на устройстве, и/или информацию, ассоциированную с пользователем устройства. Медиаконтент, хранимый на устройстве 1400, может включать в себя любой вид данных аудио, видео и/или изображения. Устройство 1400 включает в себя одно или несколько устройств 1406 ввода данных, посредством которых может быть принят любой вид данных, медиаконтента и/или вводов, такой как выбираемые пользователем вводы, сообщения, музыка, телевизионный медиаконтент, записанный видеоконтент и любой другой вид данных аудио, видео и/или изображения, принятых из любого источника контента и/или данных.
Устройство 1400 также включает в себя интерфейсы 1408 связи, которые могут быть реализованы в виде любого одного или нескольких из последовательного и/или параллельного интерфейса, беспроводного интерфейса, любого типа сетевого интерфейса, модема и в виде любого другого вида интерфейса связи. Интерфейсы 1408 связи обеспечивают соединение и/или линии связи между устройством 1400 и сетью связи, посредством которых другие электронные, вычислительные устройства и устройства связи выполняют обмен данными с устройством 1400.
Устройство 1400 включает в себя один или несколько процессоров 1410 (например, любой из микропроцессоров, контроллеров и т.п.), которые обрабатывают различные исполняемые компьютером инструкции, чтобы управлять работой устройства 1400 и делать возможными методики, позволяющие выполнять и/или использовать краевые жесты. Альтернативно или в дополнение, устройство 1400 может быть реализовано с любым одним или комбинацией из аппаратных, программно-аппаратных средств или неизменяемых логических схем, которые реализуются в связи со схемами обработки и управления, которые в целом определены позицией 1412. Хотя не показаны, устройство 1400 может включать в себя системную шину или систему переноса данных, которая соединяет различные компоненты в устройстве. Системная шина может включать в себя любую одну или комбинацию из разных шинных структур, таких как шина памяти или контроллер памяти, периферийная шина, универсальная последовательная шина и/или процессор или локальная шина, которая использует любую из многочисленных шинных архитектур.
Устройство 1400 также включает в себя считываемые компьютером носители 1414 данных, такие как одно или несколько устройств памяти, которые позволяют выполнять долговременное и/или некратковременное хранение данных (т.е. в противоположность простой передаче сигнала), примеры которых включают в себя оперативное запоминающее устройство (RAM), энергонезависимое запоминающее устройство (например, любое одно или несколько из постоянного запоминающего устройства (ROM), флэш-памяти, стираемого программируемого ROM (EPROM), электрически стираемого программируемого ROM (EEPROM) и т.д.) и дисковое запоминающее устройство. Дисковое запоминающее устройство может быть реализовано в виде любого вида магнитного или оптического запоминающего устройства, такого как накопитель на жестких дисках, записываемый и/или перезаписываемый компакт-диск (CD), любой вид цифрового многофункционального диска (DVD) и т.п. Устройство 1400 также может включать в себя устройство 1416 на носителях большой емкости.
Считываемые компьютером носители 1414 данных обеспечивают механизмы хранения данных для хранения данных 1404 устройства, а также различных приложений 1418 устройства и любые другие виды информации и/или данных, относящихся к операционным аспектам устройства 1400. Например, операционная система 1420 может поддерживаться как компьютерное приложение со считываемым компьютером носителями 1414 данных и может исполняться на процессорах 1410. Приложения 1418 устройства могут включать в себя диспетчер устройств, такой как любой вид приложения управления, приложения программного обеспечения, модуль обработки сигнала и управления, код, который является «родным» для конкретного устройства, уровень абстракции аппаратных средств для конкретного устройства и т.п.
Приложения 1418 устройства также включают в себя любые системные компоненты или модули для реализации методик, использующих или делающих возможными краевые жесты. В данном примере, приложения 1418 устройства могут включать в себя модуль 122 системного интерфейса, обработчик 128 жестов и приложение(-я) 130.
Заключение
Хотя варианты осуществления методик и устройств, делающих возможными краевой жест, были описаны на языке, характерном для признаков и/или способов, необходимо понять, что объем, определяемый прилагаемой формулой изобретения, необязательно ограничивается описанными конкретными признаками или способами. Скорее, конкретные признаки и способы описываются в качестве примерных реализаций, делающих возможными и/или использующих краевой жест.

Claims (20)

1. Компьютерно-реализуемый способ обработки жестов, содержащий этапы, на которых:
принимают жест, выполняемый посредством чувствительного к жестам дисплея, представляющего один или более пользовательских интерфейсов приложений;
определяют, что жест имеет начальную точку на краю чувствительного к жестам дисплея и более позднюю точку не на краю;
в ответ на определение того, что начальная точка находится на краю чувствительного к жестам дисплея и более поздняя точка находится не на краю, определяют, находится ли линия от начальной точки до более поздней точки в пределах заранее определенного угла отклонения от перпендикуляра, идущего от края, и, в качестве реакции на определение того, что данная линия находится в пределах заранее определенного угла отклонения от перпендикуляра, идущего от края, передают жест в операционную систему, связанную с чувствительным к жестам дисплеем; и
представляют интерфейс выбора приложений, содержащий выбираемые плитки приложений, ассоциированные с различными приложениями, при этом интерфейс выбора приложений замещает, по меньшей мере, часть упомянутых одного или более пользовательских интерфейсов приложений, представляемых на чувствительном к жестам дисплее.
2. Компьютерно-реализуемый способ по п. 1, в котором интерфейс выбора приложений является иммерсивным.
3. Компьютерно-реализуемый способ по п. 1, дополнительно
содержащий этап, на котором определяют зону из множества зон края, при этом передача жеста в операционную систему основывается, по меньшей мере, частично на этой зоне.
4. Компьютерно-реализуемый способ по п. 1, дополнительно содержащий этап, на котором определяют, что жест имеет первую длину или вторую длину, при этом передачей жеста жест передается в операционную систему в качестве реакции как на определение того, что упомянутая линия находится в пределах заранее определенного угла отклонения, так и на определение того, что жест имеет первую длину.
5. Компьютерно-реализуемый способ по п. 1, дополнительно содержащий этап, на котором определяют, является ли жест жестом одним пальцем или жестом многими пальцами, при этом при передаче жеста жест передается в операционную систему в качестве реакции как на определение того, что упомянутая линия находится в пределах заранее определенного угла отклонения, так и на определение того, что жест является жестом одним пальцем или жестом многими пальцами.
6. Компьютерно-реализуемый способ по п. 1, в котором интерфейс выбора приложений является, по меньшей мере, частично прозрачным.
7. Компьютерно-реализуемый способ по п. 1, в котором передача жеста в операционную систему выполняется в качестве реакции как на определение того, что упомянутая линия находится в пределах заранее определенного угла отклонения, так и на определение того, что упомянутый край является боковым краем чувствительного к жестам дисплея.
8. Компьютерно-реализуемый способ по п. 1, в котором при определении того, что упомянутая линия находится в пределах заранее определенного угла отклонения, определяют, что данная линия находится в пределах двадцати градусов от перпендикуляра, идущего от края.
9. Компьютерно-реализуемый способ по п. 8, дополнительно содержащий этап, перед определением того, что упомянутая линия находится в пределах двадцати градусов от перпендикуляра, идущего от края, на котором определяют более позднюю точку жеста на основе того, что более поздняя точка принимается на заранее заданном расстоянии от края или начальной точки.
10. Компьютерно-реализуемый способ по п. 8, дополнительно содержащий этап, перед определением того, что упомянутая линия находится в пределах двадцати градусов от перпендикуляра, идущего от края, на котором определяют более позднюю точку жеста на основе того, что более поздняя точка принимается на заранее заданном расстоянии от края или начальной точки.
11. Компьютерно-реализуемый способ по п. 1, в котором определение того, что жест имеет начальную точку на краю чувствительного к жестам дисплея и более позднюю точку не на краю, включает в себя определение того, что жест является жестом проведения, ориентированным приблизительно перпендикулярно к краю.
12. Компьютерно-реализуемый способ по п. 1, в котором передача жеста вызывает представление интерфейса выбора приложений, при этом способ дополнительно содержит этапы, на которых:
принимают второй жест, выполняемый при помощи чувствительного к жестам дисплея;
определяют, что второй жест имеет начальную точку в интерфейсе выбора приложений и более позднюю точку на краю; и
в качестве реакции на определение того, что второй жест имеет начальную точку в интерфейсе выбора приложений и более позднюю точку на краю, вызывают прекращение отображения интерфейса выбора приложений.
13. Компьютерно-реализуемый способ по п. 1, в котором передача жеста в операционную систему дополнительно основывается на одной или более характеристиках жеста.
14. Компьютерно-реализуемый способ по п. 1, дополнительно содержащий этап, на котором определяют, на основе последующей точки жеста, что жест включает в себя изменение направления на обратное, при этом передача жеста в операционную систему дополнительно основывается как на определении того, что упомянутая линия находится в пределах заранее определенного угла отклонения, так и на определении того, что жест включает в себя изменение направления на обратное.
15. Компьютерно-реализуемый способ по п. 1, в котором передача жеста вызывает представление интерфейса выбора приложений, при этом способ дополнительно содержит этапы, на которых:
определяют, на основе последующей точки жеста, что жест включает в себя изменение направления на обратное; и
в качестве реакции на определение того, что жест включает в себя изменение направления на обратное, вызывают прекращение отображения интерфейса выбора приложений.
16. Компьютерно-реализуемый способ по п. 1, дополнительно содержащий этап, на котором определяют, на основе последующей точки жеста, что жест продолжается на заранее заданное расстояние от края или упомянутой более поздней точки, при этом передача жеста в операционную систему дополнительно основывается как на определении того, что упомянутая линия находится в пределах заранее определенного угла отклонения, так и на определении того, что жест продолжается на заранее заданное расстояние от края или упомянутой более поздней точки.
17. Компьютерно-реализуемый способ по п. 1, в котором упомянутое определение дополнительно содержит определение того, что жест имеет две или более разных характеристик жеста, причем эти две или более разных характеристик жеста не включают в себя начальную точку жеста на краю чувствительного к жестам дисплея и более позднюю точку не на краю.
18. Компьютерно-реализуемый способ по п. 17, в котором упомянутые две или более разных характеристик жеста представляют собой два или более из окончательной длины жеста, промежуточной длины жеста, скорости жеста, количества точек ввода жеста, удлинения жеста и изменения направления жеста на обратное.
19. Компьютерно-реализуемый способ обработки жестов, содержащий этапы, на которых:
принимают жест, выполняемый при помощи чувствительного к жестам дисплея, представляющего один или более пользовательских иммерсивных интерфейсов;
определяют, принимается ли начальная точка жеста на краю
чувствительного к жестам дисплея;
в качестве реакции на определение того, что начальная точка не находится на краю чувствительного к жестам дисплея, передают жест одному из упомянутых одного или более иммерсивных пользовательских интерфейсов;
в качестве реакции на определение того, что начальная точка находится на краю чувствительного к жестам дисплея, определяют, находится ли линия от начальной точки до более поздней точки жеста в пределах заранее заданного угла отклонения от перпендикуляра, идущего от края, и, в качестве реакции на определение того, что данная линия не находится в пределах этого заранее заданного угла отклонения от перпендикуляра, идущего от края, передают жест этому одному из упомянутых одного или более иммерсивных пользовательских интерфейсов;
в качестве реакции на определение того, что упомянутая линия находится в пределах упомянутого заранее заданного угла отклонения, передают жест в модуль системного интерфейса, приспособленный для обеспечения представления интерфейса выбора приложений, отображаемого одновременно с упомянутыми одним или более иммерсивными пользовательскими интерфейсами, при этом интерфейс выбора приложений содержит выбираемые плитки приложений, ассоциированные с различными приложениями, причем каждая из выбираемых плиток приложений содержит контент, отличающийся от контента каждой из других выбираемых плиток приложений, и обеспечивает возможность выбора выбираемых плиток приложений, с продолжением при этом отображения контента в упомянутых одном или более иммерсивных пользовательских интерфейсах.
20. Компьютерно-реализуемый способ по п. 19, в котором интерфейс выбора приложений является частично прозрачным и представляется поверх упомянутых одном или более иммерсивных пользовательских интерфейсов.
RU2013152636/08A 2011-05-27 2011-10-09 Краевой жест RU2591671C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/118,221 US20120304107A1 (en) 2011-05-27 2011-05-27 Edge gesture
US13/118,221 2011-05-27
PCT/US2011/055513 WO2012166176A1 (en) 2011-05-27 2011-10-09 Edge gesture

Publications (2)

Publication Number Publication Date
RU2013152636A RU2013152636A (ru) 2015-06-10
RU2591671C2 true RU2591671C2 (ru) 2016-07-20

Family

ID=47220136

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013152636/08A RU2591671C2 (ru) 2011-05-27 2011-10-09 Краевой жест

Country Status (17)

Country Link
US (1) US20120304107A1 (ru)
EP (1) EP2715491B1 (ru)
JP (1) JP6038898B2 (ru)
KR (1) KR20140025493A (ru)
CN (1) CN103562838B (ru)
AU (1) AU2011369359A1 (ru)
BR (1) BR112013030414A2 (ru)
CA (1) CA2836263A1 (ru)
CO (1) CO6920259A2 (ru)
HK (1) HK1193660A1 (ru)
IL (1) IL229622A0 (ru)
MX (1) MX342078B (ru)
NZ (1) NZ618254A (ru)
RU (1) RU2591671C2 (ru)
SG (2) SG195135A1 (ru)
WO (1) WO2012166176A1 (ru)
ZA (1) ZA201307920B (ru)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US20120036471A1 (en) * 2010-08-04 2012-02-09 Misys Tool bars along lateral edges of a mobile computing device display
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US20120159383A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Customization of an immersive environment
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9423878B2 (en) 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9015641B2 (en) 2011-01-06 2015-04-21 Blackberry Limited Electronic device and method of providing visual notification of a received communication
US9465440B2 (en) 2011-01-06 2016-10-11 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9766718B2 (en) * 2011-02-28 2017-09-19 Blackberry Limited Electronic device and method of displaying information in response to input
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9360940B2 (en) * 2011-11-14 2016-06-07 Google Inc. Multi-pane interface
KR20130054579A (ko) * 2011-11-17 2013-05-27 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP5850229B2 (ja) * 2011-11-29 2016-02-03 日本精機株式会社 車両用操作装置
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
US9128605B2 (en) * 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
US9785291B2 (en) 2012-10-11 2017-10-10 Google Inc. Bezel sensitive touch screen system
GB201300031D0 (en) 2013-01-02 2013-02-13 Canonical Ltd Ubuntu UX innovations
KR102091028B1 (ko) * 2013-03-14 2020-04-14 삼성전자 주식회사 사용자 기기의 오브젝트 운용 방법 및 장치
US9450952B2 (en) 2013-05-29 2016-09-20 Microsoft Technology Licensing, Llc Live tiles without application-code execution
US9207849B2 (en) 2013-03-29 2015-12-08 Microsoft Technology Licensing, Llc Start and application navigation
US9645651B2 (en) * 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
US9851896B2 (en) 2013-12-17 2017-12-26 Google Inc. Edge swiping gesture for home navigation
US10712918B2 (en) 2014-02-13 2020-07-14 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US10747416B2 (en) * 2014-02-13 2020-08-18 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
US10866714B2 (en) * 2014-02-13 2020-12-15 Samsung Electronics Co., Ltd. User terminal device and method for displaying thereof
CN104951213B (zh) * 2014-03-27 2018-06-22 原相科技股份有限公司 防止误触发边缘滑动手势的方法
KR20150114160A (ko) * 2014-04-01 2015-10-12 삼성전자주식회사 Ui를 디스플레하는 전자 장치 및 방법
KR102298602B1 (ko) 2014-04-04 2021-09-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 확장가능한 애플리케이션 표시
EP3129846A4 (en) 2014-04-10 2017-05-03 Microsoft Technology Licensing, LLC Collapsible shell cover for computing device
EP3129847A4 (en) 2014-04-10 2017-04-19 Microsoft Technology Licensing, LLC Slider cover for computing device
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US9576172B2 (en) * 2014-09-16 2017-02-21 Facebook, Inc. Systems and methods for simultaneously providing and reading machine-readable codes
CN106662891B (zh) 2014-10-30 2019-10-11 微软技术许可有限责任公司 多配置输入设备
KR102342555B1 (ko) 2014-11-10 2021-12-23 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102481878B1 (ko) * 2015-10-12 2022-12-28 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 표시방법
CN105573545A (zh) * 2015-11-27 2016-05-11 努比亚技术有限公司 一种手势校准方法、装置及手势输入处理方法
KR20170076357A (ko) * 2015-12-24 2017-07-04 삼성전자주식회사 사용자 단말 장치, 이의 스피커 장치의 음량을 조절하기 위한 모드 전환 방법 및 음향 시스템
US10209821B2 (en) 2016-04-05 2019-02-19 Google Llc Computing devices having swiping interfaces and methods of operating the same
DE102016208575A1 (de) * 2016-05-19 2017-11-23 Heidelberger Druckmaschinen Ag Touchpad mit Gestensteuerung für Wallscreen
JP2018060241A (ja) * 2016-09-30 2018-04-12 富士通株式会社 関心度評価プログラム、対話プログラム、表示プログラム、装置、及び方法
US10203866B2 (en) 2017-05-16 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US11036387B2 (en) 2017-05-16 2021-06-15 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
KR102130932B1 (ko) * 2017-05-16 2020-07-08 애플 인크. 사용자 인터페이스들 사이에 내비게이팅하고 제어 객체들과 상호작용하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
CN108319414A (zh) * 2018-01-31 2018-07-24 北京小米移动软件有限公司 界面显示方法及装置
KR102301903B1 (ko) * 2019-12-09 2021-09-14 네이버 주식회사 복수의 디스플레이들을 포함하는 사용자 단말을 사용하여 사이드 바와 연관된 콘텐츠를 제공하는 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1962480A2 (en) * 2007-02-23 2008-08-27 LG Electronics Inc. A method of displaying menu in a mobile communication terminal
RU2405214C2 (ru) * 2008-05-08 2010-11-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Терминал и способ управления им
RU2413970C2 (ru) * 2005-03-18 2011-03-10 Майкрософт Корпорейшн Системы, способы и машиночитаемый носитель данных для активации интерфейса с электронными чернилами или рукописным вводом

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5821930A (en) * 1992-08-23 1998-10-13 U S West, Inc. Method and system for generating a working window in a computer system
US5568604A (en) * 1992-12-31 1996-10-22 U S West Technologies, Inc. Method and system for generating a working window in a computer system
CN1059303C (zh) * 1994-07-25 2000-12-06 国际商业机器公司 在个人通讯设备的显示屏幕上标记文本的装置和方法
US6219032B1 (en) * 1995-12-01 2001-04-17 Immersion Corporation Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface
KR100327209B1 (ko) * 1998-05-12 2002-04-17 윤종용 첨펜의자취를이용한소프트웨어키보드시스템및그에따른키코드인식방법
JP2000347645A (ja) * 1999-03-31 2000-12-15 Sony Corp 画像表示処理方法、画像表示処理プログラム格納媒体、および画像表示処理装置
JP2002055753A (ja) * 2000-08-10 2002-02-20 Canon Inc 情報処理装置、機能一覧表表示方法、及び記憶媒体
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7925996B2 (en) * 2004-11-18 2011-04-12 Microsoft Corporation Method and system for providing multiple input connecting user interface
US7676767B2 (en) * 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
JP2007148783A (ja) * 2005-11-28 2007-06-14 Buffalo Inc コンピュータの画像表示装置、画像表示方法、画像表示プログラムを記録した媒体
US8296684B2 (en) * 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
KR20080041809A (ko) * 2006-11-08 2008-05-14 삼성전자주식회사 휴대용 단말기에서 디스플레이 제어 방법 및 장치
US11126321B2 (en) * 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
KR101224588B1 (ko) 2008-01-24 2013-01-22 삼성전자주식회사 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기
US8159469B2 (en) * 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
US20090289902A1 (en) * 2008-05-23 2009-11-26 Synaptics Incorporated Proximity sensor device and method with subregion based swipethrough data entry
TW201005599A (en) * 2008-07-18 2010-02-01 Asustek Comp Inc Touch-type mobile computing device and control method of the same
US8924892B2 (en) * 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
US20100107067A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
JP4853507B2 (ja) * 2008-10-30 2012-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8499251B2 (en) * 2009-01-07 2013-07-30 Microsoft Corporation Virtual page turn
WO2010089980A1 (ja) * 2009-02-06 2010-08-12 パナソニック株式会社 画像表示装置
JP5370374B2 (ja) * 2009-02-13 2013-12-18 富士通モバイルコミュニケーションズ株式会社 情報処理装置
US8836648B2 (en) * 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US8681106B2 (en) * 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8957918B2 (en) * 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
US8438504B2 (en) * 2010-01-06 2013-05-07 Apple Inc. Device, method, and graphical user interface for navigating through multiple viewing areas
US8239785B2 (en) * 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US20110191675A1 (en) * 2010-02-01 2011-08-04 Nokia Corporation Sliding input user interface
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US20110209098A1 (en) * 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
US20110210850A1 (en) * 2010-02-26 2011-09-01 Phuong K Tran Touch-screen keyboard with combination keys and directional swipes
TW201133298A (en) * 2010-03-25 2011-10-01 Novatek Microelectronics Corp Touch sensing method and system using the same
US20110252357A1 (en) * 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
JP5529616B2 (ja) * 2010-04-09 2014-06-25 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、操作入力装置、情報処理装置、情報処理方法、プログラム及び情報記憶媒体
US20110273379A1 (en) * 2010-05-05 2011-11-10 Google Inc. Directional pad on touchscreen
US20120180001A1 (en) * 2011-01-06 2012-07-12 Research In Motion Limited Electronic device and method of controlling same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2413970C2 (ru) * 2005-03-18 2011-03-10 Майкрософт Корпорейшн Системы, способы и машиночитаемый носитель данных для активации интерфейса с электронными чернилами или рукописным вводом
EP1962480A2 (en) * 2007-02-23 2008-08-27 LG Electronics Inc. A method of displaying menu in a mobile communication terminal
RU2405214C2 (ru) * 2008-05-08 2010-11-27 ЭлДжи ЭЛЕКТРОНИКС ИНК. Терминал и способ управления им

Also Published As

Publication number Publication date
EP2715491A4 (en) 2015-02-18
US20120304107A1 (en) 2012-11-29
NZ618254A (en) 2015-01-30
SG195135A1 (en) 2013-12-30
MX342078B (es) 2016-09-13
CN103562838A (zh) 2014-02-05
JP2014515519A (ja) 2014-06-30
WO2012166176A1 (en) 2012-12-06
JP6038898B2 (ja) 2016-12-07
EP2715491B1 (en) 2019-06-12
CN103562838B (zh) 2015-10-07
MX2013013921A (es) 2013-12-16
CA2836263A1 (en) 2012-12-06
BR112013030414A2 (pt) 2020-08-11
KR20140025493A (ko) 2014-03-04
HK1193660A1 (zh) 2014-09-26
SG10201604341YA (en) 2016-07-28
ZA201307920B (en) 2015-01-28
IL229622A0 (en) 2014-01-30
EP2715491A1 (en) 2014-04-09
AU2011369359A1 (en) 2013-12-19
CO6920259A2 (es) 2014-04-10
RU2013152636A (ru) 2015-06-10

Similar Documents

Publication Publication Date Title
RU2591671C2 (ru) Краевой жест
US9658766B2 (en) Edge gesture
US9329774B2 (en) Switching back to a previously-interacted-with application
US9128605B2 (en) Thumbnail-image selection of applications
US20120304131A1 (en) Edge gesture
US10303325B2 (en) Multi-application environment
US9104440B2 (en) Multi-application environment

Legal Events

Date Code Title Description
HZ9A Changing address for correspondence with an applicant
MM4A The patent is invalid due to non-payment of fees

Effective date: 20191010