RU2627108C2 - Установление направления навигации по контенту на основе направленных пользовательских жестов - Google Patents

Установление направления навигации по контенту на основе направленных пользовательских жестов Download PDF

Info

Publication number
RU2627108C2
RU2627108C2 RU2014109754A RU2014109754A RU2627108C2 RU 2627108 C2 RU2627108 C2 RU 2627108C2 RU 2014109754 A RU2014109754 A RU 2014109754A RU 2014109754 A RU2014109754 A RU 2014109754A RU 2627108 C2 RU2627108 C2 RU 2627108C2
Authority
RU
Russia
Prior art keywords
content
user input
navigation
user
orientation
Prior art date
Application number
RU2014109754A
Other languages
English (en)
Other versions
RU2014109754A (ru
Inventor
Джилеад АЛЬМОСНИНО
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2014109754A publication Critical patent/RU2014109754A/ru
Application granted granted Critical
Publication of RU2627108C2 publication Critical patent/RU2627108C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning

Abstract

Изобретение относится к пользовательским интерфейсам. Технический результат заключается в избежании потерь времени, обусловленных некорректной навигацией по контенту. Такой результат достигается тем, что устанавливают направления навигационной модели контента на основе направленно желаемых или интуитивных жестов пользователей, принимают пользовательский ввод, который указывает направление, в котором будет осуществляться продвижение по представленному контенту, упорядоченному по последовательности. Направление навигации для представленного контента устанавливается так, чтобы оно соответствовало направлению, указанному пользовательским вводом. 3 н. и 17 з.п. ф-лы, 13 ил.

Description

УРОВЕНЬ ТЕХНИКИ
Вычислительные устройства, способные представлять контент, изобилуют в обществе сегодня. Терминалы универсальных вычислительных машин, настольные вычислительные устройства, ноутбуки и другие портативные компьютеры, смартфоны и другие карманные устройства, персональные цифровые помощники и другие устройства часто способны представлять документы, изображения и разнообразный контент. Контент может храниться локально, и во многих случаях его получают из сетей, начиная от одноранговых сетей и заканчивая глобальными сетями, такими как Интернет. Подобно физическим носителям, таким как книги или журналы, полнота электронного контента часто не представляется вся сразу. Физические носители обычно разделены на страницы или другие различимые части, как и электронные носители. Электронный документ может быть сегментирован на представимые или, иначе, потребляемые части, сегментирован либо в самом контенте, либо представляющим устройством.
Поскольку электронный контент может быть представлен по частям, например, страницами документа, могут быть случаи, когда пользователь будет прокручивать документ через одну или более страниц за один раз. Пользователь может продвинуться вперед в документе, кликая, например, кнопку "следующий" или "вперед", механически или электронно предоставленную на устройстве. Подобным образом пользователь может вернуться в документе, кликая "назад" или аналогичную кнопку, предоставленную на пользовательском интерфейсе. Эти и другие механизмы навигации по контенту могут позволить пользователю перемещаться по элементам контента.
Однако пользовательские интерфейсы для представления электронного контента могут время от времени представлять двусмысленные выборы навигации. Модели навигации часто наследуют направленную ориентацию формата, основанную на языке пользовательского интерфейса. Например, формат пользовательского интерфейса для английского языка ориентирован слева-направо. Однако, операционная система может быть локализована для других языков, которые не ориентированы слева-направо, такие как арабский, еврейский или любой другой двунаправленный язык. В таких случаях формат пользовательского интерфейса может быть настроен так, чтобы стать ориентированным справа-налево.
Привязка ориентации формата навигационного управления к направленной ориентации пользовательского интерфейса вводит ограничения в опыт пользователя. Такая "привязка" может произойти, когда форматы навигации по контенту наследуют ориентацию пользовательского интерфейса. Другими словами, если ориентация пользовательского интерфейса справа-налево (например, арабский язык, еврейский язык (иврит), то направление навигации по контенту наследует навигацию справа-налево. Таким образом, выбор элемента пользовательского интерфейса "следующий" приводил бы к движению вперед в документе путем перемещения справа-налево, что отличается от того, как происходило бы движение вперед в документе, если бы ориентация пользовательского интерфейса была бы слева-направо.
При определенных обстоятельствах ориентация пользовательского интерфейса и направление формата модели навигационного управления могут быть противоположны тому, как ориентирован сам документ. Например, в пользовательском интерфейсе на английском языке (например, при использовании операционной системы, локализованной для английского языка) с английским документом как модель навигации, так и содержимое документа ориентированы слева направо. Аналогично, в еврейском пользовательском интерфейсе с еврейским документом как модель навигации, так и содержимое документа ориентированы справа налево. Однако, в английском пользовательском интерфейсе с еврейским документом формат модели навигации противоположен формату документа. Подобным образом, в еврейском пользовательском интерфейсе с английским документом формат модели навигации противоположен формату документа. Эти несоответствия могут вызвать двусмысленность при использовании пользовательского интерфейса, поскольку может быть неясно, какое направление будет принято в документе, когда выбран определенный направленный элемент пользовательского интерфейса. Например, если ориентация пользовательского интерфейса отличается от ориентации представленного документа, может быть неясно, будет ли навигация осуществляться вперед при выборе "следующий" или кнопки стрелки вправо. Эта двусмысленность может быть результатом, например, неопределенности того, будет ли навигация следовать ориентации пользовательского интерфейса (например, ориентации справа-налево) или ориентации документа (например, ориентации слева-направо). В этих случаях двусмысленность может оказать навигационным механизмам пользовательского интерфейса ограниченную ценность, поскольку пользователь может не быть уверен в навигационном направлении, которое будет принято, когда используются такие навигационные механизмы.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
Предложены методики, включающие в себя установление направления навигационной модели контента на основе направленно желаемых или интуитивных жестов пользователей. Согласно одной показательной методике, реализуемый на компьютере способ содержит прием пользовательского ввода, который указывает направление, в котором будет продвигаться представленный контент, который упорядочен по последовательности. Направление навигации для представленного контента устанавливается таким образом, что оно соответствует направлению, указанному пользовательским вводом.
В другом показательном варианте осуществления предоставлено устройство, которое включает в себя, по меньшей мере, сенсорное средство пользовательского ввода, процессор и дисплей. Сенсорное средство пользовательского ввода может быть выполнено с возможностью приема начального инициированного пользователем жеста, который передает направление первой попытки навигационно продвинуть элемент многокомпонентного контента. Процессор выполнен с возможностью распознавать переданное направление инициированного пользователем жеста, определять направление навигации по контенту на основе переданного направления и устанавливать направление навигации по контенту в качестве направления навигации элемента многокомпонентного контента. Текущая часть элемента многокомпонентного контента может быть представлена с помощью дисплея.
Другой показательный вариант осуществления направлен на машинно-читаемый носитель, на котором сохранены инструкции для исполнения процессором. При исполнении, инструкции выполняют функции, включающие в себя предоставление пользовательского интерфейса, имеющего ориентацию, соответствующую языку операционной системы, исполняемой процессором. Многостраничный документ или другой контент может быть представлен с ориентацией, отличной от ориентации пользовательского интерфейса. Идентифицируется начальный сенсорный жест, указывающий направление для навигации вперед в многостраничном контенте, и направление навигации для многостраничного контента устанавливается на основе направления, указанного начальным сенсорным жестом. Навигация вперед в многостраничном контенте может быть выполнена путем последующих сенсорных жестов в том же направлении, что и начальный сенсорный жест, тогда как навигация назад в многостраничном контенте может быть выполнена путем последующих сенсорных жестов в другом направлении относительно начального сенсорного жеста.
Это краткое изложение сущности изобретения приведено для представления в упрощенном виде подборки концепций, которые дополнительно описаны ниже в подробном описании. Это краткое изложение сущности изобретения не предназначено ни для идентификации ключевых признаков или существенных признаков заявленного изобретения, ни для использования в целях ограничения объема заявленного изобретения.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Фиг. 1 представляет схему, иллюстрирующую в общих чертах показательный способ установления направления навигации по контенту на основе жестов пользовательского ввода;
Фиг. 2 представляет схему, иллюстрирующую показательный способ выполнения жестов для идентификации предполагаемого или желаемого направления модели контента;
Фиг. 3 представляет блок-схему показательного способа установления направления навигации по контенту на основе жеста пользовательского ввода;
Фиг. 4 представляет блок-схему, иллюстрирующую другие показательные варианты осуществления, относящиеся к установлению направления навигации по контенту на основе жестов пользовательского ввода;
Фиг. 5A-5D иллюстрируют показательный способ установления навигационного направления контента и последующей навигации по контенту, как только навигационное направление установлено;
Фиг. 6 иллюстрирует показательные состояния управления страниц или других частей контента на основе типа ориентации, предложенного жестом пользовательского ввода;
Фиг. 7A, 7B и 7C иллюстрируют показательный пример установления направления модели навигации на основе сенсорного жеста пользователя путем показательного графического пользовательского интерфейса; и
Фиг. 8 иллюстрирует показательную компьютерную систему, в которой могут быть реализованы принципы, описанные в материалах настоящей заявки.
ПОДРОБНОЕ ОПИСАНИЕ
В последующем описании сделана ссылка на прилагаемые чертежи, которые иллюстрируют показательные примеры реализаций. Должно быть понятно, что могут использоваться другие варианты осуществления и реализации, поскольку структурные и/или операционные изменения могут быть сделаны, не выходя из объема раскрытия.
Раскрытие в целом направлено на пользовательские интерфейсы на вычислительных устройствах, способных представлять контент. Некоторый контент может быть представлен на вычислительных устройствах по части (частям) за один раз, например, документы, календари, фотоальбомы и т.д. Во многих случаях контент достаточно большой, так что он не показывается или иным образом не представляется пользователю полностью сразу. Например, многостраничный документ может быть представлен одной (или более) страницей за один раз, где пользователь может выборочно продвигаться по контенту, чтобы читать, просматривать или иным образом потреблять контент. Подобным образом, календари, фотоальбомы, музыкальные списки воспроизведения, электронные альбомы для рисования и другой контент может явно или неявно иметь порядок или последовательность, связанную с ним, тем самым контент может быть просмотрен меньшими частями за один раз. Просмотр такого контента может включать в себя продвижение через последовательность частей контента (например, страницы, месяцы в календаре и т.д.), а также может включать в себя движение назад по последовательности. Эта последовательность может быть основана на логическом расположении, например, последовательных страницах электронного документа, хронологическом расположении контента, такого как календари и фотоальбомы, случайном расположении и т.д. В любом случае, это не является необычным для пользователей вычислительных устройств всех типов потреблять видимый контент по раздельным частям.
Пользователи могут перемещаться от одной части представленного контента к другой, чтобы просматривать дополнительные части контента. Например, пользователь может выбрать механизм пользовательского интерфейса (UI) "вперед" или "следующий", чтобы переместиться к следующей части контента в последовательности. Подобным образом, пользователь может выбрать механизм UI "назад" или аналогичный ему, чтобы вернуться к непосредственно предшествующей части контента. Эти и другие механизмы UI дают пользователю возможность навигации по документам и другому контенту.
Навигация по частям контента может не всегда быть интуитивной. Операционные системы устройств могут поддерживать ориентации UI, ориентации контента и навигационные направления контента в нескольких направлениях, тем самым делая использование "следующий", "назад" и/иди других навигационных механизмов UI двусмысленными или на вид неточными.
Например, операционные системы могут быть доступны на многих языках. Некоторые языки в своей основе включают в себя ориентацию слева-направо (LTR), где контент читается LTR, UI представлен LTR, навигация по частям контента происходит LTR и т.д. Английский является таким языком, где навигация по электронным документам происходит таким же образом, как пользователь читает физическую книгу, написанную на английском языке, то есть слева направо. Другие языки, такие как еврейский или арабский, написаны в ориентации справа-налево (RLT), или в некоторых случаях в двунаправленной (bi-di) форме, где текст RTL смешан с текстом LTR в одном и том же абзаце или другом сегменте. В этих случаях навигация по электронным документам соответствует навигации по физической книге, написанной на таких языках, то есть RTL.
Из-за, по меньшей мере, различных направлений навигации для различных языков навигация по электронным документам может сбивать с толку, где представляемые документы, как правило, связаны с одним или другим из LTR или RTL/bi-di языков. Например, английская операционная система может быть настроена так, чтобы способствовать продвижению вперед LTR по документу или другому контенту, так что просмотр еврейского или арабского документа в английской операционной системе может сбивать с толку, поскольку "следующая" страница может фактически быть предыдущей страницей в еврейском документе. Вычислительные системы могут быстро и легко представлять документы/контент из любого языка, что отличается от физических книг, которые обычно написаны на одном языке, где навигация единообразна повсюду. Гибкие характеристики вычислительных систем и практически неисчерпаемое наличие контента через сети и другие источники создает эти и другие новые проблемы для пользователей устройств.
Для решения этих и других проблем настоящее раскрытие предоставляет решения для динамического установления модели/направления навигации по контенту из пользовательского ввода, позволяющего предположить направление навигации, интуитивное для или иным образом предпринятое пользователем, потребляющим контент. Среди прочего, методики, описанные в раскрытии, позволяют делать так, чтобы жесты UI пользователя использовались для того, чтобы установить навигационную модель для, по меньшей мере, экземпляра контента, представленного пользователю. В одном из вариантов осуществления начальный навигационный жест(ы) пользователя относительно элемента контента могут быть распознаны и использованы для установления навигационного направления для, по меньшей мере, контента, потребляемого в настоящее время пользователем. Это дает возможность секциям элемента контента быть представленными в порядке, который определен как интуитивный для пользователя для этого контента, без явного оповещения пользователя, как устанавливается навигационная модель, или что она даже устанавливается для пользователя. Такая система также может избегать использования обратной связи для некорректной навигации по контенту, поскольку любое поддерживаемое направление навигации динамически конфигурируется для пользователя.
Таким образом, среди прочего, методики, описанные в раскрытии, способствуют приему пользовательского ввода, указывающего направление для продвижения по представленному контенту, упорядоченному по последовательности. Направление навигации устанавливается для представленного контента, чтобы соответствовать направлению, указанному пользовательским вводом. Эти и другие варианты осуществления описаны более подробно ниже.
Различные варианты осуществления ниже описаны в терминах сенсорных экранов и других устройств с основанным на тактильном вводе пользовательским интерфейсом (UI). Пользовательское "проведение" (swipe) или, иначе, перемещение пальца(цев) по сенсорному экрану или сенсорной панели, может предоставить указание того, в каком направлении пользователь интуитивно хочет продвигаться вперед (или перемещаться назад) в документе или другом элементе контента. Однако принципы, описанные в материалах настоящей заявки, применимы к другим механизмам UI, способным указывать направление, таким как джойстики, колеса/шары UI, стрелки клавиатуры и т.д. Следовательно, ссылка на любой конкретный механизм направленного UI не подразумевает ограничения раскрытия такими упоминаемыми механизмами UI, если не указано иное. Кроме того, тогда как определенные языки используются в материалах настоящей заявки в целях иллюстрации (например, английский, еврейский, арабский), они упомянуты только в целях примера. Принципы, описанные в материалах настоящей заявки, применимы к любому элементу контента, по которому может быть продвижение более, чем в одном направлении, на основе различных факторов (языки LTR или RTL представляют пример таких факторов).
Фиг. 1 представляет схему, иллюстрирующую в общих чертах показательный способ для установления направления навигации по контенту на основе жестов пользовательского ввода. В этом примере ориентация 100 UI представляет формат элементов электронного пользовательского интерфейса, предоставляемых, например, операционной системой или другим приложением, работающим на вмещающем их устройстве. Предполагая в целях обсуждения, что ориентация 100 UI сконфигурирована операционной системой, язык этой операционной системы может влиять на формат представленного UI. Например, английская версия операционной системы может представлять UI способом слева-направо (LTR), как проиллюстрировано стрелкой 102. Еврейская или арабская версия операционной системы может представлять UI способом справа-налево (RTL), как проиллюстрировано стрелкой 104. В других вариантах осуществления, включающих в себя языки, или в других обстоятельствах могут быть представлены еще одни другие ориентации, такие как вверх 106 и вниз 108. Таким образом, элементы управления UI (например, начальные меню, элементы управления минимизации/максимизации и т.д.) могут быть представлены в различных ориентациях в зависимости от языка операционной системы, или от других факторов, которые могут повлиять на ориентацию 100 UI.
В некоторых случаях направление 110 модели контента наследует ориентацию 100 UI, предусмотренную операционной системой. Таким образом, если ориентация 100 UI является LTR (например, английская операционная система), направление 110 модели контента будет по умолчанию продвигать контент LTR, поскольку английские документы обычно продвигаются слева направо. Однако, как отмечено выше, способность вычислительной системы под управлением определенной операционной системы сделать возможным потребление LTR, RTL и двунаправленных языков может сделать наследованное направление 110 модели контента неподходящим или, по меньшей мере, не интуитивным для некоторого контента 120.
Более конкретно, контент 120 может быть ориентирован в различных направлениях. Документ на английском языке может быть написан слева-направо, как отмечено стрелкой 122 LTR. Еврейский или арабский документ может быть написан справа-налево, как отмечено стрелкой 124. Другие языки могут быть ориентированы сверху-вниз 128 или иначе. По причинам языка или других факторов направление контента 120 может быть в любом направлении, включая те, которые показаны стрелкой 122 LTR, стрелкой 124 RTL, стрелкой 126 снизу-вверх, стрелкой 128 сверху-вниз, или теоретически в направлении, отличном от горизонтального или вертикального.
При чтении документа или потреблении другого контента 120, ориентированного в определенном направлении, как показано стрелками 122, 124, 126 или 128, конкретное направление 110 модели контента может, как правило, быть связано с ориентацией этого контента 120. Например, для английского документа, написанного слева-направо, как показано стрелкой 122 LTR, направление 110 продвижения модели контента может также быть слева-направо (например, страницы документа могут переворачиваться слева направо). Однако, если контент 120 представляет собой еврейский документ, а направление 110 модели контента унаследовало ориентацию 100 UI английской операционной системы, направление навигации LTR, отмеченное стрелкой 122 LTR, было бы трудно для понимания для ориентированного справа-налево еврейского контента 120, изображенного стрелкой 124 RTL. Настоящее раскрытие предоставляет решения для этих и других несоответствий, связанных с направленными пользовательскими интерфейсами и направленной навигацией по контенту.
Средство 130 пользовательского ввода представляет механизм(ы), обеспечивающие, по меньшей мере, направленный жест(ы) пользователя устройства. Средство 130 пользовательского ввода может включать в себя одно или более из, например, сенсорного экрана, сенсорной панели, джойстика, навигационных клавиш, визуально представленных кнопок UI, колес или шаров UI и т.д. В одном из вариантов осуществления средство 130 пользовательского ввода представляет сенсорный экран или сенсорную панель, где пользователь может делать сенсорные жесты, которые указывают направление, например, проведение пальцем в определенном направлении.
Например, если ориентация 100 UI является RTL (т.е., сконфигурирована еврейской операционной системой), элемент контента 120, написанный LTR, может быть представлен. Если контент 120 представлен на английском языке, например, пользователь может захотеть продвигать части контента 120 в направлении 110 модели контента LTR. Чтобы сделать это, пользователь может использовать средство 130 пользовательского ввода, чтобы указать, что контент 120 будет продвигаться слева-направо, как изображено стрелкой 122 LTR, даже если (или независимого от того, что) ориентация 100 UI сконфигурирована RTL. Пользователь может, например, перетащить палец справа налево, моделируя переворот страницы в контенте 120, упорядоченном слева направо.
Это изображено на Фиг. 2, которая представляет схему, иллюстрирующую показательный способ выполнения жестов для идентификации предполагаемого или желаемого направления модели контента. Фиг. 2 предполагает сенсорный экран или сенсорную панель в качестве пользовательского ввода. Если пользователь перемещает свой палец 200 с правой стороны экрана 202 на левую сторону экрана 202, это имитирует или, иначе, моделирует переворот страницы в LTR-ориентированном документе. Этот начальный "жест" подразумевает ориентацию LTR потребляемого контента, который устанавливает направление модели контента для представления других страниц или частей этого контента. Как показано на Фиг. 2, пользователь может выполнять жесты в любом направлении, чтобы указать направление модели контента.
Возвращаясь теперь к Фиг. 1, жест(ы) выполнен посредством пользовательского ввода, а направление, показанное жестом пользователя, определяется, как изображено в блоке 132. В одном из вариантов осуществления блок 132 определения направления пользовательского ввода представляет модуль, способный определять направление, показанное жестом пользователем, например, модуль, реализованный посредством программного обеспечения, исполняемого с помощью процессора(ов), чтобы вычислить точки касания, распознанные пользовательским вводом 130. Например, средство 130 пользовательского ввода может предполагать относительно стабильные координаты Y с уменьшающимися координатами X на координатной плоскости X-Y, тем самым предполагая направление касания справа налево. Используя эту информацию, направление модели навигации может быть определено, как изображено в блоке 134. Это также может быть реализовано посредством программного обеспечения, исполняемого с помощью процессора(ов), но может быть выполнено с возможностью определения направления 110 модели контента, принимая во внимание информацию направления, определенную в блоке 132. Например, если в блоке 132 определено, что направление пользовательского ввода будет справа налево, определение направления модели навигации в блоке 134 может определить, что такой жест соответствует направлению 110 модели контента LTR, поскольку продвижение по контенту слева направо может включать в себя "переворачивание страницы" с использованием пальца справа налево.
Когда направление модели навигации определено в блоке 134, данная модель навигации может быть назначена этому экземпляру контента, как показано в блоке 136. Например, один из вариантов осуществления включает в себя выполнение определений в блоках 132, 134 в связи с первым жестом UI пользователя для этого контента 120, и модель навигации для остатка этого контента 120, следовательно, устанавливается или назначается, как показано в блоке 136. В одном из примеров, "проведение" справа-налево, как определено в блоке 132, может привести к определению направления 110 модели контента LTR, как определено в блоке 134. В таком примере пользовательское дополнительное проведение пользователем справа-налево будет продвигать контент 120 вперед в его последовательности, например, двигать к следующей странице или сегменту контента 120. Проведение пользователем в противоположном направлении, т.е., проведение слева-направо, привело бы затем к тому, что контент 120 переместился назад к непосредственно предшествующей странице или сегменту. Это направление "вперед" и "назад" устанавливается на основе начального жеста пользователя, который привел к назначению модели навигации, как показано в блоке 136. Таким образом, пользователь может изначально выполнить жест интуитивным, желаемым или другим способом, и направление 110 модели контента будет назначено соответственно, как изображено различными направленными стрелками 112, 114, 116, 118.
Фиг. 3 представляет логическую блок-схему показательного способа для установления направления навигации по контенту на основе жеста пользовательского ввода. В этом примере пользовательский ввод принимается, как показано в блоке 300, где принятый пользовательский ввод указывает направление для продвижения по представленному контенту, упорядоченному по последовательности. Направление навигации для представленного контента устанавливается так, чтобы соответствовать направлению, указанному пользовательским вводом, как показано в блоке 302. Таким образом, пользователь может установить навигационную модель так, чтобы она соответствовала направлению документа, или альтернативно установить навигационную модель в желаемом направлении вне зависимости от ориентации документа или другого контента.
Фиг. 4 представляет блок-схему, иллюстрирующую другие показательные варианты осуществления, относящиеся к установлению направления навигации по контенту на основе жестов пользовательского ввода. Пользовательский ввод принимается, как изображено в блоке 400. Такой пользовательский ввод может быть в форме, например, сенсорного экрана 400A, сенсорной панели 400B, джойстика 400C, колеса/шара 400D UI, клавиатуры или стрелок 400E графического пользовательского интерфейса (GUI) и/или другого ввода 400F. Направление, введенное пользователем, чтобы первый раз продвигаться по контенту, распознается, как изображено в блоке 402. Например, если пользовательский ввод в блоке 400 представляет сенсорный экран 400A или сенсорную панель 400B, направление, введенное пользователем для продвижения по контенту, может быть распознано в блоке 402 посредством пользователя, который перетаскивает свой палец в определенном направлении. В проиллюстрированном варианте осуществления направление навигации по контенту устанавливается в блоке 404 как направление, сообщенное жестами UI пользователей. В одном из вариантов осуществления направление устанавливается в блоке 404 на основе первого жеста пользователя, сделанного с помощью пользовательского ввода в блоке 400 для конкретного контента, который потребляется.
В одном из вариантов осуществления контент, который должен быть представлен в установленном направлении навигации по контенту, упорядочивается, как изображено в блоке 406. Например, как только направление навигации по контенту известно, другие части (например, страницы) этого контента могут быть упорядочены так, что продвижение вперед будет перемещать к следующей части контента, тогда как движение назад будет перемещать к предыдущей части контента.
Как показано в блоке 408, анализируются пользовательские последующие жесты UI для представленного контента. Навигация по этому контенту основана на пользовательских жестах и установленном направлении навигации по контенту. В одном из вариантов осуществления потребление контента продвигается вперед посредством пользовательских жестов, сделанных в том же направлении, в котором изначально было установлено направление навигации по контенту. Например, как показано в блоке 408A, пользователь может перемещаться вперед по контенту, когда пользовательские жесты в том же направлении устанавливают направление навигации по контенту, и может перемещаться назад по контенту, когда пользовательские жесты в противоположном или, по меньшей мере, другом направлении.
Один из вариантов осуществления, следовательно, включает в себя прием пользовательского ввода в блоке 400, который указывает направление для продвижения по представленному контенту, как определено в блоке 402, где представленный контент затем упорядочивается в блоке 406 в ответ на установление направления навигации по контенту в блоке 404. Представленный контент может быть упорядочен для продвижения по представленному контенту вперед в ответ на дополнительный пользовательский ввод, сообщающий то же самое направление. В другом варианте осуществления представленный контент упорядочен для перемещения назад в упорядоченной последовательности представленного контента в ответ на пользовательский ввод, сообщающий направление, противоположное, или в некоторых вариантах осуществления, по меньшей мере, отличное от направления начального пользовательского ввода, который установил направление навигации.
Фиг. 5A-5D иллюстрируют показательный способ установления навигационного направления контента и последующей навигации по контенту, как только навигационное направление установлено. На Фиг. 5A-5D одинаковые ссылочные позиции используются для идентификации одинаковых элементов. Обращаясь сначала к Фиг. 5A, первая страница документа или другого элемента контента изображена как страница-1 300A документа. Вне зависимости от ориентации UI, или даже от ориентации документа, пользователь может сделать жест UI, чтобы указать направление навигации по контенту. В проиллюстрированном варианте осуществления предполагается, что механизм UI представляет собой сенсорный экран, где пользователь может двигать свой палец в направлении, в котором происходило бы продвижение к следующей странице документа.
В одном из вариантов осуществления первый такой сенсорный жест устанавливает навигационное направление для этого экземпляра документа. На Фиг. 5A первый сенсорный жест представляет собой жест 302 справа-налево, который устанавливает навигационную модель для этого документа. Когда сенсорный жест 302 (например, перетаскивание, проведение и т.д.) выполнен, документ также продвигается к следующей странице документа, показанной на Фиг. 5B как страница-2 300B документа. Другой сенсорный жест 302 в том же направлении продвигает или переворачивает страницу, приводя к странице-3 300C документа на Фиг. 5C. Как только направление "продвижения" документа было установлено в соответствии с документами LTR (вследствие анимации или переворачивания страницы справа-налево), сенсорный жест в противоположном направлении приведет к тому, что документ вернется к предыдущей странице. Это изображено на Фиг. 5C, где выполняется сенсорный жест 304 слева-направо, который возвращает к предыдущей странице, когда такой жест выполняется в направлении, преимущественно противоположном установленному направлению навигации. Результирующая страница документа показана на Фиг. 5D, где показан документ, вернувшийся к странице-2 300B документа.
Расположение страниц или других частей контента дополнительно проиллюстрировано в связи с Фиг. 6. Направление модели навигации, основанное на жесте, как описано в материалах настоящей заявки, позволяет основанным на модели элементам управления навигацией больше не быть привязанными к направленной ориентации UI путем использования направления сенсорного жеста пользователя, чтобы идентифицировать желаемое направление модели навигации. Как было отмечено выше, предыдущие реализации элементов управления навигационного типа наследуют или устанавливают горизонтальную ориентацию модели на основе ориентации/направления UI. Привязка ориентации формата навигационного управления к направленной ориентации языка UI может ввести ограничения в опыт пользователя. При определенных условиях направление UI и формата модели управления навигации могут быть противоположны направлению контента.
В целях примера Фиг. 6 описана в терминах документа, представленного на вычислительном устройстве, где жест UI выполнен посредством сенсорного экрана или другого основанного на сенсоре механизма. Как изображено на Фиг. 6, первая страница 602 начального состояния 600 по умолчанию многостраничного документа представлена в последовательности навигации. Вторая страница в последовательности навигации может быть включена в это начальное состояние 600 по умолчанию, но может быть не отображена. Это изображено вторыми страницами 604A и 604B, которые представляют возможные состояния управления для второй страницы в зависимости от входного жеста пользователя. Если пользовательские жесты имитируют переворачивание страницы слева направо, указывая навигационное направление RTL, используется состояние 610 управления. В этом случае следующая страница представляет собой 604A, за которой следует страница 606 и т.д. Эта ориентация RTL устанавливается на основе навигационного жеста RTL, который затем позволяет перемещаться вперед или назад в документе на основе направления жеста, относящегося к начальному жесту, который устанавливает навигационное направление. Альтернативно, если пользовательские жесты имитируют переворачивание страницы справа налево, указывая навигационное направление LTR, используется состояние 620 управления. В этом случае следующая страница представляет собой 604B, за которой следует страница 606 и т.д. Состояние управления возвращается к состоянию 600 управления при повторном инициировании, например, когда новый документ или другой контент загружается в дисплей или другую область презентации пользовательского устройства.
Показательный пример, показанный в контексте пользовательского устройства, описан на Фиг. 7A-7C. На Фиг. 7A-7C одинаковые ссылочные позиции используются для идентификации одинаковых элементов, и подобные элементы могут быть представлены одинаковыми ссылочными позициями, но различными замыкающими буквами. В этом примере экран 700A графического пользовательского интерфейса (GUI) представлен на дисплее, например, на сенсорном дисплее или сенсорном экране. Ориентация UI, изображенная с помощью показательных функций 702A UI, может быть задана на основе языка операционной системы. Например, в варианте осуществления на Фиг. 7A пользовательский интерфейс сконфигурирован для языков LTR. Это изображено стрелкой слева-направо направления 730A UI. Показательные функции 702A UI могут включать в себя, например, пункты 704 меню, элементы 706 управления (например, минимизировать, максимизировать и т.д.), команды 708, 710 и т.д. В проиллюстрированном варианте осуществления показательный экран 700A GUI представляет экран предварительного просмотра печати, вызывающий функции UI, такие как печать диапазона страниц 712, ориентация бумаги 714, цвет печати 716 и т.д.
Экран 700A GUI также представляет контент, который в примере предварительного просмотра печати на Фиг. 7 включает в себя начальную страницу 720A документа из множества печатных изображений, связанных с печатаемым контентом. В этом примере, если пользователь захотел бы просмотреть страницы, которые должны быть напечатаны, пользователь может прокрутить или, иначе, продвинуться по документу. Как было описано ранее, один из вариантов осуществления включает в себя распознавание первого жеста пользователя, указывающего направление прокрутки, и установку навигационного направления на основе этого первого жеста. Например, в примере на Фиг. 7A пользователь передвинул свой палец по направлению налево из положения на изображении или странице 720A документа, как указано стрелкой 722. Это указывает на попытку "перевернуть страницу" в документе или другом контенте, упорядоченном слева-направо, тем самым указывая навигационное направление LTR. В этом примере документ может быть английским документом, написанным LTR образом, как отмечено направлением 732A документа. Оставаясь на усмотрение пользователя, с LTR-ориентированным документом и LTR-ориентированными функциями 720A UI пользователь может очень хорошо интуитивно продвигаться по страницам многостраничного документа/изображения способом слева-направо. Если так, это установит направление 734A навигационной модели способом слева-направо, так что дополнительные пользовательские жесты в том же направлении будут продвигать страницы документа вперед, тогда как пользовательские жесты в целом в противоположном направлении будут приводить к перемещению назад по страницам документа. Пример Фиг. 7A представляет согласованные модели, где направление 730A UI сконфигурировано в той же ориентации, что и направление 732A документа, где навигация наверняка продвигалась бы в том же направлении.
Фиг. 7B представляет несогласованную модель, где направление 730B UI сконфигурировано в ориентации, отличной от направления 732B документа. В этом примере экран 700B GUI включает в себя функции 702B UI в ориентации RTL, как, например, в случае, когда операционная система представляет собой еврейскую или арабскую операционную систему. Направление 732B документа упорядочено слева-направо, как, например, в английском документе. Пример Фиг. 7B, следовательно, предоставляет пример просмотра, или в этом случае предварительного просмотра для печати, английского или другого LTR-ориентированного документа, чья страница 720B документа изображена. С RTL направлением 730B UI пользователь может попытаться продвинуться в документе LTR посредством выполнения жестов способом слева-направо (например, переворачивая страницы RTL), как изображено стрелкой 724. В системах предшествующего уровня техники пользователь мог фактически перемещаться назад в документе, а не перемещаться вперед, как было необходимо, вследствие этого несоответствия.
Фиг. 7C представляет, как способы в соответствии с настоящим раскрытием предоставляют решения для таких потенциальных несоответствующих моделей. Пример изначально предполагает те же самые условия, как описано в связи с Фиг. 7B, заключающиеся в том, что функции 720B UI находятся в ориентации RTL, как показано RTL направлением 730B UI, а направление 732B документа упорядочено в направлении LTR. Однако в этом примере еще нет какого-либо установленного направления 734C навигационной модели, как изображено многонаправленной стрелкой. Первая страница 720B документа представлена, но направление 734C навигационной модели не будет установлено до тех пор, пока пользователь не выполнит жест, чтобы установить направление. В примере на Фиг. 7C пользователь перемещает свой палец в целом в движении влево, как изображено стрелкой 726. Это подразумевает переворачивание страниц или, иначе, продвижение по документу слева направо. На основе этого жеста устанавливается новое направление 734D модели навигации. Дополнительные пользовательские жесты по направлению влево будут продвигать страницы 720B документа вперед, тогда как жесты по направлению направо будут возвращать документ на предыдущую страницу.
Фиг. 8 иллюстрирует показательную компьютерную систему или устройство 800, в котором могут быть реализованы принципы, описанные в материалах настоящей заявки. Показательное вычислительное устройство 800 может представлять любое вычислительное устройство, в котором может быть представлен контент. Например, вычислительное устройство 800 может представлять настольное вычислительное устройство, ноутбук или другое портативное вычислительное устройство, смартфон или другое карманное устройство, электронное устройство чтения (например, устройство для чтения электронных книг), персонального цифрового помощника и т.д. Вычислительная среда, описанная в связи с Фиг. 8, описана в целях примера, поскольку структурное и операционное раскрытие для облегчения динамического установления навигационного направления на основе жестов применимо в любой среде, в которой может быть представлен контент, и могут быть приняты пользовательские жесты. Следует также отметить, что вычислительная схема на Фиг. 8 может в некоторых вариантах осуществления быть распределена по нескольким устройствам (например, системный процессор и дисплей или контроллер сенсорного экрана и т.д.).
Показательное вычислительное устройство 800 может включать в себя процессор 802, соединенный с многочисленными модулями через системную шину 804. Изображенная системная шина 804 представляет любой тип шинной структуры (структур), которая может быть непосредственно или опосредованно соединена с различными компонентами и модулями вычислительной среды. Постоянное запоминающее устройство (ПЗУ, ROM) 806 может быть предоставлено для хранения программно-аппаратных средств, используемых процессором 802. ПЗУ 806 представляет любой тип постоянного запоминающего устройства, например, программируемое ПЗУ (ППЗУ, PROM), стираемое ППЗУ (EPROM) или тому подобное.
Хост-шина или системная шина 804 может быть соединена с контроллером 814 памяти, который в свою очередь соединен с памятью 812 через шину 816 памяти. Варианты осуществления установления направления навигации, описанные в материалах настоящей заявки, могут включать в себя программное обеспечение, которое хранится в любом запоминающем устройстве, включая энергозависимое запоминающее устройство, такое как память 812, а также энергонезависимые устройства хранения. Фиг. 8 иллюстрирует различные другие показательные устройства хранения, в которых приложения, модули, данные и другая информация может временно или постоянно храниться. Например, системная шина 804 может быть соединена с внутренним интерфейсом 830 хранения, который может быть соединен с накопителем(ями) 832, например, жестким диском. Запоминающее устройство 834 связано или, иначе, работает с накопителями. Примеры такого запоминающего устройства включают в себя жесткие диски и другие магнитные или оптические носители, флеш-память и другие полупроводниковые устройства и т.д. Внутренний интерфейс 830 хранения может использовать любой тип энергозависимого или энергонезависимого запоминающего устройства.
Подобным образом, интерфейс 836 для съемных носителей может также быть соединен с шиной 804. Накопители 838 могут быть соединены с интерфейсом 836 съемного запоминающего устройства, чтобы принимать и действовать на съемном запоминающем устройстве 840, таком как, например, гибкие диски, постоянное запоминающее устройство на компакт-дисках (CD-ROM), универсальные цифровые диски (DVD) и другие оптические диски или запоминающие устройства, модули идентификации абонента (SIM), беспроводные модули идентификации (WIM), карты памяти, флеш память, внешние жесткие диски и т.д. В некоторых случаях хост-адаптер 842 может быть предусмотрен для доступа к внешнему запоминающему устройству 844. Например, хост-адаптер 842 может взаимодействовать с внешними устройствами хранения через системный интерфейс малых компьютеров (SCSI), Волоконно-Оптический Канал, последовательное присоединение по передовой технологии (SATA) или eSATA и/или другие аналогичные интерфейсы, способные подключаться к внешнему запоминающему устройству 844. Посредством сетевого интерфейса 846 дополнительные удаленные запоминающие устройства могут быть доступны вычислительному устройству 800. Например, проводные и беспроводные приемопередатчики, связанные с сетевым интерфейсом 846, обеспечивают возможность связи с устройствами 848 хранения через одну или более сеть 850. Устройства 848 хранения могут представлять дискретные устройства хранения или запоминающее устройство, связанное с другой вычислительной системой, сервером и т.д. Связь с удаленными устройствами хранения и системами может быть выполнена с помощью локальных вычислительных сетей (LAN), беспроводных LAN и/или больших сетей, включая глобальные вычислительные сети (GAN), такие как Интернет.
Вычислительное устройство 800 может передавать и/или принимать информацию из внешних источников, например, чтобы получить документы и другой контент для презентации, код или обновления для языков операционной системы и т.д. Связь между устройством 800 и другими устройствами может осуществляться путем прямого подключения, одноранговых сетей, основанных на локальной инфраструктуре сетей (например, проводных и/или беспроводных локальных вычислительных сетей), сторонних сетей, таких как региональные вычислительные сети, и других крупномасштабных сетей, глобальных сетей и т.д. Передатчик 852 и приемник 854 показаны на Фиг. 8, чтобы проиллюстрировать структурную возможность показательного вычислительного устройства передавать и/или принимать данные с помощью любой из этих или других методологий связи. Устройства передатчика 852 и/или приемника 854 могут быть отдельными компонентами, могут быть интегрированы как приемопередатчик(и), могут быть интегрированы в уже существующую часть других устройств связи, например, сетевого интерфейса 846 и т.д.
Память 812 и/или запоминающие устройства 834, 840, 844, 848 могут использоваться для хранения программ и данных, используемых в соединениях с помощью различных способов, для динамического установления направлений навигации по контенту от пользовательского ввода, указывающего начальное навигационное направление. Запоминающее устройство/память 860 представляет, что может храниться в памяти 812, запоминающих устройствах 834, 840, 844, 848 и/или других устройствах сохранения данных. В одном из вариантов осуществления запоминающее устройство/память 860 показательного устройства включает в себя операционную систему 862, которая может включать в себя код/инструкции для представления GUI устройства. Например, модуль 875 представления UI может быть предоставлен для того, чтобы отвечать за представление UI, например, GUI, который может быть ориентирован в соответствии с языком.
Связанные с операционной системой 862, или отдельные от нее, модули программного обеспечения могут быть предоставлены для выполнения функций, связанных с описанием в материалах настоящей заявки. Например, может быть предоставлен модуль 870 определения направления пользовательского ввода, который в одном из вариантов осуществления включает в себя исполняемые процессором инструкции для определения направления, показываемого жестами пользователем на сенсорном экране 892 или с помощью другого пользовательского ввода 890. В одном из вариантов осуществления модуль 872 определения направления навигации определяет направление модели контента, принимая во внимание информацию о направлении, определенную с помощью модуля 870 определения направления пользовательского ввода. Например, если определено, что направление пользовательского ввода будет справа налево, модуль 872 определения направления навигации может установить, что такой жест соответствует направлению LTR навигационной модели контента. Кроме того, модуль 874 установления/назначения модели навигации может быть предоставлен для того, чтобы установить, чтобы направление навигации по контенту соответствовало направлению навигации, определенному из пользовательского начального жеста. Любой один или более из этих модулей может быть реализован отдельно от операционной системы 862 или как одно целое с операционной системой, как изображено в примере на Фиг. 8.
Запоминающее устройство/память 860 также может включать в себя данные 866 и другие программы или приложения 868. Любые модули 870, 872, 874 могут быть альтернативно предоставлены через программы или приложения 868, а не через операционную систему. Тогда как документы и другой контент, которые представляются пользователю, могут быть предоставлены в реальном времени через Интернет или другой внешний источник, контент 876 может храниться в памяти 812 временно и/или в любом из запоминающих устройств 834, 840, 844, 848 и т.д. Контент 876 может представлять многостраничный или многосегментный контент, который представлен множеством частей, например, страницами 1-20 документа, связаны ли части с исходным документом или переформатированы в вычислительном устройстве 800. Эти модули и данные показаны в целях иллюстрации и не представляют исчерпывающий список. Любые программы или данные, изображенные или использованные в связи с описанием, предоставленным в материалах настоящей заявки, могут быть связаны с запоминающим устройством/памятью 860.
Вычислительное устройство 800 включает в себя, по меньшей мере, одно средство 890 пользовательского ввода или сенсорное устройство, чтобы, по меньшей мере, предоставить пользовательский жест, который устанавливает направление навигации по контенту. Конкретный пример механизма пользовательского ввода 890 отдельно показан как сенсорный экран 892, который может использовать процессор 802 и/или включать в себя свой собственный процессор или контроллер C 894. Вычислительное устройство 800 включает в себя, по меньшей мере, один визуальный механизм для представления документов или контента, например, дисплей 896.
Как было отмечено ранее, показательное вычислительное устройство 800 на Фиг. 8 предоставлено в целях примера, поскольку любое вычислительное устройство, имеющее вычислительные возможности, может выполнять функции, описанные в материалах настоящей заявки, используя обучения, описанные в материалах настоящей заявки.
Как продемонстрировано в приведенных выше примерах, варианты осуществления, описанные в материалах настоящей заявки, способствуют установлению направления модели навигации на основе пользовательского направленного ввода или "жестов". В различных вариантах осуществления описаны способы, которые могут быть выполнены на вычислительном устройстве(ах), например, путем предоставления модулей программного обеспечения, которые являются исполняемыми с помощью процессора (который включает в себя один или более физических процессоров и/или логических процессоров, контроллеров и т.д.). Способы также могут храниться на машинно-читаемых носителях, которые могут быть доступны и прочитаны процессором и/или схемой, которая подготавливает информацию для обработки с помощью процессора. Например, машинно-читаемые носители могут включать в себя любую цифровую технологию хранения, включая память 812, запоминающие устройства 834, 840, 844, 848 и/или любые другие энергозависимые или энергонезависимые запоминающие устройства и т.д.
Любая результирующая программа(ы), реализующая отличительные признаки, описанные в материалах настоящей заявки, может включать в себя машинно-читаемый программный код, воплощенный в одном или более используемом компьютером носителе, тем самым приводя к тому, что машинно-читаемые носители дают возможность осуществления хранения исполняемых функций, описанных в материалах настоящей заявки. По сути, такие термины как "машинно-читаемый носитель", "компьютерный программный продукт", машинно-читаемое запоминающее устройство, машинно-читаемые носители или аналогичная терминология, как используется в материалах настоящей заявки, предназначены для охвата компьютерной программы (программ), существующей временно или постоянно на любом используемом компьютером носителе.
Хранение инструкций на машинно-читаемых носителях, как описано в материалах настоящей заявки, отличимо от инструкций, распространяемых или передаваемых, поскольку распространение передает инструкции, по сравнению с хранением инструкций, которое может, например, произойти с машинно-читаемым носителем, имеющим хранящиеся на нем инструкции. Следовательно, если не указано иное, ссылки на машинно-читаемые носители/носитель, имеющие инструкции, хранящиеся на них, в этой или аналогичной форме, ссылаются на материальный носитель, на котором могут храниться или удерживаться данные.
Хотя изобретение было описано на языке, характерном для структурных признаков и/или методологических действий, должно быть понятно, что объем изобретения, определяемый прилагаемой формулой изобретения, не обязательно ограничен характерными признаками или действиями, описанными выше. Скорее, характерные признаки и действия, описанные выше, раскрыты в качестве показательных форм реализации формулы изобретения.

Claims (45)

1. Компьютерно-реализуемый способ установления направления навигации по контенту, содержащий этапы, на которых:
отображают часть элемента контента, меньшую чем весь элемент контента целиком, на дисплее, ассоциированном с вычислительным устройством;
принимают первый пользовательский ввод, связанный с запросом изменить отображаемую часть элемента контента, при этом первый пользовательский ввод представляет модель навигационного ввода в первом направлении; и
в ответ на прием первого пользовательского ввода назначают для последующих пользовательских вводов первое направление в качестве модели навигационного ввода, для которой элемент контента должен продвигаться в направлении вперед, которое, в целом, противоположно первому направлению;
принимают второй пользовательский ввод в связи с элементом контента, причем второй пользовательский ввод представляет модель навигационного ввода в первом направлении; и
в ответ на прием второго пользовательского ввода продвигаются по элементу контента в направлении вперед, которое, в целом, противоположно первому направлению, в соответствии с упомянутым назначением первого направления в качестве модели навигационного ввода, для которой элемент контента должен продвигаться в направлении вперед, которое, в целом, противоположно первому направлению.
2. Компьютерно-реализуемый способ по п. 1, в котором при упомянутом приеме первого пользовательского ввода первый пользовательский ввод принимают через сенсорный экран.
3. Компьютерно-реализуемый способ по п. 2, в котором первый пользовательский ввод является имитируемым движением переворачивания страницы, принимаемым через сенсорный экран.
4. Компьютерно-реализуемый способ по п. 2, в котором первый пользовательский ввод является самым ранним пользовательским запросом, принятым вычислительным устройством, на навигацию по элементу контента.
5. Компьютерно-реализуемый способ по п. 1, дополнительно содержащий этап, на котором в ответ на прием первого пользовательского ввода продвигают в направлении вперед, которое, в целом, противоположно первому направлению, упомянутую часть элемента контента, отображаемую на дисплее, ассоциированном с вычислительном устройством.
6. Компьютерно-реализуемый способ по п. 1, дополнительно содержащий этапы, на которых:
принимают третий пользовательский ввод в связи с элементом контента, причем третий пользовательский ввод представляет второе направление, которое, в целом, противоположно первому направлению; и
в ответ на прием третьего пользовательского ввода перемещаются в обратном направлении по элементу контента.
7. Компьютерно-реализуемый способ по п. 6, в котором второе направление также представляет собой направление, которое, в целом, идентично направлению вперед.
8. Компьютерно-реализуемый способ по п. 1, в котором при упомянутом отображении части элемента контента упомянутую часть элемента контента отображают в графическом пользовательском интерфейсе, имеющем ориентацию, зависящую от языка операционной системы, при этом при упомянутом назначении модели навигационного ввода для представляемого контента назначают модель навигационного ввода, для которой упомянутый элемент контента должен продвигаться в направлении вперед, которое, в целом, противоположно первому направлению, независимо от того, является ли язык операционной системы языком с ориентацией слева направо, языком с ориентацией справа налево или двунаправленным языком.
9. Компьютерно-реализуемый способ по п. 1, в котором модель навигационного ввода является моделью навигации по горизонтали.
10. Компьютерно-реализуемый способ по п. 1, в котором модель навигационного ввода является моделью навигации по вертикали.
11. Устройство для установления направления навигации по контенту, содержащее:
сенсорное устройство пользовательского ввода, выполненное с возможностью приема инициированных пользователем жестов, передающих попытки навигации по элементу многокомпонентного контента;
дисплейное устройство, выполненное с возможностью отображать части элемента многокомпонентного контента; и
процессор, выполненный с возможностью:
принимать, в то время как начальная часть элемента многокомпонентного контента отображается на дисплейном устройстве, указание первого пользовательского ввода, причем первый пользовательский ввод представляет первое направление и связан с попыткой навигации в направлении вперед по элементу многокомпонентного контента,
в ответ на указание первого пользовательского ввода назначать для последующих указаний пользовательских вводов первое направление в качестве соответствующего направлению вперед для навигации по элементу многокомпонентного контента,
принимать указание второго пользовательского ввода, причем второй пользовательский ввод представляет первое направление,
в ответ на указание второго пользовательского ввода изменять упомянутую часть элемента многокомпонентного контента, отображаемую на дисплейном устройстве, в назначенном направлении вперед на основе упомянутого назначения, сделанного в ответ на указание первого пользовательского ввода, первого направления в качестве соответствующего направлению вперед для навигации по элементу многокомпонентного контента.
12. Устройство по п. 11, в котором процессор дополнительно выполнен с возможностью в ответ на указание первого пользовательского ввода изменять упомянутую часть элемента многокомпонентного контента, отображаемую на дисплейном устройстве, в назначенном направлении вперед.
13. Устройство по п. 11, в котором процессор дополнительно выполнен с возможностью:
принимать указание третьего пользовательского ввода, причем
третий пользовательский ввод представляет второе направление; и
в ответ на указание третьего пользовательского ввода изменять упомянутую часть элемента многокомпонентного контента, отображаемую на дисплейном устройстве, в направлении, противоположном назначенному направлению вперед.
14. Устройство по п. 11, при этом назначенное направление вперед, в целом, противоположно первому направлению.
15. Устройство по п. 11, в котором дисплейное устройство содержит сенсорный экран, при этом сенсорное устройство пользовательского ввода интегрировано с сенсорным экраном.
16. Машиночитаемый носитель, на котором сохранены инструкции, которые являются исполняемыми процессором для выполнения операций, содержащих:
предоставление пользовательского интерфейса, имеющего ориентацию, соответствующую языку операционной системы, исполняемой процессором;
представление многостраничного контента, имеющего ориентацию, отличающуюся от ориентации пользовательского интерфейса;
идентификацию исходного сенсорного жеста, указывающего направление для навигации вперед по многостраничному контенту;
назначение направления навигации для каждого из множества последующих сенсорных жестов для многостраничного контента, которые выполняются в том же направлении, что и исходный сенсорный жест, на основе направления, указываемого исходным сенсорным жестом;
перемещение вперед в многостраничном контенте в ответ на каждый из множества последующих сенсорных жестов, выполняемый в том же направлении, что и исходный сенсорный жест, в соответствии с упомянутым назначением направления навигации на основе направления, указываемого исходным сенсорным жестом; и
перемещение назад в многостраничном контенте в ответ на последующие сенсорные жесты в направлении, отличающемся от исходного сенсорного жеста.
17. Машиночитаемый носитель по п. 16, в котором
инструкции для предоставления пользовательского интерфейса содержат инструкции для предоставления пользовательского интерфейса, имеющего одну из ориентации пользовательского интерфейса слева направо, соответствующей первой группе языков операционной системы, и ориентации пользовательского интерфейса справа налево, соответствующей второй группе языков операционной системы; и
инструкции для представления многостраничного контента, имеющего ориентацию, отличающуюся от ориентации пользовательского интерфейса, содержат инструкции для представления многостраничного контента, имеющего ориентацию слева направо, для ориентации пользовательского интерфейса справа налево или представления многостраничного контента, имеющего ориентацию справа налево, для ориентации пользовательского интерфейса слева направо.
18. Машиночитаемый носитель по п. 16, в котором инструкции для перемещения назад в многостраничном контенте содержат инструкции для перемещения назад в многостраничном контенте в ответ на последующие сенсорные жесты в направлении, которое, в целом, противоположно исходному сенсорному жесту.
19. Машиночитаемый носитель по п. 16, в котором инструкции для идентификации исходного сенсорного жеста содержат инструкции для идентификации направленного проведения по сенсорному экрану, каковое направленное проведение вызывает продвижение на следующую страницу многостраничного контента и указывает направление для навигации вперед по многостраничному контенту.
20. Машиночитаемый носитель по п. 16, при этом язык многостраничного контента ассоциирован с направлением чтения, отличным от такового у языка операционной системы.
RU2014109754A 2011-09-14 2012-09-10 Установление направления навигации по контенту на основе направленных пользовательских жестов RU2627108C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/231,962 US20130067366A1 (en) 2011-09-14 2011-09-14 Establishing content navigation direction based on directional user gestures
US13/231,962 2011-09-14
PCT/US2012/054396 WO2013039817A1 (en) 2011-09-14 2012-09-10 Establishing content navigation direction based on directional user gestures

Publications (2)

Publication Number Publication Date
RU2014109754A RU2014109754A (ru) 2015-09-20
RU2627108C2 true RU2627108C2 (ru) 2017-08-03

Family

ID=47830992

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014109754A RU2627108C2 (ru) 2011-09-14 2012-09-10 Установление направления навигации по контенту на основе направленных пользовательских жестов

Country Status (12)

Country Link
US (1) US20130067366A1 (ru)
EP (1) EP2756391A4 (ru)
JP (1) JP6038927B2 (ru)
KR (1) KR20140075681A (ru)
CN (1) CN102999293A (ru)
AU (1) AU2012308862B2 (ru)
BR (1) BR112014005819A2 (ru)
CA (1) CA2847550A1 (ru)
IN (1) IN2014CN01810A (ru)
MX (1) MX2014003188A (ru)
RU (1) RU2627108C2 (ru)
WO (1) WO2013039817A1 (ru)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5458783B2 (ja) * 2009-10-01 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5911326B2 (ja) * 2012-02-10 2016-04-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
KR20130097533A (ko) * 2012-02-24 2013-09-03 삼성전자주식회사 터치스크린 휴대용 단말기의 화면 전환 방법 및 장치
JP5992614B2 (ja) * 2012-06-13 2016-09-14 カタール・ファウンデーションQatar Foundation 電子リーディング装置及び方法
JP6064393B2 (ja) * 2012-07-02 2017-01-25 ブラザー工業株式会社 出力処理プログラム、および出力装置
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US9774917B1 (en) 2012-12-10 2017-09-26 Apple Inc. Channel bar user interface
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
US20140172568A1 (en) * 2012-12-14 2014-06-19 Michael Alan Cunningham PI-TRAMPING Pages
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
US9785240B2 (en) * 2013-03-18 2017-10-10 Fuji Xerox Co., Ltd. Systems and methods for content-aware selection
JP6278262B2 (ja) * 2014-03-12 2018-02-14 ヤマハ株式会社 表示制御装置
US9760275B2 (en) * 2014-04-11 2017-09-12 Intel Corporation Technologies for skipping through media content
CN117331482A (zh) 2014-06-24 2024-01-02 苹果公司 输入设备和用户界面交互
EP3126953A1 (en) 2014-06-24 2017-02-08 Apple Inc. Column interface for navigating in a user interface
US10203865B2 (en) 2014-08-25 2019-02-12 International Business Machines Corporation Document content reordering for assistive technologies by connecting traced paths through the content
CN105138263A (zh) * 2015-08-17 2015-12-09 百度在线网络技术(北京)有限公司 一种在应用内跳转至特定页面的方法与装置
US10353564B2 (en) * 2015-12-21 2019-07-16 Sap Se Graphical user interface with virtual extension areas
US10397632B2 (en) 2016-02-16 2019-08-27 Google Llc Touch gesture control of video playback
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
WO2018132971A1 (zh) * 2017-01-18 2018-07-26 廖建强 一种交互控制方法和终端
US10379882B2 (en) * 2017-05-12 2019-08-13 Xerox Corporation Systems and methods for localizing a user interface based on a personal device of a user
KR102000722B1 (ko) * 2017-09-12 2019-07-16 (주)에코에너지 기술연구소 전기집진필터의 대전부 구조
DK201870354A1 (en) 2018-06-03 2019-12-20 Apple Inc. SETUP PROCEDURES FOR AN ELECTRONIC DEVICE
CN114302210A (zh) 2019-03-24 2022-04-08 苹果公司 用于查看和访问电子设备上的内容的用户界面
CN114115676A (zh) 2019-03-24 2022-03-01 苹果公司 包括内容项的可选表示的用户界面
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
EP3928228A1 (en) 2019-03-24 2021-12-29 Apple Inc. User interfaces for a media browsing application
WO2020243645A1 (en) 2019-05-31 2020-12-03 Apple Inc. User interfaces for a podcast browsing and playback application
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
CN111580718A (zh) * 2020-04-30 2020-08-25 北京字节跳动网络技术有限公司 应用程序的页面切换方法、装置、电子设备及存储介质
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030179189A1 (en) * 2002-03-19 2003-09-25 Luigi Lira Constraining display motion in display navigation
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
RU2335011C2 (ru) * 2003-03-04 2008-09-27 Майкрософт Корпорейшн Система и способ для навигации по графическому пользовательскому интерфейсу на уменьшенном дисплее
US20090100380A1 (en) * 2007-10-12 2009-04-16 Microsoft Corporation Navigating through content
US20110210932A1 (en) * 2008-03-20 2011-09-01 Seung-Kyoon Ryu Electronic document reproduction apparatus and reproducing method thereof

Family Cites Families (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61145599A (ja) * 1984-12-19 1986-07-03 日本電気株式会社 連続音声認識装置
US5543590A (en) * 1992-06-08 1996-08-06 Synaptics, Incorporated Object position detector with edge motion feature
JP3671259B2 (ja) * 1995-05-31 2005-07-13 カシオ計算機株式会社 表示装置
US5874948A (en) * 1996-05-28 1999-02-23 International Business Machines Corporation Virtual pointing device for touchscreens
US6037937A (en) * 1997-12-04 2000-03-14 Nortel Networks Corporation Navigation tool for graphical user interface
WO1999028811A1 (en) * 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US8220017B1 (en) * 1998-04-30 2012-07-10 International Business Machines Corporation System and method for programmatic generation of continuous media presentations
US6639584B1 (en) * 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
JP2001265481A (ja) * 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
US7450114B2 (en) * 2000-04-14 2008-11-11 Picsel (Research) Limited User interface systems and methods for manipulating and viewing digital documents
US6907574B2 (en) * 2000-11-29 2005-06-14 Ictv, Inc. System and method of hyperlink navigation between frames
US7219309B2 (en) * 2001-05-02 2007-05-15 Bitstream Inc. Innovations for the display of web pages
US20030078965A1 (en) * 2001-08-22 2003-04-24 Cocotis Thomas A. Output management system and method for enabling printing via wireless devices
US9164654B2 (en) * 2002-12-10 2015-10-20 Neonode Inc. User interface for mobile computer unit
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US8042044B2 (en) * 2002-11-29 2011-10-18 Koninklijke Philips Electronics N.V. User interface with displaced representation of touch area
US7218779B2 (en) * 2003-01-21 2007-05-15 Microsoft Corporation Ink divider and associated application program interface
US7256773B2 (en) * 2003-06-09 2007-08-14 Microsoft Corporation Detection of a dwell gesture by examining parameters associated with pen motion
US7406696B2 (en) * 2004-02-24 2008-07-29 Dialogic Corporation System and method for providing user input information to multiple independent, concurrent applications
US8684839B2 (en) * 2004-06-18 2014-04-01 Igt Control of wager-based game using gesture recognition
US7761814B2 (en) * 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
US20060123360A1 (en) * 2004-12-03 2006-06-08 Picsel Research Limited User interfaces for data processing devices and systems
US20060121939A1 (en) * 2004-12-03 2006-06-08 Picsel Research Limited Data processing devices and systems with enhanced user interfaces
US7750893B2 (en) * 2005-04-06 2010-07-06 Nintendo Co., Ltd. Storage medium storing input position processing program, and input position processing device
US20070028268A1 (en) * 2005-07-27 2007-02-01 Microsoft Corporation Media user interface start menu
US8739052B2 (en) * 2005-07-27 2014-05-27 Microsoft Corporation Media user interface layers and overlays
US7810043B2 (en) * 2005-07-27 2010-10-05 Microsoft Corporation Media user interface left/right navigation
US7761812B2 (en) * 2005-07-27 2010-07-20 Microsoft Corporation Media user interface gallery control
US7733329B2 (en) * 2005-10-19 2010-06-08 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Pattern detection using an optical navigation device
US7783698B2 (en) * 2005-12-16 2010-08-24 Microsoft Corporation Generalized web-service
GB0611452D0 (en) * 2006-06-12 2006-07-19 Plastic Logic Ltd Page refreshing e-reader
US8736557B2 (en) * 2006-09-11 2014-05-27 Apple Inc. Electronic device with image based browsers
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US20080104547A1 (en) * 2006-10-25 2008-05-01 General Electric Company Gesture-based communications
US20080177528A1 (en) * 2007-01-18 2008-07-24 William Drewes Method of enabling any-directional translation of selected languages
US20130219295A1 (en) * 2007-09-19 2013-08-22 Michael R. Feldman Multimedia system and associated methods
JP5476368B2 (ja) * 2008-04-30 2014-04-23 エヌ−トリグ リミテッド マルチタッチ検出
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
US8423889B1 (en) * 2008-06-05 2013-04-16 Amazon Technologies, Inc. Device specific presentation control for electronic book reader devices
WO2010011728A2 (en) * 2008-07-25 2010-01-28 Motorola, Inc. Method and apparatus for displaying navigational views on a portable device
JP5246769B2 (ja) * 2008-12-03 2013-07-24 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、及びプログラム
US8719701B2 (en) * 2009-01-02 2014-05-06 Apple Inc. Identification of guides and gutters of a document
US8704767B2 (en) * 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
JP5267229B2 (ja) * 2009-03-09 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US8572513B2 (en) * 2009-03-16 2013-10-29 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8677282B2 (en) * 2009-05-13 2014-03-18 International Business Machines Corporation Multi-finger touch adaptations for medical imaging systems
US8407623B2 (en) * 2009-06-25 2013-03-26 Apple Inc. Playback control using a touch interface
US8347232B1 (en) * 2009-07-10 2013-01-01 Lexcycle, Inc Interactive user interface
JP5184463B2 (ja) * 2009-08-12 2013-04-17 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、そのページめくり方法、およびコンピュータが実行可能なプログラム
US8843849B2 (en) * 2009-11-09 2014-09-23 Blackberry Limited Directional navigation of page content
US8510677B2 (en) * 2010-01-06 2013-08-13 Apple Inc. Device, method, and graphical user interface for navigating through a range of values
CN102804182A (zh) * 2010-01-11 2012-11-28 苹果公司 电子文本的操纵和显示
US8957866B2 (en) * 2010-03-24 2015-02-17 Microsoft Corporation Multi-axis navigation
US8762893B2 (en) * 2010-05-14 2014-06-24 Google Inc. Automatic derivation of analogous touch gestures from a user-defined gesture
US20120089951A1 (en) * 2010-06-10 2012-04-12 Cricket Communications, Inc. Method and apparatus for navigation within a multi-level application
US9223475B1 (en) * 2010-06-30 2015-12-29 Amazon Technologies, Inc. Bookmark navigation user interface
US20120066591A1 (en) * 2010-09-10 2012-03-15 Tina Hackwell Virtual Page Turn and Page Flip via a Touch Sensitive Curved, Stepped, or Angled Surface Side Edge(s) of an Electronic Reading Device
CH703723A1 (de) * 2010-09-15 2012-03-15 Ferag Ag Verfahren zur konfiguration einer grafischen benutzerschnittstelle.
US8610668B2 (en) * 2010-09-30 2013-12-17 Avago Technologies General Ip (Singapore) Pte. Ltd. Computer keyboard with input device
EP2437151B1 (en) * 2010-10-01 2020-07-08 Samsung Electronics Co., Ltd. Apparatus and method for turning e-book pages in portable terminal
KR20130124502A (ko) * 2010-10-01 2013-11-14 톰슨 라이센싱 사용자 인터페이스의 내비게이션 시스템 및 방법
CA2743154A1 (en) * 2010-12-16 2012-06-16 Exopc Method for simulating a page turn in an electronic document
US10365819B2 (en) * 2011-01-24 2019-07-30 Apple Inc. Device, method, and graphical user interface for displaying a character input user interface
US9250798B2 (en) * 2011-01-24 2016-02-02 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US8593420B1 (en) * 2011-03-04 2013-11-26 Amazon Technologies, Inc. Providing tactile output and interaction
US20120256829A1 (en) * 2011-04-05 2012-10-11 Qnx Software Systems Limited Portable electronic device and method of controlling same
US20130055141A1 (en) * 2011-04-28 2013-02-28 Sony Network Entertainment International Llc User interface for accessing books
US20120289156A1 (en) * 2011-05-09 2012-11-15 Wesley Boudville Multiple uses of an e-book reader
US9274694B2 (en) * 2011-05-17 2016-03-01 Next Issue Media Device, system and method for image-based content delivery
US8751971B2 (en) * 2011-06-05 2014-06-10 Apple Inc. Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
WO2013028081A1 (en) * 2011-08-23 2013-02-28 Opera Software Asa Page based navigation and presentation of web content
US9996241B2 (en) * 2011-10-11 2018-06-12 Microsoft Technology Licensing, Llc Interactive visualization of multiple software functionality content items
US20130179796A1 (en) * 2012-01-10 2013-07-11 Fanhattan Llc System and method for navigating a user interface using a touch-enabled input device
US20130257749A1 (en) * 2012-04-02 2013-10-03 United Video Properties, Inc. Systems and methods for navigating content on a user equipment having a multi-region touch sensitive display
US20140164923A1 (en) * 2012-12-12 2014-06-12 Adobe Systems Incorporated Intelligent Adaptive Content Canvas
US9395898B2 (en) * 2012-12-14 2016-07-19 Lenovo (Beijing) Co., Ltd. Electronic device and method for controlling the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030179189A1 (en) * 2002-03-19 2003-09-25 Luigi Lira Constraining display motion in display navigation
RU2335011C2 (ru) * 2003-03-04 2008-09-27 Майкрософт Корпорейшн Система и способ для навигации по графическому пользовательскому интерфейсу на уменьшенном дисплее
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US20090100380A1 (en) * 2007-10-12 2009-04-16 Microsoft Corporation Navigating through content
US20110210932A1 (en) * 2008-03-20 2011-09-01 Seung-Kyoon Ryu Electronic document reproduction apparatus and reproducing method thereof

Also Published As

Publication number Publication date
JP6038927B2 (ja) 2016-12-07
AU2012308862A1 (en) 2014-04-03
EP2756391A4 (en) 2015-05-06
IN2014CN01810A (ru) 2015-05-29
EP2756391A1 (en) 2014-07-23
US20130067366A1 (en) 2013-03-14
RU2014109754A (ru) 2015-09-20
BR112014005819A2 (pt) 2017-03-28
MX2014003188A (es) 2015-04-13
AU2012308862B2 (en) 2017-04-20
CN102999293A (zh) 2013-03-27
JP2014527251A (ja) 2014-10-09
KR20140075681A (ko) 2014-06-19
CA2847550A1 (en) 2013-03-21
WO2013039817A1 (en) 2013-03-21

Similar Documents

Publication Publication Date Title
RU2627108C2 (ru) Установление направления навигации по контенту на основе направленных пользовательских жестов
US8543941B2 (en) Electronic book contextual menu systems and methods
US9285903B1 (en) Stylus and electronic display
US20140304586A1 (en) Electronic device and data processing method
CN106716493B (zh) 对内容样式化的方法和对内容样式化的触摸屏设备
Korzetz et al. Natural collocated interactions for merging results with mobile devices
US9965457B2 (en) Methods and systems of applying a confidence map to a fillable form
US10007653B2 (en) Methods and systems of creating a confidence map for fillable forms

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20190911