RU2754525C2 - Переходы графического пользовательского интерфейса (gui) на носимом электронном устройстве - Google Patents

Переходы графического пользовательского интерфейса (gui) на носимом электронном устройстве Download PDF

Info

Publication number
RU2754525C2
RU2754525C2 RU2017142722A RU2017142722A RU2754525C2 RU 2754525 C2 RU2754525 C2 RU 2754525C2 RU 2017142722 A RU2017142722 A RU 2017142722A RU 2017142722 A RU2017142722 A RU 2017142722A RU 2754525 C2 RU2754525 C2 RU 2754525C2
Authority
RU
Russia
Prior art keywords
user
display
gesture
rotation
depicts
Prior art date
Application number
RU2017142722A
Other languages
English (en)
Other versions
RU2017142722A3 (ru
RU2017142722A (ru
Inventor
Пранав МИСТРИ
Саджид САДИ
Линин ЯО
Джон СНЕЙВЛИ
Ева-Мария ОФФЕНБЕРГ
Линк ХУАН
Кэти КИМ
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Publication of RU2017142722A publication Critical patent/RU2017142722A/ru
Publication of RU2017142722A3 publication Critical patent/RU2017142722A3/ru
Application granted granted Critical
Publication of RU2754525C2 publication Critical patent/RU2754525C2/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Группа изобретений относится к носимым электронным устройствам. Техническим результатом является обеспечение перехода от одного экрана графического пользовательского интерфейса к другому. Способ содержит этапы: отображают, на круглом дисплее устройства, экран графического пользовательского интерфейса, причем экран содержит первый графический элемент, центрированный вокруг центра круглого дисплея; принимают ввод пользователя, содержащий вращение способного вращаться элемента устройства, при этом способный вращаться элемент окружает круглый дисплей устройства, и вращение способного вращаться элемента обнаруживается детектором устройства; определяют, имеет ли вращение способного вращаться элемента ускорение, которое превышает пороговое значение; если ускорение меньше или равно пороговому значению, переходят от первого графического элемента ко второму графическому элементу; если ускорение превышает пороговое значение, уменьшают в размере первый графический элемент и прокручивают на круглом дисплее через множество уменьшенных в размере графических элементов. 2 н. и 7 з.п. ф-лы, 230 ил.

Description

Область техники
Эта заявка испрашивает приоритет на основании предварительной заявки на патент США № 61/728765, поданной 20 ноября 2012, предварительной заявки на патент США №61/728770, поданной 20 ноября 2012, предварительной заявки на патент США №61/773803, поданной 6 марта 2013, предварительной заявки на патент США №61/728773, поданной 20 ноября 2012, предварительной заявки на патент США №61/773813, поданной 7 марта 2013, предварительной заявки на патент США №61/773815, поданной 7 марта 2013, предварительной заявки на патент США №61/773817, поданной 7 марта 2013, предварительной заявки на патент США №61/775688, поданной 11 марта 2013, предварительной заявки на патент США №61/775687, поданной 11 марта 2013, предварительной заявки на патент США №61/775686, поданной 11 марта 2013, и заявки на патент США №14/015,890, поданной 30 августа 2013, которые включены в настоящий документ посредством ссылки.
Это изобретение, в общем, относится к носимым электронным устройствам.
Уровень техники
Мобильные электронные устройства предоставляют пользователю доступ к вычислительным возможностям, даже когда пользователь перемещается из одного места в другое. Примеры мобильных электронных устройств включают в себя мобильные телефоны, медиапроигрыватели, портативные компьютеры, планшеты, карманные персональные компьютеры (PDA) или гибридные устройства, которые включают в себя функциональность нескольких устройств этого типа.
Мобильные электронные устройства могут быть частью сети связи, такой как локальная сеть, глобальная сеть, сотовая сеть, Интернет или любая другая подходящая сеть. Мобильное электронное устройство может использовать сеть связи для осуществления связи с другими электронными устройствами, например, для доступа к удаленно сохраненным данным, для доступа к удаленным вычислительным мощностям, для доступа к удаленным дисплеям, для предоставления локально сохраненных данные, для обеспечения локальных вычислительных мощностей или обеспечения доступа к локальным дисплеям. Например, сети могут обеспечивать каналы связи и линии связи с серверами, на которых могут размещаться приложения, содержание и службы, к которым могут получить доступ или использовать пользователи через мобильные электронные устройства. Содержание может включать в себя текст, видеоданные, аудиоданные, пользовательские настройки или другие типы данных. Сети могут использовать любой подходящий протокол или технологию связи для обеспечения связи между мобильными электронными устройствами, например, BLUETOOTH, IEEE WI-FI (802.11 a/b/g/n/ac) или TCP/IP.
Сущность изобретения
Решение задачи
В одном варианте осуществления устройство включает в себя один или несколько процессоров и память, соединенную с процессорами, которая включает в себя инструкции, исполняемые процессорами. При исполнении инструкций процессоры представляют на дисплее устройства первый экран графического пользовательского интерфейса. Первый экран включает в себя один или несколько первых элементов. Процессоры принимают ввод пользователя, указывающий переход в графическом пользовательском интерфейсе и, в ответ на ввод пользователя, переходят от первого экрана ко второму экрану графического пользовательского интерфейса и применяют один или несколько визуальных эффектов перехода к переходу. Второй экран включает в себя один или несколько вторых элементов.
Положительные эффекты изобретения
В соответствии с настоящим изобретением обеспечены способ и устройство для переходов GUI на носимом электронном устройстве.
Краткое описание чертежей
Фиг. 1 изображает иллюстративный вариант осуществления носимого электронного устройства.
Фиг. 2 изображает иллюстративную накладку устройства.
Фиг. 3A-3E изображают иллюстративные форм-факторы устройства.
Фиг. 4A изображает иллюстративное сечение корпуса устройства.
Фиг. 4B-С изображают иллюстративные соединения между компонентами устройства.
Фиг. 5A-5F изображают иллюстративные дисплеи устройства.
Фиг. 6A-С изображают иллюстративные поперечные сечения дисплея устройства.
Фиг. 7A-7D изображают иллюстративные внешние элементы корпуса устройства.
Фиг. 8A-8C изображают иллюстративные внешние элементы корпуса устройства.
Фиг. 9 изображает иллюстративное уплотнительное кольцо устройства.
Фиг. 10 изображает иллюстративное крепежное кольцо устройства.
Фиг. 11 изображает различные иллюстративные варианты осуществления для ношения устройства.
Фиг. 12A-12B изображают ремешок, присоединенный к корпусу устройства.
Фиг. 13A-13I изображают иллюстративные варианты осуществления для застегивания или фиксации ремешка устройства.
Фиг. 14A-D изображают иллюстративные размещения камеры на устройстве.
Фиг. 15 изображает иллюстративное устройство с ремешком и оптическим датчиком.
Фиг. 16 изображает иллюстративный треугольник обозрения, включающий в себя пользователя, устройство и объект.
Фиг. 17 изображает иллюстративный угол обзора для оптического датчика устройства.
Фиг. 18A-18B изображают иллюстративные оптические датчики устройства.
Фиг. 19 изображает иллюстративную сенсорную систему обнаружения устройства.
Фиг. 20A-20C изображают иллюстративные зарядные устройства, используемые с устройством.
Фиг. 21A-21B изображают иллюстративные зарядные устройства, используемые с устройством.
Фиг. 22A-22B изображают иллюстративные зарядные устройства, используемые с устройством.
Фиг. 23 изображает иллюстративную схему зарядки для зарядного устройства, используемого с устройством.
Фиг. 24 изображает иллюстративную схему зарядки для зарядного устройства, используемого с устройством.
Фиг. 25A-25E изображают иллюстративные варианты осуществления аккумулирования энергии и зарядки в устройстве и зарядном устройстве.
Фиг. 26 изображает иллюстративную архитектуру зарядного устройства.
Фиг. 27-92 изображают иллюстративные жесты для использования с устройством.
Фиг. 93A-93B изображают иллюстративный ввод данных пользователем в устройство.
Фиг. 94A-94C изображают иллюстративный ввод данных пользователем в устройство.
Фиг. 95A-95D изображают иллюстративный сенсорный ввод данных пользователем в устройство.
Фиг. 96A-96B изображают иллюстративные модели графического пользовательского интерфейса устройства.
Фиг. 97 изображает иллюстративную модель графического пользовательского интерфейса устройства.
Фиг. 98A-98G изображают иллюстративные модели графического пользовательского интерфейса устройства.
Фиг. 99 изображает иллюстративную модель графического пользовательского интерфейса устройства.
Фиг. 100A-100C изображают иллюстративные модели графического пользовательского интерфейса устройства.
Фиг. 101A-101B изображают иллюстративные экраны графического пользовательского интерфейса устройства.
Фиг. 102A-102D изображают иллюстративные экраны графического пользовательского интерфейса устройства.
Фиг. 103A-103D изображают иллюстративные экраны графического пользовательского интерфейса устройства.
Фиг. 104 изображает иллюстративное меню графического пользовательского интерфейса устройства.
Фиг. 105A-105D изображают иллюстративные меню графического пользовательского интерфейса устройства.
Фиг. 106A-106C изображают иллюстративные меню графического пользовательского интерфейса устройства.
Фиг. 107A-107C изображают иллюстративные меню графического пользовательского интерфейса устройства.
Фиг. 108 изображает иллюстративное меню графического пользовательского интерфейса устройства.
Фиг. 109A-109C изображают иллюстративные меню графического пользовательского интерфейса устройства.
Фиг. 110A-110B изображают примеры прокрутки в графическом пользовательском интерфейсе устройства.
Фиг. 111A-111C изображают примеры прокрутки в графическом пользовательском интерфейсе устройства.
Фиг. 112 изображает примеры графической накладки и фонового содержания в графическом пользовательском интерфейсе устройства.
Фиг. 113A-C изображают примеры графической накладки и фонового содержания в графическом пользовательском интерфейсе устройства.
Фиг. 114A-114B изображают иллюстративные визуальные эффекты перехода в графическом пользовательском интерфейсе устройства.
Фиг. 115A-115B изображают иллюстративные визуальные эффекты перехода в графическом пользовательском интерфейсе устройства.
Фиг. 116A-116B изображают иллюстративные визуальные эффекты перехода в графическом пользовательском интерфейсе устройства.
Фиг. 117A-117B изображают иллюстративные визуальные эффекты перехода в графическом пользовательском интерфейсе устройства.
Фиг. 118A-118C изображают иллюстративные визуальные эффекты перехода в графическом пользовательском интерфейсе устройства.
Фиг. 119A-119C изображают иллюстративные визуальные эффекты перехода в графическом пользовательском интерфейсе устройства.
Фиг. 120A-120C изображают иллюстративные визуальные эффекты перехода в графическом пользовательском интерфейсе устройства.
Фиг. 121A-121B изображают иллюстративные визуальные эффекты перехода в графическом пользовательском интерфейсе устройства.
Фиг. 122 изображает иллюстративное использование физической модели в графическом пользовательском интерфейсе устройства.
Фиг. 123 изображает иллюстративные экраны графического пользовательского интерфейса устройства.
Фиг. 124 изображает иллюстративные экраны графического пользовательского интерфейса устройства.
Фиг. 125 изображает иллюстративный способ для автоматической активации камеры в устройстве.
Фиг. 126 изображает иллюстративный способ для делегирования с помощью устройством.
Фиг. 127 изображает иллюстративные модели делегирования, включающие в себя устройство.
Фиг. 128 изображает иллюстративный способ для делегирования с помощью устройством.
Фиг. 129A-129D изображают иллюстративные режимы работы устройства.
Фиг. 130 изображает иллюстративный режим работы устройства.
Фиг. 131A-131D изображают иллюстративные режимы работы устройства.
Фиг. 132 изображает иллюстративный способ для обеспечения функции дополненной реальности на устройстве.
Фиг. 133 изображает иллюстративную сетевую среду, в которой может функционировать устройство.
Фиг. 134 изображает пример спаривания между устройством и целевым устройством.
Фиг. 135 изображает иллюстративный способ для спаривания устройства с целевым устройством.
Фиг. 136 изображает иллюстративные экраны графического пользовательского интерфейса устройства.
Фиг. 137 изображает иллюстративную компьютерную систему, содержащую устройство.
Наилучший вариант осуществления изобретения
В одном варианте осуществления устройство включает в себя один или несколько процессоров и память, соединенную с процессорами, которая включает в себя инструкции, исполняемые процессорами. При исполнении инструкций процессоры представляют на дисплее устройства первый экран графического пользовательского интерфейса. Первый экран включает в себя один или несколько первых элементов. Процессоры принимают ввод пользователя, указывающий переход в графическом пользовательском интерфейсе и, в ответ на ввод пользователя, переходят от первого экрана ко второму экрану графического пользовательского интерфейса и применяют один или несколько визуальных эффектов перехода к переходу. Второй экран включает в себя один или несколько вторых элементов.
Вариант изобретения
Фиг. 1 изображает иллюстративный вариант осуществления носимого электронного устройства 100. Устройство 100 включает в себя корпус 105, содержащий все или часть из: электрических схем, структур и дисплея устройства 100. Например, корпус 105 может включать в себя все или часть из: обрабатывающих компонентов, компонентов хранения данных, памяти, датчиков, проводов или коммуникационных компонентов устройства 100. В конкретных вариантах осуществления устройство 100 может включать в себя дисплей. Дисплей может иметь любой подходящий вид или форму, такую как, например, круглая форма, как изображено с помощью круглого дисплея 110. В настоящем документе, где это необходимо, «круглый дисплей» включает в себя практически круглые дисплеи или кругообразные дисплеи, такие как, например, эллиптические дисплеи. В конкретных вариантах осуществления устройство 100 может включать в себя элемент вокруг дисплея. В настоящем документе элемент вокруг дисплея включает в себя способный вращаться элемент, окружающий дисплей или корпус, на или в котором находится дисплей. Например, элемент может быть внешним кольцом 115 вокруг круглого дисплея 110. В конкретных вариантах осуществления элемент вокруг дисплея может двигаться относительно дисплея или корпуса. Например, внешнее кольцо 115 может вращаться относительно корпуса устройства 100, как описано более подробно ниже. В конкретных вариантах осуществления устройство 100 может включать в себя ремешок 120, прикрепленный к корпусу 105. В конкретных вариантах осуществления устройство 100 может включать в себя модуль датчика, такой как, например, модуль 125 камеры, содержащий в себе камеру, прикрепленный в или к корпусу 105 или ремешку 125, как описано более подробно ниже.
Конкретные варианты осуществления носимого электронного устройства включают в себя накладку, которая позволяет части или всей системе обработки и системе отображения поместиться в корпусе устройства, который может быть окружен элементом, таким как внешнее кольцо, которое обеспечивает по меньшей мере один метод для взаимодействия пользователя с устройством. Дополнительно или альтернативно, конкретные варианты осуществления могут включать в себя внешние компоненты, встроенные в ремешок для дополнительной функциональности, как описано более подробно в настоящем документе. Фиг. 2 изображает иллюстративную накладку 200 носимого электронного устройства. Как показано на фиг. 2, некоторые или все компоненты накладки 200 могут иметь форму устройства, которое является круглым в примере на фиг. 2. Накладка 200 может включать в себя слой защитного стекла (или другого подходящего прозрачного твердого материала) 205. Другие компоненты могут наслаиваться к защитному стеклу 205 или прикрепляться к основанию 245. Дополнительно или альтернативно, защитный слой 205 может быть механически соединен с внешним кольцом 235 или любым другим подходящим компонентом корпуса устройства. Непосредственно под защитным стеклом 205 может находиться сенсорный слой 210. Сенсорный слой 210 может состоять из любого подходящего материала и быть любого подходящего типа, такого как, например, резистивного, на поверхностных акустических волнах, емкостного (в том числе на основе взаимной емкости или самоемкости), на основе инфракрасного излучения, оптического, дисперсионного или любого другого подходящего типа. Сенсорный слой 210 может быть нанесен непосредственно на защитное стекло 205, наслоен на него или физически прикреплен. Сенсорный слой 210 может быть полностью двумерной сенсорной поверхностью или может состоять из сенсорных участков, например, ряда емкостных кнопок или областей. Сенсорный слой 210 может быть соединен с платой 215 процессора с помощью гибкого разъема на краю сенсорной поверхности, как описано более подробно в настоящем документе.
Под сенсорным слоем 210 может находиться круглый дисплей 215, который может быть наслоен или механически прикреплен к любому из предыдущих или предшествующих слоев. В конкретных вариантах осуществления наслоение может уменьшить блики и улучшить четкость дисплея путем уменьшения внутренних отражений. Как описано более подробно ниже, дисплей 215 может иметь внешнюю неактивную область, которая может быть симметричной или асимметричной. Дисплей 215 может быть расположен так, что он аксиально центрирован относительно защитного слоя 205 для визуально симметричной индикации. Дисплей 215 может быть любого подходящего типа, например, светодиодным (LED), на органических светодиодах (OLED) или жидкокристаллическим дисплеем (LCD). В конкретных вариантах осуществления дисплей 215 может быть гибким. В конкретных вариантах осуществления дисплей 215 может быть частично прозрачным. В конкретных вариантах осуществления дисплей 215 может быть полупрозрачным.
Под дисплеем 215 может находиться аккумулятор 220, который в конкретных вариантах осуществления может быть расположен так, чтобы основание 245 могло быть уменьшено в диаметре, не влияя на размер аккумулятора. Аккумулятор 220 может быть любого подходящего типа, например, литий-ионным. Аккумулятор 220 может принимать круглую форму устройства или может принимать любую другую подходящую форму, например, прямоугольную форму, как изображено. В конкретных вариантах осуществления аккумулятор 220 может «плавать» в устройстве, например, может иметь пространство над, под или вокруг аккумулятора, чтобы предоставить место для теплового расширения. В конкретных вариантах осуществления высокие компоненты, такие как, например, тактильные приводы или другая электроника, могут быть расположены в дополнительном пространство за краем аккумулятора для оптимальной упаковки компонентов. В конкретных вариантах осуществления разъемы от платы процессора 225 могут быть размещены в этом пространстве для уменьшения общей высоты устройства.
Под аккумулятором 220 может находится плата 225 процессора. Плата 225 процессора может включать в себя любые подходящие обрабатывающий компоненты, такие как, например, один или несколько блоков обработки, приводы, блоки датчиков, кэши, элементы памяти или интегральные схемы. Плата 225 процессора может включать в себя один или несколько датчиков температуры или блоки охлаждения (такие как, например, вентиляторы) для контроля и управления температурой одного или нескольких компонентов платы процессора. В конкретных вариантах осуществления корпус 105 устройства может сам по себе являться теплоотводом.
Под платой процессора может находиться кодовый датчик 230 положения, окруженный одним или несколькими внешними кольцами 235. Как описано более подробно ниже, кодовый датчик 230 положения может иметь любой подходящий тип, и может быть частью внешнего кольца 235 или может быть отдельным компонентом, как показано на фиг. 2. В конкретных вариантах осуществления внешнее кольцо 235 может обеспечивать тактильное ощущение фиксатора внешнего кольца или определение местоположения внешнего кольца 235. Когда кодовый датчик 230 положения является механическим кодовым датчиком положения, отдельным от корпуса устройства, как показано на фиг. 2, кодовый датчик положения может поддерживать внешнее кольцо 235. Например, в конкретных вариантах осуществления кодовый датчик 230 положения установлен на основание 245, и соединения c основанием 245 или с ремешком 240 могут проходить через некоторую часть кодового датчика положения, такую как, например, центр кодового датчика положения. В конкретных вариантах осуществления плата 225 процессора и один или несколько слоев над ним могут быть присоединены к центральному стержню, проходящему через кодовый датчик 235 положения. Стержень может передавать механические силы на компонентах устройства стержню, что может позволить поддерживать компоненты, такие как плата процессора и дисплей, с помощью стержня, а не кодового датчика положения, уменьшая нагрузку на кодовый датчик положения. В конкретных вариантах осуществления внешнее кольцо 235 прикрепляется к подвижной части кодового датчика положения с помощью выступов или других подходящих соединений.
Корпус устройства может заканчиваться основанием 245. Основание 245 может быть стационарным относительно одного или нескольких вращающихся компонентов устройства, таких как внешнее кольцо 235. В конкретных вариантах осуществления основание 245 соединяется с ремешком 240, описанным более подробно в настоящем документе. Соединения могут быть механическими или электрическими, такими как, например, часть электрической схемы, соединяющей проводные коммуникационные компоненты в ремешке 240 с обрабатывающей платой 225. В конкретных вариантах осуществления разъемы расположены так, чтобы быть в стороне от кодового датчика положения и точек фиксации для ремешков. В конкретных вариантах осуществления ремешок 240 может быть отделяемым от основания 245. Как описано более подробно в настоящем документе, ремешок 240 может включать в себя один или несколько внутренних разъемов 250, один или несколько модулей 255 оптических датчиков или один или несколько других датчиков. В конкретных вариантах осуществления внутренняя часть устройства или части этой внутренней части могут быть изолированы от внешней среды.
Хотя это раскрытие описывает конкретные примеры компонентов в накладке 200 носимого электронного устройства 100 и форму, размер, порядок, соединения и функциональность этих компонентов, это раскрытие предполагает, что носимое устройство, такое как устройство 100, может включать в себя любые подходящие компоненты любой подходящей формы, размера и в любом порядке, соединенные или осуществляющие связь любым подходящим образом. Просто как один пример, аккумулятор 220 может быть размещен ближе ко дну накладки, чем показано на фиг. 2. В качестве другого примера, корпус устройства может иметь любой подходящий форм-фактор, например, эллипсоидный или дискообразный, как показано в примере на фиг. 3A, сужающийся с одного конца, как показано на примере на фиг. 3B, или скошенный или закругленный с одного или нескольких краев, как показано на примере на фиг. 3C-3D, иллюстрирующих скошенный край 315. Фиг. 3E изображает дополнительные иллюстративные форм-факторы корпуса устройства, такие как, например, корпуса 320A-E, имеющие многоугольную форму с плоским защитным покрытием или дисплеем, или изогнутым защитным покрытием или дисплеем. В качестве другого примера, корпуса 325A-D имеют частично изогнутую форму с плоским защитным покрытием или дисплеем, или изогнутым защитным покрытием или дисплеем. Корпуса 330A-С имеют изогнутую форму. Один или несколько внутренних компонентов корпуса устройства, таких как, например, один или несколько внутренних компонентов, могут иметь любой форм-фактор, подходящий для корпуса, в котором они находятся.
Фиг. 4A изображает иллюстративное поперечное сечение корпуса устройства. Как показано, корпус устройства имеет ширину D1, например, приблизительно 43 миллиметра. Конкретные варианты осуществления могут включать в себя небольшой зазор D4 между внешним кольцом и OLED дисплеем, например, зазор до 0.3 миллиметра. Аналогично, также может иметься расстояние между внешним кольцом и стеклянным защитным покрытием (которое может иметь ширину D3, например, приблизительно 42.6 миллиметра), например, .2 миллиметра. В конкретных вариантах осуществления зазор между стеклянным защитным покрытием и внешним кольцом больше, чем зазор между дисплеем и внешним кольцом. Внешнее кольцо (которое может включать в себя зазубрины) может иметь ширину D2 равную, например, 1.0 миллиметру. Фиг. 4B-4C изображают иллюстративный набор соединений между компонентами устройства. Фиг. 4B изображает сенсорное стекло 405 над дисплеем 410. Дисплей прикреплен к верхней части внутреннего корпуса 440 с помощью, например, клея-герметика 425. Гибкая печатная схема 430 дисплея соединяет дисплей с электроникой внутри корпуса устройства. Герметизирующая клейкая мембрана 445 может использоваться для соединения ремешка 450 с устройством, и одно или несколько крепежных колец 435 могут использоваться для соединения внешнего кольца 415 с внутренним корпусом 440. В конкретных вариантах осуществления крепежные кольца могут предотвращать искривление внешнего кольца по его вертикальной оси и обеспечивать физический интервал между внешним кольцом и стеклянным покрытием. Слой защитного стекла может находиться на верхней части внутреннего корпуса, обеспечивая герметичное уплотнение. В конкретных вариантах осуществления крепежное кольцо может также обеспечивать герметичное уплотнение для внутреннего корпуса. Например, фиг. 5C изображает иллюстративное крепежное кольцо 465, прикрепляющее внешнее кольцо к корпусу устройства и обеспечивающее герметичное уплотнение между внешним кольцом и внутренним корпусом. Дополнительно или альтернативно, может использовать волокнистый материал, возможно покрытый гидрофобным веществом, например, тефлоном, для предотвращения проникновения в полость воды и грязи. В качестве другого примера, внешнее кольцо может быть герметизировано c внутренним корпусом с помощью кольца из металла или пластика, предотвращая прохождение воздуха (и, таким образом, водяного пара или других частиц) через полость между внешним кольцом и внутренним корпусом. Зазор 455 позволяет внешнему кольцу двигаться, например, путем вращения, относительно внутреннего корпуса устройства. Клей-герметик 460 прикрепляет дисплей к корпусу и обеспечивает герметичное уплотнение между дисплеем и компонентами внутреннего корпуса.
В конкретных вариантах осуществления дисплей устройства имеет круглую или эллиптическую форму и содержит круглый блок дисплея, такой как, например, LCD дисплей и OLED дисплей. Блок дисплея может быть установлен так, что видимая область расположена в центре в модуле дисплея. Если блок дисплея имеет смещенную конструкцию, может использоваться одна или несколько соответствующих масок, чтобы заслонить часть дисплея для получения круглого и правильно размещенного визуального контура.
В конкретных вариантах осуществления модуль дисплея имеет внешнее кольцо, которое является частью пользовательского интерфейса устройства. Внешнее кольцо может вращаться, в то время как ремешок удерживает нижнюю и внутреннюю части устройства неподвижными. Фиг. 5A изображает пример вида сверху дисплея устройства относительно других компонентов устройства. Внешнее кольцо 510 может быть прикреплено к передней поверхности 512 устройства 508, или оно может быть независимым от передней поверхности 512. В конкретных вариантах осуществления дисплей 506 не вращается, независимо от вращения внешнего кольца 510, окружающего дисплей 506. Это может быть достигнуто путем прикрепления дисплея 506 к части 504 модуля дисплея, которая прикреплена к ремешку 502, или путем программирования, чтобы отображаемое содержание оставалось статичным, в то время как блок дисплея вращается. В последнем случае отображаемое содержание вращается так, что визуальная вертикальная ось изображения, отображаемого блоком дисплея, всегда остается параллельной ремешку.
Модуль дисплея может дополнительно включать в себя один или несколько датчиков на или около той же самой поверхности, что и дисплей. Например, модуль дисплея может включать в себя камеру или другой оптический датчик, микрофон или антенну. Один или несколько датчиков могут быть размещены в неактивной области или вне дисплея. Например, фиг. 5B изображает устройство 522 с модулем 516 камеры, размещенным в одной плоскости с аккумулятором под дисплеем 520, с оптическим отверстием 514, расположенным под прозрачной областью дисплея 520. Модуль 516 камеры может быть размещен между разъемами 518 линии матрицы для дисплея 520. Любая камера или другие подходящие датчики могут быть размещены в одной плоскости с дисплеем, такие как антенна 524 на фиг. 5C, которая размещена в неактивной области 526. Дополнительно или альтернативно, датчики могут быть размещены под или над дисплеем, могут быть размещены в любом подходящем месте в или на внешнем корпусе устройства, могут быть размещены в любом подходящем месте в или на ремешке устройства или их любой подходящей комбинации, как описано более подробно в настоящем документе. Например, фронтальная камера может быть размещена под дисплеем, на дисплее или над дисплеем.
В конкретных вариантах осуществления компоновка круглого дисплея включает в себя неактивную область, как показано на фиг. 5D. В обычном дисплее линии управления строками, питающие дисплей, направляются к ближайшему боковому краю, а затем направляются вниз вдоль неактивных областей или соединяются непосредственно с управляющими интегрированными микросхемами вдоль этого края. Существует множество подходов для уменьшения величины неактивной области для дисплея. Например, конкретные варианты осуществления уменьшают размер неактивной области путем перенаправления линий управления матрицей, питающих дисплей, к одному краю дисплея. Фиг. 5D изображает линии 532 управления матрицей, направленные к одному краю дисплея 536 и соединенные с разъемом 538, направляющим линии в центр обработки устройства 528. В этой конфигурации неактивная область 530 может быть минимизирована.
Фиг. 5E изображает другой иллюстративный вариант осуществления для уменьшения неактивной области дисплея 554 устройства 540 путем создания дисплейного обрамления многоугольного типа, с круглой областью в центре, получаемой экранированием с помощью одной или нескольких масок 550. Разъемы 552 имеют многоугольную схему расположения. Строки 546 и столбцы 542 линий матрицы направляются к ближайшему разъему 552. В конкретных вариантах осуществления разъемы 552 соединяются с гибкой печатной схемой позади дисплея, которая несет управляющую микросхему. Из-за уменьшенной плотности соединения электронику на фиг. 5E может быть проще соединять с гибкой печатной платой (плата FPC) и, таким образом, увеличивается выпуск продукции. Кроме того, перемещая управляющую интегральную схему в заднюю часть дисплея, могут быть дополнительно уменьшены одна или несколько неактивных областей 548, при этом позволяя интегральной схеме оставаться на устойчивой и плоской поверхности. Эта конструкция особенно подходит для OLED дисплеев, но может использоваться с LCD, при условии, что блок подсветки (BLU) может быть наслоен на устройство до присоединения платы FPC. Хотя вышеупомянутый пример изображает многоугольное расположение разъемов, может использоваться любое подходящее расположение разъемов, при условии, что линии матрицы достигают всех пикселей.
Фиг. 5F изображает иллюстративное физическое расположение и размеры дисплея устройства. Устройство имеет диаметр D4, например, приблизительно 41.1 миллиметра. Устройство включает в себя одну или несколько неактивных областей, имеющих ширину D3, например, приблизительно 1.55 миллиметра. Устройство включает в себя видимую область диаметром D2, например, приблизительно 38 миллиметров. Устройство включает в себя разъемы 568 для линий 564 столбцов и линий 566 строк. Разъемы 568 могут быть соединены с устройством с помощью одной или нескольких плат 570 FPC, которые имеют ширину D1, например, приблизительно .2 миллиметра. Разъемы 568 могут иметь ширину D5, например, приблизительно 6 миллиметров. Разъем 556 FPC дисплея может использоваться для соединения электроники дисплея, например, электрической схемы от разъемов 568 с управляющей микросхемой 558, которая может находиться под дисплеем или на обратной стороне корпуса устройства.
Фиг. 6A-С изображают иллюстративные поперечные сечения дисплея устройства, в том числе изготовление устройства. На фиг. 6A нагревательный нож 605 используется для спайки гибкой печатной схемы (схем) 610, соединяя электронику дисплея с обрабатывающей электроникой устройства. Подкладка 615 может использоваться для стабилизации FPC 610 во время этого процесса. Фиг. 6B изображает соединенную FPC 620, которая была сложена (часть 625) и приклеена к задней части дисплея с использованием клея 630. Фиг. 6C изображает пример готового дисплея. FPC 645 была наслоена на заднюю часть защитного стекла 635 дисплея, загнута на переднюю сторону стекла 635 и присоединена к передней стороне стекла 635 с помощью микропайки 649. Клей 650 соединяет FPC 645 с устройством. FPC проходит над управляющей микросхемой 655, которая соединена с устройством с помощью клея 650.
В конкретных вариантах осуществления вся обработка и радиочастотные (RF) компоненты расположены внутри корпуса устройства, что может создать проблемы в прохождении RF сигналов из устройства. Плата FPC может дополнительно быть прикреплена к сторонам многоугольника, где отсутствуют соединения с самим дисплеем, чтобы позволить монтирование полосковой линии, штыревой, керамической или другой антенны (или других подходящих датчиков) в той же самой плоскости, что и дисплей, как изображено на фиг. 5C. Поскольку антенна на фиг. 5C находится в одной плоскости с дисплеем, уменьшаются помехи от плотной сетки проводов (например, как изображено на фиг. 5E) от дисплея.
В конкретных вариантах осуществления дисплей может быть экранирован от электромагнитных помех от основной платы процессора с использованием металлического защитного экрана. В конкретных вариантах осуществления металлический защитный экран может также использоваться в качестве теплоотвода для аккумулятора и, таким образом, может улучшать скорость зарядки или разрядки для аккумулятора.
В конкретных вариантах осуществления носимое электронное устройство может включать в себя один или несколько внешних элементом (которые могут иметь любую подходящую форму) вокруг корпуса устройства. Фиг. 7A изображает внешний элемент с помощью примера внешнего кольца 710 вокруг дисплея 705. Внешнее кольцо может состоять из любого подходящего материала, такого как, например, нержавеющая сталь или алюминий. В конкретных вариантах осуществления внешнее кольцо 710 может вращаться в одном направлении, обоих направлениях или может использоваться в обеих конфигурациях на основании, например, переключателя. В конкретных вариантах осуществления одно внешнее кольцо 710 может вращаться в одном направлении, в то время как второе внешнее кольцо 710 вращается во встречном направлении. Внешнее кольцо 710 может быть соединено с основанием 720 устройства с помощью крепежного кольца 715. Фиг. 7B изображает внешнее кольцо 710, прикрепленное к основанию 720 или с помощью кольца 715A из делрина (Delrin) или с помощью стального пружинного крепежного кольца 715B. Пружины или зажимы 725 прикрепляют кольца к основанию 720. Фиг. 7C-D изображают крепежное кольцо 715, прикрепленное к основанию 720 с помощью винтов 725, завинчивающихся в соответствующие места основания 720. Устройство может включать в себя крепежные детали/прокладки 730, как изображено на фиг. 7C.
В конкретных вариантах осуществления фиксаторы или кодовые датчики положения (которые могут использоваться взаимозаменяемо, где это возможно) внешнего элемента могут обеспечивать пользователю тактильную обратную связь (например, осязаемый щелчок), обеспечиваемый, например, фиксатором, который позволяет пользователю определять, когда элемент был перемещен на один «шаг» или «инкремент», который может использоваться взаимозаменяемо в настоящем документе. Этот щелчок может производиться непосредственно с помощью механического соединения (например, пружинного механизма) или может производиться электронно с помощью тактильного привода (например, электродвигателя или пьезоэлектрического привода). Например, электродвигатель может обеспечивать сопротивление перемещению кольца, например, путем замыкания для обеспечения сопротивления и размыкания для обеспечения меньшего сопротивления, имитируя относительный высокий и низкий крутящий момент, обеспечиваемый механической фиксирующей системой. В качестве другого примера могут использоваться магнитные системы для обеспечения тактильного ощущения фиксатора. Например, может использоваться соленоидный механизм для вывода из зацепления пружины фиксатора или анкерного механизма, когда необходимо. Пружина или анкерный механизм обеспечивают фактическую механическую обратную связь. Однако, это расположение позволяет устройству пропускать ряд фиксаторов при необходимости, при этом реактивируя фиксатор в точных интервалах для создания ощущения фиксаторов, например, таких, которые имеют измененный размер. В качестве другого примера, вращающийся внешний элемент (такой как, например, внешнее кольцо) может быть намагничен, например, с помощью электромагнита, используемого для притяжения кольца в местах «фиксации», увеличивая крутящий момент и имитируя обратную связь фиксатора. В качестве другого примера, вращающийся внешний элемент может иметь чередующиеся полюса север - юг, которые отталкивают и притягивают соответствующие магнитные полюсы в корпусе устройства. В качестве другого примера, может использоваться постоянный магнит для фиксации кольца на месте, когда не используется электромагнит, предотвращая свободное вращение. В качестве другого примера, вместо электромагнита может использоваться легко намагничивающийся ферромагнитный сплав в соленоиде. Это позволяет электромагнитному полю соленоида «перепрограммировать» магнитную ориентацию сердцевины, таким образом, сохраняя эффект магнитного воздействия, даже когда сам соленоид отключен. Хотя это раскрытие обеспечивает конкретные примеры фиксаторов, фиксатороподобных систем и кодовых датчиков положения, это раскрытие предполагает любые подходящие фиксаторы, фиксатороподобные системы или кодовые датчики положения.
Фиг. 8A изображает внешнее кольцо 805 с выемками для пружинной фиксирующей системы, вытравленными на внутренней поверхности внешнего кольца 805. Пружины 820 прикреплены к пружинным штырькам 810. Крепежное кольцо 815 может быть сделано из делрина, стали или любого другого подходящего материала и может быть сегментированным или цельным/непрерывным. Фиг. 8B изображает иллюстративное внешнее кольцо, имеющее небольшие выемки 830, которые зацепляют подпружиненный элемент для обеспечения тактильной обратной связи от изображенного фиксатора. В случае электронной системы обратной связи обратная связь может быть получена c высокой синхронностью с перемещением кольца, и она должна иметь достаточную скорость воздействия и затухания, чтобы последовательные движения кольца были отличимы друг от друга. В конкретных вариантах осуществления внешнее кольцо может быть свободно (например, непрерывно) вращающимся, без каких-либо щелчков или пошаговости. В конкретных вариантах осуществления кольцо может иметь возможность и непрерывного вращения и пошагового/инкрементного вращения на основании, например, ввода от пользователя, указывающего, в каком вращательном режиме должно быть внешнее кольцо. Кольцо может также или альтернативно вращаться свободно в одном направлении и инкрементно в другом. Различная функциональность может иметь место на основании используемого вращательного режима. Например, вращение в непрерывном режиме может изменять непрерывный параметр, такой как, например, громкость или увеличение, в то время как вращение в инкрементном режиме может изменять дискретный параметр, такой как, например, пункты меню или контакты в списке, как описано более подробно в настоящем документе. В конкретных вариантах осуществления при свободном вращении кольцо может обеспечивать тактильную обратную связь для пользователя, например, сила прилагается так, что кажется, что кольцо вращается в вязкой среде (например, чем быстрее кольцо вращается, тем больше оно сопротивляется вращению). В конкретных вариантах осуществления внешнее кольцо может быть опущено или поднято в направлении оси, вокруг которой внешнее кольцо поворачивается, например, как часть жеста или для изменения вращательных режимов. В конкретных вариантах осуществления внешнее кольцо может иметь сенсорные части.
В конкретных вариантах осуществления кодовый датчик положения или фиксатор могут использоваться для определения положения внешнего кольца относительно корпуса устройства. Конкретные варианты осуществления используют кодовый датчик положения, который прикреплен к корпусу устройства, как изображено с помощью кодового датчика 230 положения на фиг. 2. В конкретных вариантах осуществления кодовый датчик положения является частью внутренней поверхности самого внешнего кольца, как изображено с помощью печатных оптических элементов 825 на фиг. 8B. В этих вариантах осуществления внешнее кольцо действует как вращающаяся деталь непосредственно кодового датчика положения. Шаблон оптического кодового датчика положения печатается на внутренней поверхности и считывается оптическим модулем на обрабатывающей плате. Кодовый датчик положения на внутренней части внешнего кольца должен иметь достаточный оптический контраст для детекторов, и он может быть вытравлен на внешнем кольце с помощью, например, печати или лазерного травления. Внутреннее и внешнее кольца могут быть герметично уплотнены с кольцом с низким коэффициентом трения (таким как, например, кольцо 840 на фиг. 8C), сделанным из такого материала, как тефлон или делрин, который поддерживает плотное прилегание, препятствуя попаданию загрязняющих веществ во внутреннюю часть устройства. В конкретных вариантах осуществления выступ на внутреннем кольце может зацепляться с аналогичным выступом на внешнем кольце, позволяя двум кольцам соединиться, при этом позволяя свободное вращение. Больший выступ у основания внутреннего кольца обеспечивает дополнительную изоляцию путем отражения неблагоприятных внешних воздействий снизу. Как изображено на фиг. 9, в конкретных вариантах осуществления уплотнительное кольцо 915 может помещаться в канавку 905 основания, которое может включать в себя область 910 хвата.
В конкретных вариантах осуществления крепежное кольцо, соединяющее внешнее кольцо с корпусом устройства, может иметь тензодатчики для обнаружения давления на внешнее кольцо. Например, фиг. 10 изображает крепежное кольцо, соединенное с четырьмя тензометрами (которые также соединены с внутренним корпусом), которые симметричны расположены по кольцу. В настоящем документе эти четыре тензометра могут быть электронным компонентом, детектирующим деформацию. В результате симметричного размещения нормальное перемещение или контакт с внешним кольцом будет вызывать главным образом асимметричную деформацию внешнего кольца, потому что кольцо просто перемещается относительно устройства в плоскости кольца, и, таким образом, один конец сжимается, а противоположный конец удлиняется, как изображено на верхнем кольце на фиг. 10. В противоположность этому сжатие большей части внешнего кольца скорее всего вызовет симметричную деформацию противоположных пар тензометров (например, из-за растяжения кольца под давлением). Относительная разница в деформации между двумя парами тензометров, таким образом, отличает намеренное сжатие внешнего кольца от обычного перемещения или контакта с внешним кольцом. Хотя это раскрытие описывает конкретные примеры числа и размещения тензометров в крепежном кольце, это раскрытие предполагает размещение любого подходящего числа тензометров в любом подходящем компоненте устройства для обнаружения давления на компонент. В качестве одного примера, тензометры могут быть размещены на ремешке устройства или во внешнем кольце.
Когда деформация вызвана в компоненте, содержащем тензометры или любую другую подходящую систему обнаружения деформации или давления, обнаруженная деформация может приводить к любой подходящей функциональности. Например, когда деформация вызвана во внешнем кольце, например, путем сжатия пользователем внешнего кольца, пользователю может быть обеспечена обратная связь. Эта обратная связь может принимать любую подходящую форму, например, осязательной обратной связи (например, вибрации, встряхивания или нагрева/охлаждения), акустической обратной связи, такой как подача звукового сигнала или воспроизведение конкретного задаваемого пользователем тона, визуальной обратной связи (например, с помощью дисплея устройства) или любой другой подходящей обратной связи или их комбинации. Функциональность, связанная со сжатием кольца, описана более подробно в настоящем документе, и это раскрытие предполагает любую подходящую функциональность, являющуюся результатом приложения и обнаружения любыми подходящими компонентами деформации или давления.
Носимое электронное устройство может быть прикреплено к ремешку, чтобы закрепить устройство на пользователе. Здесь, ссылка на «ремешок» может охватывать любое подходящее устройство для закрепления устройства на пользователе, например, обычный ремешок 1405, который можно носить на руке, запястье, талии или ноге пользователя, как изображено в качестве примера на фиг. 14A; зажим 1415 для закрепления на части одежды, как изображено в качестве примера на фиг. 14B; конфигурация 1420 в виде ожерелье или браслета, как изображено в качестве примера на фиг. 14C; цепочку 1425 для ключей или другую аксессуарную конфигурацию для фиксации устройства, например, в кармане пользователя, как изображено в качестве примера на фиг. 14D; или любую другую подходящую конфигурацию. Каждый из этих вариантов осуществления может включать в себя камеру 1410, расположенную на устройстве, на ремешке или на корпусе. Фиг. 11 изображает различные варианты осуществления для ношения устройства, например, на шее, как изображено на 1105; прикрепленным к одежде (например, на груди, как изображено на 1110); на поясе, как изображено на 1115; на конечности (например, на руке, как изображено на 1120); на запястье, как изображено на 1125, или в кармане, как изображено на 1130. Хотя это раскрытие описывает конкретные примеры ремешков и способов закрепления устройства на пользователе, это раскрытие предполагает любые подходящие ремешки или способы закрепления устройства на пользователе.
В конкретных вариантах осуществления датчики и соответствующая электроника могут прикрепляться к ремешку, при необходимости. Например, ремешки на фиг. 14A-14C могут быть пригодны для размещения оптического датчика. Все изображенные, конкретные варианты осуществления могут быть пригодны для добавления сенсорной области. Это раскрытие предполагает любые подходящие ремешки, включающие в себя любые подходящие датчики или электронику, такую как, например, коммуникационные компоненты (такие как антенны), датчики условий окружающей среды или инерциальные датчики. В конкретных вариантах осуществления ремешок может быть отделяемым от устройства и может удаленно осуществлять связь с устройством, когда он не прикреплен к устройству. В конкретных вариантах осуществления проводка, связанная с электрическими компонентами в ремешке, может также размещаться в ремешке, например, чтобы минимизировать объем устройства или минимизировать электромагнитные помехи для внутренних компонентов устройства. Например, устройства, которые могут вызвать высокие уровни внутренних электромагнитных помех (EMI) (например, камера или системы связи), которые могут требовать дополнительный объем (например, аккумулятор или громкоговоритель), которые могут требовать герметичного уплотнения основного корпуса (например, разъем питания/данных), или которые могут требовать дополнительный контакт с кожей пользователя (например, биометрические датчики) мог извлечь выгоду от размещения по меньшей мере части электроники в ремешке устройства. В конкретных вариантах осуществления, когда проводка содержится в ремешке, модуль дисплея может быть прикреплен к ремешку так, что электронные соединения с или через ремешок не скручиваются, когда внешнее кольцо поворачивается. Модуль может использовать съемный пользователем разъем, так что модуль дисплея или корпус устройства может быть убран и прикреплен пользователем по желанию. В качестве примера прикрепления ремешка к устройству, ремешок 1215, как изображено на фиг. 12A, может быть прикреплен к корпусу путем размещения над одним или несколькими штырьками 1205 и затем присоединения к этим штырькам с использованием крепежных деталей (например, винтов) 1210. В конкретных вариантах осуществления в дополнение к крепежным деталям и штырькам может использоваться удерживающая пластина 1215 для закрепления ремешка на устройстве 1225, как изображено на фиг. 12B. Это раскрытие предполагает любой подходящий интерфейс между ремешком и устройством. Например, может быть обеспечен интерфейс USB между ремешком и корпусом устройства, чтобы, например, передавать данные между устройством и ремешком или компонентами устройства и компонентами ремешка. В конкретных вариантах осуществления интерфейс может позволять пользователю устройства легко отсоединить, прикрепить или поменять ремешок устройства.
Это раскрытие предполагает любую подходящую структуру для соединения ремешка, как изображено на фиг. 14A, с самим собой, например, при ношении пользователем. Например, фиг. 13A изображает иллюстративные структуры для застегивания ремешка 1305, имеющего модуль 1310 камеры, на носителе устройства 1300. Крепежные детали могут включать в себя одну или несколько защелок 1315, отверстия 1320 и 1335 и соответствующие компоненты, застежки 1340 или зажимы 1325 с кнопками 1330. Фиг. 13B изображает иллюстративный механизм для прикрепления ремешка 1301 к носителю с использованием зажимов 1311 и 1303. Компоненты 1309 вставляются в полость с другой стороны компонентов 1307 для застегивания ремешка 1301. Фиг. 13B дополнительно изображает иллюстративные внутренние механизмы для зажимов 1303 и 1311. Компонент 1317 зажима 1313 (соответствующий зажиму 1311) может включать в себя одну или несколько магнитных частей, которые могут быть притянуты к магнитам в полости 1323. Например, компонент 1317 может включать в себя магнитную часть на своем внешнем крае, и магнит противоположной полярности может быть размещен перед пружиной 1319 для притягивания магнита компонента 1317. Компоненты 1317 могут тогда заполнить полость 1323, застегивая зажим 1313 с зажимом 1303 путем соединения магнитов. После вставки компоненты 1321 могут использоваться для задействования пружин 1319, которые выдавливают компоненты 1317 из полости 1323. Зажим 1313 может быть отсоединен от зажима 1303. В дополнение к магнитам на компонентах 1317 и в полости 1323 магниты также могут быть размещены в зажиме 1313, например, чтобы помочь удалению зажима 1313, когда пружины 1319 приведены в действие, или чтобы препятствовать сдвигу компонентов 1317 в и из зажима 1313, когда он не застегнут с зажимом 1303. Например, один или несколько магнитов могут быть размещены в центре зажима 1313, на равном расстоянии от компонентов 1317 и в той же самой плоскости, что и компоненты 1317, притягивая магниты каждого компонента (и, таким образом, сами компоненты) к центру зажима 1313.
Фиг. 13C изображает иллюстративную структуру для закрепления ремешка 1327 с использованием крепежных деталей 1333 и 1331, например, с помощью полости 1329 и компонентов 1337 и 1341. Фиг. 13C изображает внутреннюю структуру крепежных деталей 1331 и 1333. Крепежные детали 1339 (соответствующие крепежной детали 1333) включают в себя компоненты 1337. Когда крепежная деталь 1343 (соответствующая крепежной детали 1331) вставляется в крепежные детали 1339, компоненты 1341 прикрепляются к компонентам 1337 и могут быть зафиксированы путем расширения над выступом крепежной детали 1339. Когда крепежную деталь 1339 тянут вверх, выступ все сильнее выталкивает компоненты 1337, двигая компоненты 1341 за выступ крепежной детали 1339, позволяя удалить крепежную деталь 1339 из крепежной детали 1343. В конкретных вариантах осуществления в или на крепежных деталях 1333 и 1331 могут быть размещены магниты, чтобы застегнуть их вместе. Например, магнит может быть размещен на краю каждого компонента 1341 и 1337. Когда крепежная деталь 1343 вставлена в крепежную деталь 1337 (или наоборот), магниты притягивают и фиксируют компонент 1341 с компонентом 1337. Кроме того, в крепежной детали 1343 может быть размещен магнит, например, чтобы помочь удалению компонента 1341 из компонента 1337, или чтобы препятствовать сдвигу компонентов 1341 в и из крепежной детали 1343, когда они не закреплены с крепежной деталью 1339. Например, один или несколько магнитов могут быть размещены в центре крепежной детали 1343 на равном расстоянии от компонентов 1341 и в той же самой плоскости, что и компоненты 1341, притягивая магниты на конце каждого компонента (и, таким образом, сами компоненты) к центру крепежной детали 1343.
Фиг. 13D изображает альтернативное расположение для закрепления ремешка 1351 с использованием крепежных деталей 1349 и 1353. В застегнутом состоянии крепежная деталь 1357 (соответствующая крепежной детали 1353) может быть повернута, выводя компоненты 1359 (которые могут быть закруглены) из полостей 1363, и позволяя удалить крепежную деталь 1361 (соответствующую крепежной детали 1349) из крепежной детали 1357 и наоборот. В конкретных вариантах осуществления один или несколько магнитов могут использоваться для присоединения крепежных деталей 1357 и 1361 друг другу и/или удаления крепежных деталей 1357 и 1361 друг из друга. Например, магниты могут быть размещены в полостях 1363 и на внешнем (выпуклом) краю компонентов 1359, притягивая компоненты 1359 внутрь полостей 1363 и фиксируя крепежную деталь 1361 с крепежной деталью 1357. В качестве другого примера магниты могут быть помещены на внутреннем краю компонентов 1359 (то есть на вогнутой поверхности компонентов 1359), притягивая компоненты 1359 в крепежную деталь 1361, например, чтобы помочь удалению компонентов 1359 из полостей 1363 или чтобы препятствовать сдвигу компонентов 1359 в и из крепежной детали 1361, когда они не присоединены к крепежной детали 1357. Соответствующие магниты могут также помещаться на поверхностях крепежной детали 1361, которые находятся в контакте с компонентами 1359, когда эти компоненты не разведены внутрь полостей 1363. Другими словами, эти магниты могут притянуть (и, в конкретных вариантах осуществления, в конечном счете войти в прямой контакт) магниты на вогнутой поверхности компонентов 1359, фиксируя компоненты 1359 с крепежной деталью 1361.
Фиг. 13E-13G изображают иллюстративные варианты осуществления крепления ремешка 1369 с модулем камеры 1373 с самим собой, например, при ношении пользователем устройства 1367. На фиг. 13E один или несколько магнитов 1371 на одной стороне ремешка 1369 могут притягиваться к одному или нескольким магнитам 1379 на другой стороне ремешка 1369. Магниты могут быть полосками магнитного материала, частично пересекающими ремешок, как изображено с помощью магнитных полос 1307 на фиг. 13H, могут быть полосками магнитного материала, полностью пересекающими ремешок, как изображено с помощью полосок 1321 и 1327 на фиг. 13I, или могут быть областями магнитного материала 1393, как изображено на фиг. 13F. В дополнение к магнитам 1371 и 1379 ремешок 1369 может включать в себя отверстия 1391 и один или несколько штырьков 1377 для фиксации ремешка 1369 на носителе устройства 1367. Фиг. 13G изображает крепежные детали 1387 (например, винты 1396), прикрепляющиеся к крепежным деталям 1371 (например, гайке с покрытием 1395) для прикрепления ремешка 1381 к носителю устройства 1367 с использованием захватов 1383 (1398).
В конкретных вариантах осуществления ремешок, содержащий электрические компоненты, может также включать в себя обычный физический контактный разъем, как изображено с помощью разъема 250 на фиг. 2. Разъем может позволять связь с устройством, например, для зарядки, обновлений системы, отладки или передачи данных. Такой разъем может быть типа пого или может быть поверхностями с гальваническим покрытием, с которыми кабель для зарядки может взаимодействовать посредством контакта. Такие разъемы могут быть покрыты драгоценными металлами, чтобы предотвратить коррозию от воздействия влаги из окружающей среды и от человеческого тела. В конкретных вариантах осуществления физические разъемы могут использоваться только для питания, а данные могут передаваться с использованием методов близкодействующей связи, таких как BLUETOOTH, технология связи малого радиуса действия (NFC) или WI-FI.
В конкретных вариантах осуществления ремешок может использоваться для размещения гибких аккумуляторов (например, литиевых аккумуляторов) для увеличения энергоемкости устройства. Поскольку энергоемкость может быть связана с общим объемом, аккумуляторы внутри ремешка увеличивают емкость для ограниченных по объему носимых устройств, не влияя на общий размер корпуса устройства.
Как описано более подробно ниже, носимое электронное устройство может включать в себя один или несколько датчиков на или в устройстве. Например, носимое электронное устройство может включать в себя один или несколько оптических датчики или датчиков глубины. Оптические датчики могут быть размещены в любом подходящем месте, например, на лицевой стороне устройства, на ремешке, в направлении от тела пользователя, на ремешке в направлении, противоположном лицевому, на ремешке в направлении тела пользователя или любой подходящей комбинации этого. Фиг. 15 изображает устройство 1500 с ремешком, имеющим обращенный вовне оптический датчик 1505. Размещение оптического датчика на ремешке может уменьшить количество высокочастотных сигналов внутри корпуса, позволяя использовать более легкое экранирование внутри корпуса устройства, и, таким образом, уменьшая объем и вес. Фиг. 14A-14D изображают иллюстративные размещения камеры для различных вариантов осуществления носимого электронного устройства. В конкретных вариантах осуществления электроника, такая как электроника для обработки входных данных от камеры, может быть также расположена в ремешке, например, в корпусе камеры в форме «вулкана», как изображено с помощью корпуса 125 на фиг. 1. В конкретных вариантах осуществления другие датчики могут быть размещены около оптического датчика, например, в том же самом корпусе, что и оптический датчик на ремешке устройства. Например, датчик глубины может использоваться в сочетании с оптической камерой для улучшения отображения или детектирования окружающей среды устройства или для определения, на какой объект пользователь указывает или взаимодействует с помощью жеста.
В конкретных вариантах осуществления размещение оптического датчика на ремешке может настраиваться пользователем в пределах заранее определенного диапазона. В конкретных вариантах осуществления размещение оптического датчика на ремешке может быть оптимизировано так, что датчик может удобно направляться пользователем. Например, как изображено на фиг. 15, если пользователь носит устройство вокруг запястья, оптический датчик 1505 может быть размещен обращенным вовне образом так, что оптический датчик направлен в направлении от тела пользователя, когда ладонь пользователя примерно параллельна земле.
В конкретных вариантах осуществления размещение оптического датчика может быть таким, что пользователь может видеть дисплей устройства, в то время как датчик указывает в направлении от тела пользователя. Таким образом, пользователь может видеть содержание, захваченное оптическим датчиком и отображенное устройством, не загораживая обзор пользователю физической сцены, захваченной датчиком, как изображено с помощью треугольника обозрения на фиг. 16. Дисплей 1620 устройства 1600 может иметь соответствующий конус обозрения, например, объем, в пределах которого дисплей может быть приемлемо виден. На фиг. 16 пользователь 1615 (1) рассматривает реальный кубок 1610 и (2) рассматривает изображение кубка на дисплее 1620 устройства 1600 изнутри конуса обозрения дисплея 1620 путем направления датчика 1605 на реальный кубок. Датчик 1605 имеет соответствующий угол обзора, соответствующий объему, в пределах которого изображения могут быть приемлемо захвачены датчиком 1605. Следует отметить, что в примере на фиг. 16 датчик 1605 размещен так, что пользователь может удобно направить датчик 1605 вовне, при этом сохраняя дисплей 1620 устройства 1600 в обращенном к пользователю направлении, и может сделать так, не загораживая устройством 1600 обзор пользователю трофея 1610.
Фиг. 17 изображает иллюстративный угол обзора для оптического датчика. Когда объект 1725 находится в угле обзора оптического датчика 1705, пользователь может видеть и объект 1725, и изображение 1710 или 1715 объекта 1725, как оно отображено на устройстве 1700. Например, когда кисть 1720 руки пользователя находится в угле обзора, пользователь может видеть объект 1725, кисть 1720 руки и изображение 1710 объекта 1725 и кисти 1720 руки на дисплее 1700 устройства. В противоположность этому, когда кисть 1720 руки не в угле обзора датчика 1705, кисть 1720 руки не отображается на изображении 1715, представленном на дисплее 1700. При ношении пользователем датчик устройства может захватить кисть руки/руку/пальцы пользователя в угле обзора датчика при выполнении жеста, который должен быть захвачен тем же самым или другими датчиками (например, жест, выбирающий объект в угле обзора устройства, такой как, например, сведение пальцев, постукивание, притягивание или отталкивание). Датчик и дисплей могут быть ориентированы так, что при ношении пользователем объект, который должен отображаться на устройстве, находится в угле обзора устройства, в то время как устройство не загораживает обзор пользователю объекта и взгляд пользователя находится в пределах конуса обозрения дисплея устройства. В конкретных вариантах осуществления пользователь может взаимодействовать с изображением, захваченным датчиком или отображенным на устройстве, например, с помощью постукивания по части дисплея в месте или рядом, где изображение отображено, путем выполнения жеста в пределах угла обзора датчика или любым другим подходящим способом. Это взаимодействие может обеспечивать некоторую функциональность, связанную с объектом, такую как, например, идентификация объекта, определение информации об объекте и отображение по меньшей мере части информации на дисплее, путем захвата изображения объекта или путем спаривания или осуществления связи иным образом с объектом, если объект имеет возможности спаривания/осуществления связи.
В конкретных вариантах осуществления оптический модуль или модуль датчика глубины (которые могут использоваться взаимозаменяемо, где необходимо) могут осуществлять связь с устройством через простое расширение шины, которую использовал бы оптический датчик, если бы он был установлен непосредственно на основной печатной плате (PCB), как изображено на фиг. 18A. На фиг. 18A оптический датчик 1825 передает данные по гибким печатным схемам или проводке 1820 интегрированному управлению 1810, которое в примере на фиг. 18A расположено в или на устройстве 1805, которое содержит основную печатную плату. Фиг. 18B изображает интегральную схему оптического датчика 1850 на или в модуле 1860 оптического датчика, который также содержит оптический датчик 1855. Связь между основной печатной платой устройства 1830 и электроникой в модуле 1860 камеры происходит через гибкую печатную схему 1845. Размещение фиг. 18B может позволить интегральной схеме сжимать и иным образом обрабатывать данные и отправлять их с помощью способа, который требует меньшего количества сигнальных линий или который требует передачи меньшего количества данных. Это может быть выгодно, так как ремешок должен сгибаться, когда пользователь носит устройство, и, таким образом, может быть желательным меньшее число линий. Такой подход может уменьшить число линий до одной или двух сигнальных шин и двух линий питания, что полезно для компоновки, отливки и надежности. В конкретных вариантах осуществления электроника, описанная выше, должна быть экранирована для предотвращения электромагнитных помех от длинной высокочастотной проводки. Использование параллельной шины является обычным в таких случаях, и может требовать использования большего кабеля или FPC.
В одном варианте осуществления интегральная схема управления камерой может быть установлена непосредственно на небольшой плате в оптическом модуле, как изображено на фиг. 18A-B. Носимое электронное устройство может включать в себя любые подходящие датчики. В конкретных вариантах осуществления один или несколько датчиков или их соответствующая электроника могут быть расположены на ремешке устройства, в или на корпусе устройства или их обоих. Датчики могут осуществлять связь друг с другом и с компонентами памяти и обработки посредством любых подходящих проводных или беспроводных соединений, таких как, например, прямое электрическое соединение, NFC или BLUETOOTH. Датчики могут обнаруживать контекст (например, окружающую среду) или состояние устройства, пользователя, приложения, другого устройства или приложения, выполняющегося на другом устройстве. Это раскрытие предполагает носимое электронное устройство, содержащее любую подходящую конфигурацию датчиков в любом подходящем месте носимого электронного устройства. Кроме того, это раскрытие предполагает любой подходящий датчик, принимающий любые подходящие входные данные, описанные в настоящем документе, или инициирующий, участвующий или иным образом связанный с предоставлением любой подходящей функциональности или служб, описанных в настоящем документе. Например, сенсорные датчики могут участвовать в переходе между графическими пользовательскими интерфейсами, отображенными на устройстве, как описано более подробно в настоящем документе. Это раскрытие дополнительно предполагает, что функциональность, связанная с носимым устройством, активация/деактивация датчиков, чувствительность датчиков или приоритет обработки датчиков может настраиваться пользователем, когда это необходимо.
Фиг. 19 изображает иллюстративную сенсорную систему обнаружения и изображает иллюстративные датчики для носимого электронного устройства. Датчики отправляют данные в зависящем от датчика формате подсистеме датчикового концентратора устройства. Например, датчики 19A изображенные в иллюстративном модуле 1924 датчика, могут включать в себя один или несколько: камеры 1902 обнаружения лица, направленные вовне камеры 1904, фронтальные датчики 1906 близости, фронтальные датчики 1908 касания, датчики 1910 касания ремешка, акустические датчики 1912 касания кожи, инерциальную измерительную систему (IMU) 1914, датчики 1916 вектора силы тяжести, датчики 1918 и 1920 касания и любы другие подходящие датчики 1922. Данные от датчиков отправляются в датчиковый концентратор 19B, изображенный в иллюстративном модуле 1944 датчикового концентратора. Данные подготавливаются и очищаются от шумов на этапах 1928 и 1930, при необходимости, и передаются детектору 1942 заблокированного состояния. Детектор 1942 заблокированного состояния обнаруживает, когда устройство неактивно, и отключает датчики, при необходимости, для экономии питания, при этом отслеживая данные датчиков на жесты или другие подходящие входные данные, которые могут реактивировать устройство. Например, числовые детекторы жестов принимают выходные данные датчика и сравнивают эти выходные данные с одним или несколькими числовыми порогами для определения результата. Эвристические детекторы 1934 жестов принимает выходные данные датчика и принимают решения на основании одного или нескольких деревьев решений, таких как, например, правила выполнения операции «И», применяемые к более чем одному порогу. Основанные на шаблонах детекторы 1938 жестов оценивают входные данные от датчика по заранее определенной библиотеке шаблонов 1940 жестов, например, шаблонов, определенных путем эмпирической оценки выходных данных датчиков, когда жест выполняется. Один или несколько декодеров 1948 приоритета жестов оценивают выходные данные от детекторов жестов, детекторов заблокированного состояния или их обоих для определения, какие, если таковые вообще имеются, из обнаруженных жестов должны использоваться для обеспечения функциональности для конкретного приложения или процесса на уровне системы. Говоря более широко, в конкретных вариантах осуществления, когда устройство активно, запрошенные приложением или запрошенные системой детекторы датчиков активируются поочередно и предоставляют свои данные декодеру приоритета датчиков. В конкретных вариантах осуществления детектор приоритета определяет, какие, если таковые вообще имеются, из множества входных данных от датчиков обрабатывать, и это раскрытие предполагает, что комбинированные входные данные от нескольких датчиков могут быть связаны с функциональностью, отличающейся от функциональности, связанной с каждыми входными данными от датчиков по-отдельности. Декодер решает, когда был обнаружен датчик с достаточной достоверностью, и предоставляет данные датчика драйверу датчикового концентратора. Драйвер обеспечивает прикладной программный интерфейс (API) для конечных приложений и системных контроллеров, которые в свою очередь производят необходимые выходные данные и навигацию. Например, фиг. 19 изображает иллюстративный драйвер 1950 датчикового концентратора, API 1952 приложений, контроллеры 1954 системной навигации для, например, определения соответствующей системной функциональности (например, навигации 1962 на уровне системы через графический пользовательский интерфейс устройства), и детекторы приоритета жестов на уровне приложений для приложений 1956. Хотя датчиковый концентратор 19B и процессор 19C приложений (изображенный в иллюстративном модуле 1964 процессора приложений) на фиг. 19 изображены как отдельные объекты, они могут состоять из (и их функции выполняться) по меньшей мере некоторых одинаковых или подобных компонентов. В конкретных вариантах осуществления границы, очерчивающие компоненты и функции датчикового концентратора и процессора приложений, могут охватывать больше или меньше. Границы, изображенные на фиг. 19, является просто одним иллюстративным вариантом осуществления. Что касается самих датчиков, функции, выполняемые и компонентами системы датчикового концентратора, и процессором приложений, могут происходить или находиться в корпусе устройства, в ремешке или их обоих. Конкретные варианты осуществления могут использовать более чем один датчиковый концентратор, процессор приложений или компоненты в них для приема и обработки данных от датчиков.
Датчики могут внутренне производить данные датчиков, которые могут просто фильтроваться или переформатироваться, например, детектором или подготовителем данных. Необработанные данные могут форматироваться в единый формат блоком форматирования данных для приема прикладным программным интерфейсом (API) приложения. Распознаватели могут использовать числовые модели (такие как деревья решений), эвристические модели, распознавание шаблонов или любые другие подходящие аппаратные средства, программное обеспечение и методики для обнаружения данных датчиков, таких как ввод жеста. Распознаватели могут быть включены или отключены с помощью API. В таких случаях могут также отключаться соответствующие датчики, если распознаватель не будет принимать данные от датчиков или неспособен распознавать данные датчиков.
Устройство может включать в себя базу данных выходных данных датчиков, которая позволяет одному и тому же детектору обнаруживать много различных выходных данных датчиков. В зависимости от запросов, полученных от API, декодер приоритета датчиков может подавить или пропустить выходные данные датчика на основании предоставленных критериев. Критерии могут быть функцией дизайна API. В конкретных вариантах осуществления распознаватели могут принимать выходные данные более чем одного датчика для обнаружения выходных данных датчика.
В конкретных вариантах осуществления может использоваться несколько датчиков для обнаружения сходной информации. Например, и нормальная камера, и камера глубины могут использоваться для обнаружения пальца, или и гироскоп, и магнитометр могут использоваться для обнаружения ориентации. При необходимости функциональность, которая зависит от или использует информацию датчиков, может заменить датчики или сделать выбор среди них на основании соображений реализации и исполнения, таких как стоимость, использование питания или частота использования.
Датчики могут быть любого подходящего типа и, как описано в настоящем документе, могут быть расположены в или на корпусе устройства, в или на ремешке или подходящей комбинации этого. В конкретных вариантах осуществления датчики могут включать в себя один или несколько датчиков глубины или пространственной близости (термины, которые могут использоваться взаимозаменяемо в настоящем документе при необходимости), такие как, например, инфракрасный датчик, оптические датчики, акустические датчики или любые другие подходящие датчики глубины или датчики пространственной близости. Например, датчик глубины может быть помещен на или около дисплея устройства для обнаружения, когда, например, кисть руки пользователя, палец или лицо приближается к дисплею. В качестве другого примера, датчики глубины могут обнаруживать любой объект, на который указывает палец пользователя в угле обзора датчика глубины, как описано более подробно в настоящем документе. Датчики глубины также или альтернативно могут быть расположены на ремешке устройства, как описано более подробно в настоящем документе. В конкретных вариантах осуществления датчики могут включать в себя один или несколько сенсорных областей на корпусе устройства, ремешке или их обоих. Сенсорные области могут использовать любые подходящие сенсорные методики, такие как, например, резистивная, на поверхностных акустических волнах, емкостная (в том числе на основе взаимной емкости или самоемкости), на инфракрасном излучении, оптическая, дисперсионная или любые другие подходящие методики. Сенсорные области могут обнаруживать любой подходящий контакт, такой как смахивающее движение, постукивания, контакт в одной или нескольких конкретных точках или с одной или несколькими конкретными областями, или мультисенсорный контакт (такой как, например, сведение двух или более пальцев на дисплее или поворот двух или более пальцев на дисплее). Как описано более подробно в настоящем документе, сенсорные области могут включать в себя по меньшей мере часть дисплея устройства, кольца или ремешка. Как и для других датчиков, в конкретных вариантах осуществления сенсорные области могут быть активированы или деактивированы, например, на основании контекста, соображений питания или настроек пользователя. Например, сенсорная часть кольца может активироваться, когда кольцо «заблокировано» (например, не вращается), и деактивироваться, когда кольцо свободно вращается. В конкретных вариантах осуществления датчики могут включать в себя один или несколько оптических датчиков, таких как подходящие камеры или датчики оптической глубины.
В конкретных вариантах осуществления датчики могут включать в себя один или несколько инерциальных датчиков или датчиков ориентации, таких как акселерометр, гироскоп, магнитометр, микросхема GPS или компас. В конкретных вариантах осуществления, выходные данные от инерциальных датчиков или датчиков ориентации могут использоваться для активации или разблокирования устройства, обнаружения одного или нескольких жестов, взаимодействия с содержанием на экране дисплея устройства или экране дисплея спаренного устройства, доступа к конкретным данным или активации конкретных функций устройства или спаренного устройства, инициации осуществления связи между корпусом устройства и ремешком или устройством и спаренным устройством или любой другой подходящей функциональности. В конкретных вариантах осуществления датчики могут включать в себя один или несколько микрофонов для обнаружения, например, речи пользователя или окружающих звуков для определения контекста устройства. Кроме того, в конкретных вариантах осуществления устройство может включать в себя один или несколько громкоговорителей на корпусе устройства или на ремешке.
В конкретных вариантах осуществления датчики могут включать в себя компоненты для осуществления связи с другими устройствами, такими как сетевые устройства (например, серверы или маршрутизаторы), смартфоны, вычислительные устройства, устройства отображения (например, телевизоры или киоски), аудиосистемы, видеосистемы, другие носимые электронные устройства или между ремешком и корпусом устройства. Такие датчики могут включать в себя считыватели/метки NFC, технологию BLUETOOTH или антенны для передачи или приема на любой подходящей частоте.
В конкретных вариантах осуществления датчики могут включать в себя датчики, которые принимают или обнаруживают тактильный ввод пользователя устройства, такие как, например, пьезоэлектрики, датчики давления, датчики силы, инерциальные датчики (как описано выше), датчики деформации/напряжения или механические приводы. Такие датчики могут быть расположены в любом подходящем месте на устройстве. В конкретных вариантах осуществления компоненты устройства могут также обеспечивать тактильную обратную связь для пользователя. Например, одно или несколько колец, поверхностей или ремешков могут вибрировать, излучать свет или производить звук.
В конкретных вариантах осуществления носимое электронное устройство может включать в себя один или несколько датчиков окружающей среды, такие как датчик температуры, датчик влажности или высотомер. В конкретных вариантах осуществления носимое электронное устройство может включать в себя один или несколько датчиков для измерения физического признака пользователя носимого устройства. Такие датчики могут быть расположены в любой подходящей области, например, на ремешке устройства или на основании устройства, контактирующего с кожей пользователя. Например, датчики могут включать в себя акустические датчики, которые обнаруживают вибрации кожи пользователя, например, когда пользователь трет кожу (или одежду, покрывающую кожу) около носимого устройства, постукивает по коже около устройства или перемещает устройство вверх и вниз по руке пользователя. В качестве дополнительных примеров, датчик может включать в себя один или несколько датчиков температуры тела, пульсоксиметр, датчики кожногальванической реакции, емкостные датчики изображений, датчики электромиографии, считыватели биометрических данных (например, отпечатка пальца или глаз) и любые другие подходящие датчики. Такие датчики могут обеспечивать обратную связь для пользователя о состоянии пользователя, могут использоваться для инициации заранее определенной функциональности (например, предупреждения принять конкретные лекарства, такие как инсулин для диабетика), или могут сообщать измеренную информацию удаленному устройству (такому как, например, терминал в медицинском офисе).
Носимое электронное устройство может включать в себя один или несколько заряжающих компонентов для зарядки или питания устройства. Заряжающие компоненты могут использовать любой подходящий способ зарядки, такой как емкостная зарядка, электромагнитная зарядка, капельная зарядка, зарядка путем прямого электрического контакта, солнечная, кинетическая, индуктивная или интеллектуальная зарядка (например, зарядка на основании условия или состояния аккумулятора и изменение действий по зарядке соответственно). Заряжающие компоненты могут быть расположены на любой подходящей части устройства, например, в или на корпусе устройства, в или на ремешке устройства. Например, фиг. 20A изображает зарядное устройство 2000 с пазом 2005 для соединения заряжающего компонента с зарядным устройством. Например, паз 2005 может использовать трение, механические конструкции (такие как фиксаторы или защелки), магнетизм или любую другую подходящую методику для приема и фиксации выступа от заряжающего компонента так, чтобы выступ и зарядное устройство 2000 установили прямой электрический контакт. Фиг. 20C изображает выступ 2015 на ремешке 2010, использующий пого-разъемы для создания соединения цепи между зарядным устройством 2022 и ремешком 2010 через контакты 2020. В конкретных вариантах осуществления выступ 2015 может быть на зарядном устройстве 2022, а паз 2005 на фиг. 20A может быть на ремешке или корпусе носимого устройства. В конкретных вариантах осуществления контакты 2020 (такие как, например, разъемы типа пого) могут быть на корпусе устройства, которые могут использоваться для создания электрической цепи между ремешком или зарядным устройством для зарядки устройства. Зарядное устройство 2000 на фиг. 20A может быть соединено с любым подходящим источником питания (например, питание от розетки переменного тока (AC) или питание от постоянного тока (DC) от порта USB на вычислительном устройстве) с помощью любого подходящего проводного или беспроводного соединения.
Зарядное устройство 2000 может быть сделано из любого подходящего материала, такого как акриловый полимер, и в конкретных вариантах осуществления может иметь нескользящий материал в качестве покрытия, такой как, например, резина. В конкретных вариантах осуществления зарядное устройство 2000 может быть присоединено или прикреплено к поверхности, например, может быть прикреплено к стене, как изображено на фиг. 20B. Прикрепление может быть сделано любым подходящим методом, например, механически, магнитным образом или путем приклеивания. В конкретных вариантах осуществления носимое электронное устройство может быть полностью используемым в то время, когда оно прикреплено к зарядному устройству. Например, когда заряжающий компонент расположен на корпусе устройства, устройство может находиться в зарядном устройстве, в то время как пользователь взаимодействует с устройством, или другие устройства осуществляют связь с устройством.
В качестве другого примера, заряжающих компонентов в носимом электронном устройстве фиг. 21A-21B изображают дополнительные примеры зарядных устройств с использованием, например, индуктивного зарядного устройства. Как изображено на фиг. 21A-21B, ремешок может включать в себя одну или несколько зарядных катушек 2110. Как описано выше, это раскрытие предполагает зарядные катушки (или любой другой подходящий заряжающий компонент), встроенные в или на корпусе устройства, альтернативно или в дополнение к ремешку устройства. Магнитное поле 2105, генерируемое, например, заряжающей поверхностью 2115 или заряжающей поверхностью 2120, проходит через зарядную катушку 2110. Заряжающая поверхность 2120 на фиг. 21B может улучшить плотность магнитного поля 2105 через зарядную катушку 2110 относительно заряжающей поверхности 2115, и позволяет более точное размещение, чем заряжающая поверхность 2115, таким образом, улучшая скорость переноса заряда системы. Это раскрытие предполагает, что при необходимости зарядка может питать компоненты в или на корпусе устройства, компоненты в или на ремешке или их обоих.
В конкретных вариантах осуществления ремешок или устройство могут реализовывать антенну для беспроводной зарядки. Так как беспроводная зарядка функционирует оптимально в отсутствие черных металлов, это позволяет более широкий выбор материалов для корпуса устройства, при этом обеспечивая улучшенную беспроводную возможность передачи заряда путем удержания катушки между полюсами заряжающегося возбудителя (как описано выше), вместо того, чтобы просто находиться в одной плоскости с возбудителем. Как описано выше и изображено на фиг. 2, активный ремешок может также включать в себя обычный внутренний физический контактный разъем 250.
В конкретных вариантах осуществления зарядный блок с внутренним накопителем заряда может быть ассоциирован с носимым электронным устройством. При включении в стену зарядный блок может заряжать и подключенное устройство, и внутренний накопитель зарядного блока. Когда он не включен, зарядный блок может тем не менее заряжать подключенное устройство от своего накопителя энергии до тех пор, пока этот резервуар не будет истощен. Когда только зарядное устройство соединено с источником питания без устройства, оно тем не менее заряжает себя, чтобы оно могло обеспечить дополнительную энергию для устройства позже. Таким образом, зарядное устройство, описанное в настоящем документе, полезно будучи и подключенным, и не подключенным к источнику питания, поскольку оно также может питать любое частично заряженное устройство в течение некоторого времени, когда человек не может присоединиться к источнику питания, например, во время поездки, на самолете, вокзале, на улице или везде, где пользователь может нуждаться в зарядке устройства, но не имеет доступа к источнику питания. Устройство может быть в режиме ожидания или использоваться, в то время как зарядное устройство заряжает устройство, и нет необходимости в каких-либо модификациях программных или аппаратных средств целевого устройства. Дополнительные выгоды одного или нескольких вариантов осуществления изобретения могут включать в себя сокращение числа предметов, которые необходимо носить, предоставляя преимущества и зарядного устройства, и блока питания, делая полезным ношение зарядного устройства во время передвижения и сокращая число кабелей и разъемов, которые нужно носить, чтобы увеличить срок действия батареи своих устройств. Это раскрытие предполагает, что такой зарядный блок может быть применен к любым подходящим электронным устройствам, в том числе, но не ограничиваясь только этим, носимому электронному устройству.
Фиг. 22A-22B изображают конкретные варианты осуществления иллюстративного зарядного блока 2210 с иллюстративными соединениями 2205 с устройством 2200 и соединениями 2215 и 2220. Например, фиг. 22A изображает кабельное соединение зарядного блока 2210 с устройством 2200 и внешним источником питания. В качестве другого примера, фиг. 22B изображает зарядный блок 2210 с кабельным соединением с устройством 2200 и прямым соединением с источником питания. Это раскрытие предполагает любые подходящие соединения между устройством, зарядным блоком и источником питания, заряжающим зарядный блок. Например, соединения и с устройством, и с источником питания могут быть прямыми, с помощью проводки или беспроводным образом.
Как описано выше, зарядный блок может заряжать устройство от внутреннего зарядного накопителя зарядного блока, даже когда он не соединен с внешним источником питания, и может заряжать себя, присоединенное устройство или и то, и другое, когда он соединен с внешним источником питания. Это раскрытие предполагает любую подходящую схему распределения заряда между зарядным блоком и устройством. Такая схема распределения может зависеть от величины внутреннего заряда устройства, внутреннего заряда зарядного блока, величины мощности, потребляемой устройством, возможностей зарядки от внешнего источника питания или их любой подходящей комбинации. Дополнительно или альтернативно, порог зарядки может определять, какую схему распределения использовать. Например, одна схема зарядки может использоваться, когда устройство почти полностью заряжено, и у зарядного блока остался небольшой заряд, а другая может использоваться, когда небольшой заряд остался у устройства. Фиг. 23-24 изображают примеры схем зарядки для зарядного блока и подсоединенного устройства. Например, как изображено на фиг. 24, когда устройство подсоединяется к зарядному устройству, как на этапе 2400, этап 2405 определяет, заряжено ли устройство полностью. Если да, никакие дополнительные меры по зарядке не предпринимаются. Если нет, то этап 2410 определяет, подсоединено ли зарядное устройство к внешнему источнику питания, такому как, например, напряжение линии. Если это так, устройство заряжается от этого внешнего источника на этапе 2425. Если это не так, этап определяет, осталась ли энергия в зарядном устройстве, и если это так, устройство заряжается от внутреннего источника питания зарядного устройства на этапе 2420, от напряжения линии, а не накопителя зарядного блока, когда зарядный блок соединен с напряжением линии. Фиг. 23 изображает аналогичное дерево решений. Если устройство подсоединено к зарядному устройству (этап 2300), которое подсоединено к источнику питания (этап 2300), то этап 2310 определяет, заряжено ли устройство полностью, и если нет, устройство заряжается от источника питания, к которому подсоединено зарядное устройство (этап 2315). Аналогично этап 2320 определяет, заряжено ли зарядное устройство полностью, и если нет, блок зарядного устройства заряжается от источника питания на этапе 2325. В конкретных вариантах осуществления используемая схема распределения может определяться или настраиваться пользователем.
Фиг. 25A-25E изображают иллюстративные варианты осуществления аккумулирования энергии и зарядки в устройстве и зарядном блоке. На фиг. 25A изображенного варианта осуществления и накопитель 2500 заряда устройства, и накопитель 2520 заряда зарядного блока истощены. Фиг. 25B-25C изображают зарядку накопителя 2500 заряда устройства и накопителя 2505 заряда устройства после того, как зарядный блок был подсоединен к внешнему источнику 2510 питания. Через короткое время и зарядный блок и устройство заряжаются одновременно, при этом зарядка распределяется так, что каждому дается одинаковый процент его общей зарядной емкости. И зарядный накопитель 2500 устройства, и зарядный накопитель 2505 зарядного блока полностью заряжаются через некоторое время, как изображено на фиг. 25C. Как описано в настоящем документе, величина заряда, распределенная устройству или зарядному блоку, может изменяться на основании любой подходящей схемы распределения заряда. Например, если возможность преобразования энергии зарядного блока ограничена, накопитель зарядного блока почти полон, а накопитель заряда устройства почти пуст, или энергопотребление устройства очень высоко, зарядный блок может давать повышенный приоритет зарядке устройства по сравнению с зарядкой его внутренних накопителей. В качестве другого примера зарядка зарядного блока может продолжаться до тех пор, пока не будет достигнут заданный порог заряда.
Фиг. 25D-25E изображают передачу заряда между зарядным блоком и устройством, когда зарядный блок не подсоединен к внешнему источнику питания. Как изображено на фиг. 25D, устройство с небольшим зарядом, остающимся в его накопителе 2500, подсоединяется к зарядному блоку с полностью заряженным накопителем 2505. Как обсуждалось выше, это раскрытие предполагает любую подходящую схему распределения заряда между устройством и зарядным устройством, когда зарядное устройство не подсоединено к внешнему источнику питания. Эта схема распределения может быть такой же или отличающейся от схемы распределения, используемой, когда зарядный блок подсоединен к внешнему источнику питания. Например, фиг. 25E изображает схему распределения, которая максимизирует заряд зарядного накопителя 2500 устройства. До тех пор, пока зарядный блок все еще имеет заряд, он продолжает заряжать устройство, пока устройство не будет полностью заряжено или пока зарядный накопитель 2505 зарядного устройства не будет полностью пуст.
Фиг. 26 изображает иллюстративную внутреннюю архитектуру иллюстративного зарядного блока 2600. Преобразователь 2605 напряжения линии производит постоянный ток с более низким напряжением из тока 2610 линии высокого напряжения. Это напряжение подается и на зарядное устройство батареи/регулятор 2630, и на разъем 2615, к которому может быть подсоединено устройство через соединение 2620 для зарядки. Зарядное устройство 2630 батареи использует доступную энергию от преобразователя 2605 напряжения линии для зарядки накопителя энергии (аккумулятора 2635). Оно может брать равную долю мощности, что и устройство, брать меньшую долю, когда потребности устройства высоки (приоритет устройства), или брать большую долю, когда внутренние запасы энергии малы (приоритет зарядного устройства). Эти приоритеты могут выбираться пользователем.
Продолжая пример на фиг. 26, когда преобразователь 2605 напряжения линии не обеспечивает питание, зарядное устройство/регулятор 2630 производит соответствующее напряжение зарядки с помощью энергии аккумулятора 2635. Регулятор 2630 может быть всегда включен, или он может включаться при подсоединении к устройству, или нажатием кнопки, которая указывает, что пользователь хочет заряжать устройство. После активации регулятор 2630 будет заряжать устройство, пока не будут истощены внутренние резервы. В этот момент некоторый заряд может все еще оставаться в аккумуляторе 2635 для улучшения срока действия аккумулятора, но он будет недоступен пользователю. Устройство может иметь аварийный режим, который предоставляет доступ к части этой энергии для получения минимального количества аварийного времени использования за счет срока службы аккумулятора. Регулятор 2630 может продолжать обеспечивать энергию до тех пор, пока либо не отключено устройство, либо пока устройство потребляет только минимальное количество энергии, указывая завершение зарядки. Наконец, зарядное устройство/регулятор 2630 может включать в себя дисплей по требованию, который показывает пользователю количество энергии, остающейся в запасе. Так как дисплеи, как правило, используют энергию, может использоваться кнопка или другой ввод для включения дисплея на ограниченное время. Хотя фиг. 26 изображает иллюстративную внутреннюю архитектуру иллюстративного зарядного блока 2600, это раскрытие предполагает любую подходящую внутреннюю архитектуру любого подходящего зарядного блока, описанного в настоящем документе, и предполагает, что такой зарядный блок может иметь любой подходящий размер и форму.
В конкретных вариантах осуществления функциональность или компоненты устройства (такие как, например, датчики) могут быть активированы и деактивированы, например, для экономии питания, уменьшения или устранения нежелательной функциональности. Например, детектор заблокированного состояния обнаруживает, когда устройство деактивировано, и отключает датчики при необходимости для экономии питания, при этом отслеживая данные датчиков на жесты или другой подходящий ввод, который может реактивировать устройство. Устройство может иметь один или несколько режимов питания, такие как спящий режим или полностью активный режим. В качестве одного примера, в конкретных вариантах осуществления устройство носится на руке, и поверхность касания устройства может прийти в соприкосновение с объектами и людьми во время нормального использования. Для предотвращения случайной активации, акселерометр или другой инерциальный датчик в корпусе или ремешке устройства может использоваться для измерения приблизительного положения устройства относительно силы тяжести Земли. Если вектор силы тяжести обнаружен по направлению к боковым сторонам устройства (например, определено, что устройство находится сбоку от пользователя, или определено, что дисплей не направлен на пользователя), сенсорный экран может быть заблокирован, а дисплей отключен, чтобы уменьшить использование энергии. Когда определено, что вектор силы тяжести направлен в низ устройства (например, устройство расположено примерно горизонтально, в результате определяя, что пользователь смотрит или иным образом использует устройство), система может включить дисплей и включить сенсорный экран для дальнейшего взаимодействия. В конкретных вариантах осуществления дополнительно или альтернативно направлению вектора силы тяжести могут использоваться пробуждение или разблокирование устройства, скорость изменения направления или величины вектора силы тяжести для пробуждения или разблокирования устройства. Например, если скорость изменения вектора силы тяжести равна нулю в течение заранее определенного количества времени (другими словами, устройство удерживалось в конкретном положении в течение заранее определенного количества времени), устройство может быть разбужено или разблокировано. В качестве другого примера, один или несколько инерциальных датчиков в устройстве могут обнаружить конкретный жест или последовательность жестов для активации дисплея или другого подходящего компонента или приложения. В конкретных вариантах осуществления кодовый датчик положения устройства устойчив к случайной активации, и, таким образом, может оставаться активным, чтобы пользователь мог изменять выбор, поднося устройство к их углу обзора. В других вариантах осуществления кодовый датчик положения может быть деактивирован на основании контекста или ввода пользователя.
Дополнительно или альтернативно к сохранению мощности конкретные варианты осуществления могут заблокировать один или несколько датчиков, конкретную функциональность или конкретные приложения для обеспечения безопасности для одного или нескольких пользователей. Соответствующие датчики могут обнаружить активацию или разблокирование аспектов безопасности устройства или другого устройства, спаренного или осуществляющего связь с носимым устройством. Например, конкретный жест, выполняемый с помощью устройства или на сенсорной области устройства, может разблокировать один или несколько аспектов безопасности устройства. В качестве другого примера, конкретное вращение или последовательность вращений вращающегося кольца устройства может разблокировать один или несколько аспектов безопасности устройства сами по себе или в комбинации с другим вводом пользователя. Например, пользователь может повернуть вращающееся кольцо в уникальной последовательности символов, таких как числа или изображения. В ответ на прием последовательности вращательных вводов, используемых для поворота вращающегося кольца, дисплей может отобразить конкретный символ(ы), соответствующий каждому вращательному вводу, как описано более подробно в настоящем документе. В конкретных вариантах осуществления используемые символы могут зависеть от пользователя (например, изображения пользователя, сохраненные или доступные устройству, или символы, заданные пользователем). В конкретных вариантах осуществления различные символы могут быть представлены пользователю после заранее определенного числа разблокирований или после заранее определенного периода времени. Примеры вводов, описанные выше, могут также или альтернативно использоваться для активации/деактивации аспектов устройства, конкретных приложений или доступа к конкретным данным. Хотя это раскрытие описывает конкретные примеры ввода пользователя, разблокирующего аспекты безопасности устройства, это раскрытие предполагает любой подходящий ввод или комбинацию вводов для разблокирования любого аспекта безопасности устройства. Это раскрытие предполагает, что ввод или другие подходящие параметры для разблокирования аспектов безопасности устройства или активации/деактивации компонентов устройства могут настраиваться пользователем.
В конкретных вариантах осуществления носимое электронное устройство может обнаруживать один или несколько жестов, выполняемых с помощью или на устройстве. Жесты могут иметь любой подходящий тип, могут обнаруживаться любыми подходящими датчиками (например, инерциальными датчиками, датчиками касания, камерами или датчиками глубины) и могут быть ассоциированы с любой подходящей функциональностью. Например, один или несколько датчиков глубины могут использоваться в сочетании с одним или несколькими камерами для захвата жеста. В конкретных вариантах осуществления несколько датчиков глубины или камер могут использоваться для увеличения точности обнаружения жеста или фона, ассоциированного с жестом. При необходимости датчики, используемые для обнаружения жестов (или обработка, используемая для инициации функциональности, ассоциированной с жестом), могут активироваться или деактивироваться для экономии питания или обеспечения безопасности, как описано более подробно выше. Как показано выше, фиг. 19 изображает иллюстративную сенсорную систему обнаружения и обеспечивает конкретные примеры обнаружения жестов, обработки и установления приоритета. В конкретных вариантах осуществления конкретные приложения могут быть подписаны на конкретные жесты или на все доступные жесты; или пользователь может выбрать, какие жесты должны обнаруживаться какими приложениями. В конкретных вариантах осуществления жесты могут включать в себя манипулирование другим устройством, при этом используя носимое устройство. Например, жест может включать в себя встряхивание другого устройства во время нацеливания, перемещения или иного использования носимого устройства. Это раскрытие предполагает, что при необходимости любой из жестов, описанных в настоящем документе, может включать в себя манипулирование другим устройством. Хотя примеры и иллюстрации, обсуждаемые ниже, включают в себя конкретные аспекты или атрибуты жестов, это раскрытие предполагает комбинирование любых подходящих аспектов или атрибутов жеста и датчика, описанных в настоящем документе.
В конкретных вариантах осуществления носимое электронное устройство может обнаруживать один или несколько жестов, выполняемые с помощью или на устройстве. Жесты могут быть любого подходящего типа, могут обнаруживаться любыми подходящими датчиками (например, инерциальными датчиками, датчиками касания, камерами или датчиками глубины), и могут быть ассоциированы с любой подходящей функциональностью. Например, один или несколько датчиков глубины могут использоваться в сочетании с одной или несколькими камерами для захвата жеста. В конкретных вариантах осуществления несколько датчиков глубины или камер могут использоваться для увеличения точности обнаружения жеста или фона, ассоциированного с жестом. При необходимости датчики, используемые для обнаружения жестов (или обработка, используемая для инициации функциональности, ассоциированной с жестом), могут активироваться или деактивироваться для экономии питания или обеспечения безопасности, как описано более подробно выше. Фиг. 19. Как описано более полно выше, фиг. 19 изображает иллюстративную сенсорную систему обнаружения и обеспечивает конкретные примеры обнаружения жеста, обработки и установления приоритета. В конкретных вариантах осуществления конкретные приложения могут быть подписаны на конкретные жесты или на все доступные жесты; или пользователь может выбрать, какие жесты должны обнаруживаться какими приложениями. В конкретных вариантах осуществления жесты могут включать в себя манипулирование другим устройством, при этом используя носимое устройство. Например, жест может включать в себя встряхивание другого устройства во время нацеливания, перемещения или иного использования носимого устройства. Это раскрытие предполагает, что при необходимости любой из жестов, описанных в настоящем документе, может включать в себя манипулирование другим устройством. Хотя примеры и иллюстрации, обсуждаемые ниже, включают в себя конкретные аспекты или атрибуты жестов, это раскрытие предполагает комбинирование любых подходящих аспектов или атрибутов жеста и датчика, описанных в настоящем документе.
В конкретных вариантах осуществления жесты могут включать в себя жесты, которые вовлекают, по меньшей мере, одну кисть руки пользователя и конечность, на которой устройство носится, например, другое запястье пользователя. Например, в конкретных вариантах осуществления пользователь может использовать кисть руки/руку, на которой устройство носится, чтобы соответственно нацелить оптический датчик устройства (например, камеру или датчик глубины), и может перемещать или располагать другую руку/кисть руки/пальцы для выполнения конкретного жеста. Как описано в настоящем документе и изображено на фиг. 16-17, в конкретных вариантах осуществления сцена, на которую нацеливаются, может отображаться на дисплее устройства, так что пользователь может видеть и реальную сцену, и сцену - как она отображается на устройстве, и кисть руки/руку/пальцы пользователя, если они в угле обзора. В конкретных вариантах осуществления отображаемая сцена может включать в себя используемые кисти рук/пальцы/руку, обнаруженные датчиком, и используемые для выполнения жеста. Фиг. 27-28 изображают иллюстративные жесты, в которых пользователь нацеливает обращенный вовне (например, в направлении от тела пользователя) датчик на устройстве (например, на ремешке устройства, как изображено на фигурах) и перемещает или располагает его другую руку/кисть руки/пальцы для выполнения жеста. Например, на фиг. 27 обращенный вовне датчик обнаруживает объект в угле обзора датчика 2705, обращенный вовне датчик (который может быть тем же датчиком, который обнаруживает объект) обнаруживает один или несколько пальцев, указывающих на объект 2710, и когда определено, что указывающий палец(ы) неподвижен 2715, обнаруживается жест 2720. Обращаясь к фиг. 19, необработанные данные жестов, захваченные обращенной вовне камерой, могут подготавливаться и чиститься от шумов, и эти данные могут отправляться эвристическому детектору жестов. Декодер приоритета жестов обрабатывает данные жестов и определяет, когда был идентифицирован жест с достаточной достоверностью. Когда жест был идентифицирован, жест отправляется в драйвер датчикового концентратора, который обеспечивает API для конечных приложений и системных контроллеров.
В качестве примеров функциональности, ассоциированной с этим жестом, камера может сфокусироваться на объекте, объект, который был обнаружен и на который было указано, может затем появиться на дисплее, может появиться информация об этом объекте на дисплее, и отображенное содержание может быть передано на дисплей другого устройства (например, когда объект является другим устройством). Фиг. 28 изображает иллюстративный жест, подобный жесту на фиг. 27; однако изображенный жест включает в себя обращенный вовне датчик, детектирующий «постукивающее» перемещение пальца(ев) (например, что палец(ы) удаляется от датчика). Например, жест на фиг. 28 может включать в себя обнаружение объекта в сцене камеры (или другого подходящего датчика) на этапе 2805, обнаружение пальца в сцене на этапе 2810, обнаружение отсутствия поперечного движения пальца на этапе 2815, обнаружение кончика пальца, движущегося дальше от датчика на этапе 2820, и детектирование жеста на этапе 2825. Жест, изображенный на фиг. 28, может обеспечивать любую подходящую функциональность. Например, объект, по которому совершили «постукивание», может быть выбран из объектов, отображенных на экране дисплея.
Фиг. 29-30 изображают иллюстративные жесты, где объект обнаруживается с помощью обращенного вовне датчика наряду с движением пальцев пользователя и кисти руки. Например, фиг. 29 изображает, что обращенный вовне датчик детектирует два разведенных пальца 2915, сведение этих двух пальцев (например, в движении сведения пальцев) 2920, а затем движение этих сведенных пальцев в направлении датчика 2925. Движение сведения пальцев и движения по направлению к датчику может происходить одновременно или последовательно, и выполнение этапов последовательно (или время между этапами в последовательности) или одновременно может быть различными жестами. На фиг. 30 эти два изображенных пальца изначально находятся почти вместе 3010, и обращенный вовне датчик обнаруживает разведение 3020 пальцев и отдаляющуюся 3015 кисть руки. Что касается фиг. 30, движение пальцев и кисти руки может быть одновременным или в любой подходящей последовательности. Кроме того, аспекты фиг. 29-30 могут быть объединены для формирования жеста. Например, сведение пальцев вместе и отдаление от датчика могут быть уникальным жестом. В конкретных вариантах осуществления обнаруженные пальцы или кисть руки могут манипулировать другим устройством, и это манипулирование может являться частью жеста. Что касается всех иллюстративных жестов, описанных в настоящем документе, это раскрытие предполагает любую подходящую функциональность, ассоциированную с жестами, изображенными на фиг. 29-30.
Фиг. 31-32 изображают иллюстративные жесты, подобные фиг. 29-30, за исключением того, что здесь используются все пальцы для выполнения жеста. На фиг. 31 пальцы обнаруживаются первоначально сведенными (например, в кулаке) 3105, обнаруживается, что кулак удаляется от датчика 3110, и датчик обнаруживает раскрытие 3115 кулака. Опять же, последовательность изображенных этапов может происходить в любом подходящем порядке. Фиг. 32 изображает обратное фиг. 31. Фиг. 31-32 могут быть ассоциированы с любой подходящей функциональностью. Например, фиг. 31 изображает пример отправки всего или части содержания, отображенного на устройстве, другому устройству, такому как телевизор, изображенный на фиг. 31. Аналогично, жест на фиг. 32 может притянуть часть или все содержание, отображенное на другом устройстве, на дисплей носимого устройства. Например, жесты на фиг. 31-32 могут быть реализованы, когда пользователь выполняет жесты с помощью носимого устройства вблизи от другого устройства, такого как смартфон, планшет, персональное вычислительное устройство, умная техника (например, холодильник, термостат или стиральная машина) или любое другое подходящее устройство. Описанная функциональность является просто примерами функциональности, которая может быть ассоциирована с жестами, изображенными на фиг. 31-32, и это раскрытие предполагает, что другой подходящий жест может выполнять описанную функциональность.
Фиг. 33-37 изображают обращенный вовне датчик, детектирующий кисть руки или часть руки, производящей смахивающее движение перед датчиком. В конкретных вариантах осуществления, смахивающее движение с помощью передней стороны кисти руки может быть жестом, отличающимся от смахивающего движения с помощью тыльной стороны кисти руки. Фиг. 33-34 изображают кисть руки, делающую смахивающее движение справа налево 3310-3315 и слева направо 3410-3415 поперек угла обзора датчика, а фиг. 35-37 изображают кисть руки, делающую смахивающее движение снизу вверх 3510-3515 (а также 3735-3740) и сверху вниз 3610-3615 (а также 3710-3715) поперек угла обзора датчика. Как изображено, кисть руки может первоначально начинать в угле обзора, проходить через угол обзора и выходить из угла обзора (как изображено на фиг. 36); может начинать за пределами угла обзора, проходить через угол обзора и выходить за угол обзора (как изображено на фиг. 37); может начинать вне угла обзора, проходить через часть угла обзора и оставаться в угле обзора (как изображено на фиг. 33-35); или может начинать в угле обзора, проходить через часть угла обзора и оставаться в угле обзора. Это раскрытие предполагает, что кисть руки может делать смахивающее движение под другими углами, например, входя под углом 45 градусов снизу справа от устройства и выходя под углом 45 градусов сверху слева от устройства. Кроме того, это раскрытие предполагает обнаружение смахивающих движений кистью руки в других движениях, отличающихся от прямой линии, например, искривленные смахивающие движения или треугольные смахивающие движения. Это раскрытие предполагает любую подходящую функциональность, ассоциированную с любыми из жестов, изображенных на фиг. 33-37, такую как, например, переход между пользовательскими интерфейсами, отображаемыми на устройстве, или между приложениями активными и отображаемыми на устройстве, открытие или закрытие приложений, или прокрутка отображаемого содержания (например, документов, веб-страниц или изображений). Повторяя сказанное в другом месте, это раскрытие предполагает любой подходящий жест, ассоциированный с функциональностью, описанной относительно фиг. 33-37.
Фиг. 38-39 изображают иллюстративные жесты, где обращенный вовне датчик обнаруживает кисть руки пользователя в угле обзора 3805 и обнаруживает один или несколько пальцев, указывающих в одном направлении (наряду с, в конкретных вариантах осуществления, частью кисти руки или руки пользователя) 3815. Обнаруженный жест может зависеть от обнаруженных пальцев или направления, в котором указывают обнаруженные пальцы. Например, как изображено на фиг. 38, палец может быть большим пальцем, указывающим вверх 3820, а на фиг. 39 палец может быть большим пальцем, указывающим вниз 3920. Любая подходящая функциональность может быть ассоциирована с жестами, изображенными на фиг. 38-39, такая как сохранение или удаление файла локально на устройстве или на ассоциированном устройстве, одобрение или неодобрение изменений, сделанных в настройках или другом содержании.
Фиг. 40 изображает иллюстративный жест с участием фигуры, сделанной с помощью нескольких пальцев или части кисти руки в угле обзора обращенного вовне датчика. Как показано на фиг. 40, фигура может быть кольцом 4010, и жест может включать в себя пальцы, не участвующие в фигуре, указывающие в конкретном направлении 4015. Как показано на фиг. 40, жест может включать в себя удержание фигуры 4020 (и, возможно, других пальцев) в течение заранее определенного периода времени.
Фиг. 41-42 изображают иллюстративные жесты, включающие в себя накрытие всего или части обращенного вовне датчика с помощью пальцев пользователя или кисти руки. Накрытие датчика сверху устройства жестом 4105 типа пальцев вниз (как изображено на фиг. 41) может быть отличающимся жестом от накрытия датчика снизу устройства 4210 (как изображено на фиг. 42) или боков устройства. Направление накрытия может быть обнаружено, например, с помощью формы кисти руки при накрытии устройства, ориентации кисти руки при накрытии устройства, данных от других датчиков, указывающих направление, в котором накрывается обращенный вовне датчик (например, обнаруживая, что дисплей и обращенный вовне датчик накрыты), или любой другой подходящей методики.
Фиг. 43-44 изображают иллюстративные жесты, где один или несколько пальцев пользователя или части кисти руки/руки обнаруживаются в угле обзора обращенного вовне датчика 4305/4405, и затем перемещаются в пределах угла обзора (или «кадра») для выполнения конкретного жеста 4310/4320/4410/4420. В конкретных вариантах осуществления жест может быть любым подходящим движением или может быть движением с конкретным шаблоном. В конкретных вариантах осуществления жест может быть ассоциирован с пальцами или частью обнаруженной кисти руки/руки. Например, один указывающий палец может быть ассоциирован с жестом 4305 (как изображено на фиг. 43), или несколько пальцев/ладонь может быть ассоциирована с жестом 4405 (как изображено на фиг. 44). В конкретных вариантах осуществления направление ладони (например, передняя сторона, задняя, под углом) может быть обнаружено и ассоциировано с жестом.
Фиг. 45 изображает иллюстративный жест, включающий в себя обнаружение фигуры с несколькими пальцами или кистью руки/рукой пользователя 4505 и обнаружение движения фигуры в угле обзора 4510/4520. Фиг. 45 изображает фигуру фиг. 40, перемещающуюся через угол обзора обращенного вовне датчика.
Фиг. 46 изображает иллюстративный жест, включающий в себя детектирование одного или нескольких пальцев (некоторых или всех кисти руки/руки пользователя) и их начальной ориентация, и последующее детектирование изменения ориентации или скорости изменения ориентации с течением времени. Например, фиг. 46 изображает обнаружение двух пальцев в угле обзора на этапе 4605, обнаружение пальцев и ребра кисти руки в угле обзора на этапе 4610, обнаружение пальцев, делающих фигуру «C» на этапе 4615, декодирование начальной ориентацию фигуры «C» на этапе 4620, декодирование изменения ориентации фигуры «C» на этапе 4625, определение относительной величины вращения фигуры «C» на этапе 4630 и обнаружение жеста на этапе 4635. Это раскрытие предполагает любую подходящую фигуру, сделанную пальцами/кистью руки/рукой пользователя.
Фиг. 47 изображает иллюстративный жест, который включает в себя обнаружение числа пальцев в конкретном месте в угле обзора обращенного вовне датчика. Например, фиг. 47 изображает обнаружение кончиков пальцев в угле обзора на этапе 4705, например, одного отогнутого большого пальца, отогнутого большого пальца и пальца или отогнутого большого пальца и двух пальцев. Конкретная конфигурация ориентации кончиков пальцев обнаруживается на этапе 4710, и установление соответствия конфигурации, по меньшей мере, числу пальцев выполняется на этапе 4715 для обнаружения жеста на этапе 4725. Каждое из отображенных изображений может быть различным жестом. Это раскрытие предполагает любое подходящее местоположение пальцев, которые составляют жест. Что касается всех других иллюстративных жестов, описанных в настоящем документе, это раскрытие предполагает любую подходящую функциональность, ассоциированную с жестами. Например, каждый жест на фиг. 47 может быть ассоциирован с контактом для вызова, электронной почты или текстового сообщения, и обнаруженный жест может активировать вызов, электронную почту или текстовое сообщение контакту, назначенного жесту. В конкретных вариантах осуществления местоположение кисти руки/руки/пальцев может указывать, какой способ осуществления контакта должен использоваться для контакта, ассоциированного с жестом.
Фиг. 48-49 изображают иллюстративные жесты с участием двух датчиков на устройстве. Например, фиг. 48 изображает датчик на нижней части ремешка устройства. Эти датчики обнаруживают местоположение другой кисти руки пользователя относительно устройства и обнаруживают расстояние кисти руки от датчика. В конкретных вариантах осуществления жест может включать в себя определение, что обе кисти руки движутся, например, с помощью дополнительной информации, предоставляемой одним или несколькими инерциальными датчиками в устройстве, или с помощью обращенной внутрь (например, в направлении к телу пользователя) камеры, обнаруживающей движение устройства посредством изменения обстановки. Например, на фиг. 48 кисть руки обнаружена в угле обзора на этапе 4805. Датчик обнаруживает, что кисть руки имеет фигуру сведенных пальцев на этапе 4810, и тот же самый или другой датчик обнаруживает, что устройство находится в горизонтальном положении на этапе 4815. Датчик обнаруживает движение кисти руки относительно устройства на этапе 4820 и оценивает взаимное положение на этапе 4825. Жест обнаруживается на этапе 4830. Аналогично, фиг. 49 изображает иллюстративный жест, также включающий в себя обнаружение кисти руки пользователя в угле обзора, впоследствии удаляющейся от датчика устройства. Однако на фиг. 49 датчик устройства расположен на верхней части устройства (например, фронтальный датчик). Например, кисть руки обнаруживается в угле обзора фронтальной камеры на этапе 4905. Кисть руки обнаруживается в фигуре сведенных пальцев на этапе 4910, и устройство обнаруживается в горизонтальном положении на этапе 4915. Кисть руки перемещается ближе или дальше от устройства на этапе 4920, и оценка взаимного положения выполняется на этапе 4925, в этот момент жест обнаруживается на этапе 4930.
Фиг. 50-58 изображают иллюстративные жесты, обнаруженные по меньшей мере одним фронтальным датчиком (например, датчиком на верхней стороне устройства). Любой из жестов на фиг. 50-58 может быть обнаружен датчиками в любом другом подходящем местоположении (например, фронтальном, как описано выше), и любой из жестов, обнаруженных описанным датчиком в другом местоположении, может быть обнаружен фронтальным датчиком при необходимости. Фиг. 50 изображает иллюстративный жест с участием одного или нескольких кончиков пальцев, находящихся над устройством, и фронтальный датчик обнаруживает кончики пальцев на этапе 5005, обнаруживает местоположение кончиков пальцев или движение (или отсутствие движения) этих кончиков пальцев на этапах 5010 и 5015 для обнаружения жеста на этапе 5020. Фиг. 51 изображает иллюстративный жест, в котором этапы 5105 и 5110 идентичны этапам 5005 и 5010, соответственно. Однако обнаруженные кончики пальцев перемещаются от фронтального датчика на этапе 5115; в конкретных вариантах осуществления жест может включать в себя обнаружение одного или нескольких кончиков пальцев, изменяющих местоположение друг относительно друга, например, разводимых друг от друга, как на этапе 5120. Фиг. 52 изображает кончики пальцев, обнаруженные датчиком на этапе 5205, сдвигание кончиков пальцев вместе на этапе 5210, движение пальцев по направлению к устройству на этапе 5215, и продолжение движения в течение какого-то времени на этапе 5220 для обнаружения жеста на этапе 5225. Как показано на фиг. 53, в конкретных вариантах осуществления жест может включать в себя обнаружение изменения взаимного положения кончиков пальцев в дополнение к движению кончиков пальцев по направлению к датчику. Например, на этапе 5305 обнаруживается один или два пальца на передней поверхности; на этапе 5310 обнаруживается, что пальцы движутся вверх или вниз; и жест обнаруживается на этапе 5315. В конкретных вариантах осуществления длительность жеста на фиг. 50-52 может определять, обнаружен ли жест, или различные длительности могут составлять различные жесты.
Фиг. 54-57 изображают иллюстративные жесты с участием перемещения одного или нескольких пальцев или перемещения части кисти руки/руки поперек лицевой стороны устройства (и, таким образом, поперек фронтального датчика). Как изображено, жест может зависеть от числа используемых пальцев (например, два пальца в противоположность целой ладони); от направления перемещения поперек лицевой стороны устройства (например, снизу вверх или слева направо); от длительности перемещения поперек лицевой стороны устройства; от пространственной близости обнаруженных пальцев или кисти руки/руки к лицевой стороне устройства; от части лицевой стороны устройства (например, всей или части и относительного местоположения части (например, нижняя половина)); или от того, находятся ли обнаруженные части первоначально в угле обзора фронтального датчика, первоначально вне угла обзора, оказываются в конце в угле обзора или оказываются в конце вне угла обзора. Например, жест фиг. 54 может включать в себя обнаружение одного или двух пальцев, обнаруженных на передней поверхности на этапе 5405; обнаружение пальцев, движущихся влево на этапе 5410, и обнаружение жеста на этапе 5415. В качестве другого примера, фиг. 55 может включать в себя обнаружение одного или двух пальцев, обнаруженных на передней поверхности на этапе 5505; обнаружение пальцев, движущихся направо на этапе 5510, и обнаружение жеста на этапе 5515. В качестве другого примера, фиг. 56 может включать в себя обнаружение отсутствия пальцев на этапе 5605, обнаружение нескольких пальцев, входящих в угол обзора слева, обнаружение накрытия передней поверхности, обнаружение пальцев, выходящих из кадра, на этапе 5620 и обнаружение жеста на этапе 5625. В качестве еще одного примера, фиг. 57 может включать в себя обнаружение отсутствия пальцев на этапе 5705, обнаружение нескольких пальцев, входящих в угол обзора справа на этапе 5710, обнаружение накрытия всей передней поверхности на этапе 5715, обнаружение пальцев, выходящих из угла обзора на этапе 5720, и обнаружение жеста на этапе 5725. Как и для всех жестов, описанных в настоящем документе, может использоваться любая подходящая комбинация этих факторов (и любых других подходящих факторов, ассоциированных с жестами) для определения жеста или функциональности, соответствующей жесту. Любая подходящая функциональность может быть ассоциирована с жестом, такая как, например, переход между экранами графического пользовательского интерфейса, прокрутка отображенного содержания или прокрутка доступных приложений или устройств для осуществления связи/спаривания.
Фиг. 58 изображает иллюстративный жест с участием одного или нескольких пальцев, обнаруженные на краю устройства, и он может включать в себя движение этих пальцев вокруг всей или части края устройства. Например, как изображено на фиг. 58, жест может включать в себя обнаружение отсутствия пальцев на этапе 5805, обнаружение одного пальца на краю передней стороны на этапе 5810, обнаружение пальца, движущегося вдоль края, на этапе 5815, декодирование углового движение пальца относительно устройства на этапе 5820 и обнаружение жеста на этапе 5825. В качестве примера функциональности, ассоциированной с этим жестом, движение пальца может повернуть часть или все отображенное содержание на устройстве.
В конкретных вариантах осуществления жест может включать в себя перемещение носимого устройства, например, с помощью руки, на которой носится устройство. Перемещение может быть обнаружено с помощью любых подходящих датчиков, таких как инерциальные датчики, датчики ориентации или любая подходящая их комбинация. Фиг. 59-66 изображают иллюстративные жесты, включающие в себя обнаружение вектора силы тяжести относительно устройства (например, указывающего в направлении лицевой стороны устройства или указывающего вниз через основание) и обнаружение последующего движения устройства относительно этого вектора силы тяжести. Например, фиг. 59 может включать в себя обнаружение вектора силы тяжести, указывающего вниз через лицевую сторону на этапе 5905, обнаружения ускорение устройства вдоль той же самой оси, как указывает вектор силы тяжести, на этапе 5910, обнаружение, что ускорение устройства сохраняется в течение некоторого временного шага на этапе 5915, и обнаружение жеста на этапе 5920. Фиг. 60 в значительной степени аналогична жесту на фиг. 59, за исключением того, что вектор силы тяжести указывает вниз через основание (а не лицевую сторону) на этапе 6005. Фиг. 61 изображает жест, который использует вектор тяжести для определения ориентации/положения устройства, например, что устройство не возле тела пользователя. Перемещение устройства из обнаруженной ориентации (например, перпендикулярно вектору силы тяжести) может быть обнаружено, результатом чего является жест. Например, обнаруженная ориентации силы тяжести может указать, что рука не возле тела на этапе 6105, поперечное ускорение устройства может быть обнаружено на этапе 6110, ускорение может быть обнаружено в течение некоторого времени на этапе 6115, и жест может быть обнаружен на этапе 6120. Как указывают фиг. 59-61, обнаружение аспекта перемещения (например, длительности ускорения) может инициировать жест, и каждый диапазон аспекта (диапазоны длительности перемещения) может соответствовать различному жесту. Фиг. 62-63 изображают вращательное движение устройства. Как и на фиг. 61, обнаружение начальной ориентации или положения устройства может быть частью обнаружения жеста. Например, жест на фиг. 62 может включать в себя обнаружение, что вектор силы тяжести указывает, что рука не возле тела на этапе 6205, обнаружение некоторого вращательного движения на этапе 6210, оценку, что радиус вращательного движения является достаточно большим для локтевого движения на этапе 6215, оценку относительного вращения на этапе 6220, и обнаружение жеста на этапе 6225. В качестве другого примера, жест на фиг. 63 может включать в себя обнаружение, что вектор силы тяжести указывает, что рука не возле тела на этапе 6305, обнаружение некоторого вращательного движения на этапе 6310, оценку, что радиус вращательного движения достаточно мал для вращения запястьем на этапе 6315, оценку относительного вращение на этапе 6320 и обнаружение жеста на этапе 6325. Как изображено на фиг. 62-63, жест может включать в себя оценку типа вращения устройства, такого как, например, вращение прежде всего от плеча (фиг. 62), вращение прежде всего от локтя (фиг. 63) или любое другое подходящее вращение. Дополнительно или альтернативно к радиусу вращения жест может включать в себя обнаружение величины вращения, длительности вращения, радиального ускорения вращения, любого другого подходящего аспекта вращения или их любой подходящей комбинации.
Как и для фиг. 61-63, фиг. 64 указывает жест, включающий в себя детектирование начальной ориентации или положения устройства. Например, жест на фиг. 64 может включать в себя обнаружение вектора силы тяжести, который указывает, что рука не возле тела на этапе 6405, обнаружение поперечного ускорения руки вдоль оси руки на этапе 6410, обнаружение, что ускорение сохраняется в течение некоторого времени на этапе 6415, и обнаружение жеста на этапе 6420. Фиг. 65 изображает, что жест может включать в себя перемещение устройства вдоль оси конечности, на которой носится устройство, например, ускорение устройства вдоль этой оси. Жест может включать в себя столкновение вдоль пути движения (например, вызванное остановкой кисти руки или контактом с объектом) и последующее обратное движение. Движение вперед и назад может повторяться до тех пор, пока движение не прекратится или кисть руки не возвратится в некоторое положение, например, сбоку от пользователя. В конкретных вариантах осуществления различные жесты могут быть основаны на числе или частоте движения вперед и назад. Например, жест на фиг. 65 может включать в себя обнаружение вектора силы тяжести, указывающего, что рука находится не возле тела, на этапе 6505, обнаружение, что рука находится в движении на этапе 6510, обнаружение импульса (столкновения) вдоль пути перемещения на этапе 6515, обнаружение, что кисть руки движется в обратную сторону вдоль того же самого линейного пути, на этапе 6520, повторение этапов 6515 и 6520 при необходимости, обнаружение, что движение прекращается через некоторое время на этапе 6525 и обнаружение жеста на этапе 6530.
Фиг. 66-68 изображают иллюстративные жесты, основанные на обнаружении движения, которое соответствует заранее определенному шаблону перемещения, который может настраиваться или создаваться пользователем. В конкретных вариантах осуществления настраиваемые жесты могут включать в себя начальное положение или ориентацию устройства, движение или аспекты движения в конкретном направлении, прекращение или начало движения, длительность движения или любой другой подходящий параметр движения. Некоторые или все параметры могут настраиваться пользователем в конкретных вариантах осуществления. В конкретных вариантах осуществления обнаруженный жест может быть определен путем определения соответствия обнаруженного движения ближайшему доступному шаблону движения. Например, как изображено на фиг. 66-68, жест может соответствовать горизонтальному положению или движению руки или пальцев. Например, как изображено на фиг. 66, жест может включать в себя обнаружение вектора силы тяжести, ориентированного вниз через нижнюю часть основания устройства на этапе 6605, обнаружение движения вперед и внутрь на этапе 6610, определение соответствия шаблону движения на этапе 6615 (например, с использованием эвристических, числовых или основанных на шаблонах модулей распознавания жестов на фиг. 19) и обнаружение жеста на этапе 6620. Фиг. 67 может включать в себя обнаружение вектора силы тяжести, ориентированного в сторону через нижнюю часть основания устройства на этапе 6705, обнаружение движения вперед и внутрь на этапе 6710, определение соответствия шаблону движения на этапе 6715 (например, с использованием эвристических, числовых или основанных на шаблонах модулей распознавания жестов на фиг. 19) и обнаружение жеста на этапе 6720. Фиг. 68 может включать в себя обнаружение вектора силы тяжести, указывающего, что рука не возле тела, на этапе 6805, обнаружение движения устройства на этапе 6810, обнаружение прекращение движения на этапе 6815, определение соответствия шаблону движения на этапе 6820, выбор лучшего соответствия шаблону движения на этапе 6825 и обнаружение жеста на этапе 6830. Хотя фиг. 66-68 изображают конкретные примеры настраиваемых жестов, соответствующих конкретным шаблонам движения, это раскрытие предполагает любые подходящие жесты (или любой их аспект), обнаруженные любыми подходящими датчиками, настраиваемыми пользователем устройства.
В конкретных вариантах осуществления жест может опционально включать в себя обнаружение некоторого не связанного с движением или ориентацией ввода. Например, фиг. 69-71 изображают жест, содержащий обнаружение звуков, хотя изображенные жесты не требуют такого обнаружения. Фиг. 69 изображает звуковой вывод (такой как, например, звонок от входящего или исходящего телефонного вызова) или ответ, сопровождаемый некоторым движением устройства (например, поднесением устройства к лицу пользователя). Например, звуковой ответ или вывод инициируется на этапе 6905, движение вверх обнаруживается на этапе 6910, прекращение движения вверх обнаруживается на этапе 6915, вектор силы тяжести находится в пределах заранее определенного окна на этапе 6920, и жест обнаруживается на этапе 6925. В конкретных вариантах осуществления жест может включать в себя обнаружение вектора силы тяжести в конкретной ориентации или окне ориентации, как изображено. Жест на фиг. 69 может также включать в себя обнаружение положения кисти руки/пальцев пользователя. Пример функциональности, которая может быть ассоциирована с жестом, изображен на фиг. 69, если пальцы поднесены к уху или лицу в указанном положении, пользователь может ответить или позвонить. Фиг. 70 и этапы 7005-7025 изображают иллюстративный жест, имеющий атрибуты, аналогичные описанным для фиг. 69, но с участием другой ориентации кисти руки/пальцев пользователя. Фиг. 71 изображает иллюстративный жест, включающий в себя звуки, генерируемые пользователем (например, пользователь, щелкающий пальцами), которые обнаруживаются микрофоном, ассоциированным с устройством. Например, фиг. 71 может включать в себя обнаружение вектора силы тяжести, указывающего, что рука находится не возле тела, на этапе 7105, обнаружение движения с относительно высоким ускорением на этапе 7110, обнаружение внезапного изменения на одной или нескольких звуковых частотах на этапе 7115 и обнаружение жеста на этапе 7120. Как показано на фиг. 71, щелкающее движение может быть обнаружено исключительно по движению, генерируемому одним только щелчком (например, по вибрации кисти руки/кожи пользователя или определенной степени или скорости вращения из-за щелчка), или может быть обнаружено по комбинации движения плюс звуковой ввод, генерируемый щелчком. В конкретных вариантах осуществления звуковое подтверждение должно быть обнаружено в пределах заранее определенного времени движения для жеста, который должен быть обнаружен.
Фиг. 72-73 изображают иллюстративные жесты с участием периодического движения устройства, например, тряски руки, на которую надето устройство, в поперечном или вертикальном направлении. Фиг. 72 изображает жест, включающий в себя обнаружение вектора силы тяжести, указывающего, что рука находится не возле тела, на этапе 7205, обнаружение движения устройства поперечно вперед по оси на этапе 7210, обнаружение движения устройства в обратном направлении по той же самой оси на этапе 7215, повторение этапов 7210 и 7215 при необходимости и обнаружение жеста на этапе 7220. Фиг. 73 изображает жест, включающий в себя обнаружение вектора силы тяжести, указывающего, что рука находится не возле тела, на этапе 7305, обнаружение движения устройства вертикально вперед по оси на этапе 7310, обнаружение движения устройства в обратном направлении по той же самой оси на этапе 7315, повторение этапов 7310 и 7315 при необходимости и обнаружение жеста на этапе 7220. Фиг. 74 изображает иллюстративный жест, включающий в себя регулировку положения/ориентации устройства относительно тела пользователя. Например, жест на фиг. 74 может включать в себя обнаружение вектора силы тяжести, указывающего, что рука находится возле тела, на этапе 7405, обнаружение вектора силы тяжести, указывающего, что рука находится возле тела, на этапе 7410, обнаружение жеста на этапе 7415. Любая подходящая функциональность может быть ассоциирована с жестами на фиг. 72-75, такая как, например, пробуждение устройства из состояния с низким потреблением питания. Фиг. 75 изображает иллюстративный жест с участием высоты устройства или относительного изменения высоты устройства от начала движения до остановки устройства. В дополнение к высоте устройства жест может включать в себя ориентацию устройства до, во время или после жеста. Например, жест может включать в себя обнаружение вектора силы тяжести, указывающего, что рука находится не возле тела, на этапе 7505, обнаружение движения вверх на этапе 7510, обнаружение остановки движения вверх на этапе 7515, обнаружение, что вектор силы тяжести указывает через бок основания устройства на этапе 7520, и обнаружение жеста на этапе 7525. Любая подходящая функциональность может быть ассоциирована с жестом на фиг. 75, такая как, например, активация оборудования, спаренного с устройством, включение одного или нескольких светильников в комнате или активация оборудования рядом с устройством.
В конкретных вариантах осуществления жест может включать в себя взаимодействие непосредственно с корпусом или ремешком носимого устройства. Например, фиг. 76 изображает жест, включающий в себя контакт с сенсорной областью ремешка, носимого вокруг запястья пользователя. Жест может включать в себя обнаружение, что устройство находится не в заблокированном состоянии, на этапе 7605, обнаружение отсутствия касания к ремешку на этапе 7610, обнаружение касания к ремешку на этапе 7615, декодирование местоположения касания на этапе 7620 и обнаружение жеста на этапе 7625. Фиг. 77 изображает, что касания в нескольких местах, могут определяться как один жест, например, для разблокировки устройства или аспектов устройства. Жест может включать в себя обнаружение, что устройство находится не в заблокированном состоянии, на этапе 7705, обнаружение отсутствия касания к ремешку на этапе 7710, обнаружение касания к ремешку на этапе 7715, декодирование местоположения касания на этапе 7720, декодирование действия на этапе 7725 и обнаружение жеста на этапе 7730. Фиг. 78 изображает, что жест может включать в себя контактирование с сенсорной областью устройства и скольжение по сенсорной области, сохраняя контакт с устройством. Жест может включать в себя обнаружение, что устройство находится не в заблокированном состоянии, на этапе 7805, обнаружение отсутствия касания к ремешку на этапе 7810, обнаружение касание к ремешку на этапе 7815, обнаружение движения точки(ек) касания на этапе 7820, декодирование относительного перемещения на этапе 7825 и обнаружение жеста на этапе 7830. В конкретных вариантах осуществления жест может включать в себя длительность контакта, физическую область контакта (например, с помощью одного пальца или двух пальцев), последовательность контакта, давление, генерируемое контактом, или любой другой подходящий связанный с контактом атрибутом. Хотя фиг. 76-78 изображают контакт с сенсорной областью на ремешке, это раскрытие предполагает, что жест может включать в себя контакт с сенсорной областью в любом подходящем месте устройства, например, ремешке устройства, кольце, дисплее или их любой подходящей комбинации. Например, фиг. 79-80 изображают контакт с сенсорными областями на кольце устройства, аналогично жестам на фиг. 77-78. Например, жест может включать в себя обнаружение, что устройство находится не в заблокированном состоянии, на этапе 7905, обнаружение отсутствия касания к кольцу на этапе 7915, обнаружение касания к кольцу на этапе 7920 и обнаружение жеста на этапе 7925. В качестве другого примера, жест может включать в себя обнаружение, что устройство находится не в заблокированном состоянии, на этапе 8005, обнаружение отсутствия касания к кольцу на этапе 8010, обнаружение касания к кольцу на этапе 8015, обнаружение движения точки касания на этапе 8020, декодирование относительного перемещения на этапе 8025 и обнаружение жеста на этапе 8030. Фиг. 81 изображает жест с участием мультисенсорного контакта с сенсорной областью лицевой стороны устройства и обнаружение последующего движения точек контакта, вызванного, например, движением пальцев, контактирующих с сенсорной областью, или движением запястья/кисти руки, на котором носится устройство. Жест может включать в себя обнаружение, что устройство находится не в заблокированном состоянии на этапе 8105, обнаружение отсутствия касания поверхности на этапе 8110, обнаружение по меньшей мере двух пальцев, касающихся поверхности, на этапе 8115, обнаружение движения точек касания на этапе 8120, декодирование относительного перемещения на этапе 8125 и обнаружение жеста на этапе 8130. Движение запястья/кисти руки может быть обнаружено, например, инерциальными датчиками в устройстве, позволяя различным способам движения точек касания быть двумя различными жестами. Фиг. 82 изображает жест, включающий в себя начальный контакт с устройством, который может быть обнаружен с помощью одного или нескольких датчиков пространственной близости на или в устройстве или инерциальных датчиков на или рядом с устройством. Жест может включать в себя обнаружение, что контакт сохраняется, указывая, например, что пользователь надел устройство. Например, жест может включать в себя обнаружение отсутствия контакта с задним датчиком пространственной близости или датчиком пространственной близости ремешка на этапе 8205, обнаружение контакта датчиком пространственной близости на этапе 8210, обнаружение, что контакт сохраняется, на этапе 8215 и обнаружение жеста на этапе 8220. Жест на фиг. 82 может разблокировать, включить питание спящего устройства или обеспечить любую другую подходящую функциональность.
В конкретных вариантах осуществления жест может включать в себя контакт с кожей вблизи устройства. Фиг. 83 изображает жест, включающий в себя постукивание кожи рядом с местом, где носят устройство. Постукивание может быть обнаружено с помощью вибродатчиков в устройстве. Постукивающее движение может быть подтверждено, например, одним или несколькими акустическими датчиками, детектирующими звук, генерируемый постукивающим жестом. Например, жест может включать в себя обнаружение, что устройство разблокировано, на этапе 8305, обнаружение движение с относительно высоким ускорением на этапе 8310, обнаружение звука, например, постукивания на этапе 8315, определение соответствия движения или звука шаблону на этапе 8320 и обнаружение жеста на этапе 8325. Фиг. 84 изображает жест, включающий в себя смахивающее движение по коже около устройства, которое может быть обнаружено и подтверждено датчиками, описанными на фиг. 83 выше. Например, жест может включать в себя обнаружение, что устройство разблокировано, на этапе 8405, обнаружение движения с относительно высоким ускорением на этапе 8410, обнаружение звука, например, постукивания на этапе 8415, обнаружение вибрации или звука поперечного движения по коже на этапе 8420, определение соответствия движения или звука шаблону на этапе 8425 и обнаружение жеста на этапе 8430.
В конкретных вариантах осуществления жесты могут включать в себя обнаружение метафорических жестов, сделанных кистью руки, не носящей устройство. Например, такой жест может быть обнаружен, например, с помощью любого подходящего фронтального датчика на или рядом с дисплеем устройства, ориентированного так, что кисть руки, не носящая устройство, находится в угле обзора датчика. Фиг. 85 изображает иллюстративный жест, включающий в себя обнаружение фронтальным датчиком движения нескольких пальцев, например, постукивание пальцами. Например, жест может включать в себя определение, что устройство имеет заранее определенную ориентации, на этапе 8505, обнаружение кончика пальца на этапе 8510, обнаружение движения кончика пальца на этапе 8515 или обнаружение звука постукивания на этапе 8525 и обнаружение одного или нескольких жестов на этапах 8520 и 8530. Фиг. 86 изображает иллюстративный жест, включающий в себя движение одного пальца. Например, жест может включать в себя определение, что устройство имеет заранее определенную ориентацию, на этапе 8605, обнаружение кончика пальца на этапе 8610, обнаружение движения кончика пальца на этапе 8615 или обнаружение звука постукивания на этапе 8525 и обнаружение одного или нескольких жестов на этапе 8620. Фиг. 87 изображает жест, включающий в себя обнаружение движения кисти руки, держащей объект, обнаружение движения объекта, фиксацию на объекте, а затем обнаружение последующего движения объекта. В качестве конкретного примера, жест может включать в себя обнаружение, что устройство имеет заранее определенную ориентацию, на этапе 8705, обнаружение кисти руки на этапе 8710, обнаружение движения кисти руки на этапе 8715, обнаружение дополнительного объекта, двигаемого кистью руки, на этапе 8720, фиксацию на объекте на этапе 8725, обнаружение движения объекта на этапе 8730 и обнаружение жеста на этапе 8735. Например, объект может быть ручкой или другим стилус-подобным орудием, и фронтальный датчик на устройстве может обнаруживать движения при письме орудием, например, для генерации/сохранения текста на устройстве или на другом устройстве, осуществляющем связь с носимым устройством. Пример на фиг. 87 может позволить пользователю генерировать рисунки, заметки или другое письменное содержание, без реальной генерации записанного содержания на дисплее или другой рабочей поверхности. Как было описано более подробно в настоящем документе, любой подходящий жест или комбинация жестов может использоваться для воздействия или инициации функциональности дополненной реальности («AR»), и она может использоваться для выполнения задач с использованием функциональности AR. Например, жесты на фиг. 85-87 могут использоваться для захвата взаимодействия пользователя с виртуальной клавиатурой, виртуальной мышью или виртуальным сенсорным экраном, и эти взаимодействия могут генерировать ввод на носимом устройстве или любом другом подходящем спаренном устройстве. Хотя это раскрытие описывает конкретные примеры метафорических жестов и обнаружения объектов (и ассоциированной функциональности), это раскрытие предполагает любые подходящие метафорические жесты, обнаружение любых подходящих объектов, и любой подходящей функциональности, ассоциированной с такими жестами.
В конкретных вариантах осуществления жест может выполняться с участием всей конечности, к которой устройство прикреплено или носится. Например, фиг. 88-92 изображают иллюстративные жесты, включающие в себя движение руки, на которой носят устройство. Жесты могут включать в себя обнаружение начального положения руки (например, с помощью акселерометра, детектирующего направление вектора силы тяжести), обнаружение движения устройства (с помощью руки), обнаружение соответствующего изменения вектора силы тяжести и обнаружение, что рука прекратила движение. Такие жесты могут также включать в себя обнаружение длительности движения, величины перемещения (например, детектирование большого радиуса движения, подтверждающего, что двигалась вся рука), ускорения движения или любых других подходящих связанных с движением атрибутов. Как изображено на фиг. 88-92, жесты могут включать в себя обнаружение перемещения руки выше головы, в переднюю сторону, в бок, назад или вниз от первоначально более высокого исходного положения. Например, жест может включать в себя обнаружение вектора силы тяжести, указывающего, что кисть руки находится сбоку от тела, на этапе 8805, обнаружение движения вверх кисти руки на этапе 8810, обнаружение, что вектор силы тяжести указывает, что кисть руки над головой, на этапе 8815, обнаружение остановки движения кисти руки на этапе 8820 и обнаружение жеста на этапе 8825. В качестве другого примера, жест может включать в себя обнаружение вектора силы тяжести, указывающего, что кисть руки находится сбоку от тела, на этапе 8905, обнаружения движения вверх и вперед кисти руки на этапе 8910, обнаружение, что вектор силы тяжести указывает, что кисть руки находится в горизонтальном положении, на этапе 8915, обнаружение остановки движения кисти руки на этапе 8920 и обнаружение жеста на этапе 8925. В качестве другого примера, жест может включать в себя обнаружение вектора силы тяжести, указывающего, что кисть руки находится в горизонтальном положении, на этапе 9005, обнаружение движения кисти руки вниз и назад на этапе 9010, обнаружение, что вектор силы тяжести указывает, что кисть руки находится сбоку, на этапе 9015, обнаружение остановки движения кисти руки на этапе 9020 и обнаружение жеста на этапе 9025. В качестве другого примера, жест может включать в себя обнаружение вектора силы тяжести, указывающего, что кисть руки находится сбоку от тела, на этапе 9105, обнаружение движения кисти руки вверх и назад на этапе 9110, обнаружение, что вектор силы тяжести указывает, что кисть руки находится в горизонтальном положении, на этапе 9115, обнаружение остановки движения кисти руки на этапе 9120 и обнаружение жеста на этапе 9125. В качестве другого примера, жест может включать в себя обнаружение вектора силы тяжести, указывающего, что кисть руки находится сбоку от тела, на этапе 9205, обнаружение движения кисти руки вверх и в сторону на этапе 9210, обнаружение, что вектор силы тяжести указывает, что кисть руки находится в горизонтальном положении, на этапе 9215, обнаружение остановки движения кисти руки на этапе 9220 и обнаружение жеста на этапе 9225. В конкретных вариантах осуществления жесты могут включать в себя движение всего тела, а не только конечности, на которой носят устройство.
В конкретных вариантах осуществления пользователь может взаимодействовать с устройством через множество механизмов или типов ввода, в том числе, например, внешнее кольцо, сенсорные интерфейсы (например, сенсорный слой), жесты, выполняемые пользователем (описанные в настоящем документе), или голосовой интерфейс (например, в том числе голосовой ввод и распознавание речи для приложений, включающих в себя ввод текста, связь или поиск). Дополнительно, в конкретных вариантах осуществления пользователь может взаимодействовать с графическим пользовательским интерфейсом, представленным на круглом дисплее устройства, с помощью любого из механизмов или типов ввода.
Пользователь носимого электронного устройства может взаимодействовать с устройством (в том числе, например, графическим пользовательским интерфейсом, представленным на круглом дисплее) с использованием внешнего кольца. В конкретных вариантах осуществления внешнее кольцо может быть сенсорным, так что касание пользователя одной или нескольких частей кольца может быть обнаружено как ввод в устройство и интерпретировано, заставляя устройство предпринять одно или несколько действий (например, в графическом пользовательском интерфейсе устройства). Например, сенсорное внешнее кольцо может быть емкостным кольцом или индуктивным кольцом, и пользователь устройства может выполнять любой подходящий сенсорный жест на сенсорном кольце для обеспечения ввода в устройство. Ввод может, например, включать в себя смахивающее движение по кольцу с помощью одного пальца, смахивающее движение по кольцу с помощью двух или более пальцев, выполнение вращательного жеста с помощью одного или нескольких пальцев, или сжатие кольца. В конкретных вариантах осуществления внешнее кольцо может быть вращающимся, так что физическое вращение кольца может служить вводом в устройство. Дополнительно, в конкретных вариантах осуществления по внешнему кольцу можно щелкнуть (например, нажать) или сжать. Любые из вариантов осуществления внешнего кольца могут комбинироваться, как это необходимо, так что кольцо может иметь одно или несколько свойств из: быть сенсорным, вращающимся, доступным для щелчка (или иметь возможность нажатия) или сжимающимся. Вводы от различных модальностей внешнего кольца (например, касание, вращение, щелчок, нажатие или сжатие) могут интерпретироваться по-разному в зависимости, например, от комбинации модальностей ввода, обеспеченного пользователем. Например, вращение внешнего кольца может обозначать другой ввод, чем вращение в комбинации с щелчком или нажатием кольца. Кроме того, может быть обеспечена обратная связь для пользователя, когда пользователь обеспечивает ввод через внешнее кольцо, в том числе тактильная обратная связь, звуковая обратная связь или визуальная обратная связь, описанная в настоящем документе.
Фиг. 93A изображает пример пользователя, щелкающего (например, нажимающего) внешним кольцом, что обозначено стрелками 9310. Фиг. 93B изображает пример пользователя, сжимающего внешнее кольцо, что обозначено стрелками 9320. Фиг. 94A изображает пример пользователя, вращающего внешнее кольцо, так что содержание 9410 графического пользовательского интерфейса устройства изменяется в соответствии с вращением (например, вправо). Фиг. 94B изображает пример пользователя, выполняющего вращательный жест на сенсорном кольце, без вращения самого кольца, так что содержание 9420 графического пользовательского интерфейса устройства изменяется в соответствии с вращением (например, вправо). Фиг. 94C изображает пример пользователя, вращающего внешнее кольцо, одновременно нажимая или щелкая по кольцу, так что содержание 9430 графического пользовательского интерфейса устройства изменяется в соответствии с вращением (например, вправо) и нажатием или щелчком.
В конкретных вариантах осуществления сенсорный интерфейс устройства (например, сенсорный слой) может принимать сенсорный ввод пользователя и позволять устройству определять x-y координаты касания пользователя, идентифицировать несколько точек сенсорного контакта (например, в различных областях сенсорного слоя) и различать различную временную длительность сенсорного взаимодействия (например, различать жесты, в том числе смахивающее движение, одиночное постукивание или двойное постукивание). Сенсорные жесты (описанные в настоящем документе) могут включать в себя многонаправленное смахивающее движение или перетаскивание, сведение пальцев, двойное постукивание, нажатие или надавливание на дисплей (который может вызвать физическое перемещение дисплея в направлении вверх или вниз), длинное нажатие, мультикасание (например, использование нескольких пальцев или орудий для касания или совершения жеста где угодно в сенсорном интерфейсе) или вращательные сенсорные жесты. Фиг. 95A изображает пример пользователя, постукивающего 9510 по сенсорному интерфейсу (например, сенсорному слою) для обеспечения ввода в устройство. Точные x-y координаты постукивания пользователя могут быть определены устройством с помощью ввода от сенсорного интерфейса (например, сенсорного слоя). Фиг. 95B изображает пример пользователя, выполняющего, соответственно, вращательный жест 9515 по часовой стрелке, вращательный жест 9520 против часовой стрелки, жест 9525 вертикального смахивающего движения и жест 9530 горизонтального смахивающего движения. Фиг. 95C изображает пример пользователя, касающегося дисплея (включая сенсорный слой с возможностью мультисенсорного распознавания) с использованием, соответственно, одной, двух или трех точек контакта 9535 (например, с помощью одного, двух или трех пальцев или орудий) одновременно. Фиг. 95D изображает пример пользователя, выполняющего сенсорные жесты, имеющие несколько точек контакта с сенсорным интерфейсом. Пользователь, в этом примере, может выполнять жест 9540 разведения пальцев, жест 9545 сведения пальцев, вращательный жест 9550 по часовой стрелке или вращательный жест 9555 против часовой стрелки с помощью двух пальцев.
В конкретных вариантах осуществления графический пользовательский интерфейс устройства может работать в соответствии с моделью взаимодействия и переходов. Модель может, например, определять, как режимы, в том числе приложения, функции, подрежимы, подтверждения, содержание, элементы управления, активные значки, действия или другие признаки или элементы могут быть организованы (например, в иерархию) в графическом пользовательском интерфейсе устройства.
В одном варианте осуществления графический пользовательский интерфейс (GUI) включает в себя несколько экранов верхнего уровня, каждый из которых соответствует различному режиму или приложению (или подрежиму, функции, подтверждению, содержанию или любому другому признаку) устройства. Каждое из этих приложений может быть на одном и том же уровне иерархии модели взаимодействия и переходов GUI. Фиг. 96A изображает иллюстративную схему иерархии в GUI, в которой каждый из нескольких экранов 9602-9606 и 9610-9614 верхнего уровня соответствует различному приложению, и один из экранов 9608 верхнего уровня (домашний экран) соответствует часам. Переходы между состояниями в GUI могут быть событиями, инициируемыми вводом от источника ввода, такого как пользователь устройства. Ввод от пользователя устройства или из другого источника ввода (например, через любую разновидность механизмов или типов ввода, в том числе внешнее кольцо, сенсорные интерфейсы, жесты, речь или датчики) может вызывать переход в GUI (например, от одного экрана верхнего уровня к другому). Например, ввод может вызывать переход GUI от домашнего экрана 9608 (например, часов) к приложению (например, 3 или 4) или от одного приложения к другому приложению. Если пользователь поворачивает внешнее кольцо направо, например, GUI может перейти от домашнего экрана 9608 к приложению 4 9610, а если пользователь поворачивает внешнее кольцо налево, GUI может перейти от домашнего экрана 9608 к приложению 3 9606. В других вариантах осуществления контекст (например, определенный датчиками или другими источниками ввода на устройстве) может вызывать переход GUI от домашнего экрана к приложению или от одного приложения к другому приложению.
В одном варианте осуществления модель может включать в себя функциональность для различения «левой» и «правой» сторон относительно домашнего экрана. Например, один или несколько экранов верхнего уровня может быть ассоциирован с режимами или приложениями (или другими признаками) в иерархии модели взаимодействия и переходов GUI, которые являются фиксированными (например, всегда доступны пользователю), контекстными или динамическими (например, доступны в зависимости от контекста). Контекстные экраны могут, например, отражать последние используемые пользователем режимы, приложения или функции, последние добавленные (например, загруженные) пользователем режимы, приложения или функции, зарегистрированные устройства прямого соединения (ad-hoc) (которые могут, например, входить или выходить из диапазона связи устройства по мере его использования), «избранные» пользователем (например, явно назначенные пользователем) режимы, приложения или функции или предложенные для пользователя (например, на основании предшествующей активности пользователя или текущего контекста) режимы, приложения или функции. Фиг. 96B изображает иллюстративную схему иерархии в GUI, в которой контекстные или динамические приложения 9616-9620 и фиксированные приложения 9624-9628 сгруппированы отдельно, при этом левая сторона (относительно домашнего экрана 9622 часов) включает в себя контекстные приложения, а правая сторона включает в себя фиксированные приложения. Например, динамическое приложение 01 9620 может быть последним используемым приложением, и динамическое приложение 02 9618 может быть вторым последним используемым приложением и т.д.
В конкретных вариантах осуществления верхний уровень иерархии модели взаимодействия и переходов GUI может включать в себя только «лицевые экраны», а следующий уровень иерархии может включать в себя приложения (или любые другие признаки). Например, верхний уровень иерархии может включать в себя домашний экран (например, часы) и один или несколько лицевых экранов, при этом каждый лицевой экран соответствует различному типу фона, режима или активности, например, обои (например, настраиваемые пользователем), информация о погоде, календарь или информация о ежедневной активности. Каждый из лицевых экранов может показывать время в дополнение к любой другой отображаемой информации. Кроме того, в настоящий момент отображаемый лицевой экран может быть выбран пользователем (например, с помощью любого подходящего механизма или типа ввода) или автоматически изменяться на основании контекста (например, активности пользователя). Лицевые экраны слева от домашнего экрана могут быть контекстным, и лицевые экраны справа от домашнего экрана могут быть фиксированными. Фиг. 97 изображает иллюстративную схему иерархии в GUI, в которой верхний уровень иерархии включает в себя лицевые экраны 9710-9770 (в том числе экран 9740 часов), а следующий уровень иерархии включает в себя приложения 9715-9775.
В конкретных вариантах осуществления ввод от пользователя устройства или ввод из другого источника ввода (например, с помощью любой разновидности механизмов или типов ввода, в том числе внешнего кольца, сенсорных интерфейсов, жестов, речи или датчиков) или контекст использования устройства могут вызывать переход в GUI от экрана на одном уровне иерархии модели взаимодействия и переходов GUI к экрану на другом уровне иерархии. Например, событие выбора или ввод пользователем (например, касание или постукивание по дисплею, голосовой ввод, взгляд, щелчок или нажатие внешнего кольца, сжатия внешнего кольца, любые подходящие жесты, внутреннее мышечное движение, обнаруженное датчиками, или другой ввод датчиков) могут вызывать переход в GUI от экрана верхнего уровня к экрану, вложенному на один уровень ниже в иерархии. Если, например, текущий экран является экраном верхнего уровня, ассоциированным с приложением, событие выбора (например, нажатие на кольцо) выбирает приложение и заставляет GUI перейти к экрану, вложенному на один слой глубже. Этот второй экран может, например, позволять взаимодействовать с признаком выбранного приложения и, в конкретных вариантах осуществления, может соответствовать основной функции выбранного приложения. В этом втором, вложенном слое может быть несколько экранов, и каждый из этих экранов может соответствовать различным функциям или признакам выбранного приложения. Аналогично событие «назад» или ввод выбора пользователем (например, двойное нажатие внешнего кольца или сенсорный жест в конкретной части дисплея) могут вызывать переход в GUI от одного экрана (например, признака конкретного приложения) к другому экрану, который находится на один уровень выше в иерархии (например, экран приложения верхнего уровня).
Фиг. 98A изображает пример работы модели взаимодействия и переходов относительно функции или режима 9805 конкретного приложения устройства и использования или применение функции 9810. Например, если приложение является камерой, функции, режимы или другие элементы приложения камеры могут включать в себя режим изображения, режим видео (например, с предпросмотром в реальном времени) и включение или выключение вспышки. К различным функциям, режимам или другим элементам можно получить доступ через переходы в одном слое иерархии модели. Эти внутриуровневые переходы могут происходить при приеме или определении конкретного типа события перехода или ввода от источника ввода, такого как пользователь устройства (например, вращение внешнего кольца против часовой стрелки или по часовой стрелке), или при определении конкретного контекста использования устройства. В конкретных вариантах осуществления ввод событий перехода может также включать в себя, например, касание или постукивание по дисплею, голосовой ввод, взгляд, щелчок или нажатие внешнего кольца, сжатие внешнего кольца, любой подходящий жест, внутреннее мышечное движение, обнаруженное датчиками, или другой ввод датчика. Чтобы выбрать и использовать функцию, режим или другой элемент приложения, пользователь может обеспечить конкретный тип события выбора или ввод (например, касание или постукивание по дисплею, нажатие или щелчок внешним кольцом, конкретный жест или ввод датчиков), вызывая межуровневый переход в GUI к более глубокому слою иерархии. Например, чтобы снять видео, пользователь может совершить постукивание по экрану, ассоциированному с признаком видео режима приложения камеры. Находясь в этом более глубоком слое иерархии, снимая видео, пользователь может вызвать переход GUI между различными опциями в этом слое, при их наличии (например, опции, относящиеся к режиму видео). В конкретных вариантах осуществления пользователь может выбрать одну из опций в более глубоком слое, вызывая переход GUI к еще более глубокому слою. Например, записывая видео в режиме видео пользователь может снова совершить постукивание по дисплею, чтобы заставить GUI перейти к более глубокому слою, который в этом случае может включать в себя опцию прекратить запись видео. Кроме того, пользователь может возвратиться к более высокому слою иерархии путем обеспечения конкретного тип события выбора или ввода (например, ввода «назад», описанного в настоящем документе). Например, записывая видео в режиме видео, пользователь может коснуться конкретной части «назад» дисплея, вызывая отмену видеозаписи и вызывая переход GUI к экрану, ассоциированному с признаком видео режима приложения камеры (например, в слое признаков иерархии). Модель взаимодействия и переходов иерархии GUI могут иметь любое число слоев и любое число элементов (например, функции или содержания) в пределах одного слоя. Фиг. 98B изображает пример работы модели взаимодействия и переходов относительно содержания 9815 на устройстве. В этой иллюстративной модели содержание может вести себя аналогично приложению, за исключением того, что если пользователь выбирает содержание 9815 (например, фотографию) и GUI переходит к более глубокому слою в иерархии, может быть показана первая опция 9820 в меню опций, относящаяся к содержанию (например, опции, такие как удаление фотографии или обмен фотографией). Фиг. 98C изображает пример работы модели взаимодействия и переходов относительно управления 9825 на устройстве. Управляющий элемент может функционировать как регулятор в том смысле, что он может изменять значение в диапазоне возможных значений. Ввод пользователя в устройство (например, вращение внешнего кольца вправо или влево) может изменять значение или состояние 9830, ассоциированное с управляющим элементом 9825. Значение, измененное управляющим элементом, может быть, по сути, непрерывным по природе (например, уровень увеличения камеры или уровень громкости телевизора) или может быть, по сути, дискретным по природе (например, канал телевидения). В конкретных вариантах осуществления, в случаях, когда значение, измененное с помощью управления, является дискретным по природе, конкретный ввод пользователя (например, нажатие внешнего кольца) может «фиксировать» выбор значения. Фиг. 98D изображает пример работы модели взаимодействия и переходов относительно приложения 9835 на устройстве и основной функции 9840 приложения. Например, каждый режим или функция устройства (например, камера или функции дополненной реальности) могут быть приложением на устройстве. Переходы в пределах одного слоя (например, выполняемые при приеме конкретного ввода пользователя, такого как вращение внешнего кольца) позволяют пользователю изменять приложения, режимы или функции устройства. Переходы между слоями (например, выполняемый при приеме конкретного ввода пользователя, такого как постукивание по дисплею) позволяют пользователю входить в более глубокие слои (или выходить из более глубоких слоев) иерархии, ассоциированных с выбранным приложением, режимом или функцией.
Фиг. 98E изображает пример работы модели взаимодействия и переходов относительно действия 9845 (например, в приложении) на устройстве. Например, в приложении камеры может быть выбрано захваченное изображение, и для выбранного изображения могут быть доступны одно или несколько действий, таких как удаление изображения, публикация изображения в FACEBOOK, публикация изображения в TWITTER или отправка электронной почты с изображением. В этом примере переходы GUI в пределах слоя «действий» (например, выполняемый при приеме конкретного ввода пользователя, такого как вращение внешнего кольца) позволяют пользователю просматривать различные действия, которые можно предпринять. Переходы между слоями (например, выполняемый при приеме конкретного ввода пользователя, такого как постукивание по дисплею) позволяют пользователю входить в более глубокие слои (или выходить из более глубоких слоев) иерархии, ассоциированные с выбранным действием. В этом примере более глубокий слой, в который был произведен вход путем выбора действия 9845, показывает второстепенную информацию 9850 или подтверждение (например, что приложение отправляет информацию об изображении в выбранную службу обмена). Подтверждение 9855 (например, что изображение было отправлено) может также показываться в этом более глубоком слое. GUI может автоматически переходить назад к более высокому слою (например, слою действий). Однако, может иметься более глубокий слой иерархии, включающий в себя информацию о подтверждении, и GUI может входить в этот более глубокий слой при вводе пользователя или автоматически. Фиг. 98F изображает пример работы модели взаимодействия и переходов относительно значка (например, активного значка 9860, включающего в себя опцию вкл\выкл верхнего уровня) и переключение состояния значка 9865. Например, телевизор, коммуникативно спаренный с устройством, может быть обозначен активным значком, например, экраном телевизора. В этом примере переходы GUI в пределах верхнего слоя устройства/приложения (например, выполняемые при приеме конкретного ввода пользователя, такого как вращение внешнего кольца) позволяют пользователю просматривать различные приложения, устройства или другие признаки. Телевизор может показываться в меню в GUI устройства, даже когда телевизор выключен, но телевизор должен быть включен прежде, чем его можно будет использовать. Если пользователь выбирает телевизор (например, постукивая по дисплею, когда значок телевизора отображен GUI), когда он выключен 9860, GUI может перейти к состоянию в более глубоком слое иерархии модели взаимодействия и переходов, в котором телевизор включен 9865. Когда телевизор включен, значок, ассоциированный с телевизором (отображаемый, например, в верхнем слое модели в GUI) 9870, может измениться, чтобы непосредственно отобразить, что телевизор был включен 9875, как изображено на фиг. 98G. Если пользователь снова выбирает телевизор (теперь включенный), GUI может перейти к еще более глубокому слою иерархии, в которой представлены функции или возможности телевизора (например, изменение громкости или каналов). В конкретных вариантах осуществления опция выключения телевизора опять может быть первым пунктом меню в этом более глубоком слое иерархии, чтобы позволить быстрый доступ к функции выключения (например, в случае, если пользователь случайно включил телевизор). В конкретных вариантах осуществления, если пользователь выбирает телевизор, когда он выключен, телевизор может быть включен, а значок, ассоциированный с телевизором, может измениться, чтобы непосредственно отобразить, что телевизор был включен, без перехода GUI к другому слою иерархии или к другому пользовательскому интерфейсу. Поэтому активный значок телевизора может непосредственно указывать в пределах верхнего уровня иерархии (например, главном меню) состояние спаренного телевизора.
Фиг. 99 изображает пример иерархии модели взаимодействия и переходов GUI для приложения захвата изображения. В этом примере первый экран 9902, к которому приходят после выбора приложения (на экране 9900) может соответствовать функции «предпросмотра в реальном времени» приложения. Другие фиксированные признаки приложения захвата изображения, в том числе режим 9904 видео, увеличение 9906 или вспышка 9908, могут быть доступны справа от домашнего экрана 9902 основной функции выбранного приложения. Динамически или контекстуально доступные признаки (например, захваченные изображения 9910) выбранного приложения могут быть доступны слева от домашнего экрана основной функции. Событие выбора в этом функциональном слое иерархии может вызывать переход в GUI к другому вложенному слою еще глубже в иерархии. Если, например, пользователь выбирает функцию «увеличения», GUI может перейти к экрану 9912, на котором пользователь может управлять настройками увеличения камеры с помощью любого подходящего ввода (например, вращения внешнего кольца вправо для увеличения или вращения внешнего кольца влево для уменьшения). Аналогично пользователь может управлять состоянием различных признаков (например, включать или выключать 9914 признак вспышки, или переключаться из режима изображения в режим видео 9916), просматривать содержание (например, 9918-9922), входить в более глубокий слой иерархии, в котором могут быть предприняты действия 9924-9930, или входить в еще один, еще более глубокий слой иерархии, в котором обеспечены подтверждения 9932-9938 после того, как действие выбрано.
В конкретных вариантах осуществления схема взаимодействия может структурировать модель взаимодействия и переходов GUI устройства. Схема взаимодействия может применяться к любой подходящей модели взаимодействия и не должна зависеть, например, от какого-либо определенного типа движения или анимации в GUI устройства. Хотя ниже обсуждаются конкретные примеры схем взаимодействия, может использоваться любая подходящая схема взаимодействия для структурирования модели взаимодействия и переходов.
В качестве одного примера, панорамирующая линейная схема взаимодействия может структурировать модель взаимодействия и переходов GUI устройства. В GUI панорамирующего линейного типа элементы или признаки в пределах слоя могут быть расположены слева и справа от отображаемого в настоящий момент элемента или признака. Ввод пользователя, такой как вращение внешнего кольца в направлении по или против часовой стрелки позволяет перемещаться в пределах одного слоя иерархии модели. Например, вращение внешнего кольца по часовой стрелке на один шаг вращения может отобразить элемент или признак справа (например, следующий элемент), а вращение против часовой стрелки на один шаг вращения может отобразить элемент или признак слева (например, предыдущий элемент). В конкретных вариантах осуществления быстрое вращение по или против часовой стрелки может вызвать выполнение GUI ускоренного просмотра. В таком варианте осуществления один поворот может вызвать переход GUI через несколько элементов или признаков, а не через один элемент или признак, как описано в настоящем документе. Другой ввод пользователя может позволять перемещаться между слоями (например, или в более глубокие слои или в более высокие слои) в иерархии модели. Например, если пользователь касается или постукивает по сенсорному слою дисплея, GUI может перейти на один слой глубже в иерархии модели (например, подтверждение выбора пользователя или предоставление опций, относящихся к выбору). Любой подходящий ввод пользователем может вызвать переход GUI между слоями в иерархии модели, или вместо или в дополнение к вводу на основе касания или постукивания.
В качестве другого примера, если пользователь нажимает на конкретную область сенсорного слоя дисплея (например, назначенную кнопкой «назад»), или если пользователь совершает двойное постукивание по сенсорному слою дисплея, GUI может перейти на один слой выше в иерархии модели (например, к предыдущему слою). Если, например, пользователь выполняет длинное нажатие на дисплей или экран, GUI может перейти назад к домашнему экрану (например, часам). Без дополнительного ввода пользователя GUI может также перейти назад к домашнему экрану после заранее определенного промежутка времени (например, периода ожидания). Как описано в настоящем документе, когда пользователь начинает, например, вращать внешнее кольцо по или против часовой стрелки, GUI совершает переход в пределах одного и того же слоя, и может начать появляться следующий элемент или признак пользовательского интерфейса (например, навигационный значок в том же самом слое) справа или слева, соответственно, в то время как текущий элемент или признак пользовательского интерфейса может начать исчезать.
Фиг. 100A изображает пример панорамирующей линейной схемы взаимодействия. В этом примере элементы 10001, 10002, 10003 и 10004 GUI находятся в одном и том же слое иерархии модели взаимодействия и переходов GUI панорамирующего линейного типа. Элементы 10002A, 10002B и 10002C GUI являются элементами во втором, более глубоком слое иерархии и являются подэлементами элемента 10002. Например, первый слой может включать в себя устройства, спаренные с устройством, элемент 10001 может представлять собой автомобиль, элемент 10002 может представлять собой телевизор, элемент 10003 может представлять собой мобильный телефон, элемент 10004 может представлять собой домашний термостат. Элемент 10002A может быть элементом управления громкостью телевизора, элемент 10002B может быть элементом управления каналами телевизора, и элемент 10002C может быть элемент управления изображением телевизора. В качестве другого примера, GUI может перейти на один слой глубже в иерархии, если пользователь щелкает по кольцу (например, нажимает на кольцо один раз), а затем подэлементы в более глубоком слое могут панорамироваться путем вращения кольца. Альтернативно, пользователь может панорамировать подэлементы в более глубоком слое, поворачивая кольцо, при этом одновременно нажимая на него. Устройство может включать в себя переключатель для выбора, как ввод пользователя используется для перемещения между слоями.
В качестве другого примера, панорамирующая радиальная (или панорамирующая круговая) схема взаимодействия может структурировать модель взаимодействия и переходов GUI устройства. В GUI панорамирующего радиального типа элементы или признаки в слое могут быть расположены выше и ниже в настоящий момент отображенного элемента или признака. Ввод пользователя, такой как вращение внешнего кольца в направлении по или против часовой стрелки перемещает между слоями иерархии модели. Например, вращение внешнего кольца по часовой стрелке на один шаг может вызвать переход GUI на один слой глубже в иерархии модели (например, вход в слой конкретного приложения или подтверждение выбора приложения), а вращение против часовой стрелки на один шаг может вызвать переход GUI на один слой выше в иерархии модели (например, выход из слоя конкретного приложения в предыдущий слой). В конкретных вариантах осуществления быстрое вращение по или против часовой стрелки может вызвать выполнение GUI ускоренного просмотра, как описано в настоящем документе. В таком варианте осуществления один шаг вращения может вызвать переход GUI через несколько слоев иерархии, а не один слой. Другой ввод пользователя может перемещать в пределах одного слоя в иерархии модели. Например, если пользователь касается или постукивает по сенсорному слою дисплея, GUI может перейти к следующему элементу или признаку (например, элементу ниже отображаемого в настоящий момент элемента). В качестве другого примера, если пользователь нажимает конкретную область сенсорного слоя дисплея (например, назначенную кнопкой "назад"), или если пользователь совершает двойное постукивание по сенсорному слою дисплея, GUI может перейти к предыдущему элементу или признаку (например, элементу выше отображаемого в настоящий момент элемента). Если, например, пользователь выполняет длинное нажатие на дисплей или экран, GUI может перейти назад к домашнему экрану (например, часам). Без дополнительного ввода пользователя GUI может также перейти назад к домашнему экрану после заранее определенного промежутка времени (например, периода ожидания). Как описано в настоящем документе, когда пользователь начинает, например, вращать внешнее кольцо по или против часовой стрелки, GUI переходит к другому слою, и следующий элемент или признак пользовательского интерфейса (например, в другом слое) может начать появляться, в то время как текущий элемент или признак пользовательского интерфейса может начать исчезать. Фиг. 100B изображает пример панорамирующей радиальной схемы взаимодействия. В этом примере элементы 10001, 10002, 10003 и 10004 GUI находятся в одном и том же слое иерархии модели взаимодействия и переходов GUI панорамирующего радиального типа. Элементы 10002A, 10002B и 10002C GUI являются элементами во втором, более глубоком слое иерархии и являются подэлементами элемента 10002. Как и прежде, первый слой может включать в себя устройства, спаренные с устройством, элемент 10001 может представлять собой автомобиль, элемент 10002 может представлять собой телевизор, элемент 10003 может представлять собой мобильный телефон, элемент 10004 может представлять собой домашний термостат. Элемент 10002A может быть элементом управления громкостью телевизора, элемент 10002B может быть элементом управления каналами телевизора, и элемент 10002C может быть элемент управления изображением телевизора.
В качестве еще одного примера, схема взаимодействия типа гармошки может структурировать модель взаимодействия и переходов GUI устройства. В GUI типа гармошки элементы или признаки нескольких слоев могут быть расположены в циклической структуре списка. Например, вращение в пределах структуры списка (например, путем вращения внешнего кольца) в первом направлении далее за экран, ассоциированный с последним элементом или признаком в этом направлении (например, последним фиксированным приложением устройства), может вызвать переход GUI на экран, ассоциированный с последним элементом или признаком во втором направлении (например, наиболее давно использованное контекстное приложение устройства). Продолжение вращения в первом направлении может вызвать переход GUI через экраны, ассоциированные с контекстными приложениями в «обратном» порядке (например, от наиболее давно использованного к наименее давно использованному). Аналогично, вращение во втором направлении далее за экран последнего использованного контекстного приложения может вызвать переход GUI на экран, ассоциированный с последним фиксированным приложением, и продолжение вращения во втором направлении может вызвать переход GUI через экраны фиксированных приложений в обратном порядке (например, от последнего фиксированного приложения к первому, рядом с домашним экраном). В GUI типа гармошки элемент или функция, в настоящий момент отображаемая, может быть «растянута» (например, если выбрана пользователем) так, что его подэлементы или подпризнаки могут стать частью однослойной структуры списка. В конкретных вариантах осуществления элемент или признак с подэлементами может указывать (при отображении), что он имеет подэлементы через, например, видимые края подэлементов. Ввод пользователя, такой как вращение внешнего кольца в направлении по или против часовой стрелки, перемещает в пределах одного слоя модели, который может включать в себя элементы или признаки, а также подэлементы или подпризнаки выбранного элемента или признака. Например, вращение внешнего кольца по часовой стрелке на один шаг может отобразить элемент или признак справа (например, следующий элемент), а вращение против часовой стрелки на один шаг может отобразить элемент или признак слева (например, предыдущий элемент). В конкретных вариантах осуществления быстрое вращение по или против часовой стрелки может вызвать выполнение GUI ускоренного просмотра. В таком варианте осуществления один шаг вращения может вызвать переход GUI через несколько элементов или признаков, а не через один элемент или признак. Другой ввод пользователя может вызывать выбор и растяжение элемента или признака в модели. Например, если пользователь касается или постукивает по сенсорному слою дисплея, GUI может растянуть отображенную функцию или элемент в пределах существующего слоя и перейти к подэлементу или подпризнаку. В качестве другого примера, если пользователь нажимает на конкретную область сенсорного слоя дисплея (например, назначенную кнопкой «назад»), или если пользователь совершает двойное постукивание по сенсорному слою дисплея, GUI может сжать растянутые подэлементы или подпризнаки и перейти к элементу или признаку в списке. Если, например, пользователь выполняет длинное нажатие на дисплей или экран, GUI может перейти назад к домашнему экрану (например, часам). Без дополнительного ввода пользователя GUI может также перейти назад к домашнему экрану после заранее определенного промежутка времени (например, периода ожидания). Как описано в настоящем документе, когда пользователь начинает, например, вращать внешнее кольцо по или против часовой стрелки, GUI совершает переход в пределах одного и того же слоя, и может начать появляться следующий элемент или признак пользовательского интерфейса (например, навигационный значок в том же самом слое) справа или слева, соответственно, в то время как текущий элемент или признак пользовательского интерфейса может начать исчезать. Фиг. 100C изображает пример схемы взаимодействия типа гармошки. В этом примере элементы 10001, 10002, 10003 и 10004 GUI находятся в одном и том же слое модели взаимодействия и переходов GUI типа гармошки. Поскольку элемент 10002 был выбран пользователем, подэлементы 10002A, 10002B и 10002C GUI растягиваются, а также включаются в структуру списка в том же самом слое модели. Таким образом, GUI может перейти от подэлемента 10002C или к подэлементу 10002B или непосредственно к элементу 10003. Если, однако, пользователь желает сжать подэлементы (например, с помощью ввода «назад», такого как повторное постукивание по экрану, ассоциированного с элементом 10002), то структура списка будет опять включать в себя только элементы 10001, 10002, 10003 и 10004 GUI.
В конкретных вариантах осуществления GUI может переходить к домашнему экрану на основании ввода, принятого от пользователя устройства. Ввод пользователя может включать в себя, например, нажатие и удержание (например, длинное нажатие) сенсорного слоя, нажатие и удержание дисплея, нажатие (например, щелчок) и удержание внешнего кольца, сжатие и удержание внешнего кольца, накрытие лицевой поверхности (например, дисплея) устройства, накрытие конкретного датчика устройства, поворот лицевой поверхности устройства в направлении вниз, нажатие программной кнопки (обсуждается в настоящем документе), нажатие аппаратной кнопки на устройстве или встряхивание устройства (или любой другой подходящий жест). Любой из этих вводов или любая вариация этих вводов (в том числе, например, более короткие длительности) могут использоваться в качестве ввода пользователя для возврата «назад» в модели взаимодействия и переходов. Фиг. 101A-101B изображают примеры схемы расположения программной кнопки «назад» в GUI. На фиг. 101A прием сенсорного ввода пользователя в нижней части 10110 дисплея вызывает подтверждение выбора или переход GUI на один слой глубже в иерархии модели. Прием сенсорного ввода пользователя в верхней части 10120 дисплея вызывает переход GUI «назад» или на один слой выше в иерархии модели. Фиг. 101B изображает аналогичную схему расположения, где область 10130 «назад» включает в себя навигационный значок 10135 для указания пользователю, куда произойдет переход «назад». В конкретных вариантах осуществления (например, когда сенсорный слой используется для определения точных координат x-y касания) любая область дисплея может быть назначена областью «назад», областью «подтвердить/выбрать» или областью любой другой подходящей функциональности.
В конкретных вариантах осуществления GUI устройства может отображать конкретные типы содержания, в том числе, например, списки. Фиг. 102A изображает пример GUI, отображающего вертикальный список элементов. Ввод от пользователя (например, любой подходящий механизм или тип ввода) может вызвать перемещение рамки 10210 выбора GUI по элементам вертикального списка. Например, если пользователь вращает направо в направлении по часовой стрелке, рамка 10210 выбора может перемещаться от верхней части вертикального списка к нижней части вертикального списка. Каждый шаг вращения внешнего кольца (например, если внешнее кольцо движется с дискретными шагами) вызывает перемещение рамки 10210 выбора на один элемент в списке. В примере на фиг. 102A, по мере вращения пользователем кольца по часовой стрелке, отображаемые элементы списка остаются постоянными, и рамка 10210 выбора перемещается вниз по элементам списка. В других вариантах осуществления рамка выбора может оставаться постоянной (например, в центре дисплея), а элементы списка могут перемещаться вверх или вниз (например, на один элемент за раз), в зависимости от направления вращения кольца. Фиг. 102B изображает пример GUI, отображающего горизонтальный список элементов. Ввод от пользователя (например, любой подходящий механизм или тип ввода) может вызывать перемещение рамки 10210 выбора GUI по элементам горизонтального списка. Например, если пользователь вращает вправо в направлении по часовой стрелке, рамка 10210 выбора может перемещаться из левой части горизонтального списка в правую часть горизонтального списка. Каждый шаг вращения внешнего кольца (например, если внешнее кольцо движется с дискретными шагами), вызывает перемещение рамки 10210 выбора на один элемент в списке. В примере на фиг. 102B, по мере вращения пользователем кольца по часовой стрелке, рамка 10210 выбора остается постоянной в центре дисплея, а элементы списка перемещаются влево (например, на один элемент за раз) в ответ на вращение по часовой стрелке. В других вариантах осуществления отображаемые элементы списка остаются постоянными, а рамка выбора перемещается влево или вправо по элементам списка, в зависимости от направления вращения внешнего кольца.
В конкретных вариантах осуществления GUI устройства может отображать вертикально или горизонтально непрерывное (или практически непрерывное) содержание, в том числе, например, графики или текст. В конкретных вариантах осуществления ввод от пользователя (например, любой подходящий механизм или тип ввода) может вызывать перемещение индикатора выбора GUI по непрерывному содержанию. В других вариантах осуществления ввод от пользователя может вызывать перемещение содержания в и из дисплея в горизонтальном направлении, вертикальном направлении или любом другом направлении в соответствии с вводом пользователя (а индикатор выбора, если он присутствует, может сохранять постоянное местоположение). В примере на фиг. 102C отображается температурный график. По мере того, как пользователь вращает внешнее кольцо по часовой стрелке, индикатор 10220 выбора остается в центре дисплея, а содержание перемещается в дисплей справа и из дисплея слева. В примере на фиг. 102D отображается часть большого куска текста 10230. По мере того, как пользователь вращает внешнее кольцо по часовой стрелке, дополнительный текст появляется на дисплее в нижней части и исчезает с дисплея в верхней части. Фиг. 103A-103D изображают иллюстративное приложение-календарь, отображаемое в GUI устройства. На фиг. 103A пользователь может щелкнуть или нажать на внешнее кольцо (обозначено стрелкой 10305), вызывая отображение GUI кругового меню 10310 с опциями "Вверх", "Неделя" (настройка по умолчанию), "Месяц" и "День". На фиг. 103C пользователь может снова щелкнуть или нажать на внешнее кольцо (обозначено стрелкой 10305), подтверждая выбор "Неделя" и вызывая отображение GUI недельного вида 10320 календаря пользователя.
В конкретных вариантах осуществления GUI может отображать содержание, которое имеет размер больше, чем дисплей. В таких вариантах осуществления GUI может масштабировать или обрезать (или иным образом уменьшаться или подгонять) содержание так, чтобы все содержание могло быть отображено в пределах дисплея за один раз. В других вариантах осуществления GUI не изменяет размер содержания, а вместо этого обеспечивает возможность для пользователя панорамировать содержание на одну часть за раз, например, используя прокрутку (описанную в настоящем документе).
В конкретных вариантах осуществления устройство включает в себя круглый дисплей, а GUI включает в себя круговую навигацию и схемы расположения меню. Однако, это раскрытие предполагает любую форму дисплея и любую подходящую навигацию или схему расположения меню для GUI. Схема расположения меню может предоставлять пользователю визуальное указание, например, того, где пользователь находится в иерархии модели взаимодействия и переходов GUI. Схема расположения меню может также обеспечивать визуальные индикаторы, которые позволяют пользователю различать различные типы пунктов меню, а также показывать общий вид опций меню. Кроме того, меню может отображаться над любым подходящим фоном или содержанием устройства.
Фиг. 104 изображает иллюстративную круговую схему расположения меню, в которой каждый сегмент 10410 представляет собой один пункт или опцию в меню, а визуальные зазоры, такие как 10420, отделяют пункты от друг друга. По умолчанию или в настоящий момент выбранный пункт 10430 находится в верхней части визуального представления (но может быть где угодно на дисплее), и может оставаться в верхней части дисплея по мере того, как пользователь по-разному ориентирует дисплей устройства во время использования. Фиг. 105A-105B изображают пример просмотра пунктов в круговом меню. Пользователь может обеспечить ввод, такой как вращение по часовой стрелке внешнего кольца, и в ответ на этот ввод пользователя следующий пункт в меню 10520 (например, вправо от в настоящий момент выбранного пункта 10510) может быть выделен для выбора. Содержание в центре дисплея 10530 может автоматически измениться, чтобы отразить вращательный ввод пользователя или, в конкретных вариантах осуществления, может измениться только после того, как пользователь обеспечивает другой ввод (например, нажатие или щелчок по внешнему кольцу после того, как требуемый пункт меню был выделен). Фиг. 105C-105D изображают пример просмотра кругового меню путем вращения внешнего кольца, вызывая выделение для выбора следующего пункта в меню 10550 (например, по часовой стрелке или вправо от в настоящий момент выбранного пункта 10540). В этом примере ввод пользователя также вызывает вращение центрального «указателя» 10560, который указывает на выделенный сегмент меню, соответствующий выбранному в настоящий момент пункту меню. В этом примере содержание в центре дисплея автоматически изменяется, чтобы отражать пользовательское вращение.
Каждая из фиг. 106A-106C изображает различные группировки и компоновки круговой схемы расположения меню для GUI устройства. Круговое меню может, например, отображаться непосредственно на границе дисплея (как показано на фиг. 106A) или может быть показано дальше внутрь дисплея, или как графическая накладка над фоном устройства (показано на фиг. 106B-106C). Фиг. 107A-107C изображают другие формы и группировки круговой схемы расположения меню для GUI устройства. Например, меню может состоять из линейных сегментов (различных возможных размеров) расположенных по кругу 10710, линейных сегментов, расположенных в полукруге 10720, или точек, расположенных по кругу или в полукруге 10730 или 10740. В конкретных вариантах осуществления визуальный индикатор пункта 10732 меню в настоящий момент выбранного или по умолчанию может оставаться сверху в центре дисплея, и визуальные индикаторы пунктов в меню 10734 могут смещаться влево или вправо на основании ввода пользователя (фиг. 107C). В других вариантах осуществления визуальный индикатор пункта 10732 в настоящий момент выбранного или по умолчанию может перемещаться по индикаторам пунктов меню, которые остаются в фиксированном местоположении (фиг. 107B). В конкретных вариантах осуществления вместо сегментов или точек визуальные индикаторы пунктов в меню могут быть значками (например, навигационными значками), ассоциированными с пунктами меню. Фиг. 108 показывает, что схема расположения меню не обязана быть круговой, а может быть любой подходящей схемой расположения, в том числе схемой расположения, в которой индикаторы пунктов 10810 меню рассеяны по всему дисплею. С помощью ввода пользователя (например, вращения внешнего кольца), могут быть выбраны различные пункты в соответствии с их местоположением в схеме расположения меню. Например, если пользователь вращает по часовой стрелке, может выбираться следующий пункт 10820 меню в направлении по часовой стрелке.
Фиг. 109A-109C изображают различные схемы расположения меню относительно пунктов меню «слева» и «справа» (например, в иерархии модели взаимодействия и переходов) в настоящий момент выбранного или отображаемого пункта 10915 меню. На фиг. 109A все пункты 10910 меню одинаково распределены по круговому меню вокруг дисплея. На фиг. 109B меню включает в себя зазор, который указывает дифференциацию пунктов 10910 влево и пунктов вправо от отображаемого в настоящий момент или выбранного пункта 10915 меню (например, в соответствии с моделью взаимодействия и переходов, описанной в настоящем документе). Фиг. 109C изображает пример, в котором имеется больше пунктов 10910 слева, чем справа от выбранного в настоящий момент или отображаемого пункта 10915, так что размер левых сегментов кругового меню был отрегулирован, чтобы разместить количество пунктов, доступных для выбора. В случае большого числа пунктов меню (например, больше конкретного порога, например, 40 захваченных изображений), сегменты кругового меню могут исчезать, а визуальный индикатор, представленный пользователю, может быть полосой 11020 прокрутки, которая позволяет пользователю прокручивать по кругу различные пункты меню, как изображенный на фиг. 110A. В других вариантах осуществления аналогичный визуальный индикатор 11020 типа полосы прокрутки может позволять пользователю устройства манипулировать абсолютным или фиксированным значением (например, уровнем увеличения камеры) в фиксированном диапазоне значений 11030, как изображено на фиг. 110B. В других вариантах осуществления длина визуального индикатора типа полосы прокрутки может показывать пользователю уровень некоторой величины. Например, если пользователь управляет звуком телевизора с использованием внешнего кольца устройства, по мере вращения пользователем кольца (например, по часовой стрелке) для увеличения уровня громкости, визуальный индикатор 11120 будет становиться длиннее до тех пор, пока он не охватит или почти охватит весь дисплей, как изображено на фиг. 111A-111C.
В конкретных вариантах осуществления GUI может отображать и пункт опорного или фонового содержания, и также указание доступного действия или функции, которое должно быть выполнено относительно опорного или фонового содержания. Фиг. 112 изображает иллюстративные схемы расположения в GUI опорного содержания и действий или функций контекстных графических накладок. Могут быть выбраны различные типы схем расположения (например, в том числе изображенные) на основании различных типов представленного опорного или фонового содержания, например, для минимизации заслонения опорного или фонового содержания. Например, если опорное или фоновое содержание является изображением человека, может быть выбрана графическая накладка, которая не заслоняет центр фотографии. В конкретных вариантах осуществления воспринимаемая яркость пикселей опорного или фонового содержания (например, за графической накладкой) может определяться попиксельно. В случаях, когда контраст между контекстной графической накладкой и опорным или фоновым содержанием (например, изображением) является слишком низким (например, на основании заданного порога), может использоваться размытое оттенение, которое преобразует лежащие ниже цвета в противоположном направлении. Иллюстративный алгоритм может включать в себя определение пикселей под графической накладкой, уменьшение их цветовой насыщенности, инвертирование визуальной яркости (например, так, что цвета остаются теми же самыми, но яркость выбирается так, чтобы создать контраст), размытие и создание составного объекта между лежащим ниже опорным или фоновым содержанием и графической накладкой. Фиг. 113A-113C изображают примеры 11310-11350 контекстных графических накладок, сочетаемых с фоновым или опорным содержанием (здесь это изображения, захваченные камерой устройства). Как изображено, контекстная графическая накладка может позволить пользователю выполнять действия или функции (например, удалять изображение 11130 или опубликовать изображение 11325, выполнять поиск кофе 11330, выполнять поиск ресторанов 11340 или выбирать местоположение «избранным» местоположением 11350), предоставлять подтверждение пользователю (например, что изображение было опубликовано 11320) или предоставлять любой другой тип информации пользователю. В конкретных вариантах осуществления могут использоваться контекстные графические накладки где угодно в пределах схемы расположения меню GUI, за исключением верхнего уровня иерархии модели взаимодействия и переходов.
В конкретных вариантах осуществления значки, отображаемые в GUI устройства, могут оптимизировать использование питания или аккумулятора устройством. Например, значок может включать в себя главным образом черный фон, при этом сам значок состоит из тонких белых штрихов. Это может обеспечить очень малое количество белого цвета на экране дисплея, позволяя уменьшить потребление энергии дисплея во время использования GUI. Значки, отображаемые в GUI, могут также включать в себя уведомления в режиме реального времени. Например, значок мобильного телефона может включать в себя уведомление с числом новых сообщений голосовой почты, значок электронной почты может включать в себя уведомление с числом новых электронных писем, значок чата может включать в себя уведомление с числом новых сообщений чата, а значок телефона может включать в себя уведомление с числом пропущенных вызовов. В конкретных вариантах осуществления GUI устройства отображает цвета помимо черно-белого только для генерируемого пользователем содержания (например, изображений, файлов, контактов, уведомлений или расписаний). Другая информация, в том числе пункты меню, могут отображаться только в черно-белом цвете.
В конкретных вариантах осуществления, при переходе GUI от одного элемента (например, признака, пункта содержания или значка) другому (например, при приеме ввода от пользователя), GUI может отображать визуальные эффекты перехода. Эти эффекты перехода могут зависеть, например, от типа ввода, принятого от пользователя устройства. Например, одиночное касание дисплея может запускать конкретные эффекты перехода, в то время как вращение внешнего кольца может запускать другой (потенциально перекрывающийся) набор эффектов перехода.
В конкретных вариантах осуществления сенсорный ввод пользователя на сенсорном слое может запускать эффекты перехода, включающие в себя центрально-ориентированное растяжение, направленное скольжение и увеличение или уменьшение. Фиг. 114A изображает центрально-ориентированное растяжение или увеличение режима или функции. Фиг. 114B изображает центрально-ориентированное сжатие или уменьшение режима или функции. Фиг. 115A изображает центрально-ориентированное увеличение значка. Фиг. 115B изображает центрально-ориентированное уменьшение значка. Фиг. 116A изображает пример центрально-ориентированного увеличения значка с помощью вращательного движения. Фиг. 116B изображает пример центрально-ориентированного уменьшения значка с помощью вращательного движения. Фиг. 117A изображает пример центрально-ориентированного разворачивания и растяжения вовне значка. Фиг. 117B изображает пример центрально-ориентированного сворачивания и сжатия внутрь значка. Фиг. 118A изображает пример текста, вертикально скользящего в дисплей, где текст показываться путем демаскировки. Фиг. 118B изображает пример текста, горизонтально скользящего слева направо на дисплее. Фиг. 118C изображает пример текста, горизонтально скользящего слева направо на дисплее в пределах получаемой с помощью маски области (например, контекстной графической накладки). Фиг. 119A изображает горизонтальный скользящий переход справа налево для содержания или значка. Фиг. 119B изображает горизонтальный скользящий переход справа налево с эффектами затуханиями; значок или содержание, выходящий из экрана, постепенно исчезает, как только он достигает границы экрана, а значок или содержание, заходящие на экран, постепенно появляются по мере того, как он пересекает границу экрана. Фиг. 119C изображает пример горизонтального скользящего перехода справа налево с эффектами увеличения; содержание или значок, выходящий из экрана, уменьшаются, а содержание или значок, заходящий на экран, увеличивается до полного размера.
В конкретных вариантах осуществления вращение пользователем внешнего кольца может вызвать визуальные эффекты перехода, в том числе увеличение, направленное скольжение, размывание, наложение маски, сворачивание страницы, вращательное движение и ускоренное движение. Фиг. 120A изображает пример перехода в ответ на вращение внешнего кольца с малым ускорением. В этом примере один шаг вращения может соответствовать одному пункту, так что один поворот (например, шаг вращения) против часовой стрелки вызывает вхождение следующего элемента (например, значка или пункта содержания) на экран слева направо, и увеличение элементов отсутствует. Фиг. 120B-120C вместе изображают пример перехода в ответ на вращение внешнего кольца с большим ускорением. В этом примере один поворот (например, шаг вращения) против часовой стрелки заставляет GUI быстро панорамировать через несколько элементов (которые могут уменьшаться в размере, заходить на экран слева, а уходить с экрана справа), пока пользователь не прекратить вращать кольцо. Когда пользователь прекращает вращать внешнее кольцо, элемент может увеличиться до нормального размера, и один значок или пункт содержания может заполнить дисплей. Фиг. 121A изображает пример перехода в GUI, в котором содержание увеличивается в ответ на вращение внешнего кольца. Фиг. 121B изображает пример перехода в GUI, в котором первый экран 1 «сворачивается» с анимацией, в результате чего пользователю отображается второй экран 2 (например, для следующего признака или пункта содержания).
В конкретных вариантах осуществления GUI устройства может включать в себя физическую модель, которая учитывает движение пользователя и создает визуальную обратную связь, отражающую движения пользователя. Например, если имеется активирующий ввод (например, в форме конкретного жеста) пользователем, движение пользователя может непрерывно отслеживаться с помощью ввода от одного или нескольких датчиков устройства. Визуальная обратная связь может отражать движение пользователя в пользовательском интерфейсе (UI), в то время как лежащее ниже содержание остается неизменным, так что жесты могут регистрироваться, и может использоваться параллакс для различения признаков или элементов управления UI и лежащего ниже содержания. В конкретных вариантах осуществления физическая модель может включать в себя обобщенную пружинную модель с демпфированием. В такой модели пункты могут быть расположены слоями. Более глубокий слой может иметь «более жесткую» пружину в физической модели, удерживающей пункты на месте. Это может вызвать небольшое перемещение нижних слоев пользовательского интерфейса, когда устройство движется, в то время как верхние слои могут перемещаться сильнее, создавая ощущение параллакса. Дополнительно, пружинная модель может включать в себя демпфирование, которое вызывает отставание движения, создавая более текучее, плавное движение. Фиг. 122 изображает пример использования физической модели в GUI. Пользователь носит устройство 100 на руке. Как только пользователь перемещает свою руку вниз, значок 12210, отображаемый на экране (например, лампочка), движется таким образом, чтобы отражать движение пользователя. Фоновое содержание (например, фоновое изображение) на экране, однако, не движется. Этот тип плавающего значка или пункта меню может, например, быть полезным, когда дисплей имеет размер, который не позволяет отображать много значков или пунктов меню одновременно из-за визуального переполнения. Дополнительно, этот тип плавающего поведения может также использоваться со средством уведомления для представления пользователю события.
В конкретных вариантах осуществления GUI устройства может включать в себя лицевые экраны как экраны или обои по умолчанию для устройства, и эти лицевые экраны могут быть частью иерархии модели взаимодействия и переходов (например, в верхнем слое иерархии или как домашний экран). Как описано в настоящем документе, эти лицевые экраны могут быть сменными приложениями или режимами, которые могут автоматически контекстуально реагировать на активность пользователя. Например, лицевые экраны могут изменяться в зависимости от окружения пользователя, потребностей, вкуса, местоположения, активности, данных датчиков, жестов или расписания. Доступность лицевого экрана (или переход в GUI от одного лицевого экрана к другому) может определяться на основании контекстной информации. Например, если у пользователя есть предстоящее событие, запланированное в его календаре, лицевой экран устройства может измениться на календарный лицевой экран, который отображает информацию о предстоящем событии пользователю. В качестве другого примера, если определено, что пользователь находится около своего дома (например, на основании данных GPS), лицевой экран устройства может смениться на лицевой экран, ассоциированный с приложением домашней автоматизации. В качестве еще одного примера, если определено (например, на основании различных биометрических датчиков, таких как датчик частоты сердечных сокращений или датчик активности, или на основании акселерометров), что пользователь энергично движется, лицевой экран устройства может смениться на фитнес-режим, показывающий измеренный пульс пользователя, сожженные калории, время, прошедшее с начала активности (например, бега), и время. Любые подходящие данные датчиков (например, от датчиков, в том числе биометрических датчиков, датчиков фокусировки или датчиков, которые могут определить положение кисти руки пользователя при управлении автомобилем) может использоваться для определения контекста и соответствующего лицевого экрана для отображения для пользователя. Предыдущее использование пользователем устройства (например, определенное время дня, когда пользователь использовал фитнес-приложение, например, в фитнес-классе) может также определять, какой лицевой экран отображается на устройстве. Например, устройство может предугадывать потребность пользователя в фитнес-режиме в определенное время дня, когда пользователь обычно выполняет физические упражнения. Контекстные лицевые экраны могут также быть ассоциированы с подавлением уведомлений (например, если определено, что пользователь за рулем или если устройство не надето) или с изменением того, как уведомления выражаются (например, визуально или акустически). В конкретных вариантах осуществления лицевые экраны устройства не обязаны ассоциироваться с каким-либо приложением на устройстве и могут быть обоями или фоном на дисплее устройства. Лицевые экраны могут быть предназначены для конкретных источников информации (например, канал данных от календаря, канал данных о здоровье или активности, уведомления, канал данных о погоде или новости). Например, уведомление или предупреждение о неблагоприятных метеоусловиях (принятое, например, из канала данных о погоде) могут вызвать отображение на дисплее наряду с уведомлением погодного лицевого экрана. Лицевые экраны могут отображать время (например, в аналоговом или цифровом формате) независимо от типа лицевого экрана. Лицевые экраны могут настраиваться пользователем. Настройки или вкусы пользователя могут вводиться пользователем явно (например, в управляющее программное обеспечение на устройстве или спаренном устройстве) или изучаться непосредственно устройством (например, с использованием датчика и данных об использовании для создания модели с течением времени). Фиг. 123 изображает иллюстративные лицевые экраны, в том числе аналоговые часы 12310, аналоговые часы 12320 с кругового схемой расположения меню, лицевой экран 12330 режима состояния здоровья и погодный лицевой экран 12340. Фиг. 124 изображает иллюстративный набор лицевых экранов 12410-12440 для устройства, в которых отображается информация календаря и информация о назначенных встречах.
В конкретных вариантах осуществления устройство можно носить на конечности пользователя (не заслоняя лицо пользователя и не требуя, чтобы пользователь держал устройство), и оно может включать в себя функциональность дополненной реальности (AR). Эта функциональность AR может быть основана на использовании движения тела для нацеливания камеры устройства, что может позволить производить нацеливание с более высокой точностью благодаря пользовательскому чувству проприоцепции. Этот тип системы может позволить пользователю устройства рассматривать объект в реальном мире в то же самое время, когда пользователь рассматривает версию объекта (например, захваченную камерой устройства) на дисплее. Пример этой возможности AR изображен на фиг. 16. Такая система AR может позволить возможность «видеть сквозь» с использованием совмещения направления камеры и датчика на противоположных сторонах конечности пользователя. Работа различных приложения AR может быть позволена с помощью этого типа расположения, описанного в настоящем документе. В конкретных вариантах осуществления приложения могут быть специально разработаны для устройства, чтобы позволять немедленное оппортунистическое использование. Дополнительно, на устройстве может быть обеспечена модель делегирования, позволяющая использовать внешние ресурсы для увеличения объема приложений, доступных для выполнения на устройстве, при этом неся меньшие (или вообще никаких) издержки с точки зрения требований к вычислительной мощности или использованию питания. В конкретных вариантах осуществления устройство может управлять или управляться другими устройствами (например, находящимися поблизости устройствами, обнаруженными через сеть и коммуникативно спаренными с устройством). Этот тип управления может достигаться с помощью пространственной близости, жестов или традиционных интерфейсов. Спаривание может достигаться с использованием множества технологий, в том числе камеры устройства, что обсуждается более подробно в настоящем документе.
Фиг. 125 изображает пример потока решений для автоматической активации камеры для устройства. В конкретных вариантах осуществления, включена ли камера, и включена ли автоматическая активация камеры (например, для распознавания объектов), может зависеть от приложения или режима, в котором в настоящий момент находится устройство. В конкретных вариантах осуществления автоматическая активация камеры может быть включена на устройстве 12510. Если эта опция включена (определяется на этапе 12520) и если имеется достаточно мощности CPU и доступного питания на устройстве (например, для вычисления интересующих признаков на изображении, определяется на этапе 12530), то камера устройства (например, обращенная вовне камера) может автоматически захватить, обработать или отобразить 12560 одно или несколько изображений, если пользователь устойчиво держит камеру в положении нацеливания в течение заранее определенного количества времени (например, как обнаружено инерциальным измерительным блоком на носимом устройстве или как вычислено по размытию изображения, определяется на этапе 12540). В других вариантах осуществления камера может быть активирована и выполнять поиск изображений всегда. Во других вариантах осуществления камера может захватывать изображение и выполнять распознавание признаков, только если пользователь вручную запускает захват изображения (например, нажатием или щелчком по внешнему кольцу, или постукиванием по дисплею, определяется на этапе 12550). В конкретных вариантах осуществления, когда камера активирована (любым подходящим образом), может включаться функциональность дополненной реальности (AR). Функциональность AR может включаться автоматически (в зависимости, например, от мощности CPU и доступного питания на устройстве). В других вариантах осуществления функциональность AR может включаться пользователем явно с помощью любого подходящего ввода пользователя. Пользователь может, например, обеспечить сенсорный ввод на дисплее для включения функциональности AR. Например, пользователь может захватить объект, такой как птица (например, нацеливая камеру устройства на птицу), и пользователь может коснуться изображения птицы, когда оно отображено на дисплее. Это действие может включить функции AR устройства, вызывая, например, распознавание устройством птицы как объекта и возвращение пользователю информации о птице. В других вариантах осуществления, как описано в настоящем документе, пользователь может выполнить один или несколько жестов для включения функциональности AR, а также выполнения задач с использованием функциональности AR (например, использование «виртуальной» клавиатуры путем выполнения печатающих жестов в поле зрения камеры устройства).
В конкретных вариантах осуществления, если у устройства нет возможностей вычислять интересующие признаки самостоятельно, устройство может захватить изображение, передать изображение коммуникативно связанному устройству (например, находящемуся поблизости устройству, такому как телефон или персональный компьютер) или интернет-службе, где интересующие признаки могут быть вычислены удаленно. После того, как интересующие признаки определены, может происходить обращение за дополнительной информацией о распознанном объекте к интернет-службе или локальному каталогу данных. Если информация найдена, соответствующие данные могут быть отображены пользователю на устройстве наряду с распознанным признаком.
Устройство в конкретных вариантах осуществления может иметь малый форм-фактор и быть ограничено с точки зрения доступной памяти, вычислительной мощности и питания. Модель делегирования может позволять устройству делегировать части одной или нескольких задач обработки (например, задач, относящихся к функциональности AR), например, находящимся поблизости устройствам (например, телефону или персональному компьютеру) или сетевым или интернет службам. Например, для имеющих возможность делегирования задач, приложение, запрашивающее задачу, предоставляет системе (например, ядру операционной системы устройства) характеристики или профиль задачи, в том числе чувствительность задачи к задержкам, требования к вычислительной мощности и размер сетевой нагрузки. Это может быть сделано для каждой имеющей возможность делегирования подзадачи всей имеющей возможность делегирования задачи. Так как задачи часто являются конвейерными, могут делегироваться непрерывные блоки конвейера задачи. Система, в конкретных вариантах осуществления, может провести измерения или создать модель одной или нескольких характеристик устройства. Характеристики устройства могут включать в себя статические свойства устройства, например, свойства аппаратных компонентов устройства, в том числе полный объем установленной памяти, максимальную скорость CPU, максимальную энергию аккумулятора или максимальную пропускную способность сетевого интерфейса. Характеристики устройства могут также включать в себя динамические свойства устройства, например, оперативные свойства устройства, в том числе доступную память, текущие мощности CPU, доступное питание, текущее состояние сетевого соединения, доступность сетевых служб, подсчет среднего поведения пользователя среди одного или нескольких пользователей или предсказанное или ожидаемое время обработки задачи (например, данный конкретный сценарий использования). В конкретных вариантах осуществления устройство может иметь модель, которая включает в себя предыдущие и текущие измерения характеристик устройства, чтобы помочь в определении будущего поведения устройства. На основании характеристик или профиля задачи и этих измерений или модели, а также на основании того, может ли задача быть исполнена на устройстве, система может делегировать (или не делегировать) одну или несколько частей задачи или конвейера задачи. Например, если доступная память на устройстве не может поддерживать обработку задачи (например, воспроизведение видео), одна или несколько частей задачи могут быть делегированы. В качестве другого примера, если мощность CPU устройства не может поддерживать обработку задачи (например, если CPU работает на полную мощность из-за его имеющейся нагрузки), одна или несколько частей задачи могут быть делегированы. В качестве другого примера, если уровень заряда аккумулятора устройства низок, и ожидается, что аккумулятор не обеспечит энергию для устройства в течение ожидаемого времени обработки задачи, одна или несколько частей задачи могут быть делегированы. В качестве другого примера, если сетевое соединение устройства является плохим или отсутствует, одна или несколько частей задачи могут не делегироваться (например, если у устройства также имеется достаточно доступной памяти, мощности CPU и питания). В качестве другого примера, если устройству доступны одна или несколько сетевых служб (например, облачные службы для обработки), и у устройства имеется подходящее сетевое соединение (например, хорошая доступная пропускная способность), одна или несколько частей задачи могут быть делегированы. В качестве другого примера, если пользователь устройства обычно (например, в прошлом) делегирует воспроизведение видео, одна или несколько частей задачи воспроизведения видео могут быть делегированы. В качестве другого примера, если прогнозируемое время обработки задачи (например, прогнозируемое на основании модели, включающей в себя предыдущие и текущие измерения характеристик устройства) превышает определенный порог (например, несколько минут), задача может быть делегирована. Любые подходящие характеристики устройства (например, статические или динамические свойства) в любой подходящей комбинации могут использоваться для определения, делегировать ли задачу. Кроме того, любые подходящие характеристики задачи устройства (например, в том числе профиль или характеристики задачи, в том числе чувствительность к задержкам, требования к вычислительной мощности или размер сетевой нагрузки) могут использоваться для определения, делегировать ли задачу, либо одну, либо в сочетании с характеристиками устройства. Дополнительно, может использоваться любая модель устройства (например, поведение устройства), либо одна, либо в сочетании с характеристиками устройства или задачи, для определения, делегировать ли задачу. В конкретных вариантах осуществления устройства, спаренные с устройством, могут также включать в себя модель делегирования, так что спаренное устройство (например, телефон) выполняет те же самые этапы, делегируя задачи на основании его собственных моделей питания, связи, требований к выполнению и выполнимости. Делегированная задача может обрабатываться или выполняться до завершения на спаренном устройстве (например, телефоне), а результаты обработки делегированной задачи могут возвращаться устройству. В конкретных вариантах осуществления устройство может работать в автономном режиме (например, без делегирования задач обработки), когда у этого отсутствует сетевое соединение, или когда отсутствуют спаренные устройства в пределах досягаемости устройства. Как только устройство восстанавливает соединение, или когда устройство спаривается с устройством, делегирование задач может возобновиться.
Иллюстративный алгоритм модели делегирования устройства изображен на фиг. 126. В этом примере имеющий возможность делегирования процесс задачи начинается на устройстве (12610). Система устройства выполняет анализ и прогнозирование использования питания (12620) (на основании, например, использования энергии пользователем в прошлом 12630 и ожидаемого времени до зарядки устройства 12640). На основании этого система определяет на этапе 12650, достаточно ли осталось заряда для требуемого времени работы имеющей возможность делегирования задачи. Если осталось достаточно заряда, система устройства может увеличить использование мощности 12660 и обработать имеющую возможность делегирования задачу на самом устройстве 12670. Если, однако, устройство не имеет достаточно заряда для требуемого времени работы, устройство может запросить спаренное устройство (например, телефон) 12680 определить состояние питания спаренного устройства (12690). Если, в примере с телефоном, на нем остается достаточно заряда для требуемого времени работы, задача может быть обработана на телефоне 12694. Если, однако, на телефоне не достаточно заряда, система может определить на этапе 12692, есть ли у устройства соединение с интернет-службой (например, облаком) или другой сетевой службой. Если нет, устройство может делегировать процесс телефону 12694. Если имеется соединение, устройство может делегировать процесс облаку 12696, где задача обрабатывается, а результаты позже возвращаются устройству. В конкретных вариантах осуществления имеющие возможность делегирования задачи могут делегироваться устройством разделенным образом одному или нескольким спаренным устройствам (например, мобильным телефонам или персональным компьютерам) или сетевым/интернет-службам. То есть имеющие возможность делегирования подзадачи имеющей возможность делегирования задачи или процесса могут делегироваться устройством в различные места.
Этим раскрытием предполагается, что модель делегирования для конкретного устройства (или для семейства или набора устройств) может быть динамической или контекстной. Например, модель делегирования может принимать во внимание доступную память, мощность CPU и доступное питание конкретного устройства (или семейства устройств), факторы, все из которых могут изменяться с течением времени. Модель делегирования может также принимать во внимание доступность сетевых или облачных служб (и возможности каждой), а также сетевого соединения (например, пропускную способность и задержку), которые может также изменяться с течением времени. Например, со ссылкой на фиг. 127, в соответствии с первой моделью 12710 делегирования (которая, например, может быть применимой для устройств, произведенных в следующем году), большинство обработки может быть равномерно разделено между устройством и спаренным устройством (например, смартфоном), и только небольшое число делегирований серверу облачной службы. В соответствии со второй моделью 12720 делегирования (которая, например, может быть применима для устройств, произведенных через трехлетний период времени) большая часть обработки может выполняться устройством локально (например, благодаря прогнозируемому усовершенствованию памяти, CPU и энергетической емкости в малом форм-факторе). В этой второй модели некоторая часть обработки может делегироваться серверу (например, больше, чем в первой модели делегирования, благодаря улучшенному сетевому соединению), и только небольшая часть делегирования может происходить локально спаренному устройству. В соответствии с третьей моделью 12730 делегирования (которая, например, может быть применима для устройств, произведенных через пятилетний период времени), все или почти все задачи обработки могут равномерно распределяться между устройством и сервером облачной службы, без какой-либо или почти без какой-либо обработки, делегируемой локально спаренному устройству. Может быть создано любое число моделей делегирования, поскольку факторы, принимаемые во внимание моделью делегирования, являются динамическими. Например, все или почти все задачи могут выполняться локально на устройстве в соответствии с одной моделью делегирования, и все или почти все задачи могут делегироваться устройством в другой модели делегирования.
Устройство может выбрать делегировать функциональность спаренному устройству с богатыми возможностями обработки (например, телефону, компьютеру, планшету, телевизору, абонентской установке, холодильнику, стиральной машине или сушилке) или Интернету на основании энергетических резервов или пропускной способности соединения с каждому из этих мест. Например, устройство с мощным процессором может совершать делегирование спаренному устройству, когда осталось мало энергии, или оно может выбрать делегирование интернет-службе, когда у спаренного устройства нет достаточных запасов энергии. Аналогично, система устройства может выбрать совершение обработки локально, если соединение с Интернетом показывает высокую задержку, чтобы уменьшить размер передачи данных.
В конкретных вариантах осуществления все приложение или часть приложения могут быть делегированы пользователем устройства спаренному устройству или наоборот. Это может происходить для каждого приложения. Когда приложение на целевом устройстве (например, телевизоре) должно быть делегировано устройству, целевое устройство может отправить запрос по спаренному соединению (возможно через промежуточное устройство, такое как смартфон или персональный компьютер) для загрузки приложения на устройстве. Устройство может затем действовать как клиент по отношению серверу, выполняющемуся на спаренном устройстве (например, телевизоре). Аналогично, приложение, выполняющееся на устройстве, может быть делегировано спаренному устройству (например, видео, воспроизводимое на устройстве, может быть делегировано для воспроизведения на спаренном телевизоре). Например, если на устройстве выполняется первое приложение, и пользователь устройства хочет взаимодействовать со вторым приложением, устройство может автоматически делегировать задачу первого приложения для обработки другим устройством (например, спаренным телевизором).
Фиг. 128 изображает пример потока решений в устройстве, работающем в соответствии с моделью делегирования. В этом примере приложение захвата изображения выполняется на устройстве. Сцена захватывается на устройстве 12810, и устройство определяет 12820, имеет ли оно достаточную мощность CPU для вычисления признаков изображения. Если устройство имеет достаточную мощность CPU, оно вычисляет интересующие признаки в сцене локально 12830. Если устройство не имеет достаточной мощности CPU, оно может сначала определить 12840, спарено ли оно коммуникативно с другим устройством с большими возможностями обработки (например, мобильным телефоном или персональным компьютером). Если оно спарено с таким устройством, устройство может отправить данные спаренному устройству, таким образом, спаренное устройство может вычислить интересующие признаки в изображении 12850. Если устройство не спарено с таким устройством, оно может определить, соединено ли оно с интернет- (например, облачной) службой 12860. Если нет, устройство не выполняет каких-либо дальнейших действий. Если да, устройство может отправить данные в «облачную» службу, таким образом, служба может вычислить интересующие признаки в сцене 12870. Интересующие признаки могут быть вычислены (где бы они ни были вычислены) с использованием любого подходящего алгоритма, в том числе, например, SURF. В этом примере интересующие признаки могут сравниваться с локальным каталогом или интернет-службой для определения, найдены ли какие-либо совпадения (и если это так, интересующей соответствующей информации) 12880. Если совпадение найдено 12890, результат может быть представлен пользователю на устройстве 12895. Если никакое совпадение не найдено, никаких дальнейших действий не предпринимается.
В конкретных вариантах осуществления камера или другой оптический датчик устройства могут использоваться для распознавания любых жестов, выполняемых пользователем (например, в пространстве между камерой и целью в реальном мире). Эти жесты могут, например, использоваться для воздействия на представленные данные (например, цель в реальном мире, такой как знак, включающий в себя текст) или могут использоваться для указания на конкретные пункты, над которыми могут быть выполнены функции дополненной реальности. Например, пользователь может указать на слово на знаке, заставляя устройство его перевести и отобразить перевод пользователю. Фиг. 17 изображает два примера изображений, захваченных камерой устройства. В одном примере и грузовик 1725, и кисть 1720 руки пользователя устройства находятся в пределах угла обзора камеры 1705 устройства и отображаются устройством (показано в 1710). Таким образом, жесты, выполняемые пользователем с грузовиком, могут быть распознаны устройством и обработаны устройством для обеспечения, например, функциональности AR. Во втором примере только грузовик находится в пределах угла обзора камеры (показано в 1715), и, таким образом, жесты, выполняемые пользователем, не захватываются или распознаются устройством. Распознавание жестов может также быть делегировано устройством.
В конкретных вариантах осуществления объекты или изображения могут быть распознаны устройством, когда они находятся в пределах кадра обзора камеры устройства. Как описано в настоящем документе, может быть несколько путей распознавания объекта устройством. В качестве одного примера, жест, выполняемый пользователем (например, указывающий жест, указывающий на конкретный объект), может включить функциональность AR на устройстве и вызвать распознавание объекта устройством. В качестве другого примера, может происходить автоматическое распознавание объектов, когда, например, пользователь наставляет камеру на определенный промежуток времени на конкретный объект (например, раздел текста). В качестве третьего примера, распознавание объектов или функциональность AR могут быть включены пользователем явно, когда, например, пользователь производит постукивание или касается дисплея (или, например, щелкает по внешнему кольцу), когда камера устройства захватила интересующий предмет. Глобальное распознавание объектов может, в некоторых случаях, требовать большого объема вычислений и быть подвержено ошибкам. Таким образом, в конкретных вариантах осуществления может быть применен ограничивающий набор (например, страницы журнала или каталога или каталог конкретного типа объектов, например, листьев растений или обложек книг) для улучшения точности. Существует много вариантов для вычисления векторов признаков по изображениям, из которых может выбрать разработчик системы для устройства. В некоторых случаях преобразование векторов признаков между разными подходами может требовать большого объема вычислений, так что выбор базы данных возможных совпадений дублируется на устройстве. Вычисление векторов признаков может быть делегировано, как описано в настоящем документе.
В конкретных вариантах осуществления устройством могут распознаваться штрих-коды различных типов. Эти штрих-коды могут использоваться для запрашивания у интернет-служб дополнительных данных, а также опций для покупки, просмотра или добавления в закладки изделия со штрих-кодом для будущего анализа. Хотя двумерные штрих-коды могут, как правило, быть считаны непосредственно, система устройства может предлагать в дополнение режим макро-фокусировки для особенно небольших или одномерных штрих-кодов, чтобы улучшить скорость распознавания. Если система не имеет возможности декодирования штрих-кодов, она может просто фокусировать камеру, делать снимок и делегировать распознавание удаленной службе, как описано в настоящем документе. Фиг. 129A-129D изображают пример режима распознавания штрих-кодов. Устройство может быть направлено на изделие (129A), распознать изделие (129B), отобразить дополнительную информацию, полученную из Интернета об изделии (129C), и предоставить пользователю интерфейс для покупки изделия (129D).
В конкретных вариантах осуществления устройство может выполнять перевод. Функциональность перевода может быть разделена на две части: оптическое распознавание символов (OCR) и перевод распознанных символов, слов или фраз. OCR может быть завершен на устройстве или делегирован (например, спаренному устройству обработки) для уменьшения объема данных, который должно перевести устройство. Простой перевод слов может выполняться на устройстве или делегироваться (например, спаренному устройству обработки). Как и с другой функциональностью, описанной в настоящем документе, часть или все распознавание или процесс перевода при необходимости могут быть делегированы. Пользователь может опционально использовать жест для указания слова, которое должно быть переведено, как показано на фиг. 130 (например, слово «Warning»). Так как отдельные слова могут быть ограничены пробелами, система может сегментировать слово перед совершением попытки преобразования. Дополнительно, если устройство может выполнять OCR с низкой задержкой, оно может показывать текст пользователю, так что пользователь знает, когда устройство нацеливается и правильно распознает правильный текст. Если включено автоматическое OCR, то устройство может автоматически идентифицировать изображения в угле обзора обращенной вовне камеры и показывать на дисплее устройства информацию об идентифицированных изображениях. Если включен автоматический перевод, то устройство может автоматически переводить текст в угле обзора обращенной вовне камеры и показывать переведенный текст на дисплее устройства.
Фиг. 131A-131D изображают примеры устройства, работающего в различных режимах дополненной реальности, описанных в настоящем документе, в том числе режиме (131A) распознавания штрих-кодов, режиме (131B) распознавания изображений, режиме (131C) OCR и перевода и режиме (131D) распознавания объектов.
Фиг. 132 изображает пример общей последовательности действий для системы дополненной реальности для устройства. Хотя этот пример иллюстрирует приложение захвата изображения, любая подходящая задача или процесс на устройстве могут следовать аналогичной последовательности действий. Дополнительно, любая задача после того, как устройство захватывает изображение, и до того, как устройство отобразит результаты для пользователя, могут (при необходимости) иметь возможность делегирования устройством. В этом примере изображение от камеры устройства захватывается (в секции 13210 захвата изображения), предварительно обрабатывается (в секции 13220), извлекаются и распознаются признаки для создания результатов распознавания изображения (в секции 13230), и могут быть распознаны любые объекты (в секции 13240). Данные об объекте могут форматироваться для действия со стороны пользователя устройства. Пользователь может активировать режим дополненной реальности устройства 13211 (например, с помощью жеста пользователя или направления камеры устройства на объект в течение заранее определенного промежутка времени), и изображение в поле обзора камеры 13212 может быть захвачено (например, на основании запускающего события, такого как ввод пользователя или автоматическая активация камеры) камерой устройства 13213 для создания изображения 13214 камеры. В этот момент может начаться стадия 13220 предобработки. Предобработка 13220 может, например, включать в себя улучшение контрастности, полутоновое преобразование, увеличение резкости или проведение понижающей дискретизации. В конкретных вариантах осуществления камера может работать в режиме общей дополненной реальности, в котором что-либо перед камерой может быть обработано и распознано. В других вариантах осуществления камера может работать в конкретных режимах (например, OCR, штрих-кодов или визуального маркера) и распознавать только конкретные объекты, когда оно в таком режиме. В конкретных вариантах осуществления, если определено, что изображение может включать в себя известные формы, символы или объединения форм или символов (например, если камера или устройство находятся в режиме OCR, режиме штрих-кода или режиме визуального маркера), обработка изображений AR может продолжиться по первом пути. Этот первый путь начинается с предварительной обработки 13221, переходит к сегментации 13231 (которая может, например, определять границы символов или группы символов, такие как буквы или слова), и начинает оптическое распознавание 13234 одного или нескольких символов (например, если определено, что изображение может содержать символы, определение, что это за символы), распознавание 13235 штрих-кода (например, если определено, что изображение может содержать штрих-код, распознавание штрих-кода) или распознавание 13236 визуального маркера (например, распознавание других типов визуальных маркеров) (например, для всех других типов визуальных маркеров). Результаты этого первого пути отправляются распознавателю 13242 объектов. В конкретных вариантах осуществления, если определено, что изображение может включать в себя признаки, которые не обязательно известны, обработка изображений AR может продолжиться по втором пути. Второй путь начинается с выделения 13222 признаков 13222 (например, в котором обнаруживает наличие краев или линий, изменений в углах линий, краев, интересующих точек или шаблонов в захваченном изображении). Второй путь переходит к распознаванию 13232 изображений, в котором признаки изображения сравниваются с данными о признаках из базы данных 13233 распознавания (которая может, например, располагаться на устройстве, на локально спаренном устройстве или на удаленном сервере или компьютере). Результаты сравнения распознавания изображений обеспечиваются 13237 и отправляются распознавателю 13242 объектов. В секции 13240 распознавания объектов первый и второй пути сходятся в распознавателе 13242 объектов. Здесь результаты от базы данных 13241 объектов используются для распознавания объектов (например, что телефон, распознанный с использованием базы данных 13233 распознавания изображений, является конкретным брендом и моделью телефона). Могут быть обеспечены данные 13243 об объекте, распознанном распознавателем 13242 (например, цена распознанной модели телефона, или где телефон может быть доступен для покупки). Для текста для пользователя могут отображаться определения и переводы. Для штрих-кодов для пользователя могут отображаться информация о продукте и ссылки для покупки распознанного объекта. В конкретных вариантах осуществления данные могут быть исключительно описательными (например, цена телефона) или могут быть активными (например, ссылка, где пользователь может купить телефон). Если данные включают в себя данные 13244 действий, то контроллер 13250 действий (который управляет, форматирует и выводит GUI для пользователя устройства) может показать UI пользователю 13255, включающий в себя активные данные (например, ссылку для покупки телефона). Если пользователь выбирает действие 13260 (например, щелчком по ссылке), то контроллер действий показывает UI действия пользователю 13265 (например, открытие ссылки), и если действие подтверждено 13270, то выполняется 13275 действие (например, фактическое открытие веб-страницы, ассоциированной со ссылкой).
Фиг. 133 изображает пример сетевой среды. Как описано в настоящем документе, в конкретных вариантах осуществления устройство 13310 может быть спарено с другими устройствами (например, находящимися поблизости устройствами). Устройство может соединяться непосредственно с персональной сетью 13320 (которая может иметь мост через другие устройства в той же самой сети к локальной сети), или устройство может соединяться с локальной сетью 13330 непосредственно. Персональная сеть может включать в себя, например, не WI-FI радиотехнологию, такую как BLUETOOTH, NFC или ZIGBEE. Персональная сеть может, например, включать в себя умный медиашлюз 13322 (например, медиасервер), умное телевидение 13324, другой поставщик 13326 обработки или телефон 13328. Телефон 13328 может позволять устройству соединяться с сотовой сетью 13340, а оттуда с Интернетом 13350. Локальная сеть 13330 может включать в себя, например, WI-FI с или без аутентификации. Локальная сеть может, например, включать в себя локальный маршрутизатор 13332 беспроводной сети, умные устройства 13334 хранения данных, умные приборы 13336 и технологию 13338 домашней автоматизации. Локальная сеть может, в свою очередь, соединяться с глобальным Интернетом 13350 через, например, локальный маршрутизатор 13332, который соединяется с Интернет-службой (например, проприетарной «облачной» службой 13352 или другими партнерами 13354 по «облачной» службе). К некоторым устройствам доступ может быть получен устройством с помощью прямого доступа (например, через персональную сеть или через локальную сеть). Те устройства, к которым может быть получен доступ устройством, могут быть спарены с устройством и могут управляться устройством или управлять устройством. Устройство может соединяться с персональной сетью или локальной сетью с использованием, например, любой подходящей RF технологии. Как показано на фиг. 133, спаривание с целевым устройством на периферии может сначала происходить по RF сети. Это позволяет устройству знать, что «находится поблизости». Это может происходить по персональной сети (например, децентрализованной (ad-hoc) или одноранговой (peer-to-peer) сети), или может использоваться промежуточная сеть, такая как беспроводная 802.11 сеть (например, локальная сеть). После того, как окружение установлено, устройство может запросить, чтобы соседние устройства вошли в режим спаривания. Это может быть сделано или непосредственно, или через спаренное устройство обработки с большим спектром опций связи, такое как мобильный телефон. После того, как целевые устройства вошли в режим спаривания, они могут показать свои сигналы спаривания. Например, устройства с дисплеями могут показать визуальную метку на своем дисплее, в то время как другие могут включить метку NFC, позволяющую сканеру идентифицировать их. Также могут использоваться другие подходы, такие как выбор от списка или с помощью пин-кода. После того, как устройство однозначно идентифицировано как цель для спаривания, устройство может обменяться маркером безопасности с целевым устройством, чтобы завершить спаривание.
Фиг. 134 изображает пример различных типов технологии спаривания, которая может использоваться для спаривания целевого устройства с устройством. Целевое устройство, которое может быть умным устройством, таким как телефон, может включать в себя пассивные метки 13402 NFC или активные передатчики 13404 NFC (которые могут распознаваться считывателем 13420 меток NFC и декодером 13428 NFC устройства), декодер 13406 NFC (который может распознавать метки NFC, записанные блоком 13422 записи меток NFC устройства), пассивные визуальные метки 13408 (например, наклейки), штрих-коды 13410 или другую информацию 13412 на дисплее (которая может быть распознана камерой 13424 устройства), или другую систему 13416 спаривания. Генератор 13414 активных меток целевого устройства может создавать информацию 13412 на дисплее или предоставлять информацию другой системе 13416 спаривания целевого устройства (которая распознается зеркальной системой 13426 спаривания с помощью декодера 13438 кода спаривания устройства). Устройство может записать данные на метки NFC (например, с помощью блока 13422 записи меток NFC) для передачи этих данных другим целевым устройствам, которые могут быть спарены с устройством. Метки, записанные устройством, могут быть распознаны декодерами 13406 меток NFC на целевом устройстве. Устройство может включать в себя любой из множества декодеров, в том числе декодер 13430 штрих-кодов, декодер 13432 визуальных меток, распознаватель 13434 изображений или другой основанный на анализе изображений декодер 13436 (например, декодер для кодов QR, логотипов или шаблонов мигания LED), все из которых принимают входные данные от камеры 13424 устройства. После того, как устройство принимает и распознает информацию спаривания, оно может декодировать (например, с помощью множества декодеров) релевантную информацию для продолжения спаривания с целевым устройством. В конкретных вариантах осуществления спаривание может быть достигнуто с использованием движения, чувствительное к движению целевое устройство (например, мобильный телефон или пульт дистанционного управления) может быть спарено с устройством путем удержания и перемещения целевого устройства в той же самой кисти руки, что и устройство (например, если оба устройства включают в себя акселерометры, похожий шаблон движения может быть обнаружен и использоваться для спаривания устройств). В качестве другого примера, неподвижное целевое устройство может быть спарено с устройством, например, путем постукивания по неподвижному целевому устройству со случайным шаблоном, при этом удерживая неподвижное целевое устройство в той же самой кисти руки, что и устройство (например, если оба устройства включают в себя обнаружение касаний, похожий шаблон постукивания может быть обнаружен и использоваться для спаривания устройств). Дополнительно, спаривание может быть выполнено с использованием звука. Если и устройство, и целевое устройство имеют возможности приема звука, пользователь может сделать звук (например, сказать фразу), который обнаруживают оба устройства, а затем настраивают спаривание. Любая подходящая технология (в том числе, например, функции дополненной реальности) устройства может использоваться для спаривания и управление локальными устройствами. И устройство, и целевое устройство могут соединяться с другими возможными промежуточными сетевыми устройствами 13440, а также с локальной сетью 13450.
Фиг. 135 изображает иллюстративный процесс для спаривания целевого устройства (например, с использованием любого из способов, описанных в настоящем документе) с устройством. После того, как режим спаривания включен 13510, устройство определяет, содержит ли RF сеть целевые устройства, имеющие возможность спаривания, 13512. Если нет, то никакие дальнейшие действия не предпринимаются (например, устройство может продолжать периодическое сканирование). Если да, устройство может запросить, чтобы устройства, имеющие возможность спаривания, вошли в режим спаривания 13514. Устройство может затем перейти (в любом порядке или параллельным образом) к сканированию, с помощью различных имеющихся технологий, доступных целевых устройств. Это может включать в себя сканирование меток NFC 13516, сканирование визуальных меток в угле обзора камеры 13518, сканирование штрих-кодов в угле обзора камеры 13520 или любой другой способ 13522. Если целевое устройство обнаружено с помощью одного из этих способов, целевое устройство спаривается с этим устройством 13524. После того, как спаривание произошло, устройство может показать пользователю пункты меню для управления спаренным устройством(ами). Устройство может позволять и визуальное, и основанное на движении управление жестами спаренных устройств. Например, пользователь может произвести жест (например, помахать кистью руки) для изменения каналов на спаренном телевизоре или может сделать жест сведения пальцев, чтобы передать медиаданные видео с устройства на спаренный дисплей (с использованием, например, функциональности AR). Управление устройством по RF сети может быть и локальным, и защищаемым. Фиг. 136 изображает иллюстративные элементы управления, включенные на устройстве для спаренного и управляемого телевизора, в том числе активный значок 13610 ВКЛ/ВЫКЛ, избранные каналы 13620, дисплей 13630 текущего канала и громкость 13640. Как описано в настоящем документе, может использоваться любой подходящий ввод от пользователя для управления функциональностью спаренного устройства. Например, ввод жеста, ввод щелчка или нажатия, или сенсорный ввод может использоваться, например, для изменения каналов, регулировки громкости или управления другими функциями спаренного телевизора.
В конкретных вариантах осуществления спаривание и модель управления для устройства могут включать в себя следующие характеристики. Устройство может функционировать как ведущий узел для приложения, которое взаимодействует или управляет одной или несколькими функциями удаленного устройства (например, управляемое с помощью мобильного приложения устройство (для краткости приложение-аксессуар (appcessory)), такое как управляемый термостат). Смартфон (или другое локально спаренное устройство), который, возможно, ранее был ведущим узлом для приложения, теперь может функционировать просто как локальное целевое устройство, которому устройство может делегировать некоторые функции, относящиеся к взаимодействию или управлению удаленным устройством (например, беспроводная связь большего радиуса действия с удаленным устройством, отправка команд удаленному устройству, прием данных от удаленного устройства или задачи обработки). Управление удаленным приложением-аксессуаром может выполняться устройством с использованием любого подходящего средства, в том числе, например, визуального средства (например, с использованием камеры) или основанных на движении жестов. В других вариантах осуществления локально спаренный смартфон может продолжать функционировать как ведущий узел для приложения, которое взаимодействует с удаленным приложением-аксессуаром, но устройство может предоставлять часть или весь пользовательский интерфейс для ввода и вывода данных в и из приложения (например, «облегченная» версия приложения, размещенного на смартфоне). Например, пользователь может управлять приложением с использованием устройства, но смартфон может все еще функционировать как ведущий узел приложения.
В конкретных вариантах осуществления устройство может использоваться с одной или несколькими службами. Эти службы могут попадать в категории, в том числе безопасность, энергия, домашняя автоматизация и управление, обмен содержанием, медицина, спорт и развлечения, торговля, транспорт и социальные приложения.
Иллюстративные приложения безопасности включают в себя следующее. Устройство может аутентифицировать пользователя (который носит разблокированное устройство) на другом устройстве вблизи пользователя (например, спаренное с устройством). Устройство может быть разблокировано с помощью кода, введенного пользователем с использованием любого подходящего ввода, в том числе, например, поворота внешнего кольца устройства. Например, пока пользователь вращает (или нажимает, или щелкает) внешнее кольцо, дисплей может показывать алфавитно-цифровые или символьные данные, соответствующие вращению (или нажатию, или щелчку) пользователем. Если, например, пользователь поворачивает внешнее кольцо на один шаг вращения в направлении по часовой стрелке (или, например, щелкает или нажимает на внешнее кольцо один раз), дисплей может показать пользователю «1», а если пользователь поворачивает внешнее кольцо на два шага вращения (например, в течение определенного периода времени, например, миллисекунды) в направлении по часовой стрелке (или, например, щелкает или нажимает на внешнее кольцо два раза), дисплей может показать пользователю «2». В конкретных вариантах осуществления отображение алфавитно-цифровых или символьных данных, соответствующих вращению (или нажатию, или щелчку) пользователем, может позволить пользователю разблокировать устройство, используя метафору кодового замка. Устройство также может быть разблокировано с использованием биометрических данных (например, по отличительным особенностям кожи или костей пользователя).
В иллюстративном энергетическом приложении устройство может автоматически отображать информацию о потреблении энергии комнаты или другого местоположения, в котором находится пользователь. Устройство также может отображать информацию о потреблении энергии другими спаренными устройствами и обновлять всю эту информацию динамически, по мере того, как пользователь изменяет местоположение.
В иллюстративном приложении домашнего управления пользователь может выбрать и непосредственно управлять спаренным устройством домашнего управления с использованием, например, вращения внешнего кольца или ввода жестов.
Пользователь может использовать жесты для управления обменом или передачей содержания в или из устройства (например, передачей видео, воспроизводимого на устройстве, спаренному телевизору, как описано в настоящем документе). Дополнительно, на устройстве может предоставляться вспомогательная информация (например, субтитры фильма) для содержания, показываемого на другом, более крупном устройстве (например, телевизионном экран, воспроизводящем фильм).
Устройство может автоматически определять медицинский контекст (например, пользователь выполняет физические упражнения или спит). Когда оно определяет этот контекст, устройство может открыть приложения, соответствующие медицинскому контексту (например, для записи частоты сердечных сокращений во время физических упражнений, движения во время физических упражнений, продолжительности физических упражнений, пульсоксиметрии во время физических упражнений, типа сна, продолжительности сна или кожно-гальванической реакции). Устройство может, например, измерять связанные со здоровьем пользователя данные (например, частоту сердечных сокращений, движение или пульсоксиметрию) и отправлять некоторых или все эти данные спаренному устройству или серверу. Хотя это проиллюстрировано в медицинском контексте, определение соответствующего контекста (например, на основании поведения пользователя), открытие соответствующих приложений, запись данных или передача этих данных может использоваться в любом подходящем контексте.
Устройство может оказывать помощь в связанных со спортом приложениях, например, автоматически оценивая свинг пользователя в гольфе и предлагая коррекции.
В коммерческих ситуациях устройство может автоматически идентифицировать продукт (например, с использованием RFID, NFC, распознавания штрих-кодов или распознавания объектов), когда пользователь поднимает продукт, и может предоставить информацию о продукте (например, информацию о питательной ценности, информацию из первоисточника или отзывы) или опцию для покупки продукта. Оплата за продукт может, например, выполняться с использованием визуальной технологии штрих-кода на устройстве. В конкретных вариантах осуществления устройство может использоваться для оплаты за продукт с использованием NFC, RFID или любой другого подходящего вида связи малого радиуса действия. Во время оплаты информация пользователя может, например, аутентифицироваться устройством, которое может обнаруживать биометрическую информацию пользователя (например, структуру костей или отличительные особенности кожи). Устройство может также автоматически обеспечивать указание пользователю (например, вибрацию), когда пользователь находится около продукта в его списке покупок (например, сохраненном в устройстве) или другом списке (например, списке пожеланий друга пользователя).
Устройство может функционировать как ключ для разблокирования или включения одного или нескольких транспортных средств. Пользователь может, например, ввести код, используя внешнее кольцо, чтобы разблокировать или включить транспортное средство (например, используя технологию NFC), как было описано выше. В конкретных вариантах осуществления и биометрическая информация пользователя, и код, введенный пользователем, могут требоваться для разблокирования автомобиля, обеспечивая повышенную безопасность для автомобильных приложений. Дополнительно, устройство может включать в себя профили для одного или нескольких пользователей, при этом каждый профиль содержит настройки транспортного средства (например, температуру или положение сиденья). В качестве другого примера, биометрическая информация конкретного пользователя может использоваться не только для разблокирования устройства, но также и для определения, профиль какого пользователя загружать во время эксплуатации автомобиля. Пространственная близость устройства к транспортному средству может автоматически вызвать реализацию транспортным средством настроек транспортного средства профиля пользователя. Устройство может также использоваться для GPS навигации (или непосредственно на устройстве, или, например, когда оно спарено и управляет телефоном).
Устройство может получить доступ и работать совместно со службой, которая обеспечивает поддержку для игр смешанной реальности или в массово-многопользовательских основанных на реальности игр. Эта функциональность может, например, включать в себя регистрацию, управление пользовательскими данными (например, профилями пользователей и связанными с игрой данными, такими как завершенные уровни или перечень ресурсов) и управление списками достижений. Функциональность устройства и службы может также включать в себя управление связью (например, функциональность концентратора), которое управляет малостойкими каналами беспроводной связи и обеспечивает унифицированный API для сторонних игровых серверов.
Устройство может получить доступ и работать совместно со службой, которая позволяет пользователю устройства публиковать местоположения, регистрации или другие основанные на местоположении данные, которые позволяют различным службам получать доступ к достоверному накопителю самой актуальной информации относительно местоположения и статуса пользователя. Например, пользователь устройства может найти друзей, использующих аналогичные устройства. Служба и устройство вместе могут управлять обновлением статусов, профилями, правами доступа приложений, черными списками или правами доступа пользователь-пользователь. Служба может быть надежной и централизованной контактной точкой для частных данных. Комбинируя доступ к унифицированной службе местоположения, в конкретных вариантах осуществления может быть сохранена энергия и срок действия батареи. В конкретных вариантах осуществления некоторые маркеры функциональности могут быть сделаны доступными на основании местоположения пользователя. Приложение, например, может проверить устройство, чтобы увидеть, доступен ли этот маркер, и действовать соответственно. На серверной стороне API могут позволять разработчикам видеть использование маркеров или позволять их погашение. В конкретных вариантах осуществления информация может раздаваться устройством другим пользователям (например, одному другому пользователю или в широковещательном режиме многим пользователям).
Устройство может получить доступ и работать совместно со службой, которая обеспечивает унифицированный интерфейс опроса, который позволяет устройствам принимать и отправлять опросы. Устройство и служба вместе могут управлять списками рассылки, критериями подсчета и опрашивать рамки доступности (например, и временные, и географические). Эта служба может быть открытой на устройстве и на сервере, так что третьи стороны могут использовать API для записи заявок и приема результатов обратно через онлайновые API.
В конкретных вариантах осуществления устройство может получить доступ и работать совместно со службой, которая обеспечивает оптимизацию для представления текста, изображений или другой информации на круглом дисплее устройства. Например, веб-сайт может быть отрисован или отформатирован для отображения на компьютерном мониторе, но служба может настроить отрисовку и форматирование для меньшего, круглого дисплея, путем подчеркивания изображений и усечения текста. Настроенная отрисовка и форматирование могут, например, быть задачей, имеющей возможность делегирования между устройством и одним или несколькими серверами или локально спаренными устройствами. Эта служба может также включать в себя новостные или рекламные службы.
Фиг. 137 изображает иллюстративную компьютерную систему 13700. В конкретных вариантах осуществления одна или несколько компьютерных систем 13700 выполняют один или несколько этапов одного или нескольких способов, описанных или изображенных в настоящем документе. В конкретных вариантах осуществления одна или несколько компьютерных систем 13700 обеспечивают функциональность, описанную или изображенную в настоящем документе. В конкретных вариантах осуществления программное обеспечение, исполняемое на одной или нескольких компьютерных системах 13700, выполняет один или несколько этапов одного или нескольких способов, описанных или проиллюстрированных в настоящем документе, или обеспечивает функциональность, описанную или изображенных в настоящем документе. Конкретные варианты осуществления включают в себя одну или несколько частей одной или нескольких компьютерных систем 13700. В настоящем документе при необходимости ссылка на компьютерную систему может охватывать вычислительное устройство и наоборот. Кроме того, при необходимости ссылка на компьютерную систему может охватывать одну или несколько компьютерных систем.
Это раскрытие предполагает любое подходящее число компьютерных систем 13700. Это раскрытие предполагает компьютерную систему 13700, принимающую любую подходящую физическую форму. В качестве примера, а не ограничения, компьютерная система 13700 может быть встроенной компьютерной системой, системой на микросхеме (SOC), одноплатной компьютерной системой (SBC) (такой как, например, компьютер на модуле (COM) или система на модуле (SOM)), настольной компьютерной системой, портативным компьютером, интерактивным киоском, центральным компьютером, ячеистой сетью компьютерных систем, мобильным телефоном, карманным персональным компьютером (PDA), сервером, планшетной компьютерной системой или комбинацией двух или более из них. При необходимости компьютерная система 13700 может включать в себя одну или несколько компьютерных систем 13700; быть единой или распределенной; охватывать несколько местоположений; охватывать несколько машин; охватывать несколько центров обработки данных; или находиться в облаке, которое может включать в себя один или несколько компонентов облака в одной или нескольких сетях. При необходимости одна или несколько компьютерных систем 13700 могут выполнять без существенного пространственного или временного ограничения один или несколько этапов одного или нескольких способов, описанных или изображенных в настоящем документе. В качестве примера, а не ограничения, одна или несколько компьютерных систем 13700 могут выполнять в режиме реального времени или в пакетном режиме один или несколько этапов одного или нескольких способов, описанных или изображенных в настоящем документе. При необходимости одна или несколько компьютерных систем 13700 могут выполнять в разное время или в различных местоположениях один или несколько этапов одного или нескольких способов, описанных или изображенных в настоящем документе.
В конкретных вариантах осуществления компьютерная система 13700 включает в себя процессор 13702, память 13704, накопитель 13706, интерфейс 13708 ввода-вывода (I/O), интерфейс 13710 связи и шину 13712. Хотя это раскрытие описывает и изображает конкретную компьютерную систему, имеющую конкретное число конкретных компонентов с конкретным расположением, это раскрытие предполагает любую подходящую компьютерную систему, имеющую любое подходящее число любых подходящих компонентов с любым подходящим расположением.
В конкретных вариантах осуществления процессор 13702 включает в себя аппаратные средства для исполнения инструкций, таких как те, которые составляют компьютерную программу. В качестве примера, а не ограничения, чтобы исполнить инструкции, процессор 13702 может извлечь (или вызвать) инструкции из внутреннего регистра, внутреннего кэша, памяти 13704 или накопителя 13706; декодировать и исполнить их; а затем записать один или несколько результатов во внутренний регистр, внутренний кэш, память 13704 или накопитель 13706. В конкретных вариантах осуществления процессор 13702 может включать в себя один или несколько внутренних кэшей для данных, инструкций или адресов. Это раскрытие предполагает процессор 13702, при необходимости включающий в себя любое подходящее число любых подходящих внутренних кэшей. В качестве примера, а не ограничения, процессор 13702 может включать в себя один или несколько кэшей команд, один или несколько кэшей данных и один или несколько буферов быстрого преобразования адреса (TLB). Инструкции в кэшах команд могут быть копиями инструкций в памяти 13704 или накопителе 13706, и кэши команд могут ускорять извлечение этих инструкций процессором 13702. Данные в кэшах данных могут быть копиями данных в памяти 13704 или накопителе 13706, с которыми оперируют инструкции, исполняющиеся в процессоре 13702; результатами предыдущих инструкций, исполненных в процессоре 13702, для доступа последующими инструкциями, исполняемыми в процессоре 13702, или для записи в память 13704 или накопитель 13706; или другие подходящие данные. Кэши данных могут ускорять операции чтения или записи процессором 13702. TLB могут ускорять преобразование виртуальных адресов для процессора 13702. В конкретных вариантах осуществления процессор 13702 может включать в себя один или несколько внутренних регистров для данных, инструкций или адресов. Это раскрытие предполагает процессор 13702, при необходимости включающий в себя любое подходящее число любых подходящих внутренних регистров. При необходимости, процессор 13702 может включать в себя одно или несколько арифметико-логических устройств (ALU); быть многоядерным процессором; или включать в себя один или несколько процессоров 13702. Хотя это раскрытие описывает и изображает конкретный процессор, это раскрытие предполагает любой подходящий процессор.
В конкретных вариантах осуществления память 13704 включает в себя оперативную память для хранения инструкций для процессора 13702 для исполнения или данных, с которыми оперирует процессор 13702. В качестве примера, а не ограничения, компьютерная система 13700 может загружать инструкции из накопителя 13706 или другого источника (такого как, например, другая компьютерная система 13700) в память 13704. Процессор 13702 может затем загрузить инструкции из памяти 13704 во внутренний регистр или внутренний кэш. Для исполнения инструкций процессор 13702 может извлекать инструкции из внутреннего регистра или внутреннего кэша и декодировать их. Во время или после исполнения инструкций процессор 13702 может записать один или несколько результатов (которые могут быть промежуточными или окончательными результатами) во внутренний регистр или внутренний кэш. Процессор 13702 может затем записать один или несколько из этих результатов в память 13704. В конкретных вариантах осуществления процессор 13702 исполняет только инструкции в одном или нескольких внутренних регистрах, внутренних кэшах или в памяти 13704 (в противоположность накопителю 13706 или другому месту) и оперирует только с данными в одном или нескольких внутренних регистрах, внутренних кэшах или в памяти 13704 (в противоположность накопителю 13706 или другому месту). Одна или несколько шин памяти (которая из которых может включать в себя адресную шину и шину данных) могут соединять процессор 13702 с памятью 13704. Шина 13712 может включать в себя одну или несколько шин памяти, как описано ниже. В конкретных вариантах осуществления один или несколько блоков управления памятью (MMU) находятся между процессором 13702 и памятью 13704 и обеспечивают доступ к памяти 13704 требуемый процессором 13702. В конкретных вариантах осуществления память 13704 включает в себя память с произвольным доступом (RAM). Эта RAM может быть, при необходимости, энергозависимой памятью, и эта RAM может быть, при необходимости, динамической RAM (DRAM) или статической RAM (SRAM). Кроме того, при необходимости, эта RAM может быть однопортовой или многопортовой RAM. Это раскрытие предполагает любую подходящую RAM. Память 13704 может включать в себя один или несколько блоков различной памяти 13704, при необходимости. Хотя это раскрытие описывает и изображает конкретную память, это раскрытие предполагает любую подходящую память.
В конкретных вариантах осуществления накопитель 13706 включает в себя запоминающее устройство большой емкости для данных или инструкций. В качестве примера, а не ограничения, накопитель 13706 может включать в себя привод жесткого диска (HDD), привод для гибких дисков, флэш-память, оптический диск, магнитооптический диск, магнитную ленту или диск универсальной последовательной шины (USB) или комбинацию двух или более из них. Накопитель 13706 может включать в себя съемный или несъемный (или фиксированный) носитель, при необходимости. Накопитель 13706 может быть внутренним или внешним к компьютерной системе 13700, при необходимости. В конкретных вариантах осуществления накопитель 13706 является энергонезависимой, твердотельной памятью. В конкретных вариантах осуществления накопитель 13706 включает в себя постоянное запоминающее устройство (ROM). При необходимости, этот ROM может быть ROM с масочным программированием, программируемым ROM (PROM), стираемым PROM (EPROM), электрически стираемым PROM (EEPROМ), электрически программируемым ROM (EAROM), флэш-памятью или комбинацией двух или более из них. Это раскрытие предполагает, что запоминающее устройство 13706 большой емкости принимает любую подходящую физическую форму. Накопитель 13706 может включать в себя один или несколько блоков управления накопителем, обеспечивающих связь между процессором 13702 и накопителем 13706, при необходимости. При необходимости, накопитель 13706 может включать в себя один или несколько накопителей 13706. Хотя это раскрытие описывает и изображает конкретный накопитель, это раскрытие предполагает любой подходящий накопитель.
В конкретных вариантах осуществления интерфейс 13708 ввода-вывода (I/O) включает в себя аппаратные средства, программное обеспечение или и то и другое, обеспечивая один или несколько интерфейсов для связи между компьютерной системой 13700 и одним или несколькими устройствами ввода-вывода (I/O). Компьютерная система 13700 может включать в себя одно или несколько этих устройств ввода-вывода (I/O), при необходимости. Одно или несколько этих устройств ввода-вывода может позволять осуществлять связь между человеком и компьютерной системой 13700. В качестве примера, а не ограничения, устройство ввода-вывода может включать в себя клавиатуру, вспомогательную клавиатуру, микрофон, монитор, мышь, принтер, сканер, громкоговоритель, фотокамеру, стилус, планшет, сенсорный экран, шаровой манипулятор, видеокамеру, другое подходящее устройство ввода-вывода (I/O) или комбинацию двух или более из них. Устройство ввода-вывода (I/O) может включать в себя один или несколько датчиков. Это раскрытие предполагает любые подходящие устройства ввода-вывода (I/O) и любые подходящие интерфейсы 13708 ввода-вывода (I/O) для них. При необходимости, интерфейс 13708 ввода-вывода (I/O) может включать в себя одно или несколько устройств или программных драйверов, позволяющих процессору 13702 управлять одним или несколькими из этих устройств ввода-вывода (I/O). Интерфейс 13708 ввода-вывода (I/O) может включать в себя один или несколько интерфейсов 13708 ввода-вывода (I/O), при необходимости. Хотя это раскрытие описывает и изображает конкретный интерфейс ввода-вывода (I/O), это раскрытие предполагает любой подходящий интерфейс ввода-вывода (I/O).
В конкретных вариантах осуществления интерфейс 13710 связи включает в себя аппаратные средства, программное обеспечение или и то, и другое, обеспечивая один или несколько интерфейсов для связи (такой как, например, пакетную связь) между компьютерной системой 13700 и одной или несколькими другими компьютерными системами 13700 или одной или несколькими сетями. В качестве примера, а не ограничения, интерфейс 13710 связи может включать в себя контроллер сетевого интерфейса (NIC) или сетевой адаптер для осуществления связи с Ethernet или другой проводной сетью или беспроводной NIC (WNIC) или беспроводной адаптер для осуществления связи с беспроводной сетью, такой как сеть Wi-Fi. Это раскрытие предполагает любую подходящую сеть и любой подходящий интерфейс 13710 связи для нее. В качестве примера, а не ограничения, компьютерная система 13700 может осуществлять связь с децентрализованной (ad hoc) сетью, персональной сетью (PAN), локальной сетью (LAN), глобальной сетью (WAN), общегородской сетью (MAN), нательной компьютерной сетью (BAN) или одной или несколькими частями Интернета или комбинацией двух или более из них. Одна или несколько частей одной или нескольких из этих сетей могут быть проводными или беспроводными. Например, компьютерная система 13700 может осуществлять связь с беспроводной PAN (WPAN) (такой как, например, WPAN BLUETOOTH), сетью Wi-Fi, сетью WIMAX, сотовой телефонной сетью (такой как, например, сеть Глобальные системы мобильной связи (GSM)) или другой подходящей беспроводной сетью или комбинацией двух или более из них. Компьютерная система 13700 может включать в себя любой подходящий интерфейс 13710 связи для любой из этих сетей, при необходимости. Интерфейс 13710 связи может включать в себя один или несколько интерфейсов 13710 связи, при необходимости. Хотя это раскрытие описывает и изображает конкретный интерфейс связи, это раскрытие предполагает любой подходящий интерфейс связи.
В конкретных вариантах осуществления шина 13712 включает в себя аппаратные средства, программное обеспечение или и то, и другое, связывающие компоненты компьютерной системы 13700 друг с другом. В качестве примера, а не ограничения, шина 13712 может включать в себя ускоренный графический порт (AGP) или другую шину передачи графических данных, шину улучшенной архитектуры промышленного стандарта (EISA), системную шину (FSB), гипертранспортное (HT) межсоединение HYPERTRANSPORT, шину архитектуры промышленного стандарта (ISA), межсоединение INFINIBAND, шину с низким числом контактов (LPC), шину памяти, шину микроканальной архитектуры (MCA), шину стандарта взаимодействие периферийных компонентов (PCI), шину PCI Express (PCIe), последовательную шину передовой технологии подсоединения (SATA), локальную шину ассоциации по стандартам в области видеоэлектроники (VLB) или другую подходящую шину или комбинацию двух или более из них. Шина 13712 может включать в себя одну или несколько шин 13712, при необходимости. Хотя это раскрытие описывает и изображает конкретную шину, это раскрытие предполагает любую подходящую шину или межсоединение.
В настоящем документе компьютерно-читаемый долговременный накопитель или носитель могут включать в себя одну или несколько полупроводниковых или других интегральных схем (IC) (например, программируемые пользователем вентильные матрицы (FPGA) или специализированные IC (ASIC)), приводы жестких дисков (HDD), гибридные жесткие диски (HHD), оптические диски, приводы оптических дисков (ODD), магнитооптические диски, приводы магнитооптических дисков, гибкие дискеты, дисководы для гибких дисков (FDD), магнитные ленты, твердотельные диски (SSD), RAM-диски, SD-карты или диски, любые другие подходящие компьютерно-читаемые долговременные носители данных или любую подходящую комбинацию двух или более из них, при необходимости. Компьютерно-читаемый долговременный носитель данных может быть энергозависимым, энергонезависимым или комбинация энергозависимого и энергонезависимого, при необходимости.
В настоящем документе, слово «или» является включающим, а не исключающим, если иное не указано явно или с помощью контекста. Поэтому в настоящем документе «A или B» означает «A, B или и то, и другое», если иное не указано явно или с помощью контекста. Кроме того, слово «и» обозначает и вместе, и порознь, если иное не указано явно или с помощью контекста. Поэтому в настоящем документе «A и B» означают «A и B, совместно или раздельно», если иное не указано явно или с помощью контекста.
Объем этого раскрытия охватывает все изменения, замены, вариации, исправления и модификации иллюстративных описанных или изображенных в настоящем документе вариантов осуществления, которые будут очевидны специалисту обычной квалификации в данной области техники. Объем этого раскрытия не ограничен иллюстративными вариантами осуществления, описанными или изображенными в настоящем документе. Кроме того, хотя это раскрытие описывает и изображает соответствующие варианты осуществления в настоящем документе как включающие в себя конкретные компоненты, элементы, признаки, функции, операции или этапы, любой из этих вариантов осуществления может включать в себя любую комбинацию или сочетание любых компонентов, элементов, признаков, функций, операций или этапов, описанных или изображенных где-либо в настоящем документе, которые будут очевидны специалисту обычной квалификации в данной области техники. Кроме того, ссылки в прилагаемой формуле изобретения на устройство, систему или компонент устройства или системы, выполненный с возможностью, расположенный, имеющий возможность, сконфигурированный, позволяющий, используемый или работающий для выполнения конкретной функции, охватывают это устройство, систему, компонент, независимо от того, активирована, включена или разблокирована ли эта конкретная функция, при условии, что устройство, система или компонент выполнен с возможностью, расположен, имеет возможность, сконфигурирован, позволяет, используется или работает.
Хотя это раскрытие описывает конкретные структуры, признаки, взаимодействия и функциональность в контексте носимого устройства, это раскрытие предполагает, что при необходимости эти структуры, признаки, взаимодействия или функциональность можно применить к, использовать для или использоваться в любом другом подходящем электронном устройстве (таком как, например, смартфон, планшет, камера или персональное вычислительное устройство).

Claims (29)

1. Устройство, обеспечивающее пользовательский интерфейс, содержащее:
круглый дисплей;
способный вращаться элемент, окружающий круглый дисплей; и
детектор, сконфигурированный обнаруживать вращение способного вращаться элемента; и
один или более процессоров, выполненных с возможностью:
управления для отображения, на круглом дисплее устройства, экрана графического пользовательского интерфейса, причем экран содержит первый графический элемент, центрированный вокруг центра круглого дисплея;
при отображении первого графического элемента, управления для приема ввода пользователя, содержащего вращение способного вращаться элемента, окружающего круглый дисплей устройства, при этом вращение способного вращаться элемента обнаруживается детектором;
на основе вращения способного вращаться элемента, управления для определения того, имеет ли вращение способного вращаться элемента ускорение, которое превышает пороговое значение;
в ответ на определение того, что вращение способного вращаться элемента имеет ускорение, которое меньше или равно пороговому значению, управления круглым дисплеем для перехода от первого графического элемента ко второму графическому элементу; и
в ответ на определение того, что вращение способного вращаться элемента имеет ускорение, которое превышает пороговое значение, управления для уменьшения в размере первого графического элемента и прокрутки на дисплее через множество уменьшенных в размере графических элементов.
2. Устройство по п. 1, дополнительно содержащее:
ремешок, выполненный с возможностью соединять устройство с человеческим телом; и
оптический датчик в или на ремешке.
3. Устройство по п. 1, в котором ввод пользователя дополнительно содержит сенсорный ввод на сенсорном элементе.
4. Устройство по п. 1, в котором один или более процессоров дополнительно выполнены с возможностью, в ответ на обнаружение, посредством детектора, остановки вращения способного вращаться элемента, управления увеличением в размере одного или более из множества уменьшенных в размере графических элементов, отображаемых на круглом дисплее.
5. Устройство по п. 4, в котором масштабирование включает в себя:
изменение в размере первого графического элемента; и
вращение первого графического элемента.
6. Устройство по п. 1, в котором один или более процессоров дополнительно сконфигурированы для выполнения операции на основе физической модели, которая учитывает движения пользователя и отображает визуальную обратную связь, отражающую движения пользователя, на круглом дисплее.
7. Способ обеспечения пользовательского интерфейса на устройстве, содержащий этапы, на которых:
отображают, на круглом дисплее устройства, экран графического пользовательского интерфейса, причем экран содержит первый графический элемент, центрированный вокруг центра круглого дисплея;
при отображении первого графического элемента принимают ввод пользователя, содержащий вращение способного вращаться элемента устройства, при этом способный вращаться элемент окружает круглый дисплей устройства, и вращение способного вращаться элемента обнаруживается детектором устройства;
на основе вращения способного вращаться элемента определяют, имеет ли вращение способного вращаться элемента ускорение, которое превышает пороговое значение;
в ответ на определение того, что вращение способного вращаться элемента имеет ускорение, которое меньше или равно пороговому значению, переходят от первого графического элемента ко второму графическому элементу; и
в ответ на определение того, что вращение способного вращаться элемента имеет ускорение, которое превышает пороговое значение, уменьшают в размере первый графический элемент и прокручивают на круглом дисплее через множество уменьшенных в размере графических элементов.
8. Способ по п. 7, в котором устройство дополнительно содержит:
ремешок, выполненный с возможностью соединять устройство с человеческим телом; и
оптический датчик в или на ремешке.
9. Способ по п. 8, в котором ввод пользователя содержит сенсорный ввод на сенсорном элементе.
RU2017142722A 2012-11-20 2013-11-20 Переходы графического пользовательского интерфейса (gui) на носимом электронном устройстве RU2754525C2 (ru)

Applications Claiming Priority (22)

Application Number Priority Date Filing Date Title
US201261728773P 2012-11-20 2012-11-20
US201261728770P 2012-11-20 2012-11-20
US201261728765P 2012-11-20 2012-11-20
US61/728,770 2012-11-20
US61/728,773 2012-11-20
US61/728,765 2012-11-20
US201361773803P 2013-03-06 2013-03-06
US61/773,803 2013-03-06
US201361773817P 2013-03-07 2013-03-07
US201361773815P 2013-03-07 2013-03-07
US201361773813P 2013-03-07 2013-03-07
US61/773,815 2013-03-07
US61/773,813 2013-03-07
US61/773,817 2013-03-07
US201361775688P 2013-03-11 2013-03-11
US201361775687P 2013-03-11 2013-03-11
US201361775686P 2013-03-11 2013-03-11
US61/775,686 2013-03-11
US61/775,687 2013-03-11
US61/775,688 2013-03-11
US14/015,890 2013-08-30
US14/015,890 US10551928B2 (en) 2012-11-20 2013-08-30 GUI transitions on wearable electronic device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
RU2015124029A Division RU2641462C2 (ru) 2012-11-20 2013-11-20 Переходы графического пользовательского интерфейса (gui) на носимом электронном устройстве

Publications (3)

Publication Number Publication Date
RU2017142722A RU2017142722A (ru) 2019-02-14
RU2017142722A3 RU2017142722A3 (ru) 2021-04-02
RU2754525C2 true RU2754525C2 (ru) 2021-09-02

Family

ID=49641571

Family Applications (2)

Application Number Title Priority Date Filing Date
RU2015124029A RU2641462C2 (ru) 2012-11-20 2013-11-20 Переходы графического пользовательского интерфейса (gui) на носимом электронном устройстве
RU2017142722A RU2754525C2 (ru) 2012-11-20 2013-11-20 Переходы графического пользовательского интерфейса (gui) на носимом электронном устройстве

Family Applications Before (1)

Application Number Title Priority Date Filing Date
RU2015124029A RU2641462C2 (ru) 2012-11-20 2013-11-20 Переходы графического пользовательского интерфейса (gui) на носимом электронном устройстве

Country Status (11)

Country Link
US (1) US10551928B2 (ru)
EP (1) EP2733598B1 (ru)
JP (1) JP6804586B2 (ru)
CN (1) CN105051663A (ru)
AU (1) AU2013260686B2 (ru)
BR (1) BR112015011598B1 (ru)
IN (1) IN2013MU03645A (ru)
MX (1) MX354503B (ru)
MY (1) MY177407A (ru)
RU (2) RU2641462C2 (ru)
WO (1) WO2014081179A1 (ru)

Families Citing this family (367)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997020305A1 (en) * 1995-11-30 1997-06-05 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10255566B2 (en) 2011-06-03 2019-04-09 Apple Inc. Generating and processing task items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US9600169B2 (en) * 2012-02-27 2017-03-21 Yahoo! Inc. Customizable gestures for mobile devices
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9582035B2 (en) 2014-02-25 2017-02-28 Medibotics Llc Wearable computing devices and methods for the wrist and/or forearm
US10314492B2 (en) 2013-05-23 2019-06-11 Medibotics Llc Wearable spectroscopic sensor to measure food consumption based on interaction between light and the human body
US20140180595A1 (en) * 2012-12-26 2014-06-26 Fitbit, Inc. Device state dependent user interface management
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US10691230B2 (en) 2012-12-29 2020-06-23 Apple Inc. Crown input for a wearable electronic device
US10275117B2 (en) 2012-12-29 2019-04-30 Apple Inc. User interface object manipulations in a user interface
DE112014000709B4 (de) 2013-02-07 2021-12-30 Apple Inc. Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
WO2014143776A2 (en) 2013-03-15 2014-09-18 Bodhi Technology Ventures Llc Providing remote interactions with host device using a wireless device
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3937002A1 (en) 2013-06-09 2022-01-12 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US20150006385A1 (en) * 2013-06-28 2015-01-01 Tejas Arvindbhai Shah Express transactions on a mobile device
KR102179812B1 (ko) * 2013-07-18 2020-11-17 엘지전자 주식회사 와치형 이동단말기
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
EP3340025B1 (en) 2013-09-03 2019-06-12 Apple Inc. User interface for manipulating user interface objects with magnetic properties
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US10001817B2 (en) * 2013-09-03 2018-06-19 Apple Inc. User interface for manipulating user interface objects with magnetic properties
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
US10503388B2 (en) 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
JP6393325B2 (ja) * 2013-10-30 2018-09-19 アップル インコーポレイテッドApple Inc. 関連するユーザインターフェースオブジェクトの表示
US12080421B2 (en) 2013-12-04 2024-09-03 Apple Inc. Wellness aggregator
US20160019360A1 (en) 2013-12-04 2016-01-21 Apple Inc. Wellness aggregator
US10606476B2 (en) * 2013-12-04 2020-03-31 Autodesk, Inc. Techniques for interacting with handheld devices
KR20150065336A (ko) * 2013-12-05 2015-06-15 삼성전자주식회사 전자 장치의 제스처 인식 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US20150177947A1 (en) * 2013-12-20 2015-06-25 Motorola Mobility Llc Enhanced User Interface Systems and Methods for Electronic Devices
USD777186S1 (en) * 2014-12-24 2017-01-24 Logitech Europe, S.A. Display screen or portion thereof with a graphical user interface
US10429888B2 (en) 2014-02-25 2019-10-01 Medibotics Llc Wearable computer display devices for the forearm, wrist, and/or hand
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US20150277563A1 (en) * 2014-03-28 2015-10-01 Wen-Ling M. Huang Dynamic tactile user interface
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
US10313506B2 (en) 2014-05-30 2019-06-04 Apple Inc. Wellness aggregator
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9978043B2 (en) 2014-05-30 2018-05-22 Apple Inc. Automatic event scheduling
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
USD761860S1 (en) * 2014-06-20 2016-07-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
USD761859S1 (en) * 2014-06-20 2016-07-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
CN118192869A (zh) 2014-06-27 2024-06-14 苹果公司 尺寸减小的用户界面
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
EP3195098B1 (en) 2014-07-21 2024-10-23 Apple Inc. Remote user interface
EP3195096B1 (en) 2014-08-02 2020-08-12 Apple Inc. Context-specific user interfaces
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US9921660B2 (en) 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
US10268321B2 (en) 2014-08-15 2019-04-23 Google Llc Interactive textiles within hard objects
US10339293B2 (en) 2014-08-15 2019-07-02 Apple Inc. Authenticated device used to unlock another device
US9588625B2 (en) 2014-08-15 2017-03-07 Google Inc. Interactive textiles
US20160054792A1 (en) * 2014-08-22 2016-02-25 Google Inc. Radar-Based Biometric Recognition
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
US11169988B2 (en) 2014-08-22 2021-11-09 Google Llc Radar recognition-aided search
DE102014012629A1 (de) * 2014-08-22 2016-02-25 Diehl Ako Stiftung & Co. Kg Bedienvorrichtung und mobiles Bediengerät, insbesondere für ein elektronisches Haushaltsgerät
WO2016036510A1 (en) 2014-09-02 2016-03-10 Apple Inc. Music user interface
WO2016036436A1 (en) * 2014-09-02 2016-03-10 Apple Inc. Stopwatch and timer user interfaces
KR101901796B1 (ko) 2014-09-02 2018-09-28 애플 인크. 경고를 관리하기 위한 축소된 크기의 인터페이스
CN106605196B (zh) * 2014-09-02 2018-11-09 苹果公司 远程相机用户界面
WO2016036552A1 (en) 2014-09-02 2016-03-10 Apple Inc. User interactions for a mapping application
TWI676127B (zh) 2014-09-02 2019-11-01 美商蘋果公司 關於電子郵件使用者介面之方法、系統、電子器件及電腦可讀儲存媒體
TWI753846B (zh) 2014-09-02 2022-02-01 美商蘋果公司 用於電子訊息使用者介面之方法、系統、電子器件以及電腦可讀取媒體
WO2016036427A1 (en) * 2014-09-02 2016-03-10 Apple Inc. Electronic device with rotatable input mechanism
CN112130720A (zh) 2014-09-02 2020-12-25 苹果公司 多维对象重排
WO2016036416A1 (en) 2014-09-02 2016-03-10 Apple Inc. Button functionality
CN115623117A (zh) 2014-09-02 2023-01-17 苹果公司 电话用户界面
US10613743B2 (en) 2014-09-02 2020-04-07 Apple Inc. User interface for receiving user input
DE202015006142U1 (de) 2014-09-02 2015-12-09 Apple Inc. Elektronische Touch-Kommunikation
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
CN111180040B (zh) 2014-09-02 2023-11-10 苹果公司 身体活动和健身监视器
WO2016036603A1 (en) 2014-09-02 2016-03-10 Apple Inc. Reduced size configuration interface
US10254948B2 (en) 2014-09-02 2019-04-09 Apple Inc. Reduced-size user interfaces for dynamically updated application overviews
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US10013025B2 (en) * 2014-12-11 2018-07-03 Intel Corporation Wearable device with power state control
DE102014226546A1 (de) * 2014-12-19 2016-06-23 Robert Bosch Gmbh Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung, Kraftfahrzeug
EP3484134B1 (en) 2015-02-02 2022-03-23 Apple Inc. Device, method, and graphical user interface for establishing a relationship and connection between two devices
KR102544696B1 (ko) * 2015-02-16 2023-06-16 삼성디스플레이 주식회사 원형 터치 패널 및 그 제조 방법
US10466883B2 (en) 2015-03-02 2019-11-05 Apple Inc. Screenreader user interface
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
EP3250997A1 (en) * 2015-03-08 2017-12-06 Apple Inc. User interface using a rotatable input mechanism
WO2016144385A1 (en) * 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10216351B2 (en) 2015-03-08 2019-02-26 Apple Inc. Device configuration user interface
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US10016162B1 (en) 2015-03-23 2018-07-10 Google Llc In-ear health monitoring
US9983747B2 (en) 2015-03-26 2018-05-29 Google Llc Two-layer interactive textiles
CN106019606B (zh) * 2015-03-27 2019-08-27 联想(北京)有限公司 电子设备
US9848780B1 (en) 2015-04-08 2017-12-26 Google Inc. Assessing cardiovascular function using an optical sensor
JP2018514865A (ja) * 2015-04-14 2018-06-07 華為技術有限公司Huawei Technologies Co.,Ltd. ウェアラブル装置、そのタッチスクリーン、そのタッチ操作方法、及びそのグラフィカルユーザインタフェース
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
WO2016171467A1 (en) 2015-04-23 2016-10-27 Samsung Electronics Co., Ltd. Electronic device including rotary member and display method thereof
CN108353126B (zh) 2015-04-23 2019-08-23 苹果公司 处理相机的内容的方法、电子设备和计算机可读存储介质
USD761297S1 (en) * 2015-04-28 2016-07-12 Include Fitness, Inc. Display screen with an animated graphical user interface
KR20160128120A (ko) * 2015-04-28 2016-11-07 엘지전자 주식회사 와치 타입 단말기 및 그것의 제어 방법
USD760285S1 (en) * 2015-04-28 2016-06-28 Include Fitness, Inc. Display screen with an animated graphical user interface
KR102327044B1 (ko) 2015-04-30 2021-11-15 구글 엘엘씨 타입-애그노스틱 rf 신호 표현들
KR102236958B1 (ko) 2015-04-30 2021-04-05 구글 엘엘씨 제스처 추적 및 인식을 위한 rf―기반 마이크로―모션 추적
USD775657S1 (en) * 2015-04-30 2017-01-03 Brillio LLC Display screen with animated graphical user interface
US10139916B2 (en) 2015-04-30 2018-11-27 Google Llc Wide-field radar-based gesture recognition
KR102356449B1 (ko) * 2015-05-13 2022-01-27 삼성전자주식회사 회전 입력에 따른 추가 정보 제공 방법 및 장치
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
USD795917S1 (en) 2015-05-17 2017-08-29 Google Inc. Display screen with an animated graphical user interface
US10080528B2 (en) 2015-05-19 2018-09-25 Google Llc Optical central venous pressure measurement
US10088908B1 (en) 2015-05-27 2018-10-02 Google Llc Gesture detection and interactions
US9693592B2 (en) 2015-05-27 2017-07-04 Google Inc. Attaching electronic components to interactive textiles
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10376195B1 (en) 2015-06-04 2019-08-13 Google Llc Automated nursing assessment
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10275116B2 (en) 2015-06-07 2019-04-30 Apple Inc. Browser with docked tabs
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US9939923B2 (en) * 2015-06-19 2018-04-10 Microsoft Technology Licensing, Llc Selecting events based on user input and current context
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
KR102430941B1 (ko) * 2015-08-11 2022-08-10 삼성전자주식회사 생체 상태 정보 제공 방법 및 이를 지원하는 전자 장치
EP4327731A3 (en) 2015-08-20 2024-05-15 Apple Inc. Exercise-based watch face
US10114450B2 (en) 2015-08-31 2018-10-30 Semiconductor Energy Laboratory Co., Ltd. Information processing device
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
KR102548687B1 (ko) 2015-10-07 2023-06-28 삼성전자주식회사 전자 장치에서 실행된 어플리케이션을 제어하는 웨어러블 전자 장치 및 방법
WO2017079484A1 (en) 2015-11-04 2017-05-11 Google Inc. Connectors for connecting electronics embedded in garments to external devices
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10162311B2 (en) 2015-12-15 2018-12-25 Qualcomm Incorporated Display panel with minimum borders
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
KR102204682B1 (ko) 2016-01-14 2021-01-19 후아웨이 테크놀러지 컴퍼니 리미티드 전자 디바이스 및 그러한 전자 디바이스의 동작 방법
WO2017134541A1 (en) 2016-02-03 2017-08-10 Semiconductor Energy Laboratory Co., Ltd. Information processing device
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
WO2017192167A1 (en) 2016-05-03 2017-11-09 Google Llc Connecting an electronic component to an interactive textile
WO2017200570A1 (en) 2016-05-16 2017-11-23 Google Llc Interactive object with multiple electronics modules
USD799540S1 (en) * 2016-05-23 2017-10-10 IncludeFitness, Inc. Display screen with an animated graphical user interface
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US10911255B2 (en) * 2016-05-31 2021-02-02 Honeywell International Inc. Devices, methods, and systems for hands free facility status alerts
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US10873786B2 (en) 2016-06-12 2020-12-22 Apple Inc. Recording and broadcasting application visual output
US11216119B2 (en) 2016-06-12 2022-01-04 Apple Inc. Displaying a predetermined view of an application
DK201670580A1 (en) 2016-06-12 2018-01-02 Apple Inc Wrist-based tactile time feedback for non-sighted users
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
KR102540111B1 (ko) * 2016-07-27 2023-06-07 삼성전자 주식회사 전자 장치 및 전자 장치의 동작 방법
USD817341S1 (en) * 2016-08-26 2018-05-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
KR102607562B1 (ko) * 2016-08-30 2023-11-30 삼성전자주식회사 베젤 기반 인터랙션에 따른 비주얼 이펙트 제공 방법 및 이를 구현한 전자 장치
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10466891B2 (en) * 2016-09-12 2019-11-05 Apple Inc. Special lock mode user interface
US10736543B2 (en) 2016-09-22 2020-08-11 Apple Inc. Workout monitor interface
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
CN107037955A (zh) 2016-10-24 2017-08-11 阿里巴巴集团控股有限公司 一种显示图像信息的方法及装置
US10579150B2 (en) 2016-12-05 2020-03-03 Google Llc Concurrent detection of absolute distance and relative movement for sensing action gestures
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US10845955B2 (en) 2017-05-15 2020-11-24 Apple Inc. Displaying a scrollable list of affordances associated with physical activities
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
CA3009798A1 (en) * 2017-07-12 2019-01-12 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
DK180241B1 (en) 2018-03-12 2020-09-08 Apple Inc User interfaces for health monitoring
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK201870380A1 (en) 2018-05-07 2020-01-29 Apple Inc. DISPLAYING USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
US11317833B2 (en) 2018-05-07 2022-05-03 Apple Inc. Displaying user interfaces associated with physical activities
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
US10887193B2 (en) 2018-06-03 2021-01-05 Apple Inc. User interfaces for updating network connection settings of external devices
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10712824B2 (en) 2018-09-11 2020-07-14 Apple Inc. Content-based tactile outputs
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN109634542B (zh) * 2018-10-26 2021-09-03 努比亚技术有限公司 一种切换显示控制方法、终端及计算机可读存储介质
US10831346B2 (en) * 2018-10-30 2020-11-10 International Business Machines Corporation Ergonomic and sensor analysis based user experience design
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
USD922404S1 (en) * 2019-02-18 2021-06-15 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD962971S1 (en) * 2019-02-18 2022-09-06 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD910654S1 (en) * 2019-03-05 2021-02-16 Includehealth, Inc. Display screen with an animated graphical user interface
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
SG10201903293XA (en) * 2019-04-12 2020-11-27 Kaha Pte Ltd Enhancing security in home automation system
DK201970532A1 (en) 2019-05-06 2021-05-03 Apple Inc Activity trends and workouts
JP6921338B2 (ja) 2019-05-06 2021-08-18 アップル インコーポレイテッドApple Inc. 電子デバイスの制限された動作
US11960701B2 (en) 2019-05-06 2024-04-16 Apple Inc. Using an illustration to show the passing of time
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
DK201970534A1 (en) 2019-06-01 2021-02-16 Apple Inc User interfaces for monitoring noise exposure levels
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
JP7297940B2 (ja) 2019-06-01 2023-06-26 アップル インコーポレイテッド マルチモードの活動追跡ユーザインタフェース
US11152100B2 (en) 2019-06-01 2021-10-19 Apple Inc. Health application user interfaces
US11228835B2 (en) 2019-06-01 2022-01-18 Apple Inc. User interfaces for managing audio exposure
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11234077B2 (en) 2019-06-01 2022-01-25 Apple Inc. User interfaces for managing audio exposure
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
US11209957B2 (en) 2019-06-01 2021-12-28 Apple Inc. User interfaces for cycle tracking
CN110297563A (zh) * 2019-06-28 2019-10-01 无锡睿勤科技有限公司 屏幕显示控制方法及智能手表
US12002588B2 (en) 2019-07-17 2024-06-04 Apple Inc. Health event logging and coaching user interfaces
WO2021016908A1 (zh) * 2019-07-31 2021-02-04 高驰运动科技(深圳)有限公司 旋钮解锁方法、电子设备及可读存储介质
USD923652S1 (en) 2019-08-23 2021-06-29 Beijing Xiaomi Mobile Software Co., Ltd. Display screen or portion thereof with animated graphical user interface
DK180684B1 (en) 2019-09-09 2021-11-25 Apple Inc Techniques for managing display usage
CN114286975A (zh) 2019-09-09 2022-04-05 苹果公司 调查研究用户界面
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
USD1005303S1 (en) * 2020-01-28 2023-11-21 Iocurrents, Inc. Display screen or portion thereof with animated graphical user interface
DK202070612A1 (en) 2020-02-14 2021-10-26 Apple Inc User interfaces for workout content
US11650709B2 (en) * 2020-02-28 2023-05-16 Magic Leap, Inc. 3D models for displayed 2D elements
CN115904596B (zh) 2020-05-11 2024-02-02 苹果公司 用于管理用户界面共享的用户界面
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
DK181037B1 (en) 2020-06-02 2022-10-10 Apple Inc User interfaces for health applications
JP1687911S (ru) * 2020-06-09 2021-06-21
JP1687909S (ru) 2020-06-09 2021-06-21
JP1694959S (ru) * 2020-06-09 2021-09-13
JP1687910S (ru) 2020-06-09 2021-06-21
USD951993S1 (en) 2020-06-21 2022-05-17 Apple Inc. Display screen or portion thereof with graphical user interface
USD939570S1 (en) * 2020-06-22 2021-12-28 Apple Inc. Display or portion thereof with graphical user interface or label
US11303816B2 (en) * 2020-07-08 2022-04-12 Facebook Technologies, Llc Detachable camera block for a wearable device
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11698710B2 (en) 2020-08-31 2023-07-11 Apple Inc. User interfaces for logging user activities
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
USD991966S1 (en) * 2021-01-08 2023-07-11 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
CN113284425B (zh) * 2021-05-14 2022-09-13 维沃移动通信有限公司 显示装置和电子设备
US11938376B2 (en) 2021-05-15 2024-03-26 Apple Inc. User interfaces for group workouts
US11893212B2 (en) 2021-06-06 2024-02-06 Apple Inc. User interfaces for managing application widgets
US11630551B1 (en) * 2021-10-28 2023-04-18 Dallen Yu Chao Smart keychain or accessory devices, systems, and methods
US20230236547A1 (en) 2022-01-24 2023-07-27 Apple Inc. User interfaces for indicating time
US20230390626A1 (en) 2022-06-05 2023-12-07 Apple Inc. User interfaces for physical activity information
US11977729B2 (en) 2022-06-05 2024-05-07 Apple Inc. Physical activity information user interfaces

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020101457A1 (en) * 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
US6556222B1 (en) * 2000-06-30 2003-04-29 International Business Machines Corporation Bezel based input mechanism and user interface for a smart watch
JP2004184396A (ja) * 2002-10-09 2004-07-02 Seiko Epson Corp 表示装置、時計、表示装置の制御方法、制御プログラムおよび記録媒体
US20040164957A1 (en) * 2003-02-26 2004-08-26 Kosuke Yamaguchi Three-dimensional object manipulating apparatus, method and computer program
RU2319997C2 (ru) * 2005-12-30 2008-03-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Электронное устройство для выполнения запрограммированных функций (варианты) и способ ввода команд в подобном устройстве
RU2421774C2 (ru) * 2006-09-29 2011-06-20 Сони Эрикссон Мобайл Коммьюникейшнз Аб Компактный поворотный выключатель для мобильного терминала
US20110157046A1 (en) * 2009-12-30 2011-06-30 Seonmi Lee Display device for a mobile terminal and method of controlling the same
US20120092383A1 (en) * 2009-07-03 2012-04-19 Hysek Joerg Wristwatch with a touch screen and method for displaying on a touch-screen watch

Family Cites Families (500)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2473226A (en) 1946-08-22 1949-06-14 Sheldon Lillian Wrist band
US3062369A (en) 1960-08-30 1962-11-06 Esber E Moubayed Leak-proof variable-volume holder for frozen confections
US3477285A (en) 1967-08-04 1969-11-11 Joseph M Krafft Four-lobed diametral-strain gage
US3915534A (en) 1967-08-15 1975-10-28 Joslyn Mfg & Supply Co Grounded surface distribution apparatus
JPS4899108A (ru) 1972-04-05 1973-12-15
USD249874S (en) 1976-10-12 1978-10-10 Texas Instruments Incorporated Digital wrist watch
US4757456A (en) 1981-05-19 1988-07-12 Ralph Benghiat Device and method for utility meter reading
US4427303A (en) 1982-06-17 1984-01-24 Hermann Hirsch Leder Und Kunstoffwarenfabrik Electronic wristwatch
USD282914S (en) 1983-10-13 1986-03-11 Jeffrey Maron Indicator watch
USD284949S (en) 1984-04-16 1986-08-05 Kong Hung W Watch frame
USD299028S (en) 1985-08-21 1988-12-20 Divetronic Ag Wrist computer for divers
USD297121S (en) 1985-12-03 1988-08-09 Porsche Design Gmbh Sport watch
US4636047A (en) 1986-03-21 1987-01-13 Green Ronald N Wrist watch mirror accessory
USD302664S (en) 1986-09-08 1989-08-08 Dawson Jr Melvyn H Electronic watch
USD300678S (en) 1987-06-11 1989-04-11 Moulinex, Societe Anonyme Re-charging stand for a cordless electric iron
US4906207A (en) 1989-04-24 1990-03-06 W. L. Gore & Associates, Inc. Dielectric restrainer
USD362396S (en) 1990-06-27 1995-09-19 Chester Edna L Wristwatch
USD335263S (en) 1990-06-28 1993-05-04 Willis John E Wristband
USD351558S (en) 1991-11-06 1994-10-18 Junho Moon Wrist watch
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
USD355132S (en) 1992-02-28 1995-02-07 Kenneth Williams Combined sweatband and watch
USD347589S (en) 1992-03-12 1994-06-07 Labate Joseph A Wrist band and mounting for a tape measure
US5418760A (en) 1992-08-18 1995-05-23 Casio Computer Co., Ltd. Electronic devices with a liquid crystal display
USD356960S (en) 1993-02-03 1995-04-04 Societe Nouvelle Chaumet S.A. Watch with band portions
US5361169A (en) 1993-04-29 1994-11-01 Deal Jerry L Diver's mirror
USD365550S (en) 1993-05-17 1995-12-26 Timex Corporation Personal digital assistant to be worn on a wrist
USD366036S (en) 1993-05-28 1996-01-09 Timex Corporation Personal digital assistant to be worn on a wrist
USD386696S (en) 1995-02-16 1997-11-25 Christophe Walch Multipiece plastic wristwatch
US5832296A (en) 1995-04-26 1998-11-03 Interval Research Corp. Wearable context sensitive user interface for interacting with plurality of electronic devices of interest to the user
USD372878S (en) 1995-05-09 1996-08-20 Danny Finnegan Workman's magnetic wrist band for holding small metal objects
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
JPH0985983A (ja) 1995-09-21 1997-03-31 Canon Inc プリンタ制御装置
DE69635101T2 (de) 1995-11-01 2006-06-01 Canon K.K. Verfahren zur Extraktion von Gegenständen und dieses Verfahren verwendendes Bildaufnahmegerät
USD383985S (en) 1995-12-22 1997-09-23 Doris Davenport Combination watch and pager
US6047301A (en) 1996-05-24 2000-04-04 International Business Machines Corporation Wearable computer
USD384661S (en) 1996-08-28 1997-10-07 Garmin Corporation Portable handheld combination GPS and communication transceiver
JP3321053B2 (ja) 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
US20040210479A1 (en) 1996-10-25 2004-10-21 Ipf, Inc. Internet-based brand marketing communication instrumentation network for deploying, installing and remotely programming brand-building server-side driven multi-mode virtual kiosks on the World Wide Web (WWW), and methods of brand marketing communication between brand marketers and consumers using the same
JP3296236B2 (ja) * 1997-03-06 2002-06-24 トヨタ自動車株式会社 制動力制御装置
US6747680B1 (en) 1999-12-13 2004-06-08 Microsoft Corporation Speed-dependent automatic zooming interface
WO1999025152A2 (en) 1997-11-07 1999-05-20 Via, Inc. Interactive devices and methods
USD410854S (en) 1997-12-11 1999-06-15 Imus Co., Ltd. Wrist watch
US5915580A (en) 1997-12-24 1999-06-29 Outer Circle Products, Ltd. Container covering
USD401515S (en) 1998-01-23 1998-11-24 Yacov Yida Watch
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
USD404317S (en) 1998-02-05 1999-01-19 Bernice M Cameron Bottle mounted timer
JP2000050133A (ja) 1998-02-10 2000-02-18 Asulab Sa 低電力消費の携帯用物体、特にカメラおよび無線デ―タ伝送手段を含む時計
US6031525A (en) 1998-04-01 2000-02-29 New York University Method and apparatus for writing
JPH11298362A (ja) 1998-04-06 1999-10-29 Sony Corp 小型携帯端末
USD416814S (en) 1998-05-15 1999-11-23 Nancy Lynn Welsh Ring having a time piece mounted within its central finger opening
US6573883B1 (en) 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US7854684B1 (en) 1998-06-24 2010-12-21 Samsung Electronics Co., Ltd. Wearable device
JP3627531B2 (ja) 1998-09-30 2005-03-09 セイコーエプソン株式会社 情報処理装置
CA2347642A1 (en) 1998-10-28 2000-05-04 Via, Inc. Flex-to-fixed user interface devices and methods
JP3988102B2 (ja) 1998-11-06 2007-10-10 富士フイルム株式会社 腕装着型カメラ
US7225229B1 (en) 1998-12-18 2007-05-29 Tangis Corporation Automated pushing of computer user's context data to clients
USD413817S (en) 1998-12-18 1999-09-14 Casio Keisanki Kabushiki Kaisha Watch case with global positioning system
USD422223S (en) 1998-12-22 2000-04-04 Gucci Timepieces Sa Wristwatch
US20040209657A1 (en) 1999-01-04 2004-10-21 Yoram Ghassabian Wrist-mounted telephone device
JP2000267797A (ja) 1999-03-15 2000-09-29 Seiko Epson Corp 情報処理装置
US7293231B1 (en) 1999-03-18 2007-11-06 British Columbia Ltd. Data entry for personal computing devices
GB2350523B (en) 1999-05-26 2003-11-26 Nokia Mobile Phones Ltd Communication device
US6359837B1 (en) 1999-06-30 2002-03-19 Casio Computer Co., Ltd. Camera, camera system, information recording system, timepiece, and link system for camera and timepiece
ES2262279T3 (es) 1999-08-25 2006-11-16 Swatch Ag Reloj comprendiendo un dispositivo de mando sin contacto de un cursor de ordenador.
USD433949S (en) 1999-10-04 2000-11-21 Chanel, Inc. Wrist watch case
US6424743B1 (en) 1999-11-05 2002-07-23 Motorola, Inc. Graphical handwriting recognition user interface
JP2001167054A (ja) 1999-12-09 2001-06-22 Casio Comput Co Ltd 携帯情報機器、認証装置及び認証システム
USD434675S (en) 1999-12-13 2000-12-05 Casio Keisanki Kabushiki Kaisha Watch case with global positioning system
JP2001251542A (ja) 1999-12-28 2001-09-14 Casio Comput Co Ltd 携帯型撮像機器
JP2005174356A (ja) 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
GB2365676B (en) 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
GB0004688D0 (en) 2000-02-28 2000-04-19 Radley Smith Philip J Bracelet
US6597345B2 (en) 2000-03-03 2003-07-22 Jetway Technologies Ltd. Multifunctional keypad on touch screen
JP2001344039A (ja) 2000-03-31 2001-12-14 Seiko Epson Corp 情報処理装置、情報処理装置の制御方法および情報処理装置の制御プログラム
USD453005S1 (en) 2000-04-26 2002-01-22 Dinh Van Wrist-watch
JP4042340B2 (ja) 2000-05-17 2008-02-06 カシオ計算機株式会社 情報機器
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
USD455356S1 (en) 2000-06-19 2002-04-09 Rainer Saffer Watch
US7016707B2 (en) 2000-06-21 2006-03-21 Seiko Epson Corporation Mobile telephone and radio communication device cooperatively processing incoming call
US6714233B2 (en) 2000-06-21 2004-03-30 Seiko Epson Corporation Mobile video telephone system
US6477117B1 (en) 2000-06-30 2002-11-05 International Business Machines Corporation Alarm interface for a smart watch
US7477890B1 (en) 2000-06-30 2009-01-13 International Business Machines Corporation Demand pull—multichannel asynchronous data and application synchronization for pervasive devices
US7081905B1 (en) 2000-06-30 2006-07-25 International Business Machines Corporation Method and apparatus for dynamically controlling scroller speed employed for a user interface of a wearable appliance
JP3785902B2 (ja) 2000-07-11 2006-06-14 インターナショナル・ビジネス・マシーンズ・コーポレーション デバイス、デバイスの制御方法、ポインタの移動方法
JP2002099476A (ja) 2000-09-26 2002-04-05 Sanyo Electric Co Ltd ソフトウェア配信方法、ソフトウェア配信装置、およびこれらを利用可能なユーザ端末
USD463296S1 (en) 2000-10-23 2002-09-24 Eseoghene Esther Sanomi Wrist radius watch
JP3948260B2 (ja) 2000-11-22 2007-07-25 松下電器産業株式会社 テキスト入力方法及びその装置
JP2002257955A (ja) 2000-12-25 2002-09-11 Seiko Epson Corp 通信機能付腕時計装置、情報表示方法、制御プログラム及び記録媒体
JP3613177B2 (ja) 2000-12-26 2005-01-26 インターナショナル・ビジネス・マシーンズ・コーポレーション 入力対象選択装置及び方法
USD460430S1 (en) 2000-12-28 2002-07-16 Seiko Instruments Inc. Mobile phone
US20020135615A1 (en) 2001-01-31 2002-09-26 Microsoft Corporation Overlaid display for electronic devices
TW591353B (en) * 2001-02-23 2004-06-11 Asulab Sa Portable object including means for activating an electronic function and method for controlling such an electronic function
US6744427B2 (en) 2001-03-01 2004-06-01 International Business Machines Corporation Character input interface for compact electronic devices
JP2002259347A (ja) * 2001-03-02 2002-09-13 Seiko Epson Corp 腕時計型情報処理装置、画面表示方法、プログラムおよび記録媒体
US6447117B1 (en) 2001-03-12 2002-09-10 Rene Estrada Eyeglass lens mounting system
US6937135B2 (en) 2001-05-30 2005-08-30 Hewlett-Packard Development Company, L.P. Face and environment sensing watch
JP2003018923A (ja) 2001-07-09 2003-01-21 Onga Eng:Kk ハウス開閉装置
US6774796B2 (en) 2001-08-01 2004-08-10 Motorola, Inc. Master authenticator
EP1282018A1 (en) 2001-08-03 2003-02-05 Nokia Corporation A wearable electronic device
USD459352S1 (en) 2001-08-10 2002-06-25 Michael C. Giovanniello Wireless mouse wristband
US20130080143A1 (en) 2011-09-27 2013-03-28 Paul E. Reeves Unified desktop docking behavior with device as master
US20030046228A1 (en) 2001-08-28 2003-03-06 Jean-Marc Berney User-wearable functional jewelry with biometrics and smartcard to remotely sign and/or authenticate to e-services
US7634403B2 (en) 2001-09-05 2009-12-15 Voice Signal Technologies, Inc. Word recognition using word transformation commands
JP2003131785A (ja) 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
US7312785B2 (en) * 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
US6990662B2 (en) 2001-10-31 2006-01-24 Hewlett-Packard Development Company, L.P. Method and system for offloading execution and resources for resource-constrained networked devices
US6744423B2 (en) 2001-11-19 2004-06-01 Nokia Corporation Communication terminal having a predictive character editor application
US8176432B2 (en) 2001-11-20 2012-05-08 UEI Electronics Inc. Hand held remote control device having an improved user interface
US7091964B2 (en) 2001-11-30 2006-08-15 Palm, Inc. Electronic device with bezel feature for receiving input
TWI258647B (en) 2001-12-27 2006-07-21 Asulab Sa Control method for executing functions in a diary watch
GB0201074D0 (en) 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
GB2384395A (en) 2002-01-19 2003-07-23 Hewlett Packard Co Personal article capable of receiving specified items or data
US7111788B2 (en) 2002-04-22 2006-09-26 Nokia Corporation System and method for navigating applications using a graphical user interface
US7987491B2 (en) 2002-05-10 2011-07-26 Richard Reisman Method and apparatus for browsing using alternative linkbases
US8001488B1 (en) 2002-05-31 2011-08-16 Hewlett-Packard Development Company, L.P. User interface dial with display
JP2004021893A (ja) 2002-06-20 2004-01-22 Sony Corp 携帯情報通信端末、プログラムおよび該プログラムを記録した記録媒体
US9886309B2 (en) 2002-06-28 2018-02-06 Microsoft Technology Licensing, Llc Identity-based distributed computing for device resources
JP4251266B2 (ja) * 2002-07-25 2009-04-08 ソニー株式会社 情報処理装置および方法、プログラム格納媒体、並びにプログラム
US6968508B2 (en) 2002-07-30 2005-11-22 Motorola, Inc. Rotating user interface
JP2004072450A (ja) 2002-08-07 2004-03-04 Casio Comput Co Ltd 電子カメラ
US7386855B2 (en) 2002-08-12 2008-06-10 Ntt Docomo, Inc. Application mobility service
USD474982S1 (en) 2002-08-15 2003-05-27 Nike, Inc. Portion of a watch
US7036007B2 (en) 2002-09-09 2006-04-25 Intel Corporation Firmware architecture supporting safe updates and multiple processor types
JP2004178584A (ja) 2002-11-26 2004-06-24 Asulab Sa 機能、装置、又は所定の場所にアクセスするためのタッチスクリーンによるセキュリティコードの入力方法、及びその方法を実行するためのデバイス
US7199786B2 (en) 2002-11-29 2007-04-03 Daniel Suraqui Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system
US20040130581A1 (en) 2003-01-03 2004-07-08 Microsoft Corporation Interaction model
JP2004288172A (ja) 2003-03-04 2004-10-14 Sony Corp 入力装置、情報端末装置およびモード切替方法
US7096048B2 (en) 2003-04-01 2006-08-22 Sanders Donald T Portable communications device
KR100617681B1 (ko) 2003-04-15 2006-08-28 삼성전자주식회사 휴대용 단말기의 회전키 장치 사용 방법
EP1624732A4 (en) 2003-05-14 2009-01-21 Panasonic Corp DEVICE AND METHOD FOR TURNING A HIGH VOLTAGE DISCHARGE LAMP
US20040261031A1 (en) 2003-06-23 2004-12-23 Nokia Corporation Context dependent auxiliary menu elements
US7567239B2 (en) 2003-06-26 2009-07-28 Motorola, Inc. Method and system for message and note composition on small screen devices
KR100590528B1 (ko) 2003-06-28 2006-06-15 삼성전자주식회사 착용형 손가락 움직임 감지장치 및 이를 이용한 손가락의움직임 감지방법
US20050001821A1 (en) 2003-07-02 2005-01-06 Low Tse How Option selector and electronic device including such an option selector
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US7478390B2 (en) 2003-09-25 2009-01-13 International Business Machines Corporation Task queue management of virtual devices using a plurality of processors
WO2005057174A2 (en) * 2003-12-08 2005-06-23 Rosenthal Robert D Method and apparatus for low blood glucose level detection
KR100571428B1 (ko) 2003-12-24 2006-04-17 한국전자통신연구원 착용형 인터페이스 장치
WO2005065404A2 (en) 2003-12-31 2005-07-21 James Marin Rotating bezel watch
US7872669B2 (en) 2004-01-22 2011-01-18 Massachusetts Institute Of Technology Photo-based mobile deixis system and related techniques
USD546712S1 (en) 2004-02-13 2007-07-17 Cartier Creation Studio Sa Watch
US7398151B1 (en) 2004-02-25 2008-07-08 Garmin Ltd. Wearable electronic device
WO2005083546A1 (en) 2004-02-27 2005-09-09 Simon Richard Daniel Wearable modular interface strap
GB2411337B (en) 2004-02-27 2006-12-06 Simon Richard Daniel Modular interface strap for multi-unit wristband and necklace assemblies
JP2005244676A (ja) 2004-02-27 2005-09-08 Dowango:Kk リモコンシステム
US8886298B2 (en) 2004-03-01 2014-11-11 Microsoft Corporation Recall device
JP2007531113A (ja) 2004-03-23 2007-11-01 富士通株式会社 携帯装置の傾斜及び並進運動成分の識別
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US7173604B2 (en) 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
TWI370979B (en) 2004-05-14 2012-08-21 Ibm Grid computing system, information processing unit, job execution request generation unit, control method, program, and recording medium
US7404146B2 (en) 2004-05-27 2008-07-22 Agere Systems Inc. Input device for portable handset
JP4379214B2 (ja) 2004-06-10 2009-12-09 日本電気株式会社 携帯端末装置
US7840681B2 (en) 2004-07-30 2010-11-23 International Business Machines Corporation Method and apparatus for integrating wearable devices within a SIP infrastructure
US20060253010A1 (en) 2004-09-28 2006-11-09 Donald Brady Monitoring device, method and system
USD519858S1 (en) 2004-10-06 2006-05-02 Giochi Preziosi S.P.A. Watch
US20060092177A1 (en) 2004-10-30 2006-05-04 Gabor Blasko Input method and apparatus using tactile guidance and bi-directional segmented stroke
USD526973S1 (en) 2004-11-17 2006-08-22 Xirrus, Inc. Electronic device housing
JP4665904B2 (ja) 2004-11-30 2011-04-06 コニカミノルタホールディングス株式会社 情報処理装置
TWM277958U (en) 2004-12-31 2005-10-11 Ind Tech Res Inst An flexible displaying device for electronic information includes a device housing
US20060149652A1 (en) 2005-01-06 2006-07-06 Fellenstein Craig W Receiving bid requests and pricing bid responses for potential grid job submissions within a grid environment
US20060197835A1 (en) 2005-03-04 2006-09-07 Anderson Robert C Wrist-attached display system for unmanned vehicle imagery and communication
USD525552S1 (en) 2005-03-22 2006-07-25 Rolex Watch U.S.A., Inc. Watch face
JP2006279137A (ja) 2005-03-28 2006-10-12 Sharp Corp リモコンシステム
US20060224766A1 (en) 2005-03-31 2006-10-05 Malackowski Donald W Operating room communication bus and method
US20060288233A1 (en) 2005-04-25 2006-12-21 Douglas Kozlay Attachable biometric authentication apparatus for watchbands and other personal items
ITUD20050074A1 (it) 2005-05-11 2006-11-12 Eurotech S P A Dispositivo di risparmio energetico per un'apparecchiatura elettronica portatile
US9606634B2 (en) 2005-05-18 2017-03-28 Nokia Technologies Oy Device incorporating improved text input mechanism
US8117540B2 (en) 2005-05-18 2012-02-14 Neuer Wall Treuhand Gmbh Method and device incorporating improved text input mechanism
US20060271867A1 (en) 2005-05-27 2006-11-30 Wang Kong Q Mobile communications terminal and method therefore
AU2006341370B2 (en) 2005-06-16 2011-08-18 Firooz Ghassabian Data entry system
US7487467B1 (en) 2005-06-23 2009-02-03 Sun Microsystems, Inc. Visual representation and other effects for application management on a device with a small screen
US20070004969A1 (en) 2005-06-29 2007-01-04 Microsoft Corporation Health monitor
JP2007014471A (ja) 2005-07-06 2007-01-25 Sumitomo Precision Prod Co Ltd 無線センサ端末
USD549602S1 (en) 2005-07-18 2007-08-28 Garmin Ltd. GPS exercise monitoring device
KR100814395B1 (ko) 2005-08-30 2008-03-18 삼성전자주식회사 조그 키와 사방향 키를 이용한 사용자 인터페이스 제어장치 및 그 방법
JP2007064758A (ja) 2005-08-30 2007-03-15 Sony Corp 携帯型電子機器、表示制御プログラム、表示制御方法、時計装置
JP4676303B2 (ja) 2005-10-18 2011-04-27 株式会社日立製作所 端末装置
US20070100244A1 (en) 2005-10-31 2007-05-03 Chin-Shu Lin Wrist-worn monitor for heartbeat detection
US7454841B2 (en) 2005-11-01 2008-11-25 Hunter Engineering Company Method and apparatus for wheel alignment system target projection and illumination
USD547211S1 (en) 2005-11-10 2007-07-24 Dias M Carlos Wrist watch
CN100514314C (zh) 2005-12-28 2009-07-15 松下电工株式会社 网络设备系统
KR100761262B1 (ko) 2005-12-28 2007-09-28 엘지전자 주식회사 이동통신단말기의 문자입력 장치
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
USD537409S1 (en) 2006-01-10 2007-02-27 Sony Corporation Combined charger and infrared ray emitter
JP5220278B2 (ja) 2006-01-27 2013-06-26 任天堂株式会社 ゲーム装置および手書き入力プログラム
USD537371S1 (en) 2006-02-03 2007-02-27 Bell & Ross B.V. Watch
USD529402S1 (en) 2006-02-13 2006-10-03 Nike, Inc. Portion of a watch
USD528928S1 (en) 2006-02-14 2006-09-26 Nike, Inc. Portion of a watch
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
KR100754674B1 (ko) 2006-03-10 2007-09-03 삼성전자주식회사 휴대 단말의 메뉴 선택 방법 및 장치
USD537738S1 (en) 2006-03-17 2007-03-06 Citizen Tokei Kabushiki Kaisha Wrist watch case with band
EP1998666B1 (en) 2006-03-21 2014-01-01 Koninklijke Philips N.V. Indication of the condition of a user
USD545305S1 (en) 2006-03-22 2007-06-26 Mulcahy Michael R Personal data assistant, particularly for the visually impaired
JP4516042B2 (ja) 2006-03-27 2010-08-04 株式会社東芝 機器操作装置および機器操作方法
USD574734S1 (en) 2006-03-28 2008-08-12 The British Masters Sa Wristwatch
US9395905B2 (en) 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
GB2437592A (en) 2006-04-10 2007-10-31 Skype Ltd Indicating communication events on an alternative interface whilst running an application on another interface
US8644396B2 (en) 2006-04-18 2014-02-04 Qualcomm Incorporated Waveform encoding for wireless applications
US7382691B2 (en) 2006-04-21 2008-06-03 Nixon, Inc. Multifunction watch system and method
USD543122S1 (en) 2006-05-10 2007-05-22 Ronald Lafever Combined flexible band and clip-on watch
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
US7539532B2 (en) 2006-05-12 2009-05-26 Bao Tran Cuffless blood pressure monitoring appliance
USD568175S1 (en) 2006-05-19 2008-05-06 Lorenz S.P.A. Wrist watch
EP1860534A1 (en) 2006-05-22 2007-11-28 LG Electronics Inc. Mobile terminal and menu display method thereof
EP2020088A2 (en) * 2006-05-22 2009-02-04 Nike International Ltd. User interface for remotely controlling a digital music player
USD554636S1 (en) 2006-06-27 2007-11-06 Qualcomm Incorporated Media display unit
KR100782927B1 (ko) 2006-06-27 2007-12-07 삼성전자주식회사 휴대용 단말기에서 문자 입력 장치 및 방법
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
USD558207S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
USD558209S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
USD558208S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
US8511890B2 (en) 2006-08-27 2013-08-20 Nike, Inc. Rocking bezel control
US20080126933A1 (en) * 2006-08-28 2008-05-29 Apple Computer, Inc. Method and apparatus for multi-mode traversal of lists
USD602858S1 (en) 2006-09-06 2009-10-27 Amx Llc Remote control charging base
US8243017B2 (en) 2006-09-11 2012-08-14 Apple Inc. Menu overlay including context dependent menu icon
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
USD550614S1 (en) 2006-09-22 2007-09-11 10Charge, Inc. Battery charger
JP2008089039A (ja) 2006-09-29 2008-04-17 Jtekt Corp 円すいころ軸受及びディファレンシャル装置
WO2008045690A2 (en) 2006-10-06 2008-04-17 Veveo, Inc. Linear character selection display interface for ambiguous text input
US7463557B2 (en) 2006-10-06 2008-12-09 Timex Group B.V. Electronic device with changeable display configurations
US7667148B2 (en) 2006-10-13 2010-02-23 Apple Inc. Method, device, and graphical user interface for dialing with a click wheel
US8355709B2 (en) 2006-10-23 2013-01-15 Qualcomm Incorporated Device that determines whether to launch an application locally or remotely as a webapp
USD575289S1 (en) 2006-12-11 2008-08-19 Hon Hai Precision Ind. Co., Ltd. Dock connector
USD545697S1 (en) 2007-01-10 2007-07-03 Nike, Inc. Portion of a watch
KR100896055B1 (ko) 2007-01-15 2009-05-07 엘지전자 주식회사 회전입력장치 구비 이동단말기 및 그 디스플레이 방법
US8311530B2 (en) 2007-01-26 2012-11-13 Research In Motion Limited Touch entry of password on a mobile device
US7966039B2 (en) 2007-02-02 2011-06-21 Microsoft Corporation Bidirectional dynamic offloading of tasks between a host and a mobile device
US8789053B2 (en) 2007-04-05 2014-07-22 Newton Howard Task execution and delegation by autonomous mobile agents based on intent knowledge base
CN101675652A (zh) 2007-04-26 2010-03-17 诺基亚公司 在移动通信终端中用于不同模式之间切换的改进的方法和装置
USD590727S1 (en) 2007-04-27 2009-04-21 New Heritage Ltd. Watch case
USD590277S1 (en) 2007-04-27 2009-04-14 New Heritage Ltd. Watch case
EP2153377A4 (en) 2007-05-04 2017-05-31 Qualcomm Incorporated Camera-based user input for compact devices
USD604643S1 (en) 2007-05-16 2009-11-24 Suunto Oy Multi-function wristwatch
US8442015B2 (en) 2007-07-20 2013-05-14 Broadcom Corporation Method and system for an atomizing function of a mobile device
JP2009005320A (ja) 2007-06-21 2009-01-08 Rumiko Aso 腕時計型携帯電話
US10178965B2 (en) 2007-06-22 2019-01-15 Ipventure, Inc. Activity monitoring system for pregnant women
KR101515089B1 (ko) 2007-08-16 2015-04-24 삼성전자 주식회사 그래픽 사용자 인터페이스 제공 장치 및 방법
US8676273B1 (en) 2007-08-24 2014-03-18 Iwao Fujisaki Communication device
US8593404B2 (en) 2007-08-27 2013-11-26 Blackberry Limited Reduced key arrangement for a mobile communication device
US7778118B2 (en) 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
ES1066912Y (es) 2007-09-13 2008-07-01 Fagor S Coop Dispositivo de control remoto para aparatos electrodomesticos
JP5184018B2 (ja) 2007-09-14 2013-04-17 京セラ株式会社 電子機器
JP4960812B2 (ja) 2007-09-14 2012-06-27 株式会社リコー 画像処理装置、負荷分散システム及び負荷分散プログラム
EP2947592B1 (en) 2007-09-24 2021-10-27 Apple Inc. Embedded authentication systems in an electronic device
KR100949581B1 (ko) 2007-10-08 2010-03-25 주식회사 자코드 통신단말기의 문자/숫자 입력장치 및 입력방법
US8031172B2 (en) 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
US8639214B1 (en) 2007-10-26 2014-01-28 Iwao Fujisaki Communication device
US20090134838A1 (en) 2007-11-27 2009-05-28 Puthalath Koroth Raghuprasad Circular self-powered magnetic generator
USD564367S1 (en) 2007-11-30 2008-03-18 Nike, Inc. Watch
US20090167486A1 (en) 2007-12-29 2009-07-02 Shah Rahul C Secure association between devices
US9467850B2 (en) 2007-12-31 2016-10-11 Intel Corporation Handheld device association via shared vibration
US7946758B2 (en) 2008-01-31 2011-05-24 WIMM Labs Modular movement that is fully functional standalone and interchangeable in other portable devices
RU74259U1 (ru) 2008-02-19 2008-06-20 Татаренков Валерий Владимирович Мобильный телефон-браслет
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9398046B2 (en) 2008-03-06 2016-07-19 Qualcomm Incorporated Image-based man-in-the-middle protection in numeric comparison association models
US20090234967A1 (en) 2008-03-17 2009-09-17 Nokia Corporation Method, system, and apparatus for transferring P2P file distribution tasks between devices
JP2009245122A (ja) 2008-03-31 2009-10-22 Fujitsu Ltd 認証装置、電子機器、その認証方法及び認証プログラム
USD585898S1 (en) 2008-04-01 2009-02-03 Sdi Technologies, Inc. Base unit for digital media player
US8949743B2 (en) 2008-04-22 2015-02-03 Apple Inc. Language input interface on a device
WO2009135312A1 (en) 2008-05-08 2009-11-12 Unify4Life Corporation Remote control system and method
US20090280861A1 (en) 2008-05-09 2009-11-12 Ashana Sabana Nisha Khan Multifunctional all-in-one detachable wrist wireless mobile communication device
US8638229B2 (en) 2008-05-29 2014-01-28 Garmin Switzerland Gmbh Swim watch
US8295879B2 (en) 2008-05-30 2012-10-23 Motorola Mobility Llc Devices and methods for initiating functions based on movement characteristics relative to a reference
DE102008027746A1 (de) 2008-06-11 2009-12-17 Kirner, Markus A. Armbanduhranordnung mit Mobiltelefon
JP2009301485A (ja) 2008-06-17 2009-12-24 Olympus Corp 情報表示システムおよびそれを用いた携帯情報端末
US8112526B2 (en) 2008-06-24 2012-02-07 International Business Machines Corporation Process migration based on service availability in a multi-node environment
US8447704B2 (en) 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
US8078873B2 (en) 2008-06-30 2011-12-13 Intel Corporation Two-way authentication between two communication endpoints using a one-way out-of-band (OOB) channel
US20100020033A1 (en) 2008-07-23 2010-01-28 Obinna Ihenacho Alozie Nwosu System, method and computer program product for a virtual keyboard
KR101546774B1 (ko) 2008-07-29 2015-08-24 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
US20100039393A1 (en) 2008-08-15 2010-02-18 At&T Intellectual Property I, L.P. Text entry on touch screen cellphones by different pressure levels
JP4899108B2 (ja) 2008-08-24 2012-03-21 照彦 矢上 腕時計型電子メモ装置
US8319742B2 (en) 2008-08-26 2012-11-27 Research In Motion Limited Portable electronic device and method of controlling same
KR20100028465A (ko) 2008-09-04 2010-03-12 백상주 포인터의 드래그 방향에 따른 문자 또는 메뉴입력 방법
US20100070913A1 (en) 2008-09-15 2010-03-18 Apple Inc. Selecting an item of content in a graphical user interface for a portable computing device
JP2010073830A (ja) 2008-09-17 2010-04-02 Sumitomo Metal Mining Co Ltd リードフレーム及びリードフレームの製造方法
US20100082485A1 (en) 2008-09-30 2010-04-01 Apple Inc. Portable point of purchase devices and methods
US9026462B2 (en) 2008-09-30 2015-05-05 Apple Inc. Portable point of purchase user interfaces
KR101537596B1 (ko) 2008-10-15 2015-07-20 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
US8335993B1 (en) 2008-10-24 2012-12-18 Marvell International Ltd. Enhanced touch sensitive interface and methods and software for making and using the same
JP4506890B2 (ja) 2008-10-28 2010-07-21 トヨタ自動車株式会社 歩行補助装置
USD596610S1 (en) 2008-11-07 2009-07-21 Cheng Uei Precision Industry Co., Ltd. Wrist type mobile phone
US9201582B2 (en) 2008-11-11 2015-12-01 Canon Kabushiki Kaisha Display control apparatus and display control method
US8503932B2 (en) 2008-11-14 2013-08-06 Sony Mobile Comminications AB Portable communication device and remote motion input device
JP5343523B2 (ja) 2008-11-17 2013-11-13 富士通株式会社 ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP2010122934A (ja) 2008-11-20 2010-06-03 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9355554B2 (en) 2008-11-21 2016-05-31 Lenovo (Singapore) Pte. Ltd. System and method for identifying media and providing additional media content
AU326155S (en) 2008-12-22 2009-06-01 Swarovski Aktiengesselschaft Wrist watch
US8289162B2 (en) 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
US20100167646A1 (en) 2008-12-30 2010-07-01 Motorola, Inc. Method and apparatus for device pairing
US9591118B2 (en) 2009-01-01 2017-03-07 Intel Corporation Pose to device mapping
USD596509S1 (en) 2009-01-08 2009-07-21 Seiko Watch Kabushiki Kaisha Watch case
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8326221B2 (en) 2009-02-09 2012-12-04 Apple Inc. Portable electronic device with proximity-based content synchronization
EP2220997A1 (en) 2009-02-24 2010-08-25 Koninklijke Philips Electronics N.V. Device, system and method for monitoring motion sequences
US8098141B2 (en) 2009-02-27 2012-01-17 Nokia Corporation Touch sensitive wearable band apparatus and method
USD596959S1 (en) 2009-03-05 2009-07-28 Zino Davidoff Trading Ag Watch case
AU327459S (en) 2009-03-06 2009-09-03 Rado Uhren Ag Rado Watch Co Ltd Montres Rado Sa Watch
US20100245078A1 (en) 2009-03-26 2010-09-30 Wellcore Corporation Wearable Motion Sensing Device
US20100250789A1 (en) 2009-03-27 2010-09-30 Qualcomm Incorporated System and method of managing memory at a portable computing device and a portable computing device docking station
US9189472B2 (en) 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
CN103955131B (zh) 2009-04-26 2017-04-12 耐克创新有限合伙公司 在运动手表系统中的gps特征和功能
US20120069027A1 (en) 2009-04-28 2012-03-22 Wataru Yamazaki Input device
JP5263833B2 (ja) 2009-05-18 2013-08-14 国立大学法人 奈良先端科学技術大学院大学 ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
EP2256592A1 (en) 2009-05-18 2010-12-01 Lg Electronics Inc. Touchless control of an electronic device
US8294105B2 (en) 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
US8287320B2 (en) 2009-05-22 2012-10-16 John Mezzalingua Associates, Inc. Coaxial cable connector having electrical continuity member
USD626550S1 (en) 2009-05-26 2010-11-02 Implanet PDA device
JP5282661B2 (ja) 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
USD615955S1 (en) 2009-05-26 2010-05-18 Samsung Electronics Co., Ltd. Mobile phone
US8682608B2 (en) 2009-05-27 2014-03-25 Panasonic Corporation Behavior recognition apparatus
US20100304673A1 (en) 2009-05-29 2010-12-02 Junichi Yoshizawa Wireless Communication Apparatus and Wireless Communication Method
US9239740B2 (en) 2009-06-16 2016-01-19 Microsoft Technology Licensing, Llc Program partitioning across client and cloud
US8560465B2 (en) 2009-07-02 2013-10-15 Samsung Electronics Co., Ltd Execution allocation cost assessment for computing systems and environments including elastic computing systems and environments
US9189156B2 (en) 2009-07-14 2015-11-17 Howard Gutowitz Keyboard comprising swipe-switches performing keyboard actions
US8818274B2 (en) 2009-07-17 2014-08-26 Qualcomm Incorporated Automatic interfacing between a master device and object device
US9030404B2 (en) * 2009-07-23 2015-05-12 Qualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
US8245234B2 (en) 2009-08-10 2012-08-14 Avaya Inc. Credit scheduler for ordering the execution of tasks
USD612269S1 (en) 2009-08-13 2010-03-23 P.S.L. Limited Slap-on watch
JP5254906B2 (ja) 2009-08-27 2013-08-07 京セラ株式会社 電子機器
US8060560B2 (en) 2009-08-27 2011-11-15 Net Power And Light, Inc. System and method for pervasive computing
US8572375B2 (en) 2009-09-23 2013-10-29 Microsoft Corporation Device pairing based on graphically encoded data
US8717291B2 (en) 2009-10-07 2014-05-06 AFA Micro Co. Motion sensitive gesture device
GB2483168B (en) 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
US8279052B2 (en) 2009-11-04 2012-10-02 Immersion Corporation Systems and methods for haptic confirmation of commands
CN102713794A (zh) 2009-11-24 2012-10-03 奈克斯特控股公司 用于手势识别模式控制的方法和装置
US8907768B2 (en) 2009-11-25 2014-12-09 Visa International Service Association Access using a mobile device with an accelerometer
USD627718S1 (en) 2009-12-11 2010-11-23 Black & Decker Inc. Charger base for a hand-held vacuum cleaner
KR20110069958A (ko) 2009-12-18 2011-06-24 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 데이터 생성 방법 및 장치
CA135976S (en) 2009-12-23 2011-11-24 Simone Dalla Libera Watch
US9229779B2 (en) 2009-12-28 2016-01-05 Empire Technology Development Llc Parallelizing heterogeneous network communications in smart devices based on selection of task allocation strategy
US20120256959A1 (en) * 2009-12-30 2012-10-11 Cywee Group Limited Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device
EP2341420A1 (en) 2010-01-04 2011-07-06 Research In Motion Limited Portable electronic device and method of controlling same
KR101697937B1 (ko) 2010-01-08 2017-02-01 삼성전자주식회사 멀티프로세서 시스템에서 동적 태스크 마이그레이션을 위한 방법 및 시스템
CN101815326B (zh) 2010-01-11 2011-06-15 北京邮电大学 基于协商的无线传感器网络任务分配方法
WO2011096702A2 (ko) 2010-02-03 2011-08-11 고려대학교 산학협력단 문자 입력 장치 및 방법
US8869263B2 (en) 2010-02-26 2014-10-21 Blackberry Limited Wireless communications system providing mobile device authentication bypass based upon user-wearable security device and related methods
US20120194551A1 (en) 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with user-action based command and control of external devices
US20110219427A1 (en) 2010-03-04 2011-09-08 RSSBus, Inc. Smart Device User Authentication
JP5642809B2 (ja) 2010-03-12 2014-12-17 ニュアンス コミュニケーションズ, インコーポレイテッド 携帯電話のタッチスクリーンとの使用等のためのマルチモーダルテキスト入力システム
KR101659023B1 (ko) 2010-03-15 2016-09-23 엘지전자 주식회사 와치형 이동 단말기
US8370878B2 (en) 2010-03-17 2013-02-05 Verizon Patent And Licensing Inc. Mobile interface for accessing interactive television applications associated with displayed content
CH702862B1 (fr) 2010-03-30 2024-06-14 Smart Communications Sa Montre bracelet à affichage électronique.
US9811385B2 (en) 2010-04-28 2017-11-07 Wind River Systems, Inc. Optimizing task management
JP5681865B2 (ja) 2010-05-10 2015-03-11 レノボ・イノベーションズ・リミテッド(香港) ユーザーインターフェース装置
US8683377B2 (en) * 2010-05-12 2014-03-25 Adobe Systems Incorporated Method for dynamically modifying zoom level to facilitate navigation on a graphical user interface
MX2012013253A (es) 2010-05-19 2013-01-24 Sharp Kk Dispositivo de reproduccion, dispositivo de vizualizacion, receptor de television, sistema, metodo de reconocimiento, programa y medio de grabacion.
US20110289519A1 (en) 2010-05-21 2011-11-24 Frost Gary R Distributing workloads in a computing platform
US9026074B2 (en) 2010-06-04 2015-05-05 Qualcomm Incorporated Method and apparatus for wireless distributed computing
US8935317B2 (en) 2010-06-23 2015-01-13 Microsoft Corporation Dynamic partitioning of applications between clients and servers
USD631373S1 (en) 2010-06-29 2011-01-25 Worldwide Watch Company Limited Watch
WO2012009335A1 (en) 2010-07-14 2012-01-19 Dynavox Systems Llc A wearable speech generation device
US9532734B2 (en) 2010-08-09 2017-01-03 Nike, Inc. Monitoring fitness using a mobile device
JP5234066B2 (ja) 2010-08-25 2013-07-10 横河電機株式会社 機器情報表示装置及び機器情報表示方法
WO2012030653A2 (en) 2010-08-29 2012-03-08 Vascode Technologies Ltd. A system and methods for multi-tasking in a clientless mobile phone
US9007304B2 (en) 2010-09-02 2015-04-14 Qualcomm Incorporated Methods and apparatuses for gesture-based user input detection in a mobile device
US9489016B2 (en) 2010-09-08 2016-11-08 Live Lids, Inc. Electronic display wearable item
KR101219933B1 (ko) 2010-09-13 2013-01-08 현대자동차주식회사 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법
EP2616908A2 (en) 2010-09-15 2013-07-24 Jeffrey R. Spetalnick Methods of and systems for reducing keyboard data entry errors
USD645360S1 (en) 2010-09-17 2011-09-20 Simpel, LLC Slap band watch
USD669369S1 (en) 2010-09-20 2012-10-23 Daniel Rasumowsky Watch
US8595289B2 (en) 2010-09-21 2013-11-26 Telefonaktiebolaget L M Ericsson (Publ) Cloud phone with distributed processing
US20130165180A1 (en) 2010-09-27 2013-06-27 Adobe Systems Incorporated Integrating Operation Of Consumer Electronic Devices
US20120075204A1 (en) 2010-09-27 2012-03-29 Google Inc. Using a Touch-Sensitive Display of a Mobile Device with a Host Computer
JP2012073830A (ja) 2010-09-29 2012-04-12 Pioneer Electronic Corp インターフェース装置
US8345412B2 (en) 2010-10-01 2013-01-01 Hex Holdings, Llc Wrist band for portable electronic devices
US9462444B1 (en) 2010-10-04 2016-10-04 Nortek Security & Control Llc Cloud based collaborative mobile emergency call initiation and handling distribution system
US8506158B2 (en) 2010-10-12 2013-08-13 P.S.L. Limited Watch
AU334766S (en) 2010-10-13 2011-01-24 Swarovski Ag Case for a wristwatch
US20120096345A1 (en) 2010-10-19 2012-04-19 Google Inc. Resizing of gesture-created markings for different display sizes
US8635630B2 (en) 2010-10-25 2014-01-21 Microsoft Corporation Application lifetime management
US9086741B2 (en) 2010-10-29 2015-07-21 Microsoft Corporation User input device
JP2012098771A (ja) 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
US8814754B2 (en) 2010-11-01 2014-08-26 Nike, Inc. Wearable device having athletic functionality
US8184983B1 (en) 2010-11-12 2012-05-22 Google Inc. Wireless directional identification and subsequent communication between wearable electronic devices
USD640948S1 (en) 2010-11-15 2011-07-05 Hook-Link, LLC Magnetically hooking bracelet
JP2012108771A (ja) 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
US8195313B1 (en) * 2010-11-19 2012-06-05 Nest Labs, Inc. Thermostat user interface
JP5733656B2 (ja) 2010-11-25 2015-06-10 公立大学法人会津大学 ジェスチャ認識装置及びジェスチャ認識方法
US9155168B2 (en) 2010-12-03 2015-10-06 Surefire, Llc Wearable lighting device
CN102572565A (zh) 2010-12-15 2012-07-11 深圳市同洲软件有限公司 一种移动终端控制数字电视接收终端方法、装置和系统
USD640936S1 (en) 2011-01-01 2011-07-05 Teresa Teixeia Combined watch and bracelet
USD636686S1 (en) 2011-01-04 2011-04-26 Nike, Inc. Watch
US9436286B2 (en) 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
EP2474950B1 (en) 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
USD651099S1 (en) 2011-01-10 2011-12-27 Montblanc-Simplo Gmbh Watch case
WO2012099584A1 (en) 2011-01-19 2012-07-26 Hewlett-Packard Development Company, L.P. Method and system for multimodal and gestural control
US8699948B2 (en) 2011-01-25 2014-04-15 Sony Corporation Connection method for near field communication
US10631246B2 (en) 2011-02-14 2020-04-21 Microsoft Technology Licensing, Llc Task switching on mobile devices
US9645986B2 (en) 2011-02-24 2017-05-09 Google Inc. Method, medium, and system for creating an electronic book with an umbrella policy
USD678081S1 (en) 2011-03-14 2013-03-19 Montblanc-Simplo Gmbh Watchcase
WO2012124250A1 (ja) 2011-03-15 2012-09-20 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
US8655027B1 (en) 2011-03-25 2014-02-18 The United States of America, as represented by the Director, National Security Agency Method of image-based user authentication
JP5960796B2 (ja) 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
US10061387B2 (en) 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
US10630795B2 (en) 2011-03-31 2020-04-21 Oath Inc. Systems and methods for transferring application state between devices based on gestural input
WO2012135563A1 (en) 2011-03-31 2012-10-04 Sony Mobile Communications Ab System and method for establishing a communication session
US8811964B2 (en) 2011-04-04 2014-08-19 Numera, Inc. Single button mobile telephone using server-based call routing
USD661206S1 (en) 2011-04-06 2012-06-05 Garmin Switzerland Gmbh Electronic device
USD659093S1 (en) 2011-04-08 2012-05-08 The Gillette Company Charger
KR101836403B1 (ko) 2011-04-12 2018-04-19 엘지전자 주식회사 디스플레이 장치의 리모콘 기능을 수행하는 이동 단말기
US9152373B2 (en) 2011-04-12 2015-10-06 Apple Inc. Gesture visualization and sharing between electronic devices and remote displays
US8928589B2 (en) 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
JP5824859B2 (ja) 2011-05-02 2015-12-02 船井電機株式会社 携帯端末
JP6316186B2 (ja) 2011-05-06 2018-04-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. 広範囲同時遠隔ディジタル提示世界
JP5988036B2 (ja) 2011-05-18 2016-09-07 パナソニックIpマネジメント株式会社 通信制御システムおよびその方法、ならびに通信装置およびその方法、プログラム
KR101844222B1 (ko) 2011-05-27 2018-04-02 엘지전자 주식회사 이동 단말기 및 이것의 모드 제어 방법
JP2012248067A (ja) 2011-05-30 2012-12-13 Canon Inc 情報入力装置、その制御方法、および制御プログラム
KR20120134732A (ko) 2011-06-03 2012-12-12 삼성전자주식회사 원격제어기를 이용하여 웹 브라우징을 수행하는 장치 및 방법
US20120316456A1 (en) 2011-06-10 2012-12-13 Aliphcom Sensory user interface
US20120317024A1 (en) 2011-06-10 2012-12-13 Aliphcom Wearable device data security
KR101819506B1 (ko) 2011-06-28 2018-01-17 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8194036B1 (en) 2011-06-29 2012-06-05 Google Inc. Systems and methods for controlling a cursor on a display using a trackpad input device
KR101251250B1 (ko) 2011-07-01 2013-04-08 알서포트 주식회사 원격 디바이스 드라이버를 이용한 원격 제어 시스템 및 원격 디바이스 드라이버를 이용한 원격 제어 방법
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US8184070B1 (en) 2011-07-06 2012-05-22 Google Inc. Method and system for selecting a user interface for a wearable computing device
US20130018659A1 (en) 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US8228315B1 (en) 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US20130021374A1 (en) 2011-07-20 2013-01-24 Google Inc. Manipulating And Displaying An Image On A Wearable Computing System
US9015708B2 (en) 2011-07-28 2015-04-21 International Business Machines Corporation System for improving the performance of high performance computing applications on cloud using integrated load balancing
US9256361B2 (en) * 2011-08-03 2016-02-09 Ebay Inc. Control of search results with multipoint pinch gestures
USD650706S1 (en) 2011-08-08 2011-12-20 Blue Sky SRL Wrist watch
US8641306B2 (en) 2011-08-16 2014-02-04 Argotext Wristwatch keyboard
USD661275S1 (en) 2011-08-19 2012-06-05 Cox Communications, Inc. Mobile communications device with wrist band
US9720708B2 (en) 2011-08-19 2017-08-01 Advanced Micro Devices, Inc. Data layout transformation for workload distribution
USD654431S1 (en) 2011-08-29 2012-02-21 Eveready Battery Company, Inc. Charger for a lighting device
US9529448B2 (en) 2011-08-31 2016-12-27 Farzan Fallah Data entry systems and methods
US9173090B2 (en) 2011-09-15 2015-10-27 Teletech Holdings, Inc. Method for activating services associated with a product via a service center supporting a variety of products
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
CN103034362B (zh) 2011-09-30 2017-05-17 三星电子株式会社 移动终端中处理触摸输入的方法和设备
US9336687B2 (en) 2011-10-11 2016-05-10 Teletech Holdings, Inc. Method for providing learning courses via a service center supporting a variety of products
US8707211B2 (en) 2011-10-21 2014-04-22 Hewlett-Packard Development Company, L.P. Radial graphical user interface
US8279716B1 (en) 2011-10-26 2012-10-02 Google Inc. Smart-watch including flip up display
US8467270B2 (en) 2011-10-26 2013-06-18 Google Inc. Smart-watch with user interface features
US8935629B2 (en) * 2011-10-28 2015-01-13 Flipboard Inc. Systems and methods for flipping through content
US9936036B2 (en) 2011-10-28 2018-04-03 Sharp Laboratories Of America, Inc. Method and system for indirectly establishing a unique communication channel between a plurality of devices
WO2013063767A1 (en) 2011-11-01 2013-05-10 Intel Corporation Dynamic gesture based short-range human-machine interaction
WO2013067392A1 (en) 2011-11-02 2013-05-10 Hendricks Investment Holdings, Llc Device navigation icon and system, and method of use thereof
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
US9288229B2 (en) 2011-11-10 2016-03-15 Skype Device association via video handshake
US9007302B1 (en) 2011-11-11 2015-04-14 Benjamin D. Bandt-Horn Device and user interface for visualizing, navigating, and manipulating hierarchically structured information on host electronic devices
US9183658B2 (en) * 2011-11-14 2015-11-10 Microsoft Technology Licensing, Llc Animation creation and management in presentation application programs
US20130120106A1 (en) 2011-11-16 2013-05-16 Motorola Mobility, Inc. Display device, corresponding systems, and methods therefor
US20130132848A1 (en) 2011-11-18 2013-05-23 Apple Inc. Application interaction via multiple user interfaces
US9286901B1 (en) 2011-11-23 2016-03-15 Evernote Corporation Communication using sound
US20140330900A1 (en) 2011-11-23 2014-11-06 Evernote Corporation Encounter-driven personal contact space
US9162144B2 (en) 2011-12-05 2015-10-20 Microsoft Technology Licensing, Llc Portable device pairing with a tracking system
KR101242390B1 (ko) 2011-12-29 2013-03-12 인텔 코오퍼레이션 사용자를 인증하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
US9137627B2 (en) 2011-12-30 2015-09-15 Linkedin Corporation Systems and methods for mobile device pairing
USD664880S1 (en) 2012-01-18 2012-08-07 Nike, Inc. Wristband
USD671858S1 (en) 2012-01-18 2012-12-04 Nike, Inc. Wristband
USD664881S1 (en) 2012-01-18 2012-08-07 Nike, Inc. Wristband
US9134810B2 (en) 2012-01-19 2015-09-15 Blackberry Limited Next letter prediction for virtual keyboard
US9026461B2 (en) 2012-01-23 2015-05-05 Bank Of America Corporation Enhanced mobile application for assisting users at a point of transaction
US9367085B2 (en) 2012-01-26 2016-06-14 Google Technology Holdings LLC Portable electronic device and method for controlling operation thereof taking into account which limb possesses the electronic device
US20130198056A1 (en) 2012-01-27 2013-08-01 Verizon Patent And Licensing Inc. Near field communication transaction management and application systems and methods
US8872849B2 (en) * 2012-01-27 2014-10-28 Microsoft Corporation Relational rendering of multi-faceted data
JP5193404B2 (ja) 2012-02-10 2013-05-08 オリンパスイメージング株式会社 情報機器
US20130211843A1 (en) 2012-02-13 2013-08-15 Qualcomm Incorporated Engagement-dependent gesture recognition
US9186077B2 (en) 2012-02-16 2015-11-17 Google Technology Holdings LLC Method and device with customizable power management
USD687736S1 (en) 2012-02-16 2013-08-13 Christopher D. Wycoff Bracelet with removable chip
US20130227460A1 (en) 2012-02-27 2013-08-29 Bjorn David Jawerth Data entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods
US8947382B2 (en) 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
US20130254705A1 (en) * 2012-03-20 2013-09-26 Wimm Labs, Inc. Multi-axis user interface for a touch-screen enabled wearable device
US10332112B2 (en) 2012-03-27 2019-06-25 International Business Machines Corporation Authentication for transactions using near field communication
USD680541S1 (en) 2012-04-11 2013-04-23 Coby Electronics Corp. Docking station for a portable media player
USD672255S1 (en) 2012-04-16 2012-12-11 I'M SpA Watch
WO2013163718A1 (en) 2012-04-30 2013-11-07 Blackberry Limited Touchscreen keyboard with correction of previously input text
US20130300719A1 (en) 2012-05-10 2013-11-14 Research In Motion Limited Method and apparatus for providing stylus orientation and position input
CN102681786B (zh) 2012-05-14 2014-12-24 华为技术有限公司 文本选择的方法及装置
CN102779002B (zh) 2012-06-19 2015-05-20 邓朝进 一种触摸屏键盘
US9256366B2 (en) 2012-08-14 2016-02-09 Google Technology Holdings LLC Systems and methods for touch-based two-stage text input
US9619282B2 (en) 2012-08-21 2017-04-11 Lenovo (Singapore) Pte. Ltd. Task scheduling in big and little cores
US9360997B2 (en) 2012-08-29 2016-06-07 Apple Inc. Content presentation and interaction across multiple displays
US20140078065A1 (en) 2012-09-15 2014-03-20 Ahmet Akkok Predictive Keyboard With Suppressed Keys
US8963806B1 (en) 2012-10-29 2015-02-24 Google Inc. Device authentication
US9373230B2 (en) 2012-10-31 2016-06-21 Wal-Mart Stores, Inc. Customer reprint of a physical receipt from an electronic receipt
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US9030446B2 (en) 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US20140181758A1 (en) 2012-12-20 2014-06-26 Research In Motion Limited System and Method for Displaying Characters Using Gestures
US10063598B2 (en) 2012-12-28 2018-08-28 Nokia Technologies Oy Method and apparatus for establishing, authenticating, and accessing a content channel
WO2014127337A2 (en) 2013-02-17 2014-08-21 Keyless Systems Ltd. Improved data entry systems
US20140282274A1 (en) 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a gesture performed with at least two control objects
US9274685B2 (en) 2013-03-15 2016-03-01 Google Technology Holdings LLC Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input
US20140306898A1 (en) 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Key swipe gestures for touch sensitive ui virtual keyboard
JP6440151B2 (ja) 2013-08-23 2018-12-19 シクパ ホルディング ソシエテ アノニムSicpa Holding Sa デバイスを認証するための方法及びシステム
CN103488420A (zh) 2013-09-02 2014-01-01 宇龙计算机通信科技(深圳)有限公司 虚拟键盘调整的方法和装置
US9100395B2 (en) 2013-09-24 2015-08-04 International Business Machines Corporation Method and system for using a vibration signature as an authentication key
US9450682B2 (en) 2013-10-07 2016-09-20 International Business Machines Corporation Method and system using vibration signatures for pairing master and slave computing devices
US9022291B1 (en) 2014-07-24 2015-05-05 Apple Inc. Invisible optical label for transmitting information between computing devices
US10326590B2 (en) 2014-11-11 2019-06-18 Intel Corporation Technologies for trusted device on-boarding

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6556222B1 (en) * 2000-06-30 2003-04-29 International Business Machines Corporation Bezel based input mechanism and user interface for a smart watch
US20020101457A1 (en) * 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
JP2004184396A (ja) * 2002-10-09 2004-07-02 Seiko Epson Corp 表示装置、時計、表示装置の制御方法、制御プログラムおよび記録媒体
US20040164957A1 (en) * 2003-02-26 2004-08-26 Kosuke Yamaguchi Three-dimensional object manipulating apparatus, method and computer program
RU2319997C2 (ru) * 2005-12-30 2008-03-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Электронное устройство для выполнения запрограммированных функций (варианты) и способ ввода команд в подобном устройстве
RU2421774C2 (ru) * 2006-09-29 2011-06-20 Сони Эрикссон Мобайл Коммьюникейшнз Аб Компактный поворотный выключатель для мобильного терминала
US20120092383A1 (en) * 2009-07-03 2012-04-19 Hysek Joerg Wristwatch with a touch screen and method for displaying on a touch-screen watch
US20110157046A1 (en) * 2009-12-30 2011-06-30 Seonmi Lee Display device for a mobile terminal and method of controlling the same

Also Published As

Publication number Publication date
EP2733598B1 (en) 2019-04-03
CN105051663A (zh) 2015-11-11
AU2013260686B2 (en) 2019-05-02
RU2017142722A3 (ru) 2021-04-02
IN2013MU03645A (ru) 2015-07-31
MX2015006361A (es) 2015-10-05
WO2014081179A1 (en) 2014-05-30
RU2641462C2 (ru) 2018-01-17
US10551928B2 (en) 2020-02-04
BR112015011598B1 (pt) 2022-01-25
MX354503B (es) 2018-03-08
JP6804586B2 (ja) 2020-12-23
EP2733598A3 (en) 2016-06-08
US20140143678A1 (en) 2014-05-22
EP2733598A2 (en) 2014-05-21
RU2015124029A (ru) 2017-01-10
BR112015011598A2 (pt) 2017-07-11
MY177407A (en) 2020-09-14
JP2019164822A (ja) 2019-09-26
RU2017142722A (ru) 2019-02-14

Similar Documents

Publication Publication Date Title
US20220121339A1 (en) Controlling Remote Electronic Device with Wearable Electronic Device
RU2754525C2 (ru) Переходы графического пользовательского интерфейса (gui) на носимом электронном устройстве
US20220244826A1 (en) Transition and Interaction Model for Wearable Electronic Device
US11240408B2 (en) Wearable electronic device
RU2621975C2 (ru) Делегирование обработки из носимого электронного устройства
RU2623805C2 (ru) Ввод жеста пользователем на носимом электронном устройстве, включающий в себя движение устройства
AU2013260684B2 (en) Placement of optical sensor on wearble electronic device
AU2013260687B2 (en) User gesture input to wearable electronic device involving outward-facing sensor of device