RU2614575C2 - Носимое электронное устройство - Google Patents

Носимое электронное устройство Download PDF

Info

Publication number
RU2614575C2
RU2614575C2 RU2015123702A RU2015123702A RU2614575C2 RU 2614575 C2 RU2614575 C2 RU 2614575C2 RU 2015123702 A RU2015123702 A RU 2015123702A RU 2015123702 A RU2015123702 A RU 2015123702A RU 2614575 C2 RU2614575 C2 RU 2614575C2
Authority
RU
Russia
Prior art keywords
user
gesture
display
specific embodiments
illustrates
Prior art date
Application number
RU2015123702A
Other languages
English (en)
Other versions
RU2015123702A (ru
Inventor
Пранав МИСТРИ
Саджид САДИ
Кертис Дуглас ОМИЛЕР
Чэнюань ВЭЙ
Original Assignee
Самсунг Электроникс Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Самсунг Электроникс Ко., Лтд. filed Critical Самсунг Электроникс Ко., Лтд.
Publication of RU2015123702A publication Critical patent/RU2015123702A/ru
Application granted granted Critical
Publication of RU2614575C2 publication Critical patent/RU2614575C2/ru

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts

Abstract

Изобретение относится к носимым электронным устройствам, обеспечивающим захват изображения. Технический результат заключается в реализации указанного назначения. В одном варианте осуществления устройство включает в себя корпус устройства, который включает в себя сенсорный дисплей и процессор. Устройство также включает в себя браслет, соединенный с корпусом устройства, и оптический датчик в/на браслете. Оптический датчик обращен наружу относительно браслета и захватывает изображения, причем размещение оптического датчика является регулируемым. Процессор обменивается данными с оптическим датчиком для того, чтобы обрабатывать захваченные изображения. 2 н. и 14 з.п. ф-лы, 249 ил.

Description

Область техники, к которой относится изобретение
[1] Данная заявка испрашивает приоритет, в соответствии с 35 U.S.C.§11(e), предварительной заявки на патент (США) №61/728765, поданной 20 ноября 2012 года, предварительной заявки на патент (США) №61/728770, поданной 20 ноября 2012 года, предварительной заявки на патент (США) №61/773803, поданной 6 марта 2013 года, предварительной заявки на патент (США) №61/728773, поданной 20 ноября 2012 года, предварительной заявки на патент (США) №61/773813, поданной 7 марта 2013 года, предварительной заявки на патент (США) №61/773815, поданной 7 марта 2013 года, предварительной заявки на патент (США) №61/773817, поданной 7 марта 2013 года, предварительной заявки на патент (США) №61/775688, поданной 11 марта 2013 года, предварительной заявки на патент (США) №61/775687, поданной 11 марта 2013 года, предварительной заявки на патент (США) №61/775686, поданной 11 марта 2013 года, и заявки на патент (США) №14/015795, поданной 30 августа 2013 года, все из которых содержатся по ссылке в данном документе.
[2] Данное раскрытие, в общем, относится к носимому электронному устройству.
Уровень техники
[3] Мобильные электронные устройства предоставляют пользователю доступ к вычислительным возможностям даже в то время, когда пользователь перемещается в различные местоположения. Примеры мобильных электронных устройств включают в себя мобильные телефоны, мультимедийные проигрыватели, переносные компьютеры, планшетные компьютеры, PDA или гибридные устройства, которые включают в себя функциональность нескольких устройств этого типа.
[4] Мобильные электронные устройства могут быть частью сети связи, такой как локальная вычислительная сеть, глобальная вычислительная сеть, сотовая сеть, Интернет или любая другая подходящая сеть. Мобильное электронное устройство может использовать сеть связи для того, чтобы осуществлять связь с другими электронными устройствами, например, осуществлять доступ к удаленно сохраненным данным, осуществлять доступ к удаленной вычислительной мощности, осуществлять доступ к удаленным дисплеям, предоставлять локально сохраненные данные, предоставлять локальную вычислительную мощность или предоставлять доступ к локальным дисплеям. Например, сети могут предоставлять тракты и линии связи для серверов, которые могут выполнять хостинг приложений, контента и услуг, к которым может осуществляться доступ или которые могут использоваться пользователями через мобильные электронные устройства. Контент может включать в себя текст, видеоданные, аудиоданные, пользовательские настройки или другие типы данных. Сети могут использовать любой подходящий протокол или технологию связи для того, чтобы упрощать связь между мобильными электронными устройствами, такую как, например, технология Bluetooth, IEEE Wi-Fi (802.11a/b/g/n/ac) или TCP/IP.
Сущность изобретения
Решение задачи
[5] В одном варианте осуществления, устройство включает в себя корпус устройства, который включает в себя сенсорный (воспринимающий касание) дисплей и процессор. Устройство также включает в себя браслет, соединенный с корпусом устройства, и оптический датчик в/на браслете. Оптический датчик обращен наружу относительно браслета и захватывает изображения. Процессор обменивается данными с оптическим датчиком для того, чтобы обрабатывать захваченные изображения.
Преимущества изобретения
[6] Согласно настоящему изобретению, предоставляется носимое электронное устройство.
Краткое описание чертежей
[7] Фиг. 1 иллюстрирует примерный вариант осуществления носимого электронного устройства.
[8] Фиг. 2 иллюстрирует примерную пакетированную конфигурацию устройства.
[9] Фиг. 3A-3E иллюстрируют примерные форм-факторы устройства.
[10] Фиг. 4A иллюстрирует примерное поперечное сечение корпуса устройства.
[11] Фиг. 4B-C иллюстрируют примерные соединения между компонентами устройства.
[12] Фиг. 5A-5F иллюстрируют примерные дисплеи устройства.
[13] Фиг. 6A-C иллюстрируют примерные виды в поперечном сечении дисплея устройства.
[14] Фиг. 7A-7D иллюстрируют примерные внешние элементы относительно корпуса устройства.
[15] Фиг. 8A-8C иллюстрируют примерные внешние элементы относительно корпуса устройства.
[16] Фиг. 9 иллюстрирует примерное уплотнительное кольцо устройства.
[17] Фиг. 10 иллюстрирует примерное удерживающее кольцо устройства.
[18] Фиг. 11 иллюстрирует различные примерные варианты осуществления для ношения устройства.
[19] Фиг. 12A-12B иллюстрируют браслет, присоединенный к корпусу устройства.
[20] Фиг. 13A-13I иллюстрируют примерные варианты осуществления для застегивания или прикрепления браслета устройства.
[21] Фиг. 14A-D иллюстрируют примерные размещения камеры на устройстве.
[22] Фиг. 15 иллюстрирует примерное устройство с браслетом и оптическим датчиком.
[23] Фиг. 16 иллюстрирует примерный треугольник просмотра, включающий в себя пользователя, устройство и объект.
[24] Фиг. 17 иллюстрирует примерный угол обзора для оптического датчика устройства.
[25] Фиг. 18A-18B иллюстрируют примерные оптические датчики устройства.
[26] Фиг. 19 иллюстрирует примерную систему обнаружения с помощью датчиков устройства.
[27] Фиг. 20A-20C иллюстрируют примерные зарядные устройства, работающие с устройством.
[28] Фиг. 21A-21B иллюстрируют примерные зарядные устройства, работающие с устройством.
[29] Фиг. 22A-22B иллюстрируют примерные зарядные блоки, работающие с устройством.
[30] Фиг. 23 иллюстрирует примерную зарядную схему для зарядного блока, работающего с устройством.
[31] Фиг. 24 иллюстрирует примерную зарядную схему для зарядного блока, работающего с устройством.
[32] Фиг. 25A-25E иллюстрируют примерные варианты осуществления накопления энергии и заряда в устройстве и зарядном блоке.
[33] Фиг. 26 иллюстрирует примерную архитектуру зарядного блока.
[34] Фиг. 27-92 иллюстрируют примерные жесты для использования с устройством.
[35] Фиг. 93A-93B иллюстрируют примерные пользовательские вводы в устройство.
[36] Фиг. 94A-94C иллюстрируют примерные пользовательские вводы в устройство.
[37] Фиг. 95A-95D иллюстрируют примерный пользовательский сенсорный ввод в устройство.
[38] Фиг. 96A-96B иллюстрируют примерные модели графического пользовательского интерфейса устройства.
[39] Фиг. 97 иллюстрирует примерную модель графического пользовательского интерфейса устройства.
[40] Фиг. 98A-98G иллюстрируют примерные модели графического пользовательского интерфейса устройства.
[41] Фиг. 99 иллюстрирует примерную модель графического пользовательского интерфейса устройства.
[42] Фиг. 100A-100C иллюстрируют примерные модели графического пользовательского интерфейса устройства.
[43] Фиг. 101A-101B иллюстрируют примерные экраны графического пользовательского интерфейса устройства.
[44] Фиг. 102A-102D иллюстрируют примерные экраны графического пользовательского интерфейса устройства.
[45] Фиг. 103A-103D иллюстрируют примерные экраны графического пользовательского интерфейса устройства.
[46] Фиг. 104 иллюстрирует примерное меню графического пользовательского интерфейса устройства.
[47] Фиг. 105A-105D иллюстрируют примерные меню графического пользовательского интерфейса устройства.
[48] Фиг. 106A-106C иллюстрируют примерные меню графического пользовательского интерфейса устройства.
[49] Фиг. 107A-107C иллюстрируют примерные меню графического пользовательского интерфейса устройства.
[50] Фиг. 108 иллюстрирует примерное меню графического пользовательского интерфейса устройства.
[51] Фиг. 109A-109C иллюстрируют примерные меню графического пользовательского интерфейса устройства.
[52] Фиг. 110A-110B иллюстрируют примеры прокрутки в графическом пользовательском интерфейсе устройства.
[53] Фиг. 111A-111C иллюстрируют примеры прокрутки в графическом пользовательском интерфейсе устройства.
[54] Фиг. 112 иллюстрирует примеры наложения и фонового контента в графическом пользовательском интерфейсе устройства.
[55] Фиг. 113A-C иллюстрируют примеры наложения и фонового контента в графическом пользовательском интерфейсе устройства.
[56] Фиг. 114A-114B иллюстрируют примерные визуальные переходные эффекты в графическом пользовательском интерфейсе устройства.
[57] Фиг. 115A-115B иллюстрируют примерные визуальные переходные эффекты в графическом пользовательском интерфейсе устройства.
[58] Фиг. 116A-116B иллюстрируют примерные визуальные переходные эффекты в графическом пользовательском интерфейсе устройства.
[59] Фиг. 117A-117B иллюстрируют примерные визуальные переходные эффекты в графическом пользовательском интерфейсе устройства.
[60] Фиг. 118A-118C иллюстрируют примерные визуальные переходные эффекты в графическом пользовательском интерфейсе устройства.
[61] Фиг. 119A-119C иллюстрируют примерные визуальные переходные эффекты в графическом пользовательском интерфейсе устройства.
[62] Фиг. 120A-120C иллюстрируют примерные визуальные переходные эффекты в графическом пользовательском интерфейсе устройства.
[63] Фиг. 121A-121B иллюстрируют примерные визуальные переходные эффекты в графическом пользовательском интерфейсе устройства.
[64] Фиг. 122 иллюстрирует примерное использование физической модели в графическом пользовательском интерфейсе устройства.
[65] Фиг. 123 иллюстрирует примерные экраны графического пользовательского интерфейса устройства.
[66] Фиг. 124 иллюстрирует примерные экраны графического пользовательского интерфейса устройства.
[67] Фиг. 125 иллюстрирует примерный способ для автоматической активации камеры в устройстве.
[68] Фиг. 126 иллюстрирует примерный способ для делегирования посредством устройства.
[69] Фиг. 127 иллюстрирует примерные модели делегирования, включающие в себя устройство.
[70] Фиг. 128 иллюстрирует примерный способ для делегирования посредством устройства.
[71] Фиг. 129A-129D иллюстрируют примерные режимы устройства.
[72] Фиг. 130 иллюстрирует примерный режим устройства.
[73] Фиг. 131A-131D иллюстрируют примерные режимы устройства.
[74] Фиг. 132 иллюстрирует примерный способ для предоставления функций дополненной реальности на устройстве.
[75] Фиг. 133 иллюстрирует примерное сетевое окружение, в котором может работать устройство.
[76] Фиг. 134 иллюстрирует пример спаривания между устройством и целевым устройством.
[77] Фиг. 135 иллюстрирует примерный способ для спаривания устройства с целевым устройством.
[78] Фиг. 136 иллюстрирует примерные экраны графического пользовательского интерфейса устройства.
[79] Фиг. 137 иллюстрирует примерную компьютерную систему, содержащую устройство.
[80] Фиг. 138 является видом сверху в перспективе примерного механизма по фиг. 13B, показывающим новую конструкцию.
[81] Фиг. 139 является другим видом сверху в перспективе примерного механизма по фиг. 13B, показывающим новую конструкцию.
[82] Фиг. 140 является другим видом сверху в перспективе примерного механизма по фиг. 13B, показывающим новую конструкцию.
[83] Фиг. 141 является другим видом сверху в перспективе примерного механизма по фиг. 13B, показывающим новую конструкцию.
[84] Фиг. 142 является видом в плане сверху примерного механизма по фиг. 13B, показывающим новую конструкцию.
[85] Фиг. 143 является видом в плане снизу примерного механизма по фиг. 13B, показывающим новую конструкцию.
[86] Фиг. 144 является видом сбоку в вертикальном сечении примерного механизма по фиг. 13B, показывающим новую конструкцию.
[87] Фиг. 145 является противоположным видом сбоку в вертикальном сечении примерного механизма по фиг. 13B, показывающим новую конструкцию.
[88] Фиг. 146 является видом в вертикальном сечении от конца (как указано на фиг. 142) примерного механизма по фиг. 13B, показывающим новую конструкцию.
[89] Фиг. 147 является видом в вертикальном сечении от противоположного конца (как указано на фиг. 142) примерного механизма по фиг. 13B, показывающим новую конструкцию.
[90] Фиг. 148 является видом сверху в перспективе примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
[91] Фиг. 149 является другим видом сверху в перспективе примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
[92] Фиг. 150 является другим видом сверху в перспективе примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
[93] Фиг. 151 является другим видом сверху в перспективе примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
[94] Фиг. 152 является видом в плане сверху примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
[95] Фиг. 153 является видом в плане снизу примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
[96] Фиг. 154 является видом сбоку в вертикальном сечении примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
[97] Фиг. 155 является противоположным видом сбоку в вертикальном сечении примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
[98] Фиг. 156 является видом в вертикальном сечении от конца (как указано на фиг. 152) примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
[99] Фиг. 157 является видом в вертикальном сечении от противоположного конца (как указано на фиг. 152) примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
Оптимальный режим осуществления изобретения
[100] В одном варианте осуществления, устройство включает в себя корпус устройства, который включает в себя сенсорный дисплей и процессор. Устройство также включает в себя браслет, соединенный с корпусом устройства, и оптический датчик в/на браслете. Оптический датчик обращен наружу относительно браслета и захватывает изображения. Процессор обменивается данными с оптическим датчиком для того, чтобы обрабатывать захваченные изображения.
Оптимальный режим осуществления изобретения
[101] Фиг. 1 иллюстрирует примерный вариант осуществления носимого электронного устройства 100. Устройство 100 включает в себя корпус 105, содержащий все или часть схемы, конструкции и дисплея устройства 100. Например, корпус 105 может включать в себя все или некоторые компоненты обработки, компоненты хранения данных, запоминающее устройство, датчики, компоненты межсоединений или связи устройства 100. В конкретных вариантах осуществления, устройство 100 может включать в себя дисплей. Дисплей может принимать любую подходящую форму или такую форму, как, например, кругообразная форма, как проиллюстрировано посредством кругообразного дисплея 110. При использовании в данном документе, при необходимости "кругообразный дисплей" включает в себя, по существу, круглые дисплеи или дискообразные дисплеи, такие как, например, эллиптические дисплеи. В конкретных вариантах осуществления, устройство 100 может включать в себя элемент вокруг дисплея. При использовании в данном документе, элемент вокруг дисплея включает в себя поворотный элемент, окружающий дисплей или корпус, на/в котором находится дисплей. В качестве примера, элемент может представлять собой внешнее кольцо 115 вокруг кругообразного дисплея 110. В конкретных вариантах осуществления, элемент вокруг дисплея может перемещаться относительно дисплея или корпуса. Например, внешнее кольцо 115 может вращаться относительно корпуса устройства 100, как подробнее описано ниже. В конкретных вариантах осуществления, устройство 100 может включать в себя браслет 120, присоединенный к корпусу 105. В конкретных вариантах осуществления, устройство 100 может включать в себя модуль датчиков, такой как, например, модуль 125 камеры, размещающий камеру, прикрепленную в/к корпусу 105 или браслету 125, как подробнее описано ниже.
[102] Конкретные варианты осуществления носимого электронного устройства включают в себя пакетированную конфигурацию, которая позволяет части или всей системе обработки и отображения входить в корпус устройства, который может охватываться посредством такого элемента, как внешнее кольцо, которое предоставляет, по меньшей мере, один способ для взаимодействия пользователя с устройством. Помимо этого или альтернативно, конкретные варианты осуществления могут включать в себя внешние компоненты, включенные в браслет для дополнительной функциональности, как подробнее описано в данном документе. Фиг. 2 иллюстрирует примерную пакетированную конфигурацию 200 носимого электронного устройства. Как проиллюстрировано на фиг. 2, некоторые или все компоненты пакетированной конфигурации 200 могут приспосабливать форму устройства, которое является кругообразным в примере по фиг. 2. Пакетированная конфигурация 200 может включать в себя слой защитного стекла 205 (или другого подходящего прозрачного, твердого материала). Другие компоненты могут наслаиваться на защитное стекло 205 или присоединяться к основанию 245. Помимо этого или альтернативно, защитный слой 205 может механически соединяться с внешним кольцом 235 или любым другим подходящим компонентом корпуса устройства. Непосредственно ниже защитного стекла 205 может быть предусмотрен сенсорный слой 210. Сенсорный слой 210 может состоять из любого подходящего материала и иметь любой подходящий тип, такой как, например, резистивный, на поверхностных акустических волнах, емкостный (в том числе на основе взаимной емкости или на основе собственной емкости), инфракрасный, оптический, дисперсионный либо любой другой подходящий тип. Сенсорный слой 210 может применяться непосредственно к защитному стеклу 205, наслаиваемому или физически прикрепленному к нему. Сенсорный слой 210 может представлять собой полностью двумерную сенсорную поверхность или может состоять из сенсорных областей, таких как ряд емкостных кнопок или областей. Сенсорный слой 210 может подключаться к плате процессора 215 через гибкий разъем на краю сенсорной поверхности, как подробнее описано в данном документе.
[103] Под сенсорным слоем 210 может быть предусмотрен кругообразный дисплей 215, который может наслаиваться или механически прикрепляться к любому из предшествующих или последующих слоев. В конкретных вариантах осуществления, наслаивание позволяет уменьшать блики и повышать различимость отображения посредством уменьшения внутренних отражений. Как подробнее описано ниже, дисплей 215 может иметь внешнюю неактивную область, которая может быть симметричной или асимметричной. Дисплей 215 может позиционироваться таким образом, что он аксиально центрируется относительно защитного слоя 205 для визуально симметричного представления. Дисплей 215 может иметь любой подходящий тип, такой как, например, дисплей на светоизлучающих диодах (светодиодах), дисплей на органических светоизлучающих диодах (OLED) или жидкокристаллический дисплей (ЖК-дисплей). В конкретных вариантах осуществления, дисплей 215 может быть гибким. В конкретных вариантах осуществления, дисплей 215 может быть частично прозрачным. В конкретных вариантах осуществления, дисплей 215 может быть полупрозрачным.
[104] Под дисплеем 215 может быть предусмотрен аккумулятор 220, который в конкретных вариантах осуществления может позиционироваться таким образом, что основание 245 может уменьшаться в диаметре без влияния на размер аккумулятора. Аккумулятор 220 может иметь любой подходящий тип, такой как, например, литий-ионный. Аккумулятор 220 может приспосабливать кругообразную форму устройства или может приспосабливать любую другую подходящую форму, к примеру, прямоугольную форму, как проиллюстрировано. В конкретных вариантах осуществления, аккумулятор 220 может "плавать" в устройстве, например, может иметь пространство выше, ниже или вокруг аккумулятора, чтобы выдерживать тепловое расширение. В конкретных вариантах осуществления, компоненты с большой высотой, такие как, например, тактильные актуаторы или другие электронные схемы, могут позиционироваться в дополнительном пространстве за пределами края аккумулятора для оптимальной компоновки компонентов. В конкретных вариантах осуществления, разъемы из платы 225 процессора могут быть размещены в этом пространстве, с тем чтобы уменьшать общую высоту устройства.
[105] Под аккумулятором 220 может быть предусмотрена плата 225 процессора. Плата 225 процессора может включать в себя любые подходящие компоненты обработки, такие как, например, один или более процессоров, блоков накопителя, считывающих блоков, кэшей, запоминающих элементов или интегральных схем. Плата 225 процессора может включать в себя один или более тепловых датчиков или блоков охлаждения (таких как, например, вентиляторы) для мониторинга и управления температурой одного или более компонентов платы процессора. В конкретных вариантах осуществления, корпус 105 устройства может непосредственно выступать в качестве теплоотвода.
[106] Под платой процессора может быть предусмотрен кодер 230, окруженный посредством одного или более внешних колец 235. Как подробнее описано ниже, кодер 230 может иметь любой подходящий тип и может быть частью внешнего кольца 235 либо может быть отдельным компонентом, как проиллюстрировано на фиг. 2. В конкретных вариантах осуществления, внешнее кольцо 235 может предоставлять тактильное чувство фиксатора внешнего кольца или считывания позиции внешнего кольца 235. Когда кодер 230 представляет собой механический кодер, отдельный от корпуса устройства, как проиллюстрировано на фиг. 2, кодер может поддерживать внешнее кольцо 235. Например, в конкретных вариантах осуществления, кодер 230 монтируется на основании 245, и соединения с основанием 245 или с браслетом 240 могут проходить через некоторую часть кодера, к примеру, через центр кодера. В конкретных вариантах осуществления, плата 225 процессора и один или более слоев выше могут быть присоединены к центральному стержню, проходящему через кодер 235. Стержень может прикладывать механические силы на компонентах устройства к стержню, что может позволять компонентам, таким как плата процессора и дисплей, поддерживаться посредством стержня, а не посредством кодера, уменьшая механическое напряжение на кодер. В конкретных вариантах осуществления, внешнее кольцо 235 присоединяется к подвижной части кодера через зубцы или другие подходящие соединения.
[107] Корпус устройства может завершаться основанием 245. Основание 245 может быть стационарным относительно одного или более поворотных компонентов устройства, такого как внешнее кольцо 235. В конкретных вариантах осуществления, основание 245 соединяется с браслетом 240, подробнее описанным в данном документе. Соединения могут быть механическими или электрическими, такими как, например, часть схемы, связывающей компоненты проводной связи в браслете 240 с платой 225 обработки. В конкретных вариантах осуществления, разъемы позиционируются с возможностью избегать кодера и точек привязки для браслетов. В конкретных вариантах осуществления, браслет 240 может быть съемным с основания 245. Как подробнее описано в данном документе, браслет 240 может включать в себя один или более внутренних разъемов 250, один или более оптических считывающих модулей 255 или один или более других датчиков. В конкретных вариантах осуществления, внутренняя часть устройства или части этой внутренней части могут герметизироваться от внешней среды.
[108] Хотя это раскрытие описывает конкретные примеры компонентов в пакетированной конфигурации 200 носимого электронного устройства 100 и формы, размера, порядка, соединений и функциональности этих компонентов, это раскрытие рассматривает, что носимое устройство, к примеру, устройство 100, может включать в себя любые подходящие компоненты любой подходящей формы, размера и порядка, соединенные или обменивающиеся данными любым подходящим способом. В качестве всего одного примера, аккумулятор 220 может быть размещен дальше к нижней части пакетированной конфигурации по сравнению с тем, что проиллюстрировано на фиг. 2. В качестве другого примера, корпус устройства может приспосабливать любой подходящий форм-фактор, к примеру, эллипсоидный или дискообразный, как проиллюстрировано посредством примера по фиг. 3A, заостренный на одном конце, как проиллюстрировано посредством примера по фиг. 3B, либо скошенный или закругленный на одном или более краев, как проиллюстрировано посредством примера на фиг. 3C-3D, иллюстрирующих скошенный край 315. Фиг. 3E иллюстрирует дополнительные примерные форм-факторы корпуса устройства, такие как, например, корпусы 320A-E, имеющие многоугольную форму с плоским защитным покрытием или дисплеем либо с искривленным защитным покрытием или дисплеем. В качестве другого примера, корпусы 325A-D имеют частично искривленную форму с плоским защитным покрытием или дисплеем либо с искривленным защитным покрытием или дисплеем. Корпусы 330A-C имеют искривленную форму. Один или более внутренних компонентов корпуса устройства, такие как, например, один или более внутренних компонентов, могут приспосабливать любой форм-фактор, подходящий для корпуса, в котором они находятся.
[109] Фиг. 4A иллюстрирует примерное поперечное сечение корпуса устройства. Как проиллюстрировано, корпус устройства имеет ширину D1, такую как, например, приблизительно 43 миллиметра. Конкретные варианты осуществления могут включать в себя небольшой зазор D4 между внешним кольцом и OLED-дисплеем, такой как, например, зазор до 0,3 миллиметров. Аналогично, также может быть предусмотрено расстояние между внешним кольцом и стеклянным защитным покрытием (которое может иметь ширину D3, такую как, например, приблизительно 42,6 миллиметра), такое как, например, 2 миллиметра. В конкретных вариантах осуществления, зазор между стеклянным защитным покрытием и внешним кольцом превышает зазор между дисплеем и внешним кольцом. Внешнее кольцо (которое может включать в себя зазубренность) может иметь ширину D2, например, в 1,0 миллиметра. Фиг. 4B-4C иллюстрируют примерный набор соединений между компонентами устройства. Фиг. 4B иллюстрирует сенсорное стекло 405 выше дисплея 410. Дисплей присоединен к вершине внутреннего корпуса 440, например, с помощью адгезивного герметика 425. Гибкая печатная схема 430 отображения соединяет дисплей с электронными схемами в корпусе устройства. Адгезивная герметизирующая мембрана 445 может использоваться для того, чтобы соединять браслет 450 с устройством, и одно или более удерживающих колец 435 могут использоваться для того, чтобы соединять внешнее кольцо 415 с внутренним корпусом 440. В конкретных вариантах осуществления, удерживающие кольца могут запрещать скручивание внешнего кольца на его вертикальной оси и предоставлять физический интервал между внешним кольцом и стеклянным покрытием. Слой защитного стекла может находиться сверху на внутреннем корпусе, обеспечивая герметизацию от воздействия окружающей среды. В конкретных вариантах осуществления, удерживающее кольцо также может предоставлять герметизацию от воздействия окружающей среды для внутреннего корпуса. Например, фиг. 5C иллюстрирует примерное удерживающее кольцо 465, присоединяющее внешнее кольцо к корпусу устройства, и предоставляет герметизацию от воздействия окружающей среды между внешним кольцом и внутренним корпусом. Помимо этого или альтернативно, материал из флока, возможно покрытый суспензоидом, такой как, например, тефлон, может использоваться для того, чтобы предотвращать проникновение воды и грязи в углубление. В качестве другого примера, внешнее кольцо может герметизироваться во внутреннем корпусе с помощью кольца из металла или пластмассы, предотвращая перемещение воздуха (и в силу этого водяных паров или других частиц) через углубление между внешним кольцом и внутренним корпусом. Зазор 455 позволяет внешнему кольцу перемещаться, к примеру, посредством вращения, относительно внутреннего корпуса устройства. Адгезивный герметик 460 присоединяет дисплей к корпусу и предоставляет герметизацию от воздействия окружающей среды между дисплеем и компонентами внутреннего корпуса.
[110] В конкретных вариантах осуществления, дисплей устройства имеет кругообразную или эллиптическую форму и размещает кругообразный блок отображения, такой как, например, ЖК-дисплей и OLED-дисплей. Блок отображения может монтироваться таким образом, что видимая область располагается по центру в модуле отображения. Если блок отображения имеет конструкцию со смещением, одно или более надлежащих маскирований могут использоваться для того, чтобы скрывать часть дисплея, с тем чтобы формировать кругообразный и корректно размещенный визуальный макет.
[111] В конкретных вариантах осуществления, модуль отображения имеет внешнее кольцо, которое является частью пользовательского интерфейса устройства. Внешнее кольцо может вращаться в то время, когда браслет поддерживает устойчивыми нижнюю и внутреннюю часть устройства. Фиг. 5A иллюстрирует пример вида сверху дисплея устройства относительно других компонентов устройства. Внешнее кольцо 510 может быть присоединено к передней поверхности 512 устройства 508 либо оно может быть независимым от передней поверхности 512. В конкретных вариантах осуществления, дисплей 506 не вращается независимо от вращения внешнего кольца 510, окружающего дисплей 506. Это может достигаться посредством присоединения дисплея 506 к части 504 модуля отображения, которая прикреплен к браслету 502, либо посредством программирования отображаемого контента таким образом, что он остается статическим в то время, когда блок отображения вращается. Во втором случае, отображаемый контент вращается таким образом, что визуальная вертикальная ось изображения, отображаемого посредством блока отображения, остается параллельной браслету в любом случае.
[112] Модуль отображения дополнительно может включать один или более датчиков на/около идентичной поверхности в качестве дисплея. Например, модуль отображения может включать в себя камеру или другой оптический датчик, микрофон или антенну. Один или более датчиков могут быть размещены в неактивной области дисплея. Например, фиг. 5B иллюстрирует устройство 522 с модулем 516 камеры, размещенным копланарно с аккумулятором под дисплеем 520, при этом оптическое отверстие 514 позиционировано под прозрачным участком дисплея 520. Модуль 516 камеры может быть размещен между разъемами 518 сеточной линии для дисплея 520. Любая камера или другие подходящие датчики могут быть размещены копланарно с дисплеем, к примеру, антенна 524 по фиг. 5C, которая размещена в неактивной области 526. Помимо этого или альтернативно, датчики могут быть размещены ниже или выше дисплея, могут быть размещены в любом подходящем местоположении в/на внешнем корпусе устройства, могут быть размещены в любом подходящем местоположении в/на браслете устройства либо в любой надлежащей комбинации вышеозначенного, как подробнее описано в данном документе. Например, фронтальная камера может быть размещена под дисплеем, на дисплее или над дисплеем.
[113] В конкретных вариантах осуществления, монтаж корпуса кругообразного дисплея включает в себя неактивную область, как проиллюстрировано на фиг. 5D. В традиционном дисплее, линии построчного возбуждения, питающие дисплей, маршрутизируются в ближайший поперечный край, после чего либо маршрутизируются вниз вдоль неактивных областей, либо соединяются непосредственно с интегральными кристаллами формирователя сигналов управления вдоль этого края. Ряд подходов может приспосабливаться для того, чтобы уменьшать размер неактивной области для дисплея. Например, конкретные варианты осуществления уменьшают размер неактивной области посредством повторной маршрутизации линий сеточного управления, питающих дисплей, в один край дисплея. Фиг. 5D иллюстрирует линии 532 сеточного управления, маршрутизируемые в один край дисплея 536 и подключенные к разъему 538, маршрутизирующему линии в центр обработки устройства 528. В этой конфигурации, может быть минимизирована неактивная область 530.
[114] Фиг. 5E иллюстрирует другое примерные варианты осуществления для уменьшения неактивной области дисплея 554 устройства 540 посредством создания многоугольного макета отображения с кругообразной областью, маскированной в центре посредством одной или более масок 550. Разъемы 552 размещаются в многоугольной конструкции. Строки 546 и столбцы 542 сеточных линий маршрутизируются в ближайший разъем 552. В конкретных вариантах осуществления, разъемы 552 подключаются к гибкой плате позади дисплея, который переносит кристалл формирователя сигналов управления. Вследствие сниженной плотности соединения, электронные схемы по фиг. 5E могут быть проще в подключении к гибкой печатной плате (FPC-плате) и за счет этого увеличивают выход годовых изделий. Помимо этого, посредством перемещения интегральной схемы формирователя сигналов управления в заднюю часть дисплея, одна или более неактивных областей 548 могут быть дополнительно уменьшены при одновременном обеспечении возможности интегральной схеме оставаться на устойчивой и плоской поверхности. Эта конструкция, в частности, подходит для OLED-дисплеев, но может использоваться с ЖК-дисплеями при условии, что блок задней подсветки (BLU) может наслаиваться на устройство до того, как подключается FPC-плата. Хотя вышеприведенный пример иллюстрирует многоугольную компоновку разъемов, любая подходящая компоновка разъемов может использоваться при условии, что все пикселы достигаются посредством сеточных линий.
[115] Фиг. 5F иллюстрирует примерную физическую компоновку и размеры дисплея устройства. Устройство имеет диаметр D4, такой как, например, приблизительно 41,1 миллиметра. Устройство включает в себя одну или более неактивных областей, имеющих ширину D3, такую как, например, приблизительно 1,55 миллиметра. Устройство включает в себя видимую область с диаметром D2, таким как, например, приблизительно 38 миллиметров. Устройство включает в себя разъемы 568 для линий 564 столбцов и линий 566 строк. Разъемы 568 могут соединяться с устройством посредством одной или более FPC-связей 570, которые имеют ширину D1, такую как, например, приблизительно 2 миллиметра. Разъемы 568 могут иметь ширину D5, такую как, например, приблизительно 6 миллиметров. FPC 556 разъемов дисплея может использоваться для того, чтобы соединять электронные схемы дисплея, такие как, например, схема из разъемов 568, с кристаллом 558 формирователя сигналов управления, который может находиться под дисплеем или сзади корпуса устройства.
[116] Фиг. 6A-C иллюстрируют примерные виды в поперечном сечении дисплея устройства, включающие в себя изготовление устройства. На фиг. 6A, нож 605 со стержнем накала используется для того, чтобы припаивать гибкую печатную схему(ы) 610, соединяющую электронные схемы дисплея с электронными схемами обработки устройства. Опора 615 может использоваться для того, чтобы стабилизировать FPC 610 во время этого процесса. Фиг. 6B иллюстрирует соединенную FPC 620, которая сложена внахлест (часть 625) и приклеена к задней части дисплея с использованием адгезивного материала 630. Фиг. 6C иллюстрирует примерный готовый дисплей. FPC 645 наслаивается на заднюю часть защитного стекла 635 отображения и изгибается поверх передней стороны стекла 635 и присоединяется к передней стороне стекла 635 через микросвязь 649. Адгезивный материал 650 соединяет FPC 645 с устройством. FPC пропускает кристалл 655 формирователя сигналов управления, который подключается к устройству посредством адгезивного материала 650.
[117] В конкретных вариантах осуществления, все компоненты обработки и RF-компоненты расположены в корпусе устройства, что может создавать сложность в предоставлении возможности передачи RF-сигналов из устройства. FPC-плата дополнительно может быть присоединена к сторонам многоугольника, на которых отсутствует соединение с самим дисплеем, чтобы обеспечивать монтаж полосковой линии, заглушки, керамических элементов или других антенн (либо других подходящих датчиков) в плоскости, идентичной плоскости дисплея, как проиллюстрировано на фиг. 5C. Поскольку антенна по фиг. 5C является копланарной с дисплеем, помехи от концентрированной сетки межсоединений (например, как проиллюстрировано на фиг. 5E) из дисплея уменьшаются.
[118] В конкретных вариантах осуществления, дисплей может быть экранирован от электромагнитных помех плате основного процессора с использованием металлического экрана. В конкретных вариантах осуществления, металлический экран также может использоваться в качестве теплоотвода для аккумулятора и за счет этого может повышать скорости заряда или разряда для аккумулятора.
[119] В конкретных вариантах осуществления, носимое электронное устройство может включать в себя один или более внешних элементов (которые могут иметь любую подходящую форму) относительно корпуса устройства. Фиг. 7A иллюстрирует внешний элемент посредством примерного внешнего кольца 710 вокруг дисплея 705. Внешнее кольцо может состоять из любого подходящего материала, такого как, например, нержавеющая сталь или алюминий. В конкретных вариантах осуществления, внешнее кольцо 710 может быть поворотным в одном направлении, в обоих направлениях либо может использоваться в обеих конфигурациях на основе, например, переключателя. В конкретных вариантах осуществления, одно внешнее кольцо 710 может вращаться в одном направлении, тогда как второе внешнее кольцо 710 вращается в противоположном направлении. Внешнее кольцо 710 может соединяться с основанием 720 устройства посредством удерживающего кольца 715. Фиг. 7B иллюстрирует внешнее кольцо 710, присоединенное к основанию 720 посредством кольца 715А из делрина либо посредством удерживающего кольца 715B из рессорной стали. Пружины или застежки 725 прикрепляют кольца к основанию 720. Фиг. 7C-D иллюстрируют удерживающее кольцо 715, прикрепленное к основанию 720 через винты 725, завинченные в соответствующие стержни основания 720. Устройство может включать в себя крепежные элементы/распорки 730, как проиллюстрировано на фиг. 7C.
[120] В конкретных вариантах осуществления, фиксаторы или кодеры (которые могут использоваться взаимозаменяемо при возможности) внешнего элемента могут предоставлять пользователю тактильную обратную связь (например, тактильный щелчок), предоставляемую, например, посредством фиксатора, который позволяет пользователю определять то, когда элемент перемещен на один "шаг" или "приращение", что может использоваться взаимозаменяемо в данном документе. Этот щелчок может формироваться непосредственно через механический рычажный механизм (например, пружинный механизм) или может формироваться электронно через тактильный актуатор (например, электромотор или пьезоактуатор). Например, электромотор может предоставлять сопротивление движению кольца, к примеру, посредством закорачивания, чтобы предоставлять сопротивление, и незакорачивания, чтобы предоставлять меньшее сопротивление, моделируя относительно высокий и низкий крутящий момент, предоставленный посредством системы механических фиксаторов. В качестве другого примера, магнитные системы могут использоваться для того, чтобы предоставлять тактильное чувство фиксатора. Например, механизм соленоида может использоваться для того, чтобы расцеплять пружину или спусковой механизм фиксатора по мере необходимости. Пружина или спусковой механизм предоставляет фактическую механическую обратную связь. Тем не менее, эта компоновка позволяет устройству пропускать определенное число фиксаторов по мере необходимости, при повторном зацеплении фиксатора с точными интервалами, чтобы создавать ощущение фиксаторов, к примеру, фиксаторов, которые изменяют размер. В качестве другого примера, поворотный внешний элемент (такой как, например, внешнее кольцо) может быть намагничен, к примеру, посредством электромагнитного элемента, используемого для того, чтобы притягивать кольцо в позициях "фиксаторов", повышая крутящий момент и моделируя обратную связь фиксатора. В качестве другого примера, поворотный внешний элемент может иметь переменные северный-южный полюса, которые отталкивают и притягивают соответствующие магнитные полюса в корпусе устройства. В качестве другого примера, постоянный магнит может использоваться для того, чтобы стопорить кольцо на месте, когда электромагнит при использовании не предотвращает свободный ход. В качестве другого примера, вместо электромагнита, легко намагничивающийся ферромагнитный сплав может использоваться в соленоиде. Это позволяет электромагнитному полю соленоида "перепрограммировать" магнитную ориентацию сердечника, в силу этого поддерживая эффект магнитного приведения в действие, даже когда сам соленоид расцеплен. Хотя это раскрытие предоставляет конкретные примеры фиксаторов, систем на основе фиксаторов и кодеров, это раскрытие рассматривает любые подходящие фиксаторы, системы на основе фиксаторов или кодеры.
[121] Фиг. 8A иллюстрирует внешнее кольцо 805 с выемками для системы фиксаторов на основе пружины, нанесенными травлением на внутреннюю поверхность внешнего кольца 805. Пружины 820 присоединены к стержням 810 с пружиной. Удерживающее кольцо 815 может быть изготовлено из делрина, стали или любого другого подходящего материала и может быть сегментированным или сплошным/непрерывным. Фиг. 8B иллюстрирует примерное внешнее кольцо, имеющее небольшие выемки 830, которые зацепляют подпружиненный элемент, чтобы предоставлять тактильную обратную связь из проиллюстрированного фиксатора. В случае системы с электронной обратной связью, обратная связь может формироваться в быстрой синхронности с движением кольца и должна иметь достаточную скорость атаки и затухания, так что последовательные перемещения кольца являются отличимыми друг от друга. В конкретных вариантах осуществления, внешнее кольцо может свободно (например, непрерывно) поворачиваться без щелчков или скачков. В конкретных вариантах осуществления, кольцо может допускать как непрерывное вращение, так и вращение в шагах/приращениях на основе, например, ввода от пользователя, указывающего, в каком вращательном режиме должно быть внешнее кольцо. Кольцо также или альтернативно может вращаться свободно в одном направлении и с приращениями в другом. Различная функциональность может осуществляться на основе используемого вращательного режима. Например, вращение в непрерывном режиме может изменять непрерывный параметр, такой как, например, громкость или изменение масштаба, тогда как вращение в режиме с приращениями может изменять дискретный параметр, такой как, например, пункты меню или контакты в списке, как подробнее описано в данном документе. В конкретных вариантах осуществления, свободное вращение кольца может предоставлять тактильную обратную связь пользователю, например, силу, прикладываемую таким образом, что кажется, что кольцо вращается в вязкой среде (например, чем быстрее вращается кольцо, тем больше оно сопротивляется вращению). В конкретных вариантах осуществления, внешнее кольцо может опускаться или подниматься в направлении оси, вокруг которой поворачивается внешнее кольцо, к примеру, в качестве части жеста либо для того, чтобы изменять вращательные режимы. В конкретных вариантах осуществления, внешнее кольцо может иметь сенсорные части.
[122] В конкретных вариантах осуществления, кодер или фиксатор может использоваться для того, чтобы определять позицию внешнего кольца относительно корпуса устройства. Конкретные варианты осуществления используют кодер, который прикреплен к корпусу устройства, как проиллюстрировано посредством кодера 230 по фиг. 2. В конкретных вариантах осуществления, кодер является частью внутренней поверхности самого внешнего кольца, как проиллюстрировано посредством впечатанных оптических элементов 825 на фиг. 8B. В этих вариантах осуществления внешнее кольцо выступает в качестве непосредственно вращающейся части кодера. Рисунок оптического кодера впечатывается на внутренней поверхности и считывается посредством оптического модуля на плате обработки. Кодер во внутренней части внешнего кольца должен иметь достаточную оптическую контрастность для блоков обнаружения и может травиться на внешнем кольце, например, через впечатывание или лазерное травление. Внутренние и внешние кольца могут герметизироваться от воздействия окружающей среды с помощью кольца с низким коэффициентом трения (такого как, например, кольцо 840 по фиг. 8C), изготовленного из такого материала, как тефлон или делрин, который сохраняет плотную посадку при одновременном недопущении попадания загрязнителей вовнутрь устройства. В конкретных вариантах осуществления, кромка на внутреннем кольце может зацеплять аналогичную кромку на внешнем кольце, обеспечивая возможность соединения двух колец при одновременном предоставлении возможности свободного вращения. Большая кромка в нижней части внутреннего кольца предоставляет дополнительную герметизацию посредством отклонения вредного воздействия окружающей среды снизу. Как проиллюстрировано на фиг. 9, в конкретных вариантах осуществления, уплотнительное кольцо 915 может входить в паз 905 основания, который может включать в себя область 910 захвата.
[123] В конкретных вариантах осуществления, удерживающее кольцо, соединяющее внешнее кольцо с корпусом устройства, может иметь тензодатчики, чтобы обнаруживать давление на внешнее кольцо. В качестве примера, фиг. 10 иллюстрирует удерживающее кольцо, соединенное с четырьмя тензодатчикам (которые также соединяются с внутренним корпусом), которые симметрично размещены вокруг кольца. При использовании в данном документе, эти четыре тензодатчика могут представлять собой электронный компонент, обнаруживающий механическое напряжение. В результате симметричного размещения, нормальное движение или контакт с внешним кольцом прикладывает главным образом асимметричное механическое напряжение к внешнему кольцу, поскольку кольцо просто перемещается относительно устройства в плоскости кольца, и в силу этого один конец сокращается, а противоположный конец удлиняется, как проиллюстрировано посредством главного кольца по фиг. 10. Напротив, сжатие большей части внешнего кольца, вероятно, должно формировать симметричное механическое напряжение на противоположных парах тензодатчиков (например, вследствие удлинения кольца под давлением). Таким образом, относительная разница в механическом напряжении между двумя парами тензодатчиков отличает намеренное сжатие внешнего кольца от обычного движения или контакта с внешним кольцом. Хотя это раскрытие описывает конкретные примеры числа и размещения тензодатчиков в удерживающем кольце, это раскрытие рассматривает размещение любого подходящего числа тензодатчиков в любом подходящем компоненте устройства, чтобы обнаруживать давление на компонент. В качестве одного примера, тензодатчики могут быть размещены на браслете устройства или во внешнем кольце.
[124] Когда механическое напряжение прикладывается к компоненту, содержащему тензодатчики или любую другую подходящую систему обнаружения на основе механического напряжения или давления, обнаруженное механическое напряжение может приводить к любой подходящей функциональности. Например, когда механическое напряжение прикладывается к внешнему кольцу, к примеру, посредством сжатия внешнего кольца пользователем, обратная связь может предоставляться пользователю. Эта обратная связь может принимать любую подходящую форму, такую как тактильная обратная связь (например, вибрация, встряхивание или нагрев/охлаждение), звуковая обратная связь, такая как подача звукового сигнала или воспроизведение конкретного определяемого пользователем тона, визуальная обратная связь (например, посредством дисплея устройства) или любая другая подходящая обратная связь либо комбинация вышеозначенного. Функциональность, ассоциированная со сжатием кольца, подробнее описывается в данном документе, и это раскрытие рассматривает любую подходящую функциональность, вытекающую из механического напряжения или давления, прикладываемого и обнаруженного посредством любых подходящих компонентов.
[125] Носимое электронное устройство может быть присоединено к браслету, чтобы прикреплять устройство к пользователю. Здесь, ссылка на "браслет" может охватывать любое подходящее устройство для прикрепления к пользователю устройства, такое как, например, традиционный браслет 1405, который может носиться вокруг предплечья, запястья, талии или ног пользователя, как проиллюстрировано в качестве примера на фиг. 14A; застежка 1415 для прикрепления к фрагменту одежды, как проиллюстрировано в качестве примера на фиг. 14B; конфигурация ожерелья или браслетки 1420, как проиллюстрировано в качестве примера на фиг. 14C; конфигурация брелока 1425 или других аксессуаров, чтобы закреплять устройство, например, в кармане пользователя, как проиллюстрировано в качестве примера на фиг. 14D; или любая другая подходящая конфигурация. Каждый из этих вариантов осуществления может включать в себя камеру 1410, расположенную на устройстве, на браслете или на корпусе. Фиг. 11 иллюстрирует различные варианты осуществления для ношения устройства, к примеру, вокруг шеи, как проиллюстрировано в 1105; прикалывание к одежде (к примеру, на груди, как проиллюстрировано к 1110); на ремне, как проиллюстрировано в 115; на конечности (к примеру, на предплечье, как проиллюстрировано в 1120); на запястье, как проиллюстрировано в 1125, или в кармане, как проиллюстрировано в 1130. Хотя это раскрытие описывает конкретные примеры браслетов и способов прикрепления устройств к пользователю, это раскрытие рассматривает любые подходящие браслеты или способы прикрепления устройства к пользователю.
[126] В конкретных вариантах осуществления, датчики и соответствующие электронные схемы могут быть присоединены к браслету при необходимости. Например, браслеты фиг. 14A-14C могут быть подходящими для размещения оптического датчика. Все проиллюстрированные конкретные варианты осуществления могут подходить для включения сенсорной области. Это раскрытие рассматривает любые подходящие браслеты, включающие в себя любые подходящие датчики или электронные схемы, такие как, например, компоненты связи (к примеру, антенны), датчики состояния окружающей среды или инерциальные датчики. В конкретных вариантах осуществления, браслет может быть съемным с устройства и может осуществлять связь удаленно с устройством, когда не присоединен к устройству. В конкретных вариантах осуществления, межсоединение, ассоциированное с электрическими компонентами в браслете, также может размещаться в браслете, например, чтобы минимизировать общее пространство устройства или минимизировать электромагнитные помехи внутренним компонентам устройства. Например, устройства, которые могут вызывать высокие уровни внутренних EMI (например, камера или системы связи), которые могут требовать дополнительного пространства (например, аккумулятор или динамик), которые могут требовать герметизации от воздействия окружающей среды основного корпуса (например, разъем питания/данных), или которые могут требовать дополнительного контакта с кожей пользователя (например, биометрические датчики), могут получать преимущества посредством размещения, по меньшей мере, некоторых электронных схем в браслете устройства. В конкретных вариантах осуществления, когда межсоединения содержатся в браслете, модуль отображения может быть присоединен к браслету таким образом, что электронные соединения, выполняемые в/через браслет, не скручиваются, когда внешнее кольцо вращается. Модуль может использовать разъем, который может сниматься пользователем, так что модуль отображения или корпус устройства может сниматься и присоединяться пользователем по желанию. В качестве примерного присоединения браслета к устройству, браслет 1215, как проиллюстрировано на фиг. 12A, может быть присоединен к корпусу посредством размещения поверх одного или более стержней 1205 и затем прикрепления к этим стержням с использованием крепежных элементов (например, винтов) 1210. В конкретных вариантах осуществления, в дополнение к крепежным элементам и стержням, удерживающая пластина 1215 может использоваться для того, чтобы закреплять браслет на устройстве 1225, как проиллюстрировано на фиг. 12B. Это раскрытие рассматривает любой подходящий интерфейс между браслетом и устройством. Например, USB-интерфейс может предоставляться между браслетом и корпусом устройства, чтобы, например, осуществлять связь между устройством и браслетом или компонентами устройства и компонентами браслета. В конкретных вариантах осуществления, интерфейс может позволять пользователю устройства легко отсоединять, присоединять или менять браслет устройства.
[127] Это раскрытие рассматривает любую подходящую конструкцию для соединения браслета, как проиллюстрировано на фиг. 14A, с собой, например, при ношении пользователем. Например, фиг. 13A иллюстрирует примерные конструкции для застегивания браслета 1305, имеющего модуль 1310 камеры, на носящем устройство 1300. Крепежные элементы могут включать в себя одну или более защелок 1315, отверстий 1320 и 1335 и соответствующих компонентов, зажимов 1340 или застежек 1325 с нажимными кнопками 1330. Фиг. 13B иллюстрирует примерный механизм для прикрепления браслета 1301 к носящему с использованием застежек 1311 и 1303. Компоненты 1309 вставляются в углубление с другой стороны компонентов 1307, чтобы застегивать браслет 1301. Фиг. 13B дополнительно иллюстрирует примерные внутренние механизмы для застежек 1303 и 1311. Компонент 1317 застежки 1313 (соответствующий застежке 1311) может включать в себя одну или более магнитных частей, которые могут притягиваться к магнитам в углублении 1323. Например, компонент 1317 может включать в себя магнитную часть на внешнем краю, и магнит противоположной полярности может быть размещен перед пружиной 1319, чтобы притягивать магнит компонента 1317. Компоненты 1317 затем могут заполнять углубление 1323, пристегивая застежку 1313 к застежке 1303 посредством связывания магнитов. После вставки, компоненты 1321 могут использоваться для того, чтобы зацеплять пружины 1319, которые выталкивают компоненты 1317 из углубления 1323. Застежка 1313 может отсоединяться из застежки 1303. В дополнение к магнитам на компонентах 1317 и в углублении 1323, магниты также могут быть размещены в застежке 1313, например, чтобы помогать извлечению застежки 1313, когда пружины 1319 зацеплены, или предотвращать задвигание и выдвижение компонентов 1317 из застежки 1313, когда они не пристегнуты к застежке 1303. Например, один или более магнитов могут быть размещены в центре застежки 1313 на равном расстоянии от компонентов 1317 и в той же плоскости, что и компоненты 1317, притягивающие магниты каждого компонента (и за счет этого сами компоненты) к центру застежки 1313.
[128] Фиг. 13C иллюстрирует примерную конструкцию для прикрепления браслета 1327 с использованием застежек 1333 и 1331, например, с помощью углубления 1329 и компонентов 1337 и 1341. Фиг. 13C иллюстрирует внутреннюю конструкцию крепежных элементов 1331 и 1333. Крепежные элементы 1339 (соответствующие крепежному элементу 1333) включают в себя компоненты 1337. Когда крепежный элемент 1343 (соответствующий крепежному элементу 1331) вставляется в крепежные элементы 1339, компоненты 1341 присоединяются к компонентам 1337 и могут закрепляться посредством прохождения поверх кромки крепежного элемента 1339. Когда крепежный элемент 1339 тянется вверх, кромка все больше и больше выталкивает компоненты 1337, перемещая компоненты 1341 мимо кромки крепежного элемента 1339 и обеспечивая возможность извлечения крепежного элемента 1339 из крепежного элемента 1343. В конкретных вариантах осуществления, магниты могут быть размещены в/на крепежных элементах 1333 и 1331, чтобы пристегивать их друг к другу. Например, магнит может быть размещен на краю каждого из компонента 1341 и 1337. Когда крепежный элемент 1343 зацеплен с крепежным элементом 1337 (или наоборот), магниты притягивают и скрепляют компонент 1341 с компонентом 1337. Помимо этого, магнит может быть размещен в крепежном элементе 1343, например, чтобы помогать извлечению компонента 1341 из компонента 1337 или предотвращать задвигание и выдвижение компонентов 1341 из крепежного элемента 1343, если они не прикреплены к крепежному элементу 1339. Например, один или более магнитов могут быть размещены в центре крепежного элемента 1343 на равном расстоянии от компонентов 1341 и в той же плоскости, что и компоненты 1341, притягивающие магниты на конце каждого компонента (и за счет этого сами компоненты) к центру крепежного элемента 1343.
[129] Фиг. 13D иллюстрирует альтернативную компоновку для прикрепления браслета 1351 с использованием крепежных элементов 1349 и 1353. Когда прикреплен, крепежный элемент 1357 (соответствующий крепежному элементу 1353) может скручиваться, расцепляя компоненты 1359 (которые могут быть закругленными) от углублений 1363 и обеспечивая возможность извлечения крепежного элемента 1361 (соответствующего крепежному элементу 1349) из крепежного элемента 1357, и наоборот. В конкретных вариантах осуществления, один или более магнитов могут использоваться для того, чтобы прикреплять крепежные элементы 1357 и 1361 друг к другу и/или извлекать крепежные элементы 1357 и 1361 друг из друга. Например, магниты могут быть размещены в углублениях 1363 и на внешнем (выпуклом) краю компонентов 1359, притягивая компоненты 1359 в углубления 1363 и скрепляя крепежный элемент 1361 с крепежным элементом 1357. В качестве другого примера, магниты могут быть размещены на внутреннем краю компонентов 1359 (т.е. на вогнутой поверхности компонентов 1359), притягивая компоненты 1359 в крепежный элемент 1361, например, чтобы помогать извлечению компонентов 1359 из углублений 1363 или предотвращать задвигание и выдвижение компонентов 1359 из крепежного элемента 1361, если они не прикреплены к крепежному элементу 1357. Соответствующие магниты также могут быть размещены на поверхностях крепежного элемента 1361, которые находятся в контакте с компонентами 1359, когда эти компоненты не входят в углубления 1363. Другими словами, эти магниты могут притягивать (и, в конкретных вариантах осуществления, в конечном счете устанавливать направленный контакт) магниты на вогнутой поверхности компонентов 1359, скрепляя компоненты 1359 с крепежным элементом 1361.
[130] Фиг. 13E-13G иллюстрируют примерные варианты осуществления прикрепления браслета 1369 с модулем 1373 камеры к себе, например, при ношении пользователем устройства 1367. На фиг. 13E, один или более магнитов 1371 на одной стороне браслета 1369 могут притягиваться к одному или более магнитов 1379 на другой стороне браслета 1369. Магниты могут представлять собой полосы магнитного материала, частично пересекающие браслет, как проиллюстрировано посредством магнитной полосы 1307 на фиг. 13H, могут представлять собой полосы магнитного материала, полностью пересекающие браслет, как проиллюстрировано посредством полос 1321 и 1327 на фиг. 13I, либо могут представлять собой области магнитного материала 1393, как проиллюстрировано на фиг. 13F. В дополнение к магнитам 1371 и 1379 браслет 1369 может включать в себя отверстия 1391 и один или более стержней 1377 для закрепления браслета 1369 на носящем устройство 1367. Фиг. 13G иллюстрирует крепежные элементы 1387 (например, винты 1396), прикрепляемые к крепежным элементам 1371 (например, гайку с покрытием 1395), чтобы прикреплять браслет 1381 к носящему устройство 1367 с использованием держателей 1383 (1398).
[131] В конкретных вариантах осуществления, браслет, содержащий электрические компоненты, также может включать традиционный разъем на основе физического контакта, как проиллюстрировано посредством разъема 250 по фиг. 2. Разъем может обеспечивать возможность соединения с устройством, например, для заряда, системных обновлений, отладки или передачи данных. Такой разъем может быть из множества "пого-" либо может представлять собой поверхности с покрытием из металла, с которыми может взаимодействовать зарядный кабель посредством контакта. Такие разъемы могут покрываться драгоценными металлами для того, чтобы предотвращать коррозию от воздействия влаги из окружающей среды и от человеческого тела. В конкретных вариантах осуществления, физические разъемы могут использоваться только для питания, и данные могут передаваться с использованием модальностей ближней связи, таких как технология Bluetooth, технология связи в поле в ближней зоне (NFC) или Wi-Fi-технология.
[132] В конкретных вариантах осуществления, браслет может использоваться для того, чтобы размещать гибкие аккумуляторы (такие как, например, литиевые аккумуляторы), чтобы увеличивать накопление энергии устройства. Поскольку емкость накопления энергии может быть связана с общим пространством, аккумуляторы внутри браслета увеличивают емкость накопления для носимых устройств с ограниченным пространством без влияния на полный размер корпуса устройства.
[133] Как подробнее описано ниже, носимое электронное устройство может включать в себя один или более датчиков на/в устройстве. Например, носимое электронное устройство может включать в себя один или более оптических датчиков или датчиков глубины. Оптические датчики могут быть размещены в любом подходящем местоположении, к примеру, на лицевой поверхности устройства, на браслете с обращением наружу от тела пользователя, на браслете с обращением напротив лицевой поверхности, на браслете с обращением к телу пользователя либо в любой надлежащей комбинации вышеозначенного. Фиг. 15 иллюстрирует устройство 1500 с браслетом, имеющим обращенный наружу оптический датчик 1505. Размещение оптического датчика на браслете позволяет сокращать число высокочастотных сигналов внутри кожуха, обеспечивая более легкое экранирование в корпусе устройства и в силу этого экономию веса и пространства. Фиг. 14A-14D иллюстрируют примерные размещения камеры для различных вариантов осуществления носимого электронного устройства. В конкретных вариантах осуществления, электронные схемы, к примеру, электронные схемы для обработки ввода из камеры, также могут быть расположены в браслете, например, в форме "вулкана", размещающего камеру, как проиллюстрировано посредством кожуха 125 на фиг. 1. В конкретных вариантах осуществления, другие датчики могут быть размещены около оптического датчика, к примеру, в том же кожухе, что и оптический датчик на браслете устройства. Например, датчик глубины может использоваться в сочетании с оптической камерой для того, чтобы улучшать отображение или обнаружение окружения устройства либо определять то, на какой объект пользователь указывает, либо с каким объектом он взаимодействует, через жест.
[134] В конкретных вариантах осуществления, размещение оптического датчика на браслете может быть регулируемым пользователем в предварительно определенном диапазоне. В конкретных вариантах осуществления, размещение оптического датчика на браслете может быть оптимизировано таким образом, что датчик может легко наводиться пользователем. Например, как проиллюстрировано посредством фиг. 15, если пользователь носит устройство на запястье пользователя, оптический датчик 1505 может быть размещен обращенным наружу способом, так что оптический датчик наведен наружу от тела пользователя, когда ладонь пользователя является примерно параллельной земле.
[135] В конкретных вариантах осуществления, размещение оптического датчика может быть таким, что пользователь может просматривать дисплей устройства в то время, когда датчик указывает наружу из тела пользователя. Таким образом, пользователь может просматривать контент, захваченный посредством оптического датчика и отображаемый посредством устройства, без блокирования поля зрения пользователя в отношении физической сцены, захваченной посредством датчика, как проиллюстрировано посредством треугольника просмотра на фиг. 16. Дисплей 1620 устройства 1600 может иметь ассоциированный конус просмотра, например, пространство, в пределах которого дисплей может просматриваться в достаточной степени. На фиг. 16, пользователь 1615 (1) просматривает реальный трофей 1610 и (2) просматривает изображение трофея на дисплее 1620 устройства 1600 изнутри конуса просмотра дисплея 1620 посредством наведения датчика 1605 на реальный трофей. Датчик 1605 имеет ассоциированный угол обзора, соответствующий пространству, в пределах которого изображения могут надлежащим образом захватываться посредством датчика 1605. Следует отметить, что в примере по фиг. 16, датчик 1605 размещен таким образом, что пользователь может легко наводить датчик 1605 наружу при поддержании дисплея 1620 устройства 1600 в направлении, обращенном к пользователю, и может добиваться этого без блокирования посредством устройства 1600 поля зрения пользователя в отношении трофея 1610.
[136] Фиг. 17 иллюстрирует примерный угол обзора для оптического датчика. Когда объект 1725 находится в пределах угла обзора оптического датчика 1705, пользователь может просматривать как объект 1725, так и изображение 1710 или 1715 объекта 1725,отображаемое на устройстве 1700. Например, когда рука 1720 пользователя находится в пределах угла обзора, пользователь может просматривать объект 1725, руку 1720 и изображение 1710 объекта 1725 и руки 1720 на дисплее 1700 устройства. Напротив, когда рука 1720 не находится в пределах угла обзора датчика 1705, рука 1720 не отображается посредством изображения 1715, представленного на дисплее 1700. При ношении пользователем, датчик устройства может захватывать руку/предплечье/пальцы пользователя в пределах угла обзора датчика при выполнении жеста, который должен быть захвачен посредством идентичного или других датчиков (например, жест, выбирающий объект в пределах угла обзора устройства, такой как, например, стягивание, быстрое прикосновение либо подтаскивание или отодвигание). Датчик и дисплей могут быть ориентированы таким образом, что при ношении пользователем, объект, который должен отображаться на устройстве, находится в пределах угла обзора устройства при том, что устройство не блокирует поле зрения пользователя в отношении объекта, и взгляд пользователя находится внутри конуса просмотра дисплея устройства. В конкретных вариантах осуществления, пользователь может взаимодействовать с изображением, захваченным посредством датчика или отображаемым на устройстве, к примеру, посредством быстрого прикосновения к части дисплея в/рядом с позицией, в которой отображается изображение, посредством выполнения жеста в пределах угла обзора датчика или посредством любого другого подходящего способа. Это взаимодействие может предоставлять некоторую функциональность, связанную с объектом, такую как, например, идентификация объекта, определение информации относительно объекта и отображение, по меньшей мере, части информации на дисплее; посредством захвата изображения объекта; либо посредством спаривания или иного обмена данными с объектом, если объект имеет возможности спаривания/обмена данными.
[137] В конкретных вариантах осуществления, модуль оптических датчиков или датчиков глубины (которые могут использоваться взаимозаменяемо, при необходимости) может осуществлять связь с устройством через простое удлинение шины, которую должен использовать оптический датчик, если он непосредственно смонтирован на главной печатной плате (PCB), как проиллюстрировано на фиг. 18A. На фиг. 18A, оптический датчик 1825 передает данные по гибким печатным схемам или межсоединениям 1820 в интегральный контроллер 1810, который в примере по фиг. 18A расположен в/на устройстве 1805, которое размещает главную печатную плату. Фиг. 18B иллюстрирует интегральную схему 1850 оптического датчика на/в модуле 1860 оптического датчика, который также размещает оптический датчик 1855. Связь между главной печатной платой устройства 1830 и электронными схемами в модуле 1860 камеры осуществляется через гибкую печатную схему 1845. Компоновка по фиг. 18B может позволять интегральной схеме сжимать и иным способом обрабатывать данные и отправлять их через способ, который требует меньшего числа сигнальных линий или который требует меньшего объема передачи данных. Это может быть полезным, поскольку браслет должен сгибаться, когда пользователь носит устройство, и в силу этого может требоваться меньшее число линий. Такой подход позволяет сокращать число линий до одной или двух сигнальных линии и двух линий питания, что является преимущественным с точки зрения монтажа корпуса, формовки и надежности. В конкретных вариантах осуществления, одна или более электронных схем, описанных выше, должны быть экранированы, чтобы предотвращать электромагнитные помехи от длинной высокочастотной кабельной проводки. Использование параллельной шины является стандартным в таких случаях и может требовать использования более длинного кабеля или FPC.
[138] В одном варианте осуществления, интегральная схема управления камерой может монтироваться непосредственно на небольшой схемной плате в оптическом модуле, как проиллюстрировано на фиг. 18A-B. Носимое электронное устройство может включать в себя любые подходящие датчики. В конкретных вариантах осуществления, один или более датчиков или их соответствующих электронных схем могут быть расположены на браслете устройства, в/на корпусе устройства или и там, и там. Датчики могут осуществлять связь между собой и с компонентами обработки и запоминающего устройства через любые подходящие проводные или беспроводные соединения, такие как, например, прямое электрическое соединение, NFC или технология Bluetooth. Датчики могут обнаруживать контекст (например, окружение) или состояние устройства, пользователя, приложения либо другого устройства или приложения, работающего на другом устройстве. Это раскрытие рассматривает носимое электронное устройство, содержащее любую подходящую конфигурацию датчиков в любом подходящем местоположении носимого электронного устройства. Помимо этого, это раскрытие рассматривает любой подходящий датчик, принимающий любой подходящий ввод, описанный в данном документе, либо инициирующий, задействованный или иным образом ассоциированный с предоставлением любой подходящей функциональности или услуг, описанных в данном документе. Например, сенсорные датчики могут быть задействованы в переходе между графическими пользовательскими интерфейсами, отображаемыми на устройстве, как подробнее описано в данном документе. Это раскрытие дополнительно рассматривает то, что функциональность, ассоциированная с носимым устройством, активацией/деактивацией датчиков, чувствительностью датчиков или приоритетом относительно обработки датчиков, может быть настраиваемой пользователем, в надлежащих случаях.
[139] Фиг. 19 иллюстрирует примерную систему обнаружения с помощью датчиков и иллюстрирует примерные датчики для носимого электронного устройства. Датчики отправляют данные в конкретном для датчиков формате в подсистему концентратора датчиков устройства. Например, датчики 19A, проиллюстрированные в примерном модуле 1924 датчиков, могут включать в себя одно или более из следующего: камеры 1902 для обнаружения лиц, обращенные наружу камеры 1904, датчики 1906 приближения к лицу, датчики 1908 касания лица, датчики 1910 касания браслета, акустические датчики 1912 касания кожи, инерциальная измерительная система 1914 (IMU), датчики 1916 вектора гравитации, датчики 1918 и 1920 касания и любые другие подходящие датчики 1922. Данные из датчиков отправляются в концентратор 19B датчиков, проиллюстрированный в примерном модуле 1944 концентратора датчиков. Данные приводятся к требуемым параметрам и очищаются от шума на этапах 1928 и 1930 по мере необходимости и передаются в блок 1942 обнаружения заблокированного состояния. Блок 1942 обнаружения заблокированного состояния обнаруживает то, когда устройство является неактивным, и отключает датчики по мере необходимости, чтобы экономить энергопотребление, при отслеживании данных датчиков на предмет жеста или другого подходящего ввода, который может повторно активировать устройство. Например, числовые блоки обнаружения жестов принимают вывод датчика и сравнивают этот вывод с одним или более числовых пороговых значений, чтобы определять результат. Эвристические блоки 1934 обнаружения жестов принимают вывод датчиков и принимают решения на основе одного или более деревьев решений, таких как правила выполнения операции "AND", применяемые к нескольким пороговым значениям. Блоки 1938 обнаружения жестов на основе шаблонов оценивают ввод датчика на основе предварительно определенной библиотеки шаблонов 1940 жестов, таких как, например, шаблоны, определенные посредством эмпирической оценки вывода датчика, когда жест выполняется. Один или более декодеров 1948 приоритета жестов оценивают вывод из блоков обнаружения жестов, блоков обнаружения заблокированного состояния или и того, и другого, чтобы определять то, какой (если есть) из обнаруженных жестов должен быть использован для того, чтобы предоставлять функциональность для конкретного процесса прикладного или системного уровня. В более широком смысле, в конкретных вариантах осуществления, когда устройство является активным, запрашиваемые из приложения или запрашиваемые из системы блоки обнаружения датчиков активируются поочередно и предоставляют свои данные в декодер приоритета датчиков. В конкретных вариантах осуществления, блок обнаружения приоритета определяет то, какой (если есть) из множества ввода датчика следует обрабатывать, и это раскрытие рассматривает, что комбинированный ввод из нескольких датчиков может быть ассоциирован с функциональностью, отличающейся от функциональности, ассоциированной с каждым вводом датчика по отдельности. Декодер определяет то, когда датчик обнаружен с достаточной достоверностью, и предоставляет данные датчиков в драйвер концентратора датчиков. Драйвер предоставляет интерфейс прикладного программирования (API) для конечных приложений и системных контроллеров, которые в свою очередь формируют необходимый вывод и навигацию. Например, фиг. 19 иллюстрирует примерный драйвер 1950 концентратора датчиков, API 1952 приложений, системные навигационные контроллеры 1954, например, для определения надлежащей функциональности системы (например, навигации 1962 системного уровня через графический пользовательский интерфейс устройства) и блоки обнаружения приоритета жестов прикладного уровня для приложений 1956. Хотя концентратор 19B датчиков и процессор 19C приложений (проиллюстрирован в примерном модуле 1964 процессора приложений) по фиг. 19 проиллюстрированы в качестве отдельных объектов, они могут выражаться посредством (и их функции выполняться посредством), по меньшей мере, некоторых из идентичных или аналогичных компонентов. В конкретных вариантах осуществления, границы, разграничивающие компоненты и функции концентратора датчиков и процессора приложений, могут быть в большей или меньшей степени всеобъемлющими. Границы, проиллюстрированные на фиг. 19, представляют собой только один примерный вариант осуществления. Что касается самих датчиков, выполняемые функции и компоненты системы концентратора датчиков и процессора приложений могут формироваться или находиться в корпусе устройства, в браслете либо и в том, и в другом. Конкретные варианты осуществления могут использовать несколько концентраторов датчиков или процессоров приложений либо их компонентов для того, чтобы принимать и обрабатывать данные датчиков.
[140] Датчики могут внутренне формировать данные датчиков, которые могут просто фильтроваться или переформатироваться, например, посредством блока обнаружения или модуля приведения данных к требуемым параметрам. Необработанные данные могут форматироваться в одинаковый формат посредством модуля форматирования для поглощения посредством API приложения. Модули распознавания могут использовать числовые модели (к примеру, деревья решений), эвристические модели, распознавание шаблонов или любые другие подходящие аппаратные средства, программное обеспечение и технологии для того, чтобы обнаруживать данные датчиков, к примеру, ввод с помощью жестов. Модули распознавания могут активироваться или деактивироваться посредством API. В таких случаях, ассоциированные датчики также могут деактивироваться, если модуль распознавания не должен принимать данные из датчиков или неспособен к распознаванию данных датчиков.
[141] Устройство может включать базу данных выводов датчиков, которая позволяет идентичному блоку обнаружения обнаруживать множество различных выводов датчиков. В зависимости от запросов, сформированных посредством API, декодер приоритета датчиков может подавлять или пропускать вывод датчика на основе предоставляемых критериев. Критерии могут быть функцией от схемы API. В конкретных вариантах осуществления, модули распознавания могут поглощать вывод нескольких датчиков для того, чтобы обнаруживать вывод датчика.
[142] В конкретных вариантах осуществления, несколько датчиков могут использоваться для того, чтобы обнаруживать аналогичную информацию. Например, как нормальная камера, так и камера считывания глубины могут использоваться для того, чтобы обнаруживать палец, либо как гироскоп, так и магнитометр могут использоваться для того, чтобы обнаруживать ориентацию. Если применимо, функциональность, которая зависит или использует информацию датчиков, может заменять датчики или выбирать из них на основе соображений реализации и среды выполнения, таких как затраты, использование энергии или частота использования.
[143] Датчики могут иметь любой подходящий тип и, как описано в данном документе, могут быть расположены в/на корпусе устройства, в/на браслете или в надлежащей комбинации вышеозначенного. В конкретных вариантах осуществления, датчики могут включать в себя один или более датчиков глубины и приближения (термины, которые при необходимости могут использоваться взаимозаменяемо в данном документе), таких как, например, инфракрасный датчик, оптические датчики, акустические датчики либо любые другие подходящие датчики глубины или датчики приближения. Например, датчик глубины может быть размещен на/около дисплея устройства, чтобы обнаруживать, когда, например, рука пользователя, палец или лицо приближается к дисплею. В качестве другого примера, датчики глубины могут обнаруживать любой объект, на который указывает палец пользователя в пределах угла обзора датчика глубины, как подробнее описано в данном документе. Датчики глубины также или альтернативно могут быть расположены на браслете устройства, как подробнее описано в данном документе. В конкретных вариантах осуществления, датчики могут включать в себя одну или более сенсорных областей на корпусе устройства, на браслете либо на том, и на другом. Сенсорные области могут использовать любые подходящие сенсорные технологии, такие как, например, резистивные, на поверхностных акустических волнах, емкостные (в том числе на основе взаимной емкости или на основе собственной емкости), инфракрасные, оптические, дисперсионные или любые другие подходящие технологии. Сенсорные области могут обнаруживать любой подходящий контакт, такой как смахивания, быстрые прикосновения, контакт в одной или более конкретных точек с одной или более конкретных областей либо мультисенсорный контакт (такой как, например, стягивание двух или более пальцев на дисплее или вращение двух или более пальцев на дисплее). Как подробнее описано в данном документе, сенсорные области могут содержать, по меньшей мере, часть дисплея устройства, кольца или браслета. Аналогично другим датчикам, в конкретных вариантах осуществления сенсорные области могут активироваться или деактивироваться, например, на основе контекста, соображений питания или пользовательских настроек. Например, сенсорная часть кольца может активироваться, когда кольцо "заблокировано" (например, не вращается), и деактивироваться, когда кольцо свободно вращается. В конкретных вариантах осуществления, датчики могут включать в себя один или более оптических датчиков, таких как надлежащие камеры или оптические датчики глубины.
[144] В конкретных вариантах осуществления, датчики могут включать в себя один или более инерциальных датчиков или датчиков ориентации, таких как акселерометр, гироскоп, магнитометр, GPS-кристалл или компас. В конкретных вариантах осуществления, вывод из инерционных датчиков или датчиков ориентации может использоваться для того, чтобы активировать или разблокировать устройство, обнаруживать один или более жестов, взаимодействовать с контентом на экране отображения устройства или на экране отображения спаренного устройства, осуществлять доступ к конкретным данным или активировать конкретные функции устройства или спаренного устройства, инициировать связь между корпусом устройства и браслетом или устройством и спаренным устройством либо для любой другой подходящей функциональности. В конкретных вариантах осуществления, датчики могут включать в себя один или более микрофонов для обнаружения, например, речи пользователя или окружающих звуков, с тем чтобы определять контекст устройства. Помимо этого, в конкретных вариантах осуществления устройство может включать в себя один или более динамиков на корпусе устройства или на браслете.
[145] В конкретных вариантах осуществления, датчики могут включать в себя компоненты для обмена данными с другими устройствами, такими как сетевые устройства (например, серверы или маршрутизаторы), смартфоны, вычислительные устройства, устройства отображения (например, телевизионные приемники или терминалы самообслуживания), аудиосистемы, видеосистемы, другие носимые электронные устройства, либо между браслетом и корпусом устройства. Такие датчики могут включать в себя NFC-модули считывания/радиомаяки, технологию Bluetooth или антенны для передачи или приема на любой подходящей частоте.
[146] В конкретных вариантах осуществления, датчики могут включать в себя датчики, которые принимают или обнаруживают тактильный ввод от пользователя устройства, такие как, например, пьезоэлектрические датчики, датчики давления, датчики силы, инерциальные датчики (как описано выше), датчики механического напряжения или механические актуаторы. Такие датчики могут быть расположены в любом подходящем местоположении на устройстве. В конкретных вариантах осуществления, компоненты устройства также могут предоставлять тактильную обратную связь пользователю. Например, одно или более колец, поверхностей или браслетов могут вызывать вибрацию, формировать свет или формировать аудио.
[147] В конкретных вариантах осуществления, носимое электронное устройство может включать в себя один или более датчиков окружения, таких как температурный датчик, датчик влажности или высотомер. В конкретных вариантах осуществления, носимое электронное устройство может включать в себя один или более датчиков для считывания физического атрибута пользователя носимого устройства. Такие датчики могут быть расположены в любой подходящей области, к примеру, на браслете устройства или на основании устройства, контактирующем с кожей пользователя. В качестве примера, датчики могут включать в себя акустические датчики, которые обнаруживают вибрации кожи пользователя, к примеру, когда пользователь натирает кожу (или одежду, покрывающую кожу) около носимого устройства, выполняет быстрое прикосновение к коже около устройства или перемещает устройство вверх и вниз по предплечью пользователя. В качестве дополнительных примеров датчик может включать в себя один или более датчиков температуры тела, пульсоксиметр, датчики кожно-гальванической реакции, емкостные датчики изображений, электромиографические датчики, модули считывания биометрических данных (например, отпечатков пальцев или глаз) и любые другие подходящие датчики. Такие датчики могут предоставлять обратную связь пользователю в отношении состояния пользователя, могут использоваться для того, чтобы инициировать предварительно определенную функциональность (например, оповещение о необходимости принять конкретное лекарство, к примеру, инсулин для диабетика), либо могут передавать считываемую информацию в удаленное устройство (такое как, например, терминал в медпункте).
[148] Носимое электронное устройство может включать в себя один или более зарядных компонентов для заряда или питания устройства. Зарядные компоненты могут использовать любой подходящий способ заряда, к примеру, емкостный заряд, электромагнитный заряд, импульсный подзаряд малым током, заряд посредством прямого электрического контакта, солнечный, кинетический, индуктивный или интеллектуальный заряд (например, заряд на основе режима работы или состояния аккумулятора и модификацию операций заряда соответствующим образом). Зарядные компоненты могут быть расположены на любой подходящей части устройства, к примеру, в/на корпусе устройства или в/на браслете устройства. Например, фиг. 20A иллюстрирует зарядное устройство 2000 с гнездом 2005 для соединения зарядного компонента с зарядным устройством. Например, гнездо 2005 может использовать трение, механические конструкции (к примеру, фиксаторы или защелки), магнетизм или любую другую подходящую технологию для принятия и закрепления зубца из зарядного компонента таким образом, что зубец и зарядное устройство 2000 устанавливают прямой электрический контакт. Фиг. 20C иллюстрирует зубец 2015 на браслете 2010 с использованием пого-разъемов для того, чтобы создавать схемное соединение между зарядным устройством 2022 и браслетом 2010 через контакты 2020. В конкретных вариантах осуществления, зубец 2015 может располагаться на зарядном устройстве 2022, и гнездо 2005 по фиг. 20A может располагаться на браслете или корпусе носимого устройства. В конкретных вариантах осуществления, контакты 2020 (такие как, например, пого-разъемы) могут располагаться на корпусе устройства, причем они могут использоваться для того, чтобы создавать схему между браслетом или зарядным устройством для заряда устройства. Зарядное устройство 2000 по фиг. 20A может подключаться к любому подходящему источнику питания (к примеру, для мощности из электрической розетки переменного тока или мощности постоянного тока из USB-порта в вычислительном устройстве) посредством любого подходящего проводного или беспроводного соединения.
[149] Зарядное устройство 2000 может быть изготовлено из любого подходящего материала, к примеру, акрилового, и в конкретных вариантах осуществления может иметь нескользкий материал в качестве подложки, такой как, например, резина. В конкретных вариантах осуществления, зарядное устройство 2000 может быть прикреплено или присоединено к поверхности, например, может быть присоединено к стене, как проиллюстрировано на фиг. 20B. Присоединение может осуществляться посредством любой подходящей технологии, к примеру, механически, магнитно или адгезивно. В конкретных вариантах осуществления, носимое электронное устройство может быть полностью применимым при присоединении к зарядному устройству. Например, когда зарядный компонент расположен на корпусе устройства, устройство может находиться в зарядном устройстве в то время, когда пользователь взаимодействует с устройством, или другие устройства обмениваются данными с устройством.
[150] В качестве другого примера зарядных компонентов в носимом электронном устройстве, фиг. 21A-21B иллюстрируют дополнительные примерные зарядные устройства с использованием, например, индуктивного зарядного устройства. Как проиллюстрировано на фиг. 21A-21B, браслет может включать в себя одну или более зарядных катушек 2110. Как описано выше, это раскрытие рассматривает зарядные катушки (либо любой другой подходящий зарядный компонент), содержащиеся в/на корпусе устройства, альтернативно или в дополнение на браслете устройства. Магнитное поле 2105, сформированное посредством, например, зарядной поверхности 2115 или зарядной поверхности 2120, проходит через зарядную катушку 2110. Зарядная поверхность 2120 по фиг. 21B может повышать плотность магнитного поля 2105 через зарядную катушку 2110 относительно зарядной поверхности 2115 и обеспечивает более точное размещение по сравнению с зарядной поверхностью 2115, за счет этого повышая скорость переноса заряда системы. Это раскрытие рассматривает, что если применимо, заряд может питать компоненты в/на корпусе устройства, компоненты в/на браслете или и те, и другие.
[151] В конкретных вариантах осуществления, браслет или устройство может реализовывать антенну для решения на основе беспроводного заряда. Поскольку беспроводной заряд работает оптимально в отсутствие черных металлов, это обеспечивает возможность более широкого выбора материалов для корпуса устройства при обеспечении повышенной способности к беспроводному переносу заряда посредством предоставления возможности удерживания катушки между полюсами формирователя сигналов управления зарядом (как описано выше), вместо простой копланарности с формирователем сигналов управления. Как описано выше и проиллюстрировано на фиг. 2, активный браслет также может включать традиционный внутренний разъем 250 на основе физического контакта.
[152] В конкретных вариантах осуществления, зарядный блок с внутренним резервуаром зарядов может быть ассоциирован с носимым электронным устройством. Когда вставлен в настенную розетку, зарядный блок может заряжать как подключенное устройство, так и внутренний резервуар зарядного блока. Когда не вставлен, зарядный блок по-прежнему может заряжать подключенное устройство из своего резервуара питания до тех пор, пока этот резервуар не истощится. Когда только зарядное устройство подключается к источнику питания без устройства, оно по-прежнему заряжает себя, так что оно может обеспечивать дополнительное питание для устройства в последующий момент времени. Таким образом, зарядный блок, описанный в данном документе, является полезным с/без подключения к источнику питания, поскольку он также может питать любое частично заряженное устройство некоторое время, когда человек не имеет возможности подключаться к источнику питания, например, в поездке, в самолете, на железнодорожном вокзале, на улице или в любом месте, в котором пользователю может требоваться заряжать устройство, но он не имеет доступа к источнику питания. Устройство может находиться как в режиме ожидания, так и в режиме использования в то время, когда зарядное устройство заряжает устройство, и не требуются модификации программного обеспечения или аппаратных средств целевого устройства. Дополнительные преимущества одного или более вариантов осуществления изобретения могут включать в себя уменьшение числа предметов, которые следует носить с собой, предоставление преимуществ как зарядного устройства, так и блока питания, применимость зарядного устройства для переноски на ходу и уменьшение числа кабелей и разъемов, которые следует носить с собой, чтобы продлевать время работы от аккумулятора устройств. Это раскрытие рассматривает, что такой зарядный блок может применяться к любым подходящим электронным устройствам, включающим в себя, но не только, носимое электронное устройство.
[153] Фиг. 22A-22B иллюстрируют конкретные варианты осуществления примерного зарядного блока 2210 с примерными соединениями 2205 с устройством 2200 и соединениями 2215 и 2220. Например, фиг. 22A иллюстрирует кабельное подключение от зарядного блока 2210 к устройству 2200 и к внешнему источнику питания. В качестве другого примера, фиг. 22B иллюстрирует зарядный блок 2210 с кабельным подключением от устройства 2200 и прямым подключением к источнику питания. Это раскрытие рассматривает любые подходящие соединения между устройством, зарядным блоком и источником питания, заряжающим зарядный блок. Например, соединения с устройством и с источником питания могут быть прямыми, через кабельную проводку или беспроводную связь.
[154] Как описано выше, зарядный блок может заряжать устройство из внутреннего резервуара зарядов зарядного блока, даже когда не подключен к внешнему источнику питания, и может заряжать себя, подключенное устройство или и то, и другое, когда подключен к внешнему источнику питания. Это раскрытие рассматривает любую подходящую схему для распределения заряда между зарядным блоком и устройством. Такая схема распределения может зависеть от величины заряда внутри устройства, внутри зарядного блока, величины мощности, потребляемой посредством устройства, зарядных характеристик внешнего источника питания или от любой надлежащей комбинации вышеозначенного. Помимо этого или альтернативно, пороговое значение заряда может определять то, какую схему распределения следует использовать. Например, одна зарядная схема может использоваться, когда устройство, по существу, полностью заряжено, а в зарядном блоке остается мало заряда, а другая может использоваться, когда в устройстве остается мало заряда. Фиг. 23-24 иллюстрируют примерные зарядные схемы для зарядного блока и подключенного устройства. Например, как проиллюстрировано на фиг. 24, когда устройство соединяется с зарядным устройством, как указано на этапе 2400, этап 2405 определяет то, полностью или нет заряжено устройство. Если да, дополнительные операции заряда не выполняются. Если нет, этап 2410 определяет то, подключается или нет зарядное устройство к внешнему источнику питания, такому как, например, напряжение сети. Если да, устройство заряжается из этого внешнего источника на 2425. Если нет, этап определяет то, осталась или нет энергия в зарядном устройстве, и если да, устройство заряжается из внутреннего источника питания зарядного устройства на этапе 2420 от напряжения сети, а не из резервуара зарядного блока, когда зарядный блок подключается к напряжению сети. Фиг. 23 иллюстрирует аналогичное дерево решений. Если устройство подключается к зарядному устройству (этап 2300), которое подключается к источнику питания (этап 2300), то этап 2310 определяет то, полностью или нет заряжено устройство, и если нет, устройство заряжается из источника питания, к которому подключено зарядное устройство (этап 2315). Аналогично, этап 2320 определяет то, полностью или нет заряжено зарядное устройство, и если нет, блок зарядного устройства заряжается из источника питания на этапе 2325. В конкретных вариантах осуществления, используемая схема распределения может определяться или настраиваться пользователем.
[155] Фиг. 25A-25E иллюстрируют примерные варианты осуществления накопления энергии и заряда в устройстве и зарядном блоке. На фиг. 25А для проиллюстрированного варианта осуществления, резервуар 2500 зарядов устройства и резервуар 2520 зарядов зарядного блока истощаются. Фиг. 25B-25C иллюстрируют заряд резервуара 2500 зарядов устройства и резервуара 2505 зарядов устройства после того, как зарядный блок подключен к внешнему источнику 2510 питания. По истечении небольшого времени как зарядный блок, так и устройство заряжаются одновременно, причем заряд распределяется таким образом, что каждому из них предоставляется идентичный процент от полной зарядной емкости. Как резервуар 2500 зарядов устройства, так и резервуар 2505 зарядов зарядного блока полностью заряжаются через какое-то время, как проиллюстрировано на фиг. 25C. Как описано в данном документе, величина заряда, выделяемая устройству или зарядному блоку, может варьироваться на основе любой подходящей схемы распределения заряда. Например, если характеристики преобразования мощности зарядного блока ограничены, резервуар зарядного блока является почти полным, и резервуар зарядов устройства является почти пустым, или энергетические потребности устройства являются очень высокими, зарядный блок может приоритезировать заряд устройства до заряда своих внутренних резервов. В качестве другого примера, заряд зарядного блока может продолжаться до тех пор, пока не достигнут предварительно определенный пороговый заряд.
[156] Фиг. 25D-25E иллюстрируют перенос заряда между зарядным блоком и устройством, когда зарядный блок не подключается к внешнему источнику питания. Как проиллюстрировано на фиг. 25D, устройство с небольшим зарядом, остающимся в его резервуаре 2500, подключается к зарядному блоку с полностью заряженным резервуаром 2505. Как пояснено выше, это раскрытие рассматривает любую подходящую схему распределения заряда между устройством и зарядным устройством, когда зарядное устройство не подключается к внешнему источнику питания. Эта схема распределения может быть идентичной или отличающейся от схемы распределения, используемой, когда зарядный блок подключается к внешнему источнику питания. Например, фиг. 25E иллюстрирует схему распределения, которая максимизирует заряд резервуара 2500 зарядов устройства. При условии, что зарядный блок по-прежнему имеет заряд, он продолжает заряд устройства до тех пор, пока устройство не будет полностью заряжено, или до тех пор, пока резервуар 2505 зарядов зарядного устройства не будет абсолютно пустым.
[157] Фиг. 26 иллюстрирует примерную внутреннюю архитектуру примерного зарядного блока 2600. Преобразователь 2605 напряжения сети формирует постоянный ток меньшего напряжения из тока 2610 сети высокого напряжения. Это напряжение подается как в зарядное устройство/стабилизатор 2630 напряжения аккумулятора, так и в разъем 2615, к которому может быть подключено устройство через соединение 2620 для заряда. Зарядное устройство 2630 аккумулятора использует доступную мощность из преобразователя 2605 напряжения сети для того, чтобы заряжать резервуар энергии (аккумулятор 2635). Оно может принимать равную долю мощности с устройством, принимать меньшую долю, когда потребность устройства является высокой (приоритет устройства), или принимать большую долю, когда внутренние резервы питания являются низкими (приоритет зарядного устройства). Эти приоритеты могут быть выбираемыми пользователем.
[158] Продолжая пример по фиг. 26, когда преобразователь 2605 напряжения сети не предоставляет мощность, зарядное устройство/стабилизатор 2630 напряжения формирует надлежащее зарядное напряжение из мощности в аккумуляторе 2635. Стабилизатор 2630 напряжения может быть всегда включен, либо он может включаться посредством соединения с устройством или нажатия кнопки, которая указывает то, что пользователь хочет заряжать устройство. После активации, стабилизатор 2630 напряжения заряжает устройство до тех пор, пока не истощатся внутренние резервы. В этот момент, часть заряда по-прежнему может оставаться в аккумуляторе 2635 для того, чтобы увеличивать время работы от аккумулятора, но он недоступен пользователю. Устройство может содержать аварийный режим, который разрешает доступ к части этой энергии с тем, чтобы получать минимальное количество времени использования в аварийном режиме, за счет времени работы от аккумулятора. Стабилизатор 2630 напряжения может продолжать предоставлять энергию до тех пор, пока либо устройство не отключится, либо устройство не будет извлекать только минимальную величину энергии, что указывает завершение заряда. В завершение, зарядное устройство/стабилизатор 2630 напряжения может включать в себя отображение по запросу, которое показывает величину энергии, остающуюся в резерве у пользователя. Поскольку дисплеи, в общем, используют энергию, кнопка или другой ввод может использоваться для того, чтобы инициировать отображение в течение ограниченного времени. Хотя фиг. 26 иллюстрирует примерную внутреннюю архитектуру примерного зарядного блока 2600, это раскрытие рассматривает любую подходящую внутреннюю архитектуру любого подходящего зарядного блока, описанного в данном документе, и рассматривает, что такой зарядный блок может иметь любой подходящий размер и форму.
[159] В конкретных вариантах осуществления, функциональность или компоненты устройства (такие как, например, датчики) могут активироваться и деактивироваться, например, чтобы экономить энергопотребление либо уменьшать или исключать нежелательную функциональность. Например, блок обнаружения заблокированного состояния обнаруживает то, когда устройство деактивируется, и отключает датчики по мере необходимости, чтобы экономить энергопотребление, при отслеживании данных датчиков на предмет жеста или другого подходящего ввода, который может повторно активировать устройство. Устройство может иметь один или более режимов мощности, к примеру, режим ожидания или полностью активный режим. В качестве одного примера, в конкретных вариантах осуществления устройство носится на предплечье, и сенсорная поверхность устройства может контактировать с объектами и людьми при обычном использовании. Чтобы предотвращать случайную активацию, акселерометр или другой инерциальный датчик в корпусе или браслете устройства может использоваться для того, чтобы измерять приблизительную позицию устройства относительно гравитации Земли. Если вектор гравитации обнаруживается в направлении боков устройства (например, определено то, что устройство находится сбоку от пользователя, или определено то, что дисплей не указывает на пользователя), сенсорный экран может быть заблокирован, а дисплей - деактивирован, чтобы сокращать использование энергии. Когда определено то, что вектор гравитации указывает ниже устройства (например, устройство является примерно горизонтальным, приводя к определению, что пользователь просматривает или иначе использует устройство), система может подавать питание на дисплей и активировать сенсорный экран для дополнительных взаимодействий. В конкретных вариантах осуществления, помимо или альтернативно направлению вектора гравитации, активирующего или разблокирующего устройство, скорость изменения направления или абсолютная величина вектора гравитации может использоваться для того, чтобы активировать или разблокировать устройство. Например, если скорость изменения вектора гравитации является нулевой в течение предварительно определенного количества времени (другими словами, устройство удерживается в конкретной позиции в течение предварительно определенного количества времени), устройство может активироваться или разблокироваться. В качестве другого примера, один или более инерциальных датчиков в устройстве могут обнаруживать конкретный жест либо последовательность жестов для активации дисплея либо другого подходящего компонента или приложения. В конкретных вариантах осуществления, кодер устройства является устойчивым к случайной активации и в силу этого может оставаться активным, так что пользователь может изменять варианты выбора при подъеме устройства до угла обзора. В других вариантах осуществления, кодер может деактивироваться на основе контекста или пользовательского ввода.
[160] Помимо или альтернативно экономии электроэнергии, конкретные варианты осуществления могут блокировать один или более датчиков, конкретную функциональность или конкретные приложения, чтобы обеспечивать безопасность для одного или более пользователей. Надлежащие датчики могут обнаруживать активацию или разблокирование защищенных аспектов устройства или другого устройства, спаренного или обменивающегося данными с носимым устройством. Например, конкретный жест, выполняемый в устройстве или в сенсорной области устройства, может разблокировать один или более защищенных аспектов устройства. В качестве другого примера, конкретное вращение или последовательность вращений поворотного кольца устройства могут разблокировать один или более защищенных аспектов устройства, отдельно или в комбинации с другим пользовательским вводом. Например, пользователь может поворачивать поворотное кольцо согласно уникальной последовательности символов, к примеру, чисел или изображений. В ответ на прием последовательности вращательных вводов, используемых для того, чтобы поворачивать поворотное кольцо, дисплей может отображать конкретный символ(ы), соответствующий каждому вращательному вводу, как подробнее описано в данном документе. В конкретных вариантах осуществления, используемые символы могут быть конкретными для пользователя (к примеру, пользовательские изображения, сохраненные или доступные посредством устройства, или символы, предварительно выбранные пользователем). В конкретных вариантах осуществления, различные символы могут быть представлены пользователю после предварительно определенного числа разблокирований или после предварительно определенного количества времени. Примерные вводы, описанные выше, также или альтернативно могут использоваться для того, чтобы активировать/деактивировать аспекты устройства, конкретные приложения или доступ к конкретным данным. Хотя это раскрытие описывает конкретные примеры пользовательского ввода, разблокирующего защищенные аспекты устройства, это раскрытие рассматривает любой подходящий ввод или комбинацию вводов для разблокирования любого защищенного аспекта устройства. Это раскрытие рассматривает, что ввод или другие подходящие параметры для разблокирования защищенных аспектов устройства либо активация/деактивации компонентов устройства могут быть настраиваемыми пользователем.
[161] В конкретных вариантах осуществления, носимое электронное устройство может обнаруживать один или более жестов, выполняемых с помощью/на устройстве. Жесты могут иметь любой подходящий тип, могут обнаруживаться посредством любых подходящих датчиков (например, инерциальных датчиков, датчиков касания, камер или датчиков глубины) и могут быть ассоциированы с любой подходящей функциональностью. Например, один или более датчиков глубины могут использоваться в сочетании с одной или более камер для того, чтобы захватывать жест. В конкретных вариантах осуществления, несколько датчиков глубины или камер могут использоваться для того, чтобы повышать точность обнаружения жеста или фона, ассоциированного с жестом. При необходимости, датчики, используемые для того, чтобы обнаруживать жесты (или обработка, используемая для того, чтобы инициировать функциональность, ассоциированную жестом), могут активироваться или деактивироваться для того, чтобы экономить энергопотребление или обеспечивать безопасность, как подробнее описано выше. Как показано выше, фиг. 19 иллюстрирует примерную систему обнаружения с помощью датчиков и предоставляет конкретные примеры обнаружения, обработки и приоритезации жестов. В конкретных вариантах осуществления, конкретные приложения могут подписываться на конкретные жесты или на все доступные жесты; или пользователь может выбирать то, какие жесты должны быть обнаруживаемыми посредством каких приложений. В конкретных вариантах осуществления, жесты могут включать в себя действие с другим устройством при одновременном использовании носимого устройства. Например, жест может включать в себя встряхивание другого устройства при наведении, перемещении или ином использовании носимого устройства. Это раскрытие рассматривает, что если применимо, любой из жестов, описанных в данном документе, может заключать в себе действие с другим устройством. Хотя примеры и иллюстрации, поясненные ниже, заключают в себе конкретные аспекты или атрибуты жестов, это раскрытие рассматривает комбинирование любых подходящих аспектов или атрибутов жеста и датчика, описанные в данном документе.
[162] В конкретных вариантах осуществления, носимое электронное устройство может обнаруживать один или более жестов, выполняемых с помощью/на устройстве. Жесты могут иметь любой подходящий тип, могут обнаруживаться посредством любых подходящих датчиков (например, инерциальных датчиков, датчиков касания, камер или датчиков глубины) и могут быть ассоциированы с любой подходящей функциональностью. Например, один или более датчиков глубины могут использоваться в сочетании с одной или более камер для того, чтобы захватывать жест. В конкретных вариантах осуществления, несколько датчиков глубины или камер могут использоваться для того, чтобы повышать точность обнаружения жеста или фона, ассоциированного с жестом. При необходимости, датчики, используемые для того, чтобы обнаруживать жесты (или обработка, используемая для того, чтобы инициировать функциональность, ассоциированную с жестом), могут активироваться или деактивироваться для того, чтобы экономить энергопотребление или обеспечивать безопасность, как подробнее описано выше. Как подробнее описано выше, фиг. 19 иллюстрирует примерную систему обнаружения с помощью датчиков и предоставляет конкретные примеры обнаружения, обработки и приоритезации жестов. В конкретных вариантах осуществления, конкретные приложения могут подписываться на конкретные жесты или на все доступные жесты; или пользователь может выбирать то, какие жесты должны быть обнаруживаемыми посредством каких приложений. В конкретных вариантах осуществления, жесты могут включать в себя действие с другим устройством при одновременном использовании носимого устройства. Например, жест может включать в себя встряхивание другого устройства при наведении, перемещении или ином использовании носимого устройства. Это раскрытие рассматривает, что если применимо, любой из жестов, описанных в данном документе, может заключать в себе действие с другим устройством. Хотя примеры и иллюстрации, поясненные ниже, заключают в себе конкретные аспекты или атрибуты жестов, это раскрытие рассматривает комбинирование любых подходящих аспектов или атрибутов жеста и датчика, описанные в данном документе.
[163] В конкретных вариантах осуществления, жесты могут включать в себя жесты, которые задействуют, по меньшей мере, руку пользователя и конечность, на которой носится устройство, такую как, например, другое запястье пользователя. Например, в конкретных вариантах осуществления, пользователь может использовать руку/предплечье, на которой носится устройство, для того чтобы надлежащим образом наводить оптический датчик устройства (например, камеру или датчик глубины), и может перемещать или позиционировать другое предплечье/руку/пальцы, чтобы выполнять конкретный жест. Как описано в данном документе и проиллюстрировано на фиг. 16-17, в конкретных вариантах осуществления целевая сцена может отображаться на дисплее устройства, так что пользователь может видеть и реальную сцену, и сцену, отображаемую на устройстве, и руку/предплечье/пальцы пользователя, если они находятся в пределах угла обзора. В конкретных вариантах осуществления, отображаемая сцена может включать в себя используемые руки/пальцы/предплечье, обнаруженные посредством датчика и используемые для того, чтобы выполнять жест. Фиг. 27-28 иллюстрируют примерные жесты, при которых пользователь наводит обращенный наружу (например, в направлении от тела пользователя) датчик на устройстве (например, на браслете устройства, как проиллюстрировано на чертежах), и перемещает или позиционирует другое свое предплечье/руку/пальцы для того, чтобы выполнять жест. Например, на фиг. 27, наружный датчик обнаруживает объект в пределах угла обзора датчика (2705), наружный датчик (который может быть идентичным датчиком, обнаруживающим объект) обнаруживает один или более пальцев, указывающих на объект (2710), и когда определено то, что указывающий палец(цы) находится в состоянии покоя (2715), обнаруживается жест (2720). Ссылаясь на фиг. 19, необработанные данные жестов, захваченные посредством обращенной наружу камеры, могут быть приведены к требуемым параметрам и очищены от шума, и эти данные могут отправляться в эвристический блок обнаружения жестов. Декодер приоритета жестов обрабатывает данные жестов и определяет то, когда жест идентифицирован с достаточной достоверностью. Когда жест идентифицирован, жест отправляется в драйвер концентратора датчиков, который предоставляет API для конечных приложений и системных контроллеров.
[164] В качестве примеров функциональности, ассоциированной с этим жестом, камера может фокусироваться на объекте, обнаруженный и указываемый объект затем может появляться на дисплее, информация относительно этого объекта может появляться на дисплее, и отображаемый контент может передаваться на дисплей другого устройства (например, когда объект представляет собой другое устройство). Фиг. 28 иллюстрирует примерный жест, аналогичный жесту по фиг. 27; тем не менее, проиллюстрированный жест включает в себя обнаружение посредством обращенного наружу датчика движения "быстрого прикосновения" пальца(цев) (например, что палец(цы) отдаляется от датчика). Например, жест по фиг. 28 может включать в себя обнаружение объекта в сцене камеры (или другого подходящего датчика) на этапе 2805, обнаружение пальца в сцене на этапе 2810, обнаружение отсутствия поперечного движения пальца на этапе 2815, обнаружение перемещения кончика пальца в направлении от датчика на этапе 2820 и обнаружение жеста на этапе 2825. Жест, проиллюстрированный на фиг. 28, может предоставлять любую подходящую функциональность. Например, объект, для которого выполнено быстрое прикосновение, может выбираться из объектов, отображаемых на экране отображения.
[165] Фиг. 29-30 иллюстрируют примерные жесты, когда объект обнаруживается с помощью обращенного наружу датчика наряду с перемещением пальцев и руки пользователя. Например, фиг. 29 иллюстрирует обнаружение посредством обращенного наружу датчика разделения двух пальцев 2915, сведения двух пальцев (например, в движении стягивания) 2920 и затем перемещения стянутых пальцев к датчику 2925. Движение сведения пальцев и перемещения к датчику может осуществляться одновременно или последовательно, и выполнение этапов последовательно (либо время между этапами в последовательности) или одновременно может представлять собой различный жест. На фиг. 30, два проиллюстрированных пальца первоначально находятся рядом вместе 3010, и обращенный наружу датчик обнаруживает расхождение пальцев 3020 и отдаление руки 3015. Что касается фиг. 30, перемещение пальцев и руки может быть одновременным или в любой подходящей последовательности. Помимо этого, аспекты фиг. 29-30 могут быть комбинированы, чтобы формировать жест. Например, стягивание пальцев между собой и отдаление от датчика может представлять собой уникальный жест. В конкретных вариантах осуществления, обнаруженные пальцы или рука могут осуществлять действия с другим устройством, и это действие может быть частью жеста. Что касается всех примерных жестов, описанных в данном документе, это раскрытие рассматривает любую подходящую функциональность, ассоциированную с жестами, проиллюстрированными на фиг. 29-30.
[166] Фиг. 31-32 иллюстрируют примерные жесты, аналогичные фиг. 29-30, за исключением того, что здесь все пальцы используются для того, чтобы выполнять жест. На фиг. 31, пальцы обнаруживаются как первоначально находящиеся близко друг к другу (например, в кулаке) 3105, обнаруживается отдаление кулака от датчика 3110, и датчик обнаруживает раскрытие 3115 кулака. С другой стороны, проиллюстрированная последовательность этапов может осуществляться в любом подходящем порядке. Фиг. 32 иллюстрирует обратный порядок по сравнению с фиг. 31. Фиг. 31-32 могут быть ассоциированы с любой подходящей функциональностью. Например, фиг. 31 иллюстрирует пример отправки всего или части контента, отображаемого на устройстве, в другое устройство, к примеру, телевизионный приемник, проиллюстрированный на фиг. 31. Аналогично, жест на фиг. 32 может подтаскивать часть или весь контент, отображаемый на другом устройстве, на дисплей носимого устройства. Например, жесты по фиг. 31-32 могут реализовываться, когда пользователь выполняет жесты с носимым устройством около другого устройства, такого как смартфон, планшетный компьютер, персональное вычислительное устройство, интеллектуальный прибор (например, холодильник, термостат или стиральная машина) или любое другое подходящее устройство. Описанная функциональность представляет собой только примеры функциональности, которая может быть ассоциирована с жестами, проиллюстрированными на фиг. 31-32, и это раскрытие рассматривает, что другой подходящий жест может выполнять описанную функциональность.
[167] Фиг. 33-37 иллюстрируют обнаружение смахивания посредством руки или части предплечья перед датчиком посредством обращенного наружу датчика. В конкретных вариантах осуществления, смахивание передней стороной руки может представлять собой жест, отличающийся от смахивания тыльной стороной руки. Фиг. 33-34 иллюстрируют смахивание рукой справа налево 3310-3315 и слева направо 3410-3415 через угол обзора датчика, и фиг. 35-37 иллюстрируют смахивание рукой снизу вверх 3510-3515 (а также 3735-3740) и сверху вниз 3610-3615 (а также 3710-3715) через угол обзора датчика. Как проиллюстрировано, рука может первоначально начинать движение в пределах угла обзора, проходить через угол обзора и уходить из угла обзора (как проиллюстрировано на фиг. 36); может начинать движение за пределами угла обзора, проходить через угол обзора и уходить из угла обзора (как проиллюстрировано на фиг. 37); может начинать движение за пределами угла обзора, проходить через часть угла обзора и оставаться в пределах угла обзора (как проиллюстрировано на фиг. 33-35); или может начинать движение в пределах угла обзора, проходить через часть угла обзора и оставаться в пределах угла обзора. Это раскрытие рассматривает смахивание рукой под другими углами, к примеру, вход под углом в 45 градусов снизу и справа на устройстве и уход под углом в 45 градусов сверху и слева на устройстве. Дополнительно, это раскрытие рассматривает обнаружение смахиваний рукой в движениях, отличных от прямой линии, такие как искривленные смахивания или треугольные смахивания. Это раскрытие рассматривает любую подходящую функциональность, ассоциированную любыми из жестов, проиллюстрированных на фиг. 33-37, такую как, например, переход между пользовательскими интерфейсами, отображаемыми на устройстве, или между приложениями, активными и отображаемыми на устройстве, открытие или закрытие приложений или прокрутка отображаемого контента (например, документов, веб-страниц или изображений). Как подтверждается в другом месте, это раскрытие рассматривает любой подходящий жест, ассоциированный с функциональностью, описанной в связи с фиг. 33-37.
[168] Фиг. 38-39 иллюстрируют примерные жесты, когда обращенный наружу датчик обнаруживает руку пользователя в пределах угла обзора 3805 и обнаруживает один или более пальцев, указывающих в направлении (в конкретных вариантах осуществления, наряду с частью руки пользователя или предплечья) 3815. Обнаруженный жест может зависеть от обнаруженных пальцев или направления, в котором указывают обнаруженные пальцы. Например, как проиллюстрировано на фиг. 38 палец может быть большим пальцем 3820, указывающим вверх, а на фиг. 39 палец может быть большим пальцем 3920, указывающим вниз. Любая подходящая функциональность может быть ассоциирована с жестами, проиллюстрированными на фиг. 38-39, такая как локальное сохранение или удаление файла на устройстве или на ассоциированном устройстве либо подтверждение или отклонение изменений, внесенных в настройки или другой контент.
[169] Фиг. 40 иллюстрирует примерный жест, задействующий форму, образованную с несколькими пальцами или частью руки в пределах угла обзора обращенного наружу датчика. Как проиллюстрировано на фиг. 40, форма может представлять собой кольцо 4010, и жест может включать в себя пальцы, не задействованные в форме, указывающей в конкретном направлении 4015. Как проиллюстрировано на фиг. 40, жест может включать в себя поддержание формы 4020 (и возможно другие пальцы) в течение предварительно определенного количества времени.
[170] Фиг. 41-42 иллюстрируют примерные жесты, включающие в себя закрывание всей или части обращенного наружу датчика пальцами или рукой пользователя. Закрывание датчика сверху устройства с помощью жеста 4105 "большой палец вниз" (как проиллюстрировано на фиг. 41) может представлять собой жест, отличающийся от закрывания датчика снизу устройства 4210 (как проиллюстрировано на фиг. 42) или с боков устройства. Направление закрывания может обнаруживаться, например, посредством формы руки при закрывании устройства, ориентации руки при закрывании устройства, данных из других датчиков, указывающих направление, в котором закрывается обращенный наружу датчик (например, обнаружение того, что дисплей и обращенный наружу датчик закрываются) или любой другой подходящей технологии.
[171] Фиг. 43-44 иллюстрируют примерные жесты, когда один или более пальцев пользователя или часть руки/предплечья обнаруживаются в пределах угла обзора обращенного наружу датчика 4305/4405 и затем перемещаются в пределах угла обзора (или "рамки"), чтобы выполнять конкретный жест 4310/4320/4410/4420. В конкретных вариантах осуществления, жест может быть любым подходящим перемещением или может быть перемещением в конкретном шаблоне. В конкретных вариантах осуществления, жест может быть ассоциирован с пальцами или частью обнаруженной руки/предплечья. Например, один указывающий палец может быть ассоциирован с жестом 4305 (как проиллюстрировано на фиг. 43), либо несколько пальцев/ладонь могут быть ассоциированы с жестом 4405 (как проиллюстрировано на фиг. 44). В конкретных вариантах осуществления, направление ладони (например, вперед, назад, под углом) может обнаруживаться и ассоциироваться с жестом.
[172] Фиг. 45 иллюстрирует, что примерный жест включает в себя обнаружение формы с несколькими пальцами или рукой/предплечьем пользователя 4505 и обнаружение перемещения формы в пределах угла обзора 4510/4520. Фиг. 45 иллюстрирует форму по фиг. 40, перемещающуюся по всему углу обзора обращенного наружу датчика.
[173] Фиг. 46 иллюстрирует примерный жест, задействующий обнаружение одного или более пальцев (части или всей руки/предплечья пользователя) и их начальной ориентации и последующее обнаружение изменения ориентации или скорости изменения ориентации во времени. Например, фиг. 46 иллюстрирует обнаружение двух пальцев в пределах угла обзора на этапе 4605, обнаружение пальцев и края руки в пределах угла обзора на этапе 4610, обнаружение составления формы "C" пальцами на этапе 4615, декодирование начальной ориентации формы "C" на этапе 4620, декодирование изменения ориентации формы "C" на этапе 4625, определение относительного вращательного значения формы "C" на этапе 4630 и обнаружение жеста на этапе 4635. Это раскрытие рассматривает любую подходящую форму, образуемую с помощью пальцев/руки/предплечья пользователя.
[174] Фиг. 47 иллюстрирует примерный жест, который задействует обнаружение числа пальцев в конкретной позиции в пределах угла обзора обращенного наружу датчика. Например, фиг. 47 иллюстрирует обнаружение кончиков пальцев в пределах угла обзора на этапе 4705, к примеру, одного вытянутого вверх большого пальца, вытянутых вверх большого пальца и пальца либо вытянутых вверх большого пальца и двух пальцев. Конкретная конфигурация ориентации кончиков пальцев обнаруживается на этапе 4710, и увязка конфигурации, по меньшей мере, с числовым значением пальцев выполняется на этапе 4715, чтобы обнаруживать жест на этапе 4725. Каждое из отображаемых изображений может быть различным жестом. Это раскрытие рассматривает любую подходящую позицию пальцев, которые содержат жест. Что касается всех остальных примерных жестов, описанных в данном документе, это раскрытие рассматривает любую подходящую функциональность, ассоциированную с жестами. Например, каждый жест по фиг. 47 может быть ассоциирован с контактом для вызова, почтового сообщения или текста, и обнаруженный жест может активировать вызов, почтовое сообщение или текст для контакта, назначаемого жесту. В конкретных вариантах осуществления, позиция руки/предплечья/пальцев может указывать того, какой способ контакта должен использоваться для контакта, ассоциированного с жестом.
[175] Фиг. 48-49 иллюстрируют примерные жесты, задействующие два датчика на устройстве. Например, фиг. 48 иллюстрирует датчик в нижней части браслета устройства. Этот датчик обнаруживает позицию другой руки пользователя относительно устройства и обнаруживает отделение руки от датчика. В конкретных вариантах осуществления, жест может включать в себя определение того, что обе руки перемещаются, к примеру, посредством дополнительной информации, предоставляемой посредством одного или более инерциальных датчиков в устройстве, либо посредством обращенной внутрь (например, обращенной к телу пользователя) камеры, обнаруживающей перемещение устройства через изменение пейзажа. Например, на фиг. 48 рука обнаруживается в пределах угла обзора на этапе 4805. Датчик обнаруживает то, что рука находится в стянутой форме, на этапе 4810, и идентичный или другой датчик обнаруживает то, что устройство находится в горизонтальной ориентации, на этапе 4815. Датчик обнаруживает перемещение руки относительно устройства на этапе 4820 и оценивает относительную позицию на этапе 4825. Жест обнаруживается на этапе 4830. Аналогично, фиг. 49 иллюстрирует примерный жест, также задействующий обнаружение руки пользователя в пределах угла обзора и затем отдаление от датчика устройства. Тем не менее, на фиг. 49 датчик устройства позиционируется сверху на устройстве (например, фронтальный датчик). В качестве примера, рука обнаруживается в пределах угла обзора фронтальной камеры на этапе 4905. Рука обнаруживается в стянутой форме на этапе 4910, и устройство обнаруживается в горизонтальной ориентации на этапе 4915. Рука приближается или отодвигается от устройства на этапе 4920, и оценка относительной позиции выполняется на этапе 4925, в какой точке жест обнаруживается на этапе 4930.
[176] Фиг. 50-58 иллюстрируют примерные жесты, обнаруженные посредством, по меньшей мере, одного фронтального датчика (например, датчика сверху на устройстве). Любой из жестов фиг. 50-58 может обнаруживаться посредством датчиков в любом другом подходящем местоположении (например, обращенных наружу, как описано выше), и любой из жестов, обнаруженных посредством описанного датчика в другом местоположении, может обнаруживаться посредством фронтального датчика при необходимости. Фиг. 50 иллюстрирует примерный жест, задействующий один или более кончиков пальцев, наведенных над устройством, и фронтальный датчик обнаруживает кончики пальцев на этапе 5005, обнаруживает позицию кончиков пальцев либо движение (или отсутствие движения) этих кончиков пальцев на этапах 5010 и 5015, чтобы обнаруживать жест на этапе 5020. Фиг. 51 иллюстрирует примерный жест, при котором этапы 5105 и 5110 являются идентичными 5005 и 5010, соответственно. Тем не менее, обнаруженные кончики пальцев отдаляются от фронтального датчика на этапе 5115; в конкретных вариантах осуществления, жест может включать в себя обнаружение изменения позиции одного или более кончиков пальцев относительно друг друга, к примеру, отодвигания, как указано на этапе 5120. Фиг. 52 иллюстрирует кончики пальцев, обнаруженные посредством датчика, на этапе 5205, совместное перемещение кончиков пальцев на этапе 5210, перемещение пальцев к устройству на этапе 5215, и длительность, в течение которой осуществляется движение, на этапе 5220, чтобы обнаруживать жест на этапе 5225. Как проиллюстрировано на фиг. 53, в конкретных вариантах осуществления жест может включать в себя обнаружение изменения относительной позиции кончиков пальцев в дополнение к движению кончиков пальцев к датчику. Например, на этапе 5305 один или два пальца обнаруживаются на передней поверхности; на этапе 5310 обнаруживается то, что пальцы перемещаются вверх или вниз; и жест обнаруживается на этапе 5315. В конкретных вариантах осуществления, длительность жеста фиг. 50-52 может определять то, обнаруживается или нет жест, либо различная длительность может содержать различные жесты.
[177] Фиг. 54-57 иллюстрируют примерные жесты, задействующие движение одного или более пальцев или движение части руки/предплечья через лицевую поверхность устройства (и в силу этого через фронтальный датчик). Как проиллюстрировано, жест может зависеть от числа используемых пальцев (например, два пальца по сравнению со всей ладонью); от направления движения через лицевую поверхность устройства (например, снизу вверх или слева направо); от длительности движения через лицевую поверхность устройства; от близости обнаруженных пальцев или руки/предплечья к лицевой поверхности устройства; от части лицевой поверхности устройства (например, вся или часть, и относительное местоположение части (например, нижняя половина)); от того, обнаруженные части первоначально находятся в пределах угла обзора фронтального датчика, первоначально находятся за пределами угла обзора, в итоге находятся в пределах угла обзора или в итоге находятся за пределами угла обзора. Например, жест по фиг. 54 может включать в себя обнаружение одного или двух пальцев, обнаруженных на передней поверхности, на этапе 5405; обнаружение перемещения пальцев влево на этапе 5410 и обнаружение жеста на этапе 5415. В качестве другого примера, фиг. 55 может включать в себя обнаружение одного или двух пальцев, обнаруженных на передней поверхности, на этапе 5505; обнаружение перемещения пальцев вправо на этапе 5510 и обнаружение жеста на этапе 5515. В качестве другого примера, фиг. 56 может включать в себя необнаружение пальцев на этапе 5605, обнаружение входа нескольких пальцев в пределы угла обзора слева, обнаружение закрытой передней поверхности, обнаружение ухода пальцев из рамки на этапе 5620 и обнаружение жеста на этапе 5625. В качестве еще одного другого примера, фиг. 57 может включать в себя необнаружение пальцев на этапе 5705, обнаружение входа нескольких пальцев в пределы угла обзора справа на этапе 5710, обнаружение закрывания всей передней поверхности на этапе 5715, обнаружение ухода пальцев из угла обзора на этапе 5720 и обнаружение жеста на этапе 5725. Как и в случае всех жестов, описанных в данном документе, любая подходящая комбинация этих факторов (и любых других подходящих факторов, ассоциированных с жестами) может использоваться для того, чтобы определять жест или функциональность, соответствующую жесту. Любая подходящая функциональность может быть ассоциирована с жестом, такая как, например, переход между экранами графического пользовательского интерфейса, прокрутка отображаемого контента или прокрутка доступных приложений или устройств для обмена данными/спаривания.
[178] Фиг. 58 иллюстрирует примерный жест, задействующий один или более пальцев, обнаруженных на краю устройства, и может включать в себя перемещение этих пальцев вокруг всего или части края устройства. Например, как проиллюстрировано на фиг. 58, жест может включать в себя необнаружение пальцев на этапе 5805, обнаружение одного пальца на краю передней поверхности на этапе 5810, обнаружение перемещения пальца вдоль края на этапе 5815, декодирование углового движения пальца относительно устройства на этапе 5820 и обнаружение жеста на этапе 5825. В качестве примера функциональности, ассоциированной с этим жестом, перемещение пальца может вращать часть или весь отображаемый контент на устройстве.
[179] В конкретных вариантах осуществления, жест может включать в себя движение носимого устройства, к примеру, посредством предплечья, на котором носится устройство. Движение может обнаруживаться посредством любых подходящих датчиков, таких как инерциальные датчики, датчики ориентации либо любая подходящая комбинация вышеозначенного. Фиг. 59-66 иллюстрируют примерные жесты, задействующие обнаружение вектора гравитации относительно устройства (например, указание в направлении лицевой поверхности устройства или указание вниз через основание) и обнаружение последующего движения устройства относительно этого вектора гравитации. Например, фиг. 59 может включать в себя обнаружение гравитации, указывающей вниз через лицевую поверхность, на этапе 5905, обнаружение ускорения устройства вдоль оси, идентичной оси, вдоль которой указывает вектор гравитации, на этапе 5910, обнаружение того, что ускорение устройства остается в течение некоторого временного шага, на этапе 5915, и обнаружение жеста на этапе 5920. Фиг. 60 является фактически аналогичным жесту по фиг. 59, за исключением того, что вектор гравитации указывает вниз через основание (а не через лицевую поверхность) на этапе 6005. Фиг. 61 иллюстрирует жест, который использует вектор гравитации для того, чтобы определять ориентацию/позицию устройства, например, что устройство не около тела пользователя. Движение устройства из обнаруженной ориентации (к примеру, перпендикулярно вектору гравитации) может обнаруживаться, приводя к жесту. Например, обнаруженная ориентация гравитации может указывать то, что предплечье не находится около тела, на этапе 6105, поперечное ускорение устройства может обнаруживаться на этапе 6110, ускорение может обнаруживаться в течение некоторого времени на этапе 6115, и жест может обнаруживаться на этапе 6120. Как указывают фиг. 59-61, обнаружение аспекта движения (например, длительности ускорения) может инициировать жест, и диапазоны аспекта (диапазоны длительности движения) могут соответствовать различному жесту. Фиг. 62-63 иллюстрируют вращательное движение устройства. Как показано на фиг. 61, обнаружение начальной ориентации или позиции устройства может быть частью обнаружения жестов. Например, жест по фиг. 62 может включать в себя обнаружение того, что вектор гравитации указывает то, что предплечье не находится около тела, на этапе 6205, обнаружение некоторого вращательного движения на этапе 6210, оценку того, что радиус вращательного движения является достаточно большим для движения колена, на этапе 6215, оценку относительного вращения на этапе 6220 и обнаружение жеста на этапе 6225. В качестве другого примера, жест по фиг. 63 может включать в себя обнаружение того, что вектор гравитации указывает то, что предплечье не находится около тела, на этапе 6305, обнаружение некоторого вращательного движения на этапе 6310, оценку того, что радиус вращательного движения является достаточно небольшим для движения запястья, на этапе 6315, оценку относительного вращения на этапе 6320 и обнаружение жеста на этапе 6325. Как проиллюстрировано на фиг. 62-63, жест может включать в себя оценку типа вращения устройства, такого как, например, вращение главным образом от плеча (фиг. 62), вращение главным образом от колена (фиг. 63) или любое другое подходящее вращение. Помимо или альтернативно радиусу вращения, жест может включать в себя обнаружение величины вращения, длительности вращения, радиального ускорения вращения, любого другого подходящего аспекта вращения либо любой надлежащей комбинации вышеозначенного.
[180] Аналогично фиг. 61-63, фиг. 64 указывает жест, задействующий обнаружение начальной ориентации или позиции устройства. Например, жест по фиг. 64 может включать в себя обнаружение того, что вектор гравитации указывает то, что предплечье не находится около тела, на этапе 6405, обнаружение поперечного ускорения предплечья вдоль оси предплечья на этапе 6410, обнаружение того, что ускорение остается в течение некоторого времени, на этапе 6415 и обнаружение жеста на этапе 6420. Фиг. 65 иллюстрирует, что жест может включать в себя движение устройства вдоль оси конечности, на которой носится устройство, такое как, например, ускорение устройства вдоль этой оси. Жест может включать в себя ударную нагрузку вдоль тракта движения (например, вызываемую посредством остановки или контакта с объектом посредством руки) и последующее изменение на противоположное движения. Возвратно-поступательное движение может повторяться до тех пор, пока движение не прекратится или рука не возвратится в некоторую позицию, к примеру, на боку пользователя. В конкретных вариантах осуществления, различные жесты могут быть основаны на числе или частоте возвратно-поступательного движения. Например, жест по фиг. 65 может включать в себя обнаружение того, что вектор гравитации указывает то, что предплечье не находится около тела, на этапе 6505, обнаружение того, что рука находится в движении, на этапе 6510, обнаружение импульса (ударной нагрузки) вдоль тракта движения на этапе 6515, обнаружение того, что рука изменяет на противоположное движение вдоль идентичного линейного контура, на этапе 6520, повторение этапов 6515 и 6520 надлежащим образом, обнаружение того, что движение прекращается в течение некоторого времени, на этапе 6525, и обнаружение жеста на этапе 6530.
[181] Фиг. 66-68 иллюстрируют примерные жесты на основе обнаружения движения, которое совпадает с предварительно определенным шаблоном движений, который может быть настраиваемым пользователем или создаваемым пользователем. В конкретных вариантах осуществления, настраиваемые жесты могут включать в себя начальную позицию или ориентацию устройства, движение или аспекты движения в конкретном направлении, прекращение и начало движения, длительность движения или любой другой подходящий параметр движения. Некоторые или все параметры могут быть настраиваемыми пользователем в конкретных вариантах осуществления. В конкретных вариантах осуществления, обнаруженный жест может определяться посредством сопоставления обнаруженного движения с ближайшим доступным шаблоном движений. Например, как проиллюстрировано на фиг. 66-68, жест может соответствовать горизонтальной позиции или движению предплечья или пальцев. Например, как проиллюстрировано на фиг. 66, жест может включать в себя обнаружение вектора гравитации, ориентированного вниз через нижнюю часть основания устройства, на этапе 6605, обнаружение движения вперед и внутрь на этапе 6610, сопоставление с шаблоном движений на этапе 6615 (например, с использованием эвристических, числовых модулей распознавания жестов или модулей распознавания жестов на основе шаблонов по фиг. 19) и обнаружение жеста на этапе 6620. Фиг. 67 может включать в себя обнаружение вектора гравитации, ориентированного вбок через нижнюю часть основания устройства, на этапе 6705, обнаружение движения вперед и внутрь на этапе 6710, сопоставление с шаблоном движений на этапе 6715 (например, с использованием эвристических, числовых модулей распознавания жестов или модулей распознавания жестов на основе шаблонов по фиг. 19) и обнаружение жеста на этапе 6720. Фиг. 68 может включать в себя обнаружение вектора гравитации, указывающего то, что предплечье не находится около тела, на этапе 6805, обнаружение движения устройства на этапе 6810, обнаружение прекращения движения на этапе 6815, сопоставление с шаблоном движений на этапе 6820, выбор наилучшего совпадения с шаблоном движений на этапе 6825 и обнаружение жеста на этапе 6830. Хотя фиг. 66-68 иллюстрируют конкретные примеры настраиваемых жестов, соответствующих конкретным шаблонам движений, это раскрытие рассматривает любые подходящие жесты (либо любой их аспект), обнаруженные посредством любых подходящих датчиков, настраиваемых пользователем устройства.
[182] В конкретных вариантах осуществления, жест необязательно может включать в себя обнаружение некоторого ввода не на основе движения или не на основе ориентации. Например, фиг. 69-71 иллюстрируют жест, содержащий обнаружение акустики, хотя проиллюстрированные жесты не требуют такого обнаружения. Фиг. 69 иллюстрирует акустический вывод (такой как, например, звонок из входящего или исходящего телефонного вызова) или ответ, после которого следует некоторое движение устройства (к примеру, поднесение устройства к лицу пользователя). Например, речевой ответ или вывод инициируется на этапе 6905, движение вверх обнаруживается на этапе 6910, прекращение движения вверх обнаруживается на этапе 6915, вектор гравитации находится в пределах предварительно определенного окна на этапе 6920, и жест обнаруживается на этапе 6925. В конкретных вариантах осуществления, жест может включать в себя обнаружение вектора гравитации в конкретной ориентации или окне ориентации, как проиллюстрировано. Жест по фиг. 69 также может включать в себя обнаружение позиции руки/пальцев пользователя. В качестве примера функциональности, которая может быть ассоциирована жестом, проиллюстрированным на фиг. 69, если пальцы поднесены к уху или лицу в указываемой позиции, пользователь может отвечать на или осуществлять телефонный вызов. Фиг. 70 и этапы 7005-7025 иллюстрируют примерный жест, имеющий атрибуты, аналогичные атрибутам, описанным для фиг. 69, но задействующий другую ориентацию руки/пальцев пользователя. Фиг. 71 иллюстрирует примерный жест, включающий в себя акустику, сформированную пользователем (например, посредством сцепления вместе пальцев пользователя), которая обнаруживается посредством микрофона, ассоциированного с устройством. Например, фиг. 71 может включать в себя обнаружение вектора гравитации, указывающего то, что предплечье не находится около тела, на этапе 7105, обнаружение движения с относительно высоким ускорением на этапе 7110, обнаружение внезапного изменения одной или более звуковых частот на этапе 7115 и обнаружение жеста на этапе 7120. Как проиллюстрировано на фиг. 71, сцепляющее движение может обнаруживаться исключительно посредством движения, сформированного только посредством сцепления (например, посредством вибрации руки/кожи пользователя либо посредством определенной степени или скорости изменения вращения вследствие сцепления), или может обнаруживаться посредством комбинации движения плюс звукового ввода, сформированной посредством сцепления. В конкретных вариантах осуществления, звуковое подтверждение должно обнаруживаться в течение предварительно определенного времени движения для обнаружения жеста.
[183] Фиг. 72-73 иллюстрируют примерные жесты, задействующие периодическое движение устройства, такое как встряхивание предплечья, устройство работает в поперечном или вертикальном направлении. Фиг. 72 иллюстрирует жест, включающий в себя обнаружение вектора гравитации, указывающего то, что предплечье не находится около тела, на этапе 7205, обнаружение перемещения устройства поперечно вперед на оси на этапе 7210, обнаружение перемещения устройства назад на идентичной оси на этапе 7215, повторение этапов 7210 и 7215 при необходимости и обнаружение жеста на этапе 7220. Фиг. 73 иллюстрирует жест, включающий в себя обнаружение вектора гравитации, указывающего то, что предплечье не находится около тела, на этапе 7305, обнаружение перемещения устройства вертикально вперед на оси на этапе 7310, обнаружение перемещения устройства назад на идентичной оси на этапе 7315, повторение этапов 7310 и 7315 при необходимости и обнаружение жеста на этапе 7220. Фиг. 74 иллюстрирует примерный жест, задействующий регулирование позиции/ориентации устройства относительно тела пользователя. Например, жест по фиг. 74 может включать в себя обнаружение вектора гравитации, указывающего то, что предплечье находится около тела, на этапе 7405, обнаружение вектора гравитации, указывающего то, что предплечье находится около тела, на этапе 7410, обнаружение жеста на этапе 7415. Любая подходящая функциональность может быть ассоциирована с жестами по фиг. 72-75, такая как, например, активация устройства из состояния с низким уровнем мощности. Фиг. 75 иллюстрирует примерный жест, задействующий высоту устройства или относительное изменение высоты устройства от начала до конца устройства. В дополнение к высоте устройства, жест может включать в себя ориентацию устройства до, во время или после жеста. Например, жест может включать в себя обнаружение вектора гравитации, указывающего то, что предплечье не находится около тела, на этапе 7505, обнаружение движения вверх на этапе 7510, обнаружение прекращения движения вверх на этапе 7515, обнаружение того, что вектор гравитации указывает через бок основания устройства, на этапе 7520 и обнаружение жеста на этапе 7525. Любая подходящая функциональность может быть ассоциирована жестом по фиг. 75, такая как, например, активация оборудования, спаренного с устройством, включение одного или более осветительных приборов в комнате или активация оборудования около устройства.
[184] В конкретных вариантах осуществления, жест может включать в себя взаимодействие непосредственно с корпусом или браслетом носимого устройства. Например, фиг. 76 иллюстрирует жест, задействующий контакт с сенсорной областью браслета, который носится на запястье пользователя. Жест может включать в себя обнаружение того, что устройство не находится в заблокированном состоянии, на этапе 7605, обнаружение отсутствия касания на браслете на этапе 7610, обнаружение касания на браслете на этапе 7615, декодирование позиции касания на этапе 7620 и обнаружение жеста на этапе 7625. Фиг. 77 иллюстрирует, что касания в нескольких позициях могут определяться в качестве одного жеста, к примеру, для того чтобы разблокировать устройство или аспекты устройства. Жест может включать в себя обнаружение того, что устройство не находится в заблокированном состоянии, на этапе 7705, обнаружение отсутствия касания на браслете на этапе 7710, обнаружение касания на браслете на этапе 7715, декодирование позиции касания на этапе 7720, декодирование операции на этапе 7725 и обнаружение жеста на этапе 7730. Фиг. 78 иллюстрирует, что жест может включать в себя контакт с сенсорной областью устройства и проведение пальцем по сенсорной области при поддержании контакта с устройством. Жест может включать в себя обнаружение того, что устройство не находится в заблокированном состоянии, на этапе 7805, обнаружение отсутствия касания на браслете на этапе 7810, обнаружение касания на браслете на этапе 7815, обнаружение перемещения точки(ек) касания на этапе 7820, декодирование относительного движения на этапе 7825 и обнаружение жеста на этапе 7830. В конкретных вариантах осуществления, жест может включать в себя длительность контакта, физическую область контакта (например, одним пальцем или двумя пальцами), последовательность контакта, давление, сформированное посредством контакта, или любой другой подходящий связанный с контактом атрибут. Хотя фиг. 76-78 иллюстрируют контакт с сенсорной областью на браслете, это раскрытие рассматривает, что жест может задействовать контакт на сенсорной области в любом подходящем местоположении устройства, таком как браслет, кольцо, дисплей устройства либо любая подходящая комбинация вышеозначенного. Например, фиг. 79-80 иллюстрирует контакт с сенсорными областями на кольце устройства, аналогично жестам по фиг. 77-78. Например, жест может включать в себя обнаружение того, что устройство не находится в заблокированном состоянии, на этапе 7905, обнаружение отсутствия касания на кольце на этапе 7915, обнаружение касания на кольце на этапе 7920 и обнаружение жеста на этапе 7925. В качестве другого примера, жест может включать в себя обнаружение того, что устройство не находится в заблокированном состоянии, на этапе 8005, обнаружение отсутствия касания на кольце на этапе 8010, обнаружение касания на кольце на этапе 8015, обнаружение перемещения точки касания на этапе 8020, декодирование относительного движения на этапе 8025 и обнаружение жеста на этапе 8030. Фиг. 81 иллюстрирует жест, задействующий мультисенсорный контакт с сенсорной областью лицевой поверхности устройства и обнаружение последующего движения контактных точек, вызываемого посредством, например, движения пальцев, контактирующих с сенсорной областью, либо посредством перемещения запястья/руки, на которой носится устройство. Жест может включать в себя обнаружение того, что устройство не находится в заблокированном состоянии, на этапе 8105, обнаружение отсутствия касания на поверхности на этапе 8110, обнаружение касания, по меньшей мере, двумя пальцами поверхности на этапе 8115, обнаружение перемещения точек касания на этапе 8120, декодирование относительного движения на этапе 8125 и обнаружение жеста на этапе 8130. Движение запястья/руки может обнаруживаться, например, посредством инерциальных датчиков в устройстве, позволяя различным способам перемещения точек касания представлять собой два различных жеста. Фиг. 82 иллюстрирует жест, задействующий начальный контакт с устройством, который может обнаруживаться посредством одного или более датчиков приближения на/в устройстве либо инерциальных датчиков на/около устройства. Жест может задействовать обнаружение того, что контакт сохраняется, что указывает то, что, например, пользователь надел устройство. Например, жест может включать в себя обнаружение отсутствия контакта с датчиком приближения к задней поверхности или браслету на этапе 8205, обнаружение контакта посредством датчика приближения на этапе 8210, обнаружение того, что контакт сохраняется, на этапе 8215, и обнаружение жеста на этапе 8220. Жест по фиг. 82 может разблокировать или включать находящееся в режиме ожидания устройство либо предоставлять любую другую подходящую функциональность.
[185] В конкретных вариантах осуществления, жест может включать в себя контакт с кожей около устройства. Фиг. 83 иллюстрирует жест, задействующий быстрое прикосновение к коже рядом с местом, на котором носится устройство. Быстрое прикосновение может обнаруживаться посредством датчиков вибрации в устройстве. Движение быстрого прикосновения может подтверждаться, например, посредством одного или более акустических датчиков, обнаруживающих звук, сформированный посредством жеста быстрого прикосновения. Например, жест может включать в себя обнаружение того, что устройство разблокируется, на этапе 8305, обнаружение движения с относительно высоким ускорением на этапе 8310, обнаружение звука, например, быстрого прикосновения на этапе 8315, сопоставление движения или звука с шаблоном на этапе 8320 и обнаружение жеста на этапе 8325. Фиг. 84 иллюстрирует жест, задействующий смахивание кожи около устройства, который может обнаруживаться и подтверждаться посредством датчиков, описанных на фиг. 83 выше. Например, жест может включать в себя обнаружение того, что устройство разблокируется, на этапе 8405, обнаружение движения с относительно высоким ускорением на этапе 8410, обнаружение звука, например, быстрого прикосновения на этапе 8415, обнаружение вибраций или звука поперечного движения на коже на этапе 8420, сопоставление движения или звука с шаблоном на этапе 8425 и обнаружение жеста на этапе 8430.
[186] В конкретных вариантах осуществления, жесты могут задействовать обнаружение метафорических жестов, выполняемых посредством руки, на которой носится устройство. Например, такой жест может обнаруживаться, например, посредством любого подходящего фронтального датчика на/около дисплея устройства, ориентированного таким образом, что рука, на которой не носится устройство, находится в пределах угла обзора датчика. Фиг. 85 иллюстрирует примерный жест, задействующий обнаружение движения нескольких пальцев посредством фронтального датчика, такой как быстрое прикосновение пальцев. Например, жест может включать в себя определение того, что устройство находится в предварительно определенной ориентации, на этапе 8505, обнаружение кончика пальца на этапе 8510, обнаружение движения кончика пальца на этапе 8515 или обнаружение звука быстрого прикосновения на этапе 8525 и обнаружение одного или более жестов на этапах 8520 и 8530. Фиг. 86 иллюстрирует примерный жест, задействующий движение одного пальца. Например, жест может включать в себя определение того, что устройство находится в предварительно определенной ориентации, на этапе 8605, обнаружение кончика пальца на этапе 8610, обнаружение движения кончика пальца на этапе 8615 или обнаружение звука быстрого прикосновения на этапе 8525 и обнаружение одного или более жестов на этапе 8620. Фиг. 87 иллюстрирует жест, задействующий обнаружение перемещения руки, держащей объект, обнаружение движения объекта, захват объекта и затем обнаружение последующего движения объекта. В качестве конкретного примера, жест может включать в себя обнаружение того, что устройство находится в предварительно определенной ориентации, на этапе 8705, обнаружение руки на этапе 8710, обнаружение движения руки на этапе 8715, обнаружение дополнительного объекта для того, чтобы двигать рукой, на этапе 8720, захват объекта на этапе 8725, обнаружение движения объекта на этапе 8730 и обнаружение жеста на этапе 8735. Например, объект может представлять собой перо или другой инструмент в форме стилуса, и фронтальный датчик на устройстве может обнаруживать движения инструмента при записывании, например, для того, чтобы создавать/сохранять текст на устройстве или на другом устройстве, обменивающемся данными с носимым устройством. Пример по фиг. 87 может позволять пользователю создавать рисунки, заметки или другой написанный контент без фактического создания написанного контента на дисплее или на другой поверхности для написания. Как подробнее описано в данном документе, любой подходящий жест или комбинация жестов могут использоваться для того, чтобы оказывать влияние или инициировать функциональность в стиле дополненной реальности (AR), и могут использоваться для того, чтобы выполнять задачи с использованием AR-функциональности. Например, жесты фиг. 85-87 могут использоваться для того, чтобы захватывать взаимодействие пользователя с виртуальной клавиатурой, виртуальной мышью или виртуальным сенсорным экраном, и эти взаимодействия могут формировать ввод на носимом устройстве или на любом другом подходящем спаренном устройстве. Хотя это раскрытие описывает конкретные примеры обнаружения метафорических жестов и объектов (и ассоциированную функциональность), это раскрытие рассматривает любые подходящие метафорические жесты, обнаружение любых подходящих объектов и таких жестов, ассоциированных с любой подходящей функциональностью.
[187] В конкретных вариантах осуществления, жест может задействовать всю конечность, на которой прикрепляется или носится устройство. Например, фиг. 88-92 иллюстрируют примерные жесты, задействующие движение предплечья, на котором носится устройство. Жесты могут включать в себя обнаружение начальной позиции предплечья (например, через обнаружение направления вектора гравитации посредством акселерометра), обнаружение движения устройства (через предплечье), обнаружение соответствующего изменения вектора гравитации и обнаружение того, что предплечье прекращает перемещение. Такие жесты также могут включать в себя обнаружение длительности перемещения, величины перемещения (например, обнаружение большого радиуса движения, подтверждение того, что все предплечье перемещено), ускорения перемещения или любых других подходящих связанных с перемещением атрибутов. Как проиллюстрировано посредством фиг. 88-92, жесты могут задействовать обнаружение перемещений предплечья выше головы, вперед, вбок, назад или вниз из первоначально более высокой начальной позиции. Например, жест может включать в себя обнаружение вектора гравитации, указывающего то, что рука находится рядом с телом, на этапе 8805, обнаружение движения руки вверх на этапе 8810, обнаружение того, что вектор гравитации указывает то, что рука находится выше головы, на этапе 8815, обнаружение прекращения перемещения руки на этапе 8820 и обнаружение жеста на этапе 8825. В качестве другого примера, жест может включать в себя обнаружение вектора гравитации, указывающего то, что рука находится рядом с телом, на этапе 8905, обнаружение движения вверх и движения вперед руки на этапе 8910, обнаружение того, что вектор гравитации указывает то, что рука расположена горизонтально, на этапе 8915, обнаружение прекращения перемещения руки на этапе 8920 и обнаружение жеста на этапе 8925. В качестве другого примера, жест может включать в себя обнаружение вектора гравитации, указывающего то, что рука расположена горизонтально, на этапе 9005, обнаружение перемещения руки вниз и назад на этапе 9010, обнаружение того, что вектор гравитации указывает то, что рука находится рядом, на этапе 9015, обнаружение прекращения перемещения руки на этапе 9020 и обнаружение жеста на этапе 9025. В качестве другого примера, жест может включать в себя обнаружение вектора гравитации, указывающего то, что рука находится около тела, на этапе 9105, обнаружение перемещения руки вверх и назад на этапе 9110, обнаружение того, что вектор гравитации указывает то, что рука расположена горизонтально, на этапе 9115, обнаружение прекращения перемещения руки на этапе 9120 и обнаружение жеста на этапе 9125. В качестве другого примера, жест может включать в себя обнаружение вектора гравитации, указывающего то, что рука находится около тела, на этапе 9205, обнаружение перемещения руки вверх и наружу на этапе 9210, обнаружение того, что вектор гравитации указывает то, что рука расположена горизонтально, на этапе 9215, обнаружение прекращения перемещения руки на этапе 9220 и обнаружение жеста на этапе 9225. В конкретных вариантах осуществления, жесты могут задействовать движение всего тела, а не только конечности, на которой носится устройство.
[188] В конкретных вариантах осуществления, пользователь может взаимодействовать с устройством через множество механизмов или типов ввода, включающих в себя, например, внешнее кольцо, сенсорные интерфейсы (например, сенсорный слой), жесты, выполняемые пользователем (описанные в данном документе), или речевой интерфейс (например, включающий в себя голосовой ввод и распознавание речи для приложений, включающих в себя ввод текста, связь или поиск). Дополнительно, в конкретных вариантах осуществления, пользователь может взаимодействовать с графическим пользовательским интерфейсом, представленным на кругообразном дисплее устройства, через любой из механизмов или типов ввода.
[189] Пользователь носимого электронного устройства может взаимодействовать с устройством (включающим в себя, например, графический пользовательский интерфейс, представленный на кругообразном дисплее) посредством использования внешнего кольца. В конкретных вариантах осуществления, внешнее кольцо может быть сенсорным, так что касание пользователя на одной или более частей кольца может обнаруживаться в качестве ввода в устройство и интерпретироваться, приводя к выполнению одной или более операций посредством устройства (например, в графическом пользовательском интерфейсе устройства). В качестве примера, сенсорное внешнее кольцо может представлять собой емкостное кольцо или индуктивное кольцо, и пользователь устройства может выполнять любой подходящий жест касания на сенсорном кольце, чтобы предоставлять ввод в устройство. Ввод, например, может включать в себя смахивание кольца одним пальцем, смахивание кольца двумя или более пальцев, выполнение вращательного жеста одним или более пальцев или сжатие кольца. В конкретных вариантах осуществления, внешнее кольцо может быть поворотным, так что физическое вращение кольца может служить в качестве ввода в устройство. Дополнительно, в конкретных вариантах осуществления, внешнее кольцо может щелкаться (например, нажиматься) или сжиматься. Любые из вариантов осуществления внешнего кольца могут быть комбинированы надлежащим образом, так что кольцо может быть одним или более из сенсорного, поворотного, активируемого по щелчку (или нажимаемого) или сжимающегося. Вводы из различных модальностей внешнего кольца (например, касание, вращение, щелчок либо нажатие или сжатие) могут быть интерпретированы по-разному, например, в зависимости от комбинации модальностей ввода, предоставленного пользователем. В качестве примера, вращение внешнего кольца может указывать ввод, отличающийся от вращения в комбинации с щелчком или с нажатием кольца. Дополнительно, обратная связь может предоставляться пользователю, когда пользователь предоставляет через внешнее кольцо ввод, включающий в себя тактильную обратную связь, обратную аудиосвязь или визуальную обратную связь, описанные в данном документе.
[190] Фиг. 93A иллюстрирует пример щелчка (например, нажатия) пользователем на внешнем кольце, указываемого посредством стрелок 9310. Фиг. 93B иллюстрирует пример сжимания пользователем внешнего кольца, указываемого посредством стрелок 9320. Фиг. 94A иллюстрирует пример вращения пользователем внешнего кольца таким образом, что контент 9410 графического пользовательского интерфейса устройства изменяется в соответствии с вращением (например, вправо). Фиг. 94B иллюстрирует пример выполнения пользователем жеста вращения на сенсорном кольце, без вращения самого кольца, так что контент 9420 графического пользовательского интерфейса устройства изменяется в соответствии с вращением (например, вправо). Фиг. 94C иллюстрирует пример вращения пользователем внешнего кольца при одновременном нажатии или щелчке кольца, так что контент 9430 графического пользовательского интерфейса устройства изменяется в соответствии с вращением (например, вправо) и нажатием или щелчком.
[191] В конкретных вариантах осуществления, сенсорный интерфейс устройства (например, сенсорный слой) может принимать пользовательский сенсорный ввод и позволять устройству определять координаты X-Y касания пользователя, идентифицировать несколько точек сенсорного контакта (например, в различных областях сенсорного слоя) и различать между различными временными отрезками взаимодействия в виде касаний (например, отличать жесты, включающие в себя смахивание, одиночное быстрое прикосновение или двойное быстрое прикосновение). Жесты касания (описанные в данном документе) могут включать в себя многонаправленное смахивание или перетаскивание, стягивание, двойное быстрое прикосновение, нажатие или надавливание на дисплей (которое может вызывать физическое перемещение дисплея в направлении вверх или вниз), длинное нажатие, мультикасание (например, использование нескольких пальцев или инструментов для касания или ввода в виде жестов в любой позиции на сенсорном интерфейсе) либо жесты касания с вращением. Фиг. 95A иллюстрирует пример выполнения пользователем быстрого прикосновения 9510 к сенсорному интерфейсу (например, сенсорному слою), чтобы предоставлять ввод в устройство. Точные координаты X-Y быстрого прикосновения пользователя могут определяться посредством устройства через ввод из сенсорного интерфейса (например, сенсорного слоя). Фиг. 95B иллюстрирует пример выполнения пользователем, соответственно, жеста 9515 вращения по часовой стрелке, жеста 9520 вращения против часовой стрелки, жеста 9525 вертикального смахивания и жеста 9530 горизонтального смахивания. Фиг. 95C иллюстрирует пример касания пользователем дисплея (включающего в себя сенсорный слой с возможностями мультисенсорного считывания) с использованием, соответственно, одной, двух или трех точек 9535 контакта (например, одним, двумя или тремя пальцами или инструментами) одновременно. Фиг. 95D иллюстрирует пример выполнения пользователем жестов касания, имеющих несколько точек контакта с сенсорным интерфейсом. Пользователь, в этом примере, может выполнять жест 9540 разворачивания, жест 9545 стягивания, жест 9550 вращения по часовой стрелке или жест 9555 вращения против часовой стрелки двумя пальцами.
[192] В конкретных вариантах осуществления, графический пользовательский интерфейс устройства может работать согласно модели взаимодействий и переходов. Модель, например, может определять то, как режимы, включающие в себя приложения, функции, подрежимы, подтверждения, контент, элементы управления, значки активных элементов, операции или другие признаки или элементы, могут быть организованы (например, в иерархии) в графическом пользовательском интерфейсе устройства.
[193] В одном варианте осуществления, графический пользовательский интерфейс (GUI) включает в себя несколько экранов верхнего уровня, которые соответствуют различному режиму или приложению (либо подрежиму, функции, подтверждению, контенту или любому другому признаку) устройства. Каждое из этих приложений может располагаться на идентичном уровне иерархии модели взаимодействий и переходов GUI. Фиг. 96A иллюстрирует примерный вид иерархии в GUI, в котором несколько экранов 9602-9606 и 9610-9614 верхнего уровня соответствуют различному приложению, и один из экранов 9608 верхнего уровня (начальный экран) соответствует часам. Переходы состояния в GUI могут быть событиями, инициированными посредством ввода из источника ввода, к примеру, от пользователя устройства. Ввод от пользователя устройства или из другого источника ввода (например, через любой из множества механизмов или типов ввода, включающих в себя внешнее кольцо, сенсорные интерфейсы, жесты, речь или датчики) может вызывать переход в GUI (например, из одного экрана верхнего уровня на другой). Например, ввод может инструктировать GUI переходить из начального экрана 9608 (например, часы) в приложение (например, 3 или 4) или из приложения в другое приложение. Если пользователь вращает внешнее кольцо вправо, например, GUI может переходить из начального экрана 9608 в приложение 4 9610, и если пользователь вращает внешнее кольцо влево, GUI может переходить из начального экрана 9608 в приложение 3 9606. В еще одних других вариантах осуществления, контекст (например, определенный посредством датчиков или других источников ввода на устройстве) может инструктировать GUI переходить из начального экрана в приложение или из приложения в другое приложение.
[194] В одном варианте осуществления, модель может включать в себя функционал для дифференцирования "левых" и "правых" сторон в связи с начальным экраном. В качестве примера, один или более экранов верхнего уровня могут быть ассоциированы с режимами или приложениями (либо другими признаками) в иерархии модели взаимодействий и переходов GUI, которые являются фиксированными (например, всегда доступны пользователю) либо контекстными или динамическими (например, доступны в зависимости от контекста). Контекстные экраны, например, могут отражать режимы, приложения или функции, используемые в прошлый раз пользователем, режимы, приложения или функции, добавленные (например, загруженные) в прошлый раз пользователем, произвольно организующиеся зарегистрированные устройства (которые, например, могут входить или выходить из пределов диапазона связи устройства, когда они используются), режимы, приложения или функции, которые являются "избранными" для пользователя (например, явно обозначенные пользователем), или режимы, приложения или функции, которые предлагаются для пользователя (например, на основе предшествующей активности пользователя или текущего контекста). Фиг. 96B иллюстрирует примерный вид иерархии в GUI, в котором контекстные или динамические приложения 9616-9620 и фиксированные приложения 9624-9628 группируются отдельно, при этом левая сторона (в связи с начальным экраном 9622 с часами) включает в себя контекстные приложения, а правая сторона включает в себя фиксированные приложения. В качестве примера, динамическое приложение 01 9620 может представлять собой последнее используемое приложение, и динамическое приложение 02 9618 может представлять собой второе последнее используемое приложение, и т.д.
[195] В конкретных вариантах осуществления, верхний уровень иерархии модели взаимодействий и переходов GUI может включать в себя только "лицевые виды", а следующий уровень иерархии может включать в себя приложения (или любые другие признаки). В качестве примера, верхний уровень иерархии может включать в себя начальный экран (например, часы) и один или более лицевых видов, причем каждый лицевой вид соответствует различному типу фона, режима или активности, такому как обои (например, настраиваемые пользователем), информация о погоде, информация календаря или ежедневной деятельности. Каждый из лицевых видов может показывать время, помимо всей остальной отображаемой информации. Дополнительно, текущий отображаемый лицевой вид может выбираться пользователем (например, через любой подходящий механизм или тип ввода) или автоматически изменяться на основе контекста (например, активности пользователя). Лицевые виды слева от начального экрана могут быть контекстными, а лицевые виды справа от начального экрана могут быть фиксированными. Фиг. 97 иллюстрирует примерный вид иерархии в GUI, в котором верхний уровень иерархии включает в себя лицевые виды 9710-9770 (включающие в себя циферблат 9740), и следующий уровень иерархии включает в себя приложения 9715-9775.
[196] В конкретных вариантах осуществления, ввод от пользователя устройства или ввод из другого источника ввода (например, через любой из множества механизмов или типов ввода, включающих в себя внешнее кольцо, сенсорные интерфейсы, жесты, речь или датчики) или контекст использования устройства может вызывать переход в GUI из экрана на одном уровне иерархии модели взаимодействий и переходов GUI на экран на другом уровне иерархии. Например, событие или ввод на основе выбора пользователем (например, касание или быстрое прикосновение к дисплею, голосовой ввод, пристальный взгляд, щелчок или нажатие внешнего кольца, сжатие внешнего кольца, любые подходящие жесты, внутреннее мышечное движение, обнаруженное посредством датчиков, или другой ввод датчика) может вызывать переход в GUI из экрана верхнего уровня на экран, вложенный на один уровень глубже в иерархии. Если, например, текущий экран является экраном верхнего уровня, ассоциированным с приложением, событие на основе выбора (например, нажатие кольца) выбирает приложение и инструктирует GUI переходить на экран, вложенный на один слой глубже. Этот второй экран, например, может обеспечивать возможность взаимодействия с признаком выбранного приложения и, в конкретных вариантах осуществления, может соответствовать основной функции выбранного приложения. Может быть предусмотрено несколько экранов в этом втором вложенном слое, и каждый из этих экранов может соответствовать различным функциям или признакам выбранного приложения. Аналогично, ввод или событие на основе выбора "Назад" пользователем (например, двойное нажатие внешнего кольца или жеста касания в конкретной части дисплея) может вызывать переход в GUI из одного экрана (например, признака конкретного приложения) на другой экран, который находится на один уровень выше в иерархии (например, экран приложения верхнего уровня).
[197] Фиг. 98A иллюстрирует пример работы модели взаимодействий и переходов относительно функции или режима 9805 конкретного приложения устройства и использования или применения функции 9810. В качестве примера, если приложение представляет собой камеру, функции, режимы или другие элементы приложения для работы с камерой могут включать в себя режим изображений, видеорежим (например, с "живым" видом) и включение или выключение вспышки. К различным функциям, режимам или другим элементам может осуществляться доступ через переходы в одном слое иерархии моделей. Эти внутрислойные переходы могут осуществляться после приема или определения конкретного типа события перехода или ввода из источника ввода, к примеру, от пользователя устройства (например, вращение внешнего кольца против часовой стрелки или по часовой стрелке) либо после определения конкретного контекста использования устройства. В конкретных вариантах осуществления, ввод событий перехода также может включать в себя, например, касание или быстрое прикосновение к дисплею, голосовой ввод, пристальный взгляд, щелчок или нажатие внешнего кольца, сжатие внешнего кольца, любой подходящий жест, внутреннее мышечное движение, обнаруженное посредством датчиков, или другой ввод датчика. Чтобы выбирать и использовать функцию, режим или другой элемент приложения, пользователь может предоставлять конкретный тип события или ввода на основе выбора (например, быстрое прикосновение или касание дисплея, нажатие или щелчок внешнего кольца, конкретный жест или ввод датчика), вызывающий межслойный переход в GUI на более глубокий слой иерархии. В качестве примера, чтобы снимать видео, пользователь может выполнять быстрое прикосновение к экрану, ассоциированному с признаком видеорежима приложения для работы с камерой. На этом более глубоком слое иерархии, при съемке видео, пользователь может инструктировать GUI переходить между различными опциями в этом слое, если они доступны (например, опции, связанные с видеорежимом). В конкретных вариантах осуществления, пользователь может выбирать одну из опций на более глубоком слое, инструктируя GUI переходить на еще более глубокий слой. В качестве примера, при записи видео в видеорежиме, пользователь может снова выполнять быстрое прикосновение к дисплею, чтобы осуществлять переход GUI на более глубокий слой, который в этом случае может включать в себя опцию, чтобы прекращать запись видео. Дополнительно, пользователь может возвращаться на верхний слой иерархии посредством предоставления конкретного типа события или ввода на основе выбора (например, ввода "Назад", описанного в данном документе). В качестве примера, при записи видео в видеорежиме, пользователь может касаться конкретной части "Назад" дисплея, инструктируя отмену видеозаписи и инструктируя GUI переходить на экран, ассоциированный с признаком видеорежима приложения для работы с камерой (например, в слое признаков иерархии). Иерархия моделей взаимодействий и переходов GUI может иметь любое число слоев и любое число элементов (например, функций или контента) в одном слое. Фиг. 98B иллюстрирует пример работы модели взаимодействий и переходов относительно контента 9815 на устройстве. В этой примерной модели, контент может вести себя аналогично приложению за исключением того, что если пользователь выбирает контент 9815 (например, фотографию), и GUI переходит на более глубокий слой в иерархии, может быть показана первая опция 9820 в меню с опциями, связанными с контентом (например, с такими опциями, как удаление фотографии или общий доступ к фотографии). Фиг. 98C иллюстрирует пример работы модели взаимодействий и переходов относительно управления 9825 на устройстве. Элемент управления может функционировать как ручка в том, что может модифицировать значение в диапазоне возможных значений. Пользовательский ввод в устройство (например, вращение внешнего кольца вправо или влево) может модифицировать значение или состояние 9830, ассоциированное с элементом 9825 управления. Значение, модифицированное посредством элемента управления, может быть, по существу, непрерывным по своему характеру (например, уровень масштабирования камеры или уровень громкости телевизионного приемника) или может быть, по существу, дискретным по своему характеру (например, канал телевизионного приемника). В конкретных вариантах осуществления, в случаях, если значение, модифицированное посредством управления, является дискретным по своему характеру, конкретный пользовательский ввод (например, нажатие внешнего кольца) может "фиксировать" выбор значения. Фиг. 98D иллюстрирует пример работы модели взаимодействий и переходов относительно приложения 9835 на устройстве и основной функции 9840 приложения. В качестве примера, каждый режим или функция устройства (например, функции камеры или дополненной реальности) может быть приложением на устройстве. Переходы в одном слое (например, выполняемые после приема конкретного пользовательского ввода, такого как вращение внешнего кольца) позволяют пользователю изменять приложения, режимы или функции устройства. Переходы между слоями (например, выполняемые после приема конкретного пользовательского ввода, такого как быстрое прикосновение к дисплею) позволяют пользователю входить на более глубокие слои (или уходить из более глубоких слоев) иерархии, ассоциированной с выбранным приложением, режимом или функцией.
[198] Фиг. 98E иллюстрирует пример работы модели взаимодействий и переходов относительно операции 9845 (например, в приложении) на устройстве. В качестве примера, в приложении для работы с камерой, захваченное изображение может выбираться, и одна или более операций могут быть доступными для выбранного изображения, к примеру, удаление изображения, общий доступ к изображению на Facebook, общий доступ к изображению в Twitter или отправка почтового сообщения с изображением. В этом примере, GUI-переходы в пределах слоя "операций" (например, выполняемые после приема конкретного пользовательского ввода, такого как вращение внешнего кольца) позволяют пользователю просматривать различные операции, которые следует выполнять. Переходы между слоями (например, выполняемые после приема конкретного пользовательского ввода, такого как быстрое прикосновение к дисплею) позволяют пользователю входить на более глубокие слои (или уходить из более глубоких слоев) иерархии, ассоциированной с выбранной операцией. В этом примере, более глубокий слой, на который выполнен вход посредством выбора операции 9845, показывает вторичную информацию 9850 или подтверждение (например, что приложение отправляет информацию изображений в выбранную услугу предоставления общего доступа). Подтверждение 9855 (например, того, что изображение отправлено) также может быть показано в этом более глубоком слое. GUI может автоматически переходить назад на верхний слой (например, слой операций). Тем не менее, может быть предусмотрен более глубокий слой иерархии, включающий в себя информацию подтверждений, и вход на этот более глубокий слой может быть выполнен посредством GUI при пользовательском вводе или автоматически. Фиг. 98F иллюстрирует пример работы модели взаимодействий и переходов относительно значка (например, значка 9860 активного элемента, включающего в себя опцию включения-выключения элемента верхнего уровня) и переключения состояния значка 9865. В качестве примера, телевизионный приемник, функционально спаренный с устройством, может указываться посредством значка активного элемента, например, телевизионного экрана. В этом примере, GUI-переходы в пределах самого верхнего слоя устройства/приложения (например, выполняемые после приема конкретного пользовательского ввода, такого как вращение внешнего кольца) позволяют пользователю просматривать различные приложения, устройства или другие признаки. Телевизионный приемник может появляться в меню в GUI устройства, даже когда телевизионный приемник выключен, но телевизионный приемник должен быть включен перед тем, как он сможет использоваться. Если пользователь выбирает телевизионный приемник (например, посредством быстрого прикосновения к дисплею, когда значок телевизионного приемника отображается посредством GUI), когда он выключен 9860, GUI может переходить в состояние на более глубоком слое иерархии моделей взаимодействий и переходов, в котором телевизионный приемник включается 9865. Когда телевизионный приемник включается, значок, ассоциированный с телевизионным приемником (отображаемый, например, на самом верхнем слое модели в GUI) 9870, может изменяться, чтобы непосредственно представлять то, что телевизионный приемник включен 9875, как проиллюстрировано на фиг. 98G. Если пользователь снова выбирает телевизионный приемник (теперь включенный), GUI может переходить на еще более глубокий слой иерархии, на котором доступны функции или характеристики телевизионного приемника (например, изменение громкости или переключение каналов). В конкретных вариантах осуществления, опция для того, чтобы снова выключать телевизионный приемник, может представлять собой первый пункт меню на этом более глубоком слое иерархии, чтобы обеспечивать быстрый доступ к функции выключения (например, в случае если пользователь случайно включил телевизионный приемник). В конкретных вариантах осуществления, если пользователь выбирает телевизионный приемник, когда он выключен, телевизионный приемник может включаться, и значок, ассоциированный с телевизионным приемником, может изменяться, чтобы непосредственно представлять то, что телевизионный приемник включен, без GUI-перехода на другой слой иерархии или в другой пользовательский интерфейс. Следовательно, значок активного телевизионного приемника может непосредственно указывать в пределах верхнего уровня иерархии (например, главного меню) состояние спаренного телевизионного приемника.
[199] Фиг. 99 иллюстрирует пример иерархии моделей взаимодействий и переходов GUI для приложения захвата изображений. В этом примере, первый экран 9902, открываемый после выбора приложения (на экране 9900), может соответствовать функции "живого "вида" приложения. Другие фиксированные признаки приложения захвата изображений, включающие в себя видеорежим 9904, масштабирование 9906 или вспышку 9908, могут быть доступными справа от начального главного функционального экрана 9902 выбранного приложения. Динамически или контекстуально доступные признаки (например, захваченные изображения 9910) выбранного приложения могут быть доступными слева от начального главного функционального экрана. Событие на основе выбора на этом функциональном слое иерархии может вызывать переход в GUI на другой вложенный слой еще глубже в иерархии. Если, например, пользователь выбирает функцию "масштабирования", GUI может переходить на экран 9912, на котором пользователь может управлять настройкой масштаба камеры с помощью любого подходящего ввода (например, вращения внешнего кольца вправо, чтобы увеличивать масштаб, или вращения внешнего кольца влево, чтобы уменьшать масштаб). Аналогично, пользователь может иметь возможность управлять состоянием различных признаков (например, включением или выключением признака вспышки 9914 или переключением с режима изображений на видеорежим 9916), просматривать контент (например, 9918-9922), входить на более глубокий слой иерархии, на котором могут осуществляться операции 9924-9930, или входить на еще один более глубокий слой иерархии, на котором предоставляются подтверждения 9932-9938, когда операция выбирается.
[200] В конкретных вариантах осуществления, вид взаимодействия может структурировать модель взаимодействий и переходов GUI устройства. Вид взаимодействия может применяться, например, к любой подходящей модели взаимодействий и не обязательно должен зависеть от конкретных типов движения или анимации в GUI устройства. Хотя ниже поясняются конкретные примеры видов взаимодействия, любой подходящий вид взаимодействия может использоваться для того, чтобы структурировать модель взаимодействий и переходов.
[201] В качестве одного примера, вид панорамированного линейного взаимодействия может структурировать модель взаимодействий и переходов GUI устройства. В панорамированном линейном GUI элементы или признаки в слое могут скомпонованы слева и справа от текущего отображаемого элемента или признака. Пользовательский ввод, к примеру, вращение внешнего кольца в направлении по часовой стрелке или против часовой стрелки, осуществляет навигацию в одном слое иерархии моделей. В качестве примера, вращение внешнего кольца по часовой стрелке на одно вращательное приращение может отображать элемент или признак справа (например, следующий элемент), и вращение против часовой стрелки на одно вращательное приращение может отображать элемент или признак слева (например, предыдущий элемент). В конкретных вариантах осуществления, быстрое вращение по часовой стрелке или против часовой стрелки может инструктировать GUI выполнять ускоренный просмотр. В таком варианте осуществления, один поворот может инструктировать GUI переходить через несколько элементов или признаков, а не через один элемент или признак, как описано в данном документе. Различный пользовательский ввод может осуществлять навигацию между слоями (например, либо на более глубокие слои, либо на верхние слои) в иерархии моделей. В качестве примера, если пользователь касается или выполняет быстрое прикосновение к сенсорному слою дисплея, GUI может переходить на один слой глубже в иерархии моделей (например, подтверждение выбора пользователя или предоставление опций, связанных с выбором). Любой подходящий ввод пользователем может инструктировать GUI переходить между слоями в иерархии моделей, вместо или помимо ввода на основе касаний или быстрых прикосновений.
[202] В качестве другого примера, если пользователь нажимает конкретную область сенсорного слоя дисплея (например, обозначенную как кнопка "Назад"), либо если пользователь выполняет двойное быстрое прикосновение к сенсорному слою дисплея, GUI может переходить на один слой выше в иерархии моделей (например, на предыдущий слой). Если, например, пользователь выполняет длинное нажатие дисплея или экрана, GUI может переходить назад на начальный экран (например, часы). Без дополнительного пользовательского ввода GUI также может переходить назад на начальный экран после предварительно определенного периода времени (например, периода тайм-аута). Как описано в данном документе, когда пользователь начинает, например, вращать внешнее кольцо по часовой стрелке или против часовой стрелки, GUI переходит в пределах идентичного слоя, и следующей элемент или признак пользовательского интерфейса (например, значок навигационной цепочки в идентичном слое) справа или слева, соответственно, может начинать появляться, тогда как текущий элемент или признак пользовательского интерфейса может начинать исчезать.
[203] Фиг. 100A иллюстрирует пример вида панорамированного линейного взаимодействия. В этом примере, GUI-элементы 10001, 10002, 10003 и 10004 находятся в идентичном слое иерархии моделей взаимодействий и переходов панорамированного линейного GUI. GUI-элементы 10002A, 10002B и 10002C представляют собой элементы на втором, более глубоком слое иерархии и представляют собой субэлементы элемента 10002. В качестве примера, первый слой может включать в себя устройства, спаренные с устройством: элемент 10001 может представлять автомобиль, элемент 10002 может представлять телевизионный приемник, элемент 10003 может представлять мобильный телефон, элемент 10004 может представлять домашний термостат. Элемент 10002A может представлять собой элемент регулировки громкости для телевизионного приемника, элемент 10002B может представлять собой элемент управления каналами для телевизионного приемника, и элемент 10002C может представлять собой элемент управления изображениями для телевизионного приемника. В качестве еще одного другого примера, GUI может переходить на один слой глубже в иерархии, если пользователь щелкает кольцо (например, надавливает на кольцо один раз), и затем субэлементы на более глубоком слое могут быть панорамированы посредством вращения кольца. Альтернативно, пользователь может панорамировать субэлементы на более глубоком слое посредством вращения кольца при одновременном надавливании на кольцо. Устройство может включать в себя переключатель, чтобы выбирать то, как пользовательский ввод используется для того, чтобы осуществлять навигацию между слоями.
[204] В качестве другого примера, вид панорамированного радиального (или панорамированного кругового) взаимодействия может структурировать модель взаимодействий и переходов GUI устройства. В панорамированном радиальном GUI элементы или признаки в слое могут размещаться выше и ниже текущего отображаемого элемента или признака. Пользовательский ввод, к примеру, вращение внешнего кольца в направлении по часовой стрелке или против часовой стрелки, осуществляет навигацию между слоями иерархии моделей. В качестве примера, вращение внешнего кольца по часовой стрелке на одно приращение может инструктировать GUI осуществлять переход на один слой глубже в иерархии моделей (например, вход на слой конкретного приложения или подтверждение выбора приложения), и вращение против часовой стрелки на одно приращение может инструктировать GUI осуществлять переход на один слой выше в иерархии моделей (например, уход из слоя конкретного приложения на предыдущий слой). В конкретных вариантах осуществления, быстрое вращение по часовой стрелке или против часовой стрелки может инструктировать GUI выполнять ускоренный просмотр, как описано в данном документе. В таком варианте осуществления, одно вращательное приращение может инструктировать GUI переходить через несколько слоев иерархии, а не через один слой. Различный пользовательский ввод может осуществлять навигацию в одном слое в иерархии моделей. В качестве примера, если пользователь касается или выполняет быстрое прикосновение к сенсорному слою дисплея, GUI может переходить к следующему элементу или признаку (например, к элементу ниже текущего отображаемого элемента). В качестве другого примера, если пользователь нажимает конкретную область сенсорного слоя дисплея (например, обозначенную как кнопка "Назад"), либо если пользователь выполняет двойное быстрое прикосновение к сенсорному слою дисплея, GUI может переходить к предыдущему элементу или признаку (например, к элементу выше текущего отображаемого элемента). Если, например, пользователь выполняет длинное нажатие дисплея или экрана, GUI может переходить назад на начальный экран (например, часы). Без дополнительного пользовательского ввода GUI также может переходить назад на начальный экран после предварительно определенного периода времени (например, периода тайм-аута). Как описано в данном документе, когда пользователь начинает, например, вращать внешнее кольцо по часовой стрелке или против часовой стрелки, GUI переходит на другой слой, и следующий элемент или признак пользовательского интерфейса (например, в другом слое) может начинать появляться, тогда как текущий элемент или признак пользовательского интерфейса может начинать исчезать. Фиг. 100B иллюстрирует пример вида панорамированного радиального взаимодействия. В этом примере, GUI-элементы 10001, 10002, 10003 и 10004 находятся в идентичном слое иерархии моделей взаимодействий и переходов панорамированного радиального GUI. GUI-элементы 10002A, 10002B и 10002C представляют собой элементы на втором, более глубоком слое иерархии и представляют собой субэлементы элемента 10002. Как указано выше, первый слой может включать в себя устройства, спаренные с устройством: элемент 10001 может представлять автомобиль, элемент 10002 может представлять телевизионный приемник, элемент 10003 может представлять мобильный телефон, элемент 10004 может представлять домашний термостат. Элемент 10002A может представлять собой элемент регулировки громкости для телевизионного приемника, элемент 10002B может представлять собой элемент управления каналами для телевизионного приемника, и элемент 10002C может представлять собой элемент управления изображениями для телевизионного приемника.
[205] В качестве еще одного другого примера, вид аккордеоноподобного взаимодействия может структурировать модель взаимодействий и переходов GUI устройства. В аккордеоноподобном GUI элементы или признаки нескольких слоев могут размещаться в структуре в виде кругообразного списка. Например, вращение в пределах списковой структуры (например, посредством вращения внешнего кольца) в первом направлении мимо экрана, ассоциированного с последним элементом или признаком в этом направлении (например, последним фиксированным приложением устройства), может инструктировать GUI переходить на экран, ассоциированный с последним элементом или признаком во втором направлении (например, последним используемым контекстным приложением устройства). Продолжение вращения в первом направлении может инструктировать GUI переходить через экраны, ассоциированные с контекстными приложениями, в "обратном" порядке (например, от первого используемого к последнему используемому). Аналогично, вращение во втором направлении мимо экрана последнего используемого контекстного приложения может инструктировать GUI переходить на экран, ассоциированный с последним фиксированным приложением, и продолжение вращения во втором направлении может инструктировать GUI переходить через экраны фиксированных приложений в обратном порядке (например, от последнего фиксированного приложения до первого, смежного с начальным экраном). В аккордеоноподобном GUI, текущий отображаемый элемент или признак может быть "развернут" (например, если выбран пользователем), так что его субэлементы или подпризнаки могут становиться частью структуры в виде однослойного списка. В конкретных вариантах осуществления, элемент или признак с субэлементами может указывать (когда отображается), что он имеет субэлементы, например, через видимые края субэлементов. Пользовательский ввод, к примеру, вращение внешнего кольца в направлении по часовой стрелке или против часовой стрелки, осуществляет навигацию в одном слое модели, который может включать в себя элементы или признаки, а также субэлементы или подпризнаки выбранного элемента или признака. В качестве примера, вращение внешнего кольца по часовой стрелке на одно приращение может отображать элемент или признак справа (например, следующий элемент), и вращение против часовой стрелки на одно приращение может отображать элемент или признак слева (например, предыдущий элемент). В конкретных вариантах осуществления, быстрое вращение по часовой стрелке или против часовой стрелки может инструктировать GUI выполнять ускоренный просмотр. В таком варианте осуществления, одно вращательное приращение может инструктировать GUI переходить через несколько элементов или признаков, а не через один элемент или признак. Различный пользовательский ввод может инструктировать выбор и разворачивание элемента или признака в модели. В качестве примера, если пользователь касается или выполняет быстрое прикосновение к сенсорному слою дисплея, GUI может разворачивать отображаемый признак или элемент в существующем слое и переходить к субэлементу или подпризнаку. В качестве другого примера, если пользователь нажимает конкретную область сенсорного слоя дисплея (например, обозначенную как кнопка "Назад"), либо если пользователь выполняет двойное быстрое прикосновение к сенсорному слою дисплея, GUI может сворачивать развернутые субэлементы или подпризнаки и переходить к элементу или признаку в списке. Если, например, пользователь выполняет длинное нажатие дисплея или экрана, GUI может переходить назад на начальный экран (например, часы). Без дополнительного пользовательского ввода GUI также может переходить назад на начальный экран после предварительно определенного периода времени (например, периода тайм-аута). Как описано в данном документе, когда пользователь начинает, например, вращать внешнее кольцо по часовой стрелке или против часовой стрелки, GUI переходит в пределах идентичного слоя, и следующей элемент или признак пользовательского интерфейса (например, значок навигационной цепочки в идентичном слое) справа или слева, соответственно, может начинать появляться, тогда как текущий элемент или признак пользовательского интерфейса может начинать исчезать. Фиг. 100C иллюстрирует пример вида аккордеоноподобного взаимодействия. В этом примере, GUI-элементы 10001, 10002, 10003 и 10004 находятся в идентичном слое модели взаимодействий и переходов аккордеоноподобного GUI. Поскольку элемент 10002 выбран пользователем, GUI-субэлементы 10002А, 10002B и 10002C разворачиваются, а также включаются в списковую структуру в идентичном слое модели. Таким образом, GUI может переходить с субэлемента 10002C либо в субэлемент 10002B, либо непосредственно в элемент 10003. Тем не менее, если пользователь хочет сворачивать субэлементы (например, через ввод "Назад", такой как повторное выполнение быстрого прикосновения к экрану, ассоциированному с элементом 10002), то снова списковая структура должна включать в себя только GUI-элементы 10001, 10002, 10003 и 10004.
[206] В конкретных вариантах осуществления, GUI может осуществлять навигацию на начальный экран на основе ввода, принимаемого пользователем устройства. Пользовательский ввод может включать в себя, например, нажатие и удерживание (например, длинное нажатие) сенсорного слоя, нажатие и удерживание дисплея, нажатие (например, щелчок) и удерживание внешнего кольца, сжатие и удерживание внешнего кольца, закрывание лицевой поверхности (например, дисплея) устройства, закрывание конкретного датчика устройства, поворачивание лицевой поверхности устройства в направлении вниз, нажатие программной кнопки (поясненной в данном документе), нажатие аппаратной кнопки на устройстве или встряхивание устройства (либо любой другой подходящий жест). Любые из этих вводов либо любая вариация этих вводов (включающая в себя, например, меньшие длительности) могут использоваться, когда пользователь вводит возвращение "Назад" в модели взаимодействий и переходов. Фиг. 101A-101B иллюстрируют примеры вида программной кнопки "Назад" в GUI. На фиг. 101A, прием пользовательского сенсорного ввода в нижней части 10110 дисплея инструктирует GUI подтверждать выбор или осуществлять переход на один слой глубже в иерархии моделей. Прием пользовательского сенсорного ввода в верхней части 10120 дисплея инструктирует GUI переходить "Назад" или на один слой выше в иерархии моделей. Фиг. 101B иллюстрирует аналогичный вид, причем область 10130 "Назад" включает в себя значок 10135 навигационной цепочки, чтобы указывать пользователю, в каком месте должна осуществляться навигация "Назад". В конкретных вариантах осуществления (например, когда сенсорный слой выполнен с возможностью определять точные координаты X-Y касания), любая область дисплея может обозначаться как область "Назад", область "подтверждения/выбора" или любая другая подходящая функциональная область.
[207] В конкретных вариантах осуществления, GUI устройства может отображать конкретные типы контента, включающие в себя, например, списки. Фиг. 102A иллюстрирует пример GUI, отображающего вертикальный список пунктов. Ввод от пользователя (например, любой подходящий механизм или тип ввода) может инструктировать перемещение рамки 10210 выбора GUI через элементы вертикального списка. В качестве примера, если пользователь вращает вправо в направлении по часовой стрелке, рамка 10210 выбора может перемещаться сверху вертикального списка вниз вертикального списка. Каждое вращательное приращение внешнего кольца (например, если внешнее кольцо перемещается с дискретными приращениями) вызывает перемещение рамки 10210 выбора на один пункт в списке. В примере по фиг. 102A, когда пользователь вращает кольцо по часовой стрелке, отображаемые пункты списка остаются постоянными, и рамка 10210 выбора перемещается вниз через пункты списка. В других вариантах осуществления, рамка выбора может оставаться постоянной (например, в центре дисплея), и пункты списка могут перемещаться вверх или вниз (например, по одному пункту за раз) в зависимости от направления вращения кольца. Фиг. 102B иллюстрирует пример GUI, отображающего горизонтальный список пунктов. Ввод от пользователя (например, любой подходящий механизм или тип ввода) может инструктировать перемещение рамки 10210 выбора GUI через элементы горизонтального списка. В качестве примера, если пользователь вращает вправо в направлении по часовой стрелке, рамка 10210 выбора может перемещаться от левой стороны горизонтального списка к правой стороне горизонтального списка. Каждое вращательное приращение внешнего кольца (например, если внешнее кольцо перемещается с дискретными приращениями) вызывает перемещение рамки 10210 выбора на один пункт в списке. В примере по фиг. 102B, когда пользователь вращает кольцо по часовой стрелке, рамка 10210 выбора остается постоянной в центре дисплея, и пункты списка перемещаются влево (например, по одному пункту за раз) в ответ на вращение по часовой стрелке. В других вариантах осуществления, отображаемые пункты списка остаются постоянными, и рамка выбора перемещается влево или вправо через пункты списка, в зависимости от направления вращения внешнего кольца.
[208] В конкретных вариантах осуществления, GUI устройства может отображать вертикально или горизонтально непрерывный (или, по существу, непрерывный) контент, включающий в себя, например, диаграммы или текст. В конкретных вариантах осуществления, ввод от пользователя (например, любой подходящий механизм или тип ввода) может инструктировать перемещение индикатора выбора GUI через непрерывный контент. В других вариантах осуществления, ввод от пользователя может инструктировать перемещение контента в/из дисплея в горизонтальном направлении, вертикальном направлении или в любом другом направлении, увязанном с пользовательским вводом (и индикатор выбора, если есть, может оставаться в постоянной позиции). В примере по фиг. 102C, температурный график отображается. Когда пользователь вращает внешнее кольцо по часовой стрелке, индикатор 10220 выбора остается в центре дисплея, и контент перемещается на дисплей справа и за пределы дисплея влево. В примере по фиг. 102D, часть большего фрагмента текста 10230 отображается. Когда пользователь вращает внешнее кольцо по часовой стрелке, дополнительный текст входит на дисплей снизу и уходит с дисплея вверх. Фиг. 103A-103D иллюстрируют примерное приложение для работы с календарем, отображаемое в GUI устройства. На фиг. 103A, пользователь может щелкать или нажимать внешнее кольцо (указываемое посредством стрелки 10305), инструктируя GUI отображать кругообразное меню 10310 с опциями "Вперед", "Еженедельно" (настройка по умолчанию), "Ежемесячно" и "Ежедневно". На фиг. 103C, пользователь может снова щелкать или нажимать внешнее кольцо (указываемое посредством стрелки 10305), подтверждая выбор "Еженедельника" и инструктируя GUI отображать еженедельный вид 10320 календаря пользователя.
[209] В конкретных вариантах осуществления, GUI может отображать контент, который имеет размер, больший дисплея. В таких вариантах осуществления, GUI может масштабировать или обрезать (либо иным образом сокращать или вписывать в экран) контент, так что весь контент может отображаться на дисплее одновременно. В других вариантах осуществления, GUI не изменяет размер контента и вместо этого предоставляет возможность для пользователя выполнять панорамирование через контент по одной части за раз, например, с использованием прокрутки (описано в данном документе).
[210] В конкретных вариантах осуществления, устройство включает в себя кругообразный дисплей, и GUI включает в себя виды кругообразной навигации и меню. Это раскрытие рассматривает любую форму для дисплея, тем не менее, и любой подходящий вид навигации или меню для GUI. Вид меню может предоставлять пользователю, например, визуальный индикатор того, где находится пользователь в иерархии моделей взаимодействий и переходов GUI. Вид меню также может предоставлять визуальные индикаторы, которые позволяют пользователю различать между различными типами пунктов меню, а также показывать общий вид опций меню. Дополнительно, меню может отображаться поверх любого надлежащего фона или контента устройства.
[211] Фиг. 104 иллюстрирует примерный вид кругообразного меню, в котором каждый сегмент 10410 представляет один пункт или опцию в меню, и визуальные зазоры, такие как 10420, отделяют пункты друг от друга. Пункт по умолчанию ил текущий выбранный пункт 10430 находится сверху на видеодисплее (но может располагаться в любой позиции на дисплее), и может оставаться наверху дисплея, когда пользователь ориентирует дисплей устройства по-разному во время использования. Фиг. 105A-105B иллюстрируют пример просмотра пунктов в кругообразном меню. Пользователь может предоставлять ввод, к примеру, вращение по часовой стрелке внешнего кольца, и в ответ на этот пользовательский ввод, следующий пункт в меню 10520 (например, справа от текущего выбранного пункта 10510) может подсвечиваться для выбора. Контент в центре дисплея 10530 может автоматически изменяться, чтобы отражать ввод вращения пользователя, или может, в конкретных вариантах осуществления, изменяться только после того, как пользователь предоставляет другой ввод (например, нажатие или щелчок внешнего кольца, когда требуемый пункт меню подсвечивается). Фиг. 105C-105D иллюстрируют пример просмотра кругообразного меню посредством вращения внешнего кольца, инструктирующего подсвечивание следующего пункта 10550 в меню (например, по часовой стрелке или справа от текущего выбранного пункта 10540) для выбора. В этом примере, пользовательский ввод также инструктирует вращение центрального "указателя" 10560, который указывает на подсвечиваемый сегмент меню, соответствующий текущему выбранному пункту меню. В этом примере, контент в центре дисплея автоматически изменяется, чтобы отражать вращение пользователя.
[212] Фиг. 106A-106C иллюстрируют различные совмещения и компоновки вида кругообразного меню для GUI устройства. Кругообразное меню, например, может отображаться непосредственно на границе дисплея (как показано на фиг. 106A) или может быть показано дальше внутри дисплея либо ли в качестве наложения поверх фона устройства (показано на фиг. 106B-106C). Фиг. 107A-107C иллюстрируют другие формы и совмещения вида кругообразного меню для GUI устройства. В качестве примера, меню может состоять из сегментов линии (различных возможных размеров), размещаемых в круге 10710, сегментов линии, размещаемых в полукруге 10720, или точек, размещаемых в круге или полукруге, 10730 или 10740. В конкретных вариантах осуществления, визуальный индикатор текущего выбранного пункта 10732 меню или пункта меню по умолчанию может оставаться сверху в центре дисплея, и визуальные индикаторы пунктов в меню 10734 могут сдвигаться влево или вправо на основе пользовательского ввода (фиг. 107C). В других вариантах осуществления, визуальный индикатор текущего выбранного пункта 10732 или пункта по умолчанию может перемещаться через индикаторы пунктов меню, которые остаются фиксированными в позиции (фиг. 107B). В конкретных вариантах осуществления, вместо сегментов или точек, визуальные индикаторы пунктов в меню могут быть значками (например, значками навигационной цепочки), ассоциированным с пунктами меню. Фиг. 108 иллюстрирует, что вид меню не обязательно должен быть кругообразным и может представлять собой любой подходящий вид, включающий в себя вид, в котором индикаторы пунктов меню 10810 распределены по всему дисплею. За счет пользовательского ввода (например, вращения внешнего кольца), различные пункты могут выбираться согласно своей позиции в виде меню. В качестве примера, если пользователь вращает по часовой стрелке, следующий пункт меню 10820 в направлении по часовой стрелке может выбираться.
[213] Фиг. 109A-109C иллюстрируют различные виды меню относительно пунктов меню "слева" и "справа" (например, в иерархии моделей взаимодействий и переходов) текущего выбранного или отображаемого пункта 10915 меню. На фиг. 109A, все пункты меню 10910 равномерно распределены по кругообразному меню вокруг дисплея. На фиг. 109B, меню включает в себя зазор, который указывает дифференцирование пунктов 10910 слева и пунктов справа от текущего отображаемого или выбранного пункта 10915 меню (например, в соответствии с моделью взаимодействий и переходов, описанной в данном документе). Фиг. 109C иллюстрирует пример, в котором имеется больше пунктов 10910 слева, чем справа от текущего выбранного или отображаемого пункта 10915, так что левые сегменты кругообразного меню регулируются по размеру с тем, чтобы размещать число пунктов, доступных для выбора. В случае большого числа пунктов меню (например, за пределами конкретного порогового значения, к примеру, 40 захваченных изображений), могут исчезать сегменты кругообразного меню, и визуальный индикатор, представленный пользователю, может быть полосой прокрутки 11020, которая позволяет пользователю прокручивать по кругу различные пункты меню, как проиллюстрировано на фиг. 110A. В других вариантах осуществления, аналогичный визуальный индикатор 11020 в виде линейки прокрутки может позволять пользователю устройства осуществлять действия с абсолютным или фиксированным значением (например, уровнем масштабирования камеры) в фиксированном диапазоне значений 11030, как проиллюстрировано на фиг. 110B. В еще одних других вариантах осуществления, длина визуального индикатора в виде линейки прокрутки может показывать пользователю уровень определенного значения. Например, если пользователь управляет громкостью телевизионного приемника с использованием внешнего кольца устройства, когда пользователь поворачивает кольцо (например, по часовой стрелке), чтобы увеличивать уровень громкости, то визуальный индикатор 11120 удлиняется до тех пор, пока он не окружит или почти не окружит весь дисплей, как проиллюстрировано на фиг. 111A-111C.
[214] В конкретных вариантах осуществления, GUI может отображать как пункт опорного или фонового контента, так и индикатор относительно доступной операции или функции, которая должна выполняться относительно опорного или фонового контента. Фиг. 112 иллюстрирует примерные виды в GUI операций или функций на основе опорного контента и контекстного наложения. Различные типы видов (например, включающие в себя проиллюстрированные виды) могут выбираться на основе различных типов представленного опорного или фонового контента, например, чтобы минимизировать скрытие опорного или фонового контента. Например, если опорный или фоновый контент является изображением человека, наложение, которое не скрывает центр фотографии, может выбираться. В конкретных вариантах осуществления, перцепционная яркость пикселов опорного или фонового контента (например, позади наложения) может определяться попиксельно. В случаях, если контрастность между контекстным наложением и опорным или фоновым контентом (например, изображением) является слишком низкой (например, на основе предварительно определенного порогового значения), может использоваться размытая падающая тень, которая проталкивает базовые цвета в противоположном направлении. Примерный алгоритм может включать в себя определение пикселов под наложением, уменьшение их насыщенности, инвертирование визуальной яркости (например, таким образом, что цвета остаются идентичными, но яркость выбирается с возможностью формировать контрастность), размывание и создание составного объекта между базовым опорным или фоновым контентом и наложением. Фиг. 113A-113C иллюстрируют примеры 11310-11350, контекстных наложений, составляемых с фоновым или опорным контентом (здесь, изображениями, захваченными посредством камеры устройства). Как проиллюстрировано, контекстное наложение может позволять пользователю выполнять операции или функции (например, удаление изображения 11130 или общий доступ к изображению 11325, поиск кофеен 11330, поиск ресторанов 11340 или задание местоположения в качестве "избранного" местоположения 11350), предоставлять подтверждение пользователю (например, что изображение находится в общем доступе 11320), или предоставлять любой другой тип информации пользователю. В конкретных вариантах осуществления, контекстные наложения могут использоваться в любой позиции в виде меню GUI за исключением верхнего уровня иерархии моделей взаимодействий и переходов.
[215] В конкретных вариантах осуществления, значки, отображаемые в GUI устройства, могут оптимизировать использование энергии или аккумулятора устройства. В качестве примера, значок может включать в себя главным образом черный фон с самим значком, состоящим из тонкого белого штриха. Это может позволять количеству белого цвета на экране отображения быть очень небольшим, обеспечивая пониженное энергопотребление дисплея в то время, когда используется GUI. Значки, отображаемые в GUI, также могут включать в себя уведомления в реальном времени. Например, значок мобильного телефона может включать в себя уведомление с числом новых речевых почтовых сообщений, значок почтовой программы может включать в себя уведомление с числом новых почтовых сообщений, значок чата может включать в себя уведомление с числом новых сообщений чата, и значок телефона может включать в себя уведомление с числом пропущенных вызовов. В конкретных вариантах осуществления, GUI устройства отображает только цвета, отличные от черного цвета и белого цвета, для сформированного пользователями контента (например, изображений, файлов, контактов, уведомлений или расписаний). Другая информация, включающая в себя пункты меню, может отображаться в черно-белых тонах.
[216] В конкретных вариантах осуществления, когда GUI переходит из одного элемента (например, признака, элемента контента или значка) к другому (например, после приема ввода от пользователя), GUI может отображать визуальные переходные эффекты. Эти переходные эффекты могут зависеть, например, от типа ввода, принимаемого от пользователя устройства. В качестве примера, одиночное касание на дисплее может инициировать конкретные переходные эффекты, тогда как вращение внешнего кольца может инициировать другой (потенциально перекрывающийся) набор переходных эффектов.
[217] В конкретных вариантах осуществления, сенсорный ввод пользователя на сенсорном слое может инициировать переходные эффекты, включающие в себя ориентированное по центру разворачивание, направленное плавное перемещение и вертикальное и горизонтальное масштабирование. Фиг. 114A иллюстрирует ориентированное по центру разворачивание или увеличение масштаба режима или функции. Фиг. 114B иллюстрирует ориентированное по центру сворачивание или уменьшение масштаба режима или функции. Фиг. 115A иллюстрирует ориентированное по центру увеличение масштаба значка. Фиг. 115B иллюстрирует ориентированное по центру уменьшение масштаба значка. Фиг. 116A иллюстрирует пример ориентированного по центру увеличения масштаба значка с движением скручивания. Фиг. 116B иллюстрирует пример ориентированного по центру уменьшения масштаба значка с движением скручивания. Фиг. 117A иллюстрирует пример ориентированного по центру раскладывания и разворачивания наружу значка. Фиг. 117B иллюстрирует пример ориентированного по центру складывания и сворачивания внутрь значка. Фиг. 118A иллюстрируют пример вертикального плавного перемещения текста на дисплей, при этом текст раскрыт посредством демаскирования. Фиг. 118B иллюстрирует пример горизонтального плавного перемещения текста слева направо по дисплею. Фиг. 118C иллюстрирует пример горизонтального плавного перемещения текста слева направо по дисплею в маскированной области (например, контекстного наложения). Фиг. 119A иллюстрирует переход в виде горизонтального плавного перемещения справа налево для контента или значка. Фиг. 119B иллюстрирует переход в виде горизонтального плавного перемещения справа налево с эффектами постепенного появления на экране/исчезновения с экрана; значок или контент, уходящий с экрана, постепенно исчезает, когда он достигает границы экрана, и значок или контент, входящий на экран, постепенно появляется, когда он пересекает границу экрана. Фиг. 119C иллюстрирует пример перехода в виде горизонтального плавного перемещения справа налево с эффектами изменения масштаба; контент или значок, уходящий с экрана, сокращается по масштабу, и контент или значок, входящий на экран, увеличивается по масштабу до полного размера.
[218] В конкретных вариантах осуществления, вращение пользователем внешнего кольца может инициировать визуальные переходные эффекты, включающие в себя масштабирование, направленное плавное перемещение, размытость, маскирование, переворачивание страниц, вращательное движение и ускоренное движение. Фиг. 120A иллюстрирует пример перехода в ответ на вращение с низким ускорением внешнего кольца. В этом примере, одно вращательное приращение может соответствовать одному пункту, так что один поворот (например, вращательное приращение) против часовой стрелки инструктирует вход следующего элемента (например, значка или элемента контента) на экран слева направо, и масштабирование элементов не выполняется. Фиг. 120B-120C совместно иллюстрируют пример перехода в ответ на вращение с высоким ускорением внешнего кольца. В этом примере, один поворот (например, вращательное приращение) против часовой стрелки инструктирует GUI выполнять быстрое панорамирование через несколько элементов (которые могут уменьшаться по размеру, входить на экран слева и уходить с экрана справа) до тех пор, пока пользователь не прекратит поворачивание кольца. Когда пользователь прекращает поворачивание внешнего кольца, элемент может увеличиваться по масштабу до нормального размера, и один значок или элемент контента может заполнять дисплей. Фиг. 121A иллюстрирует пример перехода в GUI, при котором масштаб контента увеличивается в ответ на вращение внешнего кольца. Фиг. 121B иллюстрирует пример перехода в GUI, при котором первый экран 1 "складывается" в анимации, приводя к отображению второго экрана 2 (например, для следующего признака или элемента контента) пользователю.
[219] В конкретных вариантах осуществления, GUI устройства может включать в себя физическую модель, которая принимает во внимание движение пользователя и формирует визуальную обратную связь, отражающую перемещения пользователя. В качестве примера, когда предусмотрен активационный вход (например, в форме конкретного жеста) пользователем, движение пользователя может непрерывно отслеживаться посредством ввода из одного или более датчиков устройства. Визуальная обратная связь может отражать движение пользователя в пользовательском интерфейсе в то время, когда базовый контент остается неподвижным, так что жесты могут регистрироваться, и параллакс может использоваться для того, чтобы различать между признаками или элементами управления UI и базовым контентом. В конкретных вариантах осуществления, физическая модель может включать в себя обобщенную пружинную модель с демпфированием. В такой модели пункты могут размещаться в слоях. Более глубокий слой может иметь "более жесткую" пружину в физической модели, закрепляющую пункты на месте. Это может вызывать незначительное перемещение нижних слоев пользовательского интерфейса, когда устройство перемещается, при том, что самые верхние слои могут перемещаться больше, создавая ощущение параллакса. Дополнительно, пружинная модель может включать в себя демпфирование, которое вызывает запаздывание движения, создавая более жидкое плавное движение. Фиг. 122 иллюстрирует пример использования физической модели в GUI. Пользователь носит устройство 100 на предплечье. Когда пользователь перемещает предплечье вниз, значок 12210, отображаемый на экране (например, лампа), перемещается способом, отражающим перемещение пользователя. Тем не менее, базовый контент (например, фоновое изображение) на экране не перемещается. Этот тип плавающего значка или пункта меню, например, может быть полезным, когда дисплей имеет размер, который не обеспечивает возможность отображения множества значков или пунктов меню одновременно вследствие визуального уплотнения. Дополнительно, этот тип плавающего поведения также может использоваться в средстве уведомления для представления события пользователю.
[220] В конкретных вариантах осуществления, GUI устройства может включать в себя лицевые виды в качестве экранов по умолчанию или обоев для устройства, и эти лицевые виды могут быть частью иерархии моделей взаимодействий и переходов (например, на самом верхнем слое иерархии или в качестве начального экрана). Как описано в данном документе, эти лицевые виды могут представлять собой изменяемые приложения или режимы, которые могут автоматически контекстуально реагировать на активность пользователя. В качестве примера, лицевые виды могут изменяться в зависимости от окружающей среды, потребностей, вкуса, местоположения, активности, данных датчиков, жестов или расписания пользователя. Доступность лицевого вида (или переход в GUI между лицевыми видами) может определяться на основе контекстной информации. В качестве примера, если пользователь имеет предстоящее событие, назначенное в своем календаре, лицевой вид устройства может изменяться на лицевой вид календаря, который отображает информацию предстоящих событий пользователю. В качестве другого примера, если определяется то, что пользователь находится около дома (например, на основе GPS-данных), лицевой вид устройства может изменяться на лицевой вид, ассоциированный с приложением домашней автоматизации. В качестве еще одного другого примера, если определяется (например, на основе различных биометрических датчиков, таких как датчики пульса или пробуждения, либо на основе акселерометров) то, что пользователь энергично движется, лицевой вид устройства может изменяться на фитнес-режим, показывающий измеренный импульс, сожженные калории пользователя, истекшее время с момента, когда начата активность (например, пробежка), и время. Любые подходящие данные датчиков (например, из датчиков, включающих в себя биометрические датчики, датчики фокусировки или датчики, которые могут определять позицию руки пользователя при вождении автомобиля) могут использоваться для того, чтобы определять контекст и надлежащий лицевой вид для отображения пользователю. Предыстория использования устройства пользователя (например, конкретное время дня, когда пользователь использует приложение фитнеса, к примеру, на занятии по фитнесу) также позволяет определять то, какой лицевой вид отображается на устройстве. В качестве примера, устройство может предопределять потребность пользователя в фитнес-режиме в конкретное время дня, когда пользователь чаще всего тренируется. Контекстные лицевые виды также могут быть ассоциированы с подавлением уведомлений (например, если определено то, что пользователь за рулем, или если устройство не носится) или изменением того, как выражаются уведомления (например, визуально или в звуковой форме). В конкретных вариантах осуществления, лицевые виды устройства не должны быть ассоциированы ни с одним из приложений на устройстве и могут представлять собой обои или фоны на дисплее устройства. Лицевые виды могут быть выделенными для конкретных каналов информации (например, ленты календаря, ленты данных по здоровью и активности, уведомления, ленты погодных новостей или сводок). В качестве примера, уведомление или предупреждение в отношении неблагоприятной погоды (принимаемое, например, из ленты погодных сводок) может инструктировать отображение лицевого вида для отображения погоды на дисплее наряду с уведомлением. Лицевые виды могут отображать время (например, в аналоговом или цифровом формате) независимо от типа лицевого вида. Лицевые виды могут быть настраиваемыми пользователем. Настройки или вкусы пользователя могут вводиться явно пользователем (например, в управляющем программном обеспечении на устройстве или на спаренном устройстве) либо распознаваться непосредственно посредством устройства (например, с использованием датчика и данных по использованию, чтобы создавать модель во времени). Фиг. 123 иллюстрирует примерные лицевые виды, включающие в себя аналоговые часы 12310, аналоговые часы с видом 12320 кругообразного меню, лицевой вид 12330 для отображения данных по здоровью и лицевой вид 12340 для отображения погоды. Фиг. 124 иллюстрирует примерный набор лицевых видов 12410-12440 для устройства, в котором отображается информация календаря и деловых встреч.
[221] В конкретных вариантах осуществления, устройство может носиться на конечности пользователя (без скрытия лица пользователя и без необходимости для пользователя держать устройство) и может включать в себя функциональность дополненной реальности (AR). Эта AR-функциональность может быть основана на использовании движения тела для наведения камеры устройства, которое может обеспечивать возможность наведения с более высокой точностью вследствие ощущения проприорецепции пользователя. Этот тип системы может позволять пользователю устройства просматривать объект в реальном мире одновременно с тем, когда пользователь просматривает версию объекта (например, захваченного посредством камеры устройства) на дисплее. Пример этих AR-возможностей проиллюстрирован на фиг. 16. Такая AR-система может обеспечивать способность "видеть насквозь" с использованием совмещенных камеры и датчика на противоположных сторонах конечности пользователя. Различные AR-приложения могут активироваться посредством этого типа компоновки, описанной в данном документе. В конкретных вариантах осуществления, приложения могут быть специально разработаны для обеспечения возможности немедленного, оппортунистического использования устройства. Дополнительно, модель делегирования может предоставляться на устройстве, обеспечивая возможность использования внешних ресурсов для того, чтобы расширять диапазон приложений, доступных для работы на устройстве, при меньших (или при отсутствии) затратах с точки зрения требований по обработке или использования энергии. В конкретных вариантах осуществления, устройство может управлять или управляться посредством других устройств (например, близлежащих устройств, обнаруженных через сеть и функционально спаренных с устройством). Этот тип управления может достигаться через приближение, жесты или традиционные интерфейсы. Спаривание может достигаться с использованием множества технологий, включающих в себя камеру устройства, подробнее поясненных в данном документе.
[222] Фиг. 125 иллюстрирует пример последовательности операций по определению автоматической активации камеры для устройства. В конкретных вариантах осуществления, то, активируется или нет камера, и то, включена или нет автоматическая активация камеры (например, для распознавания объектов), может зависеть от приложения или режима, в котором находится устройство в данный момент. В конкретных вариантах осуществления, автоматическая активация камеры может включаться на устройстве 12510. Если этот признак включен (определено на этапе 12520), и если доступны достаточная производительность CPU и мощность на устройстве (например, чтобы вычислять интересующие признаки из изображения, определенного на этапе 12530), то камера устройства (например, обращенная наружу камера) может автоматически захватывать, обрабатывать или отображать 12560 одно или более изображений если камера устойчиво удерживается в наведенной позиции пользователем в течение предварительно определенного количества времени (например, обнаруженного посредством блока инерциальных измерений на носимом устройстве или вычисленного посредством размытости изображения, определенной на этапе 12540). В других вариантах осуществления, камера может активироваться и выполнять поиск изображений в любом случае. В еще одних других вариантах осуществления, камера может захватывать изображение и выполнять распознавание признаков, только если пользователь вручную инициирует захват изображений (например, нажатие или щелчок внешнего кольца либо быстрое прикосновение к дисплею, определенное на этапе 12550). В конкретных вариантах осуществления, когда камера активируется (посредством любого подходящего способа), может включаться функциональность дополненной реальности (AR). AR-функциональность может включаться автоматически (например, в зависимости от производительности CPU и мощности, доступной в устройстве). В других вариантах осуществления, AR-функциональность может явно включаться пользователем через любой подходящий ввод пользователем. Пользователь, например, может предоставлять сенсорный ввод на дисплее, чтобы предоставлять AR-функциональность. В качестве примера, пользователь может захватывать объект, к примеру, птицу (например, посредством наведения камеры устройства на птицу), и пользователь может касаться изображения птицы, отображаемого на дисплее. Эта операция может активировать AR-функции устройства, инструктирующие, например, устройству распознавать птицу в качестве объекта и возвращать информацию относительно птицы пользователю. В других вариантах осуществления, как описано в данном документе, пользователь может выполнять один или более жестов, чтобы включать AR-функциональность, а также выполнять задачи с использованием AR-функциональности (например, с использованием "виртуальной" клавиатуры посредством выполнения жестов набора на клавиатуре в пределах обзора камеры устройства).
[223] В конкретных вариантах осуществления, если устройство не имеет возможностей вычислять непосредственно интересующие признаки, устройство может захватывать изображение, передавать изображение в функционально соединенное устройство (например, в близлежащее устройство, такое как телефон или персональный компьютер) или в Интернет-услугу, в которой интересующие признаки могут вычисляться удаленно. Когда интересующие признаки определяются, к Интернет-услуге или локальному каталогу данных можно обращаться для получения дополнительной информации относительно распознанного объекта. Если информация найдена, релевантные данные могут отображаться пользователю на устройстве наряду с распознанным признаком.
[224] Устройство может, в конкретных вариантах осуществления, иметь миниатюрный форм-фактор и быть ограниченным с точки зрения доступного запоминающего устройства, обрабатывая и энергии. Модель делегирования может позволять устройству делегировать части одной или более задач обработки (например, задач, связанных с AR-функциональностью), например, близлежащим устройствам (например, телефону или персональному компьютеру) либо сетевым или Интернет-услугам. В качестве примера, для делегируемых задач, приложение, требующее задачи, предоставляет в систему (например, в ядро операционной системы устройства) характеристики или профиль задачи, включающие в себя чувствительность по времени задержки задачи, требования по обработке и размер сетевых рабочих данных. Это может осуществляться для каждой делегируемой подзадачи из общей делегируемой задачи. Поскольку задачи зачастую являются конвейерными, могут делегироваться смежные порции конвейера задач. Система может, в конкретных вариантах осуществления, проводить измерения или компоновать модель одной или более характеристик устройства. Характеристики устройства могут включать в себя статические свойства устройства, например, свойства аппаратных компонентов устройства, включающие в себя общий объем установленного запоминающего устройства, максимальную скорость CPU, максимальную энергию аккумулятора или максимальную полосу пропускания сетевого интерфейса. Характеристики устройства также могут включать в себя динамические свойства устройства, например, рабочие свойства устройства, включающие в себя доступное запоминающее устройство, текущую производительность CPU, доступную энергию, текущие сетевые подключения, доступность сетевых услуг, показатель поведения среднестатистического пользователя из одного или более пользователей либо прогнозное или ожидаемое время обработки задачи (например, при условии конкретного сценария использования). В конкретных вариантах осуществления, устройство может иметь модель, которая включает предыдущие и текущие измерения характеристик устройства, чтобы помогать в определении будущего поведения устройства. На основе характеристик задачи или профиля и этих измерений или моделей, а также на основе того, может или нет задача выполняться на устройстве, система может делегировать (или не делегировать) одну или более частей или задачи конвейера задач. Например, если доступное запоминающее устройство на устройстве не позволяет поддерживать обработку задачи (например, воспроизведение видео), могут делегироваться одна или более частей задачи. В качестве другого примера, если производительность CPU устройства не позволяет поддерживать обработку задачи (например, если CPU выполняется на полной мощности вследствие существующей нагрузки), могут делегироваться одна или более частей задачи. В качестве другого примера, если уровень заряда аккумулятора устройства является низким, и аккумулятор, как ожидают, не будет предоставлять энергию в устройство в течение ожидаемого времени обработки задачи, могут делегироваться одна или более частей задачи. В качестве другого примера, если возможности сетевых подключений устройства являются незначительными или отсутствуют, не могут делегироваться одна или более частей задачи (например, если устройство также имеет достаточно доступного запоминающего устройства, производительности CPU и энергии). В качестве другого примера, если одна или более сетевых услуг доступны для устройства (например, облачные услуги для обработки), и устройство имеет подходящие возможности сетевых подключений (например, хорошую доступную полосу пропускания), могут делегироваться одна или более частей задачи. В качестве другого примера, если пользователь устройства типично (например, статистически) делегирует воспроизведение видео, могут делегироваться одна или более частей задачи воспроизведения видео. В качестве другого примера, если прогнозное время обработки задачи (например, спрогнозированное на основе модели, объединяющей предыдущие и измерения текущих характеристик устройства) находится за пределами определенного порогового значения (например, несколько минут), задача может быть делегирована. Любые надлежащие характеристики устройства (например, статические или динамические свойства) в любой надлежащей комбинации могут использоваться для того, чтобы определять то, следует или нет делегировать задачу. Кроме того, любые надлежащие характеристики задачи устройства (например, включающие в себя профиль задачи или характеристики задачи, включающие в себя чувствительность по времени задержки, требования по обработке или размер сетевых рабочих данных) могут использоваться для того, чтобы определять то, следует или нет делегировать задачу, отдельно или в сочетании с характеристиками устройства. Дополнительно, любая модель устройства (например, поведение устройства) может использоваться, отдельно или в сочетании с характеристиками устройства или задачи, может использоваться для того, чтобы определять то, следует или нет делегировать задачу. В конкретных вариантах осуществления, устройства, спаренные с устройством, также могут включать в себя модель делегирования, так что спаренное устройство (например, телефон) выполняет идентичные этапы, делегирующую задачи на основе собственных моделей требований по энергии, возможностям подключения, среде выполнения и выполнимости. Делегированная задача может полностью обрабатываться или выполняться на спаренном устройстве (например, на телефоне), и результаты обработки делегированной задачи могут возвращаться в устройство. В конкретных вариантах осуществления, устройство может работать в автономном режиме (например, без делегирования задач обработки), когда оно не имеет сетевых подключений, либо когда спаренные устройства не находятся в диапазоне устройства. Когда устройство восстанавливает возможности подключения, или когда устройство спарено с устройством, делегирование задач может возобновляться.
[225] Примерный алгоритм модели делегирования устройства проиллюстрирован на фиг. 126. В этом примере, процесс обработки делегируемой задачи начинается на устройстве (12610). Система устройства выполняет анализ и прогнозирование использования мощности (12620) (например, на основе предыстории 12630 использования в отношении электроэнергии пользователя и ожидаемого времени до заряда устройства 12640). На основе этого, система определяет на этапе 12650 то, остается или нет достаточный заряд для требуемого времени работы делегируемой задачи. Если достаточный заряд остается, система устройства может увеличивать потребление мощности 12660 и обрабатывать делегируемую задачу на самом устройстве 12670. Тем не менее, если устройство не имеет достаточного заряда в течение требуемого времени работы, устройство может запрашивать спаренное устройство (например, телефон) 12680, чтобы определять состояние питания спаренного устройства (12690). Если в примере телефона остается достаточный заряд на телефоне для требуемого времени работы, задача может обрабатываться на телефоне 12694. Тем не менее, если нет достаточного заряда на телефоне, система может определять на этапе 12692 то, имеет или нет устройство возможности подключения к Интернет- (например, облачным) или другим сетевым услугам. Если нет, устройство может делегировать процесс телефону 12694. Если имеется подключение, устройство может делегировать процесс облаку 12696, в котором задача обрабатывается, и результаты после этого возвращаются в устройство. В конкретных вариантах осуществления, делегируемые задачи могут быть делегированы посредством устройства разделенным способом в одно или более спаренных устройств (например, мобильных телефонов или персональных компьютеров) или сетевых/Интернет-услуг. Иными словами, делегируемые подзадачи делегируемой задачи или процесса могут быть делегированы посредством устройства различным местоположениям.
[226] Предполагается посредством этого раскрытия, что модель делегирования для конкретного устройства (либо семейства или диапазона устройств) может быть динамической или контекстной. В качестве примера, модель делегирования может принимать во внимание доступное запоминающее устройство, производительность CPU и доступную энергию конкретного устройства (или семейства устройств), факторы, которые могут изменяться во времени. Модель делегирования также может принимать во внимание доступность сетевых или облачных услуг (и пропускную способность для каждой из них), а также возможности сетевых подключений (например, полосу пропускания и время задержки), которые также могут изменяться во времени. Например, со ссылкой на фиг. 127, согласно первой модели 12710 делегирования (которая, например, может быть применимой для устройств, изготовленных в следующем году), большая часть обработки может быть равномерно разделена между устройством и спаренным устройством (например, смартфоном) только с небольшим объемом делегирования серверу облачной услуги. Согласно второй модели 12720 делегирования (которая, например, может быть применимой для устройств, изготовленных в течение следующих трех лет), большая часть обработки может обрабатываться локально посредством устройства (например, вследствие прогнозируемых усовершенствований в отношении емкости запоминающего устройства, производительности CPU и энергетической емкости в миниатюрном форм-факторе). В этой второй модели, часть обработки может быть делегирована серверу (например, в большей степени по сравнению с первой моделью делегирования вследствие улучшенных возможностей сетевых подключений), и только небольшой объем делегирования может осуществляться для локально спаренного устройства. Согласно третьей модели 12730 делегирования (которая, например, может быть применимой для устройств, изготовленных в течение следующих пяти лет), все или почти все задачи обработки могут быть равномерно разделены между устройством и сервером облачной услуги, без делегирования (или, по существу, без делегирования) обработки локально спаренному устройству. Любое число моделей делегирования может быть создано, поскольку факторы, принимаемые во внимание посредством модели делегирования, являются динамическими. В качестве примера, все или почти все задачи могут выполняться локально на устройстве согласно одной модели делегирования, и все или почти все задачи могут быть делегированы посредством устройства в другой модели делегирования.
[227] Устройство может выбирать делегировать функциональность спаренному устройству с широкими возможностями обработки (например, телефону, компьютеру, планшетному компьютеру, телевизионному приемнику, абонентской приставке, холодильнику, стиральной машине или сушильной машине) или Интернету на основе резервов энергии или полосы пропускания подключения для каждого из этих местоположений. Например, устройство с мощным процессором может делегировать спаренному устройству, когда имеет мало энергии, либо оно может выбирать делегировать Интернет-услуге, когда спаренное устройство не имеет достаточных резервов питания. Аналогично, система устройства может выбирать локальную обработку, если соединение с Интернетом показывает большее время задержки, с тем чтобы уменьшать размер передачи данных.
[228] В конкретных вариантах осуществления, целое приложение или часть приложения может делегироваться пользователем устройства спаренному устройству, или наоборот. Это может осуществляться на основе приложений. Когда приложение на целевом устройстве (например, телевизионный приемник) должно быть делегировано устройству, целевое устройство может отправлять запрос по спаренному соединению (возможно через промежуточное устройство, такое как смартфон или персональный компьютер), чтобы загружать приложение на устройство. Устройство затем может выступать в качестве клиента для сервера, работающего на спаренном устройстве (например, телевизионном приемнике). Аналогично, приложение, выполняющееся на устройстве, может быть делегировано спаренному устройству (например, воспроизведение видео на устройстве может быть делегировано воспроизведению на спаренном телевизионном приемнике). Например, если устройство выполняет первое приложение, и пользователь устройства хочет взаимодействовать со вторым приложением, устройство может автоматически делегировать задачу первого приложения для обработки посредством другого устройства (например, спаренного телевизионного приемника).
[229] Фиг. 128 иллюстрирует пример последовательности операций по определению в устройстве, работающем согласно модели делегирования. В этом примере, приложение захвата изображений работает на устройстве. Сцена захвачена на устройстве 12810, и устройство определяет 12820, имеет оно или нет достаточную производительность CPU для вычислений признаков изображений. Если устройство имеет достаточную производительность CPU, оно вычисляет интересующие признаки в сцене локально 12830. Если устройство не имеет достаточной производительности CPU, оно может сначала определять 12840, спарено оно или нет функционально с другим устройством с более мощными характеристиками обработки (например, с мобильным телефоном или персональным компьютером). Если оно спарено с таким устройством, устройство может отправлять данные в спаренное устройство, так что спаренное устройство может вычислять интересующие признаки в изображении 12850. Если устройство не спарено с таким устройством, оно может определять то, подключено оно или нет к Интернет- (например, облачной) услуге 12860. Если нет, устройство не выполняет дальнейших операций. Если да, устройство может отправлять данные в облачную услугу, так что услуга может вычислять интересующие признаки в сцене 12870. Интересующие признаки могут вычисляться (в любом месте, в котором они вычисляются) с использованием любого подходящего алгоритма, включающего в себя, например, SURF. В этом примере, интересующие признаки могут сравниваться с локальным каталогом или Интернет-услугой, чтобы определять то, найдены или нет какие-либо совпадения (и если да, интересующую релевантную информацию) 12880. Если совпадение найдено 12890, результат может быть представлен пользователю на устройстве 12895. Если совпадение не найдено, дополнительные операции не выполняются.
[230] В конкретных вариантах осуществления, камера или другой оптический датчик устройства может использоваться для того, чтобы распознавать любые жесты, выполняемые пользователем (например, в пространстве между камерой и целью в реальном мире). Эти жесты, например, могут использоваться для того, чтобы реагировать на представленные данные (например, цель реального мира, такую как знак, включающий в себя текст), либо могут использоваться для того, чтобы указывать на конкретные элементы, для которых могут выполняться функции дополненной реальности. Например, пользователь может указывать на слово на знаке, инструктируя устройству переводить его и отображать перевод пользователю. Фиг. 17 иллюстрирует два примера изображений, захваченных посредством камеры устройства. В одном примере, грузовик 1725 и рука 1720 пользователя устройства находятся в пределах угла обзора камеры 1705 устройства и отображаются посредством устройства (показанный в 1710). В связи с этим, жесты, выполняемые пользователем для грузовика, могут распознаваться посредством устройства и обрабатываться посредством устройства, чтобы предоставлять, например, AR-функциональность. Во втором примере, только грузовик находится в пределах угла обзора камеры (показанный в 1715), и по сути, жесты, выполняемые пользователем, не захватываются или распознаются посредством устройства. Распознавание жестов также может быть делегировано посредством устройства.
[231] В конкретных вариантах осуществления, объекты или изображения могут распознаваться посредством устройства, когда они находятся внутри рамки обзора камеры устройства. Как описано в данном документе, может быть предусмотрено несколько способов для распознавания объекта посредством устройства. В качестве одного примера, жест, выполняемый пользователем (например, указывающий жест, указывающий конкретный объект), может предоставлять AR-функциональность на устройстве и инструктировать устройству распознавать объект. В качестве другого примера, автоматическое распознавание объектов может осуществляться, когда, например, пользователь позиционирует камеру в течение определенного количества времени на конкретном объекте (например, на секции текста). В качестве третьего примера, распознавание объектов или AR-функциональность могут активироваться явно пользователем, когда, например, пользователь выполняет быстрое прикосновение или касается дисплея (или, например, щелкает внешнее кольцо), когда камера устройства захватывает интересующий объект. Распознавание глобального объекта, в некоторых случаях, может требовать большого объема вычислений и быть подвержено ошибкам. В связи с этим, в конкретных вариантах осуществления, ограничивающий набор (например, страницы журнала или каталога либо каталог конкретного типа объекта, к примеру, листьев растений или книжных обложек) может применяться для того, чтобы повышать точность. Предусмотрен ряд вариантов для вычисления векторов признаков из изображений, из которых может выбирать разработчик системы для устройства. В некоторых случаях, преобразование векторов признаков между разными подходами может быть вычислительно затратным, так что вариант базы данных возможных совпадений реплицируется на устройстве. Вычисление векторов признаков может быть делегировано, как описано в данном документе.
[232] В конкретных вариантах осуществления, штрих-коды различных типов могут распознаваться посредством устройства. Эти штрих-коды могут использоваться для того, чтобы запрашивать Интернет-услуги на предмет дополнительных данных, а также таких опций, чтобы приобретать, анализировать или отмечать предмет со штрих-кодом для будущего анализа. Хотя двумерные штрих-коды могут, в общем, считываться непосредственно, система устройства может предлагать дополнительный близкофокусный режим для очень маленьких или одномерных штрих-кодов, чтобы повышать коэффициент распознавания. Если система не имеет возможности декодировать штрих-код, она может просто фокусировать камеру, делать снимок и делегировать распознавание удаленной услуге, как описано в данном документе. Фиг. 129A-129D иллюстрируют пример режима распознавания штрих-кодов. Устройство может наводиться на товар (129A), распознавать товар (129B), отображать дополнительную информацию, полученную из Интернета в отношении товара (129C), и предоставлять пользователю интерфейс, чтобы приобретать товар (129D).
[233] В конкретных вариантах осуществления, устройство может выполнять перевод. Функциональность перевода может быть разделена на две части: оптическое распознавание символов (OCR) и перевод распознанных символов, слов или фраз. OCR может выполняться на устройстве или делегироваться (например, спаренному устройству обработки), чтобы уменьшать объем данных, которые должны переводиться посредством устройства. Простые переводы слов могут выполняться на устройстве или делегироваться (например, спаренному устройству обработки). Аналогично остальной функциональности, описанной в данном документе, часть или весь процесс распознавания или перевода может быть делегирован по мере необходимости. Пользователь необязательно может использовать жест, чтобы указывать слово, которое должно переводиться, как показано на фиг. 130 (например, слово "Warning"). Поскольку отдельные слова могут ограничиваться посредством пробела, система может сегментировать слово перед попыткой перевода. Дополнительно, если устройство может выполнять OCR с небольшим временем задержки, оно может показывать текст пользователю, так что пользователь знает, когда устройство принимает и корректно распознает правильный текст. Если автоматическое OCR активируется, то устройство может автоматически идентифицировать изображения в пределах угла обзора обращенной наружу камеры и представлять на устройстве отображаемую информацию относительно идентифицированных изображениях. Если автоматический перевод активируется, то устройство может автоматически переводить текст в пределах угла обзора обращенной наружу камеры и представлять переведенный текст на дисплее устройства.
[234] Фиг. 131A-131D иллюстрируют примеры устройства, работающего в различных режимах дополненной реальности, описанных в данном документе, включающих в себя режим распознавания штрих-кодов (131A), режим распознавания изображений (131B), режим OCR и перевода (131C) и режим распознавания объектов (131D).
[235] Фиг. 132 иллюстрирует пример полной последовательности операций для системы в стиле дополненной реальности для устройства. Хотя этот пример иллюстрирует приложение захвата изображений, любая подходящая задача или процесс для устройства могут придерживаться аналогичной последовательности операций. Дополнительно, любая задача после того, как устройство захватывает изображение, и до того, как устройство отображает результаты пользователю, может (надлежащим образом) быть делегируемой посредством устройства. В этом примере, изображение из камеры устройства захватывается (в секции 13210 захвата изображений), предварительно обрабатывается (в секции 13220), признаки извлекаются и распознаются, чтобы формировать результаты распознавания изображений (в секции 13230), и любые объекты могут распознаваться (в секции 13240). Данные объектов могут форматироваться для операции пользователем устройства. Пользователь может активировать режим дополненной реальности устройства 13211 (например, через пользовательский жест или наведение камеры устройства на объект в течение предварительно определенного количества времени), и изображение в пределах вида камеры 13212 может быть захвачено (например, на основе инициирующего события, такого как пользовательский ввод или автоматическая активация камеры) посредством камеры 13213 устройства, чтобы формировать изображение 13214, снятое камерой. В этот момент, может быть выполнен переход к каскаду 13220 предварительной обработки. Предварительная обработка 13220, например, может включать в себя повышение контрастности, преобразование полутонов, увеличение резкости или понижающую дискретизацию. В конкретных вариантах осуществления, камера может работать в общем режиме дополненной реальности, в котором что-либо перед камерой может обрабатываться и распознаваться. В других вариантах осуществления, камера может работать в конкретных режимах (например, OCR, штрих-код или визуальный маркер) и распознавать только конкретные элементы в таком режиме. В конкретных вариантах осуществления, если определено то, что изображение может включать в себя известные формы, символы или организации форм или символов(например, если камера или устройство находится в OCR-режиме, режиме распознавания штрих-кодов или режиме распознавания визуальных маркеров), обработка AR-изображений может продолжаться в первом тракте. Этот первый тракт начинается с предварительной обработки 13221, переходит к сегментации 13231 (которая, например, может определять границы символов или групп символов, таких как буквы или слова), и начинается с одного или более из оптического распознавания 13234 символов (например, если определяется то, что изображение может содержать символы, определение того, какие эти символы), распознавания 13235 штрих-кодов (например, если определяется, что изображение может содержать штрих-код, распознавание штрих-кода), или распознавания визуальных маркеров (например, распознавания других типов визуальных маркеров) 13236 (например, для всех других типов визуальных маркеров). Результаты этого первого тракта отправляются в модуль 13242 распознавания объектов. В конкретных вариантах осуществления, если определено то, что изображение может включать в себя признаки, которые не обязательно известны, обработка AR-изображений может продолжаться на втором тракте. Второй тракт начинается с извлечения 13222 признаков (например, при котором присутствие краев или линий, изменение углов линий, краев, точки интереса или шаблоны обнаруживается в захваченном изображении). Второй тракт переходит к распознаванию 13232 изображений, при котором признаки изображения сравниваются с данными признаков из базы 13233 данных распознавания (которая, например, может постоянно размещаться на устройстве, на локально спаренном устройстве или на удаленном сервере или компьютере). Результаты сравнения для распознавания изображений предоставляются 13237 и отправляются в модуль 13242 распознавания объектов. В секции 13240 распознавания объектов первый и второй тракты сходятся в модуле 13242 распознавания объектов. Здесь, результаты из базы 13241 данных объектов используются для того, чтобы распознавать объекты (например, то, что телефон, распознанный с использованием базы 13233 данных для распознавания изображений, представляет собой конкретный бренд и модель телефона). Могут предоставляться данные 13243 объектов относительно объекта, распознанного посредством модуля 13242 распознавания (например, цена распознанной модели телефона либо то, где можно купить телефон). Для текста могут быть предусмотрены определения или переводы, которые выполняются и отображаются пользователю. Для штрих-кодов может быть предусмотрена информация о продукте и ссылки для покупки распознанного объекта, которые отображаются пользователю. В конкретных вариантах осуществления, данные могут быть чисто дескриптивными (например, цена телефона) или могут быть активными (например, ссылка, по которой пользователь может приобретать телефон). Если данные включают в себя функциональные данные 13244, то функциональный контроллер 13250 (который управляет, форматирует и выводит GUI для пользователя устройства) может показывать UI пользователю 13255, включающий в себя активные данные (например, ссылку для покупки телефона). Если пользователь выбирает операцию 13260 (например, щелчок на ссылку), то функциональный контроллер показывает функциональный UI пользователю 13265 (например, открытие ссылки), и если операция подтверждается 13270, то операция (например, фактическое открытие веб-страницы, ассоциированной со ссылкой) выполняется 13275.
[236] Фиг. 133 иллюстрирует пример сетевого окружения. Как описано в данном документе, в конкретных вариантах осуществления, устройство 13310 может быть спарено с другими устройствами (например, с близлежащими устройствами). Устройство может соединяться непосредственно с персональной вычислительной сетью 13320 (которая может смыкаться через другие устройства в идентичной сети с локальной вычислительной сетью), или устройство может подключаться к локальной вычислительной сети 13330 напрямую. Персональная вычислительная сеть может включать в себя, например, не-Wi-Fi-технологию радиосвязи, такую как технология Bluetooth, NFC или ZigBee. Персональная вычислительная сеть, например, может включать в себя интеллектуальный медиашлюз 13322 (например, мультимедийный сервер), интеллектуальный телевизор 13324, другой поставщик 13326 услуг обработки или телефон 13328. Телефон 13328 может позволять устройству подключаться к сотовой сети 13340 и оттуда к Интернету 13350. Локальная вычислительная сеть 13330 может включать в себя, например, Wi-Fi с/без аутентификации. Локальная вычислительная сеть, например, может включать в себя локальный беспроводной сетевой маршрутизатор 13332, интеллектуальные мультимедийные устройства 13334, интеллектуальные приборы 13336 и технологию 13338 домашней автоматизации. Локальная вычислительная сеть может, в свою очередь, подключаться к глобальному Интернету 13350, например, через локальный маршрутизатор 13332, который подключается к Интернет-услуге (например, собственной облачной услуге 13352 или другие партнеры 13354 по облачным услугам). Некоторые устройства могут быть достигнуты посредством устройства любой через прямой доступ (например, через персональную вычислительную сеть) или через локальную вычислительную сеть. Эти устройства, достижимые посредством устройства, могут быть спарены с устройством и могут управляться посредством устройства или управлять устройством. Устройство может подключаться к персональной вычислительной сети или локальной вычислительной сети с использованием, например, любой подходящей RF-технологии. Как показано на фиг. 133, спаривание с целевым устройством в периферии может сначала осуществляться по RF-сети. Это позволяет устройству знать то, что является "близлежащим". Это может осуществляться по персональной вычислительной сети (например, произвольно организующейся сети или сети с равноправными узлами) либо может использовать промежуточную сеть, к примеру, беспроводную сеть по стандарту 802.11 (например, локальную вычислительную сеть). Когда окружение устанавливается, устройство может запрашивать от близлежащих устройств переход в режим спаривания. Это может осуществляться либо непосредственно, либо через спаренное устройство обработки с большей палитрой опций подключения, к примеру, через мобильный телефон. Когда целевые устройства переходят в режим спаривания, они могут демонстрировать свои сигналы спаривания. Например, устройства с дисплеями могут показывать визуальный тег на своем дисплее, тогда как другие могут активировать NFC-тег, позволяющий сканеру идентифицировать их. Также могут использоваться другие подходы, такие как выбор из списка или посредством PIN-кода. Когда устройство уникально идентифицировано в качестве цели спаривания, устройство может обмениваться маркером защиты с целевым устройством, чтобы завершать спаривание.
[237] Фиг. 134 иллюстрирует пример различных типов технологии спаривания, которая может использоваться для того, чтобы спаривать целевое устройство с устройством. Целевое устройство, которое может представлять собой интеллектуальное устройство, такое как телефон, может включать в себя пассивные NFC-теги 13402 или активные передающие NFC-устройства 13404 (которые могут распознаваться посредством модуля 13420 считывания NFC-тегов и NFC-декодера 13428 устройства); NFC-декодер 13406 (который может распознавать NFC-теги, записываемые посредством модуля записи NFC-тегов устройства), пассивные визуальные теги 13408 (например, этикетки), штрих-коды 13410 или другую отображаемую информацию 13412 (которая может распознаваться посредством камеры 13424 устройства); или другую систему 13416 спаривания. Формирователь 13414 активных тегов целевого устройства может создавать отображаемую информацию 13412 или предоставлять информацию в другую систему 13416 спаривания целевого устройства (которая распознается посредством зеркальной системы 13426 спаривания с помощью декодера 13438 кодов спаривания устройства). Устройство может записывать данные в NFC-теги (например, с помощью модуля записи NFC-тегов), чтобы передавать эти данные в другие целевые устройства, которые могут быть спарены с устройством. Теги, записываемые посредством устройства, могут распознаваться посредством декодеров 13406 NFC-тегов на целевом устройстве. Устройство может включать в себя любое число декодеров, включающих в себя декодер 13430 штрих-кодов, декодер 13432 визуальных тегов, модуль 13434 распознавания изображений или другой декодер 13436 на основе изображений (например, декодер для QR-кодов, логотипов или шаблонов мигания светодиодов), все из которых принимают ввод из камеры 13424 устройства. После того, как устройство принимает и распознает информацию спаривания, оно может декодировать (например, через множество декодеров) релевантную информацию, чтобы продолжать спаривание с целевым устройством. В конкретных вариантах осуществления, спаривание может достигаться с использованием движения: чувствительное к движению целевое устройство (например, мобильный телефон или удаленное устройство) может быть спарено с устройством посредством держания и перемещения целевого устройства в той же руке, что и устройство (например, если оба устройства включают в себя акселерометры, аналогичный шаблон движения может обнаруживаться и использоваться для того, чтобы спаривать устройства). В качестве другого примера, неподвижное целевое устройство может быть спарено с устройством, например, посредством выполнения быстрого прикосновения к неподвижному целевому устройству со случайным шаблоном при одновременном держании неподвижного целевого устройства в той же руке, что и устройство (например, если оба устройства включают в себя обнаружение касания, аналогичный шаблон быстрого прикосновения может обнаруживаться и использоваться для того, чтобы спаривать устройства). Дополнительно, спаривание может выполняться с использованием аудио: если устройство и целевое устройство имеют возможности аудиоприема, пользователь может производить звук (например, произносить фразу), которую оба устройства обнаруживают и затем устанавливают спаривание. Любая подходящая технология (включающая в себя, например, функции дополненной реальности) устройства может использоваться для того, чтобы спариваться и управлять локальными устройствами. Устройство и целевое устройство могут подключаться к другим возможным промежуточным сетевым устройствам 13440, а также к локальной вычислительной сети 13450.
[238] Фиг. 135 иллюстрирует примерный процесс для спаривания целевого устройства (например, с использованием любого из способов, описанных в данном документе) с устройством. Когда режим спаривания активируется 13510, устройство определяет то, содержит или нет RF-сеть спариваемые целевые устройства 13512. Если нет, дополнительные операции не выполняются (например, устройство может продолжать сканировать периодически). Если да, устройство может запрашивать то, что спариваемые устройства должны переходить в режим 13514 спаривания. Устройство затем может продолжать (в любом порядке или параллельно) выполнять сканирование, через различные доступные технологии, на предмет доступных целевых устройств. Оно может включать в себя сканирования 13516 NFC-тегов, сканирования визуальных тегов в пределах угла 13518 обзора камеры, сканирования штрих-кодов в пределах угла 13520 обзора камеры или любым другим способом 13522. Если целевое устройство обнаруживается через один из этих способов, целевое устройство спарено с устройством 13524. Когда спаривание проведено, устройство может показывать пункты меню пользователю для управления спаренным устройством(ами). Устройство может обеспечивать возможность как визуального, так и основанного на движении жестикуляционного управления спаренными устройствами. Например, пользователь может жестикулировать (например, махать рукой), чтобы переключать каналы на спаренном телевизионном приемнике, либо может выполнять жест стягивания, чтобы передавать видеомультимедиа из устройства на спаренный дисплей (с использованием, например, AR-функциональности). Управление устройством, опосредованное по RF-сети, может быть локальным и защищенным. Фиг. 136 иллюстрирует примерные элементы управления, предоставляемые на устройстве для спаренного и управляемого телевизионного приемника, включающие в себя значок 13610 включения/выключения активного элемента, избранные каналы 13620, отображение 13630 текущего канала и громкость 13640. Как описано в данном документе, любой подходящий ввод от пользователя может использоваться для того, чтобы управлять функциональностью спаренного устройства. Например, ввод с помощью жестов, ввод в виде щелчка или нажатия либо сенсорный ввод может использоваться, например, для того, чтобы переключать каналы, регулировать громкость или управлять другими функциями спаренного телевизионного приемника.
[239] В конкретных вариантах осуществления, модель спаривания и управления для устройства может включать в себя следующие характеристики. Устройство может выступать в качестве хоста для приложения, которое взаимодействует или управляет одной или более функций удаленного устройства (например, прикладного устройства, такого как управляемый термостат). Смартфон (или другое локально спаренное устройство), который, возможно, ранее был хостом для приложения, может теперь выступать просто в качестве локального целевого устройства, которому устройство может делегировать определенные функции, связанные со взаимодействием или управлением удаленным устройством (например, беспроводное подключение большей дальности для удаленного устройства, отправку команд в удаленное устройство, прием данных из удаленного устройства или обработку задач). Управление удаленным прикладным устройством может выполняться посредством устройства с использованием любых подходящих средств, включающих в себя, например, визуальные средства (например, с использованием камеры) или основанные на движении жесты. В других вариантах осуществления, локально спаренный смартфон может продолжать выступать в качестве хоста для приложения, которое взаимодействует с удаленным прикладным устройством, но устройство может предоставлять часть или весь пользовательский интерфейс для ввода и вывода данных в/из приложения (например, "облегченная" версия приложения, хостинг которого выполняется посредством смартфона). Например, пользователь может управлять приложением с использованием устройства, но смартфон при этом может выступать в качестве хоста приложения.
[240] В конкретных вариантах осуществления, устройство может поддерживать работу с использованием одной или более услуг. Эти услуги могут разделяться на категории, включающие в себя безопасность, энергию, домашнюю автоматизацию и управление, общий доступ к контенту, здравоохранение, индустрию спорта и развлечений, коммерцию, транспортные средства и приложения для общения в социальной сети.
[241] Примерные варианты применения для обеспечения безопасности включают в себя следующее. Устройство может аутентифицировать пользователя (который носит разблокированное устройство) на другом устройстве около пользователя (например, спаренном с устройством). Устройство может разблокироваться с помощью кода, введенного пользователем с использованием любого подходящего ввода, включающего в себя, например, вращение внешнего кольца устройства. В качестве примера, в то время как пользователь вращает (или нажимает или щелкает) внешнее кольцо, дисплей может показывать буквенно-цифровые или символьные данные, соответствующие вращению (либо нажатию или щелчку) пользователем. Если, например, пользователь вращает внешнее кольцо на одно вращательное приращение в направлении по часовой стрелке (либо, например, щелкает или нажимает внешнее кольцо один раз), дисплей может показывать пользователю "1", а если пользователь вращает внешнее кольцо на два вращательных приращения (например, в пределах определенного периода времени, к примеру, миллисекунды) в направлении по часовой стрелке (либо, например, щелкает или нажимает внешнее кольцо дважды), дисплей может показывать пользователю "2". В конкретных вариантах осуществления, отображение буквенно-цифровых или символьных данных, соответствующих вращению (нажатию или щелчку) пользователем, может позволять пользователю разблокировать устройство с использованием метафоры замка с кодовой комбинацией. Устройство также может разблокироваться с использованием биометрических данных (например, посредством отличительных признаков кожи или скелета пользователя).
[242] В примерном приложении, связанном с энергопотреблением, устройство может автоматически отображать информацию относительно энергопотребления комнаты или другого местоположения, в котором расположен пользователь. Устройство также может иметь возможность отображать информацию относительно энергопотребления других спаренных устройств и обновлять всю эту информация динамически по мере того, как пользователь изменяет местоположение.
[243] В примерном домашнем управляющем приложении, пользователь может выбирать и непосредственно управлять спаренными домашними устройствами управления с использованием, например, вращения внешнего кольца или ввода с помощью жестов.
[244] Пользователь может использовать жесты для того, чтобы управлять общим доступом или передачей контента в/из устройства (например, передачей воспроизведения видео на устройстве в спаренный телевизионный приемник, как описано в данном документе). Дополнительно, вспомогательная информация (например, субтитры фильма) может предоставляться на устройстве для контента, показанного на другом более крупном устройстве (например, на телевизионном экране, воспроизводящем фильм).
[245] Устройство может автоматически определять контекст слежения за здоровьем (например, если пользователь тренируется или спит). Когда оно определяет этот контекст, устройство может открывать приложения, соответствующие контексту слежения за здоровьем (например, для регистрации пульса в ходе тренировки, перемещения в ходе тренировки, длительности тренировки, пульсоксиметрии в ходе тренировки, режимы сна, длительность сна или кожно-гальваническая реакция). Устройство, например, может измерять связанные со здоровьем данные пользователя (например, пульс, перемещение или пульсоксиметрия) и отправлять часть или все эти данные в спаренное устройство или на сервер. Хотя проиллюстрировано в контексте слежения за здоровьем, определение релевантного контекста (например, на основе поведения пользователя), открытие соответствующих приложений, запись данных или передача этих данных могут быть применимыми в любом подходящем контексте.
[246] Устройство может помогать в связанных со спортивными состязаниями приложениях, таких как, например, автоматическая оценка крученого удара в гольфе пользователя и предложение коррекций.
[247] В коммерческом окружении устройство может автоматически идентифицировать продукт (например, с использованием RFID, NFC, распознавания штрих-кодов или распознавания объектов), когда пользователь берет продукт с полки, и может предоставлять информацию относительно продукта (например, информацию питательной ценности, информацию источника или обзоры) или опцию для того, чтобы приобретать продукт. Оплата за продукт, например, может выполняться с использованием технологии на основе визуальных штрих-кодов на устройстве. В конкретных вариантах осуществления, устройство может использоваться для того, чтобы оплачивать продукт с использованием NFC, RFID либо любой другой подходящей формы ближней связи. Во время оплаты, информация пользователя, например, может быть аутентифицирована посредством устройства, которое может обнаруживать биометрическую информацию пользователя (например, отличительный признак структуры скелета или кожи). Устройство также может автоматически предоставлять индикатор пользователю (например, вибрацию), когда пользователь находится около продукта в своем списке покупок (например, сохраненном в устройстве) или в другом списке (например, в списке пожеланий друга пользователя).
[248] [249] Устройство может выступать в качестве ключа для разблокирования или включения одного или более транспортных средств. Пользователь, например, может вводить код с использованием внешнего кольца, чтобы разблокировать или включать транспортное средство (например, с использованием NFC-технологии), как описано выше. В конкретных вариантах осуществления, как биометрическая информация пользователя, так и код, введенный пользователем, могут требоваться для того, чтобы разблокировать автомобиль, обеспечивая повышенную безопасность для автомобильного приложения. Дополнительно, устройство может включать в себя профили для одного или более пользователей, причем каждый профиль содержит настройки транспортного средства (например, температуру или позицию сидений). В качестве другого примера, биометрическая информация конкретного пользователя может использоваться не только для того, чтобы разблокировать устройство, но также и для того, чтобы определять, какой пользовательский профиль следует загружать в ходе работы автомобиля. Приближение устройства к транспортному средству может автоматически инструктировать транспортному средству реализовывать настройки транспортного средства профиля пользователя. Устройство также может поддерживать функцию GPS-навигации (например, непосредственно на устройстве или при спаривании и управлении телефоном).
Устройство может осуществлять доступ и работать в сочетании с услугой, которая предоставляет поддержку для игр смешанной реальности или очень крупных многопользовательских игр на основе реальности. Эта функциональность, например, может включать в себя регистрацию, управление пользовательскими данными (например, пользовательскими профилями и связанными с игрой данными, такими как пройденные уровни или запасы) и управление списками достижений. Функциональность устройства и услуги также может включать в себя управление подключениями (например, функциональностью концентратора), которое обрабатывает нестабильные каналы беспроводной связи и предоставляет унифицированный API для сторонних игровых серверов.
[250] Устройство может осуществлять доступ и работать в сочетании с услугой, которая позволяет пользователю устройства публиковать местоположения, отметки о посещении мест и заведений либо другие данные на основе информации местоположения, которые позволяют различным услугам осуществлять доступ к совместимому резервуару наиболее актуальной информации относительно позиции и статуса пользователя. В качестве примера, пользователь устройства может находить друзей с использованием аналогичных устройств. Услуга и устройство совместно могут обрабатывать обновления статуса, управление профилем, разрешения на доступ к приложениям, черные списки или разрешения на межпользовательский доступ. Услуга может быть доверенной и централизованной точкой соприкосновения для конфиденциальных данных. Посредством комбинирования доступа к унифицированной услуге определения местоположения, энергия и время работы от аккумулятора могут, в конкретных вариантах осуществления, экономиться. В конкретных вариантах осуществления, определенные маркеры функциональности могут становиться доступными на основе позиции пользователя. Приложение, например, может проверять устройство, чтобы удостоверяться в том, доступен или нет этот маркер, и осуществлять соответствующие действия. На стороне сервера, API могут позволять разработчикам наблюдать использование маркеров или обеспечивать возможность погашения. В конкретных вариантах осуществления, информация может распространяться посредством устройства другим пользователям (например, одному другому пользователю либо в широковещательном режиме множеству пользователей).
[251] Устройство может осуществлять доступ и работать в сочетании с услугой, которая предоставляет унифицированный опросный интерфейс, который позволяет устройствам принимать и отправлять опросы. Устройство и услуга совместно могут управлять списками рассылки, количественными оценочными критериями и рамками доступности опросов (например, временными и географическими). Эта услуга может быть доступна на устройстве и на сервере, так что сторонние разработчики могут использовать API для того, чтобы писать приложения и принимать результаты обратно через онлайновые API.
[252] В конкретных вариантах осуществления, устройство может осуществлять доступ и работать в сочетании с услугой, которая предоставляет оптимизацию для представления текста, изображений или другой информации на кругообразном дисплее устройства. В качестве примера, веб-узел может подготавливаться посредством рендеринга или форматироваться для отображения на компьютерном мониторе, но услуга может настраивать рендеринг и форматирование для меньшего, кругообразного дисплея посредством укрупнения изображений и усечения текста. Специализированный рендеринг и форматирование, например, могут представлять собой задачу, делегируемую между устройством и одним или более серверов или локально спаренных устройств. Эта услуга также может включать в себя услуги новостей или рекламных объявлений.
[253] Фиг. 137 иллюстрирует примерную компьютерную систему 13700. В конкретных вариантах осуществления, одна или более компьютерных систем 13700 выполняют один или более этапов одного или более способов, описанных или проиллюстрированных в данном документе. В конкретных вариантах осуществления, одна или более компьютерных систем 13700 предоставляют функциональность, описанную или проиллюстрированную в данном документе. В конкретных вариантах осуществления, программное обеспечение, работающее на одной или более компьютерных систем 13700, выполняет один или более этапов одного или более способов, описанных или проиллюстрированных в данном документе, или предоставляет функциональность, описанную или проиллюстрированную в данном документе. Конкретные варианты осуществления включают в себя одну или более частей одной или более компьютерных систем 13700. В данном документе, ссылка на компьютерную систему может охватывать вычислительное устройство, и наоборот, при необходимости. Кроме того, ссылка на компьютерную систему может охватывать одну или более компьютерных систем, при необходимости.
[254] Это раскрытие рассматривает любое подходящее число компьютерных систем 13700. Это раскрытие рассматривает компьютерную систему 13700, принимающую любую подходящую физическую форму. В качестве примера, а не в качестве ограничения, компьютерная система 13700 может представлять собой встроенную компьютерную систему, внутрикристальную систему (SoC), одноплатную компьютерную систему (SBC) (такую как, например, внутримодульный компьютер (COM) или внутримодульная система (SOM)), настольную компьютерную систему, компьютерную систему на базе переносных компьютеров или ноутбуков, интерактивный терминал самообслуживания, мэйнфрейм, крупную сеть компьютерных систем, мобильный телефон, персональное цифровое устройство (PDA), сервер, планшетную компьютерную систему либо комбинацию двух или более из означенного. При необходимости, компьютерная система 13700 может включать в себя одну или более компьютерных систем 13700; быть унитарной или распределенной; охватывать несколько местоположений; охватывать несколько машин; охватывать несколько центров обработки и хранения данных; или постоянно размещаться в облаке, которое может включать в себя один или более облачных компонентов в одной или более сетей. При необходимости, одна или более компьютерных систем 13700 могут выполнять, без существенного пространственного или временного ограничения, один или более этапов одного или более способов, описанных или проиллюстрированных в данном документе. В качестве примера, а не в качестве ограничения, одна или более компьютерных систем 13700 могут выполнять в реальном времени либо в пакетном режиме один или более этапов одного или более способов, описанных или проиллюстрированных в данном документе. Одна или более компьютерных систем 13700 могут выполнять в различные моменты времени или в различных местоположениях один или более этапов одного или более способов, описанных или проиллюстрированных в данном документе, при необходимости.
[255] В конкретных вариантах осуществления, компьютерная система 13700 включает в себя процессор 13702, запоминающее устройство 13704, устройство 13706 хранения данных, интерфейс 13708 ввода-вывода, интерфейс 13710 связи и шину 13712. Хотя это раскрытие описывает и иллюстрирует конкретную компьютерную систему, имеющую конкретное число конкретных компонентов в конкретной компоновке, это раскрытие рассматривает любую подходящую компьютерную систему, имеющую любое надлежащее число любых надлежащих компонентов в любой надлежащей компоновке.
[256] В конкретных вариантах осуществления, процессор 13702 включает в себя аппаратные средства для выполнения инструкций, к примеру, инструкций, которые составляют компьютерную программу. В качестве примера, а не в качестве ограничения, чтобы выполнять инструкции, процессор 13702 может извлекать (или отбирать) инструкции из внутреннего регистра, внутреннего кэша, запоминающего устройства 13704 или устройства 13706 хранения данных; декодировать и выполнять их; и затем записывать один или более результатов во внутренний регистр, во внутренний кэш, в запоминающее устройство 13704 или в устройство 13706 хранения данных. В конкретных вариантах осуществления, процессор 13702 может включать в себя один или более внутренних кэшей для данных, инструкций или адресов. Это раскрытие рассматривает процессор 13702, включающий в себя любое надлежащее число любых надлежащих внутренних кэшей по мере необходимости. В качестве примера, а не в качестве ограничения, процессор 13702 может включать в себя один или более кэшей инструкций, один или более кэшей данных и один или более буферов быстрого преобразования адреса (TLB). Инструкции в кэшах инструкций могут представлять собой копии инструкций в запоминающем устройстве 13704 или в устройстве 13706 хранения данных, и кэши инструкций могут ускорять извлечение этих инструкций посредством процессора 13702. Данные в кэшах данных могут представлять собой копии данных в запоминающем устройстве 13704 либо в устройстве 13706 хранения данных для инструкций, выполняемых в рабочем процессоре 13702; результаты предыдущих инструкций, выполняющихся в процессоре 13702 для доступа посредством последующих инструкций, выполняющихся в процессоре 13702, или для записи в запоминающее устройство 13704 или в устройство 13706 хранения данных; или другие подходящие данные. Кэши данных позволяют ускорять операции считывания или записи посредством процессора 13702. TLB позволяют ускорять преобразование виртуальных адресов для процессора 13702. В конкретных вариантах осуществления, процессор 13702 может включать в себя один или более внутренних регистров для данных, инструкций или адресов. Это раскрытие рассматривает процессор 13702, включающий в себя любое надлежащее число любых надлежащих внутренних регистров по мере необходимости. При необходимости, процессор 13702 может включать в себя одно или более арифметико-логических устройств (ALU); представлять собой многоядерный процессор; либо включать в себя один или более процессоров 13702. Хотя это раскрытие описывает и иллюстрирует конкретный процессор, это раскрытие рассматривает любой подходящий процессор.
[257] В конкретных вариантах осуществления, запоминающее устройство 13704 включает в себя основное запоминающее устройство для сохранения инструкций для процессора 13702 для выполнения или данные для рабочего процессора 13702. В качестве примера, а не в качестве ограничения, компьютерная система 13700 может загружать инструкции из устройства 13706 хранения данных или другого источника (такого как, например, другая компьютерная система 13700) в запоминающее устройство 13704. Процессор 13702 затем может загружать инструкции из запоминающего устройства 13704 во внутренний регистр или внутренний кэш. Чтобы выполнять инструкции, процессор 13702 может извлекать инструкции из внутреннего регистра или внутреннего кэша и декодировать их. Во время или после выполнения инструкций, процессор 13702 может записывать один или более результатов (которые могут быть промежуточными или конечными результатами) во внутренний регистр или во внутренний кэш. Процессор 13702 затем может записывать один или более этих результатов в запоминающее устройство 13704. В конкретных вариантах осуществления, процессор 13702 выполняет только инструкции в одном или более внутренних регистрах или внутренних кэшах либо в запоминающем устройстве 13704 (в противоположность устройству 13706 хранения данных или другому месту) и работает только на данных в одном или более внутренних регистрах или внутренних кэшах либо в запоминающем устройстве 13704 (в противоположность устройству 13706 хранения данных или другому месту). Одна или более шин запоминающего устройства (которая может включать в себя адресную шину и шину данных) может связывать процессор 13702 с запоминающим устройством 13704. Шина 13712 может включать в себя одну или более шин запоминающего устройства, как описано ниже. В конкретных вариантах осуществления, один или более блоков управления запоминающим устройством (MMU) постоянно размещаются между процессором 13702 и запоминающим устройство 13704 и упрощают доступ к запоминающему устройству 13704, запрашиваемый посредством процессора 13702. В конкретных вариантах осуществления, запоминающее устройство 13704 включает в себя оперативное запоминающее устройство (RAM). Это RAM может представлять собой энергозависимое запоминающее устройство, при необходимости, и это RAM может представлять собой динамическое RAM (DRAM) или статическое RAM (SRAM), при необходимости. Кроме того, при необходимости это RAM может представлять собой однопортовое или многопортовое RAM. Это раскрытие рассматривает любое подходящее RAM. Запоминающее устройство 13704 может включать в себя одно или более запоминающих устройств 13704 при необходимости. Хотя это раскрытие описывает и иллюстрирует конкретное запоминающее устройство, это раскрытие рассматривает любое подходящее запоминающее устройство.
[258] В конкретных вариантах осуществления, устройство 13706 хранения данных включает в себя устройство хранения данных большой емкости для данных или инструкций. В качестве примера, а не в качестве ограничения, устройство 13706 хранения данных может включать в себя жесткий диск (HDD), накопитель на гибких дисках, флэш-память, оптический диск, магнитооптический диск, магнитную ленту или накопитель по стандарту универсальной последовательной шины (USB) либо комбинацию двух или более из означенного. Устройство 13706 хранения данных может включать в себя съемные или несъемные (или стационарные) носители при необходимости. Устройство 13706 хранения данных может быть внутренним или внешним для компьютерной системы 13700 при необходимости. В конкретных вариантах осуществления, устройство 13706 хранения данных является энергонезависимым полупроводниковое запоминающее устройство. В конкретных вариантах осуществления, устройство 13706 хранения данных включает в себя постоянное запоминающее устройство (ROM). При необходимости, это ROM может представлять собой программируемое ROM с маскированием, программируемое ROM (PROM), стираемое PROM (EPROM), электрически стираемое PROM (EEPROM), электрически перепрограммируемое ROM (EAROM) или флэш-память либо комбинацию двух или более из означенного. Это раскрытие рассматривает устройство 13706 хранения данных большой емкости, принимающее любую подходящую физическую форму. Устройство 13706 хранения данных может включать в себя один или более блоков управления устройства хранения данных, упрощающих связь между процессором 13702 и устройством 13706 хранения данных, при необходимости. При необходимости, устройство 13706 хранения данных может включать в себя одно или более устройств 13706 хранения данных. Хотя это раскрытие описывает и иллюстрирует конкретное устройство хранения данных, это раскрытие рассматривает любое подходящее устройство хранения данных.
[259] В конкретных вариантах осуществления, интерфейс 13708 ввода-вывода включает в себя аппаратные средства, программное обеспечение или и то, и другое, предоставляющие один или более интерфейсов для связи между компьютерной системой 13700 и одним или более устройств ввода-вывода. Компьютерная система 13700 может включать в себя одно или более этих устройств ввода-вывода при необходимости. Одно или более этих устройств ввода-вывода могут обеспечивать связь между человеком и компьютерной системой 13700. В качестве примера, а не в качестве ограничения, устройство ввода-вывода может включать в себя клавиатуру, клавишную панель, микрофон, монитор, мышь, принтер, сканер, динамик, цифровую фотокамеру, стилус, планшетный компьютер, сенсорный экран, шаровой манипулятор, видеокамеру, другое подходящее устройство ввода-вывода либо комбинацию двух или более из означенного. Устройство ввода-вывода может включать в себя один или более датчиков. Это раскрытие рассматривает любые подходящие устройства ввода-вывода и любые подходящие интерфейсы 13708 ввода-вывода для них. При необходимости, интерфейс 13708 ввода-вывода может включать в себя один или более драйверов устройств или программных драйверов, предоставляющих возможность процессору 13702 управлять одним или более из этих устройств ввода-вывода. Интерфейс 13708 ввода-вывода может включать в себя один или более интерфейсов 13708 ввода-вывода при необходимости. Хотя это раскрытие описывает и иллюстрирует конкретный интерфейс ввода-вывода, это раскрытие рассматривает любой подходящий интерфейс ввода-вывода.
[260] В конкретных вариантах осуществления, интерфейс 13710 связи включает в себя аппаратные средства, программное обеспечение или и то, и другое, предоставляющие один или более интерфейсов для связи (такой как, например, связь с коммутацией пакетов) между компьютерной системой 13700 и одной или более другими компьютерными системами 13700 или одной или более сетями. В качестве примера, а не в качестве ограничения, интерфейс 13710 связи может включать в себя сетевой интерфейсный контроллер (NIC) или сетевой адаптер для обмена данными с Ethernet или другой проводной сетью либо беспроводной NIC (WNIC) или беспроводной адаптер для обмена данными с беспроводной сетью, такой как Wi-Fi-сеть. Это раскрытие рассматривает любую подходящую сеть и любой подходящий интерфейс 13710 связи для нее. В качестве примера, а не в качестве ограничения, компьютерная система 13700 может осуществлять связь с самоорганизующейся сетью, персональной вычислительной сетью (PAN), локальной вычислительной сетью (LAN), глобальной вычислительной сетью (WAN), общегородской вычислительной сетью (MAN), сетью масштаба человеческого тела (BAN) или с одной или более частей Интернета либо с комбинацией двух или более из означенного. Одна или более частей одной или более этих сетей могут быть проводными или беспроводными. В качестве примера, компьютерная система 13700 может осуществлять связь с беспроводной PAN (WPAN) (такой как, например, Bluetooth WPAN), Wi-Fi-сетью, Wi-Max-сетью, сотовой телефонной сетью (такой как, например, сеть по стандарту глобальной системы мобильной связи (GSM)) или другой подходящей беспроводной сетью либо с комбинацией двух или более из означенного. Компьютерная система 13700 может включать в себя любой подходящий интерфейс 13710 связи для любой из этих сетей при необходимости. Интерфейс 13710 связи может включать в себя один или более интерфейсов 13710 связи при необходимости. Хотя это раскрытие описывает и иллюстрирует конкретный интерфейс связи, это раскрытие рассматривает любой подходящий интерфейс связи.
[261] В конкретных вариантах осуществления, шина 13712 включает в себя аппаратные средства, программное обеспечение или и то, и другое, соединяющие компоненты компьютерной системы 13700 между собой. В качестве примера, а не в качестве ограничения, шина 13712 может включать в себя ускоренный графический порт (AGP) или другую шину передачи графических данных, шину с усовершенствованной стандартной промышленной архитектурой (EISA), внешнюю шину (FSB), межкомпонентное соединение по интерфейсу HyperTransport (HT), шину со стандартной промышленной архитектурой (ISA), межкомпонентное соединение по интерфейсу Infiniband, шину с малым числом выводов (LPC), шину запоминающего устройства, шину с микроканальной архитектурой (MCA), шину на основе стандарта взаимодействия периферийных компонентов (PCI), шину PCI Express (PCIe), шину последовательного интерфейса ATA (SATA), локальную шину с архитектурой Ассоциации по стандартизации в области видеоэлектроники (VLB) или другую подходящую шину либо комбинацию двух или более из означенного. Шина 13712 может включать в себя одну или более шин 13712 при необходимости. Хотя это раскрытие описывает и иллюстрирует конкретную шину, это раскрытие рассматривает любую подходящую шину или межкомпонентное соединение.
[262] Фиг. 138 является видом сверху в перспективе примерного механизма по фиг. 13B, показывающим новую конструкцию. Фиг. 139 является другим видом сверху в перспективе примерного механизма по фиг. 13B, показывающим новую конструкцию. Фиг. 140 является другим видом сверху в перспективе примерного механизма по фиг. 13B, показывающим новую конструкцию. Фиг. 141 является другим видом сверху в перспективе примерного механизма по фиг. 13B, показывающим новую конструкцию. Фиг. 142 является видом в плане сверху примерного механизма по фиг. 13B, показывающим новую конструкцию. Фиг. 143 является видом в плане снизу примерного механизма по фиг. 13B, показывающим новую конструкцию. Фиг. 144 является видом сбоку в вертикальном сечении примерного механизма по фиг. 13B, показывающим новую конструкцию. Фиг. 145 является противоположным видом сбоку в вертикальном сечении примерного механизма по фиг. 13B, показывающим новую конструкцию. Фиг. 146 является видом в вертикальном сечении от конца (как указано на фиг. 142) примерного механизма по фиг. 13B, показывающим новую конструкцию. Фиг. 147 вид в вертикальном сечении от противоположного конца (как указано на фиг. 142) примерного механизма по фиг. 13B, показывающим новую конструкцию.
[263] Фиг. 148 является видом сверху в перспективе примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию. Фиг. 149 является другим видом сверху в перспективе примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию. Фиг. 150 является другим видом сверху в перспективе примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию. Фиг. 151 является другим видом сверху в перспективе примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию. Фиг. 152 является видом в плане сверху примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию. Фиг. 153 является видом в плане снизу примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию. Фиг. 154 является видом сбоку в вертикальном сечении примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию. Фиг. 155 является противоположным видом сбоку в вертикальном сечении примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию. Фиг. 156 является видом в вертикальном сечении от конца (как указано на фиг. 152) примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию. Фиг. 157 является видом в вертикальном сечении от противоположного конца (как указано на фиг. 152) примерного механизма по фиг. 13C или 13D, показывающим новую конструкцию.
[264] В данном документе, машиночитаемый энергонезависимый носитель или носители хранения данных могут включать в себя одну или более полупроводниковых или других интегральных схем (IC) (в качестве примера, программируемых пользователем вентильных матриц (FPGA) или специализированных IC (ASIC)), жестких дисков (HDD), гибридных жестких дисков (HHD), оптических дисков, накопителей на оптических дисках (ODD), магнитооптических дисков, магнитооптических накопителей, гибких дискет, накопителей на гибких дисках (FDD), магнитных лент, полупроводниковых накопителей (SSD), RAM-накопителей, карт или накопителей по стандарту Secure Digital, любые другие подходящие машиночитаемые энергонезависимые носители хранения данных либо любую подходящую комбинацию двух или более из них, при необходимости. Машиночитаемый энергонезависимый носитель хранения данных может быть энергозависимым, энергонезависимым либо комбинацией энергозависимых и энергонезависимых при необходимости.
[265] В данном документе, "или" является включающим, а не исключающим, если явно не указано иное или не указано иное посредством контекста. Следовательно, в данном документе, "A или B" означают "A, B или и то, и другое", если явно не указано иное или не указано иное посредством контекста. Кроме того, "и" означает "совместно и порознь", если явно не указано иное или не указано иное посредством контекста. Следовательно, в данном документе, "A и B" означают "A и B, совместно или отдельно", если явно не указано иное или не указано иное посредством контекста.
[266] Объем этого раскрытия охватывает все изменения, замены, вариации, изменения и модификации примерных вариантов осуществления, описанных или иллюстрированных в данном документе, как должны обнаруживать специалисты в данной области техники. Объем этого раскрытия не ограничен примерными вариантами осуществления, описанными или проиллюстрированными в данном документе. Кроме того, хотя это раскрытие описывает и иллюстрирует соответствующие варианты осуществления в данном документе как включающие в себя конкретные компоненты, элементы, признак, функции, операции или этапы, любой из этих вариантов осуществления может включать в себя любую комбинацию или перестановку любого из компонентов, элементов, признаков, функций, операций или этапов, описанных или проиллюстрированных в любом месте в данном документе, как должны обнаруживать специалисты в данной области техники. Кроме того, ссылка в прилагаемой формуле изобретения на устройство или систему либо компонент устройства или системы, адаптированный с возможностью, приспособленный с возможностью, допускающий, конфигурированный с возможностью, активированный с возможностью, выполненный с возможностью или функционирующий с возможностью осуществлять конкретную функцию, охватывает это устройство, систему, компонент независимо от того, активирован, включен или разблокирован он либо эта конкретная функция или нет, при условии что это устройство, система или компонент адаптирован, приспособлен, допускает, сконфигурирован, активирован, выполнен или функционирует с такой возможностью.
[267] Хотя это раскрытие описывает конкретные структуры, признаки, взаимодействия и функциональность в контексте носимого устройства, это раскрытие рассматривает, что эти структуры, признаки, взаимодействия или функциональность могут применяться, использоваться для или использоваться в любом другом подходящем электронном устройстве (таком как, например, смартфон, планшетный компьютер, камера или персональное вычислительное устройство), при необходимости.

Claims (41)

1. Носимое электронное устройство, содержащее:
- корпус устройства, содержащий:
- сенсорный дисплей и
- процессор;
- браслет, соединенный с корпусом устройства, и
- оптический датчик в/на браслете, при этом оптический датчик обращен наружу относительно браслета и выполнен с возможностью захватывать изображение и процессор выполнен с возможностью осуществлять связь с оптическим датчиком для того, чтобы обрабатывать захваченное изображение,
при этом размещение оптического датчика является регулируемым так, чтобы оптический датчик обладал углом обзора, соответствующим пространству, в пределах которого изображение объекта захватывается оптическим датчиком, при одновременном поддержании сенсорного дисплея в направлении, обращенном к пользователю, без блокирования поля зрения пользователя в отношении объекта.
2. Устройство по п. 1, в котором оптический датчик выполнен с возможностью передавать изображение в корпус устройства.
3. Устройство по п. 2, в котором изображение, передаваемое в корпус устройства, отображается на сенсорном дисплее.
4. Устройство по п. 1, дополнительно содержащее:
- поворотный элемент вокруг сенсорного дисплея и
- блок обнаружения, выполненный с возможностью обнаруживать вращение поворотного элемента.
5. Устройство по п. 4, в котором блок обнаружения содержит кодер.
6. Устройство по п. 5, в котором кодер содержит:
- оптический кодер или
- механический кодер.
7. Устройство по п. 5, в котором внутренняя поверхность поворотного элемента содержит кодер.
8. Устройство по п. 4, в котором
сенсорный дисплей является, по существу, кругообразным и
поворотный элемент является, по существу, круговым кольцом вокруг сенсорного дисплея.
9. Устройство по п. 1, в котором оптический датчик содержит камеру.
10. Устройство по п. 1, в котором оптический датчик содержит датчик глубины.
11. Устройство по п. 1, дополнительно содержащее другой оптический датчик, расположенный на корпусе устройства.
12. Устройство по п. 11, в котором
сенсорный дисплей имеет конус просмотра и
центр угла обзора другого оптического датчика является, по существу, параллельным центру конуса просмотра сенсорного дисплея.
13. Устройство по п. 1, дополнительно содержащее другой оптический датчик, расположенный в/на браслете.
14. Устройство по п. 13, в котором оптический датчик содержит камеру и другой оптический датчик содержит датчик глубины.
15. Устройство по п. 1, в котором браслет содержит одно или более из следующего:
гибкая полоса;
застежка;
ожерелье; или
брелок.
16. Носимое электронное устройство, содержащее:
- корпус устройства, содержащий:
- сенсорный дисплей,
- поворотный элемент вокруг сенсорного дисплея и
- блок обнаружения, выполненный с возможностью обнаруживать вращение поворотного элемента;
- браслет, соединенный с корпусом устройства, и
- оптический датчик в/на браслете,
при этом размещение оптического датчика является регулируемым так, чтобы оптический датчик обладал углом обзора, соответствующим пространству, в пределах которого изображение объекта захватывается оптическим датчиком, при одновременном поддержании сенсорного дисплея в направлении, обращенном к пользователю, без блокирования поля зрения пользователя в отношении объекта.
RU2015123702A 2012-11-20 2013-11-20 Носимое электронное устройство RU2614575C2 (ru)

Applications Claiming Priority (23)

Application Number Priority Date Filing Date Title
US201261728773P 2012-11-20 2012-11-20
US201261728770P 2012-11-20 2012-11-20
US201261728765P 2012-11-20 2012-11-20
US61/728,765 2012-11-20
US61/728,773 2012-11-20
US61/728,770 2012-11-20
US201361773803P 2013-03-06 2013-03-06
US61/773,803 2013-03-06
US201361773813P 2013-03-07 2013-03-07
US201361773815P 2013-03-07 2013-03-07
US201361773817P 2013-03-07 2013-03-07
US61/773,815 2013-03-07
US61/773,813 2013-03-07
US61/773,817 2013-03-07
US201361775686P 2013-03-11 2013-03-11
US201361775688P 2013-03-11 2013-03-11
US201361775687P 2013-03-11 2013-03-11
US61/775,688 2013-03-11
US61/775,687 2013-03-11
US61/775,686 2013-03-11
US14/015,795 2013-08-30
US14/015,795 US8994827B2 (en) 2012-11-20 2013-08-30 Wearable electronic device
PCT/KR2013/010547 WO2014081181A1 (en) 2012-11-20 2013-11-20 Wearable electronic device

Publications (2)

Publication Number Publication Date
RU2015123702A RU2015123702A (ru) 2017-01-10
RU2614575C2 true RU2614575C2 (ru) 2017-03-28

Family

ID=49641569

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2015123702A RU2614575C2 (ru) 2012-11-20 2013-11-20 Носимое электронное устройство

Country Status (11)

Country Link
US (3) US8994827B2 (ru)
EP (1) EP2733579B1 (ru)
JP (1) JP6509486B2 (ru)
KR (1) KR102139665B1 (ru)
CN (1) CN104919390B (ru)
AU (1) AU2013260683C1 (ru)
IN (1) IN2013MU03643A (ru)
MX (1) MX343780B (ru)
MY (1) MY173975A (ru)
RU (1) RU2614575C2 (ru)
WO (1) WO2014081181A1 (ru)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU172365U1 (ru) * 2017-04-11 2017-07-05 Леонид Михайлович Берещанский Устройство тревожного оповещения об угрозе личной безопасности или нарушении состояния здоровья
RU179590U1 (ru) * 2017-12-28 2018-05-17 Федеральное государственное бюджетное образовательное учреждение высшего образования "Тюменский индустриальный университет" (ТИУ) Устройство для отображения времени
RU2704726C1 (ru) * 2017-07-31 2019-10-30 Бейджин Сяоми Мобайл Софтвеа Ко., Лтд. Способ и терминал для беспроводной зарядки

Families Citing this family (345)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9811818B1 (en) * 2002-10-01 2017-11-07 World Award Academy, World Award Foundation, Amobilepay, Inc. Wearable personal digital device for facilitating mobile device payments and personal use
US9704154B2 (en) * 2002-10-01 2017-07-11 World Award Academy, World Award Foundation, Amobilepay, Inc. Wearable personal digital device for facilitating mobile device payments and personal use
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US8689128B2 (en) 2009-03-16 2014-04-01 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8423911B2 (en) 2010-04-07 2013-04-16 Apple Inc. Device, method, and graphical user interface for managing folders
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
USD633908S1 (en) 2010-04-19 2011-03-08 Apple Inc. Electronic device
EP3575887A1 (en) * 2011-10-05 2019-12-04 Suunto Oy Watch case and wrist watch device
EA028577B1 (ru) * 2011-12-20 2017-12-29 Геосатис Са Электронный браслет для текущего контроля
US9600169B2 (en) * 2012-02-27 2017-03-21 Yahoo! Inc. Customizable gestures for mobile devices
USD769202S1 (en) * 2012-02-29 2016-10-18 Samsung Display Co., Ltd. Dish shaped display device
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
US9547425B2 (en) 2012-05-09 2017-01-17 Apple Inc. Context-specific user interfaces
US10990270B2 (en) 2012-05-09 2021-04-27 Apple Inc. Context-specific user interfaces
US10097496B2 (en) 2012-05-09 2018-10-09 Apple Inc. Electronic mail user interface
US10649622B2 (en) 2012-05-09 2020-05-12 Apple Inc. Electronic message user interface
US10304347B2 (en) 2012-05-09 2019-05-28 Apple Inc. Exercised-based watch face and complications
US10613743B2 (en) 2012-05-09 2020-04-07 Apple Inc. User interface for receiving user input
US10235014B2 (en) * 2012-05-09 2019-03-19 Apple Inc. Music user interface
US20160234358A9 (en) * 2012-05-09 2016-08-11 Tara Chand Singhal Apparatus and method for an alternate form-factor handheld smart phone device
US10314492B2 (en) 2013-05-23 2019-06-11 Medibotics Llc Wearable spectroscopic sensor to measure food consumption based on interaction between light and the human body
US9582035B2 (en) 2014-02-25 2017-02-28 Medibotics Llc Wearable computing devices and methods for the wrist and/or forearm
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
KR102146244B1 (ko) 2013-02-22 2020-08-21 삼성전자주식회사 휴대 단말에 대한 동작 관련 입력에 따라 복수개의 객체들의 표시를 제어하는 방법 및 이를 위한 휴대 단말
US10734731B2 (en) 2013-03-11 2020-08-04 Suunto Oy Antenna assembly for customizable devices
US11059550B2 (en) 2013-03-11 2021-07-13 Suunto Oy Diving computer with coupled antenna and water contact assembly
US11050142B2 (en) 2013-03-11 2021-06-29 Suunto Oy Coupled antenna structure
US10594025B2 (en) 2013-03-11 2020-03-17 Suunto Oy Coupled antenna structure and methods
USD709875S1 (en) * 2013-03-15 2014-07-29 Samsung Electronics Co., Ltd. Electronic device
USD709874S1 (en) * 2013-03-15 2014-07-29 Samsung Electronics Co., Ltd. Electronic device
USD711872S1 (en) * 2013-03-15 2014-08-26 Samsung Electronics Co., Ltd. Electronic device
US9696802B2 (en) * 2013-03-20 2017-07-04 Microsoft Technology Licensing, Llc Short range wireless powered ring for user interaction and sensing
US9753436B2 (en) 2013-06-11 2017-09-05 Apple Inc. Rotary input mechanism for an electronic device
KR102107678B1 (ko) * 2013-07-03 2020-05-28 삼성전자주식회사 미디어 정보 제공 서버, 미디어 콘텐츠와 관련된 미디어 정보를 검색하는 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
CN109634447B (zh) 2013-08-09 2022-04-19 苹果公司 用于电子设备的触觉开关
US10101869B2 (en) 2013-08-13 2018-10-16 Samsung Electronics Company, Ltd. Identifying device associated with touch event
US10141929B2 (en) 2013-08-13 2018-11-27 Samsung Electronics Company, Ltd. Processing electromagnetic interference signal using machine learning
US10073578B2 (en) 2013-08-13 2018-09-11 Samsung Electronics Company, Ltd Electromagnetic interference signal detection
US9568891B2 (en) 2013-08-15 2017-02-14 I.Am.Plus, Llc Multi-media wireless watch
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
CN110850705B (zh) 2013-09-03 2021-06-29 苹果公司 用于可穿戴电子设备的表冠输入
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
US20150140934A1 (en) * 2013-09-10 2015-05-21 Playtabase, LLC Wireless motion activated user device with bi-modality communication
US9226330B2 (en) * 2013-09-10 2015-12-29 Playtabase, LLC Wireless motion activated user device with bi-modality communication
GB2518369A (en) * 2013-09-18 2015-03-25 Biomet Global Supply Chain Ct B V Apparatus and Method for User Exercise Monitoring
US9529391B2 (en) * 2013-09-27 2016-12-27 Apple Inc. Button retention, assembly, and water sealing
US9625944B2 (en) 2013-09-29 2017-04-18 Apple Inc. Waterproof port for electronic devices
US9980026B2 (en) 2013-09-30 2018-05-22 Apple Inc. Method for clearing water from acoustic port and membrane
US20150121314A1 (en) * 2013-10-24 2015-04-30 Jens Bombolowsky Two-finger gestures
US20150117691A1 (en) * 2013-10-29 2015-04-30 John Hillyer Jennings Wrist accessory
CN110687969B (zh) * 2013-10-30 2023-05-02 苹果公司 显示相关的用户界面对象
TWI577265B (zh) * 2013-11-05 2017-04-01 宏碁股份有限公司 配戴式可攜式電子裝置
US20160269861A1 (en) * 2013-11-20 2016-09-15 Koninklijke Philips N.V. Method and device for validating user behaviour
US9545221B2 (en) * 2013-11-27 2017-01-17 Samsung Electronics Co., Ltd. Electronic system with dynamic localization mechanism and method of operation thereof
USD765668S1 (en) * 2013-12-05 2016-09-06 Nikon Corporation Display screen with graphical user interface
USD791793S1 (en) 2013-12-05 2017-07-11 Nikon Corporation Display screen with graphical user interface
KR20150065336A (ko) * 2013-12-05 2015-06-15 삼성전자주식회사 전자 장치의 제스처 인식 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
KR20150072719A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 디스플레이장치 및 그 제어방법
EP2891942B1 (en) * 2014-01-02 2018-08-22 LG Electronics Inc. Wearable terminal
US10048802B2 (en) 2014-02-12 2018-08-14 Apple Inc. Rejection of false turns of rotary inputs for electronic devices
US11328349B1 (en) * 2014-02-18 2022-05-10 Intuit Inc. Financial management using augmented reality systems
US10429888B2 (en) * 2014-02-25 2019-10-01 Medibotics Llc Wearable computer display devices for the forearm, wrist, and/or hand
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US9883301B2 (en) 2014-04-22 2018-01-30 Google Technology Holdings LLC Portable electronic device with acoustic and/or proximity sensors and methods therefor
USD762230S1 (en) * 2014-04-23 2016-07-26 Google Inc. Display panel with an animated computer icon
USD766283S1 (en) * 2014-04-23 2016-09-13 Google Inc. Display panel with a computer icon
US9594427B2 (en) 2014-05-23 2017-03-14 Microsoft Technology Licensing, Llc Finger tracking
KR102204553B1 (ko) * 2014-05-23 2021-01-19 엘지전자 주식회사 와치 타입 이동 단말기 및 그것의 제어방법
US10482461B2 (en) 2014-05-29 2019-11-19 Apple Inc. User interface for payments
US10313506B2 (en) 2014-05-30 2019-06-04 Apple Inc. Wellness aggregator
US10698458B2 (en) * 2014-06-02 2020-06-30 Microsoft Technology Licensing, Llc Integrated vapor chamber for thermal management of computing devices
WO2015198183A1 (en) * 2014-06-23 2015-12-30 Semiconductor Energy Laboratory Co., Ltd. Display device and electronic device
US9747433B2 (en) * 2014-06-24 2017-08-29 Google Technology Holdings, LLC Wearable electronic device and method for securing same
WO2015200890A2 (en) 2014-06-27 2015-12-30 Apple Inc. Reduced size user interface
CN105204613B (zh) * 2014-06-27 2019-02-05 联想(北京)有限公司 一种信息处理方法及穿戴式设备
US10693218B2 (en) 2014-07-01 2020-06-23 Microsoft Technology Licensing, Llc Structural tank integrated into an electronic device case
US10190891B1 (en) 2014-07-16 2019-01-29 Apple Inc. Optical encoder for detecting rotational and axial movement
JP6731406B2 (ja) * 2014-07-21 2020-07-29 ビーム オーセンティック,インコーポレイテッド ウェアラブル表示装置
TWI554916B (zh) * 2014-07-21 2016-10-21 晨星半導體股份有限公司 觸控顯示面板
TWI647608B (zh) 2014-07-21 2019-01-11 美商蘋果公司 遠端使用者介面
US20170213498A1 (en) * 2014-07-23 2017-07-27 What Watch Ag A device with an art showing function
EP3174759A4 (en) 2014-07-28 2018-05-02 Beam Authentic LLC Mountable display devices
KR101488662B1 (ko) * 2014-07-31 2015-02-04 스타십벤딩머신 주식회사 Nui 장치를 통하여 사용자와 상호작용하는 인터페이스 제공방법 및 제공장치
WO2016018044A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of controlling the same
KR102393950B1 (ko) * 2014-08-02 2022-05-04 애플 인크. 상황 특정 사용자 인터페이스
US9635222B2 (en) 2014-08-03 2017-04-25 PogoTec, Inc. Wearable camera systems and apparatus for aligning an eyewear camera
TWI584018B (zh) 2014-08-03 2017-05-21 帕戈技術股份有限公司 穿戴式照相機系統與用於將照相機系統或其他電子裝置附接至穿戴式製品之設備及方法
US10137246B2 (en) 2014-08-06 2018-11-27 Bigfoot Biomedical, Inc. Infusion pump assembly and method
US10117504B2 (en) 2014-08-09 2018-11-06 Apple Inc. Wearable band including magnets
WO2016025348A1 (en) 2014-08-11 2016-02-18 Apple Inc. Magnetic buckle
US9141086B1 (en) 2014-08-11 2015-09-22 Apple Inc. Magnetic actuated attachment mechanisms for wearable devices
US10123608B2 (en) 2014-08-11 2018-11-13 Apple Inc. Wearable band including magnets
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
DE102014216398A1 (de) * 2014-08-19 2016-02-25 BSH Hausgeräte GmbH Bedienvorrichtung für ein Haushaltsgerät mit einem zu einem Drehring eines Bedienelements benachbart angeordneten Lichtband sowie Haushaltsgerät
US9573165B2 (en) 2014-08-22 2017-02-21 Apple Inc. Hydrophobic mesh cover
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
US10599101B2 (en) 2014-09-02 2020-03-24 Apple Inc. Wearable electronic device
CN106797493A (zh) * 2014-09-02 2017-05-31 苹果公司 音乐用户界面
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
WO2016036552A1 (en) 2014-09-02 2016-03-10 Apple Inc. User interactions for a mapping application
WO2016036416A1 (en) 2014-09-02 2016-03-10 Apple Inc. Button functionality
CN111081345B (zh) * 2014-09-02 2023-10-10 苹果公司 身体活动和健身监视器
WO2016036541A2 (en) 2014-09-02 2016-03-10 Apple Inc. Phone user interface
US10261674B2 (en) 2014-09-05 2019-04-16 Microsoft Technology Licensing, Llc Display-efficient text entry and editing
US9772684B2 (en) * 2014-09-17 2017-09-26 Samsung Electronics Co., Ltd. Electronic system with wearable interface mechanism and method of operation thereof
US9582076B2 (en) 2014-09-17 2017-02-28 Microsoft Technology Licensing, Llc Smart ring
KR20160034065A (ko) * 2014-09-19 2016-03-29 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9952675B2 (en) 2014-09-23 2018-04-24 Fitbit, Inc. Methods, systems, and apparatuses to display visibility changes responsive to user gestures
CN105511750B (zh) * 2014-09-26 2020-01-31 联想(北京)有限公司 一种切换方法及电子设备
US10776739B2 (en) 2014-09-30 2020-09-15 Apple Inc. Fitness challenge E-awards
KR102296184B1 (ko) * 2014-10-01 2021-08-31 삼성전자주식회사 이동 통신 시스템에서 통신 및 디스커버리 신호 송신 기법
WO2016060848A1 (en) * 2014-10-14 2016-04-21 I.Am.Plus, Llc Multi-media wireless watch
US10048722B2 (en) * 2014-10-15 2018-08-14 AzTrong Inc. Wearable portable electronic device with heat conducting path
US10185363B2 (en) * 2014-11-28 2019-01-22 Semiconductor Energy Laboratory Co., Ltd. Electronic device
US9542784B2 (en) * 2014-12-01 2017-01-10 Ebay Inc. Pairable secure-access facilities
KR102236583B1 (ko) * 2014-12-05 2021-04-06 삼성전자주식회사 전자기기용 조그 다이얼 및 이를 구비한 전자기기
US9600106B2 (en) * 2014-12-12 2017-03-21 Innolux Corporation Electronic display module and apparatus using the same
MX2017008519A (es) * 2014-12-23 2018-06-27 Pogotec Inc Sistema y metodos de camara inalambrica.
US10692128B2 (en) * 2014-12-30 2020-06-23 Paypal, Inc. Smart shopping list system
US9612661B2 (en) 2015-01-02 2017-04-04 Wearable Devices Ltd. Closed loop feedback interface for wearable devices
US9720515B2 (en) * 2015-01-02 2017-08-01 Wearable Devices Ltd. Method and apparatus for a gesture controlled interface for wearable devices
WO2016117745A1 (ko) * 2015-01-20 2016-07-28 엘지전자(주) 전자 디바이스 및 그 제어방법
KR101711835B1 (ko) * 2015-01-30 2017-03-03 엘지전자 주식회사 차량, 차량의 동작 방법 및 웨어러블 디바이스의 동작 방법
WO2016133351A1 (ko) * 2015-02-16 2016-08-25 주식회사 퓨처플레이 자성 물질을 포함하는 장치 부착물
KR102360177B1 (ko) * 2015-02-26 2022-02-08 삼성전자주식회사 사용자 입력을 수신함에 따라 애플리케이션의 실행 결과를 디스플레이하는 방법 및 디바이스
KR102313898B1 (ko) * 2015-02-27 2021-10-19 삼성전자주식회사 웨어러블 전자장치
KR102356450B1 (ko) * 2015-03-02 2022-01-27 삼성전자주식회사 연결부를 갖는 전자 장치 및 그 동작 방법
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
KR102348409B1 (ko) 2015-03-03 2022-01-10 주식회사 아모그린텍 웨어러블 전자기기용 밴드 및 이를 포함하는 전자기기
US10145711B2 (en) 2015-03-05 2018-12-04 Apple Inc. Optical encoder with direction-dependent optical properties having an optically anisotropic region to produce a first and a second light distribution
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
EP3251139B1 (en) 2015-03-08 2021-04-28 Apple Inc. Compressible seal for rotatable and translatable input mechanisms
US9819850B2 (en) 2015-03-16 2017-11-14 Sandisk Technologies Llc Modular fashion accessory
US9746930B2 (en) * 2015-03-26 2017-08-29 General Electric Company Detection and usability of personal electronic devices for field engineers
US20160282949A1 (en) * 2015-03-27 2016-09-29 Sony Corporation Method and system for detecting linear swipe gesture using accelerometer
US10359843B2 (en) * 2015-04-01 2019-07-23 Htc Corporation Electronic apparatus and display control method thereof
US10285627B2 (en) * 2015-04-15 2019-05-14 Pixart Imaging Inc. Action recognition system and method thereof
KR102431495B1 (ko) * 2015-04-23 2022-08-12 삼성전자주식회사 회전 부재를 포함하는 전자 장치 및 그 디스플레이 방법
WO2016171467A1 (en) 2015-04-23 2016-10-27 Samsung Electronics Co., Ltd. Electronic device including rotary member and display method thereof
US10018966B2 (en) 2015-04-24 2018-07-10 Apple Inc. Cover member for an input mechanism of an electronic device
US9716934B2 (en) 2015-04-24 2017-07-25 Apple Inc. Liquid ingress-redirecting acoustic device reservoir
KR102385010B1 (ko) 2015-04-30 2022-04-22 주식회사 아모그린텍 웨어러블 전자기기용 밴드 및 이를 포함하는 전자기기
CH711037A1 (de) 2015-05-05 2016-11-15 Swissgear Sarl Mobiltelefon in Form einer Armbanduhr.
US20160328678A1 (en) * 2015-05-07 2016-11-10 United Parcel Service Of America, Inc. Initiating shipment of an item using a mobile/wearable device
US20160327915A1 (en) 2015-05-08 2016-11-10 Garmin Switzerland Gmbh Smart watch
KR20160142128A (ko) 2015-06-02 2016-12-12 엘지전자 주식회사 와치형 단말기 및 그 제어방법
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
KR20160143338A (ko) 2015-06-05 2016-12-14 엘지전자 주식회사 이동단말기 및 그 제어방법
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
WO2016201261A1 (en) 2015-06-10 2016-12-15 PogoTec, Inc. Eyewear with magnetic track for electronic wearable device
US10481417B2 (en) 2015-06-10 2019-11-19 PogoTec, Inc. Magnetic attachment mechanism for electronic wearable device
US10386941B2 (en) * 2015-06-16 2019-08-20 Intel Corporation Gyratory sensing system to enhance wearable device user experience via HMI extension
US9939923B2 (en) 2015-06-19 2018-04-10 Microsoft Technology Licensing, Llc Selecting events based on user input and current context
US9627797B2 (en) 2015-07-21 2017-04-18 Apple Inc. Ejection assembly with plug feature
US9780554B2 (en) 2015-07-31 2017-10-03 Apple Inc. Moisture sensors
KR102430941B1 (ko) * 2015-08-11 2022-08-10 삼성전자주식회사 생체 상태 정보 제공 방법 및 이를 지원하는 전자 장치
USD786932S1 (en) * 2015-08-12 2017-05-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
KR102448688B1 (ko) * 2015-08-13 2022-09-29 삼성전자주식회사 회전가능한 구조를 포함하는 전자 장치
WO2017030646A1 (en) 2015-08-20 2017-02-23 Apple Inc. Exercise-based watch face and complications
US10114450B2 (en) 2015-08-31 2018-10-30 Semiconductor Energy Laboratory Co., Ltd. Information processing device
US9985341B2 (en) 2015-08-31 2018-05-29 Microsoft Technology Licensing, Llc Device antenna for multiband communication
USD794075S1 (en) * 2015-09-02 2017-08-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD787557S1 (en) * 2015-09-02 2017-05-23 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD784410S1 (en) * 2015-09-02 2017-04-18 Samsung Electronics Co., Ltd Display screen or portion thereof with transitional graphical user interface
USD785024S1 (en) * 2015-09-02 2017-04-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD784396S1 (en) * 2015-09-02 2017-04-18 Samsung Electronics Co., Ltd Display screen or portion thereof with graphical user interface
USD804513S1 (en) * 2015-09-02 2017-12-05 Samsung Electronics Co., Ltd Display screen or portion thereof with graphical user interface
USD784383S1 (en) * 2015-09-02 2017-04-18 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD784385S1 (en) * 2015-09-02 2017-04-18 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD784384S1 (en) * 2015-09-02 2017-04-18 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD784388S1 (en) * 2015-09-07 2017-04-18 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
KR102523605B1 (ko) 2015-09-11 2023-04-19 삼성디스플레이 주식회사 생체신호를 이용한 착용형 표시 장치 및 그 착용형 표시 장치의 제어방법
US10172426B2 (en) 2015-09-16 2019-01-08 Apple Inc. Magnetic band clasp
US9866555B2 (en) * 2015-09-17 2018-01-09 Intel Corporation Maintaining user authentications with common trusted devices
US10149396B2 (en) 2015-09-30 2018-12-04 Apple Inc. Circuit assembly for an electronic device
USD815635S1 (en) * 2015-10-02 2018-04-17 Polar Electro Oy Personal lifestyle monitoring and management device
KR102548687B1 (ko) 2015-10-07 2023-06-28 삼성전자주식회사 전자 장치에서 실행된 어플리케이션을 제어하는 웨어러블 전자 장치 및 방법
CA3041583A1 (en) 2015-10-29 2017-05-04 PogoTec, Inc. Hearing aid adapted for wireless power reception
KR102423830B1 (ko) 2015-11-10 2022-07-22 삼성전자주식회사 웨어러블 장치 및 그 제어 방법
US9754432B2 (en) 2015-11-17 2017-09-05 International Business Machines Corporation Wireless communication protocol based lock management
KR102421849B1 (ko) * 2015-11-30 2022-07-18 엘지전자 주식회사 스마트 와치의 제어방법
US10761417B2 (en) * 2015-11-30 2020-09-01 Lg Electronics Inc. Smart watch and method for controlling same
USD785658S1 (en) * 2015-12-07 2017-05-02 Microsoft Corporation Display screen with animated graphical user interface
KR20170069734A (ko) * 2015-12-11 2017-06-21 삼성전자주식회사 정보 제공을 위한 전자 장치 및 방법
US10162311B2 (en) * 2015-12-15 2018-12-25 Qualcomm Incorporated Display panel with minimum borders
USD793875S1 (en) * 2015-12-30 2017-08-08 Samsung Electronics Co., Ltd. Electronic wrist device with band
USD825523S1 (en) 2016-01-06 2018-08-14 I.Am.Plus, Llc Set of earbuds
US11740782B2 (en) * 2016-01-06 2023-08-29 Disruptive Technologies Research As Out-of-band commissioning of a wireless device through proximity input
WO2017134541A1 (en) 2016-02-03 2017-08-10 Semiconductor Energy Laboratory Co., Ltd. Information processing device
USD824400S1 (en) * 2016-02-19 2018-07-31 Htc Corporation Display screen or portion thereof with graphical user interface with icon
US9891651B2 (en) 2016-02-27 2018-02-13 Apple Inc. Rotatable input mechanism having adjustable output
WO2017152819A1 (zh) * 2016-03-07 2017-09-14 李明 一种授权认证方法、装置和系统
KR102585489B1 (ko) * 2016-03-16 2023-10-06 엘지전자 주식회사 워치 타입의 이동단말기 및 그 제어방법
US11558538B2 (en) 2016-03-18 2023-01-17 Opkix, Inc. Portable camera system
EP3433681A4 (en) * 2016-03-24 2019-03-27 Razer (Asia-Pacific) Pte Ltd. DOCKS, DATA PROCESSING DEVICES, METHOD FOR CONTROLLING A DOCKS AND METHOD FOR CONTROLLING A DATA PROCESSING DEVICE
US10551798B1 (en) 2016-05-17 2020-02-04 Apple Inc. Rotatable crown for an electronic device
USD842336S1 (en) * 2016-05-17 2019-03-05 Google Llc Display screen with animated graphical user interface
US10345986B1 (en) 2016-05-17 2019-07-09 Google Llc Information cycling in graphical notifications
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US11216119B2 (en) 2016-06-12 2022-01-04 Apple Inc. Displaying a predetermined view of an application
JP6342453B2 (ja) * 2016-07-07 2018-06-13 本田技研工業株式会社 操作入力装置
US10061399B2 (en) 2016-07-15 2018-08-28 Apple Inc. Capacitive gap sensor ring for an input device
TW201809854A (zh) * 2016-07-18 2018-03-16 帕戈技術股份有限公司 可穿戴式帶
US10019097B2 (en) 2016-07-25 2018-07-10 Apple Inc. Force-detecting input structure
RU169844U1 (ru) * 2016-08-19 2017-04-04 Федеральное государственное бюджетное научное учреждение "Научный центр неврологии" (ФГБНУ НЦН) Мини-клавиатура для выполнения заданий по восстановлению импрессивной речи у лежачих больных с сенсорной афазией
US10784062B2 (en) 2016-09-08 2020-09-22 Apple Inc. Ingress prevention for keyboards
USD847838S1 (en) * 2016-09-09 2019-05-07 Karl Storz Se & Co. Kg Display screen with graphical user interface having a circular representation for medical data
US10331083B1 (en) 2016-09-16 2019-06-25 Apple Inc. Watch band with optical sensor
US10129503B1 (en) 2016-09-20 2018-11-13 Apple Inc. Image-capturing watch
US10736543B2 (en) 2016-09-22 2020-08-11 Apple Inc. Workout monitor interface
KR102507252B1 (ko) 2016-09-23 2023-03-07 애플 인크. 워치 극장 모드
WO2018089533A1 (en) 2016-11-08 2018-05-17 PogoTec, Inc. A smart case for electronic wearable device
WO2018129041A1 (en) * 2017-01-03 2018-07-12 Gopro, Inc. Remote image capture and mounting ecosystem
RU174961U1 (ru) * 2017-02-27 2017-11-13 Леонид Евгеньевич Селявко Мини-клавиатура для занятий по восстановлению пространственного восприятия у лежачих больных неврологической клиники
WO2018173976A1 (ja) 2017-03-23 2018-09-27 シャープ株式会社 電子機器
WO2018173978A1 (ja) * 2017-03-23 2018-09-27 シャープ株式会社 電子機器
USD846566S1 (en) * 2017-03-27 2019-04-23 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
KR102355149B1 (ko) * 2017-04-25 2022-01-25 삼성전자주식회사 분리형 입력 장치를 포함하는 전자 장치
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US20180329481A1 (en) * 2017-05-11 2018-11-15 Interactive Recreation LLC Controller Device and System for Virtual and Augmented Reality Systems
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
US10928980B2 (en) 2017-05-12 2021-02-23 Apple Inc. User interfaces for playing and managing audio items
US10845955B2 (en) 2017-05-15 2020-11-24 Apple Inc. Displaying a scrollable list of affordances associated with physical activities
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
DK179555B1 (en) 2017-05-16 2019-02-13 Apple Inc. USER INTERFACE FOR A FLASHLIGHT MODE ON AN ELECTRONIC DEVICE
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
US10778463B2 (en) * 2017-05-30 2020-09-15 Harman International Industries, Incorporated Displaying information for a smart-device-enabled environment
KR102419425B1 (ko) * 2017-06-07 2022-07-12 삼성전자 주식회사 진동 패턴 생성 방법 및 그 장치
IT201700037702A1 (it) * 2017-06-12 2018-12-12 Nicholas Caporusso Dispositivo e metodo utile per l’interazione mediante gesti e movimenti degli arti e delle dita.
US10664074B2 (en) 2017-06-19 2020-05-26 Apple Inc. Contact-sensitive crown for an electronic watch
KR20230074849A (ko) 2017-06-29 2023-05-31 애플 인크. 센서들 및 햅틱들을 갖는 핑거 장착형 디바이스
US10558278B2 (en) 2017-07-11 2020-02-11 Apple Inc. Interacting with an electronic device through physical movement
US10962935B1 (en) 2017-07-18 2021-03-30 Apple Inc. Tri-axis force sensor
US10866615B1 (en) * 2017-08-16 2020-12-15 Apple Inc. Electronic devices with two-stage displays
USD846585S1 (en) 2017-08-22 2019-04-23 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US10591730B2 (en) * 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
US10165694B1 (en) 2017-09-11 2018-12-25 Apple Inc. Concealed barometric vent for an electronic device
US10690986B2 (en) 2017-09-13 2020-06-23 Apple Inc. Electronic devices having electrically adjustable optical shutters
US20190110744A1 (en) * 2017-10-18 2019-04-18 Jiping Zhu Interchangeable wearable device
FR3072493A1 (fr) * 2017-10-18 2019-04-19 What About You Systeme d'affichage comprenant un badge connecte equipe d'un ecran de forme circulaire et affichant horizontalement des contenus video.
US11177691B2 (en) * 2017-11-06 2021-11-16 Mark J. Henry Wristwatch band and charging system
WO2019099053A1 (en) * 2017-11-19 2019-05-23 Mocini Jeffrey Belt-mounted slope sensor system
US11195118B2 (en) 2017-11-20 2021-12-07 International Business Machines Corporation Detecting human input activity in a cognitive environment using wearable inertia and audio sensors
KR102420020B1 (ko) * 2017-12-01 2022-07-12 삼성전자주식회사 터치-지문 복합 센서와 그 동작방법 및 터치-지문 복합 센서를 포함하는 전자 장치
US10583807B2 (en) * 2017-12-07 2020-03-10 Alyssa Nicotra Watch with fob capabilities
US20190187835A1 (en) * 2017-12-19 2019-06-20 North Inc. Wearable electronic devices having an inward facing input device and methods of use thereof
US10706693B1 (en) * 2018-01-11 2020-07-07 Facebook Technologies, Llc. Haptic device for creating vibration-, pressure-, and shear-based haptic cues
USD848455S1 (en) * 2018-01-19 2019-05-14 Huawei Technologies Co., Ltd. Display screen or portion thereof with an animated graphical user interface
USD851656S1 (en) * 2018-01-19 2019-06-18 Huawei Technologies Co., Ltd. Display screen or portion thereof with an animated graphical user interface
TWI790344B (zh) 2018-02-08 2023-01-21 芬蘭商順妥公司 槽孔模式天線
TWI798344B (zh) 2018-02-08 2023-04-11 芬蘭商順妥公司 槽孔模式天線
KR102588809B1 (ko) * 2018-02-21 2023-10-16 삼성전자주식회사 회전 가능한 부재의 유동 제한 구조 및 그를 포함하는 전자 장치
US10795438B2 (en) 2018-04-05 2020-10-06 Apple Inc. Electronic finger devices with charging and storage systems
GB2572638B (en) * 2018-04-06 2020-04-01 Dnanudge Ltd Wrist-worn product code reader
EP3787503A4 (en) * 2018-05-01 2022-01-12 Whoop, Inc. TISSUE OXYGEN SATURATION DETECTION AND RELATED APPARATUS AND METHODS
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
DK201870380A1 (en) 2018-05-07 2020-01-29 Apple Inc. DISPLAYING USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
US11317833B2 (en) 2018-05-07 2022-05-03 Apple Inc. Displaying user interfaces associated with physical activities
US11169668B2 (en) * 2018-05-16 2021-11-09 Google Llc Selecting an input mode for a virtual assistant
JP6506454B1 (ja) * 2018-06-14 2019-04-24 株式会社バーチャルキャスト データ差し替え装置、端末、およびデータ差し替えプログラム
US11360440B2 (en) 2018-06-25 2022-06-14 Apple Inc. Crown for an electronic watch
CN108961364A (zh) * 2018-07-10 2018-12-07 麒麟合盛网络技术股份有限公司 一种图片处理方法和装置
US11561515B2 (en) 2018-08-02 2023-01-24 Apple Inc. Crown for an electronic watch
CN209560398U (zh) 2018-08-24 2019-10-29 苹果公司 电子表
US11181863B2 (en) 2018-08-24 2021-11-23 Apple Inc. Conductive cap for watch crown
US11194298B2 (en) 2018-08-30 2021-12-07 Apple Inc. Crown assembly for an electronic watch
CN209625187U (zh) 2018-08-30 2019-11-12 苹果公司 电子手表和电子设备
US10712824B2 (en) 2018-09-11 2020-07-14 Apple Inc. Content-based tactile outputs
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
US10467679B1 (en) 2019-04-15 2019-11-05 Dnanudge Limited Product recommendation device and method
US11678141B2 (en) * 2018-09-18 2023-06-13 Pb Inc. Hybrid cellular Bluetooth tracking devices, methods and systems
US10953307B2 (en) 2018-09-28 2021-03-23 Apple Inc. Swim tracking and notifications for wearable devices
USD918392S1 (en) * 2018-10-01 2021-05-04 Hexacheck Inc. Smartwatch with electrocardiograph electrodes
US11013417B2 (en) 2018-10-15 2021-05-25 International Business Machines Corporation Energy-efficient multisensory system for mobile health-monitoring
WO2020080650A1 (en) 2018-10-16 2020-04-23 Samsung Electronics Co., Ltd. Apparatus and method of operating wearable device
WO2020102237A1 (en) 2018-11-13 2020-05-22 Opkix, Inc. Wearable mounts for portable camera
USD900054S1 (en) * 2018-12-21 2020-10-27 Harman International Industries, Incorporated Wristband loudspeaker
US11435853B2 (en) * 2019-01-03 2022-09-06 Motorola Mobility Llc Self-aligning user interface
US10474194B1 (en) * 2019-01-30 2019-11-12 Garmin Switzerland Gmbh Wearable electronic device with an inductive user interface
US11194299B1 (en) 2019-02-12 2021-12-07 Apple Inc. Variable frictional feedback device for a digital crown of an electronic watch
US10539700B1 (en) * 2019-03-14 2020-01-21 Suunto Oy Diving computer with coupled antenna and water contact assembly
US10811140B2 (en) 2019-03-19 2020-10-20 Dnanudge Limited Secure set-up of genetic related user account
US10699806B1 (en) 2019-04-15 2020-06-30 Dnanudge Limited Monitoring system, wearable monitoring device and method
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
KR102393717B1 (ko) 2019-05-06 2022-05-03 애플 인크. 전자 디바이스의 제한된 동작
US11960701B2 (en) 2019-05-06 2024-04-16 Apple Inc. Using an illustration to show the passing of time
DK201970532A1 (en) 2019-05-06 2021-05-03 Apple Inc Activity trends and workouts
WO2020243691A1 (en) 2019-05-31 2020-12-03 Apple Inc. User interfaces for audio media control
US10996917B2 (en) 2019-05-31 2021-05-04 Apple Inc. User interfaces for audio media control
US20230119253A1 (en) 2019-06-01 2023-04-20 Apple Inc. Multi-modal activity tracking user interface
DE102019118965A1 (de) * 2019-07-12 2021-01-14 Workaround Gmbh Nebengerät für ein Sensor- und/oder Informationssystem sowie Sensor- und/oder Informationssystem
US10805453B1 (en) * 2019-08-26 2020-10-13 Tico Blumenthal Device mute control
USD930669S1 (en) * 2019-09-02 2021-09-14 Huawei Technologies Co., Ltd. Electronic display for a wearable device presenting a graphical user interface
USD930670S1 (en) * 2019-09-02 2021-09-14 Huawei Technologies Co., Ltd. Electronic display for a wearable device presenting a graphical user interface
DK201970599A1 (en) 2019-09-09 2021-05-17 Apple Inc Techniques for managing display usage
KR102324566B1 (ko) * 2019-09-09 2021-11-09 애플 인크. 디스플레이 사용량을 관리하기 위한 기법들
US11205106B2 (en) 2019-09-19 2021-12-21 Sensormatic Electronics, LLC Self-detaching anti-theft device with energy limit
US20210091826A1 (en) * 2019-09-19 2021-03-25 Sensormatic Electronics, LLC Self-detaching anti-theft device using direct and harvested resonant energy
US11156022B2 (en) 2019-09-20 2021-10-26 Sensormatic Electronics, LLC Tack with free spinning feature
US11755107B1 (en) 2019-09-23 2023-09-12 Apple Inc. Finger devices with proximity sensors
US11614716B2 (en) 2019-09-23 2023-03-28 Apple Inc. Pressure-sensing system for a wearable electronic device
DK202070616A1 (en) 2020-02-14 2022-01-14 Apple Inc User interfaces for workout content
US20210333759A1 (en) 2020-04-24 2021-10-28 Facebook Technologies, Llc Split architecture for a wristband system and related devices and methods
WO2022203697A1 (en) * 2020-04-24 2022-09-29 Meta Platforms Technologies, Llc Split architecture for a wristband system and related devices and methods
CN111562840B (zh) * 2020-04-27 2022-08-05 京东方科技集团股份有限公司 可穿戴显示设备及其成像面的调整方法
US20210343035A1 (en) * 2020-04-29 2021-11-04 Zebra Technologies Corporation Reference Surface Detection for Mobile Dimensioning
DK181103B1 (en) 2020-05-11 2022-12-15 Apple Inc User interfaces related to time
CN115904596B (zh) 2020-05-11 2024-02-02 苹果公司 用于管理用户界面共享的用户界面
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
US11550268B2 (en) 2020-06-02 2023-01-10 Apple Inc. Switch module for electronic crown assembly
US11635786B2 (en) 2020-06-11 2023-04-25 Apple Inc. Electronic optical sensing device
US11860585B2 (en) 2020-06-17 2024-01-02 Apple Inc. Wearable electronic device with a compressible air-permeable seal
US20210405701A1 (en) * 2020-06-30 2021-12-30 Robbox Inc. Dockable apparatus for automatically-initiated control of external devices
US11709554B1 (en) 2020-09-14 2023-07-25 Apple Inc. Finger devices with adjustable housing structures
US11287886B1 (en) 2020-09-15 2022-03-29 Apple Inc. Systems for calibrating finger devices
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
TWI765422B (zh) * 2020-11-20 2022-05-21 全友電腦股份有限公司 資料擷取方法、樣板生成方法及非暫態電腦可讀取記錄媒體
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities
USD989098S1 (en) * 2021-04-15 2023-06-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
US11938376B2 (en) 2021-05-15 2024-03-26 Apple Inc. User interfaces for group workouts
US20220374085A1 (en) * 2021-05-19 2022-11-24 Apple Inc. Navigating user interfaces using hand gestures
US11893212B2 (en) 2021-06-06 2024-02-06 Apple Inc. User interfaces for managing application widgets
US20220399123A1 (en) 2021-06-14 2022-12-15 Preh Holding, Llc Connected body surface care module
US11630551B1 (en) * 2021-10-28 2023-04-18 Dallen Yu Chao Smart keychain or accessory devices, systems, and methods
US20230390627A1 (en) 2022-06-05 2023-12-07 Apple Inc. User interfaces for physical activity information
CN115165115B (zh) * 2022-09-07 2023-07-04 中亿(深圳)信息科技有限公司 智能手表的体温测量方法、装置、介质及穿戴设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020068600A1 (en) * 2000-06-21 2002-06-06 Hiroyuki Chihara Mobile video telephone system
US6556222B1 (en) * 2000-06-30 2003-04-29 International Business Machines Corporation Bezel based input mechanism and user interface for a smart watch
US6636635B2 (en) * 1995-11-01 2003-10-21 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method
RU74259U1 (ru) * 2008-02-19 2008-06-20 Татаренков Валерий Владимирович Мобильный телефон-браслет
RU2383915C2 (ru) * 2004-03-01 2010-03-10 Майкрософт Корпорейшн Устройство для облегчения воспоминаний
US20100123792A1 (en) * 2008-11-20 2010-05-20 Takefumi Nagumo Image processing device, image processing method and program

Family Cites Families (486)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2473226A (en) 1946-08-22 1949-06-14 Sheldon Lillian Wrist band
US3062369A (en) 1960-08-30 1962-11-06 Esber E Moubayed Leak-proof variable-volume holder for frozen confections
US3477285A (en) 1967-08-04 1969-11-11 Joseph M Krafft Four-lobed diametral-strain gage
US3915534A (en) 1967-08-15 1975-10-28 Joslyn Mfg & Supply Co Grounded surface distribution apparatus
USD249874S (en) 1976-10-12 1978-10-10 Texas Instruments Incorporated Digital wrist watch
US4757456A (en) 1981-05-19 1988-07-12 Ralph Benghiat Device and method for utility meter reading
US4427303A (en) 1982-06-17 1984-01-24 Hermann Hirsch Leder Und Kunstoffwarenfabrik Electronic wristwatch
USD282914S (en) 1983-10-13 1986-03-11 Jeffrey Maron Indicator watch
USD284949S (en) 1984-04-16 1986-08-05 Kong Hung W Watch frame
USD300828S (en) 1985-08-21 1989-04-25 Divetronic Ag Wrist computer for divers
USD297121S (en) 1985-12-03 1988-08-09 Porsche Design Gmbh Sport watch
US4636047A (en) 1986-03-21 1987-01-13 Green Ronald N Wrist watch mirror accessory
USD302664S (en) 1986-09-08 1989-08-08 Dawson Jr Melvyn H Electronic watch
USD300678S (en) 1987-06-11 1989-04-11 Moulinex, Societe Anonyme Re-charging stand for a cordless electric iron
US4906207A (en) 1989-04-24 1990-03-06 W. L. Gore & Associates, Inc. Dielectric restrainer
USD362396S (en) 1990-06-27 1995-09-19 Chester Edna L Wristwatch
USD335263S (en) 1990-06-28 1993-05-04 Willis John E Wristband
USD351558S (en) 1991-11-06 1994-10-18 Junho Moon Wrist watch
US6400996B1 (en) * 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
USD355132S (en) 1992-02-28 1995-02-07 Kenneth Williams Combined sweatband and watch
USD347589S (en) 1992-03-12 1994-06-07 Labate Joseph A Wrist band and mounting for a tape measure
US5418760A (en) 1992-08-18 1995-05-23 Casio Computer Co., Ltd. Electronic devices with a liquid crystal display
USD356960S (en) 1993-02-03 1995-04-04 Societe Nouvelle Chaumet S.A. Watch with band portions
US5361169A (en) 1993-04-29 1994-11-01 Deal Jerry L Diver's mirror
USD365550S (en) 1993-05-17 1995-12-26 Timex Corporation Personal digital assistant to be worn on a wrist
USD366036S (en) 1993-05-28 1996-01-09 Timex Corporation Personal digital assistant to be worn on a wrist
USD386696S (en) 1995-02-16 1997-11-25 Christophe Walch Multipiece plastic wristwatch
US5832296A (en) 1995-04-26 1998-11-03 Interval Research Corp. Wearable context sensitive user interface for interacting with plurality of electronic devices of interest to the user
USD372878S (en) 1995-05-09 1996-08-20 Danny Finnegan Workman's magnetic wrist band for holding small metal objects
JPH0985983A (ja) 1995-09-21 1997-03-31 Canon Inc プリンタ制御装置
USD383985S (en) 1995-12-22 1997-09-23 Doris Davenport Combination watch and pager
US6047301A (en) 1996-05-24 2000-04-04 International Business Machines Corporation Wearable computer
USD384661S (en) 1996-08-28 1997-10-07 Garmin Corporation Portable handheld combination GPS and communication transceiver
JP3321053B2 (ja) * 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
US20040210479A1 (en) 1996-10-25 2004-10-21 Ipf, Inc. Internet-based brand marketing communication instrumentation network for deploying, installing and remotely programming brand-building server-side driven multi-mode virtual kiosks on the World Wide Web (WWW), and methods of brand marketing communication between brand marketers and consumers using the same
US6285757B1 (en) 1997-11-07 2001-09-04 Via, Inc. Interactive devices and methods
USD410854S (en) 1997-12-11 1999-06-15 Imus Co., Ltd. Wrist watch
US5915580A (en) 1997-12-24 1999-06-29 Outer Circle Products, Ltd. Container covering
USD401515S (en) 1998-01-23 1998-11-24 Yacov Yida Watch
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
USD404317S (en) 1998-02-05 1999-01-19 Bernice M Cameron Bottle mounted timer
JP2000050133A (ja) 1998-02-10 2000-02-18 Asulab Sa 低電力消費の携帯用物体、特にカメラおよび無線デ―タ伝送手段を含む時計
US6031525A (en) 1998-04-01 2000-02-29 New York University Method and apparatus for writing
JPH11298362A (ja) * 1998-04-06 1999-10-29 Sony Corp 小型携帯端末
USD416814S (en) 1998-05-15 1999-11-23 Nancy Lynn Welsh Ring having a time piece mounted within its central finger opening
US6573883B1 (en) 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US7854684B1 (en) 1998-06-24 2010-12-21 Samsung Electronics Co., Ltd. Wearable device
JP3627531B2 (ja) * 1998-09-30 2005-03-09 セイコーエプソン株式会社 情報処理装置
EP1127303A2 (en) 1998-10-28 2001-08-29 ViA, Inc. Flexible user interface device and method
JP3988102B2 (ja) 1998-11-06 2007-10-10 富士フイルム株式会社 腕装着型カメラ
USD413817S (en) 1998-12-18 1999-09-14 Casio Keisanki Kabushiki Kaisha Watch case with global positioning system
US7225229B1 (en) 1998-12-18 2007-05-29 Tangis Corporation Automated pushing of computer user's context data to clients
USD422223S (en) 1998-12-22 2000-04-04 Gucci Timepieces Sa Wristwatch
US20040209657A1 (en) 1999-01-04 2004-10-21 Yoram Ghassabian Wrist-mounted telephone device
JP2000267797A (ja) 1999-03-15 2000-09-29 Seiko Epson Corp 情報処理装置
US7293231B1 (en) 1999-03-18 2007-11-06 British Columbia Ltd. Data entry for personal computing devices
GB2350523B (en) 1999-05-26 2003-11-26 Nokia Mobile Phones Ltd Communication device
US6359837B1 (en) 1999-06-30 2002-03-19 Casio Computer Co., Ltd. Camera, camera system, information recording system, timepiece, and link system for camera and timepiece
DE69930737T2 (de) 1999-08-25 2007-01-04 Swatch Ag Uhr mit berührungsloser Steuervorrichtung für eine Computer-Maus
USD433949S (en) 1999-10-04 2000-11-21 Chanel, Inc. Wrist watch case
US6424743B1 (en) 1999-11-05 2002-07-23 Motorola, Inc. Graphical handwriting recognition user interface
JP2001167054A (ja) 1999-12-09 2001-06-22 Casio Comput Co Ltd 携帯情報機器、認証装置及び認証システム
USD434675S (en) 1999-12-13 2000-12-05 Casio Keisanki Kabushiki Kaisha Watch case with global positioning system
JP2001251542A (ja) 1999-12-28 2001-09-14 Casio Comput Co Ltd 携帯型撮像機器
JP2005174356A (ja) 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
GB2365676B (en) 2000-02-18 2004-06-23 Sensei Ltd Mobile telephone with improved man-machine interface
GB0004688D0 (en) 2000-02-28 2000-04-19 Radley Smith Philip J Bracelet
US6597345B2 (en) 2000-03-03 2003-07-22 Jetway Technologies Ltd. Multifunctional keypad on touch screen
JP2001344039A (ja) * 2000-03-31 2001-12-14 Seiko Epson Corp 情報処理装置、情報処理装置の制御方法および情報処理装置の制御プログラム
USD453005S1 (en) 2000-04-26 2002-01-22 Dinh Van Wrist-watch
JP4042340B2 (ja) * 2000-05-17 2008-02-06 カシオ計算機株式会社 情報機器
JP2001344352A (ja) 2000-05-31 2001-12-14 Toshiba Corp 生活支援装置および生活支援方法および広告情報提供方法
USD455356S1 (en) 2000-06-19 2002-04-09 Rainer Saffer Watch
DE60138519D1 (de) 2000-06-21 2009-06-10 Seiko Epson Corp Mobiltelefon und funkkommunikationsgerät zur gemeinsamen verarbeitung eines ankommenden anrufes
US7477890B1 (en) 2000-06-30 2009-01-13 International Business Machines Corporation Demand pull—multichannel asynchronous data and application synchronization for pervasive devices
US7081905B1 (en) 2000-06-30 2006-07-25 International Business Machines Corporation Method and apparatus for dynamically controlling scroller speed employed for a user interface of a wearable appliance
US6477117B1 (en) 2000-06-30 2002-11-05 International Business Machines Corporation Alarm interface for a smart watch
JP3785902B2 (ja) 2000-07-11 2006-06-14 インターナショナル・ビジネス・マシーンズ・コーポレーション デバイス、デバイスの制御方法、ポインタの移動方法
JP2002099476A (ja) 2000-09-26 2002-04-05 Sanyo Electric Co Ltd ソフトウェア配信方法、ソフトウェア配信装置、およびこれらを利用可能なユーザ端末
USD463296S1 (en) 2000-10-23 2002-09-24 Eseoghene Esther Sanomi Wrist radius watch
JP3948260B2 (ja) 2000-11-22 2007-07-25 松下電器産業株式会社 テキスト入力方法及びその装置
JP2002257955A (ja) 2000-12-25 2002-09-11 Seiko Epson Corp 通信機能付腕時計装置、情報表示方法、制御プログラム及び記録媒体
JP3613177B2 (ja) 2000-12-26 2005-01-26 インターナショナル・ビジネス・マシーンズ・コーポレーション 入力対象選択装置及び方法
USD460430S1 (en) 2000-12-28 2002-07-16 Seiko Instruments Inc. Mobile phone
US20020135615A1 (en) 2001-01-31 2002-09-26 Microsoft Corporation Overlaid display for electronic devices
US20020101457A1 (en) 2001-01-31 2002-08-01 Microsoft Corporation Bezel interface for small computing devices
TW591353B (en) 2001-02-23 2004-06-11 Asulab Sa Portable object including means for activating an electronic function and method for controlling such an electronic function
US6744427B2 (en) 2001-03-01 2004-06-01 International Business Machines Corporation Character input interface for compact electronic devices
JP2002259347A (ja) 2001-03-02 2002-09-13 Seiko Epson Corp 腕時計型情報処理装置、画面表示方法、プログラムおよび記録媒体
US6937135B2 (en) 2001-05-30 2005-08-30 Hewlett-Packard Development Company, L.P. Face and environment sensing watch
JP2003018923A (ja) 2001-07-09 2003-01-21 Onga Eng:Kk ハウス開閉装置
US6774796B2 (en) 2001-08-01 2004-08-10 Motorola, Inc. Master authenticator
EP1282018A1 (en) 2001-08-03 2003-02-05 Nokia Corporation A wearable electronic device
USD459352S1 (en) 2001-08-10 2002-06-25 Michael C. Giovanniello Wireless mouse wristband
US20130080143A1 (en) 2011-09-27 2013-03-28 Paul E. Reeves Unified desktop docking behavior with device as master
US20030046228A1 (en) 2001-08-28 2003-03-06 Jean-Marc Berney User-wearable functional jewelry with biometrics and smartcard to remotely sign and/or authenticate to e-services
US7634403B2 (en) 2001-09-05 2009-12-15 Voice Signal Technologies, Inc. Word recognition using word transformation commands
JP2003131785A (ja) 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
US6990662B2 (en) 2001-10-31 2006-01-24 Hewlett-Packard Development Company, L.P. Method and system for offloading execution and resources for resource-constrained networked devices
US6744423B2 (en) 2001-11-19 2004-06-01 Nokia Corporation Communication terminal having a predictive character editor application
US8176432B2 (en) 2001-11-20 2012-05-08 UEI Electronics Inc. Hand held remote control device having an improved user interface
US7091964B2 (en) 2001-11-30 2006-08-15 Palm, Inc. Electronic device with bezel feature for receiving input
TWI258647B (en) 2001-12-27 2006-07-21 Asulab Sa Control method for executing functions in a diary watch
GB0201074D0 (en) 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
GB2384395A (en) 2002-01-19 2003-07-23 Hewlett Packard Co Personal article capable of receiving specified items or data
US7111788B2 (en) 2002-04-22 2006-09-26 Nokia Corporation System and method for navigating applications using a graphical user interface
WO2003096669A2 (en) 2002-05-10 2003-11-20 Reisman Richard R Method and apparatus for browsing using multiple coordinated device
US8001488B1 (en) 2002-05-31 2011-08-16 Hewlett-Packard Development Company, L.P. User interface dial with display
JP2004021893A (ja) 2002-06-20 2004-01-22 Sony Corp 携帯情報通信端末、プログラムおよび該プログラムを記録した記録媒体
US9886309B2 (en) 2002-06-28 2018-02-06 Microsoft Technology Licensing, Llc Identity-based distributed computing for device resources
JP4251266B2 (ja) 2002-07-25 2009-04-08 ソニー株式会社 情報処理装置および方法、プログラム格納媒体、並びにプログラム
US6968508B2 (en) 2002-07-30 2005-11-22 Motorola, Inc. Rotating user interface
JP2004072450A (ja) 2002-08-07 2004-03-04 Casio Comput Co Ltd 電子カメラ
US7386855B2 (en) 2002-08-12 2008-06-10 Ntt Docomo, Inc. Application mobility service
USD474982S1 (en) 2002-08-15 2003-05-27 Nike, Inc. Portion of a watch
US7036007B2 (en) 2002-09-09 2006-04-25 Intel Corporation Firmware architecture supporting safe updates and multiple processor types
JP2004184396A (ja) * 2002-10-09 2004-07-02 Seiko Epson Corp 表示装置、時計、表示装置の制御方法、制御プログラムおよび記録媒体
JP2004178584A (ja) 2002-11-26 2004-06-24 Asulab Sa 機能、装置、又は所定の場所にアクセスするためのタッチスクリーンによるセキュリティコードの入力方法、及びその方法を実行するためのデバイス
US7199786B2 (en) 2002-11-29 2007-04-03 Daniel Suraqui Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system
US20040130581A1 (en) 2003-01-03 2004-07-08 Microsoft Corporation Interaction model
JP2004259063A (ja) 2003-02-26 2004-09-16 Sony Corp 3次元オブジェクトの表示処理装置、表示処理方法およびコンピュータプログラム
JP2004288172A (ja) 2003-03-04 2004-10-14 Sony Corp 入力装置、情報端末装置およびモード切替方法
US7096048B2 (en) 2003-04-01 2006-08-22 Sanders Donald T Portable communications device
KR100617681B1 (ko) 2003-04-15 2006-08-28 삼성전자주식회사 휴대용 단말기의 회전키 장치 사용 방법
US7385361B2 (en) 2003-05-14 2008-06-10 Matsushita Electric Industrial Co., Ltd. Ballast for high-pressure discharge lamp and method of operating the same
US20040261031A1 (en) 2003-06-23 2004-12-23 Nokia Corporation Context dependent auxiliary menu elements
US7567239B2 (en) 2003-06-26 2009-07-28 Motorola, Inc. Method and system for message and note composition on small screen devices
KR100590528B1 (ko) 2003-06-28 2006-06-15 삼성전자주식회사 착용형 손가락 움직임 감지장치 및 이를 이용한 손가락의움직임 감지방법
US20050001821A1 (en) 2003-07-02 2005-01-06 Low Tse How Option selector and electronic device including such an option selector
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US7478390B2 (en) 2003-09-25 2009-01-13 International Business Machines Corporation Task queue management of virtual devices using a plurality of processors
WO2005057174A2 (en) 2003-12-08 2005-06-23 Rosenthal Robert D Method and apparatus for low blood glucose level detection
KR100571428B1 (ko) 2003-12-24 2006-04-17 한국전자통신연구원 착용형 인터페이스 장치
WO2005065404A2 (en) 2003-12-31 2005-07-21 James Marin Rotating bezel watch
US7872669B2 (en) 2004-01-22 2011-01-18 Massachusetts Institute Of Technology Photo-based mobile deixis system and related techniques
USD517929S1 (en) 2004-02-13 2006-03-28 Cartier International B.V. Watch
US7398151B1 (en) 2004-02-25 2008-07-08 Garmin Ltd. Wearable electronic device
US7618260B2 (en) 2004-02-27 2009-11-17 Daniel Simon R Wearable modular interface strap
JP2005244676A (ja) 2004-02-27 2005-09-08 Dowango:Kk リモコンシステム
GB2411337B (en) * 2004-02-27 2006-12-06 Simon Richard Daniel Modular interface strap for multi-unit wristband and necklace assemblies
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US7173604B2 (en) 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
KR100853605B1 (ko) 2004-03-23 2008-08-22 후지쯔 가부시끼가이샤 핸드헬드 장치에서의 경사 및 평행 이동 운동 성분들의구별
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
TWI370979B (en) 2004-05-14 2012-08-21 Ibm Grid computing system, information processing unit, job execution request generation unit, control method, program, and recording medium
US7404146B2 (en) 2004-05-27 2008-07-22 Agere Systems Inc. Input device for portable handset
JP4379214B2 (ja) 2004-06-10 2009-12-09 日本電気株式会社 携帯端末装置
US7840681B2 (en) 2004-07-30 2010-11-23 International Business Machines Corporation Method and apparatus for integrating wearable devices within a SIP infrastructure
US20060253010A1 (en) 2004-09-28 2006-11-09 Donald Brady Monitoring device, method and system
USD519858S1 (en) 2004-10-06 2006-05-02 Giochi Preziosi S.P.A. Watch
US20060092177A1 (en) 2004-10-30 2006-05-04 Gabor Blasko Input method and apparatus using tactile guidance and bi-directional segmented stroke
USD526973S1 (en) 2004-11-17 2006-08-22 Xirrus, Inc. Electronic device housing
US7667657B2 (en) 2004-11-30 2010-02-23 Konica Minolta Holdings, Inc. Information processing apparatus
TWM277958U (en) 2004-12-31 2005-10-11 Ind Tech Res Inst An flexible displaying device for electronic information includes a device housing
US20060149652A1 (en) 2005-01-06 2006-07-06 Fellenstein Craig W Receiving bid requests and pricing bid responses for potential grid job submissions within a grid environment
US20060197835A1 (en) 2005-03-04 2006-09-07 Anderson Robert C Wrist-attached display system for unmanned vehicle imagery and communication
USD526912S1 (en) 2005-03-22 2006-08-22 Rolex Watch U.S.A., Inc. Watch frame
JP2006279137A (ja) 2005-03-28 2006-10-12 Sharp Corp リモコンシステム
US20060224766A1 (en) 2005-03-31 2006-10-05 Malackowski Donald W Operating room communication bus and method
US20060288233A1 (en) 2005-04-25 2006-12-21 Douglas Kozlay Attachable biometric authentication apparatus for watchbands and other personal items
ITUD20050074A1 (it) 2005-05-11 2006-11-12 Eurotech S P A Dispositivo di risparmio energetico per un'apparecchiatura elettronica portatile
US9606634B2 (en) 2005-05-18 2017-03-28 Nokia Technologies Oy Device incorporating improved text input mechanism
US8117540B2 (en) 2005-05-18 2012-02-14 Neuer Wall Treuhand Gmbh Method and device incorporating improved text input mechanism
US20060271867A1 (en) 2005-05-27 2006-11-30 Wang Kong Q Mobile communications terminal and method therefore
EA200800069A1 (ru) 2005-06-16 2008-06-30 Фируз Гассабиан Система ввода данных
US7487467B1 (en) 2005-06-23 2009-02-03 Sun Microsystems, Inc. Visual representation and other effects for application management on a device with a small screen
US20070004969A1 (en) * 2005-06-29 2007-01-04 Microsoft Corporation Health monitor
JP2007014471A (ja) 2005-07-06 2007-01-25 Sumitomo Precision Prod Co Ltd 無線センサ端末
USD550105S1 (en) 2005-07-18 2007-09-04 Garmin Ltd. GPS exercise monitoring device
KR100814395B1 (ko) 2005-08-30 2008-03-18 삼성전자주식회사 조그 키와 사방향 키를 이용한 사용자 인터페이스 제어장치 및 그 방법
JP2007064758A (ja) 2005-08-30 2007-03-15 Sony Corp 携帯型電子機器、表示制御プログラム、表示制御方法、時計装置
JP4676303B2 (ja) * 2005-10-18 2011-04-27 株式会社日立製作所 端末装置
US20070100244A1 (en) 2005-10-31 2007-05-03 Chin-Shu Lin Wrist-worn monitor for heartbeat detection
US7454841B2 (en) 2005-11-01 2008-11-25 Hunter Engineering Company Method and apparatus for wheel alignment system target projection and illumination
USD547212S1 (en) 2005-11-10 2007-07-24 Dias M Carlos Wrist watch
KR100761262B1 (ko) 2005-12-28 2007-09-28 엘지전자 주식회사 이동통신단말기의 문자입력 장치
KR100928913B1 (ko) 2005-12-28 2009-11-30 파나소닉 전공 주식회사 네트워크 기기 시스템
RU2319997C2 (ru) 2005-12-30 2008-03-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Электронное устройство для выполнения запрограммированных функций (варианты) и способ ввода команд в подобном устройстве
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
USD537409S1 (en) 2006-01-10 2007-02-27 Sony Corporation Combined charger and infrared ray emitter
JP5220278B2 (ja) 2006-01-27 2013-06-26 任天堂株式会社 ゲーム装置および手書き入力プログラム
USD537371S1 (en) 2006-02-03 2007-02-27 Bell & Ross B.V. Watch
USD529402S1 (en) 2006-02-13 2006-10-03 Nike, Inc. Portion of a watch
USD528928S1 (en) 2006-02-14 2006-09-26 Nike, Inc. Portion of a watch
US8730156B2 (en) 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
KR100754674B1 (ko) 2006-03-10 2007-09-03 삼성전자주식회사 휴대 단말의 메뉴 선택 방법 및 장치
USD537738S1 (en) 2006-03-17 2007-03-06 Citizen Tokei Kabushiki Kaisha Wrist watch case with band
EP1998666B1 (en) 2006-03-21 2014-01-01 Koninklijke Philips N.V. Indication of the condition of a user
USD545305S1 (en) 2006-03-22 2007-06-26 Mulcahy Michael R Personal data assistant, particularly for the visually impaired
JP4516042B2 (ja) 2006-03-27 2010-08-04 株式会社東芝 機器操作装置および機器操作方法
USD574734S1 (en) 2006-03-28 2008-08-12 The British Masters Sa Wristwatch
US9395905B2 (en) 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
GB2437592A (en) 2006-04-10 2007-10-31 Skype Ltd Indicating communication events on an alternative interface whilst running an application on another interface
US8654868B2 (en) 2006-04-18 2014-02-18 Qualcomm Incorporated Offloaded processing for wireless applications
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US7382691B2 (en) 2006-04-21 2008-06-03 Nixon, Inc. Multifunction watch system and method
USD543122S1 (en) 2006-05-10 2007-05-22 Ronald Lafever Combined flexible band and clip-on watch
US7539532B2 (en) * 2006-05-12 2009-05-26 Bao Tran Cuffless blood pressure monitoring appliance
US7558622B2 (en) 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
USD568175S1 (en) 2006-05-19 2008-05-06 Lorenz S.P.A. Wrist watch
EP1860534A1 (en) 2006-05-22 2007-11-28 LG Electronics Inc. Mobile terminal and menu display method thereof
WO2007139770A2 (en) 2006-05-22 2007-12-06 Nike, Inc. User interface for remotely controlling a digital music player
USD554636S1 (en) 2006-06-27 2007-11-06 Qualcomm Incorporated Media display unit
US20080018591A1 (en) 2006-07-20 2008-01-24 Arkady Pittel User Interfacing
USD558208S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
USD558209S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
USD558207S1 (en) 2006-07-28 2007-12-25 Microsoft Corporation Docking station
US8511890B2 (en) 2006-08-27 2013-08-20 Nike, Inc. Rocking bezel control
USD602858S1 (en) 2006-09-06 2009-10-27 Amx Llc Remote control charging base
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US8243017B2 (en) 2006-09-11 2012-08-14 Apple Inc. Menu overlay including context dependent menu icon
USD550614S1 (en) 2006-09-22 2007-09-11 10Charge, Inc. Battery charger
JP2008089039A (ja) 2006-09-29 2008-04-17 Jtekt Corp 円すいころ軸受及びディファレンシャル装置
US7714839B2 (en) 2006-09-29 2010-05-11 Sony Ericsson Mobile Communications Ab Jog dial for mobile terminal
US7463557B2 (en) 2006-10-06 2008-12-09 Timex Group B.V. Electronic device with changeable display configurations
WO2008045690A2 (en) 2006-10-06 2008-04-17 Veveo, Inc. Linear character selection display interface for ambiguous text input
US7667148B2 (en) 2006-10-13 2010-02-23 Apple Inc. Method, device, and graphical user interface for dialing with a click wheel
US8355709B2 (en) 2006-10-23 2013-01-15 Qualcomm Incorporated Device that determines whether to launch an application locally or remotely as a webapp
USD575289S1 (en) 2006-12-11 2008-08-19 Hon Hai Precision Ind. Co., Ltd. Dock connector
USD545697S1 (en) 2007-01-10 2007-07-03 Nike, Inc. Portion of a watch
KR100896055B1 (ko) 2007-01-15 2009-05-07 엘지전자 주식회사 회전입력장치 구비 이동단말기 및 그 디스플레이 방법
US8311530B2 (en) 2007-01-26 2012-11-13 Research In Motion Limited Touch entry of password on a mobile device
US7966039B2 (en) 2007-02-02 2011-06-21 Microsoft Corporation Bidirectional dynamic offloading of tasks between a host and a mobile device
US8789053B2 (en) 2007-04-05 2014-07-22 Newton Howard Task execution and delegation by autonomous mobile agents based on intent knowledge base
CN101675652A (zh) 2007-04-26 2010-03-17 诺基亚公司 在移动通信终端中用于不同模式之间切换的改进的方法和装置
USD590727S1 (en) 2007-04-27 2009-04-21 New Heritage Ltd. Watch case
USD590277S1 (en) 2007-04-27 2009-04-14 New Heritage Ltd. Watch case
CN101689244B (zh) 2007-05-04 2015-07-22 高通股份有限公司 用于紧凑设备的基于相机的用户输入
USD604643S1 (en) 2007-05-16 2009-11-24 Suunto Oy Multi-function wristwatch
US8442015B2 (en) 2007-07-20 2013-05-14 Broadcom Corporation Method and system for an atomizing function of a mobile device
JP2009005320A (ja) 2007-06-21 2009-01-08 Rumiko Aso 腕時計型携帯電話
US10178965B2 (en) 2007-06-22 2019-01-15 Ipventure, Inc. Activity monitoring system for pregnant women
KR101515089B1 (ko) 2007-08-16 2015-04-24 삼성전자 주식회사 그래픽 사용자 인터페이스 제공 장치 및 방법
US8676273B1 (en) 2007-08-24 2014-03-18 Iwao Fujisaki Communication device
US8593404B2 (en) 2007-08-27 2013-11-26 Blackberry Limited Reduced key arrangement for a mobile communication device
US7778118B2 (en) 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
ES1066912Y (es) 2007-09-13 2008-07-01 Fagor S Coop Dispositivo de control remoto para aparatos electrodomesticos
JP5184018B2 (ja) 2007-09-14 2013-04-17 京セラ株式会社 電子機器
JP4960812B2 (ja) 2007-09-14 2012-06-27 株式会社リコー 画像処理装置、負荷分散システム及び負荷分散プログラム
WO2009042392A2 (en) 2007-09-24 2009-04-02 Apple Inc. Embedded authentication systems in an electronic device
JP2009081309A (ja) 2007-09-26 2009-04-16 Fujifilm Corp 有機半導体組成物、及びそれを用いた有機電子デバイス
KR100949581B1 (ko) 2007-10-08 2010-03-25 주식회사 자코드 통신단말기의 문자/숫자 입력장치 및 입력방법
US8031172B2 (en) 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
US8639214B1 (en) 2007-10-26 2014-01-28 Iwao Fujisaki Communication device
US20090134838A1 (en) 2007-11-27 2009-05-28 Puthalath Koroth Raghuprasad Circular self-powered magnetic generator
USD564367S1 (en) 2007-11-30 2008-03-18 Nike, Inc. Watch
US7946758B2 (en) 2008-01-31 2011-05-24 WIMM Labs Modular movement that is fully functional standalone and interchangeable in other portable devices
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9398046B2 (en) 2008-03-06 2016-07-19 Qualcomm Incorporated Image-based man-in-the-middle protection in numeric comparison association models
US20090234967A1 (en) 2008-03-17 2009-09-17 Nokia Corporation Method, system, and apparatus for transferring P2P file distribution tasks between devices
USD585898S1 (en) 2008-04-01 2009-02-03 Sdi Technologies, Inc. Base unit for digital media player
US8949743B2 (en) 2008-04-22 2015-02-03 Apple Inc. Language input interface on a device
EP2279504A4 (en) 2008-05-08 2013-12-18 Robert P Stratton REMOTE CONTROL SYSTEM AND METHOD
US20090280861A1 (en) 2008-05-09 2009-11-12 Ashana Sabana Nisha Khan Multifunctional all-in-one detachable wrist wireless mobile communication device
US8638229B2 (en) 2008-05-29 2014-01-28 Garmin Switzerland Gmbh Swim watch
US8295879B2 (en) 2008-05-30 2012-10-23 Motorola Mobility Llc Devices and methods for initiating functions based on movement characteristics relative to a reference
DE102008027746A1 (de) 2008-06-11 2009-12-17 Kirner, Markus A. Armbanduhranordnung mit Mobiltelefon
JP2009301485A (ja) 2008-06-17 2009-12-24 Olympus Corp 情報表示システムおよびそれを用いた携帯情報端末
US8112526B2 (en) 2008-06-24 2012-02-07 International Business Machines Corporation Process migration based on service availability in a multi-node environment
US20100020033A1 (en) 2008-07-23 2010-01-28 Obinna Ihenacho Alozie Nwosu System, method and computer program product for a virtual keyboard
KR101546774B1 (ko) 2008-07-29 2015-08-24 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
US20100039393A1 (en) 2008-08-15 2010-02-18 At&T Intellectual Property I, L.P. Text entry on touch screen cellphones by different pressure levels
JP4899108B2 (ja) 2008-08-24 2012-03-21 照彦 矢上 腕時計型電子メモ装置
US8319742B2 (en) 2008-08-26 2012-11-27 Research In Motion Limited Portable electronic device and method of controlling same
KR20100028465A (ko) 2008-09-04 2010-03-12 백상주 포인터의 드래그 방향에 따른 문자 또는 메뉴입력 방법
US20100070913A1 (en) 2008-09-15 2010-03-18 Apple Inc. Selecting an item of content in a graphical user interface for a portable computing device
US20100082485A1 (en) 2008-09-30 2010-04-01 Apple Inc. Portable point of purchase devices and methods
US9026462B2 (en) 2008-09-30 2015-05-05 Apple Inc. Portable point of purchase user interfaces
KR101537596B1 (ko) 2008-10-15 2015-07-20 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
US8335993B1 (en) 2008-10-24 2012-12-18 Marvell International Ltd. Enhanced touch sensitive interface and methods and software for making and using the same
JP4506890B2 (ja) 2008-10-28 2010-07-21 トヨタ自動車株式会社 歩行補助装置
USD596610S1 (en) 2008-11-07 2009-07-21 Cheng Uei Precision Industry Co., Ltd. Wrist type mobile phone
US9201582B2 (en) 2008-11-11 2015-12-01 Canon Kabushiki Kaisha Display control apparatus and display control method
US8503932B2 (en) 2008-11-14 2013-08-06 Sony Mobile Comminications AB Portable communication device and remote motion input device
JP5343523B2 (ja) 2008-11-17 2013-11-13 富士通株式会社 ジョブ管理装置、ジョブ管理方法およびジョブ管理プログラム
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
US9355554B2 (en) 2008-11-21 2016-05-31 Lenovo (Singapore) Pte. Ltd. System and method for identifying media and providing additional media content
US8289162B2 (en) 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
AU326155S (en) 2008-12-22 2009-06-01 Swarovski Aktiengesselschaft Wrist watch
US9591118B2 (en) 2009-01-01 2017-03-07 Intel Corporation Pose to device mapping
USD596509S1 (en) 2009-01-08 2009-07-21 Seiko Watch Kabushiki Kaisha Watch case
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8326221B2 (en) 2009-02-09 2012-12-04 Apple Inc. Portable electronic device with proximity-based content synchronization
EP2220997A1 (en) 2009-02-24 2010-08-25 Koninklijke Philips Electronics N.V. Device, system and method for monitoring motion sequences
US8098141B2 (en) 2009-02-27 2012-01-17 Nokia Corporation Touch sensitive wearable band apparatus and method
USD596959S1 (en) 2009-03-05 2009-07-28 Zino Davidoff Trading Ag Watch case
CA131721S (fr) 2009-03-06 2010-03-25 Rado Uhren Ag Montre
US20100245078A1 (en) 2009-03-26 2010-09-30 Wellcore Corporation Wearable Motion Sensing Device
US20100250789A1 (en) 2009-03-27 2010-09-30 Qualcomm Incorporated System and method of managing memory at a portable computing device and a portable computing device docking station
US9189472B2 (en) 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
JP5325641B2 (ja) 2009-04-08 2013-10-23 Jx日鉱日石エネルギー株式会社 間接内部改質型固体酸化物形燃料電池の停止方法
EP2425303B1 (en) 2009-04-26 2019-01-16 NIKE Innovate C.V. Gps features and functionality in an athletic watch system
DE112010001796T5 (de) 2009-04-28 2012-08-09 Mitsubishi Electric Corporation Eingabevorrichtung
JP5263833B2 (ja) 2009-05-18 2013-08-14 国立大学法人 奈良先端科学技術大学院大学 ウェアラブルコンピュータに用いるリング型インタフェース、インタフェース装置、およびインタフェース方法
EP2256592A1 (en) 2009-05-18 2010-12-01 Lg Electronics Inc. Touchless control of an electronic device
US8287320B2 (en) 2009-05-22 2012-10-16 John Mezzalingua Associates, Inc. Coaxial cable connector having electrical continuity member
US8294105B2 (en) 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
USD626551S1 (en) 2009-05-26 2010-11-02 Implanet Combined PDA device and base station
JP5282661B2 (ja) 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
USD615955S1 (en) 2009-05-26 2010-05-18 Samsung Electronics Co., Ltd. Mobile phone
CN102227616B (zh) 2009-05-27 2015-04-15 松下电器产业株式会社 行为识别装置
US20100304673A1 (en) 2009-05-29 2010-12-02 Junichi Yoshizawa Wireless Communication Apparatus and Wireless Communication Method
US9239740B2 (en) 2009-06-16 2016-01-19 Microsoft Technology Licensing, Llc Program partitioning across client and cloud
US8560465B2 (en) 2009-07-02 2013-10-15 Samsung Electronics Co., Ltd Execution allocation cost assessment for computing systems and environments including elastic computing systems and environments
CH701440A2 (fr) 2009-07-03 2011-01-14 Comme Le Temps Sa Montre-bracelet à écran tactile et procédé d'affichage sur une montre à écran tactile.
US9189156B2 (en) 2009-07-14 2015-11-17 Howard Gutowitz Keyboard comprising swipe-switches performing keyboard actions
US8818274B2 (en) 2009-07-17 2014-08-26 Qualcomm Incorporated Automatic interfacing between a master device and object device
US9439736B2 (en) * 2009-07-22 2016-09-13 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for controlling a remote medical device guidance system in three-dimensions using gestures
US9024865B2 (en) 2009-07-23 2015-05-05 Qualcomm Incorporated Method and apparatus for controlling mobile and consumer electronic devices
US8245234B2 (en) 2009-08-10 2012-08-14 Avaya Inc. Credit scheduler for ordering the execution of tasks
USD612269S1 (en) 2009-08-13 2010-03-23 P.S.L. Limited Slap-on watch
JP5254906B2 (ja) 2009-08-27 2013-08-07 京セラ株式会社 電子機器
US8060560B2 (en) 2009-08-27 2011-11-15 Net Power And Light, Inc. System and method for pervasive computing
US8572375B2 (en) 2009-09-23 2013-10-29 Microsoft Corporation Device pairing based on graphically encoded data
US8717291B2 (en) 2009-10-07 2014-05-06 AFA Micro Co. Motion sensitive gesture device
GB2483168B (en) 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
US8279052B2 (en) 2009-11-04 2012-10-02 Immersion Corporation Systems and methods for haptic confirmation of commands
CN102713794A (zh) 2009-11-24 2012-10-03 奈克斯特控股公司 用于手势识别模式控制的方法和装置
USD627718S1 (en) 2009-12-11 2010-11-23 Black & Decker Inc. Charger base for a hand-held vacuum cleaner
KR20110069958A (ko) 2009-12-18 2011-06-24 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 데이터 생성 방법 및 장치
CA135976S (en) 2009-12-23 2011-11-24 Simone Dalla Libera Watch
US9229779B2 (en) 2009-12-28 2016-01-05 Empire Technology Development Llc Parallelizing heterogeneous network communications in smart devices based on selection of task allocation strategy
KR101626621B1 (ko) 2009-12-30 2016-06-01 엘지전자 주식회사 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기
US20120256959A1 (en) 2009-12-30 2012-10-11 Cywee Group Limited Method of controlling mobile device with touch-sensitive display and motion sensor, and mobile device
KR101697937B1 (ko) 2010-01-08 2017-02-01 삼성전자주식회사 멀티프로세서 시스템에서 동적 태스크 마이그레이션을 위한 방법 및 시스템
CN101815326B (zh) 2010-01-11 2011-06-15 北京邮电大学 基于协商的无线传感器网络任务分配方法
WO2011096702A2 (ko) 2010-02-03 2011-08-11 고려대학교 산학협력단 문자 입력 장치 및 방법
US8869263B2 (en) 2010-02-26 2014-10-21 Blackberry Limited Wireless communications system providing mobile device authentication bypass based upon user-wearable security device and related methods
US20120194551A1 (en) 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with user-action based command and control of external devices
US20110219427A1 (en) 2010-03-04 2011-09-08 RSSBus, Inc. Smart Device User Authentication
KR101477530B1 (ko) 2010-03-12 2014-12-30 뉘앙스 커뮤니케이션즈, 인코포레이티드 이동 전화의 터치 스크린과 함께 사용하기 위한 다중 모드 문자 입력 시스템
KR101659023B1 (ko) 2010-03-15 2016-09-23 엘지전자 주식회사 와치형 이동 단말기
US8370878B2 (en) 2010-03-17 2013-02-05 Verizon Patent And Licensing Inc. Mobile interface for accessing interactive television applications associated with displayed content
CH702862A1 (fr) 2010-03-30 2011-09-30 Comme Le Temps Sa Montre bracelet à affichage électronique.
US9811385B2 (en) 2010-04-28 2017-11-07 Wind River Systems, Inc. Optimizing task management
JP5681865B2 (ja) 2010-05-10 2015-03-11 レノボ・イノベーションズ・リミテッド(香港) ユーザーインターフェース装置
US8683377B2 (en) 2010-05-12 2014-03-25 Adobe Systems Incorporated Method for dynamically modifying zoom level to facilitate navigation on a graphical user interface
US20130057774A1 (en) 2010-05-19 2013-03-07 Sharp Kabushiki Kaisha Reproduction device, display device, television receiver, system, recognition method, program, and recording medium
US20110289519A1 (en) 2010-05-21 2011-11-24 Frost Gary R Distributing workloads in a computing platform
US9026074B2 (en) 2010-06-04 2015-05-05 Qualcomm Incorporated Method and apparatus for wireless distributed computing
US8935317B2 (en) 2010-06-23 2015-01-13 Microsoft Corporation Dynamic partitioning of applications between clients and servers
USD631373S1 (en) 2010-06-29 2011-01-25 Worldwide Watch Company Limited Watch
WO2012009335A1 (en) 2010-07-14 2012-01-19 Dynavox Systems Llc A wearable speech generation device
US9532734B2 (en) 2010-08-09 2017-01-03 Nike, Inc. Monitoring fitness using a mobile device
JP5234066B2 (ja) 2010-08-25 2013-07-10 横河電機株式会社 機器情報表示装置及び機器情報表示方法
WO2012030653A2 (en) 2010-08-29 2012-03-08 Vascode Technologies Ltd. A system and methods for multi-tasking in a clientless mobile phone
US9007304B2 (en) 2010-09-02 2015-04-14 Qualcomm Incorporated Methods and apparatuses for gesture-based user input detection in a mobile device
WO2012033891A2 (en) 2010-09-08 2012-03-15 Martin Malek Electronic display wearable item
KR101219933B1 (ko) 2010-09-13 2013-01-08 현대자동차주식회사 증강현실을 이용한 차량 내 디바이스 제어 시스템 및 그 방법
US9122318B2 (en) 2010-09-15 2015-09-01 Jeffrey R. Spetalnick Methods of and systems for reducing keyboard data entry errors
USD645360S1 (en) 2010-09-17 2011-09-20 Simpel, LLC Slap band watch
USD669369S1 (en) 2010-09-20 2012-10-23 Daniel Rasumowsky Watch
US8595289B2 (en) 2010-09-21 2013-11-26 Telefonaktiebolaget L M Ericsson (Publ) Cloud phone with distributed processing
US20130165180A1 (en) 2010-09-27 2013-06-27 Adobe Systems Incorporated Integrating Operation Of Consumer Electronic Devices
US20120075204A1 (en) 2010-09-27 2012-03-29 Google Inc. Using a Touch-Sensitive Display of a Mobile Device with a Host Computer
JP2012073830A (ja) 2010-09-29 2012-04-12 Pioneer Electronic Corp インターフェース装置
US8345412B2 (en) 2010-10-01 2013-01-01 Hex Holdings, Llc Wrist band for portable electronic devices
US9462444B1 (en) 2010-10-04 2016-10-04 Nortek Security & Control Llc Cloud based collaborative mobile emergency call initiation and handling distribution system
US8506158B2 (en) 2010-10-12 2013-08-13 P.S.L. Limited Watch
AU334766S (en) 2010-10-13 2011-01-24 Swarovski Ag Case for a wristwatch
US20120096345A1 (en) 2010-10-19 2012-04-19 Google Inc. Resizing of gesture-created markings for different display sizes
US8635630B2 (en) 2010-10-25 2014-01-21 Microsoft Corporation Application lifetime management
US9086741B2 (en) 2010-10-29 2015-07-21 Microsoft Corporation User input device
JP2012098771A (ja) 2010-10-29 2012-05-24 Sony Corp 画像処理装置および方法、並びに、プログラム
US8814754B2 (en) 2010-11-01 2014-08-26 Nike, Inc. Wearable device having athletic functionality
US8184983B1 (en) 2010-11-12 2012-05-22 Google Inc. Wireless directional identification and subsequent communication between wearable electronic devices
USD640948S1 (en) 2010-11-15 2011-07-05 Hook-Link, LLC Magnetically hooking bracelet
JP2012108771A (ja) 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
US8195313B1 (en) 2010-11-19 2012-06-05 Nest Labs, Inc. Thermostat user interface
JP5733656B2 (ja) 2010-11-25 2015-06-10 公立大学法人会津大学 ジェスチャ認識装置及びジェスチャ認識方法
US9155168B2 (en) 2010-12-03 2015-10-06 Surefire, Llc Wearable lighting device
CN102572565A (zh) 2010-12-15 2012-07-11 深圳市同洲软件有限公司 一种移动终端控制数字电视接收终端方法、装置和系统
JP2014510425A (ja) 2010-12-30 2014-04-24 トムソン ライセンシング 表示されたコンテンツに関連する追加コンテンツを提供する方法とシステム
USD640936S1 (en) 2011-01-01 2011-07-05 Teresa Teixeia Combined watch and bracelet
USD636686S1 (en) 2011-01-04 2011-04-26 Nike, Inc. Watch
US9436286B2 (en) 2011-01-05 2016-09-06 Qualcomm Incorporated Method and apparatus for tracking orientation of a user
EP2474950B1 (en) 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
USD651099S1 (en) 2011-01-10 2011-12-27 Montblanc-Simplo Gmbh Watch case
KR101690117B1 (ko) 2011-01-19 2016-12-27 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 멀티모달 및 제스처 제어를 위한 방법 및 시스템
US20120209413A1 (en) 2011-02-14 2012-08-16 Microsoft Corporation Background Audio on Mobile Devices
US9645986B2 (en) 2011-02-24 2017-05-09 Google Inc. Method, medium, and system for creating an electronic book with an umbrella policy
USD678081S1 (en) 2011-03-14 2013-03-19 Montblanc-Simplo Gmbh Watchcase
WO2012124250A1 (ja) 2011-03-15 2012-09-20 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
US8655027B1 (en) 2011-03-25 2014-02-18 The United States of America, as represented by the Director, National Security Agency Method of image-based user authentication
JP5960796B2 (ja) 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
EP2691856A1 (en) 2011-03-31 2014-02-05 AOL Inc. Systems and methods for transferring application state between devices based on gestural input
WO2012135563A1 (en) 2011-03-31 2012-10-04 Sony Mobile Communications Ab System and method for establishing a communication session
US10061387B2 (en) * 2011-03-31 2018-08-28 Nokia Technologies Oy Method and apparatus for providing user interfaces
US8811964B2 (en) 2011-04-04 2014-08-19 Numera, Inc. Single button mobile telephone using server-based call routing
USD661206S1 (en) 2011-04-06 2012-06-05 Garmin Switzerland Gmbh Electronic device
USD659093S1 (en) 2011-04-08 2012-05-08 The Gillette Company Charger
KR101836403B1 (ko) 2011-04-12 2018-04-19 엘지전자 주식회사 디스플레이 장치의 리모콘 기능을 수행하는 이동 단말기
US9152373B2 (en) 2011-04-12 2015-10-06 Apple Inc. Gesture visualization and sharing between electronic devices and remote displays
US8928589B2 (en) 2011-04-20 2015-01-06 Qualcomm Incorporated Virtual keyboards and methods of providing the same
JP5824859B2 (ja) 2011-05-02 2015-12-02 船井電機株式会社 携帯端末
CN107656615B (zh) 2011-05-06 2021-09-14 奇跃公司 大量同时远程数字呈现世界
JP5988036B2 (ja) 2011-05-18 2016-09-07 パナソニックIpマネジメント株式会社 通信制御システムおよびその方法、ならびに通信装置およびその方法、プログラム
KR101844222B1 (ko) 2011-05-27 2018-04-02 엘지전자 주식회사 이동 단말기 및 이것의 모드 제어 방법
JP2012248067A (ja) 2011-05-30 2012-12-13 Canon Inc 情報入力装置、その制御方法、および制御プログラム
KR20120134732A (ko) 2011-06-03 2012-12-12 삼성전자주식회사 원격제어기를 이용하여 웹 브라우징을 수행하는 장치 및 방법
US20120316456A1 (en) 2011-06-10 2012-12-13 Aliphcom Sensory user interface
US20120317024A1 (en) 2011-06-10 2012-12-13 Aliphcom Wearable device data security
KR20120137032A (ko) 2011-06-10 2012-12-20 현대모비스 주식회사 전동식 동력 조향장치의 제어방법
KR101199454B1 (ko) 2011-06-17 2012-11-07 변동주 장식용 반사체를 이용한 조명등
KR101819506B1 (ko) 2011-06-28 2018-01-17 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8194036B1 (en) * 2011-06-29 2012-06-05 Google Inc. Systems and methods for controlling a cursor on a display using a trackpad input device
KR101251250B1 (ko) 2011-07-01 2013-04-08 알서포트 주식회사 원격 디바이스 드라이버를 이용한 원격 제어 시스템 및 원격 디바이스 드라이버를 이용한 원격 제어 방법
RU2455676C2 (ru) 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US8184070B1 (en) 2011-07-06 2012-05-22 Google Inc. Method and system for selecting a user interface for a wearable computing device
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
US8228315B1 (en) 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
US20130018659A1 (en) 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
US8179604B1 (en) 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US20130021374A1 (en) 2011-07-20 2013-01-24 Google Inc. Manipulating And Displaying An Image On A Wearable Computing System
US9015708B2 (en) 2011-07-28 2015-04-21 International Business Machines Corporation System for improving the performance of high performance computing applications on cloud using integrated load balancing
US9256361B2 (en) 2011-08-03 2016-02-09 Ebay Inc. Control of search results with multipoint pinch gestures
USD650706S1 (en) 2011-08-08 2011-12-20 Blue Sky SRL Wrist watch
US8641306B2 (en) 2011-08-16 2014-02-04 Argotext Wristwatch keyboard
US9720708B2 (en) 2011-08-19 2017-08-01 Advanced Micro Devices, Inc. Data layout transformation for workload distribution
USD661275S1 (en) 2011-08-19 2012-06-05 Cox Communications, Inc. Mobile communications device with wrist band
USD654431S1 (en) 2011-08-29 2012-02-21 Eveready Battery Company, Inc. Charger for a lighting device
US9529448B2 (en) 2011-08-31 2016-12-27 Farzan Fallah Data entry systems and methods
US9173090B2 (en) 2011-09-15 2015-10-27 Teletech Holdings, Inc. Method for activating services associated with a product via a service center supporting a variety of products
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
CN103034362B (zh) 2011-09-30 2017-05-17 三星电子株式会社 移动终端中处理触摸输入的方法和设备
US9336687B2 (en) 2011-10-11 2016-05-10 Teletech Holdings, Inc. Method for providing learning courses via a service center supporting a variety of products
US8707211B2 (en) 2011-10-21 2014-04-22 Hewlett-Packard Development Company, L.P. Radial graphical user interface
US8467270B2 (en) 2011-10-26 2013-06-18 Google Inc. Smart-watch with user interface features
US8279716B1 (en) 2011-10-26 2012-10-02 Google Inc. Smart-watch including flip up display
US9936036B2 (en) 2011-10-28 2018-04-03 Sharp Laboratories Of America, Inc. Method and system for indirectly establishing a unique communication channel between a plurality of devices
US8935629B2 (en) 2011-10-28 2015-01-13 Flipboard Inc. Systems and methods for flipping through content
CN102368200A (zh) 2011-10-28 2012-03-07 青岛海信移动通信技术股份有限公司 一种触摸屏解锁方法及具有触摸屏的电子产品
CN103946863A (zh) 2011-11-01 2014-07-23 英特尔公司 基于动态姿态的短距离人机交互
US9405435B2 (en) 2011-11-02 2016-08-02 Hendricks Investment Holdings, Llc Device navigation icon and system, and method of use thereof
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
US9288229B2 (en) 2011-11-10 2016-03-15 Skype Device association via video handshake
US9007302B1 (en) 2011-11-11 2015-04-14 Benjamin D. Bandt-Horn Device and user interface for visualizing, navigating, and manipulating hierarchically structured information on host electronic devices
US9183658B2 (en) 2011-11-14 2015-11-10 Microsoft Technology Licensing, Llc Animation creation and management in presentation application programs
US20130120106A1 (en) 2011-11-16 2013-05-16 Motorola Mobility, Inc. Display device, corresponding systems, and methods therefor
US20130132848A1 (en) 2011-11-18 2013-05-23 Apple Inc. Application interaction via multiple user interfaces
US20140330900A1 (en) 2011-11-23 2014-11-06 Evernote Corporation Encounter-driven personal contact space
US8676123B1 (en) 2011-11-23 2014-03-18 Evernote Corporation Establishing connection between mobile devices using light
KR101242390B1 (ko) 2011-12-29 2013-03-12 인텔 코오퍼레이션 사용자를 인증하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
USD671858S1 (en) 2012-01-18 2012-12-04 Nike, Inc. Wristband
USD664881S1 (en) 2012-01-18 2012-08-07 Nike, Inc. Wristband
USD664880S1 (en) 2012-01-18 2012-08-07 Nike, Inc. Wristband
US9134810B2 (en) 2012-01-19 2015-09-15 Blackberry Limited Next letter prediction for virtual keyboard
US9026461B2 (en) 2012-01-23 2015-05-05 Bank Of America Corporation Enhanced mobile application for assisting users at a point of transaction
US9367085B2 (en) 2012-01-26 2016-06-14 Google Technology Holdings LLC Portable electronic device and method for controlling operation thereof taking into account which limb possesses the electronic device
US8872849B2 (en) 2012-01-27 2014-10-28 Microsoft Corporation Relational rendering of multi-faceted data
US20130198056A1 (en) 2012-01-27 2013-08-01 Verizon Patent And Licensing Inc. Near field communication transaction management and application systems and methods
JP5193404B2 (ja) * 2012-02-10 2013-05-08 オリンパスイメージング株式会社 情報機器
US20130211843A1 (en) 2012-02-13 2013-08-15 Qualcomm Incorporated Engagement-dependent gesture recognition
USD687736S1 (en) 2012-02-16 2013-08-13 Christopher D. Wycoff Bracelet with removable chip
US9186077B2 (en) 2012-02-16 2015-11-17 Google Technology Holdings LLC Method and device with customizable power management
US20130227460A1 (en) 2012-02-27 2013-08-29 Bjorn David Jawerth Data entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods
US8947382B2 (en) 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
US20130254705A1 (en) 2012-03-20 2013-09-26 Wimm Labs, Inc. Multi-axis user interface for a touch-screen enabled wearable device
US10332112B2 (en) 2012-03-27 2019-06-25 International Business Machines Corporation Authentication for transactions using near field communication
USD680541S1 (en) 2012-04-11 2013-04-23 Coby Electronics Corp. Docking station for a portable media player
USD672255S1 (en) 2012-04-16 2012-12-11 I'M SpA Watch
CA2832392A1 (en) 2012-04-30 2013-11-07 Jerome Pasquero Touchscreen keyboard with correction of previously input text
US20130300719A1 (en) 2012-05-10 2013-11-14 Research In Motion Limited Method and apparatus for providing stylus orientation and position input
CN102681786B (zh) 2012-05-14 2014-12-24 华为技术有限公司 文本选择的方法及装置
CN102779002B (zh) 2012-06-19 2015-05-20 邓朝进 一种触摸屏键盘
US9256366B2 (en) 2012-08-14 2016-02-09 Google Technology Holdings LLC Systems and methods for touch-based two-stage text input
US9619282B2 (en) 2012-08-21 2017-04-11 Lenovo (Singapore) Pte. Ltd. Task scheduling in big and little cores
US9360997B2 (en) 2012-08-29 2016-06-07 Apple Inc. Content presentation and interaction across multiple displays
US20140078065A1 (en) 2012-09-15 2014-03-20 Ahmet Akkok Predictive Keyboard With Suppressed Keys
US9373230B2 (en) 2012-10-31 2016-06-21 Wal-Mart Stores, Inc. Customer reprint of a physical receipt from an electronic receipt
US9030446B2 (en) 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US20140181758A1 (en) 2012-12-20 2014-06-26 Research In Motion Limited System and Method for Displaying Characters Using Gestures
US10063598B2 (en) 2012-12-28 2018-08-28 Nokia Technologies Oy Method and apparatus for establishing, authenticating, and accessing a content channel
US20160132233A1 (en) 2013-02-17 2016-05-12 Keyless Systems Ltd. Data entry systems
US20140282274A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Detection of a gesture performed with at least two control objects
US9274685B2 (en) 2013-03-15 2016-03-01 Google Technology Holdings LLC Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input
US20140306898A1 (en) 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Key swipe gestures for touch sensitive ui virtual keyboard
CN103488420A (zh) 2013-09-02 2014-01-01 宇龙计算机通信科技(深圳)有限公司 虚拟键盘调整的方法和装置
US9022291B1 (en) 2014-07-24 2015-05-05 Apple Inc. Invisible optical label for transmitting information between computing devices

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6636635B2 (en) * 1995-11-01 2003-10-21 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method
US20020068600A1 (en) * 2000-06-21 2002-06-06 Hiroyuki Chihara Mobile video telephone system
US6556222B1 (en) * 2000-06-30 2003-04-29 International Business Machines Corporation Bezel based input mechanism and user interface for a smart watch
RU2383915C2 (ru) * 2004-03-01 2010-03-10 Майкрософт Корпорейшн Устройство для облегчения воспоминаний
RU74259U1 (ru) * 2008-02-19 2008-06-20 Татаренков Валерий Владимирович Мобильный телефон-браслет
US20100123792A1 (en) * 2008-11-20 2010-05-20 Takefumi Nagumo Image processing device, image processing method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RU 74259 U1, 2006.2008. *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU172365U1 (ru) * 2017-04-11 2017-07-05 Леонид Михайлович Берещанский Устройство тревожного оповещения об угрозе личной безопасности или нарушении состояния здоровья
RU2704726C1 (ru) * 2017-07-31 2019-10-30 Бейджин Сяоми Мобайл Софтвеа Ко., Лтд. Способ и терминал для беспроводной зарядки
US10734832B2 (en) 2017-07-31 2020-08-04 Beijing Xiaomi Mobile Software Co., Ltd. Method and terminal for wireless charging
RU179590U1 (ru) * 2017-12-28 2018-05-17 Федеральное государственное бюджетное образовательное учреждение высшего образования "Тюменский индустриальный университет" (ТИУ) Устройство для отображения времени

Also Published As

Publication number Publication date
IN2013MU03643A (ru) 2015-07-31
RU2015123702A (ru) 2017-01-10
EP2733579A3 (en) 2016-08-24
KR102139665B1 (ko) 2020-07-30
AU2013260683C1 (en) 2019-05-16
AU2013260683B2 (en) 2019-01-31
CN104919390B (zh) 2018-10-09
US10194060B2 (en) 2019-01-29
US20190166285A1 (en) 2019-05-30
MY173975A (en) 2020-03-02
US20150181087A1 (en) 2015-06-25
BR112015011600A2 (pt) 2017-07-11
EP2733579A2 (en) 2014-05-21
KR20140064687A (ko) 2014-05-28
MX2015006360A (es) 2015-10-05
EP2733579B1 (en) 2019-01-02
AU2013260683A1 (en) 2014-06-05
MX343780B (es) 2016-11-23
JP6509486B2 (ja) 2019-05-08
JP2014102843A (ja) 2014-06-05
WO2014081181A1 (en) 2014-05-30
US8994827B2 (en) 2015-03-31
CN104919390A (zh) 2015-09-16
US20140139637A1 (en) 2014-05-22
BR112015011600A8 (pt) 2019-10-01
US11240408B2 (en) 2022-02-01

Similar Documents

Publication Publication Date Title
RU2614575C2 (ru) Носимое электронное устройство
KR102186459B1 (ko) 디바이스의 움직임을 포함하는, 착용식 전자 디바이스로의 사용자 제스처 입력
KR102185364B1 (ko) 착용식 전자 디바이스에 대한, 그 디바이스의 외향 센서를 포함하는 사용자 제스처 입력
JP6330995B2 (ja) 着用式電子デバイスによる遠隔電子デバイスの制御
JP6432754B2 (ja) 着用式電子デバイス上への光学センサーの配置
KR102209064B1 (ko) 착용식 전자 디바이스로부터 프로세싱의 위임
RU2641462C2 (ru) Переходы графического пользовательского интерфейса (gui) на носимом электронном устройстве
JP6463598B2 (ja) 着用式電子デバイスからのプロセッシングの委任