RU2679986C2 - Отслеживание выражения лица - Google Patents

Отслеживание выражения лица Download PDF

Info

Publication number
RU2679986C2
RU2679986C2 RU2016141911A RU2016141911A RU2679986C2 RU 2679986 C2 RU2679986 C2 RU 2679986C2 RU 2016141911 A RU2016141911 A RU 2016141911A RU 2016141911 A RU2016141911 A RU 2016141911A RU 2679986 C2 RU2679986 C2 RU 2679986C2
Authority
RU
Russia
Prior art keywords
user
wearable smart
smart device
images
camera
Prior art date
Application number
RU2016141911A
Other languages
English (en)
Other versions
RU2016141911A (ru
RU2016141911A3 (ru
Inventor
Ча ЧЖАН
Женжиоу ЖАНГ
ПАРЕДЕС Бернардино РОМЕРА
Original Assignee
МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи filed Critical МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи
Publication of RU2016141911A publication Critical patent/RU2016141911A/ru
Publication of RU2016141911A3 publication Critical patent/RU2016141911A3/ru
Application granted granted Critical
Publication of RU2679986C2 publication Critical patent/RU2679986C2/ru

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/20Three-dimensional [3D] animation
    • G06T13/40Three-dimensional [3D] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/32Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections
    • A63F13/327Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using local area network [LAN] connections using wireless networks, e.g. Wi-Fi® or piconet
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Eyeglasses (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Изобретение относится к носимому интеллектуальному устройству. Техническим результатом является обеспечение управления аватаром пользователя реалистичным образом. Носимое интеллектуальное устройство содержит: структуру ориентации, сконфигурированную, чтобы позиционировать носимое устройство относительно лица пользователя; камеру, закрепленную посредством структуры ориентации, чтобы захватывать изображения рта пользователя в направлении, параллельном или под углом менее чем приблизительно +/- 45° относительно базовой плоскости, которая проходит через или включает в себя переднюю часть глаз пользователя и рта пользователя; процессор, сконфигурированный, чтобы принимать изображения и преобразовывать изображения рта пользователя в параметры анимации, включающие в себя движения рта, ассоциированные с моделью аватара, преобразование было выполнено во время стадии обучения, чтобы связывать конкретные действия пользователя с конкретными параметрами анимации на основе действий пользователя, захватываемых одновременно посредством носимого интеллектуального устройства и другого устройства формирования изображений. 9 з.п. ф-лы, 12 ил.

Description

Уровень техники
[0001] Различные носимые устройства представлены на рынке для конкретных целей. Например, интеллектуальные очки и дисплеи, устанавливаемые на голове, могут определять, на что смотрит пользователь. Однако, эти устройства не предоставляют полезный вид пользователя, после того как устройство спозиционировано напротив пользователя и имеет направленные наружу камеры и/или камеры, направленные на глаза пользователя для отслеживания глаз. Настоящие концепции могут предлагать дополнительную функциональность на носимом устройстве посредством предоставления полезных видов пользователя, даже когда камеры расположены очень близко к пользователю.
Сущность изобретения
[0002] Описание относится к отслеживанию выражения лица. Один пример может включать в себя структуру ориентации, сконфигурированную, чтобы позиционировать носимое устройство относительно лица пользователя. Пример может также включать в себя камеру, закрепленную посредством структуры ориентации параллельно или под небольшим углом к лицу пользователя, чтобы захватывать изображения по всему лицу пользователя. Пример может дополнительно включать в себя процессор, сконфигурированный, чтобы принимать изображения и преобразовывать (сопоставлять) изображения в параметры, ассоциированные с моделью аватара.
[0003] Вышеприведенный пример предназначен, чтобы обеспечивать быстрое ознакомление, чтобы помогать читателю, и не предназначен, чтобы определять рамки концепций, описанных в данном документе.
Краткое описание чертежей
[0004] Сопровождающие чертежи иллюстрируют реализации концепций, передаваемых в настоящем документе. Признаки иллюстрированных реализаций могут быть легко поняты посредством ссылки на последующее описание, взятое вместе с сопровождающими чертежами. Аналогичные ссылочные номера на различных чертежах используются повсюду, где возможно, чтобы указывать аналогичные элементы. Дополнительно, самая левая цифра каждого ссылочного номера передает чертеж и ассоциированное обсуждение, где ссылочный номер впервые вводится.
[0005] Фиг. 1 и 4-5 показывают примеры носимых интеллектуальных устройств в соответствии с некоторыми реализациями настоящих концепций.
[0006] Фиг. 2-3 показывают примеры сценариев визуализации в соответствии с некоторыми реализациями настоящих концепций.
[0007] Фиг. 6 - это примерный процесс визуализации в соответствии с некоторыми реализациями настоящих концепций.
[0008] Фиг. 7-11B показывают аспекты примерных систем визуализации более подробно в соответствии с некоторыми реализациями настоящих концепций.
[0009] Фиг. 12 показывает примерную систему визуализации в соответствии с некоторыми реализациями настоящих концепций.
Обзор
[00010] Описание относится к захвату полезной визуальной информации о пользователе, такой как информация о выражении лица, с камер, расположенных очень близко и/или под очень небольшими углами к пользователю. Концепции могут быть реализованы на различных носимых интеллектуальных устройствах, которые используют камеры с малым углом.
[00011] Один аспект настоящих концепций включает в себя способность получать полезную информацию из изображений с малым углом пользователя. Например, камера или камеры могут быть расположены близко к пользователю и захватывать изображения, которые почти параллельны лицу пользователя. Обычно такие изображения будут иметь небольшую ценность. Настоящие реализации могут получать полезную информацию из этих изображений. Полезная информация может быть использована в различных целях, например, чтобы управлять аватаром пользователя реалистичным образом.
[00012] Вводный фиг. 1 показывает примеры нескольких носимых интеллектуальных устройств 102. В этом случае носимое интеллектуальное устройство 102(1) показано как интеллектуальный головной убор, носимое интеллектуальное устройство 102(2) показано как интеллектуальная головная повязка, носимое интеллектуальное устройство 102(3) показано как интеллектуальные очки, а носимое интеллектуальное устройство 102(4) показано как интеллектуальный микрофон. Конечно, рассматриваются другие примеры. Носимые интеллектуальные устройства 102 могут включать в себя один или более датчиков. В этом примере датчики показаны как камера 104 с малым углом, камера 106 отслеживания глаз и/или микрофон 108. (Отметим, что носимые интеллектуальные устройства 102(1) и 102(3) включают в себя как камеру с малым углом, так и камеру отслеживания глаз. В отличие от этого, носимые интеллектуальные устройства 102(2) и 102(4) не включают в себя камеру отслеживания глаз). Камеры могут быть камерами видимого света и/или инфракрасными камерами, и/или камерами глубины, среди прочего. Функциональные возможности этих элементов объясняются ниже. Носимые интеллектуальные устройства могут также включать в себя структуру 110 ориентации. Структура ориентации может быть показана как оправа, повязка, козырек или другая структура, которая помогает поддерживать позицию и/или ориентацию датчиков относительно пользователя. Как упомянуто выше, некоторые иллюстрированные реализации используют как камеру 104 с малым углом, так и камеру 106 отслеживания глаз. Другие реализации могут использовать одну камеру, которая может захватывать данные, которые в ином случае будут подаваться посредством двух камер. Например, камера 104 с малым углом с линзой "рыбий глаз" может быть использована, чтобы захватывать фрагменты лица пользователя, такие как глаз, рот, щека и/или челюсть.
[00013] Резюмируя, носимые интеллектуальные устройства становятся все более распространенными. Носимые интеллектуальные устройства зачастую включают в себя камеры. Однако, поскольку камеры находятся так близко к пользователю и/или позиционируются в необычных ориентациях, камеры не могут предоставлять полезные изображения пользователя, особенно лица пользователя. Настоящие реализации могут позиционировать эти камеры и обрабатывать их изображения способом, который создает полезную информацию о выражении лица пользователя, движениях рта, миганиях глаза, направлении взгляда глаза и т.д.
[00014] Фиг. 2 показывает сценарий использования, который подразумевает 'первого пользователя', носящего носимое интеллектуальное устройство 102(1), и 'второго пользователя', носящего носимое интеллектуальное устройство 102(2), и два устройства 202(1) и 202(2) отображения. Предположим, что первый пользователь находится в первом местоположении поблизости от устройства 202(1) отображения, а второй пользователь находится во втором местоположении, отделенном от первого местоположения некоторым расстоянием, и что второй пользователь находится поблизости от устройства 202(2) отображения. В этом примере (как показано на фиг. 1), носимое интеллектуальное устройство 102(1) включает в себя камеру 104(1) с малым углом и другую камеру (например, камеру отслеживания глаз) 106(1), направленную на глаз первого пользователя. Носимое интеллектуальное устройство 102(2) включает в себя камеру 104(2) с малым углом.
[00015] В этом сценарии носимое интеллектуальное устройство 102(1) может захватывать изображения первого пользователя. Эти изображения могут быть использованы, чтобы управлять представлением первого пользователя. В этом случае представление первого пользователя показано как аватар 204(1) первого пользователя, который представляется на устройстве 202(2) отображения, которое находится поблизости от второго пользователя. Аналогично, носимое интеллектуальное устройство 102(2) может захватывать изображения второго пользователя. Эти изображения могут быть использованы, чтобы управлять представлением второго пользователя. В этом случае представление второго пользователя показано как аватар 204(2) второго пользователя, который представляется на устройстве 202(1) отображения, которое находится поблизости от первого пользователя. В этом сценарии пользователи могут связываться друг с другом, и их соответствующие аватары могут отражать движения их глаз, выражения лиц, движения челюстей и/или движения рта (такие как вызванные произношением) друг другу.
[00016] Аватары 204 могут быть показаны в любой форме, такой как рисованный персонаж или сгенерированный компьютером персонаж, который захватывает движения глаза, выражения лица и/или движения рта, но необязательно похож на пользователя. В других реализациях аватар может быть реалистичным представлением (например, увеличенным фотореалистичным изображением) пользователя. Возможность видеть соответствующие аватары во время обсуждения может обеспечивать более оживленное и приятное обсуждение, чем только голосовая связь. Например, возможность видеть реакцию другого пользователя во время обсуждения может обеспечивать обратную связь, которая имитирует беседу лицом к лицу.
[00017] Отметим также, что в то время как только два пользователя вовлечены в сценарии на фиг. 2, другие реализации могут вовлекать дополнительных пользователей. Дополнительно, поскольку камера 104 с малым углом и/или камера 106 отслеживания глаз могут отслеживать глаза пользователя, реализации могут различать, на какого пользователя смотрят отдельные пользователи (например, первый пользователь и второй пользователь смотрят на аватар третьего пользователя). Эта информация может быть отражена в аватаре пользователя и может быть полезной частью процесса связи точно также как в сценариях групповой беседы лицом к лицу.
[00018] Фиг. 3 показывает другой сценарий использования, который аналогичен сценарию использования на фиг. 2. Этот конкретный сценарий использования затрагивает два набора носимых интеллектуальных устройств 102(3)(A) и 102(3)(B). Хотя явно не показано, предположим, что носимые интеллектуальные устройства носятся первым пользователем и вторым пользователем на фиг. 2. Аналогично обсуждению выше относительно фиг. 2, носимое интеллектуальное устройство 102(3)(A) может захватывать изображения с малым углом для первого пользователя и использовать данные изображения, чтобы управлять представлением (например, аватаром 204(1)) первого пользователя, которое может быть отображено для второго пользователя. Аналогично, носимое интеллектуальное устройство 102(3)(B) может выполнять ту же функцию относительно второго пользователя, чтобы управлять представлением (например, аватаром 204(2)) второго пользователя, которое может быть отображено для первого пользователя.
[00019] Таким образом, носимое интеллектуальное устройство 102(3)(A) показывает, что первый пользователь видит аватар 204(2) второго пользователя, когда смотрит через носимое интеллектуальное устройство 102(3)(A), и носимое интеллектуальное устройство 102(3)(B) показывает, что второй пользователь видит аватар 204(1) первого пользователя, когда смотрит через носимое интеллектуальное устройство 102(3)(B). Вкратце, носимые интеллектуальные устройства 102(3)(A) и 102(3)(B) иллюстрируются с точки зрения первого пользователя и второго пользователя, хотя пользователи сами не показаны. Носимые интеллектуальные устройства 102(3)(A) и 102(3)(B) могут захватывать информацию изображения о владельце, которая используется, чтобы управлять аватаром владельца (например, пользователя). Аватар показывается посредством носимого интеллектуального устройства другого пользователя, которое одновременно захватывает данные изображения для управления аватаром этого пользователя. Иначе говоря, аватар 204(2) второго пользователя отображается для первого пользователя посредством носимого интеллектуального устройства 102(3)(A). Аналогично, аватар 204(1) первого пользователя отображается для второго пользователя посредством носимого интеллектуального устройства 102(3)(B). Таким образом, эта реализация может предоставлять автономное носимое интеллектуальное устройство, которое обеспечивает видеовызов и/или другие использования.
[00020] Фиг. 4 и 5 показывают вид спереди и вид сбоку, соответственно, третьего пользователя. В этом случае, 'третий пользователь' носит носимое интеллектуальное устройство 102(3) (например, интеллектуальные очки) и носимое интеллектуальное устройство 102(4) (например, интеллектуальный микрофон, прикрепляемый к одежде). В этом случае, третий пользователь носит два носимых интеллектуальных устройствах в целях объяснения. Альтернативно, пользователь может использовать одно из двух этих носимых интеллектуальных устройств без другого. Фиг. 4-5 также показывают базовую плоскость 402, которая может помогать иллюстрировать пример того, что обозначается термином "камера с малым углом" в настоящем обсуждении. В этой реализации базовая плоскость 402 проходит через или включает в себя переднюю сторону глаз пользователя и рта пользователя.
[00021] В этом примере камеры 104 с малым углом могут быть ориентированы под углом менее чем приблизительно +/- 45 градусов относительно базовой плоскости 402 (например, камеры с малым углом могут захватывать изображения, в целом, параллельно поверхности лица пользователя). В отличие от этого, традиционные камеры, такие как используемые в интеллектуальном телефоне, планшете или системе видеоконференции, сконфигурированы, чтобы быть ориентированными, в целом, перпендикулярно базовой плоскости 402, и не могут захватывать значащую информацию изображения с малых углов.
[00022] В этом примере камера 104(3) с малыми углами для носимого интеллектуального устройства 102(3) позиционируется, в целом, в или близко к базовой плоскости 402 и конфигурируется, чтобы захватывать изображения, представленные стрелками 404 в направлении вдоль или параллельно базовой плоскости. Аналогично, камера 104(4) с малыми углами для носимого интеллектуального устройства 102(4) позиционируется, в целом, в или близко к базовой плоскости 402 и конфигурируется, чтобы захватывать изображения, представленные стрелками 406 в направлении вдоль или параллельно базовой плоскости 402.
[00023] Фиг. 6 показывает примерную последовательность 600 операций процесса для осуществления настоящих концепций. В целях объяснения, последовательность 600 операций процесса может быть разделена на стадию 602 обучения и стадию 604 применения. Стадия обучения может строить модель аватара для пользователя на этапе 606. Как упомянуто выше, аватар может быть фотореалистичной или некоторой другой формой. Аватар пользователя может быть определен через модель 608 аватара. Модель аватара может включать в себя множество лицевых параметров или параметров анимации, таких как соответствующие взгляду глаза, движения рта и т.д. Дополнительно, процесс может обучаться для корреляции между сенсорными входными данными и параметрами анимации аватара на этапе 610, чтобы создавать соответствие 612. Эта часть последовательности операций процесса может быть осуществлена посредством одновременной регистрации пользователя с носимым интеллектуальным устройством (например, с датчиками на носимом интеллектуальном устройстве) и другим устройством формирования изображения, таким как камера типа "красный, синий, зеленый плюс глубина" (RGBD). RGBD-камера может быть в обычной (как правило, перпендикулярной к плоскости 402 на фиг. 4) ориентации. Действия пользователя могут быть захвачены посредством интеллектуального устройства, такого как камера с малым углом, микрофон и/или другие датчики (см. фиг. 1), и посредством RGBD-камеры. Соответствие 612 может соотносить конкретные действия пользователя для пользователя, которые захватываются посредством RGBD-камеры и носимого интеллектуального устройства, с конкретными параметрами анимации аватара.
[00024] Стадия 604 применения может быть осуществлена исключительно с помощью носимого интеллектуального устройства. В этом случае различные типы данных 614 датчика могут быть собраны посредством носимого интеллектуального устройства. В этом примере данные 614 датчика могут включать в себя видеоданные, аудиоданные и/или контактные данные, среди прочего, в зависимости от конфигурации датчика носимого интеллектуального устройства. (Контактные данные могут быть собраны посредством датчика в соприкосновении с кожей пользователя, который обнаруживает движение кожи, мышечное сокращение и т.д.). Данные 614 датчика могут быть обработаны на этапе 616, чтобы получать входные данные 618 датчика. Входные данные 618 датчика могут быть преобразованы в параметры анимации аватара на этапе 620 с помощью модели 608 аватара и соответствия 612 со стадии 602 обучения. Этот аспект выводит параметры 622 анимации аватара для стадии 604 применения. Параметры 620 анимации аватара (и модели 608 аватара) могут быть отправлены по сети 624 для удаленного воспроизведения аватара и анимации на этапе 626. Конкретные аспекты последовательности 600 операций процесса описываются более подробно ниже относительно фиг. 7-12.
[00025] Вкратце, настоящие концепции могут охватывать систему для отслеживания выражения лица на основе установленных на теле, направленных внутрь (например, отслеживающих глаза) и/или имеющих малый угол камер. Изображения с этих камер могут быть использованы так, что пользователь может быть представлен с помощью анимированных аватаров на удаленной стороне.
[00026] Фиг. 7 показывает примерную систему 700, которая может обеспечивать отслеживание выражения всего лица с носимого интеллектуального устройства 102(3). (Фиг. 7 является отчасти избыточным для фиг. 6, но имеет отличный акцент, который помогает объяснять концепции, введенные относительно фиг. 6). В целях объяснения, система 700 делится на столбец 701(1) входных данных и столбец 701(2) выходных данных.
[00027] В этом случае система 700 включает в себя эталонную камеру, такую как камера видимого света (например, камера 702 черного и белого или красного, зеленого, синего (RGB)) или красного, зеленого, синего цвета+глубины (RGBD). Одним примером такой камеры глубины является камера глубины Kinect® Brand, предложенная корпорацией Microsoft®. RGBD-камера 702 может быть ориентирована по направлению к пользователю обычным образом (например, как правило, направлена на пользователя перпендикулярно базовой плоскости, описанной выше относительно фиг. 4-5). (Отметим, что в иллюстрации на фиг. 7 пользователь обращен лицом вперед, а RGBD-камера 702 обращена в бок пользователя. RGBD-камера будет фактически находиться спереди пользователя (например, расположена, чтобы захватывать изображения анфас пользователя).
[00028] Во время стадии 602 обучения RGBD-камера 702 может захватывать изображения 704 анфас. Аналогично, камера 104(3) с малым углом носимого интеллектуального устройства и камера 106(3) отслеживания глаз захватывают изображения 706 и 708, соответственно, пользователя одновременно с RGBD-камерой 702. Отметим, что вследствие масштаба чертежа эти элементы трудноразличимы на фиг. 7, но без труда видимы на фиг. 1, 4 и 5. Вследствие ограниченного поля обзора камеры 104(3) с малым углом и камеры 106(3) отслеживания глаз, только часть лица пользователя видна в каждой камере 104(3) и 106(3). В частности, камера 104(3) с малым углом направлена на низ щеки по направлению к рту и подбородку, как указано в изображениях 706, в то время как камера 106(3) отслеживания глаз направлена на глаз пользователя, как указано посредством изображений 708. (Отметим, что иллюстрированные изображения являются показательными в целях объяснения и не предназначены быть ограничивающими. Дополнительно, тип линзы, используемой в камере с малым углом, может влиять на изображения, также как и угол ориентации по отношению к пользователю. Например, линзы "рыбий глаз" могут захватывать больше лица пользователя в данной ориентации, чем стандартная линза. В такой реализации может быть использована одна камера 104(3) с малым углом, которая захватывает глаз и рот в изображениях 706 и не использует два набора изображений (например, не использует изображения 708 или камеру, которая захватывает их).
[00029] В еще одной реализации другие данные датчика могут дополнять данные изображения с камеры 104(3) с малым углом. Например, вспомним, что фиг. 6 указывал различные другие формы данных 614 датчика помимо изображений (например, видео), например, аудиоданные и/или контактные данные пользователя могут быть использованы. В таком случае камера 104(3) с малым углом может быть лишь камерой на интеллектуальном носимом устройстве. Камера 104(3) с малым углом может захватывать глаз пользователя и щеку, но не рот, например. В таком случае, аудиоданные с микрофона (см. микрофон 108, на фиг. 1) могут захватывать аудиоданные, которые могут быть использованы в построении 606 модели. Например, отдельные звуки, издаваемые пользователем, могут быть преобразованы в отдельные значения параметра аватара, относящиеся к движениям рта и/или выражению лица, во время стадии 602 обучения. Таким образом, аудиоданные могут быть использованы для некоторых из параметров аватара, и данные изображения с камеры 104(3) с малым углом могут быть использованы для других параметров аватара.
[00030] В иллюстративной конфигурации, во время стадии 602 обучения, потоки изображений части лица с двух камер 104(3) и 106(3) носимого интеллектуального устройства 102(3) могут быть использованы, чтобы оценивать полное выражение лица пользователя, когда оценивается в свете изображений 704 анфас. Оценка может включать в себя информацию о множестве параметров выражения лица. Множество параметров выражения лица могут быть использованы, чтобы управлять анимированным аватаром 710 пользователя. Например, некоторые реализации могут использовать алгоритм отслеживания выражения лица на основе глубины, чтобы автоматически собирать обучающие данные для пользователя. Множество алгоритмов машинного обучения могут затем быть использованы, чтобы строить модели для того, чтобы оценивать параметры выражения лица, из обучающих данных. Среди многих возможных способов, могут быть использованы гребневая регрессия, изучение признака многозадачности и/или сверточные нейронные сети, среди прочего.
[00031] Иначе говоря, во время стадии 602 обучения набор обучающих изображений (например, видеозаписей), захваченных посредством носимого интеллектуального устройства 102(3), и соответствующие выражения лица в реальной ситуации (например, изображения 704) с RGBD-камеры 702 могут быть использованы, чтобы строить модель аватара (608 на фиг. 6), которая описывает их соотношение. Отметим, что, в то время как изображения реальной ситуации получаются с помощью RGBD-камеры в этой реализации, другие реализации могут использовать другие типы датчиков или камер. Например, изображения реальной ситуации могут быть получены с помощью стандартной RGB-камеры, инфракрасной камеры и/или другого типа датчика. На стадии 604 применения модель может быть использована, чтобы сопоставлять входные изображения 706(1) и 708(1) (например, потоки видеопар) с носимого интеллектуального устройства с набором параметров выражения лица, которые могут быть использованы, чтобы управлять аватаром 710(1) на удаленной стороне. Конкретные аспекты, которые внесены на рассмотрение выше относительно фиг. 6-7, описываются более подробно ниже.
Получение данных
[00032] Вспомним из фиг. 4-5, что в этой реализации камеры носимого интеллектуального устройства 102(3) позиционируются ассиметрично (например, камера 104(3) с малым углом направлена параллельно лицу по направлению ко рту, а камера 106(3) отслеживания глаз направлена на глаз пользователя). Одной мотивацией для асимметрии является то, что только одна камера используется, чтобы захватывать лишние части лица (например, взгляд может быть, главным образом, описан посредством положения одного глаза), но части лица, которые могут быть асимметричны, такие как щеки, захватываются посредством двух камер. Конечно, другие конфигурации, такие как три или более камер в симметричных и/или асимметричных конфигурациях, рассматриваются.
[00033] Обращаясь к фиг. 7, различные подходы могут быть использованы, чтобы отслеживать выражения лица из входных данных RGBD-камеры (например, изображений 704). Например, среди прочего, могут быть использованы алгоритмы RGBD-отслеживания, такие как алгоритмы отслеживания аватара Microsoft Kinect®. Некоторые реализации алгоритма RGBD-отслеживания могут работать по предположению, подразумевающему набор персонализированных сеточных моделей
Figure 00000001
, где
Figure 00000002
является положением в покое, а
Figure 00000003
являются дополнительными смещениями, которые представляют разницу между положением в покое и некоторыми выражениями лица. Произвольное выражение лица может, таким образом, быть сформировано как:
Figure 00000004
(1)
где
Figure 00000005
являются весовыми коэффициентами смешивания для позы
Figure 00000006
.
[00034] Алгоритмы RGBD-отслеживания могут использовать множество смешанных форм, например, 48 смешанных форм, таким образом, для каждого захваченного кадра, они будут формировать 48 весовых коэффициентов смешивания. Следовательно, задача оценки выражения лица может быть переформулирована в проблему изучения 48 функций регрессии, каждая из них преобразует информацию, принятую из изображений носимого интеллектуального устройства, в соответствующие весовые коэффициенты смешанной формы.
[00035] Обсуждение, которое следует, относится к отслеживанию выражения лица, начиная с предварительной обработки изображения.
[00036] Некоторые реализации могут выполнять предварительную обработку для входных данных изображения, чтобы увеличивать надежность алгоритма для пользователей, носящих различную одежду, небольшого перемещения при одевании и снятии носимого интеллектуального устройства и различия между пользователями.
[00037] Первый тип предварительной обработки может относиться к фильтрации кожи. Этот процесс может быть основан на трех этапах. Первое, может быть использован простой классификатор, чтобы оценивать вероятность того, что каждый пиксел является кожей. Использование лишь пиксельной классификации может не быть достаточно надежным, поскольку некоторые ложные положительные пикселы могут быть обнаружены, в частности, так, когда краевые зоны возникают в фоне. Для того, чтобы делать процесс более надежным, некоторые реализации могут обнаруживать края изображения и между краями отыскивать (потенциально) оптимальный край, который разделяет кожу и фоновые области.
[00038] Для осуществления, эти реализации могут сначала применять модуль обнаружения краев по способу Кэнни (или другой) по всему изображению. Чувствительность модуля обнаружения может быть задана так, чтобы быть высокой, так что набор из множества краев обнаруживается, так что любые полезные края включаются в набор. Наконец, эти реализации могут отыскивать (потенциально) оптимальный край с помощью алгоритма динамического программирования, который использует информацию, собранную в предыдущих двух процессах. Этот способ может итерировать по столбцам изображения, слева направо, например. Относительно каждого столбца, процесс может вычислять для каждого пиксела, принадлежащего краю, вероятность того, что он является частью (потенциально) оптимального края. Это может быть вычислено на основе вероятностей кожи для пикселов выше и ниже его, а также на основе вероятностей левых соседних пикселов, которая была вычислена в предыдущей итерации.
[00039] Фиг. 8 показывает один такой пример. Первый пример показывает изображение 800(1) с направленной внутрь камеры 106(3) отслеживания глаз (фиг. 4-5) перед обработкой. Это объяснение касается цвета, который трудно иллюстрировать на схематичных чертежах. В первом примере область 802, показанная в поперечной штриховке, является фоном, который имеет цвет, аналогичный соседней коже 804 и, как таковая, может быть трудно различимой. Граница 806 может быть обнаружена, и во втором примере цвет фоновой области изменяется на контрастирующий цвет (в этом случае белый, представленный диагональными линиями), как указано по ссылке 808 в обработанном изображении 800(2).
[00040] Фиг. 9 показывает пример второго типа предварительной обработки, используемой некоторыми реализациями. Этот второй тип предварительной обработки может обрабатывать небольшое перемещение камеры или различие между различными пользователями. В таких случаях может быть использован способ совмещения, который выравнивает все изображения (в этом случае левое изображение 900(1) и правое изображение 900(2)) на основе сравнения с шаблоном. Складка 902 между носом и щекой и внешний уголок 904 правого глаза отыскиваются в левом и правом изображениях 900(1) и 900(2) камеры, соответственно, и входные изображения корректируются соответственно, чтобы уменьшать погрешность совмещения между изображениями. Как показано в экспериментальных результатах, этот этап совмещения может быть очень полезным для обучения новых пользователей.
[00041] После предварительной обработки две формы входного изображения могут быть использованы: необработанные пикселы и описания местного двоичного шаблона (LBP).
[00042] В целях объяснения, обозначим обучающие входные данные матрицей
Figure 00000007
Figure 00000008
, которая содержит N обучающих примеров, которые имеют размерность d, и
Figure 00000009
обучающих меток (весовых коэффициентов смешанной формы, полученных из алгоритма RGBD-отслеживания).
Figure 00000010
может быть использовано, чтобы обозначать t-ый столбец для Y, т.е., весовые коэффициенты реальной ситуации для t-й смешанной формы. Дано, что проблема машинного обучения может состоять во многовыходной регрессии, были использованы три алгоритма машинного обучения (гребневая регрессия, изучение признака многозадачности и сверточные нейронные сети). Конечно, в других реализациях могут быть использованы другие алгоритмы машинного обучения.
Гребневая регрессия
[00043] Гребневая регрессия (RR) может изучать линейную модель для каждых из выходных данных, решая следующую проблему оптимизации:
Figure 00000011
(2)
где
Figure 00000012
является d-размерным весовым вектором для смешанной формы t. Отметим, что вышеописанная проблема независимо решается для каждой смешанной формы.
Изучение признака многозадачности
[00044] Примем во внимание, что весовые коэффициенты смешанной формы вместе должны описывать выражение лица, и эти смешанные формы являются неортогональными, они могут ожидаться как линейно коррелированные. В результате, изучение признака многозадачности (MTFL) может быть использовано для настоящей задачи. MTFL может пытаться применять общности между весовыми коэффициентами смешанной формы, изучая все задачи одновременно. MTFL может пытаться решать следующую проблему оптимизации:
Figure 00000013
(3)
где
Figure 00000014
обозначает квадрат нормы Фробениуса матрицы, т.е., сумму квадратов ее элементов. Как показано на фиг. 10, может быть общий слой для всех задач, сформированный посредством умножения входных данных с матрицей D, которая представляет совместно используемые признаки 1002. Выходной слой 1004 затем формируется посредством умножения совместно используемых признаков с матрицей C. Оба слоя являются линейными.
[00045] Проблема в уравнении (3) является невыпуклой. Вместо этого процесс может оптимизировать свою эквивалентную выпуклую проблему, предоставленную посредством:
Figure 00000015
(4)
где
Figure 00000016
; и
Figure 00000017
обозначает следовую норму матрицы, а именно сумму ее сингулярных чисел.
Нейронные сети
[00046] Фиг. 11A и 11B показывают две сверточных нейронных сети 1100(1) и 1100(2). Первая сверточная нейронная сеть 1100(1) принимает входные изображения 1102(1) на сверточном слое 1104(1). В этом примере сверточный слой 1104(1) имеет 16 ядер размером 3×3. Выходными данными сверточного слоя является маска (DO), разрешенная и полностью присоединенная к слою 1106(1) из 50 узлов. Выходные данные со слоя 50 узлов затем отправляются на выходной слой 1108(1) из 48 узлов, который создает окончательные выходные данные 1110.
[00047] Вторая сверточная нейронная сеть 1100(2) включает в себя первый слой, который также является сверточным слоем 1104(2) с 16 ядрами размером 3×3. Первый сверточный слой 1104(2) принимает входные изображения 1102(2). Выходные данные первого сверточного слоя плотно соединяются со вторым скрытым слоем 1106(2). В этом примере второй скрытый слой имеет 200 скрытых блоков. Выходные данные второго скрытого слоя направляются на третий слой 1108(2). В этом примере третий слой является полносвязанным слоем, который также имеет 200 выходных узлов. В этом примере конечный слой 1112 принимает выходные данные третьего слоя 1108(2), чтобы создавать конечные выходные данные 1114. Третий слой 1108(2) может быть полносвязанным слоем с 48 выходами. В некоторых реализациях нелинейность выпрямленного линейного блока (ReLU) используется во всех сверточных и полносвязанных слоях кроме выходных слоев. Кроме того, маска разрешается на некоторых из полносвязанных слоев.
[00048] Вкратце, вышеприведенное описание объясняет, как выполнять отслеживание выражения лица с носимых камер (например, камер носимых интеллектуальных устройств), которые позиционируются в необычных ориентациях, например, почти параллельно лицу пользователя. Данные реальной ситуации могут быть получены с помощью камеры глубины одновременно с камерами носимых интеллектуальных устройств. Алгоритм может быть использован отслеживания выражения лица на основе глубины, чтобы соотносить информацию изображения от двух камер в данных реальной ситуации. Данные реальной ситуации могут быть использованы, чтобы обучать модель регрессии, ассоциированную с параметрами лица. Впоследствии, изображения с носимого интеллектуального устройства могут быть обработаны с помощью модели регрессии, чтобы получать параметры для управления аватаром пользователя.
[00049] Фиг. 12 показывает систему 1200 визуализации. В целях объяснения система 1200 включает в себя два носимых интеллектуальных устройства 102(3)(A) и 102(3)(B), показанных как интеллектуальные очки. Эти иллюстрированные носимые интеллектуальные устройства представляют две конфигурации устройства, любая из которых может быть применена к другим носимым интеллектуальным устройствам помимо интеллектуальных очков. Вкратце, носимое интеллектуальное устройство 102(3)(A) представляет центральную конфигурацию операционной системы, а носимое интеллектуальное устройство 102(3)(B) представляет конфигурацию системы на кристалле. Эти аспекты описаны более подробно ниже. Система 1200 также включает в себя устройство 1202, которое не является носимым интеллектуальным устройством. В этом случае, устройство 1202 показано как смартфон, но предназначено быть показательным для любого типа устройства, с которым носимые интеллектуальные устройства могут связываться. Система 1200 дополнительно включает в себя удаленные ресурсы 1204, такие как облачные ресурсы, с которыми носимые интеллектуальные устройства могут связываться через сеть(и) 1206. Одно из двух или оба из устройства 1202 и удаленных ресурсов 1204 могут работать во взаимодействии с носимым интеллектуальным устройством, чтобы реализовывать настоящие концепции. Любое из носимых интеллектуальных устройств 102(3)(A) и 102(3)(B), устройства 1202 и/или удаленных ресурсов 1204 может поддерживать или включать в себя компонент 1208 управления аватаром. Компоненты управления аватаром будут описаны более подробно после обсуждения других элементов носимых интеллектуальных устройств 102(3)(A) и 102(3)(B).
[00050] В целях объяснения, носимое интеллектуальное устройство 102(3)(A) организуется в приложение 1210, операционную систему 1202 и аппаратные средства 1214. Носимое интеллектуальное устройство 102(3)(B) организуется в совместно используемые ресурсы 1216, выделенные ресурсы 1218 и интерфейс 1220 между ними.
[00051] Носимые интеллектуальные устройства 102(3)(A) и 102(3)(B) могут дополнительно включать в себя структуру 110 ориентации, которая может включать в себя оправу 1222 и которая соединяется с дужками 1224. Дужки могут протягиваться по длинной оси (параллельной оси x-координат) и заканчиваться в заушниках 1226. Оправа может поддерживать (пару) линзы 1228. Носимые интеллектуальные устройства могут дополнительно включать в себя запоминающее устройство 1230, процессор 1232, аккумулятор 1234 (или другой источник питания), датчики 1236 и/или компонент 1238 связи. Носимые интеллектуальные устройства могут альтернативно или дополнительно включать в себя другие элементы, такие как устройства ввода/вывода, шины, графические карты (например, графические процессоры (GPU)), и т.д., которые не иллюстрируются или обсуждаются здесь ради краткости. В одной конфигурации аккумулятор 1234 может быть расположен в одном из заушников 1226, в то время как компонент 1238 связи, запоминающее устройство 1230 и процессор 1232 располагаются в другом.
[00052] В этом примере датчики 1236 показаны как камера 104 с малым углом, камера 106 отслеживания глаза и микрофон 108. Отметим, что, когда используется здесь, камера может считаться любым типом датчика, который может захватывать информацию об отличительных признаках пользователя. Камера может быть камерой видимого света или других длин волн. Камеры могут использовать различные типы линз. Например, камеры могут использовать выпуклые линзы, асферические линзы и/или линзы "рыбий глаз", среди прочего. Линза "рыбий глаз" может предоставлять возможность одной камере захватывать большой фрагмент лица пользователя, что может в ином случае влечь за собой использование двух камер для захвата. Дополнительные подробности о камере(ах) описываются выше, начиная с фиг. 1. Конечно, в то время как камеры описываются подробно, другие реализации могут альтернативно или дополнительно использовать другие типы датчиков 1236.
[00053] Очковые линзы 1228 могут быть корректирующими или некорректирующими. В некоторых реализациях линзы могут иметь способность отображать изображения для просмотра пользователем. Отображение может быть выполнено посредством проецирования или посредством включения светоизлучающих диодов или других компонентов в линзы.
[00054] Компонент 1238 связи может включать в себя приемник и передатчик и/или другую радиочастотную схему для связи с помощью различных технологий, таких как сотовая связь, Wi-Fi (IEEE 802.xx), Bluetooth и т.д.
[00055] Компонент 1208 управления аватаром может принимать входные данные от датчиков 1236. Компонент 1208 управления аватаром может использовать модель аватара, чтобы получать параметры анимации от данных датчика, чтобы управлять аватаром пользователя. Компонент 1208 управления аватаром на отдельном носимом интеллектуальном устройстве 102(3) может быть относительно надежным, так что он обрабатывает данные датчика, чтобы определять значения параметров анимации. Например, носимое интеллектуальное устройство 102(3)(A) может определять значения параметра анимации от датчиков 1236(1). Носимое интеллектуальное устройство 102(3)(A) может анимировать аватар пользователя и отправлять анимацию другому устройству, или он может отправлять значения параметра анимации другому устройству для выполнения.
[00056] Например, относительно носимого интеллектуального устройства 102(3)(A), компонент 1208(1) управления аватаром может отправлять значения параметра анимации компоненту 1238(1) связи для связи с удаленным устройством, таким как носимое интеллектуальное устройство 102(3)(B). Компонент 1208(2) управления аватаром принимающего устройства может управлять аватаром пользователя на основе принятых значений параметра анимации. В то же самое время компонент 1208(2) управления аватаром удаленного устройства может принимать данные от датчиков 1236(2), обрабатывать данные датчика, чтобы определять значения параметра анимации и отправлять значения параметра анимации носимому интеллектуальному устройству 102(3)(A).
[00057] В других конфигурациях носимое интеллектуальное устройство 102(3)(A) может быть менее надежным и может отправлять некоторые данные датчика устройству 1202 или удаленным ресурсам 1204 для обработки посредством компонента 1208(3) или 1208(4) управления аватаром, соответственно. Эти компоненты 1208(3) или 1208(4) управления аватаром могут определять значения параметра анимации от имени носимого интеллектуального устройства 102(3)(A) и сообщать их носимому интеллектуальному устройству 102(3)(B) от имени носимого интеллектуального устройства 102(3)(A).
[00058] В еще одной конфигурации носимое интеллектуальное устройство 102(3)(A) может отправлять значения параметра анимации устройству 1202. Устройство 1202 может захватывать 'обычный' видеопоток пользователя (например, в видеовызове) и отправлять видеопоток носимому интеллектуальному устройству 102(3)(A). Таким образом, носимое интеллектуальное устройство 102(3)(A) будет видеть обычное видеоизображение пользователя устройства 1202, в то время как пользователь устройства 1202 будет видеть анимированный аватар пользователя носимого интеллектуального устройства 102(3)(A).
[00059] С одной точки зрения, носимые интеллектуальные устройства 102(3)(A) и 102(3)(B), устройство 1202 и/или удаленные ресурсы 1204 могут быть представлены как компьютеры.
[00060] Термин "устройство", "компьютер" или "вычислительное устройство", когда используется в данном документе, может означать любой тип устройства, которое имеет некоторый объем возможности обработки и/или возможности хранения. Возможность обработки может быть предоставлена посредством одного или боле процессоров, которые могут выполнять данные в форме компьютерно-читаемых инструкций, чтобы обеспечивать функциональность. Данные, такие как компьютерно-читаемые инструкции и/или связанные с пользователем данные, могут храниться в запоминающем устройстве, таком как запоминающее устройство, которое может быть внутренним или внешним по отношению к компьютеру. Запоминающее устройство может включать в себя любое одно или более из энергозависимой или энергонезависимой памяти, накопителей на жестком диске, флэш-запоминающих устройств и/или оптических запоминающих устройств (например, CD, DVD и т.д.), удаленного запоминающего устройства, среди прочего. Когда используется в данном документе, термин "компьютерно-читаемые носители" может включать в себя сигналы. В отличие от этого, термин "компьютерно-читаемые носители хранения" исключает сигналы. Компьютерно-читаемые носители хранения включают в себя "компьютерно-читаемые запоминающие устройства". Примеры компьютерно-читаемых запоминающих устройств включают в себя энергозависимые носители хранения, такие как RAM, и энергонезависимые носители хранения, такие как накопители на жестких дисках, оптические диски и флэш-память, среди прочего.
[00061] Примеры устройств могут включать в себя традиционные вычислительные устройства, такие как персональные компьютеры настольные компьютеры, компьютеры-ноутбуки, сотовые телефоны, смартфоны, персональные цифровые помощники, компьютеры планшетного типа, цифровые электронные доски, камеры, носимые устройства, такие как интеллектуальные очки, или любые из несметного числа постоянно развивающихся или еще должных быть разработанными типов вычислительных устройств.
[00062] Как упомянуто выше, носимые интеллектуальные устройства 102(3)(B) могут быть задуманы как тип конструкции системы на кристалле (SOC). В таком случае функциональность, обеспечиваемая устройством, может быть интегрирована в одной SOC или множестве соединенных SOC. Один или более процессоров могут быть сконфигурированы, чтобы координироваться с совместно используемыми ресурсами, такими как память, устройство хранения и т.д., и/или одним или более выделенными ресурсами, такими как аппаратные блоки, сконфигурированные, чтобы выполнять некоторую специальную функциональность. Таким образом, термин "процессор", когда используется в данном документе, может также ссылаться на центральные процессоры (CPU), графические процессоры (GPU), контроллеры, микроконтроллеры, процессорные ядра или другие типы устройств обработки.
[00063] В целом, любые из функций, описанных в данном документе, могут быть реализованы с помощью программного обеспечения, микропрограммного обеспечения, аппаратных средств (например, схемы с фиксированной логикой), ручной обработки или комбинации этих реализаций. Термин "компонент", когда используется в данном документе, как правило, представляет программное обеспечение, микропрограммное обеспечение, аппаратные средства, устройства целиком или сети или их комбинацию. В случае программной реализации, например, они могут представлять программный код, который выполняет указанные задачи при выполнении на процессоре (например, CPU или нескольких CPU). Программный код может быть сохранен на одном или более машиночитаемых устройств памяти, к примеру, машиночитаемых носителей хранения данных. Признаки и технически приемы компонента являются платформенно-независимыми, означающими, что они могут быть реализованы на множестве коммерческих вычислительных платформ, имеющих множество конфигураций обработки.
[00064] Отметим, что в любой из настоящих реализаций конфиденциальность пользователя может быть защищена посредством предоставления возможности визуализации признаков, только когда пользователь дает свое явное согласие. Все процедуры конфиденциальности и защиты могут быть реализованы, чтобы защищать пользователя. Например, пользователь может предоставлять авторизацию (и/или определять условия авторизации). Носимое интеллектуальное устройство лишь возобновляет отслеживание лица пользователя согласно условиям авторизации. Иначе, информация о пользователе не собирается. Аналогично, пользователю может быть предоставлена возможность определять использование его/ее данных, которые включают в себя данные визуализации. Любое использование данных визуализации должно согласовываться с определенными пользовательскими условиями.
Заключение
[00065] Настоящие реализации могут получать полезную информацию от камеры с малым углом (и/или других датчиков), которые лишь захватывают частичный вид лица пользователя. Настоящие реализации могут использовать алгоритмы машинного обучения, чтобы оценивать параметры выражения лица на основе данных обучения, собранных с помощью датчиков глубины, таких как датчик глубины Kinect® Brand, предложенный корпорацией Microsoft®. Настоящие реализации могут надежно отслеживать выражение лица людей даже с очень ограниченных углов обзора камер.
[00066] Описанные способы или процессы могут быть выполнены посредством систем и/или устройств, описанных выше, и/или посредством других устройств и/или систем. Порядок, в котором способы описываются, не подразумевает толкование в качестве ограничения, и любое число описанных действий может быть объединено в любом порядке, чтобы реализовывать способ или альтернативный способ. Кроме того, способ может быть реализован в любых подходящих аппаратных средствах, программном обеспечении, микропрограммном обеспечении, или их комбинации, так что устройство может реализовывать способ. В одном случае способ хранится на компьютерно-читаемых носителях хранения как набор инструкций, так что исполнение посредством процессора вычислительного устройства инструктирует вычислительному устройству выполнять способ.
[00067] Хотя технические приемы, способы, устройства, системы и т.д., принадлежащие к визуализации информации, описываются на языке, специфичном для структурных признаков и/или методологических действий, должно быть понятно, что предмет изучения, определенный в прилагаемой формуле изобретения, не ограничивается обязательно характерными признаками или описанными действиями. Точнее, характерные признаки и действия раскрываются как примерные формы реализации заявленных способов, устройств, систем и т.д.

Claims (13)

1. Носимое интеллектуальное устройство, содержащее:
структуру ориентации, сконфигурированную, чтобы позиционировать носимое устройство относительно лица пользователя;
камеру, закрепленную посредством структуры ориентации, чтобы захватывать изображения рта пользователя в направлении, параллельном или под углом менее чем приблизительно +/- 45° относительно базовой плоскости, которая проходит через или включает в себя переднюю часть глаз пользователя и рта пользователя;
процессор, сконфигурированный, чтобы принимать изображения и преобразовывать изображения рта пользователя в параметры анимации, включающие в себя движения рта, ассоциированные с моделью аватара, преобразование было выполнено во время стадии обучения, чтобы связывать конкретные действия пользователя с конкретными параметрами анимации на основе действий пользователя, захватываемых одновременно посредством носимого интеллектуального устройства и посредством другого устройства формирования изображений.
2. Носимое интеллектуальное устройство по п. 1, представляющее собой интеллектуальные очки, и при этом структура ориентации содержит оправу.
3. Носимое интеллектуальное устройство по п. 2, дополнительно содержащее пару линз, поддерживаемых посредством оправы, при этом интеллектуальные очки сконфигурированы, чтобы представлять изображение на одной или обеих линзах из пары линз.
4. Носимое интеллектуальное устройство по п. 3, при этом пара линз является корректирующими линзами.
5. Носимое интеллектуальное устройство по п. 1, представляющее собой интеллектуальный головной убор, и при этом структура ориентации содержит козырек интеллектуального головного убора.
6. Носимое интеллектуальное устройство по п. 1, при этом структура ориентации содержит головную повязку.
7. Носимое интеллектуальное устройство по п. 1, при этом структура ориентации содержит оправу и дополнительно содержит зажимы для прикрепления оправы к одежде пользователя.
8. Носимое интеллектуальное устройство по п. 2, дополнительно содержащее по меньшей мере один другой датчик, ориентированный на оправе по направлению к глазу пользователя и сконфигурированный, чтобы захватывать другие изображения глаза пользователя одновременно с захватом камерой изображений рта пользователя, и при этом процессор сконфигурирован, чтобы получать параметры лица как из изображений, так и из других изображений.
9. Носимое интеллектуальное устройство по п. 1, при этом камера включает в себя линзу "рыбий глаз", которая может захватывать рот пользователя и по меньшей мере один из глаз пользователя в отдельном изображении.
10. Носимое интеллектуальное устройство по п. 2, при этом оправа включает в себя пару дужек и при этом камера ориентируется, в целом, перпендикулярно длинной оси отдельной дужки из пары дужек.
RU2016141911A 2014-04-29 2015-04-23 Отслеживание выражения лица RU2679986C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/265,201 US9672416B2 (en) 2014-04-29 2014-04-29 Facial expression tracking
US14/265,201 2014-04-29
PCT/US2015/027188 WO2015167909A1 (en) 2014-04-29 2015-04-23 Facial expression tracking

Publications (3)

Publication Number Publication Date
RU2016141911A RU2016141911A (ru) 2018-04-26
RU2016141911A3 RU2016141911A3 (ru) 2018-12-10
RU2679986C2 true RU2679986C2 (ru) 2019-02-14

Family

ID=53059473

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016141911A RU2679986C2 (ru) 2014-04-29 2015-04-23 Отслеживание выражения лица

Country Status (10)

Country Link
US (1) US9672416B2 (ru)
EP (1) EP3137938B1 (ru)
JP (1) JP6722590B2 (ru)
KR (1) KR102390781B1 (ru)
CN (1) CN106255978B (ru)
AU (1) AU2015253557B2 (ru)
CA (1) CA2943424C (ru)
MX (1) MX360923B (ru)
RU (1) RU2679986C2 (ru)
WO (1) WO2015167909A1 (ru)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2764144C1 (ru) * 2020-07-27 2022-01-13 Самсунг Электроникс Ко., Лтд. Быстрый двухслойный нейросетевой синтез реалистичных изображений нейронного аватара по одному снимку

Families Citing this family (137)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013152453A1 (en) 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
US9761032B2 (en) * 2014-07-25 2017-09-12 Intel Corporation Avatar facial expression animations with head rotation
CA2956508C (en) * 2014-08-04 2020-04-21 Facebook, Inc. Method and system for reconstructing obstructed face portions for virtual reality environment
US20160062987A1 (en) * 2014-08-26 2016-03-03 Ncr Corporation Language independent customer communications
US20170278302A1 (en) * 2014-08-29 2017-09-28 Thomson Licensing Method and device for registering an image to a model
WO2016101131A1 (en) 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
US20180107275A1 (en) * 2015-04-13 2018-04-19 Empire Technology Development Llc Detecting facial expressions
US9910275B2 (en) * 2015-05-18 2018-03-06 Samsung Electronics Co., Ltd. Image processing for head mounted display devices
US10136856B2 (en) 2016-06-27 2018-11-27 Facense Ltd. Wearable respiration measurements system
US10113913B2 (en) 2015-10-03 2018-10-30 Facense Ltd. Systems for collecting thermal measurements of the face
US9968264B2 (en) 2015-06-14 2018-05-15 Facense Ltd. Detecting physiological responses based on thermal asymmetry of the face
US10136852B2 (en) 2015-06-14 2018-11-27 Facense Ltd. Detecting an allergic reaction from nasal temperatures
US10154810B2 (en) 2015-06-14 2018-12-18 Facense Ltd. Security system that detects atypical behavior
US10076270B2 (en) 2015-06-14 2018-09-18 Facense Ltd. Detecting physiological responses while accounting for touching the face
US10085685B2 (en) 2015-06-14 2018-10-02 Facense Ltd. Selecting triggers of an allergic reaction based on nasal temperatures
US10524696B2 (en) 2015-06-14 2020-01-07 Facense Ltd. Virtual coaching based on respiration signals
DE102016110903A1 (de) 2015-06-14 2016-12-15 Facense Ltd. Head-Mounted-Devices zur Messung physiologischer Reaktionen
US10523852B2 (en) 2015-06-14 2019-12-31 Facense Ltd. Wearable inward-facing camera utilizing the Scheimpflug principle
US10045699B2 (en) 2015-06-14 2018-08-14 Facense Ltd. Determining a state of a user based on thermal measurements of the forehead
US10299717B2 (en) 2015-06-14 2019-05-28 Facense Ltd. Detecting stress based on thermal measurements of the face
US10045726B2 (en) 2015-06-14 2018-08-14 Facense Ltd. Selecting a stressor based on thermal measurements of the face
US10045737B2 (en) 2015-06-14 2018-08-14 Facense Ltd. Clip-on device with inward-facing cameras
US10130299B2 (en) 2015-06-14 2018-11-20 Facense Ltd. Neurofeedback eyeglasses
US10080861B2 (en) 2015-06-14 2018-09-25 Facense Ltd. Breathing biofeedback eyeglasses
US10524667B2 (en) 2015-06-14 2020-01-07 Facense Ltd. Respiration-based estimation of an aerobic activity parameter
US10092232B2 (en) 2015-06-14 2018-10-09 Facense Ltd. User state selection based on the shape of the exhale stream
US10064559B2 (en) 2015-06-14 2018-09-04 Facense Ltd. Identification of the dominant nostril using thermal measurements
US10216981B2 (en) 2015-06-14 2019-02-26 Facense Ltd. Eyeglasses that measure facial skin color changes
US10130261B2 (en) 2015-06-14 2018-11-20 Facense Ltd. Detecting physiological responses while taking into account consumption of confounding substances
US10130308B2 (en) 2015-06-14 2018-11-20 Facense Ltd. Calculating respiratory parameters from thermal measurements
US10159411B2 (en) 2015-06-14 2018-12-25 Facense Ltd. Detecting irregular physiological responses during exposure to sensitive data
US10076250B2 (en) 2015-06-14 2018-09-18 Facense Ltd. Detecting physiological responses based on multispectral data from head-mounted cameras
US10151636B2 (en) 2015-06-14 2018-12-11 Facense Ltd. Eyeglasses having inward-facing and outward-facing thermal cameras
DE112016004437T5 (de) * 2015-09-29 2018-07-05 BinaryVR, Inc. Head-Mounted-Display mit Gesichtsausdruck-Erkennungsfähigkeit
WO2017101094A1 (en) * 2015-12-18 2017-06-22 Intel Corporation Avatar animation system
US10217261B2 (en) * 2016-02-18 2019-02-26 Pinscreen, Inc. Deep learning-based facial animation for head-mounted display
GB2548154A (en) 2016-03-11 2017-09-13 Sony Computer Entertainment Europe Ltd Virtual reality
CN105867617B (zh) * 2016-03-25 2018-12-25 京东方科技集团股份有限公司 增强现实设备、系统、图像处理方法及装置
CN107305621A (zh) * 2016-04-17 2017-10-31 张翔宇 一种虚拟现实眼镜的图像捕获设备及图像合成系统
WO2017218306A1 (en) * 2016-06-13 2017-12-21 Sony Interactive Entertainment LLC Method and system for directing user attention to a location based game play companion application
US10083347B2 (en) * 2016-07-29 2018-09-25 NTech lab LLC Face identification using artificial neural network
US20180082482A1 (en) * 2016-09-22 2018-03-22 Apple Inc. Display system having world and user sensors
JP6964132B2 (ja) * 2016-09-28 2021-11-10 マジック リープ, インコーポレイテッドMagic Leap, Inc. ウェアラブルデバイスによる顔モデル捕捉
WO2018058557A1 (en) * 2016-09-30 2018-04-05 Intel Corporation Human search and identification in complex scenarios
EP4468061A3 (en) 2016-10-05 2025-01-15 Magic Leap, Inc. Periocular test for mixed reality calibration
US20180101989A1 (en) * 2016-10-06 2018-04-12 Google Inc. Headset removal in virtual, augmented, and mixed reality using an eye gaze database
GB2570247B (en) * 2016-10-14 2021-12-01 Facense Ltd Detecting physiological responses based on facial skin color changes
CN206387961U (zh) 2016-12-30 2017-08-08 孙淑芬 头戴显示设备
CN106686308B (zh) * 2016-12-28 2018-02-16 平安科技(深圳)有限公司 图像焦距检测方法和装置
WO2018128996A1 (en) * 2017-01-03 2018-07-12 Clipo, Inc. System and method for facilitating dynamic avatar based on real-time facial expression detection
CA2953752A1 (en) * 2017-01-06 2018-07-06 Libra At Home Ltd Virtual reality apparatus and methods therefor
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
WO2018142228A2 (en) 2017-01-19 2018-08-09 Mindmaze Holding Sa Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
CN110892408A (zh) 2017-02-07 2020-03-17 迈恩德玛泽控股股份有限公司 用于立体视觉和跟踪的系统、方法和装置
US10325396B2 (en) * 2017-02-14 2019-06-18 Linden Research, Inc. Virtual reality presentation of eye movement and eye contact
US20180247443A1 (en) * 2017-02-28 2018-08-30 International Business Machines Corporation Emotional analysis and depiction in virtual reality
US10438394B2 (en) * 2017-03-02 2019-10-08 Colopl, Inc. Information processing method, virtual space delivering system and apparatus therefor
US11042729B2 (en) * 2017-05-01 2021-06-22 Google Llc Classifying facial expressions using eye-tracking cameras
US10686996B2 (en) 2017-06-26 2020-06-16 Facebook Technologies, Llc Digital pixel with extended dynamic range
US10636193B1 (en) * 2017-06-29 2020-04-28 Facebook Technologies, Llc Generating graphical representation of a user's face and body using a monitoring system included on a head mounted display
US10636192B1 (en) 2017-06-30 2020-04-28 Facebook Technologies, Llc Generating a graphical representation of a face of a user wearing a head mounted display
CN107392213B (zh) * 2017-07-21 2020-04-07 西安电子科技大学 基于深度图模型特征学习的人脸画像合成方法
US10726627B2 (en) 2017-07-25 2020-07-28 Facebook Technologies, Llc Sensor system based on stacked sensor layers
US11568609B1 (en) 2017-07-25 2023-01-31 Meta Platforms Technologies, Llc Image sensor having on-chip compute circuit
US10598546B2 (en) 2017-08-17 2020-03-24 Facebook Technologies, Llc Detecting high intensity light in photo sensor
TWI647631B (zh) * 2017-11-28 2019-01-11 承潔投資有限公司 工地管理系統及其穿戴裝置
HUE055188T2 (hu) * 2017-12-01 2021-11-29 Grifols Worldwide Operations Ltd Tartály fedéllel és eszköz tartály fedelek nyitására és zárására
KR102564854B1 (ko) 2017-12-29 2023-08-08 삼성전자주식회사 정규화된 표현력에 기초한 표정 인식 방법, 표정 인식 장치 및 표정 인식을 위한 학습 방법
KR102564855B1 (ko) 2018-01-08 2023-08-08 삼성전자주식회사 표정 변화에 강인한 객체 및 표정 인식 장치 및 방법, 객체 및 표정 트레이닝 장치 및 방법
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
CN111868737B (zh) 2018-01-24 2025-01-24 苹果公司 使用神经网络的基于事件相机的注视跟踪
US11057581B2 (en) 2018-01-24 2021-07-06 Facebook Technologies, Llc Digital pixel array with multi-stage readouts
WO2019154511A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
US11194161B2 (en) 2018-02-09 2021-12-07 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
EP3749172B2 (en) 2018-02-09 2025-01-01 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
US12034015B2 (en) 2018-05-25 2024-07-09 Meta Platforms Technologies, Llc Programmable pixel array
CN110634174B (zh) * 2018-06-05 2023-10-10 深圳市优必选科技有限公司 一种表情动画过渡方法、系统及智能终端
US11906353B2 (en) 2018-06-11 2024-02-20 Meta Platforms Technologies, Llc Digital pixel with extended dynamic range
US11463636B2 (en) 2018-06-27 2022-10-04 Facebook Technologies, Llc Pixel sensor having multiple photodiodes
US10897586B2 (en) 2018-06-28 2021-01-19 Facebook Technologies, Llc Global shutter image sensor
JP7382387B2 (ja) 2018-07-24 2023-11-16 マジック リープ, インコーポレイテッド ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法
US10931884B2 (en) 2018-08-20 2021-02-23 Facebook Technologies, Llc Pixel sensor having adaptive exposure time
CN109145987B (zh) * 2018-08-21 2020-10-20 厦门美图之家科技有限公司 模型生成方法及装置
US11956413B2 (en) 2018-08-27 2024-04-09 Meta Platforms Technologies, Llc Pixel sensor having multiple photodiodes and shared comparator
US11595602B2 (en) 2018-11-05 2023-02-28 Meta Platforms Technologies, Llc Image sensor post processing
CN109474805A (zh) * 2018-11-08 2019-03-15 国网北京市电力公司 一种电子眼镜
JP6559870B1 (ja) * 2018-11-30 2019-08-14 株式会社ドワンゴ 動画合成装置、動画合成方法及び動画合成プログラム
JP6559871B1 (ja) * 2018-11-30 2019-08-14 株式会社ドワンゴ 動画合成装置、動画合成方法及び動画合成プログラム
US11888002B2 (en) 2018-12-17 2024-01-30 Meta Platforms Technologies, Llc Dynamically programmable image sensor
US11962928B2 (en) 2018-12-17 2024-04-16 Meta Platforms Technologies, Llc Programmable pixel array
EP3881525A4 (en) * 2018-12-20 2021-12-15 Sony Group Corporation PHOTO-VIDEO-BASED SPACE-TEMPORAL VOLUMETRIC CAPTURE SYSTEM
JP7160669B2 (ja) * 2018-12-27 2022-10-25 株式会社コロプラ プログラム、情報処理装置、および方法
US10936178B2 (en) * 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos
EP3912013A1 (en) 2019-01-16 2021-11-24 Pupil Labs GmbH Methods for generating calibration data for head-wearable devices and eye tracking system
US12250451B2 (en) 2019-03-11 2025-03-11 Nokia Technologies Oy Conditional display of object characteristics
US11218660B1 (en) 2019-03-26 2022-01-04 Facebook Technologies, Llc Pixel sensor having shared readout structure
WO2020204000A1 (ja) * 2019-04-01 2020-10-08 住友電気工業株式会社 コミュニケーション支援システム、コミュニケーション支援方法、コミュニケーション支援プログラム、および画像制御プログラム
WO2020244752A1 (en) 2019-06-05 2020-12-10 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11943561B2 (en) 2019-06-13 2024-03-26 Meta Platforms Technologies, Llc Non-linear quantization at pixel sensor
EP3987380B1 (en) 2019-06-18 2024-10-16 Pupil Labs GmbH Systems and methods for determining one or more parameters of a user's eye
US12108141B2 (en) 2019-08-05 2024-10-01 Meta Platforms Technologies, Llc Dynamically programmable image sensor
US11936998B1 (en) 2019-10-17 2024-03-19 Meta Platforms Technologies, Llc Digital pixel sensor having extended dynamic range
US11935291B2 (en) 2019-10-30 2024-03-19 Meta Platforms Technologies, Llc Distributed sensor system
US11948089B2 (en) 2019-11-07 2024-04-02 Meta Platforms Technologies, Llc Sparse image sensing and processing
US12141888B1 (en) 2019-12-18 2024-11-12 Meta Platforms Technologies, Llc Dynamic and hierarchical image sensing and processing
WO2021164867A1 (en) 2020-02-19 2021-08-26 Pupil Labs Gmbh Eye tracking module and head-wearable device
US11902685B1 (en) 2020-04-28 2024-02-13 Meta Platforms Technologies, Llc Pixel sensor having hierarchical memory
US12400473B2 (en) 2020-05-15 2025-08-26 Cornell University Wearable facial movement tracking devices
EP4150520A4 (en) * 2020-05-15 2024-05-22 Cornell University WEARABLE DEVICES FOR FACIAL EXPRESSION RECOGNITION
US11825228B2 (en) 2020-05-20 2023-11-21 Meta Platforms Technologies, Llc Programmable pixel array having multiple power domains
US11910114B2 (en) 2020-07-17 2024-02-20 Meta Platforms Technologies, Llc Multi-mode image sensor
US12254062B2 (en) * 2020-08-26 2025-03-18 International Business Machines Corporation Domain adaptation
US12075175B1 (en) 2020-09-08 2024-08-27 Meta Platforms Technologies, Llc Programmable smart sensor with adaptive readout
US11956560B2 (en) 2020-10-09 2024-04-09 Meta Platforms Technologies, Llc Digital pixel sensor having reduced quantization operation
US11908233B2 (en) 2020-11-02 2024-02-20 Pinscreen, Inc. Normalization of facial images using deep neural networks
US11935575B1 (en) 2020-12-23 2024-03-19 Meta Platforms Technologies, Llc Heterogeneous memory system
US12022218B2 (en) 2020-12-29 2024-06-25 Meta Platforms Technologies, Llc Digital image sensor using a single-input comparator based quantizer
CN112929619B (zh) * 2021-02-03 2022-04-19 广州工程技术职业学院 一种动画角色中面部特征点的跟踪显示结构
GB2607151B (en) * 2021-03-12 2024-06-05 Canon Kk Wearable image pickup apparatus, portable device and calibrator that communicate with image pickup apparatus, control methods therefor, and storage media
EP4080331A1 (fr) * 2021-04-19 2022-10-26 Dynamixyz Casque
US11614345B2 (en) 2021-06-16 2023-03-28 Microsoft Technology Licensing, Llc Surface sensing via resonant sensor
US12482113B2 (en) * 2021-06-18 2025-11-25 Meta Platforms Technologies, Llc Inferring user pose using optical data
GB2611154B (en) 2021-07-29 2025-10-08 Canon Kk Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor
KR20230019016A (ko) 2021-07-30 2023-02-07 캐논 가부시끼가이샤 액션 카메라로서 사용되는 촬상장치
GB2611156B (en) 2021-07-30 2024-06-05 Canon Kk Image capture apparatus, control method, and program
GB2611157B (en) 2021-07-30 2025-01-08 Canon Kk Image pickup apparatus used as action camera, calibration system, control method for image pickup apparatus, and storage medium storing control program for...
US12159352B2 (en) * 2021-08-30 2024-12-03 Bsset Llc Extended reality movement platform
US12452517B2 (en) 2021-10-22 2025-10-21 Canon Kabushiki Kaisha Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor
US12244936B2 (en) 2022-01-26 2025-03-04 Meta Platforms Technologies, Llc On-sensor image processor utilizing contextual data
US11726578B1 (en) 2022-02-11 2023-08-15 Meta Platforms Technologies, Llc Scrolling and navigation in virtual reality
US12320888B2 (en) 2022-05-12 2025-06-03 Microsoft Technology Licensing, Llc Controlling computer-generated facial expressions
KR102575097B1 (ko) 2022-11-09 2023-09-06 주식회사 플루언트 음성 기반 아바타 얼굴 표정 구현 방법 및 장치
CN118430034A (zh) * 2023-02-01 2024-08-02 宏达国际电子股份有限公司 面部跟踪系统和方法
CN119342200B (zh) * 2023-07-19 2025-11-04 北京小米移动软件有限公司 通信方法及装置、穿戴设备、存储介质
WO2025216484A1 (ko) * 2024-04-12 2025-10-16 삼성전자주식회사 아바타의 표시를 위한 방식을 변경하기 위한 웨어러블 장치, 방법, 및 비일시적 컴퓨터 판독 가능 저장 매체
WO2025254920A1 (en) * 2024-06-05 2025-12-11 Meta Platforms Technologies, Llc Pose-based facial expressions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EA005642B1 (ru) * 2001-10-19 2005-04-28 Дмейтс Ас Способ передачи информации в компьютерных сетях
US20120044365A1 (en) * 2010-08-20 2012-02-23 Gary Stephen Shuster Remote telepresence gaze direction
US20130117377A1 (en) * 2011-10-28 2013-05-09 Samuel A. Miller System and Method for Augmented and Virtual Reality
RU2493599C2 (ru) * 2007-02-02 2013-09-20 Конинклейке Филипс Электроникс Н.В. Медицинские системы и способы видеосвязи
WO2013152454A1 (en) * 2012-04-09 2013-10-17 Intel Corporation System and method for avatar management and selection

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5124145U (ru) * 1974-08-07 1976-02-21
US5886735A (en) 1997-01-14 1999-03-23 Bullister; Edward T Video telephone headset
US6774869B2 (en) 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US6493136B2 (en) * 2001-03-07 2002-12-10 General Scientific Corp. Clip-on optical mounting structure
US20050208457A1 (en) * 2004-01-05 2005-09-22 Wolfgang Fink Digital object recognition audio-assistant for the visually impaired
US7606392B2 (en) 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US7991230B2 (en) * 2005-10-14 2011-08-02 Microsoft Corporation Modeling micro-structure for feature extraction
US8601379B2 (en) 2006-05-07 2013-12-03 Sony Computer Entertainment Inc. Methods for interactive communications with real time effects and avatar environment interaction
US8068169B2 (en) * 2007-02-26 2011-11-29 General Scientific Corporation Clip-on video camera system for medical, surgical and dental applications
WO2011042989A1 (ja) * 2009-10-09 2011-04-14 Kikuchi Kouichi 視認情景に対する視認者情感判定装置
KR20120018479A (ko) * 2010-08-23 2012-03-05 에스케이플래닛 주식회사 얼굴 표정 및 동작 인식을 이용한 아바타 제공 서버 및 그 방법
KR101133225B1 (ko) * 2010-11-12 2012-04-05 홍익대학교 산학협력단 자세 추정을 이용한 얼굴 인식 시스템 및 방법
US8573866B2 (en) 2011-02-03 2013-11-05 Jason R. Bond Head-mounted face image capturing devices and systems
US9165404B2 (en) 2011-07-14 2015-10-20 Samsung Electronics Co., Ltd. Method, apparatus, and system for processing virtual world
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
WO2013077076A1 (ja) * 2011-11-24 2013-05-30 株式会社エヌ・ティ・ティ・ドコモ 表情出力装置及び表情出力方法
JP2013175929A (ja) * 2012-02-24 2013-09-05 Nikon Corp 情報出力装置、及び情報出力方法
WO2013152453A1 (en) 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
US9235968B2 (en) * 2013-03-14 2016-01-12 Otoy, Inc. Tactile elements for a wearable eye piece
WO2014194488A1 (en) * 2013-06-05 2014-12-11 Intel Corporation Karaoke avatar animation based on facial motion data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EA005642B1 (ru) * 2001-10-19 2005-04-28 Дмейтс Ас Способ передачи информации в компьютерных сетях
RU2493599C2 (ru) * 2007-02-02 2013-09-20 Конинклейке Филипс Электроникс Н.В. Медицинские системы и способы видеосвязи
US20120044365A1 (en) * 2010-08-20 2012-02-23 Gary Stephen Shuster Remote telepresence gaze direction
US20130117377A1 (en) * 2011-10-28 2013-05-09 Samuel A. Miller System and Method for Augmented and Virtual Reality
WO2013152454A1 (en) * 2012-04-09 2013-10-17 Intel Corporation System and method for avatar management and selection

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2764144C1 (ru) * 2020-07-27 2022-01-13 Самсунг Электроникс Ко., Лтд. Быстрый двухслойный нейросетевой синтез реалистичных изображений нейронного аватара по одному снимку

Also Published As

Publication number Publication date
MX2016014091A (es) 2017-02-09
CA2943424A1 (en) 2015-11-05
EP3137938B1 (en) 2018-01-31
KR20160146861A (ko) 2016-12-21
CN106255978A (zh) 2016-12-21
CN106255978B (zh) 2019-09-03
AU2015253557A1 (en) 2017-03-09
RU2016141911A (ru) 2018-04-26
AU2015253557B2 (en) 2019-07-25
EP3137938A1 (en) 2017-03-08
US9672416B2 (en) 2017-06-06
JP6722590B2 (ja) 2020-07-15
MX360923B (es) 2018-11-22
US20150310263A1 (en) 2015-10-29
KR102390781B1 (ko) 2022-04-25
RU2016141911A3 (ru) 2018-12-10
CA2943424C (en) 2021-11-16
JP2017516140A (ja) 2017-06-15
WO2015167909A1 (en) 2015-11-05

Similar Documents

Publication Publication Date Title
RU2679986C2 (ru) Отслеживание выражения лица
US20140254939A1 (en) Apparatus and method for outputting information on facial expression
CN111242090A (zh) 基于人工智能的人脸识别方法、装置、设备及介质
CN119836650B (zh) 基于使用部分面部图像的三维面部建模的用户认证
CN112400148B (zh) 使用离轴相机执行眼睛跟踪的方法和系统
US20240312248A1 (en) Apparatus and methods for augmenting vision with region-of-interest based processing
US11900058B2 (en) Ring motion capture and message composition system
US20240312146A1 (en) Apparatus and methods for augmenting vision with region-of-interest based processing
KR102134476B1 (ko) 인공신경망을 이용한 가상 피팅 시스템, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
WO2022011621A1 (zh) 一种人脸光照图像生成装置及方法
US20240312150A1 (en) Apparatus and methods for augmenting vision with region-of-interest based processing
US20240312147A1 (en) Apparatus and methods for augmenting vision with region-of-interest based processing
CN113744411A (zh) 图像处理方法及装置、设备、存储介质
US20240087232A1 (en) Systems and methods of three-dimensional modeling based on object tracking
KR20190114602A (ko) 다중 구조 인공신경망을 이용한 가상 피팅을 수행하기 위한 장치, 이를 위한 방법 및 이 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체
US12437438B2 (en) Estimating body poses based on images and head-pose information
CN117041670B (zh) 图像处理方法及相关设备
US12573151B2 (en) Personalized deformable mesh by finetuning on personalized texture
US20260087732A1 (en) Simplified annotation-free domain transfer for facial avatars
US20250020925A1 (en) Managing devices for virtual telepresence
WO2025014594A1 (en) Managing devices for virtual telepresence
TWM650161U (zh) 裸視三維實境系統
KR20260036370A (ko) 이미지 및 머리 포즈 정보에 기초한 신체 포즈 추정
WO2024263274A1 (en) Ambiguity resolution for object selection and faster application loading for cluttered scenarios
HK40091081B (zh) 关键点检测方法、装置、计算机设备及存储介质