CN104040467B - 伴随着个人反应的内容消费 - Google Patents

伴随着个人反应的内容消费 Download PDF

Info

Publication number
CN104040467B
CN104040467B CN201380004911.5A CN201380004911A CN104040467B CN 104040467 B CN104040467 B CN 104040467B CN 201380004911 A CN201380004911 A CN 201380004911A CN 104040467 B CN104040467 B CN 104040467B
Authority
CN
China
Prior art keywords
reaction
content
individual
video
personal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380004911.5A
Other languages
English (en)
Other versions
CN104040467A (zh
Inventor
Y·党
S·保兰托尼欧
X·林
D·张
X·曹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN104040467A publication Critical patent/CN104040467A/zh
Application granted granted Critical
Publication of CN104040467B publication Critical patent/CN104040467B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Neurosurgery (AREA)
  • Computer Hardware Design (AREA)
  • Social Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本文描述了用于获得某一个人对内容的反应以及与该内容一起输出该个人的反应的技术。这些技术可包括在该内容被显示给该个人时获得该个人的反应。该反应可通过捕捉该个人的视频来被获得。该个人的该反应和该内容可在同时被输出给另一个人。这些技术还可包括在该内容和该个人的该反应被输出给另一个人时获得另一个人的反应。

Description

伴随着个人反应的内容消费
背景技术
大量且越来越多的个人消费诸如视频、音乐、图像、电子文本之类的内容。这些个人通常通过例如向内容提供评论和/或向另一个人推荐内容来与内容交互。尽管这些方法可提供与内容的某种交互,但是仍然存在不断增加的机会来以交互方式消费内容。
附图说明
参考附图阐述详细描述。在附图中,附图标记中最左边的数字标识该附图标记首次出现的附图。在不同附图中使用同一附图标记指示相似或相同的项或特征。
图1例示出获得一个或多个个人对这些个人所观看的内容的反应以及在向一个或多个其他个人示出该内容时与该内容一起提供这些反应的示例架构。
图2A-2B例示出获得某一个人对内容的反应并在此后的某一时间输出该内容和该个人的反应的示例过程。
图3例示出用于获得某一个人对内容的反应和/或同时输出该反应和该内容的示例用户界面。
图4例示出用于在特定内容被捕捉时捕捉某一个人对该内容的反应的示例设备。
图5示出用于确定可向一个或多个个人输出的内容的一个或多个分段的示例过程。
图6-7例示出用于采用本文所述的技术的示例过程。
具体实施方式
本公开部分地针对获得某一个人对内容的反应并提供该反应和内容以在同时被输出。该个人的反应可通过在内容被输出时捕捉该个人的视频、捕捉该个人的音频、和/或监视该个人对内容的物理响应来获得。在某些实例中,该个人的反应与该内容、与该个人的显式知晓和赞成相关联。例如,该个人的反应可被存储为与该内容相关联的元数据,和/或可与该内容一起被存储在一个或多个服务器上。
此后,该个人的反应和该内容可被提供以被输出给一个或多个个人。例如,该个人的反应和该内容可在同时被输出(例如显示)给另一个人。当该个人的反应和该内容被输出时,可获得另一个人的反应。例如,该另一个人的反应可通过在该另一个人观看该个人的反应和该内容时捕捉该另一个人的视频或音频来获得。然后可类似地输出该另一个人的反应。也就是说,另一个人的反应和该内容可在同时被输出(例如显示)给又一个人。在一些情况中,该内容可与该个人的反应和其他个人(一个或多个)的反应同时被输出。通过实现这些技术,这些个人不仅观看特定内容,而且还能够观看其他个人对该内容的反应,这增加了这些个人的整体观看体验。
本简介,包括节标题和对应的概述,是出于方便读者的目的而提供的,而非旨在限制权利要求的范围,也不旨在限制接下去各节的范围。此外,以下详细描述的技术可以用多种方式并在多种上下文中实现。一个示例实现和上下文参考以下附图来提供,并在下文中详细描述。然而,要理解,以下实现和上下文仅仅是多种实现和上下文中的一种。
概览
图1例示出获得一个或多个个人对内容的反应以及与该内容一起提供反应的示例架构100。在此,在设备102通过网络(一个或多个)106与服务提供者104通信的上下文中来描述这些技术。例如,设备102可与服务提供者104通信以获得和/或提供内容和/或一个或多个个人对该内容的反应。
在该架构100中,设备102可包括被配置成处理数据的硬件和/或软件资源的任意组合。设备102可被实现为任意数量的计算设备,包括例如个人计算机、膝上型计算机、蜂窝电话、平板设备、个人数字助理(PDA)等等。设备102配备有一个或多个处理器108、存储器110、话筒112、相机114、其他传感器(一个或多个)116、以及网络接口(一个或多个)118。相机114可包括例如摄像机、网络相机、数字照相机等。其他传感器(一个或多个)116可包括例如心律监控器、血压监控器、凝视跟踪装备等等。
存储器110可被配置成存储应用和数据。运行在设备102上的诸如反应模块120之类的应用可执行用于获得一个或多个个人对内容的反应和/或与内容一起提供反应以在同时被输出的操作。如下文进一步详细讨论的,反应模块120可与服务提供者104协作地执行一个或多个操作。
尽管存储器110在图1中被描绘为单个单元,但存储器110(以及本文中所描述的所有其他存储器)可包括一个计算机可读介质或计算机可读介质的组合。计算机可读介质可包括计算机存储介质和/或通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据之类的信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括但不限于,相变存储器(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、闪存或其他存储器技术、光盘只读存储器(CD-ROM)、数字多功能盘(DVD)或其它光存储、磁带盒、磁带、磁盘存储或其它磁存储设备、或可用于存储由计算设备访问的信息的任何其他非传输介质。
相反,通信介质可在诸如载波之类的已调制数据信号或其他传输机制中体现计算机可读指令、数据结构、程序模块或其他数据。如本文所定义的,计算机存储介质不包括通信介质。
在图1的示例中,设备102通过网络(一个或多个)106与服务提供者104通信。网络(一个或多个)106可包括多种不同类型的网络中的任一个或组合,诸如蜂窝网络、无线网络、局域网和因特网。同时,服务提供者104可被主控在具有处理和存储能力的一个或多个设备122上。设备(一个或多个)122可被实现为任意数量的设备,包括例如一个或多个服务器、个人计算机或膝上型计算机。在一个示例中,设备(一个或多个)122包括数据中心或云计算环境中的一个或多个服务器。设备(一个或多个)122还配备有处理器(一个或多个)124、存储器126和网络接口(一个或多个)128。
存储器126可被配置成存储应用和数据。运行在设备(一个或多个)122上的诸如反应服务模块130之类的应用可执行用于获得和/或提供内容和/或对内容的反应的操作。在某些情况下,反应服务模块130被实现为设备102的远程资源,如在云计算环境中。在此,反应服务模块130可执行用于以下的操作:向设备102提供内容,从设备102接收某一个人的反应,将该内容与该反应相关联,和/或将该反应和/或该内容提供给设备102或另一设备。在这些情况下,设备102可执行用于输出内容和/或反应(如显示内容和/或反应)以及获得该个人的该反应(如捕捉该个人的该反应)的操作。
同时,在其他情况中,设备102可本地地执行用于获得和/或提供内容和/或对内容的反应的操作。例如,设备102的反应模块120可执行用于以下的操作:将内容输出给某一个人,获得该个人对该内容的反应,将该个人的反应与该内容相关联,和/或将该反应和该内容输出给该个人和/或其他个人。尽管本文所述的技术在许多实例中被例示为由设备102实现,但是这些技术可类似地由服务提供者104实现或与服务提供者104协作来实现。
架构100还包括存储内容134和对内容的反应136的数据存储132。内容134可包括例如视频、音频、数字文本、图像等等。内容可先前由设备102、服务提供者104和/或另一设备生成。如图1所例示,内容134可与对内容134的一个或多个反应136相关联。通过利用公知的技术,反应136可与内容134相关联。这些技术可包括例如,将反应136存储为用于内容134的元数据,将内容134存储为用于反应136的元数据,将反应136和内容134一起存储在存储器中的相同位置,存储指示反应136和内容134之间的相关性的数据,等等。
反应136一般可包括一个或多个个人对内容134的一个或多个可观察的动作。例如,反应136可包括面部表情(如笑、皱眉等)、身体移动(如头部运动、手臂运动、眼睛移动等)、声音(如笑声、喊声、哭声、说话声等)、神经响应、心律(如心律的增加或减少)、血压(如血压升高或降低)等等。在某些实例中,反应136可替代地或另外地包括该一个或多个个人的响应,如该一个或多个个人将摄像机对准某一物体、另一个人、和/或某一宠物。在这些实例中,反应136可包括该另一个人和/或宠物的反应。
反应136可通过捕捉图像、捕捉图像序列、捕捉该一个或多个个人的视频、捕捉该一个或多个个人的音频、获得文本输入、和/或监视物理移动、神经响应、心律和/或血压来获得。反应136可经诸如摄像机、话筒、眼睛跟踪设备、心律监控器、血压监控器等之类的装备来获得。尽管本公开的许多方面描述了以视频的形式获得的反应,但是反应可另外地或替代地以音频、图像、文本、和/或通过监视物理移动、神经响应、心律和/或血压而生成的其他数据的形式来获得。
反应136是在个人的显式知晓和赞成的情况下获得的。在某些情况下,在反应被获得之前向该个人呈现通知。该通知可请求来自该个人的授权以在该个人消费该内容时获得该个人的反应。此外,该通知可请求来自该个人的授权以将该反应与该内容相关联和/或与该内容一起输出该反应。通过这样做,该个人可提供获得和/或使用该个人的反应的授权。
在某些实现中,反应136与可被用于输出反应136的一个或多个化身(如人物)相关联。在此,反应136可被转换成要由与该内容一起被输出(如显示)的一个或多个化身来实现。也就是说,化身可被配置成输出某一个人的反应,使得该化身表达出与该个人的该反应相同或类似的反应。该化身可表达例如与该个人的该反应中所捕捉的相同或类似的面部表情、身体移动和/或声音。在某些实例中,这可允许该个人的反应被输出而不用输出该个人的外观和/或身份。尽管本公开的许多方面描述了不利用化身而输出的个人的反应,但是反应可替代地或另外地通过化身来输出,例如通过用对应于该个人的反应的动画来显示化身。
数据存储132可位于设备102、服务提供者104、和/或其他设备可访问的任何位置处。在某些情况中,数据存储132位于设备102的存储器110中。而在其他情况中,数据存储132位于设备(一个或多个)122的存储器126中或位于其他内容提供者设备上。尽管数据存储132在图1中被示为单个单元,但是数据存储132可包括位于一个或多个设备中的两个或更多个单元。例如,数据存储132可包括存储内容134的第一数据存储以及存储反应136的第二数据存储。在某些实现中,第一数据存储位于设备102中,而第二数据存储位于设备(一个或多个)122中。在其他实现中,第一数据存储位于设备(一个或多个)122中,而第二数据存储位于设备102中。通过这样做,内容134可独立于和/或远离于反应136被存储。
图2A-2B例示出用于获得某一个人202对内容204的反应以及输出该内容204和该个人202的该反应的示例过程200。内容204可包括例如视频、歌曲、数字图像、数字文本等等。在图2A中,设备206通过在个人202消费(如观看、收听等)内容204时捕捉该个人202的反应视频208来获得反应。在此,反应视频208是经与设备206相关联的摄像机210被捕捉的。尽管未例示出,设备206可另外地或替代地通过捕捉个人202的音频、获得文本输入、和/或监视个人202的物理移动、神经响应、心律和/或血压来获得反应。设备206在个人202的显式知晓和赞成的情况下获得该反应。
在图2B中,个人202的反应视频208可与内容204同时被输出。反应视频208和内容204可经设备206或另一设备被输出。如所例示,反应视频208在一设备上与内容204同时被显示给某一个人212。反应视频208和内容204可被输出,使得反应视频208与内容204同步。例如,如果个人202在观看内容204的某一特定分段时表达了某一特定反应,则个人202的该特定反应将在个人212观看内容204的该特定分段的同时被显示给个人212。通过这样做,个人212可在个人212消费内容204时观看个人202的反应。尽管图2B例示出反应视频208被输出给个人212,反应视频208也可替代地或另外地被输出给个人202。
在一些实现中,反应视频208与内容204相关联地被存储并在稍后的时间在一个或多个设备上输出。在其他实现中,反应视频208和内容204以实时方式被输出。换言之,在设备206捕捉个人202的反应视频208的同时,个人212可观看反应视频208。在该实现中,内容204可以被同步,使得个人202和个人212在同一时间观看内容204的相同部分。在某些情况中,在内容204被显示的同时,反应视频208被显示在内容204的至少一部分上。
同时,在个人212消费反应视频208和内容204期间,一设备可类似地获得个人212对反应视频208和内容204的反应。例如,在个人212观看反应视频208和内容204时,该设备可捕捉个人212的视频,捕捉个人212的音频,和/或监视个人212的物理移动、神经响应、心律和/或血压。该设备在个人212显式知晓和赞成的情况下获得个人212的反应。获得的个人212的反应以及内容204可在同时被输出给另一设备、或设备206(例如在同时被显示)。与上面讨论的类似,个人212的反应可与内容204同步。
在某些情况中,个人212的反应以实时的方式被个人202观看,同时个人202的反应视频208以实时的方式被个人212观看。在这些情况中,内容204可包括实时内容或被同步的内容,如实时视频、视频游戏等。这可允许个人202和个人212以实时方式观看彼此的反应。
在某些实现中,为任意数量的个人获得对内容204的反应。例如,每次内容204被另一个人消费时,该另一个人对内容204的反应可被获得。这些反应中的一个或多个可与内容204同时被输出。在某些实例中,基于例如反应被获得的时间和/或与该反应相关联的某一个人(即表达了该反应的个人)以及将消费该反应的某一个人的个人信息,这些反应中的至少一些被选择来与内容204一起输出。例如,一个或多个反应可被输出,这些反应是已被获得的最近的反应(如已经在前一段分钟、小时、天等期间获得的反应)。此外或作为替代,与和将消费反应的某一个人的个人信息相类似的个人信息相关联的一个或多个反应可被输出。该个人信息可包括例如某一个人的位置、该个人的兴趣、该个人的年龄等。该个人信息是在该个人显式知晓和赞成的情况下被使用的。
说明性用户界面
图3例示出用于获得某一个人302对内容304的反应和/或同时输出该反应和该内容304的示例用户界面300。用户界面300可经例如浏览器和/或某一应用来被显示。在某些实例中,用户界面300由诸如在线社交联网站点之类的在线站点来显示。
用户界面300可允许该个人302消费(如观看、收听等)内容304,同时该个人302的视频306被捕捉,且同时该个人302观看其他个人的一个或多个反应视频308-314。在某些实例中,在个人302开始消费内容304之前以及在个人302的视频306被捕捉之前,通知316(如警告框)被呈现给该个人302。
通知316可请求来自该个人302的授权以在该个人302消费内容304时获得该个人302的反应。如所例示,通知316可包括继续按钮和取消按钮,以提供或拒绝授权。响应于选择继续按钮,内容304可被输出,而该个人302的视频306可被捕捉。而响应于选择取消按钮,内容304可被输出,而不捕捉该个人302的视频306。尽管未例示出,但是通知316可另外地请求来自该个人302的授权以将该反应与内容304相关联,和/或在视频306已被捕捉之后与内容304一起输出视频306。
在内容304的消费期间,该个人302也可消费其他个人的反应视频308-314中的一个或多个。反应视频308-314可包括一个或多个先前记录的视频和/或一个或多个实时视频。在内容304被该个人302观看的同时,该个人302的视频306可被记录。一旦完成记录,视频306可通过上传按钮318被上传。视频306可被上传到例如服务提供者(如服务提供者104),用于根据请求分发到一个或多个设备。
在上传了视频306之后,视频306可与内容304相关联,使得一个或多个其他个人可按照与该个人302连同内容304一起观看反应视频308-314的方式类似的方式来连同内容304一起观看视频306。在某些实例中,视频306在用户界面300中被提供来给一个或多个其他个人观看。视频306可在其中提供反应视频308-314的用户界面300中被提供。
在某些实现中,该个人302可向一个或多个其他个人发送消息,指示出该个人302已经创建了关于内容304的视频306。在某些情况中,该消息包括到在线站点的链接以访问视频306和内容304。响应于选择该链接,该一个或多个个人可被发送到该在线站点以连同内容304一起观看视频306。该一个或多个其他个人可与在线社区相关联,例如在线社交联网站点。同时,用户界面300还包括用以输入评论的输入域320,以及其他个人提交的先前评论322和324。
说明性反应捕捉
图4示出了在内容被捕捉时捕捉某一个人402的反应的示例设备400。在此,设备400包括捕捉(如记录)该个人402的视频的前向相机404,以及捕捉(如记录)内容的后向相机406。在记录期间,设备400通过前向相机404捕捉该个人402的反应,同时通过后向相机406捕捉内容。该个人402的反应可包括对正被捕捉的内容的反应。
在该示例中,该个人402利用设备400来捕捉汽车408的视频以及该个人402对汽车408的反应。例如,如果该个人正在记录汽车408接近该个人402的视频,则设备400还可记录该个人402的紧张的面部表情。这里,通过选择记录按钮410,设备400可开始记录。在记录之后,汽车408的视频以及该个人402的反应可被彼此相关联地存储和/或输出到设备400和/或另一设备。该个人402的反应和汽车408的视频可在同时被输出到显示器,使得某一个人可观看该个人402对汽车408的反应。
说明性内容分析
图5例示出用于确定可向一个或多个个人输出的内容的一个或多个部分的示例过程500。在此,该一个或多个分段可基于个人508-512消费内容514时获得的一个或多个反应502-506来确定。如所示,反应502是在与内容514相关联的时间516从个人508获得的,反应504是在时间516从个人510获得的,而反应506是在时间518从个人512获得的。这里,反应502和504是在同时,即时间516,被获得的。
在一个实现中,当反应被获得且与内容514相关联时,执行分析。该分析可确定内容514的对应于该反应的分段。例如,该分析可确定反应502与内容514中的时间516相关联,并选择内容514的对应于该时间516的分段。
此后,当另一个人消费内容514时,内容514的所选分段可被输出给该另一个人。在某些实例中,内容514的所选分段与反应502一起被输出。通过这样做,其他个人可消费另一个人可能发现是有趣的内容分段。
在某些实现中,内容514的一分段可基于一个以上的反应来被选择。在此,在多个个人在同一时间表达了某一反应时可选择内容514的该分段。例如,内容的对应于时间516的某一分段可基于时间516处获得的反应502和504来被选择。
此外,在某些实现中,内容514的某一分段可在获得特定类型的反应时被选择。该特定类型的反应可包括例如微笑、皱眉、头部运动、手臂运动、笑声、喊声、哭声等。在某些实例中,内容514的该分段是在预定数量的个人在该分段表达了该特定类型的反应时被选择的。
在某些示例中,可伴随位于对应于诸个人的一个或多个反应的时间处的一个或多个指示器来呈现内容514。指示器可与用于图5中所例示的用于时间516和518中任一个的圆圈类似。指示器可被呈现在诸如进度条520之类的进度条上。在某些示例中,当某一个人选择该一个或多个指示器中的一个时,该个人可消费内容514的对应于另一个人的反应的分段。在某些实例中,通过呈现对应于来自一个或多个个人的反应的指示器,某一个人可选择内容514中被该一个或多个个人发现为有趣的那些分段来消费。
说明性过程
图6-7例示出用于采用本文所述的技术的示例过程600和700。为便于说明,过程600和700被描述为在图1的架构100中执行。例如,过程600和700的各个操作的一个或多个可由设备102和/或服务提供者104来执行。然而,过程600和700可以在其他架构中执行。此外,可使用架构100来执行其他过程。
过程600和700(以及本文描述的每一过程)被示为逻辑流程图,这些流程图中的每一操作表示可用硬件、软件或其组合实现的一系列操作。在软件的上下文中,这些操作表示存储在一个或多个计算机可读存储介质上的计算机可执行指令,这些指令在由一个或多个处理器执行时执行所述操作。一般而言,计算机可执行指令包括执行特定功能或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等。描述操作的次序并不旨在被解释为限制,并且所述操作中任何数量的操作可以按任何次序和/或并行地组合以实现该过程。
具体来说,图6例示出用于在向一个或多个个人输出内容时获得该一个或多个个人对该内容的一个或多个反应,以及与该内容一起输出该一个或多个反应的过程600。过程600包括用于向一个或多个个人输出内容的操作602。该内容可通过例如与该一个或多个个人相关联的某一设备来输出,如图1中的设备102。在该内容被输出时,操作604可被执行以用于获得该一个或多个个人的一个或多个反应。操作604可包括例如在该一个或多个个人的显式知晓和赞同的情况下捕捉该一个或多个个人的视频、捕捉该一个或多个个人的音频、和/或监视该一个或多个个人的物理移动、神经响应、心律和/或血压。
过程600还包括用于将该一个或多个个人的该一个或多个反应与该内容相关联的操作606。例如,该一个或多个反应可与该内容相关联地被存储在例如与该一个或多个个人相关联的设备(如设备102)和/或服务提供者(如服务提供者104)上。在某些情况下,过程600还包括用于选择该内容的要被输出的一个或多个分段的操作608。该内容的该一个或多个分段可以是该内容的与特定类型的反应相关联的那些分段。在其他情况中,过程600可从操作606继续到操作610,而不执行操作608。
过程600还包括用于提供该一个或多个反应和该内容以在同时被输出给该一个或多个个人或一个或多个其他个人的操作610。该一个或多个反应和该内容可经与该一个或多个个人相关联的设备(如设备102)和/或与一个或多个其他个人相关联的另一设备输出。在某些情况中,当操作608被执行时,操作610可包括提供在操作608中选择的该内容的一个或多个分段。
此外,过程600包括用于在该内容和该一个或多个个人的该一个或多个反应被输出到一个或多个其他个人时获得该一个或多个其他个人的一个或多个反应的操作612。此后,过程600可返回到操作606并将从操作612获得的一个或多个反应与该内容相关联。过程然后可执行用于选择该内容的一个或多个分段的操作608,以及用于提供该一个或多个其他个人的该一个或多个反应以及该内容以在同时被输出的操作610。在某些情况中,该内容与操作612中获得的该一个或多个其他个人的一个或多个反应以及操作604中获得的该一个或多个个人的一个或多个反应一起被输出给一个或多个另外的个人。操作612然后可被执行以获得该一个或多个另外的个人的一个或多个反应。在某些实例中,过程600执行操作606-612预定次数。替代地或另外地,过程600可执行操作606-612直到该内容的预定数量的分段被操作608选择为止。
同时,图7示出用于提供内容,获得对内容的反应,以及提供该内容和该反应的过程700。过程700包括用于向诸如设备102之类的设备提供内容的操作702。在某些实例中,该内容可由服务提供者(如服务提供者104)以流传输格式来提供。过程700还包括用于通过该设备向一个或多个个人输出该内容的操作704。在该内容被输出时,操作706可被执行以用于获得该一个或多个个人对该内容的一个或多个反应。操作706可由与该个人相关联的该设备(如设备102)执行。
此外,过程700包括用于向诸如服务提供者104之类的服务提供者提供该一个或多个反应的操作708。过程700还包括用于与该内容相关联地存储该一个或多个反应的操作710。操作710可由该服务提供者执行。此外,过程700包括用于向一个或多个设备提供该内容以及该一个或多个个人的该一个或多个反应的操作712。在某些实例中,该服务提供者响应于来自该一个或多个设备的请求而执行操作712。
结语
虽然已经用对结构特征和/或方法动作专用的语言描述了各实施例,但是应该理解,本公开不必限于所述的特定特征或动作。相反,这些特定特征和动作在本文中是作为实现各实施例的说明性形式而被公开的。

Claims (16)

1.一种系统,包括:
一个或多个处理器;以及
可由所述一个或多个处理器访问的存储器,所述存储器存储了可由所述一个或多个处理器执行的反应模块用以执行操作,所述操作包括:
在内容被捕捉或显示时获得某一个人对所述内容的反应;
由所述一个或多个处理器对所述反应执行分析来确定所述内容中对应于特定类型的反应的特定分段以及与所述特定类型的反应相关联的反应视频;
将所述反应视频与所述内容的所述特定分段相关联;以及
提供所述反应视频和所述内容的所述特定分段用来显示给一个或多个个人,所述反应视频和所述内容的所述特定分段用来在同时显示给所述一个或多个个人。
2.如权利要求1所述的系统,其特征在于,还包括:
捕捉所述内容的第一摄像机;以及
在所述内容被所述第一摄像机捕捉时捕捉所述个人对所述内容的所述反应的第二摄像机。
3.如权利要求1所述的系统,其特征在于,获得所述个人的所述反应包括捕捉所述个人的视频、捕捉所述个人的音频、和/或监视所述个人的物理响应。
4.如权利要求1所述的系统,其特征在于,所述相关联包括将所述个人的所述反应存储为与所述内容相关联的元数据。
5.如权利要求1所述的系统,其特征在于,所述相关联包括将所述个人的所述反应和所述内容存储在所述系统通过网络可访问的一个或多个服务器上。
6.如权利要求1所述的系统,其特征在于,所述操作还包括:
使所述内容与所述个人的所述反应一起显示。
7.如权利要求6所述的系统,其特征在于,在所述内容被显示的同时,所述个人的所述反应被显示在所述内容的至少一部分上。
8.如权利要求1所述的系统,其特征在于,所述提供包括提供表达所述个人的所述反应的化身来显示。
9.如权利要求1所述的系统,其特征在于,所述提供包括将所述个人的所述反应和所述内容提供给社交联网站点,用于在所述社交联网站点上同时显示所述个人的所述反应和所述内容。
10.如权利要求1所述的系统,其特征在于,所述操作还包括:
在获得所述个人的所述反应之前向所述个人提供通知,所述通知指示出在所述内容被捕捉和/或被显示给所述个人时所述个人将被记录。
11.如权利要求1所述的系统,其特征在于,所述操作还包括:
至少部分地基于所述个人的所述反应来选择所述内容的与特定类型的反应相关联的一个或多个分段。
12.一种计算机实现的方法,包括:
向某一个人输出内容;
在所述内容向所述个人输出时获得所述个人对所述内容的反应;
通过所述计算机分析所述反应来确定所述内容中与特定类型的反应对应的特定分段以及与所述特定类型的反应相关联的反应视频;以及
提供所述反应视频和所述内容的所述特定分段以输出给一个或多个个人,所述反应视频和所述内容的所述特定分段在同时被输出给所述一个或多个个人。
13.如权利要求12所述的计算机实现的方法,其特征在于,获得所述个人的所述反应包括捕捉所述个人的视频、捕捉所述个人的音频、和/或监视所述个人的物理响应。
14.如权利要求12所述的计算机实现的方法,其特征在于,所述内容包括视频和/或音频数据。
15.一种存储指令的机器可读存储介质,所述指令在被执行时使得所述机器执行如权利要求12-14中任一项所述的方法。
16.一种包括用于执行如权利要求12-14中任一项所述的方法的装置的系统。
CN201380004911.5A 2012-01-10 2013-01-09 伴随着个人反应的内容消费 Active CN104040467B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/347,546 2012-01-10
US13/347,546 US9571879B2 (en) 2012-01-10 2012-01-10 Consumption of content with reactions of an individual
PCT/US2013/020709 WO2013106352A1 (en) 2012-01-10 2013-01-09 Consumption of content with reactions of an individual

Publications (2)

Publication Number Publication Date
CN104040467A CN104040467A (zh) 2014-09-10
CN104040467B true CN104040467B (zh) 2018-10-16

Family

ID=48744891

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380004911.5A Active CN104040467B (zh) 2012-01-10 2013-01-09 伴随着个人反应的内容消费

Country Status (6)

Country Link
US (2) US9571879B2 (zh)
EP (1) EP2802969A4 (zh)
JP (1) JP6261515B2 (zh)
KR (2) KR20140117394A (zh)
CN (1) CN104040467B (zh)
WO (1) WO2013106352A1 (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI425935B (zh) * 2011-10-19 2014-02-11 Pixart Imaging Inc 具心跳量測功能的光學式觸控器、手持式電子裝置以及提高量測心跳準確率的方法
US9571879B2 (en) 2012-01-10 2017-02-14 Microsoft Technology Licensing, Llc Consumption of content with reactions of an individual
EP3007456A4 (en) * 2013-05-30 2016-11-02 Sony Corp CLIENT DEVICE, METHOD, SYSTEM AND CONTROL PROGRAM
US10455291B2 (en) 2015-03-20 2019-10-22 Twitter, Inc. Live video stream sharing
WO2016160744A1 (en) * 2015-03-27 2016-10-06 Twitter, Inc. Live video streaming services
WO2016161556A1 (en) * 2015-04-07 2016-10-13 Intel Corporation Avatar keyboard
JP2017054241A (ja) * 2015-09-08 2017-03-16 株式会社東芝 表示制御装置、方法及びプログラム
JP2018536212A (ja) * 2015-09-16 2018-12-06 エスキー インコーポレイテッドESKI Inc. 情報捕捉および提示のための方法および装置
US10105608B1 (en) * 2015-12-18 2018-10-23 Amazon Technologies, Inc. Applying participant metrics in game environments
US10931676B2 (en) * 2016-09-21 2021-02-23 Fyfo Llc Conditional delivery of content over a communication network including social sharing and video conference applications using facial recognition
US11206462B2 (en) 2018-03-30 2021-12-21 Scener Inc. Socially annotated audiovisual content
EP3550817B1 (en) * 2018-04-06 2023-06-07 Nokia Technologies Oy Apparatus and method for associating images from two image streams
GB201809388D0 (en) * 2018-06-07 2018-07-25 Realeyes Oue Computer-Implemented System And Method For Determining Attentiveness of User
CN112470155A (zh) * 2018-10-22 2021-03-09 松下电器(美国)知识产权公司 控制方法、内容管理系统、程序及数据结构
KR20200063777A (ko) * 2018-11-28 2020-06-05 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
EP3941073A4 (en) * 2019-03-11 2022-04-27 Sony Group Corporation INFORMATION PROCESSING DEVICE AND SYSTEM
FR3094856B1 (fr) * 2019-04-02 2021-04-30 Unique Entertainment Experience Procede de génération d’un element multimedia au cours de la lecture d’un media, terminal, systeme
US11910781B2 (en) * 2019-12-26 2024-02-27 Organic Intelligence Technologies, Inc. Analyzing media based on non-human animal input
KR102496010B1 (ko) * 2020-10-22 2023-02-06 숙명여자대학교산학협력단 감정 객체 분석 방법 및 장치
US11936948B1 (en) * 2023-01-24 2024-03-19 Roku, Inc. Method and system for generating a visual composition of user reactions in a shared content viewing session

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101169955A (zh) * 2006-10-27 2008-04-30 三星电子株式会社 用于生成内容元数据的方法和设备

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050210393A1 (en) 2000-07-05 2005-09-22 Forgent Networks, Inc. Asynchronous collaboration via audio/video annotation
JP4595998B2 (ja) 2001-02-06 2010-12-08 ソニー株式会社 コンテンツ再生装置、コンテンツ受信装置、コンテンツ評価収集解析方法、コンテンツ評価収集解析装置、コンテンツ評価集計管理方法およびコンテンツ評価集計管理装置
US8561095B2 (en) * 2001-11-13 2013-10-15 Koninklijke Philips N.V. Affective television monitoring and control in response to physiological data
US6585521B1 (en) 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
AU2003210750A1 (en) 2002-02-02 2003-09-02 E-Wings, Inc. Distributed system for interactive collaboration
US7003139B2 (en) 2002-02-19 2006-02-21 Eastman Kodak Company Method for using facial expression to determine affective information in an imaging system
KR100547339B1 (ko) * 2003-02-06 2006-01-26 엘지전자 주식회사 북마크 키를 이용한 재생장치 및 그 방법
JP4335642B2 (ja) 2003-11-10 2009-09-30 日本電信電話株式会社 視聴者反応情報収集方法と、視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム
JP4543694B2 (ja) 2004-02-17 2010-09-15 富士ゼロックス株式会社 コミュニケーションシステム、コミュニケーションシステムのサーバー、及びサーバーの処理方法
JP2005277989A (ja) * 2004-03-26 2005-10-06 Oki Electric Ind Co Ltd 通信端末装置およびその画像提供方法
JP2005317151A (ja) * 2004-04-30 2005-11-10 Nippon Telegr & Teleph Corp <Ntt> マルチメディアデータ同期再生方法、マルチメディアデータ同期再生装置およびマルチメディアデータ同期再生プログラム
US20060020966A1 (en) * 2004-07-22 2006-01-26 Thomas Poslinski Program guide with integrated progress bar
KR20060021544A (ko) 2004-09-03 2006-03-08 (주) 엘지텔레콤 이동통신단말기 사용자의 표정인식을 이용한 방송 선호도조사방법
US20070005812A1 (en) 2005-06-29 2007-01-04 Intel Corporation Asynchronous communicative exchange
US20070203426A1 (en) 2005-10-20 2007-08-30 Kover Arthur J Method and apparatus for obtaining real time emotional response data over a communications network
US20080059994A1 (en) 2006-06-02 2008-03-06 Thornton Jay E Method for Measuring and Selecting Advertisements Based Preferences
US20080043089A1 (en) * 2006-06-16 2008-02-21 Auerbach Philip Real time interactive entertainment
US20080184122A1 (en) 2007-01-13 2008-07-31 Grant Michael A System and method for conducting on-line discussions.
US20090217315A1 (en) * 2008-02-26 2009-08-27 Cognovision Solutions Inc. Method and system for audience measurement and targeting media
US8166109B2 (en) * 2007-06-21 2012-04-24 Cisco Technology, Inc. Linking recognized emotions to non-visual representations
US20090052645A1 (en) * 2007-08-22 2009-02-26 Ravi Prakash Bansal Teleconference system with participant feedback
US20090167839A1 (en) 2007-12-27 2009-07-02 Desmond Ottmar Methods and apparatus for providing communication between multiple television viewers
US8646017B2 (en) * 2008-01-14 2014-02-04 At&T Intellectual Property I, L.P. Method and apparatus for providing collaborative viewing of a media stream
US7889073B2 (en) 2008-01-31 2011-02-15 Sony Computer Entertainment America Llc Laugh detector and system and method for tracking an emotional response to a media presentation
US8223185B2 (en) * 2008-03-12 2012-07-17 Dish Network L.L.C. Methods and apparatus for providing chat data and video content between multiple viewers
KR20090121016A (ko) 2008-05-21 2009-11-25 박영민 시청자 반응 측정 방법 및 시스템
US20090307189A1 (en) 2008-06-04 2009-12-10 Cisco Technology, Inc. Asynchronous workflow participation within an immersive collaboration environment
US20090327425A1 (en) 2008-06-25 2009-12-31 Microsoft Corporation Switching between and dual existence in live and recorded versions of a meeting
US20100070987A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Mining viewer responses to multimedia content
JP2010219733A (ja) * 2009-03-16 2010-09-30 Brother Ind Ltd 会議記録装置、会議記録方法および会議記録プログラム
KR101708682B1 (ko) 2010-03-03 2017-02-21 엘지전자 주식회사 영상표시장치 및 그 동작 방법.
US9559869B2 (en) 2010-05-04 2017-01-31 Qwest Communications International Inc. Video call handling
US8963987B2 (en) * 2010-05-27 2015-02-24 Microsoft Corporation Non-linguistic signal detection and feedback
US8438590B2 (en) * 2010-09-22 2013-05-07 General Instrument Corporation System and method for measuring audience reaction to media content
JP5724283B2 (ja) * 2010-10-15 2015-05-27 ソニー株式会社 情報処理装置、同期方法およびプログラム
US9697919B2 (en) * 2010-12-29 2017-07-04 Westinghouse Electric Company, Llc Anti-vibration tube support plate arrangement for steam generators
US9507416B2 (en) * 2011-02-22 2016-11-29 Robert Howard Kimball Providing a corrected view based on the position of a user with respect to a mobile platform
US8767033B2 (en) * 2011-03-09 2014-07-01 Sony Corporation System and method for providing viewing room services for network based content
US9363361B2 (en) * 2011-04-12 2016-06-07 Microsoft Technology Licensing Llc Conduct and context relationships in mobile devices
US8949333B2 (en) * 2011-05-20 2015-02-03 Alejandro Backer Systems and methods for virtual interactions
US9119111B2 (en) * 2011-08-12 2015-08-25 Alcatel Lucent Method and apparatus for controlling wireless uplink sessions
US9060107B2 (en) * 2011-11-23 2015-06-16 Verizon Patent And Licensing Inc. Video responses to messages
US9571879B2 (en) 2012-01-10 2017-02-14 Microsoft Technology Licensing, Llc Consumption of content with reactions of an individual

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101169955A (zh) * 2006-10-27 2008-04-30 三星电子株式会社 用于生成内容元数据的方法和设备

Also Published As

Publication number Publication date
US20170099519A1 (en) 2017-04-06
US9571879B2 (en) 2017-02-14
JP2015510308A (ja) 2015-04-02
WO2013106352A1 (en) 2013-07-18
KR20140117394A (ko) 2014-10-07
US10045077B2 (en) 2018-08-07
JP6261515B2 (ja) 2018-01-17
EP2802969A4 (en) 2015-01-21
KR20200020014A (ko) 2020-02-25
CN104040467A (zh) 2014-09-10
KR102180716B1 (ko) 2020-11-19
US20130179911A1 (en) 2013-07-11
EP2802969A1 (en) 2014-11-19

Similar Documents

Publication Publication Date Title
CN104040467B (zh) 伴随着个人反应的内容消费
Pabba et al. An intelligent system for monitoring students' engagement in large classroom teaching through facial expression recognition
US10587776B2 (en) Electronic device and method for controlling the electronic device
JP7427611B2 (ja) ユーザの注意力を決定するコンピュータ実装システム及び方法
KR102488530B1 (ko) 동영상을 생성하기 위한 방법 및 장치
US20200342979A1 (en) Distributed analysis for cognitive state metrics
Jaques et al. Understanding and predicting bonding in conversations using thin slices of facial expressions and body language
CN110447232A (zh) 用于确定用户情绪的电子设备及其控制方法
KR20190111278A (ko) 인공지능 모델을 이용하여 사용자 음성을 변조하기 위한 전자 장치 및 이의 제어 방법
JP2022505836A (ja) デジタルコンテンツ体験との改善されたヒューマンインタラクションのための共感的コンピューティングシステムおよび方法
US20200226012A1 (en) File system manipulation using machine learning
Gatica-Perez et al. Nonverbal behavior analysis
CN110188712B (zh) 用于处理图像的方法和装置
US20240104639A1 (en) Techniques for implementing dynamic interactive on-demand user interface ordering
JP6824146B2 (ja) 評価装置、方法およびプログラム
US20240181629A1 (en) Artificially intelligent perceptive entertainment companion system
Okadome et al. Extracting Feature Space for Synchronizing Behavior in an Interaction Scene Using Unannotated Data
Addo Designing human-centered collective intelligence
Bhushanam et al. Modelling an efficient hybridized approach for facial emotion recognition using unconstraint videos and deep learning approaches
Hossfeld Category Archives: Issue-do-not-use
Rahman Robust Modeling of Epistemic Mental States and Their Applications in Assistive Technology
Hossfeld Category Archives: Feature

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150721

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150721

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

GR01 Patent grant
GR01 Patent grant