CN104919485A - 内容反应注释 - Google Patents
内容反应注释 Download PDFInfo
- Publication number
- CN104919485A CN104919485A CN201380065254.5A CN201380065254A CN104919485A CN 104919485 A CN104919485 A CN 104919485A CN 201380065254 A CN201380065254 A CN 201380065254A CN 104919485 A CN104919485 A CN 104919485A
- Authority
- CN
- China
- Prior art keywords
- content
- user
- annotation
- data
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 claims abstract description 29
- 230000004043 responsiveness Effects 0.000 claims description 65
- 230000004044 response Effects 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000002996 emotional effect Effects 0.000 abstract 1
- 230000008451 emotion Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000000153 supplemental effect Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 206010016275 Fear Diseases 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000034994 death Effects 0.000 description 1
- 231100000517 death Toxicity 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- GOLXNESZZPUPJE-UHFFFAOYSA-N spiromesifen Chemical compound CC1=CC(C)=CC(C)=C1C(C(O1)=O)=C(OC(=O)CC(C)(C)C)C11CCCC1 GOLXNESZZPUPJE-UHFFFAOYSA-N 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/787—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
尤其提供了一种或多种技术和/或系统以用于基于用户反应数据注释内容和/或用于维护可搜索内容储存库。换言之,当用户正在体验内容(例如,观看电影、走过公园、与网站交互、参与电话会话等)的同时,用户可以请求和/或选定待检测的用户反应数据。与内容相关联的元数据可以用来确定何时和/或要使用什么传感器来检测用户反应数据(例如,指定电影的情感部分的元数据)。内容可以使用对应于用户反应数据的反应注释进行注释,用户反应数据可以用来组织、搜索、和/或与内容交互。搜索接口可以允许用户基于体验该内容的一个或多个用户的注释数据和/或聚集的注释数据来搜索内容。
Description
背景技术
在体验内容的同时,许多用户可能具有诸如情感之类的反应。在一个示例中,在体验拥挤的高速公路的同时,用户可能变得心烦。在另一示例中,在体验电影的同时,用户可以具有从快乐到悲伤的一定范围的情感。在另一示例中,在安装新软件应用的同时,用户可能变得沮丧。在体验内容之后,用户可以提交内容评论。在一个示例中,用户可以通过旅行网站来评价到州公园的旅程。在另一示例中,用户可以通过购物网站来书写洗衣机的产品评论。这样,用户可以分享他们关于诸如电影、网站、音乐、应用、地理位置、商业、图像等之类的内容的反应和/或情感。
发明内容
提供本发明内容以便以简化的形式介绍在以下具体实施方式中进一步描述的概念的选择。该发明内容不旨在标识所要求保护的主题的关键因素或必要特征,也不旨在用来限制所要求保护的主题的范围。
本文尤其提供一种或多种用于基于用户反应数据来注释内容和/或用于维护可搜索内容储存库的系统和/或技术。换言之,用户可以消费(例如,与之交互)诸如电影、音乐、应用、网站、地理位置、商业、图像、书籍、社交网络信息、广告、用于出售的产品、高速公路的一部分、与人的交互、电子邮件、和/或多种其它电子和/或真实世界(例如,有形的)内容之类的多种内容。在一个示例中,用户可以请求和/或选定检测用户对内容的反应以用于诸如基于用户对内容如何反应来注释内容之类的各种目的。例如,用户可能希望基于用户对内容如何反应来组织、搜索、和/或共享内容(例如,用户可以搜索在用户最初创建和/或查看图像时使用户快乐的图像)。用户可以为用户反应数据和/或从用户反应数据创建的注释指定安全等级(例如,用户可以指定这种信息要被安全存储以仅供用户使用,用户可以指定这种信息可以与其它用户反应数据聚集以供可搜索内容储存库使用等)。
可以检测到与内容(例如,电影的片段、图像的区域、一段高速公路、早晨工作电子邮件、傍晚个人电子邮件等)和/或其一部分相关联的用户反应数据。例如,设备(例如,移动电话、笔记本电脑、平板设备、车辆仪表、电视、电子广告牌、和/或其他设备)可以包括一个或多个传感器,诸如摄像机,运动传感器(例如,加速度计或陀螺仪),GPS设备,麦克风和/或可以感测用户反应数据的其它传感器。在一个示例中,当用户正在平板计算设备上查看电子邮件内容的第一部分时,一个或多个传感器可以检测用户的语音音量、用户的面部表情、和/或平板计算设备的移动以作为针对电子邮件内容的第一部分的第一用户反应数据(例如,用户可能在阅读电子邮件内容的第一部分时变得心烦)。在一个示例中,可以对一个或多个用户反应进行实时采集(例如,通过一个或多个传感器),但这些反应中的至少一些可以在不同设备上和/或在不同的时间进行处理以确定或检测用户反应数据。换言之,例如,除了用户反应出现或被一个或多个传感器捕捉的时候之外,也可以从用户反应确定或检测用户反应数据(例如,以节省资源,提高处理等)。电子邮件内容的第一部分可以基于第一用户反应数据使用第一反应注释进行注释。在查看电子邮件内容的第二部分的同时,一个或多个传感器可以检测到用户正在哭泣以作为针对电子邮件内容的第二部分的第二用户反应数据。电子邮件内容的第二部分可以基于第二用户反应数据使用第二反应注释进行注释等。
各种信息,诸如资源可用性(例如,电池寿命)、与内容的一部分相关联的元数据(例如,标识内容的该部分可以具有高于阈值的情感的反应概率的元数据)、平板计算设备的位置背景(例如,用户在家对比在工作会议中)、内容的背景(例如,用户在家中正在阅读电子邮件)、当前时间,和/或其它信息,可以用来选择性地启用和/或禁用一个或多个传感器。在元数据的一个示例中,电影内容的离线分析可以将电影内容的一个或多个部分标识为具有引起情感的相对高的反应概率(例如,汽车追逐场景,悲惨死亡场景等)。例如,这种部分可以使用可标识特定传感器的元数据进行注释,该特定传感器可以在电影的相应部分期间被启用,这可以减少传感器在可能不产生情感的电影的那些部分期间的不必要的资源消耗。这样,内容和/或其部分可以使用反应注释进行注释,该反应注释可以用来基于用户反应来评价、组织、和/或搜索内容。
可以维护包括一个或多个用户的注释数据和/或聚集的注释数据的可搜索内容储存库。在一个示例中,可搜索内容储存库可以包括第一用户对悲剧电影的一个或多个反应注释。在另一示例中,搜索内容储存库可以包括从多个用户对喜剧电影的注释数据导出的聚集的注释数据。这样,搜索接口可以允许用户基于用户反应搜索(例如,使用户快乐的电影的部分的搜索)和/或单个用户反应搜索(例如,使特定用户快乐的图像的搜索)来搜索内容或其部分。
为了达到前述和相关目的,以下描述和附图陈述某些说明性方面和实施方式。这些仅指示可以采用一个或多个方面的各种方式中的几种。在结合附图进行考虑时,本公开的其它方面、优点和新颖特征从以下详细描述将变得显而易见。
附图说明
图1是示出了基于用户反应数据注释内容的示例性方法的流程图。
图2是示出了用于基于用户反应数据注释内容的示例性系统的组件框图。
图3是示出了用于基于用户反应数据注释内容的示例性系统的组件框图。
图4是示出了用于基于用户反应数据注释内容的示例性系统的组件框图。
图5是示出了维护可搜索内容储存库的示例性方法的流程图。
图6是示出了用于维护可搜索内容储存库的示例性系统的组件框图。
图7是示例性计算设备可读介质的图解,其中可以包括被配置成体现本文所陈述的措施中的一个或多个的处理器可执行指令。
图8示出了示例性计算环境,其中可以实现本文所陈述的措施中的一个或多个。
具体实施方式
现在参照附图对所要求保护的主题进行描述,其中相同的附图标记在全文中通常用来指代相同的元件。在以下描述中,出于解释的目的,陈述了许多具体细节,以便提供对所要求保护的主题的理解。然而,可以明显的是,所要求保护的主题可以在没有这些具体细节的情况下实施。在其它实例中,结构和设备以框图形式示出以方便描述所要求保护的主题。
基于用户反应数据注释内容的一个实施例由图1中的示例性方法100示出。在120,该方法开始。可以理解的是,在一个示例中,用户可以请求和/或选定待检测的用户反应数据以用于注释内容的目的(例如,用户可以希望基于用户对图像如何反应来注释图像,使得用户稍后可以基于图像所引起的用户的什么情感来搜索图像,诸如快乐图像的搜索)。用户可以为用户反应数据和/或注释数据指定隐私等级(例如,仅供用户用于基于用户对图像如何反应而组织和/或搜索内容;用于聚集对各种用户可用的可搜索内容储存库中的注释数据;等等)。
在104,可以对与内容的第一部分相关联的第一用户反应数据进行检测。应该理解的是,内容可以包括各种各样的电子内容、真实世界(例如,有形的)内容、和/或体验,诸如电影、图像、购物商店、公园、社交网络体验、广告、娱乐公园骑行体验、电子邮件、个体(例如,与老板或朋友的电话通话)、视频游戏、用户接口、和/或种类繁多的其它类型内容。第一反应数据可以包括体验内容的第一部分的用户的诸如情感数据(例如,满意、生气、悲伤、沮丧、厌倦、赞成、不赞成,欢笑等)之类的反应(例如,指示其的数据)。在一个示例中,在用户消费内容的第一部分期间可以对第一反应数据进行实时检测。在另一示例中,可以对一个或多个用户反应进行实时采集(例如,通过一个或多个传感器),但这些反应中的至少一些可以在不同时间(例如离线)进行处理以确定或检测第一反应数据。换言之,例如,除了当一个或多个用户反应发生或被一个或多个设备上的一个或多个传感器捕捉的时候之外,也可以从一个或多个用户反应确定或检测第一反应数据。类似地,一个或多个用户反应的处理(例如,以确定或检测用户反应数据)可以由除了捕捉所述一个或多个用户反应的一个或多个设备之外的一个或多个设备来执行。通过示例的方式,诸如身体移动和/或说话音量之类的用户反应可以由智能手机和/或平板设备上的摄像头和/或扬声器来捕捉。因为处理这些用户反应以确定或检测用户反应数据尤其可以消费资源(例如,CPU周期、内存、电池电源等),所以本处理的至少一些可以在一个或多个不同设备上执行,当(多个)捕捉设备插入(例如,与仅在电池电源上运行完全不同)时,当(多个)捕捉设备的资源利用低(例如,执行很少甚至没有其它操作)时等。使用(多个)不同设备和/或除了(多个)用户反应出现或被捕捉的时候之外检测或确定用户反应数据可以例如允许处理在捕捉(多个)用户反应的(多个)捕捉设备上和/或处理(多个)用户反应的(多个)处理设备上以较少的资源利用等更高效地且更快速地执行。
一个或多个传感器(诸如摄像机、麦克风、GPS、运动感测设备等)可以基于各种信息(诸如与内容的第一部分相关联的元数据、当前时间、呈现内容的设备的位置背景、内容的情景信息等)被选择性地启用或禁用。在一个示例中,第一传感器可以用来基于与内容的第一部分相关联的元数据来检测第一用户反应数据。元数据可以指定内容的第一部分具有高于阈值的反应概率(例如,电影的离线处理可以指示战胜敌人的超级英雄可以引起用户的激动,并且因此可以为这种场景分配相对高的反应概率)。在另一示例中,可以基于与呈现内容的设备相关联的资源可用性从一组可用传感器选择第一传感器(例如,移动电话的麦克风而非摄像机可以被选择性地启用以在相对长的社交网络体验期间检测用户反应)。这样,在体验内容和/或其部分的同时,一个或多个传感器可以被选择性地启用以检测用户反应数据。
在106,可以基于第一用户反应数据使用第一反应注释来注释内容的第一部分。例如,针对电影的暴力部分的第一反应注释可以指示用户在观看暴力部分的同时感到心烦。因为用户可以在观看电影的暴力部分的同时体验一个以上的情感,所以内容的第一部分可以使用一个或多个反应注释(例如,指示用户在观看电影的暴力部分的同时变得害怕和不安的用户反应注释)进行注释。
在一个示例中,内容可以包括一个以上的部分。例如,电影可以包括一个或多个电影片段,在该电影片段期间,可以检测用户反应数据。这样,可以检测与内容的第二部分相关联的第二用户反应数据。可以基于第二用户反应数据对内容的第二部分进行注释。在另一示例中,可以基于一个或多个用户反应数据使用总反应注释对内容进行注释。例如,即使针对喜剧电影的至少一个注释可以包括与无聊反应注释不同的反应注释(例如,喜剧电影可以使用一些滑稽的反应注释进行注释,但是可以使用大体上更大数量的无聊反应注释(例如,超过阈值)进行注释并且因此可以接收总体无聊反应注释),喜剧电影还是可以接收总体无聊反应注释。
针对内容的用户反应数据可以用来生成可以传送关于内容的用户反应信息的用户接口。在一个示例中,可以生成内容的概述。该概述可以包括具有至少一个反应注释的内容的一个或多个部分(例如,包括来自电影的一个或多个情感场景的预告片)。这样,该概述可以为用户提供内容的梗概(例如,花絮)。在另一示例中,可以生成表示与内容相关联的一个或多个反应注释的图。可以在图内视觉区分不同类型的反应注释(例如,基于颜色、标签等)。例如,诸如悲伤之类的第一类型的反应注释可以在图内使用第一标识符视觉标识(例如,着以蓝色或由眉头紧锁来表示)。诸如快乐之类的第二类型的反应注释可以在图内使用第二标识符视觉标识(例如,着以黄色或由笑脸来表示)。
与内容相关联的注释数据(例如,多个用户的反应注释)可以被聚集以生成聚集的注释数据。该聚集的注释数据可以标识用户对内容和/或其部分(例如,大体)如何反应。搜索接口可以允许用户执行反应搜索(例如,针对特定用户可能已经以某一方式对其反应的内容的个性化搜索和/或针对用户可能已经以某一方式对其反应的内容的一般搜索)。例如,响应于通过搜索接口接收反应搜索,可以基于聚集的注释数据提供对应于反应搜索的内容的至少一部分(例如,使用户快乐的图像;使用户害怕的电影等)。这样,用户可以定位可能已经引起用户的某些情感的内容(例如,电影、图像、位置)。在108,该方法结束。
图2示出了被配置用于基于用户反应数据注释内容的系统200的示例。该系统200可以包括检测组件212和/或注释组件224,其可以与用户202的设备204(例如,计算设备、移动电话、平板设备、车用仪表等)相关联。该系统200可以包括被配置成例如基于用户202是否请求和/或选定检测和/或注释内容来启用或禁用检测组件212和/注释组件224的选定组件和/或类似物(未示出)。
用户202可以通过设备204体验诸如电影内容214之类的内容。该电影内容214可以包括一个或多个部分,诸如第一部分206、第一部分216、第三部分218、和/或未示出的其它部分。例如,用户202当前可能正在观看电影内容214的第一部分206。元数据220可以与电影内容214的第一部分206相关联。在一个示例中,元数据220可以指定存在用户可以对电影内容214的第一部分206具有用户反应(例如,情感表现)的相对高的反应概率。元数据220可以指定视觉传感器要用来检测用户对电影内容214的第一部分206的反应。这样,检测组件212可以利用设备204的视觉传感器来检测208与电影内容214的第一部分206相关联的第一用户反应数据210(例如,快乐情感222)。
注释组件224可以被配置成基于第一用户反应数据210(例如,快乐情感222)使用第一反应注释228来注释226电影内容214的第一部分206。在一个示例中,针对电影内容214的第一部分206的后继的用户反应数据可以由检测组件212来检测。这样,注释组件224可以使用一个或多个用户反应注释来注释电影内容214的第一部分206。可以理解的是,检测组件212可以检测并且注释组件224可以注释各种类型的内容,诸如音乐、图像、位置、场地、电子邮件、人、社交网络数据、物品、书、博客等,并且不只限于电影内容214。
图3示出了被配置用于基于用户反应数据来注释内容的系统300的示例。系统300可以包括可与用户202的设备204相关联的选定组件和/或类似物(未示出)、检测组件212、和/或注释组件224。可以理解的是,在一个示例中,系统300可以对应于图2的系统200。例如,注释组件224可能已经基于与电影内容214的第一部分206相关联的用户反应数据(例如,快乐情感)对电影内容214的第一部分206进行注释。电影内容214可以包括一个或多个部分,诸如第一部分206、第一部分216、第三部分218、和/或未示出的其它部分。
在一个示例中,用户202当前可能正在观看电影内容214的第二部分216。检测组件212可以利用一个或多个传感器(例如,用于视觉的摄像机、用于音频的麦克风、和/或用于移动的运动检测设备等)来检测302与电影内容214的第二部分216相关联的第二用户反应数据304(例如,生气情感306)。
注释组件224可以被配置成基于第二用户反应数据304(例如,生气情感306)使用第二反应注释310来注释308电影内容214的第二部分216。在一个示例中,针对电影内容214的第二部分216的后继的用户反应数据可以由检测组件212来检测。这样,注释组件224可以使用一个或多个用户反应注释来注释电影内容214的第二部分216。可以理解的是,检测组件212可以检测并且注释组件224可以注释各种类型的内容,诸如音乐、图像、位置、场地、电子邮件、人、社交网络数据等,并且不只限于电影内容214。
图4示出了被配置用于基于用户反应数据406注释内容的系统400的示例。系统400可以包括选定组件和/或类似物(未示出)、检测组件408、和/或注释组件412。检测组件408可以被配置成检测与内容(例如,表示/标识真实世界州公园的州公园内容416)相关联的用户反应数据406。在一个示例中,用户402可能正在探索州公园。用户402可能在探索州公园的同时携带诸如移动设备(例如,智能手机、平板电脑等)之类的设备404行进。设备404可以包括各种传感器,诸如摄像机、运动检测器、麦克风、和/或其它传感器。当用户402正在探索州公园的同时,检测组件408可以检测用户反应数据406(例如,用户402做出的声音、用户402的移动、由用户造成的设备404的移动等)。在一个示例中,与州公园内容416相关联的元数据(例如,从离线处理户外地理位置得到的元数据)可以指示检测组件408何时启用或禁用传感器和/或检测组件408启用或禁用什么传感器,这可以减少传感器的低效使用(例如,在州公园的整个探索期间启用所有传感器可能不合期望地耗尽设备404的电池资源)。例如,元数据可以指定要响应于确定用户402已经进入州公园的特定部分(例如,如由设备404的GPS设备所指示的)而启用运动检测器和麦克风,并且指定要在运动检测器确定用户402已经停止移动时启用摄像机。
在一个示例中,检测组件408可以确定用户反应数据406指示满足410作为用户402的情感状态。注释组件412可以被配置成使用指示用户402在探索州公园的同时的满足410情感状态的反应注释418来注释414州公园内容416。在一个示例中,补充内容420(例如,与体验州公园内容416的用户402相关联)可以通过设备404获得。例如,设备404的摄像机可以在表现满足410的同时获得用户402在州公园中的照片。注释组件412可以将补充内容420与州公园内容416相关联422(例如,作为用户402在州公园中的图像424)。
这样,用户402和/或其他用户可以基于反应注释418和/或补充内容420来组织、搜索、和/或与州公园内容416交互。例如,在紧张工作的一天期间,用户402可以通过搜索接口来搜索引起用户402的满足(例如,满足410)的内容。例如,可以搜索州公园内容416以发现产生满足(例如,获得一个或多个用户的大体上高满足等级的公园中的特定位置)的内容的一个或多个部分(例如,对应于州公园的特定部分)。搜索接口可以基于该搜索来提供描述州公园的概要、概述(例如,描绘州公园的视频短片)、指示针对州公园内容416的用户反应数据的图、州公园内容416、和/或补充内容(例如,图像424)。例如,搜索接口可以提供州公园内容412的概要、用户在州公园中的图像424、和/或与州公园内容412相关联的其它数据(例如,其可以帮助用户参观用户可以寻找安慰的州公园的特定方面)。
维护可搜索内容储存库的一个实施例由图5中的示例性方法500示出。在502,该方法开始。在504,与内容相关联的被注释的数据可以从多个用户聚集以生成聚集的注释数据。例如,对应于广告的广告内容可以由一个或多个用户体验。在这种用户体验该广告内容的同时,可以对用户反应数据进行检测(例如,广告可以引起第一用户的厌倦、第二用户的冷漠、第三用户的厌倦、第四用户的困惑等)。可以基于用户反应数据使用一个或多个反应注释来注释广告内容。针对广告内容的注释数据可以包括这种反应注释(例如厌倦、冷漠、困惑等)。注释数据可以被聚集以生成针对广告内容的聚集的注释数据(例如,一般而言,用户对广告厌烦)。
搜索接口可以允许用户定位和/或消费内容。例如,用户反应搜索可以通过搜索接口进行接收(例如,在演讲期间,市场营销老师可以提交对引起观众厌倦的广告的搜索)。因此,可以基于聚集的注释数据提供对应于用户反应搜索的内容的至少一部分。在另一示例中,单个用户反应搜索可以通过搜索接口进行接收(例如,广告管理员可以搜索被注释为对广告管理员而言厌烦的广告)。因此,可以提供对应于单个用户反应搜索的内容的至少一部分。这样,用户可以基于用户对内容的聚集反应和/或基于用户对内容如何反应来搜索内容。
图6示出了被配置用于维护可搜索内容储存库610的系统600的示例。该系统600可以包括搜索组件608。该搜索组件608可以与可搜索内容储存库610相关联。该可搜索内容储存库610可以包括可能已经使用反应注释进行注释和/或与补充内容相关联的内容。例如,可搜索内容储存库610可以包括喜剧电影内容612、账单支付网站内容616、和/或未示出的其它内容。在一个示例中,喜剧电影内容612可以使用用户的一个或多个反应注释(例如,针对整部电影的单个用户注释、针对第一场景的单个用户注释、针对第二场景的单个用户注释、和/或其它单个用户注释)进行注释。喜剧电影内容612可以与聚集的注释数据(例如,用户对整部电影的总体反应、用户对第一场景的总体反应、用户对第二场景的总体反应、和/或其它聚集的注释)相关联。喜剧电影内容612可以与补充内容614相关联。例如,补充内容614可以包括提供喜剧电影内容612的概要的用户的视频。这样,可搜索内容储存库610可以包括可以由搜索组件608检索的被注释的内容。
搜索组件608可以与搜索接口602相关联。搜索接口602可以提供用户可以通过其提交各种类型的搜索的接口。例如,搜索接口602可以提供用户可以通过其提交特定用户的单个用户反应搜索(例如,搜索单个用户注释604,诸如使用户欢笑的图像的搜索)和/或提交用户反应搜索(例如,搜索聚集的注释606,诸如使用户悲伤的视频的搜索)的接口。搜索组件608可以被配置成接收通过搜索接口602提交的搜索608。搜索组件608可以搜索可搜索内容储存库610以得到内容618、补充内容620、和/或对应于搜索608的其它信息(例如,概要、概述、图等)。这样,搜索组件608可以基于可搜索内容储存库内的信息呈现搜索结果(例如,使用户悲伤的视频、悲伤电影的预告片、悲伤电影的用户评论等)。
又一实施例涉及一种包括处理器可执行指令的计算设备可读介质,该处理器可执行指令被配置成实现本文所呈现的技术中的一个或多个。图7中示出了可以以这些方式设计的示例性计算设备可读介质,其中实施方式700包括其上编码有计算设备可读数据714的计算设备可读介质716(例如,CD-R、DVD-R、或硬盘驱动器的盘片)。该计算设备可读数据714又包括被配置成根据本文所陈述的原理中的一个或多个进行操作的一组计算设备指令712。在这样一个实施例700中,例如,处理器可执行计算设备指令712可以被配置成执行方法710,诸如图1的示例性方法100中的至少一些和/或图5的示例性系统500中的至少一些。在另一个这样的实施例中,例如,处理器可执行指令712可以被配置成实现系统,诸如图2的示例性系统200中的至少一些、图3的示例性系统300中的至少一些、图4的示例性系统400中的至少一些、和/或图6的示例性系统600中的至少一些。被配置成根据本文所呈现的技术进行操作的许多这样的计算设备可读介质可以由本领域普通技术人员设计。
虽然已经使用特定于结构特征和/或方法动作的语言对本主题进行了描述,但是要理解的是,在所附权利要求中限定的主题不一定局限于以上所描述的具体特征或动作。相反,以上所描述的具体特征和动作是作为实现权利要求的示例形式而公开的。
如在本申请中所使用的,术语“组件”、“模块”、“系统”、“接口”等一般旨在表示计算设备相关的实体,要么是硬件、硬件和软件的组合、软件、要么是执行中的软件。例如,组件可以是但不限于是在处理器上运行的进程、处理器、对象、可执行文件、执行线程、程序、和/或计算设备。通过说明的方式,在控制器上运行的应用和控制器均可以为组件。一个或多个组件可以驻留在进程和/或执行线程内,并且组件可以定位于一个计算设备上和/或分布在两个或更多计算设备之间。
而且,所要求保护的主题可以使用标准编程和/或工程技术实现为方法、装置或制品以产生软件、固件、硬件或其任何组合来控制计算设备实现所公开的主题。如本文所使用的术语“制品”旨在涵盖可从任何计算设备可读设备、载体、或介质访问的计算设备程序。当然,本领域技术人员将认识到,可以对该配置做出许多修改而不偏离所要求保护的主题的范围或精神。
图8和以下讨论提供了对实现本文所陈述的措施中的一个或多个的实施例的合适的计算环境的简要、一般描述。图8的操作环境仅是合适的操作环境的一个示例,并非旨在对操作环境的使用范围或功能性提出任何限制。示例计算设备包括但不限于个人计算设备、服务器计算设备、手持或膝上型设备、移动设备(诸如移动电话、个人数字助理(PDA)、媒体播放器等等)、多处理器系统、消费者电子产品、小型计算设备、大型计算设备、包括上述系统或设备中的任何一个的分布式计算环境等等。
虽然不要求,但是在由一个或多个计算设备执行的“计算设备可读指令”的一般背景中对实施例进行描述。计算设备可读指令可以经由计算设备可读介质(以下所讨论的)进行分布。计算设备可读指令可以被实现为程序模块,诸如执行特定任务或实现特定抽象数据类型的功能、对象、应用编程接口(API)、数据结构等等。典型地,计算设备可读指令的功能性可以按要求在各种环境中组合或分布。
图8示出了包括被配置成实现本文所提供的一个或多个实施例的计算设备812的系统810的示例。在一个配置中,计算设备812包括至少一个处理单元816和内存818。取决于计算设备的确切配置和类型,内存818可以是易失性的(诸如,例如RAM)、非易失性的(诸如,例如ROM、闪存等)或两者的某种组合。这种配置在图8中由虚线814示出。
在其它实施例中,设备812可以包括附加特征和/或功能性。例如,设备812还可以包括附加存储器(例如,可移动和/或不可移动),包括但不限于磁存储器、光存储器等等。这种附加存储器在图8中由存储器208示出。在一个实施例中,实现本文所提供的一个或多个实施例的计算设备可读指令可以在存储器820中。存储器820还可以存储其它计算设备可读指令以实现操作系统、应用程序等等。例如,计算设备可读指令可以载入内存818中以例如用于由处理单元816执行。
如本文所使用的术语“计算设备可读介质”包括计算设备存储介质。计算设备存储介质包括以任何方法或技术实现的用于存储诸如计算设备可读指令或其它数据之类的信息的易失性和非易失性、可移动和不可移动的介质。内存818和存储器820是计算设备存储介质的示例。计算设备存储介质包括但不限于RAM、ROM、EEPROM、闪存或其它内存技术、CD-ROM、数字多功能盘(DVD)或其它光存储器、磁带盒、磁带、磁盘存储器或其它磁存储设备、或可以用来存储所需信息并且可以由设备812访问的任何其它介质。任何这种计算设备存储介质均可以是设备812的一部分。
设备812还可以包括允许设备812与其他设备通信的(多个)通信连接826。(多个)通信连接826可以包括但不限于调制解调器、网络接口卡(NIC)、集成网络接口、射频发射机/接收机、红外端口、USB连接、或用于将计算设备812连接到其它计算设备的其它接口。(多个)通信连接826可以包括有线连接或无线连接。(多个)通信连接826可以发送和/或接收通信媒体。
术语“计算设备可读介质”可以包括通信介质。通信介质典型地体现计算设备可读指令或诸如载波或其它运送机制之类的“调制数据信号”中的其它数据,并且包括任何信息传递介质。术语“调制数据信号”可以包括具有以在信号中编码信息的这样的方式设置或更改的其特点中的一个或多个的信号。
设备812可以包括(多个)输入设备824,诸如键盘、鼠标、笔、语音输入设备、触摸输入设备、红外摄像机、视频输入设备和/或任何其它输入设备。(多个)输出设备822,诸如一个或多个显示器、扬声器、打印机、和/或任何其它输出设备,也可以被包括在设备812内。(多个)输入设备824和(多个)输出设备822可以经由有线连接、无线连接、或它们的任意组合连接到设备812。在一个实施例中,来自另一个计算设备的输入设备或输出设备可以用作计算设备812的(多个)输入设备824或(多个)输出设备822。
计算设备812的组件可以通过诸如总线之类的各种互连进行连接。这样的互连可以包括外设组件互连(PCI),诸如PCI Express,通用串行总线(USB),火线(IEEE 1394),光学总线结构等等。在另一实施例中,计算设备812的组件可以通过网络互连。例如,内存818可以包括位于由网络互连的不同物理位置中的多个物理内存单元。
本领域技术人员将认识到,用来存储计算设备可读指令的存储设备可以分布在网络中。例如,可经由网络828访问的计算设备830可以存储计算设备可读指令以实现本文所提供的一个或多个实施例。计算设备812可以访问计算设备830并且下载计算设备可读指令中的部分或全部以用于执行。可选地,计算设备812可以根据需要下载数个计算设备可读指令,或者一些指令可以在计算设备812处执行并且一些在计算设备830处执行。
本文提供了实施例的各种操作。在一个实施例中,所描述的操作中的一个或多个可以构成存储在一个或多个计算设备可读介质上的计算设备可读指令,如果其由计算设备执行,则将使计算设备执行所描述的操作。描述操作中的一些或全部的顺序不应被解释为暗示这些操作一定是顺序相关的。获益于本描述的本领域技术人员将理解替换的排序。此外,将理解的是,并非所有操作都必须在本文所提供的每个实施例中呈现。
此外,词汇“示例性”在本文中用于指作为示例、实例或说明。本文描述为“示例性”的任何方面或设计不一定被解释为比其它方面或设计有利。相反,词汇示例性的使用旨在以具体的方式来呈现概念。如在本申请中所使用的,术语“或”旨在是指包括性“或”而非互斥性“或”。换言之,除非专门指定,或者从上下文能清楚得知,否则“X采用A或B”旨在是指任何自然的包括性排列。换言之,如果X采用A;X采用B;或X采用A和B二者,则“X采用A或者B”满足前述实例中的任何一个。另外,如在本申请和所附权利要求中所使用的冠词“一”和“一个”一般可以被解释为是指“一个或多个”,除非专门指定或从上下文能清楚得知指的是单数形式。同样,A和B中的至少一个和/或类似物通常是指A或B或A和B两者。
同样,虽然本公开已经关于一个或多个实施方式而加以示出并描述,但是本领域技术人员基于对本说明书和附图的参阅和理解将会想到等效的变更和修改。本公开包括所有这种修改和变更,并且仅仅受限于以下权利要求的范围。特别地,关于由以上所描述的组件(例如,元件、资源等)执行的各种功能,用来描述这种组件的术语旨在对应于(除非专门指定)执行所描述的组件的指定功能的任何组件(例如,在功能上等同),即使在结构上不等同于执行本公开的本文所示出的示例性实施方式中的功能的所公开的结构。另外,虽然可能已经关于若干个实施方式中的仅仅一个对本发明的具体特征进行了公开,但是根据需要并且有利于任何给定或特定应用,这样的特征可以与其它实施方式中的一个或多个其它特征进行组合。此外,对于在详细描述中或在权利要求中使用的术语“包含(include)”、“有(having)”、“具有(has)”、“带有(with)”或者它们的变化的范围,这些术语与术语“包括(comprising)”类似的方式旨在是指包括性的。
Claims (10)
1.一种用于基于用户反应数据注释内容的方法,包括:
检测与内容的第一部分相关联的第一用户反应数据;以及
基于所述第一用户反应数据使用第一反应注释对所述内容的所述第一部分进行注释。
2.根据权利要求1所述的方法,所述检测包括:
利用第一传感器基于与所述内容的所述第一部分相关联的元数据来检测所述第一用户反应数据,所述元数据指定所述内容的所述第一部分具有高于阈值的反应概率。
3.根据权利要求1所述的方法,所述检测包括:
使用呈现所述内容的设备的一个或多个传感器来检测所述第一用户反应数据,所述一个或多个传感器包括第一传感器,所述第一传感器包括摄像机、麦克风、或运动检测设备中的至少一个。
4.根据权利要求1所述的方法,包括:
基于与呈现所述内容的设备相关联的资源可用性,从一组可用传感器选择第一传感器以检测所述第一用户反应数据中的至少一些。
5.根据权利要求1所述的方法,包括:
基于当前时间、呈现所述内容的设备的位置背景、所述内容的背景、或指定用于所述内容的所述第一部分的传感器的类型的元数据中的至少一个,从一组可用传感器选择第一传感器以检测所述第一用户反应数据中的至少一些。
6.根据权利要求1所述的方法,包括以下各项中的至少一项:
生成包括具有至少一个反应注释的所述内容的一个或多个部分的所述内容的概述;或
生成表示与所述内容相关联的一个或多个反应注释的图。
7.根据权利要求6所述的方法,包括
使用所述图内的第一标识符来视觉标识第一类型的反应注释;和
使用所述图内的第二标识符来视觉标识第二类型的反应注释,所述第二标识符与所述第一标识符不同。
8.一种用于基于用户反应数据注释内容的系统,包括:
检测组件,其被配置成:
检测与内容的第一部分相关联的第一用户反应数据;和
注释组件,其被配置成:
基于所述第一用户反应数据使用第一反应注释来注释内容的所述第一部分。
9.根据权利要求8所述的系统,包括:
搜索组件,被配置成:
从多个用户聚集与所述内容相关联的注释数据以生成聚集的注释数据;和
响应于通过搜索接口接收反应搜索,基于所述聚集的注释数据来提供对应于所述反应搜索的所述内容的至少一部分。
10.根据权利要求8所述的系统,所述检测组件被配置成:
基于与所述内容的所述第一部分相关联的元数据,选择性地启用或禁用第一传感器以检测所述第一用户反应数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811021311.0A CN109241347B (zh) | 2012-12-13 | 2013-12-13 | 用于内容反应注释的系统和方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/713,240 US9721010B2 (en) | 2012-12-13 | 2012-12-13 | Content reaction annotations |
US13/713240 | 2012-12-13 | ||
PCT/US2013/075170 WO2014093919A2 (en) | 2012-12-13 | 2013-12-13 | Content reaction annotations |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811021311.0A Division CN109241347B (zh) | 2012-12-13 | 2013-12-13 | 用于内容反应注释的系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104919485A true CN104919485A (zh) | 2015-09-16 |
CN104919485B CN104919485B (zh) | 2018-10-02 |
Family
ID=49918856
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380065254.5A Active CN104919485B (zh) | 2012-12-13 | 2013-12-13 | 用于内容反应注释的系统和方法 |
CN201811021311.0A Active CN109241347B (zh) | 2012-12-13 | 2013-12-13 | 用于内容反应注释的系统和方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811021311.0A Active CN109241347B (zh) | 2012-12-13 | 2013-12-13 | 用于内容反应注释的系统和方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9721010B2 (zh) |
EP (1) | EP2932457B1 (zh) |
CN (2) | CN104919485B (zh) |
WO (1) | WO2014093919A2 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109672935A (zh) * | 2017-10-13 | 2019-04-23 | 富泰华工业(深圳)有限公司 | 基于用户情绪的视频推送系统及方法 |
CN110914872A (zh) * | 2017-07-24 | 2020-03-24 | 国际商业机器公司 | 用认知洞察力导航视频场景 |
CN110959166A (zh) * | 2017-10-13 | 2020-04-03 | 索尼公司 | 信息处理设备、信息处理方法、信息处理系统、显示设备和预订系统 |
CN112655177A (zh) * | 2018-06-27 | 2021-04-13 | 脸谱公司 | 异步共同观看 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9721010B2 (en) | 2012-12-13 | 2017-08-01 | Microsoft Technology Licensing, Llc | Content reaction annotations |
US20140181668A1 (en) * | 2012-12-20 | 2014-06-26 | International Business Machines Corporation | Visual summarization of video for quick understanding |
WO2018052458A1 (en) * | 2016-09-19 | 2018-03-22 | Hirschfeld David | Social networking with video annotation |
US10084840B2 (en) | 2013-01-31 | 2018-09-25 | Art Research And Technology, L.L.C. | Social networking with video annotation |
US9516259B2 (en) * | 2013-10-22 | 2016-12-06 | Google Inc. | Capturing media content in accordance with a viewer expression |
CN104185064B (zh) * | 2014-05-30 | 2018-04-27 | 华为技术有限公司 | 媒体文件标识方法和装置 |
US20160116960A1 (en) * | 2014-10-24 | 2016-04-28 | Ati Technologies Ulc | Power management using external sensors and data |
FR3041853A1 (fr) * | 2015-09-24 | 2017-03-31 | Orange | Procede de caracterisation psycho-physiologique d'un contenu audio et/ou video, et procede de recherche ou recommandation et procede de lecture correspondants. |
US10609442B2 (en) | 2016-07-20 | 2020-03-31 | Art Research And Technology, L.L.C. | Method and apparatus for generating and annotating virtual clips associated with a playable media file |
US10636449B2 (en) * | 2017-11-06 | 2020-04-28 | International Business Machines Corporation | Dynamic generation of videos based on emotion and sentiment recognition |
US11792485B2 (en) * | 2017-12-22 | 2023-10-17 | Hillel Felman | Systems and methods for annotating video media with shared, time-synchronized, personal reactions |
US11259075B2 (en) * | 2017-12-22 | 2022-02-22 | Hillel Felman | Systems and methods for annotating video media with shared, time-synchronized, personal comments |
US11625922B2 (en) * | 2021-03-08 | 2023-04-11 | Motorola Solutions, Inc. | Event summarization facilitated by emotions/reactions of people near an event location |
US12003814B2 (en) * | 2021-04-22 | 2024-06-04 | STE Capital, LLC | System for audience sentiment feedback and analysis |
US11935076B2 (en) * | 2022-02-02 | 2024-03-19 | Nogueira Jr Juan | Video sentiment measurement |
US11936948B1 (en) * | 2023-01-24 | 2024-03-19 | Roku, Inc. | Method and system for generating a visual composition of user reactions in a shared content viewing session |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080313570A1 (en) * | 2007-06-14 | 2008-12-18 | Yahoo! Inc. | Method and system for media landmark identification |
US20090094286A1 (en) * | 2007-10-02 | 2009-04-09 | Lee Hans C | System for Remote Access to Media, and Reaction and Survey Data From Viewers of the Media |
US20100070992A1 (en) * | 2008-09-12 | 2010-03-18 | At&T Intellectual Property I, L.P. | Media Stream Generation Based on a Category of User Expression |
CN101917898A (zh) * | 2007-10-31 | 2010-12-15 | 埃姆申塞公司 | 对来自观众的生理响应提供分散式收集和集中式处理的系统和方法 |
US20130150117A1 (en) * | 2011-09-23 | 2013-06-13 | Digimarc Corporation | Context-based smartphone sensor logic |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7106887B2 (en) | 2000-04-13 | 2006-09-12 | Fuji Photo Film Co., Ltd. | Image processing method using conditions corresponding to an identified person |
US6585521B1 (en) | 2001-12-21 | 2003-07-01 | Hewlett-Packard Development Company, L.P. | Video indexing based on viewers' behavior and emotion feedback |
US20050071865A1 (en) | 2003-09-30 | 2005-03-31 | Martins Fernando C. M. | Annotating meta-data with user responses to digital content |
US20070150916A1 (en) | 2005-12-28 | 2007-06-28 | James Begole | Using sensors to provide feedback on the access of digital content |
AU2007293092A1 (en) | 2006-09-05 | 2008-03-13 | Innerscope Research, Inc. | Method and system for determining audience response to a sensory stimulus |
KR100828371B1 (ko) | 2006-10-27 | 2008-05-08 | 삼성전자주식회사 | 컨텐츠의 메타 데이터 생성 방법 및 장치 |
US7739304B2 (en) * | 2007-02-08 | 2010-06-15 | Yahoo! Inc. | Context-based community-driven suggestions for media annotation |
JP4999570B2 (ja) | 2007-06-18 | 2012-08-15 | キヤノン株式会社 | 表情認識装置及び方法、並びに撮像装置 |
WO2009051428A1 (en) * | 2007-10-16 | 2009-04-23 | Electronics And Telecommunications Research Institute | Sensory effect media generating and consuming method and apparatus thereof |
US9141974B2 (en) * | 2008-01-16 | 2015-09-22 | Martin Kelly Jones | Systems and methods for determining mobile thing (MT) identification and/or MT motion activity using sensor data of wireless communication device |
US8112702B2 (en) * | 2008-02-19 | 2012-02-07 | Google Inc. | Annotating video intervals |
US20110179385A1 (en) * | 2008-09-24 | 2011-07-21 | Wencheng Li | Content classification utilizing a reduced description palette to simplify content analysis |
US20100086204A1 (en) * | 2008-10-03 | 2010-04-08 | Sony Ericsson Mobile Communications Ab | System and method for capturing an emotional characteristic of a user |
US20100161424A1 (en) * | 2008-12-22 | 2010-06-24 | Nortel Networks Limited | Targeted advertising system and method |
CN101853259A (zh) * | 2009-03-31 | 2010-10-06 | 国际商业机器公司 | 添加和处理带有情感数据的标签的方法和设备 |
US8769589B2 (en) | 2009-03-31 | 2014-07-01 | At&T Intellectual Property I, L.P. | System and method to create a media content summary based on viewer annotations |
JP5795580B2 (ja) * | 2009-07-16 | 2015-10-14 | ブルーフィン ラボズ インコーポレイテッド | タイムベースメディアにおけるソーシャルインタレストの推定および表示 |
JP6116247B2 (ja) * | 2009-10-02 | 2017-04-19 | ムスルリ, アラビンドMUSULURI, Aravind | 視覚的要素をブロック分割し、識別し、インデクスを付けて、ドキュメントを検索するためのシステムおよび方法 |
US8634701B2 (en) | 2009-12-04 | 2014-01-21 | Lg Electronics Inc. | Digital data reproducing apparatus and corresponding method for reproducing content based on user characteristics |
CN102713905A (zh) * | 2010-01-08 | 2012-10-03 | 瑞典爱立信有限公司 | 用于媒体文件的社会标签的方法和设备 |
US8903798B2 (en) | 2010-05-28 | 2014-12-02 | Microsoft Corporation | Real-time annotation and enrichment of captured video |
US20110304629A1 (en) | 2010-06-09 | 2011-12-15 | Microsoft Corporation | Real-time animation of facial expressions |
US8438590B2 (en) | 2010-09-22 | 2013-05-07 | General Instrument Corporation | System and method for measuring audience reaction to media content |
US9484065B2 (en) | 2010-10-15 | 2016-11-01 | Microsoft Technology Licensing, Llc | Intelligent determination of replays based on event identification |
US8640021B2 (en) | 2010-11-12 | 2014-01-28 | Microsoft Corporation | Audience-based presentation and customization of content |
US20120203491A1 (en) * | 2011-02-03 | 2012-08-09 | Nokia Corporation | Method and apparatus for providing context-aware control of sensors and sensor data |
US20120324491A1 (en) | 2011-06-17 | 2012-12-20 | Microsoft Corporation | Video highlight identification based on environmental sensing |
US9077458B2 (en) | 2011-06-17 | 2015-07-07 | Microsoft Technology Licensing, Llc | Selection of advertisements via viewer feedback |
US20120324492A1 (en) | 2011-06-20 | 2012-12-20 | Microsoft Corporation | Video selection based on environmental sensing |
US9232247B2 (en) * | 2012-09-26 | 2016-01-05 | Sony Corporation | System and method for correlating audio and/or images presented to a user with facial characteristics and expressions of the user |
US9721010B2 (en) | 2012-12-13 | 2017-08-01 | Microsoft Technology Licensing, Llc | Content reaction annotations |
-
2012
- 2012-12-13 US US13/713,240 patent/US9721010B2/en active Active
-
2013
- 2013-12-13 WO PCT/US2013/075170 patent/WO2014093919A2/en active Application Filing
- 2013-12-13 CN CN201380065254.5A patent/CN104919485B/zh active Active
- 2013-12-13 CN CN201811021311.0A patent/CN109241347B/zh active Active
- 2013-12-13 EP EP13818088.0A patent/EP2932457B1/en active Active
-
2017
- 2017-06-20 US US15/628,250 patent/US10678852B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080313570A1 (en) * | 2007-06-14 | 2008-12-18 | Yahoo! Inc. | Method and system for media landmark identification |
US20090094286A1 (en) * | 2007-10-02 | 2009-04-09 | Lee Hans C | System for Remote Access to Media, and Reaction and Survey Data From Viewers of the Media |
CN101917898A (zh) * | 2007-10-31 | 2010-12-15 | 埃姆申塞公司 | 对来自观众的生理响应提供分散式收集和集中式处理的系统和方法 |
US20100070992A1 (en) * | 2008-09-12 | 2010-03-18 | At&T Intellectual Property I, L.P. | Media Stream Generation Based on a Category of User Expression |
US20130150117A1 (en) * | 2011-09-23 | 2013-06-13 | Digimarc Corporation | Context-based smartphone sensor logic |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110914872A (zh) * | 2017-07-24 | 2020-03-24 | 国际商业机器公司 | 用认知洞察力导航视频场景 |
CN109672935A (zh) * | 2017-10-13 | 2019-04-23 | 富泰华工业(深圳)有限公司 | 基于用户情绪的视频推送系统及方法 |
CN110959166A (zh) * | 2017-10-13 | 2020-04-03 | 索尼公司 | 信息处理设备、信息处理方法、信息处理系统、显示设备和预订系统 |
CN110959166B (zh) * | 2017-10-13 | 2024-04-30 | 索尼公司 | 信息处理设备、信息处理方法、信息处理系统、显示设备和预订系统 |
US12020180B2 (en) | 2017-10-13 | 2024-06-25 | Sony Corporation | Information processing device, information processing method, information processing system, display device, and reservation system |
CN112655177A (zh) * | 2018-06-27 | 2021-04-13 | 脸谱公司 | 异步共同观看 |
CN112655177B (zh) * | 2018-06-27 | 2022-09-06 | 元平台公司 | 异步共同观看 |
Also Published As
Publication number | Publication date |
---|---|
EP2932457A4 (en) | 2016-08-10 |
US9721010B2 (en) | 2017-08-01 |
WO2014093919A3 (en) | 2014-10-09 |
WO2014093919A2 (en) | 2014-06-19 |
CN109241347B (zh) | 2022-01-04 |
CN104919485B (zh) | 2018-10-02 |
EP2932457B1 (en) | 2019-04-24 |
US20140172848A1 (en) | 2014-06-19 |
US20170286538A1 (en) | 2017-10-05 |
EP2932457A2 (en) | 2015-10-21 |
CN109241347A (zh) | 2019-01-18 |
US10678852B2 (en) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104919485A (zh) | 内容反应注释 | |
CN103631851B (zh) | 推荐好友的方法及其服务器和终端 | |
CN111615712B (zh) | 多日历协调 | |
US8908931B2 (en) | Using photographs to manage groups | |
Hjorth et al. | Being at home with privacy: Privacy and mundane intimacy through same-sex locative media practices | |
US11928133B2 (en) | Unit group generation and relationship establishment | |
CN109074531A (zh) | 工作流事件的自动化 | |
CN112136099A (zh) | 来自远程设备的直接输入 | |
CN105518665A (zh) | 搜索结果扩增 | |
CN109074548A (zh) | 对内容的自动丰富 | |
US10762146B2 (en) | Content selection and presentation of electronic content | |
KR20140027011A (ko) | 친구 추천 방법 및 이를 위한 서버 및 단말 | |
CN112116391A (zh) | 多媒体资源投放方法、装置、计算机设备及存储介质 | |
US10963938B2 (en) | Systems and methods for providing an interactive virtual environment | |
US20120215849A1 (en) | Method and system for consuming virtual media | |
Li et al. | Interactions for socially shared regulation in collaborative learning: an interdisciplinary multimodal dataset | |
Tjondronegoro et al. | Transforming mobile personal life log into autobiographical multimedia eChronicles | |
KR102246611B1 (ko) | 인앱 소프트웨어 구매에 대한 마켓에 의한 가격 차별화 기법 | |
US20230359709A1 (en) | Data model to organize, generate, and share data about an object with multiple media formats via various presentation systems | |
Steiner et al. | I-SEARCH: a multimodal search engine based on rich unified content description (RUCoD) | |
Songa et al. | The Societal and Transformational Impacts of Data Science | |
KR20170078088A (ko) | 차량정보시스템 | |
Li et al. | Ubiquitous multimedia computing | |
KR20170078050A (ko) | 드론운행정보 시스템 | |
Lee et al. | Structuring Mobile User Context Based on Spatio-Temporal Information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |