CN109241347A - 用于内容反应注释的系统和方法 - Google Patents

用于内容反应注释的系统和方法 Download PDF

Info

Publication number
CN109241347A
CN109241347A CN201811021311.0A CN201811021311A CN109241347A CN 109241347 A CN109241347 A CN 109241347A CN 201811021311 A CN201811021311 A CN 201811021311A CN 109241347 A CN109241347 A CN 109241347A
Authority
CN
China
Prior art keywords
content
data
reaction
annotation
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811021311.0A
Other languages
English (en)
Other versions
CN109241347B (zh
Inventor
E.库库米季斯
B.贝克曼
N.D.A.莱恩
A.M.萨米尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN109241347A publication Critical patent/CN109241347A/zh
Application granted granted Critical
Publication of CN109241347B publication Critical patent/CN109241347B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/787Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

尤其提供了一种或多种技术和/或系统以用于基于用户反应数据注释内容和/或用于维护可搜索内容储存库。换言之,当用户正在体验内容(例如,观看电影、走过公园、与网站交互、参与电话会话等)的同时,用户可以请求和/或选定待检测的用户反应数据。与内容相关联的元数据可以用来确定何时和/或要使用什么传感器来检测用户反应数据(例如,指定电影的情感部分的元数据)。内容可以使用对应于用户反应数据的反应注释进行注释,用户反应数据可以用来组织、搜索、和/或与内容交互。搜索接口可以允许用户基于体验该内容的一个或多个用户的注释数据和/或聚集的注释数据来搜索内容。

Description

用于内容反应注释的系统和方法
本申请是申请日为2013年12月13日、申请号为201380065254.5的发明专利申请“用于内容反应注释的系统和方法”的分案申请。
背景技术
在体验内容的同时,许多用户可能具有诸如情感之类的反应。在一个示例中,在体验拥挤的高速公路的同时,用户可能变得心烦。在另一示例中,在体验电影的同时,用户可以具有从快乐到悲伤的一定范围的情感。在另一示例中,在安装新软件应用的同时,用户可能变得沮丧。在体验内容之后,用户可以提交内容评论。在一个示例中,用户可以通过旅行网站来评价到州公园的旅程。在另一示例中,用户可以通过购物网站来书写洗衣机的产品评论。这样,用户可以分享他们关于诸如电影、网站、音乐、应用、地理位置、商业、图像等之类的内容的反应和/或情感。
发明内容
提供本发明内容以便以简化的形式介绍在以下具体实施方式中进一步描述的概念的选择。该发明内容不旨在标识所要求保护的主题的关键因素或必要特征,也不旨在用来限制所要求保护的主题的范围。
本文尤其提供一种或多种用于基于用户反应数据来注释内容和/或用于维护可搜索内容储存库的系统和/或技术。换言之,用户可以消费(例如,与之交互)诸如电影、音乐、应用、网站、地理位置、商业、图像、书籍、社交网络信息、广告、用于出售的产品、高速公路的一部分、与人的交互、电子邮件、和/或多种其它电子和/或真实世界(例如,有形的)内容之类的多种内容。在一个示例中,用户可以请求和/或选定检测用户对内容的反应以用于诸如基于用户对内容如何反应来注释内容之类的各种目的。例如,用户可能希望基于用户对内容如何反应来组织、搜索、和/或共享内容(例如,用户可以搜索在用户最初创建和/或查看图像时使用户快乐的图像)。用户可以为用户反应数据和/或从用户反应数据创建的注释指定安全等级(例如,用户可以指定这种信息要被安全存储以仅供用户使用,用户可以指定这种信息可以与其它用户反应数据聚集以供可搜索内容储存库使用等)。
可以检测到与内容(例如,电影的片段、图像的区域、一段高速公路、早晨工作电子邮件、傍晚个人电子邮件等)和/或其一部分相关联的用户反应数据。例如,设备(例如,移动电话、笔记本电脑、平板设备、车辆仪表、电视、电子广告牌、和/或其他设备)可以包括一个或多个传感器,诸如摄像机,运动传感器(例如,加速度计或陀螺仪),GPS设备,麦克风和/或可以感测用户反应数据的其它传感器。在一个示例中,当用户正在平板计算设备上查看电子邮件内容的第一部分时,一个或多个传感器可以检测用户的语音音量、用户的面部表情、和/或平板计算设备的移动以作为针对电子邮件内容的第一部分的第一用户反应数据(例如,用户可能在阅读电子邮件内容的第一部分时变得心烦)。在一个示例中,可以对一个或多个用户反应进行实时采集(例如,通过一个或多个传感器),但这些反应中的至少一些可以在不同设备上和/或在不同的时间进行处理以确定或检测用户反应数据。换言之,例如,除了用户反应出现或被一个或多个传感器捕捉的时候之外,也可以从用户反应确定或检测用户反应数据(例如,以节省资源,提高处理等)。电子邮件内容的第一部分可以基于第一用户反应数据使用第一反应注释进行注释。在查看电子邮件内容的第二部分的同时,一个或多个传感器可以检测到用户正在哭泣以作为针对电子邮件内容的第二部分的第二用户反应数据。电子邮件内容的第二部分可以基于第二用户反应数据使用第二反应注释进行注释等。
各种信息,诸如资源可用性(例如,电池寿命)、与内容的一部分相关联的元数据(例如,标识内容的该部分可以具有高于阈值的情感的反应概率的元数据)、平板计算设备的位置背景(例如,用户在家对比在工作会议中)、内容的背景(例如,用户在家中正在阅读电子邮件)、当前时间,和/或其它信息,可以用来选择性地启用和/或禁用一个或多个传感器。在元数据的一个示例中,电影内容的离线分析可以将电影内容的一个或多个部分标识为具有引起情感的相对高的反应概率(例如,汽车追逐场景,悲惨死亡场景等)。例如,这种部分可以使用可标识特定传感器的元数据进行注释,该特定传感器可以在电影的相应部分期间被启用,这可以减少传感器在可能不产生情感的电影的那些部分期间的不必要的资源消耗。这样,内容和/或其部分可以使用反应注释进行注释,该反应注释可以用来基于用户反应来评价、组织、和/或搜索内容。
可以维护包括一个或多个用户的注释数据和/或聚集的注释数据的可搜索内容储存库。在一个示例中,可搜索内容储存库可以包括第一用户对悲剧电影的一个或多个反应注释。在另一示例中,搜索内容储存库可以包括从多个用户对喜剧电影的注释数据导出的聚集的注释数据。这样,搜索接口可以允许用户基于用户反应搜索(例如,使用户快乐的电影的部分的搜索)和/或单个用户反应搜索(例如,使特定用户快乐的图像的搜索)来搜索内容或其部分。
为了达到前述和相关目的,以下描述和附图陈述某些说明性方面和实施方式。这些仅指示可以采用一个或多个方面的各种方式中的几种。在结合附图进行考虑时,本公开的其它方面、优点和新颖特征从以下详细描述将变得显而易见。
附图说明
图1是示出了基于用户反应数据注释内容的示例性方法的流程图。
图2是示出了用于基于用户反应数据注释内容的示例性系统的组件框图。
图3是示出了用于基于用户反应数据注释内容的示例性系统的组件框图。
图4是示出了用于基于用户反应数据注释内容的示例性系统的组件框图。
图5是示出了维护可搜索内容储存库的示例性方法的流程图。
图6是示出了用于维护可搜索内容储存库的示例性系统的组件框图。
图7是示例性计算设备可读介质的图解,其中可以包括被配置成体现本文所陈述的措施中的一个或多个的处理器可执行指令。
图8示出了示例性计算环境,其中可以实现本文所陈述的措施中的一个或多个。
具体实施方式
现在参照附图对所要求保护的主题进行描述,其中相同的附图标记在全文中通常用来指代相同的元件。在以下描述中,出于解释的目的,陈述了许多具体细节,以便提供对所要求保护的主题的理解。然而,可以明显的是,所要求保护的主题可以在没有这些具体细节的情况下实施。在其它实例中,结构和设备以框图形式示出以方便描述所要求保护的主题。
基于用户反应数据注释内容的一个实施例由图1中的示例性方法100示出。在120,该方法开始。可以理解的是,在一个示例中,用户可以请求和/或选定待检测的用户反应数据以用于注释内容的目的(例如,用户可以希望基于用户对图像如何反应来注释图像,使得用户稍后可以基于图像所引起的用户的什么情感来搜索图像,诸如快乐图像的搜索)。用户可以为用户反应数据和/或注释数据指定隐私等级(例如,仅供用户用于基于用户对图像如何反应而组织和/或搜索内容;用于聚集对各种用户可用的可搜索内容储存库中的注释数据;等等)。
在104,可以对与内容的第一部分相关联的第一用户反应数据进行检测。应该理解的是,内容可以包括各种各样的电子内容、真实世界(例如,有形的)内容、和/或体验,诸如电影、图像、购物商店、公园、社交网络体验、广告、娱乐公园骑行体验、电子邮件、个体(例如,与老板或朋友的电话通话)、视频游戏、用户接口、和/或种类繁多的其它类型内容。第一反应数据可以包括体验内容的第一部分的用户的诸如情感数据(例如,满意、生气、悲伤、沮丧、厌倦、赞成、不赞成,欢笑等)之类的反应(例如,指示其的数据)。在一个示例中,在用户消费内容的第一部分期间可以对第一反应数据进行实时检测。在另一示例中,可以对一个或多个用户反应进行实时采集(例如,通过一个或多个传感器),但这些反应中的至少一些可以在不同时间(例如离线)进行处理以确定或检测第一反应数据。换言之,例如,除了当一个或多个用户反应发生或被一个或多个设备上的一个或多个传感器捕捉的时候之外,也可以从一个或多个用户反应确定或检测第一反应数据。类似地,一个或多个用户反应的处理(例如,以确定或检测用户反应数据)可以由除了捕捉所述一个或多个用户反应的一个或多个设备之外的一个或多个设备来执行。通过示例的方式,诸如身体移动和/或说话音量之类的用户反应可以由智能手机和/或平板设备上的摄像头和/或扬声器来捕捉。因为处理这些用户反应以确定或检测用户反应数据尤其可以消费资源(例如,CPU周期、内存、电池电源等),所以本处理的至少一些可以在一个或多个不同设备上执行,当(多个)捕捉设备插入(例如,与仅在电池电源上运行完全不同)时,当(多个)捕捉设备的资源利用低(例如,执行很少甚至没有其它操作)时等。使用(多个)不同设备和/或除了(多个)用户反应出现或被捕捉的时候之外检测或确定用户反应数据可以例如允许处理在捕捉(多个)用户反应的(多个)捕捉设备上和/或处理(多个)用户反应的(多个)处理设备上以较少的资源利用等更高效地且更快速地执行。
一个或多个传感器(诸如摄像机、麦克风、GPS、运动感测设备等)可以基于各种信息(诸如与内容的第一部分相关联的元数据、当前时间、呈现内容的设备的位置背景、内容的情景信息等)被选择性地启用或禁用。在一个示例中,第一传感器可以用来基于与内容的第一部分相关联的元数据来检测第一用户反应数据。元数据可以指定内容的第一部分具有高于阈值的反应概率(例如,电影的离线处理可以指示战胜敌人的超级英雄可以引起用户的激动,并且因此可以为这种场景分配相对高的反应概率)。在另一示例中,可以基于与呈现内容的设备相关联的资源可用性从一组可用传感器选择第一传感器(例如,移动电话的麦克风而非摄像机可以被选择性地启用以在相对长的社交网络体验期间检测用户反应)。这样,在体验内容和/或其部分的同时,一个或多个传感器可以被选择性地启用以检测用户反应数据。
在106,可以基于第一用户反应数据使用第一反应注释来注释内容的第一部分。例如,针对电影的暴力部分的第一反应注释可以指示用户在观看暴力部分的同时感到心烦。因为用户可以在观看电影的暴力部分的同时体验一个以上的情感,所以内容的第一部分可以使用一个或多个反应注释(例如,指示用户在观看电影的暴力部分的同时变得害怕和不安的用户反应注释)进行注释。
在一个示例中,内容可以包括一个以上的部分。例如,电影可以包括一个或多个电影片段,在该电影片段期间,可以检测用户反应数据。这样,可以检测与内容的第二部分相关联的第二用户反应数据。可以基于第二用户反应数据对内容的第二部分进行注释。在另一示例中,可以基于一个或多个用户反应数据使用总反应注释对内容进行注释。例如,即使针对喜剧电影的至少一个注释可以包括与无聊反应注释不同的反应注释(例如,喜剧电影可以使用一些滑稽的反应注释进行注释,但是可以使用大体上更大数量的无聊反应注释(例如,超过阈值)进行注释并且因此可以接收总体无聊反应注释),喜剧电影还是可以接收总体无聊反应注释。
针对内容的用户反应数据可以用来生成可以传送关于内容的用户反应信息的用户接口。在一个示例中,可以生成内容的概述。该概述可以包括具有至少一个反应注释的内容的一个或多个部分(例如,包括来自电影的一个或多个情感场景的预告片)。这样,该概述可以为用户提供内容的梗概(例如,花絮)。在另一示例中,可以生成表示与内容相关联的一个或多个反应注释的图。可以在图内视觉区分不同类型的反应注释(例如,基于颜色、标签等)。例如,诸如悲伤之类的第一类型的反应注释可以在图内使用第一标识符视觉标识(例如,着以蓝色或由眉头紧锁来表示)。诸如快乐之类的第二类型的反应注释可以在图内使用第二标识符视觉标识(例如,着以黄色或由笑脸来表示)。
与内容相关联的注释数据(例如,多个用户的反应注释)可以被聚集以生成聚集的注释数据。该聚集的注释数据可以标识用户对内容和/或其部分(例如,大体)如何反应。搜索接口可以允许用户执行反应搜索(例如,针对特定用户可能已经以某一方式对其反应的内容的个性化搜索和/或针对用户可能已经以某一方式对其反应的内容的一般搜索)。例如,响应于通过搜索接口接收反应搜索,可以基于聚集的注释数据提供对应于反应搜索的内容的至少一部分(例如,使用户快乐的图像;使用户害怕的电影等)。这样,用户可以定位可能已经引起用户的某些情感的内容(例如,电影、图像、位置)。在108,该方法结束。
图2示出了被配置用于基于用户反应数据注释内容的系统200的示例。该系统200可以包括检测组件212和/或注释组件224,其可以与用户202的设备204(例如,计算设备、移动电话、平板设备、车用仪表等)相关联。该系统200可以包括被配置成例如基于用户202是否请求和/或选定检测和/或注释内容来启用或禁用检测组件212和/注释组件224的选定组件和/或类似物(未示出)。
用户202可以通过设备204体验诸如电影内容214之类的内容。该电影内容214可以包括一个或多个部分,诸如第一部分206、第一部分216、第三部分218、和/或未示出的其它部分。例如,用户202当前可能正在观看电影内容214的第一部分206。元数据220可以与电影内容214的第一部分206相关联。在一个示例中,元数据220可以指定存在用户可以对电影内容214的第一部分206具有用户反应(例如,情感表现)的相对高的反应概率。元数据220可以指定视觉传感器要用来检测用户对电影内容214的第一部分206的反应。这样,检测组件212可以利用设备204的视觉传感器来检测208与电影内容214的第一部分206相关联的第一用户反应数据210(例如,快乐情感222)。
注释组件224可以被配置成基于第一用户反应数据210(例如,快乐情感222)使用第一反应注释228来注释226电影内容214的第一部分206。在一个示例中,针对电影内容214的第一部分206的后继的用户反应数据可以由检测组件212来检测。这样,注释组件224可以使用一个或多个用户反应注释来注释电影内容214的第一部分206。可以理解的是,检测组件212可以检测并且注释组件224可以注释各种类型的内容,诸如音乐、图像、位置、场地、电子邮件、人、社交网络数据、物品、书、博客等,并且不只限于电影内容214。
图3示出了被配置用于基于用户反应数据来注释内容的系统300的示例。系统300可以包括可与用户202的设备204相关联的选定组件和/或类似物(未示出)、检测组件212、和/或注释组件224。可以理解的是,在一个示例中,系统300可以对应于图2的系统200。例如,注释组件224可能已经基于与电影内容214的第一部分206相关联的用户反应数据(例如,快乐情感)对电影内容214的第一部分206进行注释。电影内容214可以包括一个或多个部分,诸如第一部分206、第一部分216、第三部分218、和/或未示出的其它部分。
在一个示例中,用户202当前可能正在观看电影内容214的第二部分216。检测组件212可以利用一个或多个传感器(例如,用于视觉的摄像机、用于音频的麦克风、和/或用于移动的运动检测设备等)来检测302与电影内容214的第二部分216相关联的第二用户反应数据304(例如,生气情感306)。
注释组件224可以被配置成基于第二用户反应数据304(例如,生气情感306)使用第二反应注释310来注释308电影内容214的第二部分216。在一个示例中,针对电影内容214的第二部分216的后继的用户反应数据可以由检测组件212来检测。这样,注释组件224可以使用一个或多个用户反应注释来注释电影内容214的第二部分216。可以理解的是,检测组件212可以检测并且注释组件224可以注释各种类型的内容,诸如音乐、图像、位置、场地、电子邮件、人、社交网络数据等,并且不只限于电影内容214。
图4示出了被配置用于基于用户反应数据406注释内容的系统400的示例。系统400可以包括选定组件和/或类似物(未示出)、检测组件408、和/或注释组件412。检测组件408可以被配置成检测与内容(例如,表示/标识真实世界州公园的州公园内容416)相关联的用户反应数据406。在一个示例中,用户402可能正在探索州公园。用户402可能在探索州公园的同时携带诸如移动设备(例如,智能手机、平板电脑等)之类的设备404行进。设备404可以包括各种传感器,诸如摄像机、运动检测器、麦克风、和/或其它传感器。当用户402正在探索州公园的同时,检测组件408可以检测用户反应数据406(例如,用户402做出的声音、用户402的移动、由用户造成的设备404的移动等)。在一个示例中,与州公园内容416相关联的元数据(例如,从离线处理户外地理位置得到的元数据)可以指示检测组件408何时启用或禁用传感器和/或检测组件408启用或禁用什么传感器,这可以减少传感器的低效使用(例如,在州公园的整个探索期间启用所有传感器可能不合期望地耗尽设备404的电池资源)。例如,元数据可以指定要响应于确定用户402已经进入州公园的特定部分(例如,如由设备404的GPS设备所指示的)而启用运动检测器和麦克风,并且指定要在运动检测器确定用户402已经停止移动时启用摄像机。
在一个示例中,检测组件408可以确定用户反应数据406指示满足410作为用户402的情感状态。注释组件412可以被配置成使用指示用户402在探索州公园的同时的满足410情感状态的反应注释418来注释414州公园内容416。在一个示例中,补充内容420(例如,与体验州公园内容416的用户402相关联)可以通过设备404获得。例如,设备404的摄像机可以在表现满足410的同时获得用户402在州公园中的照片。注释组件412可以将补充内容420与州公园内容416相关联422(例如,作为用户402在州公园中的图像424)。
这样,用户402和/或其他用户可以基于反应注释418和/或补充内容420来组织、搜索、和/或与州公园内容416交互。例如,在紧张工作的一天期间,用户402可以通过搜索接口来搜索引起用户402的满足(例如,满足410)的内容。例如,可以搜索州公园内容416以发现产生满足(例如,获得一个或多个用户的大体上高满足等级的公园中的特定位置)的内容的一个或多个部分(例如,对应于州公园的特定部分)。搜索接口可以基于该搜索来提供描述州公园的概要、概述(例如,描绘州公园的视频短片)、指示针对州公园内容416的用户反应数据的图、州公园内容416、和/或补充内容(例如,图像424)。例如,搜索接口可以提供州公园内容412的概要、用户在州公园中的图像424、和/或与州公园内容412相关联的其它数据(例如,其可以帮助用户参观用户可以寻找安慰的州公园的特定方面)。
维护可搜索内容储存库的一个实施例由图5中的示例性方法500示出。在502,该方法开始。在504,与内容相关联的被注释的数据可以从多个用户聚集以生成聚集的注释数据。例如,对应于广告的广告内容可以由一个或多个用户体验。在这种用户体验该广告内容的同时,可以对用户反应数据进行检测(例如,广告可以引起第一用户的厌倦、第二用户的冷漠、第三用户的厌倦、第四用户的困惑等)。可以基于用户反应数据使用一个或多个反应注释来注释广告内容。针对广告内容的注释数据可以包括这种反应注释(例如厌倦、冷漠、困惑等)。注释数据可以被聚集以生成针对广告内容的聚集的注释数据(例如,一般而言,用户对广告厌烦)。
搜索接口可以允许用户定位和/或消费内容。例如,用户反应搜索可以通过搜索接口进行接收(例如,在演讲期间,市场营销老师可以提交对引起观众厌倦的广告的搜索)。因此,可以基于聚集的注释数据提供对应于用户反应搜索的内容的至少一部分。在另一示例中,单个用户反应搜索可以通过搜索接口进行接收(例如,广告管理员可以搜索被注释为对广告管理员而言厌烦的广告)。因此,可以提供对应于单个用户反应搜索的内容的至少一部分。这样,用户可以基于用户对内容的聚集反应和/或基于用户对内容如何反应来搜索内容。
图6示出了被配置用于维护可搜索内容储存库610的系统600的示例。该系统600可以包括搜索组件608。该搜索组件608可以与可搜索内容储存库610相关联。该可搜索内容储存库610可以包括可能已经使用反应注释进行注释和/或与补充内容相关联的内容。例如,可搜索内容储存库610可以包括喜剧电影内容612、账单支付网站内容616、和/或未示出的其它内容。在一个示例中,喜剧电影内容612可以使用用户的一个或多个反应注释(例如,针对整部电影的单个用户注释、针对第一场景的单个用户注释、针对第二场景的单个用户注释、和/或其它单个用户注释)进行注释。喜剧电影内容612可以与聚集的注释数据(例如,用户对整部电影的总体反应、用户对第一场景的总体反应、用户对第二场景的总体反应、和/或其它聚集的注释)相关联。喜剧电影内容612可以与补充内容614相关联。例如,补充内容614可以包括提供喜剧电影内容612的概要的用户的视频。这样,可搜索内容储存库610可以包括可以由搜索组件608检索的被注释的内容。
搜索组件608可以与搜索接口602相关联。搜索接口602可以提供用户可以通过其提交各种类型的搜索的接口。例如,搜索接口602可以提供用户可以通过其提交特定用户的单个用户反应搜索(例如,搜索单个用户注释604,诸如使用户欢笑的图像的搜索)和/或提交用户反应搜索(例如,搜索聚集的注释606,诸如使用户悲伤的视频的搜索)的接口。搜索组件608可以被配置成接收通过搜索接口602提交的搜索608。搜索组件608可以搜索可搜索内容储存库610以得到内容618、补充内容620、和/或对应于搜索608的其它信息(例如,概要、概述、图等)。这样,搜索组件608可以基于可搜索内容储存库内的信息呈现搜索结果(例如,使用户悲伤的视频、悲伤电影的预告片、悲伤电影的用户评论等)。
又一实施例涉及一种包括处理器可执行指令的计算设备可读介质,该处理器可执行指令被配置成实现本文所呈现的技术中的一个或多个。图7中示出了可以以这些方式设计的示例性计算设备可读介质,其中实施方式700包括其上编码有计算设备可读数据714的计算设备可读介质716(例如,CD-R、DVD-R、或硬盘驱动器的盘片)。该计算设备可读数据714又包括被配置成根据本文所陈述的原理中的一个或多个进行操作的一组计算设备指令712。在这样一个实施例700中,例如,处理器可执行计算设备指令712可以被配置成执行方法710,诸如图1的示例性方法100中的至少一些和/或图5的示例性系统500中的至少一些。在另一个这样的实施例中,例如,处理器可执行指令712可以被配置成实现系统,诸如图2的示例性系统200中的至少一些、图3的示例性系统300中的至少一些、图4的示例性系统400中的至少一些、和/或图6的示例性系统600中的至少一些。被配置成根据本文所呈现的技术进行操作的许多这样的计算设备可读介质可以由本领域普通技术人员设计。
虽然已经使用特定于结构特征和/或方法动作的语言对本主题进行了描述,但是要理解的是,在所附权利要求中限定的主题不一定局限于以上所描述的具体特征或动作。相反,以上所描述的具体特征和动作是作为实现权利要求的示例形式而公开的。
如在本申请中所使用的,术语“组件”、“模块”、“系统”、“接口”等一般旨在表示计算设备相关的实体,要么是硬件、硬件和软件的组合、软件、要么是执行中的软件。例如,组件可以是但不限于是在处理器上运行的进程、处理器、对象、可执行文件、执行线程、程序、和/或计算设备。通过说明的方式,在控制器上运行的应用和控制器均可以为组件。一个或多个组件可以驻留在进程和/或执行线程内,并且组件可以定位于一个计算设备上和/或分布在两个或更多计算设备之间。
而且,所要求保护的主题可以使用标准编程和/或工程技术实现为方法、装置或制品以产生软件、固件、硬件或其任何组合来控制计算设备实现所公开的主题。如本文所使用的术语“制品”旨在涵盖可从任何计算设备可读设备、载体、或介质访问的计算设备程序。当然,本领域技术人员将认识到,可以对该配置做出许多修改而不偏离所要求保护的主题的范围或精神。
图8和以下讨论提供了对实现本文所陈述的措施中的一个或多个的实施例的合适的计算环境的简要、一般描述。图8的操作环境仅是合适的操作环境的一个示例,并非旨在对操作环境的使用范围或功能性提出任何限制。示例计算设备包括但不限于个人计算设备、服务器计算设备、手持或膝上型设备、移动设备(诸如移动电话、个人数字助理(PDA)、媒体播放器等等)、多处理器系统、消费者电子产品、小型计算设备、大型计算设备、包括上述系统或设备中的任何一个的分布式计算环境等等。
虽然不要求,但是在由一个或多个计算设备执行的“计算设备可读指令”的一般背景中对实施例进行描述。计算设备可读指令可以经由计算设备可读介质(以下所讨论的)进行分布。计算设备可读指令可以被实现为程序模块,诸如执行特定任务或实现特定抽象数据类型的功能、对象、应用编程接口(API)、数据结构等等。典型地,计算设备可读指令的功能性可以按要求在各种环境中组合或分布。
图8示出了包括被配置成实现本文所提供的一个或多个实施例的计算设备812的系统810的示例。在一个配置中,计算设备812包括至少一个处理单元816和内存818。取决于计算设备的确切配置和类型,内存818可以是易失性的(诸如,例如RAM)、非易失性的(诸如,例如ROM、闪存等)或两者的某种组合。这种配置在图8中由虚线814示出。
在其它实施例中,设备812可以包括附加特征和/或功能性。例如,设备812还可以包括附加存储器(例如,可移动和/或不可移动),包括但不限于磁存储器、光存储器等等。这种附加存储器在图8中由存储器208示出。在一个实施例中,实现本文所提供的一个或多个实施例的计算设备可读指令可以在存储器820中。存储器820还可以存储其它计算设备可读指令以实现操作系统、应用程序等等。例如,计算设备可读指令可以载入内存818中以例如用于由处理单元816执行。
如本文所使用的术语“计算设备可读介质”包括计算设备存储介质。计算设备存储介质包括以任何方法或技术实现的用于存储诸如计算设备可读指令或其它数据之类的信息的易失性和非易失性、可移动和不可移动的介质。内存818和存储器820是计算设备存储介质的示例。计算设备存储介质包括但不限于RAM、ROM、EEPROM、闪存或其它内存技术、CD-ROM、数字多功能盘(DVD)或其它光存储器、磁带盒、磁带、磁盘存储器或其它磁存储设备、或可以用来存储所需信息并且可以由设备812访问的任何其它介质。任何这种计算设备存储介质均可以是设备812的一部分。
设备812还可以包括允许设备812与其他设备通信的(多个)通信连接826。(多个)通信连接826可以包括但不限于调制解调器、网络接口卡(NIC)、集成网络接口、射频发射机/接收机、红外端口、USB连接、或用于将计算设备812连接到其它计算设备的其它接口。(多个)通信连接826可以包括有线连接或无线连接。(多个)通信连接826可以发送和/或接收通信媒体。
术语“计算设备可读介质”可以包括通信介质。通信介质典型地体现计算设备可读指令或诸如载波或其它运送机制之类的“调制数据信号”中的其它数据,并且包括任何信息传递介质。术语“调制数据信号”可以包括具有以在信号中编码信息的这样的方式设置或更改的其特点中的一个或多个的信号。
设备812可以包括(多个)输入设备824,诸如键盘、鼠标、笔、语音输入设备、触摸输入设备、红外摄像机、视频输入设备和/或任何其它输入设备。(多个)输出设备822,诸如一个或多个显示器、扬声器、打印机、和/或任何其它输出设备,也可以被包括在设备812内。(多个)输入设备824和(多个)输出设备822可以经由有线连接、无线连接、或它们的任意组合连接到设备812。在一个实施例中,来自另一个计算设备的输入设备或输出设备可以用作计算设备812的(多个)输入设备824或(多个)输出设备822。
计算设备812的组件可以通过诸如总线之类的各种互连进行连接。这样的互连可以包括外设组件互连(PCI),诸如PCI Express,通用串行总线(USB),火线(IEEE 1394),光学总线结构等等。在另一实施例中,计算设备812的组件可以通过网络互连。例如,内存818可以包括位于由网络互连的不同物理位置中的多个物理内存单元。
本领域技术人员将认识到,用来存储计算设备可读指令的存储设备可以分布在网络中。例如,可经由网络828访问的计算设备830可以存储计算设备可读指令以实现本文所提供的一个或多个实施例。计算设备812可以访问计算设备830并且下载计算设备可读指令中的部分或全部以用于执行。可选地,计算设备812可以根据需要下载数个计算设备可读指令,或者一些指令可以在计算设备812处执行并且一些在计算设备830处执行。
本文提供了实施例的各种操作。在一个实施例中,所描述的操作中的一个或多个可以构成存储在一个或多个计算设备可读介质上的计算设备可读指令,如果其由计算设备执行,则将使计算设备执行所描述的操作。描述操作中的一些或全部的顺序不应被解释为暗示这些操作一定是顺序相关的。获益于本描述的本领域技术人员将理解替换的排序。此外,将理解的是,并非所有操作都必须在本文所提供的每个实施例中呈现。
此外,词汇“示例性”在本文中用于指作为示例、实例或说明。本文描述为“示例性”的任何方面或设计不一定被解释为比其它方面或设计有利。相反,词汇示例性的使用旨在以具体的方式来呈现概念。如在本申请中所使用的,术语“或”旨在是指包括性“或”而非互斥性“或”。换言之,除非专门指定,或者从上下文能清楚得知,否则“X采用A或B”旨在是指任何自然的包括性排列。换言之,如果X采用A;X采用B;或X采用A和B二者,则“X采用A或者B”满足前述实例中的任何一个。另外,如在本申请和所附权利要求中所使用的冠词“一”和“一个”一般可以被解释为是指“一个或多个”,除非专门指定或从上下文能清楚得知指的是单数形式。同样,A和B中的至少一个和/或类似物通常是指A或B或A和B两者。
同样,虽然本公开已经关于一个或多个实施方式而加以示出并描述,但是本领域技术人员基于对本说明书和附图的参阅和理解将会想到等效的变更和修改。本公开包括所有这种修改和变更,并且仅仅受限于以下权利要求的范围。特别地,关于由以上所描述的组件(例如,元件、资源等)执行的各种功能,用来描述这种组件的术语旨在对应于(除非专门指定)执行所描述的组件的指定功能的任何组件(例如,在功能上等同),即使在结构上不等同于执行本公开的本文所示出的示例性实施方式中的功能的所公开的结构。另外,虽然可能已经关于若干个实施方式中的仅仅一个对本发明的具体特征进行了公开,但是根据需要并且有利于任何给定或特定应用,这样的特征可以与其它实施方式中的一个或多个其它特征进行组合。此外,对于在详细描述中或在权利要求中使用的术语“包含(include)”、“有(having)”、“具有(has)”、“带有(with)”或者它们的变化的范围,这些术语与术语“包括(comprising)”类似的方式旨在是指包括性的。

Claims (20)

1.一种内容注释方法,包括:
识别内容的一部分,其中存在用户将体验对所述内容的所述一部分的反应的高概率的信号,所述信号是从关于所述内容的数据导出的;
在所述识别之后,检测在体验所述内容的所述一部分时用户的反应的数据;
表达与所检测的数据相对应的反应注释;并且
用反应注释来注释所述内容的所述一部分。
2.根据权利要求1所述的方法,其中仅在接收到允许检测在体验所述内容的所述一部分时所述用户的反应的数据的指示之后执行所述检测。
3.根据权利要求1所述的方法,其中所述检测包括实时地并且在由所述用户消费所述内容的所述一部分期间检测数据。
4.根据权利要求1所述的方法,还包括:
在所述识别之后,检测在体验所述内容的所述一部分时另一用户的反应的数据;
聚合所述另一用户的所检测的数据;
表达与针对所述另一用户的所检测的数据的所检测的数据相对应的另一个反应注释;并且
用所述另一个反应注释来注释所述内容的所述一部分。
5.根据权利要求1所述的方法,还包括至少部分地基于所检测的数据而生成通过其能够传递用户反应数据的用户界面。
6.根据权利要求1所述的方法,其中所述检测包括基于与呈现所述内容的设备相关联的资源可用性,使用所述设备的一个或多个传感器检测数据。
7.根据权利要求1所述的方法,其中所述注释是热图和图中的一个的视觉元素,热图和图中的每个描绘与所述内容相关联的一个或多个反应注释,并且其中当呈现时,以不同的视觉方式呈现不同类型的反应注释。
8.根据权利要求1所述的方法,其中所述检测包括从传感器的可用集合中选择传感器以检测至少一些用户的反应的数据,所述选择是基于以下中的至少一个的:当前时间、呈现所述内容的设备的位置上下文、所述内容的上下文、或者指定针对所述内容的传感器类型的元数据。
9.根据权利要求8所述的方法,还包括基于与所述内容的所述一部分相关联的元数据而选择性地启用或禁用所述传感器。
10.根据权利要求1所述的方法,还包括生成表示与所述内容的所述一部分相关联的反应注释的图,其中不同类型的反应注释在视觉上被区分。
11.根据权利要求10所述的方法,还包括;
使用所述图内的第一视觉提示来标识第一类型的反应注释;并且
使用所述图内的第二视觉提示来标识第二类型的反应注释,其中所述第一视觉提示与所述第一视觉提示不同。
12.根据权利要求1所述的方法,还包括:
利用传感器来获取与所述用户关于所述内容的所述一部分的体验相关联的补充内容;并且
将所述补充内容与所述内容的所述一部分相关联。
13.一种内容注释方法,包括:
评估关于媒体内容的数据以产生如下确定:所述媒体内容的一部分是否具有体验所述一部分的用户将对所述一部分具有反应的必要概率;
当所述确定为肯定时,检测与内容的指定部分相关联的用户反应数据;并且
用与所检测的用户反应数据相对应的反应注释来注释所述媒体内容的所述指定部分。
14.根据权利要求13所述的方法,其中所述反应注释还反映多于一个的用户的所检测的用户反应数据的聚合。
15.根据权利要求13所述的方法,还包括至少部分地基于所检测的用户反应数据而生成用户界面,所述用户界面被适应并且被配置为传递用户反应数据。
16.根据权利要求13所述的方法,其中所述检测包括使用呈现所述媒体内容的设备的一个或多个传感器。
17.根据权利要求16所述的方法,还包括基于与呈现所述媒体内容的设备相关联的资源可用性而从可用集合中选择所述一个或多个传感器。
18.一种内容注释方法,包括:
识别内容的一部分,其中存在用户将体验对所述内容的所述一部分的反应的高概率的指示,所述指示在关于所述内容的数据中;
在所述识别之后,检测在体验所述内容的所述一部分时用户的反应的数据;
接收限制使用所检测的数据或反应注释中的一者或两者的指示;
表达与所检测的数据相对应的反应注释;并且
以与所述指示一致的方式用反应注释来注释所述内容的指定部分。
19.根据权利要求18所述的方法,其中所述注释包括生成热图和图中的一个,热图和图中的每个描绘与所述内容的所述指定部分相关联的一个或多个反应注释。
20.根据权利要求19所述的方法,其中在所述热图和所述图中的至少一个中,不同类型的反应注释在呈现时在视觉上被区分。
CN201811021311.0A 2012-12-13 2013-12-13 用于内容反应注释的系统和方法 Active CN109241347B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/713,240 US9721010B2 (en) 2012-12-13 2012-12-13 Content reaction annotations
US13/713,240 2012-12-13
CN201380065254.5A CN104919485B (zh) 2012-12-13 2013-12-13 用于内容反应注释的系统和方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201380065254.5A Division CN104919485B (zh) 2012-12-13 2013-12-13 用于内容反应注释的系统和方法

Publications (2)

Publication Number Publication Date
CN109241347A true CN109241347A (zh) 2019-01-18
CN109241347B CN109241347B (zh) 2022-01-04

Family

ID=49918856

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201380065254.5A Active CN104919485B (zh) 2012-12-13 2013-12-13 用于内容反应注释的系统和方法
CN201811021311.0A Active CN109241347B (zh) 2012-12-13 2013-12-13 用于内容反应注释的系统和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201380065254.5A Active CN104919485B (zh) 2012-12-13 2013-12-13 用于内容反应注释的系统和方法

Country Status (4)

Country Link
US (2) US9721010B2 (zh)
EP (1) EP2932457B1 (zh)
CN (2) CN104919485B (zh)
WO (1) WO2014093919A2 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9721010B2 (en) 2012-12-13 2017-08-01 Microsoft Technology Licensing, Llc Content reaction annotations
US20140181668A1 (en) * 2012-12-20 2014-06-26 International Business Machines Corporation Visual summarization of video for quick understanding
US10084840B2 (en) 2013-01-31 2018-09-25 Art Research And Technology, L.L.C. Social networking with video annotation
WO2018052458A1 (en) * 2016-09-19 2018-03-22 Hirschfeld David Social networking with video annotation
US9516259B2 (en) * 2013-10-22 2016-12-06 Google Inc. Capturing media content in accordance with a viewer expression
CN104185064B (zh) * 2014-05-30 2018-04-27 华为技术有限公司 媒体文件标识方法和装置
US20160116960A1 (en) * 2014-10-24 2016-04-28 Ati Technologies Ulc Power management using external sensors and data
FR3041853A1 (fr) * 2015-09-24 2017-03-31 Orange Procede de caracterisation psycho-physiologique d'un contenu audio et/ou video, et procede de recherche ou recommandation et procede de lecture correspondants.
US10609442B2 (en) 2016-07-20 2020-03-31 Art Research And Technology, L.L.C. Method and apparatus for generating and annotating virtual clips associated with a playable media file
US10970334B2 (en) * 2017-07-24 2021-04-06 International Business Machines Corporation Navigating video scenes using cognitive insights
WO2019073661A1 (ja) * 2017-10-13 2019-04-18 ソニー株式会社 情報処理装置、情報処理方法、情報処理システム、表示装置及び予約システム
CN109672935A (zh) * 2017-10-13 2019-04-23 富泰华工业(深圳)有限公司 基于用户情绪的视频推送系统及方法
US10636449B2 (en) * 2017-11-06 2020-04-28 International Business Machines Corporation Dynamic generation of videos based on emotion and sentiment recognition
US11792485B2 (en) * 2017-12-22 2023-10-17 Hillel Felman Systems and methods for annotating video media with shared, time-synchronized, personal reactions
US11259075B2 (en) * 2017-12-22 2022-02-22 Hillel Felman Systems and methods for annotating video media with shared, time-synchronized, personal comments
US10820060B1 (en) * 2018-06-27 2020-10-27 Facebook, Inc. Asynchronous co-watching
US11625922B2 (en) * 2021-03-08 2023-04-11 Motorola Solutions, Inc. Event summarization facilitated by emotions/reactions of people near an event location
US11935076B2 (en) * 2022-02-02 2024-03-19 Nogueira Jr Juan Video sentiment measurement
US11936948B1 (en) * 2023-01-24 2024-03-19 Roku, Inc. Method and system for generating a visual composition of user reactions in a shared content viewing session

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008097706A1 (en) * 2007-02-08 2008-08-14 Yahoo! Inc. Context-based community-driven suggestions for media annotation
US20080313570A1 (en) * 2007-06-14 2008-12-18 Yahoo! Inc. Method and system for media landmark identification
WO2009051428A1 (en) * 2007-10-16 2009-04-23 Electronics And Telecommunications Research Institute Sensory effect media generating and consuming method and apparatus thereof
US20100070992A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Media Stream Generation Based on a Category of User Expression
CN101853259A (zh) * 2009-03-31 2010-10-06 国际商业机器公司 添加和处理带有情感数据的标签的方法和设备
CN102224500A (zh) * 2008-09-24 2011-10-19 法国电信公司 用于简化内容分析的利用简约描述调色板的内容分类
CN102257761A (zh) * 2008-12-22 2011-11-23 北方电讯网络有限公司 目标广告系统和方法
CN102713905A (zh) * 2010-01-08 2012-10-03 瑞典爱立信有限公司 用于媒体文件的社会标签的方法和设备
CN102741838A (zh) * 2009-10-02 2012-10-17 A·穆苏卢里 块分割、识别与索引视觉元素及搜索文档的系统与方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7106887B2 (en) 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
US6585521B1 (en) 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
US20050071865A1 (en) 2003-09-30 2005-03-31 Martins Fernando C. M. Annotating meta-data with user responses to digital content
US20070150916A1 (en) 2005-12-28 2007-06-28 James Begole Using sensors to provide feedback on the access of digital content
AU2007293092A1 (en) 2006-09-05 2008-03-13 Innerscope Research, Inc. Method and system for determining audience response to a sensory stimulus
KR100828371B1 (ko) 2006-10-27 2008-05-08 삼성전자주식회사 컨텐츠의 메타 데이터 생성 방법 및 장치
JP4999570B2 (ja) 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
US8151292B2 (en) 2007-10-02 2012-04-03 Emsense Corporation System for remote access to media, and reaction and survey data from viewers of the media
CN101917898A (zh) * 2007-10-31 2010-12-15 埃姆申塞公司 对来自观众的生理响应提供分散式收集和集中式处理的系统和方法
US9141974B2 (en) * 2008-01-16 2015-09-22 Martin Kelly Jones Systems and methods for determining mobile thing (MT) identification and/or MT motion activity using sensor data of wireless communication device
US8112702B2 (en) * 2008-02-19 2012-02-07 Google Inc. Annotating video intervals
US20100086204A1 (en) * 2008-10-03 2010-04-08 Sony Ericsson Mobile Communications Ab System and method for capturing an emotional characteristic of a user
US8769589B2 (en) 2009-03-31 2014-07-01 At&T Intellectual Property I, L.P. System and method to create a media content summary based on viewer annotations
WO2011009101A1 (en) * 2009-07-16 2011-01-20 Bluefin Lab, Inc. Estimating and displaying social interest in time-based media
US8634701B2 (en) 2009-12-04 2014-01-21 Lg Electronics Inc. Digital data reproducing apparatus and corresponding method for reproducing content based on user characteristics
US8903798B2 (en) 2010-05-28 2014-12-02 Microsoft Corporation Real-time annotation and enrichment of captured video
US20110304629A1 (en) 2010-06-09 2011-12-15 Microsoft Corporation Real-time animation of facial expressions
US8438590B2 (en) 2010-09-22 2013-05-07 General Instrument Corporation System and method for measuring audience reaction to media content
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8640021B2 (en) 2010-11-12 2014-01-28 Microsoft Corporation Audience-based presentation and customization of content
US20120203491A1 (en) * 2011-02-03 2012-08-09 Nokia Corporation Method and apparatus for providing context-aware control of sensors and sensor data
US20120324491A1 (en) 2011-06-17 2012-12-20 Microsoft Corporation Video highlight identification based on environmental sensing
US9077458B2 (en) 2011-06-17 2015-07-07 Microsoft Technology Licensing, Llc Selection of advertisements via viewer feedback
US20120324492A1 (en) 2011-06-20 2012-12-20 Microsoft Corporation Video selection based on environmental sensing
EP2758956B1 (en) * 2011-09-23 2021-03-10 Digimarc Corporation Context-based smartphone sensor logic
US9232247B2 (en) * 2012-09-26 2016-01-05 Sony Corporation System and method for correlating audio and/or images presented to a user with facial characteristics and expressions of the user
US9721010B2 (en) 2012-12-13 2017-08-01 Microsoft Technology Licensing, Llc Content reaction annotations

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008097706A1 (en) * 2007-02-08 2008-08-14 Yahoo! Inc. Context-based community-driven suggestions for media annotation
US20080313570A1 (en) * 2007-06-14 2008-12-18 Yahoo! Inc. Method and system for media landmark identification
WO2009051428A1 (en) * 2007-10-16 2009-04-23 Electronics And Telecommunications Research Institute Sensory effect media generating and consuming method and apparatus thereof
US20100070992A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Media Stream Generation Based on a Category of User Expression
CN102224500A (zh) * 2008-09-24 2011-10-19 法国电信公司 用于简化内容分析的利用简约描述调色板的内容分类
CN102257761A (zh) * 2008-12-22 2011-11-23 北方电讯网络有限公司 目标广告系统和方法
CN101853259A (zh) * 2009-03-31 2010-10-06 国际商业机器公司 添加和处理带有情感数据的标签的方法和设备
CN102741838A (zh) * 2009-10-02 2012-10-17 A·穆苏卢里 块分割、识别与索引视觉元素及搜索文档的系统与方法
CN102713905A (zh) * 2010-01-08 2012-10-03 瑞典爱立信有限公司 用于媒体文件的社会标签的方法和设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
R.M. MATHIS 等: "A Metadata Model for Electronic Images", 《PROCEEDINGS OF THE 38TH ANNUAL HAWAII INTERNATIONAL CONFERENCE ON SYSTEM SCIENCES》 *
李松斌 等: "面向流媒体服务的视频资料元数据模型", 《研究与开发》 *

Also Published As

Publication number Publication date
WO2014093919A2 (en) 2014-06-19
US20170286538A1 (en) 2017-10-05
WO2014093919A3 (en) 2014-10-09
US20140172848A1 (en) 2014-06-19
CN104919485B (zh) 2018-10-02
US10678852B2 (en) 2020-06-09
EP2932457A4 (en) 2016-08-10
EP2932457A2 (en) 2015-10-21
US9721010B2 (en) 2017-08-01
CN104919485A (zh) 2015-09-16
CN109241347B (zh) 2022-01-04
EP2932457B1 (en) 2019-04-24

Similar Documents

Publication Publication Date Title
CN104919485B (zh) 用于内容反应注释的系统和方法
US20210149693A1 (en) Interface display method and apparatus, terminal, and storage medium
WO2021018154A1 (zh) 信息表示方法及装置
US11263254B2 (en) Video generation system to render frames on demand using a fleet of servers
KR20220158824A (ko) 제스처-기반 공유 ar 세션 생성
US11831937B2 (en) Video generation system to render frames on demand using a fleet of GPUS
CN108353103A (zh) 用于推荐响应消息的用户终端设备及其方法
TW201212561A (en) Method and apparatus for executing device actions based on context awareness
CN106104528A (zh) 用于屏幕上项目选择和消歧的基于模型的方法
CN104919396B (zh) 在头戴式显示器中利用身体握手
US11620795B2 (en) Displaying augmented reality content in messaging application
CN112136099A (zh) 来自远程设备的直接输入
CN111737573A (zh) 资源推荐方法、装置、设备及存储介质
CN110334352A (zh) 引导信息显示方法、装置、终端及存储介质
CN108369595A (zh) 可收集数据结构的可扩展性
US20230091214A1 (en) Augmented reality items based on scan
WO2021194855A1 (en) Displaying augmented reality content in messaging application
CN110268377A (zh) 用于在计算系统中提供用户帮助的装置和方法
KR20210145214A (ko) 컨텍스트 미디어 필터 검색
KR20220159466A (ko) 생체인식 데이터를 사용하는 심도 추정
CN109815462A (zh) 一种文本生成方法及终端设备
CN108052506A (zh) 自然语言处理方法、装置、存储介质及电子设备
WO2022057764A1 (zh) 广告显示方法及电子设备
CN107368562A (zh) 页面的显示方法、装置及终端
WO2023174200A1 (zh) 界面显示方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant