CN103609128A - 基于环境传感的视频精彩片段标识 - Google Patents

基于环境传感的视频精彩片段标识 Download PDF

Info

Publication number
CN103609128A
CN103609128A CN201280029616.0A CN201280029616A CN103609128A CN 103609128 A CN103609128 A CN 103609128A CN 201280029616 A CN201280029616 A CN 201280029616A CN 103609128 A CN103609128 A CN 103609128A
Authority
CN
China
Prior art keywords
beholder
video item
video
item
emotive response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201280029616.0A
Other languages
English (en)
Inventor
S·巴斯彻
D·伯格
D·R·特雷德韦尔三世
J·H·马修斯三世
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of CN103609128A publication Critical patent/CN103609128A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/46Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for recognising users' preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Neurosurgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

公开了涉及标识和显示从较长视频内容中取得的视频内容部分的实施例。在一个示例实施例中,通过接收关于视频项的多个观看者中的每一个观看者的情绪响应简档来提供视频项的一部分,每一个情绪响应简档包括特定观看者在观看视频项时的该特定观看者的情绪响应与该视频项的时间关联。该方法还包括使用情绪响应简档来选择视频项中的被判断为比该视频项中的第二部分在情绪上更刺激的第一部分,并且响应于对该视频项中的第一部分的请求来将该视频项中的第一部分发送到另一计算设备,而不发送该视频项中的第二部分。

Description

基于环境传感的视频精彩片段标识
背景
将供回放的视频内容中的感兴趣部分标识为例如精彩片段经常由该内容的生产者手动执行。由此,被选为精彩片段的部分可以表示生产者对广大观众,而不是任何特定个人或观众的子群的兴趣的最佳猜测。
概述
本文公开了涉及基于来自视频观看环境传感器的数据来选择视频项的各部分的各种实施例。例如,一个实施例提供了一种方法,包括接收关于视频项的多个观看者中的每一个观看者的情绪响应简档,每一个情绪响应简档包括特定观看者在观看视频项时的该特定观看者的情绪响应与该视频项的时间关联,并且然后使用情绪响应简档来选择该视频项中的被判断为比该视频项中的第二部分在情绪上更刺激的第一部分。然后响应于对该视频项中的第一部分的请求来将所选第一部分发送到另一计算设备,而不发送该视频项中的第二部分。
提供本概述是为了以简化的形式介绍将在以下详细描述中进一步描述的选择的概念。本概述并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。此外,所要求保护的主题不限于解决在本公开的任一部分中所提及的任何或所有缺点的实现。
附图简述
图1示意性地示出了根据本公开内容的一实施例的观看者在视频观看环境中观看视频项。
图2A-B示出了根据本公开内容的一实施例的描绘向做出请求的计算设备提供从较长视频内容项中取得的视频内容部分的方法的流程图。
图3示意性地示出了观看者情绪响应简档、观看兴趣简档和聚集的观看者情绪响应简档的实施例。
图4示意性地示出了根据本公开内容的一实施例的选择视频项中的在情绪上刺激的各部分以便发送到做出请求的计算设备的示例场景。
详细描述
如上所述,选择诸如体育表演或电影等视频内容项中的各部分以用作精彩片段、预告片或其它这样的经编辑的表演一般依靠人类编辑工作。最近,已使用抓取来将计算机网络可访问的内容聚集成可容易浏览的格式以助于内容发现。抓取是一种自动化方法,其中使用程序从诸如网站等一个或多个内容源搜集信息,在语义上对这些信息进行分类,并按照所分类的来呈现这些信息以使得用户可以快速访问针对该用户的兴趣来定制的信息。
抓取可以是相当直接的,其中在抓取结果中标识整个内容项。例如,可以按标题、艺术家、关键字以及应用于作为整体的内容的其它这样的元数据来整体地标识静止图像、视频图像、音频文件等。然而,对视频内剪辑(即,从较大的视频内容项中取得的视频剪辑)的标识提出了挑战。例如,许多内容项可能缺乏允许从较大内容项中标识并单独拉取感兴趣的剪辑的媒体内元数据。在其它情况下,视频内容项可被存储为可以单独访问的片段的集合。然而,这些片段可能仍然经由人类编辑输入来定义。
由此,所公开的实施例涉及对视频内容中的与同一视频内容中的其它部分相比具有特定兴趣的各部分的自动化标识并且与这些其它部分分开向观看者呈现所标识的部分。各实施例可利用诸如图像传感器、深度传感器、声学传感器之类的观看环境传感器以及诸如生物测定传感器等可能的其它传感器来帮助确定用于标识这样的片段的观看者偏好。这些传感器可允许系统标识各个人,检测并理解所标识的各个人的人类情绪表达,并且利用这些信息来标识视频内容项中的特别感兴趣的部分。
图1示意性地示出了根据本公开内容的一实施例的观看者(在图1中被示为160、162和164)观看视频项(在图1中被分别示为150、152和154),每一个视频项在相应的视频观看环境100中的相应显示器102上观看(如经由显示输出112来输出)。在一个实施例中,与媒体计算设备104连接(经由输入111)的视频观看环境传感器系统106向媒体计算设备104提供传感器数据以允许媒体计算设备104检测视频观看环境100内的观看者情绪响应。将会理解,在各实施例中,传感器系统106可被实现为媒体计算设备104的外围或内置组件。
进而,观看者对视频项的情绪响应简档经由网络110被发送到服务器计算设备130,在那里对于每一个视频项,将来自多个观看者的情绪响应合成为关于该视频项的聚集的情绪响应简档。随后,寻求从这些视频项之一中取得的感兴趣的或情绪上刺激的视频剪辑的做出请求的观看者可接收到这些视频项中的被判断为比这些相同的项目中的其它部分在情绪上更刺激的各部分的列表。做出请求的观看者可以从该列表中请求这些视频项中的一个或多个部分来个别地观看或作为汇编来观看。当接收到请求时,服务器计算设备向做出请求的计算设备发送所请求的部分,而不发送这些视频项中的相比较而言较不刺激和/或不那么感兴趣的部分。由此,向做出请求的观看者提供该做出请求的观看者很有可能觉得是感兴趣的且在情绪上是刺激的视频项片段。同样,可以对多个视频项执行这一分析以呈现从不同的视频内容项中取得的可能感兴趣的视频剪辑的列表。这可帮助例如内容发现。
视频观看环境传感器系统106可包括任何合适的传感器,包括但不限于一个或多个图像传感器、深度传感器和/或话筒或其他声学传感器。来自这些传感器的数据可由计算设备104用来检测观看者的脸部和/或身体姿态和姿势,这些姿态和姿势可通过媒体计算设备104与人类情感显示相关。作为示例,可将这些姿态和姿势与诸如姿态和姿势数据等可以与指定情绪状态相关联的预定义的参考情感显示数据进行比较。将理解,本文使用的术语“人类情感显示”可表示对所观看的内容的任何可检测的人类响应,包括但不限于人类情绪表达和/或可检测到的人类情绪行为的显示,如脸部、姿势、或声音显示,无论是有意识还是下意识地执行的。
媒体计算设备104可处理从传感器系统106接收到的数据以生成观看者观看的视频项与每一个观看者对该视频项的情绪响应之间的时间关系。如在下文中更详细地说明的,这样的关系可被记录为关于特定视频项的观看者的情绪响应简档,并且被包括在将观看者的视频兴趣按目录分类的观看兴趣简档中。这可允许稍后检索关于做出请求的观看者的观看兴趣简档并使用该简档来选择一个或多个视频项中的做出请求的观看者可能感兴趣的各部分。
作为更具体的示例,从观看环境传感器系统106接收到的图像数据可捕捉观看者的人类情绪行为的有意识显示,如观看者160退避(cringe)或掩住他的脸的图像。作为响应,关于该视频项的观看者的情绪响应简档可指示该观看者在该项目期间的这一时刻恐惧。图像数据还可包括人类情绪状态的下意识显示。在这样的场景中,图像数据可以示出用户在视频项期间的特定时刻用户正将目光从显示器移开。作为响应,关于该视频项的观看者的情绪响应简档可指示她在此刻厌烦或分心。眼睛跟踪、脸部姿态表征以及其他合适的技术也可被用来测量观看者对视频项150的情绪刺激和参与的程度。
在一些实施例中,图像传感器可收集能够诊断人类生理状况的频谱区域内的光。例如,红外光可被用来近似身体内的血氧水平和/或心率水平。进而,这些水平可被用来估计人的情绪刺激。
此外,在一些实施例中,驻留在与观看环境传感器系统106不同的其他设备中的传感器可被用来向媒体计算设备104提供输入。例如,在一些实施例中,视频观看环境100内的观看者160所持有的移动计算设备140(例如,移动电话和膝上型以及平板计算机)中包括的加速度计和/或其它传感器可检测该观看者的基于姿势的或其它情绪表达。
图2A-B示出了用于向做出请求的计算设备提供从较长视频内容中取得的可能感兴趣的视频内容部分的方法200的实施例的流程图。将明白,所描绘的实施例可经由任何合适的硬件来实现,包括但不限于图1和2A-B中参考的硬件的实施例。
如图2A所示,媒体计算设备104包括可保存可由逻辑子系统116执行来实现本文公开的各任务的指令的数据保存子系统114。此外,媒体计算设备104还可包括或被配置成接受被配置成存储可由逻辑子系统116执行的指令的可移动计算机可读存储介质118。服务器计算设备130也被描绘为包括数据保存子系统134、逻辑子系统136、以及可移动计算机存储介质138。
在一些实施例中,来自观看者的移动设备上的传感器的传感器数据可被提供给媒体计算设备。此外,与正在观看的视频项相关的补充内容可被提供给观看者的移动设备。由此,在一些实施例中,可以向媒体计算设备104和/或服务器计算设备130注册移动计算设备140。合适的移动计算设备包括但不限于移动电话和便携式个人计算设备(例如,膝上型计算设备、平板计算设备和其它这样的计算设备)。
如图2A所示,移动计算设备140包括数据保存子系统144、逻辑子系统146、以及计算机存储介质148。本文中参考的这样的数据保存子系统、逻辑子系统以及计算机存储介质的各方面将在下文更详细地描述。
在202,方法200包括在视频观看环境传感器处且可能从移动计算设备140或其它合适的包含传感器的设备收集传感器数据。在204,方法200包括将传感器数据发送给接收传感器数据的输入的媒体计算设备。可收集任何合适的传感器数据,包括但不限于图像传感器数据、深度传感器数据、声学传感器数据、生物测定传感器数据,等等。
在206,方法200包括根据传感器数据的输入来确定视频观看环境中的观看者的身份。在一些实施例中,观看者的身份可根据传感器数据所收集的图像数据与存储在观看者的个人简档中的图像数据的比较来确立。例如,从视频观看环境中收集的图像数据中包括的脸部与存储在观看者的简档中的图像之间的脸部相似度比较可被用来确立该观看者的身份。也可根据声学数据或任何其他合适的数据来确定观看者的身份。
在208,方法200包括生成关于观看者的情绪响应简档,该情绪响应简档表示观看者的情绪响应与正在视频观看环境中显示的视频项的时间关联。换言之,关于视频项的观看者的情绪响应简档根据该视频项内的时间位置来索引该观看者的情绪表达和行为显示。
图3示意性地示出了观看者情绪响应简档304的实施例。如图3所示,观看者情绪响应简档304由在媒体计算设备104和服务器计算设备130中的一个或多个上运行的语义挖掘模块302使用从一个或多个视频观看环境传感器接收到的传感器信息来生成。使用来自传感器的数据以及视频项信息303(例如,标识在收集到情绪响应数据时观看者正在观看的特定视频项以及该情绪响应发生在该视频项中的何处的元数据),语义挖掘模块302生成观看者情绪响应简档304,该简档捕捉应变于视频项内的时间位置的观看者的情绪响应。
在图3所示的示例中,语义挖掘模块302向视频观看环境传感器检测到的各种行为和其他表达数据(例如,生理数据)分配各情绪标识。语义挖掘模块302还根据与视频项同步的时间序列来对观看者的情绪表达进行索引,例如按在视频项内发生的各事件、场景、以及动作的时间。由此,在图3所示的示例中,在视频项的时间索引1处,语义挖掘模块302基于生理数据(例如,心率数据)和人类情感显示数据(例如,身体语言分数)来记录观看者厌烦并分心。在稍后的时间索引2,观看者情绪响应简档304指示观看者很愉快并且对视频项感兴趣,而在时间索引3,观看者很恐惧但专注于该视频项。
图3还示出了为了简明起见被示为单个变量的标绘的非限制性示例观看者情绪响应简档306的图形表示。虽然观看者情绪响应简档306被示为作为时间的函数的单个变量(例如,情绪状态)的标绘,但将认识到情绪响应简档可包括表示任何合适定量的任何合适数量的变量。
在一些实施例中,语义挖掘模块302可被配置成区分观看者对视频项的情绪响应和观看者的一般性情。例如,在一些实施例中,语义挖掘模块302可忽略在观看者的注意力没有集中在显示设备上时检测到的那些人类情感显示,或者可记录关于用户在这些情况下的注意力状态的信息。由此,作为示例场景,如果观看者因为源于视频观看环境外部的喧闹噪音而明显恼怒,则语义挖掘模块302可被配置成不将检测到的恼怒归咎于视频项,和/或可以不在关于该视频项的观看者的情绪响应简档内的该时间位置处记录该恼怒。在其中图像传感器作为视频观看环境传感器被包括的实施例中,合适的眼睛跟踪和/或脸部位置跟踪技术可被用来确定观看者的注意力集中于显示设备和/或视频项的程度。
关于视频项的观看者的情绪响应简档304可被分析以确定引起观看者的积极和消极响应的各类场景/物体/事件。例如,在图3所示的示例中,视频项信息(包括场景描述)与传感器数据和观看者的情绪响应相关。这样的分析的结果随后可被收集在观看兴趣简档308中。观看兴趣简档308根据观看者对过去媒体体验的情绪响应所判断来将观看者对视频媒体的喜好和厌恶编成目录。观看兴趣简档从多个情绪响应简档中生成,每一个情绪响应简档在时间上将观看者的情绪响应与该观看者先前观看的视频项相关。换言之,关于特定视频项的观看者的情绪响应简档根据该视频项内的时间位置来组织观看者的情绪表达和行为显示。在观看者观看更多视频项时,观看者的观看兴趣简档可根据在观看者对最近观看的视频项的情绪响应中所表达的来被更改以反映观看者的改变的趣味和兴趣。
通过对观看者所观看的其他内容项执行这样的分析(如在图3的310处所示)并且然后确定不同内容项中的引起类似情绪响应的各部分之间的相似性,观看者的潜在喜好和厌恶可被确定并随后可被用来定位针对将来观看和/或供呈现的视频剪辑精彩片段的内容建议。例如,图3示出观看者相比演员A和C偏好演员B,并且相比位置类型A偏好位置类型B。此外,可以对观看环境中的多个观看者中的每一个执行这样的分析。
转回到图2A,在212,方法200包括接收关于视频项的来自多个观看者中每一个观看者的情绪响应简档。由此,在212接收许多观看者对同一视频项的情绪响应以供进一步处理。这些情绪响应可在不同的时刻(例如,在不同的观看者检索视频项以便在不同时刻观看视频项的情况下)或同时(例如,在实况电视播放事件的情况下)接收。一旦接收到,情绪响应可被实时分析和/或被存储以供稍后分析,如下所述。
在214,方法200包括从不同观看者聚集多个情绪响应简档以形成关于该视频项的聚集的情绪响应简档。在一些实施例中,在216方法200可包括呈现聚集的情绪响应简档的图形描绘。这些视图可以向观看者提供看一眼就将视频项中的情绪上刺激且感兴趣的部分与同一视频项中的其它部分区分开的方式,并且还可以向观看者提供选择这些视频内容部分以供观看的机制(例如,在聚集的简档担当控制视频内容呈现的用户界面元素的情形中)。
此外,在一些实施例中,这些视图可被提供给内容提供者和/或广告提供者以使得这些提供者可发现视频项中的在情绪上联系观看者(和/或联系各种细分市场中的观看者)的那些部分。例如,在实况广播场景中,接收到这些视图的内容提供者可以实时地向广播呈现者提供关于吸引并进一步联系观众的方式的建议,从而可能留住可能原本想更换频道的观看者。
例如,图3示出了关于视频项的聚集的情绪响应简档314的实施例。如图3所示,在312,可以在时间上将关于视频项的多个情绪响应简档(每一简档源自不同的观看者和/或同一观看者的不同观看会话)相关,以生成聚集的情绪响应简档314。另外,在一些实施例中,聚集的情绪响应简档314还可按任何合适的方式(例如,按视频项类型、按演员、按导演、编剧等)与视频项信息相关,以标识在不同的程度和享受水平上触发了多个观看者的情绪体验的视频项的特性。另外,聚集的情绪响应简档可基于社交网络信息来过滤,如下所述。
返回到图2A,在218,方法200包括接收对视频项中的感兴趣部分的请求,该请求包括做出请求的观看者的身份。例如,该请求可在做出请求的观看者到达视频抓取站点时作出、在做出请求的观看者的移动或媒体计算设备被打开时做出、或者通过来自做出请求的观看者对移动、媒体或其他计算设备的输入来作出。将明白,做出请求的观看者的身份可以按任何合适的方式来接收,包括但不限于上述观看者身份确定方案。
在一些实施例中,该请求可包括做出请求的观看者所提供的搜索项和/或过滤条件,以使得对视频内容的第一部分的选择可以部分地基于该搜索项和/或过滤条件。然而,将明白,做出请求的观看者可以在该过程中任何合适的时刻提供这些搜索项和/或过滤条件而不背离本公开内容的范围。
在220,方法200包括使用情绪响应简档来选择视频项中的被判断为比该视频项中的第二部分在情绪上更刺激的第一部分。由此,情绪响应可被用来标识视频项中的与引起聚集的观众(例如,其情绪响应简档构成聚集的情绪响应简档的观众)的较少情绪反应的其它部分相比这些观众更感兴趣的部分。作为结果,可由于对较长视频媒体的众包(crowd-sourced)情绪响应信息而选择和/或归纳出视频媒体中的感兴趣部分。
在一些实施例中,众包结果可由情绪响应简档来针对一组可能正相关的观看者(例如,如由社交关系或观看者之间的其它联系确定的可能以与观看者相似的方式对视频项作出响应的人)加权。由此,在一些实施例中,关于组成员的情绪响应简档可具有比那些非成员更高的权重。一旦分配权重,就可以按任何合适的方式执行选择。权重能够以任何合适的方式来分配,例如0到1的范围内的数字。在一个示例中,可计算应变于时间的加权算术平均值以便标识视频项内的各种时间位置处的情绪刺激的平均量级。作为结果,与未加权的选择结果(例如,其中所有聚集的情绪响应简档都未被加权的选择结果)相比,该选择结果可以更有可能是观看者感兴趣的。
此外,在一些实施例中,组(或组成员)的权重可基于观看者输入。例如,权重可基于观看者的社交网络中的不同水平的社交关系和/或亲密性。在另一示例中,权重可基于由观看者分配的置信评级,该置信评级反映该观看者对该组的(或成员的)品味和/或标识视频项中的该观看者觉得是感兴趣的各部分的能力的信任和置信的相对水平。在一些其它实施例中,置信评级可以在没有观看者输入的情况下根据诸如人口统计组特性等暗示组成员兴趣和观看者兴趣之间的正相关的特性来分配。将会理解,这些用于对情绪响应简档进行加权的方法是出于示例的目的而呈现的,而不旨在以任何方式进行限制。
图4示意性地示出了阐释上述示例实施例的三个示例选择场景。在场景402中,基于未加权的聚集的情绪响应简档314来选择视频项的第一部分404。在这些实施例中,选择视频项的第一部分可包括将该选择基于聚集的情绪响应简档中的对该视频内容项的第一部分的情绪响应的量级。在图4中,使用预选阈值406来判断聚集的观众中的由该视频项引起情绪刺激的相对程度。预选阈值406可以按任何合适的方式来定义(例如,作为绝对值或作为函数值,诸如对应于广告商所期望的关于内容类型以及请求该视频项的一天中的时间的兴趣水平的值)。由此,第一部分404对应于视频项中的超过(在可接受的容忍度内)预选阈值406的部分。
在场景410中,由做出请求的观看者的社交网络中的各个观看者来对聚集的观看者情绪响应简档314加权。由此,对视频项的第一部分的选择基于使用聚集的情绪响应简档中的与属于做出请求的观看者的社交网络的观看者相对应的子集。将明白,社交网络可以是具有与观看者的社交联系的人的任何合适的集合,从而使得该观看者的兴趣可以与各网络成员的共同兴趣特别密切相关。这样的网络可以是用户定义的或由用户之间的共同特性(例如,校友关系)来自动定义。在场景410中,与预选阈值406一起使用加权的情绪响应简档412来标识第一部分404。聚集的情绪响应简档314仅仅出于参考的目的在虚线中示出。基于做出请求的观看者的社交网络来选择第一部分可以向该做出请求的观看者提供该视频项中的感兴趣的且与该做出请求的观看者的亲密社交关系相关的各部分。这可提高为做出请求的观看者选择的第一部分的个性化程度。
在场景420中,由做出请求的观看者所属的人口统计组中的各个观看者来对聚集的观看者情绪响应简档314加权。由此,对视频项的第一部分的选择基于使用聚集的情绪响应简档中的与属于做出请求的观看者的人口统计组的观看者相对应的子集。将理解,人口统计组可基于可导致组成员之间的兴趣比所有用户之间的兴趣可能更高度相关的任何合适的特性来定义。然后与预选阈值406一起使用加权的情绪响应简档422来标识第一部分404。聚集的情绪响应简档314仅仅出于参考的目的在虚线中示出。基于做出请求的观看者的人口统计组来选择第一部分可帮助该做出请求的观看者发现该视频项中的引起与该做出请求的观看者相似的品味和兴趣的人的兴趣的部分。
将会理解,可通过使用诸如搜索项和/或观看者定义的观看兴趣等观看者提供的过滤来实现进一步的个性化。例如,在一些实施例中,对第一部分的选择还可基于做出请求的观看者的观看兴趣简档308。在一些实施例中,选择还可基于做出请求的观看者提供的搜索项和/或过滤条件,如在图4中的430处示出的。
在还有一些其他实施例中,对视频项的第一部分的选择可基于观看者选择的情绪响应简档的子集。例如,观看者可选择接收视频项和其它内容中的仅仅基于该观看者的社交网络的情绪响应简档的所选部分(诸如精彩片段列表、观看者反应视频和反应精彩片段列表,如下所述)。通过以此方式过滤情绪响应简档,而不是基于加权或不加权的聚集的情绪响应简档,可提高用户体验中的相对个性化水平。
转回到图2A,在222,方法200包括基于情绪响应简档来生成包括视频项的第一部分且还包括该视频项中的其它部分的精彩片段列表。由此,对于特定视频项,组装出该视频项中的在情绪上刺激和/或感兴趣的各部分的列表。在一些实施例中,精彩片段列表可根据情绪刺激程度(例如,聚集的情绪响应简档中记录的情绪响应的量级);按标签、评论或其它观看者提供的注释;按图形表示(诸如热图);或者按向做出请求的观看者传递观众中的由视频项引起的相对情绪刺激的任何其它合适的方式来进行排名。
可选地,222可包括在224生成观看者反应视频剪辑,包括特定观看者对视频内容项的情绪、身体和/或行为响应,如由视频观看环境传感器所记录的人类情感显示所表达的。按照所记录的观看者的意愿,这些观看者反应剪辑可以与视频项的相关部分存储在一起和/或与该相关部分同时呈现,以使得做出请求的观看者可以观看视频项以及所记录的观看者对该视频项的情绪反应。由此,寻找体育比赛中的在情绪上刺激的部分的做出请求的观看者还可看见其它观看者对该比赛的反应剪辑的剪辑。在一些实施例中,观看者反应剪辑可选自做出请求的观看者的社交网络和/或人口统计组中的观看者,这可进一步个性化做出请求的观看者体验对如在观看者反应剪辑中显示的其它观看者的反应的亲和力。
在一些实施例中,222还可包括在226生成观看者反应精彩片段剪辑列表,包括捕捉一个或多个观看者中的每一个观看者对经由情绪响应简档选择的视频内容项的多个部分的反应的视频剪辑。这样的观看者反应精彩片段剪辑列表可以通过参考其它观看者对那些剪辑的情绪反应(以与选择视频项的感兴趣部分几乎相同的方式)来生成,以使得做出请求的观看者看一眼可直接搜索这样的观看者反应剪辑和/或查看流行和/或在情绪上刺激(如由观看这些观看者反应剪辑的其它观看者感知到的)的观看者反应剪辑。
虽然图2A的描述为了简明起见聚焦于对单个视频项的一部分的选择,但将会理解,在一些实施例中,可以从多个相应视频项中选择多个部分。由此,转向图2B,在228,方法200包括构建多个视频项的各部分的列表,并且在230发送各个相应部分的列表。在一些实施例中,如上所述的那些视频项和/或观看者反应剪辑的精彩片段列表可以与各相应部分的列表一起发送。此外,在一些实施例中,230可包括在232将关于每一个视频项的聚集的情绪响应简档的图形描绘与该列表一起发送。
在234,方法200包括接收对所请求的视频项的第一部分的请求。在234接收请求可包括接收对所请求的单个视频项的第一部分的请求和/或接收对选自所请求的各相应视频项的多个部分的请求。
在一些实施例中,对所请求的视频项的请求可包括做出请求的观看者提供的搜索项和/或过滤条件。在这些实施例中,搜索项和/或过滤条件可允许做出请求的观看者根据该搜索项和/或过滤条件中提供的准则(诸如观看偏好)来在各相应视频项的各第一部分的列表中进行排序。
响应于在234接收到的请求,方法200在236包括将视频内容项的第一部分发送到做出请求的计算设备,而不发送该视频内容项的第二部分。例如,图4中描绘的每一场景示出了将被发送到做出请求的计算设备的第一部分404,同时还示出了不会被发送的被判断为在情绪上不如该相应的第一部分404刺激的另一部分(如上所述)。将会理解,在一些实施例中,还可发送视频项中的在情绪上刺激的其它部分。例如,图4的场景410和420各自包括被判断为相对于视频项的其它部分在情绪上是刺激的附加部分405(也在交叉影线中示出)。在一些实施例中,这些附加部分可响应于请求而发送。
在其中请求各个视频项的不止一个相应的第一部分的一些实施例中,236可包括将这些相应的第一部分作为单个视频合成来发送。此外,在一些实施例中,236可包括在238发送观看者反应视频剪辑。在240,输出所发送的(诸)视频项的一个或多个部分以供显示。
如上所述,在一些实施例中,可将在本公开内容中描述的方法和过程绑定到包括一个或多个计算机的计算系统。具体而言,此处所述的方法和过程可被实现为计算机应用、计算机服务、计算机API、计算机库、和/或其他计算机程序产品。
图2A以简化的形式示意性示出了可以执行上述方法和过程之中的一个或多个的非限制性计算系统。应当理解,可使用基本上任何计算机架构而不背离本公开的范围。在不同的实施例中,计算系统可以采取大型计算机、服务器计算机、台式计算机、膝上型计算机、平板计算机、家庭娱乐计算机、网络计算设备、移动计算设备、移动通信设备、游戏设备等等的形式。
计算系统包括逻辑子系统(例如,图2A的移动计算设备104的逻辑子系统116、图2A的移动计算设备140的逻辑子系统146、以及图2A的服务器计算设备130的逻辑子系统136)和数据保存子系统(例如,图2A的移动计算设备104的数据保存子系统114、图2A的移动计算设备140的数据保存子系统144、以及图2A的服务器计算设备130的数据保存子系统134)。计算系统可以任选地包括显示子系统、通信子系统、和/或在图2A中未示出的其他组件。计算系统还可以任选地包括诸如例如键盘、鼠标、游戏控制器、相机、话筒和/或触摸屏之类的用户输入设备。
逻辑子系统可包括被配置成执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统可被配置为执行一个或多个指令,该一个或多个指令是一个或多个应用、服务、程序、例程、库、对象、组件、数据结构、或其他逻辑构造的部分。可实现这样的指令以执行任务、实现数据类型、变换一个或多个设备的状态、或以其他方式得到所希望的结果。
逻辑子系统可包括被配置为执行软件指令的一个或多个处理器。附加地或可替代地,逻辑子系统可以包括被配置为执行硬件或固件指令的一个或多个硬件或固件逻辑机器。逻辑子系统的处理器可以是单核或多核,且在其上执行的程序可被配置为并行或分布式处理。逻辑子系统可以任选地包括遍布两个或更多设备的独立组件,所述设备可远程放置和/或被配置为进行协同处理。该逻辑子系统的一个或多个方面可被虚拟化并由以云计算配置进行配置的可远程访问的联网计算设备执行。
数据保存子系统可包括一个或多个物理、非瞬时设备,这些设备被配置成保存数据和/或可由该逻辑子系统执行的指令,以实现此处描述的方法和过程。在实现此类方法和过程时,可变换数据保存子系统的状态(例如,保存不同数据)。
数据保存子系统可以包括可移动介质和/或内置设备。数据保存子系统可包括光学存储器设备(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器设备(例如,RAM、EPROM、EEPROM等)和/或磁存储器设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)等等。数据保存子系统可以包括具有以下特性中的一个或更多个特性的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址、以及内容可寻址。在某些实施例中,逻辑子系统和数据保存子系统可被集成到一个或多个常见设备中,如专用集成电路或片上系统。
图2A还示出了可移动计算机存储介质(例如,图2A的移动计算设备104的可移动计算机存储介质118、图2A的移动计算设备140的可移动计算机存储介质148、以及图2A的服务器计算设备130的可移动计算机存储介质138)形式的数据保存子系统的一方面,它可被用来储存和/或转移数据和/或可执行以实现本文描述的方法和过程的指令。可移动计算机存储介质可以采取CD、DVD、HD-DVD、蓝光盘、EEPROM和/或软盘等形式。
应该理解,数据保存子系统包括一个或多个物理非瞬态设备。相反,在一些实施例中,本文描述的指令的各方面可以按暂态方式通过不由物理设备在至少有限持续时间期间保持的纯信号(例如电磁信号、光信号等)传播。此外,与本公开有关的数据和/或其他形式的信息可以通过纯信号来传播。
术语“模块”、“程序”和“引擎”可用于描述被实现为执行一个或多个特定功能的计算系统的一方面。在一些情况下,可以通过执行由数据保存子系统所保存的指令的逻辑子系统来实例化这样的模块、程序或引擎。应当理解,可以从同一应用、服务、代码块、对象、库、例程、API、函数等来实例化不同的模块、程序和/或引擎。同样,可以由不同的应用程序、服务、代码块、对象、例程、API、函数等来实例化同一模块、程序和/或引擎。术语“模块”、“程序”和“引擎”意在涵盖单个或成组的可执行文件、数据文件、库、驱动程序、脚本、数据库记录等。
应当理解,如此处所使用的服务摂可以是跨越多个用户会话可执行的、且对一个或更多系统组件、程序、和/或其他服务可用的应用程序。在一些实现中,服务可以响应于来自客户机的请求而在服务器上运行。
当被包括时,显示子系统可用于呈现由数据保存子系统所保存的数据的可视表示。由于此处所描述的方法和过程改变了由数据保存子系统保存的数据,并由此转变了数据保存子系统的状态,因此同样可以转变显示子系统的状态以可视地表示底层数据中的改变。显示子系统可包括利用几乎任何类型的技术的一个或多个显示设备。可将此类显示设备与逻辑子系统和/或数据保存子系统结合在共享外壳中,或此类显示设备可以是外围显示设备。
应该理解,此处所述的配置和/或方法在本质上是示例性的,并且这些具体实施例或示例不应被认为是局限性的,因为多个变体是可能的。此处所述的具体例程或方法可表示任何数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示次序执行、按其他次序执行、并行地执行、或者在某些情况下被省略。同样,可以改变上述过程的次序。
本公开的主题包括各种过程、系统和配置、此处所公开的其他特征、功能、动作、和/或特性、以及其任何和全部等效方案的所有新颖和非显而易见的组合和子组合。

Claims (10)

1.一种在计算设备处的汇编从较长视频内容中取得的视频内容部分并将其供应给做出请求的计算设备的方法,所述方法包括:
接收关于视频项的多个观看者中的每一个观看者的情绪响应简档,每一个情绪响应简档包括特定观看者在观看所述视频项时的该特定观看者的情绪响应与所述视频项的时间关联;
使用所述情绪响应简档来选择所述视频项中的被判断为比所述视频项中的第二部分在情绪上更刺激的第一部分;以及
响应于对所述视频项中的第一部分的请求来将所述视频项中的第一部分发送到另一计算设备,而不发送所述视频项中的第二部分。
2.如权利要求1所述的方法,其特征在于,选择所述视频项中的第一部分包括比其它情绪响应简档更多地为与属于做出请求的观看者所属的社交网络的观看者相对应的情绪响应简档加权。
3.如权利要求1所述的方法,其特征在于,选择所述视频项中的第一部分包括比其它情绪响应简档更多地为与属于做出请求的观看者所属的人口统计组的观看者相对应的情绪响应简档加权。
4.如权利要求1所述的方法,其特征在于,还包括基于所述情绪响应简档来生成包括所述视频项中的第一部分且还包括所述视频项中的其它部分的精彩片段列表。
5.如权利要求1所述的方法,其特征在于,还包括生成包括所述特定观看者对所述视频项的身体响应的观看者反应视频剪辑,并且其中发送所述第一部分包括发送所述观看者反应视频剪辑。
6.如权利要求5所述的方法,其特征在于,还包括生成观看者反应精彩片段剪辑列表,所述观看者反应精彩片段剪辑列表包括捕捉一个或多个观看者中的每一个观看者对经由所述情绪响应简档选择的视频内容项的多个部分的反应的视频剪辑。
7.如权利要求1所述的方法,其特征在于,选择所述视频项中的第一部分还包括聚集多个情绪响应简档以形成关于所述视频项的聚集的情绪响应简档,并且然后基于所述聚集的情绪响应简档中的对所述视频项中的第一部分的情绪响应的量级来选择所述视频项中的第一部分。
8.如权利要求1所述的方法,其特征在于,还包括:
接收关于其它视频项的情绪响应简档;
对于所述其它视频项中的每一个:
将所述情绪响应简档聚集成关于该视频项的聚集的情绪响应简档,并且
基于所述聚集的情绪响应简档中的对所述第一部分的情绪响应的量级来选择该视频项中的第一部分;以及
发送所述其它视频项的相应第一部分中的一个或多个,而不发送所述其它视频项的相应第二部分。
9.如权利要求8所述的方法,其特征在于,发送所述视频项中的第一部分包括将所述其它视频项的相应第一部分中的一个或多个作为单个视频合成来发送。
10.如权利要求1所述的方法,其特征在于,所述请求包括搜索项,并且其中选择所述视频项中的第一部分包括在选择所述视频项中的第一部分时基于所述搜索项来进行过滤。
CN201280029616.0A 2011-06-17 2012-06-15 基于环境传感的视频精彩片段标识 Pending CN103609128A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/163,379 2011-06-17
US13/163,379 US20120324491A1 (en) 2011-06-17 2011-06-17 Video highlight identification based on environmental sensing
PCT/US2012/042672 WO2012174381A2 (en) 2011-06-17 2012-06-15 Video highlight identification based on environmental sensing

Publications (1)

Publication Number Publication Date
CN103609128A true CN103609128A (zh) 2014-02-26

Family

ID=47354842

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280029616.0A Pending CN103609128A (zh) 2011-06-17 2012-06-15 基于环境传感的视频精彩片段标识

Country Status (7)

Country Link
US (1) US20120324491A1 (zh)
EP (1) EP2721831A4 (zh)
JP (1) JP2014524178A (zh)
KR (1) KR20140045412A (zh)
CN (1) CN103609128A (zh)
TW (1) TW201301891A (zh)
WO (1) WO2012174381A2 (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104349206A (zh) * 2014-11-26 2015-02-11 乐视致新电子科技(天津)有限公司 一种电视信息处理方法、装置及系统
CN104837059A (zh) * 2014-04-15 2015-08-12 腾讯科技(北京)有限公司 视频处理方法、装置和系统
CN104837036A (zh) * 2014-03-18 2015-08-12 腾讯科技(北京)有限公司 生成视频看点的方法、服务器、终端及系统
CN105872765A (zh) * 2015-12-29 2016-08-17 乐视致新电子科技(天津)有限公司 制作视频集锦的方法、装置、电子设备、服务器及系统
CN105898340A (zh) * 2015-11-30 2016-08-24 乐视网信息技术(北京)股份有限公司 现场直播中的关键点提示方法、服务器、用户终端和系统
CN106464956A (zh) * 2014-05-21 2017-02-22 Pcms控股公司 触发视频录制的用户兴趣阈值的环境调节的方法和系统
CN106802946A (zh) * 2017-01-12 2017-06-06 合网络技术(北京)有限公司 视频分析方法及装置
CN107071579A (zh) * 2017-03-02 2017-08-18 合网络技术(北京)有限公司 多媒体资源处理方法及装置
CN107148781A (zh) * 2014-10-09 2017-09-08 图兹公司 产生描绘一或多个事件的定制高光序列
CN107809673A (zh) * 2016-09-09 2018-03-16 索尼公司 根据情绪状态检测处理视频内容的系统和方法
CN108293150A (zh) * 2015-12-22 2018-07-17 英特尔公司 情绪定时媒体回放
CN108932451A (zh) * 2017-05-22 2018-12-04 北京金山云网络技术有限公司 音视频内容分析方法及装置
CN108992052A (zh) * 2014-03-14 2018-12-14 上海万泽精密铸造有限公司 便于随身隐蔽携带的自闭症患者用随身佩戴装置
WO2019140784A1 (zh) * 2018-01-18 2019-07-25 深圳光峰科技股份有限公司 一种播放影片的方法、影片播放机及影片服务器
CN110418148A (zh) * 2019-07-10 2019-11-05 咪咕文化科技有限公司 视频生成方法、视频生成设备及可读存储介质
US10511888B2 (en) 2017-09-19 2019-12-17 Sony Corporation Calibration system for audience response capture and analysis of media content
CN108391164B (zh) * 2018-02-24 2020-08-21 Oppo广东移动通信有限公司 视频解析方法及相关产品
WO2022048347A1 (zh) * 2020-09-02 2022-03-10 华为技术有限公司 一种视频编辑方法及设备
US11882345B2 (en) 2014-10-09 2024-01-23 Stats Llc Customized generation of highlights show with narrative component

Families Citing this family (164)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8898316B2 (en) * 2007-05-30 2014-11-25 International Business Machines Corporation Enhanced online collaboration system for viewers of video presentations
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US10897650B2 (en) 2010-06-07 2021-01-19 Affectiva, Inc. Vehicle content recommendation using cognitive states
US9503786B2 (en) * 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US10627817B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Vehicle manipulation using occupant image analysis
US11935281B2 (en) 2010-06-07 2024-03-19 Affectiva, Inc. Vehicular in-cabin facial tracking using machine learning
US11511757B2 (en) 2010-06-07 2022-11-29 Affectiva, Inc. Vehicle manipulation with crowdsourcing
US11657288B2 (en) 2010-06-07 2023-05-23 Affectiva, Inc. Convolutional computing using multilayered analysis engine
US10474875B2 (en) 2010-06-07 2019-11-12 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation
US10869626B2 (en) 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
US11017250B2 (en) 2010-06-07 2021-05-25 Affectiva, Inc. Vehicle manipulation using convolutional image processing
US11151610B2 (en) 2010-06-07 2021-10-19 Affectiva, Inc. Autonomous vehicle control using heart rate collection based on video imagery
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
US11430561B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Remote computing analysis for cognitive state data metrics
US11073899B2 (en) 2010-06-07 2021-07-27 Affectiva, Inc. Multidevice multimodal emotion services monitoring
US10074024B2 (en) 2010-06-07 2018-09-11 Affectiva, Inc. Mental state analysis using blink rate for vehicles
US10204625B2 (en) 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US10843078B2 (en) 2010-06-07 2020-11-24 Affectiva, Inc. Affect usage within a gaming context
US11587357B2 (en) 2010-06-07 2023-02-21 Affectiva, Inc. Vehicular cognitive data collection with multiple devices
US11067405B2 (en) 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US10143414B2 (en) 2010-06-07 2018-12-04 Affectiva, Inc. Sporadic collection with mobile affect data
US10614289B2 (en) 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers
US10779761B2 (en) 2010-06-07 2020-09-22 Affectiva, Inc. Sporadic collection of affect data within a vehicle
US10799168B2 (en) 2010-06-07 2020-10-13 Affectiva, Inc. Individual data sharing across a social network
US11318949B2 (en) 2010-06-07 2022-05-03 Affectiva, Inc. In-vehicle drowsiness analysis using blink rate
US10517521B2 (en) 2010-06-07 2019-12-31 Affectiva, Inc. Mental state mood analysis using heart rate collection based on video imagery
US11887352B2 (en) 2010-06-07 2024-01-30 Affectiva, Inc. Live streaming analytics within a shared digital environment
US11393133B2 (en) 2010-06-07 2022-07-19 Affectiva, Inc. Emoji manipulation using machine learning
US10482333B1 (en) 2017-01-04 2019-11-19 Affectiva, Inc. Mental state analysis using blink rate within vehicles
US10922567B2 (en) 2010-06-07 2021-02-16 Affectiva, Inc. Cognitive state based vehicle manipulation using near-infrared image processing
US10796176B2 (en) 2010-06-07 2020-10-06 Affectiva, Inc. Personal emotional profile generation for vehicle manipulation
US11232290B2 (en) 2010-06-07 2022-01-25 Affectiva, Inc. Image analysis using sub-sectional component evaluation to augment classifier usage
US11823055B2 (en) 2019-03-31 2023-11-21 Affectiva, Inc. Vehicular in-cabin sensing using machine learning
US10911829B2 (en) * 2010-06-07 2021-02-02 Affectiva, Inc. Vehicle video recommendation via affect
US10108852B2 (en) 2010-06-07 2018-10-23 Affectiva, Inc. Facial analysis to detect asymmetric expressions
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US11465640B2 (en) 2010-06-07 2022-10-11 Affectiva, Inc. Directed control transfer for autonomous vehicles
US11704574B2 (en) 2010-06-07 2023-07-18 Affectiva, Inc. Multimodal machine learning for vehicle manipulation
US11700420B2 (en) 2010-06-07 2023-07-11 Affectiva, Inc. Media manipulation using cognitive state metric analysis
US10289898B2 (en) * 2010-06-07 2019-05-14 Affectiva, Inc. Video recommendation via affect
US11056225B2 (en) 2010-06-07 2021-07-06 Affectiva, Inc. Analytics for livestreaming based on image analysis within a shared digital environment
US10401860B2 (en) 2010-06-07 2019-09-03 Affectiva, Inc. Image analysis for two-sided data hub
US10111611B2 (en) 2010-06-07 2018-10-30 Affectiva, Inc. Personal emotional profile generation
US10592757B2 (en) 2010-06-07 2020-03-17 Affectiva, Inc. Vehicular cognitive data collection using multiple devices
US11410438B2 (en) 2010-06-07 2022-08-09 Affectiva, Inc. Image analysis using a semiconductor processor for facial evaluation in vehicles
US11484685B2 (en) 2010-06-07 2022-11-01 Affectiva, Inc. Robotic control using profiles
US11292477B2 (en) 2010-06-07 2022-04-05 Affectiva, Inc. Vehicle manipulation using cognitive state engineering
US10628741B2 (en) 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8943526B2 (en) * 2011-12-02 2015-01-27 Microsoft Corporation Estimating engagement of consumers of presented content
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US10762582B2 (en) * 2012-07-19 2020-09-01 Comcast Cable Communications, Llc System and method of sharing content consumption information
US9247225B2 (en) * 2012-09-25 2016-01-26 Intel Corporation Video indexing with viewer reaction estimation and visual cue detection
US20140096167A1 (en) * 2012-09-28 2014-04-03 Vringo Labs, Inc. Video reaction group messaging with group viewing
US9032434B2 (en) * 2012-10-12 2015-05-12 Google Inc. Unsupervised content replay in live video
US9338508B2 (en) 2012-10-23 2016-05-10 Google Technology Holdings LLC Preserving a consumption context for a user session
US8832721B2 (en) * 2012-11-12 2014-09-09 Mobitv, Inc. Video efficacy measurement
US9544647B2 (en) 2012-11-21 2017-01-10 Google Technology Holdings LLC Attention-based advertisement scheduling in time-shifted content
KR20140072720A (ko) * 2012-12-05 2014-06-13 삼성전자주식회사 콘텐츠 제공 장치, 콘텐츠 제공 방법, 영상표시장치 및 컴퓨터 판독가능 기록매체
WO2014087415A1 (en) * 2012-12-07 2014-06-12 Hewlett-Packard Development Company, L. P Creating multimodal objects of user responses to media
US9721010B2 (en) 2012-12-13 2017-08-01 Microsoft Technology Licensing, Llc Content reaction annotations
KR20140094336A (ko) * 2013-01-22 2014-07-30 삼성전자주식회사 사용자 감정 추출이 가능한 전자기기 및 전자기기의 사용자 감정 추출방법
US9749710B2 (en) * 2013-03-01 2017-08-29 Excalibur Ip, Llc Video analysis system
US9292923B2 (en) 2013-03-06 2016-03-22 The Nielsen Company (Us), Llc Methods, apparatus and articles of manufacture to monitor environments
US9729920B2 (en) * 2013-03-15 2017-08-08 Arris Enterprises, Inc. Attention estimation to control the delivery of data and audio/video content
FR3004054A1 (fr) * 2013-03-26 2014-10-03 France Telecom Generation et restitution d'un flux representatif d'un contenu audiovisuel
US9681186B2 (en) * 2013-06-11 2017-06-13 Nokia Technologies Oy Method, apparatus and computer program product for gathering and presenting emotional response to an event
JP6191278B2 (ja) * 2013-06-26 2017-09-06 カシオ計算機株式会社 情報処理装置、コンテンツ課金システム及びプログラム
US9264770B2 (en) * 2013-08-30 2016-02-16 Rovi Guides, Inc. Systems and methods for generating media asset representations based on user emotional responses
CN104461222B (zh) * 2013-09-16 2019-02-05 联想(北京)有限公司 一种信息处理的方法和电子设备
US10297287B2 (en) 2013-10-21 2019-05-21 Thuuz, Inc. Dynamic media recording
JP6154728B2 (ja) * 2013-10-28 2017-06-28 日本放送協会 視聴状態推定装置およびそのプログラム
CN104681048A (zh) * 2013-11-28 2015-06-03 索尼公司 多媒体读取控制装置、曲线获取装置、电子设备、曲线提供装置及方法
US20160234551A1 (en) * 2013-12-02 2016-08-11 Dumbstruck, Inc. Video reaction processing
EP2882194A1 (en) * 2013-12-05 2015-06-10 Thomson Licensing Identification of a television viewer
US9426525B2 (en) * 2013-12-31 2016-08-23 The Nielsen Company (Us), Llc. Methods and apparatus to count people in an audience
CN104918067A (zh) * 2014-03-12 2015-09-16 乐视网信息技术(北京)股份有限公司 对视频热度进行曲线处理的方法和系统
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US9832538B2 (en) * 2014-06-16 2017-11-28 Cisco Technology, Inc. Synchronizing broadcast timeline metadata
US20150370806A1 (en) * 2014-06-19 2015-12-24 BrightSky Labs, Inc. Visual experience map for media presentations
US11016728B2 (en) * 2014-07-09 2021-05-25 International Business Machines Corporation Enhancing presentation content delivery associated with a presentation event
WO2016007970A1 (en) 2014-07-11 2016-01-14 ProSports Technologies, LLC Whistle play stopper
US9474933B1 (en) 2014-07-11 2016-10-25 ProSports Technologies, LLC Professional workout simulator
US9305441B1 (en) 2014-07-11 2016-04-05 ProSports Technologies, LLC Sensor experience shirt
US9724588B1 (en) 2014-07-11 2017-08-08 ProSports Technologies, LLC Player hit system
US9398213B1 (en) 2014-07-11 2016-07-19 ProSports Technologies, LLC Smart field goal detector
WO2016007969A1 (en) 2014-07-11 2016-01-14 ProSports Technologies, LLC Playbook processor
CA3032680A1 (en) * 2014-08-29 2016-03-03 Thuuz, Inc. Systems and processes for delivering digital video content based upon excitement data
US10264175B2 (en) 2014-09-09 2019-04-16 ProSports Technologies, LLC Facial recognition for event venue cameras
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US10419830B2 (en) 2014-10-09 2019-09-17 Thuuz, Inc. Generating a customized highlight sequence depicting an event
US11863848B1 (en) 2014-10-09 2024-01-02 Stats Llc User interface for interaction with customized highlight shows
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
US10192583B2 (en) 2014-10-10 2019-01-29 Samsung Electronics Co., Ltd. Video editing using contextual data and content discovery using clusters
US9671862B2 (en) * 2014-10-15 2017-06-06 Wipro Limited System and method for recommending content to a user based on user's interest
US9992553B2 (en) * 2015-01-22 2018-06-05 Engine Media, Llc Video advertising system
JP6417232B2 (ja) * 2015-02-09 2018-10-31 日本放送協会 映像評価装置およびそのプログラム
EP3269122A4 (en) * 2015-03-09 2018-01-17 Telefonaktiebolaget LM Ericsson (publ) Method, system and device for providing live data streams to content-rendering devices
JP2016191845A (ja) * 2015-03-31 2016-11-10 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9659218B1 (en) 2015-04-29 2017-05-23 Google Inc. Predicting video start times for maximizing user engagement
US10749923B2 (en) 2015-06-08 2020-08-18 Apple Inc. Contextual video content adaptation based on target device
US10785180B2 (en) * 2015-06-11 2020-09-22 Oath Inc. Content summation
US10198161B2 (en) 2015-06-18 2019-02-05 Faysee Inc. Communicating reactions to media content
US9785834B2 (en) * 2015-07-14 2017-10-10 Videoken, Inc. Methods and systems for indexing multimedia content
US10158983B2 (en) 2015-07-22 2018-12-18 At&T Intellectual Property I, L.P. Providing a summary of media content to a communication device
US9792953B2 (en) * 2015-07-23 2017-10-17 Lg Electronics Inc. Mobile terminal and control method for the same
US10607063B2 (en) * 2015-07-28 2020-03-31 Sony Corporation Information processing system, information processing method, and recording medium for evaluating a target based on observers
KR102376700B1 (ko) 2015-08-12 2022-03-22 삼성전자주식회사 비디오 컨텐츠 생성 방법 및 그 장치
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
CN106503022B (zh) * 2015-09-08 2020-12-01 北京邮电大学 推送推荐信息的方法和装置
US10057651B1 (en) * 2015-10-05 2018-08-21 Twitter, Inc. Video clip creation using social media
US10262555B2 (en) 2015-10-09 2019-04-16 Microsoft Technology Licensing, Llc Facilitating awareness and conversation throughput in an augmentative and alternative communication system
US9679497B2 (en) * 2015-10-09 2017-06-13 Microsoft Technology Licensing, Llc Proxies for speech generating devices
US10148808B2 (en) 2015-10-09 2018-12-04 Microsoft Technology Licensing, Llc Directed personal communication for speech generating devices
US11164548B2 (en) 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
US11128853B2 (en) 2015-12-22 2021-09-21 JBF Interlude 2009 LTD Seamless transitions in large-scale video
US20170249558A1 (en) * 2016-02-29 2017-08-31 Linkedin Corporation Blending connection recommendation streams
CN107241622A (zh) * 2016-03-29 2017-10-10 北京三星通信技术研究有限公司 视频定位处理方法、终端设备及云端服务器
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US10045076B2 (en) * 2016-11-22 2018-08-07 International Business Machines Corporation Entertainment content ratings system based on physical expressions of a spectator to scenes of the content
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
AU2018263287A1 (en) * 2017-05-05 2020-01-02 5i Corporation Pty. Limited Devices, systems and methodologies configured to enable generation, capture, processing, and/or management of digital media data
US10922566B2 (en) 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
US11062359B2 (en) 2017-07-26 2021-07-13 Disney Enterprises, Inc. Dynamic media content for in-store screen experiences
JP6447681B2 (ja) * 2017-08-09 2019-01-09 カシオ計算機株式会社 情報処理装置、情報処理方法、及びプログラム
CN109547859B (zh) * 2017-09-21 2021-12-07 腾讯科技(深圳)有限公司 视频片段的确定方法和装置
US10636449B2 (en) * 2017-11-06 2020-04-28 International Business Machines Corporation Dynamic generation of videos based on emotion and sentiment recognition
KR102429901B1 (ko) 2017-11-17 2022-08-05 삼성전자주식회사 부분 영상을 생성하기 위한 전자 장치 및 그의 동작 방법
US20190172458A1 (en) 2017-12-01 2019-06-06 Affectiva, Inc. Speech analysis for cross-language mental state identification
EP3503565B1 (en) * 2017-12-22 2022-03-23 Vestel Elektronik Sanayi ve Ticaret A.S. Method for determining of at least one content parameter of video data
US10453496B2 (en) * 2017-12-29 2019-10-22 Dish Network L.L.C. Methods and systems for an augmented film crew using sweet spots
US10834478B2 (en) 2017-12-29 2020-11-10 Dish Network L.L.C. Methods and systems for an augmented film crew using purpose
US10783925B2 (en) 2017-12-29 2020-09-22 Dish Network L.L.C. Methods and systems for an augmented film crew using storyboards
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US10419790B2 (en) * 2018-01-19 2019-09-17 Infinite Designs, LLC System and method for video curation
US11373404B2 (en) 2018-05-18 2022-06-28 Stats Llc Machine learning for recognizing and interpreting embedded information card content
US11232816B2 (en) 2018-05-25 2022-01-25 Sukyung Kim Multi-window viewing system including editor for reaction video and method for producing reaction video by using same
US11601721B2 (en) * 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US11264048B1 (en) 2018-06-05 2022-03-01 Stats Llc Audio processing for detecting occurrences of loud sound characterized by brief audio bursts
US11025985B2 (en) 2018-06-05 2021-06-01 Stats Llc Audio processing for detecting occurrences of crowd noise in sporting event television programming
CN110611824B (zh) * 2018-06-14 2021-12-24 连株式会社 精彩视频产生方法、使用其的精彩视频产生装置以及介质
US10701416B2 (en) * 2018-10-12 2020-06-30 Disney Enterprises, Inc. Content promotion through automated curation of content clips
JP6754412B2 (ja) * 2018-11-07 2020-09-09 スカパーJsat株式会社 体験記録システム及び体験記録方法
JP2020077229A (ja) * 2018-11-08 2020-05-21 スカパーJsat株式会社 コンテンツ評価システム及びコンテンツ評価方法
US10983812B2 (en) * 2018-11-19 2021-04-20 International Business Machines Corporation Replaying interactions with a graphical user interface (GUI) presented in a video stream of the GUI
US10943125B1 (en) 2018-12-13 2021-03-09 Facebook, Inc. Predicting highlights for media content
US10798425B1 (en) 2019-03-24 2020-10-06 International Business Machines Corporation Personalized key object identification in a live video stream
US11887383B2 (en) 2019-03-31 2024-01-30 Affectiva, Inc. Vehicle interior object management
WO2020242435A1 (en) * 2019-05-24 2020-12-03 Hewlett-Packard Development Company, L.P. Embedded indicators
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US11798282B1 (en) 2019-12-18 2023-10-24 Snap Inc. Video highlights with user trimming
US11610607B1 (en) 2019-12-23 2023-03-21 Snap Inc. Video highlights with user viewing, posting, sending and exporting
US11769056B2 (en) 2019-12-30 2023-09-26 Affectiva, Inc. Synthetic data for neural network training using vectors
US11538499B1 (en) * 2019-12-30 2022-12-27 Snap Inc. Video highlights with auto trimming
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
US11843820B2 (en) * 2021-01-08 2023-12-12 Sony Interactive Entertainment LLC Group party view and post viewing digital content creation
US11750883B2 (en) * 2021-03-26 2023-09-05 Dish Network Technologies India Private Limited System and method for using personal computing devices to determine user engagement while viewing an audio/video program
US11997321B2 (en) * 2021-04-22 2024-05-28 Shopify Inc. Systems and methods for controlling transmission of live media streams
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11849160B2 (en) * 2021-06-22 2023-12-19 Q Factor Holdings LLC Image analysis system
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6708335B1 (en) * 1999-08-18 2004-03-16 Webtv Networks, Inc. Tracking viewing behavior of advertisements on a home entertainment system
US9292516B2 (en) * 2005-02-16 2016-03-22 Sonic Solutions Llc Generation, organization and/or playing back of content based on incorporated parameter identifiers
WO2002080027A1 (en) * 2001-03-29 2002-10-10 British Telecommunications Public Limited Company Image processing
US8561095B2 (en) * 2001-11-13 2013-10-15 Koninklijke Philips N.V. Affective television monitoring and control in response to physiological data
US6585521B1 (en) * 2001-12-21 2003-07-01 Hewlett-Packard Development Company, L.P. Video indexing based on viewers' behavior and emotion feedback
US7607097B2 (en) * 2003-09-25 2009-10-20 International Business Machines Corporation Translating emotion to braille, emoticons and other special symbols
EP1582965A1 (en) * 2004-04-01 2005-10-05 Sony Deutschland Gmbh Emotion controlled system for processing multimedia data
US20050289582A1 (en) * 2004-06-24 2005-12-29 Hitachi, Ltd. System and method for capturing and using biometrics to review a product, service, creative work or thing
US7689556B2 (en) * 2005-01-31 2010-03-30 France Telecom Content navigation service
US20060218573A1 (en) * 2005-03-04 2006-09-28 Stexar Corp. Television program highlight tagging
US20070214471A1 (en) * 2005-03-23 2007-09-13 Outland Research, L.L.C. System, method and computer program product for providing collective interactive television experiences
US20060224046A1 (en) * 2005-04-01 2006-10-05 Motorola, Inc. Method and system for enhancing a user experience using a user's physiological state
US7742111B2 (en) * 2005-05-06 2010-06-22 Mavs Lab. Inc. Highlight detecting circuit and related method for audio feature-based highlight segment detection
US20070203426A1 (en) * 2005-10-20 2007-08-30 Kover Arthur J Method and apparatus for obtaining real time emotional response data over a communications network
US20070150916A1 (en) * 2005-12-28 2007-06-28 James Begole Using sensors to provide feedback on the access of digital content
US20070265507A1 (en) * 2006-03-13 2007-11-15 Imotions Emotion Technology Aps Visual attention and emotional response detection and display system
KR100763236B1 (ko) * 2006-05-09 2007-10-04 삼성전자주식회사 생체 신호를 이용하는 동영상 편집 장치 및 방법
US20080103907A1 (en) * 2006-10-25 2008-05-01 Pudding Ltd. Apparatus and computer code for providing social-network dependent information retrieval services
US20080155587A1 (en) * 2006-12-20 2008-06-26 General Instrument Corporation Video Content Targeting System and Method
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体
US20090088610A1 (en) * 2007-03-02 2009-04-02 Lee Hans C Measuring Physiological Response to Media for Viewership Modeling
US20080295126A1 (en) * 2007-03-06 2008-11-27 Lee Hans C Method And System For Creating An Aggregated View Of User Response Over Time-Variant Media Using Physiological Data
JP4539712B2 (ja) * 2007-12-03 2010-09-08 ソニー株式会社 情報処理端末、情報処理方法、およびプログラム
JP4538756B2 (ja) * 2007-12-03 2010-09-08 ソニー株式会社 情報処理装置、情報処理端末、情報処理方法、およびプログラム
JP5020838B2 (ja) * 2008-01-29 2012-09-05 ヤフー株式会社 視聴反応共有システム、視聴反応管理サーバ及び視聴反応共有方法
JPWO2010001512A1 (ja) * 2008-07-03 2011-12-15 パナソニック株式会社 印象度抽出装置および印象度抽出方法
JP2010026871A (ja) * 2008-07-22 2010-02-04 Nikon Corp 情報処理装置及び情報処理システム
US8925001B2 (en) * 2008-09-12 2014-12-30 At&T Intellectual Property I, L.P. Media stream generation based on a category of user expression
US20100107075A1 (en) * 2008-10-17 2010-04-29 Louis Hawthorne System and method for content customization based on emotional state of the user
JP2010206447A (ja) * 2009-03-03 2010-09-16 Panasonic Corp 視聴端末装置、サーバ装置および参加型番組共有システム
US8161504B2 (en) * 2009-03-20 2012-04-17 Nicholas Newell Systems and methods for memorializing a viewer's viewing experience with captured viewer images
US20120114312A1 (en) * 2009-03-25 2012-05-10 Eloy Technology, Llc Method and system for determining the availability of a media controller
KR101708682B1 (ko) * 2010-03-03 2017-02-21 엘지전자 주식회사 영상표시장치 및 그 동작 방법.
US20110154386A1 (en) * 2009-12-22 2011-06-23 Telcordia Technologies, Inc. Annotated advertisement referral system and methods
US8438590B2 (en) * 2010-09-22 2013-05-07 General Instrument Corporation System and method for measuring audience reaction to media content
US20120174032A1 (en) * 2010-12-30 2012-07-05 Trusted Opionion, Inc. System and Method for Displaying Responses from a Plurality of Users to an Event
US9026476B2 (en) * 2011-05-09 2015-05-05 Anurag Bist System and method for personalized media rating and related emotional profile analytics
US8676937B2 (en) * 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108992052A (zh) * 2014-03-14 2018-12-14 上海万泽精密铸造有限公司 便于随身隐蔽携带的自闭症患者用随身佩戴装置
CN104837036A (zh) * 2014-03-18 2015-08-12 腾讯科技(北京)有限公司 生成视频看点的方法、服务器、终端及系统
CN104837059A (zh) * 2014-04-15 2015-08-12 腾讯科技(北京)有限公司 视频处理方法、装置和系统
CN106464956A (zh) * 2014-05-21 2017-02-22 Pcms控股公司 触发视频录制的用户兴趣阈值的环境调节的方法和系统
US10448098B2 (en) 2014-05-21 2019-10-15 Pcms Holdings, Inc. Methods and systems for contextual adjustment of thresholds of user interestedness for triggering video recording
US11778287B2 (en) 2014-10-09 2023-10-03 Stats Llc Generating a customized highlight sequence depicting multiple events
CN107148781B (zh) * 2014-10-09 2021-07-13 斯特兹公司 用于产生定制高光序列的方法、系统、计算机可读媒体
CN107148781A (zh) * 2014-10-09 2017-09-08 图兹公司 产生描绘一或多个事件的定制高光序列
US11882345B2 (en) 2014-10-09 2024-01-23 Stats Llc Customized generation of highlights show with narrative component
CN104349206A (zh) * 2014-11-26 2015-02-11 乐视致新电子科技(天津)有限公司 一种电视信息处理方法、装置及系统
CN105898340A (zh) * 2015-11-30 2016-08-24 乐视网信息技术(北京)股份有限公司 现场直播中的关键点提示方法、服务器、用户终端和系统
CN108293150A (zh) * 2015-12-22 2018-07-17 英特尔公司 情绪定时媒体回放
WO2017113701A1 (zh) * 2015-12-29 2017-07-06 乐视控股(北京)有限公司 制作视频集锦的方法、装置、电子设备、服务器及系统
CN105872765A (zh) * 2015-12-29 2016-08-17 乐视致新电子科技(天津)有限公司 制作视频集锦的方法、装置、电子设备、服务器及系统
CN107809673B (zh) * 2016-09-09 2021-08-06 索尼公司 根据情绪状态检测处理视频内容的系统和方法
CN107809673A (zh) * 2016-09-09 2018-03-16 索尼公司 根据情绪状态检测处理视频内容的系统和方法
US10529379B2 (en) 2016-09-09 2020-01-07 Sony Corporation System and method for processing video content based on emotional state detection
CN106802946A (zh) * 2017-01-12 2017-06-06 合网络技术(北京)有限公司 视频分析方法及装置
CN106802946B (zh) * 2017-01-12 2020-03-27 合一网络技术(北京)有限公司 视频分析方法及装置
CN107071579A (zh) * 2017-03-02 2017-08-18 合网络技术(北京)有限公司 多媒体资源处理方法及装置
CN108932451A (zh) * 2017-05-22 2018-12-04 北京金山云网络技术有限公司 音视频内容分析方法及装置
US10511888B2 (en) 2017-09-19 2019-12-17 Sony Corporation Calibration system for audience response capture and analysis of media content
CN111052751A (zh) * 2017-09-19 2020-04-21 索尼公司 用于媒体内容的观众响应捕获和分析的校准系统
US11218771B2 (en) 2017-09-19 2022-01-04 Sony Corporation Calibration system for audience response capture and analysis of media content
CN111052751B (zh) * 2017-09-19 2022-02-01 索尼公司 用于媒体内容的观众响应捕获和分析的校准系统
WO2019140784A1 (zh) * 2018-01-18 2019-07-25 深圳光峰科技股份有限公司 一种播放影片的方法、影片播放机及影片服务器
CN108391164B (zh) * 2018-02-24 2020-08-21 Oppo广东移动通信有限公司 视频解析方法及相关产品
CN110418148B (zh) * 2019-07-10 2021-10-29 咪咕文化科技有限公司 视频生成方法、视频生成设备及可读存储介质
CN110418148A (zh) * 2019-07-10 2019-11-05 咪咕文化科技有限公司 视频生成方法、视频生成设备及可读存储介质
WO2022048347A1 (zh) * 2020-09-02 2022-03-10 华为技术有限公司 一种视频编辑方法及设备
CN114205534A (zh) * 2020-09-02 2022-03-18 华为技术有限公司 一种视频编辑方法及设备

Also Published As

Publication number Publication date
EP2721831A4 (en) 2015-04-15
US20120324491A1 (en) 2012-12-20
EP2721831A2 (en) 2014-04-23
KR20140045412A (ko) 2014-04-16
JP2014524178A (ja) 2014-09-18
TW201301891A (zh) 2013-01-01
WO2012174381A3 (en) 2013-07-11
WO2012174381A2 (en) 2012-12-20

Similar Documents

Publication Publication Date Title
CN103609128A (zh) 基于环境传感的视频精彩片段标识
CN103621104B (zh) 基于兴趣的视频流
US9363546B2 (en) Selection of advertisements via viewer feedback
TWI558186B (zh) 基於環境感測之視訊選擇
CN106605218B (zh) 收集和处理与基于网络的内容的交互过程中的计算机用户数据的方法
CN105339969B (zh) 链接的广告
US9646046B2 (en) Mental state data tagging for data collected from multiple sources
WO2009097337A1 (en) Laugh detector and system and method for tracking an emotional response to a media presentation
CN116484318B (zh) 一种演讲训练反馈方法、装置及存储介质
US20140325540A1 (en) Media synchronized advertising overlay
WO2021028463A1 (en) System and method for collecting data to assess effectiveness of displayed content
WO2014106216A1 (en) Collection of affect data from multiple mobile devices
EP3114846A1 (en) Character based media analytics

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MICROSOFT TECHNOLOGY LICENSING LLC

Free format text: FORMER OWNER: MICROSOFT CORP.

Effective date: 20150728

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150728

Address after: Washington State

Applicant after: Micro soft technique license Co., Ltd

Address before: Washington State

Applicant before: Microsoft Corp.

WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140226