CN103609128A - 基于环境传感的视频精彩片段标识 - Google Patents
基于环境传感的视频精彩片段标识 Download PDFInfo
- Publication number
- CN103609128A CN103609128A CN201280029616.0A CN201280029616A CN103609128A CN 103609128 A CN103609128 A CN 103609128A CN 201280029616 A CN201280029616 A CN 201280029616A CN 103609128 A CN103609128 A CN 103609128A
- Authority
- CN
- China
- Prior art keywords
- beholder
- video item
- video
- item
- emotive response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/29—Arrangements for monitoring broadcast services or broadcast-related services
- H04H60/33—Arrangements for monitoring the users' behaviour or opinions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/35—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
- H04H60/46—Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for recognising users' preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/251—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/252—Processing of multiple end-users' preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42201—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42202—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6582—Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Environmental & Geological Engineering (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Ecology (AREA)
- Emergency Management (AREA)
- Computer Security & Cryptography (AREA)
- Environmental Sciences (AREA)
- Remote Sensing (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Business, Economics & Management (AREA)
- Biophysics (AREA)
- Neurosurgery (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Graphics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Information Transfer Between Computers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
公开了涉及标识和显示从较长视频内容中取得的视频内容部分的实施例。在一个示例实施例中,通过接收关于视频项的多个观看者中的每一个观看者的情绪响应简档来提供视频项的一部分,每一个情绪响应简档包括特定观看者在观看视频项时的该特定观看者的情绪响应与该视频项的时间关联。该方法还包括使用情绪响应简档来选择视频项中的被判断为比该视频项中的第二部分在情绪上更刺激的第一部分,并且响应于对该视频项中的第一部分的请求来将该视频项中的第一部分发送到另一计算设备,而不发送该视频项中的第二部分。
Description
背景
将供回放的视频内容中的感兴趣部分标识为例如精彩片段经常由该内容的生产者手动执行。由此,被选为精彩片段的部分可以表示生产者对广大观众,而不是任何特定个人或观众的子群的兴趣的最佳猜测。
概述
本文公开了涉及基于来自视频观看环境传感器的数据来选择视频项的各部分的各种实施例。例如,一个实施例提供了一种方法,包括接收关于视频项的多个观看者中的每一个观看者的情绪响应简档,每一个情绪响应简档包括特定观看者在观看视频项时的该特定观看者的情绪响应与该视频项的时间关联,并且然后使用情绪响应简档来选择该视频项中的被判断为比该视频项中的第二部分在情绪上更刺激的第一部分。然后响应于对该视频项中的第一部分的请求来将所选第一部分发送到另一计算设备,而不发送该视频项中的第二部分。
提供本概述是为了以简化的形式介绍将在以下详细描述中进一步描述的选择的概念。本概述并不旨在标识所要求保护主题的关键特征或必要特征,也不旨在用于限制所要求保护主题的范围。此外,所要求保护的主题不限于解决在本公开的任一部分中所提及的任何或所有缺点的实现。
附图简述
图1示意性地示出了根据本公开内容的一实施例的观看者在视频观看环境中观看视频项。
图2A-B示出了根据本公开内容的一实施例的描绘向做出请求的计算设备提供从较长视频内容项中取得的视频内容部分的方法的流程图。
图3示意性地示出了观看者情绪响应简档、观看兴趣简档和聚集的观看者情绪响应简档的实施例。
图4示意性地示出了根据本公开内容的一实施例的选择视频项中的在情绪上刺激的各部分以便发送到做出请求的计算设备的示例场景。
详细描述
如上所述,选择诸如体育表演或电影等视频内容项中的各部分以用作精彩片段、预告片或其它这样的经编辑的表演一般依靠人类编辑工作。最近,已使用抓取来将计算机网络可访问的内容聚集成可容易浏览的格式以助于内容发现。抓取是一种自动化方法,其中使用程序从诸如网站等一个或多个内容源搜集信息,在语义上对这些信息进行分类,并按照所分类的来呈现这些信息以使得用户可以快速访问针对该用户的兴趣来定制的信息。
抓取可以是相当直接的,其中在抓取结果中标识整个内容项。例如,可以按标题、艺术家、关键字以及应用于作为整体的内容的其它这样的元数据来整体地标识静止图像、视频图像、音频文件等。然而,对视频内剪辑(即,从较大的视频内容项中取得的视频剪辑)的标识提出了挑战。例如,许多内容项可能缺乏允许从较大内容项中标识并单独拉取感兴趣的剪辑的媒体内元数据。在其它情况下,视频内容项可被存储为可以单独访问的片段的集合。然而,这些片段可能仍然经由人类编辑输入来定义。
由此,所公开的实施例涉及对视频内容中的与同一视频内容中的其它部分相比具有特定兴趣的各部分的自动化标识并且与这些其它部分分开向观看者呈现所标识的部分。各实施例可利用诸如图像传感器、深度传感器、声学传感器之类的观看环境传感器以及诸如生物测定传感器等可能的其它传感器来帮助确定用于标识这样的片段的观看者偏好。这些传感器可允许系统标识各个人,检测并理解所标识的各个人的人类情绪表达,并且利用这些信息来标识视频内容项中的特别感兴趣的部分。
图1示意性地示出了根据本公开内容的一实施例的观看者(在图1中被示为160、162和164)观看视频项(在图1中被分别示为150、152和154),每一个视频项在相应的视频观看环境100中的相应显示器102上观看(如经由显示输出112来输出)。在一个实施例中,与媒体计算设备104连接(经由输入111)的视频观看环境传感器系统106向媒体计算设备104提供传感器数据以允许媒体计算设备104检测视频观看环境100内的观看者情绪响应。将会理解,在各实施例中,传感器系统106可被实现为媒体计算设备104的外围或内置组件。
进而,观看者对视频项的情绪响应简档经由网络110被发送到服务器计算设备130,在那里对于每一个视频项,将来自多个观看者的情绪响应合成为关于该视频项的聚集的情绪响应简档。随后,寻求从这些视频项之一中取得的感兴趣的或情绪上刺激的视频剪辑的做出请求的观看者可接收到这些视频项中的被判断为比这些相同的项目中的其它部分在情绪上更刺激的各部分的列表。做出请求的观看者可以从该列表中请求这些视频项中的一个或多个部分来个别地观看或作为汇编来观看。当接收到请求时,服务器计算设备向做出请求的计算设备发送所请求的部分,而不发送这些视频项中的相比较而言较不刺激和/或不那么感兴趣的部分。由此,向做出请求的观看者提供该做出请求的观看者很有可能觉得是感兴趣的且在情绪上是刺激的视频项片段。同样,可以对多个视频项执行这一分析以呈现从不同的视频内容项中取得的可能感兴趣的视频剪辑的列表。这可帮助例如内容发现。
视频观看环境传感器系统106可包括任何合适的传感器,包括但不限于一个或多个图像传感器、深度传感器和/或话筒或其他声学传感器。来自这些传感器的数据可由计算设备104用来检测观看者的脸部和/或身体姿态和姿势,这些姿态和姿势可通过媒体计算设备104与人类情感显示相关。作为示例,可将这些姿态和姿势与诸如姿态和姿势数据等可以与指定情绪状态相关联的预定义的参考情感显示数据进行比较。将理解,本文使用的术语“人类情感显示”可表示对所观看的内容的任何可检测的人类响应,包括但不限于人类情绪表达和/或可检测到的人类情绪行为的显示,如脸部、姿势、或声音显示,无论是有意识还是下意识地执行的。
媒体计算设备104可处理从传感器系统106接收到的数据以生成观看者观看的视频项与每一个观看者对该视频项的情绪响应之间的时间关系。如在下文中更详细地说明的,这样的关系可被记录为关于特定视频项的观看者的情绪响应简档,并且被包括在将观看者的视频兴趣按目录分类的观看兴趣简档中。这可允许稍后检索关于做出请求的观看者的观看兴趣简档并使用该简档来选择一个或多个视频项中的做出请求的观看者可能感兴趣的各部分。
作为更具体的示例,从观看环境传感器系统106接收到的图像数据可捕捉观看者的人类情绪行为的有意识显示,如观看者160退避(cringe)或掩住他的脸的图像。作为响应,关于该视频项的观看者的情绪响应简档可指示该观看者在该项目期间的这一时刻恐惧。图像数据还可包括人类情绪状态的下意识显示。在这样的场景中,图像数据可以示出用户在视频项期间的特定时刻用户正将目光从显示器移开。作为响应,关于该视频项的观看者的情绪响应简档可指示她在此刻厌烦或分心。眼睛跟踪、脸部姿态表征以及其他合适的技术也可被用来测量观看者对视频项150的情绪刺激和参与的程度。
在一些实施例中,图像传感器可收集能够诊断人类生理状况的频谱区域内的光。例如,红外光可被用来近似身体内的血氧水平和/或心率水平。进而,这些水平可被用来估计人的情绪刺激。
此外,在一些实施例中,驻留在与观看环境传感器系统106不同的其他设备中的传感器可被用来向媒体计算设备104提供输入。例如,在一些实施例中,视频观看环境100内的观看者160所持有的移动计算设备140(例如,移动电话和膝上型以及平板计算机)中包括的加速度计和/或其它传感器可检测该观看者的基于姿势的或其它情绪表达。
图2A-B示出了用于向做出请求的计算设备提供从较长视频内容中取得的可能感兴趣的视频内容部分的方法200的实施例的流程图。将明白,所描绘的实施例可经由任何合适的硬件来实现,包括但不限于图1和2A-B中参考的硬件的实施例。
如图2A所示,媒体计算设备104包括可保存可由逻辑子系统116执行来实现本文公开的各任务的指令的数据保存子系统114。此外,媒体计算设备104还可包括或被配置成接受被配置成存储可由逻辑子系统116执行的指令的可移动计算机可读存储介质118。服务器计算设备130也被描绘为包括数据保存子系统134、逻辑子系统136、以及可移动计算机存储介质138。
在一些实施例中,来自观看者的移动设备上的传感器的传感器数据可被提供给媒体计算设备。此外,与正在观看的视频项相关的补充内容可被提供给观看者的移动设备。由此,在一些实施例中,可以向媒体计算设备104和/或服务器计算设备130注册移动计算设备140。合适的移动计算设备包括但不限于移动电话和便携式个人计算设备(例如,膝上型计算设备、平板计算设备和其它这样的计算设备)。
如图2A所示,移动计算设备140包括数据保存子系统144、逻辑子系统146、以及计算机存储介质148。本文中参考的这样的数据保存子系统、逻辑子系统以及计算机存储介质的各方面将在下文更详细地描述。
在202,方法200包括在视频观看环境传感器处且可能从移动计算设备140或其它合适的包含传感器的设备收集传感器数据。在204,方法200包括将传感器数据发送给接收传感器数据的输入的媒体计算设备。可收集任何合适的传感器数据,包括但不限于图像传感器数据、深度传感器数据、声学传感器数据、生物测定传感器数据,等等。
在206,方法200包括根据传感器数据的输入来确定视频观看环境中的观看者的身份。在一些实施例中,观看者的身份可根据传感器数据所收集的图像数据与存储在观看者的个人简档中的图像数据的比较来确立。例如,从视频观看环境中收集的图像数据中包括的脸部与存储在观看者的简档中的图像之间的脸部相似度比较可被用来确立该观看者的身份。也可根据声学数据或任何其他合适的数据来确定观看者的身份。
在208,方法200包括生成关于观看者的情绪响应简档,该情绪响应简档表示观看者的情绪响应与正在视频观看环境中显示的视频项的时间关联。换言之,关于视频项的观看者的情绪响应简档根据该视频项内的时间位置来索引该观看者的情绪表达和行为显示。
图3示意性地示出了观看者情绪响应简档304的实施例。如图3所示,观看者情绪响应简档304由在媒体计算设备104和服务器计算设备130中的一个或多个上运行的语义挖掘模块302使用从一个或多个视频观看环境传感器接收到的传感器信息来生成。使用来自传感器的数据以及视频项信息303(例如,标识在收集到情绪响应数据时观看者正在观看的特定视频项以及该情绪响应发生在该视频项中的何处的元数据),语义挖掘模块302生成观看者情绪响应简档304,该简档捕捉应变于视频项内的时间位置的观看者的情绪响应。
在图3所示的示例中,语义挖掘模块302向视频观看环境传感器检测到的各种行为和其他表达数据(例如,生理数据)分配各情绪标识。语义挖掘模块302还根据与视频项同步的时间序列来对观看者的情绪表达进行索引,例如按在视频项内发生的各事件、场景、以及动作的时间。由此,在图3所示的示例中,在视频项的时间索引1处,语义挖掘模块302基于生理数据(例如,心率数据)和人类情感显示数据(例如,身体语言分数)来记录观看者厌烦并分心。在稍后的时间索引2,观看者情绪响应简档304指示观看者很愉快并且对视频项感兴趣,而在时间索引3,观看者很恐惧但专注于该视频项。
图3还示出了为了简明起见被示为单个变量的标绘的非限制性示例观看者情绪响应简档306的图形表示。虽然观看者情绪响应简档306被示为作为时间的函数的单个变量(例如,情绪状态)的标绘,但将认识到情绪响应简档可包括表示任何合适定量的任何合适数量的变量。
在一些实施例中,语义挖掘模块302可被配置成区分观看者对视频项的情绪响应和观看者的一般性情。例如,在一些实施例中,语义挖掘模块302可忽略在观看者的注意力没有集中在显示设备上时检测到的那些人类情感显示,或者可记录关于用户在这些情况下的注意力状态的信息。由此,作为示例场景,如果观看者因为源于视频观看环境外部的喧闹噪音而明显恼怒,则语义挖掘模块302可被配置成不将检测到的恼怒归咎于视频项,和/或可以不在关于该视频项的观看者的情绪响应简档内的该时间位置处记录该恼怒。在其中图像传感器作为视频观看环境传感器被包括的实施例中,合适的眼睛跟踪和/或脸部位置跟踪技术可被用来确定观看者的注意力集中于显示设备和/或视频项的程度。
关于视频项的观看者的情绪响应简档304可被分析以确定引起观看者的积极和消极响应的各类场景/物体/事件。例如,在图3所示的示例中,视频项信息(包括场景描述)与传感器数据和观看者的情绪响应相关。这样的分析的结果随后可被收集在观看兴趣简档308中。观看兴趣简档308根据观看者对过去媒体体验的情绪响应所判断来将观看者对视频媒体的喜好和厌恶编成目录。观看兴趣简档从多个情绪响应简档中生成,每一个情绪响应简档在时间上将观看者的情绪响应与该观看者先前观看的视频项相关。换言之,关于特定视频项的观看者的情绪响应简档根据该视频项内的时间位置来组织观看者的情绪表达和行为显示。在观看者观看更多视频项时,观看者的观看兴趣简档可根据在观看者对最近观看的视频项的情绪响应中所表达的来被更改以反映观看者的改变的趣味和兴趣。
通过对观看者所观看的其他内容项执行这样的分析(如在图3的310处所示)并且然后确定不同内容项中的引起类似情绪响应的各部分之间的相似性,观看者的潜在喜好和厌恶可被确定并随后可被用来定位针对将来观看和/或供呈现的视频剪辑精彩片段的内容建议。例如,图3示出观看者相比演员A和C偏好演员B,并且相比位置类型A偏好位置类型B。此外,可以对观看环境中的多个观看者中的每一个执行这样的分析。
转回到图2A,在212,方法200包括接收关于视频项的来自多个观看者中每一个观看者的情绪响应简档。由此,在212接收许多观看者对同一视频项的情绪响应以供进一步处理。这些情绪响应可在不同的时刻(例如,在不同的观看者检索视频项以便在不同时刻观看视频项的情况下)或同时(例如,在实况电视播放事件的情况下)接收。一旦接收到,情绪响应可被实时分析和/或被存储以供稍后分析,如下所述。
在214,方法200包括从不同观看者聚集多个情绪响应简档以形成关于该视频项的聚集的情绪响应简档。在一些实施例中,在216方法200可包括呈现聚集的情绪响应简档的图形描绘。这些视图可以向观看者提供看一眼就将视频项中的情绪上刺激且感兴趣的部分与同一视频项中的其它部分区分开的方式,并且还可以向观看者提供选择这些视频内容部分以供观看的机制(例如,在聚集的简档担当控制视频内容呈现的用户界面元素的情形中)。
此外,在一些实施例中,这些视图可被提供给内容提供者和/或广告提供者以使得这些提供者可发现视频项中的在情绪上联系观看者(和/或联系各种细分市场中的观看者)的那些部分。例如,在实况广播场景中,接收到这些视图的内容提供者可以实时地向广播呈现者提供关于吸引并进一步联系观众的方式的建议,从而可能留住可能原本想更换频道的观看者。
例如,图3示出了关于视频项的聚集的情绪响应简档314的实施例。如图3所示,在312,可以在时间上将关于视频项的多个情绪响应简档(每一简档源自不同的观看者和/或同一观看者的不同观看会话)相关,以生成聚集的情绪响应简档314。另外,在一些实施例中,聚集的情绪响应简档314还可按任何合适的方式(例如,按视频项类型、按演员、按导演、编剧等)与视频项信息相关,以标识在不同的程度和享受水平上触发了多个观看者的情绪体验的视频项的特性。另外,聚集的情绪响应简档可基于社交网络信息来过滤,如下所述。
返回到图2A,在218,方法200包括接收对视频项中的感兴趣部分的请求,该请求包括做出请求的观看者的身份。例如,该请求可在做出请求的观看者到达视频抓取站点时作出、在做出请求的观看者的移动或媒体计算设备被打开时做出、或者通过来自做出请求的观看者对移动、媒体或其他计算设备的输入来作出。将明白,做出请求的观看者的身份可以按任何合适的方式来接收,包括但不限于上述观看者身份确定方案。
在一些实施例中,该请求可包括做出请求的观看者所提供的搜索项和/或过滤条件,以使得对视频内容的第一部分的选择可以部分地基于该搜索项和/或过滤条件。然而,将明白,做出请求的观看者可以在该过程中任何合适的时刻提供这些搜索项和/或过滤条件而不背离本公开内容的范围。
在220,方法200包括使用情绪响应简档来选择视频项中的被判断为比该视频项中的第二部分在情绪上更刺激的第一部分。由此,情绪响应可被用来标识视频项中的与引起聚集的观众(例如,其情绪响应简档构成聚集的情绪响应简档的观众)的较少情绪反应的其它部分相比这些观众更感兴趣的部分。作为结果,可由于对较长视频媒体的众包(crowd-sourced)情绪响应信息而选择和/或归纳出视频媒体中的感兴趣部分。
在一些实施例中,众包结果可由情绪响应简档来针对一组可能正相关的观看者(例如,如由社交关系或观看者之间的其它联系确定的可能以与观看者相似的方式对视频项作出响应的人)加权。由此,在一些实施例中,关于组成员的情绪响应简档可具有比那些非成员更高的权重。一旦分配权重,就可以按任何合适的方式执行选择。权重能够以任何合适的方式来分配,例如0到1的范围内的数字。在一个示例中,可计算应变于时间的加权算术平均值以便标识视频项内的各种时间位置处的情绪刺激的平均量级。作为结果,与未加权的选择结果(例如,其中所有聚集的情绪响应简档都未被加权的选择结果)相比,该选择结果可以更有可能是观看者感兴趣的。
此外,在一些实施例中,组(或组成员)的权重可基于观看者输入。例如,权重可基于观看者的社交网络中的不同水平的社交关系和/或亲密性。在另一示例中,权重可基于由观看者分配的置信评级,该置信评级反映该观看者对该组的(或成员的)品味和/或标识视频项中的该观看者觉得是感兴趣的各部分的能力的信任和置信的相对水平。在一些其它实施例中,置信评级可以在没有观看者输入的情况下根据诸如人口统计组特性等暗示组成员兴趣和观看者兴趣之间的正相关的特性来分配。将会理解,这些用于对情绪响应简档进行加权的方法是出于示例的目的而呈现的,而不旨在以任何方式进行限制。
图4示意性地示出了阐释上述示例实施例的三个示例选择场景。在场景402中,基于未加权的聚集的情绪响应简档314来选择视频项的第一部分404。在这些实施例中,选择视频项的第一部分可包括将该选择基于聚集的情绪响应简档中的对该视频内容项的第一部分的情绪响应的量级。在图4中,使用预选阈值406来判断聚集的观众中的由该视频项引起情绪刺激的相对程度。预选阈值406可以按任何合适的方式来定义(例如,作为绝对值或作为函数值,诸如对应于广告商所期望的关于内容类型以及请求该视频项的一天中的时间的兴趣水平的值)。由此,第一部分404对应于视频项中的超过(在可接受的容忍度内)预选阈值406的部分。
在场景410中,由做出请求的观看者的社交网络中的各个观看者来对聚集的观看者情绪响应简档314加权。由此,对视频项的第一部分的选择基于使用聚集的情绪响应简档中的与属于做出请求的观看者的社交网络的观看者相对应的子集。将明白,社交网络可以是具有与观看者的社交联系的人的任何合适的集合,从而使得该观看者的兴趣可以与各网络成员的共同兴趣特别密切相关。这样的网络可以是用户定义的或由用户之间的共同特性(例如,校友关系)来自动定义。在场景410中,与预选阈值406一起使用加权的情绪响应简档412来标识第一部分404。聚集的情绪响应简档314仅仅出于参考的目的在虚线中示出。基于做出请求的观看者的社交网络来选择第一部分可以向该做出请求的观看者提供该视频项中的感兴趣的且与该做出请求的观看者的亲密社交关系相关的各部分。这可提高为做出请求的观看者选择的第一部分的个性化程度。
在场景420中,由做出请求的观看者所属的人口统计组中的各个观看者来对聚集的观看者情绪响应简档314加权。由此,对视频项的第一部分的选择基于使用聚集的情绪响应简档中的与属于做出请求的观看者的人口统计组的观看者相对应的子集。将理解,人口统计组可基于可导致组成员之间的兴趣比所有用户之间的兴趣可能更高度相关的任何合适的特性来定义。然后与预选阈值406一起使用加权的情绪响应简档422来标识第一部分404。聚集的情绪响应简档314仅仅出于参考的目的在虚线中示出。基于做出请求的观看者的人口统计组来选择第一部分可帮助该做出请求的观看者发现该视频项中的引起与该做出请求的观看者相似的品味和兴趣的人的兴趣的部分。
将会理解,可通过使用诸如搜索项和/或观看者定义的观看兴趣等观看者提供的过滤来实现进一步的个性化。例如,在一些实施例中,对第一部分的选择还可基于做出请求的观看者的观看兴趣简档308。在一些实施例中,选择还可基于做出请求的观看者提供的搜索项和/或过滤条件,如在图4中的430处示出的。
在还有一些其他实施例中,对视频项的第一部分的选择可基于观看者选择的情绪响应简档的子集。例如,观看者可选择接收视频项和其它内容中的仅仅基于该观看者的社交网络的情绪响应简档的所选部分(诸如精彩片段列表、观看者反应视频和反应精彩片段列表,如下所述)。通过以此方式过滤情绪响应简档,而不是基于加权或不加权的聚集的情绪响应简档,可提高用户体验中的相对个性化水平。
转回到图2A,在222,方法200包括基于情绪响应简档来生成包括视频项的第一部分且还包括该视频项中的其它部分的精彩片段列表。由此,对于特定视频项,组装出该视频项中的在情绪上刺激和/或感兴趣的各部分的列表。在一些实施例中,精彩片段列表可根据情绪刺激程度(例如,聚集的情绪响应简档中记录的情绪响应的量级);按标签、评论或其它观看者提供的注释;按图形表示(诸如热图);或者按向做出请求的观看者传递观众中的由视频项引起的相对情绪刺激的任何其它合适的方式来进行排名。
可选地,222可包括在224生成观看者反应视频剪辑,包括特定观看者对视频内容项的情绪、身体和/或行为响应,如由视频观看环境传感器所记录的人类情感显示所表达的。按照所记录的观看者的意愿,这些观看者反应剪辑可以与视频项的相关部分存储在一起和/或与该相关部分同时呈现,以使得做出请求的观看者可以观看视频项以及所记录的观看者对该视频项的情绪反应。由此,寻找体育比赛中的在情绪上刺激的部分的做出请求的观看者还可看见其它观看者对该比赛的反应剪辑的剪辑。在一些实施例中,观看者反应剪辑可选自做出请求的观看者的社交网络和/或人口统计组中的观看者,这可进一步个性化做出请求的观看者体验对如在观看者反应剪辑中显示的其它观看者的反应的亲和力。
在一些实施例中,222还可包括在226生成观看者反应精彩片段剪辑列表,包括捕捉一个或多个观看者中的每一个观看者对经由情绪响应简档选择的视频内容项的多个部分的反应的视频剪辑。这样的观看者反应精彩片段剪辑列表可以通过参考其它观看者对那些剪辑的情绪反应(以与选择视频项的感兴趣部分几乎相同的方式)来生成,以使得做出请求的观看者看一眼可直接搜索这样的观看者反应剪辑和/或查看流行和/或在情绪上刺激(如由观看这些观看者反应剪辑的其它观看者感知到的)的观看者反应剪辑。
虽然图2A的描述为了简明起见聚焦于对单个视频项的一部分的选择,但将会理解,在一些实施例中,可以从多个相应视频项中选择多个部分。由此,转向图2B,在228,方法200包括构建多个视频项的各部分的列表,并且在230发送各个相应部分的列表。在一些实施例中,如上所述的那些视频项和/或观看者反应剪辑的精彩片段列表可以与各相应部分的列表一起发送。此外,在一些实施例中,230可包括在232将关于每一个视频项的聚集的情绪响应简档的图形描绘与该列表一起发送。
在234,方法200包括接收对所请求的视频项的第一部分的请求。在234接收请求可包括接收对所请求的单个视频项的第一部分的请求和/或接收对选自所请求的各相应视频项的多个部分的请求。
在一些实施例中,对所请求的视频项的请求可包括做出请求的观看者提供的搜索项和/或过滤条件。在这些实施例中,搜索项和/或过滤条件可允许做出请求的观看者根据该搜索项和/或过滤条件中提供的准则(诸如观看偏好)来在各相应视频项的各第一部分的列表中进行排序。
响应于在234接收到的请求,方法200在236包括将视频内容项的第一部分发送到做出请求的计算设备,而不发送该视频内容项的第二部分。例如,图4中描绘的每一场景示出了将被发送到做出请求的计算设备的第一部分404,同时还示出了不会被发送的被判断为在情绪上不如该相应的第一部分404刺激的另一部分(如上所述)。将会理解,在一些实施例中,还可发送视频项中的在情绪上刺激的其它部分。例如,图4的场景410和420各自包括被判断为相对于视频项的其它部分在情绪上是刺激的附加部分405(也在交叉影线中示出)。在一些实施例中,这些附加部分可响应于请求而发送。
在其中请求各个视频项的不止一个相应的第一部分的一些实施例中,236可包括将这些相应的第一部分作为单个视频合成来发送。此外,在一些实施例中,236可包括在238发送观看者反应视频剪辑。在240,输出所发送的(诸)视频项的一个或多个部分以供显示。
如上所述,在一些实施例中,可将在本公开内容中描述的方法和过程绑定到包括一个或多个计算机的计算系统。具体而言,此处所述的方法和过程可被实现为计算机应用、计算机服务、计算机API、计算机库、和/或其他计算机程序产品。
图2A以简化的形式示意性示出了可以执行上述方法和过程之中的一个或多个的非限制性计算系统。应当理解,可使用基本上任何计算机架构而不背离本公开的范围。在不同的实施例中,计算系统可以采取大型计算机、服务器计算机、台式计算机、膝上型计算机、平板计算机、家庭娱乐计算机、网络计算设备、移动计算设备、移动通信设备、游戏设备等等的形式。
计算系统包括逻辑子系统(例如,图2A的移动计算设备104的逻辑子系统116、图2A的移动计算设备140的逻辑子系统146、以及图2A的服务器计算设备130的逻辑子系统136)和数据保存子系统(例如,图2A的移动计算设备104的数据保存子系统114、图2A的移动计算设备140的数据保存子系统144、以及图2A的服务器计算设备130的数据保存子系统134)。计算系统可以任选地包括显示子系统、通信子系统、和/或在图2A中未示出的其他组件。计算系统还可以任选地包括诸如例如键盘、鼠标、游戏控制器、相机、话筒和/或触摸屏之类的用户输入设备。
逻辑子系统可包括被配置成执行一个或多个指令的一个或多个物理设备。例如,逻辑子系统可被配置为执行一个或多个指令,该一个或多个指令是一个或多个应用、服务、程序、例程、库、对象、组件、数据结构、或其他逻辑构造的部分。可实现这样的指令以执行任务、实现数据类型、变换一个或多个设备的状态、或以其他方式得到所希望的结果。
逻辑子系统可包括被配置为执行软件指令的一个或多个处理器。附加地或可替代地,逻辑子系统可以包括被配置为执行硬件或固件指令的一个或多个硬件或固件逻辑机器。逻辑子系统的处理器可以是单核或多核,且在其上执行的程序可被配置为并行或分布式处理。逻辑子系统可以任选地包括遍布两个或更多设备的独立组件,所述设备可远程放置和/或被配置为进行协同处理。该逻辑子系统的一个或多个方面可被虚拟化并由以云计算配置进行配置的可远程访问的联网计算设备执行。
数据保存子系统可包括一个或多个物理、非瞬时设备,这些设备被配置成保存数据和/或可由该逻辑子系统执行的指令,以实现此处描述的方法和过程。在实现此类方法和过程时,可变换数据保存子系统的状态(例如,保存不同数据)。
数据保存子系统可以包括可移动介质和/或内置设备。数据保存子系统可包括光学存储器设备(例如,CD、DVD、HD-DVD、蓝光盘等)、半导体存储器设备(例如,RAM、EPROM、EEPROM等)和/或磁存储器设备(例如,硬盘驱动器、软盘驱动器、磁带驱动器、MRAM等)等等。数据保存子系统可以包括具有以下特性中的一个或更多个特性的设备:易失性、非易失性、动态、静态、读/写、只读、随机存取、顺序存取、位置可寻址、文件可寻址、以及内容可寻址。在某些实施例中,逻辑子系统和数据保存子系统可被集成到一个或多个常见设备中,如专用集成电路或片上系统。
图2A还示出了可移动计算机存储介质(例如,图2A的移动计算设备104的可移动计算机存储介质118、图2A的移动计算设备140的可移动计算机存储介质148、以及图2A的服务器计算设备130的可移动计算机存储介质138)形式的数据保存子系统的一方面,它可被用来储存和/或转移数据和/或可执行以实现本文描述的方法和过程的指令。可移动计算机存储介质可以采取CD、DVD、HD-DVD、蓝光盘、EEPROM和/或软盘等形式。
应该理解,数据保存子系统包括一个或多个物理非瞬态设备。相反,在一些实施例中,本文描述的指令的各方面可以按暂态方式通过不由物理设备在至少有限持续时间期间保持的纯信号(例如电磁信号、光信号等)传播。此外,与本公开有关的数据和/或其他形式的信息可以通过纯信号来传播。
术语“模块”、“程序”和“引擎”可用于描述被实现为执行一个或多个特定功能的计算系统的一方面。在一些情况下,可以通过执行由数据保存子系统所保存的指令的逻辑子系统来实例化这样的模块、程序或引擎。应当理解,可以从同一应用、服务、代码块、对象、库、例程、API、函数等来实例化不同的模块、程序和/或引擎。同样,可以由不同的应用程序、服务、代码块、对象、例程、API、函数等来实例化同一模块、程序和/或引擎。术语“模块”、“程序”和“引擎”意在涵盖单个或成组的可执行文件、数据文件、库、驱动程序、脚本、数据库记录等。
应当理解,如此处所使用的服务摂可以是跨越多个用户会话可执行的、且对一个或更多系统组件、程序、和/或其他服务可用的应用程序。在一些实现中,服务可以响应于来自客户机的请求而在服务器上运行。
当被包括时,显示子系统可用于呈现由数据保存子系统所保存的数据的可视表示。由于此处所描述的方法和过程改变了由数据保存子系统保存的数据,并由此转变了数据保存子系统的状态,因此同样可以转变显示子系统的状态以可视地表示底层数据中的改变。显示子系统可包括利用几乎任何类型的技术的一个或多个显示设备。可将此类显示设备与逻辑子系统和/或数据保存子系统结合在共享外壳中,或此类显示设备可以是外围显示设备。
应该理解,此处所述的配置和/或方法在本质上是示例性的,并且这些具体实施例或示例不应被认为是局限性的,因为多个变体是可能的。此处所述的具体例程或方法可表示任何数量的处理策略中的一个或多个。由此,所示出的各个动作可以按所示次序执行、按其他次序执行、并行地执行、或者在某些情况下被省略。同样,可以改变上述过程的次序。
本公开的主题包括各种过程、系统和配置、此处所公开的其他特征、功能、动作、和/或特性、以及其任何和全部等效方案的所有新颖和非显而易见的组合和子组合。
Claims (10)
1.一种在计算设备处的汇编从较长视频内容中取得的视频内容部分并将其供应给做出请求的计算设备的方法,所述方法包括:
接收关于视频项的多个观看者中的每一个观看者的情绪响应简档,每一个情绪响应简档包括特定观看者在观看所述视频项时的该特定观看者的情绪响应与所述视频项的时间关联;
使用所述情绪响应简档来选择所述视频项中的被判断为比所述视频项中的第二部分在情绪上更刺激的第一部分;以及
响应于对所述视频项中的第一部分的请求来将所述视频项中的第一部分发送到另一计算设备,而不发送所述视频项中的第二部分。
2.如权利要求1所述的方法,其特征在于,选择所述视频项中的第一部分包括比其它情绪响应简档更多地为与属于做出请求的观看者所属的社交网络的观看者相对应的情绪响应简档加权。
3.如权利要求1所述的方法,其特征在于,选择所述视频项中的第一部分包括比其它情绪响应简档更多地为与属于做出请求的观看者所属的人口统计组的观看者相对应的情绪响应简档加权。
4.如权利要求1所述的方法,其特征在于,还包括基于所述情绪响应简档来生成包括所述视频项中的第一部分且还包括所述视频项中的其它部分的精彩片段列表。
5.如权利要求1所述的方法,其特征在于,还包括生成包括所述特定观看者对所述视频项的身体响应的观看者反应视频剪辑,并且其中发送所述第一部分包括发送所述观看者反应视频剪辑。
6.如权利要求5所述的方法,其特征在于,还包括生成观看者反应精彩片段剪辑列表,所述观看者反应精彩片段剪辑列表包括捕捉一个或多个观看者中的每一个观看者对经由所述情绪响应简档选择的视频内容项的多个部分的反应的视频剪辑。
7.如权利要求1所述的方法,其特征在于,选择所述视频项中的第一部分还包括聚集多个情绪响应简档以形成关于所述视频项的聚集的情绪响应简档,并且然后基于所述聚集的情绪响应简档中的对所述视频项中的第一部分的情绪响应的量级来选择所述视频项中的第一部分。
8.如权利要求1所述的方法,其特征在于,还包括:
接收关于其它视频项的情绪响应简档;
对于所述其它视频项中的每一个:
将所述情绪响应简档聚集成关于该视频项的聚集的情绪响应简档,并且
基于所述聚集的情绪响应简档中的对所述第一部分的情绪响应的量级来选择该视频项中的第一部分;以及
发送所述其它视频项的相应第一部分中的一个或多个,而不发送所述其它视频项的相应第二部分。
9.如权利要求8所述的方法,其特征在于,发送所述视频项中的第一部分包括将所述其它视频项的相应第一部分中的一个或多个作为单个视频合成来发送。
10.如权利要求1所述的方法,其特征在于,所述请求包括搜索项,并且其中选择所述视频项中的第一部分包括在选择所述视频项中的第一部分时基于所述搜索项来进行过滤。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/163,379 | 2011-06-17 | ||
US13/163,379 US20120324491A1 (en) | 2011-06-17 | 2011-06-17 | Video highlight identification based on environmental sensing |
PCT/US2012/042672 WO2012174381A2 (en) | 2011-06-17 | 2012-06-15 | Video highlight identification based on environmental sensing |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103609128A true CN103609128A (zh) | 2014-02-26 |
Family
ID=47354842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280029616.0A Pending CN103609128A (zh) | 2011-06-17 | 2012-06-15 | 基于环境传感的视频精彩片段标识 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20120324491A1 (zh) |
EP (1) | EP2721831A4 (zh) |
JP (1) | JP2014524178A (zh) |
KR (1) | KR20140045412A (zh) |
CN (1) | CN103609128A (zh) |
TW (1) | TW201301891A (zh) |
WO (1) | WO2012174381A2 (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104349206A (zh) * | 2014-11-26 | 2015-02-11 | 乐视致新电子科技(天津)有限公司 | 一种电视信息处理方法、装置及系统 |
CN104837059A (zh) * | 2014-04-15 | 2015-08-12 | 腾讯科技(北京)有限公司 | 视频处理方法、装置和系统 |
CN104837036A (zh) * | 2014-03-18 | 2015-08-12 | 腾讯科技(北京)有限公司 | 生成视频看点的方法、服务器、终端及系统 |
CN105872765A (zh) * | 2015-12-29 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 制作视频集锦的方法、装置、电子设备、服务器及系统 |
CN105898340A (zh) * | 2015-11-30 | 2016-08-24 | 乐视网信息技术(北京)股份有限公司 | 现场直播中的关键点提示方法、服务器、用户终端和系统 |
CN106464956A (zh) * | 2014-05-21 | 2017-02-22 | Pcms控股公司 | 触发视频录制的用户兴趣阈值的环境调节的方法和系统 |
CN106802946A (zh) * | 2017-01-12 | 2017-06-06 | 合网络技术(北京)有限公司 | 视频分析方法及装置 |
CN107071579A (zh) * | 2017-03-02 | 2017-08-18 | 合网络技术(北京)有限公司 | 多媒体资源处理方法及装置 |
CN107148781A (zh) * | 2014-10-09 | 2017-09-08 | 图兹公司 | 产生描绘一或多个事件的定制高光序列 |
CN107809673A (zh) * | 2016-09-09 | 2018-03-16 | 索尼公司 | 根据情绪状态检测处理视频内容的系统和方法 |
CN108293150A (zh) * | 2015-12-22 | 2018-07-17 | 英特尔公司 | 情绪定时媒体回放 |
CN108932451A (zh) * | 2017-05-22 | 2018-12-04 | 北京金山云网络技术有限公司 | 音视频内容分析方法及装置 |
CN108992052A (zh) * | 2014-03-14 | 2018-12-14 | 上海万泽精密铸造有限公司 | 便于随身隐蔽携带的自闭症患者用随身佩戴装置 |
WO2019140784A1 (zh) * | 2018-01-18 | 2019-07-25 | 深圳光峰科技股份有限公司 | 一种播放影片的方法、影片播放机及影片服务器 |
CN110418148A (zh) * | 2019-07-10 | 2019-11-05 | 咪咕文化科技有限公司 | 视频生成方法、视频生成设备及可读存储介质 |
US10511888B2 (en) | 2017-09-19 | 2019-12-17 | Sony Corporation | Calibration system for audience response capture and analysis of media content |
CN108391164B (zh) * | 2018-02-24 | 2020-08-21 | Oppo广东移动通信有限公司 | 视频解析方法及相关产品 |
WO2022048347A1 (zh) * | 2020-09-02 | 2022-03-10 | 华为技术有限公司 | 一种视频编辑方法及设备 |
US11882345B2 (en) | 2014-10-09 | 2024-01-23 | Stats Llc | Customized generation of highlights show with narrative component |
Families Citing this family (164)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8898316B2 (en) * | 2007-05-30 | 2014-11-25 | International Business Machines Corporation | Enhanced online collaboration system for viewers of video presentations |
US9190110B2 (en) | 2009-05-12 | 2015-11-17 | JBF Interlude 2009 LTD | System and method for assembling a recorded composition |
US11232458B2 (en) | 2010-02-17 | 2022-01-25 | JBF Interlude 2009 LTD | System and method for data mining within interactive multimedia |
US10897650B2 (en) | 2010-06-07 | 2021-01-19 | Affectiva, Inc. | Vehicle content recommendation using cognitive states |
US9503786B2 (en) * | 2010-06-07 | 2016-11-22 | Affectiva, Inc. | Video recommendation using affect |
US10627817B2 (en) | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Vehicle manipulation using occupant image analysis |
US11935281B2 (en) | 2010-06-07 | 2024-03-19 | Affectiva, Inc. | Vehicular in-cabin facial tracking using machine learning |
US11511757B2 (en) | 2010-06-07 | 2022-11-29 | Affectiva, Inc. | Vehicle manipulation with crowdsourcing |
US11657288B2 (en) | 2010-06-07 | 2023-05-23 | Affectiva, Inc. | Convolutional computing using multilayered analysis engine |
US10474875B2 (en) | 2010-06-07 | 2019-11-12 | Affectiva, Inc. | Image analysis using a semiconductor processor for facial evaluation |
US10869626B2 (en) | 2010-06-07 | 2020-12-22 | Affectiva, Inc. | Image analysis for emotional metric evaluation |
US11017250B2 (en) | 2010-06-07 | 2021-05-25 | Affectiva, Inc. | Vehicle manipulation using convolutional image processing |
US11151610B2 (en) | 2010-06-07 | 2021-10-19 | Affectiva, Inc. | Autonomous vehicle control using heart rate collection based on video imagery |
US11430260B2 (en) | 2010-06-07 | 2022-08-30 | Affectiva, Inc. | Electronic display viewing verification |
US11430561B2 (en) | 2010-06-07 | 2022-08-30 | Affectiva, Inc. | Remote computing analysis for cognitive state data metrics |
US11073899B2 (en) | 2010-06-07 | 2021-07-27 | Affectiva, Inc. | Multidevice multimodal emotion services monitoring |
US10074024B2 (en) | 2010-06-07 | 2018-09-11 | Affectiva, Inc. | Mental state analysis using blink rate for vehicles |
US10204625B2 (en) | 2010-06-07 | 2019-02-12 | Affectiva, Inc. | Audio analysis learning using video data |
US10843078B2 (en) | 2010-06-07 | 2020-11-24 | Affectiva, Inc. | Affect usage within a gaming context |
US11587357B2 (en) | 2010-06-07 | 2023-02-21 | Affectiva, Inc. | Vehicular cognitive data collection with multiple devices |
US11067405B2 (en) | 2010-06-07 | 2021-07-20 | Affectiva, Inc. | Cognitive state vehicle navigation based on image processing |
US10143414B2 (en) | 2010-06-07 | 2018-12-04 | Affectiva, Inc. | Sporadic collection with mobile affect data |
US10614289B2 (en) | 2010-06-07 | 2020-04-07 | Affectiva, Inc. | Facial tracking with classifiers |
US10779761B2 (en) | 2010-06-07 | 2020-09-22 | Affectiva, Inc. | Sporadic collection of affect data within a vehicle |
US10799168B2 (en) | 2010-06-07 | 2020-10-13 | Affectiva, Inc. | Individual data sharing across a social network |
US11318949B2 (en) | 2010-06-07 | 2022-05-03 | Affectiva, Inc. | In-vehicle drowsiness analysis using blink rate |
US10517521B2 (en) | 2010-06-07 | 2019-12-31 | Affectiva, Inc. | Mental state mood analysis using heart rate collection based on video imagery |
US11887352B2 (en) | 2010-06-07 | 2024-01-30 | Affectiva, Inc. | Live streaming analytics within a shared digital environment |
US11393133B2 (en) | 2010-06-07 | 2022-07-19 | Affectiva, Inc. | Emoji manipulation using machine learning |
US10482333B1 (en) | 2017-01-04 | 2019-11-19 | Affectiva, Inc. | Mental state analysis using blink rate within vehicles |
US10922567B2 (en) | 2010-06-07 | 2021-02-16 | Affectiva, Inc. | Cognitive state based vehicle manipulation using near-infrared image processing |
US10796176B2 (en) | 2010-06-07 | 2020-10-06 | Affectiva, Inc. | Personal emotional profile generation for vehicle manipulation |
US11232290B2 (en) | 2010-06-07 | 2022-01-25 | Affectiva, Inc. | Image analysis using sub-sectional component evaluation to augment classifier usage |
US11823055B2 (en) | 2019-03-31 | 2023-11-21 | Affectiva, Inc. | Vehicular in-cabin sensing using machine learning |
US10911829B2 (en) * | 2010-06-07 | 2021-02-02 | Affectiva, Inc. | Vehicle video recommendation via affect |
US10108852B2 (en) | 2010-06-07 | 2018-10-23 | Affectiva, Inc. | Facial analysis to detect asymmetric expressions |
US9934425B2 (en) | 2010-06-07 | 2018-04-03 | Affectiva, Inc. | Collection of affect data from multiple mobile devices |
US11465640B2 (en) | 2010-06-07 | 2022-10-11 | Affectiva, Inc. | Directed control transfer for autonomous vehicles |
US11704574B2 (en) | 2010-06-07 | 2023-07-18 | Affectiva, Inc. | Multimodal machine learning for vehicle manipulation |
US11700420B2 (en) | 2010-06-07 | 2023-07-11 | Affectiva, Inc. | Media manipulation using cognitive state metric analysis |
US10289898B2 (en) * | 2010-06-07 | 2019-05-14 | Affectiva, Inc. | Video recommendation via affect |
US11056225B2 (en) | 2010-06-07 | 2021-07-06 | Affectiva, Inc. | Analytics for livestreaming based on image analysis within a shared digital environment |
US10401860B2 (en) | 2010-06-07 | 2019-09-03 | Affectiva, Inc. | Image analysis for two-sided data hub |
US10111611B2 (en) | 2010-06-07 | 2018-10-30 | Affectiva, Inc. | Personal emotional profile generation |
US10592757B2 (en) | 2010-06-07 | 2020-03-17 | Affectiva, Inc. | Vehicular cognitive data collection using multiple devices |
US11410438B2 (en) | 2010-06-07 | 2022-08-09 | Affectiva, Inc. | Image analysis using a semiconductor processor for facial evaluation in vehicles |
US11484685B2 (en) | 2010-06-07 | 2022-11-01 | Affectiva, Inc. | Robotic control using profiles |
US11292477B2 (en) | 2010-06-07 | 2022-04-05 | Affectiva, Inc. | Vehicle manipulation using cognitive state engineering |
US10628741B2 (en) | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Multimodal machine learning for emotion metrics |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US8943526B2 (en) * | 2011-12-02 | 2015-01-27 | Microsoft Corporation | Estimating engagement of consumers of presented content |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
US10762582B2 (en) * | 2012-07-19 | 2020-09-01 | Comcast Cable Communications, Llc | System and method of sharing content consumption information |
US9247225B2 (en) * | 2012-09-25 | 2016-01-26 | Intel Corporation | Video indexing with viewer reaction estimation and visual cue detection |
US20140096167A1 (en) * | 2012-09-28 | 2014-04-03 | Vringo Labs, Inc. | Video reaction group messaging with group viewing |
US9032434B2 (en) * | 2012-10-12 | 2015-05-12 | Google Inc. | Unsupervised content replay in live video |
US9338508B2 (en) | 2012-10-23 | 2016-05-10 | Google Technology Holdings LLC | Preserving a consumption context for a user session |
US8832721B2 (en) * | 2012-11-12 | 2014-09-09 | Mobitv, Inc. | Video efficacy measurement |
US9544647B2 (en) | 2012-11-21 | 2017-01-10 | Google Technology Holdings LLC | Attention-based advertisement scheduling in time-shifted content |
KR20140072720A (ko) * | 2012-12-05 | 2014-06-13 | 삼성전자주식회사 | 콘텐츠 제공 장치, 콘텐츠 제공 방법, 영상표시장치 및 컴퓨터 판독가능 기록매체 |
WO2014087415A1 (en) * | 2012-12-07 | 2014-06-12 | Hewlett-Packard Development Company, L. P | Creating multimodal objects of user responses to media |
US9721010B2 (en) | 2012-12-13 | 2017-08-01 | Microsoft Technology Licensing, Llc | Content reaction annotations |
KR20140094336A (ko) * | 2013-01-22 | 2014-07-30 | 삼성전자주식회사 | 사용자 감정 추출이 가능한 전자기기 및 전자기기의 사용자 감정 추출방법 |
US9749710B2 (en) * | 2013-03-01 | 2017-08-29 | Excalibur Ip, Llc | Video analysis system |
US9292923B2 (en) | 2013-03-06 | 2016-03-22 | The Nielsen Company (Us), Llc | Methods, apparatus and articles of manufacture to monitor environments |
US9729920B2 (en) * | 2013-03-15 | 2017-08-08 | Arris Enterprises, Inc. | Attention estimation to control the delivery of data and audio/video content |
FR3004054A1 (fr) * | 2013-03-26 | 2014-10-03 | France Telecom | Generation et restitution d'un flux representatif d'un contenu audiovisuel |
US9681186B2 (en) * | 2013-06-11 | 2017-06-13 | Nokia Technologies Oy | Method, apparatus and computer program product for gathering and presenting emotional response to an event |
JP6191278B2 (ja) * | 2013-06-26 | 2017-09-06 | カシオ計算機株式会社 | 情報処理装置、コンテンツ課金システム及びプログラム |
US9264770B2 (en) * | 2013-08-30 | 2016-02-16 | Rovi Guides, Inc. | Systems and methods for generating media asset representations based on user emotional responses |
CN104461222B (zh) * | 2013-09-16 | 2019-02-05 | 联想(北京)有限公司 | 一种信息处理的方法和电子设备 |
US10297287B2 (en) | 2013-10-21 | 2019-05-21 | Thuuz, Inc. | Dynamic media recording |
JP6154728B2 (ja) * | 2013-10-28 | 2017-06-28 | 日本放送協会 | 視聴状態推定装置およびそのプログラム |
CN104681048A (zh) * | 2013-11-28 | 2015-06-03 | 索尼公司 | 多媒体读取控制装置、曲线获取装置、电子设备、曲线提供装置及方法 |
US20160234551A1 (en) * | 2013-12-02 | 2016-08-11 | Dumbstruck, Inc. | Video reaction processing |
EP2882194A1 (en) * | 2013-12-05 | 2015-06-10 | Thomson Licensing | Identification of a television viewer |
US9426525B2 (en) * | 2013-12-31 | 2016-08-23 | The Nielsen Company (Us), Llc. | Methods and apparatus to count people in an audience |
CN104918067A (zh) * | 2014-03-12 | 2015-09-16 | 乐视网信息技术(北京)股份有限公司 | 对视频热度进行曲线处理的方法和系统 |
US9653115B2 (en) | 2014-04-10 | 2017-05-16 | JBF Interlude 2009 LTD | Systems and methods for creating linear video from branched video |
US9832538B2 (en) * | 2014-06-16 | 2017-11-28 | Cisco Technology, Inc. | Synchronizing broadcast timeline metadata |
US20150370806A1 (en) * | 2014-06-19 | 2015-12-24 | BrightSky Labs, Inc. | Visual experience map for media presentations |
US11016728B2 (en) * | 2014-07-09 | 2021-05-25 | International Business Machines Corporation | Enhancing presentation content delivery associated with a presentation event |
WO2016007970A1 (en) | 2014-07-11 | 2016-01-14 | ProSports Technologies, LLC | Whistle play stopper |
US9474933B1 (en) | 2014-07-11 | 2016-10-25 | ProSports Technologies, LLC | Professional workout simulator |
US9305441B1 (en) | 2014-07-11 | 2016-04-05 | ProSports Technologies, LLC | Sensor experience shirt |
US9724588B1 (en) | 2014-07-11 | 2017-08-08 | ProSports Technologies, LLC | Player hit system |
US9398213B1 (en) | 2014-07-11 | 2016-07-19 | ProSports Technologies, LLC | Smart field goal detector |
WO2016007969A1 (en) | 2014-07-11 | 2016-01-14 | ProSports Technologies, LLC | Playbook processor |
CA3032680A1 (en) * | 2014-08-29 | 2016-03-03 | Thuuz, Inc. | Systems and processes for delivering digital video content based upon excitement data |
US10264175B2 (en) | 2014-09-09 | 2019-04-16 | ProSports Technologies, LLC | Facial recognition for event venue cameras |
US9792957B2 (en) | 2014-10-08 | 2017-10-17 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
US10419830B2 (en) | 2014-10-09 | 2019-09-17 | Thuuz, Inc. | Generating a customized highlight sequence depicting an event |
US11863848B1 (en) | 2014-10-09 | 2024-01-02 | Stats Llc | User interface for interaction with customized highlight shows |
US11412276B2 (en) | 2014-10-10 | 2022-08-09 | JBF Interlude 2009 LTD | Systems and methods for parallel track transitions |
US10192583B2 (en) | 2014-10-10 | 2019-01-29 | Samsung Electronics Co., Ltd. | Video editing using contextual data and content discovery using clusters |
US9671862B2 (en) * | 2014-10-15 | 2017-06-06 | Wipro Limited | System and method for recommending content to a user based on user's interest |
US9992553B2 (en) * | 2015-01-22 | 2018-06-05 | Engine Media, Llc | Video advertising system |
JP6417232B2 (ja) * | 2015-02-09 | 2018-10-31 | 日本放送協会 | 映像評価装置およびそのプログラム |
EP3269122A4 (en) * | 2015-03-09 | 2018-01-17 | Telefonaktiebolaget LM Ericsson (publ) | Method, system and device for providing live data streams to content-rendering devices |
JP2016191845A (ja) * | 2015-03-31 | 2016-11-10 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9659218B1 (en) | 2015-04-29 | 2017-05-23 | Google Inc. | Predicting video start times for maximizing user engagement |
US10749923B2 (en) | 2015-06-08 | 2020-08-18 | Apple Inc. | Contextual video content adaptation based on target device |
US10785180B2 (en) * | 2015-06-11 | 2020-09-22 | Oath Inc. | Content summation |
US10198161B2 (en) | 2015-06-18 | 2019-02-05 | Faysee Inc. | Communicating reactions to media content |
US9785834B2 (en) * | 2015-07-14 | 2017-10-10 | Videoken, Inc. | Methods and systems for indexing multimedia content |
US10158983B2 (en) | 2015-07-22 | 2018-12-18 | At&T Intellectual Property I, L.P. | Providing a summary of media content to a communication device |
US9792953B2 (en) * | 2015-07-23 | 2017-10-17 | Lg Electronics Inc. | Mobile terminal and control method for the same |
US10607063B2 (en) * | 2015-07-28 | 2020-03-31 | Sony Corporation | Information processing system, information processing method, and recording medium for evaluating a target based on observers |
KR102376700B1 (ko) | 2015-08-12 | 2022-03-22 | 삼성전자주식회사 | 비디오 컨텐츠 생성 방법 및 그 장치 |
US10460765B2 (en) | 2015-08-26 | 2019-10-29 | JBF Interlude 2009 LTD | Systems and methods for adaptive and responsive video |
CN106503022B (zh) * | 2015-09-08 | 2020-12-01 | 北京邮电大学 | 推送推荐信息的方法和装置 |
US10057651B1 (en) * | 2015-10-05 | 2018-08-21 | Twitter, Inc. | Video clip creation using social media |
US10262555B2 (en) | 2015-10-09 | 2019-04-16 | Microsoft Technology Licensing, Llc | Facilitating awareness and conversation throughput in an augmentative and alternative communication system |
US9679497B2 (en) * | 2015-10-09 | 2017-06-13 | Microsoft Technology Licensing, Llc | Proxies for speech generating devices |
US10148808B2 (en) | 2015-10-09 | 2018-12-04 | Microsoft Technology Licensing, Llc | Directed personal communication for speech generating devices |
US11164548B2 (en) | 2015-12-22 | 2021-11-02 | JBF Interlude 2009 LTD | Intelligent buffering of large-scale video |
US11128853B2 (en) | 2015-12-22 | 2021-09-21 | JBF Interlude 2009 LTD | Seamless transitions in large-scale video |
US20170249558A1 (en) * | 2016-02-29 | 2017-08-31 | Linkedin Corporation | Blending connection recommendation streams |
CN107241622A (zh) * | 2016-03-29 | 2017-10-10 | 北京三星通信技术研究有限公司 | 视频定位处理方法、终端设备及云端服务器 |
US11856271B2 (en) | 2016-04-12 | 2023-12-26 | JBF Interlude 2009 LTD | Symbiotic interactive video |
US10045076B2 (en) * | 2016-11-22 | 2018-08-07 | International Business Machines Corporation | Entertainment content ratings system based on physical expressions of a spectator to scenes of the content |
US11050809B2 (en) | 2016-12-30 | 2021-06-29 | JBF Interlude 2009 LTD | Systems and methods for dynamic weighting of branched video paths |
AU2018263287A1 (en) * | 2017-05-05 | 2020-01-02 | 5i Corporation Pty. Limited | Devices, systems and methodologies configured to enable generation, capture, processing, and/or management of digital media data |
US10922566B2 (en) | 2017-05-09 | 2021-02-16 | Affectiva, Inc. | Cognitive state evaluation for vehicle navigation |
US11062359B2 (en) | 2017-07-26 | 2021-07-13 | Disney Enterprises, Inc. | Dynamic media content for in-store screen experiences |
JP6447681B2 (ja) * | 2017-08-09 | 2019-01-09 | カシオ計算機株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN109547859B (zh) * | 2017-09-21 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 视频片段的确定方法和装置 |
US10636449B2 (en) * | 2017-11-06 | 2020-04-28 | International Business Machines Corporation | Dynamic generation of videos based on emotion and sentiment recognition |
KR102429901B1 (ko) | 2017-11-17 | 2022-08-05 | 삼성전자주식회사 | 부분 영상을 생성하기 위한 전자 장치 및 그의 동작 방법 |
US20190172458A1 (en) | 2017-12-01 | 2019-06-06 | Affectiva, Inc. | Speech analysis for cross-language mental state identification |
EP3503565B1 (en) * | 2017-12-22 | 2022-03-23 | Vestel Elektronik Sanayi ve Ticaret A.S. | Method for determining of at least one content parameter of video data |
US10453496B2 (en) * | 2017-12-29 | 2019-10-22 | Dish Network L.L.C. | Methods and systems for an augmented film crew using sweet spots |
US10834478B2 (en) | 2017-12-29 | 2020-11-10 | Dish Network L.L.C. | Methods and systems for an augmented film crew using purpose |
US10783925B2 (en) | 2017-12-29 | 2020-09-22 | Dish Network L.L.C. | Methods and systems for an augmented film crew using storyboards |
US10257578B1 (en) | 2018-01-05 | 2019-04-09 | JBF Interlude 2009 LTD | Dynamic library display for interactive videos |
US10419790B2 (en) * | 2018-01-19 | 2019-09-17 | Infinite Designs, LLC | System and method for video curation |
US11373404B2 (en) | 2018-05-18 | 2022-06-28 | Stats Llc | Machine learning for recognizing and interpreting embedded information card content |
US11232816B2 (en) | 2018-05-25 | 2022-01-25 | Sukyung Kim | Multi-window viewing system including editor for reaction video and method for producing reaction video by using same |
US11601721B2 (en) * | 2018-06-04 | 2023-03-07 | JBF Interlude 2009 LTD | Interactive video dynamic adaptation and user profiling |
US11264048B1 (en) | 2018-06-05 | 2022-03-01 | Stats Llc | Audio processing for detecting occurrences of loud sound characterized by brief audio bursts |
US11025985B2 (en) | 2018-06-05 | 2021-06-01 | Stats Llc | Audio processing for detecting occurrences of crowd noise in sporting event television programming |
CN110611824B (zh) * | 2018-06-14 | 2021-12-24 | 连株式会社 | 精彩视频产生方法、使用其的精彩视频产生装置以及介质 |
US10701416B2 (en) * | 2018-10-12 | 2020-06-30 | Disney Enterprises, Inc. | Content promotion through automated curation of content clips |
JP6754412B2 (ja) * | 2018-11-07 | 2020-09-09 | スカパーJsat株式会社 | 体験記録システム及び体験記録方法 |
JP2020077229A (ja) * | 2018-11-08 | 2020-05-21 | スカパーJsat株式会社 | コンテンツ評価システム及びコンテンツ評価方法 |
US10983812B2 (en) * | 2018-11-19 | 2021-04-20 | International Business Machines Corporation | Replaying interactions with a graphical user interface (GUI) presented in a video stream of the GUI |
US10943125B1 (en) | 2018-12-13 | 2021-03-09 | Facebook, Inc. | Predicting highlights for media content |
US10798425B1 (en) | 2019-03-24 | 2020-10-06 | International Business Machines Corporation | Personalized key object identification in a live video stream |
US11887383B2 (en) | 2019-03-31 | 2024-01-30 | Affectiva, Inc. | Vehicle interior object management |
WO2020242435A1 (en) * | 2019-05-24 | 2020-12-03 | Hewlett-Packard Development Company, L.P. | Embedded indicators |
US11490047B2 (en) | 2019-10-02 | 2022-11-01 | JBF Interlude 2009 LTD | Systems and methods for dynamically adjusting video aspect ratios |
US11798282B1 (en) | 2019-12-18 | 2023-10-24 | Snap Inc. | Video highlights with user trimming |
US11610607B1 (en) | 2019-12-23 | 2023-03-21 | Snap Inc. | Video highlights with user viewing, posting, sending and exporting |
US11769056B2 (en) | 2019-12-30 | 2023-09-26 | Affectiva, Inc. | Synthetic data for neural network training using vectors |
US11538499B1 (en) * | 2019-12-30 | 2022-12-27 | Snap Inc. | Video highlights with auto trimming |
US11245961B2 (en) | 2020-02-18 | 2022-02-08 | JBF Interlude 2009 LTD | System and methods for detecting anomalous activities for interactive videos |
US11843820B2 (en) * | 2021-01-08 | 2023-12-12 | Sony Interactive Entertainment LLC | Group party view and post viewing digital content creation |
US11750883B2 (en) * | 2021-03-26 | 2023-09-05 | Dish Network Technologies India Private Limited | System and method for using personal computing devices to determine user engagement while viewing an audio/video program |
US11997321B2 (en) * | 2021-04-22 | 2024-05-28 | Shopify Inc. | Systems and methods for controlling transmission of live media streams |
US11882337B2 (en) | 2021-05-28 | 2024-01-23 | JBF Interlude 2009 LTD | Automated platform for generating interactive videos |
US11849160B2 (en) * | 2021-06-22 | 2023-12-19 | Q Factor Holdings LLC | Image analysis system |
US11934477B2 (en) | 2021-09-24 | 2024-03-19 | JBF Interlude 2009 LTD | Video player integration within websites |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6708335B1 (en) * | 1999-08-18 | 2004-03-16 | Webtv Networks, Inc. | Tracking viewing behavior of advertisements on a home entertainment system |
US9292516B2 (en) * | 2005-02-16 | 2016-03-22 | Sonic Solutions Llc | Generation, organization and/or playing back of content based on incorporated parameter identifiers |
WO2002080027A1 (en) * | 2001-03-29 | 2002-10-10 | British Telecommunications Public Limited Company | Image processing |
US8561095B2 (en) * | 2001-11-13 | 2013-10-15 | Koninklijke Philips N.V. | Affective television monitoring and control in response to physiological data |
US6585521B1 (en) * | 2001-12-21 | 2003-07-01 | Hewlett-Packard Development Company, L.P. | Video indexing based on viewers' behavior and emotion feedback |
US7607097B2 (en) * | 2003-09-25 | 2009-10-20 | International Business Machines Corporation | Translating emotion to braille, emoticons and other special symbols |
EP1582965A1 (en) * | 2004-04-01 | 2005-10-05 | Sony Deutschland Gmbh | Emotion controlled system for processing multimedia data |
US20050289582A1 (en) * | 2004-06-24 | 2005-12-29 | Hitachi, Ltd. | System and method for capturing and using biometrics to review a product, service, creative work or thing |
US7689556B2 (en) * | 2005-01-31 | 2010-03-30 | France Telecom | Content navigation service |
US20060218573A1 (en) * | 2005-03-04 | 2006-09-28 | Stexar Corp. | Television program highlight tagging |
US20070214471A1 (en) * | 2005-03-23 | 2007-09-13 | Outland Research, L.L.C. | System, method and computer program product for providing collective interactive television experiences |
US20060224046A1 (en) * | 2005-04-01 | 2006-10-05 | Motorola, Inc. | Method and system for enhancing a user experience using a user's physiological state |
US7742111B2 (en) * | 2005-05-06 | 2010-06-22 | Mavs Lab. Inc. | Highlight detecting circuit and related method for audio feature-based highlight segment detection |
US20070203426A1 (en) * | 2005-10-20 | 2007-08-30 | Kover Arthur J | Method and apparatus for obtaining real time emotional response data over a communications network |
US20070150916A1 (en) * | 2005-12-28 | 2007-06-28 | James Begole | Using sensors to provide feedback on the access of digital content |
US20070265507A1 (en) * | 2006-03-13 | 2007-11-15 | Imotions Emotion Technology Aps | Visual attention and emotional response detection and display system |
KR100763236B1 (ko) * | 2006-05-09 | 2007-10-04 | 삼성전자주식회사 | 생체 신호를 이용하는 동영상 편집 장치 및 방법 |
US20080103907A1 (en) * | 2006-10-25 | 2008-05-01 | Pudding Ltd. | Apparatus and computer code for providing social-network dependent information retrieval services |
US20080155587A1 (en) * | 2006-12-20 | 2008-06-26 | General Instrument Corporation | Video Content Targeting System and Method |
JP2008205861A (ja) * | 2007-02-20 | 2008-09-04 | Matsushita Electric Ind Co Ltd | 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体 |
US20090088610A1 (en) * | 2007-03-02 | 2009-04-02 | Lee Hans C | Measuring Physiological Response to Media for Viewership Modeling |
US20080295126A1 (en) * | 2007-03-06 | 2008-11-27 | Lee Hans C | Method And System For Creating An Aggregated View Of User Response Over Time-Variant Media Using Physiological Data |
JP4539712B2 (ja) * | 2007-12-03 | 2010-09-08 | ソニー株式会社 | 情報処理端末、情報処理方法、およびプログラム |
JP4538756B2 (ja) * | 2007-12-03 | 2010-09-08 | ソニー株式会社 | 情報処理装置、情報処理端末、情報処理方法、およびプログラム |
JP5020838B2 (ja) * | 2008-01-29 | 2012-09-05 | ヤフー株式会社 | 視聴反応共有システム、視聴反応管理サーバ及び視聴反応共有方法 |
JPWO2010001512A1 (ja) * | 2008-07-03 | 2011-12-15 | パナソニック株式会社 | 印象度抽出装置および印象度抽出方法 |
JP2010026871A (ja) * | 2008-07-22 | 2010-02-04 | Nikon Corp | 情報処理装置及び情報処理システム |
US8925001B2 (en) * | 2008-09-12 | 2014-12-30 | At&T Intellectual Property I, L.P. | Media stream generation based on a category of user expression |
US20100107075A1 (en) * | 2008-10-17 | 2010-04-29 | Louis Hawthorne | System and method for content customization based on emotional state of the user |
JP2010206447A (ja) * | 2009-03-03 | 2010-09-16 | Panasonic Corp | 視聴端末装置、サーバ装置および参加型番組共有システム |
US8161504B2 (en) * | 2009-03-20 | 2012-04-17 | Nicholas Newell | Systems and methods for memorializing a viewer's viewing experience with captured viewer images |
US20120114312A1 (en) * | 2009-03-25 | 2012-05-10 | Eloy Technology, Llc | Method and system for determining the availability of a media controller |
KR101708682B1 (ko) * | 2010-03-03 | 2017-02-21 | 엘지전자 주식회사 | 영상표시장치 및 그 동작 방법. |
US20110154386A1 (en) * | 2009-12-22 | 2011-06-23 | Telcordia Technologies, Inc. | Annotated advertisement referral system and methods |
US8438590B2 (en) * | 2010-09-22 | 2013-05-07 | General Instrument Corporation | System and method for measuring audience reaction to media content |
US20120174032A1 (en) * | 2010-12-30 | 2012-07-05 | Trusted Opionion, Inc. | System and Method for Displaying Responses from a Plurality of Users to an Event |
US9026476B2 (en) * | 2011-05-09 | 2015-05-05 | Anurag Bist | System and method for personalized media rating and related emotional profile analytics |
US8676937B2 (en) * | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
-
2011
- 2011-06-17 US US13/163,379 patent/US20120324491A1/en not_active Abandoned
-
2012
- 2012-04-18 TW TW101113799A patent/TW201301891A/zh unknown
- 2012-06-15 CN CN201280029616.0A patent/CN103609128A/zh active Pending
- 2012-06-15 WO PCT/US2012/042672 patent/WO2012174381A2/en unknown
- 2012-06-15 EP EP12800522.0A patent/EP2721831A4/en not_active Withdrawn
- 2012-06-15 KR KR1020137033342A patent/KR20140045412A/ko not_active Application Discontinuation
- 2012-06-15 JP JP2014516032A patent/JP2014524178A/ja active Pending
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108992052A (zh) * | 2014-03-14 | 2018-12-14 | 上海万泽精密铸造有限公司 | 便于随身隐蔽携带的自闭症患者用随身佩戴装置 |
CN104837036A (zh) * | 2014-03-18 | 2015-08-12 | 腾讯科技(北京)有限公司 | 生成视频看点的方法、服务器、终端及系统 |
CN104837059A (zh) * | 2014-04-15 | 2015-08-12 | 腾讯科技(北京)有限公司 | 视频处理方法、装置和系统 |
CN106464956A (zh) * | 2014-05-21 | 2017-02-22 | Pcms控股公司 | 触发视频录制的用户兴趣阈值的环境调节的方法和系统 |
US10448098B2 (en) | 2014-05-21 | 2019-10-15 | Pcms Holdings, Inc. | Methods and systems for contextual adjustment of thresholds of user interestedness for triggering video recording |
US11778287B2 (en) | 2014-10-09 | 2023-10-03 | Stats Llc | Generating a customized highlight sequence depicting multiple events |
CN107148781B (zh) * | 2014-10-09 | 2021-07-13 | 斯特兹公司 | 用于产生定制高光序列的方法、系统、计算机可读媒体 |
CN107148781A (zh) * | 2014-10-09 | 2017-09-08 | 图兹公司 | 产生描绘一或多个事件的定制高光序列 |
US11882345B2 (en) | 2014-10-09 | 2024-01-23 | Stats Llc | Customized generation of highlights show with narrative component |
CN104349206A (zh) * | 2014-11-26 | 2015-02-11 | 乐视致新电子科技(天津)有限公司 | 一种电视信息处理方法、装置及系统 |
CN105898340A (zh) * | 2015-11-30 | 2016-08-24 | 乐视网信息技术(北京)股份有限公司 | 现场直播中的关键点提示方法、服务器、用户终端和系统 |
CN108293150A (zh) * | 2015-12-22 | 2018-07-17 | 英特尔公司 | 情绪定时媒体回放 |
WO2017113701A1 (zh) * | 2015-12-29 | 2017-07-06 | 乐视控股(北京)有限公司 | 制作视频集锦的方法、装置、电子设备、服务器及系统 |
CN105872765A (zh) * | 2015-12-29 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 制作视频集锦的方法、装置、电子设备、服务器及系统 |
CN107809673B (zh) * | 2016-09-09 | 2021-08-06 | 索尼公司 | 根据情绪状态检测处理视频内容的系统和方法 |
CN107809673A (zh) * | 2016-09-09 | 2018-03-16 | 索尼公司 | 根据情绪状态检测处理视频内容的系统和方法 |
US10529379B2 (en) | 2016-09-09 | 2020-01-07 | Sony Corporation | System and method for processing video content based on emotional state detection |
CN106802946A (zh) * | 2017-01-12 | 2017-06-06 | 合网络技术(北京)有限公司 | 视频分析方法及装置 |
CN106802946B (zh) * | 2017-01-12 | 2020-03-27 | 合一网络技术(北京)有限公司 | 视频分析方法及装置 |
CN107071579A (zh) * | 2017-03-02 | 2017-08-18 | 合网络技术(北京)有限公司 | 多媒体资源处理方法及装置 |
CN108932451A (zh) * | 2017-05-22 | 2018-12-04 | 北京金山云网络技术有限公司 | 音视频内容分析方法及装置 |
US10511888B2 (en) | 2017-09-19 | 2019-12-17 | Sony Corporation | Calibration system for audience response capture and analysis of media content |
CN111052751A (zh) * | 2017-09-19 | 2020-04-21 | 索尼公司 | 用于媒体内容的观众响应捕获和分析的校准系统 |
US11218771B2 (en) | 2017-09-19 | 2022-01-04 | Sony Corporation | Calibration system for audience response capture and analysis of media content |
CN111052751B (zh) * | 2017-09-19 | 2022-02-01 | 索尼公司 | 用于媒体内容的观众响应捕获和分析的校准系统 |
WO2019140784A1 (zh) * | 2018-01-18 | 2019-07-25 | 深圳光峰科技股份有限公司 | 一种播放影片的方法、影片播放机及影片服务器 |
CN108391164B (zh) * | 2018-02-24 | 2020-08-21 | Oppo广东移动通信有限公司 | 视频解析方法及相关产品 |
CN110418148B (zh) * | 2019-07-10 | 2021-10-29 | 咪咕文化科技有限公司 | 视频生成方法、视频生成设备及可读存储介质 |
CN110418148A (zh) * | 2019-07-10 | 2019-11-05 | 咪咕文化科技有限公司 | 视频生成方法、视频生成设备及可读存储介质 |
WO2022048347A1 (zh) * | 2020-09-02 | 2022-03-10 | 华为技术有限公司 | 一种视频编辑方法及设备 |
CN114205534A (zh) * | 2020-09-02 | 2022-03-18 | 华为技术有限公司 | 一种视频编辑方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
EP2721831A4 (en) | 2015-04-15 |
US20120324491A1 (en) | 2012-12-20 |
EP2721831A2 (en) | 2014-04-23 |
KR20140045412A (ko) | 2014-04-16 |
JP2014524178A (ja) | 2014-09-18 |
TW201301891A (zh) | 2013-01-01 |
WO2012174381A3 (en) | 2013-07-11 |
WO2012174381A2 (en) | 2012-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103609128A (zh) | 基于环境传感的视频精彩片段标识 | |
CN103621104B (zh) | 基于兴趣的视频流 | |
US9363546B2 (en) | Selection of advertisements via viewer feedback | |
TWI558186B (zh) | 基於環境感測之視訊選擇 | |
CN106605218B (zh) | 收集和处理与基于网络的内容的交互过程中的计算机用户数据的方法 | |
CN105339969B (zh) | 链接的广告 | |
US9646046B2 (en) | Mental state data tagging for data collected from multiple sources | |
WO2009097337A1 (en) | Laugh detector and system and method for tracking an emotional response to a media presentation | |
CN116484318B (zh) | 一种演讲训练反馈方法、装置及存储介质 | |
US20140325540A1 (en) | Media synchronized advertising overlay | |
WO2021028463A1 (en) | System and method for collecting data to assess effectiveness of displayed content | |
WO2014106216A1 (en) | Collection of affect data from multiple mobile devices | |
EP3114846A1 (en) | Character based media analytics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150728 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20150728 Address after: Washington State Applicant after: Micro soft technique license Co., Ltd Address before: Washington State Applicant before: Microsoft Corp. |
|
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140226 |