CN106303675B - 一种视频片段提取方法和装置 - Google Patents
一种视频片段提取方法和装置 Download PDFInfo
- Publication number
- CN106303675B CN106303675B CN201610720779.3A CN201610720779A CN106303675B CN 106303675 B CN106303675 B CN 106303675B CN 201610720779 A CN201610720779 A CN 201610720779A CN 106303675 B CN106303675 B CN 106303675B
- Authority
- CN
- China
- Prior art keywords
- user
- video
- barrage text
- emotion
- emotion attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/466—Learning process for intelligent management, e.g. learning user preferences for recommending movies
- H04N21/4667—Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种视频片段提取方法和装置,包括步骤:分别对用户弹幕文本情感、用户拖拽视频行为数据进行分析;对上述两者的分析数据进行加权融合得到视频片段的精彩值。本发明提高了发掘精彩视频片段的准确性,从而提升了用户对视频网站的忠诚度。
Description
技术领域
本发明涉及视频技术领域,特别是涉及一种视频片段提取方法和装置。
背景技术
随着互联网技术的快速发展,以及视频制作成本的大幅缩减,以至互联网中视频的总时长成指数级的增长。以某网站例,每分钟生产和用户上传的视频总时长数达数十小时,用户根本不可能在一分钟内观看数十小时的视频。因此,只有筛选出用户感兴趣的视频片段,过滤用户不感兴趣的视频片段,才能更好的满足用户的需求,更好的为用户服务,提升用户的忠诚度,最终增加用户访问该网站的的频次和单次访问的时长,进而留住用户。因此,需要通过技术手段,为用户筛选出某个几百小时的电视剧或者某个几个小时的综艺节目中的精彩视频片段。
现有视频片段提取技术中,获取用户视频片段的方法包括:根据用户操作视频播放器和观看视频的行为,得到实际观看比例值,大于一定阈值的作为精彩片段。然后,根据视频图像信息,采用图像处理算法提取视频的精彩片段。
但对于现有技术中这种采用实际观看比例值的方法,当用户数据较少时,准确性显然不够。
因此,如何提供一种准确有效的精彩视频片段提取方法和装置成为亟待解决的技术问题。
发明内容
本发明实施例提供一种视频片段提取方法和装置,用以解决现有技术中精彩视频片段提取准确度低的缺陷,实现精彩视频片段高准确率的提取。
为了解决上述问题,本发明公开了一种视频片段提取方法,其中,包括步骤:
分别对用户弹幕文本情感、用户拖拽视频行为数据进行分析;
对上述两者的分析数据进行加权融合得到视频片段的精彩值。
本发明所述的方法,其中,所述用户弹幕文本情感进行分析的步骤进一步包括:
对用户弹幕文本进行分词,
对所述得到的分词进行词性标注,只保留否定词及情感词;
根据预先设置的情感词典,对词性标注保留的分词生成特征向量;
根据分词的特征向量计算得到用户弹幕文本的褒义情感属性A1、用户弹幕文本的贬义情感属性A3、用户弹幕文本的中性情感属性A2;
根据弹幕文本的情感属性对预设时间的视频拖拽次数值进行调整。
本发明所述的方法,其中,所述对用户拖拽视频行为数据进行分析进一步包括:
解析视频程序用户日志,计算得到所有用户在整个视频中每秒正常观看次数值和拖拽次数值。
本发明所述的方法,其中,
所述所有用户在整个视频中每秒的拖拽次数值等于快退次数减去快进次数。
本发明所述的方法,其中,所述对上述两者的分析数据进行加权融合得到视频片段的精彩值的步骤进一步包括:
视频片段的精彩值为拖拽次数、用户弹幕文本褒义情感属性A1、用户弹幕文本中性情感属性A2、用户弹幕文本贬义情感属性A3及正常观看次数之和除以正常观看次数。
为了解决上述问题,本发明还公开了一种视频片段提取装置,其中,包括:
用户弹幕文本分析模块,用于对用户弹幕文本情感数据进行分析;
用户拖拽视频行为分析模块,用于对用户拖拽视频行为数据进行分析;
分析结果数据加权融合模块,用于根据用户弹幕文本分析模块及用户拖拽视频行为分析模块得到的分析数据进行加权融合得到视频片段的精彩值。
本发明所述的装置,其中,
所述用户弹幕文本分析模块,进一步用于对用户弹幕文本情感数据进行分析得到用户弹幕文本褒义情感属性A1、用户弹幕文本中性情感属性A2、用户弹幕文本贬义情感属性A3,及根据弹幕文本的情感属性对预设时间的视频拖拽数值进行调整;
所述用户拖拽视频行为分析模块,进一步用于对用户拖拽视频行为数据进行分析得到所有用户在整个视频中每秒正常观看次数值和拖拽次数值。
所述分析结果数据加权融合模块,进一步用于根据拖拽次数、用户弹幕文本褒义情感属性A1、用户弹幕文本中性情感属性A2、用户弹幕文本贬义情感属性A3及正常观看次数之和除以正常观看次数得到视频片段的精彩值。
本发明所述的装置,其中,所述用户弹幕文本分析模块进一步包括:
分词生成子模块,用于对弹幕文本进行分词;
词性标注生成子模块,用于对分词生成子模块得到的分词进行词性标注,并去掉名词,保留否定词及情感词;
特征向量生成子模块,用于根据预先设置的情感词典,对词性标注生成子模块根据词性标注保留的分词生成特征向量;
情感属性生成子模块,用于根据特征向量生成子模块生成的分词特征向量计算得到用户弹幕文本褒义的情感属性A1、用户弹幕文本的贬义情感属性A3、用户弹幕文本的中性情感属性A2;
视频拖拽次数值调整子模块,用于根据情感属性生成子模块生成的弹幕文本的情感属性对预设时间的视频拖拽次数值进行调整。
本发明所述的装置,其中,所述用户拖拽视频行为分析模块进一步包括:
正常观看次数值及拖拽次数值计算子模块,用于解析视频程序用户日志,计算得到所有用户在整个视频中每秒正常观看次数值和拖拽次数值。
本发明所述的装置,其中,
所述正常观看次数值及拖拽次数值计算子模块,进一步用于通过快退次数减去快进次数计算所有用户在整个视频中每秒的拖拽次数值。
本发明实施例提供的一种视频片段提取方法及装置,通过分别对用户弹幕文本情感、用户拖拽视频行为数据进行分析;对上述两者的分析数据进行加权融合得到视频片段的精彩值。提高了发掘精彩视频片段的准确性,从而提升了用户对视频网站的忠诚度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一种视频片段提取方法实施例的步骤流程图;
图2是本发明一种视频片段提取方法中用户弹幕数据分析实施例的步骤流程图;
图3是本发明一种视频片段提取方法中用户播放行为数据分析实施例的步骤流程图;
图4是本发明一种视频片段提取装置实施例的结构框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
参照图1,示出了本发明一种视频片段提取方法实施例的步骤流程图。
本实施例的一种视频片段提取方法包括以下步骤:
步骤101:对用户弹幕文本情感数据进行分析;
步骤102:用户拖拽视频行为数据进行分析;
步骤103:对上述两者的分析数据进行加权融合得到视频片段的精彩值。之后,可以根据精彩值进行精彩视频片段的提取。本步骤中,视频片段的精彩值为拖拽次数、用户弹幕文本褒义情感属性、用户弹幕文本中性情感属性、用户弹幕文本贬义情感属性及正常观看次数之和除以正常观看次数。
本方法实施例通过对用户弹幕文本情感数据及用户拖拽视频行为数据的分析,并将两者分析数据加权融合,得到视频片段的精彩值。提高了发掘精彩视频片段的准确性,从而提升了用户对视频网站的忠诚度。
实施例二
参照图2,示出了本发明一种视频片段提取方法中用户弹幕数据分析实施例的步骤流程图。
本实施例的视频片段提取方法中用户弹幕数据分析具体包括以下步骤:
步骤201:对用户弹幕文本进行分词,本实施例中可以采用HMM分词模型或者借助开源工具对弹幕文本进行分词。
步骤202:对所述得到的分词进行词性标注,并去掉名词,保留否定词及情感词;这里通过去掉名词等无情感的词语,保留情感词语和否定词。
步骤203:根据预先设置的情感词典,对词性标注保留的分词生成特征向量;例如否定词设置为0,情感词根据查找情感词典,褒义设置为正值,贬义设置为负值。本步骤中先设置的情感词典根据训练样本中的情感词的TF-IDF值计算得到。在本步骤中,我们训练模型采用了SVM支持向量机算法,首先,训练样本中事先标注好褒义、贬义、中性的短文本语句,进行特征处理和提取,输入为上述的特征向量,然后用支持向量机(SVM)算法,训练得到文本情感分类模型。SVM采用核函数进行非线性映射,将原训练数据映射到较高的维。从而使得高维特征空间采用线性算法对样本的非线性特征进行线性分析成为可能,本发明采用了径向基函数核函数。
步骤204:根据分词的特征向量计算得到用户弹幕文本的褒义情感属性A1、用户弹幕文本的贬义情感属性A3、用户弹幕文本的中性情感属性A2。
步骤205:根据弹幕文本的情感属性对预设时间如用户弹幕时间点前后2*文本长度个秒的视频拖拽次数值进行调整。在本步骤中,发送弹幕文本时间点前后的2*文本字数秒的托拽数增加A1、A2、A3。其中褒义:A1,贬义:A3,中性:A2,A1>A2>A3,A3为负数。从而得到弹幕每一秒的文本托拽数,即所有用户每一秒的(A1+A2+A3)。
实施例三
参照图3,示出了本发明一种视频片段提取方法中用户播放行为数据分析实施例的步骤流程图。
本实施例的视频片段提取方法中用户播放行为数据分析的步骤流程图,包括:
步骤301:解析视频程序用户日志,
步骤302:计算得到所有用户在整个视频中每秒正常观看次数值和拖拽次数值。本步骤中,正常观看次数指的是用户没有拖拽行为的观看次数。所有用户在整个视频中每秒的拖拽次数值等于快退次数减去快进次数。本步骤中,快退次数指用户观看视频时快退观看的次数,快进次数指的是用户观看视频时快进观看的次数。
实施例四
参照图4,示出了本发明一种视频片段提取装置实施例的结构框图。
本实施例的视频片段提取装置401,包括:用户弹幕文本分析模块402、用户拖拽视频行为分析模块403、分析结果数据加权融合模块404;其中,用户弹幕文本分析模块402还包括:分词生成子模块405、词性标注生成子模块406、特征向量生成子模块407、情感属性生成子模块408、视频拖拽数值调整子模块409;用户拖拽视频行为分析模块403还包括:正常观看数值及拖拽次数值计算子模块410。
本实施例中,
用户弹幕文本分析模块402,用于对用户弹幕文本情感数据进行分析;例如,用于对用户弹幕文本情感数据进行分析得到用户弹幕文本褒义情感属性A1、用户弹幕文本中性情感属性A2、用户弹幕文本贬义情感属性A3,及根据弹幕文本的情感属性对预设时间,例如用户弹幕时间点前后2*文本长度个秒的视频拖拽数值进行调整。
分词生成子模块405,用于对弹幕文本进行分词;
词性标注生成子模块406,用于对分词生成子模块得到的分词进行词性标注,并去掉名词,保留否定词及情感词;
特征向量生成子模块407,用于根据预先设置的情感词典,对词性标注生成子模块根据词性标注保留的分词生成特征向量;
情感属性生成子模块408,用于根据特征向量生成子模块生成的分词特征向量计算得到用户弹幕文本的褒义情感属性A1、用户弹幕文本的贬义情感属性A3、用户弹幕文本的中性情感属性A2;
视频拖拽次数值调整子模块409,用于根据情感属性生成子模块生成的弹幕文本的情感属性对设时间,例如用户弹幕时间点前后2*文本长度个秒的视频拖拽次数值进行调整。
用户拖拽视频行为分析模块403,用于对用户拖拽视频行为数据进行分析;例如,用于对用户拖拽视频行为数据进行分析得到所有用户在整个视频中每秒正常观看次数值和拖拽次数值。本实施例中,正常观看次数指的是用户没有拖拽行为的观看次数。
正常观看次数值及拖拽次数值计算子模块410,用于解析视频程序用户日志,计算得到所有用户在整个视频中每秒正常观看次数值和拖拽次数值。本实施例中,所有用户在整个视频中每秒的拖拽次数值等于快退次数减去快进次数。本实施例中,快退次数指用户观看视频时快退观看的次数,快进次数指的是用户观看视频时快进观看的次数。
分析结果数据加权融合模块404,用于根据用户弹幕文本分析模块及用户拖拽视频行为分析模块得到的分析数据进行加权融合得到视频片段的精彩值。例如,根据拖拽次数、用户弹幕文本褒义情感属性A1、用户弹幕文本中性情感属性A2、用户弹幕文本贬义情感属性A3及正常观看次数之和除以正常观看次数得到视频片段的精彩值。
本实施例的视频片段提取装置用于实现前述实施例一、二以及实施例三中相应的视频片段提取方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (6)
1.一种视频片段提取方法,其特征在于,包括步骤:
分别对用户弹幕文本情感、用户拖拽视频行为数据进行分析;
对上述分析数据进行加权融合得到视频片段的精彩值;
所述对用户弹幕文本情感进行分析,包括:
对用户弹幕文本进行分词;
对得到的分词进行词性标注,只保留否定词及情感词;
根据预先设置的情感词典,对词性标注保留的分词生成特征向量;
根据分词的特征向量计算得到用户弹幕文本的褒义情感属性A1、用户弹幕文本的贬义情感属性A3、用户弹幕文本的中性情感属性A2;
根据弹幕文本的情感属性对预设时间的拖拽次数值进行调整;
所述对上述分析数据进行加权融合得到视频片段的精彩值,包括:视频片段的精彩值为拖拽次数、用户弹幕文本褒义情感属性A1、用户弹幕文本中性情感属性A2、用户弹幕文本贬义情感属性A3及正常观看次数之和除以正常观看次数;
其中,所述拖拽次数值等于快退次数减去快进次数。
2.根据权利要求1所述的方法,其特征在于,所述对用户拖拽视频行为数据进行分析,包括:
解析视频程序用户日志,计算得到所有用户在整个视频中每秒正常观看次数值和拖拽次数值。
3.一种视频片段提取装置,其特征在于包括:
用户弹幕文本分析模块,用于对用户弹幕文本情感数据进行分析;
用户拖拽视频行为分析模块,用于对用户拖拽视频行为数据进行分析;
分析结果数据加权融合模块,用于根据用户弹幕文本分析模块及用户拖拽视频行为分析模块得到的分析数据进行加权融合得到视频片段的精彩值;
所述用户弹幕文本分析模块进一步包括:
分词生成子模块,用于对弹幕文本进行分词;
词性标注生成子模块,用于对分词生成子模块得到的分词进行词性标注,并去掉名词,保留否定词及情感词;
特征向量生成子模块,用于根据预先设置的情感词典,对词性标注生成子模块根据词性标注保留的分词生成特征向量;
情感属性生成子模块,用于根据特征向量生成子模块生成的分词特征向量计算得到用户弹幕文本褒义的情感属性A1、用户弹幕文本的贬义情感属性A3、用户弹幕文本的中性情感属性A2;
视频拖拽次数值调整子模块,用于根据情感属性生成子模块生成的弹幕文本的情感属性对预设时间的拖拽次数值进行调整;
所述分析结果数据加权融合模块,进一步用于根据拖拽次数、用户弹幕文本褒义情感属性A1、用户弹幕文本中性情感属性A2、用户弹幕文本贬义情感属性A3及正常观看次数之和除以正常观看次数得到视频片段的精彩值;
其中,所述拖拽次数值等于快退次数减去快进次数。
4.根据权利要求3所述的装置,其特征在于:
所述用户弹幕文本分析模块,进一步用于对用户弹幕文本情感数据进行分析得到用户弹幕文本褒义情感属性A1、用户弹幕文本中性情感属性A2、用户弹幕文本贬义情感属性A3,及根据弹幕文本的情感属性对预设时间的视频拖拽数值进行调整;
所述用户拖拽视频行为分析模块,进一步用于对用户拖拽视频行为数据进行分析得到所有用户在整个视频中每秒正常观看次数值和拖拽次数值;
其中,所述根据弹幕文本的情感属性对预设时间的视频拖拽数值进行调整,包括:对所述预设时间内的拖拽次数值增加褒义情感属性A1、中性情感属性A2、贬义情感属性A3。
5.根据权利要求4所述的装置,其特征在于所述用户拖拽视频行为分析模块进一步包括:
正常观看次数值及拖拽次数值计算子模块,用于解析视频程序用户日志,计算得到所有用户在整个视频中每秒正常观看次数值和拖拽次数值。
6.根据权利要求5所述的装置,其特征在于:
所述正常观看次数值及拖拽次数值计算子模块,进一步用于通过快退次数减去快进次数计算所有用户在整个视频中每秒的拖拽次数值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610720779.3A CN106303675B (zh) | 2016-08-24 | 2016-08-24 | 一种视频片段提取方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610720779.3A CN106303675B (zh) | 2016-08-24 | 2016-08-24 | 一种视频片段提取方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106303675A CN106303675A (zh) | 2017-01-04 |
CN106303675B true CN106303675B (zh) | 2019-11-15 |
Family
ID=57616461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610720779.3A Active CN106303675B (zh) | 2016-08-24 | 2016-08-24 | 一种视频片段提取方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106303675B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107071579A (zh) * | 2017-03-02 | 2017-08-18 | 合网络技术(北京)有限公司 | 多媒体资源处理方法及装置 |
CN107071587A (zh) * | 2017-04-25 | 2017-08-18 | 腾讯科技(深圳)有限公司 | 视频片段的获取方法及装置 |
CN107247919A (zh) * | 2017-04-28 | 2017-10-13 | 深圳大学 | 一种视频情感内容的获取方法及系统 |
CN107396144B (zh) * | 2017-06-30 | 2019-08-02 | 武汉斗鱼网络科技有限公司 | 一种弹幕分发方法及装置 |
CN108595477B (zh) * | 2018-03-12 | 2021-10-15 | 北京奇艺世纪科技有限公司 | 一种视频数据的处理方法和装置 |
CN108537139B (zh) * | 2018-03-20 | 2021-02-19 | 校宝在线(杭州)科技股份有限公司 | 一种基于弹幕信息的在线视频精彩片段分析方法 |
CN108924644B (zh) * | 2018-06-20 | 2021-11-26 | 阿里巴巴(中国)有限公司 | 视频片段提取方法及装置 |
CN109189985B (zh) * | 2018-08-17 | 2020-10-09 | 北京达佳互联信息技术有限公司 | 文本风格处理方法、装置、电子设备及存储介质 |
CN110198482B (zh) * | 2019-04-11 | 2022-05-20 | 华东理工大学 | 一种视频重点桥段标注方法、终端及存储介质 |
CN112492370A (zh) * | 2019-09-12 | 2021-03-12 | 上海哔哩哔哩科技有限公司 | 进度条的展示方法、装置、计算机设备及可读存储介质 |
CN111277861B (zh) * | 2020-02-21 | 2023-02-24 | 北京百度网讯科技有限公司 | 提取视频中热点片段的方法以及装置 |
CN112752133B (zh) * | 2020-03-20 | 2024-05-10 | 深圳市雅阅科技有限公司 | 视频播放方法、装置、电子设备以及存储介质 |
CN113497946B (zh) * | 2020-03-20 | 2024-05-31 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、电子设备和存储介质 |
CN111669656B (zh) * | 2020-06-19 | 2022-12-02 | 北京奇艺世纪科技有限公司 | 一种视频片段的精彩程度确定方法及装置 |
CN112532897B (zh) * | 2020-11-25 | 2022-07-01 | 腾讯科技(深圳)有限公司 | 视频剪辑方法、装置、设备及计算机可读存储介质 |
CN113676749A (zh) * | 2021-08-19 | 2021-11-19 | 重庆师范大学 | 一种具有播放记忆功能的在线视频播放器 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6557042B1 (en) * | 1999-03-19 | 2003-04-29 | Microsoft Corporation | Multimedia summary generation employing user feedback |
CN102487456A (zh) * | 2009-11-30 | 2012-06-06 | 国际商业机器公司 | 用于提供网络视频访问热度的方法和装置 |
CN103501434A (zh) * | 2013-09-17 | 2014-01-08 | 北京奇艺世纪科技有限公司 | 一种视频的质量分析方法及装置 |
CN104756512A (zh) * | 2012-09-10 | 2015-07-01 | 谷歌公司 | 媒体概括 |
CN105095508A (zh) * | 2015-08-31 | 2015-11-25 | 北京奇艺世纪科技有限公司 | 一种多媒体内容推荐方法和多媒体内容推荐装置 |
CN105589941A (zh) * | 2015-12-15 | 2016-05-18 | 北京百分点信息科技有限公司 | 网络文本的情感信息检测方法和装置 |
-
2016
- 2016-08-24 CN CN201610720779.3A patent/CN106303675B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6557042B1 (en) * | 1999-03-19 | 2003-04-29 | Microsoft Corporation | Multimedia summary generation employing user feedback |
CN102487456A (zh) * | 2009-11-30 | 2012-06-06 | 国际商业机器公司 | 用于提供网络视频访问热度的方法和装置 |
CN104756512A (zh) * | 2012-09-10 | 2015-07-01 | 谷歌公司 | 媒体概括 |
CN103501434A (zh) * | 2013-09-17 | 2014-01-08 | 北京奇艺世纪科技有限公司 | 一种视频的质量分析方法及装置 |
CN105095508A (zh) * | 2015-08-31 | 2015-11-25 | 北京奇艺世纪科技有限公司 | 一种多媒体内容推荐方法和多媒体内容推荐装置 |
CN105589941A (zh) * | 2015-12-15 | 2016-05-18 | 北京百分点信息科技有限公司 | 网络文本的情感信息检测方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106303675A (zh) | 2017-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106303675B (zh) | 一种视频片段提取方法和装置 | |
Miech et al. | Howto100m: Learning a text-video embedding by watching hundred million narrated video clips | |
JP6781760B2 (ja) | 複数レイヤの単語表現にわたる言語特徴生成のためのシステム及び方法 | |
CN106446135B (zh) | 一种多媒体数据标签生成方法和装置 | |
US9923860B2 (en) | Annotating content with contextually relevant comments | |
CN107870896B (zh) | 一种对话分析方法及装置 | |
US9310879B2 (en) | Methods and systems for displaying web pages based on a user-specific browser history analysis | |
US10936054B2 (en) | User eye-gaze based derivation of activity stream processing augmentations | |
CN109460512B (zh) | 推荐信息处理方法、装置、设备及存储介质 | |
CN108874832B (zh) | 目标评论确定方法及装置 | |
CN104850617B (zh) | 短文本处理方法及装置 | |
CN106445915B (zh) | 一种新词发现方法及装置 | |
US11392791B2 (en) | Generating training data for natural language processing | |
CN110598095B (zh) | 一种识别包含指定信息文章的方法、装置及存储介质 | |
US20180330278A1 (en) | Processes and techniques for more effectively training machine learning models for topically-relevant two-way engagement with content consumers | |
US20150347392A1 (en) | Real-time filtering of massive time series sets for social media trends | |
US9830533B2 (en) | Analyzing and exploring images posted on social media | |
KR102023516B1 (ko) | 사용자 반응 데이터 분석 방법 및 장치 | |
Singh et al. | Nits-vc system for vatex video captioning challenge 2020 | |
Sihag et al. | A data-driven approach for finding requirements relevant feedback from tiktok and youtube | |
CN113038175A (zh) | 视频处理方法、装置、电子设备及计算机可读存储介质 | |
CN104463231A (zh) | 对表情识别内容标注后进行纠错的方法 | |
CN112650919A (zh) | 实体资讯分析方法、装置、设备及存储介质 | |
US20200142998A1 (en) | Cognitive document quality determination with automated heuristic generation | |
CN106462614B (zh) | 信息分析系统、信息分析方法以及信息分析程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |