CN110162669A - 视频分类处理方法、装置、计算机设备及存储介质 - Google Patents
视频分类处理方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN110162669A CN110162669A CN201910273083.4A CN201910273083A CN110162669A CN 110162669 A CN110162669 A CN 110162669A CN 201910273083 A CN201910273083 A CN 201910273083A CN 110162669 A CN110162669 A CN 110162669A
- Authority
- CN
- China
- Prior art keywords
- vector
- probability
- video
- mode
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本申请涉及一种视频分类处理方法、装置、计算机设备及存储介质,该方法包括:获取目标视频;提取所述目标视频的多模态的数据;对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量;将对应于各模态的概率向量进行组合;根据组合后得到的向量,预测所述目标视频最终属于的类别。本申请的方案,能够提高视频分类的准确性。
Description
技术领域
本发明涉及计算机技术领域,特别是涉及一种视频分类处理方法、装置、计算机设备及存储介质。
背景技术
随着科学技术的飞速发展,大量先进技术不断涌现,视频处理技术即为其中一个非常重要的技术。在视频处理技术的广泛应用中,如何通过机器自动对视频进行准确分类成为一个研究的热点问题。
传统方法中,是通过从视频中抽取视频帧,根据抽取的视频帧来进行分类处理,从而得到视频的类别。由于抽取的视频帧相对于原始的视频来说,信息量减少,因此,基于较少信息量的视频帧来进行分类,导致分类的准确性比较低。
发明内容
基于此,有必要针对传统视频分类处理方法存在的准确性比较低的问题,提供一种视频分类处理方法、装置、计算机设备及存储介质。
一种视频分类处理方法,所述方法包括:
获取目标视频;
提取所述目标视频的多模态的数据;
对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量;
将对应于各模态的概率向量进行组合;
根据组合后得到的向量,预测所述目标视频最终属于的类别。
一种视频分类处理装置,所述装置包括:
提取模块,用于获取目标视频;提取所述目标视频的多模态的数据;
分类预测模块,用于对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量;
组合模块,用于将对应于各模态的概率向量进行组合;
所述分类预测模块还用于根据组合后得到的向量,预测所述目标视频最终属于的类别。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
获取目标视频;
提取所述目标视频的多模态的数据;
对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量;
将对应于各模态的概率向量进行组合;
根据组合后得到的向量,预测所述目标视频最终属于的类别。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
获取目标视频;
提取所述目标视频的多模态的数据;
对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量;
将对应于各模态的概率向量进行组合;
根据组合后得到的向量,预测所述目标视频最终属于的类别。
上述视频分类处理方法、装置、计算机设备及存储介质,提取所述目标视频的多模态的数据,分别考虑目标视频不同模态的数据来对目标视频进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量。即,考虑了多模态的语义信息,来分别对目标视频进行分类预测。将分类得到的各模态的概率向量进行组合,根据组合后得到的向量,预测所述目标视频最终属于的类别,将多种分类概率情况进行了融合,相较于仅仅根据抽取的信息量较少的视频帧来进行分类而言,实现了基于多种模态下的信息对目标视频进行分类,提高了分类所参考的信息量,提高了视频分类的准确性。
附图说明
图1为一个实施例中视频分类处理方法的应用场景图;
图2为一个实施例中视频分类处理方法的流程示意图;
图3为一个实施例中视频分类处理方法的流程简化示意图;
图4为一个实施例中的文本分类模型的架构示意图;
图5为一个实施例中视频帧分类模型的架构示意图;
图6为一个实施例中音频分类模型的架构示意图;
图7为一个实施例中视频推荐的流程简化示意图;
图8为一个实施例中视频分类处理装置的框图;
图9为另一个实施例中视频分类处理装置的框图;
图10为一个实施例中计算机设备的框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一个实施例中视频分类处理方法的应用场景图。参照图1,该应用场景中包括第一终端110、服务器120和第二终端130。第一终端110和第二终端130皆可以是智能电视机、智能音箱、台式计算机或移动终端,移动终端可以包括手机、平板电脑、笔记本电脑、个人数字助理和穿戴式设备等中的至少一种。服务器120可以是具备视频分类功能的视频处理平台,服务器120可以用独立的服务器或者是多个物理服务器组成的服务器集群来实现。
可以理解,第一终端110上传源视频至服务器120。比如,多个拍摄或提供视频的用户分别通过各自使用的第一终端110拍摄视频,并将视频上传至服务器120进行存储。服务器120可以执行本申请各实施例中的视频分类处理方法对存储的各视频进行分类处理。服务器120可以根据视频分类处理结果,将所存储的视频向使用第二终端120的用户进行推荐。
需要说明的是,第一终端110和第二终端130的身份互换,即,第一终端110除了可以上传视频至服务器120以外,也可以接收服务器120所推荐的视频;第二终端120除了可以接收服务器120推荐的视频以外,也可以上传视频至服务器120。
服务器120在对所存储的视频进行分类处理时,可以获取目标视频;提取所述目标视频的多模态的数据;对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量。服务器120可以将对应于各模态的概率向量进行组合;根据组合后得到的向量,预测所述目标视频最终属于的类别。进而,服务器120可以依照视频的分类,将该视频推荐给相应用户所使用的第二终端130。
需要说明的是,图1仅是一个实施例中,并不限定于对视频分类后必须用于推荐这一个使用场景,也可以是按照分类类别对视频进行统一管理或其他方面的场景应用。
图2为一个实施例中视频分类处理方法的流程示意图。本实施例主要以该视频分类处理方法应用于计算机设备为例进行举例说明,该计算机设备可以为图1中的服务器120。参照图2,该方法具体包括如下步骤:
S202,获取目标视频。
其中,目标视频,是待分类的视频。目标视频可以是任意时长的视频内容。其中,视频内容中包括一帧一帧具有图像内容的视频帧。
在一个实施例中,目标视频可以包括长视频和短视频中的至少一种。
长视频,是指时长长于短视频的、且经过专业人员制作得到的视频。可以理解,经过专业制作的长视频,通常由于数据量过大,不便于在互联网平台上快速传播。在一个实施例中,长视频可以包括影视作品和规范化教学视频等至少一种。
短视频,即短片视频,一般是时长便于在互联网平台上快速传播的视频。比如,新闻媒体平台中经常播放的时长较短的视频。比如,腾讯新闻中播放的新闻视频。
在一个实施例中,计算机设备可以主动地或者根据预设的触发机制被触发地执行步骤S202~S210以对目标视频进行分类处理。在另一个实施例中,计算机设备也可以在接收到发送的针对目标视频的视频分类请求后,被触发执行步骤S202~S210。
S204,提取目标视频的多模态的数据。
其中,目标视频的多模态的数据,是指能够反映目标视频的特征的不同形态的数据。
在一个实施例中,目标视频的多模态数据包括从目标视频中提取的属于视频帧模态的视频帧、属于视频文本模态的描述文本、以及属于音频模态的音频文件中的至少两种。
其中,视频帧模态,即为从视频帧形态反映目标视频的特征。所以,视频帧模态的数据,即为能够反映目标视频的特征的视频帧模态的视频帧。
视频文本模态,即为从文本形态反映目标视频的特征。所以,视频文本模态的数据,即为能够反映目标视频的特征的关于目标视频的描述文本。其中,描述文本,是描述目标视频的相关文本内容。在一个实施例中,描述文本包括视频的标题、简介和用户提供的视频标签等中的至少一种。其中,视频标签,是用户在上传视频时,针对视频添加的自定义标注。
音频模态,即为从音频形态反映目标视频的特征,所以,音频模态的数据,是指能够反映目标视频的特征的音频文件。可以理解,由于视频不仅具有图像还具有声音,所以,音频文件是指与目标视频中图像相匹配的声音数据所形成的文件。
在一个实施例中,计算机设备可以从目标视频中提取视频帧,得到视频帧模态的视频帧(即为视频帧模态的数据)。在一个实施例中,计算机设备可以按照预设时间间隔,从目标视频中提取视频帧。在另一个实施例中,计算机设备也可以将目标视频划分为多个视频片段,根据视频片段中各视频帧之间的距离,提取距离差异大于预设阈值的关键帧,将提取的关键帧作为视频帧模态的视频帧。
S206,对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
具体地,计算机设备可以针对每个模态的数据,分别进行分类预测处理,分别得到对应于该模态的、且用于表示目标视频属于各预设类别的概率的概率向量。比如,当对2个模态的数据进行分类预测处理,则可以得到分别对应于各模态的概率向量,即可以得到2个概率向量,当对3个模态的数据进行分类预测处理,则可以得到分别对应于各模态的概率向量,即可以得到3个概率向量。
其中,概率向量中包括的向量元素是用于表示目标视频属于各预设类别的概率。比如,预设类别有5个A~E,针对某个模态的数据进行分类预测,得到目标视频属于A~E这5个类别的概率分别为0.1、0.1、0.7、0.05、0.05,那么,能够得到的概率向量即可以为(0.1,0.1,0.7,0.05,0.05)。
具体地,计算机设备可以直接将各模态的数据分别输入相应预先训练的机器学习分类模型中进行分类预测,输出得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
可以理解,不同模态的数据所输入的机器学习分类模型不同。各个机器学习分类模型可以是一个完整独立的机器学习模型,也可以是多个模型组合后的机器学习模型。对此不作限定。
可以理解,计算机设备可以预先根据样本视频的多模态的样本数据以及样本视频的视频标签作为训练数据,迭代地进行有监督地机器学习训练,来不断地调整对应于不同模态的机器学习分类模型的模型参数,直至得到训练完成的对应于不同模态的各机器学习分类模型。
S208,将对应于各模态的概率向量进行组合。
在一个实施例中,计算机设备可以直接以拼接组合的方式,将各模态的概率向量进行拼接。可以理解,计算机设备可以不限定各模态的概率向量之间拼接的前后顺序,也可以按照预设顺序,对各模态的概率向量进行拼接。比如,有2个模态,4个预设类别,模态1对应的概率向量为(0.1,0.35,0.45,0.1),模态2对应的概率向量为(0.05,0.41,0.45,0.06),那么,将二者拼接组合,即可以得到向量(0.1,0.35,0.45,0.1,0.05,0.41,0.45,0.06)。
在另一个实施例中,计算机设备也可以采取向量元素重组的方式,对各模态的概率向量进行组合,得到组合后的向量。同样以模态1对应概率向量(0.1,0.35,0.45,0.1),模态2对应概率向量(0.05,0.41,0.45,0.06)为例进行解释说明,那么,以向量元素重组的方式进行组合,就可以组合得到向量(0.1,0.35,0.05,0.41,0.45,0.1,0.45,0.06)。
S210,根据组合后得到的向量,预测目标视频最终属于的类别。
具体地,计算机设备可以将组合后得到的向量输入预先训练的最终的机器学习分类模型中,通过该最终的机器学习分类模型输出目标视频最终属于的类别。可以理解,目标视频最终属于的类别,是预设类别中的其中一个类别。
其中,最终的机器学习分类模型,是指用于预测输出最终的类别的机器学习分类模型。
在一个实施例中,该最终的机器学习分类模型可以为梯度提升分类回归树模型(GBDT,Gradient Boosting Decision Tree)。可以理解,梯度提升分类回归树模型中包括多棵分类回归树。计算机设备可以将组合后得到的向量输入梯度提升分类回归树模型中的各棵分类回归树中进行分类预测,得到该目标视频最终属于的类别。
需要说明的是,在其他实施例中,该最终的机器学习分类模型也可以是其他机器学习分类模型,比如,随机森林模型(Random Forest)或自适应提升分类模型(Adaboost)等由多个弱分类器组成的强分类模型。此外,最终的机器学习分类模型可以不限定于由多个弱分类器组成的强分类模型,也可以是单独的机器学习模型。
图3为一个实施例中视频分类处理方法的流程简化示意图。图3是以多模态的数据为属于视频帧模态的视频帧、属于视频文本模态的描述文本、以及属于音频模态的音频文件为例进行说明。参照图3,与视频文本模态对应的机器学习分类模型为文本分类模型,与视频帧模态对应的机器学习分类模型为视频帧分类模型,与音频模态对应的机器学习分类模型为音频分类模型。计算机设备可以在接收到视频分类请求后,对视频分类请求所针对的目标视频进行多模态文件抽取,以抽取属于视频帧模态的视频帧、属于视频文本模态的描述文本以及属于音频模态的音频文件,计算机设备可以分别将抽取的视频帧输入视频帧分类模型进行分类预测、将抽取的描述文本输入文本分类模型进行分类预测、以及将抽取的音频文件输入音频分类模型中进行分类预测。可以理解,对上述三个模态的数据进行分类预测的先后顺序不做限定。接着,计算机设备可以将三个分类预测结果进行融合,将基于融合得到的最终的结果返回至视频分类请求方。
上述视频分类处理方法,提取所述目标视频的多模态的数据,分别考虑目标视频不同模态的数据来对目标视频进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量。将分类得到的各模态的概率向量进行组合,根据组合后得到的向量,预测所述目标视频最终属于的类别,相当于,将多种分类概率情况进行了融合,相较于仅仅根据抽取的信息量较少的视频帧来进行分类而言,实现了基于多种模态下的信息对目标视频进行分类,提高了分类所参考的信息量,提高了视频分类的准确性。
此外,考虑到基于多模态的信息来进行视频分类,这样一来,在某个模态表现不佳时其他模态能够进行信息的补充,保证了分类所参考的信息量的稳定性,从而提升了视频分类的鲁棒性。
在一个实施例中,当多模态的数据包括属于视频文本模态的描述文本时,本实施例中,步骤S206包括:编码对描述文本进行分词后的词片段,生成各词片段相应的隐含状态向量;获取各隐含状态向量对应的注意力权重;根据各隐含状态向量和相应注意力权重,得到最终隐含状态向量;解码最终隐含状态向量,得到对应于视频文本模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
其中,描述文本,是描述目标视频的相关文本内容。在一个实施例中,描述文本包括视频的标题、简介和用户提供的视频标签等中的至少一种。其中,视频标签,是用户在上传视频时,针对视频添加的自定义标注。
具体地,计算机设备可以直接获取对描述文本进行分词处理后得到的词片段,也可以对描述文本进行分词处理,进而得到词片段。计算机设备可以对词片段进行编码,生成与各词片段相应的隐含状态向量。
可以理解,隐含状态向量,是由神经网络中的隐藏层编码输出的向量。隐藏层的意义就是把输入数据的特征,抽象到另一个维度空间,来展现其更抽象化的特征。所以,隐含状态向量是能够让输入数据的特征能更好的进行线性划分的一种数据。可以理解,隐含状态向量不直接对用户进行输出显示,而是神经网络处理过程中的一个中间态数据。
计算机设备可以根据注意力模型,获取各隐含状态向量对应的注意力权重,计算机设备可以根据各隐含状态向量和相应注意力权重,得到最终隐含状态向量,得到最终隐含状态向量。计算机设备可以解码最终隐含状态向量,得到对应于视频文本模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
其中,注意力模型(Attention Model),是用于从隐含状态向量中,提取出对分类预测更关键的隐含状态向量的机器学习模型。可以理解,注意力模型可以根据各隐含状态向量对分类预测的关键影响程度为各隐含状态向量分配相应的注意力权重。
在一个实施例中,计算机设备可以按照以下公式计算最终隐含状态向量:
其中,hatt为最终隐含状态向量;at为第t个编码单元输出的隐含状态向量的注意力权重;ht为第t个编码单元输出的隐含状态向量;tanh()为双曲正切函数,Ww和bw分别为双曲正切函数tanh()中的参数。
在一个实施例中,计算机设备可以对最终隐含状态向量进行归一化处理,得到对应于视频文本模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
在一个实施例中,计算机设备可以按照以下公式来计算对应于文本状态的概率向量:
pre=softmax(Watthatt+batt); (公式2)
其中,pre表示预测得到的概率向量;softmax()表示归一化指数函数;hatt为最终隐含状态向量;Watt和batt分别为归一化指数函数中的参数。
上述实施例中,将对描述文本进行分词后的词片段编码为隐含状态向量,更有利于进行线性划分。然后结合注意力模型,将各隐含状态向量和相应注意力权重,得到最终隐含状态向量。可以理解,结合注意力模型,可以在利用全局信息的同时又可以专注于局部比较有用的信息,最终隐含状态向量中相当于综合了单个的隐含状态向量中更加有用的特征信息,因此,对最终隐含状态向量解码生成的概率向量更加的准确。
在一个实施例中,编码对描述文本进行分词后的词片段,生成各词片段相应的隐含状态向量包括:将对描述文本进行分词后的词片段编码为词向量,得到词向量序列;按照词向量序列中各词向量的先后顺序,对各词向量依次进行编码,在每次编码时,根据当前词向量和对前一词向量编码输出的隐含状态向量进行编码,生成当前词向量相应的隐含状态向量。
具体地,计算机设备可以将各词片段分别编码为相应的词向量,根据各词向量得到词向量序列。计算机设备可以按照词向量序列中各词向量的先后顺序,对各词向量依次进行编码。比如,有3个词片段,分别编码得到的词向量为x1~x3,则可以得到词向量序列为(x1,x2,x3),计算机设备则可以依次对x1编码,在对x1编码完毕后,会对x2进行编码,在x2编码完毕后接着对x3进行编码。
可以理解,在每次编码时,计算机设备可以对当前词向量编码输出相应的隐含状态向量。具体地,在每次编码时,计算机设备可以根据当前词向量和对前一词向量编码输出的隐含状态向量进行编码,生成当前词向量相应的隐含状态向量。需要说明的是,在对首位词向量进行编码时,不存在对前一词向量编码输出的隐含状态向量,所以可以使用默认值来充当对前一词向量编码输出的隐含状态向量。
同样以词向量序列(x1,x2,x3)为例,计算机设备可以对x1进行编码输出相应隐含状态向量h1,那么,在对x2进行编码时,计算机设备可以根据对前一词向量x1编码输出的隐含状态向量h1和当前词向量x2进行编码,输出x2相应的隐含状态向量h2。在对x3进行编码时,计算机设备可以根据对前一词向量x2编码输出的隐含状态向量h2和当前词向量x3进行编码,输出x3相应的隐含状态向量h3。
在一个实施例中,计算机设备可以将对描述文本进行分词后的词片段编码为词向量,得到词向量序列;将词向量序列输入循环神经网络或者长短期记忆神经网络中,按照词向量序列中各词向量的先后顺序,将各词向量依次输入各编码单元中进行编码,在每次编码时,通过当前编码单元根据当前词向量和对前一词向量编码输出的隐含状态向量进行编码,生成当前词向量相应的隐含状态向量。
图4为一个实施例中的文本分类模型的架构示意图。参照图4可知,文本分类模型可以为包括注意力模型和长短期记忆神经网络模型的组合模型。图4中,x1~xn为对n个词片段进行编码输出的词向量,计算机设备可以将词向量x1~xn输入LSMT单元(即LSTM模型中的编码单元)中,各LSMT单元可以输出相应的隐含状态向量,分别得到隐含状态向量h1~hn。除了第一个LSMT单元以外,其余的LSMT单元在编码时,都会将当前词向量和前一编码单元输出的隐含状态向量输入至当前编码单元中进行编码。比如,计算机设备可以将第一个LSMT单元输出的隐含状态向量h1和当前词向量x2输入至第2个LSMT单元中进行编码,由第2个LSMT单元输出隐含状态向量h2。然后,将在词向量序列中排序第3的词向量x3作为当前词向量,将当前词向量x3和由第2个LSMT单元输出隐含状态向量h2输入至第3个LSMT单元中编码输出隐含状态向量h3。依次类推,将当前词向量xn和由第n-1个LSMT单元输出隐含状态向量hn-1输入至第n个LSMT单元中编码输出隐含状态向量hn。图4中的a1~an分别为隐含状态向量h1~hn的注意力权重,计算机设备可以将隐含状态向量h1~hn按照相应的注意力权重进行加权求和,得到最终隐含状态向量hatt。计算机设备可以解码最终隐含状态向量hatt进行预测,预测得到对应于视频文本模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
上述实施例中,在对当前词向量进行编码时,考虑了对前一词向量编码输出的隐含状态向量,相当于在编码当前词向量时考虑了历史信息,从而提高了编码准确性。此外,结合了注意力机制,进一步地提高了编码准确性。从而,能够解码得到更为准确地视频分类结果。
在一个实施例中,在每次编码时,根据当前词向量和对前一词向量编码输出的隐含状态向量进行编码,生成当前词向量相应的隐含状态向量包括:在每次编码时,将当前词向量和前一编码单元输出的隐含状态向量输入文本分类模型中的当前编码单元,生成当前编码单元的临时单元状态向量、临时单元状态向量相应的输入权重、上一单元状态向量的遗忘权重和当前单元状态向量的输出权重;将上一单元状态向量按照遗忘权重进行保留,得到第一向量;第一向量用于表征上一单元状态需保留信息;将临时单元状态向量按照输入权重进行保留,得到第二向量;第二向量用于表征当前词向量需保留信息;根据第一向量和第二向量,得到当前编码单元的当前单元状态向量;将当前单元状态向量按照输出权重进行输出,得到当前词向量相应的隐含状态向量。
其中,文本分类模型可以是对文本进行分类预测的模型。文本分类模型可以是单独的分类模型,也可以是由多个模型组合而成的分类模型。编码单元,是用于实现编码处理的神经元。可以理解,文本分类模型中可以包括多个编码单元。
在一个实施例中,文本分类模型可以是基于注意力机制的长短时记忆神经网络模型(Long Short Term Memory Network,LSTM),即注意力模型和长短时记忆神经网络模型组合得到的模型。
可以理解,计算机设备可以按照词向量序列中各词向量的先后顺序,将各词向量依次输入文本分类模型中的编码单元进行编码。在每次编码时,计算机设备可以通过编码单元对词向量进行编码,输出相应的隐含状态向量。
具体地,在每次编码时,计算机设备可以将当前词向量和前一编码单元输出的隐含状态向量输入文本分类模型中的当前编码单元,通过用于表征该当前编码单元中的遗忘门的激活函数,对当前词向量和前一编码单元输出的隐含状态向量进行编码,映射生成上一单元状态向量的遗忘权重。
其中,遗忘门,用于决定从上一单元状态向量中丢弃多少信息。所以,遗忘权重,用于表示上一单元状态向量不被遗忘的(即能够保留的)权重。遗忘权重实质上可以为权重矩阵。
可以理解,计算机设备可以通过用于表征遗忘门的激活函数,对当前词向量和前一编码单元输出的隐含状态向量进行编码,映射到0到1之间的数值,得到上一单元状态向量的遗忘权重。其中,0表示完全舍弃,1表示完全接受(即完全保留)。
在一个实施例中,计算机设备可以按照以下公式计算得到遗忘权重:
ft=σ(Wf·[ht-1,xt]+bf); (公式3)
其中,ft即为第t个编码单元生成的针对上一单元状态向量的遗忘权重;ht-1表示的是第t-1个编码单元输出的隐含状态向量,xt表示的是当前词向量,σ表示激活函数sigmod函数,Wf和bf表示sigmod函数的参数。[ht-1,xt]表示将ht-1和xt进行组合。
因此,基于公式(3)可以得知,计算机设备可以通过当前编码单元将当前词向量和前一编码单元输出的隐含状态向量进行组合,然后将组合后的向量输入激活函数中映射生成针对上一单元状态向量的遗忘权重。
在每次编码时,计算机设备还可以通过用于表征该当前编码单元中的输入门的激活函数,对当前词向量和前一编码单元输出的隐含状态向量进行编码,生成当前编码单元的临时单元状态向量以及该临时单元状态向量相应的输入权重。
其中,临时单元状态向量相应的输入权重,用于决定让多少新的信息加入到当前单元状态中来。
计算机设备将所述临时单元状态向量按照所述输入权重进行保留,得到第二向量;所述第二向量用于表征当前词向量需保留信息;
在一个实施例中,计算机设备可以按照以下公式来计算临时单元状态向量相应的输入权重:
it=σ(Wi·[ht-1,xt]+bi); (公式4)
其中,it表示第t个编码单元的临时单元状态向量的输入权重;ht-1表示的是第t-1个编码单元输出的隐含状态向量,xt表示的是当前词向量;σ表示激活函数sigmod函数,Wi和bi分别表示sigmod函数的参数。
在一个实施例中,计算机设备可以按照以下公式来计算当前编码单元的临时单元状态向量:
其中,即为当前编码单元的临时单元状态向量;ht-1表示的是第t-1个编码单元输出的隐含状态向量,xt表示的是当前词向量;tanh表示正曲双切函数,Wc和bc分别表示tanh函数的参数。
此外,在每次编码时,计算机设备还可以通过用于表征该当前编码单元中的输出门的激活函数,对当前词向量和前一编码单元输出的隐含状态向量进行编码,生成当前单元状态向量的输出权重。
其中,当前单元状态向量的输出权重,用于决定将当前编码单元的当前单元状态向量的哪些信息进行输出。
在一个实施例中,计算机设备可以按照以下公式计算当前单元状态向量的输出权重:
ot=σ(Wo·[ht-1,xt]+bo); (公式6)
其中,ot表示第t个编码单元的当前单元状态向量的输出权重;Wo和bo分别表示(公式6)中sigmod函数的参数;ht-1表示的是第t-1个编码单元输出的隐含状态向量,xt表示的是当前词向量;σ表示激活函数sigmod函数。
进一步地,计算机设备可以将上一单元状态向量按照遗忘权重进行保留,得到第一向量。其中,第一向量用于表征上一单元状态需保留信息。计算机设备可以将所述临时单元状态向量按照所述输入权重进行保留,得到第二向量;所述第二向量用于表征当前词向量需保留信息。计算机设备可以将第一向量和第二向量相加,得到所述当前编码单元的当前单元状态向量。
在一个实施例中,计算机设备可以按照以下公式计算当前单元状态向量:
Ct=ft*Ct-1+it*tanh(Wc·[ht-1,xt]+bc); (公式7)
其中,Ct表示当前第t个编码单元的单元状态向量;Ct-1表示第t-1个编码单元的单元状态向量;ft即为第t个编码单元生成的针对上一单元状态向量Ct-1的遗忘权重;it表示第t个编码单元的临时单元状态向量的输入权重;tanh(Wc·[ht-1,xt]+bc)即为当前编码单元的临时单元状态向量;ht-1表示的是第t-1个编码单元输出的隐含状态向量,xt表示的是当前词向量;tanh表示正曲双切函数;Wc和bc分别表示tanh函数的参数。
计算机设备可以将当前单元状态向量按照输出权重进行输出,得到当前词向量相应的隐含状态向量。
在一个实施例中,计算机设备可以按照以下公式来计算当前词向量相应的隐含状态向量:
ht=ot*tanh(Ct); (公式8)
其中,ht为第t个编码单元输出的隐含状态向量;tanh()为双曲正切函数,Ct表示当前第t个编码单元的单元状态向量。
上述实施例中,在每次编码时,所确定的遗忘权重、输入权重以及输出权重,就相当于一些阀门,能够控制记忆和存储一些长期信息,因而,能够使得编码依赖更多的长期历史信息,从而提高了编码准确性。进而,能够解码得到更为准确地视频分类结果。
在一个实施例中,当多模态的数据包括从目标视频中提取的属于视频帧模态的视频帧时,步骤S206包括:分别卷积处理各视频帧,得到与各视频帧相应的视频帧特征向量;对各视频帧特征向量进行平均池化处理;对平均池化处理后的向量进行归一化处理,生成对应于视频帧模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
其中,视频帧特征向量,是用于表征视频帧的特征的向量。
具体地,计算机设备可以将所提取的各视频帧分别输入至卷积神经网络模型中进行卷积处理,得到与各视频帧相应的视频帧特征向量。
在一个实施例中,计算机设备可以对提取的各视频帧进行预处理,以将各视频帧的大小调整一致。然后将调整一致后的各视频帧分别输入至卷积神经网络模型中进行卷积处理,得到与各视频帧相应的视频帧特征向量。可以理解,针对大小调整一致的视频帧进行卷积处理,能够提高卷积处理的准确性。
在一个实施例中,卷积神经网络模型可以是以Inception-ResNet-v2(Google公司研发的一种深度卷积神经网络)模型为基础构架的卷积神经网络模型。本实施例中,分别卷积处理各视频帧,得到与各视频帧相应的视频帧特征向量包括:将每个视频帧输入卷积神经网络模型中进行多层卷积处理,在每层卷积处理时,将所述视频帧和所述视频帧的前一层卷积结果作为当层卷积处理的输入,进行联合卷积处理,得到当层卷积结果;将最后一层卷积结果,作为所述视频帧的视频帧特征向量。
需要说明的是,当进行首层卷积处理时,不存在该视频帧的前一层卷积结果,所以,首层卷积处理时的输入仅为该视频帧本身,从第二层卷积处理起,将所述视频帧和所述视频帧的前一层卷积结果作为当层卷积处理的输入。
可以理解,Inception-ResNet-v2比先前的Inception V3(Google公司在Inception-ResNet-v2之前研发的一种深度卷积神经网络)还要深一些,在模型中使用了重复的残差区块。另外简化了inception结构,比先前的Inception V3种要包含更少的并行塔,Inception-ResNet-v2架构的精确度比之前的最优模型更高。
为了便于理解,现举例说明。假如有5个视频帧frame1~frame5,以frame1为例,计算机设备可以将frame1输入至卷积神经网络模型中进行3层卷积处理。具体地,计算机设备可以将frame1输入至第一层卷积层进行卷积,得到第一层卷积结果F1,然后将frame1和第一层卷积结果F1一起输入至第2层卷积层进行卷积,得到第2层卷积结果F2,然后将frame1和第2层卷积结果F2一起输入至第3层卷积层进行卷积,得到第3层卷积结果F3。计算机设备则将第3层卷积结果F3进行输出,作为frame1的视频帧特征向量。
计算机设备可以对各视频帧特征向量中同一位置的向量元素求平均,即相当于进行平均池化处理,根据求平均后得到的各向量元素构成平均池化处理后的向量。计算机设备可以对平均池化处理后的向量进行归一化处理,即,将平均池化处理后的向量中各向量元素映射为取值在0到1之间的数值。可以理解,归一化处理后的各向量元素即用于表征目标视频属于各预设类别的概率。进而,计算机设备可以根据归一化后的向量元素,生成对应于视频帧模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
在一个实施例中,计算机设备可以通过归一化指数函数(softmax函数)对平均池化处理后的向量进行归一化处理。
在一个实施例中,使用的卷积神经网络结构如表1中所示,其中,以conv命名的为卷积层,以pool命名的为池化层,以fc命名的为全连接层:
表1
需要说明的是,表1中的卷积神经网络结构是经过实验得到的对音频分类效果起到显著作用的结构。
图5为一个实施例中视频帧分类模型的架构示意图。参照图5,从目标视频video中提取多个视频帧frame1~framen,然后分别将frame1~framen输入至卷积神经网络模型中进行卷积处理,得到各个视频帧对应的视频帧特征向量,然后将所有的视频帧特征向量输入平均池化层中进行平均池化处理,再通过softmax函数对平均池化后的向量进行归一化处理,从而得到对应于视频帧模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
上述实施例中,分别对各视频帧卷积提取相应的视频帧特征向量,然后对各视频帧特征向量进行平均池化处理,相当于将各视频帧的特征进行了组合。因此,基于组合后的特征生成概率向量更加的准确。此外,在特征层面即实现了组合,而并不用一一对各视频帧进行复杂的分类处理,提高了视频分类预测的效率。
在一个实施例中,当多模态的数据包括属于音频模态的音频文件时,本实施例中步骤S206包括:将音频文件进行切割,得到音频片段;提取各音频片段的频率特征;分别对各频率特征进行卷积处理,得到相应的音频特征向量;根据各音频特征向量进行分类预测,得到对应于音频模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
在一个实施例中,计算机设备可以对音频文件进行预处理,以使得音频文件中的音频信号的采样率相同,然后对预处理后的音频文件进行切割,得到音频片段。
在一个实施例中,将音频文件进行切割,得到音频片段包括:将音频文件中的多通道转换为单通道;按照预设采样率,对转换后的音频文件中的音频信号进行重采样;将重采样后的音频文件切割为音频片段。
其中,通道,是音频中播放声音的通道。可以理解,一个音频文件可能有很多种声音通道,比如,背景音通道和说话主声通道等。多通道是有多维度的,如果针对多通道进行特征提取,就需要分别针对每个通道皆进行处理,非常的繁琐。因此,计算机设备将音频文件中的多通道转换为单通道,使其变为单一维度,这样就可以大大降低特征提取的复杂性。
采样率,是指每秒从连续信号中提取并组成离散信号的采样个数。重采样,是指将原始的采样频率变换为新的采样频率以适应不同采样率的要求。
可以理解,通过对转换为单通道的音频文件中的音频信号进行重采样,使得音频文件中的音频信号更加的统一,进而将重采样后的音频文件切割为音频片段,便于后续统一化的特征提取处理。
在一个实施例中,计算机设备可以将音频文件切割为等长的音频片段。可以理解,都能够等长分割时最后一个音频片段的时间不够的话可以向前补充。比如,有58秒的音频文件,按照10秒的时间间隔,切分为6等分,最后一个音频片段为第51~58秒,不够10秒,则可以向前补充2秒,即取第49秒~58秒的片段,作为最后一个音频片段。可以理解,等长的音频片段能够保证处理数据的格式一致性,提高了后续处理的准确性。
计算机设备可以分别提取各音频片段的频率特征。在一个实施例中,计算机设备可以针对各音频片段计算梅尔频率倒谱系数(MFCC,Mel Frequency CepstrumCoefficient),将计算得到的梅尔频率倒谱系数作为相应音频片段的频率特征。
在一个实施例中,计算机设备可以将音频片段中线形的自然频谱转换为体现人类听觉特性的梅尔频谱;在梅尔频谱上面进行倒谱分析,得到各音频片段的梅尔频率倒谱系数。
在一个实施例中,计算机设备可以分别将各音频片段的频率特征分别输入至卷积神经网络模型中进行卷积处理,得到相应的音频特征向量。计算机设备可以根据各音频特征向量进行分类预测,得到对应于音频模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
在一个实施例中,根据各音频特征向量进行分类预测,得到对应于音频模态的、且用于表征目标视频属于各预设类别的概率的概率向量包括:按照卷积后的音频特征向量的先后顺序,循环地将当前音频特征向量和前次编码后的编码向量作为当次编码的输入;对最后一次编码后的编码向量进行归一化处理,得到对应于音频模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
具体地,计算机设备可以按照卷积后的音频特征向量的先后顺序,循环地将当前音频特征向量和前次编码后的向量输入当前编码器中,生成当次编码后的编码向量。以此,计算机设备可以循环迭代地针对每个音频特征向量进行编码,生成相应的编码向量。计算机设备可以对最后一次编码后的编码向量进行归一化处理,得到对应于音频模态的、且用于表征目标视频属于各预设类别的概率的概率向量。可以理解,这样一来,可以在编码时可以参考历史信息,提高了编码准确性。
图6为一个实施例中音频分类模型的架构示意图。参照图6可知,音频分类模型可以为包括卷积神经网络模型CNN(Convolutional Neural Networks)和长短期记忆神经网络模型LSTM的组合模型。图6中,计算机设备可以对音频文件audio进行切割,生成均匀长度的音频片段audio1~audion。分别提取audio1~audion的频率特征1~频率特征n,将频率特征1~频率特征n输入至卷积神经网络模型CNN中进行卷积处理,得到频率特征1~频率特征n分别对应的音频特征向量feature1~featuren。计算机设备可以将第一个音频特征向量feature1输入至第一个LSMT单元(即编码单元)中,生成相应的编码向量E1,然后将该编码向量E1和第二个音频特征向量feature2输入至第二个LSMT单元中,生成第二个编码向量E2,并将第二个编码向量E2和第三个音频特征向量feature3输入至第三个LSMT单元中进行编码,以此类推,直至将第n-1个编码向量E n-1和第n个音频特征向量featuren输入至第n个LSMT单元中进行编码,生成第n个编码向量En。计算机设备可以针对编码向量En进行归一化处理,生成对应于音频模态的概率向量。
上述实施例中,通过将音频文件分割为音频片段进行特征提取,降低了数据处理复杂度,而且提高了特征提取的准确性。而且,频率特征能够很准确地反映音频片段的特征,所以对各音频片段的音频特征向量进行卷积处理,根据卷积处理得到的音频特征向量进行分类预测,提高了分类预测的准确性。此外,在分类预测时,充分考虑能够充分表征音频文件的特征的各音频片段的音频特征向量,进一步地提高了分类预测的准确性。
在一个实施例中,步骤S210根据组合后得到的向量,预测目标视频最终属于的类别包括:将组合后得到的向量分别输入预先训练的梯度提升回归树模型的各分类回归树中进行分类处理,得到各分类回归树所预测的用于表征目标视频属于各预设类别的概率的子概率向量;获取每棵回归树相应的决策权重;将各棵回归树所预测的子概率向量按照相应的决策权重进行加权平均,得到用于表征目标视频属于各预设类别的概率的最终概率向量;选取最终概率向量中的最大概率值所对应的预设类别,得到目标视频最终属于的类别。
具体地,计算机设备可以预先根据样本数据进行机器学习训练,得到梯度提升回归树模型。计算机设备可以将组合后得到的向量分别输入预先训练的梯度提升回归树模型的各分类回归树中进行分类处理,得到各分类回归树所预测的用于表征目标视频属于各预设类别的概率的子概率向量。计算机设备可以获取每棵回归树相应的决策权重;将各棵回归树所预测的子概率向量按照相应的决策权重进行加权平均,得到用于表征目标视频属于各预设类别的概率的最终概率向量。
在一个实施例中,计算机设备可以按照以下公式计算最终概率向量:
其中,F(x;w)为最终概率向量;x为组合后得到的向量,w用于统一表征分类回归树对应的参数;ht为第t棵分类回归树预测的子概率向量,wt为第t棵分类回归树对应的参数,αt为第t棵分类回归树对应的决策权重。
计算机设备可以从最终概率向量中选取最大概率值,获取该最大概率值所对应的预设类别,作为目标视频最终属于的类别。
在一个实施例中,计算机设备可以将梯度提升回归树模型的训练过程和多模态对应的分类模型的训练过程结合在一起,使用一批样本数据同时训练出视多模态对应的分类模型以及梯度提升回归树模型,样本数据中包括样本视频的多模态的样本数据,以及样本视频的类别标签。那么,在迭代训练过程中的输入为样本数据中样本是多模态的样本数据,输出为样本视频的类别标签,在迭代的机器学习训练过程中,不断地调整多模态对应的分类模型以及梯度提升回归树模型中的模型参数,直至达到迭代停止条件(比如,迭代次数达到预设次数或模型参数稳定),从而训练出端到端的对视频进行分类的组合模型。
在其他实施例中,计算机设备也可以将梯度提升回归树模型的训练过程和多模态对应的分类模型的训练过程分开。这样一来,计算机设备则可以根据第一批样本数据训练多模态对应的分类模型。然后,使用第二批样本数据作为训练好的多模态对应的分类模型的输入,通过各模态对应的分类模型分别对第二批样本数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量。然后,计算机设备可以将对应于各模态的概率向量进行组合,将组合后得到的向量以及第二批样本数据中携带的样本视频的视频标签作为梯度提升回归树模型的训练样本,迭代地对梯度提升回归树模型进行机器学习训练,直至得到训练好的梯度提升回归树模型。需要说明的是,第一批样本数据和第二批样本数据中皆包括样本视频的多模态的样本数据,以及样本视频的类别标签。可以理解,这种将将梯度提升回归树模型的训练过程和多模态对应的分类模型的训练过程分开的方式,能够降低对机器硬件的要求,同时也能够保证分类准确性。
上述实施例中,使用梯度提升回归树模型这一强分类器,将组合后得到的向量输入这一强分类器中的各个弱分类器,即各分类回归树,进行分类处理,综合考虑各分类回归树预测得到的子概率向量,得到最终概率向量。该最终概率向量相较于单一的分类器而言,提高了分类概率预测的准确性。进而,选取最终概率向量中的最大概率值所对应的预设类别,得到目标视频最终属于的类别,提高了视频分类的准确性。
在一个实施例中,目标视频是内容推荐平台中的视频。该方法还包括:获取内容推荐平台中的用户对象所偏好的视频类别;将目标视频最终属于的类别与各用户对象所偏好的视频类别进行匹配;向匹配成功的用户对象相应的终端推荐目标视频。
其中,内容推荐平台,是对内容进行的推荐的互联网平台。
在一个实施例中,内容推荐平台可以包括新闻媒体平台、内容搜索平台和社交网络平台等中的至少一种。社交网络平台包括即时通信平台和内容分享平台(比如,微博)。
其中,新闻媒体平台是以新闻的形式推荐内容的平台。其中,新闻媒体平台可以包括独立的新闻媒体平台。比如,独立的腾讯(Tencent)新闻平台。
新闻媒体平台还可以包括集成于即时通信平台中的新闻媒体平台。比如,集成于微信平台中的腾讯新闻平台。其中,微信(WeChat),是腾讯公司于2011年1月21日推出的一个为智能终端提供即时通讯服务的应用程序。
内容搜索平台,是对内容进行搜索的平台。比如,浏览器平台即为内容搜索平台。其中,内容搜索平台可以包括独立的浏览器平台和集成于即时通信平台中的浏览器平台。
具体地,计算机设备在预测出目标视频最终属于的类别后,可以获取内容推荐平台中的用户对象的用户信息,从用户信息中提取用户对象所偏好的视频类别。计算机设备可以将目标视频最终属于的类别与各用户对象所偏好的视频类别进行匹配。计算机设备可以向匹配成功的用户对象相应的终端推荐该目标视频。
图7为一个实施例中视频推荐的流程简化示意图。图7中是以短视频为例进行举例说明。参照图7,计算机设备从短视频中分别提取属于视频帧模态的视频帧、属于视频文本模态的短视频文本(即描述文本)和音频文件,通过执行本申请各实施例中的视频分类处理方法的短视频分类系统,得到短视频的类别属性。并获取用户的用户属性,将短视频的类别属性和用户属性一并输入至推荐系统,由推荐系统从该用户属性中提取用户所偏好的视频类别,将短视频的类别属性和用户所偏好的视频类别进行匹配,得到推荐短视频结果。需要说明的是,推荐系统可以是运行于服务器的具备内容推荐功能的系统。
上述实施例中,基于本申请实施例中的视频分类处理方法所得到的目标视频的类别,更加的准确,因而基于更为准确的类别对视频进行推荐,提高了推荐的准确性。
需要说明的是,本申请各实施例中的视频分类处理方法并不局限于视频推荐这么一个使用场景,在其他实施例中,还可以按照分类类别对视频进行统一管理。比如,计算机设备可以对服务器中存储的各视频均执行本申请各实施例中的视频分类处理方法,进而得到各视频的分类类别,计算机设备可以按照各视频的分类类别进行分组。进一步地,计算机设备可以根据分组情况进行大数据分析,计算机设备可以根据相应的大数据分析结果,触发相应的处理。比如,分析哪个组别中的视频数量最多,或者分析哪个组别的视频被访问频率最高,从而得到哪些类别的视频为热门视频,然后可以向各用户推荐热门视频。
通过将通过本申请各实施例中的视频分类处理方法所预测的视频的分类结果进行随机抽取进而进行人工评测发现,本申请各实施例中的视频分类处理方法相比现有方法在视频分类的准确率、召回率上都有明显的提升。此外,在一些内容推荐平台的视频推荐策略上,用户的点击率也明显得到了提高,相当于提高了推荐准确性。
如图8所示,在一个实施例中,提供了一种视频分类处理装置800,该装置800包括:提取模块802、分类预测模块804以及组合模块806,其中:
提取模块802,用于获取目标视频;提取所述目标视频的多模态的数据。
分类预测模块804,用于对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
组合模块806,用于将对应于各模态的概率向量进行组合;
所述分类预测模块804还用于根据组合后得到的向量,预测所述目标视频最终属于的类别。
在一个实施例中,所述多模态的数据包括从目标视频中提取的属于视频帧模态的视频帧、属于视频文本模态的描述文本、以及属于音频模态的音频文件中的至少两种。
在一个实施例中,所述多模态的数据包括属于视频文本模态的描述文本;所述分类预测模块804还用于编码对描述文本进行分词后的词片段,生成各词片段相应的隐含状态向量;获取各隐含状态向量对应的注意力权重;根据各隐含状态向量和相应注意力权重,得到最终隐含状态向量;解码所述最终隐含状态向量,得到对应于视频文本模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
在一个实施例中,所述分类预测模块804还用于将对描述文本进行分词后的词片段编码为词向量,得到词向量序列;按照词向量序列中各词向量的先后顺序,对各词向量依次进行编码,在每次编码时,根据当前词向量和对前一词向量编码输出的隐含状态向量进行编码,生成所述当前词向量相应的隐含状态向量。
在一个实施例中,所述分类预测模块804还用于在每次编码时,将当前词向量和前一编码单元输出的隐含状态向量输入文本分类模型中的当前编码单元,生成当前编码单元的临时单元状态向量、所述临时单元状态向量相应的输入权重、上一单元状态向量的遗忘权重和当前单元状态向量的输出权重;将所述上一单元状态向量按照所述遗忘权重进行保留,得到第一向量;所述第一向量用于表征上一单元状态需保留信息;将所述临时单元状态向量按照所述输入权重进行保留,得到第二向量;所述第二向量用于表征当前词向量需保留信息;根据第一向量和第二向量,得到所述当前编码单元的当前单元状态向量;将所述当前单元状态向量按照所述输出权重进行输出,得到当前词向量相应的隐含状态向量。
在一个实施例中,所述多模态的数据包括从目标视频中提取的属于视频帧模态的视频帧;所述分类预测模块804还用于分别卷积处理各视频帧,得到与各视频帧相应的视频帧特征向量;对各视频帧特征向量进行平均池化处理;对平均池化处理后的向量进行归一化处理,生成对应于所述视频帧模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
在一个实施例中,所述分类预测模块804还用于将每个视频帧输入卷积神经网络模型中进行多层卷积处理,在每层卷积处理时,将所述视频帧和所述视频帧的前一层卷积结果作为当层卷积处理的输入,进行联合卷积处理,得到当层卷积结果;将最后一层卷积结果,作为所述视频帧的视频帧特征向量。
在一个实施例中,所述多模态的数据包括属于音频模态的音频文件;所述分类预测模块804还用于将所述音频文件进行切割,得到音频片段;提取各所述音频片段的频率特征;分别对各所述频率特征进行卷积处理,得到相应的音频特征向量;根据各所述音频特征向量进行分类预测,得到对应于音频模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
在一个实施例中,所述分类预测模块804还用于按照卷积后的音频特征向量的先后顺序,循环地将当前音频特征向量和前次编码后的编码向量作为当次编码的输入;对最后一次编码后的编码向量进行归一化处理,得到对应于音频模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
在一个实施例中,所述分类预测模块804还用于将音频文件中的多通道转换为单通道;按照预设采样率,对转换后的音频文件中的音频信号进行重采样;将重采样后的音频文件切割为音频片段。
在一个实施例中,所述分类预测模块804还用于将组合后得到的向量分别输入预先训练的梯度提升回归树模型的各分类回归树中进行分类处理,得到各分类回归树所预测的用于表征目标视频属于各预设类别的概率的子概率向量;获取每棵回归树相应的决策权重;将各棵回归树所预测的子概率向量按照相应的决策权重进行加权平均,得到用于表征目标视频属于各预设类别的概率的最终概率向量;选取所述最终概率向量中的最大概率值所对应的预设类别,得到所述目标视频最终属于的类别。
在一个实施例中,所述目标视频是内容推荐平台中的视频。
本实施例中,如图9所示,该装置800还包括:
推荐模块808,用于获取所述内容推荐平台中的用户对象所偏好的视频类别;将目标视频最终属于的类别与各用户对象所偏好的视频类别进行匹配;向匹配成功的用户对象相应的终端推荐所述目标视频。
图10为一个实施例中计算机设备的内部结构示意图。参照图10,该计算机设备可以是图1中终端110或服务器120。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质可存储操作系统和计算机程序。该计算机程序被执行时,可使得处理器执行一种视频分类处理方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该内存储器中可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行一种视频分类处理方法。计算机设备的网络接口用于进行网络通信。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的异常检测装置可以实现为一种计算机程序的形式,计算机程序可在如图10所示的计算机设备上运行,计算机设备的非易失性存储介质可存储组成该异常检测装置的各个程序模块,比如,图8所示的提取模块802、分类预测模块804以及组合模块806。各个程序模块所组成的计算机程序用于使该计算机设备执行本说明书中描述的本申请各个实施例的视频分类处理方法中的步骤,例如,计算机设备可以通过如图8所示的视频分类处理装置800中的提取模块802获取目标视频;提取所述目标视频的多模态的数据。计算机设备可以通过分类预测模块804对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量。计算机设备可以通过组合模块806将对应于各模态的概率向量进行组合。计算机设备可以通过分类预测模块804根据组合后得到的向量,预测所述目标视频最终属于的类别。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述视频分类处理方法的步骤。此处视频分类处理方法的步骤可以是上述各个实施例的视频分类处理方法中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述视频分类处理方法的步骤。此处视频分类处理方法的步骤可以是上述各个实施例的视频分类处理方法中的步骤。
需要说明的是,本申请各实施例中的“第一”、“第二”和“第三”等仅用作区分,而并不用于大小、先后、从属等方面的限定。
应该理解的是,虽然本申请各实施例中的各个步骤并不是必然按照步骤标号指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (15)
1.一种视频分类处理方法,所述方法包括:
获取目标视频;
提取所述目标视频的多模态的数据;
对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量;
将对应于各模态的概率向量进行组合;
根据组合后得到的向量,预测所述目标视频最终属于的类别。
2.根据权利要求1所述的方法,其特征在于,所述多模态的数据包括从目标视频中提取的属于视频帧模态的视频帧、属于视频文本模态的描述文本、以及属于音频模态的音频文件中的至少两种。
3.根据权利要求1所述的方法,其特征在于,所述多模态的数据包括属于视频文本模态的描述文本;所述对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量包括:
编码对描述文本进行分词后的词片段,生成各词片段相应的隐含状态向量;
获取各隐含状态向量对应的注意力权重;
根据各隐含状态向量和相应注意力权重,得到最终隐含状态向量;
解码所述最终隐含状态向量,得到对应于视频文本模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
4.根据权利要求3所述的方法,其特征在于,所述编码对描述文本进行分词后的词片段,生成各词片段相应的隐含状态向量包括:
将对描述文本进行分词后的词片段编码为词向量,得到词向量序列;
按照词向量序列中各词向量的先后顺序,对各词向量依次进行编码,在每次编码时,根据当前词向量和对前一词向量编码输出的隐含状态向量进行编码,生成所述当前词向量相应的隐含状态向量。
5.根据权利要求4所述的方法,其特征在于,所述在每次编码时,根据当前词向量和对前一词向量编码输出的隐含状态向量进行编码,生成所述当前词向量相应的隐含状态向量包括:
在每次编码时,将当前词向量和前一编码单元输出的隐含状态向量输入文本分类模型中的当前编码单元,生成当前编码单元的临时单元状态向量、所述临时单元状态向量相应的输入权重、上一单元状态向量的遗忘权重和当前单元状态向量的输出权重;
将所述上一单元状态向量按照所述遗忘权重进行保留,得到第一向量;所述第一向量用于表征上一单元状态需保留信息;
将所述临时单元状态向量按照所述输入权重进行保留,得到第二向量;所述第二向量用于表征当前词向量需保留信息;
根据第一向量和第二向量,得到所述当前编码单元的当前单元状态向量;
将所述当前单元状态向量按照所述输出权重进行输出,得到当前词向量相应的隐含状态向量。
6.根据权利要求1所述的方法,其特征在于,所述多模态的数据包括从目标视频中提取的属于视频帧模态的视频帧;
所述对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量包括:
分别卷积处理各视频帧,得到与各视频帧相应的视频帧特征向量;
对各视频帧特征向量进行平均池化处理;
对平均池化处理后的向量进行归一化处理,生成对应于所述视频帧模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
7.根据权利要求6所述的方法,其特征在于,所述分别卷积处理各视频帧,得到与各视频帧相应的视频帧特征向量包括:
将每个视频帧输入卷积神经网络模型中进行多层卷积处理,在每层卷积处理时,将所述视频帧和所述视频帧的前一层卷积结果作为当层卷积处理的输入,进行联合卷积处理,得到当层卷积结果;
将最后一层卷积结果,作为所述视频帧的视频帧特征向量。
8.根据权利要求1所述的方法,其特征在于,所述多模态的数据包括属于音频模态的音频文件;所述对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量包括:
将所述音频文件进行切割,得到音频片段;
提取各所述音频片段的频率特征;
分别对各所述频率特征进行卷积处理,得到相应的音频特征向量;
根据各所述音频特征向量进行分类预测,得到对应于音频模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
9.根据权利要求8所述的方法,其特征在于,所述根据各所述音频特征向量进行分类预测,得到对应于音频模态的、且用于表征目标视频属于各预设类别的概率的概率向量包括:
按照卷积后的音频特征向量的先后顺序,循环地将当前音频特征向量和前次编码后的编码向量作为当次编码的输入;
对最后一次编码后的编码向量进行归一化处理,得到对应于音频模态的、且用于表征目标视频属于各预设类别的概率的概率向量。
10.根据权利要求8所述的方法,其特征在于,所述将所述音频文件进行切割,得到音频片段包括:
将音频文件中的多通道转换为单通道;
按照预设采样率,对转换后的音频文件中的音频信号进行重采样;
将重采样后的音频文件切割为音频片段。
11.根据权利要求1所述的方法,其特征在于,所述根据组合后得到的向量,预测所述目标视频最终属于的类别包括:
将组合后得到的向量分别输入预先训练的梯度提升分类回归树模型的各分类回归树中进行分类处理,得到各分类回归树所预测的用于表征目标视频属于各预设类别的概率的子概率向量;
获取每棵分类回归树相应的决策权重;
将各棵分类回归树所预测的子概率向量按照相应的决策权重进行加权平均,得到用于表征目标视频属于各预设类别的概率的最终概率向量;
选取所述最终概率向量中的最大概率值所对应的预设类别,得到所述目标视频最终属于的类别。
12.根据权利要求1至11中任一项所述的方法,其特征在于,所述目标视频是内容推荐平台中的视频;
所述方法还包括:
获取所述内容推荐平台中的用户对象所偏好的视频类别;
将目标视频最终属于的类别与各用户对象所偏好的视频类别进行匹配;
向匹配成功的用户对象相应的终端推荐所述目标视频。
13.一种视频分类处理装置,其特征在于,所述装置包括:
提取模块,用于获取目标视频;提取所述目标视频的多模态的数据;
分类预测模块,用于对各模态的数据进行分类预测,得到分别对应于各模态的、且用于表征目标视频属于各预设类别的概率的概率向量;
组合模块,用于将对应于各模态的概率向量进行组合;
所述分类预测模块还用于根据组合后得到的向量,预测所述目标视频最终属于的类别。
14.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1至12中任一项所述方法的步骤。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1至12中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910273083.4A CN110162669B (zh) | 2019-04-04 | 2019-04-04 | 视频分类处理方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910273083.4A CN110162669B (zh) | 2019-04-04 | 2019-04-04 | 视频分类处理方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110162669A true CN110162669A (zh) | 2019-08-23 |
CN110162669B CN110162669B (zh) | 2021-07-02 |
Family
ID=67639095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910273083.4A Active CN110162669B (zh) | 2019-04-04 | 2019-04-04 | 视频分类处理方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110162669B (zh) |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674350A (zh) * | 2019-09-23 | 2020-01-10 | 网易(杭州)网络有限公司 | 视频人物检索方法、介质、装置和计算设备 |
CN110704679A (zh) * | 2019-09-27 | 2020-01-17 | 北京字节跳动网络技术有限公司 | 视频分类方法、装置及电子设备 |
CN110737801A (zh) * | 2019-10-14 | 2020-01-31 | 腾讯科技(深圳)有限公司 | 内容分类方法、装置、计算机设备和存储介质 |
CN110879974A (zh) * | 2019-11-01 | 2020-03-13 | 北京微播易科技股份有限公司 | 一种视频分类方法和装置 |
CN110990631A (zh) * | 2019-12-16 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 视频筛选方法、装置、电子设备和存储介质 |
CN111046227A (zh) * | 2019-11-29 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 一种视频查重方法及装置 |
CN111163366A (zh) * | 2019-12-30 | 2020-05-15 | 厦门市美亚柏科信息股份有限公司 | 一种视频处理方法及终端 |
CN111209970A (zh) * | 2020-01-08 | 2020-05-29 | Oppo(重庆)智能科技有限公司 | 视频分类方法、装置、存储介质及服务器 |
CN111212288A (zh) * | 2020-01-09 | 2020-05-29 | 广州虎牙科技有限公司 | 视频数据的编解码方法、装置、计算机设备和存储介质 |
CN111274995A (zh) * | 2020-02-13 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、设备和计算机可读存储介质 |
CN111324774A (zh) * | 2020-02-26 | 2020-06-23 | 腾讯科技(深圳)有限公司 | 一种视频去重方法和装置 |
CN111401440A (zh) * | 2020-03-13 | 2020-07-10 | 重庆第二师范学院 | 目标分类识别方法、装置、计算机设备及存储介质 |
CN111400551A (zh) * | 2020-03-13 | 2020-07-10 | 咪咕文化科技有限公司 | 一种视频分类方法、电子设备和存储介质 |
CN111444387A (zh) * | 2020-03-27 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、计算机设备和存储介质 |
CN111488489A (zh) * | 2020-03-26 | 2020-08-04 | 腾讯科技(深圳)有限公司 | 视频文件的分类方法、装置、介质及电子设备 |
CN111581510A (zh) * | 2020-05-07 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 分享内容处理方法、装置、计算机设备和存储介质 |
CN111723784A (zh) * | 2020-07-30 | 2020-09-29 | 腾讯科技(深圳)有限公司 | 一种风险视频识别方法、装置和电子设备 |
CN112231497A (zh) * | 2020-10-19 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 信息分类方法、装置、存储介质及电子设备 |
CN112579824A (zh) * | 2020-12-16 | 2021-03-30 | 北京中科闻歌科技股份有限公司 | 视频数据分类方法、装置、电子设备及存储介质 |
CN112580658A (zh) * | 2019-09-29 | 2021-03-30 | 中国移动通信集团辽宁有限公司 | 图像语义描述方法、装置、计算设备及计算机存储介质 |
CN112714362A (zh) * | 2020-12-25 | 2021-04-27 | 北京百度网讯科技有限公司 | 确定属性的方法、装置、电子设备、介质和程序产品 |
WO2021088510A1 (zh) * | 2019-11-05 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、计算机以及可读存储介质 |
CN112820412A (zh) * | 2021-02-03 | 2021-05-18 | 东软集团股份有限公司 | 用户信息的处理方法、装置、存储介质和电子设备 |
CN112949288A (zh) * | 2019-12-11 | 2021-06-11 | 上海大学 | 一种基于字符序列的文本检错方法 |
CN112990126A (zh) * | 2021-04-27 | 2021-06-18 | 北京世纪好未来教育科技有限公司 | 视频分类方法、装置、计算机设备和介质 |
CN113011383A (zh) * | 2021-04-12 | 2021-06-22 | 北京明略软件系统有限公司 | 视频标签定义模型构建方法、系统、电子设备及存储介质 |
CN113011382A (zh) * | 2021-04-12 | 2021-06-22 | 北京明略软件系统有限公司 | 视频片段分类模型构建方法、系统、电子设备及存储介质 |
CN113033707A (zh) * | 2021-04-25 | 2021-06-25 | 北京有竹居网络技术有限公司 | 视频分类方法、装置、可读介质及电子设备 |
CN113256456A (zh) * | 2021-04-22 | 2021-08-13 | 国家广播电视总局机关服务中心(国家广播电视总局机关服务局、国家广播电视总局物业管理中心) | 一种基于b/s模式的远程数据处理方法和服务器 |
CN113836992A (zh) * | 2021-06-15 | 2021-12-24 | 腾讯科技(深圳)有限公司 | 识别标签的方法、训练标签识别模型的方法、装置及设备 |
CN113837576A (zh) * | 2021-09-14 | 2021-12-24 | 上海任意门科技有限公司 | 用于内容推荐的方法、计算设备和计算机可读存储介质 |
CN114157906A (zh) * | 2020-09-07 | 2022-03-08 | 北京达佳互联信息技术有限公司 | 视频检测方法、装置、电子设备及存储介质 |
WO2022134699A1 (zh) * | 2020-12-22 | 2022-06-30 | 上海幻电信息科技有限公司 | 视频处理方法及装置 |
CN116049743A (zh) * | 2022-12-14 | 2023-05-02 | 深圳市仰和技术有限公司 | 基于多模态数据的认知识别方法、计算机设备和存储介质 |
CN113256456B (zh) * | 2021-04-22 | 2024-06-07 | 国家广播电视总局机关服务中心(国家广播电视总局机关服务局、国家广播电视总局物业管理中心) | 一种基于b/s模式的远程数据处理方法和服务器 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226835A (zh) * | 2013-04-15 | 2013-07-31 | 北京大学深圳研究生院 | 基于在线初始化梯度增强回归树的目标跟踪方法及系统 |
CN104504365A (zh) * | 2014-11-24 | 2015-04-08 | 闻泰通讯股份有限公司 | 视频序列中的笑脸识别系统及方法 |
WO2017176561A1 (en) * | 2016-04-08 | 2017-10-12 | Microsoft Technology Licensing, Llc | Audience targeted filtering of content sections |
US20180144194A1 (en) * | 2016-11-22 | 2018-05-24 | Jinsoo Park | Method and apparatus for classifying videos based on audio signals |
CN108763362A (zh) * | 2018-05-17 | 2018-11-06 | 浙江工业大学 | 基于随机锚点对选择的局部模型加权融合Top-N电影推荐方法 |
CN108846375A (zh) * | 2018-06-29 | 2018-11-20 | 山东大学 | 一种基于神经网络的多模态协同学习方法及装置 |
CN109359636A (zh) * | 2018-12-14 | 2019-02-19 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置及服务器 |
CN109472232A (zh) * | 2018-10-31 | 2019-03-15 | 山东师范大学 | 基于多模态融合机制的视频语义表征方法、系统及介质 |
CN109508584A (zh) * | 2017-09-15 | 2019-03-22 | 腾讯科技(深圳)有限公司 | 视频分类的方法、信息处理的方法以及服务器 |
-
2019
- 2019-04-04 CN CN201910273083.4A patent/CN110162669B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226835A (zh) * | 2013-04-15 | 2013-07-31 | 北京大学深圳研究生院 | 基于在线初始化梯度增强回归树的目标跟踪方法及系统 |
CN104504365A (zh) * | 2014-11-24 | 2015-04-08 | 闻泰通讯股份有限公司 | 视频序列中的笑脸识别系统及方法 |
WO2017176561A1 (en) * | 2016-04-08 | 2017-10-12 | Microsoft Technology Licensing, Llc | Audience targeted filtering of content sections |
US20180144194A1 (en) * | 2016-11-22 | 2018-05-24 | Jinsoo Park | Method and apparatus for classifying videos based on audio signals |
CN109508584A (zh) * | 2017-09-15 | 2019-03-22 | 腾讯科技(深圳)有限公司 | 视频分类的方法、信息处理的方法以及服务器 |
CN108763362A (zh) * | 2018-05-17 | 2018-11-06 | 浙江工业大学 | 基于随机锚点对选择的局部模型加权融合Top-N电影推荐方法 |
CN108846375A (zh) * | 2018-06-29 | 2018-11-20 | 山东大学 | 一种基于神经网络的多模态协同学习方法及装置 |
CN109472232A (zh) * | 2018-10-31 | 2019-03-15 | 山东师范大学 | 基于多模态融合机制的视频语义表征方法、系统及介质 |
CN109359636A (zh) * | 2018-12-14 | 2019-02-19 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置及服务器 |
Non-Patent Citations (2)
Title |
---|
刘扬等: "基于文本及视音频多模态信息的新闻分割", 《计算机工程与应用》 * |
张玉珍等: "基于多模态融合的足球视频语义分析", 《计算机科学》 * |
Cited By (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674350A (zh) * | 2019-09-23 | 2020-01-10 | 网易(杭州)网络有限公司 | 视频人物检索方法、介质、装置和计算设备 |
CN110674350B (zh) * | 2019-09-23 | 2022-02-08 | 网易(杭州)网络有限公司 | 视频人物检索方法、介质、装置和计算设备 |
CN110704679B (zh) * | 2019-09-27 | 2023-10-13 | 北京字节跳动网络技术有限公司 | 视频分类方法、装置及电子设备 |
CN110704679A (zh) * | 2019-09-27 | 2020-01-17 | 北京字节跳动网络技术有限公司 | 视频分类方法、装置及电子设备 |
CN112580658A (zh) * | 2019-09-29 | 2021-03-30 | 中国移动通信集团辽宁有限公司 | 图像语义描述方法、装置、计算设备及计算机存储介质 |
CN112580658B (zh) * | 2019-09-29 | 2024-03-12 | 中国移动通信集团辽宁有限公司 | 图像语义描述方法、装置、计算设备及计算机存储介质 |
CN110737801B (zh) * | 2019-10-14 | 2024-01-02 | 腾讯科技(深圳)有限公司 | 内容分类方法、装置、计算机设备和存储介质 |
CN110737801A (zh) * | 2019-10-14 | 2020-01-31 | 腾讯科技(深圳)有限公司 | 内容分类方法、装置、计算机设备和存储介质 |
CN110879974A (zh) * | 2019-11-01 | 2020-03-13 | 北京微播易科技股份有限公司 | 一种视频分类方法和装置 |
WO2021088510A1 (zh) * | 2019-11-05 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、计算机以及可读存储介质 |
CN111046227A (zh) * | 2019-11-29 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 一种视频查重方法及装置 |
CN111046227B (zh) * | 2019-11-29 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种视频查重方法及装置 |
CN112949288A (zh) * | 2019-12-11 | 2021-06-11 | 上海大学 | 一种基于字符序列的文本检错方法 |
CN110990631A (zh) * | 2019-12-16 | 2020-04-10 | 腾讯科技(深圳)有限公司 | 视频筛选方法、装置、电子设备和存储介质 |
CN111163366A (zh) * | 2019-12-30 | 2020-05-15 | 厦门市美亚柏科信息股份有限公司 | 一种视频处理方法及终端 |
CN111209970B (zh) * | 2020-01-08 | 2023-04-25 | Oppo(重庆)智能科技有限公司 | 视频分类方法、装置、存储介质及服务器 |
CN111209970A (zh) * | 2020-01-08 | 2020-05-29 | Oppo(重庆)智能科技有限公司 | 视频分类方法、装置、存储介质及服务器 |
CN111212288B (zh) * | 2020-01-09 | 2022-10-04 | 广州虎牙科技有限公司 | 视频数据的编解码方法、装置、计算机设备和存储介质 |
CN111212288A (zh) * | 2020-01-09 | 2020-05-29 | 广州虎牙科技有限公司 | 视频数据的编解码方法、装置、计算机设备和存储介质 |
CN111274995A (zh) * | 2020-02-13 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、设备和计算机可读存储介质 |
CN111324774A (zh) * | 2020-02-26 | 2020-06-23 | 腾讯科技(深圳)有限公司 | 一种视频去重方法和装置 |
CN111401440A (zh) * | 2020-03-13 | 2020-07-10 | 重庆第二师范学院 | 目标分类识别方法、装置、计算机设备及存储介质 |
CN111400551A (zh) * | 2020-03-13 | 2020-07-10 | 咪咕文化科技有限公司 | 一种视频分类方法、电子设备和存储介质 |
CN111400551B (zh) * | 2020-03-13 | 2022-11-15 | 咪咕文化科技有限公司 | 一种视频分类方法、电子设备和存储介质 |
CN111488489B (zh) * | 2020-03-26 | 2023-10-24 | 腾讯科技(深圳)有限公司 | 视频文件的分类方法、装置、介质及电子设备 |
CN111488489A (zh) * | 2020-03-26 | 2020-08-04 | 腾讯科技(深圳)有限公司 | 视频文件的分类方法、装置、介质及电子设备 |
CN111444387A (zh) * | 2020-03-27 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、计算机设备和存储介质 |
CN111581510A (zh) * | 2020-05-07 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 分享内容处理方法、装置、计算机设备和存储介质 |
CN111581510B (zh) * | 2020-05-07 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 分享内容处理方法、装置、计算机设备和存储介质 |
CN111723784A (zh) * | 2020-07-30 | 2020-09-29 | 腾讯科技(深圳)有限公司 | 一种风险视频识别方法、装置和电子设备 |
CN114157906B (zh) * | 2020-09-07 | 2024-04-02 | 北京达佳互联信息技术有限公司 | 视频检测方法、装置、电子设备及存储介质 |
CN114157906A (zh) * | 2020-09-07 | 2022-03-08 | 北京达佳互联信息技术有限公司 | 视频检测方法、装置、电子设备及存储介质 |
CN112231497A (zh) * | 2020-10-19 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 信息分类方法、装置、存储介质及电子设备 |
CN112231497B (zh) * | 2020-10-19 | 2024-04-09 | 腾讯科技(深圳)有限公司 | 信息分类方法、装置、存储介质及电子设备 |
CN112579824A (zh) * | 2020-12-16 | 2021-03-30 | 北京中科闻歌科技股份有限公司 | 视频数据分类方法、装置、电子设备及存储介质 |
WO2022134699A1 (zh) * | 2020-12-22 | 2022-06-30 | 上海幻电信息科技有限公司 | 视频处理方法及装置 |
CN112714362A (zh) * | 2020-12-25 | 2021-04-27 | 北京百度网讯科技有限公司 | 确定属性的方法、装置、电子设备、介质和程序产品 |
CN112714362B (zh) * | 2020-12-25 | 2023-06-27 | 北京百度网讯科技有限公司 | 确定属性的方法、装置、电子设备和介质 |
CN112820412B (zh) * | 2021-02-03 | 2024-03-08 | 东软集团股份有限公司 | 用户信息的处理方法、装置、存储介质和电子设备 |
CN112820412A (zh) * | 2021-02-03 | 2021-05-18 | 东软集团股份有限公司 | 用户信息的处理方法、装置、存储介质和电子设备 |
CN113011382A (zh) * | 2021-04-12 | 2021-06-22 | 北京明略软件系统有限公司 | 视频片段分类模型构建方法、系统、电子设备及存储介质 |
CN113011383A (zh) * | 2021-04-12 | 2021-06-22 | 北京明略软件系统有限公司 | 视频标签定义模型构建方法、系统、电子设备及存储介质 |
CN113256456A (zh) * | 2021-04-22 | 2021-08-13 | 国家广播电视总局机关服务中心(国家广播电视总局机关服务局、国家广播电视总局物业管理中心) | 一种基于b/s模式的远程数据处理方法和服务器 |
CN113256456B (zh) * | 2021-04-22 | 2024-06-07 | 国家广播电视总局机关服务中心(国家广播电视总局机关服务局、国家广播电视总局物业管理中心) | 一种基于b/s模式的远程数据处理方法和服务器 |
CN113033707B (zh) * | 2021-04-25 | 2023-08-04 | 北京有竹居网络技术有限公司 | 视频分类方法、装置、可读介质及电子设备 |
CN113033707A (zh) * | 2021-04-25 | 2021-06-25 | 北京有竹居网络技术有限公司 | 视频分类方法、装置、可读介质及电子设备 |
CN112990126A (zh) * | 2021-04-27 | 2021-06-18 | 北京世纪好未来教育科技有限公司 | 视频分类方法、装置、计算机设备和介质 |
CN113836992B (zh) * | 2021-06-15 | 2023-07-25 | 腾讯科技(深圳)有限公司 | 识别标签的方法、训练标签识别模型的方法、装置及设备 |
CN113836992A (zh) * | 2021-06-15 | 2021-12-24 | 腾讯科技(深圳)有限公司 | 识别标签的方法、训练标签识别模型的方法、装置及设备 |
CN113837576A (zh) * | 2021-09-14 | 2021-12-24 | 上海任意门科技有限公司 | 用于内容推荐的方法、计算设备和计算机可读存储介质 |
CN116049743A (zh) * | 2022-12-14 | 2023-05-02 | 深圳市仰和技术有限公司 | 基于多模态数据的认知识别方法、计算机设备和存储介质 |
CN116049743B (zh) * | 2022-12-14 | 2023-10-31 | 深圳市仰和技术有限公司 | 基于多模态数据的认知识别方法、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110162669B (zh) | 2021-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110162669A (zh) | 视频分类处理方法、装置、计算机设备及存储介质 | |
CN110737801B (zh) | 内容分类方法、装置、计算机设备和存储介质 | |
CN110263324B (zh) | 文本处理方法、模型训练方法和装置 | |
JP7242912B2 (ja) | オリジナル音声の声紋を認識する方法、装置、設備および記憶媒体 | |
Xu et al. | A social emotion classification approach using multi-model fusion | |
WO2024001646A1 (zh) | 音频数据的处理方法、装置、电子设备、程序产品及存储介质 | |
KR102109369B1 (ko) | 시계열 데이터의 변화를 예측하고 그 이유를 설명하는 인공지능 시스템 | |
CN113806587A (zh) | 一种多模态特征融合的视频描述文本生成方法 | |
CN112215008A (zh) | 基于语义理解的实体识别方法、装置、计算机设备和介质 | |
CN113392717B (zh) | 一种基于时序特征金字塔的视频密集描述生成方法 | |
CN112270184B (zh) | 自然语言处理方法、装置及存储介质 | |
CN114443899A (zh) | 视频分类方法、装置、设备及介质 | |
WO2024021882A1 (zh) | 音频数据处理方法、装置、计算机设备和存储介质 | |
Li et al. | A deep reinforcement learning framework for Identifying funny scenes in movies | |
CN113609284A (zh) | 一种融合多元语义的文本摘要自动生成方法及装置 | |
CN114218488A (zh) | 基于多模态特征融合的信息推荐方法、装置及处理器 | |
CN114329051B (zh) | 数据信息识别方法、装置、设备、存储介质及程序产品 | |
CN116306603A (zh) | 标题生成模型的训练方法和标题生成方法、装置和介质 | |
CN117197271A (zh) | 图像生成方法、装置、电子设备及存储介质 | |
CN110442855A (zh) | 一种语音分析方法和系统 | |
CN117251622A (zh) | 对象推荐的方法、装置、计算机设备和存储介质 | |
CN110516086B (zh) | 一种基于深度神经网络影视标签自动获取方法 | |
CN116469359A (zh) | 音乐风格迁移方法、装置、计算机设备及存储介质 | |
CN113919338B (zh) | 处理文本数据的方法及设备 | |
CN115186085A (zh) | 回复内容处理方法以及媒体内容互动内容的交互方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20221115 Address after: 1402, Floor 14, Block A, Haina Baichuan Headquarters Building, No. 6, Baoxing Road, Haibin Community, Xin'an Street, Bao'an District, Shenzhen, Guangdong 518100 Patentee after: Shenzhen Yayue Technology Co.,Ltd. Address before: 518000 Tencent Building, No. 1 High-tech Zone, Nanshan District, Shenzhen City, Guangdong Province, 35 Floors Patentee before: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd. |