CN111026904A - 一种基于内容画像的播单评分方法 - Google Patents

一种基于内容画像的播单评分方法 Download PDF

Info

Publication number
CN111026904A
CN111026904A CN201911084049.9A CN201911084049A CN111026904A CN 111026904 A CN111026904 A CN 111026904A CN 201911084049 A CN201911084049 A CN 201911084049A CN 111026904 A CN111026904 A CN 111026904A
Authority
CN
China
Prior art keywords
playlist
audio
model
content
dnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911084049.9A
Other languages
English (en)
Other versions
CN111026904B (zh
Inventor
吴杰
丁宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Lizhi Network Technology Co ltd
Original Assignee
Guangzhou Lizhi Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Lizhi Network Technology Co ltd filed Critical Guangzhou Lizhi Network Technology Co ltd
Priority to CN201911084049.9A priority Critical patent/CN111026904B/zh
Publication of CN111026904A publication Critical patent/CN111026904A/zh
Application granted granted Critical
Publication of CN111026904B publication Critical patent/CN111026904B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本发明公开了一种基于内容画像的播单评分方法,所述评分方法包括:根据音频的内容信息构建内容画像系统;根据所构建的内容画像系统构建播单画像系统,所述播单画像系统用于描述所述音频与所述播单之间的关系;基于所构建的所述内容画像系统和所述播单画像系统,通过深度学习算法对所述音频的内容信息和所述播单的内容信息构建模型以完成所述播单内容的价值评估。其设计合理,可智能化的完成音频播单相关的价值评分。

Description

一种基于内容画像的播单评分方法
技术领域
本发明涉及音频数据智能处理的技术领域,尤其涉及一种基于内容画像的播单评分方法。
背景技术
随着互联网行业的飞速发展,人们越来越多的在互联网各大平台获取信息,各种信息通过文字、声音、视频等各种方式,搭载各种平台满足用户的各方面对于信息的需求。声音作为最主要的信息载体以及人们获取外界信息的最重要的渠道之一,扮演着越来越重要的角色。由于声音不可见的特殊性,通过播单整合声音是人们获取各种声音信息最主要的方式,因此播单好坏的评价成为声音领域最重要的评价内容之一。
现阶段,对于音频播单的评分方法,主要是采用人工的方式进行,采用人工的方式会有如下缺点:
(1)效率低,每个播单都通过人工的方式进行评价,占用的大量人力;
(2)不客观,声音播单承载的信息方方面面,人很难覆盖到所有维度的信息,并且给出很准确的价值评估。
发明内容
本发明旨在至少在一定程度上解决现有相关技术中存在的问题之一,为此,本发明提出一种基于内容画像的播单评分方法,其设计合理,可智能化的完成音频播单相关的价值评分。
上述目的是通过如下技术方案来实现的:
一种基于内容画像的播单评分方法,所述评分方法包括:
根据音频的内容信息构建内容画像系统;
根据所构建的内容画像系统构建播单画像系统,所述播单画像系统用于描述所述音频与所述播单之间的关系;
基于所构建的所述内容画像系统和所述播单画像系统,通过深度学习算法对所述音频的内容信息和所述播单的内容信息构建模型以完成所述播单内容的价值评估。
在一些实施方式中,所述内容画像系统包括:
获取所述音频的历史信息;
根据所获取的音频信息,通过数据挖掘算法和数据统计算法构建所述内容画像系统。
在一些实施方式中,所述音频的历史信息包括:
静态信息,所述静态信息包括所述音频的上传时间、所属类目和时长;
动态信息,所述动态信息包括所述音频的播放次数、播放总时长和评论数。
在一些实施方式中,所述播单画像系统包括:
获取所述播单的历史信息;
根据所获取的播单信息,通过数据挖掘算法和数据统计算法构建所述播单画像系统。
在一些实施方式中,其中所述播单的历史信息包括:
所述播单中的音频顺序;
所述播单中当前每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量、负面评论数量;
所述播单中音频内容的曝光率、点击率和完播放率;
距离当前时间的预设时间内,在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量。
在一些实施方式中,通过所述模型对待预测播单生成统计特征和序列特征,并且将统计特征和序列特征输入模型,模型最终计算的结果是所述模型对所述待预测播单的评分。
在一些实施方式中,所述模型的具体算法包括:
步骤S201,针对训练数据中的每个播单,使用n维向量表示每个音频在所述播单中的位置,每个音频的位置向量具体为:Flocation(n)=[x1,...,xk],其中0≦n≦k,n为每个音频在所述播单中的位置向量长度,k为位置向量长度;
步骤S202,根据所获取的每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、被点赞次数、正面评论数量和负面评论数量中每个特征据分别与位置向量进行拼接,每个特征拼接位置向量后的向量作为一个field,每个field的拼接方式如下:
Ffield(n)=[Ffeature(n1),Fflocaton(n1),...,Ffeature(nk),Flocation(nk)],其中k为位置向量长度,通过计算以得到相对应的七个特征向量,每个特征向量分别为该播单针对每个原始特征的信息;
根据所获取的在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量中每个特征序列分别与位置向量进行拼接,每个特征拼接位置向量后的向量序列作为一个field,每个field的拼接方式如下:
Ffield_seq(n)=[Ffeature_seq(n1),Fflocaton(n1),...,Ffeature_seq(n k),Flocation(nk)]其中k为位置向量长度,通过计算以得到相对应的七个特征向量序列,每个特征向量序列分别为该播单针对每个原始特征序列的信息;
步骤S203,所述模型将步骤S202中计算所得的特征输入dnn,具体计算公式如下:
Dnn_k(Ffield(n))=[x1,x2...,xm]其中m为位置向量长度,Dnn_k为第k个feature训练的DNN模型,所述DNN模型的输入为固定维度的特征向量,维度为m,则输出为压缩后的特征向量,维度为s,s≦m,K个所述Dnn模型输出的embedding维度相同。
此外,所述模型将步骤S202中的序列特征输入Rnn,具体计算公式如下:
Rnn_k(Ffield_seq(n))=[x1,x2,...,xm],其中m为位置向量长度,Rnn_k为第k个feature序列训练的Rnn模型,所述Rnn模型的输入为固定维度的特征向量序列,维度为m,输出为压缩后的特征向量,维度为s,s≦m,K个所述Rnn模型输出的embedding维度相同;
步骤S204,将步骤S203中七个DNN和七个Rnn的输出embedding按照固定顺序拼接,具体计算公式如下:
Fcombine(n)=[Dnn_0(Ffield(n)),Dnn_1(Ffield(n)),...,Dnn_k(Ffield(n)),Rnn_0(Ffield_seq(n)),Rnn_1(Ffield_seq(n)),...,Rnn_k(Ffield_seq(n))],同时将拼接后的向量作为输入特征,输入新的DNN网络,新的DNN网络为DNN层连接sigmoid激活函数,且新的DNN网络为Dnn_final(n)=sigmoid(w×
Fcombine(n)+b);
步骤S205,按照步骤S204中的拼接方式进行拼接embedding向量,拼接后的向量输入FM模型,所FM模型公式为:Yfm=<w,x>+<vi,vj>xj 1×xj2
(j1=(1,2,...,d),j2=(j1+1,j1+2,...,d)),其中d为embedding维度;
步骤S206,所述模型最终的输出计算公式为:y=sigmoid(Dnn_final(n)+Yfm),训练数据的真实标签是人工为该播单打的分数,损失函数为l2损失,参数更新使用批量下降。
在一些实施方式中,在第一预设时间内实时动态收集所述音频的信息以再次生成所述播单中每个音频新的统计数据和序列数据,同时通过所述模型完成所述播单内容新的价值评估。
在一些实施方式中,在第二预设时间内通过人工完成新播单内容的价值评估,并将所述新播单的评估数据添加到训练数据集以对所述模型进行微调训练。
在一些实施方式中,所述模型采用Rnn与DeepFM的融合算法。
与现有技术相比,本发明的至少包括以下有益效果:
1.本发明基于内容画像的播单评分方法,其设计合理,可智能化的完成音频播单相关的价值评分。
附图说明
图1是本发明实施例中播单评分方法的流程示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明请求保护的技术方案范围。
如图1所示,本实施例提供一种基于内容画像的播单评分方法,基于所构建的内容画像系统和播单画像系统,通过使用大数据相关数据挖掘技术和人工智能算法以智能化的、客观的完成播单内容的价值评分。
播单评分方法具体包括如下步骤:
步骤S101,根据音频的内容信息构建内容画像系统。
在本实施例中,获取音频的历史信息,根据所获取的音频信息,通过数据挖掘算法和数据统计算法构建内容画像系统,本实施例中音频的历史信息具体包括静态信息和动态信息,其中静态信息包括音频的上传时间、所属类目和时长;动态信息包括音频的播放次数、播放总时长和评论数。
步骤S102,根据所构建的内容画像系统构建播单画像系统,播单画像系统用于描述音频与播单之间的关系。
在本实施例中,获取播单的历史信息,根据所获取的播单信息,通过数据挖掘算法和数据统计算法构建播单画像系统,播单的历史信息具体包括播单中的音频顺序;播单中当前每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量、负面评论数量;
播单中音频内容的曝光率、点击率和完播放率;距离当前时间的预设时间内,在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量。
步骤S103,基于所构建的内容画像系统和播单画像系统,通过深度学习算法对音频的内容信息和播单的内容信息构建模型以完成播单内容的价值评估。
在本实施例中,通过模型对待预测播单生成统计特征和序列特征,并且将统计特征和序列特征输入模型,模型最终计算的结果是模型对待预测播单的评分。
在本实施例中,模型采用Rnn与DeepFM的融合算法,其中Rnn为循环神经网络,即根据播单中每个音频的历史信息提取播单中每个音频的热度发展趋势信息。
步骤S104,在第一预设时间内实时动态收集音频的信息以再次生成播单中每个音频新的统计数据和序列数据,同时通过模型完成播单内容新的价值评估。
在本实施例中,第一预设时间优选为一周,也可以为两周或者10天,当然还可以根据实际需要选择合适的预设时间,即每周重新生成播单内音频节目的统计数据和序列数据,重新通过模型为播单内容进行评分。
在本实施例中,在第二预设时间内通过人工完成新播单的内容价值评估,并将新播单的评估数据添加到训练数据集以对模型进行微调训练,第二预设时间优选为一个月,也可以为半个月或者两个月,当然还可以根据实际需要选择合适的预设时间,即每个月人工为一批新播单打分,添加到训练数据集后微调训练模型。
此外,步骤S103中模型的算法具体包括:
步骤S201,针对训练数据中的每个播单,使用n维向量表示每个音频在播单中的位置,每个音频的位置向量具体为:Flocation(n)=[x1,...,xk],其中0≦n≦k,n为每个音频在所述播单中的位置向量长度,k为位置向量长度,此外,n为超参时可根据算法效果调整。
在本实施例中,xk优选为1,当然还可以根据实际需要设置合适的数值,若xk=1时,其余的X数值均为0。
步骤S202,根据所获取的每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、被点赞次数、正面评论数量和负面评论数量的7个特征分别与位置向量进行拼接,每个特征拼接位置向量后的向量作为一个field,每个field的拼接方式如下:
Ffield(n)=[Ffeature(n1),Fflocaton(n1),...,Ffeature(nk),Flocation(nk)],其中k为位置向量长度,通过计算以得到相对应的七个特征向量,每个特征向量分别为该播单针对每个原始特征的信息;
根据所获取的在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量中每个特征序列的数据分别与位置向量进行拼接,每个特征拼接位置向量后的向量序列作为一个field,每个field的拼接方式如下:
Ffield_seq(n)=[Ffeature_seq(n1),Fflocaton(n1),...,Ffeature_seq(n k),Flocation(nk)]其中k为位置向量长度,通过计算以得到相对应的七个特征向量序列,每个特征向量序列分别为该播单针对每个原始特征序列的信息;
步骤S203,模型将步骤S202中计算所得的特征输入dnn,dnn为深度神经网络,具体计算公式如下:
Dnn_k(Ffield(n))=[x1,x2…,xm]其中m为位置向量长度,若m为超参时可根据效果调整,Dnn_k为第k个feature训练的DNN模型,DNN模型的输入为固定维度的特征向量,维度为m,输出为压缩后的特征向量,维度为s,s≦m,DNN模型为一个DNN层叠加,DNN模型的深度及每个层的节点数根据效果调整,K个DNN模型输出的embedding维度相同。
此外,模型将步骤S202中的序列特征输入Rnn,Rnn为循环神经网络,具体计算公式如下:
Rnn_k(Ffield_seq(n))=[x1,x2,…,xm],其中m为位置向量长度,若m为超参时可根据效果调整,Rnn_k为第k个feature序列训练的Rnn模型,Rnn模型的输入为固定维度的特征向量序列,维度为m,输出为压缩后的特征向量,维度为s,s≦m,Rnn模型为一个Rnn层叠加,Rnn模型的深度及每个层的节点数根据效果调整,K个Rnn模型输出的embedding维度相同;
步骤S204,将步骤S203中七个DNN和七个Rnn的输出embedding按照固定顺序拼接,具体计算公式如下:
Fcombine(n)=[Dnn_0(Ffield(n)),Dnn_1(Ffield(n)),...,Dnn_k(Ffield(n)),Rnn_0(Ffield_seq(n)),Rnn_1(Ffield_seq(n)),...,Rnn_k(Ffield_seq(n))],同时将拼接后的向量作为输入特征,输入新的DNN网络,新的DNN网络为DNN层连接sigmoid激活函数,网络的深度和每层节点数作为超参根据效果优化,并且新的DNN网络为Dnn_final(n)=sigmoid(w×Fcombine(n)+b);
步骤S205,按照步骤S204中的拼接方式进行拼接embedding向量,拼接后的向量输入FM模型,FM模型公式为:Yfm=<w,x>+<vi,vj>xj 1×xj2(j1=(1,2,…,d),j2=(j1+1,j1+2,…,d)),其中d为embedding维度;
步骤S206,模型最终的输出计算公式为:y=sigmoid(Dnn_final(n)+Yfm),训练数据的真实标签是人工为该播单打的分数,损失函数为l2损失,参数更新使用批量下降。
以上所述的仅是本发明的一些实施方式。对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (10)

1.一种基于内容画像的播单评分方法,其特征在于,所述评分方法包括:
根据音频的内容信息构建内容画像系统;
根据所构建的内容画像系统构建播单画像系统,所述播单画像系统用于描述所述音频与所述播单之间的关系;
基于所构建的所述内容画像系统和所述播单画像系统,通过深度学习算法对所述音频的内容信息和所述播单的内容信息构建模型以完成所述播单内容的价值评估。
2.根据权利要求1所述的一种基于内容画像的播单评分方法,其特征在于,所述内容画像系统包括:
获取所述音频的历史信息;
根据所获取的音频信息,通过数据挖掘算法和数据统计算法构建所述内容画像系统。
3.根据权利要求2所述的一种基于内容画像的播单评分方法,其特征在于,所述音频的历史信息包括:
静态信息,所述静态信息包括所述音频的上传时间、所属类目和时长;
动态信息,所述动态信息包括所述音频的播放次数、播放总时长和评论数。
4.根据权利要求1所述的一种基于内容画像的播单评分方法,其特征在于,所述播单画像系统包括:
获取所述播单的历史信息;
根据所获取的播单信息,通过数据挖掘算法和数据统计算法构建所述播单画像系统。
5.根据权利要求4所述的一种基于内容画像的播单评分方法,其特征在于,其中所述播单的历史信息包括:
所述播单中的音频顺序;
所述播单中当前每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量、负面评论数量;
所述播单中音频内容的曝光率、点击率和完播放率;
距离当前时间的预设时间内,在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量。
6.根据权利要求5所述的一种基于内容画像的播单评分方法,其特征在于,通过所述模型对待预测播单生成统计特征和序列特征,并且将统计特征和序列特征输入模型,模型最终计算的结果是所述模型对所述待预测播单的评分。
7.根据权利要求6所述的一种基于内容画像的播单评分方法,其特征在于,所述模型的具体算法包括:
步骤S201,针对训练数据中的每个播单,使用n维向量表示每个音频在所述播单中的位置,每个音频的位置向量具体为:Flocation(n)=[x1,...,xk],其中0≦n≦k,n为每个音频在所述播单中的位置向量长度,k为位置向量长度;
步骤S202,根据所获取的每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、被点赞次数、正面评论数量和负面评论数量中每个特征分别与位置向量进行拼接,每个特征拼接位置向量后的向量作为一个field,每个field的拼接方式如下:
Ffield(n)=[Ffeature(n1),Fflocaton(n1),...,Ffeature(nk),Flocation(nk)],其中k为位置向量长度,通过计算以得到相对应的七个特征向量,每个特征向量分别为该播单针对每个原始特征的信息;
根据所获取的在预设时间段里每个音频的曝光次数、点击次数、播放次数、完播次数、下载次数、点赞次数、正面评论数量和负面评论数量中每个特征序列分别与位置向量进行拼接,每个特征拼接位置向量后的向量序列作为一个field,每个field的拼接方式如下:
Ffield_seq(n)=[Ffeature_seq(n1),Fflocaton(n1),...,Ffeature_seq(nk),Flocation(nk)]其中k为位置向量长度,通过计算以得到相对应的七个特征向量序列,每个特征向量序列分别为该播单针对每个原始特征序列的信息;
步骤S203,所述模型将步骤S202中计算所得的特征输入DNN(Deep Neural Networks深度神经网络),具体计算公式如下:
Dnn_k(Ffield(n))=[x1,x2...,xm]其中m为位置向量长度,Dnn_k为第k个feature训练的DNN模型,所述DNN模型的输入为固定维度的特征向量,维度为m,则输出为压缩后的特征向量,维度为s,s≦m,K个所述Dnn模型输出的embedding维度相同。
此外,所述模型将步骤S202中的序列特征输入Rnn(Recurrent Neural Networks循环神经网络),具体计算公式如下:
Rnn_k(Ffield_seq(n))=[x1,x2,...,xm],其中m为位置向量长度,Rnn_k为第k个feature序列训练的Rnn模型,所述Rnn模型的输入为固定维度的特征向量序列,维度为m,则输出为压缩后的特征向量,维度为s,s≦m,K个所述Rnn模型输出的embedding维度相同;
步骤S204,将步骤S203中七个DNN和七个Rnn的输出embedding按照固定顺序拼接,具体计算公式如下:
Fcombine(n)=[Dnn_0(Ffield(n)),Dnn_1(Ffield(n)),...,Dnn_k(Ffield(n)),Rnn_0(Ffield_seq(n)),Rnn_1(Ffield_seq(n)),...,Rnn_k(Ffield_seq(n))],同时将拼接后的向量作为输入特征,输入新的DNN网络,新的DNN网络为DNN层连接sigmoid激活函数,且新DNN网络为Dnn_final(n)=sigmoid(w×Fcombine(n)+b);
步骤S205,按照步骤S204中的拼接方式进行拼接embedding向量,拼接后的向量输入fm模型,所述fm模型公式为:Yfm=<w,x>+<vi,vj>xj1×xj2(j1=(1,2,...,d),j2=(j1+1,j1+2,...,d)),其中d为embedding维度;
步骤S206,所述模型最终的输出计算公式为:y=sigmoid(Dnn_final(n)+Yfm),训练数据的真实标签是人工为该播单打的分数,损失函数为l2损失,参数更新使用批量下降。
8.根据权利要求1至7任一所述的一种基于内容画像的播单评分方法,其特征在于,在第一预设时间内实时动态收集所述音频的信息以再次生成所述播单中每个音频新的统计数据和序列数据,同时通过所述模型完成所述播单内容新的价值评估。
9.根据权利要求8所述的一种基于内容画像的播单评分方法,其特征在于,在第二预设时间内通过人工完成新播单内容的价值评估,并将所述新播单的评估数据添加到训练数据集以对所述模型进行微调训练。
10.根据权利要求1至7任一所述的一种基于内容画像的播单评分方法,其特征在于,所述模型采用Rnn与DeepFM的融合算法。
CN201911084049.9A 2019-11-07 2019-11-07 一种基于内容画像的播单评分方法 Active CN111026904B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911084049.9A CN111026904B (zh) 2019-11-07 2019-11-07 一种基于内容画像的播单评分方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911084049.9A CN111026904B (zh) 2019-11-07 2019-11-07 一种基于内容画像的播单评分方法

Publications (2)

Publication Number Publication Date
CN111026904A true CN111026904A (zh) 2020-04-17
CN111026904B CN111026904B (zh) 2023-06-23

Family

ID=70201206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911084049.9A Active CN111026904B (zh) 2019-11-07 2019-11-07 一种基于内容画像的播单评分方法

Country Status (1)

Country Link
CN (1) CN111026904B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112650884A (zh) * 2020-12-21 2021-04-13 四川长虹电器股份有限公司 基于深度学习的视频推送方法
CN112990443A (zh) * 2021-05-06 2021-06-18 北京芯盾时代科技有限公司 神经网络评价方法及装置、电子设备、存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105373600A (zh) * 2015-10-30 2016-03-02 北京奇艺世纪科技有限公司 视频播单排序方法及装置
CN109982155A (zh) * 2019-03-25 2019-07-05 北京奇艺世纪科技有限公司 一种播单推荐方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105373600A (zh) * 2015-10-30 2016-03-02 北京奇艺世纪科技有限公司 视频播单排序方法及装置
CN109982155A (zh) * 2019-03-25 2019-07-05 北京奇艺世纪科技有限公司 一种播单推荐方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112650884A (zh) * 2020-12-21 2021-04-13 四川长虹电器股份有限公司 基于深度学习的视频推送方法
CN112650884B (zh) * 2020-12-21 2022-04-01 四川长虹电器股份有限公司 基于深度学习的视频推送方法
CN112990443A (zh) * 2021-05-06 2021-06-18 北京芯盾时代科技有限公司 神经网络评价方法及装置、电子设备、存储介质

Also Published As

Publication number Publication date
CN111026904B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
CN109408731A (zh) 一种多目标推荐方法、多目标推荐模型生成方法以及装置
CN111667308A (zh) 广告推荐预测系统及方法
CN109800879A (zh) 知识库构建方法和装置
Paris et al. Applying boosting techniques to genetic programming
CN110047462B (zh) 一种语音合成方法、装置和电子设备
CN111026904A (zh) 一种基于内容画像的播单评分方法
CN114218488A (zh) 基于多模态特征融合的信息推荐方法、装置及处理器
CN115630943A (zh) 智能排班方法及装置
CN111667805A (zh) 一种伴奏音乐的提取方法、装置、设备和介质
EP1587003A2 (en) Song search system and song search method
CN114117086A (zh) 多媒体作品的制作方法、装置及计算机可读存储介质
CN110619447B (zh) 一种主播的评价方法、装置、设备和存储介质
CN115602158A (zh) 一种基于电话信道的语音识别声学模型构建方法及系统
CN115358473A (zh) 基于深度学习的电力负荷预测方法及预测系统
JP7510789B2 (ja) 映像区間重要度算出モデル学習装置およびそのプログラム、ならびに、要約映像生成装置およびそのプログラム
CN114756680A (zh) 一种文本分类方法、系统、电子设备及存储介质
CN114363671A (zh) 多媒体资源推送方法、模型训练方法、装置、存储介质
CN113870837A (zh) 语音合成模型的训练方法、装置、设备及可读存储介质
CN114067785B (zh) 语音深度神经网络训练方法、装置、存储介质及电子装置
JP2005309712A (ja) 楽曲検索システムおよび楽曲検索方法
CN112488291A (zh) 一种神经网络8比特量化压缩方法
DE10006937C2 (de) Verfahren für einen Rückverfolgungsmatrixspeicher in einem Sprachwiedererkennungssystem
JP4246101B2 (ja) 楽曲検索システムおよび楽曲検索方法
CN111859945A (zh) 一种词向量训练方法及装置
CN116431779B (zh) 法律领域faq问答的匹配方法、装置、存储介质及电子装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant