CN111626041B - 一种基于深度学习的音乐评论生成方法 - Google Patents

一种基于深度学习的音乐评论生成方法 Download PDF

Info

Publication number
CN111626041B
CN111626041B CN202010379417.9A CN202010379417A CN111626041B CN 111626041 B CN111626041 B CN 111626041B CN 202010379417 A CN202010379417 A CN 202010379417A CN 111626041 B CN111626041 B CN 111626041B
Authority
CN
China
Prior art keywords
music
text
comment
lyric
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010379417.9A
Other languages
English (en)
Other versions
CN111626041A (zh
Inventor
黄璜
赵海秀
张少杰
王彦青
王为强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinxun Digital Technology Hangzhou Co ltd
Original Assignee
Xinxun Digital Technology Hangzhou Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinxun Digital Technology Hangzhou Co ltd filed Critical Xinxun Digital Technology Hangzhou Co ltd
Priority to CN202010379417.9A priority Critical patent/CN111626041B/zh
Publication of CN111626041A publication Critical patent/CN111626041A/zh
Application granted granted Critical
Publication of CN111626041B publication Critical patent/CN111626041B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种基于深度学习的音乐评论生成方法,包括:使用网络爬虫技术,获取音乐原始评论,构建音乐评论库;基于Bert模型和Transformer模型,构建文本摘要生成模型,将待评论音乐的歌词文本输入文本摘要生成模型,获得歌词摘要文本;判断音乐评论库中所有音乐的原始评论中是否存在有待评论音乐的音乐名或歌手名,如果是,则挑选出存在有音乐名或歌手名的原始评论,如果否,则计算待评论音乐的歌词摘要文本和音乐评论库中每条音乐的原始评论的文本相似度,并挑选出相似度最高的原始评论;基于VAE模型构建复述生成模型,将挑选出的原始评论输入复述生成模型,生成新的评论文本。本发明属于信息技术领域,能自动生成音乐的评论文本,并提高文本准确度、多样性和流畅度。

Description

一种基于深度学习的音乐评论生成方法
技术领域
本发明涉及一种基于深度学习的音乐评论生成方法,属于信息技术领域。
背景技术
随着网络科技的发展,用户可以随时随地的欣赏到各种音乐。现有技术中,大量音乐的评论区只有少量评论甚至没有评论。通常情况下,为了吸引用户的参与和关注,可以采用人工手动撰写评论的方式,但这种人工手动的方式效率非常低。
专利申请CN201710196125.X(申请名称:基于人工智能的评论生成方法及装置、设备与可读介质,申请日:2017.03.29,申请人:北京百度网讯科技有限公司)公开了一种基于人工智能的评论生成方法及装置、设备与可读介质。其所述方法包括:从预设的分词语料库中挖掘与主题扣题的评论语句中的目标分词对齐的候选分词;分别获取目标分词的候选分词对应的对齐特征、语言特征以及上下文特征;根据目标分词的候选分词对应的对齐特征、语言特征以及上下文特征以及预先训练的可行性打分模型,预测评论语句中候选分词能够替换对应的目标分词的可行性分值;若可行性分值大于或者等于预设的可行性分数阈值,将评论语句中的目标分词替换为候选分词,生成主题对应的评论语句。该技术方案只是从语料库中选取目标语句中可替换的关键词,通过打分系统选出最好的候选词进行替换,使用的文本语义信息不充分,且没有很好地利用到文本的整体语义特征和上下文信息特征,同时,替换后的文本与原始文本相似度较高,最终生成的文本准确性和多样性也存在不足。
因此,如何自动生成音乐的评论文本,并提高评论文本的准确度、多样性和流畅度,已经成为技术人员普遍关注的技术问题。
发明内容
有鉴于此,本发明的目的是提供一种基于深度学习的音乐评论生成方法,能自动生成音乐的评论文本,并提高评论文本的准确度、多样性和流畅度。
为了达到上述目的,本发明提供了一种基于深度学习的音乐评论生成方法,包括有:
步骤一、使用网络爬虫技术,获取音乐原始评论,从而构建音乐评论库,所述音乐评论库用于保存网络上获取到的音乐的原始评论;
步骤二、基于Bert模型和Transformer模型,构建sequence to sequence文本摘要生成模型,sequence to sequence文本摘要生成模型的输入是音乐歌词文本,输出是歌词摘要文本,将待评论音乐的音乐歌词文本输入sequence to sequence文本摘要生成模型,并获得对应的歌词摘要文本;
步骤三、判断音乐评论库中所有音乐的原始评论中是否存在有待评论音乐的音乐名或歌手名,如果是,则从音乐评论库中挑选出存在有待评论音乐的音乐名或歌手名的原始评论,然后继续下一步;如果否,则计算待评论音乐的歌词摘要文本和音乐评论库中每条音乐的原始评论的文本相似度,并挑选出与待评论音乐的歌词摘要文本的相似度最高的原始评论,然后继续下一步;
步骤四、基于VAE模型,构建VAE复述生成模型,VAE复述生成模型的输入是评论文本,输出是生成的复述评论文本,将为待评论音乐挑选出的原始评论输入VAE复述生成模型,从而为待评论音乐生成新的评论文本,
步骤二进一步包括有:
步骤21、将音乐歌词文本分割成多句话,并将每句话再继续分割成多个词,分割得到的每句话或者每个词都是一个语义单元,然后将每个语义单元分别输入Bert模型,获得Bert模型输出的语义特征向量;
步骤22、计算每个分割词的位置特征向量:
其中,Zpos(i)是词i的位置特征向量,pos是词i在句子中的排序位置,d是向量维度;
步骤23、计算每个分割词的文本表示向量:Z(i)=Zpos(i)+Zword(i)+Zsen(i),其中,Z(i)是词i的文本表示向量,Zsen(i)是词i所属句子或窗口序列的语义特征向量,Zword(i)是词i的语义特征向量,当词i所属句子的长度超过句长阈值时,以词i为中心,从其所属句子中截取一个上下文窗口长度的窗口序列,Zsen(i)即是截取的窗口序列的语义特征向量;
步骤24、按分割词在音乐歌词文本中的排序位置,依次将每个分割词的文本表示向量输入Transformer模型,并获得Transformer模型输出的歌词摘要序列,从而获得歌词摘要文本。
与现有技术相比,本发明的有益效果是:本发明针对生成评论需要与目标音乐主题相关的问题,通过生成歌词摘要的方式,一方面可以直接输出与目标音乐相关的新评论,另一方面作为之后相关度匹配的输入,剔除了与音乐主题无关的无义文本信息,并在生成摘要时,通过使用深度学习seq2seq模型,提升了系统的语义理解能力;本发明使用编码解码模型,可以进一步增强文本生成的准确度和流畅度,并通过使用VAE模型结合Bert网络和Transformer网络,对文本的语义理解能力和文本生成能力更强,最终生成的评论结果流畅性和多样性更高。
附图说明
图1是本发明一种基于深度学习的音乐评论生成方法的流程图。
图2是图1步骤二的具体步骤流程图。
图3是图1步骤三中计算待评论音乐的歌词摘要文本和音乐评论库中的每条音乐的原始评论的文本相似度的具体步骤流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明作进一步的详细描述。
如图1所示,本发明一种基于深度学习的音乐评论生成方法,包括有:
步骤一、使用网络爬虫技术,获取音乐原始评论,从而构建音乐评论库,所述音乐评论库用于保存网络上获取到的音乐的原始评论;
步骤二、基于Bert模型和Transformer模型,构建sequence to sequence文本摘要生成模型,sequence to sequence文本摘要生成模型的输入是音乐歌词文本,输出是歌词摘要文本,将待评论音乐的音乐歌词文本输入sequence to sequence文本摘要生成模型,并获得对应的歌词摘要文本;
步骤三、判断音乐评论库中所有音乐的原始评论中是否存在有待评论音乐的音乐名或歌手名,如果是,则从音乐评论库中挑选出存在有待评论音乐的音乐名或歌手名的原始评论,然后继续下一步;如果否,则计算待评论音乐的歌词摘要文本和音乐评论库中每条音乐的原始评论的文本相似度,并挑选出与待评论音乐的歌词摘要文本的相似度最高的原始评论,然后继续下一步;
步骤四、基于VAE模型,构建VAE复述生成模型,VAE复述生成模型的输入是评论文本,输出是生成的复述评论文本,将为待评论音乐挑选出的原始评论输入VAE复述生成模型,从而为待评论音乐生成新的评论文本。
步骤一中,还可以进一步对从网络上获取的音乐原始评论做正则匹配和短语替换的数据清洗操作,其中,短语替换是将音乐原始评论中的音乐名、歌手名等具体指代词用占位符替代,正则匹配是对音乐原始评论的文本信息进行增强,例如将评论中的主要人名做统一,使得文本中的具体指代信息更为统一。
如图2所示,步骤二可以进一步包括有:
步骤21、将音乐歌词文本分割成多句话,并将每句话再继续分割成多个词,分割得到的每句话或者每个词都是一个语义单元(即词组),然后将每个语义单元分别输入Bert模型,获得Bert模型输出的语义特征向量;
步骤22、计算每个分割词的位置特征向量:
其中,Zpos(i)是词i的位置特征向量,pos是词i在句子中的排序位置,d是向量维度,d可以根据实际业务需要而设置,例如d为128;
传统的RNN模型的序列结构对于序列的位置编码具有天然的优势,因为RNN的每一个时刻的状态输入都需要等待上一个时刻的状态输出完成。但是这种特性也导致了RNN不适合大规模的并行训练,模型处理速度较慢。Bert使用的是纯Attnention机制编码的,并在很大的网络数据上进行了预训练,比传统RNN在语义编码上的能力更强,但不保留序列的位置信息,因此本发明通过计算每个词的位置特征向量,可以有效保留序列的位置编码信息;
步骤23、计算每个分割词的文本表示向量:Z(i)=Zpos(i)+Zword(i)+Zsen(i),其中,Z(i)是词i的文本表示向量,Zsen(i)是词i所属句子或窗口序列的语义特征向量,Zword(i)是词i的语义特征向量,当词i所属句子的长度超过句长阈值时,以词i为中心,从其所属句子中截取一个上下文窗口长度的窗口序列,Zsen(i)即是截取的窗口序列的语义特征向量,句长阈值、上下文窗口长度可以根据实际业务需要而设定;
步骤24、按分割词在音乐歌词文本中的排序位置,依次将每个分割词的文本表示向量输入Transformer模型,并获得Transformer模型输出的歌词摘要序列,从而获得歌词摘要文本。
传统的Transformer模型在运行过程中,会以自动回归的方式,在确定输入参数和之前状态的输出后,根据推理找词表中当前选择概率最大的词,把这个词当作当前状态的输出,由于每次都选择概率最大的1个词,会导致最后生成的结果是每单个词组都贪心概率最大,但整体概率可能不是最大。为了得到整体概率最大的歌词摘要序列,步骤24中还可以包括有:Transformer模型每次在确定输入参数和之前状态的输出后,输出k个序列,k的值可以根据实际业务需要而设置,该步骤进一步包括有:
Transformer模型每次在确定新输入的分割词的文本表示向量和之前状态的输出序列后,根据推理找词表中当前选择概率最大的k个词,然后将当前选择概率最大的k个词与之前状态的k个输出序列进行组合,计算每个组合中所有词的当前选择概率的乘积,并从中挑选乘积大的k个组合后的序列,所挑选出的k个组合后的序列即是本次状态的k个输出序列,当概率最大的词是句子结束符或者输出序列长度达到最大值时,计算本次状态的k个输出序列的自然语言流畅度,并从中挑选得分最高的序列作为最终输出的歌词摘要序列。
如图3所示,步骤三中,计算待评论音乐的歌词摘要文本和音乐评论库中的每条音乐的原始评论的文本相似度,以音乐评论库中的第v条音乐为例,可以进一步包括有:
步骤31、使用中文语料预训练好的Bert中文网络,对待评论音乐的歌词摘要文本、第v条音乐的原始评论分别进行预测,从而生成相同维度的待评论歌词特征向量、原始评论特征向量;
步骤32、计算待评论歌词特征向量和第v条音乐的原始评论特征向量的余弦相似度,计算公式如下:其中,xk、yk分别是待评论歌词特征向量和第v条音乐的原始评论特征向量中的第k个元素值,n是待评论歌词特征向量的维度;
步骤33、计算待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的编辑距离:设定编辑处理包括有3种:删除一个字符、增加一个字符、修改一个字符,使用动态规划算法,递归的计算待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的最小编辑次数,然后计算编辑距离为:其中,Ac为待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的最小编辑次数,seq为第v条音乐的原始评论的字符长度;
步骤34、计算待评论音乐的歌词摘要文本和第v条音乐的原始评论的文本相似度,计算公式为:I=cos(θ)*γ+L*(1-γ),其中,γ为相似度权值,可以针对具体的文本状况设置为0.4-0.7之间的值。
步骤四中,由于深度学习框架在实际计算过程中主要采用矩阵计算的方式,因此本发明在计算VAE复述生成模型的损失函数(loss)时,其概率分布的的KL散度的计算公式如下:其中,由于VAE模型训练时是分批次(batch)进行矩阵运算的,每第i个batch预测得到的样本分布的均值和方差为μ1i和σ1i,对应的标准差为std1i,dm是分布的维度,其值可以根据实际业务需要而设置,μ1、σ1分别是VAE模型训练得到的分布均值、方差,p1(μ1,σ1)表示VAE模型训练得到的概率分布,N(0,1)表示标准高斯分布,KL(p1(μ1,σ1)||N(0,1))表示VAE复述生成模型训练得到的概率分布p1(μ1,σ1)和标准高斯分布N(0,1)之间的KL散度。KL散度是确定两个信息分布之间的差异程度,通过计算VAE复述生成模型训练得到的概率分布p1(μ1,σ1)和标准高斯分布N(0,1)之间的KL散度,可以确定VAE复述生成模型得到的分布与真实的样本结果之间的差异,通过使这个KL散度的值不断缩小,逐渐将训练分布向真实的样本分布做拟合。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (5)

1.一种基于深度学习的音乐评论生成方法,其特征在于,包括有:
步骤一、使用网络爬虫技术,获取音乐原始评论,从而构建音乐评论库,所述音乐评论库用于保存网络上获取到的音乐的原始评论;
步骤二、基于Bert模型和Transformer模型,构建sequence to sequence文本摘要生成模型,sequence to sequence文本摘要生成模型的输入是音乐歌词文本,输出是歌词摘要文本,将待评论音乐的音乐歌词文本输入sequence to sequence文本摘要生成模型,并获得对应的歌词摘要文本;
步骤三、判断音乐评论库中所有音乐的原始评论中是否存在有待评论音乐的音乐名或歌手名,如果是,则从音乐评论库中挑选出存在有待评论音乐的音乐名或歌手名的原始评论,然后继续下一步;如果否,则计算待评论音乐的歌词摘要文本和音乐评论库中每条音乐的原始评论的文本相似度,并挑选出与待评论音乐的歌词摘要文本的相似度最高的原始评论,然后继续下一步;
步骤四、基于VAE模型,构建VAE复述生成模型,VAE复述生成模型的输入是评论文本,输出是生成的复述评论文本,将为待评论音乐挑选出的原始评论输入VAE复述生成模型,从而为待评论音乐生成新的评论文本,
步骤二进一步包括有:
步骤21、将音乐歌词文本分割成多句话,并将每句话再继续分割成多个词,分割得到的每句话或者每个词都是一个语义单元,然后将每个语义单元分别输入Bert模型,获得Bert模型输出的语义特征向量;
步骤22、计算每个分割词的位置特征向量:
其中,Zpos(i)是词i的位置特征向量,pos是词i在句子中的排序位置,d是向量维度;
步骤23、计算每个分割词的文本表示向量:Z(i)=Zpos(i)+Zword(i)+Zsen(i),其中,Z(i)是词i的文本表示向量,Zsen(i)是词i所属句子或窗口序列的语义特征向量,Zword(i)是词i的语义特征向量,当词i所属句子的长度超过句长阈值时,以词i为中心,从其所属句子中截取一个上下文窗口长度的窗口序列,Zsen(i)即是截取的窗口序列的语义特征向量;
步骤24、按分割词在音乐歌词文本中的排序位置,依次将每个分割词的文本表示向量输入Transformer模型,并获得Transformer模型输出的歌词摘要序列,从而获得歌词摘要文本。
2.根据权利要求1所述的方法,其特征在于,步骤一中,还对从网络上获取的音乐原始评论做正则匹配和短语替换的数据清洗操作,其中,短语替换是将音乐原始评论中的音乐名、歌手名的具体指代词用占位符替代,正则匹配是对音乐原始评论的文本信息进行增强,统一文本中的具体指代信息。
3.根据权利要求1所述的方法,其特征在于,步骤24中还包括有:Transformer模型每次在确定输入参数和之前状态的输出后,输出p个序列,
该步骤进一步包括有:
Transformer模型每次在确定新输入的分割词的文本表示向量和之前状态的输出序列后,根据推理找词表中当前选择概率最大的p个词,然后将当前选择概率最大的p个词与之前状态的p个输出序列进行组合,计算每个组合中所有词的当前选择概率的乘积,并从中挑选乘积大的p个组合后的序列,所挑选出的p个组合后的序列即是本次状态的p个输出序列,当概率最大的词是句子结束符或者输出序列长度达到最大值时,计算本次状态的p个输出序列的自然语言流畅度,并从中挑选得分最高的序列作为最终输出的歌词摘要序列。
4.根据权利要求1所述的方法,其特征在于,步骤三中,计算待评论音乐的歌词摘要文本和音乐评论库中的每条音乐的原始评论的文本相似度,进一步包括有:
步骤31、使用中文语料预训练好的Bert中文网络,对待评论音乐的歌词摘要文本、第v条音乐的原始评论分别进行预测,从而生成相同维度的待评论歌词特征向量、原始评论特征向量;
步骤32、计算待评论歌词特征向量和第v条音乐的原始评论特征向量的余弦相似度,计算公式如下:其中,xk、yk分别是待评论歌词特征向量和第v条音乐的原始评论特征向量中的第k个元素值,n是待评论歌词特征向量的维度;
步骤33、计算待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的编辑距离:设定编辑处理包括有3种:删除一个字符、增加一个字符、修改一个字符,使用动态规划算法,递归计算待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的最小编辑次数,然后计算编辑距离为:其中,Ac为待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的最小编辑次数,seq为第v条音乐的原始评论的字符长度;
步骤34、计算待评论音乐的歌词摘要文本和第v条音乐的原始评论的文本相似度,计算公式为:I=cos(θ)*γ+L*(1-γ),其中,γ为相似度权值。
5.根据权利要求1所述的方法,其特征在于,步骤四中,在计算VAE复述生成模型的损失函数(loss)时,其概率分布的KL散度的计算公式如下:其中,每第j个batch预测得到的样本分布的均值和方差为μ1j和σ1j,对应的标准差为std1j,dm是分布的维度,μ1、σ1分别是VAE模型训练得到的概率分布的均值、方差,p1(μ11)表示VAE模型训练得到的概率分布,N(0,1)表示标准高斯分布,KL(p1(μ11)||N(0,1))表示VAE复述生成模型训练得到的概率分布p1(μ11)和标准高斯分布N(0,1)之间的KL散度。
CN202010379417.9A 2020-05-07 2020-05-07 一种基于深度学习的音乐评论生成方法 Active CN111626041B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010379417.9A CN111626041B (zh) 2020-05-07 2020-05-07 一种基于深度学习的音乐评论生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010379417.9A CN111626041B (zh) 2020-05-07 2020-05-07 一种基于深度学习的音乐评论生成方法

Publications (2)

Publication Number Publication Date
CN111626041A CN111626041A (zh) 2020-09-04
CN111626041B true CN111626041B (zh) 2023-09-15

Family

ID=72259738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010379417.9A Active CN111626041B (zh) 2020-05-07 2020-05-07 一种基于深度学习的音乐评论生成方法

Country Status (1)

Country Link
CN (1) CN111626041B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115718A (zh) * 2020-09-29 2020-12-22 腾讯科技(深圳)有限公司 内容文本生成方法和装置、音乐评论文本生成方法
CN114863914A (zh) * 2022-06-29 2022-08-05 慧言科技(天津)有限公司 构建端到端语音评测模型的深度学习方法
CN116402064B (zh) * 2023-06-09 2023-09-12 北京搜狐新媒体信息技术有限公司 一种评论生成方法、系统、存储介质及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109657212A (zh) * 2018-12-13 2019-04-19 武汉大学 一种基于词移距离结合词向量的音乐文案生成方法
CN110929030A (zh) * 2019-11-07 2020-03-27 电子科技大学 一种文本摘要和情感分类联合训练方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540446B2 (en) * 2018-01-31 2020-01-21 Jungle Disk, L.L.C. Natural language generation using pinned text and multiple discriminators
US10437936B2 (en) * 2018-02-01 2019-10-08 Jungle Disk, L.L.C. Generative text using a personality model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109657212A (zh) * 2018-12-13 2019-04-19 武汉大学 一种基于词移距离结合词向量的音乐文案生成方法
CN110929030A (zh) * 2019-11-07 2020-03-27 电子科技大学 一种文本摘要和情感分类联合训练方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Hady Elsahar et al.Self-Supervised and Controlled Multi-Document Opinion Summarization.arXiv.2020,第1-18页. *
岳一峰等.一种基于BERT的自动文本摘要模型构建方法.计算机与现代化.2020,(第1期),第63-68页. *
曾旭禹等.一种基于深度学习的混合推荐算法.计算机科学.2019,第46卷(第1期),第126-130页. *

Also Published As

Publication number Publication date
CN111626041A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN110929030B (zh) 一种文本摘要和情感分类联合训练方法
CN111626041B (zh) 一种基于深度学习的音乐评论生成方法
CN111159368B (zh) 一种个性化对话的回复生成方法
CN112270379A (zh) 分类模型的训练方法、样本分类方法、装置和设备
CN111966800B (zh) 情感对话生成方法、装置及情感对话模型训练方法、装置
CN112417092B (zh) 基于深度学习的智能化文本自动生成系统及其实现方法
CN110807324A (zh) 一种基于IDCNN-crf与知识图谱的影视实体识别方法
CN111046178B (zh) 一种文本序列生成方法及其系统
CN112215013A (zh) 一种基于深度学习的克隆代码语义检测方法
CN110688450A (zh) 一种基于蒙特卡洛树搜索的关键词生成方法、基于强化学习的关键词生成模型及电子设备
CN115759119A (zh) 一种金融文本情感分析方法、系统、介质和设备
CN111145914A (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN116522165B (zh) 一种基于孪生结构的舆情文本匹配系统及方法
CN113486143A (zh) 一种基于多层级文本表示及模型融合的用户画像生成方法
CN115204143B (zh) 一种基于prompt的文本相似度计算方法及系统
Tahayna et al. Lexicon-based non-compositional multiword augmentation enriching tweet sentiment analysis
CN115858736A (zh) 一种基于情感提示微调的情感文本生成方法
CN115840815A (zh) 基于指针关键信息的自动摘要生成方法
CN116978367A (zh) 语音识别方法、装置、电子设备和存储介质
CN111931496B (zh) 一种基于递归神经网络模型的文本风格转换系统及方法
CN114610888A (zh) 一种面向开发者群体聊天的缺陷报告自动监听和合成方法
CN114925197A (zh) 基于主题注意力的深度学习文本分类模型训练方法
CN114548117A (zh) 一种基于bert语义增强的因果关系抽取方法
Yang et al. A generation-based text steganography by maintaining consistency of probability distribution
CN117453895B (zh) 一种智能客服应答方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 310013 4th floor, No.398 Wensan Road, Xihu District, Hangzhou City, Zhejiang Province

Applicant after: Xinxun Digital Technology (Hangzhou) Co.,Ltd.

Address before: 310013 4th floor, No.398 Wensan Road, Xihu District, Hangzhou City, Zhejiang Province

Applicant before: EB Information Technology Ltd.

GR01 Patent grant
GR01 Patent grant