CN111626041A - 一种基于深度学习的音乐评论生成方法 - Google Patents

一种基于深度学习的音乐评论生成方法 Download PDF

Info

Publication number
CN111626041A
CN111626041A CN202010379417.9A CN202010379417A CN111626041A CN 111626041 A CN111626041 A CN 111626041A CN 202010379417 A CN202010379417 A CN 202010379417A CN 111626041 A CN111626041 A CN 111626041A
Authority
CN
China
Prior art keywords
music
text
comment
lyric
original
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010379417.9A
Other languages
English (en)
Other versions
CN111626041B (zh
Inventor
黄璜
赵海秀
张少杰
王彦青
王为强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EB INFORMATION TECHNOLOGY Ltd
Original Assignee
EB INFORMATION TECHNOLOGY Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EB INFORMATION TECHNOLOGY Ltd filed Critical EB INFORMATION TECHNOLOGY Ltd
Priority to CN202010379417.9A priority Critical patent/CN111626041B/zh
Publication of CN111626041A publication Critical patent/CN111626041A/zh
Application granted granted Critical
Publication of CN111626041B publication Critical patent/CN111626041B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

一种基于深度学习的音乐评论生成方法,包括:使用网络爬虫技术,获取音乐原始评论,构建音乐评论库;基于Bert模型和Transformer模型,构建文本摘要生成模型,将待评论音乐的歌词文本输入文本摘要生成模型,获得歌词摘要文本;判断音乐评论库中所有音乐的原始评论中是否存在有待评论音乐的音乐名或歌手名,如果是,则挑选出存在有音乐名或歌手名的原始评论,如果否,则计算待评论音乐的歌词摘要文本和音乐评论库中每条音乐的原始评论的文本相似度,并挑选出相似度最高的原始评论;基于VAE模型构建复述生成模型,将挑选出的原始评论输入复述生成模型,生成新的评论文本。本发明属于信息技术领域,能自动生成音乐的评论文本,并提高文本准确度、多样性和流畅度。

Description

一种基于深度学习的音乐评论生成方法
技术领域
本发明涉及一种基于深度学习的音乐评论生成方法,属于信息技术领域。
背景技术
随着网络科技的发展,用户可以随时随地的欣赏到各种音乐。现有技术中,大量音乐的评论区只有少量评论甚至没有评论。通常情况下,为了吸引用户的参与和关注,可以采用人工手动撰写评论的方式,但这种人工手动的方式效率非常低。
专利申请CN201710196125.X(申请名称:基于人工智能的评论生成方法及装置、设备与可读介质,申请日:2017.03.29,申请人:北京百度网讯科技有限公司)公开了一种基于人工智能的评论生成方法及装置、设备与可读介质。其所述方法包括:从预设的分词语料库中挖掘与主题扣题的评论语句中的目标分词对齐的候选分词;分别获取目标分词的候选分词对应的对齐特征、语言特征以及上下文特征;根据目标分词的候选分词对应的对齐特征、语言特征以及上下文特征以及预先训练的可行性打分模型,预测评论语句中候选分词能够替换对应的目标分词的可行性分值;若可行性分值大于或者等于预设的可行性分数阈值,将评论语句中的目标分词替换为候选分词,生成主题对应的评论语句。该技术方案只是从语料库中选取目标语句中可替换的关键词,通过打分系统选出最好的候选词进行替换,使用的文本语义信息不充分,且没有很好地利用到文本的整体语义特征和上下文信息特征,同时,替换后的文本与原始文本相似度较高,最终生成的文本准确性和多样性也存在不足。
因此,如何自动生成音乐的评论文本,并提高评论文本的准确度、多样性和流畅度,已经成为技术人员普遍关注的技术问题。
发明内容
有鉴于此,本发明的目的是提供一种基于深度学习的音乐评论生成方法,能自动生成音乐的评论文本,并提高评论文本的准确度、多样性和流畅度。
为了达到上述目的,本发明提供了一种基于深度学习的音乐评论生成方法,包括有:
步骤一、使用网络爬虫技术,获取音乐原始评论,从而构建音乐评论库,所述音乐评论库用于保存网络上获取到的音乐的原始评论;
步骤二、基于Bert模型和Transformer模型,构建sequence to sequence文本摘要生成模型,sequence to sequence文本摘要生成模型的输入是音乐歌词文本,输出是歌词摘要文本,将待评论音乐的音乐歌词文本输入sequence to sequence文本摘要生成模型,并获得对应的歌词摘要文本;
步骤三、判断音乐评论库中所有音乐的原始评论中是否存在有待评论音乐的音乐名或歌手名,如果是,则从音乐评论库中挑选出存在有待评论音乐的音乐名或歌手名的原始评论,然后继续下一步;如果否,则计算待评论音乐的歌词摘要文本和音乐评论库中每条音乐的原始评论的文本相似度,并挑选出与待评论音乐的歌词摘要文本的相似度最高的原始评论,然后继续下一步;
步骤四、基于VAE模型,构建VAE复述生成模型,VAE复述生成模型的输入是评论文本,输出是生成的复述评论文本,将为待评论音乐挑选出的原始评论输入VAE复述生成模型,从而为待评论音乐生成新的评论文本。
与现有技术相比,本发明的有益效果是:本发明针对生成评论需要与目标音乐主题相关的问题,通过生成歌词摘要的方式,一方面可以直接输出与目标音乐相关的新评论,另一方面作为之后相关度匹配的输入,剔除了与音乐主题无关的无义文本信息,并在生成摘要时,通过使用深度学习seq2seq模型,提升了系统的语义理解能力;本发明使用编码解码模型,可以进一步增强文本生成的准确度和流畅度,并通过使用VAE模型结合Bert网络和Transformer网络,对文本的语义理解能力和文本生成能力更强,最终生成的评论结果流畅性和多样性更高。
附图说明
图1是本发明一种基于深度学习的音乐评论生成方法的流程图。
图2是图1步骤二的具体步骤流程图。
图3是图1步骤三中计算待评论音乐的歌词摘要文本和音乐评论库中的每条音乐的原始评论的文本相似度的具体步骤流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明作进一步的详细描述。
如图1所示,本发明一种基于深度学习的音乐评论生成方法,包括有:
步骤一、使用网络爬虫技术,获取音乐原始评论,从而构建音乐评论库,所述音乐评论库用于保存网络上获取到的音乐的原始评论;
步骤二、基于Bert模型和Transformer模型,构建sequence to sequence文本摘要生成模型,sequence to sequence文本摘要生成模型的输入是音乐歌词文本,输出是歌词摘要文本,将待评论音乐的音乐歌词文本输入sequence to sequence文本摘要生成模型,并获得对应的歌词摘要文本;
步骤三、判断音乐评论库中所有音乐的原始评论中是否存在有待评论音乐的音乐名或歌手名,如果是,则从音乐评论库中挑选出存在有待评论音乐的音乐名或歌手名的原始评论,然后继续下一步;如果否,则计算待评论音乐的歌词摘要文本和音乐评论库中每条音乐的原始评论的文本相似度,并挑选出与待评论音乐的歌词摘要文本的相似度最高的原始评论,然后继续下一步;
步骤四、基于VAE模型,构建VAE复述生成模型,VAE复述生成模型的输入是评论文本,输出是生成的复述评论文本,将为待评论音乐挑选出的原始评论输入VAE复述生成模型,从而为待评论音乐生成新的评论文本。
步骤一中,还可以进一步对从网络上获取的音乐原始评论做正则匹配和短语替换的数据清洗操作,其中,短语替换是将音乐原始评论中的音乐名、歌手名等具体指代词用占位符替代,例如“周杰伦”替代成“@@@周杰伦@@@”,正则匹配是对音乐原始评论的文本信息进行增强,例如将评论中的主要人名做统一,如“杰伦”统一成“周杰伦”,使得文本中的具体指代信息更为统一。
如图2所示,步骤二可以进一步包括有:
步骤21、将音乐歌词文本分割成多句话,并将每句话再继续分割成多个词,分割得到的每句话或者每个词都是一个语义单元(即词组),然后将每个语义单元分别输入Bert模型,获得Bert模型输出的语义特征向量;
步骤22、计算每个分割词的位置特征向量:
Figure BDA0002481437330000031
其中,Zpos(i)是词i的位置特征向量,pos是词i在句子中的排序位置,d是向量维度,d可以根据实际业务需要而设置,例如d为128;
传统的RNN模型的序列结构对于序列的位置编码具有天然的优势,因为RNN的每一个时刻的状态输入都需要等待上一个时刻的状态输出完成。但是这种特性也导致了RNN不适合大规模的并行训练,模型处理速度较慢。Bert使用的是纯Attnention机制编码的,并在很大的网络数据上进行了预训练,比传统RNN在语义编码上的能力更强,但不保留序列的位置信息,因此本发明通过计算每个词的位置特征向量,可以有效保留序列的位置编码信息;
步骤23、计算每个分割词的文本表示向量:Z(i)=Zpos(i)+Zword(i)+Zsen(i),其中,Z(i)是词i的文本表示向量,Zsen(i)是词i所属句子或窗口序列的语义特征向量,Zword(i)是词i的语义特征向量,当词i所属句子的长度超过句长阈值时,以词i为中心,从其所属句子中截取一个上下文窗口长度的窗口序列,Zsen(i)即是截取的窗口序列的语义特征向量,句长阈值、上下文窗口长度可以根据实际业务需要而设定;
步骤24、按分割词在音乐歌词文本中的排序位置,依次将每个分割词的文本表示向量输入Transformer模型,并获得Transformer模型输出的歌词摘要序列,从而获得歌词摘要文本。
传统的Transformer模型在运行过程中,会以自动回归的方式,在确定输入参数和之前状态的输出后,根据推理找词表中当前选择概率最大的词,把这个词当作当前状态的输出,由于每次都选择概率最大的1个词,会导致最后生成的结果是每单个词组都贪心概率最大,但整体概率可能不是最大。为了得到整体概率最大的歌词摘要序列,步骤24中还可以包括有:Transformer模型每次在确定输入参数和之前状态的输出后,输出k个序列,k的值可以根据实际业务需要而设置,该步骤进一步包括有:
Transformer模型每次在确定新输入的分割词的文本表示向量和之前状态的输出序列后,根据推理找词表中当前选择概率最大的k个词,然后将当前选择概率最大的k个词与之前状态的k个输出序列进行组合,计算每个组合中所有词的当前选择概率的乘积,并从中挑选乘积大的k个组合后的序列,所挑选出的k个组合后的序列即是本次状态的k个输出序列,当概率最大的词是句子结束符或者输出序列长度达到最大值时,计算本次状态的k个输出序列的自然语言流畅度,并从中挑选得分最高的序列作为最终输出的歌词摘要序列。
如图3所示,步骤三中,计算待评论音乐的歌词摘要文本和音乐评论库中的每条音乐的原始评论的文本相似度,以音乐评论库中的第v条音乐为例,可以进一步包括有:
步骤31、使用中文语料预训练好的Bert中文网络,对待评论音乐的歌词摘要文本、第v条音乐的原始评论分别进行预测,从而生成相同维度的待评论歌词特征向量、原始评论特征向量;
步骤32、计算待评论歌词特征向量和第v条音乐的原始评论特征向量的余弦相似度,计算公式如下:
Figure BDA0002481437330000041
其中,xk、yk分别是待评论歌词特征向量和第v条音乐的原始评论特征向量中的第k个元素值,n是待评论歌词特征向量的维度;
步骤33、计算待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的编辑距离:设定编辑处理包括有3种:删除一个字符、增加一个字符、修改一个字符,使用动态规划算法,递归的计算待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的最小编辑次数,然后计算编辑距离为:
Figure BDA0002481437330000051
其中,Ac为待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的最小编辑次数,seq为第v条音乐的原始评论的字符长度;
步骤34、计算待评论音乐的歌词摘要文本和第v条音乐的原始评论的文本相似度,计算公式为:I=cos(θ)*γ+L*(1-γ),其中,γ为相似度权值,可以针对具体的文本状况设置为0.4-0.7之间的值。
步骤四中,由于深度学习框架在实际计算过程中主要采用矩阵计算的方式,因此本发明在计算VAE复述生成模型的损失函数(loss)时,其概率分布的的KL散度的计算公式如下:
Figure BDA0002481437330000052
其中,由于VAE模型训练时是分批次(batch)进行矩阵运算的,每第i个batch预测得到的样本分布的均值和方差为μ1i和σ1i,对应的标准差为std1i,dm是分布的维度,其值可以根据实际业务需要而设置,μ1、σ1分别是VAE模型训练得到的分布均值、方差,p1(μ1,σ1)表示VAE模型训练得到的概率分布,N(0,1)表示标准高斯分布,KL(p1(μ1,σ1)||N(0,1))表示VAE复述生成模型训练得到的概率分布p1(μ1,σ1)和标准高斯分布N(0,1)之间的KL散度。KL散度是确定两个信息分布之间的差异程度,通过计算VAE复述生成模型训练得到的概率分布p1(μ1,σ1)和标准高斯分布N(0,1)之间的KL散度,可以确定VAE复述生成模型得到的分布与真实的样本结果之间的差异,通过使这个KL散度的值不断缩小,逐渐将训练分布向真实的样本分布做拟合。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (6)

1.一种基于深度学习的音乐评论生成方法,其特征在于,包括有:
步骤一、使用网络爬虫技术,获取音乐原始评论,从而构建音乐评论库,所述音乐评论库用于保存网络上获取到的音乐的原始评论;
步骤二、基于Bert模型和Transformer模型,构建sequence to sequence文本摘要生成模型,sequence to sequence文本摘要生成模型的输入是音乐歌词文本,输出是歌词摘要文本,将待评论音乐的音乐歌词文本输入sequence to sequence文本摘要生成模型,并获得对应的歌词摘要文本;
步骤三、判断音乐评论库中所有音乐的原始评论中是否存在有待评论音乐的音乐名或歌手名,如果是,则从音乐评论库中挑选出存在有待评论音乐的音乐名或歌手名的原始评论,然后继续下一步;如果否,则计算待评论音乐的歌词摘要文本和音乐评论库中每条音乐的原始评论的文本相似度,并挑选出与待评论音乐的歌词摘要文本的相似度最高的原始评论,然后继续下一步;
步骤四、基于VAE模型,构建VAE复述生成模型,VAE复述生成模型的输入是评论文本,输出是生成的复述评论文本,将为待评论音乐挑选出的原始评论输入VAE复述生成模型,从而为待评论音乐生成新的评论文本。
2.根据权利要求1所述的方法,其特征在于,步骤一中,还对从网络上获取的音乐原始评论做正则匹配和短语替换的数据清洗操作,其中,短语替换是将音乐原始评论中的音乐名、歌手名的具体指代词用占位符替代,正则匹配是对音乐原始评论的文本信息进行增强,统一文本中的具体指代信息。
3.根据权利要求1所述的方法,其特征在于,步骤二进一步包括有:
步骤21、将音乐歌词文本分割成多句话,并将每句话再继续分割成多个词,分割得到的每句话或者每个词都是一个语义单元,然后将每个语义单元分别输入Bert模型,获得Bert模型输出的语义特征向量;
步骤22、计算每个分割词的位置特征向量:
Figure FDA0002481437320000011
其中,Zpos(i)是词i的位置特征向量,pos是词i在句子中的排序位置,d是向量维度;
步骤23、计算每个分割词的文本表示向量:Z(i)=Zpos(i)+Zword(i)+Zsen(i),其中,Z(i)是词i的文本表示向量,Zsen(i)是词i所属句子或窗口序列的语义特征向量,Zword(i)是词i的语义特征向量,当词i所属句子的长度超过句长阈值时,以词i为中心,从其所属句子中截取一个上下文窗口长度的窗口序列,Zsen(i)即是截取的窗口序列的语义特征向量;
步骤24、按分割词在音乐歌词文本中的排序位置,依次将每个分割词的文本表示向量输入Transformer模型,并获得Transformer模型输出的歌词摘要序列,从而获得歌词摘要文本。
4.根据权利要求3所述的方法,其特征在于,步骤24中还包括有:Transformer模型每次在确定输入参数和之前状态的输出后,输出k个序列,
该步骤进一步包括有:
Transformer模型每次在确定新输入的分割词的文本表示向量和之前状态的输出序列后,根据推理找词表中当前选择概率最大的k个词,然后将当前选择概率最大的k个词与之前状态的k个输出序列进行组合,计算每个组合中所有词的当前选择概率的乘积,并从中挑选乘积大的k个组合后的序列,所挑选出的k个组合后的序列即是本次状态的k个输出序列,当概率最大的词是句子结束符或者输出序列长度达到最大值时,计算本次状态的k个输出序列的自然语言流畅度,并从中挑选得分最高的序列作为最终输出的歌词摘要序列。
5.根据权利要求1所述的方法,其特征在于,步骤三中,计算待评论音乐的歌词摘要文本和音乐评论库中的每条音乐的原始评论的文本相似度,以音乐评论库中的第v条音乐为例,进一步包括有:
步骤31、使用中文语料预训练好的Bert中文网络,对待评论音乐的歌词摘要文本、第v条音乐的原始评论分别进行预测,从而生成相同维度的待评论歌词特征向量、原始评论特征向量;
步骤32、计算待评论歌词特征向量和第v条音乐的原始评论特征向量的余弦相似度,计算公式如下:
Figure FDA0002481437320000021
其中,xk、yk分别是待评论歌词特征向量和第v条音乐的原始评论特征向量中的第k个元素值,n是待评论歌词特征向量的维度;
步骤33、计算待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的编辑距离:设定编辑处理包括有3种:删除一个字符、增加一个字符、修改一个字符,使用动态规划算法,递归计算待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的最小编辑次数,然后计算编辑距离为:
Figure FDA0002481437320000031
其中,Ac为待评论音乐的歌词摘要文本和第v条音乐的原始评论之间的最小编辑次数,seq为第v条音乐的原始评论的字符长度;
步骤34、计算待评论音乐的歌词摘要文本和第v条音乐的原始评论的文本相似度,计算公式为:I=cos(θ)*γ+L*(1-γ),其中,γ为相似度权值。
6.根据权利要求1所述的方法,其特征在于,步骤四中,在计算VAE复述生成模型的损失函数(loss)时,其概率分布的KL散度的计算公式如下:
Figure FDA0002481437320000032
其中,每第i个batch预测得到的样本分布的均值和方差为μ1i和σ1i,对应的标准差为std1i,dm是分布的维度,μ1、σ1分别是VAE模型训练得到的概率分布的均值、方差,p1(μ1,σ1)表示VAE模型训练得到的概率分布,N(0,1)表示标准高斯分布,KL(p1(μ1,σ1)||N(0,1))表示VAE复述生成模型训练得到的概率分布p1(μ1,σ1)和标准高斯分布N(0,1)之间的KL散度。
CN202010379417.9A 2020-05-07 2020-05-07 一种基于深度学习的音乐评论生成方法 Active CN111626041B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010379417.9A CN111626041B (zh) 2020-05-07 2020-05-07 一种基于深度学习的音乐评论生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010379417.9A CN111626041B (zh) 2020-05-07 2020-05-07 一种基于深度学习的音乐评论生成方法

Publications (2)

Publication Number Publication Date
CN111626041A true CN111626041A (zh) 2020-09-04
CN111626041B CN111626041B (zh) 2023-09-15

Family

ID=72259738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010379417.9A Active CN111626041B (zh) 2020-05-07 2020-05-07 一种基于深度学习的音乐评论生成方法

Country Status (1)

Country Link
CN (1) CN111626041B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115718A (zh) * 2020-09-29 2020-12-22 腾讯科技(深圳)有限公司 内容文本生成方法和装置、音乐评论文本生成方法
CN113434652A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 智能问答方法、智能问答装置、设备及存储介质
CN114863914A (zh) * 2022-06-29 2022-08-05 慧言科技(天津)有限公司 构建端到端语音评测模型的深度学习方法
CN116402064A (zh) * 2023-06-09 2023-07-07 北京搜狐新媒体信息技术有限公司 一种评论生成方法、系统、存储介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109657212A (zh) * 2018-12-13 2019-04-19 武汉大学 一种基于词移距离结合词向量的音乐文案生成方法
US20190236139A1 (en) * 2018-01-31 2019-08-01 Jungle Disk, L.L.C. Natural language generation using pinned text and multiple discriminators
US20190236148A1 (en) * 2018-02-01 2019-08-01 Jungle Disk, L.L.C. Generative text using a personality model
CN110929030A (zh) * 2019-11-07 2020-03-27 电子科技大学 一种文本摘要和情感分类联合训练方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190236139A1 (en) * 2018-01-31 2019-08-01 Jungle Disk, L.L.C. Natural language generation using pinned text and multiple discriminators
US20190236148A1 (en) * 2018-02-01 2019-08-01 Jungle Disk, L.L.C. Generative text using a personality model
CN109657212A (zh) * 2018-12-13 2019-04-19 武汉大学 一种基于词移距离结合词向量的音乐文案生成方法
CN110929030A (zh) * 2019-11-07 2020-03-27 电子科技大学 一种文本摘要和情感分类联合训练方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HADY ELSAHAR ET AL: "Self-Supervised and Controlled Multi-Document Opinion Summarization" *
岳一峰等: "一种基于BERT的自动文本摘要模型构建方法" *
曾旭禹等: "一种基于深度学习的混合推荐算法" *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115718A (zh) * 2020-09-29 2020-12-22 腾讯科技(深圳)有限公司 内容文本生成方法和装置、音乐评论文本生成方法
CN113434652A (zh) * 2021-06-30 2021-09-24 平安科技(深圳)有限公司 智能问答方法、智能问答装置、设备及存储介质
CN113434652B (zh) * 2021-06-30 2024-05-28 平安科技(深圳)有限公司 智能问答方法、智能问答装置、设备及存储介质
CN114863914A (zh) * 2022-06-29 2022-08-05 慧言科技(天津)有限公司 构建端到端语音评测模型的深度学习方法
CN116402064A (zh) * 2023-06-09 2023-07-07 北京搜狐新媒体信息技术有限公司 一种评论生成方法、系统、存储介质及电子设备
CN116402064B (zh) * 2023-06-09 2023-09-12 北京搜狐新媒体信息技术有限公司 一种评论生成方法、系统、存储介质及电子设备

Also Published As

Publication number Publication date
CN111626041B (zh) 2023-09-15

Similar Documents

Publication Publication Date Title
CN111144131B (zh) 一种基于预训练语言模型的网络谣言检测方法
CN110245229B (zh) 一种基于数据增强的深度学习主题情感分类方法
CN108363743B (zh) 一种智能问题生成方法、装置和计算机可读存储介质
CN111626041A (zh) 一种基于深度学习的音乐评论生成方法
CN110134782B (zh) 一种基于改进的选择机制和lstm变体的文本摘要模型及自动文本摘要方法
CN110929030A (zh) 一种文本摘要和情感分类联合训练方法
CN110532554A (zh) 一种中文摘要生成方法、系统及存储介质
CN108153864A (zh) 基于神经网络生成文本摘要的方法
CN113505200B (zh) 一种结合文档关键信息的句子级中文事件检测的方法
CN110413768B (zh) 一种文章题目自动生成方法
CN111666756B (zh) 一种基于主题融合的序列模型文本摘要生成方法
Liu et al. A multi-modal chinese poetry generation model
Almutiri et al. Markov models applications in natural language processing: a survey
CN112349294B (zh) 语音处理方法及装置、计算机可读介质、电子设备
CN113254582A (zh) 一种基于预训练模型的知识驱动对话方法
Labeau et al. Character and subword-based word representation for neural language modeling prediction
CN115759119A (zh) 一种金融文本情感分析方法、系统、介质和设备
Santillan et al. Poem generation using transformers and doc2vec embeddings
Ge et al. THU_NGN at SemEval-2019 task 3: Dialog emotion classification using attentional LSTM-CNN
CN116522165B (zh) 一种基于孪生结构的舆情文本匹配系统及方法
CN110377753B (zh) 基于关系触发词与gru模型的关系抽取方法及装置
CN114548117A (zh) 一种基于bert语义增强的因果关系抽取方法
Fernandez et al. Deep rapping: character level neural models for automated rap lyrics composition
Kibria et al. Context-driven bengali text generation using conditional language model
Modupe et al. Semi-supervised probabilistics approach for normalising informal short text messages

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 310013 4th floor, No.398 Wensan Road, Xihu District, Hangzhou City, Zhejiang Province

Applicant after: Xinxun Digital Technology (Hangzhou) Co.,Ltd.

Address before: 310013 4th floor, No.398 Wensan Road, Xihu District, Hangzhou City, Zhejiang Province

Applicant before: EB Information Technology Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant