CN112487237B - 基于自适应cnn和半监督自训练模型的音乐分类方法 - Google Patents

基于自适应cnn和半监督自训练模型的音乐分类方法 Download PDF

Info

Publication number
CN112487237B
CN112487237B CN202011464477.7A CN202011464477A CN112487237B CN 112487237 B CN112487237 B CN 112487237B CN 202011464477 A CN202011464477 A CN 202011464477A CN 112487237 B CN112487237 B CN 112487237B
Authority
CN
China
Prior art keywords
classifier
data
classification
training
semi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011464477.7A
Other languages
English (en)
Other versions
CN112487237A (zh
Inventor
张旭
罗朗
陈贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202011464477.7A priority Critical patent/CN112487237B/zh
Publication of CN112487237A publication Critical patent/CN112487237A/zh
Application granted granted Critical
Publication of CN112487237B publication Critical patent/CN112487237B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明属于机器学习、推荐系统以及文本分类领域,具体涉及一种基于自适应CNN和半监督自训练模型的音乐分类方法,该方法包括:首先分析了音乐的精细分类对于用户选择的重要性,通过自然语言处理技术提取出与该项目有关联的音乐歌词特征和情感特征,然后使用基于注意力机制的神经网络对这些特征进行提取、初步分类;最后根据半监督自训练的方法对每一首歌进行精细分类;本发明通过将自适应CNN模型和半监督自训练模型组合,对音乐数据进行精细划分,使用户能准确的查找到自己喜欢的音乐,节约了用户的时间,提高了查找的精准度。

Description

基于自适应CNN和半监督自训练模型的音乐分类方法
技术领域
本发明属于机器学习、推荐系统以及文本分类领域,具体涉及一种基于自适应CNN和半监督自训练模型的音乐分类方法。
背景技术
随着网络技术的飞速发展,在线音乐规模不断扩大,互联网上可供用户选择的音乐呈指数级增长。对于音乐而言,情感是最为本质的特征,然而大部分音乐对于情感的分类不明确,导致了对音乐分类不够细致,而且用户喜好的音乐类型可能包含多种音乐风格,导致待分类音乐规模较大,音乐分类难度大,使得用户难以找到自己喜欢的音乐。因此,在进行音乐进行分类的过程中,除了需要先对音乐歌词本身进行向量转换,还需要对其中隐含的情感特征进行抽取,以便能从音乐本身提取到足够的特征。
由于音乐歌词中包含了作者赋予音乐的情感,罗基敏等人认为音乐与歌词之间存在互动关系,歌词对于人们不仅有听觉上的美感还有情感的共鸣。目前,文本分类已经广泛应用于垃圾邮件判定,为图文视频打标签,电商评论分析等多个研究领域。在音乐领域中,也有一些研究提出了使用机器学习算法来对音乐进行一级分类,Zhu等人提出利用支持向量机的方法对音乐进行分类;Zhen等人提出利用前向神经网络对音乐进行分类;Jia等人提出利用LSTM对歌词提取时序特征,进而实现对歌曲的分类。目前,对于音乐的分类是基于歌词本身,尚未挖掘歌词中包含的深层次的情感属性,且将两部分结合起来的模型。与此同时,监督的分类算法需要有大量的标签数据,然而在海量的数据中,获得大量的标签数据需要大量的人工,且依靠人为方式划分音乐风格存在很多弊端,如分类效率低、音乐风格归属判断困难大等问题。
发明内容
为解决以上现有技术存在的问题,本发明提出了一种基于自适应CNN和半监督自训练模型的音乐分类方法,该方法包括:
S1:获取歌曲的歌词数据,将获取的歌词数据输入到数据库的列表中;
S2:采用预训练的Bert模型对列表中的歌词数据进行处理,转化为句子向量;
S3:采用DUTIR中文情绪识别模型提取列表中歌词数据的情感,得到情感特征向量;
S4:将句子向量和情感特征向量进行拼接,得到拼接向量;
S5:将拼接向量输入到训练好的自适应CNN模型中进行初步分类,得到初步分类结果;
S6:将初步分类结果输入到半监督自训练模型进行精细分类,得到精细划分标签;
S7:根据精细划分标签对输入的音乐数据进行精细分类。
优选的,对自适应CNN模型进行训练的过程包括:
步骤1:获取歌曲库中的歌曲数据,对各首歌曲数据进行预处理,得到模型训练样本集;
步骤2:将训练样本集中的拼接向量输入到自适应CNN模型的Attention层,提取拼接向量的关键信息;
步骤3:将拼接向量输入到自适应CNN模型的卷积层提取关键信息的主要特征;主要特征的获取包括采用不同大小的卷积核分别提取关键信息的不同的特征和隐藏特征,将所有提取的不同特征和隐藏特征进行融合,得到主要特征;
步骤4:将主要特征输入到最大池化层降低特征维度,得到初步分类结果,完成自适应CNN模型的训练。
进一步的,对各首歌曲数据进行预处理包括提取各首歌曲的歌词,构建歌词列表;采用Bert模型将歌词列表中的数据转化为句子向量;提取列表中歌词数据的情感特征向量;将句子向量和情感特征向量进行拼接,得到训练集。
进一步的,在Attention层提取关键信息的公式为:
Figure BDA0002833589970000031
进一步的,得到主要特征的公式为:
Figure BDA0002833589970000032
Figure BDA0002833589970000033
Figure BDA0002833589970000034
优选的,半监督自训练模型包括三个不同的分类器;对半监督自训练模型处理数据的过程包括:
步骤1:将所有的初步分类结果进行集合,得到初步分类样本集;将初步分类样本集分成三个初步分类样本子集;
步骤2:将三个初步分类样本子集分别输入到三个不同的分类器中进行初步训练,得到三种分类结果;
步骤3:通过三种分类结果判断输入的数据分类是否完善,直到所有的初步分类样本集中的数据处理完,则停止模型的训练。
进一步的,对三个分类器进行初步训练的公式为:
Out=[Outhave level2,Outhaven′t leve]
Outhave level=[O-input1,O-input2,O-input3]
O-input1→classifier1
O-input2→classifier2
O-input3→classifier3
进一步的,三个分类器的输出结果包括:
Figure BDA0002833589970000035
Figure BDA0002833589970000036
Figure BDA0002833589970000037
进一步的,判断最终得到的输入的数据分类是否完善的结果包括:
若三个分类器的结果相同,则输出分类结果;
若其中两个分类器的结果相同,第三个分类器的结果不同,则将相同两个分类器的训练结果存储在第三个分类器的训练集的末尾,继续训练,直到结果相同为止;
若三个分类器的结果都不同,则将所有的词条数据重新放入未训练的数据集中,直到所有的数据都训练完成。
本发明采用基于注意力机制的监督深度学习模型对整体音乐进行粗分类,首先本发明利用Bert将歌词转化为向量,Bert充分考虑了歌词中的时序关系;然后利用DUTIR中文情绪识别工具对歌词进行情感向量提取;本发明采用基于协同训练的半监督算法对初步分类的结果进行精细划分,使用户能准确的查找到自己喜欢的音乐,节约了用户的时间,提高了查找的精准度。
附图说明
图1是本发明实施例提供的总方法流程图;
图2是本发明内容提供的模型示意图。
具体实施方式
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将结合附图,对本发明实施例中的技术方案进行清楚、完整地描述,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在不付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了实现更精确音乐分类,本发明提出挖掘深层次的音乐特征,在预处理阶段置入音乐本身的特征以及歌词包含的情感特征,并将预处理过后的特征置入注意力层,将提取的特征置入卷积神经网络中。在预处理阶段将用户能直观看到的音乐歌词,在考虑歌词上下文的情况下转化为向量,并在此基础上加入歌词的情感特征,将两者融合的特征作为输入矩阵。在预处理过后引入注意力机制,从输入矩阵中选择对当前分类而说更关键的信息。
一种基于自适应CNN和半监督自训练模型的音乐分类方法,如图1所示,该方法包括:
S1:获取歌曲的歌词数据,将获取的歌词数据输入到数据库的列表中;
S2:采用预训练的Bert模型对列表中的歌词数据进行处理,转化为句子向量;
S3:采用DUTIR中文情绪识别模型提取列表中歌词数据的情感,得到情感特征向量;
S4:将句子向量和情感特征向量进行拼接,得到拼接向量;
S5:将拼接向量输入到训练好的自适应CNN模型中初步分类,得到初步分类结果;
S6:将初步分类结果输入到半监督自训练模型进行精细分类,得到精细划分标签;
S7:根据精细划分标签对输入的音乐数据进行精细分类。
获取的歌曲库中的歌曲数据包括以一个音乐平台的57992首歌为例,其中41256首歌带有一级标签,在41256首歌带有一级标签中有21532首带有二级标签的歌;通过41256首待标签的歌曲将剩下的16732首未带标签的歌实现精细分类。在进行精细分类时,需要将待分类的数据划分为12个一级分类,每个一级分类下有16个二级分类。
对数据进行预处理的过程包括:
步骤1-A:将爬取的57992首歌曲的歌词数据置入列表,然后将列表中的数据输入到预训练的Bert模型中,转化为句子向量;转换的句子向量为:
Figure BDA0002833589970000051
Figure BDA0002833589970000052
其中,Sseq表示歌词列表,wi表示第i首歌的歌词数据,
Figure BDA0002833589970000053
表示爬取的歌词列表中的第225首歌曲的歌词,S1表示1×256维的向量。
步骤1-B:采用DUTIR中文情绪识别模型提取歌词中的情感特征;具体的表达式为:
E1=DUTIR2(S1)
E2=DUTIR7(S1)
E3=DUTIR21(S1)
S2=[E1,E2,E3]
由于DUTIR有三种不同的情绪分类方式,分别分为2维、7维、21维,将数据处理过后将所有的情绪分类的结果拼接起来组成30维的歌词情感向量。S2设置为30×256维的向量。
步骤1-C:将句子向量和情感特征向量进行拼接,得到拼接向量,将拼接向量进行集合,得到样本训练集。向量拼接的公式为:
Sinput=[S1,S2]
其中,Sinput是31×256的矩阵。
步骤2:将训练样本集中的拼接向量输入到自适应CNN模型的Attention层,提取拼接向量的关键信息;提取关键信息的具体公式为:
Q=W1×Sinput
K=W2×Sinput
V=W3×Sinput
Figure BDA0002833589970000061
其中,Q,K,V表示对拼接向量的不同权重的表示,即Q表示第一情感特征向量权重,K表示第二情感特征向量权重、V表示第三情感特征向量权重,dk表示拼接向量的维度,softmax表示对括号中的所用进行Softmax操作,KT表示K的转置。W1、W2、W3为根据拼接向量Sinput设计的不同的权重矩阵,均为256×64的矩阵,W1主要针对转化的歌词向量,W2、W3主要针对提取的情感特征。dk为拼接向量Sinput的维度,256。输出的Scon的维度为31×256。
步骤3:将拼接向量输入到自适应CNN模型的卷积层提取关键信息的主要特征;主要特征的获取包括采用不同大小的卷积核分别提取关键信息的不同的特征和隐藏特征,将所有提取的不同特征和隐藏特征进行融合,得到主要特征。具体的公式为:
Figure BDA0002833589970000071
Figure BDA0002833589970000072
V=[C4,C5,C6]
其中,
Figure BDA0002833589970000073
表示在卷积核大小为fj下的卷积操作,
Figure BDA0002833589970000074
表示卷积核所代表的矩阵,Scon表示拼接向量的关键信息,
Figure BDA0002833589970000075
表示偏置参数,
Figure BDA0002833589970000076
表示在卷积核大小为fj的卷积操作中的最大值,V表示在不同大小卷积核的卷积下最大值的集合。
步骤4:将主要特征输入到最大池化层降低特征维度,得到初步分类结果。
步骤4-1:利用最大池化层降低特征维度,其公式为:
Vpooling=max_pooling(V)
其中,max_pooling(.)表示最大池化层,V表示。
步骤4-2:将经过池化的特征输入到全连接层中,并用ReLU函数作为激活函数,得到第一特征V1,并将第一特征输入到第二个全连接层中进行运算。其公式为:
V1=f1(Vpooling*W1+b1)
其中,V1表示第一次全连接的结果,f1表示激活函数,W1表示权重矩阵,b1表示偏置函数。
步骤4-3:将全连接层连接SoftMax层,通过SoftMax层输出一个最具有代表性的一级分类。一级分类结果为:
Out=SoftMax(V1*W2+b2)
其中,W2表示权重矩阵,b2表示偏置函数。
将一级分类结果输入到半监督自训练模型中进行精细划分。
优选的,本发明的二级分类总数至少包含1个半监督自训练模型。
本实施例中选取的二级分类总数为16个半监督自训练模型,即:
training-model1,training-model2,...,training-model16
半监督自训练模型包括三个不同的分类器。半监督自训练模型为:
training-modeli=[classifier1,classifier2,classifier3]
其中,classifier1表示第一分类器,classifier2表示第二分类器,classifier3表示第三分类器。
如图2所示,对半监督自训练模型进行训练的过程包括:
步骤1:将初步分类结果分成三份;
步骤2::将三份初步分类结果分别输入到三个不同的分类器中进行初步训练,得到三种分类结果;
对三个分类器进行初步训练的公式为:
Out=[Outhave level2,Outha′t leve]
Outhav level2=[O-input1,O-input2,O-input3]
O-input1→classifier1
O-input2→classifier2
O-input3→classifier3
其中,Outhaven′t leve表示没有打标签的数据,Outhave level2表示打标签的数据,O-input1表示,classifier1表示第一分类器,classifier2表示第二分类器,classifier3表示第三分类器。
三个分类器的输出结果包括:
Figure BDA0002833589970000081
Figure BDA0002833589970000082
Figure BDA0002833589970000083
其中,Outhaven′tle表示没有打标签的数据,result1表示第一分类器的输出结果,result2表示第二分类器的输出结果,result3表示第三分类器的输出结果。
步骤3:通过三种分类结果判断最终得到的输入的数据分类是否完善,直到所有的训练数据处理完,则完成模型的训练。
判断最终得到的输入的数据分类是否完善的结果包括:
若三个分类器的结果相同,则输出分类结果;
if result1=result2=result3
output→result1
若其中两个分类器的结果相同,第三个分类器的结果不同,则将相同两个分类器的训练结果存储在第三个分类器的训练集的末尾,继续训练,直到结果相同为止;
elif result1=result2!=result3
Figure BDA0002833589970000091
若三个分类器的结果都不同,则将所有的词条数据重新放入未训练的数据集中,直到所有的数据都训练完成。
elif result1!=result2!=result3
Figure BDA0002833589970000092
直到Outhave′t level2中的数据全部输出。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于自适应CNN和半监督自训练模型的音乐分类方法,其特征在于,包括:
S1:获取歌曲的歌词数据,将获取的歌词数据输入到数据库的列表中;
S2:采用预训练的Bert模型对列表中的歌词数据进行处理,转化为句子向量;
S3:采用DUTIR中文情绪识别模型提取列表中歌词数据的情感,得到情感特征向量;
S4:将句子向量和情感特征向量进行拼接,得到拼接向量;
S5:将拼接向量输入到训练好的自适应CNN模型中进行初步分类,得到初步分类结果;半监督自训练模型包括三个不同的分类器;对半监督自训练模型处理数据的过程包括:
S51:将所有的初步分类结果进行集合,得到初步分类样本集;将初步分类样本集分成三个初步分类样本子集;
S52:将三个初步分类样本子集分别输入到三个不同的分类器中进行初步训练,得到三种分类结果;
S53:通过三种分类结果判断输入的数据分类是否完善,直到所有的初步分类样本集中的数据处理完,则停止模型的训练;
S6:将初步分类结果输入到半监督自训练模型进行精细分类,得到精细划分标签;
S7:根据精细划分标签对输入的音乐数据进行精细分类。
2.根据权利要求1所述的一种基于自适应CNN和半监督自训练模型的音乐分类方法,其特征在于,对自适应CNN模型进行训练的过程包括:
步骤1:获取歌曲库中的歌曲数据,对各首歌曲数据进行预处理,得到模型训练样本集;
步骤2:将训练样本集中的拼接向量输入到自适应CNN模型的Attention层,提取拼接向量的关键信息;
步骤3:将拼接向量输入到自适应CNN模型的卷积层提取关键信息的主要特征;主要特征的获取包括采用不同大小的卷积核分别提取关键信息的不同的特征和隐藏特征,将所有提取的不同特征和隐藏特征进行融合,得到主要特征;
步骤4:将主要特征输入到最大池化层降低特征维度,得到初步分类结果。
3.根据权利要求2所述的一种基于自适应CNN和半监督自训练模型的音乐分类方法,其特征在于,对各首歌曲数据进行预处理包括提取各首歌曲的歌词,构建歌词列表;采用Bert模型将歌词列表中的数据转化为句子向量;提取列表中歌词数据的情感特征向量;将句子向量和情感特征向量进行拼接,得到训练集。
4.根据权利要求2所述的一种基于自适应CNN和半监督自训练模型的音乐分类方法,其特征在于,在Attention层提取关键信息的公式为:
Figure FDA0003819389210000021
其中,Q,K,V分别表示对拼接向量的不同权重的表示,dk表示拼接向量的维度,softmax表示对括号中的所用进行Softmax操作,KT表示K的转置。
5.根据权利要求2所述的一种基于自适应CNN和半监督自训练模型的音乐分类方法,其特征在于,得到主要特征的公式为:
Figure FDA0003819389210000022
Figure FDA0003819389210000023
Figure FDA0003819389210000024
其中,
Figure FDA0003819389210000025
表示在卷积核大小为fj下的卷积操作,
Figure FDA0003819389210000026
表示卷积核所代表的矩阵,Scon表示拼接向量的关键信息,
Figure FDA0003819389210000027
表示偏置参数,
Figure FDA0003819389210000028
表示在卷积操作中的最大值,V表示在不同大小卷积核的卷积下最大值的集合。
6.根据权利要求1所述的一种基于自适应CNN和半监督自训练模型的音乐分类方法,其特征在于,对三个分类器进行初步训练的公式为:
Out=[Outhavelevel2,Outhaven′tlevel2]
Outhavelevel2=[O-input1,O-input2,O-input3]
O-input1→classifier1
O-input2→classifier2
O-input3→classifier3
其中,Outhaven′tlevel2表示没有打标签的数据,Outhavelevel2表示打标签的数据,O-input1表示第一分类器输入的样本数据,O-input2表示第二分类器输入的样本数,O-input3表示第三分类器输入的样本数据,classifier1表示第一分类器,classifier2表示第二分类器,classifier3表示第三分类器。
7.根据权利要求1所述的一种基于自适应CNN和半监督自训练模型的音乐分类方法,其特征在于,三个分类器的输出结果包括:
Figure FDA0003819389210000031
Figure FDA0003819389210000032
Figure FDA0003819389210000033
其中,Outhaven′tlevel2表示没有打标签的数据,classifier1表示第一分类器,classifier2表示第二分类器,classifier3表示第三分类器,result1表示第一分类器的输出结果,result2表示第二分类器的输出结果,result3表示第三分类器的输出结果。
8.根据权利要求1所述的一种基于自适应CNN和半监督自训练模型的音乐分类方法,其特征在于,判断最终得到的输入的数据分类是否完善的结果包括:
若三个分类器的结果相同,则输出分类结果;
若其中两个分类器的结果相同,第三个分类器的结果不同,则将相同两个分类器的训练结果存储在第三个分类器的训练集的末尾,继续训练,直到结果相同为止;
若三个分类器的结果都不同,则将所有的词条数据重新放入未训练的数据集中,直到所有的数据都训练完成。
CN202011464477.7A 2020-12-14 2020-12-14 基于自适应cnn和半监督自训练模型的音乐分类方法 Active CN112487237B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011464477.7A CN112487237B (zh) 2020-12-14 2020-12-14 基于自适应cnn和半监督自训练模型的音乐分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011464477.7A CN112487237B (zh) 2020-12-14 2020-12-14 基于自适应cnn和半监督自训练模型的音乐分类方法

Publications (2)

Publication Number Publication Date
CN112487237A CN112487237A (zh) 2021-03-12
CN112487237B true CN112487237B (zh) 2022-10-18

Family

ID=74916304

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011464477.7A Active CN112487237B (zh) 2020-12-14 2020-12-14 基于自适应cnn和半监督自训练模型的音乐分类方法

Country Status (1)

Country Link
CN (1) CN112487237B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112818164B (zh) * 2021-03-24 2023-09-15 平安科技(深圳)有限公司 音乐类型识别方法、装置、设备及存储介质
CN113177136B (zh) * 2021-04-27 2022-04-22 桂林电子科技大学 基于注意力的音频和歌词的多模态音乐风格分类方法
CN116226501A (zh) * 2021-08-05 2023-06-06 腾讯科技(深圳)有限公司 信息推送方法、装置、计算机设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107978373A (zh) * 2017-11-23 2018-05-01 吉林大学 一种基于共训练的半监督生物医学事件抽取方法
CN111444709A (zh) * 2020-03-09 2020-07-24 腾讯科技(深圳)有限公司 文本分类方法、装置、存储介质及设备
CN111460213A (zh) * 2020-03-20 2020-07-28 河海大学 一种基于多模态学习的音乐情感分类方法
WO2020238293A1 (zh) * 2019-05-30 2020-12-03 华为技术有限公司 图像分类方法、神经网络的训练方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103488782B (zh) * 2013-09-30 2016-07-27 华北电力大学 一种利用歌词识别音乐情感的方法
US11250311B2 (en) * 2017-03-15 2022-02-15 Salesforce.Com, Inc. Deep neural network-based decision network
US11227120B2 (en) * 2019-05-02 2022-01-18 King Fahd University Of Petroleum And Minerals Open domain targeted sentiment classification using semisupervised dynamic generation of feature attributes
CN111651602A (zh) * 2020-06-03 2020-09-11 中南大学 一种文本分类方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107978373A (zh) * 2017-11-23 2018-05-01 吉林大学 一种基于共训练的半监督生物医学事件抽取方法
WO2020238293A1 (zh) * 2019-05-30 2020-12-03 华为技术有限公司 图像分类方法、神经网络的训练方法及装置
CN111444709A (zh) * 2020-03-09 2020-07-24 腾讯科技(深圳)有限公司 文本分类方法、装置、存储介质及设备
CN111460213A (zh) * 2020-03-20 2020-07-28 河海大学 一种基于多模态学习的音乐情感分类方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
"Semi-Supervised Multi-Granularity CNNs for Text Classification: An Application in Human-Car Interaction";Fen Zhao 等;《https://ieeexplore.ieee.org/document/9055236》;20200402;68000 - 68012 *
一种基于联合深度神经网络的食品安全信息情感分类模型;刘金硕等;《计算机科学》;20161215(第12期);277-280 *
基于半监督与词向量加权的文本分类研究;宋建国;《软件导刊》;20200915(第09期);27-30 *
基于卷积神经网络的中文财经新闻分类方法;谢志峰等;《山东大学学报(工学版)》;20180503(第03期);34-39,66 *
基于深度学习的文本情感分析;李丽华等;《湖北大学学报(自然科学版)》;20200305(第02期);142-147 *
基于辅助模态监督训练的情绪识别神经网络;邹纪云等;《河北科技大学学报》;20201015(第05期);424-432 *
基于集成学习的半监督情感分类方法研究;高伟等;《中文信息学报》;20130515(第03期);120-126 *
预训练模型下融合注意力机制的多语言文本情感分析方法;胡德敏等;《小型微型计算机系统》;20200215(第02期);全文 *

Also Published As

Publication number Publication date
CN112487237A (zh) 2021-03-12

Similar Documents

Publication Publication Date Title
CN110134757B (zh) 一种基于多头注意力机制的事件论元角色抽取方法
CN112487237B (zh) 基于自适应cnn和半监督自训练模型的音乐分类方法
CN110298033B (zh) 关键词语料标注训练提取系统
CN109657239B (zh) 基于注意力机制和语言模型学习的中文命名实体识别方法
CN107943784B (zh) 基于生成对抗网络的关系抽取方法
CN106599032B (zh) 一种结合稀疏编码和结构感知机的文本事件抽取方法
CN110765260A (zh) 一种基于卷积神经网络与联合注意力机制的信息推荐方法
CN111027595B (zh) 双阶段语义词向量生成方法
CN110619051B (zh) 问题语句分类方法、装置、电子设备及存储介质
CN111506732B (zh) 一种文本多层次标签分类方法
CN113591483A (zh) 一种基于序列标注的文档级事件论元抽取方法
Kaur Incorporating sentimental analysis into development of a hybrid classification model: A comprehensive study
CN110750648A (zh) 一种基于深度学习和特征融合的文本情感分类方法
CN113255320A (zh) 基于句法树和图注意力机制的实体关系抽取方法及装置
CN113220890A (zh) 一种基于预训练的结合新闻标题和新闻长文本内容的深度学习方法
CN112905739A (zh) 虚假评论检测模型训练方法、检测方法及电子设备
CN116205222A (zh) 一种基于多通道注意力融合的方面级情感分析系统及方法
CN115422947A (zh) 一种基于深度学习的古诗词配乐方法及系统
CN112818698A (zh) 一种基于双通道模型的细粒度的用户评论情感分析方法
CN115392254A (zh) 一种基于目标任务可解释性认知预测与判别方法及其系统
CN112183106A (zh) 一种基于音素联想及深度学习的语义理解方法及装置
CN113177136B (zh) 基于注意力的音频和歌词的多模态音乐风格分类方法
CN115759119A (zh) 一种金融文本情感分析方法、系统、介质和设备
CN109670169B (zh) 一种基于特征提取的深度学习情感分类方法
CN113486143A (zh) 一种基于多层级文本表示及模型融合的用户画像生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant