CN114530137A - 基于情感词语的自动作曲方法、装置、设备及存储介质 - Google Patents
基于情感词语的自动作曲方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114530137A CN114530137A CN202011325160.5A CN202011325160A CN114530137A CN 114530137 A CN114530137 A CN 114530137A CN 202011325160 A CN202011325160 A CN 202011325160A CN 114530137 A CN114530137 A CN 114530137A
- Authority
- CN
- China
- Prior art keywords
- music
- chord
- user
- words
- initial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002996 emotional effect Effects 0.000 title claims abstract description 101
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 239000000203 mixture Substances 0.000 title claims description 75
- 230000008451 emotion Effects 0.000 claims abstract description 142
- 238000011156 evaluation Methods 0.000 claims abstract description 89
- 238000013507 mapping Methods 0.000 claims abstract description 22
- 230000007704 transition Effects 0.000 claims description 22
- 230000033764 rhythmic process Effects 0.000 claims description 17
- 230000015654 memory Effects 0.000 claims description 14
- 238000003058 natural language processing Methods 0.000 claims description 10
- 239000013598 vector Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 241001342895 Chorus Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 2
- 238000007418 data mining Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/075—Musical metadata derived from musical analysis or for use in electrophonic musical instruments
- G10H2240/085—Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明涉及计算机技术领域,公开了一种基于情感词语的自动作曲方法、装置、设备及存储介质,所述方法包括:从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值;根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群;基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果;根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值;根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲,在本发明中通过情感词语来确定和弦群并生成初始乐曲,并根据用户基于初始乐曲的评价结果来生成目标乐曲,从而可生成具有用户情感倾向并且符合用户喜爱度的乐曲,个性化体现了使用者的情感特征。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于情感词语的自动作曲方法、装置、设备及存储介质。
背景技术
近年来,随着人工智能技术的快速发展,其已经应用到越来越多的领域,尤其是音乐领域,可通过自动作曲算法,实现古典音乐、影视配乐、流行乐等不同风格音乐的创作。
但是,目前传统的自动作曲算法中,基于简单定义的语义或语调与音阶之间的匹配关系,并通过偏监督频繁模式数据挖掘形式实现,但是该算法中数据挖掘需要消耗大量的计算机资源,且乐曲大多通过训练好的模型随机生成,无法个性化体现使用者的情感特征。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提出一种基于情感词语的自动作曲方法、装置、设备及存储介质,旨在解决现有技术中的自动作曲算法无法个性化体现使用者的情感特征的技术问题。
为实现上述目的,本发明提供一种基于情感词语的自动作曲方法,所述基于情感词语的自动作曲方法包括以下步骤:
从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值;
根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群;
基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果;
根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值;
根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲。
此外,为实现上述目的,本发明还提出一种基于情感词语的自动作曲装置,所述基于情感词语的自动作曲装置包括:
情感词语模块,用于从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值;
和弦群模块,用于根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群;
初始乐曲模块,用于基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果;
权重调整模块,用于根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值;
目标乐曲模块,用于根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲。
此外,为实现上述目的,本发明还提出一种基于情感词语的自动作曲设备,所述基于情感词语的自动作曲设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于情感词语的自动作曲程序,所述基于情感词语的自动作曲程序配置有实现如上所述的基于情感词语的自动作曲方法的步骤。
此外,为实现上述目的,本发明还提出一种存储介质,所述存储介质上存储有基于情感词语的自动作曲程序,所述基于情感词语的自动作曲程序被处理器执行时实现如上文所述的基于情感词语的自动作曲方法的步骤。
本发明提出的基于情感词语的自动作曲方法,通过从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值;根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群;基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果;根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值;根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲,在本发明中通过情感词语来确定和弦群并生成初始乐曲,并根据用户基于初始乐曲的评价结果来生成目标乐曲,从而可生成具有用户情感倾向并且符合用户喜爱度的乐曲,个性化体现了使用者的情感特征。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的基于情感词语的自动作曲设备结构示意图;
图2为本发明基于情感词语的自动作曲方法第一实施例的流程示意图;
图3为本发明基于情感词语的自动作曲方法第二实施例的流程示意图;
图4为本发明基于情感词语的自动作曲方法一实施例的Magenta模型的结构示意图;
图5为本发明基于情感词语的自动作曲方法一实施例的嵌入情感信息后的Magenta模型的结构示意图;
图6为本发明基于情感词语的自动作曲方法第三实施例的流程示意图;
图7为本发明基于情感词语的自动作曲方法一实施例的乐曲示意图;
图8为本发明基于情感词语的自动作曲方法第四实施例的流程示意图;
图9为本发明基于情感词语的自动作曲装置第一实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的基于情感词语的自动作曲设备结构示意图。
如图1所示,该基于情感词语的自动作曲设备可以包括:处理器1001,例如中央处理器(Central Processing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如按键,可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速随机存取存储器(Random Access Memory,RAM)存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的设备结构并不构成对基于情感词语的自动作曲设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于情感词语的自动作曲程序。
在图1所示的基于情感词语的自动作曲设备中,网络接口1004主要用于连接外网,与其他网络设备进行数据通信;用户接口1003主要用于连接用户设备,与所述用户设备进行数据通信;本发明设备通过处理器1001调用存储器1005中存储的基于情感词语的自动作曲程序,并执行本发明实施例提供的基于情感词语的自动作曲方法。
基于上述硬件结构,提出本发明基于情感词语的自动作曲方法实施例。
参照图2,图2为本发明基于情感词语的自动作曲方法第一实施例的流程示意图。
在第一实施例中,所述基于情感词语的自动作曲方法包括以下步骤:
步骤S10,从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值。
需要说明的是,本实施例的执行主体可为基于情感词语的自动作曲设备,所述自动作曲设备可为计算机设备,还可为其他可实现相同或相似功能的设备,本实施例对此不作限制,在本实施例中,以计算机设备为例进行说明。
应当理解的是,所述待处理语句可以是用户根据需求自定义的语句,也可以是用户通过云端下载的语句,其中,待处理语句可以是语音形式呈现,也可以是文字形式,待处理语句可以是一句话,也可以是多句话,本实施例对此不作限制。获取待处理语句的过程可为接收用户输入的处理指令,并根据处理指令获取待处理语句,其中,处理指令可以包括语句内容。
在获取到待处理语句后,可对获取到的待处理语句进行自然语言处理,从而得到情感词语,然后对情感词语进行处理,将自然语言的这种符号信息转化为向量形式的数字信息,得到情感词语对应的和弦权重值。
进一步地,为了提高从待处理语句中提取情感词语,以及确定情感词语对应的和弦权重值的准确性,所述步骤S10,包括:
对待处理语句进行分句、分词及词性标记处理,获得情感词语;对所述情感词语进行向量化处理,以确定所述情感词语对应的和弦权重值。
可以理解的是,可对获取到的待处理语句进行自然语言处理,即对待处理语句进行分句、分词及词性标记等处理,从而得到情感词语,然后对该情感词语进行向量化处理,即将自然语言的这种符号信息转化为向量形式的数字信息,得到情感词语对应的和弦权重值,其中,该和弦权重值为情感词语在和弦中所占的比重。
在具体实现中,可以使用word2vec模型对待处理语句进行自然语言处理,即对该待处理语句进行分句,分词,词性分析以及情感词语分析,例如,用户在终端输入“请播放一首高兴的音乐”,则服务器会对其进行自然语言处理,从该语句中抽取情感词语,其中,该情感词语可以是与音乐相关的词语,也可以是带有情感色彩的词语,然后对该情感词语进行权重分配,可以得到高兴的和弦权重值为1;当用户输入“请播放一段高兴又欢快的音乐”。可以得到高兴的和弦权重值为1,欢快的和弦权重值为1。
需要说明的是,上述情感词语的类别可以通过用户初始自定义,可以根据使用者对情感的理解不同进行个性化修正,例如:高兴、难过、犹豫、愤怒等不同的情感信息,其中,同一词语可以同时属于多种情感类别,但不能同时属于相反的情感类别,例如,某个词语可以同时属于忧郁和平静的情感类别,但是不可以同时属于高兴和难过的情感类别。
步骤S20,根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群。
可以理解的是,该步骤具体可为:根据情感词语从预设映射字典中查找待处理和弦,根据所述和弦权重值和所述待处理和弦确定和弦群。
应当理解的是,和弦指的是具有一定音程关系的一组声音,可为三个或三个以上的音的集合,所述预设映射字典可由多个情感词语与和弦的对应关系组成,通过获取到大量历史乐谱,从历史乐谱中获取到情感词语与和弦之间的对应关系,从而制作出预设映射字典。
在从待处理语句中提取情感词语以及确定情感词语对应的和弦权重值后,可从预设映射字典中查找情感词语对应的待处理和弦,并依照和弦权重值对待处理和弦进行处理,得到和弦群,其中,一个和弦群可包括多个和弦。例如,当情感词语为高兴、难过,并且高兴、难过对应的和弦权重值均为1时,该预设映射字典可以是{“高兴”:[“CAFG”,“FAGC”.....],“难过”:[“FGCA”,“GCFA”.....]...}。可从预设映射字典中分别查找与高兴对应的第一待处理和弦以及与难过对应的第二待处理和弦,然后可确定第一待处理和弦与第二待处理和弦的和弦权重值均为1,进而根据第一待处理和弦、第二待处理和弦以及和弦权重值确定和弦群。
步骤S30,基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果。
需要说明的是,在确定情感词语对应的和弦群后,可以采用预设算法确定主旋律和伴奏,进而生成初始乐曲,其中,所述预设算法可为谷歌开源库中的深度学习算法,还可为其他可实现相同或相似功能的算法,本实施例对此不作限制。
应当理解的是,当对情感词语进行语义解析,通过采用预设算法生成乐曲后,让用户对该乐曲进行评价,从而了解用户对该乐曲的喜爱度。
在具体实现中,可以检测初始乐曲在乐曲播放时的开始时刻和结束时刻,根据开始时刻和结束时刻确定初始乐曲的播放时长,如果播放时长大于预设时长阈值,则确定用户对当前生成的初始乐曲喜爱度高,如果播放时长小于预设预设阈值,则确定用户对当前生成的初始乐曲喜爱度低,其中,预设时长阈值可为根据实际情况设定的值,例如1分钟、2分钟等,本实施例对此不作限制。也可以是用户根据播放的初始乐曲,通过语音或者文字的形式直接向终端反馈喜爱度,如“需要更高兴的音乐”、“歌曲还不够伤感”等。也可为以上两种方式的组合,以确定评价结果,本实施例对此不作限制。
步骤S40,根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值。
可以理解的是,在确定出评价结果后,可以根据用户给出的评价结果,对和弦权重值进行调整优化,如当用户对乐曲的喜爱度高时,增加和弦权重值,当用户对乐曲的喜爱度低时,减小和弦权重值,进而获得调整后的目标和弦权重值。
步骤S50,根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲。
应当理解的是,在确定目标和弦权重值后,可根据目标和弦权重值和情感词语确定对应的目标和弦群,然后基于目标和弦群生成符合用户喜爱度的目标乐曲,从而可生成具有用户情感倾向并且符合用户喜爱度的乐曲。
本实施例中通过从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值;根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群;基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果;根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值;根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲,在本发明中通过情感词语来确定和弦群并生成初始乐曲,并根据用户基于初始乐曲的评价结果来生成目标乐曲,从而可生成具有用户情感倾向并且符合用户喜爱度的乐曲,个性化体现了使用者的情感特征。
在一实施例中,如图3所示,基于第一实施例提出本发明基于情感词语的自动作曲方法第二实施例,所述步骤S30,包括:
步骤S301,基于所述和弦群和预设算法生成初始乐曲。
应当理解的是,可以采用预设算法和和弦群生成初始乐曲,其中,所述预设算法可为谷歌开源库中的深度学习算法,还可为其他可实现相同或相似功能的算法,本实施例对此不作限制。为了提高生成乐曲的效果,深度学习算法对应的模型可以是Magenta模型,其中,Magenta模型为基于循环神经网络生成复合音乐的自动作曲模型,在训练Magenta模型时,首先确定已知情感信息的若干词语作为训练数据,并对每个训练数据的情感信息进行数据标注,为该训练数据的情绪标签,根据训练数据的情绪标签,在词向量空间中找到与其cosine距离较近的多个其他情感词汇,对这些情感词汇的词向量计算平均值,得到新的情绪向量e,其中Magenta模型的结构示意图可以参见图4所示,为多层长短期记忆网络(LongShort-Term Memory,简称LSTM)堆叠的产生式模型。
进一步地,可以使用嵌入的情绪词汇对LSTM的隐藏状态进行初始化处理,使得情感信息整体嵌入该模型中,得到嵌入情感信息的Magenta模型,其结构示意图可以参见图5所示,在计算出情绪向量e后,可以通过全连接层得到e',使其维度与LSTM隐藏状态维度一致,且将e'作为每层LSTM的初始隐藏状态。
通过将情感信息嵌入模型中,能够分别从和弦整体和和弦内部音符两个方面个性化体现情感特征,从而鲜明的体现不同的情绪特征,使得对不同情绪的表达力更强。
另外,传统Magenta模型结构中使用注意力机制(lookback attention),其中,注意力机制指的是人类重点关注的区域,能够使得当前时刻RNN的预测输出可以融合前序输出,具体为在得到当前时刻的隐藏状态时,通过如下公式计算前序时刻中的每个时刻的输出:
其中,hi为前序时刻的隐藏状态,ct为当前时刻LSTM单元中的细胞状态,v、W1、W2为可学习向量和矩阵,h′t为当前状态的上下文向量,由前序隐藏状态的加权和构成,为当前时刻的权值;在得到上下文状态ht'后,可以将该h′t与当前时刻隐藏状态hi拼接,得到拼接后的隐藏状态,将拼接后的隐藏状态通过全连接层进行映射,使得当前时刻融合了上下文的隐藏状态。
本实施例中模型结构的每层采用多头回溯注意力机制(Multihead lookbackattention),通过如下公式计算上下文向量:
需要说明的是,该多头回溯注意力机制根据前序隐藏状态和当前时刻细胞状态计算出d个备选注意力头,其中d可以根据模型超参个数确定,并通过softmax函数计算出每个attention头的权重并根据该权重,将多个attention头进行加权和计算,得到前序隐藏状态真正的attention值k,从而得到每个前序隐藏状态的权重a,对其再求加权和,得到真正的上下文向量h′t。通过使用多头回溯注意力机制,从而对模型中隐藏状态编码的损失较小,使得获取到的信息更多,从而更好的对前序状态进行建模。
进一步地,为了更好的生成初始乐曲,提高乐曲生成效果,所述步骤S301,包括:
基于所述和弦群,采用预设算法确定主旋律和伴奏;确定所述情感词语对应的鼓点群,并基于所述鼓点群生成节奏;将所述主旋律、所述伴奏和所述节奏进行匹配叠加,生成乐段;对所述乐段按照预设规则进行拼接,以生成初始乐曲。
可以理解的是,可将情感信息嵌入模型中,并对和弦群进行算法处理,从而生成主旋律和伴奏,并从曲库中抽取情感词语对应的鼓点群,根据鼓点群采用预设算法生成节奏,并将主旋律、伴奏和节奏进行匹配叠加处理,从而生成乐段。其中,生成的乐段中的主旋律、伴奏和节奏相互匹配,节奏可以是架子鼓音轨。
本实施例中通过将情感信息嵌入模型中,从而更全面的从和弦整体与和弦内部进行情感特征的个性化体现,并通过在模型训练中采用多头回溯注意力机制,使得隐藏状态编码的损失减小,从而更好的将前序状态融合到当前隐藏状态中,进一步获取到更多的信息。
进一步地,一首完整的歌曲一般由主歌和副歌组成,并且主歌和副歌之间还可通过过渡段进行连接,为了达到更好的乐曲生成效果,所述对所述乐段按照预设规则进行拼接,以生成初始乐曲之前,还包括:
基于所述情感词语,从预设曲库中获取历史过渡段,所述历史过渡段为主歌与副歌的连接部分;根据所述历史过渡段确定乐曲过渡段;
相应地,所述对所述乐段按照预设规则进行拼接,以生成初始乐曲,包括:
确定所述乐段的歌曲属性,并根据所述歌曲属性确定主歌和副歌;基于所述乐曲过渡段、所述主歌以及所述副歌按照预设规则进行拼接,以生成初始乐曲。
应当理解的是,一首完整的歌曲由主歌和副歌组成,主歌一般指歌曲开始或者中间比较平淡的铺垫部分,副歌就是中心,即歌曲的高潮及精华部分,整首歌曲根据不同的歌曲结构可以包括多个乐段,在对主旋律,伴奏和节奏进行匹配拼接,确定出乐段后,可以根据乐段结构结合乐理知识,确定出乐段的歌曲属性,其中,该歌曲属性包括主歌和副歌,并根据该情感词语,从曲库中获取历史过渡段,并基于历史过渡段确定乐曲过渡段,例如,可从历史过渡段中选取一个或多个作为乐曲过渡段,通过乐曲过渡段连接主歌和副歌,从而生成完整的初始乐曲。
在具体实现中,当生成两个乐段时,第一个是主歌A,第二个是副歌B,基于流行歌曲常见的拼接规则对该乐段进行拼接,可以生成ABABB,也可以是BABAA,还可为其他拼接规则,所述预设拼接规则可为以上拼接规则中的一种,本实施例对此不作限制。
步骤S302,根据所述初始乐曲进行乐曲播放,并记录开始时刻。
应当理解的是,在生成初始乐曲后,可自动对初始乐曲进行乐曲播放,并记录开始时刻,例如,开始时刻可为10:10。
步骤S303,在接收到用户输入的停止播放指令时,根据所述停止播放指令停止乐曲播放,并记录结束时刻。
可以理解的是,在乐曲播放的过程中,如果接收到用户输入的停止播放指令,可根据停止播放指令停止乐曲播放,并记录结束时刻,例如,结束时刻可为10:11。
步骤S304,根据所述开始时刻和所述结束时刻确定所述用户对所述初始乐曲的评价结果。
应当理解的是,在确定开始时刻和结束时刻后,可根据开始时刻和结束时刻计算播放时长,根据播放时长确定用户用户对初始乐曲的评价结果。
进一步地,为了得到较好的评价结果检测效果,使检测到的评价结果更加准确,所述步骤S304,包括:
根据所述开始时刻和所述结束时刻确定所述初始乐曲的播放时长;将所述播放时长与预设时长阈值进行比较,并根据比较结果确定所述用户对所述初始乐曲的喜爱程度;根据所述喜爱程度确定所述用户对所述初始乐曲的评价结果。
应当理解的是,可根据开始时刻和结束时刻计算初始乐曲的播放时长,例如,在开始时刻可为10:10、结束时刻可为10:11时,播放时长为1分钟,预设时长阈值可为2分钟,将播放时长与预设时长阈值进行比较便可确定用户对初始乐曲的评价结果。播放时长大于等于预设时长阈值说明用户对初始乐曲的喜爱度高,播放时长小于预设阈值说明用户对初始乐曲的喜爱度低。
进一步地,由于仅凭播放时长来确定用户对初始乐曲的喜爱度可能不太准确,因此,还可结合用户的乐曲评价语句来确定评价结果,所述根据所述喜爱程度确定所述用户对所述初始乐曲的评价结果之前,还包括:
接收所述用户输入的乐曲评价语句;
相应地,所述根据所述喜爱程度确定所述用户对所述初始乐曲的评价结果,包括:
对所述乐曲评价语句进行自然语言处理,确定评价情感词语;根据所述喜爱程度和所述评价情感词语确定所述用户对所述初始乐曲的评价结果。
应当理解的是,还可接收用户输入的乐曲评价语句,并且对乐曲评价语句进行自然语言处理,确定评价情感词语,进而根据评价情感词语进一步确定用户的喜爱程度,进而确定用户对初始乐曲的评价结果。
本实施例中通过基于所述和弦群和预设算法生成初始乐曲;根据所述初始乐曲进行乐曲播放,并记录开始时刻;在接收到用户输入的停止播放指令时,根据所述停止播放指令停止乐曲播放,并记录结束时刻;根据所述开始时刻和所述结束时刻确定所述用户对所述初始乐曲的评价结果,进而可基于和弦群和预设算法生成初始乐曲,然后对初始乐曲进行乐曲播放,根据乐曲播放的开始时刻和结束时刻来确定初始乐曲的评价结果,根据评价结果生成符合用户喜爱度的目标乐曲,从而可生成具有用户情感倾向并且符合用户喜爱度的乐曲。
在一实施例中,如图6所示,基于第一实施例或第二实施例提出本发明基于情感词语的自动作曲方法第三实施例,在本实施例中,基于第一实施例进行说明,所述步骤S40,包括:
步骤S401,根据所述评价结果确定喜爱程度和评价情感词语。
应当理解的是,评价结果中可包含根据播放时长确定的喜爱程度,以及根据用户输入的乐曲评价语句确定的评价情感词语,因此,可根据评价结果确定喜爱程度和评价情感词语。
步骤S402,根据所述喜爱程度和所述评价情感词语确定权重调整值。
可以理解的是,可根据喜爱程度和评价情感词语确定权重调整值,用于后续的和弦权重值调整,以获得目标和弦权重值。
步骤S403,根据所述权重调整值对所述和弦权重值进行调整,以获得目标和弦权重值。
可以理解的是,可根据权重调整值对和弦权重值进行调整,以获得目标和弦权重值,进而根据和弦权重值确定目标和弦群,并根据目标和弦群生成符合用户喜爱度的目标乐曲。
进一步地,为了准确地生成符合用户喜爱度的目标乐曲,个性化体现使用者的情感特征,所述步骤S50,包括:
根据所述目标和弦权重值和所述情感词语从所述预设映射字典中查找对应的目标和弦群;基于所述目标和弦群生成符合用户喜爱度的目标乐曲。
应当理解的是,在确定目标和弦权重值后,可根据目标和弦权重值和情感词语对应的和弦确定目标和弦群,然后根据目标和弦群进行上述乐曲生成的处理,得到符合用户喜爱度的目标乐曲。
在具体实现中,例如,当用户开始输入的情感词语的和弦权重值为初始和弦权重值时,假设刚开始用户输入的是“需要悲伤且忧郁的歌曲”,对其进行自然语言处理后,可以确定悲伤的和弦权重值为1,忧郁的和弦权重值为1,并举与情感词语与和弦对应的预设映射字典,可确定出悲伤和忧郁对应的和弦群,然后根据和弦群,基于谷歌开源库提供的预设算法,生成初始乐曲。然后基于初始乐曲进行乐曲播放,并检测播放时长,在播放时长小于预设时长阈值时,说明用户可能对初始乐曲并不感兴趣,可确定用户的喜爱程度为低,可相应地对每个和弦权重值+0.1。在接收到用户输入的乐曲评价语句为“需要更悲伤的乐曲”时,经过自然语言处理后,可确定评价情感词语为“悲伤”,因此,认为用户对悲伤的认可度比平均值高,因此,可对悲伤对应的和弦权重值+1,因此,可确定悲伤的和弦权重值对应的权重调整值为+0.2,忧郁的和弦权重值对应的权重调整值为+0.1,进而可确定悲伤的目标和弦权重值为1.2,忧郁的目标和弦权重值为1.1,从而找到对应的目标和弦群,进而根据目标和弦群生成符合用户喜爱度的目标乐曲。
进一步地,所述基于所述目标和弦群生成符合用户喜爱度的目标乐曲,包括:
基于所述目标和弦群,采用预设算法确定目标主旋律、目标伴奏以及目标节奏;将所述目标主旋律、所述目标伴奏和所述目标节奏进行匹配叠加,生成目标乐段;对所述目标乐段按照预设规则进行拼接,以生成符合用户喜爱度的目标乐曲。
可以理解的是,在确定目标和弦群后,可通过预设算法生成调整后的目标主旋律、目标伴奏以及对应的目标节奏,将该调整后的目标主旋律、目标伴奏以及对应的目标节奏匹配叠加,从而生成目标乐段,并根据乐曲结构定义,确定出目标主歌和目标副歌,基于调节后的目标和弦权重值,采用预设算法生成调整后的目标过渡段,然后将目标主歌、目标副歌以及目标过渡段,根据预设拼接规则进行拼接处理,从而生成符合用户喜爱度的目标乐曲,其乐曲示意图可以参见图7所示
可选的,本实施例中可以在服务器端设置缓存机制,预先针对和弦库中的不同和弦生成音频路径,并使用哈希方法将生成的音频路径与和弦一一对应并存储在服务器中,当接收到终端发送的乐曲生成请求时,直接根据预存的音频路径与和弦的对应关系,通过和弦群查找到对应的音频文件,并使用过渡段进行拼接,从而生成完整乐曲,并返回给客户端。另外,可以对选中的音频进行标记,使得在下一次根据和弦选择音频时,系统优先挑选出标记次数少的音频,如果当前所有音频全部选中达到预设次数,则服务器端使用模型重新生成部分音频信息加入曲库中,并删除标记次数多的若干音频,从而保证在根据和弦选择音频的速度的同时,也实现了音频的多样化。
另外,本申请提供的自动作曲方法可以结合用户的喜好信息,对每个用户,生成对应喜好信息的和弦权重表,该和弦权重表代表了不同和弦对用户的重要程度。其中,对于新用户,和弦权指会通过其他用户的常用和弦权值进行初始化,当用户在客户端调用自动作曲功能时,服务器会记录用户对乐曲的开始播放时间和结束播放时间,通过该开始播放时间和结束播放时间来确定用户对该乐曲的播放时长,从而确定用户对本次播放乐曲的喜爱程度,当乐曲播放时长多时,则用户的喜爱程度高,当乐曲播放时长少时,则用户的喜爱程度低,如果用户的喜爱程度高,则服务器升高对该乐曲使用的和弦权值,反之则降低和弦权值。当和弦权值不稳定时,可以通过判断出用户的情感信息,并针对用户的情感信息,优选选择和弦权值高的和弦,从而基于用户的喜好信息,为用户个性化的生成合适风格的乐曲。
本实施例中通过根据所述评价结果确定喜爱程度和评价情感词语;根据所述喜爱程度和所述评价情感词语确定权重调整值;根据所述权重调整值对所述和弦权重值进行调整,以获得目标和弦权重值,从而根据用户的评价结果确定权重调整值,进而根据权重调整值得到目标和弦权重值,用于准确地生成目标乐曲,提高了乐曲生成的效果。
在一实施例中,如图8所示,基于上述实施例提出本发明基于情感词语的自动作曲方法第四实施例,在本实施例中,基于第一实施例进行说明,所述步骤S50之后,还包括:
步骤S601,获取所述用户对应的用户信息,并根据所述用户信息生成标识信息。
可以理解的是,还可通过读取当前登录账号的方式获取用户对应的用户信息,并根据用户信息生成标识信息。
步骤S602,根据所述标识信息生成乐曲标识,并在所述目标乐曲上添加所述乐曲标识。
可以理解的是,可根据标识信息生成乐曲标识,并在目标乐曲上添加乐曲标识,通过乐曲标识可确定该乐曲是由哪个用户生成的。
步骤S603,将添加乐曲标识后的目标乐曲添加至预设数据库。
应当理解的是,可将添加乐曲标识后的目标乐曲添加至预设数据库,预设数据库可设置在服务器端,预设数据库中可存储多个用户对应的乐曲。
步骤S604,在接收到随机播放指令时,根据所述随机播放指令确定当前信息。
可以理解的是,子啊接收到用户输入的随机播放指令时,可根据随机播放指令确定当前信息。
步骤S605,根据所述当前信息从所述预设数据库中查找待播放乐曲,并根据所述待播放乐曲进行乐曲播放。
应当理解的是,该步骤具体可为:根据所述当前信息确定当前用户信息,并查找所述当前用户信息对应的目标乐曲标识;从所述预设数据库中查找与所述目标乐曲标识对应的待播放乐曲。
可以理解的是,可根据当前信息确定当前用户信息,并查找当前用户信息对应的目标乐曲标识,然后从预设数据库中查找与目标乐曲标识对应的待播放乐曲,从而可在用户想要随机播放时,播放之前生成的与该用户对应的乐曲,以达到较好的播放效果。
进一步地,由于在不同的时间,用户可能会有不同的心情,因此,为了达到更好的随机播放效果,所述根据所述用户信息生成标识信息之前,还包括:
获取所述目标乐曲的生成时刻;
相应地,所述根据所述用户信息生成标识信息,包括:
根据所述用户信息和所述生成时刻生成标识信息。
应当理解的是,还可获取每个目标乐曲的生成时刻,并根据用户信息和生成时刻生成标识信息。
进一步地,所述根据所述当前信息从所述预设数据库中查找待播放乐曲,包括:
根据所述当前信息确定当前用户信息和当前时刻;对所述预设数据库中的目标乐曲进行遍历,并将遍历到的目标乐曲作为待选乐曲;确定所述待选乐曲对应的待选乐曲标识,并根据所述待选乐曲标识确定所述待选乐曲的待选用户信息和待选生成时刻;在所述待选用户信息和所述当前用户信息一致时,根据预设时间规则和所述待选生成时刻确定待选时间范围;判断所述当前时刻是否在所述待选时间范围内;若所述当前时刻在所述待选时间范围内,则将所述待选乐曲作为待播放乐曲。
应当理解的是,首先可对预设数据库中的所有目标乐曲进行遍历,并将遍历到的目标乐曲作为待选乐曲,进而根据待选乐曲对应的待选乐曲标识确定待选乐曲的待选用户信息和待选生成时刻,进而在所述待选用户信息和所述当前用户信息一致时,根据预设时间规则和所述待选生成时刻确定待选时间范围。其中,预设时间规则可为在待选生成时刻的基础上±1小时,例如,在待选生成时刻为8:00时,根据预设时间规则确定的待选时间范围为7:00-8:00。进而可判断当前时刻是否在所述待选时间范围内,若所述当前时刻在所述待选时间范围内,则将所述待选乐曲作为待播放乐曲,从而筛选出用户可能感兴趣的待播放乐曲进行播放。
本实施例中通过获取所述用户对应的用户信息,并根据所述用户信息生成标识信息;根据所述标识信息生成乐曲标识,并在所述目标乐曲上添加所述乐曲标识;将添加乐曲标识后的目标乐曲添加至预设数据库;在接收到随机播放指令时,根据所述随机播放指令确定当前信息;根据所述当前信息从所述预设数据库中查找待播放乐曲,并根据所述待播放乐曲进行乐曲播放。在本实施例中,可在用户选择随机播放时,给用户播放其可能感兴趣的待播放乐曲,提升了用户的使用感受,由于,这些待播放乐曲也是之前基于情感词语生成的,也使本申请中的自动作曲方法能有更加广泛的应用空间。
此外,本发明实施例还提出一种存储介质,所述存储介质上存储有基于情感词语的自动作曲程序,所述基于情感词语的自动作曲程序被处理器执行时实现如上文所述的基于情感词语的自动作曲方法的步骤。
由于本存储介质采用了上述所有实施例的全部技术方案,因此至少具有上述实施例的技术方案所带来的所有有益效果,在此不再一一赘述。
此外,参照图9,本发明实施例还提出一种基于情感词语的自动作曲装置,所述基于情感词语的自动作曲装置包括:
情感词语模块10,用于从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值。
和弦群模块20,用于根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群。
初始乐曲模块30,用于基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果。
权重调整模块40,用于根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值。
目标乐曲模块50,用于根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲。
本实施例中通过从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值;根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群;基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果;根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值;根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲,在本发明中通过情感词语来确定和弦群并生成初始乐曲,并根据用户基于初始乐曲的评价结果来生成目标乐曲,从而可生成具有用户情感倾向并且符合用户喜爱度的乐曲,个性化体现了使用者的情感特征。
在本发明所述基于情感词语的自动作曲装置的其他实施例或具体实现方法可参照上述各方法实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该估算机软件产品存储在如上所述的一个估算机可读存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台智能设备(可以是手机,估算机,基于情感词语的自动作曲设备,空调器,或者网络基于情感词语的自动作曲设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
本发明公开了A1、一种基于情感词语的自动作曲方法,所述基于情感词语的自动作曲方法包括以下步骤:
从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值;
根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群;
基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果;
根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值;
根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲。
A2、如A1所述的基于情感词语的自动作曲方法,所述从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值,包括:
对待处理语句进行分句、分词及词性标记处理,获得情感词语;
对所述情感词语进行向量化处理,以确定所述情感词语对应的和弦权重值。
A3、如A1所述的基于情感词语的自动作曲方法,所述基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果,包括:
基于所述和弦群和预设算法生成初始乐曲;
根据所述初始乐曲进行乐曲播放,并记录开始时刻;
在接收到用户输入的停止播放指令时,根据所述停止播放指令停止乐曲播放,并记录结束时刻;
根据所述开始时刻和所述结束时刻确定所述用户对所述初始乐曲的评价结果。
A4、如A3所述的基于情感词语的自动作曲方法,所述基于所述和弦群和预设算法生成初始乐曲,包括:
基于所述和弦群,采用预设算法确定主旋律和伴奏;
确定所述情感词语对应的鼓点群,并基于所述鼓点群生成节奏;
将所述主旋律、所述伴奏和所述节奏进行匹配叠加,生成乐段;
对所述乐段按照预设规则进行拼接,以生成初始乐曲。
A5、如A4所述的基于情感词语的自动作曲方法,所述对所述乐段按照预设规则进行拼接,以生成初始乐曲之前,还包括:
基于所述情感词语,从预设曲库中获取历史过渡段,所述历史过渡段为主歌与副歌的连接部分;
根据所述历史过渡段确定乐曲过渡段;
相应地,所述对所述乐段按照预设规则进行拼接,以生成初始乐曲,包括:
确定所述乐段的歌曲属性,并根据所述歌曲属性确定主歌和副歌;
基于所述乐曲过渡段、所述主歌以及所述副歌按照预设规则进行拼接,以生成初始乐曲。
A6、如A3所述的基于情感词语的自动作曲方法,所述根据所述开始时刻和所述结束时刻确定所述用户对所述初始乐曲的评价结果,包括:
根据所述开始时刻和所述结束时刻确定所述初始乐曲的播放时长;
将所述播放时长与预设时长阈值进行比较,并根据比较结果确定所述用户对所述初始乐曲的喜爱程度;
根据所述喜爱程度确定所述用户对所述初始乐曲的评价结果。
A7、如A6所述的基于情感词语的自动作曲方法,所述根据所述喜爱程度确定所述用户对所述初始乐曲的评价结果之前,还包括:
接收所述用户输入的乐曲评价语句;
相应地,所述根据所述喜爱程度确定所述用户对所述初始乐曲的评价结果,包括:
对所述乐曲评价语句进行自然语言处理,确定评价情感词语;
根据所述喜爱程度和所述评价情感词语确定所述用户对所述初始乐曲的评价结果。
A8、如A1~A7中任一项所述的基于情感词语的自动作曲方法,所述根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值,包括:
根据所述评价结果确定喜爱程度和评价情感词语;
根据所述喜爱程度和所述评价情感词语确定权重调整值;
根据所述权重调整值对所述和弦权重值进行调整,以获得目标和弦权重值。
A9、如A1~A7中任一项所述的基于情感词语的自动作曲方法,所述根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲,包括:
根据所述目标和弦权重值和所述情感词语从所述预设映射字典中查找对应的目标和弦群;
基于所述目标和弦群生成符合用户喜爱度的目标乐曲。
A10、如A9所述的基于情感词语的自动作曲方法,所述基于所述目标和弦群生成符合用户喜爱度的目标乐曲,包括:
基于所述目标和弦群,采用预设算法确定目标主旋律、目标伴奏以及目标节奏;
将所述目标主旋律、所述目标伴奏和所述目标节奏进行匹配叠加,生成目标乐段;
对所述目标乐段按照预设规则进行拼接,以生成符合用户喜爱度的目标乐曲。
A11、如A1~A7中任一项所述的基于情感词语的自动作曲方法,所述根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲之后,还包括:
获取所述用户对应的用户信息,并根据所述用户信息生成标识信息;
根据所述标识信息生成乐曲标识,并在所述目标乐曲上添加所述乐曲标识;
将添加乐曲标识后的目标乐曲添加至预设数据库;
在接收到随机播放指令时,根据所述随机播放指令确定当前信息;
根据所述当前信息从所述预设数据库中查找待播放乐曲,并根据所述待播放乐曲进行乐曲播放。
A12、如A11所述的基于情感词语的自动作曲方法,所述根据所述当前信息从所述预设数据库中查找待播放乐曲,包括:
根据所述当前信息确定当前用户信息,并查找所述当前用户信息对应的目标乐曲标识;
从所述预设数据库中查找与所述目标乐曲标识对应的待播放乐曲。
A13、如A11所述的基于情感词语的自动作曲方法,所述根据所述用户信息生成标识信息之前,还包括:
获取所述目标乐曲的生成时刻;
相应地,所述根据所述用户信息生成标识信息,包括:
根据所述用户信息和所述生成时刻生成标识信息。
A14、如A13所述的基于情感词语的自动作曲方法,所述根据所述当前信息从所述预设数据库中查找待播放乐曲,包括:
根据所述当前信息确定当前用户信息和当前时刻;
对所述预设数据库中的目标乐曲进行遍历,并将遍历到的目标乐曲作为待选乐曲;
确定所述待选乐曲对应的待选乐曲标识,并根据所述待选乐曲标识确定所述待选乐曲的待选用户信息和待选生成时刻;
根据所述待选用户信息、所述待选生成时刻、所述当前用户信息以及当前时刻确定待播放乐曲。
A15、如A14所述的基于情感词语的自动作曲方法,所述根据所述待选用户信息、所述待选生成时刻、所述当前用户信息以及当前时刻确定待播放乐曲,包括:
在所述待选用户信息和所述当前用户信息一致时,根据预设时间规则和所述待选生成时刻确定待选时间范围;
判断所述当前时刻是否在所述待选时间范围内;
若所述当前时刻在所述待选时间范围内,则将所述待选乐曲作为待播放乐曲。
本发明还公开了B16、一种基于情感词语的自动作曲装置,所述基于情感词语的自动作曲装置包括:
情感词语模块,用于从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值;
和弦群模块,用于根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群;
初始乐曲模块,用于基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果;
权重调整模块,用于根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值;
目标乐曲模块,用于根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲。
B17、如B16所述的基于情感词语的自动作曲装置,所述情感词语模块,还用于对待处理语句进行分句、分词及词性标记处理,获得情感词语;对所述情感词语进行向量化处理,以确定所述情感词语对应的和弦权重值。
B18、如B16所述的基于情感词语的自动作曲装置,所述初始乐曲模块,还用于基于所述和弦群和预设算法生成初始乐曲;根据所述初始乐曲进行乐曲播放,并记录开始时刻;在接收到用户输入的停止播放指令时,根据所述停止播放指令停止乐曲播放,并记录结束时刻;根据所述开始时刻和所述结束时刻确定所述用户对所述初始乐曲的评价结果。
本发明还公开了C19、一种基于情感词语的自动作曲设备,所述基于情感词语的自动作曲设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于情感词语的自动作曲程序,所述基于情感词语的自动作曲程序配置有实现如上所述的基于情感词语的自动作曲方法的步骤。
本发明还公开了D20、一种存储介质,所述存储介质上存储有基于情感词语的自动作曲程序,所述基于情感词语的自动作曲程序被处理器执行时实现如上所述的基于情感词语的自动作曲方法的步骤。
Claims (10)
1.一种基于情感词语的自动作曲方法,其特征在于,所述基于情感词语的自动作曲方法包括以下步骤:
从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值;
根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群;
基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果;
根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值;
根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲。
2.如权利要求1所述的基于情感词语的自动作曲方法,其特征在于,所述从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值,包括:
对待处理语句进行分句、分词及词性标记处理,获得情感词语;
对所述情感词语进行向量化处理,以确定所述情感词语对应的和弦权重值。
3.如权利要求1所述的基于情感词语的自动作曲方法,其特征在于,所述基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果,包括:
基于所述和弦群和预设算法生成初始乐曲;
根据所述初始乐曲进行乐曲播放,并记录开始时刻;
在接收到用户输入的停止播放指令时,根据所述停止播放指令停止乐曲播放,并记录结束时刻;
根据所述开始时刻和所述结束时刻确定所述用户对所述初始乐曲的评价结果。
4.如权利要求3所述的基于情感词语的自动作曲方法,其特征在于,所述基于所述和弦群和预设算法生成初始乐曲,包括:
基于所述和弦群,采用预设算法确定主旋律和伴奏;
确定所述情感词语对应的鼓点群,并基于所述鼓点群生成节奏;
将所述主旋律、所述伴奏和所述节奏进行匹配叠加,生成乐段;
对所述乐段按照预设规则进行拼接,以生成初始乐曲。
5.如权利要求4所述的基于情感词语的自动作曲方法,其特征在于,所述对所述乐段按照预设规则进行拼接,以生成初始乐曲之前,还包括:
基于所述情感词语,从预设曲库中获取历史过渡段,所述历史过渡段为主歌与副歌的连接部分;
根据所述历史过渡段确定乐曲过渡段;
相应地,所述对所述乐段按照预设规则进行拼接,以生成初始乐曲,包括:
确定所述乐段的歌曲属性,并根据所述歌曲属性确定主歌和副歌;
基于所述乐曲过渡段、所述主歌以及所述副歌按照预设规则进行拼接,以生成初始乐曲。
6.如权利要求3所述的基于情感词语的自动作曲方法,其特征在于,所述根据所述开始时刻和所述结束时刻确定所述用户对所述初始乐曲的评价结果,包括:
根据所述开始时刻和所述结束时刻确定所述初始乐曲的播放时长;
将所述播放时长与预设时长阈值进行比较,并根据比较结果确定所述用户对所述初始乐曲的喜爱程度;
根据所述喜爱程度确定所述用户对所述初始乐曲的评价结果。
7.如权利要求6所述的基于情感词语的自动作曲方法,其特征在于,所述根据所述喜爱程度确定所述用户对所述初始乐曲的评价结果之前,还包括:
接收所述用户输入的乐曲评价语句;
相应地,所述根据所述喜爱程度确定所述用户对所述初始乐曲的评价结果,包括:
对所述乐曲评价语句进行自然语言处理,确定评价情感词语;
根据所述喜爱程度和所述评价情感词语确定所述用户对所述初始乐曲的评价结果。
8.一种基于情感词语的自动作曲装置,其特征在于,所述基于情感词语的自动作曲装置包括:
情感词语模块,用于从待处理语句中提取情感词语,并确定所述情感词语对应的和弦权重值;
和弦群模块,用于根据所述和弦权重值和所述情感词语从预设映射字典中查找对应的和弦群;
初始乐曲模块,用于基于所述和弦群生成初始乐曲,并检测用户对所述初始乐曲的评价结果;
权重调整模块,用于根据所述评价结果对所述和弦权重值进行调整,以获得目标和弦权重值;
目标乐曲模块,用于根据所述目标和弦权重值生成符合用户喜爱度的目标乐曲。
9.一种基于情感词语的自动作曲设备,其特征在于,所述基于情感词语的自动作曲设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于情感词语的自动作曲程序,所述基于情感词语的自动作曲程序配置有实现如权利要求1至7中任一项所述的基于情感词语的自动作曲方法的步骤。
10.一种存储介质,其特征在于,所述存储介质上存储有基于情感词语的自动作曲程序,所述基于情感词语的自动作曲程序被处理器执行时实现如权利要求1至7中任一项所述的基于情感词语的自动作曲方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011325160.5A CN114530137A (zh) | 2020-11-23 | 2020-11-23 | 基于情感词语的自动作曲方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011325160.5A CN114530137A (zh) | 2020-11-23 | 2020-11-23 | 基于情感词语的自动作曲方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114530137A true CN114530137A (zh) | 2022-05-24 |
Family
ID=81619247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011325160.5A Pending CN114530137A (zh) | 2020-11-23 | 2020-11-23 | 基于情感词语的自动作曲方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114530137A (zh) |
-
2020
- 2020-11-23 CN CN202011325160.5A patent/CN114530137A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3803846B1 (en) | Autonomous generation of melody | |
CN107357875B (zh) | 一种语音搜索方法、装置及电子设备 | |
US11017010B2 (en) | Intelligent playing method and apparatus based on preference feedback | |
CN108806655B (zh) | 歌曲的自动生成 | |
US11450311B2 (en) | System and methods for accent and dialect modification | |
US8321414B2 (en) | Hybrid audio-visual categorization system and method | |
CN107481720B (zh) | 一种显式声纹识别方法及装置 | |
KR20190125153A (ko) | 텍스트 기반 사용자심리상태예측 및 콘텐츠추천 장치 및 그 방법 | |
US10839788B2 (en) | Systems and methods for selecting accent and dialect based on context | |
US10573311B1 (en) | Generating self-support metrics based on paralinguistic information | |
CN107526809A (zh) | 基于人工智能推送音乐的方法和装置 | |
CN112185321B (zh) | 歌曲生成 | |
US11604925B1 (en) | Architecture for gazetteer-augmented named entity recognition | |
CN110851650B (zh) | 一种评论输出方法、装置、以及计算机存储介质 | |
Chen et al. | Component tying for mixture model adaptation in personalization of music emotion recognition | |
Chen et al. | Robotic musicianship based on least squares and sequence generative adversarial networks | |
CN117711444A (zh) | 一种基于口才表达的互动方法、装置、设备及存储介质 | |
US11615787B2 (en) | Dialogue system and method of controlling the same | |
CN112837700A (zh) | 一种情感化的音频生成方法和装置 | |
CN109802987B (zh) | 用于显示装置的内容推送方法、推送装置和显示设备 | |
CN114530137A (zh) | 基于情感词语的自动作曲方法、装置、设备及存储介质 | |
US11551666B1 (en) | Natural language processing | |
CN114566140A (zh) | 语音合成模型训练方法、语音合成方法、设备及产品 | |
TWI808038B (zh) | 媒體檔案選擇方法及服務系統與電腦程式產品 | |
US11804225B1 (en) | Dialog management system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |