CN115132155A - 一种基于声调音高空间的预测和弦解释音符的方法 - Google Patents

一种基于声调音高空间的预测和弦解释音符的方法 Download PDF

Info

Publication number
CN115132155A
CN115132155A CN202210515738.6A CN202210515738A CN115132155A CN 115132155 A CN115132155 A CN 115132155A CN 202210515738 A CN202210515738 A CN 202210515738A CN 115132155 A CN115132155 A CN 115132155A
Authority
CN
China
Prior art keywords
path
chord
interpretation
training
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210515738.6A
Other languages
English (en)
Other versions
CN115132155B (zh
Inventor
薛杰滢
韩冬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202210515738.6A priority Critical patent/CN115132155B/zh
Publication of CN115132155A publication Critical patent/CN115132155A/zh
Application granted granted Critical
Publication of CN115132155B publication Critical patent/CN115132155B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/005Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

本发明提供了一种基于声调音高空间的预测和弦解释音符的方法,在训练网络更新路径概率参数之前,改变路径的选择策略,通过识别最符合乐理的终止式结构来优先选择含有终止式结构的路径,并将优先选择的路径放入训练过程影响其他路径的路径概率,从而影响选择和弦序列的正确音符解释的结果,利用不同的终止式相互结合,预期的有效效果有:通过不同的终止式结构结合,在训练时改变边的权重,影响了路径概率的选择,使得最终的最优路径不仅是和弦间距离相对最短,还是尽可能包含终止式结构的路径,在不断地训练参数过程中,解释和弦的预测准确性得到不同程度的提高,并且经实验,训练的收敛性明显大幅度升高。

Description

一种基于声调音高空间的预测和弦解释音符的方法
技术领域
本发明涉及计算机音乐信息处理领域,具体地,涉及一种基于声调音高空间的预测和弦解释音符的方法。
背景技术
声调音高空间理论是一种用于量化和弦之间距离的计算理论,这个理论定量地定义了音高、和弦和调式之间的距离。根据此理论推理分析,和弦与和弦之间的距离越近,音乐进程越稳定,而距离过远,音乐进程就会震荡不安,导致听起来感到不舒服。但无论是什么乐种,都不会从始至终过于平稳或震荡,如同写作一样,如果文章从头至尾都是带有句号的陈述句,难免会让读者感到无趣,所以加入能区分段落并抒发情感的音乐结构终止式就显得尤为重要。
和弦解释音符的预测是和声分析的基础,而和声分析是音乐信息处理中最重要的环节。音乐的谱曲、作曲、编曲、计算机信息检索等应用都可以从和声分析中得到发展。和声由和弦组成,这些和弦在功能上结合在一起,形成系统的进程,例如西方调性音乐中的终止式,这些音乐结构中的和弦不是靠简单的一组随机和弦同时演奏而成,而是由从音阶的角度严格挑选出来的音符组成的。
终止式是音乐和声理论中不可缺少的一部分,给和声分析提供了大量的信息,使音乐呈现出独特的个性特征。终止式可以应用于所有音乐中,自古以来,所有的音乐中都存在终止式。运用不同类型的终止式,可以使音乐的效果丰富多样,从而表达出不同的情感。根据终止式种类的划分,它不仅可以出现在音乐的结尾部分,也可以出现在乐曲中,例如完全终止式,给人一种完全结束的感觉,一般用于乐曲或乐段的结尾。半终止式,是乐曲进行到一半未完待续的感觉,使听众对下面乐曲产生期待,可以灵活运用于乐曲间隙。假终止式(欺骗终止式),假装结束却意外开启新乐段,给人以惊喜的感觉。不同种类的终止式的交互让乐曲拥有独一无二的特征。
在音乐的计算机检索中,可以通过终止式的出现位置给乐曲划分段落,或通过终止式的类型分析乐曲的种类所属,还可以通过终止式分析音乐的调性并进行乐曲的和声分析。因此,在计算机和声分析中,研究如何识别终止式并将其用于和声分析就显得尤为重要,然而,由于终止式的种类繁多并且在音乐识别中的位置不确定性,导致在计算机领域中关于终止式的识别与应用相关的研究非常稀缺。
发明内容
针对上述问题,本发明提供了一种基于声调音高空间的预测和弦解释音符的方法,包括以下步骤:
S1、使用rntxt格式注释的数据集,将网络的初始参数值设置为0,训练模型采用批量M,学习率为a,以小批量随机梯度下降法持续训练,直到连续N个epoch的验证集中的准确率不再更新后,选择验证集里准确率最高的参数作为训练结果;
S2、原始声调音高空间对于和弦x与和弦y的距离计算方法如下:
Δ(x,y)=
totalRegion(x,y)+totalChord(x,y)+totalBasicspace(x,y)(1)
其中,totalRegion代表调式之间的总距离,totalChord代表音级之间的距离,totalBasicspace代表基本空间的距离;
在公式(1)的基础上进行扩展,加入了5种不同的计算距离依据,并相互组合,形成22种不同的距离计算方法,然后进行解释图分析;
S3、首先,获取学习参数,使得真正的解释路径比其他解释路径的总距离更短,路径概率公式如下:
Figure BDA0003641354690000021
Figure BDA0003641354690000022
然后,将原始和弦作为真值,使用参数空间上的梯度来训练表,然后通过在解释图中指定的最短路径,评估此模型预测每个和弦解释的准确性。
步骤S3中,当出现有不止一条最短路径的情况时,如果存在终止式结构,选择有终止式结构的路径;如果路径中不存在终止式结构,通过经过该节点的路径的数量来计算每个节点的加权平均,由此,得到解释图中的最短解释路径。预测正确的和弦解释音符。
本发明相比现有技术的有益效果是:
基于扩充并改进了的声调音高空间理论和Viterbi算法,在音符解释网络中不断训练时,加入终止式的识别,并将识别出的终止式结构分类记录位置,在训练过程中得到的最优(最短)路径中找到终止式位置,更改其权重使得路径通过终止式结构,再进行下一次训练,通过对路径的选择策略的改变,使得最优路径权重增大,从而大幅度提高了预测音符的准确性来辅助和声分析。
通过加入终止式的种类进一步判断乐曲的乐种所属,提供更准确的预测音符支持音乐的和声分析,并对计算机的信息检索产生影响,尝试将终止式结构与和弦预测相结合,并且在解释网络训练中的路径选择上加入终止式结构影响训练过程,为今后计算机信息处理领域中终止式的识别和应用起到参考作用,并为和弦预测提供了新的思路和方法。
附图说明
图1是为本发明的流程图。
图2为本发明的和弦解释图。
图3为本发明的终止式识别示意图。
具体实施方式
下面结合具体实施例对本发明进行说明。
为使本发明的目的、技术方案和优点更加清楚,下面将描述使用实物的具体细节,以及结合附图对本发明实施方式作进一步地详细描述。
如图1-3所示,本发明提供了一种基于声调音高空间理论和Viterbi算法,在音符解释网络中寻找最短路径后,加入终止式的识别,并将其影响网络的训练和最优路径的选择,从而提高预测音符的准确性,进行和声分析,以通过音乐结构终止式改变路径选择策略的方法,图1为该方法的流程图,具体步骤如下:
S1、输入数据和网络训练参数
本实验使用rntxt格式注释的数据集,该数据集由360个乐曲(1691个乐句,76341个和弦)组成,实验时把每一个乐句作为一个单元,当乐句超过50个音符时,把该乐句分成每个都不超过50个和弦的几个单元。最后得到2472个乐句,用1976个乐句来训练,248个乐句验证,最后248个乐句用于测试。Rntxt格式本身包含了除度和调式之外的很多信息,但在本研究中只使用和弦的调式和度的信息,格式为度/调式,例如:用V/C来标记C大调的第五度和弦。
实验将网络的初始参数值设置为0,训练模型采用批量100,学习率为0.001的小批量随机梯度下降法训练的。后面为了优化网络,用0.0003的学习率小批量随机梯度下降法再次训练,效果明显提升。持续训练,直到连续10个epoch的验证集中的准确率不再更新,然后选择验证集里准确率最高的参数作为训练结果。每个音符通过转换,都有不同的表示形式,我们把同一个和弦的不同表示称为候选项,在本发明中的音符解析器中,把每个音符及其候选项转化在一张和弦解释图中,并利用在该图中加边的权重来训练网络,在扩展的声调音高空间计算距离的方法中,使得和弦间距离变成定量的,所以在比较和弦之间的距离后,可以通过选择最短的路径来选择最稳定的和弦路径。因此,在所有和弦路径中,可以通过使用覆盖在每条边计算它们的距离之和来选择最佳候选项路径。在原来是研究中,以距离最短的进程作为最好的候选项路径。例如在下面的进程:
Figure BDA0003641354690000041
给定上述和弦进程,每个和弦可能的表示如下所列:
I/C,V/F,IV/G,VI/e,III/a∈C
I/F,V/B
Figure BDA0003641354690000042
,IV/C,VI/a,III/d∈F
I/G,V/C,IV/D,VI/b,III/e∈G
这3个和弦C,F,G中,每个根和弦可以识别出5个候选和弦,因此,对于长度为n的和弦序列,候选序列的总数为5n,此时可以用进行扩展的距离元素进行分析,计算和弦之间的距离作为解释图的边。在此例子中,距离最短的路径为:I/C→IV/C→V/C→I/C。
S2、进行解释图分析并寻找最短路径
本发明在原始的距离计算公式基础上进行扩展,加入了5种不同的计算距离依据,比如主音和调性转换等,并相互组合形成了22种不同的距离计算方法。5中计算依据如表1所示:
表1
Figure BDA0003641354690000051
本发明中,首次在寻找最短路径的方法中加入终止式识别模块,此模块加在解释图生成后,基于生成的解释图,将所有原始和弦及其解释和弦放入终止式识别模块中,分析其音符的音阶和度,找出含有终止式的和弦序列,并标记其终止式类型,开始音符,结束音符,终止式长度,并统计各类终止式出现的次数,通过识别特定音乐结构终止式来提高预测最短路径的准确性,在上面描述的方法中,利用终止式寻找最小路径可以提高准确率的假设基于一个重要原因:和弦距离具有与终止式相似的特征,如包含终止式的和弦结构V→I是一条相对较短的路。因此,获取最短路径的过程反映了终止式结构,利用这一原理,加入了终止式的识别与改变路径的选择策略来实现准确性的大幅度提高。
本发明用的终止式模式和其数量如表2所示:
表2
Figure BDA0003641354690000052
S3、训练并得出和弦解释音符的准确率:
本发明在训练之前加入了改变路径选择策略模块,使得在解释图训练前,先按照终止式优先原则,根据终止式识别模块定位的音符,优先选择含有终止式结构的路径。由于本发明目的是计算出的距离能够预测出真正的解释路径,也就是在解释图中的最短路径。因此,首先需要学习参数,使得真正的解释路径比其他解释路径的总距离更短。定义路径概率公式如下,
Figure BDA0003641354690000061
Figure BDA0003641354690000062
然后,使用参数空间上的梯度来训练表。
最后,将原始和弦作为真值,通过在解释图中指定的最短路径,评估此模型预测每个和弦解释的准确性。
在改变路径选择策略模块中,除了在上述公式计算路径概率外,还按照识别的终止式位置定位和弦,并将其路径概率重新定义,使得权重最高,改变路径选择策略。最后评估此模型预测每个和弦解释的准确性,
当出现有不止一条最短路径的情况时,如果存在终止式结构,优先选择有终止式结构的路径;如果路径中不含终止式,通过经过该节点的路径的数量来计算每个节点的加权平均,由此来得到最终的最短路径,预测正确的和弦解释音符。
以上所述的仅是本发明的优选实施方式,但本发明并不局限于上述的具体实施方式,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (2)

1.一种基于声调音高空间的预测和弦解释音符的方法,其特征在于,包括以下步骤:
S1、输入数据及训练参数:使用rntxt格式注释的数据集,将网络的初始参数值设置为0,训练模型采用批量M,学习率为a,以小批量随机梯度下降法持续训练,直到连续N个epoch的验证集中的准确率不再更新后,选择验证集里准确率最高的参数作为训练结果;
S2、原始声调音高空间对于和弦x与和弦y的距离计算方法如下:
Δ(x,y)=totalRegion(x,y)+totalChord(x,y)+totalBasicspace(x,y) (1)
其中,totalRegion代表调式之间的总距离,totalChord代表音级之间的距离,totalBasicspace代表基本空间的距离;
在公式(1)的基础上进行扩展,加入了5种不同的计算距离依据,并相互组合,形成22种不同的距离计算方法,然后进行解释图分析;
S3、首先,获取学习参数,使得真正的解释路径比其他解释路径的总距离更短,路径概率公式如下:
Figure FDA0003641354680000011
然后,将原始和弦作为真值,使用参数空间上的梯度来训练表,然后通过在解释图中指定的最短路径,评估此模型预测每个和弦解释的准确性。
2.根据权利要求1所述的基于声调音高空间的预测和弦解释音符的方法,其特征在于,
步骤S3中,当出现有不止一条最短路径的情况时,如果存在终止式结构,选择有终止式结构的路径;如果路径中不存在终止式结构,通过经过该节点的路径的数量来计算每个节点的加权平均,由此,得到解释图中的最短解释路径。预测正确的和弦解释音符。
CN202210515738.6A 2022-05-12 2022-05-12 一种基于声调音高空间的预测和弦解释音符的方法 Active CN115132155B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210515738.6A CN115132155B (zh) 2022-05-12 2022-05-12 一种基于声调音高空间的预测和弦解释音符的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210515738.6A CN115132155B (zh) 2022-05-12 2022-05-12 一种基于声调音高空间的预测和弦解释音符的方法

Publications (2)

Publication Number Publication Date
CN115132155A true CN115132155A (zh) 2022-09-30
CN115132155B CN115132155B (zh) 2024-08-09

Family

ID=83376065

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210515738.6A Active CN115132155B (zh) 2022-05-12 2022-05-12 一种基于声调音高空间的预测和弦解释音符的方法

Country Status (1)

Country Link
CN (1) CN115132155B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140238220A1 (en) * 2013-02-27 2014-08-28 Yamaha Corporation Apparatus and method for detecting chord
CN109841203A (zh) * 2019-01-25 2019-06-04 得理乐器(珠海)有限公司 一种电子乐器音乐和声确定方法及系统
CN112382257A (zh) * 2020-11-03 2021-02-19 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、装置、设备及介质
CN114368351A (zh) * 2020-10-01 2022-04-19 通用汽车有限责任公司 用于通过音乐体验环境的环境感知系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140238220A1 (en) * 2013-02-27 2014-08-28 Yamaha Corporation Apparatus and method for detecting chord
CN109841203A (zh) * 2019-01-25 2019-06-04 得理乐器(珠海)有限公司 一种电子乐器音乐和声确定方法及系统
CN114368351A (zh) * 2020-10-01 2022-04-19 通用汽车有限责任公司 用于通过音乐体验环境的环境感知系统
CN112382257A (zh) * 2020-11-03 2021-02-19 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、装置、设备及介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHENG-JIAN LIN ET AL.: "Chord recognition using neural networks based on Particle Swarm Optimization", THE 2011 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS, 3 October 2011 (2011-10-03), pages 821 - 827 *
KRISTOPHER REESE ET AL.: "A framework for interactive generation of music for games", 2012 17TH INTERNATIONAL CONFERENCE COMPUTER GAMES, 1 October 2012 (2012-10-01), pages 131 - 137 *

Also Published As

Publication number Publication date
CN115132155B (zh) 2024-08-09

Similar Documents

Publication Publication Date Title
CN111145718B (zh) 一种基于自注意力机制的中文普通话字音转换方法
Sigtia et al. A hybrid recurrent neural network for music transcription
JP4590692B2 (ja) 音響モデル作成装置及びその方法
US8494847B2 (en) Weighting factor learning system and audio recognition system
Samsekai Manjabhat et al. Raga and tonic identification in carnatic music
CN111630590B (zh) 生成音乐数据的方法
Nakamura et al. Statistical piano reduction controlling performance difficulty
Van Kranenburg et al. Musical style recognition—a quantitative approach
CN111400540B (zh) 一种基于挤压和激励残差网络的歌声检测方法
Keshet et al. A large margin algorithm for speech-to-phoneme and music-to-score alignment
Roy et al. Time-based raga recommendation and information retrieval of musical patterns in Indian classical music using neural networks
CN109471951A (zh) 基于神经网络的歌词生成方法、装置、设备和存储介质
Kim et al. Statistical approach to automatic expressive rendition of polyphonic piano music
JP3920749B2 (ja) 音声認識用音響モデル作成方法、その装置、そのプログラムおよびその記録媒体、上記音響モデルを用いる音声認識装置
CN115132155A (zh) 一种基于声调音高空间的预测和弦解释音符的方法
CN112634947B (zh) 一种动物声音情感特征集合排序识别方法及系统
JP2006201278A (ja) 楽曲の拍節構造の自動分析方法および装置、ならびにプログラムおよびこのプログラムを記録した記録媒体
Wang et al. A framework for automated pop-song melody generation with piano accompaniment arrangement
De Prisco et al. Creative DNA computing: splicing systems for music composition
Gowrishankar et al. Deep learning long short-term memory based automatic music transcription system for carnatic music
Foscarin Chord sequences: Evaluating the effect of complexity on preference
Brink Dissection of a generative network for music composition
Tony et al. Investigation on Automatic Music Generation Using Gan and Lstm Networks
Ahrendt et al. Music Genre Classification using the multivariate AR feature integration model
Rahal et al. Separated Feature Learning for Music Composition Using Memory-Based Neural Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant