CN112927667B - 和弦识别方法、装置、设备及存储介质 - Google Patents
和弦识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112927667B CN112927667B CN202110322909.9A CN202110322909A CN112927667B CN 112927667 B CN112927667 B CN 112927667B CN 202110322909 A CN202110322909 A CN 202110322909A CN 112927667 B CN112927667 B CN 112927667B
- Authority
- CN
- China
- Prior art keywords
- chord
- identification
- data
- pitch
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000012937 correction Methods 0.000 claims abstract description 54
- 238000013075 data extraction Methods 0.000 claims abstract description 41
- 230000033764 rhythmic process Effects 0.000 claims description 25
- 238000000605 extraction Methods 0.000 claims description 22
- 238000007477 logistic regression Methods 0.000 claims description 16
- 230000002194 synthesizing effect Effects 0.000 claims description 14
- 238000010801 machine learning Methods 0.000 claims description 12
- 239000012634 fragment Substances 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 14
- 239000013598 vector Substances 0.000 description 12
- 238000010606 normalization Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000001228 spectrum Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000007935 neutral effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 230000001020 rhythmical effect Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 1
- 239000013604 expression vector Substances 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Pure & Applied Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
本发明涉及人工智能技术领域,公开了一种和弦识别方法、装置、设备及存储介质,用于针对音频中的和弦进行识别。该方法包括:获取待识别的音频文件;利用预先建立好的和弦音高数据提取模型,对音频文件的特征数据进行提取,得到至少一段和弦音高特征数据;利用双通道Transformer模型,对和弦音高特征数据分别进行初步识别和修正识别,得到和弦音高特征数据的初始识别结果和修正识别结果;根据修正识别结果对初始识别结果进行修正,得到和弦乐谱。该和弦识别方法可以对音频文件中的和弦进行提取并识别,得到和弦识别结果,提高了对和弦识别的速度和准确度。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种和弦识别方法、装置、设备及存储介质。
背景技术
和弦是一种非常抽象且重要的音乐表达载体,是所有音乐作品中必不可少的组成部分。但是人工识别需要十分专业的人士反复听取并进行识别,通常费时费力;采用音频识别技术进行识别时又因为和弦具有虽然由多个音组成但是却只有一条正弦波的特点,使得传统的音频识别技术无法拆解和识别和弦的声波。
现有技术中,有些机器学习模型尝试用神经卷积网络和循环神经网络来识别音乐和弦,但是都存在和弦识别不准确、效果不理想的问题。
发明内容
本发明的主要目的在于解决现有技术中对和弦进行识别时识别准确度低的技术问题。
本发明第一方面提供了一种和弦识别方法,包括:
获取待识别的音频文件;
利用预先建立好的和弦音高数据提取模型,对所述音频文件的特征数据进行提取,得到至少一段和弦音高特征数据;
利用双通道Transformer模型,对所述和弦音高特征数据分别进行初步识别和修正识别,得到所述和弦音高特征数据的初始识别结果和修正识别结果;
根据所述修正识别结果对所述初始识别结果进行修正,得到和弦乐谱。
可选的,在本发明第一方面的第一种实现方式中,所述利用预先建立好的和弦音高数据提取模型,对所述音频文件的特征数据进行提取,得到至少一段和弦音高特征数据包括:
利用短时傅里叶变换函数对所述音频文件进行短时傅里叶变换,得到所述音频文件的特征数据;
根据所述特征数据,利用所述和弦音高数据提取模型对所述特征数据中的和弦音高特征数据进行识别并提取,得到至少一段和弦音高特征数据。
可选的,在本发明第一方面的第二种实现方式中,所述根据所述特征数据,利用所述和弦音高数据提取模型对所述特征数据中的和弦音高特征数据进行识别并提取,得到至少一段和弦音高特征数据包括:
利用所述和弦音高提取模型对所述特征数据进行识别,将仅包含单音的特征数据进行丢弃,得到至少一段包含和弦片段的特征数据;
对所述包含和弦片段的特征数据进行识别,并将识别到的节奏数据和音色数据进行丢弃,得到至少一段和弦音高特征数据。
可选的,在本发明第一方面的第三种实现方式中,所述利用双通道Transformer模型,对所述和弦音高特征数据分别进行初步识别和修正识别,得到所述和弦音高特征数据的初始识别结果和修正识别结果包括:
利用所述双通道Transformer模型中对所述和弦音高特征数据分别进行至少两次的前向识别以及后向识别,得到前向识别结果和后向识别结果;
利用全连接层将第一次识别的前向识别结果和后向识别结果进行合成,得到初始识别结果;
利用全连接层将第二次和第二次之后识别的,前向识别结果和后向识别结果进行合成得到修正识别结果。
可选的,在本发明第一方面的第四种实现方式中,所述利用所述双通道Transformer模型中对所述和弦音高特征数据分别进行前向识别以及后向识别,得到前向识别结果和后向识别结果包括:
利用前向多部注意力模型对所述和弦音高特征数据进行前向识别,得到所述前向识别结果;
利用后向多部注意力模型对所述和弦音高特征数据进行后向识别,得到所述后向识别结果。
可选的,在本发明第一方面的第五种实现方式中,所述根据所述修正识别结果对所述初始识别结果进行修正,得到和弦乐谱包括:
将所述修正识别结果输入至softmax逻辑回归模型中,所述softmax逻辑回归模型对所述修正识别结果进行加权平均化,得到和弦修正量;
根据所述和弦修正量对所述初步识别结果进行修正,得到和弦乐谱。
可选的,在本发明第一方面的第六种实现方式中,在所述获取待识别的音频文件之前,还包括:
预先收集具有人工标记的各种音频特征数据,将所述各种音频特征数据组成音频特征数据库,其中,所述音频特征数据包括节奏数据、音色数据、单音数据以及和弦数据;
利用所述音频特征数据库对机器学习算法进行训练,得到和弦音高数据提取模型。
本发明第二方面提供了一种和弦识别装置,包括:
获取模块,用于获取待识别的音频文件;
和弦提取模块,用于利用预先建立好的和弦音高数据提取模型,对所述音频文件的特征数据进行提取,得到至少一段和弦音高特征数据;
和弦识别模块,用于利用双通道Transformer模型,对所述和弦音高特征数据分别进行初步识别和修正识别,得到所述和弦音高特征数据的初始识别结果和修正识别结果;
修正模块,用于根据所述修正识别结果对所述初始识别结果进行修正,得到和弦乐谱。
可选的,在本发明第二方面的第一种实现方式中,所述和弦提取模块包括:
音频特征转换单元,用于利用短时傅里叶变换函数对所述音频文件进行短时傅里叶变换,得到所述音频文件的特征数据;
特征提取单元,用于根据所述特征数据,利用所述和弦音高数据提取模型对所述特征数据中的和弦音高特征数据进行识别并提取,得到至少一段和弦音高特征数据。
可选的,在本发明第二方面的第二种实现方式中,所述特征提取单元包括:
第一丢弃子单元,用于利用所述和弦音高提取模型对所述特征数据进行识别,将仅包含单音的特征数据进行丢弃,得到至少一段包含和弦片段的特征数据;
第二丢弃子单元,用于对所述包含和弦片段的特征数据进行识别,并将识别到的节奏数据和音色数据进行丢弃,得到至少一段和弦音高特征数据。
可选的,在本发明第二方面的第三种实现方式中,所述和弦识别模块包括:
Transformer识别单元,用于利用所述双通道Transformer模型中对所述和弦音高特征数据分别进行至少两次的前向识别以及后向识别,得到前向识别结果和后向识别结果;
初始结果获取单元,用于利用全连接层将第一次识别的前向识别结果和后向识别结果进行合成,得到初始识别结果;
修正结果获取单元,用于利用全连接层将第二次和第二次之后识别的,前向识别结果和后向识别结果进行合成得到修正识别结果。
可选的,在本发明第二方面的第四种实现方式中,所述Transformer识别单元包括:
前向识别子单元,用于利用前向多部注意力模型对所述和弦音高特征数据进行前向识别,得到所述前向识别结果;
后向识别子单元,用于利用后向多部注意力模型对所述和弦音高特征数据进行后向识别,得到所述后向识别结果。
可选的,在本发明第二方面的第五种实现方式中,所述修正模块包括:
修正量计算单元,用于将所述修正识别结果输入至softmax逻辑回归模型中,所述softmax逻辑回归模型对所述修正识别结果进行加权平均化,得到和弦修正量;
修正输出单元,用于根据所述和弦修正量对所述初步识别结果进行修正,得到和弦乐谱。
可选的,在本发明第二方面的第六种实现方式中,所述和弦识别装置还包括:
提取模型构建模块,用于预先收集具有人工标记的各种音频特征数据,将所述各种音频特征数据组成音频特征数据库,其中,所述音频特征数据包括节奏数据、音色数据、单音数据以及和弦数据;利用所述音频特征数据库对机器学习算法进行训练,得到和弦音高数据提取模型。
本发明第三方面提供了一种和弦识别设备,包括:存储器和至少一个处理器,所述存储器中存储有指令;所述至少一个处理器调用所述存储器中的所述指令,以使得所述和弦识别设备执行上述的和弦识别方法的步骤。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的和弦识别方法的步骤。
本发明提供的技术方案中,通过获取待识别的音频文件;利用预先建立好的和弦音高数据提取模型,对所述音频文件的特征数据进行提取,得到至少一段和弦音高特征数据;利用双通道Transformer模型,对所述和弦音高特征数据分别进行初步识别和修正识别,得到所述和弦音高特征数据的初始识别结果和修正识别结果;根据所述修正识别结果对所述初始识别结果进行修正,得到和弦乐谱。本发明实施例中,该和弦识别方法可以对音频文件中的和弦进行提取并识别,得到和弦识别结果,提高了对和弦识别的速度和准确度。
附图说明
图1为本发明实施例中和弦识别方法的一个实施例示意图;
图2为本发明实施例中和弦识别方法的另一个实施例示意图;
图3为本发明实施例中和弦识别方法的另一个实施例示意图;
图4为本发明实施例中和弦识别方法的另一个实施例示意图;
图5为本发明实施例中和弦识别装置的一个实施例示意图;
图6为本发明实施例中和弦识别装置的另一个实施例示意图;
图7为本发明实施例中和弦识别设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种和弦识别方法、装置、设备及存储介质,可以对音频文件中的和弦进行提取并识别,得到和弦识别结果,提高了对和弦识别的速度和准确度。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中和弦识别方法的一个实施例包括:
101、获取待识别的音频文件;
可以理解的是,本发明的执行主体可以为和弦识别装置,还可以是终端或者服务器,具体此处不做限定。本发明实施例以服务器为执行主体为例进行说明。
由于和弦是音乐中不可或缺的部分,故对和弦进行识别的应用场景也十分广泛;例如,为失去乐谱的音乐文件进行识别从而获得乐谱信息,以便对此乐曲的保存以及乐器演奏者进行学习及复现的用途;还有对于普通用户来说,听到一首喜欢的歌曲并且想要进行演奏时苦于没有和弦乐谱使得演奏效果不尽如人意等其他方面的用途。在更进一步的情况下,对和弦进行识别的技术还可以结合其他音乐识别技术,以便完成一首音乐所有部分的识别。
在本步骤中,首先通过用户上传或其他方式获取包括有待识别和弦的多媒体文件。该多媒体文件可以是一段视频文件,也可以是一段音频文件。若获得到的多媒体文件是视频文件时,首先对该多媒体文件进行处理,去除画面信息,仅保留音频信息,得到待识别的音频文件。
102、利用预先建立好的和弦音高数据提取模型,对音频文件的特征数据进行提取,得到至少一段和弦音高特征数据;
在进行和弦音高特征数据进行提取前,要对音频文件进行处理,得到音频文件的特征数据,随后利用和弦音高数据提取模型,识别该音频文件的特征数据,并将特征数据中的和弦音高特征数据提取出来。一般地,在一首乐曲中的音频特征信息中不仅包括和弦信息,还包括有节奏信息以及音色信息等其他信息,故在本实施例的识别过程中,首先要做的是将和弦信息与其他信息如节奏信息和音色信息等进行分离。一般情况下,一首乐曲的和弦可能零散的分布在一首乐曲的各处,也即是说,在乐曲的某些片段中并不包含有和弦的部分。故在进行提取时,可以先将这部分不含有和弦部分的特征信息丢弃掉,仅保留具有和弦的部分,从而减少数据量以便下一步的处理。
将获得到的音频中不含有和弦的部分的特征信息丢弃掉后,得到了数个具有和弦的音频特征片段。这些音频特征片段中同样具有节奏数据和音色数据,会对和弦的识别造成影响,故需要利用和弦音高数据提取模型,将具有和弦的音频特征片段中的节奏特征和音色特征也进行丢弃操作,从而只剩下和弦的音高特征数据,已完成对音频文件的特征数据进行提取。
本步骤中,将识别时多余的部分进行丢弃,可以减少识别的数据量,从而提高识别的准确度以及速度。
103、利用双通道Transformer模型,对和弦音高特征数据分别进行初步识别和修正识别,得到和弦音高特征数据的初始识别结果和修正识别结果;
本步骤中采用双通道Transformer模型进行识别操作。利用该双通道Transformer识别模型对上步骤中获得的至少一段和弦音高特征数据进行识别,其中,双通道Transformer模型中的双通道指前向和后向通道,在对每一段和弦音高特征数据进行识别时,对和弦音高特征数据从前向和后向两个方向进行识别,得到前向的识别结果和后向的识别结果,再将前向的识别结果和后向的初始识别结果进行合成,得到初始识别结果,从而提高识别的准确度。
其次,为提高识别效果的准确性,在获得初始识别结果后,利用双通道Transformer模型对每一段和弦音高特征数据进行重复识别,得到修正识别结果。
104、根据修正识别结果对初始识别结果进行修正,得到和弦乐谱。
为提高识别效果的准确性,根据获得到的修正识别结果对和弦音高特征数据的初始识别结果进行修正,其中,对和弦音高特征数据的初始识别结果进行修正为将根据修正识别结果中得到的修正量,初始识别结果进行修正,从而得到和弦识别结果。
此外,在获得到和弦识别结果后将得到的和弦识别结果按照电子形式进行保存,可以根据用户选择的形式以及文件格式,输出和弦乐谱。
本发明实施例中提供的和弦识别方法可以对音频文件中的和弦进行提取并识别,得到和弦识别结果,提高了对和弦识别的速度和准确度。
请参阅图2,本发明实施例中和弦识别方法的另一个实施例包括:
201、获取待识别的音频文件;
在本步骤中,首先通过用户上传或其他方式获取包括有待识别和弦的多媒体文件。该多媒体文件可以是一段视频文件,也可以是一段音频文件。若获得到的多媒体文件是视频文件时,首先对该多媒体文件进行处理,去除画面信息,仅保留音频信息,得到待识别的音频文件。
202、利用短时傅里叶变换函数对音频文件进行短时傅里叶变换,得到音频文件的特征数据;
短时傅里叶变换(STFT,short-time Fourier transform)是和傅里叶变换相关的一种数学变换,用以确定时变信号其局部区域正弦波的频率与相位。本步骤中音频文件的特征数据采用是通过获取音频文件的时频谱数据进行获取的。利用短时傅里叶变换函数对获取到的音频文件进行变换,得到音频文件的时频谱数据,通过获得音频的时频谱数据可以较简单地了解该音频文件的特征,以便根据音频文件中的特征数据的不同来剔除不包含和弦特征的部分,针对需要的部分进行识别,降低识别难度。
203、利用和弦音高提取模型对特征数据进行识别,将仅包含单音的特征数据进行丢弃,得到至少一段包含和弦片段的特征数据;
为了减少后续步骤时进行转换或处理时的无关数据以节省算力,在本步骤中,首先采用预先建立好的和弦音高数据提取模型对上步骤中取得的特征数据进行识别。一般情况下,一首乐曲的和弦可能零散的分布在一首乐曲的各处,也即是说,在乐曲的某些片段中并不包含有和弦的部分。故在进行提取时,可以先将这部分不含有和弦部分的特征信息丢弃掉,仅保留具有和弦的部分,从而减少数据量以便下一步的处理。
具体地,本步骤中提到的和弦音高数据提取模型是通过机器学习方法建立的。由于每个独立音符都有属于自己的一个频率范围,但和弦由于是几个音混合在一起,其频率不会落入任何一个独立音符的频率范围内。故和弦音高数据提取模型通过将音频特征数据中不属于独立音符的频率范围内的片段进行丢弃,可以将具有和弦的部分和单音部分区分开来,从而减少数据量,得到包含和弦片段的特征数据。
204、对包含和弦片段的特征数据进行识别,并将识别到的节奏数据和音色数据进行丢弃,得到至少一段和弦音高特征数据;
将获得到的音频中不含有和弦的部分的特征信息丢弃掉后,得到了数个具有和弦的音频特征片段。获得到包含和弦片段的特征数据之后,还要对无关数据进行进一步的剔除。具体地,这些音频特征片段中同样具有节奏数据和音色数据,会对和弦的识别造成影响,和弦音高数据提取模型回将具有和弦的音频特征片段中的节奏特征和音色特征也进行丢弃操作,从而只剩下和弦的音高特征数据,已完成对音频文件的特征数据进行提取。故在建立和弦音高数据提取模型时,需要预先将节奏数据、音色数据、音高数据等不同类型的数据进行标注后组成训练集对机器学习算法进行训练,通过训练好的算法识别包含和弦片段的特征数据中的数据类型,从而进一步将包含和弦片段的特征数据中节奏数据和音色数据进行丢弃,仅保留和弦的音高数据,减少所要处理的数据数量。
205、利用双通道Transformer模型,对和弦音高特征数据分别进行初步识别和修正识别,得到和弦音高特征数据的初始识别结果和修正识别结果;
本步骤中采用双通道Transformer模型进行识别操作。利用该双通道Transformer识别模型对上步骤中获得的至少一段和弦音高特征数据进行识别,其中,双通道Transformer模型中的双通道指前向和后向通道,在对每一段和弦音高特征数据进行识别时,对和弦音高特征数据从前向和后向两个方向进行识别,得到前向的识别结果和后向的识别结果,再将前向的识别结果和后向的初始识别结果进行合成,得到初始识别结果,从而提高识别的准确度。
其次,为提高识别效果的准确性,在获得初始识别结果后,利用双通道Transformer模型对每一段和弦音高特征数据进行重复识别,得到修正识别结果。
206、根据修正识别结果对初始识别结果进行修正,得到和弦乐谱。
为提高识别效果的准确性,根据获得到的修正识别结果对和弦音高特征数据的初始识别结果进行修正,其中,所述修正为将所述初始识别结果替换为修正识别结果,从而得到和弦识别结果。
此外,在获得到和弦识别结果后将得到的和弦识别结果按照电子形式进行保存,可以根据用户选择的形式以及文件格式,输出和弦乐谱。
本发明实施例中提供的和弦识别方法,可以将音频文件中除和弦音高的数据信息进行剔除后,对音频文件中的和弦音高数据信息进行识别得到和弦识别结果,进一步提高了对和弦识别的速度和准确度。
请参阅图3,本发明实施例中和弦识别方法的另一个实施例包括:
301、获取待识别的音频文件;
在本步骤中,首先通过用户上传或其他方式获取包括有待识别和弦的多媒体文件。该多媒体文件可以是一段视频文件,也可以是一段音频文件。若获得到的多媒体文件是视频文件时,首先对该多媒体文件进行处理,去除画面信息,仅保留音频信息,得到待识别的音频文件。
302、利用预先建立好的和弦音高数据提取模型,对音频文件的特征数据进行提取,得到至少一段和弦音高特征数据;
在进行和弦音高特征数据进行提取前,要对音频文件进行处理,得到音频文件的特征数据,随后利用和弦音高数据提取模型,识别该音频文件的特征数据,并将特征数据中的和弦音高特征数据提取出来。一般地,在一首乐曲中的音频特征信息中不仅包括和弦信息,还包括有节奏信息以及音色信息等其他信息,故在本实施例的识别过程中,首要做的是将和弦信息与其他信息如节奏信息和音色信息等进行分离。一般情况下,一首乐曲的和弦可能零散的分布在一首乐曲的各处,也即是说,在乐曲的某些片段中并不包含有和弦的部分。故在进行提取时,可以先将这部分不含有和弦部分的特征信息丢弃掉,仅保留具有和弦的部分,从而减少数据量以便下一步的处理。
将获得到的音频中不含有和弦的部分的特征信息丢弃掉后,得到了数个具有和弦的音频特征片段。这些音频特征片段中同样具有节奏数据和音色数据,会对和弦的识别造成影响,故需要利用和弦音高数据提取模型,将具有和弦的音频特征片段中的节奏特征和音色特征也进行丢弃操作,从而只剩下和弦的音高特征数据,已完成对音频文件的特征数据进行提取。
本步骤中,将识别时多余的部分进行丢弃,可以减少识别的数据量,从而提高识别的准确度以及速度。
303、利用前向多部注意力模型对和弦音高特征数据进行至少两次前向识别,得到前向识别结果,利用后向多部注意力模型对和弦音高特征数据进行至少两次后向识别,得到后向识别结果;
在获得到和弦音高特征数据后就可以使用双通道Transformer模型进行识别,其中,双通道Transformer模型是由双向多部注意力模型构成的。在本步骤中,在进行识别之前,需要将获得到的和弦音高特征数据进行预处理,即是对该数据执行标准化(Standardization)处理,以提高识别速度和识别效果。进行标准化之后,使用前向多部注意力模型(Attention Model)对标准化之后的和弦音高特征数据进行识别。
注意力模型(Attention Model)为深度学习中的一种类型,具体模拟的是人脑的注意力模型,其思想为更多地关注目前需要识别的部分而将其他不需要识别的部分甚至会造成对在识别过程中产生负面影响的部分进行忽略,从而把更多的算力用于目前需要识别的部分,从而提高识别的准确程度以及提高识别的速度,其计算公式为:
其中,Q,K,V分别为请求值,关键值和数值向量构成的矩阵;dk为关键值向量的纬度;在本实施例中,请求向量Q为和弦音高特征数据,且本实施例中具体采用的是多部自注意力模型(Self Attention Model),也即是说请求向量,关键向量和值向量来自同一个输入来源。
使用上述的多部自注意力模型从前向将和弦音高特征数据进行拆解,获得拆解后的和弦音高特征数据后利用层级正态化和局部卷积将拆解后的和弦音高特征进行拆分得到前向识别结果。将所述前向识别过程进行至少两次,得到至少两个前向识别结果。
随后,采用多部自注意力模型从后向对和弦音高特征数据进行识别,除识别的方向与前向识别方向相反之外,其具体内容基本相同,具体从后向将和弦音高特征数据进行拆解,获得拆解后的和弦音高特征数据后利用层级正态化和局部卷积将拆解后的和弦音高特征进行拆分得到后向识别结果;并将这个后向识别过程进行至少两次,得到至少两个后向识别结果。
304、利用全连接层将第一次识别的前向识别结果和后向识别结果进行合成,得到初始识别结果,将第二次和第二次之后识别的,前向识别结果和后向识别结果进行合成得到修正识别结果;
在得到步骤303中的前向识别结果以及后向识别结果后,将前向和弦音高识别结果和后向和弦音高识别结果进行合成,具体地,利用全连接层(fully connected layers,FC)对第一次识别的前向识别结果和第一次识别得到的后向识别结果进行合成,得到初始识别结果;将第二次和第二次之后识别获得到的前向识别结果和第二次和第二次之后识别获得到的后向识别结果进行合成得到修正识别结果。
305、根据修正识别结果对初始识别结果进行修正,得到和弦乐谱。
根据获得到的至少一个修正识别结果,计算出修正识别结果最有可能的结构,并按照最有可能的修正识别结果将初始识别结果进行修正;其中,所述修正为将所述初始识别结果替换为修正识别结果,从而得到和弦识别结果。
此外,在获得到和弦识别结果后将得到的和弦识别结果按照电子形式进行保存,可以根据用户选择的形式以及文件格式,输出和弦乐谱。
本发明实施例中提供的和弦识别方法,采用基于多部注意力模型构建的双通道Transformer模型对音频文件中的和弦音高数据信息进行识别,得到和弦的识别结果,进一步提高了对和弦识别的速度和准确度。
请参阅图4,本发明实施例中和弦识别方法的另一个实施例包括:
401、获取待识别的音频文件;
由于和弦是音乐中不可或缺的部分,故对和弦进行识别的应用场景也十分广泛;例如有为失去乐谱的音乐文件进行识别从而获得乐谱信息,以便对此乐曲的保存以及乐器演奏者进行学习及复现的用途;还有对于普通用户来说,听到一首喜欢的歌曲并且想要进行演奏时苦于没有和弦乐谱使得演奏效果不尽如人意等其他方面的用途。在更进一步的情况下,对和弦进行识别的技术还可以结合其他音乐识别技术,以便完成一首音乐所有部分的识别。
在本步骤中,首先通过用户上传或其他方式获取包括有待识别和弦的多媒体文件。该多媒体文件可以是一段视频文件,也可以是一段音频文件。若获得到的多媒体文件是视频文件时,首先对该多媒体文件进行处理,去除画面信息,仅保留音频信息,得到待识别的音频文件。
402、利用短时傅里叶变换函数对音频文件进行短时傅里叶变换,得到音频文件的特征数据;
短时傅里叶变换(STFT,short-time Fourier transform)是和傅里叶变换相关的一种数学变换,用以确定时变信号其局部区域正弦波的频率与相位。本步骤中音频文件的特征数据采用是通过获取音频文件的时频谱数据进行获取的。利用短时傅里叶变换函数对获取到的音频文件进行变换,得到音频文件的时频谱数据,通过获得音频的时频谱数据可以较简单地了解该音频文件的特征,以便根据音频文件中的特征数据的不同来剔除不包含和弦特征的部分,针对需要的部分进行识别,降低识别难度。
403、预先收集具有人工标记的各种音频特征数据,将各种音频特征数据组成音频特征数据库,利用音频特征数据库对机器学习算法进行训练,得到和弦音高数据提取模型;
在获得到音频特征数据之后,我们想要对不包含和弦特征的部分进行剔除,减少无关数据量,只针对需要的部分进行识别。在识别之前,要预先建立和弦音高数据提取模型对和弦进行提取。具体的建立和弦音高数据提取模型的方法为如下:首先收集具有人工标记的各种音频特征数据,其中,音频特征数据包括节奏数据、音色数据、单音数据以及和弦数据。将这些数据通过人工标记出不同的数据类型,并将数据以及人工标记组成音频特征数据库。通过音频特征数据库对机器学习算法进行训练,得到和弦音高数据提取模型。其中,机器学习算法可以采用马尔科夫模型或深度神经网络等算法,在此不再赘述。
404、利用和弦音高提取模型对特征数据进行识别,将仅包含单音的特征数据进行丢弃,得到至少一段包含和弦片段的特征数据;
为了减少后续步骤时进行转换或处理时的无关数据以节省算力,在本步骤中,首先采用预先建立好的和弦音高数据提取模型对上步骤中取得的特征数据进行识别。一般情况下,一首乐曲的和弦可能零散的分布在一首乐曲的各处,也即是说,在乐曲的某些片段中并不包含有和弦的部分。故在进行提取时,可以先将这部分不含有和弦部分的特征信息丢弃掉,仅保留具有和弦的部分,从而减少数据量以便下一步的处理。
具体地,本步骤中提到的和弦音高数据提取模型是通过机器学习方法建立的。由于每个独立音符都有属于自己的一个频率范围,但和弦由于是几个音混合在一起,其频率不会落入任何一个独立音符的频率范围内。故和弦音高数据提取模型通过将音频特征数据中不属于独立音符的频率范围内的片段进行丢弃,可以将具有和弦的部分和单音部分区分开来,从而减少数据量,得到包含和弦片段的特征数据。
405、对包含和弦片段的特征数据进行识别,并将识别到的节奏数据和音色数据进行丢弃,得到至少一段和弦音高特征数据;
将获得到的音频中不含有和弦的部分的特征信息丢弃掉后,得到了数个具有和弦的音频特征片段。获得到包含和弦片段的特征数据之后,还要对无关数据进行进一步的剔除。具体地,这些音频特征片段中同样具有节奏数据和音色数据,会对和弦的识别造成影响,和弦音高数据提取模型回将具有和弦的音频特征片段中的节奏特征和音色特征也进行丢弃操作,从而只剩下和弦的音高特征数据,已完成对音频文件的特征数据进行提取。故在建立和弦音高数据提取模型时,需要预先将节奏数据、音色数据、音高数据等不同类型的数据进行标注后组成训练集对机器学习算法进行训练,通过训练好的算法识别包含和弦片段的特征数据中的数据类型,从而进一步将包含和弦片段的特征数据中节奏数据和音色数据进行丢弃,仅保留和弦的音高数据,减少所要处理的数据数量。
406、利用前向多部注意力模型对和弦音高特征数据进行至少两次前向识别,得到前向识别结果,利用后向多部注意力模型对和弦音高特征数据进行至少两次后向识别,得到后向识别结果;
在获得到和弦音高特征数据后就可以使用双通道Transformer模型进行识别,其中,双通道Transformer模型是由双向多部注意力模型构成的。在本步骤中,在进行识别之前,需要将获得到的和弦音高特征数据进行预处理,即是对该数据执行标准化(Standardization)处理,以提高识别速度和识别效果。进行标准化之后,使用前向多部注意力模型(Attention Model)对标准化之后的和弦音高特征数据进行识别。
注意力模型(Attention Model)为深度学习中的一种类型,具体模拟的是人脑的注意力模型,其思想为更多地关注目前需要识别的部分而将其他不需要识别的部分甚至会造成对在识别过程中产生负面影响的部分进行忽略,从而把更多的算力用于目前需要识别的部分,从而提高识别的准确程度以及提高识别的速度,其计算公式为:
其中,Q,K,V分别为请求值,关键值和数值向量构成的矩阵;dk为关键值向量的纬度;在本实施例中,请求向量Q为和弦音高特征数据,且本实施例中具体采用的是多部自注意力模型(Self Attention Model),也即是说请求向量,关键向量和值向量来自同一个输入来源。
使用上述的多部自注意力模型从前向将和弦音高特征数据进行拆解,获得拆解后的和弦音高特征数据后利用层级正态化和局部卷积将拆解后的和弦音高特征进行拆分得到前向识别结果。将所述前向识别过程进行至少两次,得到至少两个前向识别结果。
随后,采用多部自注意力模型从后向对和弦音高特征数据进行识别,除识别的方向与前向识别方向相反之外,其具体内容基本相同,具体从后向将和弦音高特征数据进行拆解,获得拆解后的和弦音高特征数据后利用层级正态化和局部卷积将拆解后的和弦音高特征进行拆分得到后向识别结果;并将这个后向识别过程进行至少两次,得到至少两个后向识别结果。
407、利用全连接层将第一次识别的前向识别结果和后向识别结果进行合成,得到初始识别结果,将第二次和第二次之后识别的,前向识别结果和后向识别结果进行合成得到修正识别结果;
在得到步骤406中的前向识别结果以及后向识别结果后,将前向和弦音高识别结果和后向和弦音高识别结果进行合成,具体地,利用全连接层(fully connected layers,FC)对第一次识别的前向识别结果和第一次识别得到的后向识别结果进行合成,得到初始识别结果;将第二次和第二次之后识别获得到的前向识别结果和第二次和第二次之后识别获得到的后向识别结果进行合成得到修正识别结果。
408、将修正识别结果输入至softmax逻辑回归模型中,softmax逻辑回归模型对修正识别结果进行加权平均化,得到和弦修正量;
由于每次识别时进行拆分拆解会产生不同的方案,在得到至少一个修正识别结果后,利用softmax逻辑回归模型对获得到的修正识别结果进行加权平均化。softmax逻辑回归模型是logistic回归模型(一种线性回归模型)在多分类问题上的推广,在多分类问题中,类标签y可以取两个以上的值。通过softmax逻辑回归模型将至少一个修正识别结果进行加权平均化后得到和弦修正量。
409、根据和弦修正量对初步识别结果进行修正,得到和弦乐谱。
根据计算出的和弦修正量对初步识别结果进行修正,并使用修正后的初步识别结果对初步识别结果进行替换,得到和弦识别结果。
此外,在获得到和弦识别结果后还可将得到的修正识别结果按照电子形式进行保存,可以根据用户选择的形式以及文件格式,输出和弦识别结果的乐谱。
本发明实施例中提供的和弦识别方法,对音频文件中的和弦进行识别并输出和弦的乐谱,能够捕捉到和弦之间的相关性,提高了识别速度的同时,且进一步提高了对和弦识别的准确度。
上面对本发明实施例中和弦识别方法进行了描述,下面对本发明实施例中和弦识别装置进行描述,请参阅图5,本发明实施例中和弦识别装置一个实施例包括:
获取模块501,用于获取待识别的音频文件;
和弦提取模块502,用于利用预先建立好的和弦音高数据提取模型,对所述音频文件的特征数据进行提取,得到至少一段和弦音高特征数据;
和弦识别模块503,用于利用双通道Transformer模型,对所述和弦音高特征数据分别进行初步识别和修正识别,得到所述和弦音高特征数据的初始识别结果和修正识别结果;
修正模块504,用于根据所述修正识别结果对所述初始识别结果进行修正,得到和弦乐谱。
本发明实施例中提供的和弦识别方法,可以对音频文件中的和弦进行识别并输出和弦的乐谱,进一步提高了对和弦识别的准确度。
请参阅图6,本发明实施例中和弦识别装置的另一个实施例包括:
获取模块501,用于获取待识别的音频文件;
和弦提取模块502,用于利用预先建立好的和弦音高数据提取模型,对所述音频文件的特征数据进行提取,得到至少一段和弦音高特征数据;
和弦识别模块503,用于利用双通道Transformer模型,对所述和弦音高特征数据分别进行初步识别和修正识别,得到所述和弦音高特征数据的初始识别结果和修正识别结果;
修正模块504,用于根据所述修正识别结果对所述初始识别结果进行修正,得到和弦乐谱。
可选的,和弦提取模块502包括:
音频特征转换单元5021,用于利用短时傅里叶变换函数对所述音频文件进行短时傅里叶变换,得到所述音频文件的特征数据;
特征提取单元5022,用于根据所述特征数据,利用所述和弦音高数据提取模型对所述特征数据中的和弦音高特征数据进行识别并提取,得到至少一段和弦音高特征数据。
可选的,特征提取单元5022包括:
第一丢弃子单元,用于利用所述和弦音高提取模型对所述特征数据进行识别,将仅包含单音的特征数据进行丢弃,得到至少一段包含和弦片段的特征数据;
第二丢弃子单元,用于对所述包含和弦片段的特征数据进行识别,并将识别到的节奏数据和音色数据进行丢弃,得到至少一段和弦音高特征数据。
可选的,和弦识别模块503包括:
Transformer识别单元5031,用于利用所述双通道Transformer模型中对所述和弦音高特征数据分别进行至少两次的前向识别以及后向识别,得到前向识别结果和后向识别结果;
初始结果获取单元5032,用于利用全连接层将第一次识别的前向识别结果和后向识别结果进行合成,得到初始识别结果;
修正结果获取单元5033,用于利用全连接层将第二次和第二次之后识别的,前向识别结果和后向识别结果进行合成得到修正识别结果。
可选的,Transformer识别单元5031包括:
前向识别子单元,用于利用前向多部注意力模型对所述和弦音高特征数据进行前向识别,得到所述前向识别结果;
后向识别子单元,用于利用后向多部注意力模型对所述和弦音高特征数据进行后向识别,得到所述后向识别结果。
可选的,修正模块504包括:
修正量计算单元5041,用于将所述修正识别结果输入至softmax逻辑回归模型中,所述softmax逻辑回归模型对所述修正识别结果进行加权平均化,得到和弦修正量;
修正输出单元5042,用于根据所述和弦修正量对所述初步识别结果进行修正,得到和弦乐谱。
可选的,本实施例中提出的和弦识别装置还包括:
提取模型构建模块,用于预先收集具有人工标记的各种音频特征数据,将所述各种音频特征数据组成音频特征数据库,并利用所述音频特征数据库对机器学习算法进行训练,得到和弦音高数据提取模型,其中,所述音频特征数据包括节奏数据、音色数据、单音数据以及和弦数据。
本发明实施例中提供的和弦识别方法,对音频文件中的和弦进行识别并输出和弦的乐谱,能够捕捉到和弦之间的相关性,提高了识别速度的同时,且进一步提高了对和弦识别的准确度。
上面图5和图6从模块化功能实体的角度对本发明实施例中的和弦识别装置进行详细描述,下面从硬件处理的角度对本发明实施例中和弦识别设备进行详细描述。
图7是本发明实施例提供的一种和弦识别设备的结构示意图,该和弦识别设备700可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(centralprocessing units,CPU)710(例如,一个或一个以上处理器)和存储器720,一个或一个以上存储应用程序733或数据732的存储介质730(例如一个或一个以上海量存储设备)。其中,存储器720和存储介质730可以是短暂存储或持久存储。存储在存储介质730的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对和弦识别设备700中的一系列指令操作。更进一步地,处理器710可以设置为与存储介质730通信,在和弦识别设备700上执行存储介质730中的一系列指令操作。
和弦识别设备700还可以包括一个或一个以上电源740,一个或一个以上有线或无线网络接口750,一个或一个以上输入输出接口760,和/或,一个或一个以上操作系统731,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图7示出的和弦识别设备结构并不构成对和弦识别设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明还提供一种和弦识别设备,所述计算机设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述和弦识别方法的步骤。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述和弦识别方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种和弦识别方法,其特征在于,所述和弦识别方法包括:
获取待识别的音频文件;
利用预先建立好的和弦音高数据提取模型,对所述音频文件的特征数据进行提取,得到至少一段和弦音高特征数据;
利用双通道Transformer模型,对所述和弦音高特征数据分别进行初步识别和修正识别,得到所述和弦音高特征数据的初始识别结果和修正识别结果;
根据所述修正识别结果对所述初始识别结果进行修正,得到和弦乐谱;
所述利用双通道Transformer模型,对所述和弦音高特征数据分别进行初步识别和修正识别,得到所述和弦音高特征数据的初始识别结果和修正识别结果包括:利用所述双通道Transformer模型中对所述和弦音高特征数据分别进行至少两次的前向识别以及后向识别,得到前向识别结果和后向识别结果;利用全连接层将第一次识别的前向识别结果和后向识别结果进行合成,得到初始识别结果;利用全连接层将第二次和第二次之后识别的前向识别结果和后向识别结果进行合成得到修正识别结果;
所述根据所述修正识别结果对所述初始识别结果进行修正,得到和弦乐谱包括:将所述修正识别结果输入至softmax逻辑回归模型中,通过所述softmax逻辑回归模型对所述修正识别结果进行加权平均化,得到和弦修正量;根据所述和弦修正量对所述初始识别结果进行修正,得到和弦乐谱。
2.根据权利要求1所述的和弦识别方法,其特征在于,所述利用预先建立好的和弦音高数据提取模型,对所述音频文件的特征数据进行提取,得到至少一段和弦音高特征数据包括:
利用短时傅里叶变换函数对所述音频文件进行短时傅里叶变换,得到所述音频文件的特征数据;
根据所述特征数据,利用所述和弦音高数据提取模型对所述特征数据中的和弦音高特征数据进行识别并提取,得到至少一段和弦音高特征数据。
3.根据权利要求2所述的和弦识别方法,其特征在于,所述根据所述特征数据,利用所述和弦音高数据提取模型对所述特征数据中的和弦音高特征数据进行识别并提取,得到至少一段和弦音高特征数据包括:
利用所述和弦音高数据提取模型对所述特征数据进行识别,将仅包含单音的特征数据进行丢弃,得到至少一段包含和弦片段的特征数据;
对所述包含和弦片段的特征数据进行识别,并将识别到的节奏数据和音色数据进行丢弃,得到至少一段和弦音高特征数据。
4.根据权利要求1所述的和弦识别方法,其特征在于,所述利用所述双通道Transformer模型中对所述和弦音高特征数据分别进行至少两次的前向识别以及后向识别,得到前向识别结果和后向识别结果包括:
利用前向多部注意力模型对所述和弦音高特征数据进行前向识别,得到所述前向识别结果;
利用后向多部注意力模型对所述和弦音高特征数据进行后向识别,得到所述后向识别结果。
5.根据权利要求1-4中任一项所述的和弦识别方法,其特征在于,在所述获取待识别的音频文件之前,还包括:
预先收集具有人工标记的各种音频特征数据,将所述各种音频特征数据组成音频特征数据库,其中,所述音频特征数据包括节奏数据、音色数据、单音数据以及和弦数据;
利用所述音频特征数据库对机器学习算法进行训练,得到和弦音高数据提取模型。
6.一种和弦识别装置,其特征在于,所述和弦识别装置包括:
获取模块,用于获取待识别的音频文件;
和弦提取模块,用于利用预先建立好的和弦音高数据提取模型,对所述音频文件的特征数据进行提取,得到至少一段和弦音高特征数据;
和弦识别模块,用于利用双通道Transformer模型,对所述和弦音高特征数据分别进行初步识别和修正识别,得到所述和弦音高特征数据的初始识别结果和修正识别结果;
修正模块,用于根据所述修正识别结果对所述初始识别结果进行修正,得到和弦乐谱;
所述和弦识别模块包括:Transformer识别单元,用于利用所述双通道Transformer模型中对所述和弦音高特征数据分别进行至少两次的前向识别以及后向识别,得到前向识别结果和后向识别结果;初始结果获取单元,用于利用全连接层将第一次识别的前向识别结果和后向识别结果进行合成,得到初始识别结果;修正结果获取单元,用于利用全连接层将第二次和第二次之后识别的,前向识别结果和后向识别结果进行合成得到修正识别结果;
所述修正模块包括:修正量计算单元,用于将所述修正识别结果输入至softmax逻辑回归模型中,所述softmax逻辑回归模型对所述修正识别结果进行加权平均化,得到和弦修正量;修正输出单元,用于根据所述和弦修正量对所述初始识别结果进行修正,得到和弦乐谱。
7.一种和弦识别设备,其特征在于,所述和弦识别设备包括:存储器和至少一个处理器,所述存储器中存储有指令;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述和弦识别设备执行如权利要求1-5中任一项所述的和弦识别方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现如权利要求1-5中任一项所述和弦识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110322909.9A CN112927667B (zh) | 2021-03-26 | 2021-03-26 | 和弦识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110322909.9A CN112927667B (zh) | 2021-03-26 | 2021-03-26 | 和弦识别方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112927667A CN112927667A (zh) | 2021-06-08 |
CN112927667B true CN112927667B (zh) | 2024-05-14 |
Family
ID=76176096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110322909.9A Active CN112927667B (zh) | 2021-03-26 | 2021-03-26 | 和弦识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112927667B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113571030B (zh) * | 2021-07-21 | 2023-10-20 | 浙江大学 | 一种基于听感和谐度评估的midi音乐修正方法和装置 |
CN114420077A (zh) * | 2022-01-18 | 2022-04-29 | 北京达佳互联信息技术有限公司 | 和弦识别模型的训练方法及装置、和弦识别方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6057502A (en) * | 1999-03-30 | 2000-05-02 | Yamaha Corporation | Apparatus and method for recognizing musical chords |
JP2012203217A (ja) * | 2011-03-25 | 2012-10-22 | Yamaha Corp | 伴奏データ生成装置及びプログラム |
CN103714806A (zh) * | 2014-01-07 | 2014-04-09 | 天津大学 | 一种结合svm和增强型pcp特征的和弦识别方法 |
CN110472097A (zh) * | 2019-07-03 | 2019-11-19 | 平安科技(深圳)有限公司 | 乐曲自动分类方法、装置、计算机设备和存储介质 |
CN111696500A (zh) * | 2020-06-17 | 2020-09-22 | 不亦乐乎科技(杭州)有限责任公司 | 一种midi序列和弦进行识别方法和装置 |
CN111739491A (zh) * | 2020-05-06 | 2020-10-02 | 华南理工大学 | 一种自动编配伴奏和弦的方法 |
-
2021
- 2021-03-26 CN CN202110322909.9A patent/CN112927667B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6057502A (en) * | 1999-03-30 | 2000-05-02 | Yamaha Corporation | Apparatus and method for recognizing musical chords |
JP2012203217A (ja) * | 2011-03-25 | 2012-10-22 | Yamaha Corp | 伴奏データ生成装置及びプログラム |
CN103714806A (zh) * | 2014-01-07 | 2014-04-09 | 天津大学 | 一种结合svm和增强型pcp特征的和弦识别方法 |
CN110472097A (zh) * | 2019-07-03 | 2019-11-19 | 平安科技(深圳)有限公司 | 乐曲自动分类方法、装置、计算机设备和存储介质 |
CN111739491A (zh) * | 2020-05-06 | 2020-10-02 | 华南理工大学 | 一种自动编配伴奏和弦的方法 |
CN111696500A (zh) * | 2020-06-17 | 2020-09-22 | 不亦乐乎科技(杭州)有限责任公司 | 一种midi序列和弦进行识别方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112927667A (zh) | 2021-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2659482B1 (en) | Ranking representative segments in media data | |
Lostanlen et al. | Deep convolutional networks on the pitch spiral for musical instrument recognition | |
US10242097B2 (en) | Music selection and organization using rhythm, texture and pitch | |
US9875304B2 (en) | Music selection and organization using audio fingerprints | |
Wu et al. | Polyphonic music transcription with semantic segmentation | |
Román et al. | An End-to-end Framework for Audio-to-Score Music Transcription on Monophonic Excerpts. | |
CN112927667B (zh) | 和弦识别方法、装置、设备及存储介质 | |
Hu et al. | Separation of singing voice using nonnegative matrix partial co-factorization for singer identification | |
Hernandez-Olivan et al. | Music boundary detection using convolutional neural networks: A comparative analysis of combined input features | |
CN113421589A (zh) | 歌手识别方法、装置、设备及存储介质 | |
WO2010043258A1 (en) | Method for analyzing a digital music audio signal | |
WO2022038958A1 (ja) | 楽曲構造解析装置および楽曲構造解析方法 | |
Riad et al. | Learning spectro-temporal representations of complex sounds with parameterized neural networks | |
CN106970950B (zh) | 相似音频数据的查找方法及装置 | |
Lai et al. | RPCA-DRNN technique for monaural singing voice separation | |
Ullrich et al. | Music transcription with convolutional sequence-to-sequence models | |
CN117198251A (zh) | 一种音乐旋律生成方法 | |
CN112967734B (zh) | 基于多声部的音乐数据识别方法、装置、设备及存储介质 | |
CN111445923A (zh) | 一种翻唱识别方法、装置及计算机存储介质 | |
CN113066512B (zh) | 佛教音乐识别方法、装置、设备及存储介质 | |
JP4219539B2 (ja) | 音響分類装置 | |
CN111583890A (zh) | 音频分类方法和装置 | |
Schmitt et al. | Recognising guitar effects-which acoustic features really matter? | |
CN115631739A (zh) | 一种基于LightGBM算法的音乐和弦识别方法 | |
Sun et al. | Musical Tempo Estimation Using a Multi-scale Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |