CN105070301B - 单通道音乐人声分离中的多种特定乐器强化分离方法 - Google Patents

单通道音乐人声分离中的多种特定乐器强化分离方法 Download PDF

Info

Publication number
CN105070301B
CN105070301B CN201510409132.4A CN201510409132A CN105070301B CN 105070301 B CN105070301 B CN 105070301B CN 201510409132 A CN201510409132 A CN 201510409132A CN 105070301 B CN105070301 B CN 105070301B
Authority
CN
China
Prior art keywords
musical instrument
intensifier
combination
sound
instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510409132.4A
Other languages
English (en)
Other versions
CN105070301A (zh
Inventor
余春艳
林明安
滕保强
张栋
刘灵辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201510409132.4A priority Critical patent/CN105070301B/zh
Publication of CN105070301A publication Critical patent/CN105070301A/zh
Application granted granted Critical
Publication of CN105070301B publication Critical patent/CN105070301B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

本发明涉及一种单通道音乐人声分离中的多种特定乐器强化分离方法。该方法对电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号共计8种乐器进行强化分离,该强化分离是通过一层单乐器分离器和三层多乐器组合强化器实现,其中,第一层多乐器组合强化器能够分离2类乐器声,第二层多乐器组合强化器能够分离4类乐器声,第三层多乐器组合强化器能够分离8类乐器声。本发明利用DRNN作为单乐器分离器的核心,为不同的单乐器分离器建立不同的DRNN模型;同时,采用BP网络作为多乐器分离器的核心来实现多乐器的分离;最后,提出了针对该系统不同的单乐器分离器的训练样本的构建方法,本发明方法简单灵活,具有较强的实用性。

Description

单通道音乐人声分离中的多种特定乐器强化分离方法
技术领域
本发明涉及单通道音乐的伴奏声和人声分离领域,特别是一种单通道音乐人声分离中的多种特定乐器强化分离方法。
背景技术
随着计算机信号处理技术和互联网技术的不断发展,单通道音乐的歌声分离越来越受人们重视。由于人们在现实中能获得的音乐信号大部分是单通道音乐信号,很难得到伴奏声和歌声分离的信号。然而拥有纯净的伴奏声和歌声在现实中又有着非常重要的作用。单通道音乐人声分离技术在很多系统都会用到,如KTV系统中音乐伴奏的获得;音乐检索系统中根据音乐内容来检索的系统特别是根据歌唱者的声音特质检索音乐、音乐推荐系统中利用歌唱者声音特质来推荐音乐等等。不管是KTV系统中的伴奏获得、还是基于歌唱者声音的音乐检索系统、抑或是基于歌唱者声音的音乐推荐系统;为了保证这些系统有较好的性能,必须得到较为纯净的伴奏声或者歌声。然而,现在针对单通道音乐的歌声分离技术还远远不能达到人耳系统的性能,因此对于该领域的研究还有很大的步伐要走。
由于单通道音乐信号是极度欠定的,所以在对其进行歌声分离时可用的信息非常少,这使得针对单通道音乐的歌声分离具有很大的挑战性。尽管,针对单通道语音的分离已经有很大的成功,但由于歌声的特殊性,很多单通道语音分离技术并不能很好的应用到单通道音乐歌声分离中。目前已经又很多基于歌声和伴奏的自身特征来进行分离。如基于音高周期检测、低秩稀疏矩阵分解和基于信号重复。基于音高周期检测主要是利用人声的音高周期来分离人声和伴奏声;而低秩稀疏矩阵则是认为伴奏是低秩的,人声是稀疏的,基于这一认识提出了基于低秩稀疏矩阵分解的人声分离方法;最后基于信号重复主要利用伴奏声的重复性来达到分离的目的。
尽管已经有那么多的针对单通道音乐人声分离的方法被提出。然而,这些方法并没有利用不同乐器的自身不同特性来强化分离这些乐器声。而且到目前为止都没有一种能够对多种特定乐器声进行强化分离的人声分离系统被提出。而这样的一个系统具有很强的扩展性,同时在理论上有会有很好的分离效果。所以本专利提出了单通道音乐人声分离中的多种特定乐器强化分离方法,同时也解决了训练数据的来源问题。该系统简单灵活,同时具有很好的实用性。
发明内容
本发明的目的在于提供一种单通道音乐人声分离中的多种特定乐器强化分离方法,以实现针对单通道音乐特性的歌声分离问题。
为实现上述目的,本发明的技术方案是:一种单通道音乐人声分离中的多种特定乐器强化分离方法,该方法对电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号共计8种乐器进行强化分离,该强化分离是通过一层单乐器分离器和三层多乐器组合强化器实现,其中,第一层多乐器组合强化器能够分离2类乐器声,即2类乐器组合强化器,第二层多乐器组合强化器能够分离4类乐器声,即4类乐器组合强化器,第三层多乐器组合强化器能够分离8类乐器声,即8类乐器组合强化器,具体步骤如下:
S1:利用傅里叶变换从待分离的单通道音乐片段获得特征;
S2:将从步骤S1得到的特征作为已训练得到的多个单乐器分离器的输入,并得到多个不同乐器分离结果;
S3:将从步骤S2得到的多个不同乐器分离结果进行两两组合得到4个组合结果,分别作为已训练得到的4个不同的2类乐器组合强化器的输入,并得到4个2类乐器的分离结果;
S4:将从步骤S3得到的4个2类乐器分离结果进行两两组合得到2个组合结果,分别作为已训练得到的2个不同的4类乐器组合强化器的输入,并得到2个4类乐器的分离结果;
S5:将从步骤S4得到的2个4类乐器分离结果进行组合,作为已训练得到的8类乐器组合强化器的输入,并得到8类乐器的分离结果;
其中,2类乐器表示同时分离2种不同的乐器声,4类乐器表示同时分离4种不同的乐器声,8类乐器表示同时分离8种不同的乐器声;
由上述步骤获得的伴奏声和歌声的特征得到伴奏声和歌声。
在本发明一实施例中,所述步骤S1中单通道音乐片段的特征的获得方式为:通过傅里叶变换得到的长度为的单通道音乐片段归一化后的幅度谱;设输入为,则是大小为的行向量,其中,Fs是该音乐片段的采样频率,的取值为16ms至512ms。
在本发明一实施例中,所述单乐器分离器由DRNN构成,且DRNN的输入大小为3*(/2+1),输出为
在本发明一实施例中,所述多乐器组合强化器由BP神经网络构成,且BP神经网络的输入大小为,输出为
在本发明一实施例中,单乐器分离器训练样本的构建:构建训练样本,SSPi表示第i个单乐器分离器;对于第i个单乐器分离器的训练样本的构建按照如下方法:将第i种乐器声与固定的人声混合得到,而则包含两种独立的声音分别为第i种乐器声和固定的人声。
在本发明一实施例中,对于电吉他的单乐器分离器的学习,按照以下步骤实现:
步骤S71:构建电吉他训练样本
步骤S72:利用步骤S71得到的训练DRNN模型,从而得到电吉他的单乐器分离器;
同理,可得单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号的单乐器分离器。
在本发明一实施例中,多乐器组合强化器学习,按照以下步骤实现:
步骤S81:构建训练样本MMIk表示该组合强化器能够分离k类乐器,i表示第i个k类乐器组合强化器,每个k类乐器组合强化器能够分离k种不同的乐器,其中,i=1,...,n/k,k为2的指数倍;设一单通道音乐人声分离数据集,其中,Y包含独立的伴奏和歌声,2类乐器组合强化器的训练集由分别通过n个单乐器分离器后生成的结果两两组合后得到;对于k类乐器组合强化器的训练集由依次通过n个单乐器分离器、已训练好的2类乐器组合强化器、已训练好的4类乐器组合强化器,以此类推,直至通过已训练好的k/2类乐器组合强化器生成的结果两两组合得到
步骤S82:训练k类乐器组合强化器;利用步骤S81的 k类乐器分离器的训练集构建方法得到的n/k个训练BP模型,从而得到n/k个k类乐器组合强化器。
在本发明一实施例中,所述2类乐器组合强化器的组合为:电吉他与单簧管、小提琴与钢琴、木吉他与风琴、长笛与小号;
所述4类乐器组合强化器的组合为:电吉他、单簧管、小提琴、钢琴和木吉他、风琴、长笛、小号;
所述8类乐器组合强化器的组合为:电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛、小号。
在本发明一实施例中,所述步骤S5后,还包括一步骤,即对所述步骤S5获得的8类乐器的分离结果去归一化,然后使用重叠相加法得到时域伴奏声和歌声
相较于现有技术,本发明具有以下有益效果:本发明提出了单通道音乐人声分离中的多种特定乐器强化分离方法,该系统由单乐器分离器和多乐器组合强化器组成,能够实现对大部分乐器和歌声的分离;考虑到音乐是一种时间序列信号,本发明利用DRNN作为单乐器分离器的核心,为不同的单乐器分离器建立不同的DRNN模型;同时,由于不同的单乐器分离器的输出结果不一样,我们用BP网络作为多乐器组合强化器的核心来实现多乐器的分离;该方法简单,实现灵活,实用性较强。
附图说明
图1为本发明单通道音乐人声分离中的多种特定乐器强化分离方法的流程图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
如图1所示,本发明一种单通道音乐人声分离中的多种特定乐器强化分离方法,该方法对电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号共计8种乐器进行强化分离,该强化分离是通过一层单乐器分离器和三层多乐器组合强化器实现,其中,第一层多乐器组合强化器能够分离2类乐器声,即2类乐器组合强化器,第二层多乐器组合强化器能够分离4类乐器声,即4类乐器组合强化器,第三层多乐器组合强化器能够分离8类乐器声,即8类乐器组合强化器,具体步骤如下(注:2类乐器表示同时分离2种不同的乐器声,4类乐器表示同时分离4种不同的乐器声,8类乐器表示同时分离8种不同的乐器声):
S1:利用傅里叶变换从待分离的单通道音乐片段获得特征;
S2:将从步骤S1得到的特征作为已训练得到的多个单乐器分离器的输入,并得到多个不同乐器分离结果;
S3:将从步骤S2得到的多个不同乐器分离结果进行两两组合得到4个组合结果,分别作为已训练得到的4个不同的2类乐器组合强化器的输入,并得到4个2类乐器的分离结果;
S4:将从步骤S3得到的4个2类乐器分离结果进行两两组合得到2个组合结果,分别作为已训练得到的2个不同的4类乐器组合强化器的输入,并得到2个4类乐器的分离结果;
S5:将从步骤S4得到的2个4类乐器分离结果进行组合,作为已训练得到的8类乐器组合强化器的输入,并得到8类乐器的分离结果;
由上述步骤获得的伴奏声和歌声的特征得到伴奏声和歌声。
本实施例中,所述步骤S1中单通道音乐片段的特征的获得方式为:通过傅里叶变换得到的长度为的取值为16ms至512ms)的单通道音乐片段归一化后的幅度谱;设输入为,则是大小为的行向量,其中,Fs是该音乐片段的采样频率。
本实施例中,所述单乐器分离器由深度循环神经网络(DRNN)构成,DRNN的输入大小为3*(/2+1),输出为
本实施例中,所述多乐器组合强化器由Back-Propagation 神经网络(BP神经网络)构成,且BP神经网络的输入大小为,输出为
本实施例中,单乐器分离器训练样本的构建:构建训练样本,SSPi表示第i个单乐器分离器;对于第i个单乐器分离器的训练样本的构建按照如下方法:将第i种乐器声与固定的人声混合得到,而则包含两种独立的声音分别为第i种乐器声和固定的人声。
在本发明一实施例中,对于电吉他的单乐器分离器的学习,按照以下步骤实现:
步骤S71:构建电吉他训练样本;(电吉他是第1种乐器)
步骤S72:利用步骤S71得到的训练DRNN模型,从而得到电吉他的单乐器分离器;
同理,可得单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号的单乐器分离器。
在本发明一实施例中,多乐器组合强化器学习,按照以下步骤实现:
步骤S81:构建训练样本MMIk表示该组合强化器能够分离k类乐器,i表示第i个k类乐器组合强化器,每个k类乐器组合强化器能够分离k种不同的乐器,其中,i=1,...,n/k,k为2的指数倍;设一单通道音乐人声分离数据集,其中,Y包含独立的伴奏和歌声,2类乐器组合强化器的训练集由分别通过n个单乐器分离器后生成的结果两两组合后得到;对于k类乐器组合强化器的训练集由依次通过n个单乐器分离器、已训练好的2类乐器组合强化器、已训练好的4类乐器组合强化器,以此类推,直至通过已训练好的k/2类乐器组合强化器生成的结果两两组合得到
步骤S82:训练k类乐器组合强化器;利用步骤S81的 k类乐器分离器的训练集构建方法得到的n/k个训练BP模型,从而得到n/k个k类乐器组合强化器。
在本发明一实施例中,所述2类乐器组合强化器的组合为:(电吉他 单簧管)、(小提琴 钢琴)、(木吉他 风琴)、(长笛 小号);
所述4类乐器组合强化器的组合为:(电吉他 单簧管 小提琴 钢琴)和(木吉他 风琴 长笛 小号);
所述8类乐器组合强化器的组合为:(电吉他 单簧管 小提琴 钢琴 木吉他 风琴长笛 小号)。
在本实施例中,由于BP神经网络输出的伴奏声和歌声的特征为归一化后的振幅谱,本专利先对该振幅谱去归一化,然后使用重叠相加法得到时域伴奏声和歌声。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (7)

1.一种单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:该方法对电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号共计8种乐器进行强化分离,该强化分离是通过一层单乐器分离器和三层多乐器组合强化器实现,其中,第一层多乐器组合强化器能够分离2类乐器声,即2类乐器组合强化器,第二层多乐器组合强化器能够分离4类乐器声,即4类乐器组合强化器,第三层多乐器组合强化器能够分离8类乐器声,即8类乐器组合强化器,具体步骤如下:
S1:利用傅里叶变换从待分离的单通道音乐片段获得特征,该特征为归一化的幅度谱;
S2:将从步骤S1得到的特征作为已训练得到的多个单乐器分离器的输入,并得到多个不同乐器分离结果;
S3:将从步骤S2得到的多个不同乐器分离结果进行两两组合得到4个组合结果,分别作为已训练得到的4个不同的2类乐器组合强化器的输入,并得到4个2类乐器的分离结果;
S4:将从步骤S3得到的4个2类乐器分离结果进行两两组合得到2个组合结果,分别作为已训练得到的2个不同的4类乐器组合强化器的输入,并得到2个4类乐器的分离结果;
S5:将从步骤S4得到的2个4类乐器分离结果进行组合,作为已训练得到的8类乐器组合强化器的输入,并得到8类乐器的分离结果;
其中,2类乐器表示同时分离2种不同的乐器声,4类乐器表示同时分离4种不同的乐器声,8类乐器表示同时分离8种不同的乐器声;
由上述步骤获得的伴奏声和歌声的归一化的幅度谱得到伴奏声和歌声;所述单乐器分离器由深度循环神经网络DRNN构成,且深度循环神经网络DRNN的输入大小为3*(l*Fs/2+1),输出为l*Fs*2;
所述多乐器组合强化器由BP神经网络构成,且BP神经网络的输入大小为l*Fs*4,输出为l*Fs*2。
2.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:所述步骤S1中单通道音乐片段的特征的获得方式为:通过傅里叶变换得到的长度为l的单通道音乐片段归一化后的幅度谱;设输入为x,则x是大小为l*Fs的行向量,其中,Fs是该音乐片段的采样频率,l的取值为16ms至512ms。
3.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:单乐器分离器训练样本的构建:构建训练样本(XSSPi,YSSPi),SSPi表示第i个单乐器分离器;对于第i个单乐器分离器的训练样本的构建按照如下方法:将第i种乐器声与固定的人声混合得到XSSPi,而YSSPi则包含两种独立的声音分别为第i种乐器声和固定的人声。
4.根据权利要求3所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:对于电吉他的单乐器分离器的学习,按照以下步骤实现:
步骤S71:构建电吉他训练样本(XSSPI:YSSPI);
步骤S72:利用步骤S71得到的(XSSPI:YSSPI)训练DRNN模型,从而得到电吉他的单乐器分离器;
同理,可得单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号的单乐器分离器。
5.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:多乐器组合强化器学习,按照以下步骤实现:
步骤S81:构建训练样本(XMMIk,Y)i,MMIk表示该组合强化器能够分离k类乐器,i表示第i个k类乐器组合强化器,每个k类乐器组合强化器能够分离k种不同的乐器,其中,i=1,...,n/k,k为2的指数倍;设一单通道音乐人声分离数据集(X,Y),其中,Y包含独立的伴奏和歌声,2类乐器组合强化器的训练集由X分别通过n个单乐器分离器后生成的结果两两组合后得到XMMIk;对于k类乐器组合强化器的训练集由X依次通过n个单乐器分离器、已训练好的2类乐器组合强化器、已训练好的4类乐器组合强化器,以此类推,直至通过已训练好的k/2类乐器组合强化器生成的结果两两组合得到XMMIk
步骤S82:训练k类乐器组合强化器;利用步骤S81的k类乐器分离器的训练集构建方法得到的n/k个(XMMIk,Y)训练BP模型,从而得到n/k个k类乐器组合强化器。
6.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:所述2类乐器组合强化器的组合为:电吉他与单簧管、小提琴与钢琴、木吉他与风琴、长笛与小号;
所述4类乐器组合强化器的组合为:电吉他、单簧管、小提琴、钢琴和木吉他、风琴、长笛、小号;
所述8类乐器组合强化器的组合为:电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛、小号。
7.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:步骤S5后,还包括一步骤,即对所述步骤S5获得的8类乐器的分离结果去归一化,然后使用重叠相加法得到时域伴奏声和歌声。
CN201510409132.4A 2015-07-14 2015-07-14 单通道音乐人声分离中的多种特定乐器强化分离方法 Expired - Fee Related CN105070301B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510409132.4A CN105070301B (zh) 2015-07-14 2015-07-14 单通道音乐人声分离中的多种特定乐器强化分离方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510409132.4A CN105070301B (zh) 2015-07-14 2015-07-14 单通道音乐人声分离中的多种特定乐器强化分离方法

Publications (2)

Publication Number Publication Date
CN105070301A CN105070301A (zh) 2015-11-18
CN105070301B true CN105070301B (zh) 2018-11-27

Family

ID=54499654

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510409132.4A Expired - Fee Related CN105070301B (zh) 2015-07-14 2015-07-14 单通道音乐人声分离中的多种特定乐器强化分离方法

Country Status (1)

Country Link
CN (1) CN105070301B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106847302B (zh) * 2017-02-17 2020-04-14 大连理工大学 基于卷积神经网络的单通道混合语音时域分离方法
CN110047514B (zh) * 2019-05-30 2021-05-28 腾讯音乐娱乐科技(深圳)有限公司 一种伴奏纯净度评估方法以及相关设备
CN112447155B (zh) * 2019-09-05 2023-08-15 中移(苏州)软件技术有限公司 一种电子乐谱翻页方法、装置及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101366078A (zh) * 2005-10-06 2009-02-11 Dts公司 从单音音频信号分离音频信源的神经网络分类器
US20110054848A1 (en) * 2009-08-28 2011-03-03 Electronics And Telecommunications Research Institute Method and system for separating musical sound source
CN103761965A (zh) * 2014-01-09 2014-04-30 太原科技大学 一种乐器信号的分类方法
CN103854644A (zh) * 2012-12-05 2014-06-11 中国传媒大学 单声道多音音乐信号的自动转录方法及装置
CN104464727A (zh) * 2014-12-11 2015-03-25 福州大学 一种基于深度信念网络的单通道音乐的歌声分离方法
CN104616663A (zh) * 2014-11-25 2015-05-13 重庆邮电大学 一种结合hpss的mfcc-多反复模型的音乐分离方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7415392B2 (en) * 2004-03-12 2008-08-19 Mitsubishi Electric Research Laboratories, Inc. System for separating multiple sound sources from monophonic input with non-negative matrix factor deconvolution
US8080724B2 (en) * 2009-09-14 2011-12-20 Electronics And Telecommunications Research Institute Method and system for separating musical sound source without using sound source database

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101366078A (zh) * 2005-10-06 2009-02-11 Dts公司 从单音音频信号分离音频信源的神经网络分类器
US20110054848A1 (en) * 2009-08-28 2011-03-03 Electronics And Telecommunications Research Institute Method and system for separating musical sound source
CN103854644A (zh) * 2012-12-05 2014-06-11 中国传媒大学 单声道多音音乐信号的自动转录方法及装置
CN103761965A (zh) * 2014-01-09 2014-04-30 太原科技大学 一种乐器信号的分类方法
CN104616663A (zh) * 2014-11-25 2015-05-13 重庆邮电大学 一种结合hpss的mfcc-多反复模型的音乐分离方法
CN104464727A (zh) * 2014-12-11 2015-03-25 福州大学 一种基于深度信念网络的单通道音乐的歌声分离方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"二、四阶组合时延统计量多乐器盲分离";关欣 等;《计算机工程与应用》;20101021;第46卷(第30期);全文 *
"基于ICA的"歌-曲"分离";郭倜颖 等;《数字技术与应用》;20111231;全文 *

Also Published As

Publication number Publication date
CN105070301A (zh) 2015-11-18

Similar Documents

Publication Publication Date Title
Uhlich et al. Improving music source separation based on deep neural networks through data augmentation and network blending
Lostanlen et al. Deep convolutional networks on the pitch spiral for musical instrument recognition
Uhlich et al. Deep neural network based instrument extraction from music
CN104464727B (zh) 一种基于深度信念网络的单通道音乐的歌声分离方法
CN105070301B (zh) 单通道音乐人声分离中的多种特定乐器强化分离方法
CN111128236B (zh) 一种基于辅助分类深度神经网络的主乐器识别方法
Jiang et al. Analysis and modeling of timbre perception features in musical sounds
CN116194989A (zh) 用于分级音频源分离的系统和方法
Masood et al. Novel approach for musical instrument identification using neural network
Paulus Signal processing methods for drum transcription and music structure analysis
Taenzer et al. Investigating CNN-based Instrument Family Recognition for Western Classical Music Recordings.
Bhattarai et al. Parallel stacked hourglass network for music source separation
Schneider Perception of timbre and sound color
Riad et al. Learning spectro-temporal representations of complex sounds with parameterized neural networks
Ferreira-Paiva et al. A survey of data augmentation for audio classification
Solovyev et al. Benchmarks and leaderboards for sound demixing tasks
Teixeira et al. Relating movement recurrence and expressive timing patterns in music performances
Hall et al. An Efficient Visual-Based Method for Classifying Instrumental Audio using Deep Learning
Li et al. Melody classifier with stacked-LSTM
Li [Retracted] Automatic Piano Harmony Arrangement System Based on Deep Learning
Tolonen Object-based sound source modeling for musical signals
Senan et al. Feature extraction for traditional malay musical instruments classification system
Tamoto et al. F0 Estimation Using Blind Source Separation for Analyzing Noh Singing
Sharma et al. An efficient approach using LPFT for the karaoke formation of musical song
Hing et al. Detecting and Classifying Musical Instruments with Convolutional Neural Networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181127

Termination date: 20210714