CN105070301A - 单通道音乐人声分离中的多种特定乐器强化分离方法 - Google Patents
单通道音乐人声分离中的多种特定乐器强化分离方法 Download PDFInfo
- Publication number
- CN105070301A CN105070301A CN201510409132.4A CN201510409132A CN105070301A CN 105070301 A CN105070301 A CN 105070301A CN 201510409132 A CN201510409132 A CN 201510409132A CN 105070301 A CN105070301 A CN 105070301A
- Authority
- CN
- China
- Prior art keywords
- musical instrument
- combination
- separation
- instrument
- musical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
本发明涉及一种单通道音乐人声分离中的多种特定乐器强化分离方法。该方法对电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号共计8种乐器进行强化分离,该强化分离是通过一层单乐器分离器和三层多乐器组合强化器实现,其中,第一层多乐器组合强化器能够分离2类乐器声,第二层多乐器组合强化器能够分离4类乐器声,第三层多乐器组合强化器能够分离8类乐器声。本发明利用DRNN作为单乐器分离器的核心,为不同的单乐器分离器建立不同的DRNN模型;同时,采用BP网络作为多乐器分离器的核心来实现多乐器的分离;最后,提出了针对该系统不同的单乐器分离器的训练样本的构建方法,本发明方法简单灵活,具有较强的实用性。
Description
技术领域
本发明涉及单通道音乐的伴奏声和人声分离领域,特别是一种单通道音乐人声分离中的多种特定乐器强化分离方法。
背景技术
随着计算机信号处理技术和互联网技术的不断发展,单通道音乐的歌声分离越来越受人们重视。由于人们在现实中能获得的音乐信号大部分是单通道音乐信号,很难得到伴奏声和歌声分离的信号。然而拥有纯净的伴奏声和歌声在现实中又有着非常重要的作用。单通道音乐人声分离技术在很多系统都会用到,如KTV系统中音乐伴奏的获得;音乐检索系统中根据音乐内容来检索的系统特别是根据歌唱者的声音特质检索音乐、音乐推荐系统中利用歌唱者声音特质来推荐音乐等等。不管是KTV系统中的伴奏获得、还是基于歌唱者声音的音乐检索系统、抑或是基于歌唱者声音的音乐推荐系统;为了保证这些系统有较好的性能,必须得到较为纯净的伴奏声或者歌声。然而,现在针对单通道音乐的歌声分离技术还远远不能达到人耳系统的性能,因此对于该领域的研究还有很大的步伐要走。
由于单通道音乐信号是极度欠定的,所以在对其进行歌声分离时可用的信息非常少,这使得针对单通道音乐的歌声分离具有很大的挑战性。尽管,针对单通道语音的分离已经有很大的成功,但由于歌声的特殊性,很多单通道语音分离技术并不能很好的应用到单通道音乐歌声分离中。目前已经又很多基于歌声和伴奏的自身特征来进行分离。如基于音高周期检测、低秩稀疏矩阵分解和基于信号重复。基于音高周期检测主要是利用人声的音高周期来分离人声和伴奏声;而低秩稀疏矩阵则是认为伴奏是低秩的,人声是稀疏的,基于这一认识提出了基于低秩稀疏矩阵分解的人声分离方法;最后基于信号重复主要利用伴奏声的重复性来达到分离的目的。
尽管已经有那么多的针对单通道音乐人声分离的方法被提出。然而,这些方法并没有利用不同乐器的自身不同特性来强化分离这些乐器声。而且到目前为止都没有一种能够对多种特定乐器声进行强化分离的人声分离系统被提出。而这样的一个系统具有很强的扩展性,同时在理论上有会有很好的分离效果。所以本专利提出了单通道音乐人声分离中的多种特定乐器强化分离方法,同时也解决了训练数据的来源问题。该系统简单灵活,同时具有很好的实用性。
发明内容
本发明的目的在于提供一种单通道音乐人声分离中的多种特定乐器强化分离方法,以实现针对单通道音乐特性的歌声分离问题。
为实现上述目的,本发明的技术方案是:一种单通道音乐人声分离中的多种特定乐器强化分离方法,该方法对电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号共计8种乐器进行强化分离,该强化分离是通过一层单乐器分离器和三层多乐器组合强化器实现,其中,第一层多乐器组合强化器能够分离2类乐器声,即2类乐器组合强化器,第二层多乐器组合强化器能够分离4类乐器声,即4类乐器组合强化器,第三层多乐器组合强化器能够分离8类乐器声,即8类乐器组合强化器,具体步骤如下:
S1:利用傅里叶变换从待分离的单通道音乐片段获得特征;
S2:将从步骤S1得到的特征作为已训练得到的多个单乐器分离器的输入,并得到多个不同乐器分离结果;
S3:将从步骤S2得到的多个不同乐器分离结果进行两两组合得到4个组合结果,分别作为已训练得到的4个不同的2类乐器组合强化器的输入,并得到4个2类乐器的分离结果;
S4:将从步骤S3得到的4个2类乐器分离结果进行两两组合得到2个组合结果,分别作为已训练得到的2个不同的4类乐器组合强化器的输入,并得到2个4类乐器的分离结果;
S5:将从步骤S4得到的2个4类乐器分离结果进行组合,作为已训练得到的8类乐器组合强化器的输入,并得到8类乐器的分离结果;
其中,2类乐器表示同时分离2种不同的乐器声,4类乐器表示同时分离4种不同的乐器声,8类乐器表示同时分离8种不同的乐器声;
由上述步骤获得的伴奏声和歌声的特征得到伴奏声和歌声。
在本发明一实施例中,所述步骤S1中单通道音乐片段的特征的获得方式为:通过傅里叶变换得到的长度为的单通道音乐片段归一化后的幅度谱;设输入为,则是大小为的行向量,其中,Fs是该音乐片段的采样频率,的取值为16ms至512ms。
在本发明一实施例中,所述单乐器分离器由DRNN构成,且DRNN的输入大小为3*(/2+1),输出为。
在本发明一实施例中,所述多乐器组合强化器由BP神经网络构成,且BP神经网络的输入大小为,输出为。
在本发明一实施例中,单乐器分离器训练样本的构建:构建训练样本,SSPi表示第i个单乐器分离器;对于第i个单乐器分离器的训练样本的构建按照如下方法:将第i种乐器声与固定的人声混合得到,而则包含两种独立的声音分别为第i种乐器声和固定的人声。
在本发明一实施例中,对于电吉他的单乐器分离器的学习,按照以下步骤实现:
步骤S71:构建电吉他训练样本;
步骤S72:利用步骤S71得到的训练DRNN模型,从而得到电吉他的单乐器分离器;
同理,可得单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号的单乐器分离器。
在本发明一实施例中,多乐器组合强化器学习,按照以下步骤实现:
步骤S81:构建训练样本,MMIk表示该组合强化器能够分离k类乐器,i表示第i个k类乐器组合强化器,每个k类乐器组合强化器能够分离k种不同的乐器,其中,i=1,...,n/k,k为2的指数倍;设一单通道音乐人声分离数据集,其中,Y包含独立的伴奏和歌声,2类乐器组合强化器的训练集由分别通过n个单乐器分离器后生成的结果两两组合后得到;对于k类乐器组合强化器的训练集由依次通过n个单乐器分离器、已训练好的2类乐器组合强化器、已训练好的4类乐器组合强化器,以此类推,直至通过已训练好的k/2类乐器组合强化器生成的结果两两组合得到;
步骤S82:训练k类乐器组合强化器;利用步骤S81的k类乐器分离器的训练集构建方法得到的n/k个训练BP模型,从而得到n/k个k类乐器组合强化器。
在本发明一实施例中,所述2类乐器组合强化器的组合为:电吉他与单簧管、小提琴与钢琴、木吉他与风琴、长笛与小号;
所述4类乐器组合强化器的组合为:电吉他、单簧管、小提琴、钢琴和木吉他、风琴、长笛、小号;
所述8类乐器组合强化器的组合为:电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛、小号。
在本发明一实施例中,所述步骤S5后,还包括一步骤,即对所述步骤S5获得的8类乐器的分离结果去归一化,然后使用重叠相加法得到时域伴奏声和歌声
相较于现有技术,本发明具有以下有益效果:本发明提出了单通道音乐人声分离中的多种特定乐器强化分离方法,该系统由单乐器分离器和多乐器组合强化器组成,能够实现对大部分乐器和歌声的分离;考虑到音乐是一种时间序列信号,本发明利用DRNN作为单乐器分离器的核心,为不同的单乐器分离器建立不同的DRNN模型;同时,由于不同的单乐器分离器的输出结果不一样,我们用BP网络作为多乐器组合强化器的核心来实现多乐器的分离;该方法简单,实现灵活,实用性较强。
附图说明
图1为本发明单通道音乐人声分离中的多种特定乐器强化分离方法的流程图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
如图1所示,本发明一种单通道音乐人声分离中的多种特定乐器强化分离方法,该方法对电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号共计8种乐器进行强化分离,该强化分离是通过一层单乐器分离器和三层多乐器组合强化器实现,其中,第一层多乐器组合强化器能够分离2类乐器声,即2类乐器组合强化器,第二层多乐器组合强化器能够分离4类乐器声,即4类乐器组合强化器,第三层多乐器组合强化器能够分离8类乐器声,即8类乐器组合强化器,具体步骤如下(注:2类乐器表示同时分离2种不同的乐器声,4类乐器表示同时分离4种不同的乐器声,8类乐器表示同时分离8种不同的乐器声):
S1:利用傅里叶变换从待分离的单通道音乐片段获得特征;
S2:将从步骤S1得到的特征作为已训练得到的多个单乐器分离器的输入,并得到多个不同乐器分离结果;
S3:将从步骤S2得到的多个不同乐器分离结果进行两两组合得到4个组合结果,分别作为已训练得到的4个不同的2类乐器组合强化器的输入,并得到4个2类乐器的分离结果;
S4:将从步骤S3得到的4个2类乐器分离结果进行两两组合得到2个组合结果,分别作为已训练得到的2个不同的4类乐器组合强化器的输入,并得到2个4类乐器的分离结果;
S5:将从步骤S4得到的2个4类乐器分离结果进行组合,作为已训练得到的8类乐器组合强化器的输入,并得到8类乐器的分离结果;
由上述步骤获得的伴奏声和歌声的特征得到伴奏声和歌声。
本实施例中,所述步骤S1中单通道音乐片段的特征的获得方式为:通过傅里叶变换得到的长度为(的取值为16ms至512ms)的单通道音乐片段归一化后的幅度谱;设输入为,则是大小为的行向量,其中,Fs是该音乐片段的采样频率。
本实施例中,所述单乐器分离器由深度循环神经网络(DRNN)构成,DRNN的输入大小为3*(/2+1),输出为。
本实施例中,所述多乐器组合强化器由Back-Propagation神经网络(BP神经网络)构成,且BP神经网络的输入大小为,输出为。
本实施例中,单乐器分离器训练样本的构建:构建训练样本,SSPi表示第i个单乐器分离器;对于第i个单乐器分离器的训练样本的构建按照如下方法:将第i种乐器声与固定的人声混合得到,而则包含两种独立的声音分别为第i种乐器声和固定的人声。
在本发明一实施例中,对于电吉他的单乐器分离器的学习,按照以下步骤实现:
步骤S71:构建电吉他训练样本;(电吉他是第1种乐器)
步骤S72:利用步骤S71得到的训练DRNN模型,从而得到电吉他的单乐器分离器;
同理,可得单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号的单乐器分离器。
在本发明一实施例中,多乐器组合强化器学习,按照以下步骤实现:
步骤S81:构建训练样本,MMIk表示该组合强化器能够分离k类乐器,i表示第i个k类乐器组合强化器,每个k类乐器组合强化器能够分离k种不同的乐器,其中,i=1,...,n/k,k为2的指数倍;设一单通道音乐人声分离数据集,其中,Y包含独立的伴奏和歌声,2类乐器组合强化器的训练集由分别通过n个单乐器分离器后生成的结果两两组合后得到;对于k类乐器组合强化器的训练集由依次通过n个单乐器分离器、已训练好的2类乐器组合强化器、已训练好的4类乐器组合强化器,以此类推,直至通过已训练好的k/2类乐器组合强化器生成的结果两两组合得到;
步骤S82:训练k类乐器组合强化器;利用步骤S81的k类乐器分离器的训练集构建方法得到的n/k个训练BP模型,从而得到n/k个k类乐器组合强化器。
在本发明一实施例中,所述2类乐器组合强化器的组合为:(电吉他单簧管)、(小提琴钢琴)、(木吉他风琴)、(长笛小号);
所述4类乐器组合强化器的组合为:(电吉他单簧管小提琴钢琴)和(木吉他风琴长笛小号);
所述8类乐器组合强化器的组合为:(电吉他单簧管小提琴钢琴木吉他风琴长笛小号)。
在本实施例中,由于BP神经网络输出的伴奏声和歌声的特征为归一化后的振幅谱,本专利先对该振幅谱去归一化,然后使用重叠相加法得到时域伴奏声和歌声。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。
Claims (9)
1.一种单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:该方法对电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号共计8种乐器进行强化分离,该强化分离是通过一层单乐器分离器和三层多乐器组合强化器实现,其中,第一层多乐器组合强化器能够分离2类乐器声,即2类乐器组合强化器,第二层多乐器组合强化器能够分离4类乐器声,即4类乐器组合强化器,第三层多乐器组合强化器能够分离8类乐器声,即8类乐器组合强化器,具体步骤如下:
S1:利用傅里叶变换从待分离的单通道音乐片段获得特征;
S2:将从步骤S1得到的特征作为已训练得到的多个单乐器分离器的输入,并得到多个不同乐器分离结果;
S3:将从步骤S2得到的多个不同乐器分离结果进行两两组合得到4个组合结果,分别作为已训练得到的4个不同的2类乐器组合强化器的输入,并得到4个2类乐器的分离结果;
S4:将从步骤S3得到的4个2类乐器分离结果进行两两组合得到2个组合结果,分别作为已训练得到的2个不同的4类乐器组合强化器的输入,并得到2个4类乐器的分离结果;
S5:将从步骤S4得到的2个4类乐器分离结果进行组合,作为已训练得到的8类乐器组合强化器的输入,并得到8类乐器的分离结果;
其中,2类乐器表示同时分离2种不同的乐器声,4类乐器表示同时分离4种不同的乐器声,8类乐器表示同时分离8种不同的乐器声;
由上述步骤获得的伴奏声和歌声的特征得到伴奏声和歌声。
2.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:所述步骤S1中单通道音乐片段的特征的获得方式为:通过傅里叶变换得到的长度为的单通道音乐片段归一化后的幅度谱;设输入为,则是大小为的行向量,其中,Fs是该音乐片段的采样频率,的取值为16ms至512ms。
3.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:所述单乐器分离器由DRNN构成,且DRNN的输入大小为3*(/2+1),输出为。
4.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:所述多乐器组合强化器由BP神经网络构成,且BP神经网络的输入大小为,输出为。
5.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:单乐器分离器训练样本的构建:构建训练样本,SSPi表示第i个单乐器分离器;对于第i个单乐器分离器的训练样本的构建按照如下方法:将第i种乐器声与固定的人声混合得到,而则包含两种独立的声音分别为第i种乐器声和固定的人声。
6.根据权利要求5所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:对于电吉他的单乐器分离器的学习,按照以下步骤实现:
步骤S71:构建电吉他训练样本;
步骤S72:利用步骤S71得到的训练DRNN模型,从而得到电吉他的单乐器分离器;
同理,可得单簧管、小提琴、钢琴、木吉他、风琴、长笛和小号的单乐器分离器。
7.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:多乐器组合强化器学习,按照以下步骤实现:
步骤S81:构建训练样本,MMIk表示该组合强化器能够分离k类乐器,i表示第i个k类乐器组合强化器,每个k类乐器组合强化器能够分离k种不同的乐器,其中,i=1,...,n/k,k为2的指数倍;设一单通道音乐人声分离数据集,其中,Y包含独立的伴奏和歌声,2类乐器组合强化器的训练集由分别通过n个单乐器分离器后生成的结果两两组合后得到;对于k类乐器组合强化器的训练集由依次通过n个单乐器分离器、已训练好的2类乐器组合强化器、已训练好的4类乐器组合强化器,以此类推,直至通过已训练好的k/2类乐器组合强化器生成的结果两两组合得到;
步骤S82:训练k类乐器组合强化器;利用步骤S81的k类乐器分离器的训练集构建方法得到的n/k个训练BP模型,从而得到n/k个k类乐器组合强化器。
8.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:所述2类乐器组合强化器的组合为:电吉他与单簧管、小提琴与钢琴、木吉他与风琴、长笛与小号;
所述4类乐器组合强化器的组合为:电吉他、单簧管、小提琴、钢琴和木吉他、风琴、长笛、小号;
所述8类乐器组合强化器的组合为:电吉他、单簧管、小提琴、钢琴、木吉他、风琴、长笛、小号。
9.根据权利要求1所述的单通道音乐人声分离中的多种特定乐器强化分离方法,其特征在于:所述步骤S5后,还包括一步骤,即对所述步骤S5获得的8类乐器的分离结果去归一化,然后使用重叠相加法得到时域伴奏声和歌声。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510409132.4A CN105070301B (zh) | 2015-07-14 | 2015-07-14 | 单通道音乐人声分离中的多种特定乐器强化分离方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510409132.4A CN105070301B (zh) | 2015-07-14 | 2015-07-14 | 单通道音乐人声分离中的多种特定乐器强化分离方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105070301A true CN105070301A (zh) | 2015-11-18 |
CN105070301B CN105070301B (zh) | 2018-11-27 |
Family
ID=54499654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510409132.4A Expired - Fee Related CN105070301B (zh) | 2015-07-14 | 2015-07-14 | 单通道音乐人声分离中的多种特定乐器强化分离方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105070301B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106847302A (zh) * | 2017-02-17 | 2017-06-13 | 大连理工大学 | 基于卷积神经网络的单通道混合语音时域分离方法 |
CN110047514A (zh) * | 2019-05-30 | 2019-07-23 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种伴奏纯净度评估方法以及相关设备 |
CN112447155A (zh) * | 2019-09-05 | 2021-03-05 | 中移(苏州)软件技术有限公司 | 一种电子乐谱翻页方法、装置及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050222840A1 (en) * | 2004-03-12 | 2005-10-06 | Paris Smaragdis | Method and system for separating multiple sound sources from monophonic input with non-negative matrix factor deconvolution |
CN101366078A (zh) * | 2005-10-06 | 2009-02-11 | Dts公司 | 从单音音频信号分离音频信源的神经网络分类器 |
US20110054848A1 (en) * | 2009-08-28 | 2011-03-03 | Electronics And Telecommunications Research Institute | Method and system for separating musical sound source |
US20110061516A1 (en) * | 2009-09-14 | 2011-03-17 | Electronics And Telecommunications Research Institute | Method and system for separating musical sound source without using sound source database |
CN103761965A (zh) * | 2014-01-09 | 2014-04-30 | 太原科技大学 | 一种乐器信号的分类方法 |
CN103854644A (zh) * | 2012-12-05 | 2014-06-11 | 中国传媒大学 | 单声道多音音乐信号的自动转录方法及装置 |
CN104464727A (zh) * | 2014-12-11 | 2015-03-25 | 福州大学 | 一种基于深度信念网络的单通道音乐的歌声分离方法 |
CN104616663A (zh) * | 2014-11-25 | 2015-05-13 | 重庆邮电大学 | 一种结合hpss的mfcc-多反复模型的音乐分离方法 |
-
2015
- 2015-07-14 CN CN201510409132.4A patent/CN105070301B/zh not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050222840A1 (en) * | 2004-03-12 | 2005-10-06 | Paris Smaragdis | Method and system for separating multiple sound sources from monophonic input with non-negative matrix factor deconvolution |
CN101366078A (zh) * | 2005-10-06 | 2009-02-11 | Dts公司 | 从单音音频信号分离音频信源的神经网络分类器 |
US20110054848A1 (en) * | 2009-08-28 | 2011-03-03 | Electronics And Telecommunications Research Institute | Method and system for separating musical sound source |
US20110061516A1 (en) * | 2009-09-14 | 2011-03-17 | Electronics And Telecommunications Research Institute | Method and system for separating musical sound source without using sound source database |
CN103854644A (zh) * | 2012-12-05 | 2014-06-11 | 中国传媒大学 | 单声道多音音乐信号的自动转录方法及装置 |
CN103761965A (zh) * | 2014-01-09 | 2014-04-30 | 太原科技大学 | 一种乐器信号的分类方法 |
CN104616663A (zh) * | 2014-11-25 | 2015-05-13 | 重庆邮电大学 | 一种结合hpss的mfcc-多反复模型的音乐分离方法 |
CN104464727A (zh) * | 2014-12-11 | 2015-03-25 | 福州大学 | 一种基于深度信念网络的单通道音乐的歌声分离方法 |
Non-Patent Citations (2)
Title |
---|
关欣 等: ""二、四阶组合时延统计量多乐器盲分离"", 《计算机工程与应用》 * |
郭倜颖 等: ""基于ICA的"歌-曲"分离"", 《数字技术与应用》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106847302A (zh) * | 2017-02-17 | 2017-06-13 | 大连理工大学 | 基于卷积神经网络的单通道混合语音时域分离方法 |
CN106847302B (zh) * | 2017-02-17 | 2020-04-14 | 大连理工大学 | 基于卷积神经网络的单通道混合语音时域分离方法 |
CN110047514A (zh) * | 2019-05-30 | 2019-07-23 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种伴奏纯净度评估方法以及相关设备 |
CN112447155A (zh) * | 2019-09-05 | 2021-03-05 | 中移(苏州)软件技术有限公司 | 一种电子乐谱翻页方法、装置及存储介质 |
CN112447155B (zh) * | 2019-09-05 | 2023-08-15 | 中移(苏州)软件技术有限公司 | 一种电子乐谱翻页方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN105070301B (zh) | 2018-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hennequin et al. | Spleeter: a fast and efficient music source separation tool with pre-trained models | |
Lostanlen et al. | Deep convolutional networks on the pitch spiral for musical instrument recognition | |
Uhlich et al. | Deep neural network based instrument extraction from music | |
CN104464727B (zh) | 一种基于深度信念网络的单通道音乐的歌声分离方法 | |
CN110111773A (zh) | 基于卷积神经网络的音乐信号多乐器识别方法 | |
CN111128236B (zh) | 一种基于辅助分类深度神经网络的主乐器识别方法 | |
CN113314140A (zh) | 一种端到端时域多尺度卷积神经网络的音源分离算法 | |
Yu et al. | Predominant instrument recognition based on deep neural network with auxiliary classification | |
CN115762536A (zh) | 一种基于桥接Transformer的小样本优化鸟声识别方法 | |
CN116194989A (zh) | 用于分级音频源分离的系统和方法 | |
CN103377656A (zh) | 一种音频文件的五音分析方法、播放器及电子设备 | |
CN105070301B (zh) | 单通道音乐人声分离中的多种特定乐器强化分离方法 | |
Bhattarai et al. | Parallel stacked hourglass network for music source separation | |
Riad et al. | Learning spectro-temporal representations of complex sounds with parameterized neural networks | |
Li et al. | Fusion of Hilbert-Huang transform and deep convolutional neural network for predominant musical instruments recognition | |
Krishnan et al. | Features of wavelet packet decomposition and discrete wavelet transform for malayalam speech recognition | |
CN101223564B (zh) | 将标准音符的频率转换为对应的Ra格式音符的频率的设备 | |
Wang et al. | Explainable audio classification of playing techniques with layer-wise relevance propagation | |
Hall et al. | An Efficient Visual-Based Method for Classifying Instrumental Audio using Deep Learning | |
Yang et al. | Singing voice separation based on deep regression neural network | |
Li | [Retracted] Automatic Piano Harmony Arrangement System Based on Deep Learning | |
Koo et al. | Self-refining of pseudo labels for music source separation with noisy labeled data | |
Pham et al. | End-to-end Visual-guided Audio Source Separation with Enhanced Losses | |
Jiang et al. | Music signal recognition based on the mathematical and physical equation inversion method | |
Yen et al. | A two-stage singing voice separation algorithm using spectro-temporal modulation features. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181127 Termination date: 20210714 |
|
CF01 | Termination of patent right due to non-payment of annual fee |