CN109119089B - 对音乐进行通透处理的方法及设备 - Google Patents

对音乐进行通透处理的方法及设备 Download PDF

Info

Publication number
CN109119089B
CN109119089B CN201810583109.0A CN201810583109A CN109119089B CN 109119089 B CN109119089 B CN 109119089B CN 201810583109 A CN201810583109 A CN 201810583109A CN 109119089 B CN109119089 B CN 109119089B
Authority
CN
China
Prior art keywords
music
transparent
probability
training data
played
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810583109.0A
Other languages
English (en)
Other versions
CN109119089A (zh
Inventor
姚青山
秦宇
喻浩文
卢峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anker Innovations Co Ltd
Original Assignee
Anker Innovations Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anker Innovations Co Ltd filed Critical Anker Innovations Co Ltd
Priority to CN201810583109.0A priority Critical patent/CN109119089B/zh
Priority to CN202110546400.2A priority patent/CN113450811B/zh
Publication of CN109119089A publication Critical patent/CN109119089A/zh
Priority to PCT/CN2019/089756 priority patent/WO2019233359A1/zh
Priority to US17/059,158 priority patent/US11887615B2/en
Application granted granted Critical
Publication of CN109119089B publication Critical patent/CN109119089B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/281Reverberation or echo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Auxiliary Devices For Music (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例提出了一种对音乐进行通透处理的方法及设备。该方法包括:获取待播放音乐的特征;将所述特征输入至通透增强神经网络,得到通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。由此可见,本发明实施例中可以构建通透增强神经网络,具体地基于深度学习预先构建通透概率神经网络并且构建可通透概率与通透增强参数之间的映射关系,从而可以对待播放音乐自动地进行通透处理。该过程极大地简化用户的操作的同时,保证音乐的音质,从而提升了用户体验。

Description

对音乐进行通透处理的方法及设备
技术领域
本发明实施例涉及声音领域,并且更具体地,涉及一种对音乐进行通透处理的方法及设备。
背景技术
音质是人对音频质量的主观评价。一般地音质被划分成几十个指标,这些指标中音乐的通透性(transparency)是音乐音质的一项重要指标,它指的是音乐中类似混响和回音的效果,有适当的回音会使音乐具有空间感,形成余音绕梁的效果。某些类型的音乐,如交响乐、有大自然风格的音乐,通透度被增强会产生更好的音质效果,但并不是所有类型音乐都适合通透度增强,因此判断哪些音乐适合通透度增强,增强参数如何设置,就成了通透度调整的主要问题。
目前的音质调节(如通透性调节)方法,主要是由用户自己调节,如用户手动选择是否对音乐进行混响效果处理,选择事先给定的一组参数产生特定环境的混响效果,如产生小房间,浴室之类的混响效果,这样给用户带来了操作复杂度,影响了用户的体验。
发明内容
本发明实施例提供了一种对音乐的通透性进行自动调节的方法及设备,可以基于深度学习实现对音乐的通透性进行调节,免去用户操作,从而提升了用户的体验。
第一方面,提供了一种对音乐进行通透处理的方法,包括:
获取待播放音乐的特征;
将所述特征输入至通透概率神经网络,得到所述待播放音乐的可通透概率;
确定与所述可通透概率对应的通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
在本发明的一种实现方式中,在所述将所述特征输入至通透概率神经网络之前,还包括:
基于训练数据集,通过训练得到所述通透概率神经网络。
在本发明的一种实现方式中,所述训练数据集中的每个训练数据均为音乐数据,且每个训练数据均具有特征以及可通透概率。
在本发明的一种实现方式中,通过以下方式得到所述训练数据的特征:
获取所述训练数据的时域波形;
对所述时域波形进行分帧;
对所述分帧后的每帧进行特征提取得到所述训练数据的所述特征。
在本发明的一种实现方式中,通过以下方式得到所述训练数据的可通透概率:
对所述训练数据进行通透处理,得到处理后的训练数据;
获取一组评测者中每个评测者的打分,所述打分表示所述处理后的训练数据的音质在所述评测者的主观上是否优于所述训练数据的音质;
根据所有评测者的打分得到所述训练数据的所述可通透概率。
在本发明的一种实现方式中,所述根据所有评测者的打分得到所述训练数据的所述可通透概率,包括:
将所述所有评测者的打分的均值确定为所述训练数据的所述可通透概率。
在本发明的一种实现方式中,所述确定与所述可通透概率对应的通透增强参数,包括:
根据预先构建的可通透概率与通透增强参数之间的映射关系,确定与所述可通透概率对应的所述通透增强参数。
在本发明的一种实现方式中,所述映射关系被预先设定为:
若所述可通透概率大于阈值,则所述通透增强参数为p0。
在本发明的一种实现方式中,通过以下方式确定所述映射关系:
对可通透概率为s的未通透音乐进行多个通透处理,通透增强参数依次为:p+Δp*i,i=0,1,2…;
获取所述多个通透处理对应的多个主观感受t(i),其中t(i)是基于多个评测者对按照通透参数p+Δp*i处理后的音乐的音质与按照通透参数p+Δp*(i-1)处理后的音乐的音质进行比较打分得到的;
根据t(i)的大小关系确定所述映射关系。
在本发明的一种实现方式中,所述根据t(i)的大小关系确定所述映射关系,包括:
若满足t(n+1)<t(n),且t(j+1)>t(j),j=0,1,…,n-1,则确定所述映射关系中与可通透概率s所对应的通透增强参数为p+Δp*n。
在本发明的一种实现方式中,还包括:
基于所述通透增强参数对所述待播放音乐进行通透处理;
播放所述通透处理后的音乐。
第二方面,提供了一种对音乐进行通透处理的方法,包括:
获取待播放音乐的特征;
将所述特征输入至通透增强神经网络,得到通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
在本发明的一种实现方式中,在将所述特征输入至通透增强神经网络之前,还包括:
基于训练数据集,通过训练得到所述通透增强神经网络,其中所述训练数据集中的每个训练数据均为音乐数据,且每个训练数据均具有特征以及推荐的通透增强参数。
第三方面,提供了一种对音乐进行通透处理的设备,所述设备用于实现前述第一方面或任一实现方式所述方法的步骤,所述设备包括:
获取模块,用于获取待播放音乐的特征;
可通透概率确定模块,用于将所述特征输入至通透概率神经网络,得到所述待播放音乐的可通透概率;
通透增强参数确定模块,用于确定与所述可通透概率对应的通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
第四方面,提供了一种对音乐进行通透处理的设备,所述设备用于实现前述第二方面或任一实现方式所述方法的步骤,所述设备包括:
获取模块,用于获取待播放音乐的特征;
确定模块,用于将所述特征输入至通透增强神经网络,得到通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
第五方面,提供了一种对音乐进行通透处理的设备,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现前述第一方面或第二方面或任一实现方式所述方法的步骤。
第六方面,提供了一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述第一方面或第二方面或任一实现方式所述方法的步骤。
由此可见,本发明实施例中可以构建通透增强神经网络,具体地基于深度学习预先构建通透概率神经网络并且构建可通透概率与通透增强参数之间的映射关系,从而可以对待播放音乐自动地进行通透处理。该过程极大地简化用户的操作的同时,保证音乐的音质,从而提升了用户体验。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的得到训练数据的可通透概率的示意性流程图;
图2是本发明实施例中基于评测者打分计算可通透概率的示意图;
图3是本发明实施例中确定映射关系的示意图;
图4是本发明实施例中对音乐进行通透处理的方法的示意性流程图;
图5是本发明实施例中对音乐进行通透处理的方法的另一示意性流程图;
图6是本发明实施例中对音乐进行通透处理的设备的示意性框图;
图7是本发明实施例中对音乐进行通透处理的设备的另一示意性框图;
图8是本发明实施例中对音乐进行通透处理的设备的再一示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
深度学习(Deep Learning)是一种机器学习方法,其应用深层神经网络对具有复杂模型的数据进行特征学习,并将数据低层次特征进行智能组织,形成更高级抽象形式。由于深度学习对人工难以抽象并建模的复杂数据具有较强的特征提取和建模能力,对音质自适应调整这类较难进行人工建模的任务,深度学习是一种有效的实现方法。
本发明实施例中基于深度学习构建了一种通透概率神经网络。该通透概率神经网络是根据训练数据集进行训练得到的。其中,训练数据集中包括大量的训练数据,下面对单个训练数据进行详细阐述。
训练数据是音乐数据,包括该训练数据的特征,其可以作为神经网络的输入;还包括该训练数据的可通透概率,其可以作为神经网络的输出。
示例性地,对于训练数据,其原始音乐波形为时域波形,可以对该时域波形进行分帧,随后对分帧后的每帧进行特征提取从而得到该训练数据的特征。可选地,作为一例,可以通过短时傅里叶变换(Short-Time Fourier Transform,STFT)进行特征提取,所提取的特征可以为梅尔频率倒谱系数(Mel Frequency Cepstrum Coefficient,MFCC)。应理解,本文对特征提取的方式仅是示意性的,并且也可以得到其他的特征,如幅度谱、对数谱、能量谱等,这里不再一一罗列。可选地,本发明实施例中,所提取的特征可以表示为特征张量的形式,例如表示为N维特征向量;或者,所提取的特征也可以表示为其他的形式,此处不作限定。
示例性地,可以参照如图1所示的方法得到训练数据的可通透概率,该过程包括:
S101,对训练数据进行通透处理,得到处理后的训练数据。
对于训练数据,其原始音乐波形为时域波形,可以对时域波形进行分帧并对每帧进行特征提取后得到频域特征。对其中的某些频点进行增强处理,对某些频点进行衰减处理,从而完成通透处理。随后可以将其还原至时域从而得到处理后的训练数据。
其中,某个频点f处的提升倍数可以表示为p(f)。可理解,进行通透处理的参数集合可以表示为p,包括各个频点处的提升倍数,p也可以被称为通透参数或通透增强参数等。
S102,获取一组评测者中每个评测者的打分。
由于并非所有的音乐都适合进行通透处理,并且通透效果取决于用户的主观感受,因此这里进行一个主观实验,评测者将通透处理后的音乐(即S101得到的处理后的训练数据)与未进行通透处理的音乐(即训练数据)进行比较,判断通透处理后的音乐的音质是否变得更好。也就是说,打分表示处理后的训练数据的音质在评测者的主观上是否优于训练数据的音质。
具体地,评测者可以听通透后的音乐(即S101得到的处理后的训练数据)和未通透的音乐(即训练数据),根据通透后的音乐的音质变好还是变差进行评价打分。例如,如果评测者认为通透后的音乐的音质变好,则打分为1,否则打分为0。如此便可以得到一组评测者中所有评测者的打分。
如图2所示,测评者1至测评者7这7个测评者的打分依次为1、0、1、1、0、1、1。
将所有人对该音乐的打分进行平均形成评价值,这个评价值后称为“可通透概率”,这个值越大,说明该音乐越适合做通透处理。
S103,根据所有评测者的打分得到该训练数据的可通透概率。
示例性地,可以将S102得到的所有评测者的打分的均值确定为该可通透概率,也就是说,可以将所有打分中,“1”所占的比例定义为可通透概率。可理解,该可通透概率的取值范围为0至1。本发明实施例中,可以将多个评测者的打分的平均作为评价值(可通透概率),可理解,该值越大,说明越适合进行通透处理。
如图2所示,可以通过计算平均5/7,得到可通透概率为71.4%。
如此,针对每一个训练数据,均可以通过特征提取得到特征,并参照图1-图2类似的过程得到可通透概率。将所提取的特征作为输入,并将可通透概率作为输出,对通透概率神经网络进行训练直到收敛,便可以得到训练好的通透概率神经网络。
本发明实施例还构建了可通透概率与通透增强参数之间的映射关系。
作为一种实现方式,该映射关系可以是预先设定好的。例如,将通透增强参数表示为P,将可通透概率表示为s,可以预先设定该映射关系为:
Figure BDA0001685955630000061
其中,s0可以称为可通透概率阈值,其为0至1之间的某值,例如,s0=0.5或0.6等,s0也可以为其他值,本发明对此不限定。可见,若可通透概率大于阈值,则对应的通透增强参数P=p0,其中p0是一组已知的固定的参数集,其表示在至少一个频点处的提升倍数,不同频点处的提升倍数可以相等或不等,本发明对此不限定。若可通透概率小于或等于阈值,则对应的通透增强参数P=0,即表示不进行通透处理。
作为另一种实现方式,可以通过最小可觉差(Just Noticeable Difference,JND)主观实验来确定该映射关系。
针对某未通透音乐,可以参照前述图1至图2的过程得到其可通透概率,表示为s。确定映射关系的过程可以包括:对可通透概率为s的未通透音乐进行多个通透处理,通透参数依次为:p+Δp*i(i=0,1,2…);获取多个通透处理对应的多个主观感受t(i),其中t(i)是基于多个评测者对按照通透参数p+Δp*i处理后的音乐的音质与按照通透参数p+Δp*(i-1)处理后的音乐的音质进行比较打分得到的;根据t(i)的大小关系确定该映射关系。
该过程可以参照图3来实现,针对某未通透音乐,对其进行多个通透处理,通透参数分别为p、p+Δp、p+Δp*2、…、p+Δp*n、p+Δp*(n+1)。随后,可以按照相邻两个通透处理后的音乐的音质的比较从而得到对应的主观感受。
如图3中,通过比较按照通透参数p处理后的音乐的音质与未通透音乐的音质得到t(0),通过比较按照通透参数p+Δp*i处理后的音乐的音质与按照通透参数p+Δp*(i-1)处理后的音乐的音质得到t(i)。以下为了描述的方便,将按照通透参数p+Δp*i处理后的音乐表示为YY(i)。具体地,由多个测评者听未通透音乐以及YY(0)并进行打分,根据打分的平均计算得到t(0)。由多个测评者听YY(i)以及YY(i-1)并进行打分,根据打分的平均计算得到t(i)。其中,若测评者认为YY(i)的音质优于YY(i-1)的音质,则打分为1,否则打分为0。
进一步地,可以根据t(i)的大小关系确定该映射关系。具体地,若满足t(n+1)<t(n),且t(j+1)>t(j),j=0,1,…,n-1。则可以确定该映射关系中与可通透概率s所对应的通透增强参数P=p+Δp*n。
针对大量的未通透音乐,均按照如图3所示的过程得到对应关系,这样便可以建立可通透概率与通透增强参数之间的映射关系。
其中,若不同的未通透音乐的可通透概率相等,则它们可能会得到不同的对应关系,此时可将得到的多个不同的通透增强参数作平均。举例来说,音乐1和音乐2的可通透概率均为s1。通过图3所示的过程,针对音乐1得到s1对应的通透增强参数P=p+Δp*n1。通过图3所示的过程,针对音乐2得到s1对应的通透增强参数P=p+Δp*n2。则在建立映射关系时,可以确定该映射关系中可通透概率s1对应于p+Δp*(n1+n2)/2。
比较上述两种不同的实现方式,可理解,通过JND主观实验确定映射关系需要耗费大量的人力,消耗更长的时间,然而该实现方式充分考虑了人的主观因素,从而得到的映射关系更能够反应真实的人的听觉感受。在实际应用中,可以结合多种因素考虑使用上述何种实现方式,如精度、人力成本等。
应注意,本文中所使用的“平均”是将多个项(或值)进行均值计算得到结果值。例如,上述实施例中计算的平均可以为算术平均。然而,可理解,“平均”也可以通过其他计算方式得到结果值,如加权平均,其中不同项的权重可以相等或不等,本发明实施例对平均的方式不作限定。
基于以上的描述,本发明实施例构建了通透概率神经网络以及可通透概率与通透增强参数之间的映射关系。可替代地,本发明实施例也可以提供一种通透增强神经网络,该通透增强神经网络的输入为音乐数据的特征,输出为通透增强参数,具体地为该通透增强神经网络推荐对音乐数据进行通透处理的通透增强参数。示例性地,通透增强神经网络可以基于训练数据集经过训练得到。训练数据集中的每个训练数据均为音乐数据,且每个训练数据均具有特征以及推荐的通透增强参数。针对每个训练数据,可以通过特征提取得到其特征。针对每个训练数据,可以参照前述图1至图3的相关描述,得到通透增强参数。从而可以将训练数据的特征作为输入,将训练数据的通透增强参数作为输出,通过训练直到收敛得到训练好的通透增强神经网络。
作为另一种理解,可以认为该通透增强神经网络具有中间参数:可通透概率。也就是说,该通透增强神经网络可以基于输入的音乐数据的特征得到可通透概率,再根据该可通透概率得到通透增强参数作为该通透增强神经网络的输出。具体地,该过程可以参见前述的通透概率神经网络以及可通透概率与通透增强参数之间的映射关系,这里不再赘述。
本发明实施例提供了一种对音乐进行通透处理的方法,如图4所示为该方法的流程图,包括:
S210,获取待播放音乐的特征;
S220,将所述特征输入至通透增强神经网络,得到通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
示例性地,通透增强神经网络可以具有中间变量,该中间变量为可通透概率。例如,可以基于前述的通透概率神经网络得到可通透概率,并根据可通透概率得到通透增强参数。
示例性地,在S220之前,还可以包括:基于训练数据集,通过训练得到所述通透增强神经网络,其中所述训练数据集中的每个训练数据均为音乐数据,且每个训练数据均具有特征以及推荐的通透增强参数。
其中,可以通过以下方式得到所述训练数据的特征:获取所述训练数据的时域波形;对所述时域波形进行分帧;对所述分帧后的每帧进行特征提取得到所述训练数据的所述特征。
其中,可以通过以下方式得到所述训练数据的通透增强参数:对所述训练数据进行通透处理,得到处理后的训练数据;获取一组评测者中每个评测者的打分,所述打分表示所述处理后的训练数据的音质在所述评测者的主观上是否优于所述训练数据的音质;根据所有评测者的打分得到所述训练数据的可通透概率;根据预先构建的可通透概率与通透增强参数之间的映射关系,确定与可通透概率对应的通透增强参数。
可选地,映射关系可以被预先设定为:若所述可通透概率大于阈值,则所述通透增强参数为p0。
可选地,可以通过以下方式确定所述映射关系:对可通透概率为s的未通透音乐进行多个通透处理,通透参数依次为:p+Δp*i,i=0,1,2…;获取所述多个通透处理对应的多个主观感受t(i),其中t(i)是基于多个评测者对按照通透参数p+Δp*i处理后的音乐的音质与按照通透参数p+Δp*(i-1)处理后的音乐的音质进行比较打分得到的;若满足t(n+1)<t(n),且t(j+1)>t(j),j=0,1,…,n-1,则确定所述映射关系中与可通透概率s所对应的通透增强参数为p+Δp*n。
作为一种实现方式,通透增强神经网络可以包括通透概率神经网络以及可通透概率与通透增强参数之间的映射关系,相应地,S220可以包括:将所述特征输入至通透概率神经网络,得到所述待播放音乐的可通透概率,并基于可通透概率与通透增强参数之间的映射关系,得到与可通透概率所对应的通透增强参数。
本发明实施例所提供的另一种对音乐进行通透处理的方法的流程图可以如图5所示,其包括:
S210,获取待播放音乐的特征;
S2201,将所述特征输入至通透概率神经网络,得到所述待播放音乐的可通透概率;
S2202,确定与所述可通透概率对应的通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
S2201中的通透概率神经网络可以是前述的训练好的通透概率神经网络,可理解,前述的训练过程一般在服务器端(即云端)执行。
S210可以包括通过特征提取得到待播放音乐的特征。或者,S210可以包括从对端接收待播放音乐的特征。其中,若图4或图5的过程由服务器端执行,则对端为客户端;若图4或图5的过程由客户端执行,则对端为服务器端。
也就是说,图4或图5所示的流程可以在服务器端(即云端)执行,也可以在客户端(如客户端应用程序)执行,下面将结合图5对这两种情形分别进行描述。
服务器端执行:
作为一个示例,待播放音乐是用户的客户端本地音乐。
S210可以包括:从客户端接收该待播放音乐,获取该待播放音乐的时域波形,对时域波形进行分帧并对每帧进行特征提取得到其特征。
或者,S210可以包括:从客户端接收待播放音乐的音乐信息,这里的音乐信息可以包括歌名、歌手、专辑等中的至少一项。根据该音乐信息从服务器端的音乐数据库中获取该待播放音乐,通过对该待播放音乐的时域波形进行分帧并对每帧进行特征提取得到其特征。
或者,S210可以包括:从客户端接收待播放音乐的特征。例如,客户端可以对该待播放音乐的时域波形进行分帧并对每帧进行特征提取得到其特征,随后客户端将所得到的特征发送至服务器端。
可见,S210中的特征是通过特征提取得到的,其中特征提取的过程可以在服务器端或客户端执行。
示例性地,S2202中,可以基于前述的映射关系,得到与S2201的可通透概率所对应的通透增强参数。
进一步地,可理解,在S2202之后,服务器端可以将该通透增强参数发送至客户端,以便客户端根据该通透增强参数对其本地的待播放音乐进行通透处理。这样可以在客户端对通透处理后的音乐进行本地播放。
作为另一个示例,用户在线播放待播放音乐,即该待播放音乐存储在服务器端,例如可以存储在服务器端的音乐数据库中。
S210可以包括:从客户端接收待播放音乐的音乐信息,这里的音乐信息可以包括歌名、歌手、专辑等中的至少一项。根据该音乐信息从服务器端的音乐数据库中获取该待播放音乐,通过对该待播放音乐的时域波形进行分帧并对每帧进行特征提取得到其特征。
示例性地,S2202,可以基于前述的映射关系,得到与S2201的可通透概率所对应的通透增强参数。
进一步地,可理解,在S2202之后,服务器端可以根据该通透增强参数对该待播放音乐进行通透处理。这样便可以对通透处理后的音乐进行在线播放。
客户端执行:
可选地,客户端可以为智能手机、平板电脑、可穿戴设备等移动终端。
S210可以包括:若待播放音乐为本地音乐,则客户端可以对该待播放音乐的时域波形进行分帧并对每帧进行特征提取得到其特征。若待播放音乐为存储在服务器端的音乐,则客户端可以向服务器端发送待播放音乐的音乐信息,这里的音乐信息可以包括歌名、歌手、专辑等中的至少一项,并随后从服务器端接收该待播放音乐,之后客户端可以对该待播放音乐的时域波形进行分帧并对每帧进行特征提取得到其特征。或者,若待播放音乐为存储在服务器端的音乐,则客户端可以向服务器端发送待播放音乐的音乐信息,并随后从服务器端接收待播放音乐的特征。其中,服务器端可以根据音乐信息,从音乐数据库中获取该待播放音乐,对该待播放音乐的时域波形进行分帧并对每帧进行特征提取得到其特征,随后服务器端将所得到的特征发送至客户端。可见,S210中的特征是通过特征提取得到的,其中特征提取的过程可以在服务器端或客户端执行。
可理解,本发明实施例中所述的音乐信息仅仅是示例性的,其可以包括其他信息,诸如时长、格式等,这里不再一一罗列。
在图5所示的过程之前,客户端可以从服务器端获取训练好的通透概率神经网络,从而在S2201中,客户端可以使用存储在其本地的训练好的通透概率神经网络,得到待播放音乐的可通透概率。
类似地,作为一例,前述的映射关系可以是在服务器端进行确定的,在图5所示的过程之前,客户端可以从服务器端获取映射关系。作为另一例,前述的映射关系可以是直接预先存储在客户端中的,如前述的预先设定的映射关系的实现方式。进而在S2202中,客户端可以基于该映射关系,得到与S2201的可通透概率所对应的通透增强参数。
可理解,进一步地,在S2202之后,客户端可以根据该通透增强参数对其本地的待播放音乐进行通透处理。这样可以在客户端对通透处理后的音乐进行本地播放。
由此可见,本发明实施例中可以基于深度学习预先构建通透概率神经网络,从而可以对待播放音乐自动地进行通透处理。该过程极大地简化用户的操作的同时,保证音乐的音质,从而提升了用户体验。
图6是本发明实施例的对音乐进行通透处理的设备的一个示意性框图。图6所示的设备30包括获取模块310和确定模块320。
获取模块310用于获取待播放音乐的特征。
确定模块320用于将所述特征输入至通透增强神经网络,得到通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
作为一种实现方式,图6所示的设备30可以为服务器端(即云端)。可选地,该设备30还可以包括训练模块,用于基于训练数据集,通过训练得到所述通透增强神经网络,其中所述训练数据集中的每个训练数据均为音乐数据,且每个训练数据均具有特征以及推荐的通透增强参数。
示例性地,该通透增强神经网络可以具有中间变量为可通透概率。
图7是本发明实施例的对音乐进行通透处理的设备的另一个示意性框图。图7所示的设备30包括获取模块310、可通透概率确定模块3201和通透增强参数确定模块3202。
获取模块310用于获取待播放音乐的特征。
可通透概率确定模块3201用于将所述特征输入至通透概率神经网络,得到所述待播放音乐的可通透概率。
通透增强参数确定模块3202用于确定与所述可通透概率对应的通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
图7所示的设备30可以为服务器端(即云端)。可选地,该设备30还可以包括训练模块,用于基于训练数据集,通过训练得到所述通透概率神经网络。
示例性地,所述训练数据集中的每个训练数据均为音乐数据,且每个训练数据均具有特征以及可通透概率。
其中,可以通过以下方式得到所述训练数据的特征:获取所述训练数据的时域波形;对所述时域波形进行分帧;对所述分帧后的每帧进行特征提取得到所述训练数据的所述特征。
其中,可以通过以下方式得到所述训练数据的可通透概率:对所述训练数据进行通透处理,得到处理后的训练数据;获取一组评测者中每个评测者的打分,所述打分表示所述处理后的训练数据的音质在所述评测者的主观上是否优于所述训练数据的音质;根据所有评测者的打分得到所述训练数据的所述可通透概率。例如,可以将所述所有评测者的打分的均值确定为所述训练数据的所述可通透概率。
关于训练模块训练得到通透概率神经网络可以参见前述结合图1和图2部分的实施例的相关描述,为避免重复,这里不再赘述。
作为一种实现方式,通透增强参数确定模块3202可以具体用于:根据预先构建的可通透概率与通透增强参数之间的映射关系,确定与所述可通透概率对应的所述通透增强参数。
作为一例,映射关系可以被预先设定为:若所述可通透概率大于阈值,则所述通透增强参数为p0。
作为另一例,可以通过以下方式确定所述映射关系:对可通透概率为s的未通透音乐进行多个通透处理,通透参数依次为:p+Δp*i,i=0,1,2…;获取所述多个通透处理对应的多个主观感受t(i),其中t(i)是基于多个评测者对按照通透参数p+Δp*i处理后的音乐的音质与按照通透参数p+Δp*(i-1)处理后的音乐的音质进行比较打分得到的;根据t(i)的大小关系确定所述映射关系。例如,若满足t(n+1)<t(n),且t(j+1)>t(j),j=0,1,…,n-1,则确定所述映射关系中与可通透概率s所对应的通透增强参数为p+Δp*n。该过程可以参见前述结合图3部分的实施例的相关描述,为避免重复,这里不再赘述。
作为一种实现方式,图6或图7所示的设备30可以为服务器端(即云端)。该设备30还可以包括发送模块,用于将通透增强参数发送至客户端。进而客户端可以基于该通透增强参数对待播放音乐进行通透处理;播放通透处理后的音乐。
作为一种实现方式,图6或图7所示的设备30可以为客户端。该设备30还可以包括通透处理模块和播放模块。该通透处理模块用于基于该通透增强参数对待播放音乐进行通透处理,该播放模块用于播放通透处理后的音乐。
图6或图7所示的设备30能够用于实现前述图4或图5所示的对音乐进行通透处理的方法,为避免重复,这里不再赘述。
如图8所示,本发明实施例还提供了另一种对音乐进行通透处理的设备,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,处理器执行所述程序时实现前述图4或图5所示的方法的步骤。
具体地,处理器可以获取待播放音乐的特征;将所述特征输入至通透增强神经网络,得到通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。作为一种实现方式,处理器可以获取待播放音乐的特征;将所述特征输入至通透概率神经网络,得到所述待播放音乐的可通透概率;确定与所述可通透概率对应的通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
示例性地,本发明实施例中的对音乐进行通透处理的设备可以包括:一个或多个处理器、一个或多个存储器、输入装置以及输出装置,这些组件通过总线系统和/或其它形式的连接机构互连。应当注意,该设备根据需要也可以具有其他组件和结构。
所述处理器可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制所述设备中的其它组件以执行期望的功能。
所述存储器可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器可以运行所述程序指令,以实现下文所述的本发明实施例中(由处理器实现)的客户端功能以及/或者其它期望的功能。在所述计算机可读存储介质中还可以存储各种应用程序和各种数据,例如所述应用程序使用和/或产生的各种数据等。
所述输入装置可以是用户用来输入指令的装置,并且可以包括键盘、鼠标、麦克风和触摸屏等中的一个或多个。
所述输出装置可以向外部(例如用户)输出各种信息(例如图像或声音),并且可以包括显示器、扬声器等中的一个或多个。
另外,本发明实施例还提供了一种计算机存储介质,其上存储有计算机程序。当所述计算机程序由处理器执行时,可以实现前述图4或图5所示的方法的步骤。例如,该计算机存储介质为计算机可读存储介质。
由此可见,本发明实施例中可以构建通透增强神经网络,具体地基于深度学习预先构建通透概率神经网络并且构建可通透概率与通透增强参数之间的映射关系,从而可以对待播放音乐自动地进行通透处理。该过程极大地简化用户的操作的同时,保证音乐的音质,从而提升了用户体验。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (14)

1.一种对音乐进行通透处理的方法,其特征在于,包括:
获取待播放音乐的特征,所述待播放音乐的所述特征表征时域波形;
将所述待播放音乐的所述特征输入至通透概率神经网络,得到所述待播放音乐的可通透概率;
确定与所述可通透概率对应的通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
2.根据权利要求1所述的方法,其特征在于,在所述将所述特征输入至通透概率神经网络之前,还包括:
基于训练数据集,通过训练得到所述通透概率神经网络。
3.根据权利要求2所述的方法,其特征在于,所述训练数据集中的每个训练数据均为音乐数据,且每个训练数据均具有特征以及可通透概率。
4.根据权利要求3所述的方法,其特征在于,通过以下方式得到所述训练数据的特征:
获取所述训练数据的时域波形;
对所述时域波形进行分帧;
对所述分帧后的每帧进行特征提取得到所述训练数据的所述特征。
5.根据权利要求3所述的方法,其特征在于,通过以下方式得到所述训练数据的可通透概率:
对所述训练数据进行通透处理,得到处理后的训练数据;
获取一组评测者中每个评测者的打分,所述打分表示所述处理后的训练数据的音质在所述评测者的主观上是否优于所述训练数据的音质;
根据所有评测者的打分得到所述训练数据的所述可通透概率。
6.根据权利要求5所述的方法,其特征在于,所述根据所有评测者的打分得到所述训练数据的所述可通透概率,包括:
将所述所有评测者的打分的均值确定为所述训练数据的所述可通透概率。
7.根据权利要求1所述的方法,其特征在于,所述确定与所述可通透概率对应的通透增强参数,包括:
根据预先构建的可通透概率与通透增强参数之间的映射关系,确定与所述可通透概率对应的所述通透增强参数。
8.根据权利要求7所述的方法,其特征在于,所述映射关系被预先设定为:
若所述可通透概率大于阈值,则所述通透增强参数为p0。
9.根据权利要求7所述的方法,其特征在于,通过以下方式确定所述映射关系:
对可通透概率为s的未通透音乐进行多个通透处理,通透参数依次为:p+Δp*i,i=0,1,2…;
获取所述多个通透处理对应的多个主观感受t(i),其中t(i)是基于多个评测者对按照通透参数p+Δp*i处理后的音乐的音质与按照通透参数p+Δp*(i-1)处理后的音乐的音质进行比较打分得到的;
根据t(i)的大小关系确定所述映射关系。
10.根据权利要求9所述的方法,其特征在于,所述根据t(i)的大小关系确定所述映射关系,包括:
若满足t(n+1)<t(n),且t(j+1)>t(j),j=0,1,…,n-1,则确定所述映射关系中与可通透概率s所对应的通透增强参数为p+Δp*n。
11.根据权利要求1至10中任一项所述的方法,其特征在于,还包括:
基于所述通透增强参数对所述待播放音乐进行通透处理;
播放所述通透处理后的音乐。
12.一种对音乐进行通透处理的设备,其特征在于,所述设备用于实现前述权利要求1至11中任一项所述的方法,所述设备包括:
获取模块,用于获取待播放音乐的特征,所述待播放音乐的所述特征表征时域波形;
可通透概率确定模块,用于将所述待播放音乐的所述特征输入至通透概率神经网络,得到所述待播放音乐的可通透概率;
通透增强参数确定模块,用于确定与所述可通透概率对应的通透增强参数,所述通透增强参数用于对所述待播放音乐进行通透处理。
13.一种对音乐进行通透处理的设备,包括存储器、处理器及存储在所述存储器上且在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至11中任一项所述方法的步骤。
14.一种计算机存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至11中任一项所述方法的步骤。
CN201810583109.0A 2018-06-05 2018-06-05 对音乐进行通透处理的方法及设备 Active CN109119089B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201810583109.0A CN109119089B (zh) 2018-06-05 2018-06-05 对音乐进行通透处理的方法及设备
CN202110546400.2A CN113450811B (zh) 2018-06-05 2018-06-05 对音乐进行通透处理的方法及设备
PCT/CN2019/089756 WO2019233359A1 (zh) 2018-06-05 2019-06-03 对音乐进行通透处理的方法及设备
US17/059,158 US11887615B2 (en) 2018-06-05 2019-06-03 Method and device for transparent processing of music

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810583109.0A CN109119089B (zh) 2018-06-05 2018-06-05 对音乐进行通透处理的方法及设备

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202110546400.2A Division CN113450811B (zh) 2018-06-05 2018-06-05 对音乐进行通透处理的方法及设备

Publications (2)

Publication Number Publication Date
CN109119089A CN109119089A (zh) 2019-01-01
CN109119089B true CN109119089B (zh) 2021-07-27

Family

ID=64821872

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202110546400.2A Active CN113450811B (zh) 2018-06-05 2018-06-05 对音乐进行通透处理的方法及设备
CN201810583109.0A Active CN109119089B (zh) 2018-06-05 2018-06-05 对音乐进行通透处理的方法及设备

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202110546400.2A Active CN113450811B (zh) 2018-06-05 2018-06-05 对音乐进行通透处理的方法及设备

Country Status (3)

Country Link
US (1) US11887615B2 (zh)
CN (2) CN113450811B (zh)
WO (1) WO2019233359A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113450811B (zh) * 2018-06-05 2024-02-06 安克创新科技股份有限公司 对音乐进行通透处理的方法及设备
US12001950B2 (en) 2019-03-12 2024-06-04 International Business Machines Corporation Generative adversarial network based audio restoration

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102610236A (zh) * 2012-02-29 2012-07-25 山东大学 一种改善喉振话筒语音音质的方法
CN103222187A (zh) * 2010-09-03 2013-07-24 普林斯顿大学托管会 对于通过扬声器的音频的频谱不着色的优化串扰消除

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000019027A (ja) * 1998-07-01 2000-01-21 Kazuhiro Muroi 風呂用温度状況報知器
CN2523161Y (zh) * 2001-11-27 2002-11-27 黄瑞书 改进的耳机
CN1264381C (zh) * 2001-11-27 2006-07-12 黄瑞书 改进的耳机
FR2841355B1 (fr) * 2002-06-24 2008-12-19 Airbus France Procede et dispositif pour elaborer une forme abregee d'un terme quelconque qui est utilise dans un message d'alarme destine a etre affiche sur un ecran du poste de pilotage d'un aeronef
US7555715B2 (en) * 2005-10-25 2009-06-30 Sonic Solutions Methods and systems for use in maintaining media data quality upon conversion to a different data format
JP2007266800A (ja) * 2006-03-28 2007-10-11 Hitachi Ltd 情報再生装置
US7307207B1 (en) * 2006-10-10 2007-12-11 Davis Gregg R Music page turning apparatus
JP2009055541A (ja) * 2007-08-29 2009-03-12 Canon Inc 動画再生装置
CN101933085B (zh) * 2008-01-14 2013-04-10 艾利森电话股份有限公司 音频质量客观感知评估方法及其设备
US20090238371A1 (en) * 2008-03-20 2009-09-24 Francis Rumsey System, devices and methods for predicting the perceived spatial quality of sound processing and reproducing equipment
US20140081682A1 (en) * 2009-09-09 2014-03-20 Dopa Music Ltd. Method for providing background music
CN102034472A (zh) * 2009-09-28 2011-04-27 戴红霞 一种基于嵌入时延神经网络的高斯混合模型的说话人识别方法
US8406449B2 (en) * 2010-09-28 2013-03-26 Trash Amps LLC Portable audio amplifier with interchangeable housing and storage compartment
US20130297539A1 (en) * 2012-05-07 2013-11-07 Filip Piekniewski Spiking neural network object recognition apparatus and methods
CN104078050A (zh) * 2013-03-26 2014-10-01 杜比实验室特许公司 用于音频分类和音频处理的设备和方法
CN103489033A (zh) * 2013-09-27 2014-01-01 南京理工大学 融合自组织映射与概率神经网络的增量式学习方法
CN104751842B (zh) * 2013-12-31 2019-11-15 科大讯飞股份有限公司 深度神经网络的优化方法及系统
US10055411B2 (en) * 2015-10-30 2018-08-21 International Business Machines Corporation Music recommendation engine
US10068556B2 (en) * 2015-11-18 2018-09-04 Pandora Media, Inc. Procedurally generating background music for sponsored audio
CN105931658A (zh) * 2016-04-22 2016-09-07 成都涂鸦科技有限公司 一种自适应场景的音乐播放方法
CN105869611B (zh) * 2016-06-03 2022-11-15 陈世江 弦乐器音质训化装置
CN205666052U (zh) * 2016-06-03 2016-10-26 陈世江 弦乐器音质训化装置
US9584946B1 (en) * 2016-06-10 2017-02-28 Philip Scott Lyren Audio diarization system that segments audio input
CN106782603B (zh) * 2016-12-22 2020-08-11 云知声(上海)智能科技有限公司 智能语音评测方法及系统
CN107126615A (zh) * 2017-04-20 2017-09-05 重庆邮电大学 基于脑电信号的音乐诱导睡眠方法及系统
CN107329996B (zh) * 2017-06-08 2021-06-29 三峡大学 一种基于模糊神经网络的聊天机器人系统与聊天方法
CN107888843A (zh) * 2017-10-13 2018-04-06 深圳市迅雷网络技术有限公司 用户原创内容的混音方法、装置、存储介质及终端设备
CN107886967B (zh) * 2017-11-18 2018-11-13 中国人民解放军陆军工程大学 一种深度双向门递归神经网络的骨导语音增强方法
CN108022591B (zh) * 2017-12-30 2021-03-16 北京百度网讯科技有限公司 车内环境中语音识别的处理方法、装置和电子设备
CN113450811B (zh) * 2018-06-05 2024-02-06 安克创新科技股份有限公司 对音乐进行通透处理的方法及设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103222187A (zh) * 2010-09-03 2013-07-24 普林斯顿大学托管会 对于通过扬声器的音频的频谱不着色的优化串扰消除
CN102610236A (zh) * 2012-02-29 2012-07-25 山东大学 一种改善喉振话筒语音音质的方法

Also Published As

Publication number Publication date
CN113450811B (zh) 2024-02-06
CN113450811A (zh) 2021-09-28
US20210217429A1 (en) 2021-07-15
WO2019233359A1 (zh) 2019-12-12
CN109119089A (zh) 2019-01-01
US11887615B2 (en) 2024-01-30

Similar Documents

Publication Publication Date Title
CN109147807B (zh) 一种基于深度学习的音域平衡方法、装置及系统
Cartwright et al. Social-EQ: Crowdsourcing an Equalization Descriptor Map.
CN109147816B (zh) 对音乐进行音量调节的方法及设备
CN112309365B (zh) 语音合成模型的训练方法、装置、存储介质以及电子设备
CN111354332A (zh) 一种歌声合成方法及装置
CN110880329A (zh) 一种音频识别方法及设备、存储介质
CN113921022B (zh) 音频信号分离方法、装置、存储介质和电子设备
CN109036437A (zh) 口音识别方法、装置、计算机装置及计算机可读存储介质
CN106375780A (zh) 一种多媒体文件生成方法及其设备
CN109119089B (zh) 对音乐进行通透处理的方法及设备
CN115798518B (zh) 一种模型训练方法、装置、设备及介质
CN113314119A (zh) 语音识别智能家居控制方法及装置
CN113823323A (zh) 一种基于卷积神经网络的音频处理方法、装置及相关设备
KR102018286B1 (ko) 음원 내 음성 성분 제거방법 및 장치
CN113327594B (zh) 语音识别模型训练方法、装置、设备及存储介质
CN112885326A (zh) 个性化语音合成模型创建、语音合成和测试方法及装置
CN113393852B (zh) 语音增强模型的构建方法及系统、语音增强方法及系统
CN111477248B (zh) 一种音频噪声检测方法及装置
CN114302301A (zh) 频响校正方法及相关产品
CN113593604A (zh) 检测音频质量方法、装置及存储介质
CN112837670A (zh) 语音合成方法、装置及电子设备
CN112164387A (zh) 音频合成方法、装置及电子设备和计算机可读存储介质
CN105989832A (zh) 一种用于在计算机设备中生成个性化语音的方法和装置
CN113744721B (zh) 模型训练方法、音频处理方法、设备及可读存储介质
CN113345411B (zh) 一种变声方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant