CN113724728A - 一种基于gmm模型的音频信号的处理方法 - Google Patents
一种基于gmm模型的音频信号的处理方法 Download PDFInfo
- Publication number
- CN113724728A CN113724728A CN202110899051.2A CN202110899051A CN113724728A CN 113724728 A CN113724728 A CN 113724728A CN 202110899051 A CN202110899051 A CN 202110899051A CN 113724728 A CN113724728 A CN 113724728A
- Authority
- CN
- China
- Prior art keywords
- signal
- database
- data packet
- audio signal
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 64
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 238000002372 labelling Methods 0.000 claims abstract description 11
- 238000004364 calculation method Methods 0.000 claims abstract description 8
- 230000002159 abnormal effect Effects 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 5
- 239000000203 mixture Substances 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000004806 packaging method and process Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
一种基于GMM模型的音频信号的处理方法,包括以下步骤:步骤S1,建立声纹时域模型,对比识别原音频信号不同时域的具有相同声纹的音阶,存储至人声数据库;步骤S2,将原音频信号中的左声道信号及右声道信号分别分割成对应数量的数据包并对数据包进行标注;步骤S3,将所述步骤S2中相同时域的左声道信号的数据包与右声道信号的数据包进行绑定发送;步骤S4,接收所述步骤S3中绑定的数据包存储至音频数据库,通过比对判断是否有相同的信号判断数据包是否传输正常,及时处理丢包数据提高音频质量;且通过人声数据库,左声道数据库及右声道数据库,快速准确分离人声和伴奏,减少运算量,提高音频信号处理效率。
Description
技术领域
本发明涉及音频信号处理技术领域,尤其是一种基于GMM模型的音频信号的处理方法。
背景技术
在音频信号处理领域,经常需要从音频中分离出左右声道在时域上的差异信号和相同信号。例如,对于一首歌曲来讲,左声道与右声道的差异信号通常是这首歌曲的伴奏信号,左声道与右声道的相同信号通常是这首歌曲的人声信号,那么通过获取到这首歌曲的差异信号与相同信号,可以从歌曲中滤除人声或者伴奏;在不同设备之间传输音频信号帧,或者直接采集音频信号帧时常常会带入干扰,造成音频信号发生丢包等,对听感带来极大不适,且伴奏中左声道与右声道也有可能出现相同信号,通过差异信号与相同信号不能准确分离人声和伴奏;因而需要快速分离人声和伴奏,减少运算量,且及时处理丢包数据提高音频质量。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于GMM模型的音频信号的处理方法。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于GMM模型的音频信号的处理方法,包括以下步骤:
步骤S1,建立声纹时域模型,对比识别原音频信号不同时域的具有相同声纹的音阶,存储至人声数据库;
步骤S2,将原音频信号中的左声道信号及右声道信号分别分割成对应数量的数据包并对数据包进行标注;
步骤S3,将所述步骤S2中相同时域的左声道信号的数据包与右声道信号的数据包进行绑定发送;
步骤S4,接收所述步骤S3中绑定的数据包存储至音频数据库,通过比对判断是否有相同的信号判断数据包是否传输正常。
优选的,还包括:
步骤S5,根据所述步骤S2中绑定的数据包及所述步骤S1的人声数据库,建立左声道数据库及右声道数据库。
优选的,还包括:
步骤S6,将所述步骤S5中人声数据库、左声道数据库、右声道数据库中的音频信号变换至频域并于后续分析处理。优选的,所述步骤S2包括:
步骤S2-1,接收原音频信号,对原音频信号进行滤波去噪处理;
步骤S2-2,将原音频信号中的左声道信号及右声道信号根据时间分别分割成对应数量的数据包并对数据包进行标注。
优选的,所述步骤S2-2包括以给定算法读取切割左声道信号及右声道信号,封装数据包,标注每个数据包起始点、终止点及数据包实际大小。
优选的,所述给定算法读取切割文件数据的算法为:设编号为N,编号从1开始,线程总数为A;
每次可读取数据的最大值D;
每个线程循环读取的次数为I,从0开始计算;
每次以((N-1)+A*I)*D为起始位置读取左声道信号及右声道信号。
优选的,所述步骤S4包括:
步骤S4-1,分别接收所述步骤S3中绑定的数据包进行解码;
步骤S4-2,将绑定的数据包中的数据进行比对,
步骤S4-2-1有相同信号则判断所述步骤S1及所述步骤S2的分割及发送正常,并进行所述步骤S5;
步骤S4-2-2,无相同信号则判断所述步骤S1及所述步骤S2的分割及发送异常,标记为异常数据包并存储相关数据;
步骤S4-2-3,根据所述异常数据包的位置重新从左声道信号及右声道信号中调取相应数据包进行绑定替换所述步骤S4-2-2中的异常数据包解码比对后执行所述步骤S5。
优选的,所述步骤S5包括:
步骤S5-1,将所述步骤S4中数据包进行解码,存储相同信号,并将相同信号在人声数据库的对应时域中查找是否有一致信号,并将不一致信号从所述人声数据库移出存至左声道数据库及右声道数据库;
步骤S5-2,对分割后的左声道信号数据包解码,并将其解码数据,与对应的时间范围内的相同信号数据库的解码信息比对,不同信号存储至左声道数据库;
步骤S5-3,对分割后的右声道信号数据包解码,并将其解码数据,与对应的时间范围内的相同信号数据库的解码信息比对,不同信号存储至右声道数据库。
优选的,所述步骤S1通过GMM高斯混合模型建立声纹时域模型。
优选的,所述步骤S2-1包括:
步骤S2-1-1,接收原音频信号,将原音频信号通过A/D器件进行模数转换,把模拟信号转化为数字信号;A/D器件为逐次逼进式A/D转换器;
步骤S2-1-2,将所述步骤S2-1-1处理的信号通过FIR滤波器滤波去噪。
本发明的优点和积极效果是:
1.本发明一种基于GMM模型的音频信号的处理方法,包括以下步骤:步骤S1,建立声纹时域模型,对比识别原音频信号不同时域的具有相同声纹的音阶,存储至人声数据库;步骤S2,将原音频信号中的左声道信号及右声道信号分别分割成对应数量的数据包并对数据包进行标注;步骤S3,将所述步骤S2中相同时域的左声道信号的数据包与右声道信号的数据包进行绑定发送;步骤S4,接收所述步骤S3中绑定的数据包存储至音频数据库,通过比对判断是否有相同的信号判断数据包是否传输正常,及时处理丢包数据提高音频质量。
2.本发明中步骤S5-1,将所述步骤S4中数据包进行解码,存储相同信号,并将相同信号在人声数据库的对应时域中查找是否有一致信号,并将不一致信号从所述人声数据库移出存至左声道数据库及右声道数据库;步骤S5-2,对分割后的左声道信号数据包解码,并将其解码数据,与对应的时间范围内的相同信号数据库的解码信息比对,不同信号存储至左声道数据库;步骤S5-3,对分割后的右声道信号数据包解码,并将其解码数据,与对应的时间范围内的相同信号数据库的解码信息比对,不同信号存储至右声道数据库,快速准确分离人声和伴奏,减少运算量,提高音频信号处理效率。
附图说明
图1是本发明的步骤S1至步骤S6流程图;
图2是本发明的步骤S4流程图;
图3是本发明的步骤S4流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,当组件被称为“固定于”另一个组件,它可以直接在另一个组件上或者也可以存在居中的组件。当一个组件被认为是“连接”另一个组件,它可以是直接连接到另一个组件或者可能同时存在居中组件。当一个组件被认为是“设置于”另一个组件,它可以是直接设置在另一个组件上或者可能同时存在居中组件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
如图1-3所示,本发明所述一种基于GMM模型的音频信号的处理方法,包括以下步骤:
步骤S1,建立声纹时域模型,对比识别原音频信号不同时域的具有相同声纹的音阶,存储至人声数据库;
步骤S2,将原音频信号中的左声道信号及右声道信号分别分割成对应数量的数据包并对数据包进行标注;
步骤S3,将所述步骤S2中相同时域的左声道信号的数据包与右声道信号的数据包进行绑定发送;
步骤S4,接收所述步骤S3中绑定的数据包存储至音频数据库,通过比对判断是否有相同的信号判断数据包是否传输正常。
步骤S5,根据所述步骤S2中绑定的数据包及所述步骤S1的人声数据库,建立左声道数据库及右声道数据库。
步骤S6,将所述步骤S4中左声道数据库及右声道数据库中的音频信号变换至频域并于后续分析处理;
具体的,通过混合高斯模型及EM算法建立声纹时域模型,对比识别原音频信号不同时域的具有相同声纹的音阶,存储至人声数据库;接收原音频信号,将原音频信号通过A/D器件进行模数转换,把模拟信号转化为数字信号;A/D器件为逐次逼进式A/D转换器;步骤S2-1-2,将所述步骤S2-1-1处理的信号通过FIR滤波器滤波去噪;以给定算法读取切割左声道信号及右声道信号,封装数据包,标注每个数据包起始点、终止点及数据包实际大小;所述给定算法读取切割文件数据的算法为:设编号为N,编号从1开始,线程总数为A;每次可读取数据的最大值D;每个线程循环读取的次数为I,从0开始计算;每次以((N-1)+A*I)*D为起始位置读取左声道信号及右声道信号,并进行绑定发送;接收绑定的数据包存储至音频数据库,通过比对判断是否有相同的信号判断数据包是否传输正常;根据所述步骤S2中绑定的数据包及所述步骤S1的人声数据库,建立左声道数据库及右声道数据库;并将人声数据库、左声道数据库、右声道数据库中的音频信号变换至频域求出各个频率成分的幅值分布和能量分布,从而得到主要幅度和能量分布的频率值,便于分析处理。
进一步地,所述步骤S1通过GMM高斯混合模型建立声纹时域模型;具体的,通过混合高斯模型及EM算法建立声纹时域模型,对比识别原音频信号不同时域的具有相同声纹的音阶,存储至人声数据库。
进一步地,所述步骤S2包括:
步骤S2-1,接收原音频信号,对原音频信号进行滤波去噪处理;
步骤S2-2,将原音频信号中的左声道信号及右声道信号根据时间分别分割成对应数量的数据包并对数据包进行标注。
具体的,接收原音频信号,将原音频信号通过A/D器件进行模数转换,把模拟信号转化为数字信号;A/D器件为逐次逼进式A/D转换器;步骤S2-1-2,将所述步骤S2-1-1处理的信号通过FIR滤波器滤波去噪;以给定算法读取切割左声道信号及右声道信号,封装数据包,标注每个数据包起始点、终止点及数据包实际大小;所述给定算法读取切割文件数据的算法为:设编号为N,编号从1开始,线程总数为A;每次可读取数据的最大值D;每个线程循环读取的次数为I,从0开始计算;每次以((N-1)+A*I)*D为起始位置读取左声道信号及右声道信号。
进一步地,所述步骤S4包括:
步骤S4-1,分别接收所述步骤S3中绑定的数据包进行解码;
步骤S4-2,将绑定的数据包中的数据进行比对,
步骤S4-2-1有相同信号则判断所述步骤S1及所述步骤S2的分割及发送正常,并进行所述步骤S5;
步骤S4-2-2,无相同信号则判断所述步骤S1及所述步骤S2的分割及发送异常,标记为异常数据包并存储相关数据;
步骤S4-2-3,根据所述异常数据包的位置重新从左声道信号及右声道信号中调取相应数据包进行绑定替换所述步骤S4-2-2中的异常数据包解码比对后执行所述步骤S5;
具体的,例如分别接收所述步骤S3中的绑定的数据包:左声道数据包一及右声道数据包一,左声道数据包一及右声道数据包一在相同时域内,将左声道数据包一及右声道数据包一进行解码并将解码数据进行比对,有相同信号则判断所述步骤S1及所述步骤S2的分割及发送正常,并进行所述步骤S5;无相同信号则判断所述步骤S1及所述步骤S2的分割及发送异常,标记为异常数据包并存储相关数据;根据所述异常数据包的位置重新从左声道信号及右声道信号中调取相应数据包新左声道数据包一及新右声道数据包一替换异常数据包解码比对后执行所述步骤S5,防止丢包或者解码异常,并将相同信号存至相同信号数据库中。
进一步地,所述步骤S5包括:
步骤S5-1,将所述步骤S4中数据包进行解码,存储相同信号,并将相同信号在人声数据库的对应时域中查找是否有一致信号,并将不一致信号从所述人声数据库移出存至左声道数据库及右声道数据库;步骤S5-2,对分割后的左声道信号数据包解码,并将其解码数据,与对应的时间范围内的相同信号数据库的解码信息比对,不同信号存储至左声道数据库;步骤S5-3,对分割后的右声道信号数据包解码,并将其解码数据,与对应的时间范围内的相同信号数据库的解码信息比对,不同信号存储至右声道数据库;
具体的,例如绑定的数据包左声道数据包一及右声道数据包一,左声道数据包一及右声道数据包一在相同时域内,将左声道数据包一及右声道数据包一进行解码并将解码数据进行比对,有相同信号则判断所述步骤S1及所述步骤S2的分割及发送正常,并将相同信号在人声数据库的对应时域中查找是否有一致信号,一致信号表明为人声信号继续存储至人声数据库;不一致信号则表明此不一致信号在左声道信号及右声道信号中均存在,则从所述人声数据库移出存至左声道数据库及右声道数据库;对分割后的左声道信号数据包解码,并将其解码数据,与对应的时间范围内的相同信号数据库的解码信息比对,不同信号存储至左声道数据库;对分割后的右声道信号数据包解码,并将其解码数据,与对应的时间范围内的相同信号数据库的解码信息比对,不同信号存储至右声道数据库;
进一步地,所述步骤S6,将所述步骤S5中人声数据库、左声道数据库、右声道数据库中的音频信号变换至频域并于后续分析处理;具体的,可将人声数据库、左声道数据库、右声道数据库中的音频信号通过傅里叶变换公式从时域变换至频域,求出各个频率成分的幅值分布和能量分布,从而得到主要幅度和能量分布的频率值,便于分析处理。
本发明一种基于GMM模型的音频信号的处理方法,包括以下步骤:步骤S1,建立声纹时域模型,对比识别原音频信号不同时域的具有相同声纹的音阶,存储至人声数据库;步骤S2,将原音频信号中的左声道信号及右声道信号分别分割成对应数量的数据包并对数据包进行标注;步骤S3,将所述步骤S2中相同时域的左声道信号的数据包与右声道信号的数据包进行绑定发送;步骤S4,接收所述步骤S3中绑定的数据包存储至音频数据库,通过比对判断是否有相同的信号判断数据包是否传输正常,及时处理丢包数据提高音频质量,且通过人声数据库,左声道数据库及右声道数据库,快速准确分离人声和伴奏,减少运算量,提高音频信号处理效率。
上述说明是针对本发明较佳可行实施例的详细说明,但实施例并非用以限定本发明的专利申请范围,凡本发明所提示的技术精神下所完成的同等变化或修饰变更,均应属于本发明所涵盖专利范围。
Claims (10)
1.一种基于GMM模型的音频信号的处理方法,其特征在于:包括以下步骤:
步骤S1,建立声纹时域模型,对比识别原音频信号不同时域的具有相同声纹的音阶,存储至人声数据库;
步骤S2,将原音频信号中的左声道信号及右声道信号分别分割成对应数量的数据包并对数据包进行标注;
步骤S3,将所述步骤S2中相同时域的左声道信号的数据包与右声道信号的数据包进行绑定发送;
步骤S4,接收所述步骤S3中绑定的数据包存储至音频数据库,通过比对判断是否有相同的信号判断数据包是否传输正常。
2.根据权利要求1所述一种基于GMM模型的音频信号的处理方法,其特征在于:还包括:
步骤S5,根据所述步骤S2中绑定的数据包及所述步骤S1的人声数据库,建立左声道数据库及右声道数据库。
3.根据权利要求2所述一种基于GMM模型的音频信号的处理方法,其特征在于:还包括:
步骤S6,将所述步骤S5中人声数据库、左声道数据库、右声道数据库中的音频信号变换至频域并于后续分析处理。
4.根据权利要求1所述一种基于GMM模型的音频信号的处理方法,其特征在于:所述步骤S2包括:
步骤S2-1,接收原音频信号,对原音频信号进行滤波去噪处理;
步骤S2-2,将原音频信号中的左声道信号及右声道信号根据时间分别分割成对应数量的数据包并对数据包进行标注。
5.根据权利要求4所述一种基于GMM模型的音频信号的处理方法,其特征在于:
所述步骤S2-2包括以给定算法读取切割左声道信号及右声道信号,封装数据包,标注每个数据包起始点、终止点及数据包实际大小。
6.根据权利要求5所述一种基于GMM模型的音频信号的处理方法,其特征在于:
所述给定算法读取切割文件数据的算法为:设编号为N,编号从1开始,线程总数为A;
每次可读取数据的最大值D;
每个线程循环读取的次数为I,从0开始计算;
每次以((N-1)+A*I)*D为起始位置读取左声道信号及右声道信号。
7.根据权利要求2所述一种基于GMM模型的音频信号的处理方法,其特征在于:所述步骤S4包括:
步骤S4-1,分别接收所述步骤S3中绑定的数据包进行解码;
步骤S4-2,将绑定的数据包中的数据进行比对,
步骤S4-2-1有相同信号则判断所述步骤S1及所述步骤S2的分割及发送正常,并进行所述步骤S5;
步骤S4-2-2,无相同信号则判断所述步骤S1及所述步骤S2的分割及发送异常,标记为异常数据包并存储相关数据;
步骤S4-2-3,根据所述异常数据包的位置重新从左声道信号及右声道信号中调取相应数据包进行绑定替换所述步骤S4-2-2中的异常数据包解码比对后执行所述步骤S5。
8.根据权利要求2所述一种基于GMM模型的音频信号的处理方法,其特征在于:所述步骤S5包括:
步骤S5-1,将所述步骤S4中数据包进行解码,存储相同信号,并将相同信号在人声数据库的对应时域中查找是否有一致信号,并将不一致信号从所述人声数据库移出存至左声道数据库及右声道数据库;
步骤S5-2,对分割后的左声道信号数据包解码,并将其解码数据,与对应的时间范围内的相同信号数据库的解码信息比对,不同信号存储至左声道数据库;
步骤S5-3,对分割后的右声道信号数据包解码,并将其解码数据,与对应的时间范围内的相同信号数据库的解码信息比对,不同信号存储至右声道数据库。
9.根据权利要求3所述一种基于GMM模型的音频信号的处理方法,其特征在于:所述步骤S1通过GMM高斯混合模型建立声纹时域模型。
10.根据权利要求4所述一种基于GMM模型的音频信号的处理方法,其特征在于:
所述步骤S2-1包括:
步骤S2-1-1,接收原音频信号,将原音频信号通过A/D器件进行模数转换,把模拟信号转化为数字信号;A/D器件为逐次逼进式A/D转换器;
步骤S2-1-2,将所述步骤S2-1-1处理的信号通过FIR滤波器滤波去噪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110899051.2A CN113724728B (zh) | 2021-08-05 | 2021-08-05 | 一种基于gmm模型的音频信号的处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110899051.2A CN113724728B (zh) | 2021-08-05 | 2021-08-05 | 一种基于gmm模型的音频信号的处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113724728A true CN113724728A (zh) | 2021-11-30 |
CN113724728B CN113724728B (zh) | 2024-01-26 |
Family
ID=78675018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110899051.2A Active CN113724728B (zh) | 2021-08-05 | 2021-08-05 | 一种基于gmm模型的音频信号的处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113724728B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001062045A1 (en) * | 2000-02-18 | 2001-08-23 | Bang & Olufsen A/S | Multi-channel sound reproduction system for stereophonic signals |
JP2006101081A (ja) * | 2004-09-29 | 2006-04-13 | Sanyo Electric Co Ltd | 音響再生装置 |
CN102292767A (zh) * | 2009-01-22 | 2011-12-21 | 松下电器产业株式会社 | 立体声音响信号编码装置、立体声音响信号解码装置及它们的编解码方法 |
CN108834037A (zh) * | 2018-06-12 | 2018-11-16 | 广州酷狗计算机科技有限公司 | 播放音频数据的方法和装置 |
CN110232931A (zh) * | 2019-06-18 | 2019-09-13 | 广州酷狗计算机科技有限公司 | 音频信号的处理方法、装置、计算设备及存储介质 |
CN111462784A (zh) * | 2020-03-24 | 2020-07-28 | 腾讯音乐娱乐科技(深圳)有限公司 | 确定具有双耳节拍的音频的方法、装置及计算机存储介质 |
-
2021
- 2021-08-05 CN CN202110899051.2A patent/CN113724728B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001062045A1 (en) * | 2000-02-18 | 2001-08-23 | Bang & Olufsen A/S | Multi-channel sound reproduction system for stereophonic signals |
JP2006101081A (ja) * | 2004-09-29 | 2006-04-13 | Sanyo Electric Co Ltd | 音響再生装置 |
CN102292767A (zh) * | 2009-01-22 | 2011-12-21 | 松下电器产业株式会社 | 立体声音响信号编码装置、立体声音响信号解码装置及它们的编解码方法 |
CN108834037A (zh) * | 2018-06-12 | 2018-11-16 | 广州酷狗计算机科技有限公司 | 播放音频数据的方法和装置 |
CN110232931A (zh) * | 2019-06-18 | 2019-09-13 | 广州酷狗计算机科技有限公司 | 音频信号的处理方法、装置、计算设备及存储介质 |
CN111462784A (zh) * | 2020-03-24 | 2020-07-28 | 腾讯音乐娱乐科技(深圳)有限公司 | 确定具有双耳节拍的音频的方法、装置及计算机存储介质 |
Non-Patent Citations (1)
Title |
---|
刘健: "左右声道音色差的计算机分析与立体声声像定位", 音响技术, no. 02 * |
Also Published As
Publication number | Publication date |
---|---|
CN113724728B (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108630193B (zh) | 语音识别方法及装置 | |
CN107154257A (zh) | 基于客户语音情感的客服服务质量评价方法及系统 | |
CN104916288B (zh) | 一种音频中人声突出处理的方法及装置 | |
CN101221762A (zh) | 一种mp3压缩域音频分割方法 | |
US20130266147A1 (en) | System and method for identification of highly-variable vocalizations | |
CN106098081B (zh) | 声音文件的音质识别方法及装置 | |
CN110782915A (zh) | 一种基于深度学习的波形音乐成分分离方法 | |
CN108399913B (zh) | 高鲁棒性音频指纹识别方法及系统 | |
US9026440B1 (en) | Method for identifying speech and music components of a sound signal | |
Delacourt et al. | Speaker-based segmentation for audio data indexing | |
US8606569B2 (en) | Automatic determination of multimedia and voice signals | |
Lagrange et al. | Using linear prediction to enhance the tracking of partials [musical audio processing] | |
CN113724728A (zh) | 一种基于gmm模型的音频信号的处理方法 | |
CN111445924B (zh) | 基于自回归模型系数检测定位语音片段内平滑处理的方法 | |
CN101950564A (zh) | 一种远程数字化语音采集分析识别系统 | |
CN106463140A (zh) | 具有语音信息的改进型帧丢失矫正 | |
CN108735230A (zh) | 基于混合音频的背景音乐识别方法、装置及设备 | |
CN106228984A (zh) | 语音识别信息获取方法 | |
US8462984B2 (en) | Data pattern recognition and separation engine | |
CN112908305B (zh) | 一种提升语音识别准确性的方法和设备 | |
CN111292748B (zh) | 一种可适应多种频率的语音录入系统 | |
CN114155845A (zh) | 服务确定方法、装置、电子设备及存储介质 | |
JP2002062892A (ja) | 音響分類装置 | |
CN102592592A (zh) | 语音数据的提取方法和装置 | |
Cai et al. | A modified pitch detection method based on wavelet transform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |