CN110288981A - 用于处理音频数据的方法和装置 - Google Patents

用于处理音频数据的方法和装置 Download PDF

Info

Publication number
CN110288981A
CN110288981A CN201910593846.3A CN201910593846A CN110288981A CN 110288981 A CN110288981 A CN 110288981A CN 201910593846 A CN201910593846 A CN 201910593846A CN 110288981 A CN110288981 A CN 110288981A
Authority
CN
China
Prior art keywords
audio data
frequency overlapped
resistable filter
filter
rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910593846.3A
Other languages
English (en)
Other versions
CN110288981B (zh
Inventor
田超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910593846.3A priority Critical patent/CN110288981B/zh
Publication of CN110288981A publication Critical patent/CN110288981A/zh
Priority to US16/805,053 priority patent/US11211051B2/en
Priority to JP2020035511A priority patent/JP6946494B2/ja
Application granted granted Critical
Publication of CN110288981B publication Critical patent/CN110288981B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Telephone Function (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本申请实施例公开了用于处理音频数据的方法和装置。该方法的一具体实施方式包括:获取第一音频数据,该第一音频数据的采样率为第一目标采样率;基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,该第二音频数据的采样率为第二目标采样率,该第二目标采用率小于该第一目标采样率;该抗混叠滤波器通过以下方式生成:将训练样本中的训练用语音数据输入初始抗混叠滤波器;将初始抗混叠滤波器的输出输入训练用语音识别模型,并生成训练用语音识别结果;基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整该初始抗混叠滤波器,生成该抗混叠滤波器。该实施方式提供了新的音频数据处理方式。

Description

用于处理音频数据的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于处理音频数据的方法和装置。
背景技术
人工智能(Artificial Intelligence,AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语音识别、图像识别、自然语言处理和专家系统等。其中,语音识别技术是计算机科学领域与人工智能领域中的一个重要方向。
语音识别模型进行语音识别的音频数据,通常是特定采样率的音频流。为了适应语音识别模型,在语音识别之前,通常将各种采样率的音频流,转换为上述特定采样率的音频流。
发明内容
本申请实施例提出了用于处理音频数据的方法和装置。
第一方面,本申请实施例提供了一种用于处理音频数据的方法,该方法包括:获取第一音频数据,其中,上述第一音频数据的采样率为第一目标采样率;基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,其中,上述第二音频数据的采样率为第二目标采样率,上述第二目标采用率小于上述第一目标采样率;其中,上述抗混叠滤波器通过以下方式生成:将训练样本中的训练用语音数据输入初始抗混叠滤波器;将初始抗混叠滤波器的输出输入训练用语音识别模型,并生成训练用语音识别结果;基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整上述初始抗混叠滤波器,生成上述抗混叠滤波器。
第二方面,本申请实施例提供了一种用于处理音频数据的装置,该装置包括:第一获取单元,被配置成获取第一音频数据,其中,上述第一音频数据的采样率为第一目标采样率;第一生成单元,被配置成基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,其中,上述第二音频数据的采样率为第二目标采样率,上述第二目标采用率小于上述第一目标采样率;其中,上述抗混叠滤波器通过以下方式生成:将训练样本中的训练用语音数据输入初始抗混叠滤波器;将初始抗混叠滤波器的输出输入训练用语音识别模型,并生成训练用语音识别结果;基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整上述初始抗混叠滤波器,生成上述抗混叠滤波器。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得该一个或多个处理器实现如上述用于处理音频数据的方法中任一实施例的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上述用于处理音频数据的方法中任一实施例的方法。
本申请实施例提供的用于处理音频数据的方法和装置,通过获取第一音频数据,其中,上述第一音频数据的采样率为第一目标采样率;基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,其中,上述第二音频数据的采样率为第二目标采样率,上述第二目标采用率小于上述第一目标采样率;其中,上述抗混叠滤波器通过以下方式生成:将训练样本中的训练用语音数据输入初始抗混叠滤波器;将初始抗混叠滤波器的输出输入训练用语音识别模型,并生成训练用语音识别结果;基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整上述初始抗混叠滤波器,生成上述抗混叠滤波器,技术效果可以包括:提供了一种新的处理音频数据的方式,具体的,提供了一种新的转换音频数据采样率的方式。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于处理音频数据的方法的一个实施例的流程图;
图3是根据本申请的抗混叠滤波器的一种生成方式的示例性流程图;
图4是根据本申请的用于处理音频数据的方法的又一个实施例的流程图;
图5是根据本申请的用于处理音频数据的方法的一个应用场景的示意图;
图6是根据本申请的用于处理音频数据的装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于处理音频数据的方法或用于处理音频数据的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104可以是用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103可以通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如语音识别类应用、购物类应用、即时通信工具等。
终端设备101、102、103可以是硬件,可以是具有语音采集器件的电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts GroupAudio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture ExpertsGroup Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上的语音采集类应用提供支持的后台服务器。后台服务器可以对接收到的音频数据进行处理,生成第二目标采样率的音频数据,再将第二目标采样率的音频数据输入语音识别模型,生成语音识别结果,可选的,可以再将生成的语音识别结果返回给终端设备。
需要说明的是,本申请实施例所提供的用于处理音频数据的方法可以由服务器105执行,相应地,用于处理音频数据的装置可以设置于服务器105。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。当用于处理音频数据的方法运行于其上的电子设备不需要与其他电子设备进行数据传输时,该系统架构可以仅包括用于处理音频数据的方法运行于其上的电子设备。
继续参考图2,其示出了根据本申请的用于处理音频数据的方法的一个实施例的流程200。该用于处理音频数据的方法,包括以下步骤:
步骤201,获取第一音频数据。
在本实施例中,用于处理音频数据的方法的执行主体(例如图1所示的服务器)可以获取第一音频数据。
可选的,上述执行主体可以从上述执行主体之外的其它电子设备或者上述执行主体本地,获取第一音频数据。
在这里,上述第一音频数据的采样率为预设的第一目标采样率。作为示例,第一目标采样率可以是192KHz或者384KHz。
在这里,音频数据可以是数字化的声音数据。音频数据的采样率,也称采样频率,是单位时间内的采样次数,采样频率越大,采样点之间的间隔越小,数字化得到的声音就越逼真,但相应的数据量增大。采样率的计量单位可以是赫兹(Hz)或者千赫兹(KHz)。
步骤202,基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据。
在本实施例中,上述执行主体可以基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据。
在这里,上述第二音频数据的采样率为预设的第二目标采样率。作为示例,第二目标采用率可以是16KHz或者48KHz。
在这里,由于第二目标采样率小于上述第一目标采样率,因此,需要对第一音频数据降采样。直接降低采样率往往会使音频数据在频域上出现混叠。因此,通常情况下,需要预先通过一个低通滤波器抗混叠处理后再进行降采样,这个滤波器一般也可以称为抗混叠滤波器。
在这里,上述抗混叠滤波器可以实现低通滤波。可选的,上述抗混叠滤波器也可以实现降采样。
可选的,可以将第一音频数据导入上述抗混叠滤波器,生成上述第二目标采样率的第二音频数据。
可选的,可以在上述抗混叠滤波器之后连接采样器。上述执行主体可以将上述第一音频数据导入上述抗混叠滤波器,然后将上述抗混叠滤波器的输出导入采样器,由采样器输出上述第二音频数据。
可选的,上述第二目标采样率可以是语音识别模型的输入音频数据的采样率。换句话说,语音识别模型的输入音频数据的采样率,可以是上述第二目标采样率。作为示例,目标采用率可以是16KHz,语音识别模型的输入音频数据的采样率也是16KHz。
在这里,上述抗混叠滤波器,可以通过图3所示的流程300训练生成。流程300的执行主体,可以是流程200的执行主体,也可以是流程200的执行主体之外的其它执行主体。流程300可以包括:
步骤301,将训练样本中的训练用语音数据输入初始抗混叠滤波器。
在这里,上述训练样本可以包括训练用语音数据和针对训练用语音数据的目标语音识别结果。训练用语音数据的采样率为上述第一目标采样率。
在这里,初始抗混叠滤波器可以是未经训练或者未训练完成的滤波器,此滤波器可以是各种类型的。初始抗混叠滤波器可以实现低通滤波。初始抗混叠滤波器的参数,可以根据上述滤波器类型的不同而实际设置。作为示例,初始抗混叠滤波器可以是有限长单位冲激响应(Finite Impulse Response,FIR)滤波器,作为初始抗混叠滤波器的FIR滤波器的抽头系数为初始值。
步骤302,将初始抗混叠滤波器的输出输入到训练用语音识别模型,并生成训练用语音识别结果。
可选的,可以将初始抗混叠滤波器的输出直接输入到上述训练用语音识别模型,生成训练用语音识别结果。
可选的,也可以将上述输出降采样之后输入到上述训练用语音识别模型,生成训练用语音识别结果。
可选的,训练用语音识别模型,可以是训练完成的语音识别模型,也可以是训练未完成的语音识别模型。
步骤303,基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整初始抗混叠滤波器,生成抗混叠滤波器。
可选的,如果训练用语音识别模型的识别准确率大于预设准确率阈值,可以调整初始抗混叠滤波器,而不调节训练用语音识别模型。
可选的,如果训练用语音识别模型是训练未完成的语音识别模型,可以既调整初始抗混叠滤波器,又调节训练用语音识别模型。
在这里,调整初始抗混叠滤波器,可以包括调整初始抗混叠滤波器的参数。需要调整的参数,可以根据上述滤波器类型的不同而实际设置。作为示例,如果初始抗混叠滤波器是FIR滤波器,调整初始抗混叠滤波器可以包括调整抽头系数。作为示例,如果初始抗混叠滤波器基于卷积神经网络实现,调整初始抗混叠滤波器可以包括调整卷积神经网络的权重、偏置量等。
需要说明的是,以语音识别模型的语音识别结果为依据,可以根据训练用语音识别结果与目标语音识别结果之间的偏差,调整初始抗混叠滤波器,使得抗混叠滤波器的准确性更高;适用范围更广(可以处理不同噪声特点的音频数据)。
在这里,语音识别模型可以用于表征音频数据和语音识别结果之间的对应关系。语音识别模型可以是各种结构的模型,在此不再赘述。
本实施例示出的方法,通过获取第一目标采样率的第一音频数据;然后基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,在这里,上述第二音频数据的采样率为第二目标采样率,上述第二目标采用率小于上述第一目标采样率;其中,上述抗混叠滤波器通过以下方式生成:将训练样本中的训练用语音数据输入初始抗混叠滤波器;将初始抗混叠滤波器的输出输入训练用语音识别模型,并生成训练用语音识别结果;基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整上述初始抗混叠滤波器,生成上述抗混叠滤波器技术效果可以包括:
第一,提供了一种新的处理音频数据的方式,具体的,提供了一种新的转换音频数据采样率的方式。
第二,基于上述语音识别模型生成上述抗混叠滤波器,能够以语音识别结果为导向,生成适合语音识别的抗混叠滤波器,适合语音识别的抗混叠滤波器处理得到的第二音频数据保留了语音识别所需要的音频数据信息;由此,上述抗混叠滤波器生成的第二音频数据,应用到语音识别的时候,不会因为第二音频数据的影响而导致语音识别结果错误。从另一个方面来说,如果处理第一音频数据的抗混叠滤波器没有基于语音识别模型生成,那么得到的第二音频数据可能去除了语音识别需要的信息细节,从而导致第二音频数据影响语音识别的准确性,不适用于语音识别。
在一些实施例中,上述训练用语音识别模型是训练完成的语音识别模型。上述训练用语音识别模型的识别准确率可以大于预设准确率阈值(例如96%)。
需要说明的是,通常情况下,训练完成的语音识别模型的准确率已经得到验证。训练用语音识别模型的识别准确率可以大于预设准确率阈值,在语音识别模型的准确性可以保证的情况下,那么语音识别模型输出的训练用语音识别结果相对于目标语音识别结果的偏差,可以确定是初始抗混叠滤波器的影响造成的。因此,可以以语音识别模型的语音识别结果为依据,根据上述偏差有针对性地调整初始抗混叠滤波器,使得抗混叠滤波器的准确性更高;适用范围更广(可以处理不同噪声特点的音频数据);处理得到的音频数据,可以保证语音识别的准确性不会因为采样率转换阶段的处理不当而减低。
在一些实施例中,上述抗混叠滤波器可以包括至少两级子抗混叠滤波器。在这里,上述抗混叠滤波器的子抗混叠滤波器顺次连接。
在一些实施例中,上述步骤202可以包括利用各个子抗混叠滤波器,对第一音频数据进行低通滤波和降采样,生成第二音频数据。
作为示例,抗混叠滤波器可以包括三级子抗混叠滤波器,分别称为甲抗混叠滤波器、乙抗混叠滤波器和丙抗混叠滤波器;甲抗混叠滤波器的输入为上述第一音频数据,甲抗混叠滤波器的输出与乙抗混叠滤波器的输入连接,乙抗混叠滤波器的输出与丙抗混叠滤波器的输入连接,丙抗混叠滤波器的输出为第二音频数据。可以将第一音频数据导入甲抗混叠滤波器,然后甲抗混叠滤波器的输出导入乙抗混叠滤波器,再后将乙抗混叠滤波器的输出导入丙抗混叠滤波器,最后由丙甲抗混叠滤波器输出第二音频数据。
在一些实施例中,各个子抗混叠滤波器对应的降采样因子是预先设置的,最后一级的子抗混叠滤波器的降采样因子不小于其它子抗混叠滤波器的降采样因子。在这里,其它子抗混叠滤波器,可以是上述抗混叠滤波器中最后一级的子抗混叠滤波器之外的子抗混叠滤波器。
作为示例,抗混叠滤波器可以包括三级子抗混叠滤波器,分别称为甲抗混叠滤波器、乙抗混叠滤波器和丙抗混叠滤波器;丙抗混叠滤波器的输出为第二音频数据。丙抗混叠滤波器的降采样因子,可以大于或者等于甲抗混叠滤波器的降采样因子,也可以大于或者等于乙抗混叠滤波器的降采样因子。
作为示例,上述第一目标采样率可以是192KHz。上述第二目标采样率可以是16KHz。抗混叠滤波器可以包括三级子抗混叠滤波器,分别称为甲抗混叠滤波器、乙抗混叠滤波器和丙抗混叠滤波器。甲抗混叠滤波器的降采样因子为2,乙抗混叠滤波器的降采样因子为2,丙抗混叠滤波器的降采样因子3。
在一些实施例中,子抗混叠滤波器可以是FIR滤波器。FIR滤波器的降采样因子与滤波器的抽头(tap)数量正相关。FIR滤波器的抽头数量,与存储空间、计算量等正相关。抽头数量越多,需要的存储空间越大,计算量也越大。
需要说明的是,最后一级的子抗混叠滤波器的降采样因子为最大的降采样因子,可以使得抗混叠滤波器中的子抗混叠滤波器的抽头数量之和最小。由此,可以使得抗混叠滤波器整体,所需的存储空间最小,使用时的计算量最小。除最后一级之外的其它子抗混叠滤波器,通带和阻带之间的距离较远,因此可以设置较少数量的抽头,就可以保证滤波的准确性;最后一级的子抗混叠滤波器,通带和阻带之间的距离较近,因此需要设置较多数量的抽头,才能保证滤波的准确性。降采样因子越大,需要的抽头数量越多;降采样因子较大的子抗混叠滤波器设置在最后一级,可以利用较多的抽头数量保证最后一级子抗混叠滤波器的滤波准确性。从而使得其它子抗混叠滤波器可以设置较少的抽头,使得抗混叠滤波器整体的抽头数量最少。
进一步参考图4,其示出了用于处理音频数据的方法的又一个实施例的流程400。该用于处理音频数据的方法的流程400,包括以下步骤:
步骤401,获取第三音频数据。
在本实施例中,用于处理音频数据的方法的执行主体(例如图1所示的服务器)可以获取第三音频数据。
在这里,第三音频数据的采样率为初始采样率。
需要说明的是,第三音频数据在本申请中的出现位置排在第一音频数据之后,所以称为第三音频数据。在实际应用中,执行主体可能先获取第三音频数据,再获取第一音频数据。
步骤402,根据初始采样率和第一目标采样率,在第三音频数据的基础上生成第一音频数据。
在本实施例中,上述执行主体可以根据上述初始采样率和预设的第一目标采样率,在上述第三音频数据的基础上生成第一音频数据。
在这里,上述第一音频数据的采样率为上述第一目标采样率。
在这里,如果初始采样率和上述第一目标采样率不同,上述执行主体可以对第三音频数据进行补点或者舍点,得到上述第一音频数据;如果上述初始采样率与上述第一目标采样率相同,可以将第三音频数据作为上述第一音频数据。
可选的,第一目标采样率可以是数值较大的采样率,例如,第一目标采样率可以设置为192KHz或者384KHz。可以理解,对于经语音采集得的第三音频数据,初始采样率一般为8KHz、16KHz或者24KHz。因此,通常情况下,第一目标采样率大于初始采样率。
步骤403,基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据。
在本实施例中,上述执行主体可以基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据。
在这里,上述第二音频数据的采样率为第二目标采样率,上述第二目标采样率小于上述第一目标采样率。
所述抗混叠滤波器通过以下方式生成:将训练样本中的训练用语音数据输入初始抗混叠滤波器;将初始抗混叠滤波器的输出输入训练用语音识别模型,并生成训练用语音识别结果;基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整所述初始抗混叠滤波器,生成所述抗混叠滤波器。
步骤403的实现方式和技术细节,可以参考对步骤202的说明,在此不再赘述。
继续参见图5,图5示出了根据图4对应的实施例的用于处理音频数据的方法的一个应用场景。具体的:
首先,服务器可以获取第三音频数据501。作为示例,第三音频数据的采样率为48KHz。
其后,根据初始采样率和预设的第一目标采样率(例如192KHz),在第三音频数据的基础上生成第一音频数据502。作为示例,第一音频数据的采样率为192KHz。
再后,服务器可以基于预先生成的抗混叠滤波器503,对第一音频数据进行处理,生成第二音频数据504。第二音频数据的采样率为16KHz。上述抗混叠滤波器可以是基于上述语音识别模型505生成的。
最后,可以将第二音频数据输入到语音识别模型,生成语音识别结果。
本实施例示出的方法,通过根据获取第三音频数据,其中,第三音频数据的采样率为初始采样率;然后,根据上述初始采样率和预设的第一目标采样率,在上述第三音频数据的基础上生成第一音频数据,在这里,第一音频数据的采样率为上述第一目标采样率;基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,技术效果可以包括:
第一,提供了一种新的处理音频数据的方式,具体的,提供了一种新的转换音频数据采样率的方式。
第二,第一目标采样率和第二目标采样率之间的比值可以预先得知,由此,面对不同的初始采用率,也可以预先设置抗混叠滤波器,实现由第一目标采样率到第二目标采样率的降采样。
在一些实施例中,上述方法还可以包括:根据接收到的第四音频数据,生成目标传输格式的第三音频数据。
需要说明的,上述执行主体可以先获取第四音频数据,再生成第三音频数据。
在这里,上述第四音频数据的传输格式在预设传输格式集合中。
可以理解,音频数据的传输标准多种多样,例如,脉冲密度调制格式(PulseDensity Modulation,PDM)、脉冲编码调制格式(Pulse Code Modulation,PCM)、IIS(Integrated Interchip Sound)、分时复用格式(Time Division Multiplexing,TDM)等。
在这里,符合某一传输标准的音频数据,可以被称为此传输标准格式的音频数据。作为示例,符合PCM标准的音频数据,可以称为PCM格式的音频数据。
在这里,上述执行主体可以从其它电子设备,接收各种传输格式的第四音频数据。如果接收到的第四音频数据的原始传输格式与上述目标传输格式不同,可以对第四音频数据进行处理,将第四音频数据转换为目标传输格式;然后,将处理后得到的目标传输格式的音频数据,确定为第三音频数据。如果接收到的第四音频数据的原始传输格式与上述目标传输格式相同,可以将接收到的第四音频数据,作为第三音频数据。在这里,可以针对预设传输格式集合中的传输格式,设置该传输格式到目标传输格式的转换方法。
需要说明的是,将任意传输格式的第四音频数据,转换为目标传输格式的第三音频数据,可以为采样率转换提供基础,从而可以实现对任意传输格式的音频数据进行采样率转换处理。
需要说明的是,不同传输格式的第四音频数据,通常具有不同的噪声特点,例如,PDM格式的音频数据通常直流噪声和底噪较大;IIS格式的音频数据通常噪声较小。第四音频数据对应的第三音频数据,通常具有与第四音频数据相同的噪声特点;第一音频数据的噪声特点,与对应的第三音频数据的噪声特点相同。现有技术中,针对不同噪声特点的音频数据,通常需要建立不同的滤波器。
需要说明的是,在本申请中,基于语音识别模型生成抗混叠滤波器,可以以语音识别结果为导向,在保证抗混叠滤波器的滤波性能的同时,建立适用于各种噪声特点的抗混叠滤波器,由此,可以基于相同的抗混叠滤波器,对各种传输格式的第四音频数据进行处理,生成第二目标采样率的第二音频数据。由此,可以减少所建立的抗混叠滤波器的数量,进而减少存储抗混叠滤波器(的参数)的空间。如果抗混叠滤波器采用硬件实现,则可以大大减少硬件开销。
可以理解,转换音频数据的传输格式,不影响音频数据的采样率。第四音频数据和第三音频数据的采样率相同,均为初始采样率。
作为示例,预设传输格式集合可以包括但不限于以下至少一项:PDM格式、TDM格式、IIS格式。第四音频数据的传输格式可以包括但不限于以下至少一项:PDM格式、TDM格式、IIS格式。
在一些实施例中,上述目标传输格式为脉冲编码调制格式。
在一些实施例中,上述步骤401可以包括:响应于接收到脉冲密度调制格式的第四音频数据,将上述第四音频数据导入到级联积分梳状滤波器,生成脉冲编码调制格式的第三音频数据。
在这里,级联积分梳状(Cascaded Integrator Comb,CIC)滤波器,是FIR滤波器的一种。
在这里,FIR滤波器,又称为非递归型滤波器,是数字信号处理系统中的基本元件,它可以在保证任意幅频特性的同时具有严格的线性相频特性。
需要说明的是,CIC滤波器有着低通滤波器的特性,其他FIR滤波器可以呈现低通,高通,带通等多种特性。和大多数FIR不同的是,CIC的实现只需要用到加减。因此,相对于其它FIR滤波器,采用CIC滤波器采用CIC滤波器处理PDM信号,可以减少生成第三音频数据的计算量和硬件开销。
在一些实施例中,上述步骤401可以包括:响应于接收到时分复用格式的第四音频数据,对上述第四音频数据进行串并转换,生成脉冲编码调制格式的第三音频数据。
在这里,针对时分复用格式的第四音频数据,本申请提供了串并转换的处理方式。由此,可以将第四音频数据转换为目标传输格式的第三音频数据,从而可以进行后续采样率变换处理。
在一些实施例中,上述抗混叠滤波器的训练样本可以包括至少两种传输格式的训练用语音数据。
可选的,可以将各种传输格式的、各种采样率的初始训练样本导入预先建立的预处理模型,生成第一目标采样率的训练用语音数据。
在这里,预处理模型可以首先将初始训练样本转换为目标传输格式的训练用语音数据,然后将目标传输格式的训练用语音数据(初始采样率)转换为第一目标采样率的训练用语音数据。
在这里,上述第一目标采样率的训练用语音数据为上述目标传输格式。
需要说明的是,采用至少两种传输格式的训练用语音数据,可以使得训练得到抗混叠滤波器能够准确地处理上述至少两种传输格式的音频数据,保证处理结果的准确性。
需要说明的是,对包括至少两种传输格式的初始训练样本进行预处理,生成第一目标采样率的训练用语音数据;第一目标采样率的训练用语音数据经初始抗混叠滤波器处理生成第二目标采样率的训练用语音数据;第二目标采样率的训练用语音数据经训练用语音识别模型生成训练用语音识别结果。由此,可以使得音频数据处理流程,在初始抗混叠滤波器训练阶段和抗混叠滤波器使用阶段是一致的。由此生成的抗混叠滤波器,可以保证在使用时具有较高的准确性和可靠性。
在一些实施例中,上述步骤402可以包括:利用异步采样率转换方式,对上述第三音频数据进行处理,生成上述第一音频数据。
在这里,采用异步采样率转换(Asynchronous Sample Rate Convertor,ASRC)方式,可以实现消除初始采样率和第一目标采样率之间的差异。如果初始采样率和第一目标采样率为不同时钟源下的采样率,ASRC可以将不同时钟源导致的采样率误差消除掉。
例如,如果初始采样率为音频采集设备的时钟源所确定的采样率,上述第一目标采样率为上述执行主体的时钟源所确定的采样率48.0KHz;那么标称的初始采样率的值可能是48.0KHz,但是在上述执行主体的时钟源下的初始采样率可能是48.1KHz。在这种情况下,采用ASRC,可以将48.1KHz修正为上述执行主体的时钟源下48.0KHz。
在这里,执行ASRC方式的器件,可以称为异步采样率转换器。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种用于处理音频数据的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,除下面所记载的特征外,该装置实施例还可以包括与图2所示的方法实施例相同或相应的特征。该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于处理音频数据的装置600包括第一获取单元601和第一生成单元602;其中,第一获取单元601,被配置成获取第一音频数据,其中,上述第一音频数据的采样率为第一目标采样率;第一生成单元602,被配置成基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,其中,上述第二音频数据的采样率为第二目标采样率,上述第二目标采用率小于上述第一目标采样率;其中,上述抗混叠滤波器通过以下方式生成:将训练样本中的训练用语音数据输入初始抗混叠滤波器;将初始抗混叠滤波器的输出输入训练用语音识别模型,并生成训练用语音识别结果;基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整上述初始抗混叠滤波器,生成上述抗混叠滤波器。
在本实施例中,用于处理音频数据的装置中的第一获取单元601和第一生成单元602的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201和步骤202的相关说明,在此不再赘述。
在一些实施例中,上述训练用语音识别模型的识别准确率大于预设准确率阈值。
在一些实施例中,上述抗混叠滤波器包括至少两级子抗混叠滤波器,上述抗混叠滤波器的子抗混叠滤波器顺次连接,子抗混叠滤波器为有限长单位冲激响应滤波器;以及上述第一生成单元,还被配置成:利用各个子抗混叠滤波器,对第一音频数据进行低通滤波和降采样,生成第二音频数据,其中,各个子抗混叠滤波器对应的降采样因子是预先设置的,最后一级的子抗混叠滤波器的降采样因子不小于其它子抗混叠滤波器的降采样因子。
在一些实施例中,上述装置还包括:第二获取单元(未示出),被配置成:获取第三音频数据,其中,上述第三音频数据的采样率为初始采样率;第二生成单元(未示出),被配置成根据上述初始采样率和上述第一目标采样率,在上述第三音频数据的基础上生成上述第一音频数据。
在一些实施例中,上述装置还包括:第三生成单元(未示出),被配置成:根据接收到的第四音频数据,生成目标传输格式的第三音频数据,其中,上述第四音频数据的传输格式在预设传输格式集合中。
在一些实施例中,上述目标传输格式为脉冲编码调制格式;以及第三生成单元,还被配置成:响应于接收到脉冲密度调制格式的第四音频数据,将上述第四音频数据导入到级联积分梳状滤波器,生成脉冲编码调制格式的第三音频数据。
在一些实施例中,上述第二生成单元,被配置成:利用异步采样率转换方式,对上述第三音频数据进行处理,生成上述第一音频数据。
下面参考图7,其示出了适于用来实现本申请实施例的电子设备的计算机系统700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统700包括处理器(例如,中央处理单元CPU)701,其可以根据存储在只读存储器(ROM,Read Only Memory)702中的程序或者从存储部分706加载到随机访问存储器(RAM,Random Access Memory)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有系统700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O,Input/Output)接口705也连接至总线704。
以下部件连接至I/O接口705:包括硬盘等的存储部分706;以及包括诸如LAN(局域网,Local Area Network)卡、调制解调器等的网络接口卡的通信部分707。通信部分707经由诸如因特网的网络执行通信处理。驱动器708也根据需要连接至I/O接口705。可拆卸介质709,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器708上,以便于从其上读出的计算机程序根据需要被安装入存储部分706。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分707从网络上被下载和安装,和/或从可拆卸介质709被安装。在该计算机程序被处理器701执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取单元和第一生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取音频数据的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取第一音频数据,其中,上述第一音频数据的采样率为第一目标采样率;基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,其中,上述第二音频数据的采样率为第二目标采样率,上述第二目标采用率小于上述第一目标采样率;其中,上述抗混叠滤波器通过以下方式生成:将训练样本中的训练用语音数据输入初始抗混叠滤波器;将初始抗混叠滤波器的输出输入训练用语音识别模型,并生成训练用语音识别结果;基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整上述初始抗混叠滤波器,生成上述抗混叠滤波器。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种用于处理音频数据的方法,包括:
获取第一音频数据,其中,所述第一音频数据的采样率为第一目标采样率;
基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,其中,所述第二音频数据的采样率为第二目标采样率,所述第二目标采用率小于所述第一目标采样率;其中,
所述抗混叠滤波器通过以下方式生成:
将训练样本中的训练用语音数据输入初始抗混叠滤波器;
将初始抗混叠滤波器的输出输入训练用语音识别模型,并生成训练用语音识别结果;
基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整所述初始抗混叠滤波器,生成所述抗混叠滤波器。
2.根据权利要求1所述的方法,其中,所述训练用语音识别模型的识别准确率大于预设准确率阈值。
3.根据权利要求1所述的方法,其中,所述抗混叠滤波器包括至少两级子抗混叠滤波器,所述抗混叠滤波器的子抗混叠滤波器顺次连接,子抗混叠滤波器为有限长单位冲激响应滤波器;以及
所述基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,包括:
利用各个子抗混叠滤波器,对第一音频数据进行低通滤波和降采样,生成第二音频数据,其中,各个子抗混叠滤波器对应的降采样因子是预先设置的,最后一级的子抗混叠滤波器的降采样因子不小于其它子抗混叠滤波器的降采样因子。
4.根据权利要求1-3中任一项所述的方法,其中,所述方法还包括:
获取第三音频数据,其中,所述第三音频数据的采样率为初始采样率;
根据所述初始采样率和所述第一目标采样率,在所述第三音频数据的基础上生成所述第一音频数据。
5.根据权利要求4所述的方法,其中,在所述获取第三音频数据之前,所述方法还包括:
根据接收到的第四音频数据,生成目标传输格式的第三音频数据,其中,所述第四音频数据的传输格式在预设传输格式集合中。
6.根据权利要求5所述的方法,其中,所述目标传输格式为脉冲编码调制格式;以及
所述根据接收到的第四音频数据,生成目标传输格式的第三音频数据,包括:
响应于接收到脉冲密度调制格式的第四音频数据,将所述第四音频数据导入到级联积分梳状滤波器,生成脉冲编码调制格式的第三音频数据。
7.根据权利要求4所述的方法,其中,所述根据所述初始采样率和所述第一目标采样率,在所述第三音频数据的基础上生成所述第一音频数据,包括:
利用异步采样率转换方式,对所述第三音频数据进行处理,生成所述第一音频数据。
8.一种用于处理音频数据的装置,包括:
第一获取单元,被配置成获取第一音频数据,其中,所述第一音频数据的采样率为第一目标采样率;
第一生成单元,被配置成基于预先生成的抗混叠滤波器,对第一音频数据进行处理,生成第二音频数据,其中,所述第二音频数据的采样率为第二目标采样率,所述第二目标采用率小于所述第一目标采样率;其中,
所述抗混叠滤波器通过以下方式生成:
将训练样本中的训练用语音数据输入初始抗混叠滤波器;
将初始抗混叠滤波器的输出输入训练用语音识别模型,并生成训练用语音识别结果;
基于训练用语音识别结果和训练样本中针对训练用语音数据的目标语音识别结果,调整所述初始抗混叠滤波器,生成所述抗混叠滤波器。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN201910593846.3A 2019-07-03 2019-07-03 用于处理音频数据的方法和装置 Active CN110288981B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910593846.3A CN110288981B (zh) 2019-07-03 2019-07-03 用于处理音频数据的方法和装置
US16/805,053 US11211051B2 (en) 2019-07-03 2020-02-28 Method and apparatus for processing audio data
JP2020035511A JP6946494B2 (ja) 2019-07-03 2020-03-03 オーディオデータを処理するための方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910593846.3A CN110288981B (zh) 2019-07-03 2019-07-03 用于处理音频数据的方法和装置

Publications (2)

Publication Number Publication Date
CN110288981A true CN110288981A (zh) 2019-09-27
CN110288981B CN110288981B (zh) 2020-11-06

Family

ID=68020471

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910593846.3A Active CN110288981B (zh) 2019-07-03 2019-07-03 用于处理音频数据的方法和装置

Country Status (3)

Country Link
US (1) US11211051B2 (zh)
JP (1) JP6946494B2 (zh)
CN (1) CN110288981B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899729A (zh) * 2020-08-17 2020-11-06 广州市百果园信息技术有限公司 一种语音模型的训练方法、装置、服务器和存储介质
CN112599141A (zh) * 2020-11-26 2021-04-02 北京百度网讯科技有限公司 神经网络声码器训练方法、装置、电子设备及存储介质
CN113205800A (zh) * 2021-04-22 2021-08-03 京东数字科技控股股份有限公司 音频识别方法、装置、计算机设备和存储介质
CN113689865A (zh) * 2021-08-24 2021-11-23 广东优碧胜科技有限公司 采样率切换方法、装置、电子设备以及语音系统
CN114363771A (zh) * 2022-01-17 2022-04-15 广州市奥威亚电子科技有限公司 音频处理装置及系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230055083A (ko) * 2021-10-18 2023-04-25 삼성전자주식회사 전자 장치, 단말 장치 및 그 제어 방법

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1236222A (zh) * 1998-05-15 1999-11-24 德国汤姆森-布兰特有限公司 用于音频信号采样率转换的方法和装置
CN1306352A (zh) * 2000-03-01 2001-08-01 深圳市中兴通讯股份有限公司 一种回声抵消功能的测试方法
JP3430133B2 (ja) * 2000-08-28 2003-07-28 シャープ株式会社 音声認識装置およびプログラム記録媒体
CN101820372A (zh) * 2010-03-17 2010-09-01 浙江大学 电源、数据信号、音频模拟信号时分复用的单总线通信系统
CN102903360A (zh) * 2011-07-26 2013-01-30 财团法人工业技术研究院 以麦克风阵列为基础的语音辨识系统与方法
CN203037739U (zh) * 2012-12-28 2013-07-03 南京工程学院 一种音频取证中电网频率的精确采集装置
CN103208287A (zh) * 2012-01-17 2013-07-17 通用汽车环球科技运作有限责任公司 使用声音相关的车辆信息以增强语音对话的方法和系统
CN103581081A (zh) * 2012-07-23 2014-02-12 中兴通讯股份有限公司 接收机及直流信息的校准方法
CN104737029A (zh) * 2012-08-06 2015-06-24 3期科技有限公司 用于监视具有周期性行为的电性连接系统的系统及方法
CN204594573U (zh) * 2015-03-31 2015-08-26 安徽工程大学 一种音频信号分析仪
US9236064B2 (en) * 2012-02-15 2016-01-12 Microsoft Technology Licensing, Llc Sample rate converter with automatic anti-aliasing filter
CN106353580A (zh) * 2016-09-21 2017-01-25 中车大连电力牵引研发中心有限公司 模拟量采集装置
CN206124669U (zh) * 2016-09-14 2017-04-26 北京汽车股份有限公司 汽车及其空调控制系统
CN106768284A (zh) * 2016-12-20 2017-05-31 西安科技大学 一种异常声源判断与定位系统及方法
CN206470552U (zh) * 2016-12-29 2017-09-05 江西飞尚科技有限公司 一种可配置抗混叠滤波器截止频率的设备
US20170270939A1 (en) * 2016-03-21 2017-09-21 Dolby International Ab Efficient Sample Rate Conversion
CN107359868A (zh) * 2016-05-10 2017-11-17 深圳市中兴微电子技术有限公司 脉冲密度调制转换电路及方法
CN206781702U (zh) * 2016-10-10 2017-12-22 长沙师范学院 一种基于量子神经网络的语音识别汽车防盗系统
CN108762331A (zh) * 2018-05-31 2018-11-06 华中科技大学 一种主动隔振控制器及其设计方法
CN109147808A (zh) * 2018-07-13 2019-01-04 南京工程学院 一种言语增强助听方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4776016A (en) * 1985-11-21 1988-10-04 Position Orientation Systems, Inc. Voice control system
US5058080A (en) * 1988-12-05 1991-10-15 Western Atlas International, Inc. Multiple transmission path seismic telemetering system
US5377302A (en) * 1992-09-01 1994-12-27 Monowave Corporation L.P. System for recognizing speech
US6873368B1 (en) * 1997-12-23 2005-03-29 Thomson Licensing Sa. Low noise encoding and decoding method
US6052412A (en) * 1998-10-30 2000-04-18 Tyco Electronics Corporation Codec supporting PCM modem communications over a universal digital loop carrier
FI19992350A (fi) * 1999-10-29 2001-04-30 Nokia Mobile Phones Ltd Parannettu puheentunnistus
US6792405B2 (en) * 1999-12-10 2004-09-14 At&T Corp. Bitstream-based feature extraction method for a front-end speech recognizer
US6868162B1 (en) * 2000-11-17 2005-03-15 Mackie Designs Inc. Method and apparatus for automatic volume control in an audio system
US20030004720A1 (en) * 2001-01-30 2003-01-02 Harinath Garudadri System and method for computing and transmitting parameters in a distributed voice recognition system
KR100631786B1 (ko) * 2005-02-18 2006-10-12 삼성전자주식회사 프레임의 신뢰도를 측정하여 음성을 인식하는 방법 및 장치
KR100679051B1 (ko) * 2005-12-14 2007-02-05 삼성전자주식회사 복수의 신뢰도 측정 알고리즘을 이용한 음성 인식 장치 및방법
KR101415534B1 (ko) * 2007-02-23 2014-07-07 삼성전자주식회사 다단계 음성인식장치 및 방법
GB2476041B (en) * 2009-12-08 2017-03-01 Skype Encoding and decoding speech signals
US8803724B2 (en) * 2010-07-20 2014-08-12 Kapik Inc. System and method for high speed analog to digital data acquistion
CN203037749U (zh) 2013-01-10 2013-07-03 徐健 雷电监测装置及系统
KR102151682B1 (ko) * 2016-03-23 2020-09-04 구글 엘엘씨 다중채널 음성 인식을 위한 적응성 오디오 강화

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1236222A (zh) * 1998-05-15 1999-11-24 德国汤姆森-布兰特有限公司 用于音频信号采样率转换的方法和装置
CN1306352A (zh) * 2000-03-01 2001-08-01 深圳市中兴通讯股份有限公司 一种回声抵消功能的测试方法
JP3430133B2 (ja) * 2000-08-28 2003-07-28 シャープ株式会社 音声認識装置およびプログラム記録媒体
CN101820372A (zh) * 2010-03-17 2010-09-01 浙江大学 电源、数据信号、音频模拟信号时分复用的单总线通信系统
CN102903360A (zh) * 2011-07-26 2013-01-30 财团法人工业技术研究院 以麦克风阵列为基础的语音辨识系统与方法
CN103208287A (zh) * 2012-01-17 2013-07-17 通用汽车环球科技运作有限责任公司 使用声音相关的车辆信息以增强语音对话的方法和系统
US9236064B2 (en) * 2012-02-15 2016-01-12 Microsoft Technology Licensing, Llc Sample rate converter with automatic anti-aliasing filter
CN103581081A (zh) * 2012-07-23 2014-02-12 中兴通讯股份有限公司 接收机及直流信息的校准方法
CN104737029A (zh) * 2012-08-06 2015-06-24 3期科技有限公司 用于监视具有周期性行为的电性连接系统的系统及方法
CN203037739U (zh) * 2012-12-28 2013-07-03 南京工程学院 一种音频取证中电网频率的精确采集装置
CN204594573U (zh) * 2015-03-31 2015-08-26 安徽工程大学 一种音频信号分析仪
US20170270939A1 (en) * 2016-03-21 2017-09-21 Dolby International Ab Efficient Sample Rate Conversion
CN107359868A (zh) * 2016-05-10 2017-11-17 深圳市中兴微电子技术有限公司 脉冲密度调制转换电路及方法
CN206124669U (zh) * 2016-09-14 2017-04-26 北京汽车股份有限公司 汽车及其空调控制系统
CN106353580A (zh) * 2016-09-21 2017-01-25 中车大连电力牵引研发中心有限公司 模拟量采集装置
CN206781702U (zh) * 2016-10-10 2017-12-22 长沙师范学院 一种基于量子神经网络的语音识别汽车防盗系统
CN106768284A (zh) * 2016-12-20 2017-05-31 西安科技大学 一种异常声源判断与定位系统及方法
CN206470552U (zh) * 2016-12-29 2017-09-05 江西飞尚科技有限公司 一种可配置抗混叠滤波器截止频率的设备
CN108762331A (zh) * 2018-05-31 2018-11-06 华中科技大学 一种主动隔振控制器及其设计方法
CN109147808A (zh) * 2018-07-13 2019-01-04 南京工程学院 一种言语增强助听方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
RIS CHRISTOPHE ET.AL: "Improve ASR performance on PDA by contamination of training data", 《9TH CONFERENCE SPEECH AND COMPUTER》 *
匡武 等: "光线干涉仪数字相位生成载波调节系统数据采集单元设计", 《中国激光》 *
李鲜 等: "PCM语音编解码系统中抗混叠滤波器的设计", 《中国集成电路》 *
计炜梁 等: "基于DSP的主动降噪系统设计与实现", 《微型机与应用》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899729A (zh) * 2020-08-17 2020-11-06 广州市百果园信息技术有限公司 一种语音模型的训练方法、装置、服务器和存储介质
CN111899729B (zh) * 2020-08-17 2023-11-21 广州市百果园信息技术有限公司 一种语音模型的训练方法、装置、服务器和存储介质
CN112599141A (zh) * 2020-11-26 2021-04-02 北京百度网讯科技有限公司 神经网络声码器训练方法、装置、电子设备及存储介质
CN112599141B (zh) * 2020-11-26 2022-02-25 北京百度网讯科技有限公司 神经网络声码器训练方法、装置、电子设备及存储介质
CN113205800A (zh) * 2021-04-22 2021-08-03 京东数字科技控股股份有限公司 音频识别方法、装置、计算机设备和存储介质
CN113205800B (zh) * 2021-04-22 2024-03-01 京东科技控股股份有限公司 音频识别方法、装置、计算机设备和存储介质
CN113689865A (zh) * 2021-08-24 2021-11-23 广东优碧胜科技有限公司 采样率切换方法、装置、电子设备以及语音系统
CN114363771A (zh) * 2022-01-17 2022-04-15 广州市奥威亚电子科技有限公司 音频处理装置及系统

Also Published As

Publication number Publication date
JP6946494B2 (ja) 2021-10-06
US20210005179A1 (en) 2021-01-07
US11211051B2 (en) 2021-12-28
CN110288981B (zh) 2020-11-06
JP2021012354A (ja) 2021-02-04

Similar Documents

Publication Publication Date Title
CN110288981A (zh) 用于处理音频数据的方法和装置
CN108182936B (zh) 语音信号生成方法和装置
JP2022529641A (ja) 音声処理方法、装置、電子機器及びコンピュータプログラム
CN109599113A (zh) 用于处理信息的方法和装置
CN107068161A (zh) 基于人工智能的语音降噪方法、装置和计算机设备
CN109817238A (zh) 音频信号采集装置、音频信号处理方法和装置
CN109545192A (zh) 用于生成模型的方法和装置
CN103189912A (zh) 声音处理设备和声音处理方法
CN109545193A (zh) 用于生成模型的方法和装置
CN110046254A (zh) 用于生成模型的方法和装置
CN105679331B (zh) 一种声气信号分离与合成的方法及系统
CN113823304A (zh) 语音信号的处理方法、装置、电子设备及可读存储介质
CN107342097A (zh) 录音方法、录音装置、智能终端及计算机可读存储介质
CN109961141A (zh) 用于生成量化神经网络的方法和装置
CN114792524B (zh) 音频数据处理方法、装置、程序产品、计算机设备和介质
CN109543068A (zh) 用于生成视频的评论信息的方法和装置
CN109840528A (zh) 提取图像的特征图的方法和装置
CN110138654A (zh) 用于处理语音的方法和装置
WO2017000772A1 (zh) 一种前端音频处理系统
CN109712637A (zh) 一种混响抑制系统及方法
CN108962226A (zh) 用于检测语音的端点的方法和装置
US11302308B2 (en) Synthetic narrowband data generation for narrowband automatic speech recognition systems
CN115113855B (zh) 音频数据处理方法、装置、电子设备、存储介质和产品
CN110288683A (zh) 用于生成信息的方法和装置
CN109816670A (zh) 用于生成图像分割模型的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant