CN111883173A - 基于神经网络的音频丢包修复方法、设备和系统 - Google Patents

基于神经网络的音频丢包修复方法、设备和系统 Download PDF

Info

Publication number
CN111883173A
CN111883173A CN202010200811.1A CN202010200811A CN111883173A CN 111883173 A CN111883173 A CN 111883173A CN 202010200811 A CN202010200811 A CN 202010200811A CN 111883173 A CN111883173 A CN 111883173A
Authority
CN
China
Prior art keywords
frames
frame
voice signal
observation window
repairing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010200811.1A
Other languages
English (en)
Other versions
CN111883173B (zh
Inventor
肖全之
闫玉凤
黄荣均
方桂萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Jieli Technology Co Ltd
Original Assignee
Zhuhai Jieli Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Jieli Technology Co Ltd filed Critical Zhuhai Jieli Technology Co Ltd
Priority to CN202010200811.1A priority Critical patent/CN111883173B/zh
Priority to PCT/CN2020/119603 priority patent/WO2021184732A1/zh
Priority to US17/911,733 priority patent/US20230245668A1/en
Publication of CN111883173A publication Critical patent/CN111883173A/zh
Application granted granted Critical
Publication of CN111883173B publication Critical patent/CN111883173B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/45Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Telephonic Communication Services (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种基于神经网络的音频丢包修复方法、设备和系统,其中,所述音频丢包修复方法包括:获取音频数据包,音频数据包包括若干帧音频数据帧,若干帧音频数据帧中至少包含多个语音信号帧;确定丢失的语音信号帧在若干帧音频数据帧中所处的位置得到丢帧的位置信息;所处的位置包括第一预设位置或第二预设位置;根据丢帧的位置信息选择用于修复丢帧情况的神经网络模型,神经网络模型包括第一修复模型和第二修复模型;将若干帧音频数据帧送入选择的神经网络模型,以对丢失的语音信号帧进行修复。能够适应选择修复模型,对丢失语音信号帧的修复更有针对性,继而,提高修复准确率。

Description

基于神经网络的音频丢包修复方法、设备和系统
技术领域
本发明涉及音频数据处理领域,具体涉及一种基于神经网络的音频丢包修复方法、设备和系统。
背景技术
随着影音设备、移动通信的普及,蓝牙技术的发展,人们越来越多地采用无线收发数据的方式来进行影音数据的无线传输,例如蓝牙音箱、蓝牙耳机、蓝牙鼠标、蓝牙键盘、蓝牙遥控器等越多的蓝牙产品出现在人们的生活中。
其中蓝牙音箱、蓝牙耳机主要应用了蓝牙通话及蓝牙音乐播放等功能,而蓝牙在传输这些音频的时候是将音频数据以一个数据包接一个数据包的形式通过主机(手机、电脑等)传输给蓝牙播放设备播放。在传输过程中,由于是无线传输往往会受到其它无线信号的干扰、或者由于障碍物或距离的原因、导致传输过程数据包的丢失,如果不对这些数据进行修复,那么在播放端就会出现不连续或者是杂音。特别是蓝牙通话模式下,丢失信号会直接影响电话通话的体验感受,严重时甚至影响沟通。因此需要对蓝牙丢包数据进行修复。
针对蓝牙丢包数据的修复,常见的传统修复方式有:
1.静音处理,对丢失的数据用静音数据替换,避免其它刺耳的杂音。这种静音处理方式,方法简单但性能有限,只能避免杂音但丢失的信号是没有恢复的。
2.波形替换,通过语音信号的基音周期或其它相关算法计算相关信号,用相似信号替换。其原理是基于语音短时平稳,可以用相似波形替换,但是现实语音信号也是存在元音、辅音切换、以及语速、语调的不停变化的,所以用相似信号替换很难恢复这种变化信号。另外语音信号能量也是在不停变化的,要较好的恢复出来也需要更多的额外处理,当信号丢失比较严重的时候,由于相似信号的重复使用,也会导致机器声的产生。
为了实现对丢失的音频数据包进行修复,现有技术中,常利用高级算法进行预测、修复,例如,采用神经网络学习音频数据帧与帧之间的非线性模型,而后,根据非线性模型在频域上重构丢失的数据,以此来获得当前丢失数据的时域估计;这种构建非线性模型的方式,通常利用当前音频数据帧之前已接收的音频数据帧来学习模型,由此,预测得到当前丢失的数据,也就是在时域上根据前面的帧来预测后面的音频数据帧。这种方式虽然能够预测、估计丢失的数据,从而对丢失的数据进行修复,但是,当之前的音频数据帧也存在丢包现象时,会导致神经网络学习的非线性模型不够精确,从而导致基于该模型无法准确地预测丢失的音频数据帧。
因此,如何利用新的神经网络模型来修复丢失的音频数据包,提高修复准确率成为亟待解决的技术问题。
发明内容
基于上述现状,本发明的主要目的在于提供一种基于神经网络的音频丢包修复方法、设备和系统,以修复丢失的音频数据包,提高修复准确率。
为实现上述目的,本发明采用的技术方案如下:
根据第一方面,本发明实施例公开了一种基于神经网络的音频数据丢包修复方法,包括:
步骤S101,获取音频数据包,音频数据包包括若干帧音频数据帧,若干帧音频数据帧中至少包含多个语音信号帧,语音信号帧为包含语音信号的音频数据帧;步骤S103,当若干帧音频数据帧中存在丢失语音信号帧的丢帧情况后,确定丢失的语音信号帧在若干帧音频数据帧中所处的位置得到丢帧的位置信息;所处的位置包括第一预设位置或第二预设位置;步骤S105,根据丢帧的位置信息选择用于修复丢帧情况的神经网络模型,神经网络模型包括第一修复模型和第二修复模型,其中,第一修复模型用于修复处于第一预设位置的语音信号帧,第二修复模型用于修复处于第二预设位置的语音信号帧;及步骤S107,将若干帧音频数据帧送入选择的神经网络模型,以对丢失的语音信号帧进行修复。
可选地,若干帧音频数据帧中还包括非语音信号帧;在步骤S101和步骤S103之间还包括:步骤S102,按预设算法区分若干帧音频数据帧中的语音信号帧和非语音信号帧;在步骤S103中,丢帧的位置信息为丢失的语音信号帧在语音信号帧组中所处的位置,语音信号组包括N帧语音信号帧,其中,N为大于或等于5的整数。
可选地,步骤S103包括:步骤S1031,通过观察窗在多个语音信号帧中顺序滑动,以对多个语音信号帧进行N帧一组的分组;步骤S1032,针对处于观察窗内的语音信号帧,确定是否存在丢帧的情况;及步骤S1033,当处于观察窗内的语音信号帧存在丢帧的情况后,确定丢失的语音信号帧在观察窗内的位置,以得到丢帧的位置信息;步骤S107包括:在观察窗内对丢失的语音信号帧进行修复。
可选地,在步骤S107之后,还包括:将恢复的语音信号帧更新至观察窗内对应的丢帧位置帧。
可选地,在步骤S1031中,采用迭代替换的滑动方式滑动观察窗,以使处于观察窗内的前K帧语音信号帧滑出观察窗,处于观察窗外的后K帧语音信号帧滑入观察窗内,其中,N为大于或等于1的整数。
可选地,K为1。
可选地,步骤S1033包括:确定丢失的语音信号帧在观察窗内的位置未包含处于观察窗内的最后一帧,并作为第一预设位置;步骤S105包括:将处于观察窗内的语音信号帧送入第一修复模型,以修复丢失的语音信号帧,其中,第一修复模型的输入数据中包括处于观察窗内的最后一帧。
可选地,步骤S1033包括:确定丢失的语音信号帧至少为2帧,丢帧的位置为处于观察窗内的最后一帧和处于观察窗内的其它位置帧,并作为第二预设位置;步骤S105包括:将处于观察窗内的、其它位置帧之前的语音信号帧送入第二修复模型,以修复位于其它位置帧的语音信号帧,其中,第二修复模型的输入数据为处于观察窗内的、其它位置帧之前的语音信号帧,且未包含处于观察窗内的最后一帧。
可选地,在步骤S102之后,还包括:对非语音信号帧的音频信号进行淡化包络处理。
根据第二方面,本发明实施例公开了一种基于神经网络的音频数据丢包修复装置,包括:数据获取模块,用于获取音频数据包,音频数据包包括若干帧音频数据帧,若干帧音频数据帧中至少包含多个语音信号帧,语音信号帧为包含语音信号的音频数据帧;位置确定模块,用于当若干帧音频数据帧中存在丢失语音信号帧的丢帧情况后,确定丢失的语音信号帧在若干帧音频数据帧中所处的位置得到丢帧的位置信息;所处的位置包括第一预设位置或第二预设位置;模型选择模块,用于根据丢帧的位置信息选择用于修复丢帧情况的神经网络模型,神经网络模型包括第一修复模型和第二修复模型,其中,第一修复模型用于修复处于第一预设位置的语音信号帧,第二修复模型用于修复处于第二预设位置的语音信号帧;及数据修复模块,用于将若干帧音频数据帧送入选择的神经网络模型,以对丢失的语音信号帧进行修复。
可选地,若干帧音频数据帧中还包括非语音信号帧;还包括:信号区分模块,用于按预设算法区分若干帧音频数据帧中的语音信号帧和非语音信号帧;丢帧的位置信息为丢失的语音信号帧在语音信号帧组中所处的位置,语音信号组包括N帧语音信号帧,其中,N为大于或等于5的整数。
可选地,位置确定模块包括:滑窗分组单元,用于通过观察窗在多个语音信号帧中顺序滑动,以对多个语音信号帧进行N帧一组的分组;丢帧确定单元,用于针对处于观察窗内的语音信号帧,确定是否存在丢帧的情况;及位置获取单元,用于当处于观察窗内的语音信号帧存在丢帧的情况后,确定丢失的语音信号帧在观察窗内的位置,以得到丢帧的位置信息;数据修复模块包括:在观察窗内对丢失的语音信号帧进行修复。
可选地,还包括:数据更新模块,用于将恢复的语音信号帧更新至观察窗内对应的丢帧位置帧。
可选地,滑窗分组单元采用迭代替换的滑动方式滑动观察窗,以使处于观察窗内的前K帧语音信号帧滑出观察窗,处于观察窗外的后K帧语音信号帧滑入观察窗内,其中,N为大于或等于1的整数。
可选地,K为1。
可选地,位置获取单元包括:确定丢失的语音信号帧在观察窗内的位置未包含处于观察窗内的最后一帧,并作为第一预设位置;模型选择模块包括:将处于观察窗内的语音信号帧送入第一修复模型,以修复丢失的语音信号帧,其中,第一修复模型的输入数据中包括处于观察窗内的最后一帧。
可选地,位置获取单元包括:确定丢失的语音信号帧至少为2帧,丢帧的位置为处于观察窗内的最后一帧和处于观察窗内的其它位置帧,并作为第二预设位置;模型选择模块包括:将处于观察窗内的、其它位置帧之前的语音信号帧送入第二修复模型,以修复位于其它位置帧的语音信号帧,其中,第二修复模型的输入数据为处于观察窗内的、其它位置帧之前的语音信号帧,且未包含处于观察窗内的最后一帧。
可选地,还包括:淡化包络模块,用于对非语音信号帧的音频信号进行淡化包络处理。
可选地,神经网络的模型包括第一修复模型和第二修复模型,神经网络训练装置包括:样本获取模块,用于获取待学习的语音信号样本数据,语音信号样本数据以N帧语音信号帧为一组,其中,N为大于或等于5的整数,语音信号帧为包含语音信号的音频数据帧;第一剔除模块,用于在每组N帧语音信号帧中剔除第一预设位置的语音信号帧得到第一输入样本;第二剔除模块,用于在每组N帧语音信号帧中剔除第二预设位置的语音信号帧得到第二输入样本,第一预设位置与第二预设位置的位置不同;及训练模块,用于将第一输入样本和第二输入样本分别输入至第一修复模型和第二修复模型,以分别训练第一修复模型和第二修复模型,第一修复模型用于修复处于第一预设位置的语音信号帧,第二修复模型用于修复处于第二预设位置的语音信号帧。
可选地,训练模块用于分别训练第一修复模型和第二修复模型包括:通过反复迭代训练第一修复模型和第二修复模型。
可选地,训练模块包括第一训练单元和/或第二训练单元,其中:第一训练单元用于反复迭代训练第一修复模型,包括:在第i次迭代后得到第i个语音信号帧,其中,i为正整数;判断第i个语音信号帧与被剔除的第一预设位置的语音信号帧之间的第一误差是否在预设范围内;如果第一误差在预设范围内,则输出第i次迭代所得到的模型参数,以固化第一修复模型;第二训练单元用于反复迭代训练第二修复模型,包括:在第j次迭代后得到第j个语音信号帧,其中,j为正整数;判断第j个语音信号帧与被剔除的第二预设位置的语音信号帧之间的第二误差是否在预设范围内;如果第二误差在预设范围内,则输出第j次迭代所得到的模型参数,以固化第二修复模型。
可选地,样本获取模块用于通过预设长度的观察窗对语音信号样本数据以N帧语音信号帧为一组;在观察窗内运行第一剔除模块、第二剔除模块和训练模块。
可选地,第一预设位置为处于观察窗内且未包含处于观察窗内的最后一帧;训练模块用于通过处于观察窗内的第一预设位置之前和之后的语音信号帧训练第一修复模型。
可选地,第一预设位置为非处于观察窗内的第一帧。
可选地,第二预设位置包括处于观察窗内的最后一帧;训练模块用于通过处于观察窗内的第一预设位置之前的语音信号帧训练第二修复模型。
根据第三方面,本发明实施例公开了一种音频设备,包括:处理器,用于实现上述第一方面任意公开的方法。
可选地,音频设备为具有音频播放功能的耳机、移动终端或智能穿戴设备。
根据第四方面,本发明实施例公开了一种音频信号交互系统,包括:第一设备和第二设备;第一设备将音频数据包发送给第二设备;第二设备用于实现上述第一方面任意公开的方法。
可选地,第一设备为移动终端,第二设备为耳机。
根据第五方面,本发明实施例公开了一种计算机可读存储介质,其上存储有计算机程序,存储介质中存储的计算机程序用于被执行实现上述第一方面任意公开的方法。
根据第六方面,本发明实施例公开了一种音频设备的芯片,其上具有集成电路,集成电路被设计成用于实现上述第一方面任意公开的方法。
依据本发明实施例公开的一种神经网络训练方法及音频丢包修复方法、设备和系统,获取的音频数据包包括若干帧音频数据帧,当若干帧音频数据帧中存在丢失语音信号帧的丢帧情况后,确定丢失的语音信号帧在若干帧音频数据帧中所处的位置得到丢帧的位置信息;而后,根据丢帧的位置信息选择用于修复丢帧情况的神经网络模型,将若干帧音频数据帧送入选择的神经网络模型,以对丢失的语音信号帧进行修复。由于第一修复模型和第二修复模型分别适用于修复不同丢帧位置的语音信号帧,因此,在确定丢失的语音信号帧所处的位置后,可以根据丢帧的位置选择对应的修复模型,相对于现有技术中,采用同样的修复模型来修复不同的丢帧情况,本发明实施例的方案能够适应选择修复模型,对丢失语音信号帧的修复更有针对性,继而,提高修复准确率。
作为可选的方案,按预设算法区分若干帧音频数据帧中的语音信号帧和非语音信号帧,丢帧的位置信息为丢失的语音信号帧在语音信号帧组中所处的位置,由此,可以实现针对语音信号帧的丢包数据进行修复,减少类非语音信号帧所带来的干扰,提高了修复准确率。
作为可选的方案,通过观察窗在多个语音信号帧中顺序滑动,将恢复的语音信号帧更新至观察窗内对应的丢帧位置帧,由此可以使得修复模型的输入数据是不缺失的,完善修复模型输入的参考数据,提高了修复的准确性。
作为可选的方案,采用迭代替换的滑动方式滑动观察窗,以使处于观察窗内的前K帧语音信号帧滑出观察窗,处于观察窗外的后K帧语音信号帧滑入观察窗内,可以保证神经网络输入数据的数量,相应地,处于观察窗内的前K帧语音信号帧滑出观察窗,可以减小系统输出数据的额外延时,也就是,能够及时地输出语音信号帧。
作为可选的方案,由于非语音信号帧所包含的有用信息较少,对非语音信号帧的音频信号进行淡化包络处理,可以提高数据处理效率,并且,由于非语音信号帧并未送入修复模型中,因此,可以减少神经网络对语音信号帧修复、训练的压力,提高修复的准确性。
本发明的其他有益效果,将在具体实施方式中通过具体技术特征和技术方案的介绍来阐述,本领域技术人员通过这些技术特征和技术方案的介绍,应能理解所述技术特征和技术方案带来的有益技术效果。
附图说明
以下将参照附图对根据本发明实施例进行描述。图中:
图1为本实施例公开的一种基于神经网络的音频数据丢包修复方法流程图;
图2为本实施例公开的一种通过观察窗确定丢帧位置的方法流程图;
图3为本实施例公开的一种滑窗分组修复的示例示意图;
图4为本实施例公开的一种用于音频丢包修复的神经网络训练方法流程图;
图5A和图5B为本实施例公开的一种剔除预设位置的示例示意图,其中,图5A为本实施例中剔除第一预设位置的示例示意图,图5B为本实施例中剔除第二预设位置的示例示意图;
图6为本实施例公开的一种基于神经网络的音频数据丢包修复装置结构示意图。
具体实施方式
为了利用新的神经网络模型来修复丢失的音频数据包,提高修复准确率,本实施例公开了一种基于神经网络的音频数据丢包修复方法,请参考图1,为本实施例公开的一种基于神经网络的音频数据丢包修复方法流程图,该音频数据丢包修复方法包括:
步骤S101,获取音频数据包。本实施例中,所称音频数据包包括若干帧音频数据帧,若干帧音频数据帧中至少包含多个语音信号帧,语音信号帧为包含语音信号的音频数据帧。具体地,若干帧音频信号帧中,可以存在一些帧是纯粹的语音信号;也可以存在一些帧是纯粹的噪声信号;还可以存在一些帧中既包含了语音信号,也包含了噪声信号,也就是,噪声信号和语音信号同时存在于同一帧中。在具体实施过程中,音频数据包具有包头信息,根据包头信息可以区分不同的音频数据帧序号。
步骤S103,当若干帧音频数据帧中存在丢失语音信号帧的丢帧情况后,确定丢失的语音信号帧在若干帧音频数据帧中所处的位置得到丢帧的位置信息。在具体实施例中,可以通过现有的方式来确定是否存在丢失语音信号帧的丢帧情况,例如,可以通过对语音信号帧的时频特征进行统计,根据统计量来估计缺失的特征,由此,可以确定是否丢失语音信号帧;当存在丢失语音信号帧的丢帧情况后,根据统计的结果可以确定语音信号帧所处的位置。所处的位置包括第一预设位置或第二预设位置,具体地,第一预设位置和第二预设位置的具体位置不同。本实施例中,所称位置信息可以采用帧号来表示,可以是丢失的语音信号帧在若干帧音频数据帧中的帧号,也可以是多个语音信号帧中的帧号,还可以是处于同一组语音信号帧内的帧号。
步骤S105,根据丢帧的位置信息选择用于修复丢帧情况的神经网络模型。本实施例中,神经网络模型包括第一修复模型和第二修复模型,第一修复模型和第二修复模型分别适用于修复不同丢帧位置的语音信号帧。本实施例中,区分了丢帧位置的情形,针对不同的丢帧位置,选择采用第一修复模型或第二修复模型对丢失的信号帧进行修复,使得在修复丢失的信号帧时,更具有针对性,提高修复准确率。
需要说明的是,在神经网络训练的过程中,可以用不同的输入样本对修复模型进行训练,从而,分别训练得到第一修复模型和第二修复模型的权值、参数,具体地,请参见下文描述。
步骤S107,将若干帧音频数据帧送入选择的神经网络模型,以对丢失的语音信号帧进行修复。在具体实施过程中,在选择第一修复模型或第二修复模型对丢失的语音信号帧进行修复得到相应的语音信号数据后,可以将修复得到的语音信号数据插入丢失的信号帧的位置,得到完整的语音信号,发送至音频输出设备播放语音信号。本实施例中,第一修复模型用于修复处于第一预设位置的语音信号帧,第二修复模型用于修复处于第二预设位置的语音信号帧,也就是,第一修复模型是采用剔除了第一预设位置的样本训练得到,第二修复模型是采用剔除了第二预设位置的样本训练得到。
若干帧音频数据帧中包括语音信号帧和非语音信号帧,为了筛选出语音信号帧,提高修复的针对性,在可选的实施例中,请参考图1,在步骤S101和步骤S103之间还包括:
步骤S102,按预设算法区分若干帧音频数据帧中的语音信号帧和非语音信号帧。本实施例中,并不限制具体的预设算法,可以是例如神经网络算法,也可以是其它的频谱分析法,只要能够区分语音信号帧和非语音信号帧即可。作为示例,在获取音频数据后,将获取的音频数据送入前置神经网络算法,通过前置神经网络算法来区分各帧音频数据帧是语音信号帧,还是非语音信号帧。
为了减少神经网络对语音信号帧修复、训练的压力,提高修复的准确性,在可选的实施例中,在步骤S102之后,还包括:对非语音信号帧的音频信号进行淡化包络处理。本实施例中,所称淡化包络处理可以是简单的复制替换或者简单淡入淡出。本实施例中,由于非语音信号帧所包含的有用信息较少,对非语音信号帧的音频信号进行淡化包络处理,可以提高数据处理效率,并且,由于非语音信号帧并未送入修复模型中,因此,可以减少神经网络对语音信号帧修复、训练的压力,提高修复的准确性。
在可选的实施例中,在步骤S103中,丢帧的位置信息为丢失的语音信号帧在语音信号帧组中所处的位置,语音信号组包括N帧语音信号帧,其中,N为大于或等于5的整数。具体地,当区分语音信号帧和非语音信号帧后,可以对语音信号帧进行分组,得到多组语音信号帧,每组语音信号帧中包含N帧语音信号帧,而后,确定丢失的语音信号帧在本组内的位置,例如在本组内的帧号。
在具体实施过程中,可以通过观察窗的方式来划分各个语音信号帧组,具体地,请参考图2,为本实施例公开的一种通过观察窗确定丢帧位置的方法流程图,该方法包括:
步骤S1031,通过观察窗在多个语音信号帧中顺序滑动。本实施例中,可以通过预设长度N的观察窗进行滑动,从而对多个语音信号帧进行N帧一组的分组,也就是,观察窗的长度也就是组内的语音信号帧的帧数。
步骤S1032,针对处于观察窗内的语音信号帧,确定是否存在丢帧的情况。具体地,当观察窗滑动包含N帧语音信号帧后,可以在观察窗内进行时频特征进行统计,根据统计量来估计缺失的特征,由此,可以确定观察窗内的语音信号帧是否丢失语音信号数据。
步骤S1033,当处于观察窗内的语音信号帧存在丢帧的情况后,确定丢失的语音信号帧在观察窗内的位置,以得到丢帧的位置信息。本实施例中,丢帧的位置信息是指丢失的语音信号帧在观察窗内的位置;本实施例中,所称观察窗内的位置可以是观察窗内的帧序号,也就是,丢失的语音信号帧在观察窗内处于第几帧。
本实施例中,在采用观察窗确定丢失信号帧的实施例中,也可以在观察窗内对丢失的语音信号帧进行修复,也就是步骤S107包括:在观察窗内对丢失的语音信号帧进行修复。
在可选的实施例中,在执行步骤S107之后,还可以包括:将恢复的语音信号帧更新至观察窗内对应的丢帧位置帧。具体地,在确定观察窗内的某一帧语音信号帧的数据丢失后,通过选择的修复模型修复该丢失的语音信号帧的数据,而后,再将修复后的数据更新至该丢失帧所在的位置。本实施例中,将修复后的数据更新至观察窗内对应的丢帧位置帧,可以完善观察窗内的语音信号帧数据,由此可以使得修复模型的输入数据是不缺失的,完善修复模型输入的参考数据,提高了修复的准确性。
为了保证神经网络输入数据的数量,减小系统输出数据的额外延时,在可选的实施例中,在执行步骤S1031时,可以采用迭代替换的滑动方式滑动观察窗,以使处于观察窗内的前K帧语音信号帧滑出观察窗,处于观察窗外的后K帧语音信号帧滑入观察窗内,其中,N为大于或等于1的整数,K的取值可以为1。
为便于本领域技术人员理解,作为示例,观察窗的预设长度示例性为7帧,也就是N=7,K的取值例如为1,请参考图3,为本实施例公开的一种滑窗分组修复的示例示意图,图3中,虚线框所示的为预设长度的观察窗,通过观察窗在语音信号帧进行滑窗分组修复的处理过程如下:
(1)在当前状态,观察窗内包含了编号1至7的语音信号帧,丢失的语音信号帧为第6帧,如图3的网格线框所示的位置;
(2)基于该丢帧的位置信息选择第一修复模型或第二修复模型作为修复的神经网络模型;
(3)将编号1-5、7输入至选择的神经网络模型,通过选择的神经网络模型修复得到第6帧的语音信号数据;
(4)将修复得到的语音信号数据更新至当前状态观察窗内第6帧的位置,如图3的网格线框所示的位置,从而,完善了当前状态观察窗内语音信号帧的数据;
(5)在修复后,将处于观察窗内的第1帧语音信号帧滑出观察窗,同时,处于观察窗外的后1帧语音信号帧滑入观察窗内;此时,进入了当前状态的下一个状态,此状态下,原编号2至7的语音信号帧顺次变为编号1-6(如图3的箭头线条所示),新滑入观察窗内的语音信号帧编号为7;
在当前状态的下一个状态,如果需要修复丢失的语音信号帧,由于原第6帧的位置(也就是此状态下的第5帧,如图3的斜线框所示的位置)的数据已经更新,因此,此状态下的第5帧的语音信号帧数据也可以作为修复模型的输入。
在具体实施例中,在执行步骤S1033时,确定丢失的语音信号帧未包含、包含观察窗内的最后一帧两种情形,具体地:
在一种实施例中,步骤S1033包括:确定丢失的语音信号帧在观察窗内的位置未包含处于观察窗内的最后一帧,也就是,处于观察窗内的最后一帧语音信号帧的数据没有丢失,丢失的是观察窗内中间段的信号帧,将该丢失的中间段的信号帧所在位置作为第一预设位置。此时,在执行步骤S105时,步骤S105包括:将处于观察窗内的语音信号帧送入第一修复模型,以修复丢失的语音信号帧,其中,第一修复模型的输入数据中包括处于观察窗内的最后一帧。具体地,也就是将观察窗内丢失的语音信号帧之前、之后的语音信号帧送入第一修复模型,第一修复模型根据丢失的语音信号帧之前、之后的语音信号帧来修复丢失的语音信号帧。作为示例,假设观察窗内丢失的数据是第6帧,则将编号1-5的语音信号帧及第7帧输入第一修复模型,第一修复模型根据编号1-5、7的语音信号帧来修复第6帧语音信号帧。
在另一种实施例中,步骤S1033包括:确定丢失的语音信号帧至少为2帧,丢帧的位置为处于观察窗内的最后一帧和处于观察窗内的其它位置帧,该丢帧的其它位置作为第二预设位置。此时,在执行步骤S105时,步骤S105包括:将处于观察窗内的、其它位置帧之前的语音信号帧送入第二修复模型,以修复位于其它位置帧的语音信号帧,其中,第二修复模型的输入数据为处于观察窗内的、其它位置帧之前的语音信号帧,且未包含处于观察窗内的最后一帧。具体地,也就是将观察窗内丢失的语音信号帧之前的语音信号帧送入第二修复模型,第二修复模型根据丢失的语音信号帧之前的语音信号帧来修复丢失的语音信号帧。作为示例,假设观察窗内丢失的数据是第6帧和最后一帧第7帧,则将编号1-5的语音信号帧输入第二修复模型,第二修复模型根据编号1-5的语音信号帧来修复第6帧语音信号帧,当然,在一些实施例中,也可以同步修复观察窗内最后一帧第7帧的语音信号数据。
为便于本领域技术人员理解,本实施例还公开了一种用于音频丢包修复的神经网络训练方法,本实施例中,完成训练后的神经网络模型适用于上述的丢包修复方法,其中,神经网络的模型包括第一修复模型和第二修复模型,请参考图4,为本实施例公开的一种用于音频丢包修复的神经网络训练方法流程图,该神经网络训练方法包括:
步骤S201,获取待学习的语音信号样本数据。本实施例中,所称语音信号样本数据以N帧语音信号帧为一组,其中,N为大于或等于5的整数,语音信号帧为包含语音信号的音频数据帧。在具体实施过程中,可以直接获取已经划分组的语音信号帧作为语音信号样本数据,也可以获取语音信号样本数据后,再对语音信号样本数据进行以N帧语音信号帧为一组的分组。
步骤S203,在每组N帧语音信号帧中剔除第一预设位置的语音信号帧得到第一输入样本。本实施例中,所称第一预设位置是指在组内的位置,具体地,可以以组内的语音信号帧序号来表示第一预设位置。
步骤S205,在每组N帧语音信号帧中剔除第二预设位置的语音信号帧得到第二输入样本。本实施例中,所称第二预设位置是指在组内的位置,具体地,可以以组内的语音信号帧序号来表示第二预设位置。本实施例中,第一预设位置与第二预设位置的位置不同。
步骤S207,将第一输入样本和第二输入样本分别输入至第一修复模型和第二修复模型,以分别训练第一修复模型和第二修复模型。本实施例中,第一修复模型和第二修复模型分别适用于修复不同丢帧位置的语音信号帧。需要说明的是,本实施例中,并不限制第一修复模型和第二修复模型的训练先后顺序,第一修复模型和第二修复模型可以分开单独训练,也可以在同一PC端同步训练。
在具体实施过程中,可以采用例如反复迭代的方式来分别训练第一修复模型和/或第二修复模型,当然,也可以采用其它的方式来分别训练第一修复模型和第二修复模型,得到第一修复模型和第二修复模型的模型参数,例如权值、系数等;而后,可以将第一修复模型和第二修复模型存储至存储设备,以便在修复丢失的语音信号帧时,可以直接调用相关的修复模型。
在具体实施过程中,应当采用与上述丢包修复方法相同的分组方式来对样本进行分组,具体地,步骤S201包括:通过预设长度的观察窗对语音信号样本数据以N帧语音信号帧为一组,也就是,长度为N帧的观察窗在语音信号样本数据滑动,从而,将语音信号样本数据划分为N一组;而后,在观察窗内执行步骤S203、步骤S205和步骤S207。
在具体实施例中,在执行步骤S203时,第一预设位置为处于观察窗内且未包含处于观察窗内的最后一帧;通过处于观察窗内的第一预设位置之前和之后的语音信号帧训练第一修复模型。也就是,处于观察窗内的最后一帧语音信号帧的数据没有剔除,剔除的是观察窗内中间段的信号帧。此时,在执行步骤S203时,将处于观察窗内的语音信号帧送入第一修复模型,以训练第一修复模型,即,训练第一修复模型的第一输入样本中包括处于观察窗内的最后一帧。具体地,也就是将观察窗内剔除的语音信号帧之前、之后的语音信号帧送入第一修复模型,第一修复模型根据剔除的语音信号帧之前、之后的语音信号帧来训练得到剔除的语音信号帧。请参考图5A,为本实施例中剔除第一预设位置的示例示意图,图5A中,虚线框为预设长度的观察窗,假设N=7,该观察窗内包含了编号1-7的语音信号帧,假设观察窗内剔除的数据是第6帧,则将编号1-5的语音信号帧及第7帧作为第一输入样本,而后将第一输入样本输入第一修复模型,第一修复模型根据编号1-5、7的语音信号帧来迭代训练得到第6帧语音信号帧。
在可选的实施例中,第一预设位置为非处于观察窗内的第一帧。作为优选的实施例,根据上述实施例的记载,考虑到是采用滑窗的方式来修复丢失的语音信号帧,当丢失的数据被修复后,观察窗内的数据可以更新完善,因此,在优选的实施例中,第一预设位置可以优选为观察窗内靠后的位置,例如第N-1帧。
在具体实施例中,在执行步骤S203时,第二预设位置为处于观察窗内的最后一帧;通过处于观察窗内的第二预设位置之前的语音信号帧训练第二修复模型。也就是,处于观察窗内的最后一帧语音信号帧的数据被剔除。此时,在执行步骤S203时,将处于观察窗内的语音信号帧送入第二修复模型,以训练第二修复模型。具体地,也就是将观察窗内剔除的语音信号帧(第二预设位置)之前的语音信号帧送入第二修复模型,第二修复模型根据剔除的语音信号帧之前的语音信号帧来训练得到剔除的语音信号帧,亦即,通过前向预测的方式来训练得到第二预设位置的语音信号帧。请参考图5B,为本实施例中剔除第二预设位置的示例示意图,图5B中,虚线框为预设长度的观察窗,假设N=6,该观察窗内包含了编号1-6的语音信号帧,假设观察窗内剔除的数据是第6帧,则将编号6之前的编号1-5的语音信号帧作为第二输入样本,而后将第二输入样本输入第二修复模型,第二修复模型根据编号1-5的语音信号帧来迭代训练得到第6帧语音信号帧。
本实施例还公开了一种基于神经网络的音频数据丢包修复装置,请参考图6,为本实施例公开的一种基于神经网络的音频数据丢包修复装置结构示意图,该音频数据丢包修复装置包括:数据获取模块701、位置确定模块702、模型选择模块703和数据修复模块704,其中:
数据获取模块701用于获取音频数据包,音频数据包包括若干帧音频数据帧,若干帧音频数据帧中至少包含多个语音信号帧,语音信号帧为包含语音信号的音频数据帧;位置确定模块702用于当若干帧音频数据帧中存在丢失语音信号帧的丢帧情况后,确定丢失的语音信号帧在若干帧音频数据帧中所处的位置得到丢帧的位置信息;模型选择模块703用于根据丢帧的位置信息选择用于修复丢帧情况的神经网络模型,神经网络模型包括第一修复模型和第二修复模型,第一修复模型和第二修复模型分别适用于修复不同丢帧位置的语音信号帧;数据修复模块704用于将若干帧音频数据帧送入选择的神经网络模型,以对丢失的语音信号帧进行修复。
在可选的实施例中,若干帧音频数据帧中还包括非语音信号帧;该音频数据丢包修复装置还包括:信号区分模块,用于按预设算法区分若干帧音频数据帧中的语音信号帧和非语音信号帧;丢帧的位置信息为丢失的语音信号帧在语音信号帧组中所处的位置,语音信号组包括N帧语音信号帧,其中,N为大于或等于5的整数。
在可选的实施例中,位置确定模块包括:滑窗分组单元,用于通过观察窗在多个语音信号帧中顺序滑动,以对多个语音信号帧进行N帧一组的分组;丢帧确定单元,用于针对处于观察窗内的语音信号帧,确定是否存在丢帧的情况;及位置获取单元,用于当处于观察窗内的语音信号帧存在丢帧的情况后,确定丢失的语音信号帧在观察窗内的位置,以得到丢帧的位置信息;数据修复模块包括:在观察窗内对丢失的语音信号帧进行修复。
在可选的实施例中,音频数据丢包修复装置还包括:数据更新模块,用于将恢复的语音信号帧更新至观察窗内对应的丢帧位置帧。
在可选的实施例中,滑窗分组单元采用迭代替换的滑动方式滑动观察窗,以使处于观察窗内的前K帧语音信号帧滑出观察窗,处于观察窗外的后K帧语音信号帧滑入观察窗内,其中,N为大于或等于1的整数。
在可选的实施例中,K为1。
在可选的实施例中,位置获取单元包括:确定丢失的语音信号帧在观察窗内的位置未包含处于观察窗内的最后一帧;模型选择模块包括:将处于观察窗内的语音信号帧送入第一修复模型,以修复丢失的语音信号帧,其中,第一修复模型的输入数据中包括处于观察窗内的最后一帧。
在可选的实施例中,位置获取单元包括:确定丢失的语音信号帧至少为2帧,丢帧的位置为处于观察窗内的最后一帧和处于观察窗内的其它位置帧;模型选择模块包括:将处于观察窗内的、其它位置帧之前的语音信号帧送入第二修复模型,以修复位于其它位置帧的语音信号帧,其中,第二修复模型的输入数据为处于观察窗内的、其它位置帧之前的语音信号帧,且未包含处于观察窗内的最后一帧。
在可选的实施例中,音频数据丢包修复装置还包括:淡化包络模块,用于对非语音信号帧的音频信号进行淡化包络处理。
本实施例还公开了一种音频设备,音频设备为具有音频数据采集功能的设备,具体地,音频设备可以是例如耳机、移动终端或智能穿戴设备,该音频设备包括:处理器,用于实现上述任意实施例公开的基于神经网络的音频数据丢包修复方法。
本实施例还公开了一种音频信号交互系统,包括:第一设备和第二设备;
第一设备将音频数据包发送给第二设备;第二设备用于实现上述任意实施例公开的基于神经网络的音频数据丢包修复方法。
在可选的实施例中,第一设备为移动终端,第二设备为耳机。移动终端可以是平板电脑、手机、笔记本电脑等具有数据处理功能的终端。
本实施例还公开了一种计算机可读存储介质,其上存储有计算机程序,存储介质中存储的计算机程序用于被执行实现上述任意实施例公开的基于神经网络的音频数据丢包修复方法。
依据本实施例公开的一种基于神经网络的音频丢包修复方法、设备和系统,获取的音频数据包包括若干帧音频数据帧,当若干帧音频数据帧中存在丢失语音信号帧的丢帧情况后,确定丢失的语音信号帧在若干帧音频数据帧中所处的位置得到丢帧的位置信息;而后,根据丢帧的位置信息选择用于修复丢帧情况的神经网络模型,将若干帧音频数据帧送入选择的神经网络模型,以对丢失的语音信号帧进行修复。由于第一修复模型和第二修复模型分别适用于修复不同丢帧位置的语音信号帧,因此,在确定丢失的语音信号帧所处的位置后,可以根据丢帧的位置选择对应的修复模型,相对于现有技术中,采用同样的修复模型来修复不同的丢帧情况,本发明实施例的方案能够适应选择修复模型,对丢失语音信号帧的修复更有针对性,继而,提高修复准确率。
作为可选的实施例,按预设算法区分若干帧音频数据帧中的语音信号帧和非语音信号帧,丢帧的位置信息为丢失的语音信号帧在语音信号帧组中所处的位置,由此,可以实现针对语音信号帧的丢包数据进行修复,减少类非语音信号帧所带来的干扰,提高了修复准确率。
作为可选的实施例,通过观察窗在多个语音信号帧中顺序滑动,将恢复的语音信号帧更新至观察窗内对应的丢帧位置帧,由此可以使得修复模型的输入数据是不缺失的,完善修复模型输入的参考数据,提高了修复的准确性。
作为可选的实施例,采用迭代替换的滑动方式滑动观察窗,以使处于观察窗内的前K帧语音信号帧滑出观察窗,处于观察窗外的后K帧语音信号帧滑入观察窗内,可以保证神经网络输入数据的数量,相应地,处于观察窗内的前K帧语音信号帧滑出观察窗,可以减小系统输出数据的额外延时,也就是,能够及时地输出语音信号帧。
作为可选的实施例,由于非语音信号帧所包含的有用信息较少,对非语音信号帧的音频信号进行淡化包络处理,可以提高数据处理效率,并且,由于非语音信号帧并未送入修复模型中,因此,可以减少神经网络对语音信号帧修复、训练的压力,提高修复的准确性。
本领域的技术人员能够理解的是,在不冲突的前提下,上述各优选方案可以自由地组合、叠加。
应当理解,上述的实施方式仅是示例性的,而非限制性的,在不偏离本发明的基本原理的情况下,本领域的技术人员可以针对上述细节做出的各种明显的或等同的修改或替换,都将包含于本发明的权利要求范围内。

Claims (24)

1.一种基于神经网络的音频数据丢包修复方法,其特征在于,包括:
步骤S101,获取音频数据包,所述音频数据包包括若干帧音频数据帧,所述若干帧音频数据帧中至少包含多个语音信号帧,所述语音信号帧为包含语音信号的音频数据帧;
步骤S103,当所述若干帧音频数据帧中存在丢失语音信号帧的丢帧情况后,确定丢失的语音信号帧在所述若干帧音频数据帧中所处的位置得到丢帧的位置信息;所述所处的位置包括第一预设位置或第二预设位置;
步骤S105,根据所述丢帧的位置信息选择用于修复丢帧情况的神经网络模型,所述神经网络模型包括第一修复模型和第二修复模型,其中,所述第一修复模型用于修复处于第一预设位置的语音信号帧,所述第二修复模型用于修复处于第二预设位置的语音信号帧;及
步骤S107,将所述若干帧音频数据帧送入选择的神经网络模型,以对丢失的语音信号帧进行修复。
2.如权利要求1所述的音频数据丢包修复方法,其特征在于,所述若干帧音频数据帧中还包括非语音信号帧;在所述步骤S101和步骤S103之间还包括:
步骤S102,按预设算法区分所述若干帧音频数据帧中的语音信号帧和非语音信号帧;
在所述步骤S103中,所述丢帧的位置信息为丢失的语音信号帧在语音信号帧组中所处的位置,所述语音信号组包括N帧语音信号帧,其中,N为大于或等于5的整数。
3.如权利要求2所述的音频数据丢包修复方法,其特征在于,所述步骤S103包括:
步骤S1031,通过观察窗在所述多个语音信号帧中顺序滑动,以对所述多个语音信号帧进行N帧一组的分组;
步骤S1032,针对处于所述观察窗内的语音信号帧,确定是否存在丢帧的情况;及
步骤S1033,当处于所述观察窗内的语音信号帧存在丢帧的情况后,确定丢失的语音信号帧在所述观察窗内的位置,以得到所述丢帧的位置信息;
所述步骤S107包括:在所述观察窗内对丢失的语音信号帧进行修复。
4.如权利要求3所述的音频数据丢包修复方法,其特征在于,在所述步骤S107之后,还包括:
将恢复的语音信号帧更新至所述观察窗内对应的丢帧位置帧。
5.如权利要求3所述的音频数据丢包修复方法,其特征在于,在所述步骤S1031中,采用迭代替换的滑动方式滑动所述观察窗,以使处于所述观察窗内的前K帧语音信号帧滑出所述观察窗,处于所述观察窗外的后K帧语音信号帧滑入所述观察窗内,其中,所述N为大于或等于1的整数。
6.如权利要求5所述的音频数据丢包修复方法,其特征在于,所述K为1。
7.如权利要求3-6任意一项所述的音频数据丢包修复方法,其特征在于,所述步骤S1033包括:确定丢失的语音信号帧在所述观察窗内的位置未包含处于所述观察窗内的最后一帧,并作为所述第一预设位置;
所述步骤S105包括:将处于所述观察窗内的语音信号帧送入所述第一修复模型,以修复丢失的语音信号帧,其中,所述第一修复模型的输入数据中包括处于所述观察窗内的最后一帧。
8.如权利要求3-7任意一项所述的音频数据丢包修复方法,其特征在于,所述步骤S1033包括:确定丢失的语音信号帧至少为2帧,所述丢帧的位置为处于所述观察窗内的最后一帧和处于所述观察窗内的其它位置帧,并作为所述第二预设位置;
所述步骤S105包括:将处于所述观察窗内的、所述其它位置帧之前的语音信号帧送入所述第二修复模型,以修复位于所述其它位置帧的语音信号帧,其中,所述第二修复模型的输入数据为处于所述观察窗内的、所述其它位置帧之前的语音信号帧,且未包含处于所述观察窗内的最后一帧。
9.如权利要求2-6任意一项所述的音频数据丢包修复方法,其特征在于,在所述步骤S102之后,还包括:
对所述非语音信号帧的音频信号进行淡化包络处理。
10.一种基于神经网络的音频数据丢包修复装置,其特征在于,包括:
数据获取模块,用于获取音频数据包,所述音频数据包包括若干帧音频数据帧,所述若干帧音频数据帧中至少包含多个语音信号帧,所述语音信号帧为包含语音信号的音频数据帧;
位置确定模块,用于当所述若干帧音频数据帧中存在丢失语音信号帧的丢帧情况后,确定丢失的语音信号帧在所述若干帧音频数据帧中所处的位置得到丢帧的位置信息;所述所处的位置包括第一预设位置或第二预设位置;
模型选择模块,用于根据所述丢帧的位置信息选择用于修复丢帧情况的神经网络模型,所述神经网络模型包括第一修复模型和第二修复模型,其中,所述第一修复模型用于修复处于第一预设位置的语音信号帧,所述第二修复模型用于修复处于第二预设位置的语音信号帧;及
数据修复模块,用于将所述若干帧音频数据帧送入选择的神经网络模型,以对丢失的语音信号帧进行修复。
11.如权利要求10所述的音频数据丢包修复装置,其特征在于,所述若干帧音频数据帧中还包括非语音信号帧;还包括:
信号区分模块,用于按预设算法区分所述若干帧音频数据帧中的语音信号帧和非语音信号帧;
所述丢帧的位置信息为丢失的语音信号帧在语音信号帧组中所处的位置,所述语音信号组包括N帧语音信号帧,其中,N为大于或等于5的整数。
12.如权利要求11所述的音频数据丢包修复装置,其特征在于,所述位置确定模块包括:
滑窗分组单元,用于通过观察窗在所述多个语音信号帧中顺序滑动,以对所述多个语音信号帧进行N帧一组的分组;
丢帧确定单元,用于针对处于所述观察窗内的语音信号帧,确定是否存在丢帧的情况;及
位置获取单元,用于当处于所述观察窗内的语音信号帧存在丢帧的情况后,确定丢失的语音信号帧在所述观察窗内的位置,以得到所述丢帧的位置信息;
所述数据修复模块包括:在所述观察窗内对丢失的语音信号帧进行修复。
13.如权利要求12所述的音频数据丢包修复装置,其特征在于,还包括:
数据更新模块,用于将恢复的语音信号帧更新至所述观察窗内对应的丢帧位置帧。
14.如权利要求12所述的音频数据丢包修复装置,其特征在于,所述滑窗分组单元采用迭代替换的滑动方式滑动所述观察窗,以使处于所述观察窗内的前K帧语音信号帧滑出所述观察窗,处于所述观察窗外的后K帧语音信号帧滑入所述观察窗内,其中,所述N为大于或等于1的整数。
15.如权利要求14所述的音频数据丢包修复装置,其特征在于,所述K为1。
16.如权利要求12-15任意一项所述的音频数据丢包修复装置,其特征在于,所述位置获取单元包括:确定丢失的语音信号帧在所述观察窗内的位置未包含处于所述观察窗内的最后一帧,并作为所述第一预设位置;
所述模型选择模块包括:将处于所述观察窗内的语音信号帧送入所述第一修复模型,以修复丢失的语音信号帧,其中,所述第一修复模型的输入数据中包括处于所述观察窗内的最后一帧。
17.如权利要求12-15任意一项所述的音频数据丢包修复装置,其特征在于,所述位置获取单元包括:确定丢失的语音信号帧至少为2帧,所述丢帧的位置为处于所述观察窗内的最后一帧和处于所述观察窗内的其它位置帧,并作为所述第二预设位置;
所述模型选择模块包括:将处于所述观察窗内的、所述其它位置帧之前的语音信号帧送入所述第二修复模型,以修复位于所述其它位置帧的语音信号帧,其中,所述第二修复模型的输入数据为处于所述观察窗内的、所述其它位置帧之前的语音信号帧,且未包含处于所述观察窗内的最后一帧。
18.如权利要求11-15任意一项所述的音频数据丢包修复装置,其特征在于,还包括:
淡化包络模块,用于对所述非语音信号帧的音频信号进行淡化包络处理。
19.一种音频设备,其特征在于,包括:
处理器,用于实现如权利要求1-9任意一项所述的方法。
20.如权利要求19所述的音频设备,其特征在于,所述音频设备为具有音频播放功能的耳机、移动终端或智能穿戴设备。
21.一种音频信号交互系统,其特征在于,包括:第一设备和第二设备;
所述第一设备将音频数据包发送给所述第二设备;
所述第二设备用于实现如权利要求1-9任意一项所述的方法。
22.如权利要求21所述的音频信号交互系统,其特征在于,所述第一设备为移动终端,所述第二设备为耳机。
23.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,存储介质中存储的计算机程序用于被执行实现如权利要求1-9任意一项所述的方法。
24.一种音频设备的芯片,其上具有集成电路,其特征在于,所述集成电路被设计成用于实现如权利要求1-9任意一项所述的方法。
CN202010200811.1A 2020-03-20 2020-03-20 基于神经网络的音频丢包修复方法、设备和系统 Active CN111883173B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010200811.1A CN111883173B (zh) 2020-03-20 2020-03-20 基于神经网络的音频丢包修复方法、设备和系统
PCT/CN2020/119603 WO2021184732A1 (zh) 2020-03-20 2020-09-30 基于神经网络的音频丢包修复方法、设备和系统
US17/911,733 US20230245668A1 (en) 2020-03-20 2020-09-30 Neural network-based audio packet loss restoration method and apparatus, and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010200811.1A CN111883173B (zh) 2020-03-20 2020-03-20 基于神经网络的音频丢包修复方法、设备和系统

Publications (2)

Publication Number Publication Date
CN111883173A true CN111883173A (zh) 2020-11-03
CN111883173B CN111883173B (zh) 2023-09-12

Family

ID=73154241

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010200811.1A Active CN111883173B (zh) 2020-03-20 2020-03-20 基于神经网络的音频丢包修复方法、设备和系统

Country Status (3)

Country Link
US (1) US20230245668A1 (zh)
CN (1) CN111883173B (zh)
WO (1) WO2021184732A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023236961A1 (zh) * 2022-06-08 2023-12-14 维沃移动通信有限公司 音频信号恢复方法、装置、电子设备及介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140019142A1 (en) * 2012-07-10 2014-01-16 Motorola Mobility Llc Apparatus and method for audio frame loss recovery
US20140088974A1 (en) * 2012-09-26 2014-03-27 Motorola Mobility Llc Apparatus and method for audio frame loss recovery
CN103714821A (zh) * 2012-09-28 2014-04-09 杜比实验室特许公司 基于位置的混合域数据包丢失隐藏
CN108831490A (zh) * 2013-02-05 2018-11-16 瑞典爱立信有限公司 用于对音频帧丢失隐藏进行控制的方法和设备
CN109218083A (zh) * 2018-08-27 2019-01-15 广州爱拍网络科技有限公司 一种语音数据传输方法及装置
CN109637540A (zh) * 2019-02-28 2019-04-16 北京百度网讯科技有限公司 智能语音设备的蓝牙评测方法、装置、设备及介质
CN110534120A (zh) * 2019-08-31 2019-12-03 刘秀萍 一种移动网络环境下的环绕声误码修复方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108111702B (zh) * 2017-12-07 2020-07-07 杭州闪目科技有限公司 一种对voip系统语音包丢失自动补偿的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140019142A1 (en) * 2012-07-10 2014-01-16 Motorola Mobility Llc Apparatus and method for audio frame loss recovery
US20140088974A1 (en) * 2012-09-26 2014-03-27 Motorola Mobility Llc Apparatus and method for audio frame loss recovery
CN103714821A (zh) * 2012-09-28 2014-04-09 杜比实验室特许公司 基于位置的混合域数据包丢失隐藏
CN108831490A (zh) * 2013-02-05 2018-11-16 瑞典爱立信有限公司 用于对音频帧丢失隐藏进行控制的方法和设备
CN109218083A (zh) * 2018-08-27 2019-01-15 广州爱拍网络科技有限公司 一种语音数据传输方法及装置
CN109637540A (zh) * 2019-02-28 2019-04-16 北京百度网讯科技有限公司 智能语音设备的蓝牙评测方法、装置、设备及介质
CN110534120A (zh) * 2019-08-31 2019-12-03 刘秀萍 一种移动网络环境下的环绕声误码修复方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023236961A1 (zh) * 2022-06-08 2023-12-14 维沃移动通信有限公司 音频信号恢复方法、装置、电子设备及介质

Also Published As

Publication number Publication date
WO2021184732A1 (zh) 2021-09-23
US20230245668A1 (en) 2023-08-03
CN111883173B (zh) 2023-09-12

Similar Documents

Publication Publication Date Title
CN110600017B (zh) 语音处理模型的训练方法、语音识别方法、系统及装置
CN104347067B (zh) 一种音频信号分类方法和装置
CN111031448B (zh) 回声消除方法、装置、电子设备和存储介质
KR20160023767A (ko) 스피치 신호 품질을 측정하기 위한 시스템들 및 방법들
CN113612808B (zh) 音频处理方法、相关设备、存储介质及程序产品
CN111048061B (zh) 回声消除滤波器的步长获取方法、装置及设备
CN113823323B (zh) 一种基于卷积神经网络的音频处理方法、装置及相关设备
CN111142066A (zh) 波达方向估计方法、服务器以及计算机可读存储介质
CN105190751A (zh) 键盘输入检测和抑制
KR20210153677A (ko) 심층 필터를 결정하기 위한 방법 및 장치
CN111883173B (zh) 基于神经网络的音频丢包修复方法、设备和系统
Yamashita et al. Improving the Naturalness of Simulated Conversations for End-to-End Neural Diarization.
CN114792524A (zh) 音频数据处理方法、装置、程序产品、计算机设备和介质
CN110895930B (zh) 语音识别方法及装置
JP2001520764A (ja) スピーチ分析システム
CN112735466A (zh) 一种音频检测方法及装置
CN111883172B (zh) 用于音频丢包修复的神经网络训练方法、装置和系统
CN111103568A (zh) 一种声源定位方法、装置、介质和设备
CN114743571A (zh) 一种音频处理方法、装置、存储介质及电子设备
CN111951786A (zh) 声音识别模型的训练方法、装置、终端设备及介质
CN111179966A (zh) 一种语音分析的方法、装置、电子设备和存储介质
CN111462771B (zh) 一种啸叫处理方法
CN113257284B (zh) 语音活动检测模型训练、语音活动检测方法及相关装置
CN113382119B (zh) 消除回声的方法、装置、可读介质和电子设备
CN112447169B (zh) 一种词边界估计方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 519075 No. 333, Kexing Road, Xiangzhou District, Zhuhai City, Guangdong Province

Applicant after: ZHUHAI JIELI TECHNOLOGY Co.,Ltd.

Address before: 519085 Complex Building 9 (1-4 floors), No. 107, Shihua West Road, Jida, Zhuhai, Guangdong

Applicant before: ZHUHAI JIELI TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant