CN113835065A - 基于深度学习的声源方向确定方法、装置、设备及介质 - Google Patents

基于深度学习的声源方向确定方法、装置、设备及介质 Download PDF

Info

Publication number
CN113835065A
CN113835065A CN202111023884.9A CN202111023884A CN113835065A CN 113835065 A CN113835065 A CN 113835065A CN 202111023884 A CN202111023884 A CN 202111023884A CN 113835065 A CN113835065 A CN 113835065A
Authority
CN
China
Prior art keywords
information
sound source
target mixed
neural network
deep learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111023884.9A
Other languages
English (en)
Other versions
CN113835065B (zh
Inventor
陈文明
陈新磊
张洁
张世明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Emeet Technology Co ltd
Original Assignee
Shenzhen Emeet Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Emeet Technology Co ltd filed Critical Shenzhen Emeet Technology Co ltd
Priority to CN202111023884.9A priority Critical patent/CN113835065B/zh
Publication of CN113835065A publication Critical patent/CN113835065A/zh
Application granted granted Critical
Publication of CN113835065B publication Critical patent/CN113835065B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明涉及深度学习技术领域,公开了一种基于深度学习的声源方向确定方法、装置、设备及介质,所述方法包括:根据目标混合声源信号得到相位谱信息;根据相位谱信息和预设长度帧序列信息生成对应的特征维度信息;根据预设卷积递归神经网络对特征维度信息进行预测,得到波达向量信息集合;根据波达向量信息集合确定目标混合声源的方向信息;本发明通过相位谱信息和预设长度帧序列信息生成特征维度信息,根据预设卷积递归神经网络对特征维度信息进行预测,基于预测得到的波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定,相较于现有技术通过传统的DOA算法进行声源方向的估计,能够有效提高确定声源方向的准确率。

Description

基于深度学习的声源方向确定方法、装置、设备及介质
技术领域
本发明涉及深度学习技术领域,尤其涉及基于深度学习的声源方向确定方法、装置、设备及介质。
背景技术
声源方向又称波达方向(Direction of Arrival,DOA),以录音设备为参考系,DOA的目的是要判断说话人的声源的发出方向,它通常作为语音系统的前置处理,而说话人的声源的发出方向的判断的应用较多,例如,波束形成算法中就需要预先获取到声源的空间信息,声源定位和声源追踪任务中也需要确定声源方向,而目前常用的声源方向确定的技术方案是通过传统的DOA算法,大多是通过数学运算一步一步地进行推理,以确定声源的方向信息,但是上述技术方案需要限制假设以及要求较高,例如,多重信号分类算法就假设不同声源是独立不相干的,且声源数要小于麦克风的数量,广义互相关-相位变换算法,要求阵列中不同麦克风之间存在一定的距离且对声源的距离也有一定的限制条件,但是现实环境中的声源大多数是混合声源,即声源中包括混响音和噪声,此时再通过上述技术方案所确定的声源方向的准确率较低。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供一种基于深度学习的声源方向确定方法、装置、设备及介质,旨在解决现有技术无法有效提高确定声源方向的准确率的技术问题。
为实现上述目的,本发明提供了一种基于深度学习的声源方向确定方法,所述基于深度学习的声源方向确定方法包括以下步骤:
获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息;
根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息;
根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合;
根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定。
可选地,所述获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息,包括:
获取目标混合声源信号,对所述目标混合声源信号进行分帧;
对分帧后的目标混合声源信号进行傅里叶变换,得到对应的频谱信息;
提取所述频谱信息中的实部信息和虚部信息;
通过第一计算公式对所述实部信息和虚部信息进行计算,得到对应的相位谱信息。
可选地,所述根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息,包括:
获取声源信号采集设备集合;
对所述声源信号采集设备集合进行遍历组合,得到对应的声源信号采集设备组合信息;
通过第二计算公式对所述相位谱信息和声源信号采集设备组合信息进行计算,得到IPD特征信息;
根据所述IPD特征信息和预设长度帧序列信息生成对应的特征维度信息。
可选地,所述根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合,包括:
提取预设卷积递归神经网络中的卷积神经网络信息、递归神经网络信息以及全连接网络信息;
根据所述卷积神经网络信息对所述特征维度信息进行卷积;
根据所述递归神经网络信息对卷积后的特征维度信息进行预测,得到对应的波达向量信息;
根据所述全连接网络信息依次对所述波达向量信息进行映射,得到波达向量信息集合。
可选地,所述根据所述递归神经网络信息对卷积后的特征维度信息进行预测,得到对应的波达向量信息,包括:
提取所述递归神经网络信息中的双向长短期记忆循环神经网络信息;
根据卷积后的特征维度信息确定对应的特征维度时序序列;
根据所述双向长短期记忆循环神经网络信息对所述特征维度时序序列进行预测,得到对应的波达向量信息。
可选地,所述根据所述波达向量信息集合确定目标混合声源的方向信息,包括:
获取目标混合声源信号的区域信息和预设角度信息;
根据所述预设角度信息对所述区域信息划分,得到目标数量的区域信息;
根据所述目标数量的区域信息和波达向量信息集合确定目标混合声源的方向信息。
可选地,所述根据所述目标数量的区域信息和波达向量信息集合确定目标混合声源的方向信息,包括:
根据所述波达向量信息集合得到对应的方向概率信息;
根据预设排序规则对所述方向概率信息对应的概率值进行排序;
根据排序后的概率值得到目标方向概率信息;
据所述目标数量的区域信息和目标方向概率信息的下标值确定目标混合声源的方向信息。
此外,为实现上述目的,本发明还提出一种基于深度学习的声源方向确定装置,所述基于深度学习的声源方向确定装置包括:
获取模块,用于获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息;
生成模块,用于根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息;
预测模块,用于根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合;
确定模块,用于根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定。
此外,为实现上述目的,本发明还提出一种基于深度学习的声源方向确定设备,所述基于深度学习的声源方向确定设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于深度学习的声源方向确定程序,所述基于深度学习的声源方向确定程序配置为实现如上文所述的基于深度学习的声源方向确定方法。
此外,为实现上述目的,本发明还提出一种存储介质,所述存储介质上存储有基于深度学习的声源方向确定程序,所述基于深度学习的声源方向确定程序被处理器执行时实现如上文所述的基于深度学习的声源方向确定方法。
本发明提出的基于深度学习的声源方向确定方法,通过获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息;根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息;根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合;根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定;本发明通过相位谱信息和预设长度帧序列信息生成特征维度信息,根据预设卷积递归神经网络对特征维度信息进行预测,基于预测得到的波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定,相较于现有技术通过传统的DOA算法进行声源方向的估计,能够有效提高确定声源方向的准确率。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的基于深度学习的声源方向确定设备的结构示意图;
图2为本发明基于深度学习的声源方向确定方法第一实施例的流程示意图;
图3为本发明基于深度学习的声源方向确定方法一实施例的区域划分示意图;
图4为本发明基于深度学习的声源方向确定方法第二实施例的流程示意图;
图5为本发明基于深度学习的声源方向确定方法第三实施例的流程示意图;
图6为本发明基于深度学习的声源方向确定装置第一实施例的功能模块示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的基于深度学习的声源方向确定设备结构示意图。
如图1所示,该基于深度学习的声源方向确定设备可以包括:处理器1001,例如中央处理器(Central Processing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(Wireless-Fidelity,Wi-Fi)接口)。存储器1005可以是高速的随机存取存储器(RandomAccess Memory,RAM)存储器,也可以是稳定的非易失性存储器(Non-Volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对基于深度学习的声源方向确定设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于深度学习的声源方向确定程序。
在图1所示的基于深度学习的声源方向确定设备中,网络接口1004主要用于与网络声源方向确定程序进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明基于深度学习的声源方向确定设备中的处理器1001、存储器1005可以设置在基于深度学习的声源方向确定设备中,所述基于深度学习的声源方向确定设备通过处理器1001调用存储器1005中存储的基于深度学习的声源方向确定程序,并执行本发明实施例提供的基于深度学习的声源方向确定方法。
基于上述硬件结构,提出本发明基于深度学习的声源方向确定方法实施例。
参照图2,图2为本发明基于深度学习的声源方向确定方法第一实施例的流程示意图。
在第一实施例中,所述基于深度学习的声源方向确定方法包括以下步骤:
步骤S10,获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息。
需要说明的是,本实施例的执行主体为基于深度学习的声源方向确定设备,还可为其他可实现相同或相似功能的设备,例如声源方向确定程序等,本实施例对此不作限制,在本实施例中,以声源方向确定程序为例进行说明。
应当理解的是,目标混合声源信号指的是声源采集设备所采集的所有声源信号,包括噪声信号、人声信号以及其他声音信号,将上述声音信号进行混合,即为目标混合声源信号,其中,声源采集设备可以为麦克风,也可以为其他声源采集设备,本实施例对此不作限制,以麦克风为例进行说明,其中,目标混合声源信号是通过公式一计算得到的,具体为:
Figure BDA0003242333800000061
其中,Sm为第m个麦克风采集到的混合声源信号,Xi是第i个说话人的声音信号,N指的是噪声。
可以理解的是,相位谱信息指的是从到达时延和采样偏移中得到各个声源的空间信息的特征所呈现的信息,在得到目标混合声源信号后,通过计算公式对目标混合声源信号进行处理,即得到对应的相位谱信息。
进一步地,步骤S10,包括:获取目标混合声源信号,对所述目标混合声源信号进行分帧;对分帧后的目标混合声源信号进行傅里叶变换,得到对应的频谱信息;提取所述频谱信息中的实部信息和虚部信息;通过第一计算公式对所述实部信息和虚部信息进行计算,得到对应的相位谱信息。
可以理解的是,在得到目标混合声源信号后,对目标混合声源信号进行分帧,分帧指的是将目标混合声源信号对应的声源帧分为单元帧,再对分帧后的目标混合声源信号进行傅里叶变换,傅里叶变换指的是将目标混合声源信号的形式进行转换,傅里叶变换包括连续傅里叶变换和离散傅里叶变换,其中,实部信息和虚部信息均为频谱信息的组成部分,而频谱信息是通过公式二计算得到的,具体为:
Fm=STFT(Sm);(公式二)
其中,Sm为第m个麦克风采集到的混合声源信号,Fm为对应的频谱信息。
应当理解的是,在提取到频谱信息的实部信息和虚部信息后,根据第一计算公式对频谱实部信息和频谱虚部信息进行计算,得到对应的相位谱信息,第一计算公式具体为:
Figure BDA0003242333800000071
其中,∠Pm表示第m个麦克风信号采集到混合声源信号的相位谱,
Figure BDA0003242333800000072
为频谱实部信息,
Figure BDA0003242333800000073
为频谱虚部信息。
在具体实施中,声源方向确定程序获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息。
步骤S20,根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息。
应当理解的是,预设长度帧序列信息指的是分帧后的混合声源信号中连续帧序列长度信息,由于混合声源信号中的声源连续帧之间存在相关性,因此将特征维度信息输入至预设卷积递归神经网络前,预设长度帧序列信息中对应的帧序列也为连续的,在得到相位谱信息和预设长度帧序列信息后,根据相位谱信息和预设长度帧序列信息生成对应的特征维度信息。
在具体实施中,声源方向确定程序根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息。
步骤S30,根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合。
应当理解的是,在得到特征维度信息后,需要通过目标函数使得预设卷积递归神经网络达到最优,而预设卷积递归神经网络达到最优的衡量标准为目标函数是否最小化,该目标函数只能为二值交叉熵(Binary Cross Entropy,BCE)损失,在BCE损失函数为收敛时,预设卷积递归神经网络达到最优,此时通过预设卷积递归神经网络预测得到的波达向量信息集合才是有效、可靠的。
可以理解的是,预设卷积递归神经网络由卷积神经网络(Convolution NeuralNetwork,CNN)、递归神经网络(Recurrent Neural Network,RNN)组成的神经网络模型以及全连接网络组成,在得到特征维度信息后,将特征维度信息输入至预设卷积递归神经网络模型,以使预设卷积递归神经网络模型对特征维度信息进行预测,得到对应的波达向量信息集合,例如,预设卷积递归神经网络模型预测出的波达向量信息集合为(0.01,0.4,0.01,0.03,0.02,0.3,0.02,0.1,0.01,0.03,0.04,0.03)。
在具体实施中,声源方向确定程序根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合。
步骤S40,根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定。
应当理解的是,在得到波达向量信息集合,根据波达向量信息集合在预设时间内确定目标混合声源的方向,预设时间可以为160ms,也可以为其他时间,本实施例对此不作限制,以160ms为例进行说明。
进一步地,步骤S40,包括:获取目标混合声源信号的区域信息和预设角度信息;根据所述预设角度信息对所述区域信息划分,得到目标数量的区域信息;根据所述目标数量的区域信息和波达向量信息集合确定目标混合声源的方向信息。
可以理解的是,目标混合声源信号的区域信息指的是麦克风阵列围绕而成的圆形区域信息,预设角度信息指的是对圆形区域划分的角度信息,例如,预设角度信息为30度,则划分后的区域信息的数量为12,参考图3,图3为基于深度学习的声源方向确定方法一实施例的区域划分示意图,按照逆时针方向将其分为Area[0]-Area[11],此时的波达向量信息集合可以通过公式三进行表示,具体为:
Figure BDA0003242333800000081
其中,
Figure BDA0003242333800000082
为波达向量信息集合,Pi为第i个划分后的区域信息。
进一步地,根据所述目标数量的区域信息和波达向量信息集合确定目标混合声源的方向信息,包括:根据所述波达向量信息集合得到对应的方向概率信息;根据预设排序规则对所述方向概率信息对应的概率值进行排序;根据排序后的概率值得到目标方向概率信息;根据所述目标数量的区域信息和目标方向概率信息的下标值确定目标混合声源的方向信息。
应当理解的是,在得到波达向量信息集合,确定波达向量信息集合中各波达向量信息对应的方向概率信息,按照从小到大的顺序将方向概率信息进行排序,并从排序好的方向概率信息中选择概率值最大的目标方向概率信息,再根据目标方向概率信息的下标值得到目标混合声源的方向信息,例如,波达向量信息集合为(0.01,0.4,0.01,0.03,0.02,0.3,0.02,0.1,0.01,0.03,0.04,0.03),目标方向概率信息为0.4,而0.4对应的下标值为1,则此时的目标混合声源的方向信息为Area[1],如果波达向量信息集合为(0.01,0.4,0.01,0.003,0.0001,0.4,0.1,0.03,0.04,0.002,0.004,0.0009),则此时的目标混合声源的方向信息为Area[1]和Area[5]。
在具体实施中,声源方向确定程序根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定。
本实施例通过获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息;根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息;根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合;根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定;通过相位谱信息和预设长度帧序列信息生成特征维度信息,根据预设卷积递归神经网络对特征维度信息进行预测,基于预测得到的波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定,相较于现有技术通过传统的DOA算法进行声源方向的估计,能够有效提高确定声源方向的准确率。
在一实施例中,如图4所述,基于第一实施例提出本发明基于深度学习的声源方向确定方法第二实施例,所述步骤S20,包括:
步骤S201,获取声源信号采集设备集合。
应当理解的是,声源信号采集设备集合指的是由各声源信号采集设备组成的集合,各声源信号采集设备排列成圆形采集各方向的目标混合声源信号,声源信号采集设备集合中的各声源信号采集设备的数量可以为4,也可以为8,本实施例对此不作限制,以数量4为例进行说明。
在具体实施中,声源方向确定程序获取声源信号采集设备集合。
步骤S202,对所述声源信号采集设备集合进行遍历组合,得到对应的声源信号采集设备组合信息。
可以理解的是,在得到声源信号采集设备集合后,将声源信号采集设备集合中的各声源信号采集设备遍历组合,即两两自由组合,得到对应的声源信号采集设备组合信息,此时的声源信号采集设备组合为6种,具体为:
ui∈Ω,Ω={(1,2),(1,3),(1,4),(2,3),(2,4),(3,4)};
其中,ui为声源信号采集设备组合中的一种组合,Ω为声源信号采集设备组合中的所有组合。
在具体实施中,声源方向确定程序对所述声源信号采集设备集合进行遍历组合,得到对应的声源信号采集设备组合信息。
步骤S203,通过第二计算公式对所述相位谱信息和声源信号采集设备组合信息进行计算,得到IPD特征信息。
应当理解的是,IPD特征信息指的是目标混合声源信号中的集成特征信息,在得到相位谱信息和声源信号采集设备组合信息后,通过第二计算公式对相位谱信息和声源信号采集设备组合信息进行计算,得到IPD特征信息,第二计算公式具体为:
Figure BDA0003242333800000101
其中,
Figure BDA0003242333800000102
为IPD特征信息,
Figure BDA0003242333800000103
为第一声源信号采集设备,
Figure BDA0003242333800000104
为第二声源信号采集设备,M为信号采集设备的数量。
在具体实施中,声源方向确定程序通过第二计算公式对所述相位谱信息和声源信号采集设备组合信息进行计算,得到IPD特征信息。
步骤S204,根据所述IPD特征信息和预设长度帧序列信息生成对应的特征维度信息。
可以理解的是,在得到IPD特征信息和预设长度帧序列信息后,根据IPD特征信息和预设长度帧序列信息生成对应的特征维度信息,例如,预设长度帧序列信息对应的序列长度为10,
Figure BDA0003242333800000105
Figure BDA0003242333800000106
沿着频率轴的叠加值为514,信号采集设备的组合配对方式为6种,具体为:使用的是4麦阵列,即4个信号采集设备组成的4麦阵列,组合的公式为4*3/2=6,最后生成的特征维度信息为(6,10,514)。
在具体实施中,声源方向确定程序根据所述IPD特征信息和预设长度帧序列信息生成对应的特征维度信息。
本实施例通过获取声源信号采集设备集合;对所述声源信号采集设备集合进行遍历组合,得到对应的声源信号采集设备组合信息;通过第二计算公式对所述相位谱信息和声源信号采集设备组合信息进行计算,得到IPD特征信息;根据所述IPD特征信息和预设长度帧序列信息生成对应的特征维度信息;通过对声源信号采集设备集合进行遍历组合,得到声源信号采集设备组合信息,根据第二计算公式对相位谱信息和声源信号采集设备组合信息进行计算,基于预设长度帧序列信息和计算得到的IPD特征信息生成对应的特征维度信息,从而有效提高得到特征维度信息的准确率。
在一实施例中,如图5所述,基于第一实施例提出本发明基于深度学习的声源方向确定方法第三实施例,所述步骤S30,包括:
步骤S301,提取预设卷积递归神经网络中的卷积神经网络信息、递归神经网络信息以及全连接网络信息。
可以理解的是,卷积神经网络信息包括6个卷积块和6个最大池化层(max-pooling),每个卷积块里有2个卷积层,卷积层都使用2维卷积,卷积核大小都是3x3,卷积通道数都是64,每一次卷积后使用零填充将特征维持在图中右侧指定的尺寸,卷积后的激活函数都使用线性整流函数(Rectified Linear Unit,ReLU),最大池化层的核大小从输入开始分别是1x4、1x4、1x2、1x2、1x2以及1x2。
应当理解的是,循环递归神经网络信息2层双向长短期记忆循环神经网络(Bi-Long-Short Term Memory Recurrent Neural Network,BLSTM RNN)组成,每层有128个单元,其激活函数为双曲正切函数(Tanh),全连接网络信息由全连接层(Fully ConnectedLayer,FC)组成,主要是对输出结果进行映射的网络信息。
在具体实施中,声源方向确定程序提取预设卷积递归神经网络中的卷积神经网络信息、递归神经网络信息以及全连接网络信息。
步骤S302,根据所述卷积神经网络信息对所述特征维度信息进行卷积。
可以理解的是,在得到特征维度信息后,通过卷积神经网络信息中的卷积层对特征维度信息进行卷积,使得特征维度信息成为单元的特征维度信息,即使其特征维度信息出现更多的特征信息。
在具体实施中,声源方向确定程序根据所述卷积神经网络信息对所述特征维度信息进行卷积。
步骤S303,根据所述递归神经网络信息对卷积后的特征维度信息进行预测,得到对应的波达向量信息。
应当理解的是,循环递归神经网络信息中的BLSTM RNN中存在四种不同的门控单元,此时的预测结果相较于LSTM RNN,对卷积后的特征维度信息的预测更加准确、效率更高,由于卷积后的特征维度信息所对应的特征维度时序序列的中前序列会影响后序列的预测结果,因此,BLSTM RNN在对卷积后的特征维度信息进行训练时只需要预测最后的时序序列即可,在预测完成后,得到对应的波达向量信息。
进一步地,步骤S303,包括:提取所述递归神经网络信息中的双向长短期记忆循环神经网络信息;根据卷积后的特征维度信息确定对应的特征维度时序序列;根据所述双向长短期记忆循环神经网络信息对所述特征维度时序序列进行预测,得到对应的波达向量信息。
可以理解的是,在得到卷积后的特征维度信息后,根据卷积后的特征维度信息确定对应的特征维度时序序列,根据BLSTM RNN的门控单元对卷积后的特征维度信息中最后的时序序列进行预测,即可得到对应的波达向量信息,BLSTM RNN的门控单元存在四种。
在具体实施中,声源方向确定程序根据所述递归神经网络信息对卷积后的特征维度信息进行预测,得到对应的波达向量信息
步骤S304,根据所述全连接网络信息依次对所述波达向量信息进行映射,得到波达向量信息集合。
应当理解的是,在得到递归神经网络信息预测的波达向量信息后,全连接网络信息将波达向量信息按照预测的顺序依次进行映射,在映射完成后,即可得到由波达向量信息组成的波达向量信息集合。
在具体实施中,声源方向确定程序根据所述全连接网络信息依次对所述波达向量信息进行映射,得到波达向量信息集合。
本实施例通过提取预设卷积递归神经网络中的卷积神经网络信息、递归神经网络信息以及全连接网络信息;根据所述卷积神经网络信息对所述特征维度信息进行卷积;根据所述递归神经网络信息对卷积后的特征维度信息进行预测,得到对应的波达向量信息;根据所述全连接网络信息依次对所述波达向量信息进行映射,得到波达向量信息集合;通过卷积神经网络信息对特征维度信息进行卷积,根据递归神经网络信息对卷积后的特征维度信息进行预测,基于全连接网络信息依次对预测到的波达向量信息进行映射,得到波达向量信息集合,从而有效提高得到波达向量信息集合的准确率。
此外,本发明实施例还提出一种存储介质,所述存储介质上存储有基于深度学习的声源方向确定程序,所述基于深度学习的声源方向确定程序被处理器执行时实现如上文所述的基于深度学习的声源方向确定方法的步骤。
由于本存储介质采用了上述所有实施例的全部技术方案,因此至少具有上述实施例的技术方案所带来的所有有益效果,在此不再一一赘述。
此外,参照图6,本发明实施例还提出一种基于深度学习的声源方向确定装置,所述基于深度学习的声源方向确定装置包括:
获取模块10,用于获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息。
应当理解的是,目标混合声源信号指的是声源采集设备所采集的所有声源信号,包括噪声信号、人声信号以及其他声音信号,将上述声音信号进行混合,即为目标混合声源信号,其中,声源采集设备可以为麦克风,也可以为其他声源采集设备,本实施例对此不作限制,以麦克风为例进行说明,其中,目标混合声源信号是通过公式一计算得到的,具体为:
Figure BDA0003242333800000131
其中,Sm为第m个麦克风采集到的混合声源信号,Xi是第i个说话人的声音信号,N指的是噪声。
可以理解的是,相位谱信息指的是从到达时延和采样偏移中得到各个声源的空间信息的特征所呈现的信息,在得到目标混合声源信号后,通过计算公式对目标混合声源信号进行处理,即得到对应的相位谱信息。
进一步地,获取模块10,还用于获取目标混合声源信号,对所述目标混合声源信号进行分帧;对分帧后的目标混合声源信号进行傅里叶变换,得到对应的频谱信息;提取所述频谱信息中的实部信息和虚部信息;通过第一计算公式对所述实部信息和虚部信息进行计算,得到对应的相位谱信息。
可以理解的是,在得到目标混合声源信号后,对目标混合声源信号进行分帧,分帧指的是将目标混合声源信号对应的声源帧分为单元帧,再对分帧后的目标混合声源信号进行傅里叶变换,傅里叶变换指的是将目标混合声源信号的形式进行转换,傅里叶变换包括连续傅里叶变换和离散傅里叶变换,其中,实部信息和虚部信息均为频谱信息的组成部分,而频谱信息是通过公式二计算得到的,具体为:
Fm=STFT(Sm);(公式二)
其中,Sm为第m个麦克风采集到的混合声源信号,Fm为对应的频谱信息。
应当理解的是,在提取到频谱信息的实部信息和虚部信息后,根据第一计算公式对频谱实部信息和频谱虚部信息进行计算,得到对应的相位谱信息,第一计算公式具体为:
Figure BDA0003242333800000141
其中,∠Pm表示第m个麦克风信号采集到混合声源信号的相位谱,
Figure BDA0003242333800000142
为频谱实部信息,
Figure BDA0003242333800000143
为频谱虚部信息。
在具体实施中,声源方向确定程序获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息。
生成模块20,用于根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息。
应当理解的是,预设长度帧序列信息指的是分帧后的混合声源信号中连续帧序列长度信息,由于混合声源信号中的声源连续帧之间存在相关性,因此将特征维度信息输入至预设卷积递归神经网络前,预设长度帧序列信息中对应的帧序列也为连续的,在得到相位谱信息和预设长度帧序列信息后,根据相位谱信息和预设长度帧序列信息生成对应的特征维度信息。
在具体实施中,声源方向确定程序根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息。
预测模块30,用于根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合。
应当理解的是,在得到特征维度信息后,需要通过目标函数使得预设卷积递归神经网络达到最优,而预设卷积递归神经网络达到最优的衡量标准为目标函数是否最小化,该目标函数只能为二值交叉熵(Binary Cross Entropy,BCE)损失,在BCE损失函数为收敛时,预设卷积递归神经网络达到最优,此时通过预设卷积递归神经网络预测得到的波达向量信息集合才是有效、可靠的。
可以理解的是,预设卷积递归神经网络由卷积神经网络(Convolution NeuralNetwork,CNN)、递归神经网络(Recurrent Neural Network,RNN)组成的神经网络模型以及全连接网络组成,在得到特征维度信息后,将特征维度信息输入至预设卷积递归神经网络模型,以使预设卷积递归神经网络模型对特征维度信息进行预测,得到对应的波达向量信息集合,例如,预设卷积递归神经网络模型预测出的波达向量信息集合为(0.01,0.4,0.01,0.03,0.02,0.3,0.02,0.1,0.01,0.03,0.04,0.03)。
在具体实施中,声源方向确定程序根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合。
确定模块40,用于根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定。
应当理解的是,在得到波达向量信息集合,根据波达向量信息集合在预设时间内确定目标混合声源的方向,预设时间可以为160ms,也可以为其他时间,本实施例对此不作限制,以160ms为例进行说明。
进一步地,确定模块40,还用于获取目标混合声源信号的区域信息和预设角度信息;根据所述预设角度信息对所述区域信息划分,得到目标数量的区域信息;根据所述目标数量的区域信息和波达向量信息集合确定目标混合声源的方向信息。
可以理解的是,目标混合声源信号的区域信息指的是麦克风阵列围绕而成的圆形区域信息,预设角度信息指的是对圆形区域划分的角度信息,例如,预设角度信息为30度,则划分后的区域信息的数量为12,参考图3,图3为本发明基于深度学习的声源方向确定方法一实施例的区域划分示意图,按照逆时针方向将其分为Area[0]-Area[11],此时的波达向量信息集合可以通过公式三进行表示,具体为:
Figure BDA0003242333800000161
其中,
Figure BDA0003242333800000162
为波达向量信息集合,Pi为第i个划分后的区域信息。
进一步地,根据所述目标数量的区域信息和波达向量信息集合确定目标混合声源的方向信息,包括:根据所述波达向量信息集合得到对应的方向概率信息;根据预设排序规则对所述方向概率信息对应的概率值进行排序;根据排序后的概率值得到目标方向概率信息;根据所述目标数量的区域信息和目标方向概率信息的下标值确定目标混合声源的方向信息。
应当理解的是,在得到波达向量信息集合,确定波达向量信息集合中各波达向量信息对应的方向概率信息,按照从小到大的顺序将方向概率信息进行排序,并从排序好的方向概率信息中选择概率值最大的目标方向概率信息,再根据目标方向概率信息的下标值得到目标混合声源的方向信息,例如,波达向量信息集合为(0.01,0.4,0.01,0.03,0.02,0.3,0.02,0.1,0.01,0.03,0.04,0.03),目标方向概率信息为0.4,而0.4对应的下标值为1,则此时的目标混合声源的方向信息为Area[1],如果波达向量信息集合为(0.01,0.4,0.01,0.003,0.0001,0.4,0.1,0.03,0.04,0.002,0.004,0.0009),则此时的目标混合声源的方向信息为Area[1]和Area[5]。
在具体实施中,声源方向确定程序根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定。
本实施例通过获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息;根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息;根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合;根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定;通过相位谱信息和预设长度帧序列信息生成特征维度信息,根据预设卷积递归神经网络对特征维度信息进行预测,基于预测得到的波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定,相较于现有技术通过传统的DOA算法进行声源方向的估计,能够有效提高确定声源方向的准确率。
需要说明的是,以上所描述的工作流程仅仅是示意性的,并不对本发明的保护范围构成限定,在实际应用中,本领域的技术人员可以根据实际的需要选择其中的部分或者全部来实现本实施例方案的目的,此处不做限制。
另外,未在本实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的基于深度学习的声源方向确定方法,此处不再赘述。
在一实施例中,所述获取模块10,还用于获取目标混合声源信号,对所述目标混合声源信号进行分帧;对分帧后的目标混合声源信号进行傅里叶变换,得到对应的频谱信息;提取所述频谱信息中的实部信息和虚部信息;通过第一计算公式对所述实部信息和虚部信息进行计算,得到对应的相位谱信息。
在一实施例中,所述生成模块20,还用于获取声源信号采集设备集合;对所述声源信号采集设备集合进行遍历组合,得到对应的声源信号采集设备组合信息;通过第二计算公式对所述相位谱信息和声源信号采集设备组合信息进行计算,得到IPD特征信息;根据所述IPD特征信息和预设长度帧序列信息生成对应的特征维度信息。
在一实施例中,所述预测模块30,还用于提取预设卷积递归神经网络中的卷积神经网络信息、递归神经网络信息以及全连接网络信息;根据所述卷积神经网络信息对所述特征维度信息进行卷积;根据所述递归神经网络信息对卷积后的特征维度信息进行预测,得到对应的波达向量信息;根据所述全连接网络信息依次对所述波达向量信息进行映射,得到波达向量信息集合。
在一实施例中,所述预测模块30,还用于提取所述递归神经网络信息中的双向长短期记忆循环神经网络信息;根据卷积后的特征维度信息确定对应的特征维度时序序列;根据所述双向长短期记忆循环神经网络信息对所述特征维度时序序列进行预测,得到对应的波达向量信息。
在一实施例中,所述确定模块40,还用于获取目标混合声源信号的区域信息和预设角度信息;根据所述预设角度信息对所述区域信息划分,得到目标数量的区域信息;根据所述目标数量的区域信息和波达向量信息集合确定目标混合声源的方向信息。
在一实施例中,所述确定模块40,还用于根据所述波达向量信息集合得到对应的方向概率信息;根据预设排序规则对所述方向概率信息对应的概率值进行排序;根据排序后的概率值得到目标方向概率信息;根据所述目标数量的区域信息和目标方向概率信息的下标值确定目标混合声源的方向信息。
本发明所述基于深度学习的声源方向确定装置的其他实施例或具有实现方法可参照上述各方法实施例,此处不在赘余。
此外,需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器(Read Only Memory,ROM)/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,声源方向确定程序,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种基于深度学习的声源方向确定方法,其特征在于,所述基于深度学习的声源方向确定方法包括以下步骤:
获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息;
根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息;
根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合;
根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定。
2.如权利要求1所述的基于深度学习的声源方向确定方法,其特征在于,所述获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息,包括:
获取目标混合声源信号,对所述目标混合声源信号进行分帧;
对分帧后的目标混合声源信号进行傅里叶变换,得到对应的频谱信息;
提取所述频谱信息中的实部信息和虚部信息;
通过第一计算公式对所述实部信息和虚部信息进行计算,得到对应的相位谱信息。
3.如权利要求1所述的基于深度学习的声源方向确定方法,其特征在于,所述根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息,包括:
获取声源信号采集设备集合;
对所述声源信号采集设备集合进行遍历组合,得到对应的声源信号采集设备组合信息;
通过第二计算公式对所述相位谱信息和声源信号采集设备组合信息进行计算,得到IPD特征信息;
根据所述IPD特征信息和预设长度帧序列信息生成对应的特征维度信息。
4.如权利要求1所述的基于深度学习的声源方向确定方法,其特征在于,所述根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合,包括:
提取预设卷积递归神经网络中的卷积神经网络信息、递归神经网络信息以及全连接网络信息;
根据所述卷积神经网络信息对所述特征维度信息进行卷积;
根据所述递归神经网络信息对卷积后的特征维度信息进行预测,得到对应的波达向量信息;
根据所述全连接网络信息依次对所述波达向量信息进行映射,得到波达向量信息集合。
5.如权利要求4所述的基于深度学习的声源方向确定方法,其特征在于,所述根据所述递归神经网络信息对卷积后的特征维度信息进行预测,得到对应的波达向量信息,包括:
提取所述递归神经网络信息中的双向长短期记忆循环神经网络信息;
根据卷积后的特征维度信息确定对应的特征维度时序序列;
根据所述双向长短期记忆循环神经网络信息对所述特征维度时序序列进行预测,得到对应的波达向量信息。
6.如权利要求1至5中任一项所述的基于深度学习的声源方向确定方法,其特征在于,所述根据所述波达向量信息集合确定目标混合声源的方向信息,包括:
获取目标混合声源信号的区域信息和预设角度信息;
根据所述预设角度信息对所述区域信息划分,得到目标数量的区域信息;
根据所述目标数量的区域信息和波达向量信息集合确定目标混合声源的方向信息。
7.如权利要求6所述的基于深度学习的声源方向确定方法,其特征在于,所述根据所述目标数量的区域信息和波达向量信息集合确定目标混合声源的方向信息,包括:
根据所述波达向量信息集合得到对应的方向概率信息;
根据预设排序规则对所述方向概率信息对应的概率值进行排序;
根据排序后的概率值得到目标方向概率信息;
根据所述目标数量的区域信息和目标方向概率信息的下标值确定目标混合声源的方向信息。
8.一种基于深度学习的声源方向确定装置,其特征在于,所述基于深度学习的声源方向确定装置包括:
获取模块,用于获取目标混合声源信号,根据所述目标混合声源信号得到对应的相位谱信息;
生成模块,用于根据所述相位谱信息和预设长度帧序列信息生成对应的特征维度信息;
预测模块,用于根据预设卷积递归神经网络对所述特征维度信息进行预测,得到波达向量信息集合;
确定模块,用于根据所述波达向量信息集合确定目标混合声源的方向信息,以实现对目标混合声源方向的确定。
9.一种基于深度学习的声源方向确定设备,其特征在于,所述基于深度学习的声源方向确定设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于深度学习的声源方向确定程序,所述基于深度学习的声源方向确定程序配置有实现如权利要求1至7中任一项所述的基于深度学习的声源方向确定方法。
10.一种存储介质,其特征在于,所述存储介质上存储有基于深度学习的声源方向确定程序,所述基于深度学习的声源方向确定程序被处理器执行时实现如权利要求1至7中任一项所述的基于深度学习的声源方向确定方法。
CN202111023884.9A 2021-09-01 2021-09-01 基于深度学习的声源方向确定方法、装置、设备及介质 Active CN113835065B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111023884.9A CN113835065B (zh) 2021-09-01 2021-09-01 基于深度学习的声源方向确定方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111023884.9A CN113835065B (zh) 2021-09-01 2021-09-01 基于深度学习的声源方向确定方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN113835065A true CN113835065A (zh) 2021-12-24
CN113835065B CN113835065B (zh) 2024-05-17

Family

ID=78961987

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111023884.9A Active CN113835065B (zh) 2021-09-01 2021-09-01 基于深度学习的声源方向确定方法、装置、设备及介质

Country Status (1)

Country Link
CN (1) CN113835065B (zh)

Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103731796A (zh) * 2013-10-10 2014-04-16 华南理工大学 用于远场和近场头相关传输函数的多声源自动测量系统
CN104394460A (zh) * 2014-11-24 2015-03-04 深圳市华宝电子科技有限公司 音视频文件定位方法及装置
CN106501775A (zh) * 2016-10-10 2017-03-15 南京威卡尔软件有限公司 用于嵌入式平台的连续快速人声声源定位方法
CN107517593A (zh) * 2015-02-26 2017-12-26 弗劳恩霍夫应用研究促进协会 用于使用目标时域包络来处理音频信号以获得经处理的音频信号的装置和方法
CN109782231A (zh) * 2019-01-17 2019-05-21 北京大学 一种基于多任务学习的端到端声源定位方法及系统
CN109977533A (zh) * 2019-03-22 2019-07-05 中车永济电机有限公司 牵引电机风扇噪声的仿真预测方法
CN110189764A (zh) * 2019-05-29 2019-08-30 深圳壹秘科技有限公司 展示分离角色的系统、方法和录音设备
CN110456309A (zh) * 2019-02-28 2019-11-15 深圳壹秘科技有限公司 声源定位方法、装置及计算机可读存储介质
CA3053665A1 (en) * 2018-08-30 2020-02-29 Element Ai Inc. Complex valued gating mechanisms
CN110967665A (zh) * 2019-10-07 2020-04-07 西安电子科技大学 一种多个外辐射源下运动目标回波的doa估计方法
CN111489760A (zh) * 2020-04-01 2020-08-04 腾讯科技(深圳)有限公司 语音信号去混响处理方法、装置、计算机设备和存储介质
CN111859241A (zh) * 2020-06-01 2020-10-30 北京大学 一种基于声传递函数学习的非监督声源定向方法
CN111929645A (zh) * 2020-09-23 2020-11-13 深圳市友杰智新科技有限公司 特定人声的声源定位方法、装置和计算机设备
CN112180318A (zh) * 2020-09-28 2021-01-05 深圳大学 声源波达方向估计模型训练和声源波达方向估计方法
CN112257484A (zh) * 2019-07-22 2021-01-22 中国科学院声学研究所 一种基于深度学习的多声源测向方法及系统
CN112289338A (zh) * 2020-10-15 2021-01-29 腾讯科技(深圳)有限公司 信号处理方法及装置、计算机设备以及可读存储介质
CN112289333A (zh) * 2020-12-25 2021-01-29 北京达佳互联信息技术有限公司 语音增强模型的训练方法和装置及语音增强方法和装置
CN112560913A (zh) * 2020-12-04 2021-03-26 东北大学 一种基于麦克风阵列的工业设备故障信号定位与识别方法
WO2021104110A1 (zh) * 2019-11-30 2021-06-03 华为技术有限公司 一种语音匹配方法及相关设备
CN112908336A (zh) * 2021-01-29 2021-06-04 深圳壹秘科技有限公司 一种用于语音处理装置的角色分离方法及其语音处理装置
CN112927707A (zh) * 2021-01-25 2021-06-08 北京达佳互联信息技术有限公司 语音增强模型的训练方法和装置及语音增强方法和装置
CN113111765A (zh) * 2021-04-08 2021-07-13 浙江大学 一种基于深度学习的多语音源计数和定位方法
CN113129918A (zh) * 2021-04-15 2021-07-16 浙江大学 联合波束形成和深度复数U-Net网络的语音去混响方法

Patent Citations (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103731796A (zh) * 2013-10-10 2014-04-16 华南理工大学 用于远场和近场头相关传输函数的多声源自动测量系统
CN104394460A (zh) * 2014-11-24 2015-03-04 深圳市华宝电子科技有限公司 音视频文件定位方法及装置
CN107517593A (zh) * 2015-02-26 2017-12-26 弗劳恩霍夫应用研究促进协会 用于使用目标时域包络来处理音频信号以获得经处理的音频信号的装置和方法
CN106501775A (zh) * 2016-10-10 2017-03-15 南京威卡尔软件有限公司 用于嵌入式平台的连续快速人声声源定位方法
CA3053665A1 (en) * 2018-08-30 2020-02-29 Element Ai Inc. Complex valued gating mechanisms
CN109782231A (zh) * 2019-01-17 2019-05-21 北京大学 一种基于多任务学习的端到端声源定位方法及系统
CN110456309A (zh) * 2019-02-28 2019-11-15 深圳壹秘科技有限公司 声源定位方法、装置及计算机可读存储介质
CN109977533A (zh) * 2019-03-22 2019-07-05 中车永济电机有限公司 牵引电机风扇噪声的仿真预测方法
CN110189764A (zh) * 2019-05-29 2019-08-30 深圳壹秘科技有限公司 展示分离角色的系统、方法和录音设备
CN112257484A (zh) * 2019-07-22 2021-01-22 中国科学院声学研究所 一种基于深度学习的多声源测向方法及系统
CN110967665A (zh) * 2019-10-07 2020-04-07 西安电子科技大学 一种多个外辐射源下运动目标回波的doa估计方法
WO2021104110A1 (zh) * 2019-11-30 2021-06-03 华为技术有限公司 一种语音匹配方法及相关设备
CN111489760A (zh) * 2020-04-01 2020-08-04 腾讯科技(深圳)有限公司 语音信号去混响处理方法、装置、计算机设备和存储介质
CN111859241A (zh) * 2020-06-01 2020-10-30 北京大学 一种基于声传递函数学习的非监督声源定向方法
CN111929645A (zh) * 2020-09-23 2020-11-13 深圳市友杰智新科技有限公司 特定人声的声源定位方法、装置和计算机设备
CN112180318A (zh) * 2020-09-28 2021-01-05 深圳大学 声源波达方向估计模型训练和声源波达方向估计方法
CN112289338A (zh) * 2020-10-15 2021-01-29 腾讯科技(深圳)有限公司 信号处理方法及装置、计算机设备以及可读存储介质
CN112560913A (zh) * 2020-12-04 2021-03-26 东北大学 一种基于麦克风阵列的工业设备故障信号定位与识别方法
CN112289333A (zh) * 2020-12-25 2021-01-29 北京达佳互联信息技术有限公司 语音增强模型的训练方法和装置及语音增强方法和装置
CN112927707A (zh) * 2021-01-25 2021-06-08 北京达佳互联信息技术有限公司 语音增强模型的训练方法和装置及语音增强方法和装置
CN112908336A (zh) * 2021-01-29 2021-06-04 深圳壹秘科技有限公司 一种用于语音处理装置的角色分离方法及其语音处理装置
CN113111765A (zh) * 2021-04-08 2021-07-13 浙江大学 一种基于深度学习的多语音源计数和定位方法
CN113129918A (zh) * 2021-04-15 2021-07-16 浙江大学 联合波束形成和深度复数U-Net网络的语音去混响方法

Also Published As

Publication number Publication date
CN113835065B (zh) 2024-05-17

Similar Documents

Publication Publication Date Title
US11937054B2 (en) Multiple-source tracking and voice activity detections for planar microphone arrays
CN110600017B (zh) 语音处理模型的训练方法、语音识别方法、系统及装置
KR102220187B1 (ko) 음장의 고차 앰비소닉 표현에서 상관되지 않은 음원들의 방향을 판정하는 방법 및 장치
CN109599124A (zh) 一种音频数据处理方法、装置及存储介质
WO2020024816A1 (zh) 音频信号处理方法、装置、设备和存储介质
EP4266308A1 (en) Voice extraction method and apparatus, and electronic device
KR20210052036A (ko) 복수 의도어 획득을 위한 합성곱 신경망을 가진 장치 및 그 방법
CN110399826B (zh) 一种端到端人脸检测和识别方法
WO2016119388A1 (zh) 一种基于语音信号构造聚焦协方差矩阵的方法及装置
CN111312223B (zh) 语音分割模型的训练方法、装置和电子设备
CN113327628A (zh) 音频处理方法、装置、可读介质和电子设备
CN117153186A (zh) 声音信号处理方法、装置、电子设备和存储介质
Lin et al. Domestic activities clustering from audio recordings using convolutional capsule autoencoder network
CN111312224B (zh) 语音分割模型的训练方法、装置和电子设备
CN113835065A (zh) 基于深度学习的声源方向确定方法、装置、设备及介质
CN113903328A (zh) 基于深度学习的说话人计数方法、装置、设备及存储介质
CN111880146B (zh) 声源定向方法和装置及存储介质
Mallis et al. Convolutive audio source separation using robust ICA and an intelligent evolving permutation ambiguity solution
CN105894029A (zh) 一种基于费马点求解的自适应运动轨迹数据去噪方法
CN114495974B (zh) 音频信号处理方法
CN113808606B (zh) 语音信号处理方法和装置
Ayub et al. Disambiguation of measurements for multiple acoustic source localization using deep multi-dimensional assignments
EP4050602B1 (en) Conference device with voice direction estimation
CN111652251B (zh) 遥感影像建筑物特征提取模型构建方法、装置及存储介质
US20240212701A1 (en) Estimating an optimized mask for processing acquired sound data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant