CN116859339B - 一种多边形区域内声源分离和定位方法 - Google Patents

一种多边形区域内声源分离和定位方法 Download PDF

Info

Publication number
CN116859339B
CN116859339B CN202311118107.1A CN202311118107A CN116859339B CN 116859339 B CN116859339 B CN 116859339B CN 202311118107 A CN202311118107 A CN 202311118107A CN 116859339 B CN116859339 B CN 116859339B
Authority
CN
China
Prior art keywords
area
sound source
sound
independent
microphones
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311118107.1A
Other languages
English (en)
Other versions
CN116859339A (zh
Inventor
刘君
李永
李静林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongke Zhengtong Shandong Technology Co ltd
Original Assignee
Beijing Shengchuan Chuangshi Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shengchuan Chuangshi Technology Development Co ltd filed Critical Beijing Shengchuan Chuangshi Technology Development Co ltd
Priority to CN202311118107.1A priority Critical patent/CN116859339B/zh
Publication of CN116859339A publication Critical patent/CN116859339A/zh
Application granted granted Critical
Publication of CN116859339B publication Critical patent/CN116859339B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/22Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02165Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种多边形区域内声源分离和定位方法,涉及声源分离和定位领域,通过构建多边形并在每个顶点放置麦克风,该方法能够采集声音并利用声源分离模型进行分离。随后,利用余弦相似性或皮尔逊相关系数计算信号的相似度,并进行分组,并通过机器学习的方法优化声源分离。进一步的步骤包括计算交叉相关,绘制双曲线,通过机器学习方法优化分布区域的面积,并确定声源位置。本发明具备精确性高且成本效益显著的优点。

Description

一种多边形区域内声源分离和定位方法
技术领域
本发明涉及声源分离和定位领域,更具体地说,涉及一种多边形区域内声源分离和定位方法。
背景技术
随着城市化进程的加速,城市噪声污染问题越来越受到人们的关注。传统的噪声监测方式多依赖于固定的噪声监测点,但这种方法由于监测点数量有限,很难全面、准确地获取城市各个区域的噪声数据。
解决这种方法的途径包括增加监测点数量、采用移动监测等,但这些方法要么成本较高、要么实际操作起来困难。因此,如何在保证监测准确性的同时,降低成本,成为了噪声监测领域亟待解决的问题。同时,如何能够智能化识别噪声的类别,也是一个待解决的问题。
另外,在城市环境中,与自然环境和其他环境相比,噪音具有一些独特的特点。城市噪音一般呈现连续的、多声源混合的状态。这些声源包括车辆、人群、建筑工地、公共活动等,它们在时间和空间上都有一定的分布。这使得城市噪音的特点既复杂又多变。而现有的声音检测和定位技术,大多数是为单一声源设计的。对于复杂的多声源混合环境,这些技术很难准确地识别和定位声源。尤其是在声源数量多、分布广、相互干扰的情况下,传统的声音定位方法常常会受到限制。因此,在构建城市声源地图的时候,如何区分并识别声源位置,如何将连续的、多声源混合的噪音进行有效的分离和定位,已经成为一个难题。
发明内容
本发明要解决的技术问题是提供一种多边形区域内声源分离和定位方法,以解决背景技术中提到的问题。
为了达到上述目的,本发明采取以下技术方案:
一种多边形区域内声源分离和定位方法,包括如下步骤:
S1:构建一个多边形,每个顶点处设置一个朝向所述多边形区域的麦克风,每个麦克风朝向多边形的边延伸出一段隔声板;
S2:采用声源分离模型对每个麦克风收集到的声音信号进行声源分离;
S3:对于任意两个麦克风对应的独立声音信号,在进行归一化处理后,计算其之间的余弦相似性或皮尔逊相关系数,作为两个独立声音信号的相似度;
S4:将两两之间相似度均高于预设阈值的多个独立声音信号作为一组,每组独立声音信号内的独立声音信号分布在不同的麦克风;
通过机器学习的方式,调节S2中所用的声源分离模型中用到的参数,使得S4中每组独立声音信号内的平均相似度之和的倒数最小;
S5:对于每组独立声音信号,计算每两个麦克风接收到该组独立声音成分的交叉相关,取交叉相关的最大值点位置作为特征点,以确定该两个麦克风接收到该组独立声音信号的时间延迟,将时间延迟乘以声速得到距离差;以该两个麦克风为双曲焦点,以距离差为双曲线距离差,绘制出一条双曲线;
S6:按照S5的方法,对于每组独立声音信号,两两配对麦克风绘制出多条双曲线,多条双曲线交点形成一个分布区域;
通过机器学习的方法,调节S5中的交叉相关方法中用到的参数,使得所述分布区域的面积达到最小;
S7:如果达到最小面积后的分布区域位于所述多边形内,且所述分布区域的面积小于预设的面积阈值,则判定该组独立声音信号测量有效,并利用最小二乘法获得所述分布区域内所有双曲线交点的中心点,作为该组独立声音信号的声源位置;
若所述分布区域部分或全部位于所述多边形外,或所述分布区域的面积大于预设的面积阈值,则判定该组独立声音信号测量无效。
在一些实施例中,所述S2中所用的声源分离模型为独立成分分析模型,即ICA模型。ICA模型的参数包括迭代次数、学习率和混合矩阵的初始值。
在一些实施例中,所述交叉相关方法的参数包括信号的采样频率、信号的窗长和窗函数。
利用交叉相关方法确定时间延迟的方法具体包括:
S5.1:为两个麦克风标号为i和j,获取其对应的独立声音信号xi(t)和xj(t);
S5.2:利用交叉相关公式计算信号xi(t)与xj(t)之间的交叉相关Rij(τ):
其中τ代表时间延迟;
S5.3:找到Rij(τ)中的最大值点,记对应的自变量为τmax
S5.4:将τmax视为两个麦克风i和j接收到的独立声音信号的时间延迟。
在一些实施例中,S5中的交叉相关计算还采用快速傅立叶变换FFT加速其计算过程,具体步骤包括:
S5.5:对xi(t)和xj(t)进行FFT得到其对应的频谱Xi(f)和Xj(f),其中f表示频率,X表示表示频域中的复数值;
S5.6:计算Xi(f)与Xj^(f)的点积,其中Xj^(f)是Xj(f)的共轭;
S5.7:对S5.6得到的点积进行反傅立叶变换,得到Rij(τ);
S5.8:按照S5.3和S5.4的步骤,确定时间延迟τmax
在一些实施例中,所隔声板背朝所述多边形区域的一侧面设置有隔音材料。
在一些实施例中,多个所述麦克风构成多个紧密相连的多边形,每个麦克风位于多个多边形的一个顶点。
在一些实施例中,所述多边形为三角形。
本发明相对于现有技术的优点在于:
城市声音往往由多个声源组成,例如车辆、人声、建筑工地等。本发明通过在多边形的顶点设置麦克风和应用声源分离模型,能够将这些混杂在一起的声音有效地区分开来。城市中的声音还是连续不断的,而不是断断续续,这对于声源测量技术中如何获取时间差有所困难,本发明采用交叉相关方法可以获得该时间差,且结合双曲线交点可以获得对应声源位置,外加机器学习方法可以提高准确度。通过在多边形区域的每个顶点设置麦克风,本发明可以覆盖一个相对较大的区域,这意味着无需在每个位置都设置麦克风,从而大大降低了噪音监测的成本。通过设置多个多边形,即可在城市中的多个主要地区进行噪音检测,而不同的多边形间的麦克风还可以共用,从而降低使用成本。
附图说明
图1是本发明方法的流程示意图。
具体实施方式
下面结合附图对本发明的具体实施方式作描述。
如图1所示为本发明总体流程图。
本发明一种多边形区域内声源分离和定位方法,包括如下步骤:
S1:构建一个多边形,每个顶点处设置一个朝向多边形区域的麦克风,每个麦克风朝向多边形的边延伸出一段隔声板;
S2:采用声源分离模型对每个麦克风收集到的声音信号进行声源分离;
S3:对于任意两个麦克风对应的独立声音信号,在进行归一化处理后,计算其之间的余弦相似性或皮尔逊相关系数,作为两个独立声音信号的相似度;
S4:将两两之间相似度均高于预设阈值的多个独立声音信号作为一组,每组独立声音信号内的独立声音信号分布在不同的麦克风;
通过机器学习的方式,调节S2中所用的声源分离模型中用到的参数,使得S4中每组独立声音信号内的平均相似度之和的倒数最小;
S5:对于每组独立声音信号,计算每两个麦克风接收到该组独立声音成分的交叉相关,取交叉相关的最大值点位置作为特征点,以确定该两个麦克风接收到该组独立声音信号的时间延迟,将时间延迟乘以声速得到距离差;以该两个麦克风为双曲焦点,以距离差为双曲线距离差,绘制出一条双曲线;
S6:按照S5的方法,对于每组独立声音信号,两两配对麦克风绘制出多条双曲线,多条双曲线交点形成一个分布区域;
通过机器学习的方法,调节S5中的交叉相关方法中用到的参数,使得分布区域的面积达到最小;
S7:如果达到最小面积后的分布区域位于多边形内,且分布区域的面积小于预设的面积阈值,则判定该组独立声音信号测量有效,并利用最小二乘法获得分布区域内所有双曲线交点的中心点,作为该组独立声音信号的声源位置;
若分布区域部分或全部位于多边形外,或分布区域的面积大于预设的面积阈值,则判定该组独立声音信号测量无效。
在一些实施例中,S2中所用的声源分离模型为ICA模型。ICA模型的参数包括迭代次数、学习率和混合矩阵的初始值。独立成分分析(ICA)是一种线性特征变换技术,用于从多个观测数据中找到隐藏的独立信号或组件。它尤其适用于分离混合信号的源。
在本发明中,可以具体包括:
每个麦克风采集的声音信号首先经过ADC (模拟到数字转换器) 进行采样和量化。使用带通滤波器来滤除不在目标频率范围内的噪声。接着初始化ICA参数,包括为每个麦克风分配一个唯一的混合矩阵的初始值,这是ICA模型需要的,因为它假设信号是由多个独立源通过混合矩阵混合得到的。学习率是一个小正数,用于控制权重更新的幅度。学习率太高可能导致模型不稳定,而太低则可能导致收敛过慢。
为了防止无限迭代,本发明还可以设置一个最大迭代次数作为停止条件。
接下来执行ICA算法,包括:
为了使ICA算法更有效,先将数据进行白化处理,使其具有零均值和单位方差。在每次迭代中,根据ICA的学习规则(通常是基于独立性的最大化)更新权重。比较连续迭代间的权重变化或模型的损失值,如果权重变化小于一个预设的阈值或达到最大迭代次数,则停止迭代。
接下来使用训练好的ICA模型和混合矩阵,将每个麦克风的信号反向映射回其独立的源信号。
后续可以通过监听分离出的信号或使用其他评估标准(如信噪比)来评估分离效果。
将分离出的独立信号保存为数字格式,以便后续分析或其他处理。
在本发明中,还利用机器学习的方法,以S4中平均相似度之和的倒数为标签,调节上述参数,如学习率、混合矩阵的初始值或迭代次数,使得每组相似度平均值之和越高越好。
在一些实施例中,交叉相关方法的参数包括信号的采样频率、信号的窗长和窗函数。
利用交叉相关方法确定时间延迟的方法具体包括:
S5.1:为两个麦克风标号为i和j,获取其对应的独立声音信号xi(t)和xj(t);
S5.2:利用交叉相关公式计算信号xi(t)与xj(t)之间的交叉相关Rij(τ):
其中τ代表时间延迟;
S5.3:找到Rij(τ)中的最大值点,记对应的自变量为τmax
S5.4:将τmax视为两个麦克风i和j接收到的独立声音信号的时间延迟。
在一些实施例中,S5中的交叉相关计算还采用快速傅立叶变换FFT加速其计算过程,具体步骤包括:
S5.5:对xi(t)和xj(t)进行FFT得到其对应的频谱Xi(f)和Xj(f),其中f表示频率,X表示表示频域中的复数值;
S5.6:计算Xi(f)与Xj^(f)的点积,其中Xj^(f)是Xj(f)的共轭;
S5.7:对S5.6得到的点积进行反傅立叶变换,得到Rij(τ);
S5.8:按照S5.3和S5.4的步骤,确定时间延迟τmax
在一些实施例中,所隔声板背朝多边形区域的一侧面设置有隔音材料。
在一些实施例中,多个麦克风构成多个紧密相连的多边形,每个麦克风位于多个多边形的一个顶点。也就是说,我们可以把城市区域分割为多个多边形,其中,每个多边形的顶点设置麦克风,这样一来,就可以对于城市中的多个区域进行噪音监控和定位,以方便后续对于噪音的识别。
在一些实施例中,多边形为三角形。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (9)

1.一种多边形区域内声源分离和定位方法,其特征在于,包括如下步骤:
S1:构建一个多边形,每个顶点处设置一个朝向所述多边形区域的麦克风,每个麦克风朝向多边形的边延伸出一段隔声板;
S2:采用声源分离模型对每个麦克风收集到的声音信号进行声源分离;
S3:对于任意两个麦克风对应的独立声音信号,在进行归一化处理后,计算其之间的余弦相似性或皮尔逊相关系数,作为两个独立声音信号的相似度;
S4:将两两之间相似度均高于预设阈值的多个独立声音信号作为一组,每组独立声音信号内的独立声音信号分布在不同的麦克风;
通过机器学习的方式,调节S2中所用的声源分离模型中用到的参数,使得S4中每组独立声音信号内的平均相似度之和的倒数最小;
S5:对于每组独立声音信号,计算每两个麦克风接收到该组独立声音成分的交叉相关,取交叉相关的最大值点位置作为特征点,以确定该两个麦克风接收到该组独立声音信号的时间延迟,将时间延迟乘以声速得到距离差;以该两个麦克风为双曲焦点,以距离差为双曲线距离差,绘制出一条双曲线;
S6:按照S5的方法,对于每组独立声音信号,两两配对麦克风绘制出多条双曲线,多条双曲线交点形成一个分布区域;
通过机器学习的方法,调节S5中的交叉相关方法中用到的参数,使得所述分布区域的面积达到最小;
S7:如果达到最小面积后的分布区域位于所述多边形内,且所述分布区域的面积小于预设的面积阈值,则判定该组独立声音信号测量有效,并利用最小二乘法获得所述分布区域内所有双曲线交点的中心点,作为该组独立声音信号的声源位置;
若所述分布区域部分或全部位于所述多边形外,或所述分布区域的面积大于预设的面积阈值,则判定该组独立声音信号测量无效。
2.根据权利要求1所述多边形区域内声源分离和定位方法,其特征在于,所述S2中所用的声源分离模型为ICA模型。
3.根据权利要求2所述多边形区域内声源分离和定位方法,其特征在于,ICA模型的参数包括迭代次数、学习率和混合矩阵的初始值。
4.根据权利要求1所述多边形区域内声源分离和定位方法,其特征在于,所述交叉相关方法的参数包括信号的采样频率、信号的窗长和窗函数。
5.根据权利要求1或4所述多边形区域内声源分离和定位方法,其特征在于,S5中,利用交叉相关方法确定时间延迟的方法具体包括:
S5.1:为两个麦克风标号为i和j,获取其对应的独立声音信号xi(t)和xj(t);
S5.2:利用交叉相关公式计算信号xi(t)与xj(t)之间的交叉相关Rij(τ):
其中τ代表时间延迟;
S5.3:找到Rij(τ)中的最大值点,记对应的自变量为τmax
S5.4:将τmax视为两个麦克风i和j接收到的独立声音信号的时间延迟。
6.根据权利要求5所述多边形区域内声源分离和定位方法,其特征在于,S5中的交叉相关计算还采用快速傅立叶变换FFT加速其计算过程,具体步骤包括:
S5.5:对xi(t)和xj(t)进行FFT得到其对应的频谱Xi(f)和Xj(f),其中f表示频率,X表示频域中的复数值;
S5.6:计算Xi(f)与Xj^(f)的点积,其中Xj^(f)是Xj(f)的共轭;
S5.7:对S5.6得到的点积进行反傅立叶变换,得到Rij(τ);
S5.8:按照S5.3和S5.4的步骤,确定时间延迟τmax
7.根据权利要求1所述多边形区域内声源分离和定位方法,其特征在于,
所隔声板背朝所述多边形区域的一侧面设置有隔音材料。
8.根据权利要求1所述多边形区域内声源分离和定位方法,其特征在于,多个所述麦克风构成多个紧密相连的多边形,每个麦克风位于多个多边形的一个顶点。
9.根据权利要求1或8所述多边形区域内声源分离和定位方法,其特征在于,所述多边形为三角形。
CN202311118107.1A 2023-09-01 2023-09-01 一种多边形区域内声源分离和定位方法 Active CN116859339B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311118107.1A CN116859339B (zh) 2023-09-01 2023-09-01 一种多边形区域内声源分离和定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311118107.1A CN116859339B (zh) 2023-09-01 2023-09-01 一种多边形区域内声源分离和定位方法

Publications (2)

Publication Number Publication Date
CN116859339A CN116859339A (zh) 2023-10-10
CN116859339B true CN116859339B (zh) 2023-11-17

Family

ID=88228966

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311118107.1A Active CN116859339B (zh) 2023-09-01 2023-09-01 一种多边形区域内声源分离和定位方法

Country Status (1)

Country Link
CN (1) CN116859339B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203048A (ja) * 2010-03-25 2011-10-13 Tokyo Electric Power Co Inc:The 音源位置特定装置および音源位置特定方法
CN103076593A (zh) * 2012-12-28 2013-05-01 中国科学院声学研究所 一种声源定位方法及装置
CN106597379A (zh) * 2015-10-20 2017-04-26 沈阳新松机器人自动化股份有限公司 基于复合算法的平面声源定位方法
CN109061558A (zh) * 2018-06-21 2018-12-21 桂林电子科技大学 一种基于深度学习的声音碰撞检测及声源定位方法
CN113314138A (zh) * 2021-04-25 2021-08-27 普联国际有限公司 基于麦克风阵列的声源监听分离方法、装置及存储介质
CN113514801A (zh) * 2021-04-28 2021-10-19 成都启英泰伦科技有限公司 基于深度学习的麦克风阵列声源定位方法及声源识别方法
CN113702910A (zh) * 2021-08-31 2021-11-26 冠捷显示科技(厦门)有限公司 一种基于双麦克风的声音定位方法及其装置
CN114167356A (zh) * 2021-12-06 2022-03-11 大连赛听科技有限公司 一种基于多面体麦克风阵列的声源定位方法和系统
CN115508778A (zh) * 2022-08-26 2022-12-23 深圳市江元科技(集团)有限公司 一种基于声源定位的会议机自适应偏转方案

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011203048A (ja) * 2010-03-25 2011-10-13 Tokyo Electric Power Co Inc:The 音源位置特定装置および音源位置特定方法
CN103076593A (zh) * 2012-12-28 2013-05-01 中国科学院声学研究所 一种声源定位方法及装置
CN106597379A (zh) * 2015-10-20 2017-04-26 沈阳新松机器人自动化股份有限公司 基于复合算法的平面声源定位方法
CN109061558A (zh) * 2018-06-21 2018-12-21 桂林电子科技大学 一种基于深度学习的声音碰撞检测及声源定位方法
CN113314138A (zh) * 2021-04-25 2021-08-27 普联国际有限公司 基于麦克风阵列的声源监听分离方法、装置及存储介质
CN113514801A (zh) * 2021-04-28 2021-10-19 成都启英泰伦科技有限公司 基于深度学习的麦克风阵列声源定位方法及声源识别方法
CN113702910A (zh) * 2021-08-31 2021-11-26 冠捷显示科技(厦门)有限公司 一种基于双麦克风的声音定位方法及其装置
CN114167356A (zh) * 2021-12-06 2022-03-11 大连赛听科技有限公司 一种基于多面体麦克风阵列的声源定位方法和系统
CN115508778A (zh) * 2022-08-26 2022-12-23 深圳市江元科技(集团)有限公司 一种基于声源定位的会议机自适应偏转方案

Also Published As

Publication number Publication date
CN116859339A (zh) 2023-10-10

Similar Documents

Publication Publication Date Title
CN102103200B (zh) 一种分布式非同步声传感器的声源空间定位方法
CN104076331B (zh) 一种七元麦克风阵列的声源定位方法
TWI556654B (zh) 用以推衍方向性資訊之裝置與方法和系統
CN109839612A (zh) 基于时频掩蔽和深度神经网络的声源方向估计方法
CN108375763B (zh) 一种应用于多声源环境的分频定位方法
CN102147458B (zh) 一种针对宽带声源的波达方向估计方法及其装置
WO2019061439A1 (zh) 一种基于渐进串行正交化盲源分离算法的改进声源定位方法及其实现系统
CN107167770B (zh) 一种混响条件下的麦克风阵列声源定位装置
CN109188362B (zh) 一种麦克风阵列声源定位信号处理方法
WO2020024816A1 (zh) 音频信号处理方法、装置、设备和存储介质
KR100877914B1 (ko) 음원위치-지연시간차 상관관계 역 추정에 의한 음원 방향검지 시스템 및 방법
CN107219512A (zh) 一种基于声传递函数的声源定位方法
CN106371057B (zh) 语音声源测向方法及装置
CN106019230B (zh) 一种基于i-vector说话人识别的声源定位方法
CN109884591A (zh) 一种基于麦克风阵列的多旋翼无人机声信号增强方法
CN105607042A (zh) 用麦克风阵列时延估计定位声源的方法
CN109212481A (zh) 一种利用麦克风阵列进行声源定位的方法
Nikunen et al. Multichannel audio separation by direction of arrival based spatial covariance model and non-negative matrix factorization
CN206114888U (zh) 语音声源测向装置
CN109061558A (zh) 一种基于深度学习的声音碰撞检测及声源定位方法
KR20090128221A (ko) 음원 위치 추정 방법 및 그 방법에 따른 시스템
CN116859339B (zh) 一种多边形区域内声源分离和定位方法
Wan et al. Improved steered response power method for sound source localization based on principal eigenvector
CN116559778A (zh) 一种基于深度学习的车辆鸣笛定位方法及系统
Aarabi et al. Robust sound localization using conditional time–frequency histograms

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information

Inventor after: Li Yong

Inventor before: Liu Jun

Inventor before: Li Yong

Inventor before: Li Jinglin

CB03 Change of inventor or designer information
TR01 Transfer of patent right

Effective date of registration: 20240207

Address after: Building A, Jinan International Innovation Design Industrial Park, No. 2 Wanshou Road, Shizhong District, Jinan City, Shandong Province, 250002, 2027-12

Patentee after: Zhongke Zhengtong (Shandong) Technology Co.,Ltd.

Country or region after: China

Address before: Room 501, unit 6, floor 5, building 13, longtengyuan Second District, Huilongguan town, Changping District, Beijing 102208 (residential building)

Patentee before: BEIJING SHENGCHUAN CHUANGSHI TECHNOLOGY DEVELOPMENT CO.,LTD.

Country or region before: China

TR01 Transfer of patent right