CN116915932A - 一种基于噪声溯源的执法取证方法及装置 - Google Patents
一种基于噪声溯源的执法取证方法及装置 Download PDFInfo
- Publication number
- CN116915932A CN116915932A CN202311170415.9A CN202311170415A CN116915932A CN 116915932 A CN116915932 A CN 116915932A CN 202311170415 A CN202311170415 A CN 202311170415A CN 116915932 A CN116915932 A CN 116915932A
- Authority
- CN
- China
- Prior art keywords
- noise
- camera
- audio
- evidence obtaining
- law enforcement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000007405 data analysis Methods 0.000 claims abstract description 9
- 238000012806 monitoring device Methods 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 18
- 230000004807 localization Effects 0.000 claims description 16
- 230000007613 environmental effect Effects 0.000 claims description 10
- 238000010801 machine learning Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000003066 decision tree Methods 0.000 claims description 3
- 238000010183 spectrum analysis Methods 0.000 claims description 3
- 241001522296 Erithacus rubecula Species 0.000 claims description 2
- 238000012800 visualization Methods 0.000 abstract description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000005314 correlation function Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01H—MEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
- G01H11/00—Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties
- G01H11/06—Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by detecting changes in electric or magnetic properties by electric means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
- G01S5/22—Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
Abstract
本发明属于环保执法取证技术领域,涉及一种基于噪声溯源的执法取证方法及装置,所述执法取证方法包括以下步骤:噪声污染时段判断;噪声声源定位;调取摄像头进行图像资料采集;数据分析。其能够提高取证的准确性、提高取证的效率和便捷性、降低取证成本和实现取证过程的可视化。
Description
技术领域
本发明属于环保执法取证技术领域,涉及一种噪声执法取证方法及装置,尤其涉及一种基于噪声溯源的执法取证方法及装置。
背景技术
随着经济社会发展,城市噪声污染持续影响市民的正常生活。市民对于噪声投诉也与日俱增。目前的噪声取证方法主要包括以下几种:
1、人工取证法:人工观察、记录噪声情况,并对噪声进行定性、定量分析。这种方法主要依赖人工的主观判断和记录,取证效率较低且易受环境因素影响。
2、声音记录仪取证法:使用声音记录仪记录噪声情况,然后进行声音信号处理和分析,以确定噪声来源。该方法需要专业设备和技术支持,成本较高,且仍存在信号干扰等问题。
3、智能手机取证法:利用智能手机等移动设备的录音功能进行噪声录制,并通过相应的软件进行处理和分析。这种方法成本较低,易于操作,但仍存在信号质量等问题。
综合来看,以上几种方法都需要人工携带手机、录音笔等有录音功能的设备前往噪音出现的地方,将噪音录制下来后进行分析。这种方式存在着以下几点问题:
1、主观性大:人工噪声取证存在主观性,取证人员容易受个人主观因素的影响,从而对取证结果产生偏见或错误判断。例如,在判断噪声是否达到了规定标准时,可能因为个人经验和判断不准确而导致取证结果不准确。
2、时效性差:人工噪声取证需要人工进行取证和记录,需要一定的时间和精力,不能实现实时监测和记录。这会导致取证结果不够准确或者无法及时得到。
3、成本高:人工噪声取证需要耗费大量的人力、物力和财力,包括人工设备、人员培训等方面,成本较高。
4、取证难度大:人工噪声取证需要对噪声来源进行准确定位,需要在多种复杂的环境中进行取证,取证难度较大,对取证人员的技能和经验要求较高。
5、数据处理不便:人工噪声取证需要将采集到的数据进行处理和分析,但是由于采集到的数据量较大、格式不一,处理和分析难度较大,效率较低。
因此,针对上述现有技术中存在的缺陷,需要研发一种新型的噪声执法取证方法及装置。
发明内容
为了克服现有技术的缺陷,本发明提出一种基于噪声溯源的执法取证方法及装置,其能够提高取证的准确性、提高取证的效率和便捷性、降低取证成本和实现取证过程的可视化。
为了实现上述目的,本发明提供如下技术方案:
一种基于噪声溯源的执法取证方法,其特征在于,包括以下步骤:
噪声污染时段判断:实时采集噪声音频,并根据采集的噪声音频实时计算噪声的分贝值大小,若噪声的分贝值大于设定的环境噪声阈值,则认为采集噪声音频的时段为噪声污染时段;
噪声声源定位:利用噪声声源定位方法,确定噪声污染时段内噪声声源的位置;
调取摄像头进行图像资料采集:调取周边摄像头,调整摄像头的角度,利用摄像头对噪声声源进行拍照或录像以获得图像资料;
数据分析:根据所述噪声音频确定噪声种类,并结合所述图像资料确认噪声来源。
优选地,采用内设麦克风阵列的固定噪声监测设备实时采集噪声音频。
优选地,所述噪声声源定位方法包括基于可控波束的声源定位方法、基于时延的声源定位方法和基于高分辨率谱分析的声源定位方法。
优选地,基于所述固定噪声监测设备的坐标、摄像头相对于所述固定噪声监测设备的坐标、摄像头的初始朝向以及噪声声源相对于所述固定噪声监测设备的坐标调整所述摄像头的角度。
优选地,基于所述固定噪声监测设备的坐标、摄像头相对于所述固定噪声监测设备的坐标、摄像头的初始朝向以及噪声声源相对于所述固定噪声监测设备的坐标调整所述摄像头的角度具体为:
设定所述固定噪声监测设备的坐标为(0,0,0),摄像头相对于所述固定噪声监测设备的坐标为(x,y,z),摄像头的初始朝向为水平正北,噪声声源相对于所述固定噪声监测设备的坐标为(l,m,n),
根据几何关系,所述摄像头水平转动角度的计算方式如下:
将正北方向表示为单位向量,设为N = (0, 1, 0),水平转动角度即为向量与单位向量N的夹角,即
;
根据几何关系,所述摄像头垂直转动角度的计算方式如下:
将垂直向上方向表示为单位向量,设为C = (0, 0, 1),垂直转动角度即为向量与单位向量C的夹角,即
;
根据所述摄像头水平转动角度和所述摄像头垂直转动角度调整所述摄像头。
优选地,根据所述噪声音频确定噪声种类具体为:根据所述噪声音频,采用机器学习的方式确定噪声种类。
优选地,采用机器学习的方式确定噪声种类包括使用神经网络进行音频分类以确定噪声种类、使用决策树方法进行音频分类以确定噪声种类、使用隐马尔可夫模型进行音频分类以确定噪声种类、使用卷积网络进行音频分类以确定噪声种类、使用循环网络进行音频分类以确定噪声种类、使用贝叶斯分类器进行音频分类以确定噪声种类和使用全连接网络进行音频分类以确定噪声种类。
此外,本发明还提供一种基于噪声溯源的执法取证装置,其特征在于,所述装置包括:
噪声污染时段判断模块,其用于实时采集噪声音频,并根据采集的噪声音频实时计算噪声的分贝值大小,若噪声的分贝值大于设定的环境噪声阈值,则认为采集噪声音频的时段为噪声污染时段;
噪声声源定位模块,其利用噪声声源定位方法,确定噪声污染时段内噪声声源的位置;
图像资料采集模块,其调取周边摄像头并调整摄像头的角度,利用摄像头对噪声声源进行拍照或录像以获得图像资料;
数据分析模块,其根据所述噪声音频确定噪声种类,并结合所述图像资料确认噪声来源。
与现有技术相比,本发明的基于噪声溯源的执法取证方法及装置具有如下有益技术效果中的一者或多者:
1、能够提高执法取证的准确性:传统的噪声取证方法往往只能获取噪声水平的数据,而无法记录噪声的来源和环境背景等信息,而本发明的结合摄像头的噪声取证方法可以同时获取噪声水平和噪声来源的信息,从而更加准确地进行取证。
2、能够实现取证过程的可视化:本发明的结合摄像头的噪声取证方法可以将噪声数据和图像信息结合起来,实现取证过程的实时可视化,这有助于监督和审核取证过程,提高取证的公正性和可信度。
3、能够提高取证效率和便捷性:本发明的结合摄像头的噪声取证方法可以实现自动化取证,无需专业取证人员,同时可以对多个位置进行同时取证,提高了取证效率和便捷性。
4、能够降低取证成本:传统的噪声取证方法通常需要专业的取证人员和设备,取证过程耗时耗力,成本较高,而本发明的结合摄像头的噪声取证方法可以降低取证成本,减少人力和设备投入。
5、其通过调整摄像头的角度,能够确保对噪声声源进行准确的拍照或摄像,以便于提供确切的证据。
附图说明
图1为本发明的基于噪声溯源的执法取证方法的流程图。
图2示出了两个麦克风Xi、Xj和噪声声源的位置关系。
图3为本发明的基于噪声溯源的执法取证装置的构成示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明,实施例的内容不作为对本发明的保护范围的限制。
本发明提供一种基于噪声溯源的执法取证方法及装置,其将摄像头与固定噪声监测设备相结合,固定噪声监测设备能够采集到噪声音频以及噪声源位置方向,通过调取摄像头能够采集到噪声源的图像,同时采集到的噪声音频可以通过机器学习的方式识别出噪声源的种类,实现取证自动化。
图1示出了本发明的基于噪声溯源的执法取证方法的流程图。如图1所示,本发明的基于噪声溯源的执法取证方法包括以下步骤:
一、噪声污染时段判断。
实时采集噪声音频,根据采集的噪声音频实时计算噪声的分贝值大小并将噪声的分贝值与环境噪声阈值进行比较,若噪声的分贝值大于设定的环境噪声阈值,则认为采集噪声音频的时段为噪声污染时段。
在本发明中,可以采用内设麦克风阵列的固定噪声监测设备实时采集噪声音频。并且,环境噪声阈值可以根据国家有关规定或者噪声防范标准确定,本发明不对其进行限定。
二、噪声声源定位。
利用噪声声源定位方法,确定噪声污染时段内噪声声源的位置。
在本发明中,由于采用的是内设麦克风阵列的固定噪声监测设备,所以,所述噪声声源定位方法可以包括基于可控波束的声源定位方法、基于时延的声源定位方法和基于高分辨率谱分析的声源定位方法等。
下面以基于时延的声源定位方法为例,介绍如何进行噪声声源定位。
时延是指同一声源传播在过程中,麦克风阵列中各个麦克风因摆放位置不同而产生的时间差。基于时延的声源定位方法首先通过一定的手段将麦克风之间的时延测出,然后根据时间、声速、距离三者之间的物理关系并结合几何算法进行声源定位。该方法分为两个步骤:时延估计和定位估计。
1、时延估计。
基本时延的估计步骤如下:
假设第i个麦克风和第j个麦克风接收到的声源信号分别为:
(1)
(2)
其中,s(t)表示接收到的有用信号,为信号到达第i个麦克风和第j个麦克风的传输增益,/>为信号到达第i个麦克风和第j个麦克风的时间。
计算时,每两个麦克风为一对,两个麦克风(也就是,第i个麦克风和第j个麦克风)之间的互相关函数为:
(3)
将公式(1)、(2)代入公式(3),则
(4)
其中,表示信号/>和/>的自相关函数,/>表示第i个麦克风和第j个麦克风接收信号的时间差,即时延。
根据自相关的性质,所以/>在/>处取得最大值,因此,互相关函数取得最大值的/>即为时延/>。
2、定位估计。
假设两个麦克风Xi、Xj和噪声声源的位置关系如图2所示。
则根据几何模型关系可以得到:
(5)
其中,c为声速,为时延。
假设声源S的极坐标为,转换成直角坐标系为/>,将声源S的坐标和两个麦克风的坐标/>代入公式(5),得到
则利用阵列中若干对麦克风得到的多个方位角的交点即为最终所确定的声源的位置。
三、调取摄像头进行图像资料采集。
调取周边摄像头,调整摄像头的角度,利用摄像头对噪声声源进行拍照或录像以获得图像资料。
在本发明中,可以基于所述固定噪声监测设备的坐标、摄像头相对于所述固定噪声监测设备的坐标、摄像头的初始朝向以及噪声声源相对于所述固定噪声监测设备的坐标调整所述摄像头的角度。
具体地,设定所述固定噪声监测设备的坐标为(0,0,0),摄像头相对于所述固定噪声监测设备的坐标为(x,y,z),摄像头的初始朝向为水平正北(正北指y轴正向),噪声声源相对于所述固定噪声监测设备的坐标为(l,m,n)。
根据几何关系,所述摄像头水平转动角度的计算方式如下:
将正北方向表示为单位向量,设为N = (0, 1, 0),水平转动角度即为向量与单位向量N的夹角,即
;
根据几何关系,所述摄像头垂直转动角度的计算方式如下:
将垂直向上方向表示为单位向量,设为C = (0, 0, 1),垂直转动角度即为向量与单位向量C的夹角,即
。
有了水平转动角度和垂直转动角度,即可按照所述水平转动角度和垂直转动角度调整所述摄像头,使得所述摄像头正好对着噪声声源,以便于获得噪声声源的图像或视频。
五、数据分析。
在获得了噪音音频之后,可以根据所述噪声音频确定噪声种类;同时,可以结合所述图像资料确认噪声来源,从而便于确定责任单位和责任人。
在本发明中,根据所述噪声音频,可以采用机器学习的方式对确定噪声种类。也就是,采用机器学习的方式对音频进行分类以获得不同的噪声种类,然后将所述噪声音频与各个噪声种类进行比对,以确定所述噪声音频对应的噪声种类。
其中,采用机器学习等方式确定噪声种类包括使用神经网络进行音频分类以确定噪声种类、使用决策树方法进行音频分类以确定噪声种类、使用隐马尔可夫模型进行音频分类以确定噪声种类、使用卷积网络进行音频分类以确定噪声种类、使用循环网络进行音频分类以确定噪声种类、使用贝叶斯分类器进行音频分类以确定噪声种类、使用全连接网络进行音频分类以确定噪声种类等。
而且,在本发明中,在进行了数据分析之后,可以根据数据分析结果制作噪声污染调查报告,包括噪声来源、噪声水平、影响范围、责任单位和责任人等信息,并提出整改建议。
此外,本发明还涉及一种基于噪声溯源的执法取证装置。如图3所示,本发明的基于噪声溯源的执法取证装置包括:
噪声污染时段判断模块,其用于实时采集噪声音频,并根据采集的噪声音频实时计算噪声的分贝值大小,若噪声的分贝值大于设定的环境噪声阈值,则认为采集噪声音频的时段为噪声污染时段;
噪声声源定位模块,其利用噪声声源定位方法,确定噪声污染时段内噪声声源的位置;
图像资料采集模块,其调取周边摄像头并调整摄像头的角度,利用摄像头对噪声声源进行拍照或录像以获得图像资料;
数据分析模块,其根据所述噪声音频确定噪声种类,并结合所述图像资料确认噪声来源。
最后应当说明的是,以上实施例仅用以说明本发明的技术方案,而非对本发明保护范围的限制。本领域的技术人员,依据本发明的思想,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的实质和范围。
Claims (8)
1.一种基于噪声溯源的执法取证方法,其特征在于,包括以下步骤:
噪声污染时段判断:实时采集噪声音频,并根据采集的噪声音频实时计算噪声的分贝值大小,若噪声的分贝值大于设定的环境噪声阈值,则认为采集噪声音频的时段为噪声污染时段;
噪声声源定位:利用噪声声源定位方法,确定噪声污染时段内噪声声源的位置;
调取摄像头进行图像资料采集:调取周边摄像头,调整摄像头的角度,利用摄像头对噪声声源进行拍照或录像以获得图像资料;
数据分析:根据所述噪声音频确定噪声种类,并结合所述图像资料确认噪声来源。
2.根据权利要求1所述的基于噪声溯源的执法取证方法,其特征在于,采用内设麦克风阵列的固定噪声监测设备实时采集噪声音频。
3.根据权利要求2所述的基于噪声溯源的执法取证方法,其特征在于,所述噪声声源定位方法包括基于可控波束的声源定位方法、基于时延的声源定位方法和基于高分辨率谱分析的声源定位方法。
4.根据权利要求3所述的基于噪声溯源的执法取证方法,其特征在于,基于所述固定噪声监测设备的坐标、摄像头相对于所述固定噪声监测设备的坐标、摄像头的初始朝向以及噪声声源相对于所述固定噪声监测设备的坐标调整所述摄像头的角度。
5.根据权利要求4所述的基于噪声溯源的执法取证方法,其特征在于,基于所述固定噪声监测设备的坐标、摄像头相对于所述固定噪声监测设备的坐标、摄像头的初始朝向以及噪声声源相对于所述固定噪声监测设备的坐标调整所述摄像头的角度具体为:
设定所述固定噪声监测设备的坐标为(0,0,0),摄像头相对于所述固定噪声监测设备的坐标为(x,y,z),摄像头的初始朝向为水平正北,噪声声源相对于所述固定噪声监测设备的坐标为(l,m,n),
根据几何关系,所述摄像头水平转动角度的计算方式如下:
将正北方向表示为单位向量,设为N = (0, 1, 0),水平转动角度即为向量与单位向量N的夹角,即
;
根据几何关系,所述摄像头垂直转动角度的计算方式如下:
将垂直向上方向表示为单位向量,设为C = (0, 0, 1),垂直转动角度即为向量与单位向量C的夹角,即
;
根据所述摄像头水平转动角度和所述摄像头垂直转动角度调整所述摄像头。
6.根据权利要求1-5中任一项所述的基于噪声溯源的执法取证方法,其特征在于,根据所述噪声音频确定噪声种类具体为:根据所述噪声音频,采用机器学习的方式确定噪声种类。
7.根据权利要求6所述的基于噪声溯源的执法取证方法,其特征在于,采用机器学习的方式确定噪声种类包括使用神经网络进行音频分类以确定噪声种类、使用决策树方法进行音频分类以确定噪声种类、使用隐马尔可夫模型进行音频分类以确定噪声种类、使用卷积网络进行音频分类以确定噪声种类、使用循环网络进行音频分类以确定噪声种类、使用贝叶斯分类器进行音频分类以确定噪声种类和使用全连接网络进行音频分类以确定噪声种类。
8.一种基于噪声溯源的执法取证装置,其特征在于,所述装置包括:
噪声污染时段判断模块,其用于实时采集噪声音频,并根据采集的噪声音频实时计算噪声的分贝值大小,若噪声的分贝值大于设定的环境噪声阈值,则认为采集噪声音频的时段为噪声污染时段;
噪声声源定位模块,其利用噪声声源定位方法,确定噪声污染时段内噪声声源的位置;
图像资料采集模块,其调取周边摄像头并调整摄像头的角度,利用摄像头对噪声声源进行拍照或录像以获得图像资料;
数据分析模块,其根据所述噪声音频确定噪声种类,并结合所述图像资料确认噪声来源。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311170415.9A CN116915932A (zh) | 2023-09-12 | 2023-09-12 | 一种基于噪声溯源的执法取证方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311170415.9A CN116915932A (zh) | 2023-09-12 | 2023-09-12 | 一种基于噪声溯源的执法取证方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116915932A true CN116915932A (zh) | 2023-10-20 |
Family
ID=88363343
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311170415.9A Pending CN116915932A (zh) | 2023-09-12 | 2023-09-12 | 一种基于噪声溯源的执法取证方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116915932A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110689727A (zh) * | 2019-11-05 | 2020-01-14 | 中电科仪器仪表有限公司 | 基于正四面体麦克风阵列的车辆鸣笛抓拍装置及方法 |
CN210271237U (zh) * | 2019-09-27 | 2020-04-07 | 北京华科合创科技发展有限公司 | 一种抓拍系统 |
US20210193165A1 (en) * | 2019-12-18 | 2021-06-24 | Audio Analytic Ltd | Computer apparatus and method implementing combined sound recognition and location sensing |
CN114283588A (zh) * | 2022-01-07 | 2022-04-05 | 刘高峰 | 一种用于车辆鸣笛抓拍系统防误报的方法 |
CN114332760A (zh) * | 2021-12-24 | 2022-04-12 | 北京声智科技有限公司 | 噪声行为监控方法、装置及电子设备 |
CN116105852A (zh) * | 2022-12-23 | 2023-05-12 | 深圳市生态环境智能管控中心 | 一种智能型噪声超标违法取证装置 |
-
2023
- 2023-09-12 CN CN202311170415.9A patent/CN116915932A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN210271237U (zh) * | 2019-09-27 | 2020-04-07 | 北京华科合创科技发展有限公司 | 一种抓拍系统 |
CN110689727A (zh) * | 2019-11-05 | 2020-01-14 | 中电科仪器仪表有限公司 | 基于正四面体麦克风阵列的车辆鸣笛抓拍装置及方法 |
US20210193165A1 (en) * | 2019-12-18 | 2021-06-24 | Audio Analytic Ltd | Computer apparatus and method implementing combined sound recognition and location sensing |
CN114332760A (zh) * | 2021-12-24 | 2022-04-12 | 北京声智科技有限公司 | 噪声行为监控方法、装置及电子设备 |
CN114283588A (zh) * | 2022-01-07 | 2022-04-05 | 刘高峰 | 一种用于车辆鸣笛抓拍系统防误报的方法 |
CN116105852A (zh) * | 2022-12-23 | 2023-05-12 | 深圳市生态环境智能管控中心 | 一种智能型噪声超标违法取证装置 |
Non-Patent Citations (1)
Title |
---|
吕晓玲: "基于听觉信息的机器人声源定位技术研究", 《信息科技辑》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11398235B2 (en) | Methods, apparatuses, systems, devices, and computer-readable storage media for processing speech signals based on horizontal and pitch angles and distance of a sound source relative to a microphone array | |
CN103324937B (zh) | 标注目标的方法和装置 | |
CN111222574B (zh) | 基于多模型决策级融合的舰船与民船目标检测与分类方法 | |
CN108229441B (zh) | 一种基于图像和语音分析的课堂教学自动反馈系统和反馈方法 | |
CN110135521A (zh) | 基于卷积神经网络的极片极耳缺陷检测模型、检测方法及系统 | |
CN112396887B (zh) | 基于声源定位和面部检测的pbl课堂记录方法和系统 | |
CN110675395A (zh) | 输电线路智能在线监测方法 | |
CN110807585A (zh) | 一种学员课堂学习状态在线评估方法及系统 | |
CN112149667A (zh) | 一种基于深度学习的指针式仪表的自动读数的方法 | |
CN110852164A (zh) | 一种基于YOLOv3的自动检测违章建筑方法及系统 | |
CN115661057A (zh) | 一种基于云边协同和深度学习的工业无损检测系统与方法 | |
CN112348052A (zh) | 一种基于改进EfficientNet的输变电设备异常声源定位方法 | |
CN101377885A (zh) | 车辆违章鸣笛电子取证工作站及取证方法 | |
CN108734072A (zh) | 一种多源对象关联方法及装置 | |
CN116761049B (zh) | 一种家用智能安防监控方法及系统 | |
CN116915932A (zh) | 一种基于噪声溯源的执法取证方法及装置 | |
CN111985432A (zh) | 一种基于贝叶斯定理和自适应权值调整的多模态数据融合方法 | |
CN104200815B (zh) | 一种基于相关分析的音频噪声实时检测方法 | |
CN116403085A (zh) | 一种基于多任务的变电站多指针仪表识别方法及装置 | |
CN115546099A (zh) | 一种基于卷积神经网络的锻件探伤缺陷检测方法及装置 | |
CN112419319A (zh) | 一种麦克风收音孔缺陷检测方法 | |
CN116337210A (zh) | 一种建筑施工作业的噪声评估系统 | |
CN212873520U (zh) | 一种面向无人驾驶车辆的交警指挥手势动态识别考核系统 | |
CN116468205B (zh) | 一种机动车环保检测质量监测方法及系统 | |
CN105957101A (zh) | 一种远程获取有用监控信息装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |