CN108028048B - 用于关联噪声和用于分析的方法和设备 - Google Patents
用于关联噪声和用于分析的方法和设备 Download PDFInfo
- Publication number
- CN108028048B CN108028048B CN201680048720.2A CN201680048720A CN108028048B CN 108028048 B CN108028048 B CN 108028048B CN 201680048720 A CN201680048720 A CN 201680048720A CN 108028048 B CN108028048 B CN 108028048B
- Authority
- CN
- China
- Prior art keywords
- location
- ambient noise
- noise
- determining
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 121
- 238000004458 analytical method Methods 0.000 title claims description 19
- 238000013508 migration Methods 0.000 claims abstract description 14
- 230000005012 migration Effects 0.000 claims abstract description 14
- 230000004913 activation Effects 0.000 claims abstract description 7
- 238000004590 computer program Methods 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 11
- 230000005355 Hall effect Effects 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 3
- 230000005236 sound signal Effects 0.000 description 24
- 230000000875 corresponding effect Effects 0.000 description 20
- 230000015654 memory Effects 0.000 description 20
- 238000011156 evaluation Methods 0.000 description 13
- 230000002452 interceptive effect Effects 0.000 description 11
- 230000005540 biological transmission Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 239000000872 buffer Substances 0.000 description 5
- 230000003139 buffering effect Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006866 deterioration Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 206010021703 Indifference Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000011511 automated evaluation Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000003365 glass fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000010972 statistical evaluation Methods 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/61—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
- G06F16/634—Query by example, e.g. query by humming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/018—Audio watermarking, i.e. embedding inaudible data in the audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Abstract
本发明的实施例提供了一种用于关联多个信号类别(如干扰噪声和非干扰噪声)中的至少一个信号类别(如干扰噪声)的噪声的方法。该方法包括以下步骤:“接收环境噪声”以及“确立环境噪声或从环境噪声导出的参数集是否满足描述了多个信号类别中的信号类别的预定义规则”。由此开始,进行以下步骤:“存入满足预定义规则”、“记录针对迁移时间窗口接收的环境噪声”、“从迁移时间窗口的环境噪声导出参数集并且存储参数集”或者“发出用于另一设备的激活信号以关联噪声”。
Description
技术领域
本发明的实施例涉及用于关联多个信号类别的至少一个信号类别的噪声/将噪声与多个信号类别的至少一个信号类别关联的方法和设备,并且涉及用于分析多个信号类别的至少一个信号类别的噪声的方法和设备。
背景技术
例如,噪声可细分为信号类别,如干扰噪声和非干扰噪声。例如,也可想到更多干扰的噪声和更少干扰的噪声的细分。
并不总是容易分类干扰噪声。知道存在影响噪声是否被感知为干扰噪声的不同因素是很重要的。鸟在主观上不会被感知为干扰噪声,甚至当其唧唧声很大(客观可测量参数:声压级)并且与其他环境噪声(客观可测量参数:动力学因素)明显不同时。然而,比起刚刚提到的鸟,显著较安静的飞机经过将被更多的测试人员感知为干扰噪声。
这里造成的结果是,例如使用当前的方法,为了允许预测噪声评估,当关于干扰噪声考察环境(如旅馆、旅馆或工作场所的健康区域)时,必须将评估留给测试人员。
例如,关于绝对响度或音量或相对于水平增大的纯粹自动化评估用作为第一提示,但是不足以用于最终评估。因此,需要改进的方法。
发明内容
主要方面
另一方面的目的是提供一种构思,其允许识别和分析信号类别的噪声,如干扰噪声和主观感知的干扰噪声。
这个目的是通过独立权利要求来实现的。
本发明的实施例提供一种用于关联多个信号类别(如干扰噪声和非干扰噪声)中的至少一个信号类别(如干扰噪声)的噪声的方法。该方法包括“接收环境噪声”和“确立环境噪声或从环境噪声导出的参数集是否满足描述多个信号类别中的信号类别的预定义规则”的步骤。由此,执行以下步骤:“存入已经满足预定义规则”、“记录针对迁移时间窗口接收到的环境噪声”、“从迁移时间窗口的环境噪声导出参数集并且存储该参数集”、或者“发出用于另一个设备的激活信号以关联至少一个信号类别的噪声”。
该方面的实施例基于以下发现:根据如对应另一方面(见下文)所确定的数据库,如通过将当前噪声环境与来自数据库的噪声或从数据库获得或存储在数据库中的参数(如音频指纹)进行比较,有可能识别主观上感知到的干扰噪声的存在,或者将噪声与类别相关联。该方法可以自动方式执行,并且可单独使用存储的数据库来允许预测噪声状况(鸟的鸣叫对比空气调节)的评估,而不需要人类进行的任何主观评估。
通过将环境噪声与先前缓冲的环境噪声进行比较,或者通过将当前导出的参数数据集(音频指纹)与先前确定的参数数据集进行比较,或者通过导出心理声学参数并将其与其预定的阈值进行比较,可示例性地完成对规则匹配进行识别。
另一个实施例涉及一种用于关联多个信号类别中的至少一个信号类别的噪声的设备。该设备包括用于连续收听当前环境噪声的麦克风、用于将当前环境噪声与存储在数据库中的数据进行比较的处理器(记录干扰噪声或描述干扰噪声的参数)以及用于一旦在当前的环境中已经识别出干扰噪声就输出信息的接口。在这里,数据(如之前确定的记录)和之前确定的音频指纹或之前确立的心理声学参数的阈值可存储在内部,或者根据另外的实施例,使用例如已经根据另外方面可确定的数据库在外部读取。
根据这些被识别的客观干扰噪声或信号类别,信息可进一步单独地或结合时间的指示、位置的指示或将干扰噪声分类成类别中的一个(对应的干扰组:稍微干扰、干扰、高度干扰)来处理。根据优选的实施例,这些信息被输出到外部数据库。
由于在该实施例中仅提供位置或该一个位置的评估,或者根据另外的实施例,也可想到将该评估扩展到若干个位置,如空间或室外环境中的若干个位置,即若干相邻位置(如分布在一个城市)。因此,另外的实施例提供了一种方法,其中“记录”、“比较”和“输出”的步骤被接收用于两个相邻位置。当存在两个相邻位置的信息时,例如,可确定第一位置和第二位置的记录之间的关系,以便确定主观感知的干扰噪声的移动、空间扩展或方向。
根据另一实施例,类似于识别干扰噪声,也可想到识别不同的序列(如控制指令),使用该序列输出对应的控制信号。在这里,与控制信号相关联的记录可以是语音命令,或者如前所述,被分类为干扰噪声的声音信号。例如,控制信号由自身执行该方法的设备输出,从而例如开始记录,或外部设备,如通过控制信号切换到记录模式的布置在不同位置处的另一个设备。
根据另外的实施例,上面概述的设备还可包括通信接口,用于与数据库通信以读取之前确定的干扰噪声或参数,或者用于输出关于干扰噪声的信息。根据另外的实施例,设备也有可能使用该通信接口与另一个设备进行通信,使得可针对两个相邻位置获得和/或分析干扰噪声。
子方面的实施例提供了一种用于分析信号类别的噪声的方法。该方法包括在第一位置和第二位置处连续记录当前环境噪声的步骤。在这里,记录进而意指直接记录环境噪声或者从与环境噪声有关的参数集(如音频指纹或心理声学参数)导出环境噪声。另外,对于每个记录,执行与先前获得的主观感知干扰噪声的记录或与描述干扰噪声的参数的比较,以便识别每个位置(第一位置和第二位置)的干扰噪声。记录之间的关系可根据在不同位置处包括一个干扰噪声的两个记录(第一记录和第二记录)来确定,以便能够更精确地分析所产生的干扰噪声,例如相对于其位置、扩展或运动。
该方面的实施例基于以下发现:使用两个不同位置处的同一个干扰噪声的两个记录的关系有可能获得关于干扰噪声本身的扩展信息。在这里,首先识别相应环境中(即,在第一位置和第二位置处)的干扰噪声,并且在被识别时这些干扰噪声彼此相关。有利地,在这里有可能获得关于干扰噪声的移动或干扰噪声的扩展或干扰噪声的传播方向的信息。另外,也有可能区分局部干扰噪声(即仅在一个位置处)和全局事件(即在几个位置处发生的事件)。使用该方法有可能识别特性噪声事件及其移动的传播。
根据实施例,确定第一记录和第二记录之间的关系的步骤通过分析第一记录和第二记录之间的水平差来完成。另选地或除此之外,在确定关系的步骤中也可能确立时间偏移,即在两个不同位置处确立的两个记录中的事件之间的延迟时间或运行时间偏移。另外,还可关于频率和霍尔效应的差异来评估两个记录。使用所有这些分析参数,有可能确定噪声源和记录位置之间的距离,因为声音通常随着距离的增加而减小,和/或存在频移,使得上频率被抵消。
根据另外的实施例,该方法包括分析相对于第一位置和第二位置之间的距离的音频事件或各个源,相对于主观干扰噪声源的移动进行分析和/或相对于主观干扰噪声源的数量进行比较。例如,这三种分析基于评估第一记录和第二记录之间的关系,即比较上述因素。
在该方面要提到的是,优选地使用迁移时间窗口来进行连续记录。此外,与上述方面一样,也可想到从外部读取待进行比较的噪声。
在这里要指出的是,该方法当然可扩展到第三位置。
在根据该方面的实施例中,当已经在第一位置处确定了干扰信号时,可在第二位置处开始记录,以便允许对传播的干扰信号进行时间上的分析。
另一实施例涉及一种用于分析信号类别的信号的系统。该系统包括具有一个麦克风的两个单元,每个单元用于连续记录当前环境噪声。两个单元可定位在不同的位置处,如相邻的位置。在这里,“记录”再次意指直接记录环境噪声并且从参数(如音频指纹)导出环境噪声。此外,该系统包括至少一个处理器,该处理器可集成在第一单元或第二单元中,并且被配置为通过将第一和第二单元的第一记录和第二记录与之前获得的至少一个记录/信号类别的信号的音频指纹或描述信号类别的信号的参数进行比较来识别噪声。另外,处理器被配置为确立第一记录和第二记录之间的关系。
根据实施例,两个单元可经由通信接口(如无线电接口)连接到彼此。
根据另外的实施例,提供了用于执行上述其中一个方法的计算机程序。
从属权利要求中定义了其它的改进。
另外的方面
本发明的实施例提供了一种用于从缓冲记录中生成数据库的方法。该方法包括"接收环境噪声"的步骤,该环境噪声示例性地包括干扰噪声,以及"迁移时间窗口的缓冲环境噪声",如30或60秒,例如或优选地多于5秒。另选地,也可想到该方法包括"导出关于环境噪声的参数集"和"缓冲迁移时间窗口的参数集"的步骤。缓冲的环境噪声或缓冲的参数集通常被称为记录。另外,该方法包括"获得信号"的步骤,该信号识别环境噪声中的多个信号类别(干扰噪声和非干扰噪声)中的信号类别(如干扰噪声)。第三个基本步骤是"响应于信号,将缓冲的记录存储”在如内部或外部存储器的存储器中。重复获得和存储的这些步骤,以便建立包括相同信号类别的多个缓冲记录的数据库。
本发明的实施例基于以下发现:使用连续记录并且将相关位置存储在环境中的设备,可建立数据库,其中存储了记录或记录的特性(如音频指纹或心理声学参数),使得能够在稍后的时间点识别这样的声音序列。在这里,例如,该构思假设"识别主观干扰噪声或者一类别的噪声"的步骤由使用按钮或者按键或另一输入接口来识别或者标记干扰噪声或者信号类别的人来执行。该信号用作从当前的连续记录切断序列或者提取特征并将其存储在具有待形成的数据库的存储器中的指示符。因此,有可能容易地建立用于明确地关联声音描述参数的干扰噪声或分类器的库,这之后允许对主观噪声感知进行预测。
根据实施例,通过包括如音量、动态、范围、动态增加、频谱、单调或重复字符的各个参数的参数(如音频指纹),或者通过如清晰度、脉冲特性、粗糙度、音调、变化强度或音量的心理声学参数,可描述主观干扰噪声。因此,根据另外的实施例,该方法包括确定缓冲记录的音频指纹或确定心理声学参数的步骤。通常,将记录或音频指纹存储在数据库中是足够的,而心理声学参数表示了附加信息。音频指纹的优点在于以匿名方式存储记录。
在从用户接口(如按键)获得信号的单个步骤中,也可获得主观地评估当前识别的控制噪声的另一个替代或附加信号。这种主观评估涉及将音频信号分配到信号类别(如较少干扰或较多干扰)。在这里,结合相应的部分或参数存储该主观评估。
根据另外的实施例,还可结合该部分或参数存储时间戳。根据另外的实施例,例如,也可想到通过GPS接收器存储当前的位置信息。为了不使数据库变得太大,以数据归纳(data-reduced)的方式存储待缓冲的数据也是可行的。
在这里要指出的是,根据实施例,存储器或数据库被直接包含在执行该方法的相应设备中,或者可根据另一个实施例在外部提供。
另外的实施例涉及对应的设备。该设备包括用于连续记录的麦克风、用于缓冲的缓冲器、用于接收信号的接口以及用于存储属于与识别的干扰噪声有关的信号类别(音频文件、音频指纹或心理声学参数)的记录的另一个存储器。根据另外的实施例,该设备可包括输入接口(如按键),使用该输入接口可确认主观干扰噪声的存在,或者通常可将噪声分配到信号类别。例如,输入装置可通过分类几个信号类别中的一个类别(即通过评估)来扩展。还根据另外的实施例,设备还可包括通信接口,通过该通信接口连接外部存储器(外部数据库)。
根据另外的实施例,提供了用于执行所描述的其中一个方法的计算机程序。
附图说明
接着将参考附图详述本发明的实施例,其中:
图1a是用于描绘根据基本变型中方面1“建立数据库”的方法的流程图;
图1b是用于描绘根据方面1的扩展方法的流程图;
图1c至图1f示出了方面1的设备的变型;
图2a是用于描绘方面2“识别信号类别的噪声”的对应基本变型的方法的流程图;
图2b是方面2的扩展实施例的流程图;
图2c是方面2的设备的示意性框图;
图3a是用于描绘方面3“分析各个信号类别的噪声”的基本变型的方法的流程图;
图3b是方面3的设备的示意性框图。
具体实施方式
在下面更详细地讨论本方面的实施例之前,需要指出的是,相同效果的元件和结构具有相同的附图标记,使得其描述可相互适用或可互换。
图1a示出了用于建立数据库的方法100,该方法包括“使用麦克风11接收和记录110和信号接收”120的步骤。当已经接收到信号120时(参见判定125的地方),将步骤110的记录存储在数据库中,其使用步骤130示出。该步骤130基本上表示基本方法100的结束(参见端点135)。
关于“记录110”的步骤要指出的是,在记录时,通常可存在编码的子步骤。编码也可被实现为使得获得所谓的音频指纹,即用于记录的特性参数的导出。与记录相比较时,该音频指纹被强烈地压缩并因此被匿名化,其中,音频指纹仍然允许使用音频指纹来识别可比较的噪声,即相同类别的噪声。通常,可描述音频指纹,使得其作为音频信号的表示,该表示代表了音频信号的所有基本特征,使得能够进行随后的分类。音频指纹通常不足以允许解码以形成真实的音频信号,并且因此保护了隐私。类似地,或并行于编码,可存在导出描述记录的参数(如心理声学参数)的子步骤。
记录过程110也可被描述为环形缓冲器,因为记录通常会被重复覆盖,并且因此仅缓冲预定的周期,如例如120秒、60秒或30秒,或者通常多于5秒。该环形缓冲器还提供了满足隐私要求的优点。当获得信号120时,使用步骤130,将上一周期的环境噪声的该时间窗口存储或最终存储在另一存储器(如数据库)中,使得其稍后可用。为了有效地建立数据库,针对一个或不同信号类别的若干信号重复执行方法100。
该方法100用于建立数据库,其中识别了麦克风11接收(即记录)的主观干扰噪声。当用户已经识别到环境中的干扰噪声时,使用由用户执行的步骤完成识别,该步骤使用按键12(或者通常为用户输入接口12)来示例性地执行“信号120输出”步骤。因为麦克风110监听环境噪声并且在步骤110中对这些环境噪声进行缓冲,所以这些干扰噪声也被记录,使得可将缓冲记录或其一部分存储在用于建立数据库的永久存储器中(参见步骤130)。在用户没有识别到干扰噪声的情况下,将重复该方法,使用了从主观评估(判定元素125)到开始点101的箭头来说明该过程。
该方法的优点在于,以这种方式可建立足够宽的数据库,该数据库包括与主观感知干扰噪声相关联的多个记录或参数(如音频指纹)。
在这里要指出的是,该过程会造成信号的时间点对时间窗口的依赖性。示例性地,在信号的时间处的时间窗口的开始在信号的时间之前相距固定距离,如30秒或60秒,这会造成相关性。另外,时间窗口的结束还可取决于信号的时间,使得信号的时间与时间窗口的结束一致,或者例如存在5秒的时间距离(在信号的时间之前结束)。通常,对相关性进行选择,使得记录时间窗口将总是在信号的时间之前,其中信号也可在时间窗口内。
图1b示出了扩展方法100',该方法也允许建立数据库,但是具有扩展信息。方法100'通常基于方法100,并且其过程受到开始101和结束135的限制。因此,方法100'还包括以下基本步骤:记录110'、接收120'相关于主观噪声评估或者通常相对于将接收的信号分配成从多个信号类别(如非干扰噪声、轻微干扰噪声和高度干扰噪声)中的一个信号类别(如干扰噪声)的信号,以及像使用数据库一样存储缓冲记录130。另外,步骤130和120'通过判定点125连接。
在该实施例中,记录步骤110'被细分成两个子步骤,即110a'和110b'。例如,步骤110a涉及计算心理声学参数,如粗糙度、清晰度、音量、音调和脉冲特性和/或变化强度。步骤110b被归纳为确定描述该记录的音频指纹,使得之后可再次使用音频指纹识别特性特征。
可存在不同的输入装置来执行主观噪声评估的步骤120'。这些是“使用执行方法100'的设备上的按键或按钮的评估(参考附图标记12a')”,使用问卷使主观噪声评估关联(参考附图标记12b'),或者使用智能设备评估(参考附图标记12c')。为了执行主观噪声评估120'的步骤,可单独或组合使用这三个评估变型12a'、12b'和12c'。一旦存在评估(参考判定点125)、心理声学参数(附图标记110a')和/或音频指纹(参考附图标记110b')就会被存储在存储器中,其在步骤130中示出。
根据另外的实施例,除了纯粹的参数或指纹或者音频记录的部分之外,还可添加时间和/或位置信息。这些也在步骤130中被存储并且源于另一个步骤132,该步骤对应地包括:确定当前位置和/或确定当前时间。
当数据库已经建立并且具有对应的大小(参考步骤130)时,其可如在步骤132中所示的那样通过相关或统计评估来进行评估。
上述方法100和100'的典型应用情况是例如设备位于旅馆房间中并且监视当前的环境噪声。当旅馆的客人想要在其旅馆的房间里安静和宁静,但是干扰噪声阻止其这样做时,他或她可标记这些干扰噪声。这可能会造成这样的结果,即房间的声音可能不会太大,但是可能存在一定的噪声,如阻止客人入睡的空气调节。使用该设备,他或她可执行主观评估,即分类为信号类别,如“干扰”、“非常干扰”或“高度干扰”。评估表征了使用不同参数评估的噪声情况。最后,音频指纹、心理声学参数,或者一般来说,与信号类别中的一个类型相关联的记录被存储在数据库中。
下面参考图1c、图1d和图1e讨论设备的三种变型。
图1c示出了第一设备变型,即设备20,其经由接口或无线电接口连接到实际的信号处理单元(未示出),并且基本上被配置为发出用于识别干扰信号或特定信号类别的信号。在这里,本实施例中的设备22包括可执行主观评估的两个按键24a和24b。这些按键24a和24b与不同的信号类别相关联。
设备20可示例性地为智能设备(如平板电脑、智能手表、智能电话),其包括集成在应用中的虚拟按键24a和24b。该应用还可示例性地包含问卷,通过该问卷可从用户(如旅馆客人)收集一般质量的其它信息。
当操作按钮24a或24b时,在实际的数据收集设备中执行缓冲环境噪声或导出参数并且然后真正存储的方法。例如,该外部设备可以是在各个监视位置处具有麦克风的服务器。
图1d示出了另一种变型,其中,用于接收环境噪声的内部麦克风26集成在包括按钮24a和24b的设备20'中。除此之外或另选地,外部麦克风26e可经由接口连接到设备20'。
图1e示出了不再包括作为输入装置的按钮的设备20”的另一个变型,但是其仅包括内部麦克风26或任选的或另选的外部麦克风26e,并且可以使用可与信号类别的环境噪声相关联的该语音命令来控制。
参考设备20'和20”,在这一点上应该注意,即也可连接几个外部麦克风。在这里也可想到,除了正常的空气传播声音之外,还记录结构传播声音(意味着各个设备包括结构传播声音接收器)。
参考图1c和图1d的实施例,需注意,不同的按钮24a和24b也可通过其它的按钮来扩展。为了区分按钮,可提供颜色编码:红色=干扰、黄色=无差别、绿色=非常令人愉快的环境噪声(后者示例性地适用于当鸟鸣叫清晰可见但被感知为理想的噪声时)。
参考图1c至1d,需要提到的是,设备20、20'和20”可另外被集成为软件应用程序,并且另外集成在如智能电话、平板电脑或智能手表的设备中。这些软件应用程序能够允许以下功能:
-通过问卷调查技术或不同的主观获得技术扩展上述噪声质量的检测;
-使用存在于其它设备中的传感器系统(麦克风、GPS、倾斜传感器、生物反馈功能);
-无线或(如果适用的话)与在这里开发的用于数据通信的设备的机械连接;
-使用这里开发的软件完全控制这里开发的设备。
图1f示出了设备20”'的部件。设备20”'包括麦克风26、用于校准麦克风的任选的校准装置26k以及处理单元42和存储器44。
处理装置42包括用于对音频文件进行编码或者用于导出音频指纹的预处理46,以及用于确定心理声学参数的单元48。预处理46的元数据和单元48的心理声学参数都被写入存储器44。另外,音频信号可通过例如由按钮控制的单元49更准确地存储或存储在存储器44中。
校准装置26k用于为所有传感器提供定义的灵敏度值。在这里,预先执行例如开关的测量或记录、频率响应或压缩。
根据所存储的音频样本、元数据(心理声学参数的音频指纹)以及借助于来自图1c至图1d的输入装置中的一个装置获得的标记,然后可执行借助于数据分析器50的实际数据分析,以及与各个信号类别的关联。
这里要指出的是,该设备通常是移动设备,因此通常可使用电池或蓄电池向其供应电力。另选地,常规的电源也是可行的。为了存储记录,该设备还可包括存储介质,如便携式存储介质(如SD卡)或与服务器的连接。通过有线或玻璃纤维接口或甚至无线电接口完成与服务器的连接。在协议层面上,存在不同的方式来做这个,其在这里将不再详细讨论。
为了提高可评估性,该设备还可包括用于与其他设备精确同步的装置,例如,如时间码或世界时钟。另外,也可想到将该设备耦接到位置确定单元(如GPS接收器),或者将其集成在一起,以便确定哪个干扰噪声已经被确定在哪个位置或者被感知为是干扰的。
在这里要指出的是,对应于其它的实施例,方法100或100'还可包括预校准(参考校准装置26k)。这意味着,对应于实施例,上面讨论的方法100或100'包括校准的步骤。
关于方面1,要指出的是,对应于实施例,还可想到的是,所有这些设备都执行测量数据的数据归纳的记录,以便归纳数据。数据归纳对于长期测量也可以是有利的。根据压缩或错误的程度,可确保隐私被保留,因为监视的数据可总是被压缩,使得基本上只有参数,如心理声学参数(粗糙度、清晰度、音调等)或音频指纹被记录。这里要再次指出的是,对于数据和消费者保护而言,是否使用记录或音频指纹或是仅仅心理声学参数的精确判定本质上受法律框架条件的影响。
如上面已经讨论的,使用所谓的“音频指纹”,其中,存在将在下面更详细地讨论的其不同的变型。已经知道许多方法,使用这些方法可从音频信号中提取特征或指纹。美国专利号5,918,223公开了一种用于基于内容的分析、存储、恢复和分割音频信息的方法。音频数据的分析生成被称为特征向量的一组数值,其可用于对各个音频片段之间的相似度进行分类和排列等级。音频片段的音量、音高、音调的亮度、带宽和所谓的Mel频率倒谱系数(MFCC)被用作表征或分类音频片段的特征。每个块或帧的值被存储,然后相对于时间进行一阶求导。为了描述随时间的变化,根据其计算出包括其一阶求导的这些特征中的每一个特征的统计量,如平均值或标准偏差。这组统计量形成特征向量。特征向量因此是音频片段的指纹并且可存储在数据库中。
Yao Wang等人在专家刊物“多媒体内容分析”(IEEE信号处理杂志,2000年11月,第12页至第36页)公开了用于对多媒体片段进行索引和表征的类似概念。为了确保音频信号与特定类别的有效关联,已经开发了许多特征和分类器。建议将时间范围特征或频率范围特征作为用于分类多媒体片段的内容的特征。这些包括音量、作为音频信号形状的基本频率的音高、频谱特征(如频带相对于总能量内容的能量内容)、频谱过程中的截止频率等。除了涉及所谓音频信号样本的每块尺寸的短时特征之外,建议与音频片段的较长周期有关的长期量。通过形成各个特征的时间差来形成另外的典型特征。块中获得的特征也很少这样直接传递用于分类,因为他们表现出太高的数据速率。一种进一步处理的传统形式是计算短期统计。在这些统计中,例如,进行计算平均值、方差和时间相关系数。这降低了数据速率,并且另一方面导致改进了对音频信号的识别。
WO 02/065782描述了一种形成指纹以形成多媒体信号的方法。该方法涉及从音频信号中提取一个或几个特征。这里的音频信号被分成段,并且在每个段中进行块和频带的处理。以示例的方式提及了功率密度谱的能量、音调和标准偏差的逐频带计算。
从DE 101 34 471和DE 101 09 648已知一种用于分类音频信号的设备和方法,其中,通过音频信号的音调的量度来获得指纹。这里的指纹允许对音频信号进行稳健的、基于内容的分类。在这里提到的文件揭示了在音频信号上生成音调的量度的几种可能性。在这种情况下,将音频信号的段转换到频谱范围是计算音调的基础。然后可并行计算对于一个频带或所有频带的音调。然而,这种系统的缺点是,随着音频信号失真的增加,指纹不再具有足够的表现力,并且在满足可靠性的情况下不再可能识别音频信号。然而,在许多情况下都会发生失真,特别是当使用低传输质量的系统传输音频信号时。目前,在移动系统或强数据压缩的情况下尤其如此。这样的系统(如移动电话)主要被实现用于语音信号的双向传输,并且经常只以非常低的质量传输音乐信号。还存在另外的因素,这些因素可具有对传输信号的质量的负面影响,如低质量的麦克风、信道干扰和转码效应。对于用于识别和分类信号的设备,信号质量恶化会造成是识别性能严重劣化。检查已经揭示,特别是当使用根据DE101 34 471和DE 101 09 648的设备或方法时,保持音调的识别标准(频谱平坦度测量)时系统中的变化不会导致识别性能中另外的显著改进。
当假设已经建立了包括噪声(如不同信号类别的干扰噪声)的足够的数据库时,由此,可在任何环境中搜索特定的干扰噪声,然后可存入是否已经识别这样的干扰噪声。该方法如图2a所示。
图2a示出了包括将经由麦克风11接收的环境噪声(参考接收205的步骤)匹配到来自数据库15的记录的步骤210的方法200。只要已经发现了在判定215的地方示出的匹配,就输出一个信号,如用于存入或用于排除进一步的动作。只要尚未发现匹配,就会重复该方法,这使用了到起始点201的箭头来说明。
对应于实施例,当前环境噪声的相应音频指纹而不是记录可与之前存储在数据库15中的音频指纹进行比较。在这里的方法包括确定当前环境噪声的音频指纹,并且将其与存储在数据库15中的音频指纹进行比较。
即使当在方法200中假设将环境噪声或音频指纹事先与存储在数据库15中的环境噪声/音频指纹相匹配来进行识别/关联时,一般而言,可相关于一规则来监视环境噪声。在比较环境噪声/音频指纹的情况下,该规则将意味着“部分匹配”。
例如,另一个这样的规则可以是简单地待超过的音量值或待超过的与心理声学参数有关的阈值。根据实施例,导出当前环境噪声的心理声学参数,其通过预定义的规则与预定义的相应阈值进行比较,以便识别这种事件的发生。
根据扩展的实施例,该方法不仅可纯粹识别这种干扰噪声,而且可将噪声关联(即分类为)例如语音、马达噪声、音乐、教堂钟声或射击声。
示例性地在智能电话或专门为此设计的设备上执行这种方法的一个潜在应用场景是设备位于旅馆房间中并且监视环境噪声。在这里,使用来自数据库15的数据来评估环境噪声,并且存入了随着时间推移已经发生了多少可能被感知为干扰的噪声事件以及可能被感知为干扰的噪声事件中的哪一个。例如,这可以是在一天的过程中计算干扰的空气调节噪声。作为存入的替代形式,可执行对该噪声的音频记录或预先缓冲的环境噪声的存储(参见上文)。基本思想是旅馆运营商能够使用这种方法预测和评估噪声感知。
即使当上述实施例已经假设不同信号类别的噪声被彼此分开地识别和关联时,这里要提到的是,根据另外的实施例,例如,也有可能识别和关联可重叠的不同信号类别的几个噪声。
图2b示出了在判定215的步骤或点与结束216之间包括另外的步骤的扩展方法200'。
这些是通过步骤220计数事件或使用单元变量221,因此获得事件222的数量。任选地,音频记录可通过已被识别的事件来开始,如使用步骤230所示。
图2c示出了设备40的另一实施方式。其包括作为中央单元的处理器41,该处理器执行分析/匹配的实际步骤。首先,其使用内部麦克风26,其中,也可想到访问外部麦克风26e1和26e2。例如,用于匹配的数据存储在内部存储器44中。
任选地,处理器被配置为确定并匹配音频指纹和/或心理声学参数,以便获得对应的规则匹配。
为了允许这种功能,任选地提供另一外围单元,如内部时钟55、电池56b或通常也可使用电缆56k实现的电源56。任选地,处理器还访问另外的传感器元件57、控制单元58(如记录激活按钮)或定时器59。在这里,根据另外的实施例,处理器41还可被配置为执行客观噪声评估,以便与主观评估(识别主观音调事件)相结合地确立关联。
对应于实施例,根据之前获得的愉悦性主观评估,CPU可取决于相应的噪声类别对不同评估矩阵中的信号类别的各个识别的噪声进行分类/归类。
根据另外的实施例,也可提供外部数据存储器60(如外部硬盘或服务器),用于存储或加载数据库。该连接可以是有线连接或无线连接。在无线通信中,对应于另外的实施例,将提供通信接口62,如实现外部访问的无线接口62w或有线接口62k。
根据另一个方面,提供了一种系统,其基本上由彼此结合的之前描述的设备40中的两个组成,使得一旦在其中一个设备中接收到对应的噪声(即信号类别),这两个设备就相互激活。该系统用于更详细地分析或评估各个噪声类别的噪声。在这里执行下面在图3中讨论的方法。
图3a示出了包括与在第一位置和第二位置处执行的与方法200或200'相对应的噪声分析的步骤的方法300。这意味着步骤210存在两次(参考210a和210b)。
然后在另一个步骤220中比较确定的记录或参数,如在两个位置处的音频指纹(由步骤210a和210b产生)。
根据实施例,两个相邻位置处的两个步骤210可相互依赖,如使用任选的步骤“在相邻设备211上的音频记录”所示出的。另选地,可在相邻的装置处执行另一个动作。其原因在于,例如,当执行方法210a的第一设备识别出噪声并且激活执行方法210b的第二设备时,可在不同的位置处识别相同的噪声。这里最后要提到的是,从判定215的地方开始,有指向起始点301的另一个箭头,这基本上暗示了以下事实:将执行噪声分析210a的方法,直到已经发现对应的匹配。
由于位置通常在空间上相邻,所以有可能以这种方式估计噪声的传播、速度或更大的噪声源。
示例性地,当将其自己的分析与同时在不同设备上的分析进行比较时,当在几个设备处已经识别出相同事件时,可确定这是诸如雷电的全局事件(参考判定321的领域之后的附图标记232)或是本地事件(参考判定321的领域之后的附图标记324)。对于全局事件323,通常“近”和“远”设备之间的水平差异可忽略不计(水平~1/r,相对于r的r变化小)。对于本地事件324,水平差异很大(水平~1/r,相对于r的r变化大)。例如,本地事件可以是呼救、爆炸、露天音乐会。对于本地事件,之后可进行其它的分析,即关于其它参数的分析325。根据时间的偏移或频率的偏移,可确定本地事件、传播或时间线的量。确定全局事件323或本地事件324(如其分析325)基本上是该方法的结束329。
例如,一种可能的应用场景是将几个设备分布在市中心。所有设备通过数据连接(如有线、无线、以太网或LAN连接)相互连接。使用服务器的连接也是可能的。所有的设备分析噪声情况(心理声学参数、音频指纹)。这些设备中的一个设备识别特征事件,如预先在数据库中分类的信号类别。当场触发音频记录。同时,设备触发行为,如在一个相邻节点上的动作。通过比较两个节点,可区分全局事件和本地事件,如上面已经讨论的。
对于同时存在两个不同类别的噪声的实施例,根据另一个实施例,即使当噪声没有相同地表现(移动)或者一方面与本地事件相关联并且另一方面与全局事件相关联时,监控噪声也是可行的。示例性地,可监控从位置A经由B移动到C的机动车辆的噪声,然而汽笛(如警笛)在整个时间内在位置B处发出声音。另一个示例是鸟鸣叫以及交通噪声和消防车-鸟鸣叫可以是大声但愉快的,交通噪声足够安静,以便不会造成干扰,但是会在几个设备上监控消防车并且通过信号类别使“注意”增加。
方法300基本上由包括设备40中的两个设备的系统来执行(图2c)。
然而,由于提供了用于连接两个设备的额外的接口,所以也有可能几乎没有变化,如图3b所示。
图3b示出了在输入侧上包括麦克风26和任选的校准单元26k的设备70。例如,通过预处理46对由麦克风接收到的音频流进行预处理,以便导出音频指纹(参考附图标记46a)或心理声学参数(参考附图标记48)。同时,可识别事件或类别(参考附图标记50)。通过识别事件/类别,一方面可触发自动音频记录(参考附图标记50a1),或者可发出控制指令,如用于激活另一节点(参考附图标记50a2或另一设备70')。用于输出控制指令50a2的装置可示例性地激活随后从用于生成音频指纹46a的装置或者用于导出心理声学参数48的装置接收和记录数据的存储器。音频信号也可存储在存储器44中,其中,在这里也可通过按钮49a来允许或阻止记录。在该实施例中,CPU 41也可连接到定时器59。
除了设备70之外,基本上履行相同功能的设备70'设置在另一个相邻的位置处。该设备70'还包括存储器44,当设备70'借助于激活装置50a2已经被激活时或者根据被识别并属于一个类别的噪声,该存储器已经存储了该时间段的音频结果。数据分析器72在下一个步骤(例如相对于扩展)中分析来自设备70和70'的存储器44的记录或音频指纹或心理声学参数。然而,在这里,数据分析器72与另一设备的两个存储器连接是有利的,其中,在这里提到,数据分析器72可布置在设备70和70'中的一个中,或者在相对于他们两者的外部。
对应于另一实施例,按钮(如按钮24a')可集成在设备70中,使得设备70还执行设备20、20'或20”'的功能。
任选的元件50a'允许在识别分类之后自动触发记录。另选地,在这里也可想到,当在已经获得的任何信号类别中没有发现噪声时,自动开始记录。
换句话说,方法303可描述方法200的功能基本上被涵盖,即识别和分类诸如语音、马达噪声、音乐、厨房砖、射击声等的噪声,并且根据不同位置处的多个麦克风,已经通过分析扩展该功能。
在这里还要指出的是,某些类别的自动录音,如爆炸和射击声,例如也可能暗示了恐怖主义。在这里,所有相邻的节点70/70'直接切换到记录会很有用。
另外,当在一段时间内超过特定的噪声阈值时,也可能自动(例如,时间上有限的)记录。记录也可扩展到相邻的节点,以便因此在合并多个节点(引起对干扰源的研究,分离噪声源)时,通过这些较长的记录来执行信号源的精确定位。
上述三种情况的潜在应用领域如下:
-旅游、旅馆、健康部门、自行车道、远足路径;
-工作保护(办公室工作、机器工厂、客舱工作场所);
-城市规划(音景、噪声映射);
-公共安全(监控生产设施)。
也可想到方法100/100'、200/200'和300的组合或者设备20/20'/20”/20”'、40和70/70'的功能。这样的示例是用于主观评估和记录以及用于设备的机器评估的设备和方法的组合。
在这里要指出的是,已经结合不同方面讨论的元素当然也可应用于第二方面。示例性地,涉及音频指纹或心理声学参数的教导适用于所有三个方面,其中,仅结合第一方面更详细地讨论教导。
虽然已经在设备的上下文中描述了一些方面,但是清楚的是,这些方面也表示对应方法的描述,使得设备的块或元件也对应于相应的方法步骤或方法步骤的特征。类似地,在方法步骤的上下文中描述的方面也表示对应设备的对应块或项目或特征的描述。例如,方法步骤中的一些或全部可通过(或使用)如微处理器、可编程计算机或电子电路的硬件设备来执行。在一些实施例中,最重要的方法步骤中的一些或几个可由这样的设备来执行。
创新性的编码的信号(如音频信号或视频信号或传输流信号)可存储在数字存储介质上,或者可在诸如无线传输介质或有线传输介质(如因特网)的传输介质上传输。
例如,创新性的编码的音频信号可存储在数字存储介质上,或者可在诸如无线传输介质或有线传输介质(如因特网)的传输介质上传输。
取决于某些实施方式要求,本发明的实施例可以硬件或软件来实现。使用数字存储介质,例如软盘、DVD、蓝光盘、CD、ROM、PROM、EPROM、EEPROM或FLASH存储器、硬盘驱动器或具有存储在其上的以电子方式可读取的控制信号的另一种磁性或光学存储器,可执行该实施方式,所述的数字存储介质与可编程计算机系统协作或能够与可编程计算机系统协作,使得执行相应的方法。因此,数字存储介质可以是计算机可读的。
根据本发明的一些实施例包含包括电子可读控制信号的数据载体,所述电子可读控制信号能够与可编程计算机系统协作,使得执行本文描述的方法中的一个方法。
通常,本发明的实施例可实现为具有程序代码的计算机程序产品,当计算机程序产品在计算机上运行时,程序代码可操作用于执行其中一个方法。
程序代码可例如存储在机器可读的载体上。
其他实施例包括用于执行本文描述的其中一个方法的计算机程序,其中,计算机程序存储在机器可读的载体上。
换句话说,本发明方法的实施例因此是计算机程序,该计算机程序包括程序代码,该程序代码用于当计算机程序在计算机上运行时执行本文描述的其中一个方法。
因此,创新性方法的另一实施例是数据载体(或数字存储介质或计算机可读介质),包括记录在其上的用于执行本文描述的其中一个方法的计算机程序。
因此,创新性方法的另一实施例是表示用于执行本文描述的其中一个方法的计算机程序的数据流或信号序列。例如,数据流或信号序列可被配置为通过数据通信连接(例如通过互联网)传送。
另一实施例包括处理装置,如计算机或可编程逻辑设备,其被配置为或适于执行本文描述的其中一个方法。
另一实施例包括其上安装有用于执行本文描述的其中一个方法计算机程序的计算机。
根据本发明的另一实施例包括被配置为将用于执行本文描述的其中一个方法的计算机程序传送到接收器的设备或系统。可以电子或光学方式执行传送。例如,接收器可以是计算机、移动设备、存储设备等。例如,设备或系统可包括用于将计算机程序传送到接收器的文件服务器。
在一些实施例中,可编程逻辑设备(例如现场可编程门阵列,FPGA)可用来执行本文描述的方法的功能中的一些或全部。在一些实施例中,现场可编程门阵列可与微处理器协作,以便执行本文所描述的其中一个方法。通常,在一些实施例中,通过任何硬件设备执行方法。这可以是普遍适用的硬件(诸如计算机处理器(CPU))或专用于该方法的硬件(诸如ASIC)。
上述实施例仅仅是为了说明本发明的原理。应当理解,本文所描述的配置和细节的修改和变化对于本领域的其他技术人员来说将是显而易见的。因此,本发明意图仅由所附专利权利要求的范围限制,而不是由通过对本文的实施例的描述和解释给出的具体细节限制。
Claims (25)
1.一种用于分析多个信号类别中的至少一个信号类别的噪声的方法(300),包括以下步骤:
接收(205)第一位置处的环境噪声;
确立(210)所述第一位置的环境噪声或从所述第一位置的环境噪声导出的参数集是否满足描述所述多个信号类别中的信号类别的预定义规则;
接收第二位置处的环境噪声;
确立所述第二位置的环境噪声或从所述第二位置的环境噪声导出的参数集是否满足描述所述多个信号类别中的信号类别的预定义规则;以及
确定(320)所述第一位置的环境噪声与所述第二位置的环境噪声之间的关系,或者确定从所述第一位置的环境噪声导出的参数集与从所述第二位置的环境噪声导出的参数集之间的关系;
其中,确定(320)关系包括:确定所述第一位置与所述第二位置处的环境噪声的水平差异,其中,在所述第一位置和所述第二位置处的所述环境噪声由相同的干扰噪声产生;和/或
其中,确定(320)关系包括:确定所述第一位置和所述第二位置处的环境噪声的时间偏移和/或运行时间偏移;和/或
其中,确定(320)关系包括:在所述第一位置和所述第二位置处的环境噪声中确定频率差异和/或确定霍尔效应;和/或
其中,确定(320)包括:关于所述第一位置和所述第二位置之间的距离进行分析(325),根据关系分析噪声源的移动和/或分析噪声源的大小。
2.根据权利要求1所述的方法,其中,通过将所述环境噪声与之前缓冲的记录进行比较来执行所述确立(210),并且所述预定义规则定义了所述环境噪声与所述之前缓冲的记录的至少部分匹配。
3.根据权利要求1所述的方法,其中,通过将导出的参数集与之前导出的所述参数集进行比较来执行所述确立(210),并且所述预定义规则定义了所述导出的参数集与所述之前导出的参数集的至少部分匹配。
4.根据权利要求2所述的方法,其中,导出的参数集和之前导出的参数集包括音频指纹。
5.根据权利要求2所述的方法,其中,通过外部数据库(15)接收之前缓冲的记录和/或之前导出的所述参数集。
6.根据权利要求1所述的方法,其中,导出的所述参数集包括心理声学参数,并且其中,通过评估所述环境噪声的所述心理声学参数来执行所述确立(210),并且所述预定义规则包括所述心理声学参数的阈值。
7.根据权利要求6所述的方法,其中,所述心理声学参数包括音量、清晰度、音调、粗糙度、脉冲特性和/或变化强度。
8.根据权利要求1所述的方法,其中,当存入(220)时,关于所述信号类别的噪声的频率的信息包括所述信号类别;或者
其中,所述信息包括所述信号类别的噪声何时被识别的时间指示和/或所述信号类别的噪声在哪里被识别的地点指示。
9.根据权利要求1所述的方法,其中,从外部数据库(15)读取之前获得的记录或参数。
10.根据权利要求1所述的方法,其中,对于相邻位置重复所述接收(205)、所述确立(210)的步骤。
11.根据权利要求10所述的方法,还包括:确定第一位置处的环境噪声与第二位置处的环境噪声之间的关系(320),或者确定从所述第一位置处的环境噪声导出的参数集和从所述第二位置处的环境噪声导出的参数集之间的关系。
12.根据权利要求1所述的方法,其中,所述预定义规则描述了环境噪声或用于控制信号的参数集,使得当已经满足所述预定义规则时,发出激活信号。
13.根据权利要求1-12中任一项所述的方法(300),其中,记录针对迁移时间窗口在所述第一位置和/或所述第二位置处的接收的环境噪声,或者其中,针对所述迁移时间窗口,从所述第一位置和/或所述第二位置处的环境噪声导出所述参数集。
14.根据权利要求1-12中任一项所述的方法(300),其中,通过将环境噪声与之前缓冲的记录进行比较来执行所述确立(210),并且所述预定义规则定义了环境噪声与所述之前缓冲的记录的至少部分匹配。
15.根据权利要求1-12中任一项所述的方法(300),其中,通过将导出的参数集与之前导出的参数集进行比较来执行确立(210),并且所述预定义规则定义了所述导出的参数集和所述之前导出的参数集的至少部分匹配。
16.根据权利要求15所述的方法(300),其中,所述导出的参数集和所述之前导出的参数集包括音频指纹。
17.根据权利要求1-12中任一项所述的方法(300),其中,从外部数据库(15)接收之前缓冲的记录和/或之前导出的参数集。
18.一种数字存储介质,在所述数字存储介质上存储有包括程序代码的计算机程序,用于当所述程序在计算机上运行时执行根据权利要求1-17中任一项所述的方法。
19.一种用于关联多个信号类别中的至少一个信号类别的噪声的设备(40),包括:
麦克风(11),用于接收环境噪声;
处理器(50),用于确立所述环境噪声或从所述环境噪声导出的参数集是否满足描述所述多个信号类别中的信号类别的预定义规则;
接口,用于存入已经满足所述预定义规则,或者记录针对迁移时间窗口接收的所述环境噪声,或者从所述迁移时间窗口的所述环境噪声导出参数集并且存储所述迁移时间窗口的所述参数集,或者发出用于另一个设备的激活信号以识别噪声;
其中,所述处理器(50)被配置为确定(320)第一位置的环境噪声与第二位置的环境噪声之间的关系,或者确定从第一位置的环境噪声导出的参数集与从第二位置的环境噪声导出的参数集之间的关系;
其中,所述处理器(50)被配置为确定(320)关系,包括:确定所述第一位置与所述第二位置处的环境噪声的水平差异,其中,在所述第一位置和所述第二位置处的所述环境噪声由相同的干扰噪声产生;和/或
其中,所述处理器(50)被配置为确定(320)关系,包括:确定所述第一位置和所述第二位置处的环境噪声的时间偏移和/或运行时间偏移;和/或
其中,所述处理器(50)被配置为确定(320)关系,包括:在所述第一位置和所述第二位置处的环境噪声中确定频率差异和/或确定霍尔效应;和/或
其中,所述处理器(50)被配置为关于所述第一位置和所述第二位置之间的距离进行分析(325),根据关系分析噪声源的移动和/或分析噪声源的大小。
20.根据权利要求19所述的设备(40),其中,所述设备(40)包括通信接口(62),借助于所述通信接口能够输出协议和/或借助于所述通信接口能够读入所述预定义规则和/或借助所述通信接口能够与另一个设备通信。
21.根据权利要求20所述的设备(40),其中,所述设备(40)被配置成与在相邻位置处的另一个设备(40')联网,以便确定第一位置的环境噪声与第二位置的噪环境声之间的关系,或者确定从所述第一位置的环境噪声导出的参数集与从所述第二位置的环境噪声导出的参数集之间的关系。
22.一种用于分析多个信号类别中的至少一个信号类别的噪声的系统(77),包括:
第一单元(70),包括用于接收第一位置处的环境噪声的第一麦克风(11);
第二单元(70'),包括用于接收第二位置处的环境噪声的第二麦克风(11);以及
处理器(72),用于确立所述第一位置的环境噪声或从所述第一位置的环境噪声导出的参数集是否满足描述所述多个信号类别中的信号类别的预定义规则,并且用于确立所述第二位置的环境噪声或从所述第二位置的环境噪声导出的参数集是否满足描述所述多个信号类别中的信号类别的预定义规则;
其中,所述处理器(72)被配置成确定所述第一位置的环境噪声与所述第二位置的环境噪声之间的关系,或者确定从所述第一位置的环境噪声导出的参数集与从所述第二位置的环境噪声导出的参数集之间的关系;
其中,确定(320)关系包括:确定所述第一位置与所述第二位置处的环境噪声的水平差异,其中,在所述第一位置和所述第二位置处的所述环境噪声由相同的干扰噪声产生;和/或
其中,确定(320)关系包括:确定所述第一位置和所述第二位置处的环境噪声的时间偏移和/或运行时间偏移;和/或
其中,确定(320)关系包括:在所述第一位置和所述第二位置处的环境噪声中确定频率差异和/或确定霍尔效应;和/或
其中,确定(320)包括:关于所述第一位置和所述第二位置之间的距离进行分析(325),根据关系分析噪声源的移动和/或分析噪声源的大小。
23.根据权利要求22所述的系统(77),其中,所述第一单元和所述第二单元(70、70')经由通信接口和/或无线电接口连接。
24.一种用于关联多个信号类别中的至少一个信号类别的噪声的方法(200、200'),包括以下步骤:
接收(205)环境噪声;
确立(210)所述环境噪声或从所述环境噪声导出的参数集是否满足描述所述多个信号类别中的信号类别的预定义规则;
存入(220)已经满足所述预定义规则,或者记录针对迁移时间窗口接收到的所述环境噪声,或者从所述迁移时间窗口的所述环境噪声导出所述参数集并且存储所述迁移时间窗口的所述参数集,或者发出用于另一个设备的激活信号以识别噪声;
其中,针对相邻的位置,重复所述接收(205)、所述确立(210)的步骤;
其中,所述方法还包括:确定第一位置处的环境噪声与第二位置处的环境噪声之间的关系(320),或者确定从所述第一位置处的环境噪声导出的参数集与从所述第二位置处的环境噪声导出的参数集之间的关系;
其中,确定(320)关系包括:确定所述第一位置与所述第二位置处的环境噪声的水平差异,其中,在所述第一位置和所述第二位置处的所述环境噪声由相同的干扰噪声产生;和/或
其中,确定(320)关系包括:确定所述第一位置和所述第二位置处的环境噪声的时间偏移和/或运行时间偏移;和/或
其中,确定(320)关系包括:在所述第一位置和所述第二位置处的环境噪声中确定频率差异和/或确定霍尔效应;和/或
其中,确定(320)包括:关于所述第一位置和所述第二位置之间的距离进行分析(325),根据关系分析噪声源的移动和/或分析噪声源的大小。
25.一种数字存储介质,在所述数字存储介质上存储有包括程序代码的计算机程序,用于当在计算机上运行所述程序时执行根据权利要求24所述的方法(200、200’)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15174634.4 | 2015-06-30 | ||
EP15174634 | 2015-06-30 | ||
PCT/EP2016/065397 WO2017001611A1 (de) | 2015-06-30 | 2016-06-30 | Verfahren und vorrichtung zum zuordnen von geräuschen und zum analysieren |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108028048A CN108028048A (zh) | 2018-05-11 |
CN108028048B true CN108028048B (zh) | 2022-06-21 |
Family
ID=56368939
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680048720.2A Active CN108028048B (zh) | 2015-06-30 | 2016-06-30 | 用于关联噪声和用于分析的方法和设备 |
CN201680048686.9A Active CN108028047B (zh) | 2015-06-30 | 2016-06-30 | 用于生成数据库的方法和设备 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680048686.9A Active CN108028047B (zh) | 2015-06-30 | 2016-06-30 | 用于生成数据库的方法和设备 |
Country Status (7)
Country | Link |
---|---|
US (2) | US11003709B2 (zh) |
EP (2) | EP3317879B1 (zh) |
JP (2) | JP6602406B2 (zh) |
KR (2) | KR102137537B1 (zh) |
CN (2) | CN108028048B (zh) |
CA (2) | CA2990888A1 (zh) |
WO (2) | WO2017001607A1 (zh) |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6045697B2 (ja) | 2012-07-20 | 2016-12-14 | ファーノ−ワシントン・インコーポレーテッド | 動力式簡易寝台のための自動システム |
EP3317879B1 (de) | 2015-06-30 | 2020-02-19 | Fraunhofer Gesellschaft zur Förderung der Angewand | Verfahren und vorrichtung zum zuordnen von geräuschen und zum analysieren |
US10402696B2 (en) * | 2016-01-04 | 2019-09-03 | Texas Instruments Incorporated | Scene obstruction detection using high pass filters |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9826306B2 (en) | 2016-02-22 | 2017-11-21 | Sonos, Inc. | Default playback device designation |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
CN107731220B (zh) * | 2017-10-18 | 2019-01-22 | 北京达佳互联信息技术有限公司 | 音频识别方法、装置和服务器 |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US11521598B2 (en) * | 2018-09-18 | 2022-12-06 | Apple Inc. | Systems and methods for classifying sounds |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) * | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
TWI716029B (zh) * | 2019-07-09 | 2021-01-11 | 佑華微電子股份有限公司 | 隨選聲音片段偵測方法 |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11308962B2 (en) | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
CN116802732A (zh) * | 2021-03-18 | 2023-09-22 | 瑞典爱立信有限公司 | 基于声音序列来预测并触发对预测背景噪声的未来响应 |
US11533577B2 (en) | 2021-05-20 | 2022-12-20 | Apple Inc. | Method and system for detecting sound event liveness using a microphone array |
CN113643716B (zh) * | 2021-07-07 | 2023-09-26 | 珠海格力电器股份有限公司 | 电机噪声控制方法、装置和电机及电器设备 |
CN117436709B (zh) * | 2023-12-20 | 2024-03-19 | 四川宽窄智慧物流有限责任公司 | 一种跨区域订单数据统筹预警方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003009273A1 (de) * | 2001-07-16 | 2003-01-30 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | Verfahren und vorrichtung zum charakterisieren eines signals und zum erzeugen eines indexierten signals |
CN101129086A (zh) * | 2005-02-23 | 2008-02-20 | 弗劳恩霍夫应用研究促进协会 | 用于控制波场合成呈现装置的设备和方法 |
CN101203917A (zh) * | 2005-06-22 | 2008-06-18 | 弗劳恩霍夫应用研究促进协会 | 用于执行能够以可变速度重放的测试声音信号与参考声音信号之间的相关的设备及方法 |
CN101236250A (zh) * | 2007-01-30 | 2008-08-06 | 富士通株式会社 | 声音判定方法和声音判定装置 |
KR20090122142A (ko) * | 2008-05-23 | 2009-11-26 | 엘지전자 주식회사 | 오디오 신호 처리 방법 및 장치 |
CN101978424A (zh) * | 2008-03-20 | 2011-02-16 | 弗劳恩霍夫应用研究促进协会 | 声学显示的设备的方法 |
CN102918591A (zh) * | 2010-04-14 | 2013-02-06 | 谷歌公司 | 用于增强话音识别准确度的有地理标记的环境音频 |
CN103795850A (zh) * | 2012-10-30 | 2014-05-14 | 三星电子株式会社 | 电子设备和语音识别方法 |
CN104067339A (zh) * | 2012-02-10 | 2014-09-24 | 三菱电机株式会社 | 噪音抑制装置 |
US10373611B2 (en) * | 2014-01-03 | 2019-08-06 | Gracenote, Inc. | Modification of electronic system operation based on acoustic ambience classification |
Family Cites Families (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5367332A (en) * | 1992-10-09 | 1994-11-22 | Apple Computer, Inc. | Digital camera with time bracketing feature |
US5918223A (en) | 1996-07-22 | 1999-06-29 | Muscle Fish | Method and article of manufacture for content-based analysis, storage, retrieval, and segmentation of audio information |
JP3645053B2 (ja) * | 1996-12-13 | 2005-05-11 | 大昌エンジニアリング株式会社 | 実音モニターリングシステム |
JPH10282985A (ja) * | 1997-04-07 | 1998-10-23 | Omron Corp | 聴覚支援装置 |
FR2762467B1 (fr) | 1997-04-16 | 1999-07-02 | France Telecom | Procede d'annulation d'echo acoustique multi-voies et annuleur d'echo acoustique multi-voies |
US6381569B1 (en) * | 1998-02-04 | 2002-04-30 | Qualcomm Incorporated | Noise-compensated speech recognition templates |
US6260010B1 (en) * | 1998-08-24 | 2001-07-10 | Conexant Systems, Inc. | Speech encoder using gain normalization that combines open and closed loop gains |
JP3283024B2 (ja) | 1999-12-07 | 2002-05-20 | 京都府 | 騒音測定管理システム及び該システム用記録媒体 |
US6990453B2 (en) | 2000-07-31 | 2006-01-24 | Landmark Digital Services Llc | System and methods for recognizing sound and music signals in high noise and distortion |
US7055107B1 (en) * | 2000-09-22 | 2006-05-30 | Wireless Valley Communications, Inc. | Method and system for automated selection of optimal communication network equipment model, position, and configuration |
DE60228202D1 (de) | 2001-02-12 | 2008-09-25 | Gracenote Inc | Verfahren zum erzeugen einer identifikations hash vom inhalt einer multimedia datei |
DE10109648C2 (de) | 2001-02-28 | 2003-01-30 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Charakterisieren eines Signals und Verfahren und Vorrichtung zum Erzeugen eines indexierten Signals |
US6996531B2 (en) | 2001-03-30 | 2006-02-07 | Comverse Ltd. | Automated database assistance using a telephone for a speech based or text based multimedia communication mode |
US6683938B1 (en) * | 2001-08-30 | 2004-01-27 | At&T Corp. | Method and system for transmitting background audio during a telephone call |
US6959276B2 (en) | 2001-09-27 | 2005-10-25 | Microsoft Corporation | Including the category of environmental noise when processing speech signals |
US7158931B2 (en) | 2002-01-28 | 2007-01-02 | Phonak Ag | Method for identifying a momentary acoustic scene, use of the method and hearing device |
JP3995040B2 (ja) * | 2002-04-19 | 2007-10-24 | リオン株式会社 | 騒音振動測定における音の録音方法及びそれを用いた装置 |
FR2842014B1 (fr) | 2002-07-08 | 2006-05-05 | Lyon Ecole Centrale | Procede et appareil pour affecter une classe sonore a un signal sonore |
JP4352790B2 (ja) * | 2002-10-31 | 2009-10-28 | セイコーエプソン株式会社 | 音響モデル作成方法および音声認識装置ならびに音声認識装置を有する乗り物 |
JP2005234074A (ja) * | 2004-02-18 | 2005-09-02 | Sony Corp | 情報処理装置および情報処理方法、記録媒体、並びにプログラム |
DE102004036154B3 (de) | 2004-07-26 | 2005-12-22 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur robusten Klassifizierung von Audiosignalen sowie Verfahren zu Einrichtung und Betrieb einer Audiosignal-Datenbank sowie Computer-Programm |
CN1727911A (zh) * | 2004-07-26 | 2006-02-01 | 松下电器产业株式会社 | 声控定位系统及方法 |
JP2006189367A (ja) * | 2005-01-07 | 2006-07-20 | Chugoku Electric Power Co Inc:The | 騒音測定装置 |
US7464029B2 (en) * | 2005-07-22 | 2008-12-09 | Qualcomm Incorporated | Robust separation of speech signals in a noisy environment |
US20070183604A1 (en) * | 2006-02-09 | 2007-08-09 | St-Infonox | Response to anomalous acoustic environments |
US20100257974A1 (en) | 2006-06-21 | 2010-10-14 | Carrens Vernon M | Mechanical machine designed to utilize unbalanced torque to enhance angular momentum |
US20080024469A1 (en) * | 2006-07-31 | 2008-01-31 | Niranjan Damera-Venkata | Generating sub-frames for projection based on map values generated from at least one training image |
JP5105912B2 (ja) * | 2007-03-13 | 2012-12-26 | アルパイン株式会社 | 音声明瞭度改善装置およびその騒音レベル推定方法 |
US8762143B2 (en) * | 2007-05-29 | 2014-06-24 | At&T Intellectual Property Ii, L.P. | Method and apparatus for identifying acoustic background environments based on time and speed to enhance automatic speech recognition |
US8164484B2 (en) * | 2007-10-03 | 2012-04-24 | University Of Southern California | Detection and classification of running vehicles based on acoustic signatures |
PT2410521T (pt) * | 2008-07-11 | 2018-01-09 | Fraunhofer Ges Forschung | Codificador de sinal de áudio, método para gerar um sinal de áudio e programa de computador |
FR2943875A1 (fr) | 2009-03-31 | 2010-10-01 | France Telecom | Procede et dispositif de classification du bruit de fond contenu dans un signal audio. |
US20110137656A1 (en) * | 2009-09-11 | 2011-06-09 | Starkey Laboratories, Inc. | Sound classification system for hearing aids |
GB0919672D0 (en) * | 2009-11-10 | 2009-12-23 | Skype Ltd | Noise suppression |
EP2362620A1 (en) * | 2010-02-23 | 2011-08-31 | Vodafone Holding GmbH | Method of editing a noise-database and computer device |
JP5496077B2 (ja) * | 2010-02-25 | 2014-05-21 | 三菱重工業株式会社 | 音線解析装置 |
JP5467015B2 (ja) * | 2010-08-24 | 2014-04-09 | 公益財団法人鉄道総合技術研究所 | 鉄道車両内騒音の評価方法 |
US8812014B2 (en) * | 2010-08-30 | 2014-08-19 | Qualcomm Incorporated | Audio-based environment awareness |
CN103354937B (zh) * | 2011-02-10 | 2015-07-29 | 杜比实验室特许公司 | 包括噪声抑制增益的中值滤波的后处理 |
US8767978B2 (en) * | 2011-03-25 | 2014-07-01 | The Intellisis Corporation | System and method for processing sound signals implementing a spectral motion transform |
US8731474B2 (en) * | 2011-05-25 | 2014-05-20 | Shared Spectrum Company | Method and system for man-made noise rejection detector |
CN102354499B (zh) * | 2011-07-25 | 2017-12-19 | 中兴通讯股份有限公司 | 降低噪音的方法和设备 |
US20130040694A1 (en) | 2011-08-10 | 2013-02-14 | Babak Forutanpour | Removal of user identified noise |
US9528852B2 (en) * | 2012-03-02 | 2016-12-27 | Nokia Technologies Oy | Method and apparatus for generating an audio summary of a location |
FR2994495B1 (fr) * | 2012-08-10 | 2015-08-21 | Thales Sa | Procede et systeme pour detecter des evenements sonores dans un environnement donne |
US9275625B2 (en) * | 2013-03-06 | 2016-03-01 | Qualcomm Incorporated | Content based noise suppression |
US9384754B2 (en) * | 2013-03-12 | 2016-07-05 | Comcast Cable Communications, Llc | Removal of audio noise |
US9390170B2 (en) * | 2013-03-15 | 2016-07-12 | Shazam Investments Ltd. | Methods and systems for arranging and searching a database of media content recordings |
EP3078026B1 (en) * | 2013-12-06 | 2022-11-16 | Tata Consultancy Services Limited | System and method to provide classification of noise data of human crowd |
US20150179181A1 (en) | 2013-12-20 | 2015-06-25 | Microsoft Corporation | Adapting audio based upon detected environmental accoustics |
CN103745728B (zh) * | 2014-01-08 | 2017-04-12 | 叶兰玉 | 房屋智能有源降噪的方法及装置 |
US9847096B2 (en) * | 2014-02-20 | 2017-12-19 | Harman International Industries, Incorporated | Environment sensing intelligent apparatus |
US9837102B2 (en) * | 2014-07-02 | 2017-12-05 | Microsoft Technology Licensing, Llc | User environment aware acoustic noise reduction |
CN104517607A (zh) * | 2014-12-16 | 2015-04-15 | 佛山市顺德区美的电热电器制造有限公司 | 滤除语音控制电器中的噪声的方法及语音控制电器 |
JP6182676B2 (ja) * | 2015-01-26 | 2017-08-16 | 深▲せん▼市冠旭万達科技有限公司 | 騒音マップ制作方法及び装置 |
EP3317879B1 (de) | 2015-06-30 | 2020-02-19 | Fraunhofer Gesellschaft zur Förderung der Angewand | Verfahren und vorrichtung zum zuordnen von geräuschen und zum analysieren |
-
2016
- 2016-06-30 EP EP16736031.2A patent/EP3317879B1/de active Active
- 2016-06-30 JP JP2017568346A patent/JP6602406B2/ja active Active
- 2016-06-30 JP JP2017568340A patent/JP6654209B2/ja active Active
- 2016-06-30 CA CA2990888A patent/CA2990888A1/en not_active Abandoned
- 2016-06-30 CN CN201680048720.2A patent/CN108028048B/zh active Active
- 2016-06-30 WO PCT/EP2016/065392 patent/WO2017001607A1/de active Application Filing
- 2016-06-30 CN CN201680048686.9A patent/CN108028047B/zh active Active
- 2016-06-30 WO PCT/EP2016/065397 patent/WO2017001611A1/de active Application Filing
- 2016-06-30 EP EP16736029.6A patent/EP3317878B1/de active Active
- 2016-06-30 KR KR1020187003091A patent/KR102137537B1/ko active IP Right Grant
- 2016-06-30 CA CA2990891A patent/CA2990891A1/en not_active Abandoned
- 2016-06-30 KR KR1020187003083A patent/KR102087832B1/ko active IP Right Grant
-
2017
- 2017-12-28 US US15/856,846 patent/US11003709B2/en active Active
- 2017-12-28 US US15/856,810 patent/US11880407B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003009273A1 (de) * | 2001-07-16 | 2003-01-30 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | Verfahren und vorrichtung zum charakterisieren eines signals und zum erzeugen eines indexierten signals |
CN101129086A (zh) * | 2005-02-23 | 2008-02-20 | 弗劳恩霍夫应用研究促进协会 | 用于控制波场合成呈现装置的设备和方法 |
CN101203917A (zh) * | 2005-06-22 | 2008-06-18 | 弗劳恩霍夫应用研究促进协会 | 用于执行能够以可变速度重放的测试声音信号与参考声音信号之间的相关的设备及方法 |
CN101236250A (zh) * | 2007-01-30 | 2008-08-06 | 富士通株式会社 | 声音判定方法和声音判定装置 |
CN101978424A (zh) * | 2008-03-20 | 2011-02-16 | 弗劳恩霍夫应用研究促进协会 | 声学显示的设备的方法 |
KR20090122142A (ko) * | 2008-05-23 | 2009-11-26 | 엘지전자 주식회사 | 오디오 신호 처리 방법 및 장치 |
CN102918591A (zh) * | 2010-04-14 | 2013-02-06 | 谷歌公司 | 用于增强话音识别准确度的有地理标记的环境音频 |
CN104067339A (zh) * | 2012-02-10 | 2014-09-24 | 三菱电机株式会社 | 噪音抑制装置 |
CN103795850A (zh) * | 2012-10-30 | 2014-05-14 | 三星电子株式会社 | 电子设备和语音识别方法 |
US10373611B2 (en) * | 2014-01-03 | 2019-08-06 | Gracenote, Inc. | Modification of electronic system operation based on acoustic ambience classification |
Also Published As
Publication number | Publication date |
---|---|
CN108028047A (zh) | 2018-05-11 |
US11003709B2 (en) | 2021-05-11 |
EP3317879A1 (de) | 2018-05-09 |
JP2018525664A (ja) | 2018-09-06 |
JP2018528453A (ja) | 2018-09-27 |
US20180121540A1 (en) | 2018-05-03 |
KR102087832B1 (ko) | 2020-04-21 |
US20180122398A1 (en) | 2018-05-03 |
US11880407B2 (en) | 2024-01-23 |
CA2990888A1 (en) | 2017-01-05 |
WO2017001607A1 (de) | 2017-01-05 |
WO2017001611A1 (de) | 2017-01-05 |
EP3317879B1 (de) | 2020-02-19 |
KR20180025921A (ko) | 2018-03-09 |
KR102137537B1 (ko) | 2020-07-27 |
CA2990891A1 (en) | 2017-01-05 |
EP3317878A1 (de) | 2018-05-09 |
EP3317878B1 (de) | 2020-03-25 |
CN108028048A (zh) | 2018-05-11 |
JP6602406B2 (ja) | 2019-11-06 |
JP6654209B2 (ja) | 2020-02-26 |
KR20180022967A (ko) | 2018-03-06 |
CN108028047B (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108028048B (zh) | 用于关联噪声和用于分析的方法和设备 | |
EP3591633B1 (en) | Surveillance system and surveillance method using multi-dimensional sensor data | |
US20210149939A1 (en) | Responding to remote media classification queries using classifier models and context parameters | |
Valero et al. | Gammatone cepstral coefficients: Biologically inspired features for non-speech audio classification | |
Jia et al. | SoundLoc: Accurate room-level indoor localization using acoustic signatures | |
Hollosi et al. | Enhancing wireless sensor networks with acoustic sensing technology: use cases, applications & experiments | |
US20230060936A1 (en) | Method for identifying an audio signal | |
CN109997186B (zh) | 一种用于分类声环境的设备和方法 | |
US20230074279A1 (en) | Methods, non-transitory computer readable media, and systems of transcription using multiple recording devices | |
KR101660306B1 (ko) | 휴대용 단말기에서 라이프 로그 생성 방법 및 장치 | |
CN111936056B (zh) | 检测具有呼吸紊乱的对象 | |
Sharma et al. | Smartphone audio based distress detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |