CN108028047A - 用于生成数据库的方法和设备 - Google Patents
用于生成数据库的方法和设备 Download PDFInfo
- Publication number
- CN108028047A CN108028047A CN201680048686.9A CN201680048686A CN108028047A CN 108028047 A CN108028047 A CN 108028047A CN 201680048686 A CN201680048686 A CN 201680048686A CN 108028047 A CN108028047 A CN 108028047A
- Authority
- CN
- China
- Prior art keywords
- signal
- noise
- equipment
- buffering
- record
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 120
- 230000003139 buffering effect Effects 0.000 claims abstract description 30
- 230000015654 memory Effects 0.000 claims abstract description 27
- 239000000872 buffer Substances 0.000 claims abstract description 11
- 238000013508 migration Methods 0.000 claims abstract description 11
- 230000005012 migration Effects 0.000 claims abstract description 11
- 230000004044 response Effects 0.000 claims abstract description 6
- 238000003860 storage Methods 0.000 claims description 29
- 238000004891 communication Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 7
- 230000006698 induction Effects 0.000 claims description 6
- 238000007689 inspection Methods 0.000 claims description 2
- 230000002123 temporal effect Effects 0.000 claims 1
- 230000005236 sound signal Effects 0.000 description 22
- 238000004458 analytical method Methods 0.000 description 21
- 230000005540 biological transmission Effects 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 239000012634 fragment Substances 0.000 description 5
- 238000001228 spectrum Methods 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 230000004308 accommodation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 230000005355 Hall effect Effects 0.000 description 1
- 206010021703 Indifference Diseases 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 239000012190 activator Substances 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000003205 fragrance Substances 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000003365 glass fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 238000000700 time series analysis Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/61—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
- G06F16/634—Query by example, e.g. query by humming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/018—Audio watermarking, i.e. embedding inaudible data in the audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Library & Information Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Circuit For Audible Band Transducer (AREA)
- Telephone Function (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明的实施例提供了一种用于生成数据库的方法。该方法包括“接收环境噪声”的步骤,其可典型地包括干扰噪声和“迁移时间窗口的缓冲环境噪声”,诸如30秒或60秒或优选地多于5秒。另选地,该方法还可包括“导出关于环境噪声的参数集”和“对迁移时间窗口的参数集进行缓冲”的步骤。缓冲的环境噪声或缓冲的参数集通常指代为记录。此外,该方法包括“获得信号”的步骤,其识别环境噪声中多个信号类别(干扰噪声和非干扰噪声)中的一个信号类别(例如,干扰噪声)。第三个基本步骤是“响应于该信号,存储缓冲的记录”在诸如内部或外部存储器的存储器中。重复这些获得和存储的步骤,以便构建包括相同信号类别的多个缓冲记录的数据库。
Description
技术领域
本发明的实施例涉及一种方法和设备,并且生成具有几个信号类别的缓冲记录的数据库。
背景技术
例如,噪声可细分为信号类别,如干扰噪声和非干扰噪声。例如,也可想到细分为更多干扰的噪声和更少干扰的噪声。
并不总是容易对干扰噪声进行分类。知道存在影响噪声是否被感知为干扰噪声的不同因素是很重要的。鸟在主观上不会被感知为干扰噪声,甚至当其唧唧声很大(客观可测量参数:声压级)并且与其他环境噪声(客观可测量参数:动力学因素)明显不同时。然而,比起刚刚提到的鸟,显著较安静的飞机经过将被更多的测试人员感知为干扰噪声。
这里的后果是,例如使用当前的方法,为了允许预测噪声评估,当关于干扰噪声考察环境(如旅馆,旅馆或工作场所的健康区域)时,必须将评估留给测试人员。
例如,关于绝对响度或音量或相对于水平的纯粹自动化评估用作第一提示,但是不足以用于最终评估。因此,需要改进的方法。
发明内容
主要方面
本发明的目的是提供一种用于分类噪声的构思,如主观干扰噪声。
该目的通过独立权利要求的主题来实现。
本发明的实施例提供了一种用于生成数据库的方法。该方法包括“接收环境噪声”的步骤,该环境噪声示例性地包括干扰噪声,以及“迁移时间窗口的缓冲的环境噪声”,如30或60秒,或者优选地多于5秒。另选地,也可想到该方法包括“导出关于环境噪声的参数集”和“缓冲迁移时间窗口的参数集”的步骤。缓冲的环境噪声或缓冲的参数集通常被称为记录。此外,该方法包括“获得信号”的步骤,该信号识别环境噪声中的多个信号类别(干扰噪声和非干扰噪声)的一个信号类别(如干扰噪声)。第三个基本步骤是“响应于信号,将缓冲记录存储”于存储器中,如内部或外部的存储器。重复获得和存储这些步骤,以便建立包括相同信号类别的多个缓冲记录的数据库。
本发明的实施例基于以下发现:使用连续记录的设备并且存储环境中的相关位置,可建立在其中存储记录或特性(如记录的音频指纹或心理声学参数),使得能够在稍后时间识别这样的声音序列的数据库。这里的构思假设了“识别主观干扰噪声或者类别的噪声”的步骤由人使用按钮或者按键或不同的输入接口示例性地识别或者标记干扰噪声或者信号类别来执行。该信号用作为用于切断序列或从当前连续运行中提取特性并将其存储在存储器中以建立数据库的指示符。因此,可容易地建立用于明确地关联声音描述参数的干扰噪声或分类器的库,这允许之后预测主观噪声感知。
对应于实施例,通过包括如音量、动态、范围、动态增加、频谱、单调或重复字符的各个参数的参数(如音频指纹),或者通过如清晰度、粗糙度、音调、变化的强度或音量的心理声学参数,可描述主观干扰噪声。因此,根据另一实施例,该方法包括确定用于缓冲记录的音频指纹或确定心理声学参数的步骤。通常,将记录或音频指纹存储在数据库中是足够的,而心理声学参数表示附加信息。音频指纹的优点在于以匿名方式存储记录。
在从用户接口(如按钮)获得信号的单独步骤中,可获得主观评估当前识别的控制噪声的另一替代或附加信号。这种主观评估是将音频信号分配到信号类别(如很少干扰或高度干扰)。然后结合相应的部分或参数存储该主观评估。
根据另一实施例,除了部分或参数之外,还可存储时间戳。根据另一实施例,还可想到还存储例如来自GPS接收器的当前位置信息。为了不使数据库变得太大,以数据归纳的方式存储待缓冲的数据也是可行的。
这里要指出的是,根据实施例,存储器或数据库被直接包含在执行方法的相应设备中,或者根据另一个实施例,也可提供在外部。
另一实施例涉及对应的设备。所述设备包括用于连续记录的麦克风、用于缓冲的缓冲器、用于接收信号的接口以及用于存储与属于所识别的干扰噪声的信号类别相关的记录(音频文件、音频指纹或心理声学参数)的另一存储器。根据另一实施例,该设备可包括输入接口(如按钮),使用该输入接口可确认主观干扰噪声的存在,或者通常可将噪声分配到信号类别。输入装置也可通过分类成几个信号类别中的一个(即通过评估)进行扩展。根据另一实施例,设备还可包括通信接口,通过该通信接口连接外部存储器(外部数据库)。
从属权利要求中限定了其它的改进。
其它方面
本发明的实施例提供一种用于识别多个信号类别(如干扰噪声和非干扰噪声)的一个信号类别(如干扰噪声)的噪声的方法。该方法包括“接收环境噪声”和“确立环境噪声或从环境噪声导出的参数集是否满足描述多个信号类别的一个信号类别的预定义的规则”的步骤。从这里开始,执行以下步骤:“存入已经满足预定义规则”、“记录接收到的迁移时间窗口的环境噪声”、“从迁移时间窗口的环境噪声中导出参数集并且存储该参数集”或者“发出用于识别噪声的另一个设备的激活信号”。
该方面的实施例基于以下发现:根据上面描述的方法借助于上述设备可确定的数据库,如通过将当前噪声环境与来自数据库的噪声或从数据库获得的或存储在数据库中的参数(如音频指纹)进行比较,有可能识别主观上感知到的干扰噪声的存在。该方法可以自动方式执行,并且可单独使用存储的数据库来允许对噪声状况(鸟的鸣叫对空气调节)的评估进行预测,而不需要人类进行的任何主观评估。
通过将环境噪声与先前缓冲的环境噪声进行比较,或者通过将当前导出的参数数据集(音频指纹)与先前确定的参数数据集进行比较,或者通过导出心理声学参数并将其与其预定的阈值进行比较,可示例性地完成识别规则匹配。
另一个实施例涉及一种用于识别多个信号类别的一个信号类别的噪声的设备。该设备包括用于连续监听当前环境噪声的麦克风、用于将当前环境噪声与存储在数据库中的数据进行比较的处理器(记录干扰噪声或描述干扰噪声的参数)以及用于一旦在当前的环境中已经识别出干扰噪声就输出信息的接口。在这里,数据(如之前确定的记录)和之前确定的音频指纹或之前确立的心理声学参数的阈值可存储在内部或者根据另一实施例,使用例如已经根据另一方面可确定的数据库在外部读取。
根据这些被识别的客观干扰噪声或一个信号类别,信息可进一步单独地处理,或者结合时间的指示、位置的指示或将干扰噪声分类成类别中的一个类别(对应的干扰组:轻微干扰、干扰、高度干扰)。根据优选的实施例,这些信息被输出到外部数据库。
由于在该实施例中仅提供对位置或该一个位置的评估,或者根据其它的实施例,也可想到将该评估扩展到若干个位置,如空间或室外环境中的若干个位置,即若干相邻位置(如分布在一个城市)。因此,另一实施例提供了一种方法,其中针对两个相邻位置接收“记录”、“比较”和“输出”的步骤。当存在两个相邻位置的信息时,例如,可确定第一位置和第二位置的记录之间的关系,以便确定主观感知的干扰噪声的移动、空间扩展或方向。
根据另一实施例,类似于识别干扰噪声,也可想到识别不同的序列(如控制指令),使用该序列输出对应的控制信号。在这里,与控制信号相关联的记录可以是语音命令,或者如前所述,被分类为干扰噪声的声音信号。例如,控制信号由自身执行该方法的设备输出,使得例如开始记录,或外部设备,如通过控制信号切换到记录模式的、布置在不同位置处的另一个设备。
根据其它的实施例,上面概述的设备还可包括通信接口,用于与数据库通信以读取之前确定的干扰噪声或参数,或者用于输出关于干扰噪声的信息。根据其它的实施例,设备也有可能使用该通信接口与另一个设备进行通信,使得可针对两个相邻位置获得和/或分析干扰噪声。
子方面的实施例提供了一种用于分析信号类别的噪声的方法。该方法包括在第一位置和第二位置处连续记录当前环境噪声的步骤。在这里,记录进而意味着直接记录环境噪声,或者从与环境噪声有关的参数集(如音频指纹或心理声学参数)导出环境噪声。另外,对于每个记录,执行与先前获得的主观感知的干扰噪声的记录或描述干扰噪声的参数的比较,以便识别每个位置(第一位置和第二位置)的干扰噪声。记录之间的关系可根据在不同位置处包括一个干扰噪声的两个记录(第一记录和第二记录)来确定,以便能够更精确地分析所产生的干扰噪声,例如相对于其位置、扩展或运动。
该方面的实施例基于以下发现:使用两个不同位置处的同一个干扰噪声的两个记录的关系有可能获得关于干扰噪声本身的扩展信息。在这里,首先识别相应环境中(即,在第一位置和第二位置处)的干扰噪声,并且其在被识别时与彼此相关。有利地,在这里有可能获得关于干扰噪声的移动或干扰噪声的扩展或干扰噪声的传播方向的信息。另外,也有可能区分局部干扰噪声(即仅在一个位置处)和全局事件(即在几个位置处发生的事件)。使用该方法有可能识别特性噪声事件及其移动的传播。
根据实施例,确定第一记录和第二记录之间的关系的步骤通过分析第一记录和第二记录之间的水平差来完成。另选地或除此之外,在确定关系的步骤中也可能确立时间偏移,即在两个不同位置处确立的两个记录中的事件之间的延迟时间或运行时间偏移。另外,还可关于频率和霍尔效应的差异来评估两个记录。使用所有这些分析参数,有可能确定噪声源和记录位置之间的距离,因为声音通常随着距离的增加而减小,并且/或者存在频移,使得上频率被抵消了。
根据另一实施例,该方法包括分析相对于第一位置和第二位置之间的距离的音频事件或各个源,相对于主观干扰噪声源的移动进行分析,以及/或者相对于主观干扰噪声源的数量进行分析。例如,这三种分析基于评估第一记录和第二记录之间的关系,即根据比较上述因素。
在该方面要提到的是,优选地使用迁移时间窗口来进行连续记录。此外,与上述方面一样,也可想到从外部读取要进行比较的噪声。
在这里要指出的是,该方法当然可扩展到第三位置。
在根据该方面的实施例中,当已经在第一位置处确定了干扰信号时,可在第二位置处开始记录,以便允许对传播的干扰信号进行时间分析。
另一实施例涉及一种用于分析一个信号类别的信号的系统。该系统包括具有一个麦克风的两个单元,每个单元用于连续记录当前环境噪声。两个单元可定位在不同的位置处,如相邻的位置。在这里,“记录”再次意指直接记录环境噪声并且从参数(如音频指纹)导出环境噪声。此外,该系统包括至少一个处理器,该处理器可集成在第一单元或第二单元中,并且被配置为通过将第一和第二单元的第一记录和第二记录与之前获得的至少一个记录/信号类别的信号的音频指纹或描述信号类别的信号的参数进行比较来识别噪声。另外,处理器被配置为确立第一记录和第二记录之间的关系。
根据实施例,两个单元可经由通信接口(如无线电接口)连接到彼此。
根据另一实施例,提供了用于执行上述方法中的一个方法的计算机程序。
附图说明
下面将参考附图讨论本发明的实施例,其中:
图1a是用于说明根据基本变型中方面1“建立数据库”的方法的流程图;
图1b是用于说明根据方面1的扩展方法的流程图;
图1c至1f示出了方面1的设备的变型;
图2a是用于说明方面2“识别信号类别的噪声”的对应的基本变型的方法的流程图;
图2b是方面2的扩展实施例的流程图;
图2c是方面2的设备的示意性框图;
图3a是用于说明方面3“分析各个信号类别的噪声”的基本变型的方法的流程图;
图3b是方面3的设备的示意性框图。
在下面更详细地讨论本方面的实施例之前,需要指出的是,相同效果的元件和结构具有相同的附图标记,使得其描述可相互适用或可互换。
具体实施方式
图1a示出了用于建立数据库的方法100,该方法包括“使用麦克风11接收和记录110和信号接收”120的步骤。当已经接收到信号120时(参见判定125的地方),将步骤110的记录存储在数据库中,其使用步骤130示出。该步骤130基本上表示基本方法100的结束(参见端点135)。
关于“记录110”的步骤要指出的是,在记录时,通常可存在编码的子步骤。编码也可被实现为使得获得所谓的音频指纹,即用于记录的特性参数的导出。与记录相比较时,该音频指纹被强烈地压缩并因此被匿名化,其中,音频指纹仍然允许使用音频指纹来识别可比较的噪声,即相同类别的噪声。通常,可描述音频指纹,使得其作为音频信号的表示,该表示代表了音频信号的所有基本特征,使得能够进行随后的分类。音频指纹通常不足以允许解码以形成真实的音频信号,并且因此保护了隐私。类似地,或并行于编码,可存在导出描述记录的参数(如心理声学参数)的子步骤。
记录过程110也可被描述为环形缓冲器,因为记录通常会被重复覆盖,并且因此仅缓冲预定的周期,如例如120秒、60秒或30秒,或者通常多于5秒。该环形缓冲器还提供了满足隐私要求的优点。当获得信号120时,使用步骤130,将上一周期的环境噪声的该时间窗口存储或最终存储在另一存储器(如数据库)中,使得其稍后可用。为了有效地建立数据库,针对一个或不同信号类别的若干信号重复执行方法100。
该方法100用于建立数据库,其中识别了麦克风11接收(即记录)的主观干扰噪声。当用户已经识别到环境中的干扰噪声时,使用由用户执行的步骤完成识别,该步骤使用按钮12(或者通常为用户输入接口12)来示例性地执行“信号120输出”步骤。因为麦克风110监听环境噪声并且在步骤110中对这些环境噪声进行缓冲,所以这些干扰噪声也被记录,使得可将缓冲记录或其一部分存储在用于建立数据库的永久存储器中(参见步骤130)。在用户没有识别到干扰噪声的情况下,将重复该方法,使用了从主观评估(判定元素125)到开始点101的箭头来说明该过程。
该方法的优点在于,以这种方式可建立足够宽的数据库,该数据库包括与主观感知干扰噪声相关联的多个记录或参数(如音频指纹)。
在这里要指出的是,该过程会造成信号的时间点对时间窗口的相关性。示例性地,在信号的时间处的时间窗口的开始在信号的时间之前相距固定距离,如30秒或60秒,这会造成相关性。另外,时间窗口的结束还可取决于信号的时间,使得信号的时间与时间窗口的结束一致,或者例如存在5秒的时间距离(在信号的时间之前结束)。通常,对相关性进行选择,使得记录时间窗口将总是在信号的时间之前,其中信号也可在时间窗口内。
图1b示出了扩展方法100',该方法也允许建立数据库,但是具有扩展信息。方法100'通常基于方法100,并且其过程受到开始101和结束135的限制。因此,方法100'还包括以下基本步骤:记录110'、接收120'相关于主观噪声评估或者通常相关于将接收的信号分配成来自多个信号类别(如非干扰噪声、轻微干扰噪声和高度干扰噪声)中的一个信号类别(如干扰噪声)的信号,以及像使用数据库一样存储缓冲记录130。另外,步骤130和120'通过判定点125连接。
在该实施例中,记录步骤110'被细分成两个子步骤,即110a'和110b'。例如,步骤110a涉及计算心理声学参数,如粗糙度、清晰度、音量、音调和/或变化强度。步骤110b被归纳为确定描述该记录的音频指纹,使得之后可再次使用音频指纹识别特性特征。
可存在不同的输入装置来执行主观噪声评估的步骤120'。这些是“使用执行方法100'的设备上的按键或按钮的评估(参考附图标记12a'),使用问卷使主观噪声评估关联(参考附图标记12b'),或者使用智能设备评估(参考附图标记12c')。为了执行主观噪声评估120'的步骤,可单独或组合使用这三个评估变型12a'、12b'和12c'。一旦存在评估(参考判定点125),心理声学参数(附图标记110a')和/或音频指纹(参考附图标记110b')就会被存储在存储器中,其在步骤130中示出。
根据其它的实施例,除了纯粹的参数或指纹或者音频记录的部分之外,还可添加时间和/或位置信息。这些也在步骤130中被存储并且源于另一个步骤132,该步骤对应地包括:确定当前位置和/或确定当前时间。
当数据库已经建立并且具有对应的大小(参考步骤130)时,其可如在步骤132中所示的那样通过相关或统计评估来进行评估。
上述方法100和100'的典型应用情况是例如设备位于旅馆房间中并且监视当前的环境噪声。当旅馆的客人想要在其旅馆的房间里安静和宁静,但是干扰噪声阻止其这样做时,他或她可标记这些干扰噪声。这可能会造成这样的结果,即房间的声音可能不会太大,但是可能存在一定的噪声,如阻止客人入睡的空气调节。使用该设备,他或她可执行主观评估,即分类为信号类别,如“干扰”、“非常干扰”或“高度干扰”。评估表征了使用不同参数评估的噪声情况。最后,音频指纹、心理声学参数,或者一般来说,与信号类别中的一个类型相关联的记录被存储在数据库中。
下面参考图1c、图1d和图1e讨论设备的三种变型。
图1c示出了第一设备变型,即设备20,其经由接口或无线电接口连接到实际的信号处理单元(未示出),并且基本上被配置为发出用于识别干扰信号或特定信号类别的信号。在这里,本实施例中的设备22包括可执行主观评估的两个按钮24a和24b。这些按钮24a和24b与不同的信号类别相关联。
设备20可示例性地为智能设备(如平板电脑、智能手表、智能电话),其包括集成在应用中的虚拟按钮24a和24b。该应用还可示例性地包含问卷,通过该问卷可从用户(如旅馆客人)收集一般质量的其它信息。
当操作按钮24a或24b时,在实际的数据收集设备中执行缓冲环境噪声或导出参数并且然后真正存储的方法。例如,该外部设备可以是在各个监视位置处具有麦克风的服务器。
图1d示出了另一种变型,其中,用于接收环境噪声的内部麦克风26集成在包括按钮24a和24b的设备20'中。除此之外或另选地,外部麦克风26e可经由接口连接到设备20'。
图1e示出了不再包括作为输入装置的按钮的设备20”的另一个变型,但是其仅包括内部麦克风26或任选的或另选的外部麦克风26e,并且使用可与信号类别的环境噪声相关联的该语音命令。
参考设备20'和20”,在这一点上应该注意,即也可连接几个外部麦克风。在这里也可想到,除了正常的空气传播声音之外,还记录结构传播声音(意味着各个设备包括结构传播声音接收器)。
参考图1c和图1d的实施例,需注意,不同的按钮24a和24b也可通过其它的按钮来扩展。为了区分按钮,可提供颜色编码:红色=干扰、黄色=无差别、绿色=非常令人愉快的环境噪声(后者示例性地适用于当鸟鸣叫清晰可见但被感知为理想的噪声时)。
参考图1c至1d,需要提到的是,设备20、20'和20”可另外被集成为软件应用程序,并且另外集成在如智能电话、平板电脑或智能手表的设备中。这些软件应用程序能够允许以下功能:
-通过问卷调查技术或不同的主观获得技术扩展上述噪声质量的检测;
-使用存在于其它设备中的传感器系统(麦克风、GPS、倾斜传感器、生物反馈功能);
-无线或(如果适用的话)与在这里开发的用于数据通信的设备的机械连接;
-使用这里开发的软件完全控制这里开发的设备。
图1f示出了设备20”'的部件。设备20”'包括麦克风26、用于校准麦克风的任选的校准装置26k以及处理单元42和存储器44。
处理装置42包括用于对音频文件进行编码或者用于导出音频指纹的预处理46,以及用于确定心理声学参数的单元48。预处理46的元数据和单元48的心理声学参数都被写入存储器44。另外,音频信号可通过例如由按钮控制的单元49更准确地存储或存储在存储器44中。
校准装置26k用于为所有传感器提供定义的灵敏度值。在这里,预先执行例如开关的测量或记录、频率响应或压缩。
根据所存储的音频样本、元数据(心理声学参数的音频指纹)以及借助于来自图1c至图1d的输入装置中的一个装置获得的标记,然后可执行借助于数据分析器50的实际数据分析,以及与各个信号类别的关联。
这里要指出的是,该设备通常是移动设备,因此通常可使用电池或蓄电池向其供应电力。另选地,常规的电源也是可行的。为了存储记录,该设备还可包括存储介质,如便携式存储介质(如SD卡)或与服务器的连接。通过有线或玻璃纤维接口或甚至无线电接口完成与服务器的连接。在协议层面上,存在不同的方式来做这个,其在这里将不再详细讨论。
为了提高可评估性,该设备还可包括用于与其他设备精确同步的装置,例如,如时间码或世界时钟。另外,也可想到将该设备耦接到位置确定单元(如GPS接收器),或者将其集成在一起,以便确定哪个干扰噪声已经被确定在哪个位置或者被感知为是干扰的。
在这里要指出的是,对应于其它的实施例,方法100或100'还可包括预校准(参考校准装置26k)。这意味着,对应于实施例,上面讨论的方法100或100'包括校准的步骤。
关于方面1,要指出的是,对应于实施例,还可想到的是,所有这些设备都执行测量数据的数据归纳记录,以便归纳数据。数据归纳对于长期测量也可以是有利的。根据压缩或错误的程度,可确保隐私被保留,因为监视的数据可总是被压缩,使得基本上只有参数,如心理声学参数(粗糙度、清晰度、音调等)或音频指纹被记录。这里要再次指出的是,对于数据和消费者保护而言,是否记录或音频指纹或是仅仅心理声学参数的精确判定本质上受法律框架条件的影响。
如上面所讨论的,使用所谓的“音频指纹”,其中,存在将在下面更详细地讨论的其不同的变型。已经知道许多方法,使用这些方法可从音频信号中提取特征或指纹。美国专利号5,918,223公开了一种用于基于内容的分析、存储、恢复和分割音频信息的方法。音频数据的分析生成被称为特征向量的一组数值,其可用于对各个音频片段之间的相似度进行分类和排列等级。音频片段的音量、音高、音调的亮度、带宽和所谓的Mel频率倒谱系数(MFCC)被用作表征或分类音频片段的特征。每个块或帧的值被存储,然后相对于时间进行一阶求导。为了描述随时间的变化,根据其计算包括其一阶求导的这些特征中的每一个的统计量,如平均值或标准偏差。这组统计量形成特征向量。特征向量因此是音频片段的指纹并且可存储在数据库中。
Yao Wang等人在专家刊物“多媒体内容分析”(IEEE信号处理杂志,2000年11月,第12页至第36页)公开了用于对多媒体片段进行索引和表征的类似概念。为了确保音频信号与特定类别的有效关联,已经开发了许多特征和分类器。建议将时间范围特征或频率范围特征作为用于分类多媒体片段的内容的特征。这些包括音量、作为音频信号形状的基本频率的音高、频谱特征(如频带相对于总能量内容的能量内容)、频谱过程中的截止频率等。除了涉及所谓音频信号样本的每块尺寸的短时特征之外,建议与音频片段的较长周期有关的长期量。通过形成各个特征的时间差来形成其它的典型特征。块中获得的特征也很少像这样直接传递用于分类,因为他们表现出太高的数据速率。一种进一步处理的传统形式是计算短期统计。在这些统计中,例如,进行计算平均值、方差和时间相关系数。这降低了数据速率,并且另一方面导致改进了对音频信号的识别。
WO 02/065782描述了一种形成指纹以形成多媒体信号的方法。该方法涉及从音频信号中提取一个或几个特征。这里的音频信号被分成段,并且在每个段中进行块和频带的处理。以示例的方式提及了功率密度谱的能量、音调和标准偏差的逐频带计算。
从DE 101 34 471和DE 101 09 648已知一种用于分类音频信号的设备和方法,其中,通过音频信号的音调的量度来获得指纹。这里的指纹允许对音频信号进行稳健的、基于内容的分类。在这里提到的文件揭示了在音频信号上生成音调的量度的几种可能性。在这种情况下,将音频信号的段转换到频谱范围是计算音调的基础。然后可并行计算对于一个频带或所有频带的音调。然而,这种系统的缺点是,随着音频信号失真的增加,指纹不再具有足够的表现力,并且在满足可靠性的情况下不再可能识别音频信号。然而,在许多情况下都会发生失真,特别是当使用低传输质量的系统传输音频信号时。目前,在移动系统或强数据压缩的情况下尤其如此。这样的系统(如移动电话)主要被实现用于语音信号的双向传输,并且经常只以非常低的质量传输音乐信号。还存在其它的因素,这些因素可具有对传输信号的质量的负面影响,如低质量的麦克风、信道干扰和转码效应。对于用于识别和分类信号的设备,信号质量恶化会造成识别性能严重劣化。检查已经揭示了,特别是当使用根据DE101 34 471和DE 101 09 648的设备或方法时,保持音调的识别标准(频谱平坦度测量)时系统中的变化不会导致识别性能中其它的显著改进。
当假设已经建立了包括噪声(如不同信号类别的干扰噪声)的足够的数据库时,由此,可在任何环境中搜索特定的干扰噪声,然后可存入是否已经识别这样的干扰噪声。该方法如图2a所示。
图2a示出了包括将经由麦克风11接收的环境噪声(参考接收205的步骤)匹配到来自数据库15的记录的步骤210的方法200。只要已经发现了在判定215的地方示出的匹配,就输出一个信号,如用于存入或用于排除进一步的动作。只要尚未发现匹配,就会重复该方法,这使用了到起始点201的白天来说明。
对应于实施例,当前环境噪声的相应音频指纹而不是记录可与之前存储在数据库15中的音频指纹进行比较。在这里的方法包括确定当前环境噪声的音频指纹,并且将其与存储在数据库15中的音频指纹进行比较。
即使当在方法200中假设将环境噪声或音频指纹事先与存储在数据库15中的环境噪声/音频指纹相匹配来进行识别时,一般而言,可相关于一规则来监视环境噪声。在比较环境噪声/音频指纹的情况下,该规则将意味着“部分匹配”。
例如,另一个这样的规则可以是简单地待超过的音量值或待超过的与心理声学参数有关的阈值。根据实施例,导出当前环境噪声的心理声学参数,其通过预定义的规则与预定义的相应阈值进行比较,以便识别这种事件的发生。
根据扩展的实施例,该方法不仅可纯粹识别这种干扰噪声,而且可将噪声分类为例如语音、马达噪声、音乐、教堂钟声或射击声。
示例性地在智能电话或专门为此设计的设备上执行这种方法的一个潜在应用场景是设备位于旅馆房间中并且监视环境噪声。在这里,使用来自数据库15的数据来评估环境噪声,并且存入了随着时间推移已经发生了多少可能被感知为干扰的噪声事件以及可能被感知为干扰的噪声事件中的哪一个。例如,这可以是在一天的过程中计算干扰的空气调节噪声。作为存入的替代形式,可执行对该噪声的音频记录或预先缓冲的环境噪声的存储(参见上文)。基本思想是旅馆运营商能够使用这种方法预测和评估噪声感知。
图2b示出了在判定215的步骤或点与结束216之间包括其它步骤的扩展方法200'。
这些是通过步骤220计数事件或使用单元变量221,因此获得事件222的数量。任选地,音频记录可通过已被识别的事件来开始,如使用步骤230所示。
图2c示出了设备40的另一实施方式。其包括作为中央单元的处理器41,该处理器执行分析/匹配的实际步骤。首先,其使用内部麦克风26,其中,也可想到访问外部麦克风26e1和26e2。例如,用于匹配的数据存储在内部存储器44中。
任选地,处理器被配置为确定并匹配音频指纹和/或心理声学参数,以便获得对应的规则匹配。
为了允许这种功能,任选地提供另一外围单元,如内部时钟55、电池56b或通常也可使用电缆56k实现的电源56。任选地,处理器还访问其它的传感器元件57、控制单元58(如记录激活按钮)或定时器59。在这里,根据其它的,处理器41还可被配置为执行客观噪声评估,以便与主观评估(识别主观音调事件)相结合地确立关联。
对应于实施例,根据之前获得的愉悦性主观评估,CPU可取决于相应的噪声类别对不同评估矩阵中的信号类别的各个识别的噪声进行分类/归类。
根据其它实施例,也可提供外部数据存储器60(如外部硬盘或服务器),用于存储或加载数据库。该连接可以是有线连接或无线连接。在无线通信中,对应于其它实施例,将提供通信接口62,如实现外部访问的无线接口62w或有线接口62k。
根据另一个方面,提供了一种系统,其基本上由彼此结合的、之前描述的设备40中的两个组成,使得一旦在其中一个设备中接收到对应的噪声(即,信号类别),这两个设备就相互激活。该系统用于更详细地分析或评估各个噪声类别的噪声。在这里执行下面在图3中讨论的方法。
图3a示出了包括与在第一位置和第二位置处执行的、与方法200或200'相对应的噪声分析的步骤的方法300。这意味着步骤210存在两次(参考210a和210b)。
然后在另一个步骤220中比较确定的记录或参数,如在两个位置处的音频指纹(由步骤210a和210b产生)。
根据实施例,两个相邻位置处的两个步骤210可相互相关,如使用任选的步骤“在相邻设备211上的音频记录”所示出的。另选地,可在相邻的装置处执行另一个动作。其原因在于,例如,当执行方法210a的第一设备识别出噪声并且激活执行方法210b的第二设备时,可在不同的位置处识别相同的噪声。这里最后要提到的是,从判定215的地方开始,有指向起始点301的另一个箭头,这基本上暗示了以下事实:将执行噪声分析210a的方法,直到已经发现对应的匹配。
由于位置通常在空间上相邻,所以有可能以这种方式估计噪声的传播、速度或更大的噪声源。
示例性地,当将其自己的分析与同时在不同设备上的分析进行比较时,当在几个设备处已经识别出相同事件时,可确定这是诸如雷电的全局事件(参考判定321的领域之后的附图标记232)或是本地事件(参考判定321的领域之后的附图标记324)。对于全局事件323,通常“近”和“远”设备之间的水平差异可忽略不计(相对于r的r变化小)。对于本地事件324,水平差异很大(相对于r的r变化大)。例如,本地事件可以是呼救、爆炸、露天音乐会。对于本地事件,之后可进行其它的分析,即关于其它参数的分析325。根据时间的偏移或频率的偏移,可确定本地事件、传播或时间线的量。确定全局事件323或本地事件324(如其分析325)基本上是该方法的结束329。
例如,一种可能的应用场景是将几个设备分布在市中心。所有设备通过数据连接(如有线、无线、以太网或LAN连接)相互连接。使用服务器的连接也是可能的。所有的设备分析噪声情况(心理声学参数、音频指纹)。这些设备中的一个设备识别特征事件,如预先在数据库中分类的信号类别。当场触发音频记录。同时,设备触发行为,如在一个相邻节点上的动作。通过比较两个节点,可区分全局事件和本地事件,如上面已经讨论的。
方法300基本上由包括设备40中的两个设备的系统来执行(图2c)。
然而,由于提供了用于连接两个设备的额外的接口,所以也有可能几乎没有变化,如图3b所示。
图3b示出了在输入侧上包括麦克风26和任选的校准单元26k的设备70。例如,通过预处理46对由麦克风接收到的音频流进行预处理,以便导出音频指纹(参考附图标记46a)或心理声学参数(参考附图标记48)。同时,可识别事件或类别(参考附图标记50)。通过识别事件/类别,一方面可触发自动音频记录(参考附图标记50a1),或者可发出控制指令,如用于激活另一节点(参考附图标记50a2或另一设备70')。用于输出控制指令50a2的装置可示例性地激活随后从用于生成音频指纹46a的装置或者用于导出心理声学参数48的装置接收和记录数据的存储器。音频信号也可存储在存储器44中,其中,在这里也可通过按钮49a来允许或阻止记录。在该实施例中,CPU 41也可连接到定时器59。
除了设备70之外,基本上履行相同功能的设备70'设置在另一个相邻的位置处。该设备70'还包括存储器44,当设备70'借助于激活装置50a2时或者根据被识别并属于一个类别的噪声,该存储器已经存储了该时间段的音频结果。数据分析器72在下一个步骤(例如相对于扩展)中分析来自设备70和70'的存储器44的记录或音频指纹或心理声学参数。然而,在这里,数据分析器72与另一设备的两个存储器连接是有利的,其中,在这里提到,数据分析器72可布置在设备70和70'中的一个中,或者在相对于他们两者的外部。
对应于另一实施例,按钮(如按钮24a')可集成在设备70中,使得设备70还执行设备20、20'或20”'的功能。
任选的元件50a'允许在识别分类之后自动触发记录。另选地,在这里也可想到,当在已经获得的任何信号类别中没有发现噪声时,自动记录成形。
换句话说,方法303可描述方法200的功能基本上被涵盖,即识别和分类诸如语音、马达噪声、音乐、厨房砖、射击声等的噪声,并且根据不同位置处的多个麦克风,已经通过分析扩展该功能。
在这里还要指出的是,某些类别的自动录音,如爆炸和射击声,例如也可能暗示了恐怖主义。在这里,所有相邻的节点70/70'直接切换到记录会很有用。
另外,当在一段时间内超过特定的噪声阈值时,也可能自动(例如,时间上有限的)记录。记录也可扩展到相邻的节点,以便因此在合并多个节点(引起对干扰源的研究,分离噪声源)时,通过这些较长的记录来执行信号源的精确定位。
上述三种情况的潜在应用领域如下:
-旅游、旅馆、健康部门、自行车道、远足路径;
-工作保护(办公室工作、机器工厂、客舱工作场所);
-城市规划(音景、噪声映射);
-公共安全(监控生产设施)。
也可想到方法100/100'、200/200'和300的组合或者设备20/20'/20”/20”'、40和70/70'的功能。这样的示例是用于主观评估和记录以及用于设备的机器评估的设备和方法的组合。
在这里要指出的是,已经结合不同方面讨论的元素当然也可应用于第二方面。示例性地,涉及音频指纹或心理声学参数的教导适用于所有三个方面,其中,仅结合第一方面更详细地讨论教导。
虽然已经在设备的上下文中描述了一些方面,但是清楚的是,这些方面也表示对应方法的描述,使得设备的块或元件也对应于相应的方法步骤或方法步骤的特征。类似地,在方法步骤的上下文中描述的方面也表示对应设备的对应块或项目或特征的描述。例如,方法步骤中的一些或全部可通过(或使用)如微处理器、可编程计算机或电子电路的硬件设备来执行。在一些实施例中,最重要的方法步骤中的一些或几个可由这样的设备来执行。
创新性的编码的信号(如音频信号或视频信号或传输流信号)可存储在数字存储介质上,或者可在诸如无线传输介质或有线传输介质(如因特网)的传输介质上传输。
例如,该创新性的编码的音频信号可存储在数字存储介质上,或者可在诸如无线传输介质或有线传输介质(如因特网)的传输介质上传输。
取决于某些实施方式要求,本发明的实施例可以硬件或软件来实现。使用数字存储介质,例如软盘、DVD、蓝光盘、CD、ROM、PROM、EPROM、EEPROM或FLASH存储器、硬盘驱动器或具有存储在其上的以电子方式可读取的控制信号的另一种磁性或光学存储器,可执行该实施方式,所述的数字存储介质与可编程计算机系统协作或能够与可编程计算机系统协作,使得执行相应的方法。因此,数字存储介质可以是计算机可读的。
根据本发明的一些实施例包含包括电子可读控制信号的数据载体,所述的电子可读控制信号能够与可编程计算机系统协作,使得执行本文描述的方法中的一个方法。
通常,本发明的实施例可实现为具有程序代码的计算机程序产品,当计算机程序产品在计算机上运行时,程序代码可操作用于执行其中一个方法。
程序代码可例如存储在机器可读的载体上。
其他实施例包括用于执行本文描述的其中一个方法的计算机程序,其中,计算机程序存储在机器可读的载体上。
换句话说,本发明方法的实施例因此是计算机程序,该计算机程序包括程序代码,该程序代码用于当计算机程序在计算机上运行时执行本文描述的其中一个方法。
因此,创新性方法的另一实施例是数据载体(或数字存储介质或计算机可读介质),包括记录在其上的用于执行本文描述的其中一个方法的计算机程序。
因此,创新性方法的另一实施例是表示用于执行本文描述的其中一个方法的计算机程序的数据流或信号序列。例如,数据流或信号序列可被配置为通过数据通信连接(例如通过互联网)传送。
另一实施例包括处理装置,如计算机或可编程逻辑设备,其被配置为或适于执行本文描述的其中一个方法。
另一实施例包括其上安装有用于执行本文描述的其中一个方法的计算机程序的计算机。
根据本发明的另一实施例包括被配置为将用于执行本文描述的至少一个方法的计算机程序传送到接收器的设备或系统。可以电子或光学方式执行传送。例如,接收器可以是计算机、移动设备、存储设备等。例如,设备或系统可包括用于将计算机程序传送到接收器的文件服务器。
在一些实施例中,可编程逻辑设备(例如现场可编程门阵列,FPGA)可用来执行本文描述的方法的功能中的一些或全部。在一些实施例中,现场可编程门阵列可与微处理器协作,以便执行本文所描述的其中一个方法。通常,在一些实施例中,通过任何硬件设备执行方法。这可以是普遍适用的硬件(诸如计算机处理器(CPU))或专用于该方法的硬件(诸如ASIC)。
上述实施例仅仅是为了说明本发明的原理。应当理解,本文所描述的配置和细节的修改和变化对于本领域的其他技术人员来说将是显而易见的。因此,本发明意图仅由所附专利权利要求的范围限制,而不是由通过对本文的实施例的描述和解释给出的具体细节限制。
Claims (20)
1.一种用于生成数据库(15)的方法(100、100'),包括以下步骤:
接收(110、110')环境噪声,并且缓冲迁移时间窗口的所述环境噪声,或者从所述环境噪声导出参数集并且缓冲所述迁移时间窗口的所述参数集,以便获得缓冲记录;
获得(120)识别所述环境噪声中的多个信号类别中的一个信号类别的信号;
响应于该信号,将所述缓冲记录存储(130)在存储器中;以及
重复获得(120)和存储(130)的步骤,以便获得包括相同信号类别的多个缓冲记录的所述数据库(15)。
2.根据权利要求1所述的方法(100、100'),其中,在所述信号与所述缓冲记录的所述迁移时间窗口之间存在时间相关性。
3.根据权利要求2所述的方法(100、100'),其中,所述时间相关性是所述迁移时间窗口的开始在所述信号的时间之前;或者迁移窗口的结束在所述信号的时间处或者在所述信号的时间之前。
4.根据前述权利要求中任一项所述的方法(100、100'),其中,通过用户输入装置(24a、24b)、按钮(24a、24b)或智能设备接收所述信号。
5.根据前述权利要求中任一项所述的方法(100、100'),其中,通过用于确定音量的检测器、用于识别所述环境噪声中的控制信号的处理器或者用于在相邻的位置处生成数据库(15)的设备接收所述信号。
6.根据前述权利要求中任一项所述的方法(100、100'),其中,导出所述参数集包括确定用于缓冲的环境噪声的音频指纹。
7.根据前述权利要求中任一项所述的方法(100、100'),其中,导出所述参数集包括确定所述缓冲记录的心理声学参数。
8.根据权利要求7所述的方法(100、100'),其中,所述心理声学参数包括音量、清晰度、音调、粗糙度和/或变化强度。
9.根据前述权利要求中任一项所述的方法(100、100'),包括:获得识别所述环境噪声中的多个信号类别中的另一信号类别的另一信号,其中,响应于所述另一信号执行存储,使得保持所述缓冲记录与类别或所述另一信号类别的关联。
10.根据前述权利要求中任一项所述的方法(100、100'),其中,当存储(130)时,将在获得所述信号时的时间戳也与所述缓冲记录一起存储。
11.根据前述权利要求中任一项所述的方法(100、100'),其中,所述方法(100、100')包括在获得所述信号时确定当前位置的步骤,并且将确定的位置与所述缓冲记录一起存储存储。
12.根据前述权利要求中任一项所述的方法(100、100'),其中,以数据归纳的方式存储所述缓冲记录。
13.根据前述权利要求中任一项所述的方法(100、100'),其中,所述存储器(44)被布置在外部。
14.一种具有程序代码的计算机程序,用于当所述程序在计算机上运行时执行根据权利要求1至13中任一项所述的方法(100、100')。
15.一种用于生成数据库(15)的设备(20、20'、20”、20”'),包括:
麦克风(11),用于接收环境噪声;
缓冲器,用于缓冲迁移时间窗口的所述环境噪声,或者从所述环境噪声导出参数集并且用于缓冲所述迁移时间窗口的所述参数集,以便获得缓冲记录;
接口,用于获得识别所述环境噪声中的多个信号类别中的一个信号类别的信号;以及
存储器(44),用于响应于该信号存储所述缓冲记录;
其中,所述设备(20、20'、20”、20”')被配置为重复获得和存储,以便获得包括相同信号类别的多个缓冲记录的所述数据库(15)。
16.根据权利要求15所述的设备(20、20'、20”、20”'),其中,所述设备(20、20'、20”、20”')包括输入装置、按钮或连接到输入接口的智能设备;或者
其中,所述输入接口连接到用于确定音量的检测器、用于识别所述环境噪声中的控制信号的处理器、或者用于在相邻的位置处生成数据库(15)的另一设备(20、20'、20”、20”')。
17.根据权利要求15或16所述的设备(20、20'、20”、20”'),其中,所述设备(20、20'、20”、20”')包括位置确定装置,使用所述位置确定装置能够确定当前位置,使得能够结合待存储的所述缓冲记录的一部分或参数存储所述当前位置。
18.根据权利要求15至17中任一项所述的设备(20、20'、20”、20”'),其中,所述缓冲器是环形存储器。
19.根据权利要求15至18中任一项所述的设备(20、20'、20”、20”'),其中,所述设备(20、20'、20”、20”')包括通信接口,使用所述通信接口能够连接外部的所述存储器(44)。
20.通过根据权利要求1至13中任一项所述的方法生成的数据库(15)的用途。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15174634.4 | 2015-06-30 | ||
EP15174634 | 2015-06-30 | ||
PCT/EP2016/065392 WO2017001607A1 (de) | 2015-06-30 | 2016-06-30 | Verfahren und vorrichtung zum erzeugen einer datenbank |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108028047A true CN108028047A (zh) | 2018-05-11 |
CN108028047B CN108028047B (zh) | 2022-08-30 |
Family
ID=56368939
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680048720.2A Active CN108028048B (zh) | 2015-06-30 | 2016-06-30 | 用于关联噪声和用于分析的方法和设备 |
CN201680048686.9A Active CN108028047B (zh) | 2015-06-30 | 2016-06-30 | 用于生成数据库的方法和设备 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680048720.2A Active CN108028048B (zh) | 2015-06-30 | 2016-06-30 | 用于关联噪声和用于分析的方法和设备 |
Country Status (7)
Country | Link |
---|---|
US (2) | US11880407B2 (zh) |
EP (2) | EP3317878B1 (zh) |
JP (2) | JP6654209B2 (zh) |
KR (2) | KR102087832B1 (zh) |
CN (2) | CN108028048B (zh) |
CA (2) | CA2990891A1 (zh) |
WO (2) | WO2017001607A1 (zh) |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113330752A (zh) * | 2018-12-20 | 2021-08-31 | 搜诺思公司 | 使用噪声分类优化网络麦克风设备 |
US11514898B2 (en) | 2016-02-22 | 2022-11-29 | Sonos, Inc. | Voice control of a media playback system |
US11531520B2 (en) | 2016-08-05 | 2022-12-20 | Sonos, Inc. | Playback device supporting concurrent voice assistants |
US11538451B2 (en) | 2017-09-28 | 2022-12-27 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US11556306B2 (en) | 2016-02-22 | 2023-01-17 | Sonos, Inc. | Voice controlled media playback system |
US11641559B2 (en) | 2016-09-27 | 2023-05-02 | Sonos, Inc. | Audio playback settings for voice interaction |
US11646045B2 (en) | 2017-09-27 | 2023-05-09 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US11646023B2 (en) | 2019-02-08 | 2023-05-09 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11689858B2 (en) | 2018-01-31 | 2023-06-27 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US11694689B2 (en) | 2020-05-20 | 2023-07-04 | Sonos, Inc. | Input detection windowing |
US11714600B2 (en) | 2019-07-31 | 2023-08-01 | Sonos, Inc. | Noise classification for event detection |
US11727933B2 (en) | 2016-10-19 | 2023-08-15 | Sonos, Inc. | Arbitration-based voice recognition |
US11736860B2 (en) | 2016-02-22 | 2023-08-22 | Sonos, Inc. | Voice control of a media playback system |
US11741948B2 (en) | 2018-11-15 | 2023-08-29 | Sonos Vox France Sas | Dilated convolutions and gating for efficient keyword spotting |
US11769505B2 (en) | 2017-09-28 | 2023-09-26 | Sonos, Inc. | Echo of tone interferance cancellation using two acoustic echo cancellers |
US11778259B2 (en) | 2018-09-14 | 2023-10-03 | Sonos, Inc. | Networked devices, systems and methods for associating playback devices based on sound codes |
US11792590B2 (en) | 2018-05-25 | 2023-10-17 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US11790937B2 (en) | 2018-09-21 | 2023-10-17 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11790911B2 (en) | 2018-09-28 | 2023-10-17 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11798553B2 (en) | 2019-05-03 | 2023-10-24 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11797263B2 (en) | 2018-05-10 | 2023-10-24 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US11816393B2 (en) | 2017-09-08 | 2023-11-14 | Sonos, Inc. | Dynamic computation of system response volume |
US11817083B2 (en) | 2018-12-13 | 2023-11-14 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US11854547B2 (en) | 2019-06-12 | 2023-12-26 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11862161B2 (en) | 2019-10-22 | 2024-01-02 | Sonos, Inc. | VAS toggle based on device orientation |
US11863593B2 (en) | 2016-02-22 | 2024-01-02 | Sonos, Inc. | Networked microphone device control |
US11869503B2 (en) | 2019-12-20 | 2024-01-09 | Sonos, Inc. | Offline voice control |
US11881223B2 (en) | 2018-12-07 | 2024-01-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11881222B2 (en) | 2020-05-20 | 2024-01-23 | Sonos, Inc | Command keywords with input detection windowing |
US11887598B2 (en) | 2020-01-07 | 2024-01-30 | Sonos, Inc. | Voice verification for media playback |
US11893308B2 (en) | 2017-09-29 | 2024-02-06 | Sonos, Inc. | Media playback system with concurrent voice assistance |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
US11900937B2 (en) | 2017-08-07 | 2024-02-13 | Sonos, Inc. | Wake-word detection suppression |
US11947870B2 (en) | 2016-02-22 | 2024-04-02 | Sonos, Inc. | Audio response playback |
US11961519B2 (en) | 2020-02-07 | 2024-04-16 | Sonos, Inc. | Localized wakeword verification |
US11973893B2 (en) | 2018-08-28 | 2024-04-30 | Sonos, Inc. | Do not disturb feature for audio notifications |
US11979960B2 (en) | 2016-07-15 | 2024-05-07 | Sonos, Inc. | Contextualization of voice inputs |
US11983463B2 (en) | 2016-02-22 | 2024-05-14 | Sonos, Inc. | Metadata exchange involving a networked playback system and a networked microphone system |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US12047753B1 (en) | 2017-09-28 | 2024-07-23 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US12062383B2 (en) | 2018-09-29 | 2024-08-13 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US12080314B2 (en) | 2022-12-27 | 2024-09-03 | Sonos, Inc. | Dynamic player selection for audio signal processing |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL2874589T3 (pl) | 2012-07-20 | 2018-01-31 | Ferno Washington | Zautomatyzowane układy do zmechanizowanych noszy transportowych |
CA2990891A1 (en) | 2015-06-30 | 2017-01-05 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forchung E.V. | Method and device for associating noises and for analyzing |
US10402696B2 (en) * | 2016-01-04 | 2019-09-03 | Texas Instruments Incorporated | Scene obstruction detection using high pass filters |
CN107731220B (zh) * | 2017-10-18 | 2019-01-22 | 北京达佳互联信息技术有限公司 | 音频识别方法、装置和服务器 |
US10440324B1 (en) * | 2018-09-06 | 2019-10-08 | Amazon Technologies, Inc. | Altering undesirable communication data for communication sessions |
US11521598B2 (en) * | 2018-09-18 | 2022-12-06 | Apple Inc. | Systems and methods for classifying sounds |
DE102019001966B4 (de) * | 2019-03-21 | 2023-05-25 | Dräger Safety AG & Co. KGaA | Vorrichtung, System und Verfahren zur Audiosignalverarbeitung |
TWI716029B (zh) * | 2019-07-09 | 2021-01-11 | 佑華微電子股份有限公司 | 隨選聲音片段偵測方法 |
WO2022194381A1 (en) * | 2021-03-18 | 2022-09-22 | Telefonaktiebolaget Lm Ericsson (Publ) | Predict and trigger a future response to a predicted background noise based on a sequence of sounds |
US11533577B2 (en) | 2021-05-20 | 2022-12-20 | Apple Inc. | Method and system for detecting sound event liveness using a microphone array |
CN113643716B (zh) * | 2021-07-07 | 2023-09-26 | 珠海格力电器股份有限公司 | 电机噪声控制方法、装置和电机及电器设备 |
CN117436709B (zh) * | 2023-12-20 | 2024-03-19 | 四川宽窄智慧物流有限责任公司 | 一种跨区域订单数据统筹预警方法 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5367332A (en) * | 1992-10-09 | 1994-11-22 | Apple Computer, Inc. | Digital camera with time bracketing feature |
WO2000011659A1 (en) * | 1998-08-24 | 2000-03-02 | Conexant Systems, Inc. | Speech encoder using gain normalization that combines open and closed loop gains |
CN1466725A (zh) * | 2000-09-22 | 2004-01-07 | ���˹���Ѷ��� | 在3-d中自动选择最佳通信网络设备模型、位置和配置的方法和系统 |
US6683938B1 (en) * | 2001-08-30 | 2004-01-27 | At&T Corp. | Method and system for transmitting background audio during a telephone call |
US20040138882A1 (en) * | 2002-10-31 | 2004-07-15 | Seiko Epson Corporation | Acoustic model creating method, speech recognition apparatus, and vehicle having the speech recognition apparatus |
CN1727911A (zh) * | 2004-07-26 | 2006-02-01 | 松下电器产业株式会社 | 声控定位系统及方法 |
CN101002254A (zh) * | 2004-07-26 | 2007-07-18 | M2Any有限公司 | 音频信号的鲁棒分类设备和方法、建立并操作音频信号数据库的方法和计算机程序 |
CN101203917A (zh) * | 2005-06-22 | 2008-06-18 | 弗劳恩霍夫应用研究促进协会 | 用于执行能够以可变速度重放的测试声音信号与参考声音信号之间的相关的设备及方法 |
CN101278337A (zh) * | 2005-07-22 | 2008-10-01 | 索福特迈克斯有限公司 | 噪声环境中语音信号的健壮分离 |
EP2328363A1 (en) * | 2009-09-11 | 2011-06-01 | Starkey Laboratories, Inc. | Sound classification system for hearing aids |
US20110208518A1 (en) * | 2010-02-23 | 2011-08-25 | Stefan Holtel | Method of editing a noise-database and computer device |
CN102354499A (zh) * | 2011-07-25 | 2012-02-15 | 中兴通讯股份有限公司 | 降低噪音的方法和设备 |
US20120302190A1 (en) * | 2011-05-25 | 2012-11-29 | Shared Spectrum Company | Method and system for man-made noise rejection detector |
CN103745728A (zh) * | 2014-01-08 | 2014-04-23 | 叶兰玉 | 房屋智能有源降噪的方法及装置 |
US20140254816A1 (en) * | 2013-03-06 | 2014-09-11 | Qualcomm Incorporated | Content based noise suppression |
US20140280233A1 (en) * | 2013-03-15 | 2014-09-18 | Shazam Investments Limited | Methods and Systems for Arranging and Searching a Database of Media Content Recordings |
Family Cites Families (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5918223A (en) | 1996-07-22 | 1999-06-29 | Muscle Fish | Method and article of manufacture for content-based analysis, storage, retrieval, and segmentation of audio information |
JP3645053B2 (ja) * | 1996-12-13 | 2005-05-11 | 大昌エンジニアリング株式会社 | 実音モニターリングシステム |
JPH10282985A (ja) * | 1997-04-07 | 1998-10-23 | Omron Corp | 聴覚支援装置 |
FR2762467B1 (fr) | 1997-04-16 | 1999-07-02 | France Telecom | Procede d'annulation d'echo acoustique multi-voies et annuleur d'echo acoustique multi-voies |
US6381569B1 (en) * | 1998-02-04 | 2002-04-30 | Qualcomm Incorporated | Noise-compensated speech recognition templates |
JP3283024B2 (ja) | 1999-12-07 | 2002-05-20 | 京都府 | 騒音測定管理システム及び該システム用記録媒体 |
US6990453B2 (en) | 2000-07-31 | 2006-01-24 | Landmark Digital Services Llc | System and methods for recognizing sound and music signals in high noise and distortion |
JP4723171B2 (ja) | 2001-02-12 | 2011-07-13 | グレースノート インク | マルチメディア・コンテンツのハッシュの生成および突合せ |
DE10109648C2 (de) | 2001-02-28 | 2003-01-30 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Charakterisieren eines Signals und Verfahren und Vorrichtung zum Erzeugen eines indexierten Signals |
DE10134471C2 (de) * | 2001-02-28 | 2003-05-22 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Charakterisieren eines Signals und Verfahren und Vorrichtung zum Erzeugen eines indexierten Signals |
US6996531B2 (en) | 2001-03-30 | 2006-02-07 | Comverse Ltd. | Automated database assistance using a telephone for a speech based or text based multimedia communication mode |
US6959276B2 (en) * | 2001-09-27 | 2005-10-25 | Microsoft Corporation | Including the category of environmental noise when processing speech signals |
US7158931B2 (en) * | 2002-01-28 | 2007-01-02 | Phonak Ag | Method for identifying a momentary acoustic scene, use of the method and hearing device |
JP3995040B2 (ja) * | 2002-04-19 | 2007-10-24 | リオン株式会社 | 騒音振動測定における音の録音方法及びそれを用いた装置 |
FR2842014B1 (fr) | 2002-07-08 | 2006-05-05 | Lyon Ecole Centrale | Procede et appareil pour affecter une classe sonore a un signal sonore |
JP2005234074A (ja) * | 2004-02-18 | 2005-09-02 | Sony Corp | 情報処理装置および情報処理方法、記録媒体、並びにプログラム |
JP2006189367A (ja) * | 2005-01-07 | 2006-07-20 | Chugoku Electric Power Co Inc:The | 騒音測定装置 |
DE102005008333A1 (de) | 2005-02-23 | 2006-08-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Steuern einer Wellenfeldsynthese-Rendering-Einrichtung |
US20070183604A1 (en) * | 2006-02-09 | 2007-08-09 | St-Infonox | Response to anomalous acoustic environments |
US20100257974A1 (en) | 2006-06-21 | 2010-10-14 | Carrens Vernon M | Mechanical machine designed to utilize unbalanced torque to enhance angular momentum |
US20080024469A1 (en) * | 2006-07-31 | 2008-01-31 | Niranjan Damera-Venkata | Generating sub-frames for projection based on map values generated from at least one training image |
JP4854533B2 (ja) * | 2007-01-30 | 2012-01-18 | 富士通株式会社 | 音響判定方法、音響判定装置及びコンピュータプログラム |
JP5105912B2 (ja) * | 2007-03-13 | 2012-12-26 | アルパイン株式会社 | 音声明瞭度改善装置およびその騒音レベル推定方法 |
US8762143B2 (en) | 2007-05-29 | 2014-06-24 | At&T Intellectual Property Ii, L.P. | Method and apparatus for identifying acoustic background environments based on time and speed to enhance automatic speech recognition |
US8111174B2 (en) * | 2007-10-03 | 2012-02-07 | University Of Southern California | Acoustic signature recognition of running vehicles using spectro-temporal dynamic neural network |
JP2011516830A (ja) | 2008-03-20 | 2011-05-26 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | 聴覚的な表示のための装置及び方法 |
KR20090122142A (ko) * | 2008-05-23 | 2009-11-26 | 엘지전자 주식회사 | 오디오 신호 처리 방법 및 장치 |
EP2410522B1 (en) * | 2008-07-11 | 2017-10-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio signal encoder, method for encoding an audio signal and computer program |
FR2943875A1 (fr) * | 2009-03-31 | 2010-10-01 | France Telecom | Procede et dispositif de classification du bruit de fond contenu dans un signal audio. |
GB0919672D0 (en) * | 2009-11-10 | 2009-12-23 | Skype Ltd | Noise suppression |
JP5496077B2 (ja) * | 2010-02-25 | 2014-05-21 | 三菱重工業株式会社 | 音線解析装置 |
US8265928B2 (en) * | 2010-04-14 | 2012-09-11 | Google Inc. | Geotagged environmental audio for enhanced speech recognition accuracy |
JP5467015B2 (ja) * | 2010-08-24 | 2014-04-09 | 公益財団法人鉄道総合技術研究所 | 鉄道車両内騒音の評価方法 |
US8812014B2 (en) * | 2010-08-30 | 2014-08-19 | Qualcomm Incorporated | Audio-based environment awareness |
EP2673778B1 (en) * | 2011-02-10 | 2018-10-10 | Dolby Laboratories Licensing Corporation | Post-processing including median filtering of noise suppression gains |
US8767978B2 (en) * | 2011-03-25 | 2014-07-01 | The Intellisis Corporation | System and method for processing sound signals implementing a spectral motion transform |
US20130040694A1 (en) * | 2011-08-10 | 2013-02-14 | Babak Forutanpour | Removal of user identified noise |
JP5875609B2 (ja) * | 2012-02-10 | 2016-03-02 | 三菱電機株式会社 | 雑音抑圧装置 |
US9528852B2 (en) * | 2012-03-02 | 2016-12-27 | Nokia Technologies Oy | Method and apparatus for generating an audio summary of a location |
FR2994495B1 (fr) | 2012-08-10 | 2015-08-21 | Thales Sa | Procede et systeme pour detecter des evenements sonores dans un environnement donne |
KR101967917B1 (ko) | 2012-10-30 | 2019-08-13 | 삼성전자주식회사 | 음성을 인식하는 전자 장치 및 방법 |
US9384754B2 (en) | 2013-03-12 | 2016-07-05 | Comcast Cable Communications, Llc | Removal of audio noise |
US10134423B2 (en) | 2013-12-06 | 2018-11-20 | Tata Consultancy Services Limited | System and method to provide classification of noise data of human crowd |
US20150179181A1 (en) | 2013-12-20 | 2015-06-25 | Microsoft Corporation | Adapting audio based upon detected environmental accoustics |
US10373611B2 (en) * | 2014-01-03 | 2019-08-06 | Gracenote, Inc. | Modification of electronic system operation based on acoustic ambience classification |
EP3108646B1 (en) | 2014-02-20 | 2019-05-08 | Harman International Industries, Incorporated | Environment sensing intelligent apparatus |
US9837102B2 (en) | 2014-07-02 | 2017-12-05 | Microsoft Technology Licensing, Llc | User environment aware acoustic noise reduction |
CN104517607A (zh) * | 2014-12-16 | 2015-04-15 | 佛山市顺德区美的电热电器制造有限公司 | 滤除语音控制电器中的噪声的方法及语音控制电器 |
WO2016119107A1 (zh) | 2015-01-26 | 2016-08-04 | 深圳市冠旭电子有限公司 | 一种噪音地图绘制方法及装置 |
CA2990891A1 (en) | 2015-06-30 | 2017-01-05 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forchung E.V. | Method and device for associating noises and for analyzing |
-
2016
- 2016-06-30 CA CA2990891A patent/CA2990891A1/en not_active Abandoned
- 2016-06-30 WO PCT/EP2016/065392 patent/WO2017001607A1/de active Application Filing
- 2016-06-30 CN CN201680048720.2A patent/CN108028048B/zh active Active
- 2016-06-30 KR KR1020187003083A patent/KR102087832B1/ko active IP Right Grant
- 2016-06-30 CN CN201680048686.9A patent/CN108028047B/zh active Active
- 2016-06-30 KR KR1020187003091A patent/KR102137537B1/ko active IP Right Grant
- 2016-06-30 EP EP16736029.6A patent/EP3317878B1/de active Active
- 2016-06-30 JP JP2017568340A patent/JP6654209B2/ja active Active
- 2016-06-30 JP JP2017568346A patent/JP6602406B2/ja active Active
- 2016-06-30 WO PCT/EP2016/065397 patent/WO2017001611A1/de active Application Filing
- 2016-06-30 EP EP16736031.2A patent/EP3317879B1/de active Active
- 2016-06-30 CA CA2990888A patent/CA2990888A1/en not_active Abandoned
-
2017
- 2017-12-28 US US15/856,810 patent/US11880407B2/en active Active
- 2017-12-28 US US15/856,846 patent/US11003709B2/en active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5367332A (en) * | 1992-10-09 | 1994-11-22 | Apple Computer, Inc. | Digital camera with time bracketing feature |
WO2000011659A1 (en) * | 1998-08-24 | 2000-03-02 | Conexant Systems, Inc. | Speech encoder using gain normalization that combines open and closed loop gains |
CN1466725A (zh) * | 2000-09-22 | 2004-01-07 | ���˹���Ѷ��� | 在3-d中自动选择最佳通信网络设备模型、位置和配置的方法和系统 |
US6683938B1 (en) * | 2001-08-30 | 2004-01-27 | At&T Corp. | Method and system for transmitting background audio during a telephone call |
US20040138882A1 (en) * | 2002-10-31 | 2004-07-15 | Seiko Epson Corporation | Acoustic model creating method, speech recognition apparatus, and vehicle having the speech recognition apparatus |
CN1727911A (zh) * | 2004-07-26 | 2006-02-01 | 松下电器产业株式会社 | 声控定位系统及方法 |
CN101002254A (zh) * | 2004-07-26 | 2007-07-18 | M2Any有限公司 | 音频信号的鲁棒分类设备和方法、建立并操作音频信号数据库的方法和计算机程序 |
CN101203917A (zh) * | 2005-06-22 | 2008-06-18 | 弗劳恩霍夫应用研究促进协会 | 用于执行能够以可变速度重放的测试声音信号与参考声音信号之间的相关的设备及方法 |
CN101278337A (zh) * | 2005-07-22 | 2008-10-01 | 索福特迈克斯有限公司 | 噪声环境中语音信号的健壮分离 |
EP2328363A1 (en) * | 2009-09-11 | 2011-06-01 | Starkey Laboratories, Inc. | Sound classification system for hearing aids |
US20110208518A1 (en) * | 2010-02-23 | 2011-08-25 | Stefan Holtel | Method of editing a noise-database and computer device |
US8762138B2 (en) * | 2010-02-23 | 2014-06-24 | Vodafone Holding Gmbh | Method of editing a noise-database and computer device |
US20120302190A1 (en) * | 2011-05-25 | 2012-11-29 | Shared Spectrum Company | Method and system for man-made noise rejection detector |
CN102354499A (zh) * | 2011-07-25 | 2012-02-15 | 中兴通讯股份有限公司 | 降低噪音的方法和设备 |
US20140254816A1 (en) * | 2013-03-06 | 2014-09-11 | Qualcomm Incorporated | Content based noise suppression |
US20140280233A1 (en) * | 2013-03-15 | 2014-09-18 | Shazam Investments Limited | Methods and Systems for Arranging and Searching a Database of Media Content Recordings |
CN103745728A (zh) * | 2014-01-08 | 2014-04-23 | 叶兰玉 | 房屋智能有源降噪的方法及装置 |
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11983463B2 (en) | 2016-02-22 | 2024-05-14 | Sonos, Inc. | Metadata exchange involving a networked playback system and a networked microphone system |
US11750969B2 (en) | 2016-02-22 | 2023-09-05 | Sonos, Inc. | Default playback device designation |
US11832068B2 (en) | 2016-02-22 | 2023-11-28 | Sonos, Inc. | Music service selection |
US12047752B2 (en) | 2016-02-22 | 2024-07-23 | Sonos, Inc. | Content mixing |
US11556306B2 (en) | 2016-02-22 | 2023-01-17 | Sonos, Inc. | Voice controlled media playback system |
US11736860B2 (en) | 2016-02-22 | 2023-08-22 | Sonos, Inc. | Voice control of a media playback system |
US11514898B2 (en) | 2016-02-22 | 2022-11-29 | Sonos, Inc. | Voice control of a media playback system |
US11947870B2 (en) | 2016-02-22 | 2024-04-02 | Sonos, Inc. | Audio response playback |
US11863593B2 (en) | 2016-02-22 | 2024-01-02 | Sonos, Inc. | Networked microphone device control |
US11979960B2 (en) | 2016-07-15 | 2024-05-07 | Sonos, Inc. | Contextualization of voice inputs |
US11531520B2 (en) | 2016-08-05 | 2022-12-20 | Sonos, Inc. | Playback device supporting concurrent voice assistants |
US11641559B2 (en) | 2016-09-27 | 2023-05-02 | Sonos, Inc. | Audio playback settings for voice interaction |
US11727933B2 (en) | 2016-10-19 | 2023-08-15 | Sonos, Inc. | Arbitration-based voice recognition |
US11900937B2 (en) | 2017-08-07 | 2024-02-13 | Sonos, Inc. | Wake-word detection suppression |
US11816393B2 (en) | 2017-09-08 | 2023-11-14 | Sonos, Inc. | Dynamic computation of system response volume |
US11646045B2 (en) | 2017-09-27 | 2023-05-09 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US12047753B1 (en) | 2017-09-28 | 2024-07-23 | Sonos, Inc. | Three-dimensional beam forming with a microphone array |
US11769505B2 (en) | 2017-09-28 | 2023-09-26 | Sonos, Inc. | Echo of tone interferance cancellation using two acoustic echo cancellers |
US11538451B2 (en) | 2017-09-28 | 2022-12-27 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US11893308B2 (en) | 2017-09-29 | 2024-02-06 | Sonos, Inc. | Media playback system with concurrent voice assistance |
US11689858B2 (en) | 2018-01-31 | 2023-06-27 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
US11797263B2 (en) | 2018-05-10 | 2023-10-24 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US11792590B2 (en) | 2018-05-25 | 2023-10-17 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US11973893B2 (en) | 2018-08-28 | 2024-04-30 | Sonos, Inc. | Do not disturb feature for audio notifications |
US11778259B2 (en) | 2018-09-14 | 2023-10-03 | Sonos, Inc. | Networked devices, systems and methods for associating playback devices based on sound codes |
US11790937B2 (en) | 2018-09-21 | 2023-10-17 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11790911B2 (en) | 2018-09-28 | 2023-10-17 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US12062383B2 (en) | 2018-09-29 | 2024-08-13 | Sonos, Inc. | Linear filtering for noise-suppressed speech detection via multiple network microphone devices |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
US11741948B2 (en) | 2018-11-15 | 2023-08-29 | Sonos Vox France Sas | Dilated convolutions and gating for efficient keyword spotting |
US11881223B2 (en) | 2018-12-07 | 2024-01-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11817083B2 (en) | 2018-12-13 | 2023-11-14 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
CN113330752A (zh) * | 2018-12-20 | 2021-08-31 | 搜诺思公司 | 使用噪声分类优化网络麦克风设备 |
US12063486B2 (en) | 2018-12-20 | 2024-08-13 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
US11646023B2 (en) | 2019-02-08 | 2023-05-09 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
US11798553B2 (en) | 2019-05-03 | 2023-10-24 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11854547B2 (en) | 2019-06-12 | 2023-12-26 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11714600B2 (en) | 2019-07-31 | 2023-08-01 | Sonos, Inc. | Noise classification for event detection |
US11862161B2 (en) | 2019-10-22 | 2024-01-02 | Sonos, Inc. | VAS toggle based on device orientation |
US11869503B2 (en) | 2019-12-20 | 2024-01-09 | Sonos, Inc. | Offline voice control |
US11887598B2 (en) | 2020-01-07 | 2024-01-30 | Sonos, Inc. | Voice verification for media playback |
US11961519B2 (en) | 2020-02-07 | 2024-04-16 | Sonos, Inc. | Localized wakeword verification |
US11881222B2 (en) | 2020-05-20 | 2024-01-23 | Sonos, Inc | Command keywords with input detection windowing |
US11694689B2 (en) | 2020-05-20 | 2023-07-04 | Sonos, Inc. | Input detection windowing |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
US12080314B2 (en) | 2022-12-27 | 2024-09-03 | Sonos, Inc. | Dynamic player selection for audio signal processing |
Also Published As
Publication number | Publication date |
---|---|
US11003709B2 (en) | 2021-05-11 |
EP3317878A1 (de) | 2018-05-09 |
EP3317878B1 (de) | 2020-03-25 |
CN108028047B (zh) | 2022-08-30 |
CA2990891A1 (en) | 2017-01-05 |
KR20180025921A (ko) | 2018-03-09 |
CN108028048B (zh) | 2022-06-21 |
KR20180022967A (ko) | 2018-03-06 |
US20180121540A1 (en) | 2018-05-03 |
JP2018525664A (ja) | 2018-09-06 |
CA2990888A1 (en) | 2017-01-05 |
JP6602406B2 (ja) | 2019-11-06 |
US20180122398A1 (en) | 2018-05-03 |
US11880407B2 (en) | 2024-01-23 |
EP3317879A1 (de) | 2018-05-09 |
KR102137537B1 (ko) | 2020-07-27 |
CN108028048A (zh) | 2018-05-11 |
EP3317879B1 (de) | 2020-02-19 |
JP6654209B2 (ja) | 2020-02-26 |
WO2017001611A1 (de) | 2017-01-05 |
WO2017001607A1 (de) | 2017-01-05 |
JP2018528453A (ja) | 2018-09-27 |
KR102087832B1 (ko) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108028047A (zh) | 用于生成数据库的方法和设备 | |
Maijala et al. | Environmental noise monitoring using source classification in sensors | |
KR102132888B1 (ko) | 분류기 모델과 컨텍스트 파라미터를 사용한 원격 미디어 분류 쿼리에 대한 응답 | |
JP2018530804A5 (ja) | 多センサ事象相関システム | |
KR101795765B1 (ko) | 층간 소음 및 실내 소음의 자가 인지 모니터링시스템 | |
CN104040480A (zh) | 利用声学语境进行搜索的方法和系统 | |
CN108629205A (zh) | 药品质量检测数据的监管方法及装置 | |
CN105611400A (zh) | 内容处理设备和用于发送可变大小的片段的方法 | |
KR20170091455A (ko) | 모바일 기기를 이용한 층간소음 측정 시스템 | |
Chung et al. | Identification of a city‟ s soundscape using soundwalks | |
KR101660306B1 (ko) | 휴대용 단말기에서 라이프 로그 생성 방법 및 장치 | |
CN114915574A (zh) | 一种通过声音自动检测智能门铃响应延迟的方法和系统 | |
JP5907487B2 (ja) | 情報伝送システム、送信装置、受信装置、情報伝送方法、およびプログラム | |
US9183840B2 (en) | Apparatus and method for measuring quality of audio | |
wa Maina | Cost effective acoustic monitoring of bird species | |
Tan et al. | Characterization of Internet of Things (IoT) powered-acoustics sensor for indoor surveillance sound classification | |
Smeaton et al. | Event detection in an audio-based sensor network | |
US8558691B2 (en) | Sensing apparatus, sensor information gathering apparatus, sensing method, and remote sensing method | |
KR102014370B1 (ko) | 반복적 소음 기반 공동주택의 층간 소음 관리 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |