EP3754622A1 - Method and assembly for acoustic monitoring of environments - Google Patents
Method and assembly for acoustic monitoring of environments Download PDFInfo
- Publication number
- EP3754622A1 EP3754622A1 EP20020283.6A EP20020283A EP3754622A1 EP 3754622 A1 EP3754622 A1 EP 3754622A1 EP 20020283 A EP20020283 A EP 20020283A EP 3754622 A1 EP3754622 A1 EP 3754622A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- model
- module
- acoustic
- training
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000012544 monitoring process Methods 0.000 title claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 53
- 238000004458 analytical method Methods 0.000 claims abstract description 50
- 238000005457 optimization Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 230000000737 periodic effect Effects 0.000 claims abstract description 5
- 238000009826 distribution Methods 0.000 claims description 18
- 230000003068 static effect Effects 0.000 claims description 3
- 238000000342 Monte Carlo simulation Methods 0.000 claims description 2
- 238000012937 correction Methods 0.000 claims description 2
- 230000001960 triggered effect Effects 0.000 claims description 2
- 238000002604 ultrasonography Methods 0.000 claims 2
- 238000001514 detection method Methods 0.000 abstract description 14
- 230000006872 improvement Effects 0.000 abstract description 2
- 230000005236 sound signal Effects 0.000 description 22
- 238000012360 testing method Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 210000002569 neuron Anatomy 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000005284 excitation Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000002860 competitive effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000001066 destructive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000004154 testing of material Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 239000012814 acoustic material Substances 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000011295 pitch Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000006748 scratching Methods 0.000 description 1
- 230000002393 scratching effect Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000007781 signaling event Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000005309 stochastic process Methods 0.000 description 1
- 238000012029 structural testing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/16—Actuation by interference with mechanical vibrations in air or other fluid
- G08B13/1654—Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
- G08B13/1672—Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/16—Actuation by interference with mechanical vibrations in air or other fluid
- G08B13/1654—Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
- G08B13/1681—Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using infrasonic detecting means, e.g. a microphone operating below the audible frequency range
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0407—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
- G08B21/043—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
Definitions
- Monitoring systems for monitoring an open space or an area in a building or building complex comprising a plurality of microphones which can be arranged and / or are arranged in the monitoring area and which are designed to receive audio signals from an object as an audio signal source in the monitoring area known for a long time.
- a monitoring system which comprises an analysis module for classifying the audio signal and for outputting classification information.
- the classification information is in particular a description of the content of the audio signal and describes the type of noise.
- the classification information designates the type of generation of the audio signal.
- an analysis module is provided which compares an applied audio signal with a pattern and / or a stored audio signal.
- a method for monitoring and triggering an alarm for an area to be secured and a monitoring system are known.
- the system described there can be used universally: from the counter hall in the post office or bank to the monitoring of streets, open spaces and in trains), with audio signals or acoustic events being evaluated, in particular keywords, certain volume levels or shot, and with manual control
- the security personnel's cameras track an escaping perpetrator and his escape route can be recorded.
- the signal recognition in particular word recognition, can be implemented both as a software solution in a computer and reside in DSP-based hardware and software combinations within a computer. Both stand-alone devices and computer-based overall systems can be set up.
- the systems can contain one or more independent channels with speech recognition and alarm triggering.
- the intrusion alarm system has according to WO 2009/104968 A1 an intrusion alarm and a processor connected thereto, the intrusion alarm including a transducer for receiving mechanical vibration energy in a certain frequency range and converting it into electrical vibration energy in the same frequency range and wherein an A / D converter is present in the system in order to provide digital signals, which represent the electrical vibration energy.
- the processor is provided with means for digital signal processing of the signals provided at its inputs, the detector also having a low-frequency channel for sorting out and supplying a low-frequency signal part of the frequency range to a first input of the processor and a high-frequency channel for sorting out and supplying the residual signal part of the frequency range to a comprises second input of the processor.
- the comparator is for comparing sequences of incoming energy bursts in the low frequency signal part with sequences in the residual signal part or for comparing durations of incoming energy bursts in the low frequency signal part with durations in the residual signal part or for comparing periods between energy bursts in the low frequency signal part with periods in the residual signal part or for comparison of certain characteristics of the signal events, such as absolute maximum amplitudes, set up in bursts of energy in the low-frequency signal part with events in the residual signal part, among others.
- the applicant is a device for the automatic detection and classification of audible acoustic signals with at least one signal receiver arranged in the monitoring area and a module for classifying the acoustic signal and outputting a Classification information, known.
- an acoustic sensor system with a microcomputer is provided, which is connected to the signal receiver, whose output signals are fed in parallel to a module arranged in the acoustic sensor system for recording them and a module for classification.
- a recording database of the acoustic sensor system is connected to the recording module, in which the signal is stored in the format of an audio file.
- a module for modeling is connected, which imports the recordings via the interface, generates corresponding models from them and which is connected to a model library of the corresponding sensor system via the interface.
- the model selected by a user in a training phase is stored in the model library.
- the classification module is connected to the model library, is connected to an evaluation application via a further interface and sends the classification result to the evaluation application if a signal is recognized.
- the acoustic sensor system serves both as a recording system for any acoustic signals during a training phase and as a classifier of known signal patterns during a classification phase.
- the waveform may be, for example, a sine wave, a square wave, a triangular wave or a sawtooth wave, and the frequency may be constant or, for example, may be changed stepwise.
- the selection of the waveform, the frequency and the duration can be made by setting on a selection unit provided in the vibration generator, and the neural network has two operating modes in both configurations of the vibration generator, namely a training mode and a test mode.
- SSM sample speaker model
- the invention is based on the object, based on known methods and devices for the automatic detection and classification of audible acoustic signals in a monitoring area, to design the arrangement and the method in such a way that, when configured by the user, they can be operated by a layperson and all signal-influencing Factors flow into the respective recognition model. Furthermore, this should be adaptable and universally applicable, with an alarm being triggered automatically for an area to be secured.
- the arrangement according to the invention and the method have the advantage that all signal-influencing factors are incorporated into the respective model and the configuration, adaptation and optimization are made possible for the user in a surprisingly simple manner.
- the subject matter of the invention is a system S for acoustic monitoring of objects and surroundings with a device G, which has an interface to a control panel / panel P or a device G and an operating device that is separate therefrom P or a panel with three control buttons 10 (see Fig. 4 ) having.
- the system can easily and automatically learn a complex acoustic environment by being positioned in this environment and there for a limited time (user-controlled or automatic) examining, classifying and recording all acoustic events that occur in a model.
- the acoustic monitoring system S consists of several components. These components are described below.
- an acoustic sensor 1 acoustic ambient noises are converted into electrical signals and fed wirelessly or by wire via an interface to a signal preprocessing and pattern extraction 2 arranged in the device G.
- the sensor 1 can be located directly on the device G or it can also be arranged remotely therefrom.
- the pattern data supplied by the sensor 1 in a periodic sequence can optionally be used for training a model / noise model / model library 6 arranged in the device G by a training module 4 or supplied by an analysis module 3 to analyze the features.
- the choice of the starting point can reduce the Influence the performance of the finished Markov model decisively.
- Methods for vector quantization and estimation of mixed distribution models are used to model high-dimensional data.
- the MCMC method makes use of the possibility of simulating large Markov chains as well, in order to simulate distributions that cannot be simulated using conventional methods.
- a class of algorithms is used that draw samples from probability distributions. This is done on the basis of the construction of a Markov chain which has the desired distribution as its stationary distribution. The state of the chain after a large number of steps is then used as a sample of the desired distribution. The quality of the sample increases with the number of steps.
- MCMC methods generate systems in the canonical state.
- the modeling is preferably carried out using a deterministic method which has the advantage that (as with Markov chains) one does not have to start from the starting position every time and that segmentation does not have to take place either.
- the focus is on the assumption that in the case of noise, unlike in the case of speech, the precise temporal structure of the signal can be neglected. It is completely sufficient to distribute the features to cluster C (t) in each processing step t without the transitions to other clusters in the next time step t + T1. If the hit rate is then considered over a longer period of time, for example T3, a noise pattern can be assigned with a high degree of probability by the frequency of the number of clusters C that have occurred.
- the chronological sequence of the clusters C (t) can be taken into account as a further parameter, if required.
- the optimization module 5 makes it possible to improve and optimize an existing model M in the highly complex solution space. In order to increase the tolerance of the model M , this method also works with clusters, the extent of which in the feature space determines the tolerance or sensitivity. In doing so, it is possible to take into account for each cluster how many features are to be determined and, in particular, if the feature is outside the specified time period, these noises can be deleted or not taken into account in the modeling.
- the entire acoustic environment usually consists of a large number of different complex noises.
- these are divided into small (equal or shorter and longer) time segments T1.
- a feature P (t) is generated which corresponds to this Time existing acoustic situation is mapped in a feature space R and assigned to a cluster Ci.
- the N-dimensional feature space R is divided into a finite number of clusters Ci.
- Each of these clusters represents a specific part of a noise pattern.
- Clusters are automatically generated and adjusted during the system's learning phase.
- the set of all clusters Ci ⁇ 0 ⁇ i ⁇ Z ⁇ belonging to a special acoustic environment are managed as data records in a model M.
- the time of generation and the number of assigned features are recorded.
- the optimization in the optimization module 5 is essentially the removal of clusters that are not very relevant for the overall modeling of the acoustic environment. According to the invention, clusters can be removed if only a few features have been assigned to them or if these have been generated at times that are not to be taken into account later in the monitoring.
- a further form of optimization of a model M can be carried out during the analysis phase in that features P (t) which are located in the edge region of a cluster Ci initiate an update or correction of the cluster concerned. This allows slow changes in the acoustic environment to be adapted.
- Characteristics are also processed in the time pattern T1 in the "listening" mode. In contrast to the "training” (analysis) operating mode, however, this does not result in the model M being changed, but rather a check is only made at each step to determine whether the feature is located in a cluster Ci present in the model M. If this is not the case, it is a part of an acoustic event that has not been trained and an internal event counter (not shown in the drawing and located in device G) is incremented. If the counter reading of this counter exceeds a threshold value in a time interval T2, a corresponding signal is presented on a display module 8 and the counter is reset.
- Fig. 3 shows a screenshot in the "Listen” mode.
- a so-called eavesdropping curve LA represents the course over time with the occurrence of a signaling event, which is characterized by the fact that it exceeds a so-called signaling threshold SIS over time.
- the events in the time interval T3 are also considered here.
- the dimensioning of the time interval T3 takes place in such a way that 30 to 70 events per time window, preferably 50 events per time window, are recorded.
- the time grid T2 and the time grid T3 for recording the events can be selected to be the same length and are significantly longer (preferably by a factor of 50) than the time interval T1.
- the reference symbol T identifies the current point in time of the screen shot.
- a remote panel 10 (smartphone or PC app) with a control panel P can be implemented for operation and interaction with the user.
- the Fig. 4 shows a possible structure of the control panel P, in particular with three control elements / control buttons for learning, listening and stop.
- a control panel P arranged on the device G is preferably also connected to the control unit 7.
- a transmission channel 11 transmits the input actions of the user to the control unit 7 of the monitoring system S ( Fig. 1 Device G, Fig. 4 Device G and panel 10).
- the transmission channel 11 can be realized by various implementations (direct or remote by, for example: WLAN, LAN, Bluetooth).
- This system S enables the user / user in a surprisingly simple manner to incorporate all signal-influencing factors into the respective detection model, in particular taking into account the current situation and simple configuration or adaptation in a training phase by the user / user and is from a Can be operated by laypeople.
- a display module 8 is provided according to the invention, which is connected to the analysis module 3 and is visible on the outside of the device G ( Fig. 1 ) or is connected to it ( Fig. 4 remote panel 10 and control panel P / control unit P) and which shows an acoustic event that has not been trained.
- the environments to be monitored can certainly be burdened with continuous background noise. These are taken into account in the learning process and included in the respective model. Changes to these background noise e.g. failure of one of the contributing components leads to this event being signaled, for example, as an error state.
Abstract
1. Anordnung und Verfahren zur akustischen Überwachung von Umgebungen.2.1 Auf verschiedenen technischen Gebieten sind unterschiedlich ausgestaltete Verfahren und Vorrichtungen zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich bekannt.2.2 Um eine Anordnung derart auszugestalten, dass bei der Konfiguration durch den Anwender diese von einem Laien bedienbar ist und alle signalbeeinflussenden Faktoren mit in das jeweilige Erkennungsmodell einfließen, ist nach Patentanspruch 1 vorgesehen, dass der akustische Sensor (1) drahtlos oder drahtgebunden über eine Schnittstelle mit einer im Gerät (G) angeordneten Signalvorverarbeitung und Musterextraktion (2) verbunden ist, dass der Ausgang der Signalvorverarbeitung und Musterextraktion (2) über einen Betriebsartenschalter (B) mit dem Analysemodul (3) oder dem Trainingsmodul (4) verbunden ist, dass der Steuereingang des Betriebsartenschalters (B) mit einer Steuerungseinheit (7) verbunden ist, welche derart ausgestaltet ist, dass benutzergesteuert zwischen mehreren Betriebsarten umgeschaltet oder die Verarbeitung des vom akustischen Sensor (1) erfassten Schalls gestoppt werden kann und dass ein im Gerät (G) angeordnetes Modell oder Geräuschmodell (6) mit dem Analysemodul (3) oder dem Trainingsmodul (4) und einem im Gerät (G) angeordneten Optimierungsmodul (5) zur Nachbesserung und zur Optimierung eines bestehenden Modells (6) verbunden ist. Das Verfahren nach Patentanspruch 6umfasst:- Zuführung vom akustischen Sensor - drahtlos oder drahtgebunden über eine Schnittstelle - des erfassten Schalls zu einer im Gerät angeordneten Signalvorverarbeitung und Musterextraktion,- Nutzung der vom Sensor in periodischer Abfolge gelieferten Musterdaten wahlweise zum Training eines im Gerät angeordneten Modells oder Geräuschmodells durch ein Trainingsmodul oder- Zuführung zur Analyse der Merkmale zu einem Analysemodul,- Nutzung eines im Gerät angeordneten Optimierungsmoduls zur Nachbesserung und zur Optimierung eines bestehenden Modells und- benutzergesteuerte Umschaltung mittels eines Betriebsartenschalters und einer Steuerungseinheit zwischen den Betriebsarten "Analyse" und "Training" oder "Stopp" der Verarbeitung des vom akustischen Sensor erfassten Schalls.1. Arrangement and method for acoustic monitoring of surroundings.2.1 In various technical fields, differently designed methods and devices for the automatic detection and classification of acoustic signals in a surveillance area are known can be operated by a layperson and all signal-influencing factors flow into the respective detection model, it is provided according to claim 1 that the acoustic sensor (1) is connected wirelessly or wired via an interface to a signal preprocessing and pattern extraction (2) arranged in the device (G) is that the output of the signal preprocessing and pattern extraction (2) is connected to the analysis module (3) or the training module (4) via a mode switch (B), that the control input of the mode switch (B) is connected to a control unit (7), welc He is designed in such a way that user-controlled switching between several operating modes or the processing of the sound detected by the acoustic sensor (1) can be stopped and that a model or noise model (6) arranged in the device (G) with the analysis module (3) or the training module (4) and an optimization module (5) arranged in the device (G) for reworking and optimizing an existing model (6). The method according to claim 6 comprises: - supply from the acoustic sensor - wireless or wired via an interface - the recorded sound to a signal preprocessing and pattern extraction arranged in the device, - use of the pattern data supplied by the sensor in periodic sequence, either for training a model arranged in the device or Noise model through a training module or - feed for the analysis of the features to an analysis module, - use of an optimization module arranged in the device for improvement and optimization of an existing model and - user-controlled switching by means of an operating mode switch and a control unit between the "analysis" and "training" operating modes or "stop" the processing of the sound detected by the acoustic sensor.
Description
Die Erfindung betrifft, gemäß Patentanspruch 1, eine Anordnung zur akustischen Überwachung von Umgebungen. Weiterhin betrifft die Erfindung, gemäß Patentanspruch 6, ein Verfahren zur akustischen Überwachung von Umgebungen.The invention relates, according to
Überwachungssysteme zur Überwachung einer Freifläche oder einem Bereich in einem Gebäude oder Gebäudekomplex, wobei das Überwachungssystem eine Mehrzahl von Mikrofonen umfasst, welche in dem Überwachungsbereich anordenbar und/oder angeordnet sind und welche zur Aufnahme von Audiosignalen eines Objekt als Audiosignalquelle in dem Überwachungsbereich ausgebildet sind, sind seit langem bekannt. Beispielsweise ist aus der
Weiterhin ist aus der
Weiterhin ist aus der
Weiterhin ist aus der
- ausgehend von den Referenzcharakteristiken der Datenbank auswählen einer vorbestimmten Bezugsaktivität der Datenbank, die einer Aktivität entspricht aus der das Informationssignal resultiert,
- speichern eines zum Zeitpunkt des Auftretens der erkannten Aktivität Wertes und zuordnen dieses Werts zur ausgewählten Bezugsaktivität, und
- entscheiden, in Abhängigkeit von mindestens diesem Wert und von der zugeordneten Bezugsaktivität, ob das System zur Sendung von mindestens einem Alarm aktiviert wird oder nicht.
- On the basis of the reference characteristics of the database, select a predetermined reference activity in the database which corresponds to an activity from which the information signal results,
- save a value at the time of the occurrence of the identified activity and assign this value to the selected reference activity, and
- decide, depending on at least this value and on the assigned reference activity, whether the system is activated for sending at least one alarm or not.
Aus der
Ein zur akustischen Überwachung von Umgebungen benachbartes technisches Gebiet ist das technische Gebiet der "Akustischen Materialprüfung", welches als zerstörungsfreies Prüfverfahren sehr vielschichtig ist und von der Werkstoffprüfung, Rissprüfung, Gefügeprüfung, Verwechslungsprüfung, Resonanzanalyse, Klanganalyse, Klangauswertung, Klangprobe, Klangprüfung bis hin zur automatisierten Aufzeichnung von Schallsignalen im industriellen Umfeld und Getriebe- und Maschinenüberwachung mit Eigenfrequenzanalyse, Eigenfrequenzmessung, Eigenfrequenzprüfung für magnetische und nichtmagnetische Metalle, Stahl, Keramik, Sinterprodukte, Glas reicht. Es ist bekannt, zum Prüfen eines Gegenstands auf mechanische Beschädigungen, wie zum Beispiel Haarrisse, diesen in Schwingungen zu versetzen und den dabei von ihm abgegebenen Schall (meist Luftschall) zu erfassen und einer Analyse zu unterziehen. Mechanische Schwingungen in einem Körper (Körperschall) bewirken, dass die umgebende Luft in Schwingungen versetzt wird (Luftschall). Mit entsprechenden Sensoren lassen sich diese Schwingungen messen; in der Luft mit einem Mikrofon, auf einem Körper mit einem Beschleunigungssensor oder einem Laservibrometer. Im Körper breiten sich zum selben Zeitpunkt viele Schwingungsmodi aus, die durch die Elastizität, die Form, den Werkstoff und die Struktur geprägt sind. Sie repräsentieren die mechanischen Eigenschaften des Körpers. Einflüsse wie z. B. ein Riss, eine andere Geometrie oder eine Werkstoffänderung beeinflussen die Resonanzfrequenzen, welche bei einer Analyse ausgewertet werden.A technical field related to the acoustic monitoring of environments is the technical field of "acoustic material testing", which is a multi-layered non-destructive test method and ranges from material testing, crack testing, structural testing, mix-up testing, resonance analysis, sound analysis, sound evaluation, sound testing, sound testing to automated Recording of sound signals in an industrial environment and gear and machine monitoring with natural frequency analysis, natural frequency measurement, natural frequency testing for magnetic and non-magnetic metals, steel, ceramics, sintered products, glass is enough. It is known to test an object for mechanical damage, such as hairline cracks, to make it vibrate and to detect the sound emitted by it (mostly airborne sound) and to subject it to an analysis. Mechanical vibrations in a body (structure-borne sound) cause the surrounding air to vibrate (air-borne sound). These vibrations can be measured with appropriate sensors; in the air with a microphone, on a body with an accelerometer or a laser vibrometer. At the same time, many modes of vibration spread in the body, which are characterized by elasticity, shape, material and structure. They represent the mechanical properties of the body. Influences such as B. a crack, a different geometry or a change in material influence the resonance frequencies, which are evaluated during an analysis.
Beispielsweise ist aus der
Weiterhin ist, ausgehend von einem trainierbaren System mit selbstlernendem Effekt auf Basis der
Schließlich ist aus einer wissenschaftlichen Veröffentlichung von
Wie die vorstehende Würdigung des Standes der Technik aufzeigt, sind auf verschiedenen technischen Gebieten unterschiedlich ausgestaltete Verfahren und Vorrichtungen zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich bekannt. In der Regel werden die Signale zur Aufzeichnung und zum Vergleich mit einem in einer Bibliothek vorher eingespeicherten Referenzmuster einer zentralen Stelle zugeführt, was zu einem erheblichen Aufwand bei der Aufzeichnung und Klassifikation (feste modellbasierte Referenz-Klassifikation oder gelernte Referenz-Klassifikation aus den vorangegangenen Klassifikationen) führt. Deshalb fehlen in der Praxis kostengünstige Verfahren und Vorrichtungen in Hinblick auf das Einfließen aller signalbeeinflussenden Faktoren in das jeweilige Erkennungsmodell, insbesondere unter Berücksichtigung der aktuellen Situation und einfachen Konfiguration bzw. Adaption in einer Trainingsphase durch den Anwender/Benutzer.As the above appraisal of the prior art shows, methods and devices for the automatic detection and classification of acoustic signals in a monitored area are known in various technical fields. As a rule, the signals are fed to a central point for recording and for comparison with a reference pattern previously stored in a library, which leads to considerable effort in recording and classification (fixed model-based reference classification or learned reference classification from the previous classifications) leads. Therefore, in practice there is a lack of inexpensive methods and devices with regard to the flow of all signal-influencing factors into the respective recognition model, in particular taking into account the current situation and simple configuration or adaptation in a training phase by the user.
Der Erfindung liegt die Aufgabe zugrunde, ausgehend von bekannten Verfahren und Vorrichtungen zur automatischen Erkennung und Klassifizierung von hörbaren akustischen Signalen in einem Überwachungsbereich, die Anordnung und das Verfahren derart auszugestalten, dass bei der Konfiguration durch den Anwender diese von einem Laien bedienbar ist und alle signalbeeinflussenden Faktoren mit in das jeweilige Erkennungsmodell einfließen. Weiterhin soll dieses anpassbar und universell einsetzbar sein, wobei automatisch ein Alarm für einen zu sichernden Bereich ausgelöst wird.The invention is based on the object, based on known methods and devices for the automatic detection and classification of audible acoustic signals in a monitoring area, to design the arrangement and the method in such a way that, when configured by the user, they can be operated by a layperson and all signal-influencing Factors flow into the respective recognition model. Furthermore, this should be adaptable and universally applicable, with an alarm being triggered automatically for an area to be secured.
Diese Aufgabe wird ausgehend von einer Anordnung nach dem Oberbegriff des Patentanspruchs 1, dadurch gelöst, dass der akustische Sensor drahtlos oder drahtgebunden über eine Schnittstelle mit einer im Gerät angeordneten Signalvorverarbeitung und Musterextraktion verbunden ist, dass der Ausgang der Signalvorverarbeitung und Musterextraktion über einen Betriebsartenschalter mit dem Analysemodul oder dem Trainingsmodul verbunden ist, dass der Steuereingang des Betriebsartenschalters mit einer Steuerungseinheit verbunden ist, welche derart ausgestaltet ist, dass benutzergesteuert zwischen mehreren Betriebsarten umgeschaltet oder die Verarbeitung des vom akustischen Sensor erfassten Schalls gestoppt werden kann und dass ein im Gerät angeordnetes Modell oder Geräuschmodell mit dem Analysemodul oder dem Trainingsmodul und einem im Gerät angeordneten Optimierungsmodul zur Nachbesserung und zur Optimierung eines bestehenden Modells verbunden ist.This object is achieved on the basis of an arrangement according to the preamble of
Schließlich wird diese Aufgabe durch ein Verfahren nach dem Oberbegriff gemäß Patentanspruch 6 dadurch gelöst, wobei das Verfahren umfasst:
- Zuführung vom akustischen Sensor - drahtlos oder drahtgebunden über eine Schnittstelle - des erfassten Schalls zu einer im Gerät angeordneten Signalvorverarbeitung und Musterextraktion,
- Nutzung der vom Sensor in periodischer Abfolge gelieferten Musterdaten wahlweise zum Training eines im Gerät angeordneten Modells oder Geräuschmodells durch ein Trainingsmodul oder
- Zuführung zur Analyse der Merkmale zu einem Analysemodul
- Nutzung eines im Gerät angeordneten Optimierungsmoduls zur Nachbesserung und zur Optimierung eines bestehenden Modells und
- benutzergesteuerte Umschaltung mittels eines Betriebsartenschalters und einer Steuerungseinheit zwischen den Betriebsarten "Analyse" und "Training" oder "Stopp" der Verarbeitung des vom akustischen Sensor erfassten Schalls.
- Feed from the acoustic sensor - wireless or wired via an interface - of the recorded sound to a signal preprocessing and pattern extraction arranged in the device,
- Use of the pattern data supplied by the sensor in periodic sequence either for training a model or noise model arranged in the device by a training module or
- Feed for the analysis of the features to an analysis module
- Use of an optimization module arranged in the device to improve and optimize an existing model and
- User-controlled switching by means of an operating mode switch and a control unit between the "Analysis" and "Training" or "Stop" processing of the sound detected by the acoustic sensor.
Die erfindungsgemäße Anordnung und das Verfahren weisen den Vorteil auf, dass alle signalbeeinflussenden Faktoren mit in das jeweilige Modell einfließen und dem Benutzer auf überraschend einfache Art und Weise die Konfiguration, Anpassung und Optimierung ermöglicht wird.The arrangement according to the invention and the method have the advantage that all signal-influencing factors are incorporated into the respective model and the configuration, adaptation and optimization are made possible for the user in a surprisingly simple manner.
Weitere Vorteile und Einzelheiten lassen sich der nachfolgenden Beschreibung von bevorzugten Ausführungsformen der Erfindung unter Bezugnahme auf die Zeichnungen entnehmen. In der Zeichnung zeigt:
- Fig. 1
- ein Blockschaltbild des Aufbaus eines Geräts mit allen Komponenten gemäß der Erfindung,
- Fig. 2
- einen Screenshot in der Betriebsart "Lernen" und
- Fig.3
- einen Screenshot in der Betriebsart "Lauschen" des erfindungsgemäßen Geräts und
- Fig. 4
- ein abgesetztes Panel mit einem Bedienfeld, insbesondere mit drei Bedienelementen für Lernen, Lauschen und Stopp.
- Fig. 1
- a block diagram of the structure of a device with all components according to the invention,
- Fig. 2
- a screenshot in the "learning" mode and
- Fig. 3
- a screenshot in the "listening" mode of the device according to the invention and
- Fig. 4
- a remote panel with a control panel, in particular with three control elements for learning, listening and stopping.
Gegenstand der Erfindung ist ein System S zur akustischen Überwachung von Objekten und Umgebungen mit einem Gerät G, welches eine Schnittstelle zu einem Bedienfeld /Panel P oder einem Gerät G und davon abgesetzten Bediengerät P oder einem Panel mit drei Steuertasten 10 (siehe
Wie nachfolgend beschrieben und erläutert wird, kann dieses Modell zur Überwachung der gleichen Umgebung genutzt werden. Dabei werden dann Unterschiede zu den gelernten Situationen identifiziert und diese als Ergebnis signalisiert.As described and explained below, this model can be used to monitor the same environment. Differences to the learned situations are then identified and these are signaled as a result.
Das akustische Überwachungssystem S besteht aus mehreren Komponenten. Diese Komponenten werden nachfolgend beschrieben. Mit einem akustischen Sensor 1 werden akustische Umgebungsgeräusche in elektrische Signale umgewandelt und drahtlos oder drahtgebunden über eine Schnittstelle einer im Gerät G angeordneten Signalvorverarbeitung und Musterextraktion 2 zugeführt. Dabei kann sich der Sensor 1 unmittelbar am Gerät G befinden oder aber auch abgesetzt davon angeordnet sein. Die vom Sensor 1 in periodischer Abfolge gelieferten Musterdaten können wahlweise zum Training eines im Gerät G angeordneten Modells/Geräuschmodells/Modellbibliothek 6 durch ein Trainingsmodul 4 genutzt werden oder zur Analyse der Merkmale durch ein Analysemodul 3 diesem zugeführt werden. Hierzu ist zwischen Signalvorverarbeitung und Musterextraktion 2 und Analysemodul 3 sowie Trainingsmodul 4 ein Betriebsartenschalter B angeordnet, welcher benutzergesteuert mittels einer Steuerungseinheit 7 zwischen diesen Betriebsarten umschaltet oder benutzergesteuert die Verarbeitung der vom akustischen Sensor 1 gelieferten Eingangsdaten komplett stoppt (siehe
Die Basis des Analyseprozesses bildet das Geräuschmodell 6. Dieses beinhaltet alle durch das Trainingsmodul 4 aufbereiteten und ihm zugeführten Geräuschmuster. In der einfachsten Form der Markov-Modelle können sogenannten Markov-Ketten-Modelle zur statistischen Beschreibung von Symbol- oder Zustandsfolgen verwendet werden. Das jeweilige Markov-Ketten-Modelle gibt dann an, wie wahrscheinlich das Auftreten eines Geräusches in einem bestimmten Umfeld/in einer bestimmten Umgebung ist. Dabei wird davon ausgegangen, dass bei einem periodisch auftretenden Geräusch Pausen auftreten und anhand dieser Pausen eine Segmentierung und die anschließende Klassifikation erfolgen kann. Weiterhin können im Rahmen der Erfindung sogenannte Hidden-Markov-Modellen benutzt werden, wodurch das Konzept einer statistisch modellierten Zustandsfolge um zustandsspezifische Ausgaben des Modells erweitert wird. Man geht davon aus, dass nur diese sogenannten Emissionen beobachtbar sind, die zugrundeliegende Zustandsfolge jedoch versteckt (engl. hidden) ist. Im Wesentlichen lässt sich ein Hidden-Markov-Modell als statistisch angereicherter, generierender endlicher Automat ansehen. Sowohl die Übergänge zwischen Zuständen als auch die Erzeugung von Ausgaben erfolgt in Abhängigkeit von bestimmten Wahrscheinlichkeitsverteilungen. Man nimmt dabei zuerst an, dass die zu untersuchenden Daten von einem natürlichen Prozess erzeugt wurden, der vergleichbaren statistischen Gesetzmäßigkeiten gehorcht. Dann versucht man diesen mit den Möglichkeiten von Hidden-Markov-Modellen möglichst genau nachzubilden und diejenige Zustandsfolge zu bestimmen, die am wahrscheinlichsten eine bestimmte Folge von Emissionen erzeugt. Ordnet man ganzen Modellen die Bedeutung zu, Klassen von Mustern zu repräsentieren, so lässt sich der Formalismus zur Klassifikation einsetzen. Durch die Aufdeckung der Zustandsfolge ist dann eine Segmentierung der Daten mit gleichzeitiger Klassifikation möglich. In der praktischen Anwendung der Markov-Modell-Technologie für Mustererkennungsaufgaben kann die Wahl des Startpunkts die Leistungsfähigkeit des fertigen Markov-Modells entscheidend beeinflussen. Hierzu zählen vor allem die erfolgreiche Konfiguration der Modelle, die Behandlung effizienter Algorithmen, Methoden zur Anpassung der Modellparameter an veränderte Einsatzgebiete sowie die Kombination von Markov-Ketten- und Hidden-Markov-Modellen in integrierten Suchprozessen. Dabei werden Methoden zur Vektorquantisierung und Schätzung von Mischverteilungsmodellen zur Modellierung hochdimensionaler Daten eingesetzt. Bei einem endlichen Zustandsraum lassen sich Markov-Ketten mittels der Übergangsmatrix und von Wahrscheinlichkeitsvektoren beschreiben. Wählt man einen stochastischen Startvektor vo (als Zeilenvektor) als Startverteilung so ergibt sich die Verteilung zum Zeitpunkt t1 durch v1=vo·M. The basis of the analysis process is formed by the
Die Möglichkeit, auch große Markov-Ketten zu simulieren, macht man sich beim MCMC-Verfahren (Markov-Chain-Monte-Carlo-Verfahren) zunutze, um Verteilungen zu simulieren, die nicht durch klassische Verfahren simuliert werden können. Dabei wird eine Klasse von Algorithmen benutzt, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markov-Kette, welche die erwünschte Verteilung als ihre stationäre Verteilung aufweist. Der Zustand der Kette nach einer großen Zahl von Schritten wird dann als Stichprobe der erwünschten Verteilung benutzt. Die Qualität der Stichprobe steigt mit zunehmender Zahl der Schritte. MCMC-Verfahren erzeugen Systeme im kanonischen Zustand. Eine hinreichende, aber nicht notwendige, Bedingung, dass ein MCMC-Verfahren den kanonischen Zustand als stationäre Verteilung aufweist, ist die Detailed-Balance-Eigenschaft (detailliertes Gleichgewicht bezeichnet eine Eigenschaft von homogenen Markov-Ketten, nämlich einem speziellen stochastischen Prozess. Anschaulich ist ein Prozess im detaillierten Gleichgewicht, wenn nicht erkennbar ist, ob er sich zeitlich vorwärts oder rückwärts bewegt).The MCMC method (Markov Chain Monte Carlo method) makes use of the possibility of simulating large Markov chains as well, in order to simulate distributions that cannot be simulated using conventional methods. A class of algorithms is used that draw samples from probability distributions. This is done on the basis of the construction of a Markov chain which has the desired distribution as its stationary distribution. The state of the chain after a large number of steps is then used as a sample of the desired distribution. The quality of the sample increases with the number of steps. MCMC methods generate systems in the canonical state. A sufficient, but not necessary, condition for an MCMC method to have the canonical state as a stationary distribution is the detailed balance property (detailed balance denotes a property of homogeneous Markov chains, namely a special stochastic process Process in detailed equilibrium, if it is not clear whether it is moving forward or backward in time).
Vorzugsweise erfolgt die Modellierung mittels eines deterministischen Verfahrens was den Vorteil aufweist, dass nicht (wie bei Markov-Ketten) jedes Mal von der Startposition zu beginnen ist und dass auch keine Segmentierung erfolgen muss. Bei dieser erfindungsgemäßen Art der Modellierung steht die Annahme im Vordergrund, dass bei Geräuschen, anders als bei Sprache, die genaue zeitliche Struktur des Signals vernachlässigt werden kann. Es ist völlig ausreichend, bei jedem Bearbeitungsschritt t die Verteilung der Merkmale auf Cluster C(t) ohne die Übergänge auf andere Cluster im nächsten Zeitschritt t+T1 zu realisieren. Betrachtet man dann die Trefferquote über einen längeren Zeitraum, zum Beispiel T3, kann ein Geräuschmuster durch die Häufigkeit der Menge der aufgetretenen Cluster C mit hoher Wahrscheinlichkeit zugeordnet werden. Zusätzlich kann bei Bedarf die zeitliche Abfolge der Cluster C(t) als weiterer Parameter berücksichtigt werden. Durch das Optimierungsmodul 5 ist es möglich, ein bestehendes Modell M im hochkomplexen Lösungsraum nachzubessern und zu optimieren. Um die Toleranz des Modells M zu erhöhen, wird auch bei diesem Verfahren mit Clustern gearbeitet, deren Ausdehnung im Merkmalsraum die Toleranz bzw. Sensibilität bestimmt. Dabei kann man pro Cluster berücksichtigen wie viele Merkmale zu bestimmen sind und insbesondere, wenn das Merkmal außerhalb des vorgegebenen Zeitraums liegt, diese Geräusche bei der Modellbildung zu löschen oder nicht zu berücksichtigen.The modeling is preferably carried out using a deterministic method which has the advantage that (as with Markov chains) one does not have to start from the starting position every time and that segmentation does not have to take place either. In this type of modeling according to the invention, the focus is on the assumption that in the case of noise, unlike in the case of speech, the precise temporal structure of the signal can be neglected. It is completely sufficient to distribute the features to cluster C (t) in each processing step t without the transitions to other clusters in the next time step t + T1. If the hit rate is then considered over a longer period of time, for example T3, a noise pattern can be assigned with a high degree of probability by the frequency of the number of clusters C that have occurred. In addition, the chronological sequence of the clusters C (t) can be taken into account as a further parameter, if required. The
Nachfolgend wird die Funktion des Systems S anhand des Ausführungsbeispiels gemäß der Abbildung
- 1.) Lernen/Training einer akustischen Umgebung.
- 2) Überwachen/Lauschen der gelernten Umgebung.
- 1.) Learning / training an acoustic environment.
- 2) Monitoring / listening to the learned environment.
Die gesamte akustische Umgebung besteht in der Regel aus einer großen Menge unterschiedlicher komplexer Geräusche. Im ersten Schritt werden diese in kleine (gleichlange oder kürzere und längere) Zeitabschnitte T1 aufgeteilt. Für jedes dieser Zeitfenster T1 wird ein Merkmal P(t) erzeugt, welches die zu diesem Zeitpunkt bestehende akustische Situation in einen Merkmalsraum R abbildet und einem Cluster Ci zuordnet. In einem zweiten Schritt wird der N-dimensionale Merkmalsraum R wird in eine endliche Anzahl von Cluster Ci unterteilt. Jedes dieser Cluster repräsentiert einen speziellen Teil eines Geräuschmusters. Cluster werden während der Lernphase des Systems automatisch erzeugt und angepasst. Die Menge aller zu einer speziellen akustischen Umgebung gehörenden Cluster Ci {0<i<Z} werden als Datensätze in einem Model M verwaltet. Zusätzlich werden in einem dritten Schritt zu den Clusterdaten im Model M dort der Zeitpunkt der Erzeugung und die Anzahl der zugeordneten Merkmale festgehalten.The entire acoustic environment usually consists of a large number of different complex noises. In the first step, these are divided into small (equal or shorter and longer) time segments T1. For each of these time windows T1, a feature P (t) is generated which corresponds to this Time existing acoustic situation is mapped in a feature space R and assigned to a cluster Ci. In a second step, the N-dimensional feature space R is divided into a finite number of clusters Ci. Each of these clusters represents a specific part of a noise pattern. Clusters are automatically generated and adjusted during the system's learning phase. The set of all clusters Ci {0 <i <Z} belonging to a special acoustic environment are managed as data records in a model M. In addition, in a third step for the cluster data in Model M , the time of generation and the number of assigned features are recorded.
Eine Lernphase/Training kann entweder mit einem bereits vorhandenen Model M iterativ durchgeführt oder mit einem leeren Modell neu gestartet werden. Wie bereits beschrieben, werden dabei die in einem periodischen Strom der im Zeitfenster T1 empfangenen Merkmale P(t) ihren entsprechenden Cluster Ci zugeordnet und das Modell M dementsprechend erweitert bzw. angepasst. Der Erfolg des Lernens (Betriebsart "Training") kann zu einem Zeitpunkt T ermittelt werden, in dem gemessen wird, wieviele neue Cluster in einem Zeitintervall T3 erzeugt wurden. Sinkt diese Rate unterhalb eine (vom Benutzer vorgebbare) Schwelle, kann davon ausgegangen werden, dass die Umgebung hinreichend genau gelernt wurde und eine relativ statische Geräuschumgebung vorliegt.A learning phase / training can be carried out either iteratively with an existing Model M or start with an empty model new. As already described, the features P (t) received in a periodic stream of the time window T1 are assigned to their corresponding cluster Ci and the model M is expanded or adapted accordingly. The success of the learning (“training” operating mode) can be determined at a point in time T, in which it is measured how many new clusters were generated in a time interval T3. If this rate falls below a threshold (which can be specified by the user), it can be assumed that the environment has been learned with sufficient accuracy and that there is a relatively static noise environment.
Bei der Optimierung im Optimierungsmodul 5 handelt es sich im Wesentlichen um das Entfernen von Cluster, welche keine große Relevanz für die gesamte Modellierung des akustischen Umfeldes haben. Erfindungsgemäß können Cluster dann entfernt werden, wenn ihnen nur wenige Merkmale zugeordnet wurden oder diese zu Zeiten erzeugt wurden, die später bei der Überwachung keine Berücksichtigung finden sollen.The optimization in the
Insbesondere kann eine weitere Form der Optimierung eines Modells M während der Analysephase durchgeführt werden, indem Merkmale P(t), die sich im Randbereich eines Cluster Ci befinden, eine Aktualisierung bzw. Korrektur des betroffenen Clusters anstoßen. Damit können langsame Veränderungen der akustischen Umgebung adaptiert werden.In particular, a further form of optimization of a model M can be carried out during the analysis phase in that features P (t) which are located in the edge region of a cluster Ci initiate an update or correction of the cluster concerned. This allows slow changes in the acoustic environment to be adapted.
Auch in der Betriebsart "Lauschen" (Überwachen) werden im Zeitraster T1 Merkmale verarbeitet. Anders als bei der Betriebsart "Training" (Analyse), führen diese jedoch nicht dazu, dass das Modell M verändert wird, sondern es wird lediglich bei jedem Schritt geprüft, ob sich das Merkmal in einem im Modell M vorhandenem Cluster Ci befindet. Ist dies nicht der Fall, handelt es sich um einen Teil eines akustischen Ereignisses, welches nicht trainiert wurde und es wird ein (in der Zeichnung nicht dargestellter und im Gerät G angeordneter) interner Ereigniszähler inkrementiert. Überschreitet der Zählerstand dieses Zählers in einem Zeitintervall T2 einen Schwellwert, so wird ein entsprechendes Signal an einem Anzeigemodul 8 präsentiert und der Zähler zurückgesetzt.Characteristics are also processed in the time pattern T1 in the "listening" mode. In contrast to the "training" (analysis) operating mode, however, this does not result in the model M being changed, but rather a check is only made at each step to determine whether the feature is located in a cluster Ci present in the model M. If this is not the case, it is a part of an acoustic event that has not been trained and an internal event counter (not shown in the drawing and located in device G) is incremented. If the counter reading of this counter exceeds a threshold value in a time interval T2, a corresponding signal is presented on a
Zur Bedienung und zur Interaktion mit dem Benutzer kann insbesondere ein abgesetztes Panel 10 (Smartphone- oder PC-App) mit einem Bedienfeld P realisiert werden. Die
Für die akustische Überwachung mit dem hier beschriebenen erfindungsgemäßen System S, gibt es dadurch viele verschiedene Anwendungsgebiete ohne dass vorher der jeweilige Anwendungsfall vorprogrammiert werden muss. Allgemein kann festgestellt werden, dass alle Überwachungsaufgaben, welche auf Schallereignisse basieren, damit realisiert werden können. Voraussetzung ist aber, dass die Dynamik der Umgebung nicht zu groß ist. Dies bedeutet, dass sich die Vielfalt möglicher akustischer Ereignisse und Signale in einer endlichen Zeit erfassen und damit lernen lassen. Insbesondere ist erfindungsgemäß ein Anzeigemodul 8 vorgesehen, welches mit dem Analysemodul 3 verbunden und außen am Gerät G sichtbar ist (
Ein typisches Anwendungsgebiet ist die Überwachung von speziellen Räumen. Zum Beispiel:
- Serverräume (Rechenzentren)
- Supermärkte (Baumärkte) außerhalb der Öffnungszeiten
- Produktions- bzw. Werkstätten außerhalb der Arbeitszeit
- Wohnungen bei Abwesenheit der Bewohner
- Server rooms (data centers)
- Supermarkets (hardware stores) outside of the opening times
- Production or workshops outside of working hours
- Apartments when the residents are absent
Die zu überwachenden Umgebungen können durchaus mit kontinuierlichen Hintergrundgeräuschen belastet sein. Diese werden beim Lernprozess berücksichtigt und ins jeweilige Modell aufgenommen. Änderungen an diesen Geräuschkulissen z.B. durch Ausfall einer der dazu beitragenden Komponente, führen zur Signalisierung dieses Ereignisses zum Beispiel als Fehlerzustand.The environments to be monitored can certainly be burdened with continuous background noise. These are taken into account in the learning process and included in the respective model. Changes to these background noise e.g. failure of one of the contributing components leads to this event being signaled, for example, as an error state.
Weiterhin können mit dem erfindungsgemäßen System S auch Anlagen oder Teile der Anlagen fernüberwacht/überwacht werden. Zum Beispiel:
- Maschinen (z.B. Windkraftanlagen, Produktion, Roboter)
- Antriebe (z.B. Aufzüge)
- Machines (e.g. wind turbines, production, robots)
- Drives (e.g. elevators)
Die Erfindung ist nicht auf die dargestellten und beschriebenen Ausführungsbeispiele beschränkt, sondern umfasst auch alle im Sinne der Erfindung gleichwirkenden Ausführungen. Ferner ist die Erfindung bislang auch noch nicht auf die in den Patentansprüchen 1 und 6 definierten Merkmalskombinationen beschränkt, sondern kann auch durch jede beliebige andere Kombination von bestimmten Merkmalen aller insgesamt offenbarten Einzelmerkmale definiert sein. Dies bedeutet, dass grundsätzlich praktisch jedes Einzelmerkmal der Patentansprüche 1 und 6 weggelassen bzw. durch mindestens ein an anderer Stelle der Anmeldung offenbartes Einzelmerkmal ersetzt werden kann.The invention is not limited to the illustrated and described exemplary embodiments, but rather also includes all embodiments that have the same effect within the meaning of the invention. Furthermore, the invention has not yet been restricted to the combinations of features defined in
- (1)(1)
- Akustischer SensorAcoustic sensor
- (2)(2)
- Signalvorverarbeitung und MusterextraktionSignal preprocessing and pattern extraction
- (3)(3)
- AnalysemodulAnalysis module
- (4)(4)
- TrainingsmodulTraining module
- (5)(5)
- OptimierungsmodulOptimization module
- (6)(6)
- Modell / ModellbibliothekModel / model library
- (7)(7)
- SteuerungseinheitControl unit
- (8)(8th)
- AnzeigemodulDisplay module
- (9)(9)
- ZeitsteuerungTime control
- (10)(10)
- Panel mit den drei SteuertastenPanel with the three control buttons
- (11)(11)
- Übertragungskanal zum Gerät/SystemTransmission channel to the device / system
- BB.
- BetriebsartenschalterMode switch
- GG
- Gerätdevice
- LL.
- Lernkurve (Ereignisse/Zeitfenster)Learning curve (events / time windows)
- LALA
- Lauschkurve (Ereignisse/Zeitfenster)Eavesdropping curve (events / time window)
- PP
- Bedienfeld (Panel)/BediengerätControl panel / operator panel
- SS.
- System (Gerät G, Bediengerät P)System (device G, control device P)
- SISSIS
- SignalisierungsschwelleSignaling threshold
- TT
- Aktueller Zeitpunkt (Cursor)Current time (cursor)
- XX
- X-Achse (Zeit)X-axis (time)
- YY
- Y-Achse (Anzahl der Ereignisse)Y-axis (number of events)
Claims (15)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019004241.7A DE102019004241A1 (en) | 2019-06-18 | 2019-06-18 | Arrangement and procedure for acoustic monitoring of surroundings |
Publications (2)
Publication Number | Publication Date |
---|---|
EP3754622A1 true EP3754622A1 (en) | 2020-12-23 |
EP3754622B1 EP3754622B1 (en) | 2023-02-01 |
Family
ID=71119907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP20020283.6A Active EP3754622B1 (en) | 2019-06-18 | 2020-06-16 | Method and assembly for acoustic monitoring of environments |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP3754622B1 (en) |
DE (1) | DE102019004241A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117686086A (en) * | 2024-02-02 | 2024-03-12 | 北京谛声科技有限责任公司 | Equipment running state monitoring method, device, equipment and system |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19621152A1 (en) | 1996-05-14 | 1997-11-20 | Klaus Ebert | Monitoring and alarm triggering for camera protected region |
US20080144927A1 (en) | 2006-12-14 | 2008-06-19 | Matsushita Electric Works, Ltd. | Nondestructive inspection apparatus |
DE102007030725B3 (en) * | 2007-07-02 | 2008-08-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Mobile acoustic sensor for monitoring e.g. ill or weak person, has signal processor processing microphone output signal and location information to produce output data having audio signal and location data |
WO2009104968A1 (en) | 2008-02-22 | 2009-08-27 | Idteq As | Intrusion detection system with signal recognition |
US20120262294A1 (en) | 2009-10-13 | 2012-10-18 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Facility and method for monitoring a defined, predetermined area using at least one acoustic sensor |
DE102011114058A1 (en) * | 2011-09-22 | 2013-03-28 | Volkswagen Aktiengesellschaft | Evaluation method for acoustic evaluation of component, involves exciting component to generate sound, where sound of component is recorded by sensor for detection of sound |
CH706631A2 (en) * | 2012-06-28 | 2013-12-31 | Bosch Gmbh Robert | Monitoring system for monitoring monitored area e.g. railway track for trains in railway station, has analysis module classifying audio signal as unintended noise such as break down- and/or damage- and/or interference noises of action |
EP2988105A2 (en) * | 2014-08-20 | 2016-02-24 | HST High Soft Tech GmbH | Device and method for the automatic recognition and classification of audible acoustic signals in a monitored area |
DE102017012007A1 (en) | 2017-12-22 | 2019-06-27 | HST High Soft Tech GmbH | Apparatus and method for universal acoustic testing of objects |
-
2019
- 2019-06-18 DE DE102019004241.7A patent/DE102019004241A1/en active Pending
-
2020
- 2020-06-16 EP EP20020283.6A patent/EP3754622B1/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19621152A1 (en) | 1996-05-14 | 1997-11-20 | Klaus Ebert | Monitoring and alarm triggering for camera protected region |
US20080144927A1 (en) | 2006-12-14 | 2008-06-19 | Matsushita Electric Works, Ltd. | Nondestructive inspection apparatus |
DE102007030725B3 (en) * | 2007-07-02 | 2008-08-28 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Mobile acoustic sensor for monitoring e.g. ill or weak person, has signal processor processing microphone output signal and location information to produce output data having audio signal and location data |
WO2009104968A1 (en) | 2008-02-22 | 2009-08-27 | Idteq As | Intrusion detection system with signal recognition |
US20120262294A1 (en) | 2009-10-13 | 2012-10-18 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Facility and method for monitoring a defined, predetermined area using at least one acoustic sensor |
DE102011114058A1 (en) * | 2011-09-22 | 2013-03-28 | Volkswagen Aktiengesellschaft | Evaluation method for acoustic evaluation of component, involves exciting component to generate sound, where sound of component is recorded by sensor for detection of sound |
CH706631A2 (en) * | 2012-06-28 | 2013-12-31 | Bosch Gmbh Robert | Monitoring system for monitoring monitored area e.g. railway track for trains in railway station, has analysis module classifying audio signal as unintended noise such as break down- and/or damage- and/or interference noises of action |
DE102012211154B4 (en) | 2012-06-28 | 2019-02-14 | Robert Bosch Gmbh | Monitoring system, open space monitoring and monitoring of a surveillance area |
EP2988105A2 (en) * | 2014-08-20 | 2016-02-24 | HST High Soft Tech GmbH | Device and method for the automatic recognition and classification of audible acoustic signals in a monitored area |
DE102014012184B4 (en) | 2014-08-20 | 2018-03-08 | HST High Soft Tech GmbH | Apparatus and method for automatically detecting and classifying acoustic signals in a surveillance area |
DE102017012007A1 (en) | 2017-12-22 | 2019-06-27 | HST High Soft Tech GmbH | Apparatus and method for universal acoustic testing of objects |
Non-Patent Citations (1)
Title |
---|
KWON, SOONILNARAYANAN, SHRIKANTH: "Unsupervised Speaker indexing using generic models", IEEE TRANSACTIONS ON SPEECH AND AUDIO PROCESSING, vol. 13, no. 5, 2005, pages 1004 - 1013, XP011137547, ISSN: ISSN 1063-6676, DOI: 10.1109/TSA.2005.851981 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117686086A (en) * | 2024-02-02 | 2024-03-12 | 北京谛声科技有限责任公司 | Equipment running state monitoring method, device, equipment and system |
Also Published As
Publication number | Publication date |
---|---|
DE102019004241A1 (en) | 2020-12-24 |
EP3754622B1 (en) | 2023-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3317879B1 (en) | Method and device for the allocation of sounds and for analysis | |
DE102014012184B4 (en) | Apparatus and method for automatically detecting and classifying acoustic signals in a surveillance area | |
DE60124225T2 (en) | Method and device for detecting emotions | |
DE102018204135B4 (en) | Learning model construction apparatus, abnormality detection system and server | |
DE112013000440T5 (en) | Zone-oriented presence control by locating voice profiles | |
CN102348101A (en) | Examination room intelligence monitoring system and method thereof | |
DE102008021362B3 (en) | Noise-generating object i.e. letter sorting machine, condition detecting method, involves automatically adapting statistical base-classification model of acoustic characteristics and classifying condition of noise-generating object | |
EP2402731A1 (en) | Method for training a system for classifying a roller bearing state, method for classifying a roller bearing state and system for classifying a roller bearing state | |
EP2775361A2 (en) | System and method for event logging in a technical system or a technical process | |
EP2962296B1 (en) | Wording-based speech analysis and speech analysis device | |
EP3754622B1 (en) | Method and assembly for acoustic monitoring of environments | |
WO2009037077A2 (en) | Sensor device and monitoring system for noises | |
DE102022105681A1 (en) | Method for determining vibration of a ventilation system | |
DE4010028A1 (en) | Speech recognition for e.g. aircraft control | |
CN109697982A (en) | A kind of speaker speech recognition system in instruction scene | |
EP1981582B1 (en) | Device and computer program for generating a control signal for a cochlea-implant based on an audio signal | |
Xie et al. | Acoustic feature extraction using perceptual wavelet packet decomposition for frog call classification | |
Iber et al. | Auditory augmented reality for cyber physical production systems | |
WO2021148392A1 (en) | Method and device for object identification on the basis of sensor data | |
DE102020007273A1 (en) | Method and device for the automatic detection and classification of acoustic signals | |
Shu et al. | RNN based noise annoyance measurement for urban noise evaluation | |
WO2020259819A1 (en) | Acoustic analysis of a condition of a machine | |
EP4097695B1 (en) | Method and device for identifying acoustic anomalies | |
Murovec et al. | Environmental noise event classification based on self-organizing map using psychoacoustic features and spatial filtering | |
DE102017204068A1 (en) | Electronic device, system, method and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
AX | Request for extension of the european patent |
Extension state: BA ME |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE |
|
17P | Request for examination filed |
Effective date: 20210323 |
|
RBV | Designated contracting states (corrected) |
Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: EXAMINATION IS IN PROGRESS |
|
17Q | First examination report despatched |
Effective date: 20220225 |
|
GRAP | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOSNIGR1 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: GRANT OF PATENT IS INTENDED |
|
INTG | Intention to grant announced |
Effective date: 20220913 |
|
GRAS | Grant fee paid |
Free format text: ORIGINAL CODE: EPIDOSNIGR3 |
|
GRAA | (expected) grant |
Free format text: ORIGINAL CODE: 0009210 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE PATENT HAS BEEN GRANTED |
|
AK | Designated contracting states |
Kind code of ref document: B1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
REG | Reference to a national code |
Ref country code: GB Ref legal event code: FG4D Free format text: NOT ENGLISH |
|
REG | Reference to a national code |
Ref country code: CH Ref legal event code: EP Ref country code: AT Ref legal event code: REF Ref document number: 1547127 Country of ref document: AT Kind code of ref document: T Effective date: 20230215 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R096 Ref document number: 502020002467 Country of ref document: DE |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: FG4D Free format text: LANGUAGE OF EP DOCUMENT: GERMAN |
|
REG | Reference to a national code |
Ref country code: LT Ref legal event code: MG9D |
|
REG | Reference to a national code |
Ref country code: NL Ref legal event code: MP Effective date: 20230201 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: ES Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: RS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: PT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230601 Ref country code: NO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230501 Ref country code: NL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: LV Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: LT Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: HR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: FR Payment date: 20230628 Year of fee payment: 4 Ref country code: DE Payment date: 20230623 Year of fee payment: 4 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: PL Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: IS Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230601 Ref country code: GR Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230502 Ref country code: FI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SM Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: RO Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: EE Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: DK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: CZ Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 |
|
PGFP | Annual fee paid to national office [announced via postgrant information from national office to epo] |
Ref country code: CH Payment date: 20230702 Year of fee payment: 4 |
|
REG | Reference to a national code |
Ref country code: DE Ref legal event code: R097 Ref document number: 502020002467 Country of ref document: DE |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SK Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 |
|
PLBE | No opposition filed within time limit |
Free format text: ORIGINAL CODE: 0009261 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT |
|
26N | No opposition filed |
Effective date: 20231103 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: MC Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: SI Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 Ref country code: MC Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT Effective date: 20230201 |
|
REG | Reference to a national code |
Ref country code: BE Ref legal event code: MM Effective date: 20230630 |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LU Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20230616 |
|
REG | Reference to a national code |
Ref country code: IE Ref legal event code: MM4A |
|
PG25 | Lapsed in a contracting state [announced via postgrant information from national office to epo] |
Ref country code: LU Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES Effective date: 20230616 |