EP3754622A1 - Method and assembly for acoustic monitoring of environments - Google Patents

Method and assembly for acoustic monitoring of environments Download PDF

Info

Publication number
EP3754622A1
EP3754622A1 EP20020283.6A EP20020283A EP3754622A1 EP 3754622 A1 EP3754622 A1 EP 3754622A1 EP 20020283 A EP20020283 A EP 20020283A EP 3754622 A1 EP3754622 A1 EP 3754622A1
Authority
EP
European Patent Office
Prior art keywords
model
module
acoustic
training
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP20020283.6A
Other languages
German (de)
French (fr)
Other versions
EP3754622B1 (en
Inventor
Frank Heintz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hst High Soft Tech GmbH
Original Assignee
Hst High Soft Tech GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hst High Soft Tech GmbH filed Critical Hst High Soft Tech GmbH
Publication of EP3754622A1 publication Critical patent/EP3754622A1/en
Application granted granted Critical
Publication of EP3754622B1 publication Critical patent/EP3754622B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • G08B13/1654Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
    • G08B13/1672Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • G08B13/1654Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
    • G08B13/1681Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using infrasonic detecting means, e.g. a microphone operating below the audible frequency range
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall

Definitions

  • Monitoring systems for monitoring an open space or an area in a building or building complex comprising a plurality of microphones which can be arranged and / or are arranged in the monitoring area and which are designed to receive audio signals from an object as an audio signal source in the monitoring area known for a long time.
  • a monitoring system which comprises an analysis module for classifying the audio signal and for outputting classification information.
  • the classification information is in particular a description of the content of the audio signal and describes the type of noise.
  • the classification information designates the type of generation of the audio signal.
  • an analysis module is provided which compares an applied audio signal with a pattern and / or a stored audio signal.
  • a method for monitoring and triggering an alarm for an area to be secured and a monitoring system are known.
  • the system described there can be used universally: from the counter hall in the post office or bank to the monitoring of streets, open spaces and in trains), with audio signals or acoustic events being evaluated, in particular keywords, certain volume levels or shot, and with manual control
  • the security personnel's cameras track an escaping perpetrator and his escape route can be recorded.
  • the signal recognition in particular word recognition, can be implemented both as a software solution in a computer and reside in DSP-based hardware and software combinations within a computer. Both stand-alone devices and computer-based overall systems can be set up.
  • the systems can contain one or more independent channels with speech recognition and alarm triggering.
  • the intrusion alarm system has according to WO 2009/104968 A1 an intrusion alarm and a processor connected thereto, the intrusion alarm including a transducer for receiving mechanical vibration energy in a certain frequency range and converting it into electrical vibration energy in the same frequency range and wherein an A / D converter is present in the system in order to provide digital signals, which represent the electrical vibration energy.
  • the processor is provided with means for digital signal processing of the signals provided at its inputs, the detector also having a low-frequency channel for sorting out and supplying a low-frequency signal part of the frequency range to a first input of the processor and a high-frequency channel for sorting out and supplying the residual signal part of the frequency range to a comprises second input of the processor.
  • the comparator is for comparing sequences of incoming energy bursts in the low frequency signal part with sequences in the residual signal part or for comparing durations of incoming energy bursts in the low frequency signal part with durations in the residual signal part or for comparing periods between energy bursts in the low frequency signal part with periods in the residual signal part or for comparison of certain characteristics of the signal events, such as absolute maximum amplitudes, set up in bursts of energy in the low-frequency signal part with events in the residual signal part, among others.
  • the applicant is a device for the automatic detection and classification of audible acoustic signals with at least one signal receiver arranged in the monitoring area and a module for classifying the acoustic signal and outputting a Classification information, known.
  • an acoustic sensor system with a microcomputer is provided, which is connected to the signal receiver, whose output signals are fed in parallel to a module arranged in the acoustic sensor system for recording them and a module for classification.
  • a recording database of the acoustic sensor system is connected to the recording module, in which the signal is stored in the format of an audio file.
  • a module for modeling is connected, which imports the recordings via the interface, generates corresponding models from them and which is connected to a model library of the corresponding sensor system via the interface.
  • the model selected by a user in a training phase is stored in the model library.
  • the classification module is connected to the model library, is connected to an evaluation application via a further interface and sends the classification result to the evaluation application if a signal is recognized.
  • the acoustic sensor system serves both as a recording system for any acoustic signals during a training phase and as a classifier of known signal patterns during a classification phase.
  • the waveform may be, for example, a sine wave, a square wave, a triangular wave or a sawtooth wave, and the frequency may be constant or, for example, may be changed stepwise.
  • the selection of the waveform, the frequency and the duration can be made by setting on a selection unit provided in the vibration generator, and the neural network has two operating modes in both configurations of the vibration generator, namely a training mode and a test mode.
  • SSM sample speaker model
  • the invention is based on the object, based on known methods and devices for the automatic detection and classification of audible acoustic signals in a monitoring area, to design the arrangement and the method in such a way that, when configured by the user, they can be operated by a layperson and all signal-influencing Factors flow into the respective recognition model. Furthermore, this should be adaptable and universally applicable, with an alarm being triggered automatically for an area to be secured.
  • the arrangement according to the invention and the method have the advantage that all signal-influencing factors are incorporated into the respective model and the configuration, adaptation and optimization are made possible for the user in a surprisingly simple manner.
  • the subject matter of the invention is a system S for acoustic monitoring of objects and surroundings with a device G, which has an interface to a control panel / panel P or a device G and an operating device that is separate therefrom P or a panel with three control buttons 10 (see Fig. 4 ) having.
  • the system can easily and automatically learn a complex acoustic environment by being positioned in this environment and there for a limited time (user-controlled or automatic) examining, classifying and recording all acoustic events that occur in a model.
  • the acoustic monitoring system S consists of several components. These components are described below.
  • an acoustic sensor 1 acoustic ambient noises are converted into electrical signals and fed wirelessly or by wire via an interface to a signal preprocessing and pattern extraction 2 arranged in the device G.
  • the sensor 1 can be located directly on the device G or it can also be arranged remotely therefrom.
  • the pattern data supplied by the sensor 1 in a periodic sequence can optionally be used for training a model / noise model / model library 6 arranged in the device G by a training module 4 or supplied by an analysis module 3 to analyze the features.
  • the choice of the starting point can reduce the Influence the performance of the finished Markov model decisively.
  • Methods for vector quantization and estimation of mixed distribution models are used to model high-dimensional data.
  • the MCMC method makes use of the possibility of simulating large Markov chains as well, in order to simulate distributions that cannot be simulated using conventional methods.
  • a class of algorithms is used that draw samples from probability distributions. This is done on the basis of the construction of a Markov chain which has the desired distribution as its stationary distribution. The state of the chain after a large number of steps is then used as a sample of the desired distribution. The quality of the sample increases with the number of steps.
  • MCMC methods generate systems in the canonical state.
  • the modeling is preferably carried out using a deterministic method which has the advantage that (as with Markov chains) one does not have to start from the starting position every time and that segmentation does not have to take place either.
  • the focus is on the assumption that in the case of noise, unlike in the case of speech, the precise temporal structure of the signal can be neglected. It is completely sufficient to distribute the features to cluster C (t) in each processing step t without the transitions to other clusters in the next time step t + T1. If the hit rate is then considered over a longer period of time, for example T3, a noise pattern can be assigned with a high degree of probability by the frequency of the number of clusters C that have occurred.
  • the chronological sequence of the clusters C (t) can be taken into account as a further parameter, if required.
  • the optimization module 5 makes it possible to improve and optimize an existing model M in the highly complex solution space. In order to increase the tolerance of the model M , this method also works with clusters, the extent of which in the feature space determines the tolerance or sensitivity. In doing so, it is possible to take into account for each cluster how many features are to be determined and, in particular, if the feature is outside the specified time period, these noises can be deleted or not taken into account in the modeling.
  • the entire acoustic environment usually consists of a large number of different complex noises.
  • these are divided into small (equal or shorter and longer) time segments T1.
  • a feature P (t) is generated which corresponds to this Time existing acoustic situation is mapped in a feature space R and assigned to a cluster Ci.
  • the N-dimensional feature space R is divided into a finite number of clusters Ci.
  • Each of these clusters represents a specific part of a noise pattern.
  • Clusters are automatically generated and adjusted during the system's learning phase.
  • the set of all clusters Ci ⁇ 0 ⁇ i ⁇ Z ⁇ belonging to a special acoustic environment are managed as data records in a model M.
  • the time of generation and the number of assigned features are recorded.
  • the optimization in the optimization module 5 is essentially the removal of clusters that are not very relevant for the overall modeling of the acoustic environment. According to the invention, clusters can be removed if only a few features have been assigned to them or if these have been generated at times that are not to be taken into account later in the monitoring.
  • a further form of optimization of a model M can be carried out during the analysis phase in that features P (t) which are located in the edge region of a cluster Ci initiate an update or correction of the cluster concerned. This allows slow changes in the acoustic environment to be adapted.
  • Characteristics are also processed in the time pattern T1 in the "listening" mode. In contrast to the "training” (analysis) operating mode, however, this does not result in the model M being changed, but rather a check is only made at each step to determine whether the feature is located in a cluster Ci present in the model M. If this is not the case, it is a part of an acoustic event that has not been trained and an internal event counter (not shown in the drawing and located in device G) is incremented. If the counter reading of this counter exceeds a threshold value in a time interval T2, a corresponding signal is presented on a display module 8 and the counter is reset.
  • Fig. 3 shows a screenshot in the "Listen” mode.
  • a so-called eavesdropping curve LA represents the course over time with the occurrence of a signaling event, which is characterized by the fact that it exceeds a so-called signaling threshold SIS over time.
  • the events in the time interval T3 are also considered here.
  • the dimensioning of the time interval T3 takes place in such a way that 30 to 70 events per time window, preferably 50 events per time window, are recorded.
  • the time grid T2 and the time grid T3 for recording the events can be selected to be the same length and are significantly longer (preferably by a factor of 50) than the time interval T1.
  • the reference symbol T identifies the current point in time of the screen shot.
  • a remote panel 10 (smartphone or PC app) with a control panel P can be implemented for operation and interaction with the user.
  • the Fig. 4 shows a possible structure of the control panel P, in particular with three control elements / control buttons for learning, listening and stop.
  • a control panel P arranged on the device G is preferably also connected to the control unit 7.
  • a transmission channel 11 transmits the input actions of the user to the control unit 7 of the monitoring system S ( Fig. 1 Device G, Fig. 4 Device G and panel 10).
  • the transmission channel 11 can be realized by various implementations (direct or remote by, for example: WLAN, LAN, Bluetooth).
  • This system S enables the user / user in a surprisingly simple manner to incorporate all signal-influencing factors into the respective detection model, in particular taking into account the current situation and simple configuration or adaptation in a training phase by the user / user and is from a Can be operated by laypeople.
  • a display module 8 is provided according to the invention, which is connected to the analysis module 3 and is visible on the outside of the device G ( Fig. 1 ) or is connected to it ( Fig. 4 remote panel 10 and control panel P / control unit P) and which shows an acoustic event that has not been trained.
  • the environments to be monitored can certainly be burdened with continuous background noise. These are taken into account in the learning process and included in the respective model. Changes to these background noise e.g. failure of one of the contributing components leads to this event being signaled, for example, as an error state.

Abstract

1. Anordnung und Verfahren zur akustischen Überwachung von Umgebungen.2.1 Auf verschiedenen technischen Gebieten sind unterschiedlich ausgestaltete Verfahren und Vorrichtungen zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich bekannt.2.2 Um eine Anordnung derart auszugestalten, dass bei der Konfiguration durch den Anwender diese von einem Laien bedienbar ist und alle signalbeeinflussenden Faktoren mit in das jeweilige Erkennungsmodell einfließen, ist nach Patentanspruch 1 vorgesehen, dass der akustische Sensor (1) drahtlos oder drahtgebunden über eine Schnittstelle mit einer im Gerät (G) angeordneten Signalvorverarbeitung und Musterextraktion (2) verbunden ist, dass der Ausgang der Signalvorverarbeitung und Musterextraktion (2) über einen Betriebsartenschalter (B) mit dem Analysemodul (3) oder dem Trainingsmodul (4) verbunden ist, dass der Steuereingang des Betriebsartenschalters (B) mit einer Steuerungseinheit (7) verbunden ist, welche derart ausgestaltet ist, dass benutzergesteuert zwischen mehreren Betriebsarten umgeschaltet oder die Verarbeitung des vom akustischen Sensor (1) erfassten Schalls gestoppt werden kann und dass ein im Gerät (G) angeordnetes Modell oder Geräuschmodell (6) mit dem Analysemodul (3) oder dem Trainingsmodul (4) und einem im Gerät (G) angeordneten Optimierungsmodul (5) zur Nachbesserung und zur Optimierung eines bestehenden Modells (6) verbunden ist. Das Verfahren nach Patentanspruch 6umfasst:- Zuführung vom akustischen Sensor - drahtlos oder drahtgebunden über eine Schnittstelle - des erfassten Schalls zu einer im Gerät angeordneten Signalvorverarbeitung und Musterextraktion,- Nutzung der vom Sensor in periodischer Abfolge gelieferten Musterdaten wahlweise zum Training eines im Gerät angeordneten Modells oder Geräuschmodells durch ein Trainingsmodul oder- Zuführung zur Analyse der Merkmale zu einem Analysemodul,- Nutzung eines im Gerät angeordneten Optimierungsmoduls zur Nachbesserung und zur Optimierung eines bestehenden Modells und- benutzergesteuerte Umschaltung mittels eines Betriebsartenschalters und einer Steuerungseinheit zwischen den Betriebsarten "Analyse" und "Training" oder "Stopp" der Verarbeitung des vom akustischen Sensor erfassten Schalls.1. Arrangement and method for acoustic monitoring of surroundings.2.1 In various technical fields, differently designed methods and devices for the automatic detection and classification of acoustic signals in a surveillance area are known can be operated by a layperson and all signal-influencing factors flow into the respective detection model, it is provided according to claim 1 that the acoustic sensor (1) is connected wirelessly or wired via an interface to a signal preprocessing and pattern extraction (2) arranged in the device (G) is that the output of the signal preprocessing and pattern extraction (2) is connected to the analysis module (3) or the training module (4) via a mode switch (B), that the control input of the mode switch (B) is connected to a control unit (7), welc He is designed in such a way that user-controlled switching between several operating modes or the processing of the sound detected by the acoustic sensor (1) can be stopped and that a model or noise model (6) arranged in the device (G) with the analysis module (3) or the training module (4) and an optimization module (5) arranged in the device (G) for reworking and optimizing an existing model (6). The method according to claim 6 comprises: - supply from the acoustic sensor - wireless or wired via an interface - the recorded sound to a signal preprocessing and pattern extraction arranged in the device, - use of the pattern data supplied by the sensor in periodic sequence, either for training a model arranged in the device or Noise model through a training module or - feed for the analysis of the features to an analysis module, - use of an optimization module arranged in the device for improvement and optimization of an existing model and - user-controlled switching by means of an operating mode switch and a control unit between the "analysis" and "training" operating modes or "stop" the processing of the sound detected by the acoustic sensor.

Description

Die Erfindung betrifft, gemäß Patentanspruch 1, eine Anordnung zur akustischen Überwachung von Umgebungen. Weiterhin betrifft die Erfindung, gemäß Patentanspruch 6, ein Verfahren zur akustischen Überwachung von Umgebungen.The invention relates, according to claim 1, to an arrangement for the acoustic monitoring of surroundings. Furthermore, the invention relates, according to claim 6, to a method for acoustic monitoring of surroundings.

Überwachungssysteme zur Überwachung einer Freifläche oder einem Bereich in einem Gebäude oder Gebäudekomplex, wobei das Überwachungssystem eine Mehrzahl von Mikrofonen umfasst, welche in dem Überwachungsbereich anordenbar und/oder angeordnet sind und welche zur Aufnahme von Audiosignalen eines Objekt als Audiosignalquelle in dem Überwachungsbereich ausgebildet sind, sind seit langem bekannt. Beispielsweise ist aus der DE 10 2012 211 154 B4 ein Überwachungssystem bekannt, welches ein Analysemodul zur Klassifizierung des Audiosignals und zur Ausgabe einer Klassifikationsinformation umfasst. Die Klassifikationsinformation ist insbesondere eine inhaltliche Beschreibung des Audiosignals und beschreibt die Geräuschart. Im Speziellen bezeichnet die Klassifikationsinformation die Entstehungsart des Audiosignals. Weiterhin ist ein Analysemodulvorgesehen, welches ein anliegendes Audiosignal mit einem Muster und/oder einem abgespeicherten Audiosignal vergleicht. Insbesondere ist das Analysemodul derart ausgebildet, ein Audiosignal als unbeabsichtigtes Geräusch, nämlich als ein Einbruchsgeräusch und/oder als ein Beschädigungsgeräusch und/oder als ein Störgeräusch einer Aktion des Objekts als Geräuschart zu klassifizieren. Da nicht zu erwarten, dass derartige Personen bei einem unautorisierten Aufhalten im Überwachungsbereich schreien oder eine Trillerpfeife betätigen, ist das Überwachungssystem auf die unbeabsichtigten Geräusche ausgerichtet, die die Personen entweder nicht verhindern können (Schrittgeräusche oder Geräusche einer Aktion) oder aus Versehen nicht ausreichend verhindern Das Überwachungssystem umfasst ferner ein Lokalisierungsmodul zur Lokalisierung der Position des Objekts durch akustische Ortung der Position der Audiosignalquelle des klassifizierten Audiosignals in dem Überwachungsbereich über die Mikrofone und zur Ausgabe einer Positionsinformation. Dabei ist das Lokalisierungsmodul zur Lokalisierung der Person der Audiosignalquelle des klassifizierten Audiosignals durch akustische Kreuzortung der Audiosignalquelle, insbesondere über Laufzeitmessung des Audiosignals von mindestens zwei und insbesondere mindesten drei Mikrofone ausgebildet. Die Klassifikationsinformation und die Positionsinformation bilden einen Teil eines Objektdatensatzes, wobei der Objektdatensatz als Überwachungsergebnis ausgebbar und/oder weiter verarbeitbar ist. Hierzu umfasst das Überwachungssystem ein Auswertemodul zur Auswertung des Objektdatensatzes und zur Generierung eines Alarmsignals, wobei es auch vorgesehen ist, dass das Auswertemodul mindestens zwei Objektdatensätze mit unterschiedlichen Klassifikationsinformationen zur Auswertung verwendet. Bei einer Weiterbildung weist das Auswertemodul eine Verfolgungseinheit auf, wobei diese ausgebildet ist, aus mehreren Objektdatensätzen einen Metadatensatz für das Objekt zu erstellen. In diesem Metadatensatz werden beispielsweise zwei, drei, vier oder mehr mögliche Objektdatensätze des Objekts aufgenommen und das Auswertemodul umfasst eine Filtereinheit zur Filterung des Metadatensatzes, wobei Objektdatensätze, die einem Bewegungsmodell des Objekts widersprechen, ausgefiltert werden. Schließlich umfasst das Überwachungssystem eine Überwachungszentrale, welche eine Audiospeichereinrichtung aufweist oder mit dieser verbunden ist, wobei auf der Audiospeichereinrichtung eine Audioaufnahme des Audiosignals, insbesondere des Original-Audiosignals des klassifizierten Audiosignals abgespeichert ist. In einer möglichen Ausgestaltung umfasst die Überwachungszentrale eine Bedieneinheit, wobei bei Betätigung der Bedieneinheit, z.B. durch Anwahl eines Objektdatensatzes, das gespeicherte Audiosignal abgespielt und akustisch von dem Überwachungspersonal überprüft werden kann. Auf diese Weise kann nach einer automatisierten Klassifizierung des Audiosignals eine manuelle oder menschliche Überprüfung der Klassifizierung durchgeführt werden. Die Überwachungszentrale dient zur Ausgabe der Objektdatensätze und optional ergänzend der Alarmsignale und/oder der Bewegungslinien an ein Überwachungspersonal. Dem Überwachungspersonal werden beispielsweise die Objektdatensätze als Textnachrichten, die Alarmsignale optisch oder akustisch dargestellt und/oder die Bewegungslinie optisch auf einem Plan des Überwachungsbereichs dargestellt. Auf diese Weise ist das Überwachungspersonal in der Überwachungszentrale in der Lage, die Ergebnisse des Überwachungssystems auf Basis akustischer Ortung (siehe Lokalisierungsmodul, Klassifikationsinformation und die Positionsinformation bilden einen Teil eines Objektdatensatzes, das Auswertemodul weist eine Verfolgungseinheit auf, wobei diese ausgebildet ist, aus mehreren Objektdatensätzen einen Metadatensatz für das Objekt zu erstellen) zu verwerten und die Mikrofone sind lediglich Sensoren, welche keine Vorverarbeitung durchführen können.Monitoring systems for monitoring an open space or an area in a building or building complex, the monitoring system comprising a plurality of microphones which can be arranged and / or are arranged in the monitoring area and which are designed to receive audio signals from an object as an audio signal source in the monitoring area known for a long time. For example, from the DE 10 2012 211 154 B4 a monitoring system is known which comprises an analysis module for classifying the audio signal and for outputting classification information. The classification information is in particular a description of the content of the audio signal and describes the type of noise. In particular, the classification information designates the type of generation of the audio signal. Furthermore, an analysis module is provided which compares an applied audio signal with a pattern and / or a stored audio signal. In particular, the analysis module is designed to classify an audio signal as an unintentional noise, namely as a break-in noise and / or as a damage noise and / or as a noise from an action of the object as a type of noise. Since it is not expected that such persons will scream or whistle when they are in the surveillance area without authorization, the surveillance system is geared towards the unintended noises that the persons either cannot prevent (step noises or noise of an action) or accidentally do not adequately prevent that Monitoring system further comprises a localization module for localization the position of the object by acoustically locating the position of the audio signal source of the classified audio signal in the monitoring area via the microphones and for outputting position information. The localization module is designed to localize the person of the audio signal source of the classified audio signal by acoustic cross-location of the audio signal source, in particular by measuring the transit time of the audio signal from at least two and in particular at least three microphones. The classification information and the position information form part of an object data record, the object data record being able to be output as a monitoring result and / or further processed. For this purpose, the monitoring system comprises an evaluation module for evaluating the object data set and for generating an alarm signal, it is also provided that the evaluation module uses at least two object data sets with different classification information for evaluation. In a further development, the evaluation module has a tracking unit, which is designed to create a metadata record for the object from a plurality of object data records. In this metadata record, for example, two, three, four or more possible object data records of the object are recorded and the evaluation module comprises a filter unit for filtering the metadata record, object data records that contradict a movement model of the object being filtered out. Finally, the monitoring system comprises a monitoring center which has an audio storage device or is connected to it, an audio recording of the audio signal, in particular the original audio signal of the classified audio signal, being stored on the audio storage device. In one possible embodiment, the monitoring center comprises an operating unit, wherein when the operating unit is operated, for example by selecting an object data record, the stored audio signal can be played and checked acoustically by the monitoring personnel. In this way, after an automated classification of the audio signal, a manual or human check of the classification can be carried out be performed. The monitoring center serves to output the object data records and optionally in addition the alarm signals and / or the movement lines to a monitoring staff. For example, the object data records are displayed to the monitoring personnel as text messages, the alarm signals are displayed optically or acoustically and / or the movement line is displayed optically on a plan of the monitoring area. In this way, the monitoring staff in the monitoring center is able to determine the results of the monitoring system on the basis of acoustic location (see localization module, classification information and the position information form part of an object data record, the evaluation module has a tracking unit, which is formed from several object data records to create a metadata record for the object) and the microphones are just sensors that cannot perform any preprocessing.

Weiterhin ist aus der DE 196 21 152 A1 ein Verfahren zum Überwachen und zum Auslösen eines Alarmes für einen zu sichernden Bereich und ein Überwachungssystem bekannt. Das dort beschriebene System ist universell einsetzbar: von der Schalterhalle in der Post oder Bank bis hin zur Überwachung von Straßen, Freiflächen und in Zügen), wobei Audiosignale oder akustische Ereignisse ausgewertet werden, insbesondere Schlüsselworte, bestimmter Lautstärkepegel oder Schuss, und wobei durch manuelle Steuerung der Kameras des Sicherheitspersonals ein flüchtender Täter verfolgt und sein Fluchtweg aufgezeichnet werden kann. Die Signalerkennung, insbesondere Worterkennung kann dabei sowohl als Softwarelösung in einem Computer implementiert sein als auch in DSP-basierten Hard- und Softwarekombinationen innerhalb eines Computers residieren. Es können sowohl Stand-Alone-Geräte als auch rechnerbasierende Gesamtsysteme aufgebaut werden. Die Systeme können einen oder mehrere voneinander unabhängige Kanäle mit Spracherkennung und Alarmauslösung enthalten.Furthermore, from the DE 196 21 152 A1 a method for monitoring and triggering an alarm for an area to be secured and a monitoring system are known. The system described there can be used universally: from the counter hall in the post office or bank to the monitoring of streets, open spaces and in trains), with audio signals or acoustic events being evaluated, in particular keywords, certain volume levels or shot, and with manual control The security personnel's cameras track an escaping perpetrator and his escape route can be recorded. The signal recognition, in particular word recognition, can be implemented both as a software solution in a computer and reside in DSP-based hardware and software combinations within a computer. Both stand-alone devices and computer-based overall systems can be set up. The systems can contain one or more independent channels with speech recognition and alarm triggering.

Weiterhin ist aus der WO 2009/104968 A1 eine Einbruchmeldeanlage bekannt, bei der nicht das hörbare Signal, sondern die unhörbare Signale ausgewertet werden, um die Ursache des Geräusches zu ermitteln. Hierzu wird mit Filtern eine Trennung in Niederfrequenzsignal (Frequenzbereich von etwa 1 - 5 Hz) und Hochfrequenzsignal (Frequenzbereich von etwa 5 - 20 Hz) vorgenommen und ein Komparator vergleicht die Signale in den beiden Kanälen miteinander. Ferner sind ein Modul zur Modellbildung, eine Auswertungsapplikation und ein Statusmodul vorgesehen, welches die Priorität der "Wörter" untereinander zur Alarmmeldung festlegt. Im Einzelnen weist die Einbruchmeldeanlage gemäß der WO 2009/104968 A1 einen Einbruchmelder und einen damit verbundenen Prozessor auf, wobei der Einbruchmelder einen Umformer zum Aufnehmen mechanischer Schwingungsenergie in einem bestimmten Frequenzbereich und Umwandeln dieser in elektrische Schwingungsenergie in demselben Frequenzbereich enthält und wobei ein A/D-Wandler in dem System vorhanden ist, um Digitalsignale bereitzustellen, die die elektrische Schwingungsenergie darstellen. Der Prozessor ist mit Mitteln zur digitalen Signalverarbeitung der an seine Eingänge bereitgestellten Signale versehen, wobei der Melder darüber hinaus einen Niederfrequenzkanal zum Aussortieren und Zuführen eines Niederfrequenzsignalteils des Frequenzbereichs zu einem erster Eingang des Prozessors und einen Hochfrequenzkanal zum Aussortieren und Zuführen des Restsignalteils des Frequenzbereichs zu einem zweiten Eingang des Prozessors umfasst. Weiterhin umfasst der Prozessor eine Signalerkennungseinheit, in der die verarbeiteten Digitalsignale mit erlernten und gespeicherten Signalmustern verglichen werden, und die von einem Vergleicher zum Vergleichen bestimmter Digitalsignalcharakteristika in dem Restsignalteil und zum Bereitstellen einer Menge von Vergleichsergebnissignalen an weitere Prozessoruntereinheiten zur weiteren Verarbeitung zugeführt werden. Schließlich sind eine Assoziationsuntereinheit zum Herstellen einer Assoziation zwischen einem Vergleichsergebnissignal und einem aus einer gespeicherten Worttabelle auszuwählenden Wort und eine Statusuntereinheit zum Festlegen eines Status auf Basis ausgewählter Wörter vorgesehen. Der Niederfrequenzkanal verarbeitet Signale in einem Frequenzteilbereich von etwa 1 - 5 Hz, während der Hochfrequenzkanal ein Kanal ist, der Signale in einem Frequenzteilbereich von etwa 5 - 20 Hz verarbeitet. Der Vergleicher ist zum Vergleichen von Sequenzen eingehender Energieschübe in dem Niederfrequenzsignalteil mit Sequenzen in dem Restsignalteil oder zum Vergleichen von Dauern eingehender Energieschübe in dem Niederfrequenzsignalteil mit Dauern in dem Restsignalteil oder zum Vergleichen von Zeiträumen zwischen Energieschüben in dem Niederfrequenzsignalteil mit Zeiträumen in dem Restsignalteil oder zum Vergleichen von bestimmten Charakteristika der Signalereignisse, wie absolute maximale Amplituden, in Energieschüben in dem Niederfrequenzsignalteil mit Ereignissen in dem Restsignalteil u.a. eingerichtet.Furthermore, from the WO 2009/104968 A1 an intrusion alarm system is known in which not the audible signal, but the inaudible signals are evaluated in order to determine the cause of the noise. For this purpose, filters are used to separate the low-frequency signal (frequency range from approx. 1 - 5 Hz) and high-frequency signal (frequency range from approx. 5 - 20 Hz) and a comparator compares the signals in the two channels. Furthermore, a module for modeling, an evaluation application and a status module are provided, which defines the priority of the "words" among each other for alarm reporting. In detail, the intrusion alarm system has according to WO 2009/104968 A1 an intrusion alarm and a processor connected thereto, the intrusion alarm including a transducer for receiving mechanical vibration energy in a certain frequency range and converting it into electrical vibration energy in the same frequency range and wherein an A / D converter is present in the system in order to provide digital signals, which represent the electrical vibration energy. The processor is provided with means for digital signal processing of the signals provided at its inputs, the detector also having a low-frequency channel for sorting out and supplying a low-frequency signal part of the frequency range to a first input of the processor and a high-frequency channel for sorting out and supplying the residual signal part of the frequency range to a comprises second input of the processor. Furthermore, the processor comprises a signal recognition unit in which the processed digital signals are compared with learned and stored signal patterns, and which are supplied by a comparator to compare certain digital signal characteristics in the residual signal part and to provide a set of comparison result signals to further processor subunits for further processing. Finally, there is an association subunit for establishing an association between a comparison result signal and one from a stored word table word to be selected and a status subunit for determining a status on the basis of selected words provided. The low frequency channel processes signals in a frequency subrange of about 1 - 5 Hz, while the high frequency channel is a channel that processes signals in a frequency subrange of about 5 - 20 Hz. The comparator is for comparing sequences of incoming energy bursts in the low frequency signal part with sequences in the residual signal part or for comparing durations of incoming energy bursts in the low frequency signal part with durations in the residual signal part or for comparing periods between energy bursts in the low frequency signal part with periods in the residual signal part or for comparison of certain characteristics of the signal events, such as absolute maximum amplitudes, set up in bursts of energy in the low-frequency signal part with events in the residual signal part, among others.

Weiterhin ist aus der US 2012/0262294 A1 ein System und ein Verfahren zur Überwachung einer begrenzten und vorgegebenen Zone mit einem akustischen Sensor für die Detektion unhörbarer seismischer Wellen bekannt. Im Einzelnen weist eine Überwachungseinrichtung für eine begrenzte und vorbestimmte Überwachungszone mindestens einen akustischen Sensor auf, der in der Überwachungszone angeordnet ist, und der dazu ausgelegt ist, eine erfasste akustische Welle, die durch das Auftreten einer Aktivität in der Überwachungszone resultiert, in ein Informationssignal zu konvertieren. Weiterhin sind eine Verarbeitungsvorrichtung, die dazu ausgelegt ist, das Informationssignal zu empfangen, ein Übertragungssystem des Informationssignals zur Verarbeitungsvorrichtung, ein System, um mindestens einen Alarm zu senden, und eine Datenbank vorgesehen. Die Datenbank beinhaltet Referenzcharakteristiken, die sich auf diese vorbestimmte Bezugsaktivität beziehen. Die Verarbeitungsvorrichtung umfasst ein Analyse-System, welches das Informationssignals, ausgehend von den Referenzcharakteristiken von mindestens einer vorbestimmten Bezugsaktivität der Datenbank analysiert, und zur Sendung von mindestens einem Alarm auf der Grundlage der Analyse des Informationssignals das System aktiviert. Insbesondere ist mindestens ein akustischer Sensor für seismische Wellen, die sich in einem festen Milieu ausbreiten, vorgesehen und das System zur Sendung von mindestens einem Alarm umfasst zur Erzeugung eines Alarms der ersten Stufe eine Vorrichtung, die in der Überwachungszone angeordnet ist, und zur Erzeugung eines Alarms der zweiten Stufe eine Vorrichtung außerhalb der Überwachungszone. Das Analyse-System ist dazu ausgelegt, ein Bestätigungssignal zu empfangen und falls infolge der Erzeugung des Alarms der ersten Stufe in einem vorbestimmten Zeitrahmen kein Bestätigungssignal empfangen wird, die Vorrichtung zur Erzeugung des Alarms der zweiten Stufe zu aktivieren. Falls infolge der Erzeugung des Alarms der ersten Stufe in einem vorbestimmten Zeitrahmen ein Bestätigungssignal empfangen wird, werden die Referenzcharakteristiken einer vorbestimmten Bezugsaktivität der Datenbank aktualisiert. Hierzu ist eine Bestätigungsvorrichtung vorgesehen, die in der Überwachungszone angeordnet ist und die durch einen Nutzer zur Erzeugung des Bestätigungssignals aktivierbar ist. Das Analyse-System weist im Einzelnen folgende Bearbeitungsschritte auf:

  • ausgehend von den Referenzcharakteristiken der Datenbank auswählen einer vorbestimmten Bezugsaktivität der Datenbank, die einer Aktivität entspricht aus der das Informationssignal resultiert,
  • speichern eines zum Zeitpunkt des Auftretens der erkannten Aktivität Wertes und zuordnen dieses Werts zur ausgewählten Bezugsaktivität, und
  • entscheiden, in Abhängigkeit von mindestens diesem Wert und von der zugeordneten Bezugsaktivität, ob das System zur Sendung von mindestens einem Alarm aktiviert wird oder nicht.
Furthermore, from the US 2012/0262294 A1 a system and a method for monitoring a limited and predetermined zone with an acoustic sensor for the detection of inaudible seismic waves are known. In detail, a monitoring device for a limited and predetermined monitoring zone has at least one acoustic sensor which is arranged in the monitoring zone and which is designed to convert a detected acoustic wave resulting from the occurrence of activity in the monitoring zone into an information signal convert. Furthermore, a processing device which is designed to receive the information signal, a transmission system of the information signal to the processing device, a system for sending at least one alarm, and a database are provided. The database contains reference characteristics relating to this predetermined reference activity. The processing device comprises an analysis system which analyzes the information signal on the basis of the reference characteristics of at least one predetermined reference activity of the database and for transmission activated the system by at least one alarm based on the analysis of the information signal. In particular, at least one acoustic sensor for seismic waves that propagate in a solid environment is provided and the system for sending at least one alarm comprises a device for generating an alarm of the first level, which is arranged in the monitoring zone, and for generating one Second level alarm means a device outside the surveillance zone. The analysis system is designed to receive a confirmation signal and if, as a result of the generation of the alarm of the first stage, no confirmation signal is received in a predetermined time frame, to activate the device for generating the alarm of the second stage. If an acknowledgment signal is received in a predetermined time frame as a result of the generation of the alarm of the first stage, the reference characteristics of a predetermined reference activity of the database are updated. For this purpose, a confirmation device is provided which is arranged in the monitoring zone and which can be activated by a user to generate the confirmation signal. The analysis system has the following processing steps:
  • On the basis of the reference characteristics of the database, select a predetermined reference activity in the database which corresponds to an activity from which the information signal results,
  • save a value at the time of the occurrence of the identified activity and assign this value to the selected reference activity, and
  • decide, depending on at least this value and on the assigned reference activity, whether the system is activated for sending at least one alarm or not.

Aus der DE 10 2014 012 184 B4 der Anmelderin ist eine Vorrichtung zur automatischen Erkennung und Klassifizierung von hörbaren akustischen Signalen mit mindestens einem im Überwachungsbereich angeordneten Signalempfänger und einem Modul zur Klassifizierung des akustischen Signals und Ausgabe einer Klassifikationsinformation, bekannt. Zur Vorverarbeitung der akustischen Signale ist ein einen Mikrocomputer aufweisendes akustisches Sensorsystem vorgesehen, welches mit dem Signalempfänger in Verbindung steht, dessen Ausgangssignale parallel einem im akustischen Sensorsystem angeordneten Modul für deren Aufzeichnung und einem Modul zur Klassifizierung zugeführt sind. Mit dem Aufzeichnungs-Modul ist eine Aufzeichnungsdatenbank des akustischen Sensorsystems verbunden, in welcher das Signal im Format einer Audiodatei gespeichert ist. Zum Datenaustausch und zur Steuerung mit dem eine Schnittstelle aufweisenden akustischen Sensorsystem steht ein Modul zur Modellbildung in Verbindung, welches über die Schnittstelle die Aufzeichnungen importiert, aus ihnen entsprechende Modelle erzeugt und welches über die Schnittstelle mit einer Modellbibliothek des entsprechenden Sensorsystems in Verbindung steht. In der Modellbibliothek ist das von einem Anwender in einer Trainingsphase ausgewählte Modell abgespeichert. Das Klassifizierungs-Modul ist mit der Modellbibliothek verbunden, steht über eine weitere Schnittstelle mit einer Auswertungs-Applikation in Verbindung und sendet für den Fall der Erkennung eines Signals, das Klassifizierungsergebnis an die Auswertungs-Applikation. Das akustische Sensorsystem dient gleichermaßen als Aufzeichnungssystem für beliebige akustische Signale während einer Trainingsphase, als auch als Klassifikator bekannter Signalmuster während einer Klassifizierungsphase. Die dafür notwendigen Erkennungsmodelle werden aus den von dem Sensorsystem vorher aufgezeichneten Signalen erzeugt und diese Modelle danach auch nur von diesem Sensorsystem zur Klassifizierung eingesetzt. Ein wesentlicher Vorteil der der DE 10 2014 012 184 B4 der Anmelderin im Vergleich zu dem vorstehend beschriebenen Stand der Technik ist, dass jedes Gerät/ akustischen Sensor /akustisches Sensorsystem seine eigenen Aufzeichnungen zur Modellbildung nutzt und dieses Modell danach auch nur von diesem Gerät zur Klassifizierung eingesetzt wird. Dadurch wird erreicht, dass alle signalbeeinflussenden Faktoren mit in das jeweilige Erkennungsmodell einfließen und dem Anwender auf überraschend einfache Art und Weise die Konfiguration in der Trainingsphase ermöglicht wird. Während der Klassifizierungsphase werden durch die aktuellen akustischen Eingangssignale, die Modellparameter des zugrundeliegenden Erkennungsmodells adaptiert. Dies führt dazu, dass die Erkennungsmodelle im Laufe des Betriebes ständig optimiert werden. Der akustische Sensor lernt also, durch diese Optimierung der Modellparameter, ständig dazu und verbessert dadurch die Qualität der Klassifizierung.From the DE 10 2014 012 184 B4 The applicant is a device for the automatic detection and classification of audible acoustic signals with at least one signal receiver arranged in the monitoring area and a module for classifying the acoustic signal and outputting a Classification information, known. To preprocess the acoustic signals, an acoustic sensor system with a microcomputer is provided, which is connected to the signal receiver, whose output signals are fed in parallel to a module arranged in the acoustic sensor system for recording them and a module for classification. A recording database of the acoustic sensor system is connected to the recording module, in which the signal is stored in the format of an audio file. For data exchange and control with the acoustic sensor system having an interface, a module for modeling is connected, which imports the recordings via the interface, generates corresponding models from them and which is connected to a model library of the corresponding sensor system via the interface. The model selected by a user in a training phase is stored in the model library. The classification module is connected to the model library, is connected to an evaluation application via a further interface and sends the classification result to the evaluation application if a signal is recognized. The acoustic sensor system serves both as a recording system for any acoustic signals during a training phase and as a classifier of known signal patterns during a classification phase. The recognition models required for this are generated from the signals previously recorded by the sensor system and these models are then only used by this sensor system for classification. A major advantage of the DE 10 2014 012 184 B4 of the applicant compared to the prior art described above is that each device / acoustic sensor / acoustic sensor system uses its own recordings for modeling and this model is then only used by this device for classification. This ensures that all the factors influencing the signal are included in the respective detection model and the configuration is surprisingly easy for the user during the training phase is made possible. During the classification phase, the model parameters of the underlying recognition model are adapted using the current acoustic input signals. This leads to the fact that the recognition models are continuously optimized in the course of operation. The acoustic sensor learns continuously through this optimization of the model parameters and thereby improves the quality of the classification.

Ein zur akustischen Überwachung von Umgebungen benachbartes technisches Gebiet ist das technische Gebiet der "Akustischen Materialprüfung", welches als zerstörungsfreies Prüfverfahren sehr vielschichtig ist und von der Werkstoffprüfung, Rissprüfung, Gefügeprüfung, Verwechslungsprüfung, Resonanzanalyse, Klanganalyse, Klangauswertung, Klangprobe, Klangprüfung bis hin zur automatisierten Aufzeichnung von Schallsignalen im industriellen Umfeld und Getriebe- und Maschinenüberwachung mit Eigenfrequenzanalyse, Eigenfrequenzmessung, Eigenfrequenzprüfung für magnetische und nichtmagnetische Metalle, Stahl, Keramik, Sinterprodukte, Glas reicht. Es ist bekannt, zum Prüfen eines Gegenstands auf mechanische Beschädigungen, wie zum Beispiel Haarrisse, diesen in Schwingungen zu versetzen und den dabei von ihm abgegebenen Schall (meist Luftschall) zu erfassen und einer Analyse zu unterziehen. Mechanische Schwingungen in einem Körper (Körperschall) bewirken, dass die umgebende Luft in Schwingungen versetzt wird (Luftschall). Mit entsprechenden Sensoren lassen sich diese Schwingungen messen; in der Luft mit einem Mikrofon, auf einem Körper mit einem Beschleunigungssensor oder einem Laservibrometer. Im Körper breiten sich zum selben Zeitpunkt viele Schwingungsmodi aus, die durch die Elastizität, die Form, den Werkstoff und die Struktur geprägt sind. Sie repräsentieren die mechanischen Eigenschaften des Körpers. Einflüsse wie z. B. ein Riss, eine andere Geometrie oder eine Werkstoffänderung beeinflussen die Resonanzfrequenzen, welche bei einer Analyse ausgewertet werden.A technical field related to the acoustic monitoring of environments is the technical field of "acoustic material testing", which is a multi-layered non-destructive test method and ranges from material testing, crack testing, structural testing, mix-up testing, resonance analysis, sound analysis, sound evaluation, sound testing, sound testing to automated Recording of sound signals in an industrial environment and gear and machine monitoring with natural frequency analysis, natural frequency measurement, natural frequency testing for magnetic and non-magnetic metals, steel, ceramics, sintered products, glass is enough. It is known to test an object for mechanical damage, such as hairline cracks, to make it vibrate and to detect the sound emitted by it (mostly airborne sound) and to subject it to an analysis. Mechanical vibrations in a body (structure-borne sound) cause the surrounding air to vibrate (air-borne sound). These vibrations can be measured with appropriate sensors; in the air with a microphone, on a body with an accelerometer or a laser vibrometer. At the same time, many modes of vibration spread in the body, which are characterized by elasticity, shape, material and structure. They represent the mechanical properties of the body. Influences such as B. a crack, a different geometry or a change in material influence the resonance frequencies, which are evaluated during an analysis.

Beispielsweise ist aus der US 2008/0 144 927 A1 eine nicht zerstörende Inspektionsvorrichtung bekannt, umfassend: einen Schwingungserzeuger, eine Sensoreinheit zum Erfassen von Schwingungen, die von dem Schwingungserzeuger durch ein Testobjekt übertragen werden, eine Signal-Eingabeeinheit zum Extrahieren eines Zielsignals von einem elektrischen Signal, das von der Sensoreinheit ausgegeben wurde, eine Eigenschaftsmenge-Extrahiereinheit zum Extrahieren von mehreren Frequenz-Bestandteilen von dem Zielsignal als eine Eigenschaftsmenge und eine Entscheidungs-Einheit mit einem kompetitiven lernenden neuronalen Netzwerk zum Bestimmen, ob die Eigenschaftsmenge zu einer Kategorie gehört. Im Einzelnen ist das kompetitive lernende neuronale Netzwerk unter Verwendung von Trainingsbeispielen trainiert worden, die zu der Kategorie gehören, die einen inneren Zustand des Testobjekts repräsentieren, wobei Verteilungen von Zugehörigkeitsgraden der Trainingsbeispiele in der Entscheidungseinheit festgelegt sind und wobei die Verteilungen bezüglich Neuronen festgelegt werden, die durch die Trainingsbeispiele basierend auf den Trainingsbeispielen und Gewichtungsvektoren der angeregten Neuronen angeregt sind. Die Entscheidungseinheit bestimmt, dass die Eigenschaftsmenge zu der Kategorie gehört, wenn eines der angeregten Neuronen über die Eigenschaftsmenge und die Entfernung zwischen der Eigenschaftsmenge und einem Gewichtungsfaktor von jedem (einen oder mehreren) der angeregten Neuronen angeregt ist und zu einem Zugehörigkeitsgrad gleich oder höher als ein über die Verteilungen bestimmter Schwellenwert korrespondiert. Die Verteilungen der Zugehörigkeitsgrade sind Gaußsche Verteilungen, von denen jede über einen Mittelwert und eine Varianz definiert ist. Die Varianzen der Gaußschen Verteilungen sind über Entfernungen zwischen den Trainingsbeispielen und Gewichtungsvektoren der angeregten Neuronen festgelegt und die Mittelwerte der Gaußschen Verteilungen sind Gewichtungsvektoren der angeregten Neuronen. Der Schwingungserzeuger umfasst einen Hammer, wobei die Oberfläche des Hammers mit einem elastischen Material bedeckt ist, um ein Kratzen am Testobjekt zu vermeiden, und eine Antriebseinheit, um den Hammer vor und zurück zu bewegen. Ferner umfasst der Schwingungserzeuger vorzugsweise Schenkel, um das Schlagen ausgehend von einem konstanten Abstand zwischen dem Testobjekt und dem Hammer sicherzustellen. Die Antriebseinheit ist so konfiguriert, dass sie einen Schlag, der beispielsweise durch einen Elektromagnet zum linearen Antreiben eines Kolbens erzeugt wird, auf den Hammer überträgt. Um eine konstanten Positionsbeziehung zwischen dem Schwingungserzeuger und der Sensoreinheit sicherzustellen, sind der Schwingungserzeuger und die Sensoreinheit durch einen Arm miteinander mechanisch gekoppelt. Bei einer alternativen Ausführungsform des Schwingungserzeugers kann ein Schallwellengenerator zum Übertragen von Vibrationen auf das Testobjekt durch eine Schallwelle verwendet werden. Die akustische Welle liegt dabei nicht innerhalb eines hörbaren Frequenzbandes sondern kann höher oder niedriger als das hörbare Frequenzband sein. Wenn die niedrigere Frequenz verwendet wird, wirkt der im Schwingungserzeuger verwendete Akustikwellengenerator virtuell, wobei die Wellenform, die Frequenz und die Dauer der vom Schwingungserzeuger emittierten akustischen Welle geeignet ausgewählt werden kann. Die Wellenform kann beispielsweise eine Sinuswelle, eine Rechteckwelle, eine Dreieckwelle oder eine Sägezahnwelle sein, und die Frequenz kann konstant sein oder kann beispielsweise schrittweise geändert werden. Die Auswahl der Wellenform, der Frequenz und der Dauer kann durch Einstellen an einer im Schwingungserzeuger vorgesehenen Auswahleinheit getroffen werden und das neuronale Netzwerk hat bei beiden Ausgestaltungen des Schwingungserzeugers zwei Betriebsmodi, nämlich einen Trainingsmodus und einen Prüfmodus.For example, from the US 2008/0 144 927 A1 Known a non-destructive inspection apparatus comprising: a vibration generator, a sensor unit for detecting vibrations transmitted from the vibrator through a test object, a signal input unit for extracting a target signal from an electrical signal output from the sensor unit, an amount of characteristics Extraction unit for extracting several frequency components from the target signal as a property set and a decision unit with a competitive learning neural network for determining whether the property set belongs to a category. Specifically, the competitive learning neural network has been trained using training examples belonging to the category representing an internal state of the test object, distributions of degrees of membership of the training examples are set in the decision unit, and the distributions are set with respect to neurons that are excited by the training examples based on the training examples and weighting vectors of the excited neurons. The decision unit determines that the property set belongs to the category if one of the excited neurons is excited via the property set and the distance between the property set and a weighting factor of each (one or more) of the excited neurons and to a degree of membership equal to or higher than one corresponds to the distributions of certain threshold values. The distributions of the degrees of membership are Gaussian distributions, each of which is defined by a mean and a variance. The variances of the Gaussian distributions are determined via distances between the training examples and weighting vectors of the excited neurons and the mean values of the Gaussian distributions are weighting vectors of the excited neurons. The vibrator includes a hammer, the surface of the hammer being covered with an elastic material to prevent scratching the test object, and a Drive unit to move the hammer back and forth. Furthermore, the vibration generator preferably comprises legs in order to ensure the striking starting from a constant distance between the test object and the hammer. The drive unit is configured so that it transmits an impact generated, for example, by an electromagnet for linearly driving a piston, to the hammer. In order to ensure a constant positional relationship between the vibration generator and the sensor unit, the vibration generator and the sensor unit are mechanically coupled to one another by an arm. In an alternative embodiment of the vibration generator, a sound wave generator can be used to transmit vibrations to the test object by means of a sound wave. The acoustic wave does not lie within an audible frequency band but can be higher or lower than the audible frequency band. When the lower frequency is used, the acoustic wave generator used in the vibrator acts virtually, and the waveform, frequency and duration of the acoustic wave emitted by the vibrator can be appropriately selected. The waveform may be, for example, a sine wave, a square wave, a triangular wave or a sawtooth wave, and the frequency may be constant or, for example, may be changed stepwise. The selection of the waveform, the frequency and the duration can be made by setting on a selection unit provided in the vibration generator, and the neural network has two operating modes in both configurations of the vibration generator, namely a training mode and a test mode.

Weiterhin ist, ausgehend von einem trainierbaren System mit selbstlernendem Effekt auf Basis der DE 10 2014 012 184 B4 der Anmelderin, in der nicht vorveröffentlichten DE 10 2017 012 007.2 der Anmelderin eine Vorrichtung und ein Verfahren zur akustischen Prüfung von Objekten beschrieben. Die Vorrichtung ist als ein mobiles Gerät mit einem Gerätegehäuse ausgestaltet, welches außerhalb des Gerätegehäuses eine an diesem gelagerte Erregungsvorrichtung und einen benachbart hierzu angeordneten akustischen Sensor aufweist. Innerhalb des Gerätegehäuses ist mittels eines handbetätigten, am Gerätegehäuse angeordneten Betriebsarten-Umschalters der Ausgang des akustischen Sensors entweder mit einem Analysemodul oder einem Trainingsmodul verbunden. Der Ausgang des Trainingsmoduls ist mit einer innerhalb des Gerätegehäuses angeordneten Modellbibliothek verbunden ist, welche mit dem Analysemodul in Verbindung steht. Mit dem Analysemodul steht ein Anzeigemodul in Verbindung, wobei das Gerät im Analysemodus gegen das Objekt geschlagen oder ein Schall induziert werden kann und das Ergebnis der Prüfung kann automatisch am Anzeigemodul des Geräts angezeigt werden. Im Einzelnen leitet das Anzeigemodul das Ergebnis der Prüfung drahtlos an ein Auswertungsgerät in Form einer App eines PCs oder eines Smartphones weiter. Das in der nicht vorveröffentlichten DE 10 2017 012 007.2 der Anmelderin beschriebene Verfahren beruht auf einer Vorrichtung, welche als ein mobiles Gerät mit einem Gerätegehäuse ausgestaltet ist, welche außerhalb des Gerätegehäuses eine an diesem gelagerte Erregungsvorrichtung und welche einen benachbart hierzu angeordneten akustischen Sensor aufweist. In einem ersten Verfahrensschritt wird mittels der Erregungsvorrichtung ein Objekt zur Abstrahlung von induzierten Schallsignalen angeregt, welche dann vom akustischen Sensor aufgenommen und in elektrische, digitale Signale umgewandelt werden. In einem zweiten Verfahrensschritt werden diese Signale entweder einem im Gerät angeordneten Analysemodul oder einem Trainingsmodul zugeführt. In einem dritten Verfahrensschritt wird eines der beiden Module für die Signale ausgewählt, was von der mittels eines Betriebsarten-Umschalter am Gerät eingestellten Betriebsart abhängig ist. In der Betriebsart "Training" werden die Signale klassifiziert und einem statistischen Modell hinzugefügt. Das statistische Modell wird bei jedem neuen Geräusch weiter verbessert und nach Beendigung der Trainingsphase in einer Modellbibliothek abgelegt. In einem vierten Verfahrensschritt werden während der Betriebsart "Analyse" die akustischen Signale statistisch mit bekannten Modellen aus der Modellbibliothek verglichen und daraus, bei jedem Geräusch ein Ergebnis gebildet werden. Schließlich wird durch ein Anzeigemodul des Geräts dem Anwender in einem fünften Verfahrensschritt das Ergebnis angezeigt. Damit wird in der nicht vorveröffentlichten DE 10 2017 012 007.2 der Anmelderin ein universell einsetzbares, flexibel anpassbares, mobiles und robustes Prüfgerät beschrieben, dass von einem Laien bedienbar ist und das Ergebnis der Prüfung automatisch an diesem anzeigt wird.Furthermore, proceeding from a trainable system with a self-learning effect based on the DE 10 2014 012 184 B4 of the applicant, in the not pre-published DE 10 2017 012 007.2 the applicant describes a device and a method for acoustic testing of objects. The device is designed as a mobile device with a device housing which is outside of the device housing has an excitation device mounted on this and an acoustic sensor arranged adjacent thereto. Within the device housing, the output of the acoustic sensor is connected to either an analysis module or a training module by means of a manually operated mode switch arranged on the device housing. The output of the training module is connected to a model library which is arranged within the device housing and which is connected to the analysis module. A display module is connected to the analysis module, whereby the device can be hit against the object in the analysis mode or a sound can be induced and the result of the test can be automatically displayed on the display module of the device. In detail, the display module forwards the result of the test wirelessly to an evaluation device in the form of an app on a PC or smartphone. That in the not pre-published DE 10 2017 012 007.2 The method described by the applicant is based on a device which is designed as a mobile device with a device housing which, outside the device housing, has an excitation device mounted on it and which has an acoustic sensor arranged adjacent thereto. In a first method step, the excitation device excites an object to emit induced sound signals, which are then picked up by the acoustic sensor and converted into electrical, digital signals. In a second step, these signals are either fed to an analysis module arranged in the device or to a training module. In a third process step, one of the two modules is selected for the signals, which depends on the operating mode set on the device by means of an operating mode switch. In the "Training" operating mode, the signals are classified and added to a statistical model. The statistical model is further improved with each new sound and is stored in a model library after the training phase has ended. In a fourth method step, the acoustic signals are statistically compared with known models from the model library during the "Analysis" operating mode and from this, a result can be formed for every sound. Finally, in a fifth method step, the result is displayed to the user by a display module of the device. This is in the not pre-published DE 10 2017 012 007.2 the applicant described a universally applicable, flexibly adaptable, mobile and robust test device that can be operated by a layperson and that the result of the test is automatically displayed on the latter.

Schließlich ist aus einer wissenschaftlichen Veröffentlichung von KWON, Soonil; NARAYANAN, Shrikanth: Unsupervised Speaker indexing using generic models. In: IEEE transactions on speech and audio processing. Vol. 13, 2005, No. 5, S. 1004-1013.-ISSN 1063-6676 eine sequentielle Sprecherwechselerkennung bekannt, wobei die Sprechermodellierung im Licht der Tatsache, dass die Anzahl/Identität der Sprecher unbekannt ist, erfolgen soll. Um dieses Problem zu lösen, wird ein neues Verfahren, nämlich ein vorbestimmter generischer sprecherunabhängiger Modellsatz vorgeschlagen, der dort als Sample-Sprecher-Modelle (SSM) bezeichnet wird. Dieser Satz kann für eine genauere Sprechermodellierung und Clusterung nützlich sein, ohne Trainingsmodelle auf Zielsprecherdaten zu erfordern. Sobald ein sprecherunabhängiges Modell aus den generischen Mustermodellen ausgewählt wird, wird es progressiv in ein spezifisches sprecherabhängiges Modell angepasst. Hinsichtlich seiner Leistungsfähigkeit wurde dieses neue SSM-Verfahren (sample speaker model), insbesondere hinsichtlich der robusten Sprecherwechselerkennung als eine kritische Voraussetzung für ein Sprecherclustering, mit dem Stand der Technik, nämlich universal background model (UBM) und universal gender models (UGM), experimentell verglichen. Wie im Abschnitt III Sprecherwechselerkennung unter Verwendung von lokalisiertem Suchalgorithmus (LSA) erläutert ist, gibt es im Allgemeinen zwei Kategorien von Sprecherwechsel-Erkennungsverfahren: metrikbasierte und modellbasierte. Das metrikbasierte Verfahren verwendet den Maximalpunkt einer entsprechend definierten " Metrik " zwischen benachbarten Segmenten zur Signaldetektion. Das modellbasierte Verfahren beruht dagegen auf Modellen für Sprecher, Hintergrundrauschen, Sprache und Musik, die vorab abgespeichert (aufgebaut) sind. Der eingehende Audiostrom wird dann beispielsweise durch eine Maximum-Likelihood-Auswahl über ein Schiebeanalysefenster klassifiziert. Die modellbasierte Detektion erfordert sowohl Trainingsdaten als auch einige Informationen über die Testdaten, wie die Anzahl der Sprecher. Im Gegensatz zu den modellbasierten Verfahren können metrikbasierte Verfahren ohne solche Datenanforderungen ausgeführt werden. Erstere bietet jedoch Potential für progressive Anpassung und Regression. Die Grenzen des dort beschriebenen SSM-Verfahren (sample speaker model) liegen darin, dass zum einen nicht bekannt ist was der Benutzer als Nutzsignal oder als Störsignal betrachten wird und dass vor allem unterschiedliche Sprachen mit unterschiedlichen Sprechgeschwindigkeiten und Tonlagen in unterschiedlich halligen Räumen, fluktuierende Störgeräusche oder "Musik" (Instrumente und Gesang) Probleme (Erkennungsrate) bereitet.Finally, it is from a scientific publication by KWON, Soonil; NARAYANAN, Shrikanth: Unsupervised Speaker indexing using generic models. In: IEEE transactions on speech and audio processing. Vol. 13, 2005, No. 5, pp. 1004-1013.-ISSN 1063-6676 a sequential speaker change detection known, wherein the speaker modeling should be done in the light of the fact that the number / identity of the speakers is unknown. In order to solve this problem, a new method, namely a predetermined generic speaker-independent model set is proposed, which is referred to there as sample speaker models (SSM). This set can be useful for more accurate speaker modeling and clustering without requiring training models on target speaker data. As soon as a speaker-independent model is selected from the generic sample models, it is progressively adapted into a specific speaker-dependent model. With regard to its performance, this new SSM method (sample speaker model), in particular with regard to robust speaker change detection as a critical prerequisite for speaker clustering, was experimental with the state of the art, namely universal background model (UBM) and universal gender models (UGM) compared. As explained in Section III Speaker Change Detection Using Localized Search Algorithm (LSA), there are generally two categories of speaker change detection methods: metric-based and model-based. The metric-based method uses the maximum point of a correspondingly defined "metric" between neighboring ones Segments for signal detection. The model-based method, on the other hand, is based on models for speakers, background noise, speech and music that are stored (built) in advance. The incoming audio stream is then classified, for example, by a maximum likelihood selection using a sliding analysis window. The model-based detection requires both training data and some information about the test data, such as the number of speakers. In contrast to the model-based methods, metric-based methods can be carried out without such data requirements. However, the former offers potential for progressive adjustment and regression. The limits of the SSM (sample speaker model) method described there are that, on the one hand, it is not known what the user will consider a useful signal or an interference signal and, above all, different languages with different speaking speeds and pitches in differently echoing rooms, fluctuating background noises or "music" (instruments and vocals) causes problems (recognition rate).

Wie die vorstehende Würdigung des Standes der Technik aufzeigt, sind auf verschiedenen technischen Gebieten unterschiedlich ausgestaltete Verfahren und Vorrichtungen zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich bekannt. In der Regel werden die Signale zur Aufzeichnung und zum Vergleich mit einem in einer Bibliothek vorher eingespeicherten Referenzmuster einer zentralen Stelle zugeführt, was zu einem erheblichen Aufwand bei der Aufzeichnung und Klassifikation (feste modellbasierte Referenz-Klassifikation oder gelernte Referenz-Klassifikation aus den vorangegangenen Klassifikationen) führt. Deshalb fehlen in der Praxis kostengünstige Verfahren und Vorrichtungen in Hinblick auf das Einfließen aller signalbeeinflussenden Faktoren in das jeweilige Erkennungsmodell, insbesondere unter Berücksichtigung der aktuellen Situation und einfachen Konfiguration bzw. Adaption in einer Trainingsphase durch den Anwender/Benutzer.As the above appraisal of the prior art shows, methods and devices for the automatic detection and classification of acoustic signals in a monitored area are known in various technical fields. As a rule, the signals are fed to a central point for recording and for comparison with a reference pattern previously stored in a library, which leads to considerable effort in recording and classification (fixed model-based reference classification or learned reference classification from the previous classifications) leads. Therefore, in practice there is a lack of inexpensive methods and devices with regard to the flow of all signal-influencing factors into the respective recognition model, in particular taking into account the current situation and simple configuration or adaptation in a training phase by the user.

Der Erfindung liegt die Aufgabe zugrunde, ausgehend von bekannten Verfahren und Vorrichtungen zur automatischen Erkennung und Klassifizierung von hörbaren akustischen Signalen in einem Überwachungsbereich, die Anordnung und das Verfahren derart auszugestalten, dass bei der Konfiguration durch den Anwender diese von einem Laien bedienbar ist und alle signalbeeinflussenden Faktoren mit in das jeweilige Erkennungsmodell einfließen. Weiterhin soll dieses anpassbar und universell einsetzbar sein, wobei automatisch ein Alarm für einen zu sichernden Bereich ausgelöst wird.The invention is based on the object, based on known methods and devices for the automatic detection and classification of audible acoustic signals in a monitoring area, to design the arrangement and the method in such a way that, when configured by the user, they can be operated by a layperson and all signal-influencing Factors flow into the respective recognition model. Furthermore, this should be adaptable and universally applicable, with an alarm being triggered automatically for an area to be secured.

Diese Aufgabe wird ausgehend von einer Anordnung nach dem Oberbegriff des Patentanspruchs 1, dadurch gelöst, dass der akustische Sensor drahtlos oder drahtgebunden über eine Schnittstelle mit einer im Gerät angeordneten Signalvorverarbeitung und Musterextraktion verbunden ist, dass der Ausgang der Signalvorverarbeitung und Musterextraktion über einen Betriebsartenschalter mit dem Analysemodul oder dem Trainingsmodul verbunden ist, dass der Steuereingang des Betriebsartenschalters mit einer Steuerungseinheit verbunden ist, welche derart ausgestaltet ist, dass benutzergesteuert zwischen mehreren Betriebsarten umgeschaltet oder die Verarbeitung des vom akustischen Sensor erfassten Schalls gestoppt werden kann und dass ein im Gerät angeordnetes Modell oder Geräuschmodell mit dem Analysemodul oder dem Trainingsmodul und einem im Gerät angeordneten Optimierungsmodul zur Nachbesserung und zur Optimierung eines bestehenden Modells verbunden ist.This object is achieved on the basis of an arrangement according to the preamble of claim 1, in that the acoustic sensor is connected wirelessly or wired via an interface to a signal preprocessing and pattern extraction arranged in the device, that the output of the signal preprocessing and pattern extraction via an operating mode switch with the Analysis module or the training module is connected, that the control input of the operating mode switch is connected to a control unit which is designed in such a way that user-controlled switching between several operating modes or the processing of the sound detected by the acoustic sensor can be stopped and that a model or noise model arranged in the device is connected to the analysis module or the training module and an optimization module arranged in the device for improvement and optimization of an existing model.

Schließlich wird diese Aufgabe durch ein Verfahren nach dem Oberbegriff gemäß Patentanspruch 6 dadurch gelöst, wobei das Verfahren umfasst:

  • Zuführung vom akustischen Sensor - drahtlos oder drahtgebunden über eine Schnittstelle - des erfassten Schalls zu einer im Gerät angeordneten Signalvorverarbeitung und Musterextraktion,
  • Nutzung der vom Sensor in periodischer Abfolge gelieferten Musterdaten wahlweise zum Training eines im Gerät angeordneten Modells oder Geräuschmodells durch ein Trainingsmodul oder
  • Zuführung zur Analyse der Merkmale zu einem Analysemodul
  • Nutzung eines im Gerät angeordneten Optimierungsmoduls zur Nachbesserung und zur Optimierung eines bestehenden Modells und
  • benutzergesteuerte Umschaltung mittels eines Betriebsartenschalters und einer Steuerungseinheit zwischen den Betriebsarten "Analyse" und "Training" oder "Stopp" der Verarbeitung des vom akustischen Sensor erfassten Schalls.
Finally, this object is achieved by a method according to the preamble according to patent claim 6, wherein the method comprises:
  • Feed from the acoustic sensor - wireless or wired via an interface - of the recorded sound to a signal preprocessing and pattern extraction arranged in the device,
  • Use of the pattern data supplied by the sensor in periodic sequence either for training a model or noise model arranged in the device by a training module or
  • Feed for the analysis of the features to an analysis module
  • Use of an optimization module arranged in the device to improve and optimize an existing model and
  • User-controlled switching by means of an operating mode switch and a control unit between the "Analysis" and "Training" or "Stop" processing of the sound detected by the acoustic sensor.

Die erfindungsgemäße Anordnung und das Verfahren weisen den Vorteil auf, dass alle signalbeeinflussenden Faktoren mit in das jeweilige Modell einfließen und dem Benutzer auf überraschend einfache Art und Weise die Konfiguration, Anpassung und Optimierung ermöglicht wird.The arrangement according to the invention and the method have the advantage that all signal-influencing factors are incorporated into the respective model and the configuration, adaptation and optimization are made possible for the user in a surprisingly simple manner.

Weitere Vorteile und Einzelheiten lassen sich der nachfolgenden Beschreibung von bevorzugten Ausführungsformen der Erfindung unter Bezugnahme auf die Zeichnungen entnehmen. In der Zeichnung zeigt:

Fig. 1
ein Blockschaltbild des Aufbaus eines Geräts mit allen Komponenten gemäß der Erfindung,
Fig. 2
einen Screenshot in der Betriebsart "Lernen" und
Fig.3
einen Screenshot in der Betriebsart "Lauschen" des erfindungsgemäßen Geräts und
Fig. 4
ein abgesetztes Panel mit einem Bedienfeld, insbesondere mit drei Bedienelementen für Lernen, Lauschen und Stopp.
Further advantages and details can be found in the following description of preferred embodiments of the invention with reference to the drawings. In the drawing shows:
Fig. 1
a block diagram of the structure of a device with all components according to the invention,
Fig. 2
a screenshot in the "learning" mode and
Fig. 3
a screenshot in the "listening" mode of the device according to the invention and
Fig. 4
a remote panel with a control panel, in particular with three control elements for learning, listening and stopping.

Gegenstand der Erfindung ist ein System S zur akustischen Überwachung von Objekten und Umgebungen mit einem Gerät G, welches eine Schnittstelle zu einem Bedienfeld /Panel P oder einem Gerät G und davon abgesetzten Bediengerät P oder einem Panel mit drei Steuertasten 10 (siehe Fig. 4) aufweist. Das System kann einfach und automatisch eine komplexe, akustische Umgebung lernen, indem es in dieser Umgebung positioniert wird und dort für eine begrenzte Zeit (benutzergesteuert oder automatisch) alle auftretenden akustischen Ereignisse untersucht, klassifiziert und in einem Model festhält.The subject matter of the invention is a system S for acoustic monitoring of objects and surroundings with a device G, which has an interface to a control panel / panel P or a device G and an operating device that is separate therefrom P or a panel with three control buttons 10 (see Fig. 4 ) having. The system can easily and automatically learn a complex acoustic environment by being positioned in this environment and there for a limited time (user-controlled or automatic) examining, classifying and recording all acoustic events that occur in a model.

Wie nachfolgend beschrieben und erläutert wird, kann dieses Modell zur Überwachung der gleichen Umgebung genutzt werden. Dabei werden dann Unterschiede zu den gelernten Situationen identifiziert und diese als Ergebnis signalisiert.As described and explained below, this model can be used to monitor the same environment. Differences to the learned situations are then identified and these are signaled as a result.

Das akustische Überwachungssystem S besteht aus mehreren Komponenten. Diese Komponenten werden nachfolgend beschrieben. Mit einem akustischen Sensor 1 werden akustische Umgebungsgeräusche in elektrische Signale umgewandelt und drahtlos oder drahtgebunden über eine Schnittstelle einer im Gerät G angeordneten Signalvorverarbeitung und Musterextraktion 2 zugeführt. Dabei kann sich der Sensor 1 unmittelbar am Gerät G befinden oder aber auch abgesetzt davon angeordnet sein. Die vom Sensor 1 in periodischer Abfolge gelieferten Musterdaten können wahlweise zum Training eines im Gerät G angeordneten Modells/Geräuschmodells/Modellbibliothek 6 durch ein Trainingsmodul 4 genutzt werden oder zur Analyse der Merkmale durch ein Analysemodul 3 diesem zugeführt werden. Hierzu ist zwischen Signalvorverarbeitung und Musterextraktion 2 und Analysemodul 3 sowie Trainingsmodul 4 ein Betriebsartenschalter B angeordnet, welcher benutzergesteuert mittels einer Steuerungseinheit 7 zwischen diesen Betriebsarten umschaltet oder benutzergesteuert die Verarbeitung der vom akustischen Sensor 1 gelieferten Eingangsdaten komplett stoppt (siehe Fig. 4, Panel 10 mit drei Steuertasten: Analyse auch Lauschen genannt, Training auch Lernen genannt, Stop). Alternativ kann diese Funktion durch ein mit der Steuerungseinheit 7 verbundenes Zeitsteuerungsmodul 9 (siehe Fig. 1, Fig. 4) auch automatisch, nach vorher festgelegten Zeitplänen, realisiert werden.The acoustic monitoring system S consists of several components. These components are described below. With an acoustic sensor 1, acoustic ambient noises are converted into electrical signals and fed wirelessly or by wire via an interface to a signal preprocessing and pattern extraction 2 arranged in the device G. The sensor 1 can be located directly on the device G or it can also be arranged remotely therefrom. The pattern data supplied by the sensor 1 in a periodic sequence can optionally be used for training a model / noise model / model library 6 arranged in the device G by a training module 4 or supplied by an analysis module 3 to analyze the features. For this purpose, an operating mode switch B is arranged between signal preprocessing and pattern extraction 2 and analysis module 3 and training module 4, which switches between these operating modes under user control by means of a control unit 7 or completely stops the processing of the input data supplied by acoustic sensor 1 under user control (see Fig. 4 , Panel 10 with three control buttons: analysis also called listening, training also called learning, stop). Alternatively, this function can be performed by a time control module 9 connected to the control unit 7 (see FIG Fig. 1 , Fig. 4 ) also automatically, after beforehand established schedules.

Die Basis des Analyseprozesses bildet das Geräuschmodell 6. Dieses beinhaltet alle durch das Trainingsmodul 4 aufbereiteten und ihm zugeführten Geräuschmuster. In der einfachsten Form der Markov-Modelle können sogenannten Markov-Ketten-Modelle zur statistischen Beschreibung von Symbol- oder Zustandsfolgen verwendet werden. Das jeweilige Markov-Ketten-Modelle gibt dann an, wie wahrscheinlich das Auftreten eines Geräusches in einem bestimmten Umfeld/in einer bestimmten Umgebung ist. Dabei wird davon ausgegangen, dass bei einem periodisch auftretenden Geräusch Pausen auftreten und anhand dieser Pausen eine Segmentierung und die anschließende Klassifikation erfolgen kann. Weiterhin können im Rahmen der Erfindung sogenannte Hidden-Markov-Modellen benutzt werden, wodurch das Konzept einer statistisch modellierten Zustandsfolge um zustandsspezifische Ausgaben des Modells erweitert wird. Man geht davon aus, dass nur diese sogenannten Emissionen beobachtbar sind, die zugrundeliegende Zustandsfolge jedoch versteckt (engl. hidden) ist. Im Wesentlichen lässt sich ein Hidden-Markov-Modell als statistisch angereicherter, generierender endlicher Automat ansehen. Sowohl die Übergänge zwischen Zuständen als auch die Erzeugung von Ausgaben erfolgt in Abhängigkeit von bestimmten Wahrscheinlichkeitsverteilungen. Man nimmt dabei zuerst an, dass die zu untersuchenden Daten von einem natürlichen Prozess erzeugt wurden, der vergleichbaren statistischen Gesetzmäßigkeiten gehorcht. Dann versucht man diesen mit den Möglichkeiten von Hidden-Markov-Modellen möglichst genau nachzubilden und diejenige Zustandsfolge zu bestimmen, die am wahrscheinlichsten eine bestimmte Folge von Emissionen erzeugt. Ordnet man ganzen Modellen die Bedeutung zu, Klassen von Mustern zu repräsentieren, so lässt sich der Formalismus zur Klassifikation einsetzen. Durch die Aufdeckung der Zustandsfolge ist dann eine Segmentierung der Daten mit gleichzeitiger Klassifikation möglich. In der praktischen Anwendung der Markov-Modell-Technologie für Mustererkennungsaufgaben kann die Wahl des Startpunkts die Leistungsfähigkeit des fertigen Markov-Modells entscheidend beeinflussen. Hierzu zählen vor allem die erfolgreiche Konfiguration der Modelle, die Behandlung effizienter Algorithmen, Methoden zur Anpassung der Modellparameter an veränderte Einsatzgebiete sowie die Kombination von Markov-Ketten- und Hidden-Markov-Modellen in integrierten Suchprozessen. Dabei werden Methoden zur Vektorquantisierung und Schätzung von Mischverteilungsmodellen zur Modellierung hochdimensionaler Daten eingesetzt. Bei einem endlichen Zustandsraum lassen sich Markov-Ketten mittels der Übergangsmatrix und von Wahrscheinlichkeitsvektoren beschreiben. Wählt man einen stochastischen Startvektor vo (als Zeilenvektor) als Startverteilung so ergibt sich die Verteilung zum Zeitpunkt t1 durch v1=vo·M. The basis of the analysis process is formed by the noise model 6. This contains all of the noise patterns processed by the training module 4 and supplied to it. In the simplest form of the Markov models, so-called Markov chain models can be used for the statistical description of sequences of symbols or states. The respective Markov chain model then indicates how likely it is that a noise will occur in a specific environment / in a specific environment. It is assumed here that pauses occur in the case of a periodically occurring noise and that segmentation and the subsequent classification can take place on the basis of these pauses. Furthermore, so-called hidden Markov models can be used within the scope of the invention, whereby the concept of a statistically modeled sequence of states is expanded to include state-specific outputs of the model. It is assumed that only these so-called emissions can be observed, but that the underlying sequence of states is hidden. Essentially, a hidden Markov model can be viewed as a statistically enriched, generating finite automaton. Both the transitions between states and the generation of outputs are dependent on certain probability distributions. It is initially assumed that the data to be examined was generated by a natural process that obeys comparable statistical principles. Then one tries to simulate this as exactly as possible with the possibilities of hidden Markov models and to determine the sequence of states that is most likely to generate a certain sequence of emissions. If whole models are assigned the meaning of representing classes of patterns, then the formalism can be used for classification. By revealing the sequence of states, it is then possible to segment the data with simultaneous classification. In the practical application of Markov model technology for pattern recognition tasks, the choice of the starting point can reduce the Influence the performance of the finished Markov model decisively. This includes, above all, the successful configuration of the models, the handling of efficient algorithms, methods for adapting the model parameters to changed areas of application, and the combination of Markov chain and hidden Markov models in integrated search processes. Methods for vector quantization and estimation of mixed distribution models are used to model high-dimensional data. For a finite state space, Markov chains can be described using the transition matrix and probability vectors. If you select a stochastic start vector vo (as row vector) as the initial distribution as the distribution results at time t1 by v1 = vo · M.

Die Möglichkeit, auch große Markov-Ketten zu simulieren, macht man sich beim MCMC-Verfahren (Markov-Chain-Monte-Carlo-Verfahren) zunutze, um Verteilungen zu simulieren, die nicht durch klassische Verfahren simuliert werden können. Dabei wird eine Klasse von Algorithmen benutzt, die Stichproben aus Wahrscheinlichkeitsverteilungen ziehen. Dies geschieht auf der Basis der Konstruktion einer Markov-Kette, welche die erwünschte Verteilung als ihre stationäre Verteilung aufweist. Der Zustand der Kette nach einer großen Zahl von Schritten wird dann als Stichprobe der erwünschten Verteilung benutzt. Die Qualität der Stichprobe steigt mit zunehmender Zahl der Schritte. MCMC-Verfahren erzeugen Systeme im kanonischen Zustand. Eine hinreichende, aber nicht notwendige, Bedingung, dass ein MCMC-Verfahren den kanonischen Zustand als stationäre Verteilung aufweist, ist die Detailed-Balance-Eigenschaft (detailliertes Gleichgewicht bezeichnet eine Eigenschaft von homogenen Markov-Ketten, nämlich einem speziellen stochastischen Prozess. Anschaulich ist ein Prozess im detaillierten Gleichgewicht, wenn nicht erkennbar ist, ob er sich zeitlich vorwärts oder rückwärts bewegt).The MCMC method (Markov Chain Monte Carlo method) makes use of the possibility of simulating large Markov chains as well, in order to simulate distributions that cannot be simulated using conventional methods. A class of algorithms is used that draw samples from probability distributions. This is done on the basis of the construction of a Markov chain which has the desired distribution as its stationary distribution. The state of the chain after a large number of steps is then used as a sample of the desired distribution. The quality of the sample increases with the number of steps. MCMC methods generate systems in the canonical state. A sufficient, but not necessary, condition for an MCMC method to have the canonical state as a stationary distribution is the detailed balance property (detailed balance denotes a property of homogeneous Markov chains, namely a special stochastic process Process in detailed equilibrium, if it is not clear whether it is moving forward or backward in time).

Vorzugsweise erfolgt die Modellierung mittels eines deterministischen Verfahrens was den Vorteil aufweist, dass nicht (wie bei Markov-Ketten) jedes Mal von der Startposition zu beginnen ist und dass auch keine Segmentierung erfolgen muss. Bei dieser erfindungsgemäßen Art der Modellierung steht die Annahme im Vordergrund, dass bei Geräuschen, anders als bei Sprache, die genaue zeitliche Struktur des Signals vernachlässigt werden kann. Es ist völlig ausreichend, bei jedem Bearbeitungsschritt t die Verteilung der Merkmale auf Cluster C(t) ohne die Übergänge auf andere Cluster im nächsten Zeitschritt t+T1 zu realisieren. Betrachtet man dann die Trefferquote über einen längeren Zeitraum, zum Beispiel T3, kann ein Geräuschmuster durch die Häufigkeit der Menge der aufgetretenen Cluster C mit hoher Wahrscheinlichkeit zugeordnet werden. Zusätzlich kann bei Bedarf die zeitliche Abfolge der Cluster C(t) als weiterer Parameter berücksichtigt werden. Durch das Optimierungsmodul 5 ist es möglich, ein bestehendes Modell M im hochkomplexen Lösungsraum nachzubessern und zu optimieren. Um die Toleranz des Modells M zu erhöhen, wird auch bei diesem Verfahren mit Clustern gearbeitet, deren Ausdehnung im Merkmalsraum die Toleranz bzw. Sensibilität bestimmt. Dabei kann man pro Cluster berücksichtigen wie viele Merkmale zu bestimmen sind und insbesondere, wenn das Merkmal außerhalb des vorgegebenen Zeitraums liegt, diese Geräusche bei der Modellbildung zu löschen oder nicht zu berücksichtigen.The modeling is preferably carried out using a deterministic method which has the advantage that (as with Markov chains) one does not have to start from the starting position every time and that segmentation does not have to take place either. In this type of modeling according to the invention, the focus is on the assumption that in the case of noise, unlike in the case of speech, the precise temporal structure of the signal can be neglected. It is completely sufficient to distribute the features to cluster C (t) in each processing step t without the transitions to other clusters in the next time step t + T1. If the hit rate is then considered over a longer period of time, for example T3, a noise pattern can be assigned with a high degree of probability by the frequency of the number of clusters C that have occurred. In addition, the chronological sequence of the clusters C (t) can be taken into account as a further parameter, if required. The optimization module 5 makes it possible to improve and optimize an existing model M in the highly complex solution space. In order to increase the tolerance of the model M , this method also works with clusters, the extent of which in the feature space determines the tolerance or sensitivity. In doing so, it is possible to take into account for each cluster how many features are to be determined and, in particular, if the feature is outside the specified time period, these noises can be deleted or not taken into account in the modeling.

Nachfolgend wird die Funktion des Systems S anhand des Ausführungsbeispiels gemäß der Abbildung Fig. 1 beschrieben und erläutert. Die Funktionen des Systems S sind unterteilt in zwei Hauptfunktionen, nämlich:

  • 1.) Lernen/Training einer akustischen Umgebung.
  • 2) Überwachen/Lauschen der gelernten Umgebung.
The function of the system S is described below using the exemplary embodiment according to the figure Fig. 1 described and explained. The functions of the system S are divided into two main functions, namely:
  • 1.) Learning / training an acoustic environment.
  • 2) Monitoring / listening to the learned environment.

Die gesamte akustische Umgebung besteht in der Regel aus einer großen Menge unterschiedlicher komplexer Geräusche. Im ersten Schritt werden diese in kleine (gleichlange oder kürzere und längere) Zeitabschnitte T1 aufgeteilt. Für jedes dieser Zeitfenster T1 wird ein Merkmal P(t) erzeugt, welches die zu diesem Zeitpunkt bestehende akustische Situation in einen Merkmalsraum R abbildet und einem Cluster Ci zuordnet. In einem zweiten Schritt wird der N-dimensionale Merkmalsraum R wird in eine endliche Anzahl von Cluster Ci unterteilt. Jedes dieser Cluster repräsentiert einen speziellen Teil eines Geräuschmusters. Cluster werden während der Lernphase des Systems automatisch erzeugt und angepasst. Die Menge aller zu einer speziellen akustischen Umgebung gehörenden Cluster Ci {0<i<Z} werden als Datensätze in einem Model M verwaltet. Zusätzlich werden in einem dritten Schritt zu den Clusterdaten im Model M dort der Zeitpunkt der Erzeugung und die Anzahl der zugeordneten Merkmale festgehalten.The entire acoustic environment usually consists of a large number of different complex noises. In the first step, these are divided into small (equal or shorter and longer) time segments T1. For each of these time windows T1, a feature P (t) is generated which corresponds to this Time existing acoustic situation is mapped in a feature space R and assigned to a cluster Ci. In a second step, the N-dimensional feature space R is divided into a finite number of clusters Ci. Each of these clusters represents a specific part of a noise pattern. Clusters are automatically generated and adjusted during the system's learning phase. The set of all clusters Ci {0 <i <Z} belonging to a special acoustic environment are managed as data records in a model M. In addition, in a third step for the cluster data in Model M , the time of generation and the number of assigned features are recorded.

Eine Lernphase/Training kann entweder mit einem bereits vorhandenen Model M iterativ durchgeführt oder mit einem leeren Modell neu gestartet werden. Wie bereits beschrieben, werden dabei die in einem periodischen Strom der im Zeitfenster T1 empfangenen Merkmale P(t) ihren entsprechenden Cluster Ci zugeordnet und das Modell M dementsprechend erweitert bzw. angepasst. Der Erfolg des Lernens (Betriebsart "Training") kann zu einem Zeitpunkt T ermittelt werden, in dem gemessen wird, wieviele neue Cluster in einem Zeitintervall T3 erzeugt wurden. Sinkt diese Rate unterhalb eine (vom Benutzer vorgebbare) Schwelle, kann davon ausgegangen werden, dass die Umgebung hinreichend genau gelernt wurde und eine relativ statische Geräuschumgebung vorliegt.A learning phase / training can be carried out either iteratively with an existing Model M or start with an empty model new. As already described, the features P (t) received in a periodic stream of the time window T1 are assigned to their corresponding cluster Ci and the model M is expanded or adapted accordingly. The success of the learning (“training” operating mode) can be determined at a point in time T, in which it is measured how many new clusters were generated in a time interval T3. If this rate falls below a threshold (which can be specified by the user), it can be assumed that the environment has been learned with sufficient accuracy and that there is a relatively static noise environment.

Fig. 2 zeigt einen Screenshot in der Betriebsart "Lernen" (Training) mit einer typischen sogenannten Lernkurve L. Es ist zu sehen, dass im Verlauf der Zeit t (siehe X-Achse) die Anzahl der neu gebildeten Cluster, hier als Ereignisse (siehe Y-Achse) je Zeiteinheit T3 zu sehen, abnimmt. Dies ist ein typisches Verhalten für eine relativ statische Geräuschumgebung, wie experimentelle Untersuchungen aufgezeigt haben. Das Bezugszeichen T kennzeichnet den aktuellen Zeitpunkt des Screen-shots. Fig. 2 shows a screenshot in the operating mode "learning" (training) with a typical so-called learning curve L. It can be seen that over the course of time t (see X-axis) the number of newly formed clusters, here as events (see Y- Axis) per time unit T3 is decreasing. This is typical behavior for a relatively static noise environment, as experimental studies have shown. The reference symbol T identifies the current point in time of the screen shot.

Bei der Optimierung im Optimierungsmodul 5 handelt es sich im Wesentlichen um das Entfernen von Cluster, welche keine große Relevanz für die gesamte Modellierung des akustischen Umfeldes haben. Erfindungsgemäß können Cluster dann entfernt werden, wenn ihnen nur wenige Merkmale zugeordnet wurden oder diese zu Zeiten erzeugt wurden, die später bei der Überwachung keine Berücksichtigung finden sollen.The optimization in the optimization module 5 is essentially the removal of clusters that are not very relevant for the overall modeling of the acoustic environment. According to the invention, clusters can be removed if only a few features have been assigned to them or if these have been generated at times that are not to be taken into account later in the monitoring.

Insbesondere kann eine weitere Form der Optimierung eines Modells M während der Analysephase durchgeführt werden, indem Merkmale P(t), die sich im Randbereich eines Cluster Ci befinden, eine Aktualisierung bzw. Korrektur des betroffenen Clusters anstoßen. Damit können langsame Veränderungen der akustischen Umgebung adaptiert werden.In particular, a further form of optimization of a model M can be carried out during the analysis phase in that features P (t) which are located in the edge region of a cluster Ci initiate an update or correction of the cluster concerned. This allows slow changes in the acoustic environment to be adapted.

Auch in der Betriebsart "Lauschen" (Überwachen) werden im Zeitraster T1 Merkmale verarbeitet. Anders als bei der Betriebsart "Training" (Analyse), führen diese jedoch nicht dazu, dass das Modell M verändert wird, sondern es wird lediglich bei jedem Schritt geprüft, ob sich das Merkmal in einem im Modell M vorhandenem Cluster Ci befindet. Ist dies nicht der Fall, handelt es sich um einen Teil eines akustischen Ereignisses, welches nicht trainiert wurde und es wird ein (in der Zeichnung nicht dargestellter und im Gerät G angeordneter) interner Ereigniszähler inkrementiert. Überschreitet der Zählerstand dieses Zählers in einem Zeitintervall T2 einen Schwellwert, so wird ein entsprechendes Signal an einem Anzeigemodul 8 präsentiert und der Zähler zurückgesetzt.Characteristics are also processed in the time pattern T1 in the "listening" mode. In contrast to the "training" (analysis) operating mode, however, this does not result in the model M being changed, but rather a check is only made at each step to determine whether the feature is located in a cluster Ci present in the model M. If this is not the case, it is a part of an acoustic event that has not been trained and an internal event counter (not shown in the drawing and located in device G) is incremented. If the counter reading of this counter exceeds a threshold value in a time interval T2, a corresponding signal is presented on a display module 8 and the counter is reset.

Fig. 3 zeigt einen Screenshot in der Betriebsart "Lauschen". Eine sogenannte Lauschkurve LA stellt den zeitlichen Verlauf mit dem Auftreten eines Signalisierungs-Ereignisses dar, was dadurch charakterisiert ist, dass es im Zeitverlauf eine sogenannte Signalisierungsschwelle SIS übersteigt. Auch hier werden die Ereignisse in dem Zeitintervall T3 betrachtet. Die Dimensionierung des Zeitintervall T3 erfolgt derart, dass 30 bis 70 Ereignisse pro Zeitfenster, vorzugsweise 50 Ereignisse pro Zeitfenster erfasst werden. Das Zeitraster T2 und das Zeitraster T3 zur Erfassung der Ereignisse können gleichlang gewählt werden und sind wesentlich länger (vorzugsweise um den Faktor 50) als das Zeitintervall T1. Das Bezugszeichen T kennzeichnet den aktuellen Zeitpunkt des Screen-shots. Fig. 3 shows a screenshot in the "Listen" mode. A so-called eavesdropping curve LA represents the course over time with the occurrence of a signaling event, which is characterized by the fact that it exceeds a so-called signaling threshold SIS over time. The events in the time interval T3 are also considered here. The dimensioning of the time interval T3 takes place in such a way that 30 to 70 events per time window, preferably 50 events per time window, are recorded. The time grid T2 and the time grid T3 for recording the events can be selected to be the same length and are significantly longer (preferably by a factor of 50) than the time interval T1. The reference symbol T identifies the current point in time of the screen shot.

Zur Bedienung und zur Interaktion mit dem Benutzer kann insbesondere ein abgesetztes Panel 10 (Smartphone- oder PC-App) mit einem Bedienfeld P realisiert werden. Die Fig. 4 zeigt einen möglichen Aufbau des Bedienfelds P, insbesondere mit drei Bedienelementen/Steuertasten für Lernen, Lauschen und Stopp. Vorzugsweise ist auch ein am Gerät G angeordnetes Bedienfeld P mit der Steuerungseinheit 7 verbunden. Ein Übertragungskanal 11 überträgt die Eingabeaktionen des Benutzers zur Steuerungseinheit 7 des Überwachungssystems S (Fig. 1 Gerät G, Fig. 4 Gerät G und Panel 10). Der Übertragungskanal 11 kann durch verschiedene Implementationen realisiert werden (direkt oder abgesetzt durch z.B.: WLAN, LAN, Bluetooth). Dieses erfindungsgemäße System S ermöglicht es dem Anwender/Benutzer auf überraschend einfache Art und Weise das Einfließen aller signalbeeinflussenden Faktoren in das jeweilige Erkennungsmodell, insbesondere unter Berücksichtigung der aktuellen Situation und einfachen Konfiguration bzw. Adaption in einer Trainingsphase durch den Anwender/Benutzer und ist von einem Laien bedienbar.In particular, a remote panel 10 (smartphone or PC app) with a control panel P can be implemented for operation and interaction with the user. The Fig. 4 shows a possible structure of the control panel P, in particular with three control elements / control buttons for learning, listening and stop. A control panel P arranged on the device G is preferably also connected to the control unit 7. A transmission channel 11 transmits the input actions of the user to the control unit 7 of the monitoring system S ( Fig. 1 Device G, Fig. 4 Device G and panel 10). The transmission channel 11 can be realized by various implementations (direct or remote by, for example: WLAN, LAN, Bluetooth). This system S according to the invention enables the user / user in a surprisingly simple manner to incorporate all signal-influencing factors into the respective detection model, in particular taking into account the current situation and simple configuration or adaptation in a training phase by the user / user and is from a Can be operated by laypeople.

Für die akustische Überwachung mit dem hier beschriebenen erfindungsgemäßen System S, gibt es dadurch viele verschiedene Anwendungsgebiete ohne dass vorher der jeweilige Anwendungsfall vorprogrammiert werden muss. Allgemein kann festgestellt werden, dass alle Überwachungsaufgaben, welche auf Schallereignisse basieren, damit realisiert werden können. Voraussetzung ist aber, dass die Dynamik der Umgebung nicht zu groß ist. Dies bedeutet, dass sich die Vielfalt möglicher akustischer Ereignisse und Signale in einer endlichen Zeit erfassen und damit lernen lassen. Insbesondere ist erfindungsgemäß ein Anzeigemodul 8 vorgesehen, welches mit dem Analysemodul 3 verbunden und außen am Gerät G sichtbar ist (Fig. 1) oder mit diesem in Verbindung steht (Fig. 4 abgesetztes Panel 10 und Bedienfeld P/Bediengerät P) und welches ein akustisches Ereignis, das nicht trainiert wurde, anzeigt.As a result, there are many different areas of application for acoustic monitoring with the system S according to the invention described here, without the particular application having to be preprogrammed beforehand. In general, it can be stated that all monitoring tasks which are based on sound events can be implemented with it. However, the prerequisite is that the dynamics of the environment are not too great. This means that the variety of possible acoustic events and signals can be recorded in a finite time and thus learned. In particular, a display module 8 is provided according to the invention, which is connected to the analysis module 3 and is visible on the outside of the device G ( Fig. 1 ) or is connected to it ( Fig. 4 remote panel 10 and control panel P / control unit P) and which shows an acoustic event that has not been trained.

Ein typisches Anwendungsgebiet ist die Überwachung von speziellen Räumen. Zum Beispiel:

  • Serverräume (Rechenzentren)
  • Supermärkte (Baumärkte) außerhalb der Öffnungszeiten
  • Produktions- bzw. Werkstätten außerhalb der Arbeitszeit
  • Wohnungen bei Abwesenheit der Bewohner
A typical area of application is the surveillance of special rooms. For example:
  • Server rooms (data centers)
  • Supermarkets (hardware stores) outside of the opening times
  • Production or workshops outside of working hours
  • Apartments when the residents are absent

Die zu überwachenden Umgebungen können durchaus mit kontinuierlichen Hintergrundgeräuschen belastet sein. Diese werden beim Lernprozess berücksichtigt und ins jeweilige Modell aufgenommen. Änderungen an diesen Geräuschkulissen z.B. durch Ausfall einer der dazu beitragenden Komponente, führen zur Signalisierung dieses Ereignisses zum Beispiel als Fehlerzustand.The environments to be monitored can certainly be burdened with continuous background noise. These are taken into account in the learning process and included in the respective model. Changes to these background noise e.g. failure of one of the contributing components leads to this event being signaled, for example, as an error state.

Weiterhin können mit dem erfindungsgemäßen System S auch Anlagen oder Teile der Anlagen fernüberwacht/überwacht werden. Zum Beispiel:

  • Maschinen (z.B. Windkraftanlagen, Produktion, Roboter)
  • Antriebe (z.B. Aufzüge)
Furthermore, systems or parts of the systems can also be remotely monitored / monitored with the system S according to the invention. For example:
  • Machines (e.g. wind turbines, production, robots)
  • Drives (e.g. elevators)

Die Erfindung ist nicht auf die dargestellten und beschriebenen Ausführungsbeispiele beschränkt, sondern umfasst auch alle im Sinne der Erfindung gleichwirkenden Ausführungen. Ferner ist die Erfindung bislang auch noch nicht auf die in den Patentansprüchen 1 und 6 definierten Merkmalskombinationen beschränkt, sondern kann auch durch jede beliebige andere Kombination von bestimmten Merkmalen aller insgesamt offenbarten Einzelmerkmale definiert sein. Dies bedeutet, dass grundsätzlich praktisch jedes Einzelmerkmal der Patentansprüche 1 und 6 weggelassen bzw. durch mindestens ein an anderer Stelle der Anmeldung offenbartes Einzelmerkmal ersetzt werden kann.The invention is not limited to the illustrated and described exemplary embodiments, but rather also includes all embodiments that have the same effect within the meaning of the invention. Furthermore, the invention has not yet been restricted to the combinations of features defined in claims 1 and 6, but can also be defined by any other combination of specific features of all of the individual features disclosed. This means that in principle practically every individual feature of claims 1 and 6 can be omitted or replaced by at least one individual feature disclosed elsewhere in the application.

Bezugszeichenliste:List of reference symbols:

(1)(1)
Akustischer SensorAcoustic sensor
(2)(2)
Signalvorverarbeitung und MusterextraktionSignal preprocessing and pattern extraction
(3)(3)
AnalysemodulAnalysis module
(4)(4)
TrainingsmodulTraining module
(5)(5)
OptimierungsmodulOptimization module
(6)(6)
Modell / ModellbibliothekModel / model library
(7)(7)
SteuerungseinheitControl unit
(8)(8th)
AnzeigemodulDisplay module
(9)(9)
ZeitsteuerungTime control
(10)(10)
Panel mit den drei SteuertastenPanel with the three control buttons
(11)(11)
Übertragungskanal zum Gerät/SystemTransmission channel to the device / system
BB.
BetriebsartenschalterMode switch
GG
Gerätdevice
LL.
Lernkurve (Ereignisse/Zeitfenster)Learning curve (events / time windows)
LALA
Lauschkurve (Ereignisse/Zeitfenster)Eavesdropping curve (events / time window)
PP
Bedienfeld (Panel)/BediengerätControl panel / operator panel
SS.
System (Gerät G, Bediengerät P)System (device G, control device P)
SISSIS
SignalisierungsschwelleSignaling threshold
TT
Aktueller Zeitpunkt (Cursor)Current time (cursor)
XX
X-Achse (Zeit)X-axis (time)
YY
Y-Achse (Anzahl der Ereignisse)Y-axis (number of events)

Claims (15)

Anordnung zur akustischen Überwachung von Umgebungen mit einem akustischen Sensor (1) zur Erfassung des Schalls und mit einer in einem Gerät (G) angeordneten und mit dem akustischen Sensor (1) in Verbindung stehenden Analyseeinrichtung (3) zur Analyse des Schalls vom Körperschall bis in den Ultraschallbereich hinein sowie einem Trainingsmodul (4), dadurch gekennzeichnet, dass der akustische Sensor (1) drahtlos oder drahtgebunden über eine Schnittstelle mit einer im Gerät (G) angeordneten Signalvorverarbeitung und Musterextraktion (2) verbunden ist, dass der Ausgang der Signalvorverarbeitung und Musterextraktion (2) über einen Betriebsartenschalter (B) mit dem Analysemodul (3) oder dem Trainingsmodul (4) verbunden ist, dass der Steuereingang des Betriebsartenschalters (B) mit einer Steuerungseinheit (7) verbunden ist, welche derart ausgestaltet ist, dass benutzergesteuert zwischen mehreren Betriebsarten umgeschaltet oder die Verarbeitung des vom akustischen Sensor (1) erfassten Schalls gestoppt werden kann und dass ein im Gerät (G) angeordnetes Modell oder Geräuschmodell (6) mit dem Analysemodul (3) oder dem Trainingsmodul (4) und einem im Gerät (G) angeordneten Optimierungsmodul (5) zur Nachbesserung und zur Optimierung eines bestehenden Modells (6) verbunden ist.Arrangement for acoustic monitoring of surroundings with an acoustic sensor (1) for detecting the sound and with an analysis device (3) arranged in a device (G) and connected to the acoustic sensor (1) for analyzing the sound from structure-borne sound to in the ultrasound area and a training module (4), characterized in that the acoustic sensor (1) is connected wirelessly or wired via an interface to a signal preprocessing and pattern extraction (2) arranged in the device (G), that the output of the signal preprocessing and pattern extraction (2) is connected to the analysis module (3) or the training module (4) via a mode switch (B), so that the control input of the mode switch (B) is connected to a control unit (7) which is designed in such a way that user-controlled between several Operating modes switched or the processing of the sound detected by the acoustic sensor (1) can be stopped and that a model or noise model (6) arranged in the device (G) with the analysis module (3) or the training module (4) and an optimization module (5) arranged in the device (G) for reworking and optimizing an existing model (6) is connected. Anordnung nach Anspruch 1, wobei mit der Steuerungseinheit (7) ein Zeitsteuerungsmodul (9) verbunden ist, wodurch automatisch, nach vorher festgelegten Zeitplänen, eine Umschaltung zwischen drei Betriebsarten "Analyse", "Training" und "Stopp" erfolgen kann.Arrangement according to claim 1, wherein a time control module (9) is connected to the control unit (7), whereby a switchover between three operating modes "analysis", "training" and "stop" can take place automatically according to predetermined time schedules. Anordnung nach einem oder mehreren der Ansprüche 1 bis 2, wobei mit dem Analysemodul (3) ein Anzeigemodul (8) verbunden ist, welches ein akustisches Ereignis, das nicht trainiert wurde, anzeigen kann.Arrangement according to one or more of Claims 1 to 2, a display module (8) being connected to the analysis module (3) which can display an acoustic event that has not been trained. Anordnung nach einem oder mehreren der Ansprüche 1 bis 3, wobei ein abgesetztes Panel (10) mit einem Bedienfeld (P) drahtlos oder drahtgebunden (11) oder ein am Gerät (G) angeordnetes Bedienfeld (P) mit der Steuerungseinheit (7) verbunden ist.Arrangement according to one or more of Claims 1 to 3, wherein a remote panel (10) is connected to a control panel (P) wirelessly or wired (11) or a control panel (P) arranged on the device (G) is connected to the control unit (7) . Anordnung nach Anspruch 4, wobei das Bedienfeld (P) drei Steuertasten aufweist.Arrangement according to Claim 4, the control panel (P) having three control buttons. Verfahren zur akustischen Überwachung von Umgebungen mit einem akustischen Sensor (1) zur Erfassung des Schalls und mit einer in einem Gerät (G) angeordneten und mit dem akustischen Sensor (1) in Verbindung stehenden Analyseeinrichtung (3) zur Analyse des Schalls vom Körperschall bis in den Ultraschallbereich hinein sowie einem Trainingsmodul (4), wobei das Verfahren umfasst: - Zuführung vom akustischen Sensor (1) - drahtlos oder drahtgebunden über eine Schnittstelle - des erfassten Schalls zu einer im Gerät (G) angeordneten Signalvorverarbeitung und Musterextraktion (2), - Nutzung der vom Sensor (1) in periodischer Abfolge gelieferten Musterdaten wahlweise zum Training eines im Gerät (G) angeordneten Modells oder Geräuschmodells (6) durch ein Trainingsmodul (4) oder - Zuführung zur Analyse der Merkmale zu einem Analysemodul (3), - Nutzung eines im Gerät (G) angeordneten Optimierungsmoduls (5) zur Nachbesserung und zur Optimierung eines bestehenden Modells (6) und - benutzergesteuerte Umschaltung mittels eines Betriebsartenschalters (B) und einer Steuerungseinheit (7) zwischen den Betriebsarten "Analyse" und "Training" oder "Stopp" der Verarbeitung des vom akustischen Sensor (1) erfassten Schalls. Method for the acoustic monitoring of surroundings with an acoustic sensor (1) for detecting the sound and with an analysis device (3) arranged in a device (G) and connected to the acoustic sensor (1) for analyzing the sound from structure-borne sound to in the ultrasound area and a training module (4), the method comprising: - Feed from the acoustic sensor (1) - wireless or wired via an interface - of the recorded sound to a signal preprocessing and pattern extraction (2) arranged in the device (G), - Use of the sample data supplied by the sensor (1) in periodic succession, optionally for training a model or noise model (6) arranged in the device (G) by a training module (4) or - Feed for the analysis of the features to an analysis module (3), - Use of an optimization module (5) arranged in the device (G) for reworking and optimizing an existing model (6) and - User-controlled switching by means of an operating mode switch (B) and a control unit (7) between the operating modes "Analysis" and "Training" or "Stop" the processing of the sound detected by the acoustic sensor (1). Verfahren nach Anspruch 6, wobei diese Betriebsarten "Analyse", "Training" und "Stopp" durch ein mit der Steuerungseinheit (7) verbundenes Zeitsteuerungsmodul (9) auch automatisch, nach vorher festgelegten Zeitplänen, erfolgen kann.Method according to Claim 6, in which these "analysis", "training" and "stop" operating modes are provided by a control unit (7) connected to it Time control module (9) can also take place automatically, according to predetermined schedules. Verfahren nach einem oder mehreren der Ansprüche 6 bis 7, wobei ein akustisches Ereignis, das nicht trainiert wurde, mit einem Anzeigemodul (8) angezeigt wird.Method according to one or more of claims 6 to 7, wherein an acoustic event that has not been trained is displayed with a display module (8). Verfahren nach einem oder mehreren der Ansprüche 6 bis 8, wobei im ersten Schritt der Betriebsart "Training" mit einem bereits vorhandenen Model M iterativ oder mit einem leeren Modell neu gestartet die gesamte akustische Umgebung, bestehend in der Regel aus einer großen Menge unterschiedlicher komplexer Geräusche, diese in kleine Zeitabschnitte T1 aufgeteilt und für jedes dieser Zeitfenster T1 ein Merkmal P(t) erzeugt wird, welches die zu diesem Zeitpunkt bestehende akustische Situation in einen Merkmalsraum R abbildet und einem Cluster Ci zuordnet, dass im zweiten Schritt der N-dimensionale Merkmalsraum R in eine endliche Anzahl von Cluster Ci unterteilt wird und jedes dieser Cluster einen speziellen Teil eines Geräuschmusters repräsentiert, wobei Cluster während der Lernphase des Systems (S) automatisch erzeugt und angepasst werden, indem die Menge aller zu einer speziellen akustischen Umgebung gehörenden Cluster Ci {0<i<Z} als Datensätze in einem Model M verwaltet werden und dass im dritten Schritt zusätzlich zu den Clusterdaten im Model M der Zeitpunkt der Erzeugung und die Anzahl der zugeordneten Merkmale festgehalten werden.Method according to one or more of claims 6 to 8, wherein in the first step of the "training" mode of operation with an existing model M started iteratively or with an empty model recreate the entire acoustic environment consisting usually different from a large amount of complex noises , these divided into small time segments T1 and a feature P (t) is generated for each of these time windows T1, which maps the acoustic situation existing at this point in time in a feature space R and assigns a cluster Ci that in the second step the N-dimensional feature space R is subdivided into a finite number of clusters Ci and each of these clusters represents a special part of a noise pattern, clusters being automatically generated and adapted during the learning phase of the system (S) by the set of all clusters Ci {belonging to a special acoustic environment. 0 <i <Z} are managed as data records in a Model M and that i In the third step, in addition to the cluster data in model M, the time of generation and the number of assigned features are recorded. Verfahren nach einem oder mehreren der Ansprüche 6 bis 9, wobei der Erfolg in der Betriebsart "Training" zu einem Zeitpunkt T ermittelt werden kann, indem gemessen wird, wieviele neue Cluster in einem Zeitintervall T3 erzeugt wurden und dass wenn diese Rate unterhalb einer Schwelle sinkt, davon ausgegangen werden kann, dass die Umgebungsgeräusche hinreichend genau gelernt wurde und eine relativ statische Geräuschumgebung vorliegt.Method according to one or more of Claims 6 to 9, the success in the "training" operating mode being able to be determined at a point in time T by measuring how many new clusters were generated in a time interval T3 and that if this rate falls below a threshold , it can be assumed that the ambient noise has been learned with sufficient accuracy and that there is a relatively static noise environment. Verfahren nach einem oder mehreren der Ansprüche 6 bis 10, wobei bei der Optimierung Cluster entfernt werden, welche keine große Relevanz für die gesamte Modellierung des akustischen Umfeldes haben, indem ihnen nur wenige Merkmale zugeordnet wurden oder diese zu Zeiten erzeugt wurden, die später bei der Überwachung keine Berücksichtigung finden sollen.The method according to one or more of claims 6 to 10, wherein during the optimization clusters are removed which are not of great relevance for the overall modeling of the acoustic environment, in that only a few features were assigned to them or these were generated at times that were later during the Monitoring should not be taken into account. Verfahren nach einem oder mehreren der Ansprüche 6 bis 11, wobei zur Optimierung eines Modells während der Analysephase, Merkmale P(t), die sich im Randbereich eines Cluster Ci befinden, eine Aktualisierung bzw. Korrektur des betroffenen Clusters anstoßen wird, wodurch langsame Veränderungen der akustischen Umgebung adaptiert werden können.Method according to one or more of claims 6 to 11, wherein to optimize a model during the analysis phase, features P (t) that are located in the edge region of a cluster Ci, an update or correction of the cluster concerned is triggered, whereby slow changes in the acoustic environment can be adapted. Verfahren nach einem oder mehreren der Ansprüche 6 bis 12, wobei in der Betriebsart "Lauschen" (Überwachen) die Merkmale im Zeitraster T1 verarbeitet werden, wobei das Modell M nicht verändert wird, sondern es wird lediglich bei jedem Schritt geprüft, ob sich das Merkmal in einem in M vorhandenem Cluster Ci befindet, dass falls dies nicht der Fall es sich um einen Teil eines akustischen Ereignisses handelt, welches nicht trainiert wurde und ein interner Ereigniszähler inkrementiert wird, und dass wenn dieser Zähler in einem Zeitintervall T2 einen Schwellwert überschreitet, ein entsprechendes Signal am Anzeigemodul (8) präsentiert und der Zähler zurückgesetzt wird.Method according to one or more of Claims 6 to 12, wherein in the "listening" (monitoring) operating mode, the features are processed in the time pattern T1, the model M not being changed, but rather a check is made at each step to determine whether the feature is different in a cluster Ci present in M, that if this is not the case it is part of an acoustic event which has not been trained and an internal event counter is incremented, and that if this counter exceeds a threshold value in a time interval T2, a The corresponding signal is presented on the display module (8) and the counter is reset. Verfahren nach einem oder mehreren der Ansprüche 6 bis 13, wobei in der einfachsten Form ein Markov-Modell auf der Basis von Markov-Ketten-Modellen oder von Hidden-Markov-Modellen oder ein deterministisches Verfahren zur statistischen Beschreibung von Symbol- oder Zustandsfolgen verwendet werden.Method according to one or more of claims 6 to 13, wherein in the simplest form a Markov model based on Markov chain models or Hidden Markov models or a deterministic method for the statistical description of sequences of symbols or statuses is used . Verfahren nach einem oder mehreren der Ansprüche 6 bis 14, wobei ein MCMC-Verfahren (Markov-Chain-Monte-Carlo-Verfahren) mit einer Detailed-Balance-Eigenschaft benutzt wird, um bei der Optimierung mittels des Optimierungsmoduls (5) Verteilungen zu simulieren.Method according to one or more of Claims 6 to 14, an MCMC method (Markov Chain Monte Carlo method) with a detailed balance property being used in order to simulate distributions during the optimization by means of the optimization module (5) .
EP20020283.6A 2019-06-18 2020-06-16 Method and assembly for acoustic monitoring of environments Active EP3754622B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019004241.7A DE102019004241A1 (en) 2019-06-18 2019-06-18 Arrangement and procedure for acoustic monitoring of surroundings

Publications (2)

Publication Number Publication Date
EP3754622A1 true EP3754622A1 (en) 2020-12-23
EP3754622B1 EP3754622B1 (en) 2023-02-01

Family

ID=71119907

Family Applications (1)

Application Number Title Priority Date Filing Date
EP20020283.6A Active EP3754622B1 (en) 2019-06-18 2020-06-16 Method and assembly for acoustic monitoring of environments

Country Status (2)

Country Link
EP (1) EP3754622B1 (en)
DE (1) DE102019004241A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117686086A (en) * 2024-02-02 2024-03-12 北京谛声科技有限责任公司 Equipment running state monitoring method, device, equipment and system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19621152A1 (en) 1996-05-14 1997-11-20 Klaus Ebert Monitoring and alarm triggering for camera protected region
US20080144927A1 (en) 2006-12-14 2008-06-19 Matsushita Electric Works, Ltd. Nondestructive inspection apparatus
DE102007030725B3 (en) * 2007-07-02 2008-08-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobile acoustic sensor for monitoring e.g. ill or weak person, has signal processor processing microphone output signal and location information to produce output data having audio signal and location data
WO2009104968A1 (en) 2008-02-22 2009-08-27 Idteq As Intrusion detection system with signal recognition
US20120262294A1 (en) 2009-10-13 2012-10-18 Commissariat A L'energie Atomique Et Aux Energies Alternatives Facility and method for monitoring a defined, predetermined area using at least one acoustic sensor
DE102011114058A1 (en) * 2011-09-22 2013-03-28 Volkswagen Aktiengesellschaft Evaluation method for acoustic evaluation of component, involves exciting component to generate sound, where sound of component is recorded by sensor for detection of sound
CH706631A2 (en) * 2012-06-28 2013-12-31 Bosch Gmbh Robert Monitoring system for monitoring monitored area e.g. railway track for trains in railway station, has analysis module classifying audio signal as unintended noise such as break down- and/or damage- and/or interference noises of action
EP2988105A2 (en) * 2014-08-20 2016-02-24 HST High Soft Tech GmbH Device and method for the automatic recognition and classification of audible acoustic signals in a monitored area
DE102017012007A1 (en) 2017-12-22 2019-06-27 HST High Soft Tech GmbH Apparatus and method for universal acoustic testing of objects

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19621152A1 (en) 1996-05-14 1997-11-20 Klaus Ebert Monitoring and alarm triggering for camera protected region
US20080144927A1 (en) 2006-12-14 2008-06-19 Matsushita Electric Works, Ltd. Nondestructive inspection apparatus
DE102007030725B3 (en) * 2007-07-02 2008-08-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Mobile acoustic sensor for monitoring e.g. ill or weak person, has signal processor processing microphone output signal and location information to produce output data having audio signal and location data
WO2009104968A1 (en) 2008-02-22 2009-08-27 Idteq As Intrusion detection system with signal recognition
US20120262294A1 (en) 2009-10-13 2012-10-18 Commissariat A L'energie Atomique Et Aux Energies Alternatives Facility and method for monitoring a defined, predetermined area using at least one acoustic sensor
DE102011114058A1 (en) * 2011-09-22 2013-03-28 Volkswagen Aktiengesellschaft Evaluation method for acoustic evaluation of component, involves exciting component to generate sound, where sound of component is recorded by sensor for detection of sound
CH706631A2 (en) * 2012-06-28 2013-12-31 Bosch Gmbh Robert Monitoring system for monitoring monitored area e.g. railway track for trains in railway station, has analysis module classifying audio signal as unintended noise such as break down- and/or damage- and/or interference noises of action
DE102012211154B4 (en) 2012-06-28 2019-02-14 Robert Bosch Gmbh Monitoring system, open space monitoring and monitoring of a surveillance area
EP2988105A2 (en) * 2014-08-20 2016-02-24 HST High Soft Tech GmbH Device and method for the automatic recognition and classification of audible acoustic signals in a monitored area
DE102014012184B4 (en) 2014-08-20 2018-03-08 HST High Soft Tech GmbH Apparatus and method for automatically detecting and classifying acoustic signals in a surveillance area
DE102017012007A1 (en) 2017-12-22 2019-06-27 HST High Soft Tech GmbH Apparatus and method for universal acoustic testing of objects

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KWON, SOONILNARAYANAN, SHRIKANTH: "Unsupervised Speaker indexing using generic models", IEEE TRANSACTIONS ON SPEECH AND AUDIO PROCESSING, vol. 13, no. 5, 2005, pages 1004 - 1013, XP011137547, ISSN: ISSN 1063-6676, DOI: 10.1109/TSA.2005.851981

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117686086A (en) * 2024-02-02 2024-03-12 北京谛声科技有限责任公司 Equipment running state monitoring method, device, equipment and system

Also Published As

Publication number Publication date
DE102019004241A1 (en) 2020-12-24
EP3754622B1 (en) 2023-02-01

Similar Documents

Publication Publication Date Title
EP3317879B1 (en) Method and device for the allocation of sounds and for analysis
DE102014012184B4 (en) Apparatus and method for automatically detecting and classifying acoustic signals in a surveillance area
DE60124225T2 (en) Method and device for detecting emotions
DE102018204135B4 (en) Learning model construction apparatus, abnormality detection system and server
DE112013000440T5 (en) Zone-oriented presence control by locating voice profiles
CN102348101A (en) Examination room intelligence monitoring system and method thereof
DE102008021362B3 (en) Noise-generating object i.e. letter sorting machine, condition detecting method, involves automatically adapting statistical base-classification model of acoustic characteristics and classifying condition of noise-generating object
EP2402731A1 (en) Method for training a system for classifying a roller bearing state, method for classifying a roller bearing state and system for classifying a roller bearing state
EP2775361A2 (en) System and method for event logging in a technical system or a technical process
EP2962296B1 (en) Wording-based speech analysis and speech analysis device
EP3754622B1 (en) Method and assembly for acoustic monitoring of environments
WO2009037077A2 (en) Sensor device and monitoring system for noises
DE102022105681A1 (en) Method for determining vibration of a ventilation system
DE4010028A1 (en) Speech recognition for e.g. aircraft control
CN109697982A (en) A kind of speaker speech recognition system in instruction scene
EP1981582B1 (en) Device and computer program for generating a control signal for a cochlea-implant based on an audio signal
Xie et al. Acoustic feature extraction using perceptual wavelet packet decomposition for frog call classification
Iber et al. Auditory augmented reality for cyber physical production systems
WO2021148392A1 (en) Method and device for object identification on the basis of sensor data
DE102020007273A1 (en) Method and device for the automatic detection and classification of acoustic signals
Shu et al. RNN based noise annoyance measurement for urban noise evaluation
WO2020259819A1 (en) Acoustic analysis of a condition of a machine
EP4097695B1 (en) Method and device for identifying acoustic anomalies
Murovec et al. Environmental noise event classification based on self-organizing map using psychoacoustic features and spatial filtering
DE102017204068A1 (en) Electronic device, system, method and computer program

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20210323

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20220225

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20220913

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

Ref country code: AT

Ref legal event code: REF

Ref document number: 1547127

Country of ref document: AT

Kind code of ref document: T

Effective date: 20230215

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502020002467

Country of ref document: DE

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG9D

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20230201

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230601

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230501

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20230628

Year of fee payment: 4

Ref country code: DE

Payment date: 20230623

Year of fee payment: 4

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230601

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230502

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: CH

Payment date: 20230702

Year of fee payment: 4

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502020002467

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20231103

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20230201

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20230630

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20230616

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20230616