EP4006857A1 - Verfahren und vorrichtung zur automatischen erkennung und klassifizierung von akustischen signalen - Google Patents

Verfahren und vorrichtung zur automatischen erkennung und klassifizierung von akustischen signalen Download PDF

Info

Publication number
EP4006857A1
EP4006857A1 EP21020597.7A EP21020597A EP4006857A1 EP 4006857 A1 EP4006857 A1 EP 4006857A1 EP 21020597 A EP21020597 A EP 21020597A EP 4006857 A1 EP4006857 A1 EP 4006857A1
Authority
EP
European Patent Office
Prior art keywords
acoustic
module
classification
sensor system
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP21020597.7A
Other languages
English (en)
French (fr)
Inventor
Volker Schmidt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of EP4006857A1 publication Critical patent/EP4006857A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • G08B13/1654Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
    • G08B13/1672Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range

Definitions

  • the invention relates to a method and a device for the automatic detection and classification of acoustic signals in a surveillance area to prevent vandalism and crime in objects through to the monitoring and early detection of faults in machines, installations and systems.
  • Monitoring systems for monitoring an open space or an area in a building or building complex comprising a plurality of microphones which can be and/or are arranged in the monitored area and which are designed to record audio signals of an object as an audio signal source in the monitored area known for a long time.
  • a monitoring system which comprises an analysis module for classifying the audio signal and for outputting classification information.
  • the classification information is, in particular, a description of the content of the audio signal and describes the type of noise.
  • the classification information designates the type of origin of the audio signal.
  • an analysis module is provided, which compares an audio signal that is present with a pattern and/or a stored audio signal.
  • the analysis module is designed to classify an audio signal as an unintended noise, namely as a burglary noise and/or as a damage noise and/or as an interference noise of an action of the object as a type of noise.
  • the surveillance system targets the unintended sounds that people either cannot prevent (sounds of footsteps or sounds of an action) or accidentally do not sufficiently prevent.
  • the surveillance system includes a localization module for locating the position of the object by acoustically locating the position of the audio signal source of the classified audio signal in the surveillance area via the microphones and for outputting position information.
  • the localization module is designed to localize the person of the audio signal source of the classified audio signal by acoustic cross-location of the audio signal source, in particular by measuring the transit time of the audio signal from at least two and in particular at least three microphones.
  • the classification information and the position information form part of an object data record, wherein the object data record can be output and/or further processed as a monitoring result.
  • the monitoring system includes an evaluation module for evaluating the object data set and for generating an alarm signal, it also being provided that the evaluation module uses at least two object data sets with different classification information for the evaluation.
  • the evaluation module has a tracking unit, which is designed to create a metadata record for the object from a number of object data records.
  • the evaluation module includes a filter unit for filtering the metadata record, with object data records that contradict a movement model of the object being filtered out.
  • the monitoring system comprises a monitoring center which has an audio storage device or is connected to it, an audio recording of the audio signal, in particular the original audio signal of the classified audio signal, being stored on the audio storage device.
  • a burglar alarm system in which not the audible signal but the inaudible signals are evaluated in order to determine the cause of the noise.
  • filters are used to separate the low-frequency signal (frequency range of around 1-5 Hz) and high-frequency signal (frequency range of around 5-20 Hz) and a comparator compares the signals in the two channels with one another.
  • an acoustic sensor system with a microcomputer for pre-processing the acoustic signals, which is connected to a signal receiver whose output signals are parallel to a module arranged in the acoustic sensor system for their recording and a Module for classification are supplied.
  • a recording database of the acoustic sensor system is connected to the recording module, in which the signal is stored in the format of an audio file.
  • a module for modeling For data exchange and for control with the acoustic sensor system having an interface, a module for modeling is connected, which imports the recordings via an interface, generates corresponding models from them and which is connected via the to a model library of a corresponding sensor system, in which the model selected by a user in a training phase is stored.
  • the classification module is connected to the model library and the classification module is connected to an evaluation application via a further interface, and if a signal is detected, sends the classification result to the evaluation application.
  • the DE 10 2017 012 007 A1 describes a device and a method for universal acoustic testing of objects, the device for acoustic testing of objects having a striking tool, a free-standing microphone and/or a structure-borne microphone for detecting the sound and with an analysis device connected thereto for analyzing the sound up to the ultrasonic range included in.
  • the device is designed as a device which has an excitation device mounted outside of a device housing and an acoustic sensor arranged adjacent thereto, and the output of the acoustic sensor can be connected to either an analysis module or a training module inside the device housing by means of a manually operated operating mode switch, wherein the output of the training module is connected to a model library which is connected to the analysis module.
  • the signals are sent to a central location for recording and for comparison with a reference pattern previously stored in a library, which leads to considerable effort in recording and classification (fixed model-based reference classification or learned reference classification from the previous classifications). leads.
  • recording and classification fixed model-based reference classification or learned reference classification from the previous classifications.
  • the invention is based on the object, based on known methods and devices for the automatic detection and classification of acoustic signals in a surveillance area, to design them in such a way that when configured by the user, all signal-influencing factors are included in the respective detection model and all device-related signals are influencing Factors such as components and assemblies, which are subject to manufacturing tolerances, site-related factors, such as the site-related individually different acoustic background, together with an acoustic signal preserve that is the same for all sensors for each noise to be detected, are included in the respective detection model.
  • At least one acoustic sensor system which has a microcomputer and is connected to an acoustic signal receiver, is provided for preprocessing the acoustic signals for classification, which on the one hand classifies the output signals and compares them with existing acoustic models from the acoustic model library and, in the event of a match, into the acoustic signal recognition database (depending on the type of use of the sensor for further processing and alarming locally in the sensor system itself or stored centrally outside of the sensor system and, on the other hand, carries out a permanent analysis of the stationary acoustic background and saves the detected acoustic deviations in the acoustic signal raw data database, whereupon after a configurable number of such deviations in the acoustic background the module updates the model automatically and without any action being required
  • An acoustic signal model database is updated by the user, after which the module for classification works with one based on the currently prevailing acoustic conditions of the a
  • the output signals of the acoustic signal receiver of the acoustic sensor system are fed to a classification module with an integrated acoustic background recording module, which generates or inserts a new acoustic model in a training phase from these acoustic background signals and from the acoustic signals that are the same for all sensors existing acoustic model is updated and in the classification phase these output signals are classified and compared with already known signal patterns.
  • a corresponding recognition model is automatically generated by the module for modeling model update and made available to the classification module.
  • Each The acoustic sensor system is provided with the same recordings of the acoustic signals to be recognized and enriched with its own recordings of the acoustic background, which differs for each sensor. The resulting models that are generated are then only used for this sensor for classification.
  • a model update cycle runs automatically within the model update module on the basis of data from the classification module in a loop and the acoustic models created by this cycle become the previously known ones by adding the stationary acoustic background deviations formed acoustic background of the respective sensor per sensor system and used by the respective sensor system.
  • An arranged module for modeling model update is connected to the acoustic sensor system.
  • the two modules for classification and model creation/model update can be activated and deactivated from the management application. This makes it possible to use the two operating modes training and classification separately or to operate both in parallel.
  • the acoustic signal to be recognized is recorded beforehand, without any acoustic background signals and at different application-related distances between the sensor and the acoustic signal source, but with the same acoustic signal receiver used later in the sensor and stored in the acoustic signal raw data database.
  • these acoustic signals to be recognized are the same for each sensor of the device described here and do not have to be newly generated and recorded there in each case.
  • the device for performing the automatic detection and classification of acoustic signals according to the method according to the invention comprises at least one acoustic sensor system, a recording database of the acoustic sensor system, interfaces connected to an A/D converter, a hardware module motion detector, a hardware module -GPS, a hardware module video camera, a hardware module wind sensor and a hardware module rain sensor, an acoustic model database, in which previously acoustic models are stored and a classification module with an integrated background signal recording module, which is connected to the acoustic model database and to an evaluation application and, if a signal is detected, the classification result is sent to the evaluation Application sends, so that the acoustic sensor system serves both as a recording system for deviations in the acoustic background for a training phase and as a classification module for known signal patterns during a classification phase and the necessary recognition models from the signals previously recorded by the acoustic sensor system and each individually in each sensor system generates different acoustic background signals and
  • An acoustic sensor system with a microcomputer for pre-processing the acoustic signals compares and, in the event of a match, saves the output signals in the corresponding acoustic signal detection databases of the sensors for further processing and alarming and, on the other hand, carries out a permanent analysis of the stationary acoustic background and saves the acoustic deviations found in the acoustic signal raw data database, whereupon after a configurable number of such deviations in the acoustic background, the module updates the model updates automatically and without any action required by the user, in dess Then the classification module works with the currently prevailing acoustic conditions of the acoustic background and carries out its classifications with this updated acoustic model from now on.
  • An acoustic sensor system with a microcomputer for pre-processing the acoustic signals is stored in the format of an audio file, and is connected to a model building module which imports recordings from the recording database and models them accordingly generated and is connected to an acoustic model database of the corresponding sensor system, in which the acoustic model is stored, and that the classification module is connected to the acoustic model database and, via a further interface, to an evaluation application , and if a signal is detected, sends the classification result to the evaluation application, so that the acoustic sensor system serves both as a recording system for detected acoustic background deviations for a training phase and as a classification module for known signal patterns during a classification phase and the necessary Recognition models are generated from previously recorded signals and acoustic background signals and these models are then only used by this sensor system for classification.
  • the model update module for model creation and updating is connected to the acoustic sensor systems and activates or deactivates both the classification module completely after the model update has taken place in the form of its restart and during an acoustic model update that is being processed with regard to deactivation /Activation of further acoustic recordings of deviations in the acoustic background of the respective sensor during and after the acoustic model update.
  • the sensor system has an amplifier connected to the acoustic signal receiver, whose amplified audio output signal is fed to an analog-to-digital converter and that a microcomputer is connected both to the A/D converter and to at least one interface of the interfaces for data exchange and control of the sensor system is connected via a network.
  • the sensor system has an amplifier connected to the acoustic signal receiver, an analog-to-digital converter and a microcomputer, which can be connected both to the amplifier and analog-to-digital converter via a first interface and to at least one other interface for controlling other connected sensor systems ( Motion detector, GPS, video camera, wind and rain sensor depending on the operating mode) are connected by the sensor system via the network.
  • an amplifier connected to the acoustic signal receiver, an analog-to-digital converter and a microcomputer, which can be connected both to the amplifier and analog-to-digital converter via a first interface and to at least one other interface for controlling other connected sensor systems ( Motion detector, GPS, video camera, wind and rain sensor depending on the operating mode) are connected by the sensor system via the network.
  • Motion detector Motion detector, GPS, video camera, wind and rain sensor depending on the operating mode
  • capacitive converters condenser microphones
  • electrodynamic converters dynamic microphones, pick-ups
  • piezoelectric converters can be used as acoustic signal receivers.
  • the device according to the invention has the advantage that all relevant components for signal processing and classification are located in an intelligent device, the acoustic sensor system.
  • the sensor system serves as a recording system for acoustic backgrounds that are different depending on the location of the sensor and for the recognition acoustic signal recordings previously stored in the sensor system and not to be recorded again for a training phase, as well as a classification module for already modeled and therefore known signal patterns during the classification phase .
  • the model parameters of the underlying recognition model are adapted by the current acoustic input signals.
  • This, but above all the permanent and automatic acoustic model update by the model update module, means that the recognition models are constantly and above all automatically optimized in the course of operation without the user having to do anything.
  • the acoustic sensor thus learns completely independently and thereby enables or improves the quality of the classification under a wide variety of acoustic conditions.
  • a key advantage of the invention compared to the current state of the art is that each acoustic sensor system uses the same detection acoustic signal data and its own recordings regarding the respective different acoustic backgrounds of each sensor system for modeling and this model then only from this device for classification is used. As a result, all factors influencing the signals are included in the respective recognition model and the configuration in the training phase is made possible for the user in a surprisingly simple manner.
  • the permanent and automatic acoustic model update by the model update module means that the recognition models are constantly and above all automatically optimized in the course of operation without the user having to do anything.
  • the acoustic sensor thus learns completely independently and thereby enables or improves the quality of the classification under a wide variety of acoustic conditions.
  • the 1 shows the network structure and an overview of all components of the device according to the invention, the general structure of a network of acoustic sensors according to and an embodiment for carrying out the method according to the invention.
  • the 1 shows an overview of all components of the device according to the invention.
  • the acoustic signal receiver 1, in particular a microphone, receives an acoustic signal and forwards this to an acoustic sensor system S via a connected amplifier and A/D converter 2 .
  • the signal is fed to a classification module 8 for classification.
  • a recording module integrated into the classification module 8 has the task of carrying out a permanent analysis of the stationary acoustic background and storing the acoustic deviations found in the raw acoustic database 10 .
  • An A/D converter 2 a hardware module motion detector 3, a hardware module GPS 4, a hardware module video camera 5, a hardware module wind sensor 6 and a hardware module rain sensor 7 connected to sensor microcomputer S-MC . Furthermore, the sensor microcomputer S-MC is connected to the management application 14 and the hardware module power supply 15 .
  • a central unit Z is also connected to the sensor system S via a computer network 16 .
  • the central unit Z contains a central microcomputer Z -MC , which includes a management application 14, an evaluation application 13 and an acoustics recognition database 17 , with a hardware module power supply 15, a hardware Module wind sensor 6 and a hardware module rain sensor 7 is connected.
  • the classification module 8 is connected to a model library 11 for its task of classifying the input signal.
  • the acoustic model database 11 includes the acoustic models of all known signals. If there is no acoustic model database 11 , the classification module 8 cannot work.
  • To generate an acoustics model database 11 the audio recordings of the raw data target noises previously generated for the sensor system S from the raw acoustics database 10 are used.
  • the module for modeling/model update 9 imports the audio recordings for the target sounds to be recognized from the acoustic raw database 10, generates corresponding acoustic models from them and the corresponding background recordings and places them in the acoustic model database 11 of the corresponding sensor system S.
  • Each sensor system S has its own model update module 9. If the classification module 8 has detected an acoustic signal, it sends the classification result to a management application 14. This application 14 is responsible for further processing of this information and can take appropriate actions , such as B. alarm or control tasks.
  • the two classification modules 8 and model update modules 9 can be activated and deactivated from the management application 14 . This makes it possible to use the two operating modes training and classification separately or to operate both in parallel. Due to the parallel operation of both modules, it is possible in the classification phase to also record deviating and previously unknown background signals to the system, which can later be used to improve existing acoustic models in the acoustic model database 11 with regard to the expand detection.
  • the lower part of 1 shows the general structure of the centralization and networking of acoustic sensor systems S.
  • the sensor system S which is connected to the acoustic signal receiver 1 , whose output signals are fed to a classification module 8 , which on the one hand classifies the output signals and existing acoustic models from the acoustic model database 11 and, if they match, stored in the acoustic recognition database 12 and/or 17 depending on the operating mode for further processing and alarming, and on the other hand a permanent analysis of the stationary acoustic background carries out and stores the detected acoustic deviations in the raw acoustic database 10 .
  • the acoustic detection database 17 via the computer network 16 .
  • the basis for networking a sensor domain is a classic local computer network LAN 16 or the wireless variant WLAN, both modules are integrated components of the microcomputer S-MC.
  • Another interface built into the microcomputer is S4. It is used to output video signals to a video camera or to an HDMI device such as a B. for connecting a monitor for configuration directly on the sensor system S.
  • the external components evaluation application 13 and management application 14 use standard network protocols for data exchange and for controlling the acoustic sensor systems S using the microcomputer S-MC, which meets the requirements for networking via LAN or WLAN provides. Entire sensor domains can be realized with this type of networking. In the domains, the individual sensor systems S work completely independently, but can be configured and controlled using classic network functions.
  • the recognition models are generated from acoustic raw data signals that are previously recorded independently of the sensor and are the same for all sensor systems S. From these, together with the individually location-dependent, different background recordings, a corresponding recognition model is then automatically generated in each sensor system S and made available to the classification module 8 .
  • the analysis and further recording of deviating background acoustic data in the classification module 8 is deactivated until the new/updated acoustic model is provided by the model update module 9 . This prevents further background recordings, because these are most likely already included in the current model update.
  • a management application 14 is available for the administration and management of the sensor systems S.
  • the user can View or change the configuration of each sensor system S , as well as the programs and services running on the sensor system S. It is also possible to view the status of the existing acoustic models from here.
  • the configuration of each sensor system S is stored in a separate area and table in the acoustic model database 11 .
  • the management application 14 is used via a bot account of a messenger provider, for example the provider Telegram or Whatsapp, which has to be created beforehand. Both provider bot api's are supported by the sensor system S.
  • a project is understood to mean a set consisting of 1 to n intelligent sensor systems S.
  • the sensor systems S are managed within projects. All sensor systems S are created and administered in the acoustic detection database 12 and/or 17 in MySQL database tables, for example the “Sensor” table, depending on the mode of operation of the sensor.
  • a customer ID and location ID assigned to each sensor system S there assigns each sensor to a customer and a location.
  • This is only one at a time, with networks the number can theoretically be n.
  • Each sensor system S must be entered in the acoustic detection database 12 and/or 17 , depending on the operating mode of the sensor -> single-sensor operation or -> multi-sensor operation), otherwise no database action takes place, e.g. E.g. alarm in the event of a positive detection of an acoustic signal.
  • the entries are made using the MySQL database interface.
  • the Hidden Markov Model (HMMI) on which the known invention is based and used for generating acoustic signal models is deliberately not used by this invention, since the Hidden Markov Model (HMMI) generates acoustic signal models in addition to all recognizing acoustic signal models of the target noises to be recognized, the acoustic background of the sensor system S must also be stored as a recognition acoustic model and the system then makes a selection from all these acoustic models when classifying/recognizing an acoustic signal . This presupposes that, in particular in the acoustic background model, all variants of possible acoustic backgrounds must be observed in order to be able to make an almost error-free selection in the classification / recognition.
  • the entire classification in the present invention was implemented using a proprietary classification solution, which exclusively uses the acoustic signals to be classified according to the acoustic modeling for the classification and the individually location-dependent acoustic background of each sensor only for the change analysis of the background in the acoustic model database 11 .
  • An individual model is created for each sensor system S , based on which the sensor system S then works. This requires one or more corresponding training phase(s) in order to also individually configure the sensor system S and adapt it to the place of use. This is done fully automatically by the classification module 8 and the model update module 9 on the basis of the configuration data stored by the user.
  • this value is chosen to be very small, e.g. 1, whereby the type of modeling of the acoustic signals to be recognized already ensures that no acoustic signal to be recognized is classified as an unknown background segment.
  • This threshold represents an additional safeguard to prevent this.
  • each sensor system S contains an integrated microcomputer S-MC , the sensor systems S are coupled to one another and to the management 14 and evaluation applications 13 via a computer network (LAN) 16 or a wireless network (WLAN). This type of coupling is technically very mature and can be implemented economically.
  • LAN computer network
  • WLAN wireless network
  • the acoustic signal receiver 1, z. B. microphone or sound transducer are connected directly to the sensor system S or are mechanically (e.g. with a gooseneck) and connected by audio cables in the immediate vicinity. Furthermore, it is possible to arrange the acoustic signal receiver 1 in the housing of the intelligent sensor system S in such a way that it can be adjusted vertically and laterally towards the monitored area. It is equally possible to provide the acoustic signal receiver 1 for outdoor use with a wind shield in order to reduce or completely avoid clipping or noise caused by wind.
  • the signal processing in the acoustic sensor system S is largely independent of the acoustic signal receiver 1 used.
  • the acoustic models generated differ from one another depending on the acoustic signal receiver 1 used and its mechanical installation in a housing (eg windbreak). For this reason, the data for the sensor system S in the raw acoustic database 10 must always have been generated with the same acoustic signal receiver 1 and its mechanical structure.
  • the invention described here Due to a permanent acoustic model update, automatically triggered by a changed acoustic background, the invention described here has real practicability, both indoors and outdoors for objects and systems to be monitored.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Verfahren betrifft eine automatische Erkennung und Klassifizierung von akustischen Signalen mit mindestens einem im Überwachungsbereich angeordneten akustische Signalempfänger und einem Modul zur Klassifizierung des akustischen Signals und Ausgabe einer Klassifikationsinformation.Die Vorrichtung zur Durchführung des Verfahrens umfasst mindestens ein akustisches Sensorsystem (S), eine Akustik-Rohdatenbank (10) des akustischen Sensorsystems (S), Schnittstellen (S1 bis S6), die mit einem A/D-Wandler (2), einem Hardware-Modul-Bewegungsmelder (3), einen Hardware-Modul-GPS (4), einen Hardware-Modul-VideoKamera (5), einem Hardware-Modul-Windsensor (6), und einem Hardware-Modul-Regensensor (7) verbunden sind, eine Akustik-Modell-Datenbank (11), in welcher akustische Modelle abgespeichert sind und ein Klassifizierungs-Modul (8) mit integriertem Akustik-Hintergrundsignal-Aufzeichnungsmodul, das mit der Akustik-Modell-Datenbank (11) und einer Auswerte-Applikation (13) in Verbindung steht und für den Fall der Erkennung eines Signals, das Klassifizierungsergebnis an die Auswerte-Applikation (13) sendet, so dass das akustische Sensorsystem (S) gleichermaßen als Aufzeichnungssystem für Abweichungen des Akustik-Hintergrundes für eine neue Trainingsphase als auch als Klassifizierungs-Modul bekannter Signalmuster während einer Klassifizierungsphase dient und die dafür notwendigen Erkennungsmodelle aus den von dem akustischen Sensorsystem (S) vorher aufgezeichneten Signalen und jeweils individuellen in jedem Sensorsystem unterschiedlichen Akustik-Hintergrunddaten erzeugt.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich zur Verhinderung von Vandalismus und Kriminalität in Objekten bis hin zur Überwachung und frühzeitiger Erkennung von Störungen an Maschinen, Anlagen und Systemen.
  • Auf verschiedenen technischen Gebieten sind unterschiedlich ausgestaltete Verfahren und Vorrichtungen zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich bekannt. Überwachungssysteme zur Überwachung einer Freifläche oder einem Bereich in einem Gebäude oder Gebäudekomplex, wobei das Überwachungssystem eine Mehrzahl von Mikrofonen umfasst, welche in dem Überwachungsbereich anordenbar und/oder angeordnet sind und welche zur Aufnahme von Audiosignalen eines Objektes als Audiosignalquelle in dem Überwachungsbereich ausgebildet sind, sind seit langem bekannt.
  • Aus der DE 10 2012 211 154 A1 ein Überwachungssystem bekannt, welches ein Analysemodul zur Klassifizierung des Audiosignals und zur Ausgabe einer Klassifikationsinformation umfasst. Die Klassifikationsinformation ist insbesondere eine inhaltliche Beschreibung des Audiosignals und beschreibt die Geräuschart. Im Speziellen bezeichnet die Klassifikationsinformation die Entstehungsart des Audiosignals. Weiterhin ist ein Analysemodul vorgesehen, welches ein anliegendes Audiosignal mit einem Muster und/oder einem abgespeicherten Audiosignal vergleicht. Insbesondere ist das Analysemodul derart ausgebildet, ein Audiosignal als unbeabsichtigtes Geräusch, nämlich als ein Einbruchsgeräusch und/oder als ein Beschädigungsgeräusch und/oder als ein Störgeräusch einer Aktion des Objekts als Geräuschart zu klassifizieren.
  • Das Überwachungssystem ist auf die unbeabsichtigten Geräusche ausgerichtet, die die Personen entweder nicht verhindern können (Schrittgeräusche oder Geräusche einer Aktion) oder aus Versehen nicht ausreichend verhindern. Das Überwachungssystem umfasst ein Lokalisierungsmodul zur Lokalisierung der Position des Objekts durch akustische Ortung der Position der Audiosignalquelle des klassifizierten Audiosignals in dem Überwachungsbereich über die Mikrofone und zur Ausgabe einer Positionsinformation. Dabei ist das Lokalisierungsmodul zur Lokalisierung der Person der Audiosignalquelle des klassifizierten Audiosignals durch akustische Kreuzortung der Audiosignalquelle, insbesondere über Laufzeitmessung des Audiosignals von mindestens zwei und insbesondere mindesten drei Mikrofone ausgebildet.
  • Die Klassifikationsinformation und die Positionsinformation bilden einen Teil eines Objektdatensatzes, wobei der Objektdatensatz als Überwachungsergebnis ausgebbar und/oder weiterverarbeitbar ist. Hierzu umfasst das Überwachungssystem ein Auswertemodul zur Auswertung des Objektdatensatzes und zur Generierung eines Alarmsignals, wobei es auch vorgesehen ist, dass das Auswertemodul mindestens zwei Objektdatensätze mit unterschiedlichen Klassifikationsinformationen zur Auswertung verwendet. Bei einer Weiterbildung weist das Auswertemodul eine Verfolgungseinheit auf, wobei diese ausgebildet ist, aus mehreren Objektdatensätzen einen Metadatensatz für das Objekt zu erstellen. In diesem Metadatensatz werden beispielsweise zwei, drei, vier oder mehr mögliche Objektdatensätze des Objekts aufgenommen und das Auswertemodul umfasst eine Filtereinheit zur Filterung des Metadatensatzes, wobei Objektdatensätze, die einem Bewegungsmodell des Objekts widersprechen, ausgefiltert werden. Schließlich umfasst das Überwachungssystem eine Überwachungszentrale, welche eine Audiospeichereinrichtung aufweist oder mit dieser verbunden ist, wobei auf der Audiospeichereinrichtung eine Audioaufnahme des Audiosignals, insbesondere des Original-Audiosignals des klassifizierten Audiosignals abgespeichert ist.
  • Weiterhin ist aus der WO 2009/104968 A1 eine Einbruchmeldeanlage bekannt, bei der nicht das hörbare Signal, sondern die unhörbaren Signale ausgewertet werden, um die Ursache des Geräusches zu ermitteln. Hierzu wird mit Filtern eine Trennung in Niederfrequenzsignal (Frequenzbereich von etwa 1-5 Hz) und Hochfrequenzsignal (Frequenzbereich von etwa 5-20 Hz) vorgenommen und ein Komparator vergleicht die Signale in den beiden Kanälen miteinander.
  • Aus der DE 10 2014 012 184 B4 ist eine Vorrichtung und ein Verfahren zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich bekannt. Um das Einfließen aller signalbeeinflussenden Faktoren in das jeweilige Erkennungsmodell zu ermöglichen, ist hier zur Vorverarbeitung der akustischen Signale ein einen Mikrocomputer aufweisendes akustisches Sensorsystem vorgesehen, welches mit einem Signalempfänger in Verbindung steht, dessen Ausgangssignale parallel einem im akustischen Sensorsystem angeordneten Modul für deren Aufzeichnung und einem Modul zur Klassifizierung zugeführt sind. Mit dem Aufzeichnungs-Modul ist eine Aufzeichnungsdatenbank des akustischen Sensorsystems verbunden, in welcher das Signal im Format einer Audiodatei gespeichert ist. Zum Datenaustausch und zur Steuerung mit dem eine Schnittstelle aufweisenden akustischen Sensorsystems steht ein Modul zur Modellbildung in Verbindung, welches über eine Schnittstelle die Aufzeichnungen importiert, aus ihnen entsprechende Modelle erzeugt und welches über die mit einer Modellbibliothek eines entsprechenden Sensorsystems in Verbindung steht, in welcher das von einem Anwender in einer Trainingsphase ausgewählte Modell abgespeichert ist. Das Klassifizierungs-Modul ist mit der Modellbibliothek verbunden und das Klassifizierungs-Modul steht über eine weitere Schnittstelle mit einer Auswertungs-Applikation in Verbindung, und für den Fall der Erkennung eines Signals, sendet das Klassifizierungsergebnis an die Auswertungs-Applikation.
  • Die DE 10 2017 012 007 A1 beschreibt eine Vorrichtung und ein Verfahren zur universellen akustischen Prüfung von Objekten, wobei die Vorrichtung zur akustischen Prüfung von Objekten ein Schlagwerkzeug, ein freistehendes Mikrofon und/oder ein Körperschallmikrofon zur Erfassung des Schalls und mit einer damit verbundenen Analyseeinrichtung zur Analyse des Schalls bis in den Ultraschallbereich hinein umfaßt. Die Vorrichtung ist als ein Gerät ausgestaltet, welches eine außerhalb eines Gerätegehäuses gelagerte Erregungsvorrichtung und einen benachbart hierzu angeordneten akustischen Sensor aufweist, und innerhalb des Gerätegehäuses mittels eines handbetätigten Betriebsarten-Umschalters der Ausgang des akustischen Sensors entweder mit einem Analysemodul oder einem Trainingsmodul verbindbar ist, wobei der Ausgang des Trainingsmoduls mit einer Modellbibliothek verbunden ist, welche mit dem Analysemodul in Verbindung steht.
  • Wie der vorstehende Stand der Technik aufzeigt, sind auf verschiedenen technischen Gebieten unterschiedlich ausgestaltete Verfahren und Vorrichtungen zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich bekannt.
  • In der Regel werden die Signale zur Aufzeichnung und zum Vergleich mit einem in einer Bibliothek vorher eingespeicherten Referenzmuster einer zentralen Stelle zugeführt, was zu einem erheblichen Aufwand bei der Aufzeichnung und Klassifikation (feste modellbasierte Referenz-Klassifikation oder gelernte Referenz-Klassifikation aus den vorangegangenen Klassifikationen) führt. Deshalb fehlen in der Praxis kostengünstige Verfahren und Vorrichtungen in Hinblick auf das Einfließen aller signalbeeinflussenden Faktoren in das jeweilige Erkennungsmodell, insbesondere unter Berücksichtigung der aktuellen Situation und einfachen Konfiguration bzw. Adaption in einer Trainingsphase durch den Anwender/Benutzer.
  • Die relevanten Signale beeinflussenden Faktoren werden in dem bekannten Stand der Technik nicht oder falsch berücksichtigt, zudem nimmt der Anwender in einer Trainingsphase subjektiven Eingriff auf diesen wichtigen Teil der Akustik-Modell-Erzeugung. Dies ist von Anwender zu Anwender mehr oder weniger Ziel führend und eigentlich unnötig.
  • . Der Erfindung liegt die Aufgabe zugrunde, ausgehend von bekannten Verfahren und Vorrichtungen zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich, diese derart auszugestalten, dass bei der Konfiguration durch den Anwender alle signalbeeinflussenden Faktoren mit in das jeweilige Erkennungsmodell einfließen und alle gerätebedingten Signal beeinflussenden Faktoren, wie Bauteile und Baugruppen, welche Herstellungstoleranzen unterliegen, einsatzortbedingte Faktoren, wie der einsatzortbedingte individuell unterschiedliche Akustik-Hintergrund, zusammen mit einer für alle Sensoren gleichen Akustik-Signal-Konserve für jeweils ein zu erkennendes Geräusch mit in das jeweilige Erkennungsmodell einfließen.
  • Gelöst wird die Aufgabe durch ein Verfahren mit den Merkmalen gemäß Patentanspruch 1 sowie durch eine Vorrichtung mit den Merkmalen gemäß Patentanspruch 7. Weitere Ausgestaltungen sind in den Unteransprüchen aufgezeigt.
  • Erfindungsgemäß wird zur Vorverarbeitung der akustischen Signale mindestens ein einen Mikrocomputer aufweisendes akustisches Sensorsystem vorgesehen, welches mit einem Akustik-Signalempfänger in Verbindung steht, dessen Ausgangssignale einem Modul zur Klassifizierung zugeführt werden, welches einerseits die Ausgangssignale klassifiziert und mit bestehenden Akustik-Modellen aus der Akustik-Modell-Bibliothek vergleicht und im Falle von Übereinstimmung in die Akustiksignal Erkennungs-Datenbank (je nach Einsatzart des Sensors zur weiteren Verarbeitung und Alarmierung lokal im Sensorsystem selbst oder zentral außerhalb des Sensorsystems speichert und andererseits eine permanente Analyse des stationären Akustik-Hintergrundes durchführt und die festgestellten akustischen Abweichungen in der Akustiksignal-Rohdaten-Datenbank abspeichert, woraufhin nach einer konfigurierbaren Menge solcher Abweichungen des Akustik-Hintergrundes das Modul Modellupdates automatisch und ohne erforderliche Aktion durch den Anwender eine Akustiksignal-Modell-Datenbank aktualisiert, in dessen Anschluss das Modul zur Klassifizierung mit einem auf die aktuell vorherrschenden akustischen Bedingungen des Akustik-Hintergrundes arbeitet und fortan seine Klassifizierungen mit diesem aktualisierten Akustik-Modell durchführt, dass das Klassifizierungs-Modul mit der Modellbibliothek verbunden ist und dass das Klassifizierungs-Modul über eine weitere Schnittstelle mit einer Auswertungs-Applikation in Verbindung steht, und für den Fall der Erkennung eines Signals, das Klassifizierungsergebnis an die Auswertungs-Applikation sendet, so dass das akustische Sensorsystem gleichermaßen als Aufzeichnungssystem nur für beliebige akustische Signale des stationär unterschiedlichen akustischen Hintergrundes des Sensors in Vorbereitung einer Trainingsphase für ein neues oder zu aktualisierendes Akustik-Modell, als auch als Klassifizierungs-Modul bekannter Signalmuster während einer Klassifizierungsphase dient und die dafür notwendigen Erkennungsmodelle aus vorher aufgezeichneten für alle Sensoren gleichen Signalen und dem jeweils unterschiedlichen akustischen Hintergrund-Signalen des jeweiligen Sensors erzeugt und diese Modelle danach auch nur von diesem Sensorsystem zur Klassifizierung eingesetzt werden.
  • Die Ausgangssignale des Akustik-Signalempfängers des akustischen Sensorsystems werden einem Klassifizierungs-Modul mit integriertem Akustik-Hintergrund Aufzeichnungsmodul zugeführt, welches in einer Trainingsphase aus diesen Akustik-Hintergrundsignalen und aus den für alle Sensoren gleichen zu erkennenden Akustik-Signalen ein neues Akustikmodell erzeugt bzw. ein bestehendes Akustikmodell aktualisiert und in der Klassifizierungsphase diese Ausgangssignale mit bereits bekannten Signalmuster klassifiziert und vergleicht.
  • Vom Modul zur Modellbildung Modell-Update wird automatisch ein entsprechendes Erkennungsmodell erzeugt und dem Klassifizierungs-Modul zur Verfügung gestellt. Jedem akustischen Sensorsystem werden gleiche Aufzeichnungen der zu erkennenden Akustik-Signale zur Verfügung gestellt und mit eigenen Aufzeichnungen des jeweils pro Sensor unterschiedlichen akustischen Hintergrundes angereichert. Diese daraus resultierenden erzeugten Modelle werden danach auch nur diesem Sensor zur Klassifizierung verwendet.
  • Ein Modell-Aktualisierungszyklus läuft automatisch innerhalb des Moduls Modell-Update auf der Basis von Daten aus dem Modul Klassifizierung in einer Schleife ab und die durch diesen Zyklus erstellten Akustik-Modelle werden durch die jeweilige Hinzunahme der stationären akustischen Hintergrund-Abweichungen zu dem bis dato bekannten akustischen Hintergrund des jeweiligen Sensors pro Sensorsystem gebildet und von dem jeweiligen Sensorsystem genutzt.
  • Mit dem akustischen Sensorsystem ist ein angeordnetes Modul zur Modellbildung Modell-Update verbunden. Im Sensorsystem können die beiden Module zur Klassifizierung und zur Modellbildung/Modell-Update von der Management-Applikation aus aktiviert und deaktiviert werden. Damit ist es möglich, die beiden Betriebsarten Training und Klassifizierung getrennt zu nutzen oder beide parallel zu betreiben.
  • Jedoch wird jeweils das zu erkennende akustische Signal vorher, ohne jegliche akustische Hintergrund-Signale und in verschiedenen einsatzbedingten Entfernungen des Sensors zur akustischen Signalquelle, aber mit dem gleichen, später im Sensor eingesetzten akustischen Signalempfänger aufgezeichnet und in der Akustiksignal Rohdaten Datenbank abgespeichert. Dadurch sind diese zu erkennenden akustischen Signale für jeden Sensor der hier beschriebenen Vorrichtung gleich und müssen dort nicht jeweils neu erzeugt und aufgezeichnet werden. Außerdem besteht dadurch im Rahmen dieser Erfindung die Möglichkeit die zu erkennenden akustische Signale bei Bedarf an zentraler Stelle für jeden Sensor weiter anzureichern.
  • Die Vorrichtung zur Durchführung der automatischen Erkennung und Klassifizierung von akustischen Signalen nach dem erfindungsgemäßen Verfahren umfasst mindestens ein akustisches Sensorsystem, eine Aufzeichnungsdatenbank des akustisches Sensorsystems, Schnittstellen, die mit einem A/D-Wandler, einem Hardware-Modul-Bewegungsmelder, einen Hardware-Modul-GPS, einen Hardware-Modul-Video-Kamera, einem Hardware-Modul-Windsensor und einem Hardware-Modul-Regensensor verbunden sind, eine Akustik-Modell-Datenbank, in welcher vorher akustische Modelle abgespeichert sind und ein Klassifizierungs-Modul mit integriertem Hintergrundsignal-Aufzeichnungsmodul, das mit der Akustik-Modell-Datenbank und mit einer Auswerte-Applikation in Verbindung steht und für den Fall der Erkennung eines Signals, das Klassifizierungsergebnis an die Auswertungs-Applikation sendet, so dass das akustische Sensorsystem gleichermaßen als Aufzeichnungssystem für Abweichungen des Akustik-Hintergrundes für eine Trainingsphase als auch als Klassifizierungs-Modul bekannter Signalmuster während einer Klassifizierungsphase dient und die dafür notwendigen Erkennungsmodelle aus den von dem akustischen Sensorsystem vorher aufgezeichneten Signalen und jeweils individuell in jedem Sensorsystem unterschiedlichen Akustik-Hintergrundsignalen erzeugt und diese Modelle danach auch nur von diesem akustischen Sensorsystem zur Klassifizierung eingesetzt werden.
  • Zur Vorverarbeitung der akustischen Signale ist ein einen Mikrocomputer aufweisendes akustisches Sensorsystem vorgesehen, welches mit einem akustischen Signalempfänger in Verbindung steht, dessen Ausgangssignale einem Modul zur Klassifizierung zugeführt werdend, welches einerseits die Ausgangssignale klassifiziert und mit bestehenden Akustik-Modellen aus der Akustik-Modell-Bibliothek vergleicht und im Falle von Übereinstimmungen die Ausgangssignale in die entsprechenden Akustiksignal Erkennungs-Datenbanken der Sensoren zur weiteren Verarbeitung und Alarmierung speichert und andererseits eine permanente Analyse des stationären Akustik-Hintergrundes durchführt und die festgestellten akustischen Abweichungen in der Akustiksignal Rohdaten Datenbank abspeichert, woraufhin nach einer konfigurierbaren Menge solcher Abweichungen des Akustik-Hintergrundes das Modul Modellupdates automatisch und ohne erforderliche Aktion durch den Anwender die Akustiksignal Modell-Datenbank aktualisiert, in dessen Anschluss das Modul Klassifizierung mit einem auf die aktuell vorherrschenden akustischen Bedingungen des Akustik-Hintergrundes arbeitet und fortan seine Klassifizierungen mit diesem aktualisierten Akustik-Modell durchführt.
  • Zur Vorverarbeitung der akustischen Signale ist ein einen Mikrocomputer aufweisendes akustisches Sensorsystem vorgesehen ist, welches mit dem akustischen Signalempfänger, dessen Ausgangssignale einem Modul zur Klassifizierung und Akustik-Hintergrundsignal-aufzeichnung zugeführt werden, und einer Aufzeichnungsdatenbank des akustisches Sensorsystems verbunden ist, in welcher das akustische Signal im Format einer Audiodatei gespeichert ist, und einem Modul zur Modellbildung verbunden ist, welches aus der Aufzeichnungsdatenbank Aufzeichnungen importiert, daraus entsprechende Modelle erzeugt und mit einer Akustik-Modell-Datenbank des entsprechenden Sensorsystems in Verbindung steht, in welcher das akustische Modell abgespeichert ist, und dass das Klassifizierungs-Modul mit der Akustik-Modell-Datenbank und über eine weitere Schnittstelle mit einer Auswerte-Applikation in Verbindung steht, und für den Fall der Erkennung eines Signals, das Klassifizierungsergebnis an die Auswertungs-Applikation sendet, so dass das akustische Sensorsystem gleichermaßen als Aufzeichnungssystem festgestellter akustischer Hintergrundabweichungen für eine Trainingsphase, als auch als Klassifizierungs-Modul bekannter Signalmuster während einer Klassifizierungsphase dient und die dafür notwendigen Erkennungsmodelle aus vorher aufgezeichneten Signalen und akustischen Hintergrundsignalen erzeugt und diese Modelle danach auch nur von diesem Sensorsystem zur Klassifizierung eingesetzt werden.
  • Das Modellupdate-Modul zur Modellbildung und -aktualisierung ist mit den akustischen Sensorsystemen verbunden und aktiviert bzw. deaktiviert sowohl das Klassifizierungs-Modul nach erfolgter Modellaktualisierung komplett in Form von dessen Neustart als auch das während eines in der Verarbeitung befindlichen Akustik-Modellupdates bzgl. der Deaktivierung /Aktivierung weiterer akustischer Aufzeichnungen von Abweichungen des akustischen Hintergrundes des jeweiligen Sensors während und nach erfolgtem akustischem Modellupdate.
  • Das Sensorsystem weist einen mit dem akustischen Signalempfänger verbundenen Verstärker auf, dessen verstärktes Audio-Ausgangssignal einem Analog-Digital-Wandler zugeführt ist und dass ein Mikrocomputer sowohl mit dem A/D-Wandler als auch mit mindestens einer Schnittstelle der Schnittstellen zum Datenaustausch und zur Steuerung des Sensorsystems über ein Netzwerk verbunden ist.
  • Das Sensorsystem weist einen mit dem akustischen Signalempfänger verbundenen Verstärker, einen Analog-Digital-Wandler und einen Mikrocomputer auf, die sowohl mit dem Verstärker und Analog-Digital-Wandler über eine erste Schnittstelle als auch mit mindestens einer weiteren Schnittstelle zur Steuerung weiterer angeschlossener Sensorsysteme (Bewegungsmelder, GPS, Videokamera, je nach Betriebsart Wind- und Regensensor) durch das Sensorsystem über das Netzwerk verbunden sind.
  • Als akustische Signalempfänger können beispielsweise kapazitive Wandler (Kondensatormikrofone), elektrodynamische Wandler (dynamische Mikrofone, Tonabnehmer) oder piezoelektrische Wandler zum Einsatz kommen.
  • Die erfindungsgemäße Vorrichtung weist den Vorteil auf, dass sich alle maßgeblichen Komponenten zur Signalverarbeitung und Klassifizierung in einem intelligenten Gerät, dem akustischen Sensorsystem, befinden. Beim erfindungsgemäßen Verfahren dient das Sensorsystem als Aufzeichnungssystem für standortabhängig des Sensors unterschiedliche Akustik-Hintergründe und der im Sensorsystem vorher gespeicherten und nicht nochmals auszuzeichnenden Erkennungs-Akustik-Signalaufzeichnungen für eine Trainingsphase, als auch als Klassifizierungs-Modul bereits modellierter und damit bekannter Signalmuster während der Klassifizierungsphase.
  • Während der Klassifizierungsphase werden durch die aktuellen akustischen Eingangssignale, die Modellparameter des zugrundeliegenden Erkennungsmodells adaptiert. Dies, aber vor allem die permanente und automatische Akustik-Modellaktualisierung durch das Modul Modell-Update führt dazu, dass die Erkennungsmodelle im Laufe des Betriebes ständig und vor allem automatisch ohne Zutun des Anwenders optimiert werden. Der akustische Sensor lernt also dadurch völlig selbständig dazu und ermöglicht bzw. verbessert dadurch die Qualität der Klassifizierung unter verschiedensten akustischen Bedingungen.
  • Ein entscheidender Vorteil der Erfindung im Vergleich zum aktuellen Stand der Technik ist, dass jedes akustisches Sensorsystem gleiche Erkennungs-Akustik-Signaldaten und seine eigenen Aufzeichnungen bezüglich der jeweils unterschiedlichen akustischen Hintergründe jedes Sensorsystems zur Modellbildung nutzt und dieses Modell danach auch nur von diesem Gerät zur Klassifizierung eingesetzt wird. Dadurch wird erreicht, dass alle Signale beeinflussenden Faktoren mit in das jeweilige Erkennungsmodell einfließen und dem Anwender auf überraschend einfache Art und Weise die Konfiguration in der Trainingsphase ermöglicht wird.
  • Vor allem die permanente und automatische Akustik-Modellaktualisierung durch das Modul Modell-Update führt dazu, dass die Erkennungsmodelle im Laufe des Betriebes ständig und vor allem automatisch ohne Zutun des Anwenders optimiert werden. Der akustische Sensor lernt also dadurch völlig selbständig dazu und ermöglicht bzw. verbessert dadurch die Qualität der Klassifizierung unter verschiedensten akustischen Bedingungen.
  • Weitere Vorteile und Einzelheiten lassen sich der nachfolgenden Beschreibung einer bevorzugten Ausführungsform der Erfindung unter Bezugnahme auf die Zeichnung Figur 1 entnehmen.
  • Die Fig. 1 zeigt die Netzstruktur und eine Übersicht aller Komponenten der erfindungsgemäßen Vorrichtung, die allgemeine Struktur einer Vernetzung von akustischen Sensoren nach und eine Ausführungsform für die Durchführung des Verfahrens gemäß der Erfindung.
  • Die Fig. 1 zeigt eine Übersicht aller Komponenten der erfindungsgemäßen Vorrichtung. Der Akustik-Signalempfänger 1, insbesondere ein Mikrofon, empfängt ein akustisches Signal und leitet dieses über einen angeschlossenen Verstärker und A/D-Wandler 2 zu einem akustischen Sensorsystem S weiter. Im Sensorsystem S wird das Signal einem Klassifizierungs-Modul 8 zur Klassifizierung zugeführt. Ein in das Klassifizierungs-Modul 8 integriertes Aufzeichnungsmodul hat die Aufgabe, eine permanente Analyse des stationären Akustik-Hintergrundes durchzuführen und die festgestellten akustischen Abweichungen in der Akustik-Rohdatenbank 10 abzuspeichern.
  • Über die Schnittstellen S1, S2, S3, S4, S5 und S6 sind jeweils ein A/D-Wandler 2, ein Hardware-Modul-Bewegungsmelder 3, ein Hardware-Modul-GPS 4, ein Hardware-Modul-Video-Kamera 5, ein Hardware-Modul-Windsensor 6 und einem Hardware-Modul-Regensensor 7 mit Sensor-Microcomputer S-MC verbunden. Des Weiteren ist der Sensor-Microcomputer S-MC mit der Management-Applikation 14 und der Hardware-Modul-Stromversorgung 15 verbunden.
  • Mit dem Sensorsystem S ist weiterhin eine Zentraleinheit Z über ein Computernetzwerk 16 mit dem Sensorsystem S verbunden. Die Zentraleinheit Z enthält einen zentralen Microcomputer Z-MC enthält, der eine Management-Applikation 14, eine Auswerte-Applikation 13 und eine Akustik-Erkennungsdatenbank 17 umfasst, wobei an den zentralen Microcomputer Z-MC ein Hardware-Modul Stromversorgung 15, ein Hardware-Modul Wind-Sensor 6 und ein Hardware-Modul Regensensor 7 angeschlossen ist.
  • Der Klassifizierungs-Modul 8 steht für seine Aufgabe, das Eingangssignal zu klassifizieren, mit einer Modellbibliothek 11 in Verbindung. Die Akustik-Modell-Datenbank 11 umfasst die akustischen Modelle aller bekannten Signale. Ist keine Akustik-Modell-Datenbank 11 vorhanden, kann der Klassifizierungs-Modul 8 nicht arbeiten. Zur Erzeugung einer Akustik-Modell-Datenbank 11 werden die für das Sensorsystem S vorher erzeugten Audio-Aufzeichnungen der Rohdaten-Zielgeräusche aus der Akustik-Rohdatenbank 10 herangezogen.
  • Das Modul zur Modellbildung/Modell-Update 9 importiert die Audio-Aufzeichnungen für die zu erkennenden Zielgeräusche aus der Akustik-Rohdatenbank 10, erzeugt aus ihnen und den entsprechenden Hintergrundaufzeichnungen entsprechende Akustik-Modelle und legt diese in der Akustik-Modell-Datenbank 11 des entsprechenden Sensorsystems S ab. Jedes Sensorsystem S hat sein eigenes Modellupdate-Modul 9. Wenn der Klassifizierungs-Modul 8 ein Akustik-Signal erkannt hat, sendet er das Klassifizierungsergebnis an eine Management-Applikation 14. Diese Applikation 14 ist für die weitere Verarbeitung dieser Informationen zuständig und kann entsprechende Aktionen, wie z. B. Alarmierung oder Steuerungsaufgaben ausführen.
  • Im Sensorsystem S können die beiden Klassifizierungs-Module 8 und Modellupdate-Module 9 von der Management-Applikation 14 aus aktiviert und deaktiviert werden. Damit ist es möglich, die beiden Betriebsarten Training und Klassifizierung getrennt zu nutzen oder beide parallel zu betreiben. Durch den Parallelbetrieb beider Module ist es möglich, in der Klassifizierungsphase auch abweichende und bis dato dem System noch unbekannte Hintergrund-Signale mit aufzuzeichnen, welche später dazu genutzt werden können, vorhandene Akustik-Modelle in der Akustik-Modell-Datenbank 11 bezüglich der Verbesserung der Erkennung zu erweitern.
  • Der untere Teil von Fig. 1 zeigt die allgemeine Struktur der Zentralisierung und Vernetzung von akustischen Sensorsysteme S. Im einzelnen weist es das Sensorsystem S auf, welches mit dem Akustik-Signalempfänger 1 in Verbindung steht, dessen Ausgangssignale einem Klassifizierungs-Modul 8 zugeführt sind, welches einerseits die Ausgangssignale klassifiziert und mit bestehenden Akustik-Modellen aus der Akustik-Modell-Datenbank 11 vergleicht und im Falle von Übereinstimmung in die Akustik-Erkennungsdatenbank 12 und/oder 17 je nach Betriebsart zur weiteren Verarbeitung und Alarmierung speichert und andererseits eine permanente Analyse des stationären Akustik-Hintergrundes durchführt und die festgestellten akustischen Abweichungen in der Akustik-Rohdatenbank 10 abspeichert.
  • Arbeitet das Sensorsystem S hierbei nicht im Single-Sensor-Betrieb, so werden u.a. alle Erkennungsergebnisse über das Computernetzwerk 16 in die Akustik-Erkennungsdatenbank 17 abgespeichert. Die Grundlage der Vernetzung einer Sensordomäne bildet ein klassisches lokales Computernetzwerk LAN 16 oder die drahtlose Variante WLAN, beide Module sind integrierte Bestandteile des Mikrocomputers S-MC.
  • Eine weitere in den Mikrocomputer integrierte Schnittstelle ist S4. Sie dient der Ausgabe von Videosignalen an eine Videokamera oder an ein HDMI-Gerät, wie z. B. zum Anschluss eines Monitors zur Konfiguration direkt am Sensorsystem S. Die externen Komponenten Auswerte-Applikation 13 und Management-Applikation 14 nutzen übliche Netzwerkprotokolle zum Datenaustausch und zur Steuerung der akustischen Sensorsysteme S mittels des Mikrocomputers S-MC, welcher die Voraussetzungen für Vernetzung via LAN oder WLAN bereitstellt. Durch diese Art der Vernetzung lassen sich ganze Sensordomänen realisieren. In den Domänen arbeiten die einzelnen Sensorsysteme S völlig autark, lassen sich aber über klassische Netzwerkfunktionen konfigurieren und steuern.
  • Bei dem erfindungsgemäßen Verfahren werden die Erkennungsmodelle aus vorher, sensorunabhängig aufgezeichneten und für alle Sensorsysteme S gleichen Akustik-Rohdaten-Signalen erzeugt. Aus diesen wird dann zusammen mit den individuell standortabhängigen unterschiedlichen Hintergrundaufzeichnungen in jedem Sensorsystem S automatisch ein entsprechendes Erkennungsmodell erzeugt und dem Klassifizierungs-Modul 8 zur Verfügung gestellt.
  • Während einer Trainingsphase zur Modellzeugung oder Modellaktualisierung wird die Analyse und weitere Aufzeichnung von abweichenden Hintergrund-Akustikdaten im Modul Klassifizierungs-Modul 8 für die Zeit bis zur Bereitstellung des neuen / aktualisierten Akustikmodells durch das Modellupdate-Modul 9 deaktiviert. Dies verhindert weitere Hintergrundaufzeichnungen, denn diese sind mit hoher Wahrscheinlichkeit in dem gerade laufenden Modellupdate bereits mit enthalten.
  • Im Einzelnen steht für die Administration und Verwaltung der Sensorsysteme S eine Management-Applikation 14 zur Verfügung. Mit dieser Applikation kann der Anwender die Konfiguration jedes Sensorsystems S einsehen bzw. ändern, sowie auch die auf dem Sensorsystem S laufenden Programme und Services. Ebenso besteht die Möglichkeit von hier aus den Status der dort existierenden Akustik-Modelle einzusehen. Die Konfiguration jedes Sensorsystems S ist in einem eigenen Bereich und Tabelle mit in der Akustik-Modell-Datenbank 11 abgespeichert.
  • Die Nutzung der Management-Applikation 14 erfolgt über einen vorher anzulegenden Bot-Account eines Messenger Providers, z.B. des Providers Telegram oder Whatsapp. Beide Anbieter-Bot-Api's werden vom Sensorsystem S unterstützt.
  • In einem akustischen Klassifizierungssystem können mehrere akustische Sensorsysteme S parallel betrieben werden. Jedes einzelne Sensorsystem S arbeitet dabei mit einem für ihn speziell berechnetem Erkennungsmodell. Die Konfiguration jedes Sensorsystems S kann innerhalb der Management-Applikation 14 durch Eingabe des Kommandos "config" eingesehen bzw. geändert werden, wie beispielsweise im Bereich "soundlv":
    1. a) die im Sensor aktiven Akustik-Modelle im Klartext unter Isnoise0...n" sowie deren direkt zugeordnete Parameter "matchth" - zur Eintragung in die Akustik-Erkennungsdatenbank (12 und/oder 17) je nach Betriebsart notwendige Anzahl von Treffern pro Erkennungssegment
    2. b) den für das jeweilige akustische Erkennungssignal oder alle akustische Erkennungssignale einheitliche minimale "lo_freq" und maximale "hi_freq" Frequenz, um das Frequenzspektrum für die Klassifizierung festzulegen
    3. c) die Sample Frequenz in "samplingrate" in Hz, das Abtastintervall in "samplingtime" in s.
    4. d) unter "Ismainpath" der Projektpfad auf dem Sensorsystem S.
  • Unter einem Projekt wird eine Menge bestehend aus 1 bis n intelligenten Sensorsystemen S verstanden. Die Sensorsysteme S werden innerhalb von Projekten verwaltet. Alle Sensorsysteme S werden in der Akustik-Erkennungsdatenbank 12 und/oder 17 je nach Betriebsart des Sensors in MySQL-Datenbank-Tabellen, z.B. der Tabelle "Sensor" angelegt und administriert.
  • Eine jedem Sensorsystem S dort zugeordnete Customer-ID und Location-ID ordnet jeden Sensor einem Kunden und einem Standort zu. Bei der Sensor-Betriebsart "Single-Sensor-Betrieb" ist dies jeweils nur einer, bei Netzwerken kann die Anzahl theoretisch n betragen.
  • Jedes Sensorsystem S muss in der in der Akustik-Erkennungsdatenbank 12 und/oder 17 je nach Betriebsart des Sensors -> Single-Sensor-Betrieb oder -> Multi-Sensor-Betrieb) eingetragen sein, sonst erfolgt keine Datenbank-Aktion, wie z. Bsp. Alarmierung im Falle einer positiven Erkennung eines Akustik-Signals. Die Eintragungen erfolgen mittels MySQL -Datenbank-Oberfläche.
  • Das in der bekannten Erfindung zugrunde liegende und verwendete Hidden Markov Modell (HMMI) zur Erzeugung von Akustik-Signal-Modellen wird von dieser Erfindung bewusst nicht genutzt, da bei der Hidden Markov Modell (HMMI) Erzeugung von Akustik-Signal-Modellen neben allen zu erkennenden Akustik-Signal-Modellen der zu erkennenden Zielgeräusche auch der Akustik-Hintergrund des Sensorsystems S als Erkennungs-Akustik-Modell mit hinterlegt werden muss und das System dann bei der Klassifizierung / Erkennung eines Akustik-Signals eine Auswahl aus all diesen Akustik-Modellen trifft. Dies setzt voraus, dass insbesondere im Modell Akustik-Hintergrund sämtliche Varianten möglicher akustischer Hintergründe einhalten sein müssten, um eine nahezu fehlerfreie Auswahl bei der Klassifizierung / Erkennung treffen zu können.
  • Da es jedoch unmöglich ist, sämtliche möglichen Akustik-Hintergrund-Varianten in ein Akustik-Modell zu packen und es somit in der Praxis zu erwartenden Fehl-Erkennungen kommen muss, wurde die gesamte Klassifizierung in der vorliegenden Erfindung durch eine eigene Klassifizierungslösung realisiert, welche ausschließlich die nach der Akustik-Modellierung zu klassifizierenden Akustik-Signale zur Klassifizierung und den individuell standortabhängigen Akustik-Hintergrund jedes Sensors nur zur Veränderungsanalyse des Hintergrundes in der Akustik-Modell-Datenbank 11 heranzieht.
  • Für jedes Sensorsystem S wird ein individuelles Modell erstellt, aufgrund dessen das Sensorsystem S dann arbeitet. Dazu wird eine/mehrere entsprechende Trainingsphase(n) benötigt, um das Sensorsystem S auch individuell zu konfigurieren und auf den Einsatzort anzupassen. Dies geschieht durch das Klassifizierungs-Modul 8 und das Modellupdate-Modul 9 voll automatisch auf Basis der durch den Anwender hinterlegten Konfigurationsdaten.
  • In der Konfiguration im Bereich "mupdate" hinterlegten Werte wie z.B.:
    1. a) "maxbrecfc" legt fest, wie viele Akustik-Hintergrundsegmente in s aufgezeichnet worden sein müssen, um eine Akustik-Modellaktualisierung zu starten;
    2. b) "noisemaxlen" in s legt fest, wie viel Akustik-Hintergrund-Aufzeichnungszeit pro Hintergrund-Akustik-Modell gespeichert werden sollen, bis die ältesten Aufzeichnungen wieder überschrieben werden;
    3. c) "minmatchthbg" legt fest, ab welcher minimal erkannten Anzahl von Treffern pro Abtastintervall der bis dato bekannte Akustik-Hintergrund erkannt werden muss, um als bekannt zu gelten;
  • In der Regel wird dieser Wert sehr klein gewählt, z.B. 1, wobei schon durch die Art der Modellierung der zu erkennenden Akustik-Signale sichergestellt wird, dass nicht ein zu erkennendes Akustik-Signal als unbekanntes Hintergrundsegment klassifiziert wird. Eine zusätzliche Sicherheit, dies zu verhindern, stellt dieser Schwellwert dar.
  • Bei den zu erkennenden Akustik-Signalen werden zudem entsprechend höhere Schwellwerte hinterlegt. Außerdem sorgt eine interne Logik im Klassifizierungs-Modul 8 dafür, dass wenn eines der Ziel-Akustik-Signale erkannt wurde, dann für diese Zeit der Hintergrund nicht analysiert wird. Mit all diesen Maßnahmen und Automatismen wird eine permanente und automatische Akustik-Modell-Aktualisierung in jedem Sensorsystem S ermöglicht.
  • Da jedes Sensorsystem S einen integrierten Mikrocomputer S-MC beinhaltet, erfolgt die Kopplung der Sensorsysteme S untereinander und mit den Management- 14 und Auswerte-Applikationen 13 über ein Computer-Netzwerk (LAN) 16 oder ein drahtloses Netzwerk (WLAN). Diese Art der Kopplung ist technisch sehr ausgereift und ökonomisch günstig realisierbar.
  • Die Akustik-Signalempfänger 1, z. B. Mikrofon oder Schallwandler, werden direkt mit dem Sensorsystem S verbunden oder befinden sich mechanisch (beispielsweise mit Schwanenhals) und durch Audiokabel verbunden in unmittelbarer Nähe. Weiterhin ist es möglich dem Akustik-Signalempfänger 1 im Gehäuse des intelligenten Sensorsystems S so anzuordnen, das dieser höhen- und seitenverstellbar auf den Überwachungsbereich ausgerichtet werden kann. Gleichsam ist es ebenso möglich, den Akustik-Signalempfänger 1 für die Anwendung im Außenbereich mit einem Windschutz zu versehen, um so Clipping bzw. Rauschen hervorgerufen durch Wind zu verringern oder ganz zu vermeiden.
  • Die Signalverarbeitung im akustischen Sensorsystem S ist weitestgehend unabhängig vom eingesetzten Akustik-Signalempfänger 1. Jedoch unterscheiden sich die erzeugten Akustik-Modelle je nach verwendetem Akustik-Signalempfänger 1 und dessen mechanischen Einbau in ein Gehäuse (z.B. Windschutz) voneinander. Deshalb müssen die für das Sensorsystem S in der Akustik-Rohdatenbank 10 stets mit demselben Akustik-Signalempfänger 1 und dessen mechanischem Aufbau erzeugt worden sein.
  • Diese Tatsache stellt aber keinen großen Nachteil dar, da man die Akustik-Signal Rohdaten in hintergrundgeräuscharmen oder -freien Umgebungen verlustfrei und unverändert aufzeichnet und diese danach von allen verschiedenen Signalempfängerarten aufzeichnen lässt. Auf diese Weise kann man jederzeit die Erzeugung von Akustiksignal-Rohdaten für eine neue Signalempfängerart wiederholen und die Aufnahme dann in der Akustik-Rohdatenbank 10 des entsprechenden Sensorsystem S abspeichern.
  • Ein entscheidender Vorteil der Erfindung im Vergleich zum aktuellen Stand der Technik ist, dass jedes akustische Sensorsystem S gleiche vorher aufgezeichnete hintergrund-geräuschfreie Akustikdaten sowie eigene Hintergrund Akustikdaten zur Akustik-Modellbildung nutzt und dieses Modell danach auch nur von diesem Gerät zur Klassifizierung eingesetzt wird. Dadurch fließen alle Signale beeinflussenden Faktoren in das jeweilige Erkennungs-modell ein. Signalbeeinflussende Faktoren sind hierbei:
    • Echos, hervorgerufen durch Laufzeiten, Geometrie und Beschaffenheit des Raumes, in welchem sich der Sensor befindet;
    • Typ und Toleranz der akustischen Signalempfänger (z. B. Mikrofone) und Signalverarbeitung.
    • Ortsabhängige Pegel der Eingangssignale;
    • stationäre Hintergrundgeräusche.
    Eventuelle nachteilige Effekte durch eine jeweilige akustische Erkennungssignalerzeugung am Einsatzort des Sensorsystems werden dadurch vermieden. Somit ist diese Erfindung sehr variabel und ortsungebunden einsetzbar!
  • Durch ein permanentes Akustik-Modell-Update, automatisch ausgelöst durch veränderten akustischen Hintergrund besitzt die hier beschriebene Erfindung reale Praxistauglichkeit, sowohl im Innen- als auch im Außenbereich für zu überwachende Objekte und Anlagen.
  • Bezugszeichenaufstellung
  • 1
    - Akustik-Signalempfänger
    2
    - A/D-Wandler mit integriertem Verstärker
    3
    - Hardware-Modul Bewegungsmelder
    4
    - Hardware-Modul GPS
    5
    - Hardware-Modul Video-Kamera
    6
    - Hardware-Modul Wind-Sensor
    7
    - Hardware-Modul Regen-Sensor
    8
    - Klassifizierungs-Modul
    9
    - Modellupdate-Modul
    10
    - Akustik-Rohdatenbank
    11
    - Akustik-Modell-Datenbank
    12
    - Akustik-Erkennungsdatenbank
    13
    - Auswerte-Applikation
    14
    - Management-Applikation
    15
    - Hardware-Modul Stromversorgung
    16
    - Computer-Netzwerk
    17
    - Akustik-Erkennungsdatenbank
    S
    - Sensorsystem
    S-MC
    - Sensor-Mikrocomputer
    Z
    - Zentraleinheit
    Z-MC
    - Zentraler Mikrocomputer
    S1, S2, S3, S4, S5, S6
    - Schnittstellen

Claims (9)

  1. Verfahren zur automatischen Erkennung und Klassifizierung von akustischen Signalen mit mindestens einem im Überwachungsbereich angeordneten akustische Signalempfänger und einem Modul zur Klassifizierung des akustischen Signals und Ausgabe einer Klassifikationsinformation,
    dadurch gekennzeichnet, dass
    zur Vorverarbeitung der akustischen Signale mindestens ein einen Mikrocomputer aufweisendes akustisches Sensorsystem (S) vorgesehen ist, welches mit einem Akustik-Signalempfänger (1) in Verbindung steht, dessen Ausgangssignale einem Klassifizierungs-Modul (8) zugeführt werden, welches einerseits die Ausgangssignale klassifiziert und mit bestehenden Akustik-Modellen aus der Akustik-Modell-Datenbank (11) vergleicht und im Falle von Übereinstimmung in die Akustiksignal Erkennungs-Datenbank zur weiteren Verarbeitung und Alarmierung speichert und andererseits eine permanente Analyse des stationären Akustik-Hintergrundes durchführt und die festgestellten akustischen Abweichungen in der Akustik-Rohdatenbank (10) abspeichert, woraufhin nach einer konfigurierbaren Menge solcher Abweichungen des Akustik-Hintergrundes das Modellupdate-Modul (9) automatisch und ohne erforderliche Aktion durch den Anwender in einer Akustik-Modell-Datenbank (11) aktualisiert, in dessen Anschluss das Modul zur Klassifizierung (8) mit einem auf die aktuell vorherrschenden akustischen Bedingungen des Akustik-Hintergrundes arbeitet und fortan seine Klassifizierungen mit diesem aktualisierten Akustik-Modell durchführt, wobei in einer Akustik-Modell-Datenbank (11) des entsprechenden Sensorsystems (S) das von einem Anwender in einer Trainingsphase ausgewählte Modell abgespeichert wird, dass das Klassifizierungs-Modul (8) mit der Akustik-Modell-Datenbank (11) verbunden ist und dass das Klassifizierungs-Modul (8) mit einer Auswerte-Applikation (13) in Verbindung steht, und für den Fall der Erkennung eines Signal, das Klassifizierungsergebnis an die Auswerte-Applikation (13) sendet, so dass das akustische Sensorsystem (S) gleichermaßen als Aufzeichnungssystem für beliebige akustische Signale während einer Trainingsphase, als auch als Klassifizierungs-Modul (8) bekannter Signalmuster während einer Klassifizierungsphase dient und die dafür notwendigen Erkennungsmodelle aus den von dem Sensorsystem (S) vorher aufgezeichneten Signalen erzeugt und diese Modelle danach auch nur von diesem akustischen Sensorsystem (S) zur Klassifizierung eingesetzt werden, wobei
    a) die Ausgangssignale des Akustik-Signalempfängers (1) dem Klassifizierungs-Modul (8) zugeführt werden,
    b) das akustische Sensorsystem (S) als Aufzeichnungssystem, realisiert im Klassifizierungs-Modul (8) nur für beliebige akustische Signale des stationär unterschiedlichen akustischen Hintergrundes des Sensors in Vorbereitung einer Trainingsphase für ein neues oder zu aktualisierendes Akustik-Modell, als auch als Klassifizierungs-Modul (8) bekannter Signalmuster während einer Klassifizierungsphase dient und die dafür notwendigen Erkennungsmodelle aus vorher aufgezeichneten, für alle Sensoren des akustischen Sensorsystems (S) gleichen Signalen und dem jeweils unterschiedlichen akustischen Hintergrund-Signalen des jeweiligen Sensors erzeugt werden,
    c) ein Anwender die Möglichkeit hat, auf den ansonsten voll automatisch ablaufenden Prozess der Akustik-Modell-Erzeugung durch Konfiguration des akustischen Sensorsystems (S) Einfluss zu nehmen,
    d) zur Modellbildung vom Modellupdate-Modul (9) automatisch ein entsprechendes Erkennungsmodell erzeugt und dem Klassifizierungs-Modul (8) zur Verfügung gestellt wird und
    e) jedes akustische Sensorsystem (S) gleiche Aufzeichnungen bzgl. der zu erkennenden Akustik-Signale, aber ansonsten eigene Aufzeichnungen bzgl. des jeweils pro Sensor des Sensorsystems (S) unterschiedlichen akustischen Hintergrundes nutzt und dieses Modell danach auch nur von diesem Sensor des Sensorsystems (S) zur Klassifizierung eingesetzt wird.
  2. Verfahren nach Anspruch 1,
    dadurch gekennzeichnet, dass
    mit dem akustischen Sensorsystem (S) ein angeordnetes Modell-Update-Modul (9) zur Modellbildung verbunden ist und dass die Management-Applikation (14) den Anwender weitestgehend bei der Überwachung und Konfiguration des Sensors des akustischen Sensorsystems (S) unterstützt, wobei ein Modell-Aktualisierungszyklus innerhalb des Modellupdate-Moduls (9) auf der Basis von Daten aus dem Klassifizierungs-Modul (8) automatisch in einer Schleife abläuft und die durch diesen Zyklus erstellten Akustik-Modelle durch die jeweilige Hinzunahme der stationären akustischen Hintergrund-Abweichungen zu dem bis dato bekannten akustischen Hintergrund des jeweiligen Sensors pro Sensorsystem (S) gebildet werden und von dem Sensor des Sensorsystems (S) genutzt werden.
  3. Verfahren nach Anspruch 1 und 2,
    dadurch gekennzeichnet, dass
    das akustische Sensorsystem (S) einen Mikrocomputer aufweist, mittels dessen die Kopplung der Sensorsysteme (S) untereinander über Netzwerk (16) und der Management-Applikation (14) und einer Auswerte-Applikation (13) erfolgt und dass das Klassifizierungs-Modul (8) mit integriertem Akustik-Hintergrundsignal-Aufzeichnungsmodul und das Modell-Update-Modul (9) von der Management-Applikation (14) aus und das Klassifizierungs-Modul (8) mit integriertem Aufzeichnungsmodul im Bedarfsfalle vom Modell-Update-Modul (9) aus aktiviert und deaktiviert werden können.
  4. Vorrichtung zur Durchführung der automatischen Erkennung und Klassifizierung von akustischen Signalen nach Anspruch 1 mit mindestens einem im Überwachungsbereich angeordneten Akustik-Signalempfänger (1) und einem Modul zur Klassifizierung des akustischen Signals und Ausgabe einer Klassifikationsinformation,
    dadurch gekennzeichnet, dass
    die Vorrichtung mindestens ein akustisches Sensorsystem (S), eine Akustik-Rohdatenbank (10) des akustisches Sensorsystems (S), Schnittstellen (S1 bis S6), die mit einem A/D-Wandler (2), einem Hardware-Modul-Bewegungsmelder (3), einen Hardware-Modul-GPS (4), einen Hardware-Modul-Video-Kamera (5), einem Hardware-Modul-Windsensor (6) und einem Hardware-Modul-Regensensor (7) verbunden sind, eine Akustik-Modell-Datenbank (11), in welcher akustische Modelle abgespeichert sind und ein Klassifizierungs-Modul (8) mit integriertem Akustik-Hintergrundsignal-Aufzeichnungsmodul umfaßt, das mit der Akustik-Modell-Datenbank (11) und mit einer Auswerte-Applikation (13) in Verbindung steht und für den Fall der Erkennung eines Signals, das Klassifizierungsergebnis an die Auswerte-Applikation (13) sendet, so dass das akustische Sensorsystem (S) gleichermaßen als Aufzeichnungssystem für Abweichungen des Akustik-Hintergrundes für eine neue Trainingsphase als auch als Klassifizierungs-Modul bekannter Signalmuster während einer Klassifizierungsphase dient und die dafür notwendigen Erkennungsmodelle aus den von dem akustischen Sensorsystem (S) vorher aufgezeichneten Signalen und jeweils individuell in jedem Sensorsystem unterschiedlichen Akustik-Hintergrunddaten erzeugt und diese Modelle danach auch nur von diesem akustischen Sensorsystem (S) zur Klassifizierung eingesetzt werden.
  5. Vorrichtung nach Anspruch 4
    dadurch gekennzeichnet, dass
    zur Vorverarbeitung der akustischen Signale ein einen Mikrocomputer aufweisendes akustisches Sensorsystem (S) vorgesehen ist, welches mit dem Akustik-Signalempfänger (1) in Verbindung steht, dessen Ausgangssignale einem Klassifizierungs-Modul (8) zugeführt sind, welches einerseits die Ausgangssignale klassifiziert und mit bestehenden Akustik-Modellen aus der Akustik-Modell-Datenbank (11) vergleicht und im Falle von Übereinstimmung in die Akustik-Erkennungs-Datenbank (12 und/oder 17) je nach Betriebsart des akustischen Sensorsystem (S) zur weiteren Verarbeitung und Alarmierung speichert und andererseits eine permanente Analyse des stationären Akustik-Hintergrundes durchführt und die festgestellten akustischen Abweichungen in der Akustik-Rohdatenbank (10) abspeichert, woraufhin nach einer konfigurierbaren Menge solcher Abweichungen des Akustik-Hintergrundes das Modellupdate-Modul (9) automatisch und ohne erforderliche Aktion durch den Anwender die Akustik-Modell-Datenbank (11) aktualisiert, in dessen Anschluss das Klassifizierungs-Modul (8) mit einem auf die aktuell vorherrschenden akustischen Bedingungen des Akustik-Hintergrundes arbeitet und fortan seine Klassifizierungen mit diesem aktualisierten Akustik-Modell durchführt.
  6. Vorrichtung nach Anspruch 4,
    dadurch gekennzeichnet, dass
    zur Vorverarbeitung der akustischen Signale ein einen Mikrocomputer (S-MC) aufweisendes akustisches Sensorsystem (S) vorgesehen ist, welches mit dem Akustik-Signalempfänger (1) in Verbindung steht, dessen Ausgangssignale einem Klassifizierungs-Modul (8) zugeführt sind, welches einerseits die Ausgangssignale klassifiziert und mit bestehenden Akustik-Modellen aus der Akustik-Modell-Datenbank (11) vergleicht und im Falle von Übereinstimmung in die Akustik-Erkennungsdatenbank (12 oder 17) je nach Betriebsart zur weiteren Verarbeitung und Alarmierung speichert und andererseits eine permanente Analyse des stationären Akustik-Hintergrundes durchführt und die festgestellten akustischen Abweichungen in der Akustik-Erkennungsdatenbank (12) abspeichert, woraufhin nach einer konfigurierbaren Menge solcher Abweichungen des Akustik-Hintergrundes das Modellupdate-Modul (9) automatisch und ohne erforderliche Aktion durch den Anwender die Akustik-Modell-Datenbank (11) aktualisiert, in dessen Anschluss das Klassifizierungs-Modul (8) mit einem auf die aktuell vorherrschenden akustischen Bedingungen des Akustik-Hintergrundes arbeitet und fortan seine Klassifizierungen mit diesem aktualisierten Akustik-Modell durchführt und der Modell-Aktualisierungszyklus innerhalb des Modellupdate-Moduls (9) auf der Basis von Daten aus dem Klassifizierungs-Modul (8) automatisch und in einer Schleife abläuft.
  7. Vorrichtung nach Anspruch 4,
    dadurch gekennzeichnet, dass
    das Modell-Update-Modul (9) zur Modellbildung und Modellaktualisierung mit den akustischen Sensorsystemen (S) verbunden ist und welches das Klassifizierungs-Modul (8) sowohl während eines in der Verarbeitung befindlichen Akustik-Modellupdates bzgl. weiterer akustischer Aufzeichnungen von Abweichungen des akustischen Hintergrundes des jeweiligen Sensors, als auch nach erfolgtem akustischem Modellupdate aktiviert und deaktiviert.
  8. Vorrichtung nach Anspruch 4 bis 7,
    dadurch gekennzeichnet, dass
    das akustische Sensorsystem (S) einen mit dem Akustik-Signalempfänger (1) verbundenen A/D-Wandler (2) mit integriertem Verstärker aufweist, dessen verstärktes Audio-Ausgangssignal einem A/D-Wandler (2) zugeführt ist und dass ein Mikrocomputer (S-MC) sowohl mit dem A/D-Wandler (2) über die Schnittstelle S1 als auch über mindestens eine der Schnittstellen (S2, S3, S4, S5, S6) mit mindestens einem Hardware-Modul-Bewegungsmelder (3), einem Hardware-Modul-GPS (4), einem Hardware-Modul-Video-Kamera (5), einem Hardware-Modul-Windsensor (6) und/oder einem Hardware-Modul-Regensensor (7) zum Datenaustausch und zur Steuerung des Sensorsystems (S) über das Computernetzwerk (16) verbunden ist.
  9. Vorrichtung nach Anspruch 4 bis 8,
    dadurch gekennzeichnet, dass
    eine Zentraleinheit (Z) über ein Computernetzwerk (16) mit dem Sensorsystem (S) verbunden ist und die Zentraleinheit (Z) einen zentralen Microcomputer (Z-MC) enthält, der eine Management-Applikation (14), eine Auswerte-Applikation (13) und eine Akkustik-Erkennungsdatenbank (17) umfasst, wobei an den zentralen Microcomputer (Z-MC) ein Hardware-Modul Stromversorgung (15), ein Hardware-Modul Wind-Sensor (6) und ein Hardware-Modul Regensensor (7) angeschlossen ist.
EP21020597.7A 2020-11-28 2021-11-26 Verfahren und vorrichtung zur automatischen erkennung und klassifizierung von akustischen signalen Withdrawn EP4006857A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020007273.9A DE102020007273A1 (de) 2020-11-28 2020-11-28 Verfahren und Vorrichtung zur automatischen Erkennung und Klassifizierung von akustischen Signalen

Publications (1)

Publication Number Publication Date
EP4006857A1 true EP4006857A1 (de) 2022-06-01

Family

ID=78806227

Family Applications (1)

Application Number Title Priority Date Filing Date
EP21020597.7A Withdrawn EP4006857A1 (de) 2020-11-28 2021-11-26 Verfahren und vorrichtung zur automatischen erkennung und klassifizierung von akustischen signalen

Country Status (2)

Country Link
EP (1) EP4006857A1 (de)
DE (1) DE102020007273A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104968A1 (en) 2008-02-22 2009-08-27 Idteq As Intrusion detection system with signal recognition
DE102012211154A1 (de) 2012-06-28 2014-01-02 Robert Bosch Gmbh Überwachungssystem, Freiflächenüberwachung sowie Verfahren zur Überwachung eines Überwachungsbereichs
DE102014012184B4 (de) 2014-08-20 2018-03-08 HST High Soft Tech GmbH Vorrichtung und Verfahren zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich
DE102017012007A1 (de) 2017-12-22 2019-06-27 HST High Soft Tech GmbH Vorrichtung und Verfahren zur universellen akustischen Prüfung von Objekten
WO2019159103A1 (en) * 2018-02-15 2019-08-22 Tyco Fire & Security Gmbh Gunshot detection system with ambient noise modeling and monitoring

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104968A1 (en) 2008-02-22 2009-08-27 Idteq As Intrusion detection system with signal recognition
DE102012211154A1 (de) 2012-06-28 2014-01-02 Robert Bosch Gmbh Überwachungssystem, Freiflächenüberwachung sowie Verfahren zur Überwachung eines Überwachungsbereichs
DE102014012184B4 (de) 2014-08-20 2018-03-08 HST High Soft Tech GmbH Vorrichtung und Verfahren zur automatischen Erkennung und Klassifizierung von akustischen Signalen in einem Überwachungsbereich
DE102017012007A1 (de) 2017-12-22 2019-06-27 HST High Soft Tech GmbH Vorrichtung und Verfahren zur universellen akustischen Prüfung von Objekten
WO2019159103A1 (en) * 2018-02-15 2019-08-22 Tyco Fire & Security Gmbh Gunshot detection system with ambient noise modeling and monitoring

Also Published As

Publication number Publication date
DE102020007273A1 (de) 2022-06-02

Similar Documents

Publication Publication Date Title
EP2988105B1 (de) Vorrichtung und verfahren zur automatischen erkennung und klassifizierung von hörbaren akustischen signalen in einem überwachungsbereich
DE102007001089B4 (de) Schnurloses Telefonsystem und Verfahren zum Bereitstellen der Heimsicherheit mit einem schnurlosen Telefonsystem
DE19524782C2 (de) Verfahren zur Innenraumüberwachung in einem Kraftfahrzeug
DE102015213583A1 (de) Versagenserfassungssystem und Versagenserfassungsverfahren
DE102009034444A1 (de) Verfahren zur Überwachung einer Umgebung mit mehreren akustischen Sensoren
EP3386215B1 (de) Verfahren zum betrieb einer hörvorrichtung und hörvorrichtung
EP3516636B1 (de) Audioüberwachungssystem
DE102014207784A1 (de) Verfahren zur Symptomerkennung von Fehlfunktionen eines Elektrowerkzeugs
DE112015003821T5 (de) Alterungskompensation für akustischen Wandler mit Lebensdauer-Anzeiger
WO2009037077A2 (de) Sensoreinrichtung und überwachungssystem für geräusche
EP4006857A1 (de) Verfahren und vorrichtung zur automatischen erkennung und klassifizierung von akustischen signalen
DE102016010795A1 (de) Verfahren und System zum Notfallmanagement, Client, Server
DE102020100081A1 (de) Verbindung einer intelligenten heim-zuhörvorrichtung mit einem transportfahrzeug
EP3979237B1 (de) Verfahren und vorrichtung zur geräuschdiagnose und geräuschbeeinflussung an einem strömungsgerät, insbesondere einer lüftungsanlage
KR102364043B1 (ko) 이엠에스 기반 지능형 통합 관제 시스템
DE102009058797A1 (de) Verfahren zum Ausführen einer Infraschall-Einbruchsdetektion
EP3754622A1 (de) Anordnung und verfahren zur akustischen überwachung von umgebungen
EP2697702B1 (de) Vorrichtung und verfahren zur gestensteuerung eines bildschirms in einer leitwarte
CN113657474A (zh) 一种基于活动分布图的室内人员异常行为检测方法及系统
EP1375269A1 (de) Akustisches Überwachungsverfahren
DE102020200946A1 (de) Verfahren und Vorrichtung zur Erkennung von akustischen Anomalien
DE112020001542T5 (de) Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
DE10253564A1 (de) Verfahren zur Erkennung und Überwachung von Betriebszuständen eines Maschinenprozesses mit Geräuschdaten
DE102006058758A1 (de) Verfahren und Vorrichtung zum Steuern einer Telekommunikationsendeinrichtung
EP0202634A2 (de) Nahbereichsüberwachungsgerät mit Schallquelle

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20221202