WO2019110215A1 - Automated detection of an emergency situation of one or more persons - Google Patents

Automated detection of an emergency situation of one or more persons Download PDF

Info

Publication number
WO2019110215A1
WO2019110215A1 PCT/EP2018/080146 EP2018080146W WO2019110215A1 WO 2019110215 A1 WO2019110215 A1 WO 2019110215A1 EP 2018080146 W EP2018080146 W EP 2018080146W WO 2019110215 A1 WO2019110215 A1 WO 2019110215A1
Authority
WO
WIPO (PCT)
Prior art keywords
phrase
emotions
emergency situation
amd
alerting
Prior art date
Application number
PCT/EP2018/080146
Other languages
German (de)
French (fr)
Inventor
Michael Schüssler
Holger Last
Original Assignee
Siemens Mobility GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Mobility GmbH filed Critical Siemens Mobility GmbH
Priority to EP18803885.5A priority Critical patent/EP3673469A1/en
Publication of WO2019110215A1 publication Critical patent/WO2019110215A1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/016Personal emergency signalling and security systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0469Presence detectors to detect unsafe condition, e.g. infrared sensor, microphone

Definitions

  • the invention relates to a method for automatically de tektieren an emergency situation of one or more persons in a surveillance area. Furthermore, the invention relates to an alerting method. Furthermore, the invention relates to a monitoring system. Moreover, the invention relates to a
  • an emergency number for example the 112
  • an emergency brake can be triggered.
  • Emergency platforms and intercom systems are often installed on platforms and in public buildings. For smartphones, there are applications with which people in distress can make an emergency call. Farther Random witnesses can also trigger an alarm in the manner described.
  • the said alarming methods require the active triggering of the alarm by the person concerned or a corresponding witness.
  • victims are physically and mentally unable to press an alarm button or even dial a phone number.
  • US 2007/0 183 604 A1 describes a method and a system which serve to monitor an environment. Acoustic data is collected via microphones and noise sources are identified from this data. Based on the comparison of parameter values, a situation is classified as normal or as deviant. In the latter case, a response to resolve the anomaly is initiated.
  • US 5,666,157 describes a surveillance system in which video-related movements of persons are compared with reference movements characteristic of criminal acts and intentions. The extent of criminal intentions is determined and an appropriate alarm signal is generated.
  • US 2015/0 070 166 A1 describes a system and a method for detecting the use of a firearm in a building. Microphones hidden in telephones are used to record acoustic data. The collected data is processed centrally. Based on the detection, a building control system can also be controlled.
  • WO 01/33134 A1 describes a method and an apparatus for detecting a danger emanating from a living environment. It will be of a living thing Outgoing physiological signals are recorded and evaluated in order to detect a hazard and, if appropriate, automatically trigger measures to counteract the danger at the place of residence of the animal.
  • data of a monitoring system are transmitted by means of cameras which are directed to sensors.
  • the sensors have a modulatable light source whose light is captured in images taken by the cameras.
  • a classification of an event in a monitored area is performed on the basis of sensor signals.
  • This object is achieved by a method for detecting an emergency situation of at least one person according to claim 1, an alerting method according to claim 7, a moni monitoring system according to claim 8 and an alarm system ge according to claim 10.
  • acoustic measured data are continuously acquired by the monitoring area. Furthermore, an automated search of the detected acoustic measurement data takes place after a predetermined alarm phrase in real time.
  • the alerting phrase includes a short spoken phrase that is publicly represented in the surveillance area.
  • emotions are determined on the basis of the acoustic measurement data, preferably at the same time. In other words, emotions or patterns to be assigned to emotions are searched for in the measurement data. In the further course of the method it is determined whether there is a temporal correlation between a found alarming phrase and determined emotions attributable to an emergency situation.
  • this process can also take place sequentially. For example, at first one type of the two mentioned information to be identified is determined and subsequently only the other type. In this variant, evaluating both types of information may be limited to a subset of the data in which at least one of the two types of information is present. Finally, an emergency situation is established in the event that there is a temporal correlation between a found alerting phrase and detected emotions.
  • a potential victim does not have to actively operate any technical devices to indicate an emergency situation, so that it is easier to detect such an emergency situation.
  • time is saved, which would otherwise be required for operating an alarm device.
  • the exact location of the event can be determined on the basis of the position of a sensor unit necessary for acquiring the acoustic measurement data. Due to the combination of the alerting phrase with the detection, the evaluation and the assignment of emotions, it is possible with great certainty to distinguish a real emergency situation from a harmless situation. For example, in a joking use of the alerting phrase, no emotion associated with an emergency situation is detected. By contrast, in a real emergency situation, the acoustic measurement data is used an emotion characteristic of an emergency situation is detected, so that an abuse of the alerting phrase can be prevented.
  • the method according to the invention for automatically detecting an emergency situation of one or more persons in a surveillance area is initially carried out. Moreover, there is an automatic triggering of an alarm in the event that an emergency situation has been detected.
  • a Alarmie tion for example, a visual or audible Sig nal
  • a signal light can be generated, which confirms the victim that the alarm has taken place, and causes a possibly existing offenders to abort his act, as this Monitoring by a monitoring system and the triggering of the alarm is clarified.
  • the alerting method shares the advantages of the inventive method for automatically detecting an emergency situation of one or more persons in a surveillance area.
  • the monitoring system according to the invention comprises an acoustic sensor unit for continuous sensor-based acquisition of acoustic measurement data from the monitoring area.
  • Part of the monitoring system according to the invention is also an evaluation unit for automatically searching the acquired acoustic measurement data for a predetermined alerting phrase in real time.
  • the alerting phrase includes a short spoken sentence that is publicly displayed in the surveillance area.
  • the monitoring system according to the invention has an emotion determination unit for automatically determining emotions on the basis of the measurement data.
  • Part of the monitoring system according to the invention is also a correlation determination unit, which is set up to determine whether there is a temporal correlation between a found alarming phrase and detected emotions.
  • the monitoring System on an emergency situation detection unit.
  • the emergency situation detection unit is set up to determine an emergency situation in the event that there is a temporal correlation between a found alarming phrase and detected emotions that are associated with an emergency situation. That is, the emergency situation detection unit conveys the information that there is an emergency situation when it receives the message that there is a temporal correlation between a found alarming phrase and detected emotions that are associated with an emergency situation.
  • a short sentence can be recognized much more securely than a single keyword. Instead of a single sentence, several sentences or other meaningful sequences of words may be used.
  • the monitoring system according to the invention shares the advantages of the method according to the invention for the automated detection of an emergency situation of one or more persons in a surveillance area.
  • the alarm system according to the invention comprises the monitoring system according to the invention and an alarm unit for automa ticated triggering of an alarm in response to an emergency situation detected by the monitoring system.
  • the inven tion proper alarm system shares the advantages of erfindungsge MAESSEN monitoring system.
  • Some components of the monitoring system according to the invention may be formed after supplementing an acoustic sensor for the greater part in the form of software components.
  • This relates in particular to parts of the evaluation unit, the emotion determination unit, the correlation determination unit and the emergency situation detection unit.
  • these components but also in part, in particular when it comes to very fast calculations, in the form of software-supported hardware, such as FPGAs or the like, be realized.
  • the needed Interfaces for example, when it comes only to a transfer of data from other software components, be designed as software interfaces. However, they can also be configured as hardware-based interfaces, which are controlled by suitable software.
  • a largely software implementation has the advantage that even so far for monitoring a range IN ANY computer systems for a possible addition of additional hardware elements, such as the acoustic sensor unit's rule, can be easily retrofitted by a software update to the on to work according to the invention.
  • the task is also solved by a corresponding computer program product with a computer program which can be loaded directly into a memory device of such a computer system, cut with program section in order to execute all the steps of the method according to the invention when the computer program is executed in the computer system.
  • Such a computer program product may, in addition to the computer program, optionally contain additional components, such as e.g. a documentation and / or additional components, also hardware components, such as e.g. Hardware keys (dongles, etc.) for using the software include
  • a compu terlesbares medium such as a memory stick, a hard disk or other portable or fixed Schwarzer disk serve, on which the readable from a computer unit and executable program sections of the computer program are stored.
  • the computer unit may e.g. have this one or more cooperating micro-processors or the like.
  • determining the emotions and determining a temporal correlation between a found alerting phrase and a detected emotion comprises automatically determining a time of occurrence of the alerting phrase in the event that an alerting phrase has been detected, and automatically determining Emotions based on the acoustic measurement data in a time window, which includes the time point of occurrence of the alerting phrase.
  • the determination of a temporal correlation between the alerting phrase and emotions occurs by searching a time window around the time at which the alerting phrase occurs. The size of the time window can be determined, for example, based on empirical values. An existing database can be used by learning methods, such as machine learning, to establish such parameters. If, in the said time window, emotions are found that can be attributed to an emergency situation, a message appears that an emergency situation exists.
  • the detection of emotions comprises the detection of at least one of the following characteristics of the measured data:
  • the alarm phrase is determined on the basis of characteristics of the chronological progression of a recorded sound amplitude of the acquired acoustic measured data. In this case, a comparison with a known pattern of a sound amplitude, which is assigned to a particular alarming phrase, serve to detect this alarming phrase.
  • the emotions are determined on the basis of characteristics of the temporal course of a recorded sound amplitude of the acquired acoustic measurement data.
  • a pattern of a specific time course of a sound amplitude or a pattern of a bestimm th frequency spectrum which is derivable by Fourier transform from the time course of a sound amplitude, serve as a comparison pattern for comparison with the recorded th measurement data.
  • different patterns associated with different emotions can be read from a database and compared with the measurement data to interpret the acquired measurement data and to determine the type of emotions currently occurring. On the basis of the type of emotions, it is then possible, in combination with the alarm phrase, to conclude the occurrence of an emergency situation and possibly even to determine the nature of the emergency situation. For example, based on the frequency spectrum on the emotions anger and fear can be concluded. This combination of emotions can be combined with a walttat. If, on the other hand, only the emotion fear is detected, an accident situation is more likely.
  • the correlation determination unit has a time determination unit for automatically determining a time of occurrence of the alarming phrase in the event that an alarming phrase has been detected.
  • the correlation determination unit includes a time-slot setting unit for setting a time window that includes the time of occurrence of the alerting phrase.
  • the correlation determination unit comprises a detection unit for detecting emotions in the specified time window.
  • the emotion determination unit is thus set up to automatically determine emotions in the specified time window.
  • the search for emotion patterns in the audio data can be limited to time windows oriented on the appearance of alerting phrases, so that the evaluation of the acquired monitoring data is accelerated.
  • FIG. 1 shows a flow chart, which illustrates a method for automated detection of an emergency situation of one or more persons in a monitoring area and for triggering an alarm according to an embodiment of the invention
  • FIG. 2 shows a flowchart which illustrates a method for automated detection of an emergency situation of one or more persons in a monitoring area and for triggering an alarm according to a second embodiment of the invention
  • 3 is a block diagram showing an alarm system with a
  • FIG 1 a flowchart 100 is shown, which drive a Ver for automated detection of an emergency situation egg ner or more people in a surveillance area UB (see FIG 3) and for triggering an alarm according to an imple mentation example of the invention illustrates.
  • the monitoring area ÜB may include, for example, a waiting area of a train station, for example a platform, on which people are staying for a certain time.
  • acoustic measurement data AMD are continuously acquired by the monitoring area ÜB.
  • the measured data reproduce the noises occurring or to be perceived in the monitoring area UB, for example in the form of a sonogram or an amplitude-time curve.
  • the amplitude-time curve is then examined automatically in step l.II for sections which correspond to a sonogram of a predetermined alarming phrase AP.
  • Such an alerting phrase AP may be, for example, "I need help" and be clearly visible in the monitoring area ÜB.
  • an alerting phrase AP has been found, which is marked "j" in FIG l.III passed. If no alarm phrase AP found, which is marked in Figure 2 with "n” is returned to the step 1.
  • step l.III an automated determination of a time t A at which the alerting phrase AP was found continues to take place. That is, the position of a curve section associated with the alarm phrase is determined in an amplitude-time diagram. On the basis of this time t A is a time window F t set at the step 1. IV, which is subsequently, at step IV respect occurring tender emotions E or certain emotions E sounds to be assigned is automatically searched.
  • step IV In the event that in the step IV portions of the amplitude-time diagram were found in the time window F t , which can be associated with an emotion E, which is to bring in connection with an emergency situation, which in FIG 1 with "j is moved to the step l.VI, in which it is determined that an emergency situation NS exists, in the event that in the step lV no emotion E could be determined who was able to communicate with an emergency situation is gene, which is marked in Figure 1 with "n", it is returned to the step 1.1 and the monitoring process is continued.
  • step l.VII an alarm message AL is triggered on the basis of the determined emergency situation NS. For example, the alarm message AL to an auxiliary team or auxiliary instance, such as the police or private security services, are transmitted, which can provide timely assistance to the person concerned.
  • FIG 2 a flowchart 200 is shown, which drive a Ver for automated detection of an emergency situation egg ner or more people in a surveillance area UB (see FIG 2) and for triggering an alarm according to a two-th embodiment of the invention illustrated.
  • a parallel detection of the alerting phrase AP and the emotions E In contrast to the first exemplary embodiment shown in FIG. 1, in the second exemplary embodiment a parallel detection of the alerting phrase AP and the emotions E.
  • step 2 I, as in step 1, I continuously acquires acoustic measurement data AMD from the monitoring area UB. Unlike in the first embodiment illustrated in FIG. 1, however, the detection and evaluation of the alarming phrase AP and of the emotions E in the second exemplary embodiment take place in parallel in time, wherein the steps II. II to 2.IV correspond to the steps 1 .II to 1. IV ie, the acoustic measurement data AMD is searched for an alert phrase AP and a time window F t for synchronous with the alert phase AP occurs. tende emotions E set. Furthermore, temporally parallel to it in step 2.V emotions E are determined on the basis of the acoustic measurement data AMD.
  • step 2.VI it is further determined whether detected emotions E in the fixed time window F t are related to the alerting phrase AP. In the event that emotions E are detected in the time window F t , which is marked "j" in FIG. 2, the process proceeds to step 2. VII. In step 2 .VII it is determined that an emergency situation NS exists. If appropriate, the nature of the emergency situation is also deduced on the basis of the type of emotions E, so that a more exact message can be forwarded about the nature of the emergency situation In the event that no emotions E in the time slot F t could be determined, which are to be associated with an emergency situation, which is marked in Figure 2 with "n", then returns to the step 2.1 and the monitoring process is continued.
  • an alarm message AL is triggered on the basis of the determined emergency situation NS in step 2. VIII.
  • the alarm message AL to an auxiliary team or auxiliary instance, such as the police or private security services, are transmitted, which can promptly give the affected person NEN help.
  • FIG 3 is a block diagram is shown, which illustrates a Alarmsys system 1 with a monitoring system 10 according to an embodiment of the invention Ausry. part of
  • Alarm system 1 is in addition to the mentioned monitoring system 10 also an alarm unit 16, can be set with the auxiliary forces of egg ner emergency situation NS in a monitoring area ÜB in knowledge.
  • the monitoring system 10 also includes an acoustic Sen sorritt 11 with a sound recording microphone, which serves to record continuous acoustic measurement data AMD of the surveillance area ÜB.
  • the acoustic measurement data AMD are transmitted to an evaluation unit 12, which The acoustic measurement data AMD automatically searches in real time for a predetermined alert phrase AP.
  • the acoustic measurement data AMD are also transmitted to an emotion detection unit 13 which searches the acoustic measurement data AMD for emotions E in the manner described above for the automatic mode.
  • the correlation determination unit 14 comprises a time determination unit 14a, which automatically determines a time t A of the occurrence of the alarming phrase AP. On the basis of the determined time point t A , a time window F t is automatically determined by a time window determination unit 14b, which is also part of the correlation determination unit 14. The time window F t is searched by a detection unit 14c, which is also part of the correlation determination unit 14, for the occurrence of emotions E assigned to an emergency situation. The emotion E receives the detection unit 14c from the emotion determination unit 13.
  • this result EE is transmitted to an emergency situation detection unit 15, which determines on the basis of this result EE that an emergency situation NS is present.
  • This information NS is finally forwarded by the monitoring system 10 to the alerting unit 16 which, as already mentioned, alerts suitable assistants.

Landscapes

  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Engineering & Computer Science (AREA)
  • Psychology (AREA)
  • Computer Security & Cryptography (AREA)
  • Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

The invention relates to a method for the automated detection of an emergency situation of one or more persons in a monitoring region (ÜB). In the method, acoustic measurement data (AMD) of the monitoring region (ÜB) are continuously captured by sensing. Furthermore, an automated search of the captured acoustic measurement data (AMD) for a predefined alarming phrase (AP) is conducted in real time. In addition, an automated determination of emotions (E) is conducted on the basis of the measurement data (AMD). In addition, it is determined whether there is a temporal correlation between a found alarming phrase (AP) and determined emotions (E). Finally, an emergency situation (NS) is determined if there is a temporal correlation between a found alarming phrase (AP) and determined emotions (E). The invention further relates to an alarming method. The invention further relates to a monitoring system (10). In addition, the invention relates to an alarm system (1).

Description

Beschreibung description
Automatisiertes Detektieren einer Notsituation einer oder mehrerer Personen Automated detection of an emergency situation of one or more persons
Die Erfindung betrifft ein Verfahren zum automatisierten De tektieren einer Notsituation einer oder mehrerer Personen in einem Überwachungsbereich. Ferner betrifft die Erfindung ein Alarmierungsverfahren. Weiterhin betrifft die Erfindung ein Überwachungssystem. Überdies betrifft die Erfindung ein The invention relates to a method for automatically de tektieren an emergency situation of one or more persons in a surveillance area. Furthermore, the invention relates to an alerting method. Furthermore, the invention relates to a monitoring system. Moreover, the invention relates to a
Alarmsystem. Alarm system.
Um die Sicherheit von Personen im öffentlichen Raum und im privaten Umfeld zu verbessern, werden zunehmend Kamerasysteme eingesetzt. Videodaten werden zur Beweissicherung und zu Er mittlungszwecken sowie zur EchtZeitüberwachung eingesetzt. Dabei wird neben der direkten Beobachtung durch Personen auch zunehmend eine automatisierte Überwachung genutzt. Allerdings lassen sich mit diesen Systemen meistens Notsituationen, wie zum Beispiel bei Gewaltverbrechen, nur im Nachhinein dokumen tieren, wohingegen ein Alarmieren und rechtzeitiges Eingrei fen, um das potentielle Opfer zu retten, oft nicht möglich ist . In order to improve the safety of people in public spaces and private environments, camera systems are increasingly being used. Video data is to preserve evidence and He mediation purposes and used eitüberwachung for real-Z. In addition to the direct observation by persons also an automated monitoring is increasingly used. However, with these systems, emergency situations, such as violent crimes, can only be documented with hindsight, whereas alerting and timely intervention to save the potential victim is often not possible.
Gefahrensituationen können nicht nur bei gewalttätigen Ausei nandersetzungen auftreten, sondern auch bei Unfällen, dem Ausbruch eines Feuers, Rauchentwicklung oder anderen Ereig nissen, die die Gesundheit oder gar das Leben einer Person bedrohen . Danger situations can occur not only in violent disputes, but also in accidents, the outbreak of a fire, smoke or other events that threaten the health or even the life of a person.
Damit qualifiziertes Personal die Möglichkeit bekommt, in solchen Situationen helfend einzugreifen, muss dieses alar miert werden. Herkömmlich steht für eine Alarmierung eine Notrufnummer, z.B. die 112, zur Verfügung. In Zügen kann eine Notbremse ausgelöst werden. Auf Bahnsteigen und in öffentli chen Gebäuden sind oft Not-Taster und Gegensprechanlagen in stalliert. Für Smartphones gibt es Applikationen mit denen in Not geratene Personen einen Notruf absetzen können. Weiterhin können auch zufällige Zeugen auf die beschriebene Art und Weise einen Alarm auslösen. In order for qualified personnel to be able to intervene in such situations, they must be alerted. Conventionally, an emergency number, for example the 112, is available for alerting. In trains, an emergency brake can be triggered. Emergency platforms and intercom systems are often installed on platforms and in public buildings. For smartphones, there are applications with which people in distress can make an emergency call. Farther Random witnesses can also trigger an alarm in the manner described.
Allerdings erfordern die genannten Alarmierungsverfahren das aktive Auslösen des Alarms durch die betroffene Person oder einen entsprechenden Zeugen. Oft jedoch sind Opfer physisch und psychisch nicht dazu in der Lage, einen Alarmknopf zu drücken oder gar eine Telefonnummer zu wählen. However, the said alarming methods require the active triggering of the alarm by the person concerned or a corresponding witness. However, often victims are physically and mentally unable to press an alarm button or even dial a phone number.
In US 2007/ 0 183 604 Al werden ein Verfahren und ein System beschrieben, welche der Überwachung einer Umgebung dienen. Es werden akustische Daten über Mikrophone erfasst und es werden Geräuschquellen anhand dieser Daten identifiziert. Anhand des Vergleichs von Parameterwerten wird eine Situation als normal oder als davon abweichend eingestuft. Im letzteren Fall wird eine Antwort zur Behebung der Anomalie initiiert. US 2007/0 183 604 A1 describes a method and a system which serve to monitor an environment. Acoustic data is collected via microphones and noise sources are identified from this data. Based on the comparison of parameter values, a situation is classified as normal or as deviant. In the latter case, a response to resolve the anomaly is initiated.
In US 5,666,157 wird ein Überwachungssystem beschrieben, bei dem anhand von Videodaten erfasste Bewegungen von Personen mit Referenzbewegungen verglichen werden, die für kriminelle Handlungen und Absichten charakteristisch sind. Das Ausmaß der kriminellen Absichten wird ermittelt und es wird ein pas sendes Alarmsignal erzeugt. US 5,666,157 describes a surveillance system in which video-related movements of persons are compared with reference movements characteristic of criminal acts and intentions. The extent of criminal intentions is determined and an appropriate alarm signal is generated.
In US 2015/ 0 070 166 Al werden ein System und ein Verfahren zur Detektion der Anwendung einer Schusswaffe in einem Gebäu de beschrieben. In Telefonen versteckte Mikrophone werden zur Aufnahme akustischer Daten genutzt. Die erfassten Daten wer den zentral verarbeitet. Auf Basis der Detektion kann auch ein Gebäudekontrollsystem angesteuert werden. US 2015/0 070 166 A1 describes a system and a method for detecting the use of a firearm in a building. Microphones hidden in telephones are used to record acoustic data. The collected data is processed centrally. Based on the detection, a building control system can also be controlled.
In DE 20 2015 102 253 Ul wird eine Vorrichtung zum Koppeln eines am Körper tragbaren Geräts mit einem Smart-Gerät be schrieben . In DE 20 2015 102 253 Ul a device for coupling a wearable device to a smart device will be described.
In WO 01/ 33 134 Al werden ein Verfahren und eine Vorrichtung zum Erkennen einer von einer Umgebung für ein Lebewesen aus gehenden Gefahr beschrieben. Es werden von einem Lebewesen ausgehende physiologische Signale erfasst und ausgewertet, um einen Gefahrenfall zu erkennen und gegebenenfalls automati siert am Aufenthaltsort des Lebewesens Maßnahmen zum Entge genwirken gegen die Gefahr auszulösen. WO 01/33134 A1 describes a method and an apparatus for detecting a danger emanating from a living environment. It will be of a living thing Outgoing physiological signals are recorded and evaluated in order to detect a hazard and, if appropriate, automatically trigger measures to counteract the danger at the place of residence of the animal.
In DE 600 31 432 T2 wird die Detektion von Emotionen in Sprachsignalen mittels statistischer Analyse von Sprachsig nalparametern beschrieben. DE 600 31 432 T2 describes the detection of emotions in speech signals by means of statistical analysis of speech signal parameters.
In US 2017/ 0 277 947 Al werden Daten eines Überwachungssys tems mit Hilfe von Kameras übertragen, welche auf Sensoren gerichtet sind. Die Sensoren weisen eine modulierbare Licht quelle auf, deren Licht in Bildern erfasst wird, die von den Kameras aufgenommen werden. In US 2017/0 277 947 A1, data of a monitoring system are transmitted by means of cameras which are directed to sensors. The sensors have a modulatable light source whose light is captured in images taken by the cameras.
In WO 2011/ 025 460 Al erfolgt auf Basis von Sensorsignalen eine Klassifizierung eines Ereignisses in einem überwachten Bereich . In WO 2011/025 460 A1, a classification of an event in a monitored area is performed on the basis of sensor signals.
In US 2017/ 0 316 260 Al wird eine automatisierte Gestener kennung beschrieben, wobei zusätzlich zu Bilddaten auch Meta daten verarbeitet werden, um zu ermitteln, ob die erfasste Geste zugelassen ist oder nicht. In US 2017/0 316 260 Al, an automated gesture recognition is described, wherein in addition to image data also meta data are processed to determine whether the detected gesture is allowed or not.
Es besteht also die Aufgabe, ein Verfahren und eine Vorrich tung zu entwickeln, mit denen eine Notsituation einer Person erkannt und ein entsprechender Alarm ausgelöst werden kann. It is therefore the task of developing a method and a Vorrich device with which an emergency situation of a person detected and a corresponding alarm can be triggered.
Diese Aufgabe wird durch ein Verfahren zum Detektieren einer Notsituation mindestens einer Person gemäß Patentanspruch 1, ein Alarmierungsverfahren gemäß Patentanspruch 7, ein Überwa chungssystem gemäß Patentanspruch 8 sowie ein Alarmsystem ge mäß Patentanspruch 10 gelöst. This object is achieved by a method for detecting an emergency situation of at least one person according to claim 1, an alerting method according to claim 7, a moni monitoring system according to claim 8 and an alarm system ge according to claim 10.
Bei dem erfindungsgemäßen Verfahren zum automatisierten De tektieren einer Notsituation einer oder mehrerer Personen in einem Überwachungsbereich werden kontinuierlich sensoriell akustische Messdaten von dem Überwachungsbereich erfasst. Weiterhin erfolgt ein automatisiertes Durchsuchen der erfass ten akustischen Messdaten nach einer vorbestimmten Alarmie rungsphrase in Echtzeit. Die Alarmierungsphrase umfasst einen kurzen, gesprochenen Satz, der im Überwachungsbereich öffent lich dargestellt ist. Zudem werden, vorzugsweise zeitgleich, Emotionen auf Basis der akustischen Messdaten ermittelt. An ders ausgedrückt werden Emotionen zuzuordnende Charakteristi ka oder Muster in den Messdaten gesucht. Im weiteren Verlauf des Verfahrens wird ermittelt, ob eine zeitliche Korrelation zwischen einer gefundenen Alarmierungsphrase und ermittelten, einer Notsituation zuzuordnenden Emotionen besteht. Anstatt einer zeitgleichen Detektion der Alarmierungsphrase und der Emotionen kann dieser Vorgang auch sequentiell erfolgen. Bei spielsweise wird zuerst ein Typ der beiden genannten zu iden tifizierenden Informationen ermittelt und nachfolgend erst der andere Typ. Bei dieser Variante kann ein Auswerten beider Arten von Informationen auf eine Teilmenge der Daten be schränkt werden, in denen mindestens eine der beiden Arten von Informationen vorhanden ist. Schließlich wird eine Notsi tuation für den Fall ermittelt, dass eine zeitliche Korrela tion zwischen einer gefundenen Alarmierungsphrase und ermit telten Emotionen besteht. In the method according to the invention for the automated detection of an emergency situation of one or more persons in a monitoring area, acoustic measured data are continuously acquired by the monitoring area. Furthermore, an automated search of the detected acoustic measurement data takes place after a predetermined alarm phrase in real time. The alerting phrase includes a short spoken phrase that is publicly represented in the surveillance area. In addition, emotions are determined on the basis of the acoustic measurement data, preferably at the same time. In other words, emotions or patterns to be assigned to emotions are searched for in the measurement data. In the further course of the method it is determined whether there is a temporal correlation between a found alarming phrase and determined emotions attributable to an emergency situation. Instead of a simultaneous detection of the alerting phrase and the emotions, this process can also take place sequentially. For example, at first one type of the two mentioned information to be identified is determined and subsequently only the other type. In this variant, evaluating both types of information may be limited to a subset of the data in which at least one of the two types of information is present. Finally, an emergency situation is established in the event that there is a temporal correlation between a found alerting phrase and detected emotions.
Vorteilhaft muss ein potentielles Opfer keine technischen Ge räte aktiv betätigen, um eine Notsituation anzuzeigen, so dass das Detektieren einer solchen Notsituation erleichtert ist. Zudem wird Zeit eingespart, die sonst für das Betätigen einer Alarmeinrichtung benötigt würde. Weiterhin kann auf Ba sis der Position einer für das Erfassen der akustischen Mess daten notwendigen Sensoreinheit der exakte Ort des Geschehens ermittelt werden. Aufgrund der Kombination der Alarmierungs phrase mit der Detektion, der Auswertung und der Zuordnung von Emotionen lässt sich mit großer Sicherheit eine echte Notsituation von einer ungefährlichen Situation unterschei den. Beispielsweise wird bei einem scherzhaften Benutzen der Alarmierungsphrase keine Emotion detektiert, die mit einer Notsituation in Verbindung zu bringen ist. Dagegen wird bei einer echten Notsituation anhand der akustischen Messdaten eine für eine Notsituation charakteristische Emotion detek- tiert, so dass ein Missbrauch der Alarmierungsphrase verhin dert werden kann. Advantageously, a potential victim does not have to actively operate any technical devices to indicate an emergency situation, so that it is easier to detect such an emergency situation. In addition, time is saved, which would otherwise be required for operating an alarm device. Furthermore, the exact location of the event can be determined on the basis of the position of a sensor unit necessary for acquiring the acoustic measurement data. Due to the combination of the alerting phrase with the detection, the evaluation and the assignment of emotions, it is possible with great certainty to distinguish a real emergency situation from a harmless situation. For example, in a joking use of the alerting phrase, no emotion associated with an emergency situation is detected. By contrast, in a real emergency situation, the acoustic measurement data is used an emotion characteristic of an emergency situation is detected, so that an abuse of the alerting phrase can be prevented.
Bei dem erfindungsgemäßen Alarmierungsverfahren wird zunächst das erfindungsgemäße Verfahren zum automatisierten Detektie- ren einer Notsituation einer oder mehrerer Personen in einem Überwachungsbereich durchgeführt. Überdies erfolgt ein auto matisiertes Auslösen eines Alarms für den Fall, dass eine Notsituation detektiert wurde. Als Reaktion auf eine Alarmie rung kann beispielsweise ein optisches oder akustisches Sig nal, im einfachsten Fall ein Signallicht, erzeugt werden, das dem Opfer bestätigt, dass die Alarmierung stattgefunden hat, und das einen eventuell vorhandenen Täter zum Abbruch seiner Tat veranlasst, da diesem die Überwachung durch ein Überwa chungssystem und das Auslösen des Alarms verdeutlich wird.In the alerting method according to the invention, the method according to the invention for automatically detecting an emergency situation of one or more persons in a surveillance area is initially carried out. Moreover, there is an automatic triggering of an alarm in the event that an emergency situation has been detected. In response to a Alarmie tion, for example, a visual or audible Sig nal, in the simplest case, a signal light can be generated, which confirms the victim that the alarm has taken place, and causes a possibly existing offenders to abort his act, as this Monitoring by a monitoring system and the triggering of the alarm is clarified.
Das Alarmierungsverfahren teilt die Vorteile des erfindungs gemäßen Verfahrens zum automatisierten Detektieren einer Not situation einer oder mehrerer Personen in einem Überwachungs bereich . The alerting method shares the advantages of the inventive method for automatically detecting an emergency situation of one or more persons in a surveillance area.
Das erfindungsgemäße Überwachungssystem umfasst eine akusti sche Sensoreinheit zum kontinuierlichen sensoriellen Erfassen von akustischen Messdaten von dem Überwachungsbereich. Teil des erfindungsgemäßen Überwachungssystems ist auch eine Aus wertungseinheit zum automatisierten Durchsuchen der erfassten akustischen Messdaten nach einer vorbestimmten Alarmierungs phrase in Echtzeit. Die Alarmierungsphrase umfasst einen kur zen, gesprochenen Satz, der im Überwachungsbereich öffentlich dargestellt ist. Überdies weist das erfindungsgemäße Überwa chungssystem eine Emotions-Ermittlungseinheit zum automati sierten Ermitteln von Emotionen auf Basis der Messdaten auf. The monitoring system according to the invention comprises an acoustic sensor unit for continuous sensor-based acquisition of acoustic measurement data from the monitoring area. Part of the monitoring system according to the invention is also an evaluation unit for automatically searching the acquired acoustic measurement data for a predetermined alerting phrase in real time. The alerting phrase includes a short spoken sentence that is publicly displayed in the surveillance area. Moreover, the monitoring system according to the invention has an emotion determination unit for automatically determining emotions on the basis of the measurement data.
Teil des erfindungsgemäßen Überwachungssystems ist auch eine Korrelations-Ermittlungseinheit, welche dazu eingerichtet ist, zu ermitteln, ob eine zeitliche Korrelation zwischen ei ner gefundenen Alarmierungsphrase und ermittelten Emotionen besteht. Schließlich weist das erfindungsgemäße Überwachungs- System eine Notsituations-Detektionseinheit auf. Die Notsitu- ations-Detektionseinheit ist dazu eingerichtet, eine Notsitu ation für den Fall zu ermitteln, dass eine zeitliche Korrela tion zwischen einer gefundenen Alarmierungsphrase und ermit telten Emotionen, die mit einer Notsituation in Verbindung zu bringen sind, besteht. D.h., die Notsituations-Detektions- einheit übermittelt die Information, dass eine Notsituation besteht, wenn sie die Nachricht erhält, dass eine zeitliche Korrelation zwischen einer gefundenen Alarmierungsphrase und ermittelten Emotionen, die mit einer Notsituation in Verbin dung zu bringen sind, besteht. Vorteilhaft kann ein kurzer Satz deutlich sicherer erkannt werden, als ein einzelnes Schlüsselwort. Anstatt eines einzigen Satzes können auch meh rere Sätze oder sonstige sinnvolle Aneinanderreihungen von Wörtern verwendet werden. Part of the monitoring system according to the invention is also a correlation determination unit, which is set up to determine whether there is a temporal correlation between a found alarming phrase and detected emotions. Finally, the monitoring System on an emergency situation detection unit. The emergency situation detection unit is set up to determine an emergency situation in the event that there is a temporal correlation between a found alarming phrase and detected emotions that are associated with an emergency situation. That is, the emergency situation detection unit conveys the information that there is an emergency situation when it receives the message that there is a temporal correlation between a found alarming phrase and detected emotions that are associated with an emergency situation. Advantageously, a short sentence can be recognized much more securely than a single keyword. Instead of a single sentence, several sentences or other meaningful sequences of words may be used.
Das erfindungsgemäße Überwachungssystem teilt die Vorteile des erfindungsgemäßen Verfahrens zum automatisierten Detek- tieren einer Notsituation einer oder mehrerer Personen in ei nem Überwachungsbereich. The monitoring system according to the invention shares the advantages of the method according to the invention for the automated detection of an emergency situation of one or more persons in a surveillance area.
Das erfindungsgemäße Alarmsystem umfasst das erfindungsgemäße Überwachungssystem sowie eine Alarmierungseinheit zum automa tisierten Auslösen eines Alarms in Abhängigkeit von einer von dem Überwachungssystem detektierten Notsituation . Das erfin dungsgemäße Alarmsystem teilt die Vorteile des erfindungsge mäßen Überwachungssystems. The alarm system according to the invention comprises the monitoring system according to the invention and an alarm unit for automa ticated triggering of an alarm in response to an emergency situation detected by the monitoring system. The inven tion proper alarm system shares the advantages of erfindungsge MAESSEN monitoring system.
Einige Komponenten des erfindungsgemäßen Überwachungssystems können nach Ergänzung eines akustischen Sensors zum überwie genden Teil in Form von Softwarekomponenten ausgebildet sein. Dies betrifft insbesondere Teile der Auswertungseinheit, der Emotions-Ermittlungseinheit, der Korrelations-Ermittlungs einheit und der Notsituations-Detektionseinheit . Grundsätz lich können diese Komponenten aber auch zum Teil, insbeson dere wenn es um besonders schnelle Berechnungen geht, in Form von softwareunterstützter Hardware, beispielsweise FPGAs oder dergleichen, realisiert sein. Ebenso können die benötigten Schnittstellen, beispielsweise wenn es nur um eine Übernahme von Daten aus anderen Softwarekomponenten geht, als Software schnittstellen ausgebildet sein. Sie können aber auch als hardwaremäßig aufgebaute Schnittstellen ausgebildet sein, die durch geeignete Software angesteuert werden. Some components of the monitoring system according to the invention may be formed after supplementing an acoustic sensor for the greater part in the form of software components. This relates in particular to parts of the evaluation unit, the emotion determination unit, the correlation determination unit and the emergency situation detection unit. In principle Lich these components but also in part, in particular when it comes to very fast calculations, in the form of software-supported hardware, such as FPGAs or the like, be realized. Likewise, the needed Interfaces, for example, when it comes only to a transfer of data from other software components, be designed as software interfaces. However, they can also be configured as hardware-based interfaces, which are controlled by suitable software.
Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher zur Überwachung eines Bereichs vorhan dene Rechnersysteme nach einer eventuellen Ergänzung durch zusätzliche Hardwareelemente, wie zum Beispiel der akusti schen Sensoreinheit, auf einfache Weise durch ein Software- Update nachgerüstet werden können, um auf die erfindungsgemä ße Weise zu arbeiten. Insofern wird die Aufgabe auch durch ein entsprechendes Computerprogrammprodukt mit einem Compu terprogramm gelöst, welches direkt in eine Speichereinrich tung eines solchen Rechnersystems ladbar ist, mit Programmab schnitten, um alle Schritte des erfindungsgemäßen Verfahrens auszuführen, wenn das Computerprogramm in dem Rechnersystem ausgeführt wird. A largely software implementation has the advantage that even so far for monitoring a range IN ANY computer systems for a possible addition of additional hardware elements, such as the acoustic sensor unit's rule, can be easily retrofitted by a software update to the on to work according to the invention. In this respect, the task is also solved by a corresponding computer program product with a computer program which can be loaded directly into a memory device of such a computer system, cut with program section in order to execute all the steps of the method according to the invention when the computer program is executed in the computer system.
Ein solches Computerprogrammprodukt kann neben dem Computer programm gegebenenfalls zusätzliche Bestandteile, wie z.B. eine Dokumentation und/oder zusätzliche Komponenten, auch Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen Such a computer program product may, in addition to the computer program, optionally contain additional components, such as e.g. a documentation and / or additional components, also hardware components, such as e.g. Hardware keys (dongles, etc.) for using the software include
Zum Transport zur Speichereinrichtung des Rechnersystems und/oder zur Speicherung an dem Rechnersystem kann ein compu terlesbares Medium, beispielsweise ein Memorystick, eine Festplatte oder ein sonstiger transportabler oder fest einge bauter Datenträger dienen, auf welchem die von einer Rech nereinheit einlesbaren und ausführbaren Programmabschnitte des Computerprogramms gespeichert sind. Die Rechnereinheit kann z.B. hierzu einen oder mehrere zusammenarbeitende Mikro prozessoren oder dergleichen aufweisen. For transport to the storage device of the computer system and / or for storage on the computer system, a compu terlesbares medium, such as a memory stick, a hard disk or other portable or fixed bauter disk serve, on which the readable from a computer unit and executable program sections of the computer program are stored. The computer unit may e.g. have this one or more cooperating micro-processors or the like.
Die abhängigen Ansprüche sowie die nachfolgende Beschreibung enthalten jeweils besonders vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung. Dabei können insbesondere die Ansprüche einer Anspruchskategorie auch analog zu den ab hängigen Ansprüchen einer anderen Anspruchskategorie und de ren Beschreibungsteilen weitergebildet sein. Zudem können im Rahmen der Erfindung auch die verschiedenen Merkmale unter schiedlicher Ausführungsbeispiele und Ansprüche auch zu neuen Ausführungsbeispielen kombiniert werden. The dependent claims and the following description each contain particularly advantageous embodiments and Further developments of the invention. In this case, in particular the claims of a claim category can also be further developed analogously to the dependent claims of another claim category and de ren description parts. In addition, in the context of the invention, the various features under different embodiments and claims can also be combined to form new embodiments.
In einer Variante des erfindungsgemäßen Verfahrens umfasst das Ermitteln der Emotionen und das Ermitteln einer zeitli chen Korrelation zwischen einer gefundenen Alarmierungsphrase und einer ermittelten Emotion ein automatisiertes Ermitteln eines Zeitpunkts des Auftretens der Alarmierungsphrase für den Fall, dass eine Alarmierungsphrase ermittelt wurde, und ein automatisiertes Ermitteln von Emotionen auf Basis der akustischen Messdaten in einem Zeitfenster, welches den Zeit punkt des Auftretens der Alarmierungsphrase umfasst. Bei die ser Variante erfolgt das Ermitteln einer zeitlichen Korrela tion zwischen Alarmierungsphrase und Emotionen durch das Durchsuchen eines Zeitfensters um den Zeitpunkt des Auftre tens der Alarmierungsphrase herum. Die Größe des Zeitfensters kann zum Beispiel basierend auf Erfahrungswerten festgelegt werden. Eine vorhandene Datenbasis kann durch Lernverfahren, beispielsweise maschinelles Lernen, zu einer Festlegung sol cher Parameter genutzt werden. Werden in dem genannten Zeit fenster Emotionen gefunden, die einer Notsituation zuzuordnen sind, so erfolgt eine Meldung, dass eine Notsituation vor liegt . In a variant of the inventive method, determining the emotions and determining a temporal correlation between a found alerting phrase and a detected emotion comprises automatically determining a time of occurrence of the alerting phrase in the event that an alerting phrase has been detected, and automatically determining Emotions based on the acoustic measurement data in a time window, which includes the time point of occurrence of the alerting phrase. In this variant, the determination of a temporal correlation between the alerting phrase and emotions occurs by searching a time window around the time at which the alerting phrase occurs. The size of the time window can be determined, for example, based on empirical values. An existing database can be used by learning methods, such as machine learning, to establish such parameters. If, in the said time window, emotions are found that can be attributed to an emergency situation, a message appears that an emergency situation exists.
In einer Variante des erfindungsgemäßen Verfahrens zum auto matisierten Detektieren einer Notsituation einer oder mehre rer Personen in einem Überwachungsbereich umfasst das Ermit teln von Emotionen das Detektieren von mindestens einem der folgenden Charakteristika der Messdaten: In a variant of the method according to the invention for automatically detecting an emergency situation of one or more persons in a monitoring area, the detection of emotions comprises the detection of at least one of the following characteristics of the measured data:
- einem signifikanten Anstieg der Umgebungslautstärke,  a significant increase in ambient volume,
- einer Mindestlautstärke der Alarmierungsphrase,  - a minimum volume of the alerting phrase,
- aggressiven Äußerungen, Schreien. Die genannten Charakteristika deuten auf Emotionen hin, die im Zusammenhang mit einer Notsituation gesehen werden können. In Kombination mit der Alarmierungsphrase kann mit großer Si cherheit auf eine solche Notsituation geschlossen werden. - aggressive expressions, screaming. The characteristics mentioned above point to emotions that can be seen in connection with an emergency situation. In combination with the alarm phrase, it can be concluded with great certainty of such an emergency situation.
In einer Ausgestaltung des erfindungsgemäßen Verfahrens zum automatisierten Detektieren einer Notsituation einer oder mehrerer Personen in einem Überwachungsbereich wird die Alar mierungsphrase auf Basis von Charakteristika des zeitlichen Verlaufs einer aufgezeichneten Schallamplitude der erfassten akustischen Messdaten ermittelt. Dabei kann ein Vergleich mit einem bekannten Muster einer Schallamplitude, das einer vor bestimmten Alarmierungsphrase zugeordnet ist, dazu dienen, diese Alarmierungsphrase zu detektieren. In one embodiment of the method according to the invention for the automated detection of an emergency situation of one or more persons in a monitoring area, the alarm phrase is determined on the basis of characteristics of the chronological progression of a recorded sound amplitude of the acquired acoustic measured data. In this case, a comparison with a known pattern of a sound amplitude, which is assigned to a particular alarming phrase, serve to detect this alarming phrase.
In einer Ausgestaltung des erfindungsgemäßen Verfahrens zum automatisierten Detektieren einer Notsituation einer oder mehrerer Personen in einem Überwachungsbereich werden die Emotionen auf Basis von Charakteristika des zeitlichen Ver laufs einer aufgezeichneten Schallamplitude der erfassten akustischen Messdaten ermittelt. In one embodiment of the method according to the invention for the automated detection of an emergency situation of one or more persons in a surveillance area, the emotions are determined on the basis of characteristics of the temporal course of a recorded sound amplitude of the acquired acoustic measurement data.
Beispielsweise kann ein Muster eines bestimmten zeitlichen Verlaufs einer Schallamplitude oder ein Muster eines bestimm ten Frequenzspektrums, welches durch Fourier-Transformation aus dem zeitlichen Verlauf einer Schallamplitude ableitbar ist, als Vergleichsmuster zum Vergleich mit den aufgezeichne ten Messdaten dienen. Beispielsweise können verschiedene Mus ter, welche unterschiedlichen Emotionen zugeordnet sind, aus einer Datenbank ausgelesen und mit den Messdaten verglichen werden, um die erfassten Messdaten zu interpretieren und die Art der aktuell auftretenden Emotionen zu ermitteln. Anhand der Art der Emotionen, kann dann in Kombination mit der er fassten Alarmierungsphrase auf das Auftreten einer Notsitua tion geschlossen werden und eventuell sogar die Art der Not situation ermittelt werden. Beispielsweise kann anhand des Frequenzspektrums auf die Emotionen Wut und Angst geschlossen werden. Diese Kombination von Emotionen kann mit einer Ge- walttat in Verbindung gebracht werden. Wird dagegen nur die Emotion Angst detektiert, so ist eine Unfallsituation wahr scheinlicher . For example, a pattern of a specific time course of a sound amplitude or a pattern of a bestimm th frequency spectrum, which is derivable by Fourier transform from the time course of a sound amplitude, serve as a comparison pattern for comparison with the recorded th measurement data. For example, different patterns associated with different emotions can be read from a database and compared with the measurement data to interpret the acquired measurement data and to determine the type of emotions currently occurring. On the basis of the type of emotions, it is then possible, in combination with the alarm phrase, to conclude the occurrence of an emergency situation and possibly even to determine the nature of the emergency situation. For example, based on the frequency spectrum on the emotions anger and fear can be concluded. This combination of emotions can be combined with a walttat. If, on the other hand, only the emotion fear is detected, an accident situation is more likely.
In einer Variante des erfindungsgemäßen Überwachungssystems weist die Korrelations-Ermittlungseinheit eine Zeitpunkt- Ermittlungseinheit zum automatisierten Ermitteln eines Zeit punkts des Auftretens der Alarmierungsphrase für den Fall, dass eine Alarmierungsphrase ermittelt wurde, auf. Zudem um fasst die Korrelations-Ermittlungseinheit eine Zeitfenster- Festlegungseinheit zum Festlegen eines Zeitfensters , welches den Zeitpunkt des Auftretens der Alarmierungsphrase umfasst. Weiterhin umfasst die Korrelations-Ermittlungseinheit eine Detektionseinheit zum Detektieren von Emotionen in dem fest gelegten Zeitfenster. In a variant of the monitoring system according to the invention, the correlation determination unit has a time determination unit for automatically determining a time of occurrence of the alarming phrase in the event that an alarming phrase has been detected. In addition, the correlation determination unit includes a time-slot setting unit for setting a time window that includes the time of occurrence of the alerting phrase. Furthermore, the correlation determination unit comprises a detection unit for detecting emotions in the specified time window.
Die Emotions-Ermittlungseinheit ist also dazu eingerichtet, automatisiert Emotionen in dem festgelegten Zeitfenster zu ermitteln. Vorteilhaft kann die Suche nach Emotionsmustern in den Audiodaten auf an dem Auftreten von Alarmierungsphrasen orientierte Zeitfenster beschränkt werden, so dass die Aus wertung der erfassten Überwachungsdaten beschleunigt ist. The emotion determination unit is thus set up to automatically determine emotions in the specified time window. Advantageously, the search for emotion patterns in the audio data can be limited to time windows oriented on the appearance of alerting phrases, so that the evaluation of the acquired monitoring data is accelerated.
Die Erfindung wird im Folgenden unter Hinweis auf die beige fügten Figuren anhand von Ausführungsbeispielen noch einmal näher erläutert. Es zeigen: The invention will be explained in more detail below with reference to the attached figures beige by means of embodiments. Show it:
FIG 1 ein Flussdiagramm, welches ein Verfahren zum automati sierten Detektieren einer Notsituation einer oder meh rerer Personen in einem Überwachungsbereich und zum Auslösen eines Alarms gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht, 1 shows a flow chart, which illustrates a method for automated detection of an emergency situation of one or more persons in a monitoring area and for triggering an alarm according to an embodiment of the invention,
FIG 2 ein Flussdiagramm, welches ein Verfahren zum automati sierten Detektieren einer Notsituation einer oder meh rerer Personen in einem Überwachungsbereich und zum Auslösen eines Alarms gemäß einem zweiten Ausführungs beispiel der Erfindung veranschaulicht, FIG 3 ein Blockdiagramm, welches ein Alarmsystem mit einem2 shows a flowchart which illustrates a method for automated detection of an emergency situation of one or more persons in a monitoring area and for triggering an alarm according to a second embodiment of the invention, 3 is a block diagram showing an alarm system with a
Überwachungssystem gemäß einem Ausführungsbeispiel der Erfindung veranschaulicht. Monitoring system according to an embodiment of the invention illustrated.
In FIG 1 ist ein Flussdiagramm 100 gezeigt, welches ein Ver fahren zum automatisierten Detektieren einer Notsituation ei ner oder mehrerer Personen in einem Überwachungsbereich ÜB (siehe FIG 3) und zum Auslösen eines Alarms gemäß einem Aus führungsbeispiel der Erfindung veranschaulicht. Der Überwa chungsbereich ÜB kann zum Beispiel einen Wartebereich eines Bahnhofs, beispielsweise einen Bahnsteig, umfassen, auf dem sich Personen für eine gewisse Zeit aufhalten. In FIG 1, a flowchart 100 is shown, which drive a Ver for automated detection of an emergency situation egg ner or more people in a surveillance area UB (see FIG 3) and for triggering an alarm according to an imple mentation example of the invention illustrates. The monitoring area ÜB may include, for example, a waiting area of a train station, for example a platform, on which people are staying for a certain time.
Bei dem Schritt 1.1 werden kontinuierlich akustische Messda ten AMD von dem Überwachungsbereich ÜB erfasst. Die Messdaten geben die in dem Überwachungsbereich ÜB auftretenden bzw. wahrzunehmenden Geräusche beispielsweise in Form eines Sona- gramms bzw. einer Amplituden-Zeit-Kurve wieder. Die Amplitu- den-Zeit-Kurve wird dann bei dem Schritt l.II automatisiert nach Abschnitten untersucht, welche einem Sonagramm einer vorbestimmten Alarmierungsphrase AP entsprechen. Eine solche Alarmierungsphrase AP kann zum Beispiel „Ich brauche Hilfe" lauten und in dem Überwachungsbereich ÜB gut sichtbar ange schrieben sein. Für den Fall, dass eine Alarmierungsphrase AP gefunden wurde, was in FIG 1 mit „j" gekennzeichnet ist, wird zu dem Schritt l.III übergegangen. Wird keine Alarmierungs phrase AP gefunden, was in FIG 2 mit „n" gekennzeichnet ist, wird zu dem Schritt 1. I zurückgekehrt und es werden weiter Messdaten AMD erfasst, die dann wieder bei dem Schritt l.II nach der vorbestimmten Alarmierungsphrase durchsucht werden. In step 1.1, acoustic measurement data AMD are continuously acquired by the monitoring area ÜB. The measured data reproduce the noises occurring or to be perceived in the monitoring area UB, for example in the form of a sonogram or an amplitude-time curve. The amplitude-time curve is then examined automatically in step l.II for sections which correspond to a sonogram of a predetermined alarming phrase AP. Such an alerting phrase AP may be, for example, "I need help" and be clearly visible in the monitoring area ÜB. In the event that an alerting phrase AP has been found, which is marked "j" in FIG l.III passed. If no alarm phrase AP found, which is marked in Figure 2 with "n" is returned to the step 1. I and there are further measured data AMD detected, which are then searched again in the step l.II after the predetermined alerting phrase.
Bei dem Schritt l.III erfolgt weiterhin ein automatisiertes Ermitteln eines Zeitpunkts tA, bei dem die Alarmierungsphrase AP gefunden wurde. D.h., es wird die Position eines der Alar mierungsphrase zugeordneten Kurvenabschnitts in einem Amp- lituden-Zeit-Diagramm ermittelt. Auf Basis dieses Zeitpunkts tA wird bei dem Schritt 1. IV ein Zeitfenster Ft festgelegt, welches nachfolgend bei dem Schritt l.V hinsichtlich auftre- tender Emotionen E bzw. bestimmten Emotionen E zuzuordnenden Geräusche automatisiert durchsucht wird. Für den Fall, dass bei dem Schritt l.V Abschnitte des Amplituden-Zeit-Diagramms in dem Zeitfenster Ft gefunden wurden, welche einer Emotion E zugeordnet werden können, die mit einer Notsituation in Ver bindung zu bringen ist, was in FIG 1 mit „j" gekennzeichnet ist, wird zu dem Schritt l.VI übergegangen, bei dem festge stellt wird, dass eine Notsituation NS vorliegt. Für den Fall, dass bei dem Schritt l.V keine Emotion E ermittelt wer den konnte, die mit einer Notsituation in Verbindung zu brin gen ist, was in FIG 1 mit „n" gekennzeichnet ist, so wird zu dem Schritt 1.1 zurückgekehrt und der Überwachungsprozess wird weitergeführt. Schließlich wird bei dem Schritt l.VII eine Alarmmeldung AL auf Basis der ermittelten Notsituation NS ausgelöst. Beispielsweise kann die Alarmmeldung AL an eine Hilfsmannschaft oder Hilfsinstanz, beispielsweise die Polizei oder private Wachdienste, übermittelt werden, welche zeitnah der betroffenen Person Hilfe leisten können. In step l.III, an automated determination of a time t A at which the alerting phrase AP was found continues to take place. That is, the position of a curve section associated with the alarm phrase is determined in an amplitude-time diagram. On the basis of this time t A is a time window F t set at the step 1. IV, which is subsequently, at step IV respect occurring tender emotions E or certain emotions E sounds to be assigned is automatically searched. In the event that in the step IV portions of the amplitude-time diagram were found in the time window F t , which can be associated with an emotion E, which is to bring in connection with an emergency situation, which in FIG 1 with "j is moved to the step l.VI, in which it is determined that an emergency situation NS exists, in the event that in the step lV no emotion E could be determined who was able to communicate with an emergency situation is gene, which is marked in Figure 1 with "n", it is returned to the step 1.1 and the monitoring process is continued. Finally, in step l.VII, an alarm message AL is triggered on the basis of the determined emergency situation NS. For example, the alarm message AL to an auxiliary team or auxiliary instance, such as the police or private security services, are transmitted, which can provide timely assistance to the person concerned.
In FIG 2 ist ein Flussdiagramm 200 gezeigt, welches ein Ver fahren zum automatisierten Detektieren einer Notsituation ei ner oder mehrerer Personen in einem Überwachungsbereich ÜB (siehe FIG 2) und zum Auslösen eines Alarms gemäß einem zwei ten Ausführungsbeispiel der Erfindung veranschaulicht. Im Ge gensatz zu dem in FIG 1 gezeigten ersten Ausführungsbeispiel erfolgt bei dem zweiten Ausführungsbeispiel eine parallele Erfassung der Alarmierungsphrase AP und der Emotionen E. In FIG 2, a flowchart 200 is shown, which drive a Ver for automated detection of an emergency situation egg ner or more people in a surveillance area UB (see FIG 2) and for triggering an alarm according to a two-th embodiment of the invention illustrated. In contrast to the first exemplary embodiment shown in FIG. 1, in the second exemplary embodiment a parallel detection of the alerting phrase AP and the emotions E.
Bei dem Schritt 2. I werden wie bei dem Schritt 1. I kontinu ierlich akustische Messdaten AMD von dem Überwachungsbereich ÜB erfasst. Anders als bei dem in FIG 1 veranschaulichten ersten Ausführungsbeispiel erfolgt jedoch die Detektion und Auswertung der Alarmierungsphrase AP und der Emotionen E bei dem zweiten Ausführungsbeispiel zeitlich parallel, wobei die Schritte 2. II bis 2. IV den Schritten l.II bis 1. IV entspre chen, d.h., es werden die akustischen Messdaten AMD nach ei ner Alarmierungsphrase AP durchsucht und es wird ein Zeit fenster Ft für synchron mit der Alarmierungsphase AP auftre- tende Emotionen E festgelegt. Weiterhin werden zeitlich pa rallel dazu bei dem Schritt 2.V Emotionen E anhand der akus tischen Messdaten AMD ermittelt. Bei dem Schritt 2. VI wird weiterhin ermittelt, ob sich detektierte Emotionen E in dem festgelegten Zeitfenster Ft um die Alarmierungsphrase AP be finden. Für den Fall, dass in dem Zeitfenster Ft Emotionen E detektiert werden, was in FIG 2 mit „j" gekennzeichnet ist, wird zu dem Schritt 2. VII übergegangen. Bei dem Schritt 2. VII wird festgestellt, dass eine Notsituation NS vorliegt. Gege benenfalls wird auch anhand des Typs der Emotionen E auf die Art der Notsituation geschlossen, so dass eine exaktere Mel dung über die Art der Notsituation weitergegeben werden kann. Für den Fall, dass bei dem Schritt 2. VI keine Emotionen E in dem Zeitfenster Ft ermittelt werden konnten, die mit einer Notsituation in Verbindung zu bringen sind, was in FIG 2 mit „n" gekennzeichnet ist, so wird zu dem Schritt 2.1 zurückge kehrt und der Überwachungsprozess wird weitergeführt. In step 2. I, as in step 1, I continuously acquires acoustic measurement data AMD from the monitoring area UB. Unlike in the first embodiment illustrated in FIG. 1, however, the detection and evaluation of the alarming phrase AP and of the emotions E in the second exemplary embodiment take place in parallel in time, wherein the steps II. II to 2.IV correspond to the steps 1 .II to 1. IV ie, the acoustic measurement data AMD is searched for an alert phrase AP and a time window F t for synchronous with the alert phase AP occurs. tende emotions E set. Furthermore, temporally parallel to it in step 2.V emotions E are determined on the basis of the acoustic measurement data AMD. In step 2.VI it is further determined whether detected emotions E in the fixed time window F t are related to the alerting phrase AP. In the event that emotions E are detected in the time window F t , which is marked "j" in FIG. 2, the process proceeds to step 2. VII. In step 2 .VII it is determined that an emergency situation NS exists. If appropriate, the nature of the emergency situation is also deduced on the basis of the type of emotions E, so that a more exact message can be forwarded about the nature of the emergency situation In the event that no emotions E in the time slot F t could be determined, which are to be associated with an emergency situation, which is marked in Figure 2 with "n", then returns to the step 2.1 and the monitoring process is continued.
Schließlich wird bei dem Schritt 2. VIII eine Alarmmeldung AL auf Basis der ermittelten Notsituation NS ausgelöst. Bei spielsweise kann die Alarmmeldung AL an eine Hilfsmannschaft oder Hilfsinstanz, beispielsweise die Polizei oder private Wachdienste, übermittelt werden, welche zeitnah der betroffe nen Person Hilfe leisten können. Finally, an alarm message AL is triggered on the basis of the determined emergency situation NS in step 2. VIII. For example, the alarm message AL to an auxiliary team or auxiliary instance, such as the police or private security services, are transmitted, which can promptly give the affected person NEN help.
In FIG 3 ist ein Blockdiagramm gezeigt, welches ein Alarmsys tem 1 mit einem Überwachungssystem 10 gemäß einem Ausfüh rungsbeispiel der Erfindung veranschaulicht. Teil des In Figure 3 is a block diagram is shown, which illustrates a Alarmsys system 1 with a monitoring system 10 according to an embodiment of the invention Ausfüh. part of
Alarmsystems 1 ist neben dem erwähnten Überwachungssystem 10 auch eine Alarmierungseinheit 16, mit der Hilfskräfte von ei ner Notsituation NS in einem Überwachungsbereich ÜB in Kennt nis gesetzt werden können. Alarm system 1 is in addition to the mentioned monitoring system 10 also an alarm unit 16, can be set with the auxiliary forces of egg ner emergency situation NS in a monitoring area ÜB in knowledge.
Das Überwachungssystem 10 umfasst zudem eine akustische Sen soreinheit 11 mit einem Tonaufnahmemikrofon, welches dazu dient, kontinuierlich akustische Messdaten AMD von dem Über wachungsbereich ÜB aufzunehmen. Die akustischen Messdaten AMD werden an eine Auswertungseinheit 12 übermittelt, welche die- se akustischen Messdaten AMD automatisiert in Echtzeit nach einer vorbestimmten Alarmierungsphrase AP durchsucht. Die akustischen Messdaten AMD werden auch an eine Emotions-Er mittlungseinheit 13 übermittelt, welche die akustischen Mess daten AMD auf die oben beschriebene Art und Weiseautomati siert nach Emotionen E durchsucht. The monitoring system 10 also includes an acoustic Sen soreinheit 11 with a sound recording microphone, which serves to record continuous acoustic measurement data AMD of the surveillance area ÜB. The acoustic measurement data AMD are transmitted to an evaluation unit 12, which The acoustic measurement data AMD automatically searches in real time for a predetermined alert phrase AP. The acoustic measurement data AMD are also transmitted to an emotion detection unit 13 which searches the acoustic measurement data AMD for emotions E in the manner described above for the automatic mode.
Für den Fall, dass eine Alarmierungsphrase AP gefunden wurde, wird diese Information AP an eine Korrelations-Ermittlungs einheit 14 übermittelt. Die Korrelations-Ermittlungseinheit 14 umfasst eine Zeitpunkt-Ermittlungseinheit 14a, welche ei nen Zeitpunkt tA des Auftretens der Alarmierungsphrase AP au tomatisiert ermittelt. Auf Basis des ermittelten Zeitpunkts tA wird von einer Zeitfenster-Festlegungseinheit 14b, die ebenfalls Teil der Korrelations-Ermittlungseinheit 14 ist, automatisiert ein Zeitfenster Ft ermittelt. Das Zeitfenster Ft wird von einer Detektionseinheit 14c, welche ebenfalls Teil der Korrelations-Ermittlungseinheit 14 ist, nach dem Auftreten von einer Notsituation zugeordneten Emotionen E durchsucht. Die Emotionen E erhält die Detektionseinheit 14c von der Emotions-Ermittlungseinheit 13. Werden solche Emotio nen E in dem Zeitfenster Ft gefunden, so wird dieses Ergebnis EE an eine Notsituations-Detektionseinheit 15 übermittelt, welche auf Basis dieses Ergebnisses EE feststellt, dass eine Notsituation NS vorliegt. Diese Information NS wird von dem Überwachungssystem 10 schließlich an die Alarmierungseinheit 16 weitergeleitet, welche, wie bereits erwähnt, geeignete Hilfskräfte alarmiert. In the event that an alert phrase AP has been found, this information AP is transmitted to a correlation determination unit 14. The correlation determination unit 14 comprises a time determination unit 14a, which automatically determines a time t A of the occurrence of the alarming phrase AP. On the basis of the determined time point t A , a time window F t is automatically determined by a time window determination unit 14b, which is also part of the correlation determination unit 14. The time window F t is searched by a detection unit 14c, which is also part of the correlation determination unit 14, for the occurrence of emotions E assigned to an emergency situation. The emotion E receives the detection unit 14c from the emotion determination unit 13. If such emotions E are found in the time window F t , then this result EE is transmitted to an emergency situation detection unit 15, which determines on the basis of this result EE that an emergency situation NS is present. This information NS is finally forwarded by the monitoring system 10 to the alerting unit 16 which, as already mentioned, alerts suitable assistants.
Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei den vorbeschriebenen Verfahren und Vorrichtungen le diglich um bevorzugte Ausführungsbeispiele der Erfindung han delt und dass die Erfindung vom Fachmann variiert werden kann, ohne den Bereich der Erfindung zu verlassen, soweit er durch die Ansprüche vorgegeben ist. Es wird der Vollständig keit halber auch darauf hingewiesen, dass die Verwendung der unbestimmten Artikel „ein" bzw. „eine" nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließt der Begriff „Einheit" nicht aus, dass diese aus mehreren Komponenten besteht, die gegebenenfalls auch räumlich verteilt sein können. It is finally pointed out again that it is in the above-described methods and devices le diglich preferred embodiments of the invention han delt and that the invention can be varied by the person skilled in the art, without departing from the scope of the invention, as far as he claims by the claims is. For the sake of completeness, it is also pointed out that the use of the indefinite articles does not exclude "a" or "an" that the characteristics in question are also present several times can. Similarly, the term "unit" does not exclude that it consists of several components, which may also be spatially distributed.

Claims

Patentansprüche claims
1. Verfahren zum automatisierten Detektieren einer Notsitua tion (NS) einer oder mehrerer Personen in einem Überwachungs bereich (ÜB), aufweisend die Schritte: 1. A method for automated detection of an emergency situation (NS) of one or more persons in a surveillance area (ÜB), comprising the steps:
- kontinuierliches sensorielles Erfassen von akustischen  - continuous sensorial detection of acoustic
Messdaten (AMD) von dem Überwachungsbereich (ÜB) ,  Measured data (AMD) from the monitoring area (ÜB),
- automatisiertes Durchsuchen der erfassten akustischen Mess daten (AMD) in Echtzeit nach einer vorbestimmten Alarmie rungsphrase (AP) , wobei die Alarmierungsphrase (AP) einen kurzen, gesprochenen Satz umfasst, der im Überwachungsbe reich (ÜB) öffentlich dargestellt ist,  automated searching of the acquired acoustic measurement data (AMD) in real-time according to a predetermined alert phrase (AP), the alert phrase (AP) comprising a short spoken phrase publicly displayed in the surveillance area (UE),
- automatisiertes Ermitteln von Emotionen (E) auf Basis der akustischen Messdaten (AMD) ,  - automated determination of emotions (E) on the basis of the acoustic measurement data (AMD),
- Ermitteln, ob eine zeitliche Korrelation zwischen einer ge fundenen Alarmierungsphrase (AP) und ermittelten Emotionen (E) besteht,  Determining whether a temporal correlation exists between a found alerting phrase (AP) and determined emotions (E),
- Ermitteln einer Notsituation (NS) für den Fall, dass eine zeitliche Korrelation zwischen einer gefundenen Alarmie rungsphrase (AP) und ermittelten Emotionen (E) besteht.  - Determining an emergency situation (NS) in the event that there is a temporal correlation between a found alarm phrase (AP) and detected emotions (E).
2. Verfahren nach Anspruch 1, wobei das Ermitteln der Emotio nen (E) und das Ermitteln einer zeitlichen Korrelation zwi schen einer gefundenen Alarmierungsphrase (AP) und ermittel ten Emotionen (E) umfasst: 2. The method of claim 1, wherein determining the emotions (E) and determining a temporal correlation between a found alert phrase (AP) and detected emotions (E) comprises:
- automatisiertes Ermitteln eines Zeitpunkts (tA) des Auftre tens der Alarmierungsphrase (AP) für den Fall, dass eine Alarmierungsphrase (AP) ermittelt wurde, automated determination of a time point (t A) of the occurrence of the alerting phrase (AP) in the event that an alerting phrase (AP) has been detected,
- automatisiertes Ermitteln von Emotionen (E) auf Basis der akustischen Messdaten (AMD) in einem Zeitfenster (Ft) , wel ches den Zeitpunkt (tA) des Auftretens der Alarmierungs phrase (AP) umfasst. - Automated determination of emotions (E) on the basis of the acoustic measurement data (AMD) in a time window (F t) wel ches the time (t A) of the occurrence of Alarmierungs phrase (AP).
3. Verfahren nach einem der vorstehenden Ansprüche, wobei das Ermitteln von Emotionen (E) das Detektieren von mindestens einem der folgenden Charakteristika der Messdaten (AMD) um fasst : 3. A method according to any one of the preceding claims, wherein determining emotions (E) comprises detecting at least one of the following characteristics of the measured data (AMD):
- einem signifikanten Anstieg der Umgebungslautstärke, - einer Mindestlautstärke der Alarmierungsphrase (AP) , a significant increase in ambient volume, - a minimum volume of the alerting phrase (AP),
- aggressiven Äußerungen, Schreien.  - aggressive expressions, screaming.
4. Verfahren nach einem der vorstehenden Ansprüche, wobei die Alarmierungsphrase (AP) auf Basis von Charakteristika des zeitlichen Verlaufs einer aufgezeichneten Schallamplitude der erfassten akustischen Messdaten (AMD) ermittelt wird. 4. The method according to any one of the preceding claims, wherein the alerting phrase (AP) is determined on the basis of characteristics of the time course of a recorded sound amplitude of the acquired acoustic measurement data (AMD).
5. Verfahren nach einem der vorstehenden Ansprüche, wobei die Emotionen (E) auf Basis von Charakteristika des zeitlichen Verlaufs einer aufgezeichneten Schallamplitude der erfassten akustischen Messdaten (AMD) ermittelt werden. 5. The method according to any one of the preceding claims, wherein the emotions (E) on the basis of characteristics of the time course of a recorded sound amplitude of the detected acoustic measurement data (AMD) are determined.
6. Alarmierungsverfahren, aufweisend die Schritte: 6. Alerting method, comprising the steps:
- Durchführen des Verfahrens nach einem der Ansprüche 1 bis - Carrying out the method according to one of claims 1 to
5, 5,
- automatisiertes Auslösen eines Alarms für den Fall, dass eine Notsituation (NS) detektiert wurde.  - Automated triggering of an alarm in the event that an emergency situation (NS) was detected.
7. Überwachungssystem (10), aufweisend: 7. monitoring system (10), comprising:
- eine akustische Sensoreinheit (11) zum kontinuierlichen sensoriellen Erfassen von akustischen Messdaten (AMD) von einem Überwachungsbereich (ÜB) ,  an acoustic sensor unit (11) for continuous sensor-based acquisition of acoustic measurement data (AMD) from a monitoring area (ÜB),
- eine Auswertungseinheit (12) zum automatisierten Durchsu chen der erfassten akustischen Messdaten (AMD) nach einer vorbestimmten Alarmierungsphrase (AP) in Echtzeit, wobei die Alarmierungsphrase (AP) einen kurzen, gesprochenen Satz umfasst, der im Überwachungsbereich (ÜB) öffentlich darge stellt ist,  - An evaluation unit (12) for automated Durchsu Chen the detected acoustic measurement data (AMD) after a predetermined alert phrase (AP) in real time, wherein the alerting phrase (AP) comprises a short, spoken sentence in the surveillance area (BB) is publicly Darge .
- eine Emotions-Ermittlungseinheit (13) zum automatisierten Ermitteln von Emotionen (E) auf Basis der Messdaten (AMD) , an emotion determination unit (13) for the automated determination of emotions (E) on the basis of the measurement data (AMD),
- eine Korrelations-Ermittlungseinheit (14) zum Ermitteln, ob eine zeitliche Korrelation zwischen einer gefundenen Alar mierungsphrase (AP) und ermittelten Emotionen (E) besteht,a correlation determination unit (14) for determining whether a temporal correlation exists between a found alarming phrase (AP) and determined emotions (E),
- eine Notsituations-Detektionseinheit (15) zum Ermitteln ei ner Notsituation (NS) für den Fall, dass eine zeitliche Korrelation zwischen einer gefundenen Alarmierungsphrase (AP) und ermittelten Emotionen (E) besteht. - An emergency situation detection unit (15) for determining an emergency situation (NS) in the event that there is a temporal correlation between a found alarming phrase (AP) and determined emotions (E).
8. Überwachungssystem nach Anspruch 7, wobei die Korrelati ons-Ermittlungseinheit (14) aufweist: 8. The monitoring system of claim 7, wherein the correlation detection unit (14) comprises:
- eine Zeitpunkt-Ermittlungseinheit (14a) zum automatisierten Ermitteln eines Zeitpunkts (tA) des Auftretens der Alarmie rungsphrase (AP) für den Fall, dass eine Alarmierungsphrase (AP) ermittelt wurde, a time determination unit (14a) for automatically determining a time point (t A) of the occurrence of the alarm phrase (AP) in the event that an alert phrase (AP) has been detected,
- eine Zeitfenster-Festlegungseinheit (14b) zum Festlegen ei nes Zeitfensters (Ft) , welches den Zeitpunkt (tA) des Auf tretens der Alarmierungsphrase (AP) umfasst, a time-slot setting unit (14b) for setting a time window (F t) which includes the time (t A) of occurrence of the alerting phrase (AP),
- eine Detektionseinheit (14c) zum Detektieren von Emotionen (E) in dem festgelegten Zeitfenster (Ft) . - A detection unit (14c) for detecting emotions (E) in the predetermined time window (F t) .
9. Alarmierungssystem, aufweisend: 9. Alarm system, comprising:
- ein Überwachungssystem (1) nach Anspruch 7 oder 8 und  - A monitoring system (1) according to claim 7 or 8 and
- eine Alarmierungseinheit (16) zum automatisierten Auslösen eines Alarms in Abhängigkeit von einer von dem Überwa chungssystem (10) detektierten Notsituation (NS).  - An alarm unit (16) for automatically triggering an alarm in response to one of the moni monitoring system (10) detected emergency situation (NS).
10. Computerprogrammprodukt mit einem Computerprogramm, wel ches direkt in eine Speichereinheit einer Rechnereinheit ei nes Überwachungssystems (10) ladbar ist, mit Programmab schnitten, um alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 6 auszuführen, wenn das Computerprogramm in der Rechnereinheit ausgeführt wird. 10. Computer program product with a computer program wel Ches directly into a memory unit of a computer unit ei Nes monitoring system (10) is load cut with program to perform all the steps of a method according to one of claims 1 to 6, when the computer program is executed in the computer unit ,
11. Computerlesbares Medium, auf welchem von einer Rech nereinheit ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 6 auszuführen, wenn die Programmabschnitte von der Rech nereinheit ausgeführt werden. 11. A computer-readable medium on which computer units executable program units are stored to perform all the steps of the method according to any one of claims 1 to 6 when the program sections are executed by the computing unit.
PCT/EP2018/080146 2017-12-04 2018-11-05 Automated detection of an emergency situation of one or more persons WO2019110215A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP18803885.5A EP3673469A1 (en) 2017-12-04 2018-11-05 Automated detection of an emergency situation of one or more persons

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017221819 2017-12-04
DE102017221819.3 2017-12-04

Publications (1)

Publication Number Publication Date
WO2019110215A1 true WO2019110215A1 (en) 2019-06-13

Family

ID=64332009

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/080146 WO2019110215A1 (en) 2017-12-04 2018-11-05 Automated detection of an emergency situation of one or more persons

Country Status (2)

Country Link
EP (1) EP3673469A1 (en)
WO (1) WO2019110215A1 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5666157A (en) 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
WO2001033134A1 (en) 1999-11-02 2001-05-10 Helmut Ehrlich Method and device for detecting dangerous situations
DE60108373T2 (en) * 2001-08-02 2005-12-22 Sony International (Europe) Gmbh Method for detecting emotions in speech signals using speaker identification
US20070183604A1 (en) 2006-02-09 2007-08-09 St-Infonox Response to anomalous acoustic environments
DE60031432T2 (en) 1999-08-31 2007-08-30 Accenture Llp, Palo Alto SYSTEM, METHOD, AND MANUFACTURED SUBJECT FOR DETECTING EMOTIONS IN LANGUAGE SIGNALS BY STATISTICAL ANALYSIS OF LANGUAGE SIGNAL PARAMETERS
WO2011025460A1 (en) 2009-08-24 2011-03-03 Agency For Science, Technology And Research Method and system for event detection
US20150070166A1 (en) 2013-09-09 2015-03-12 Elwha Llc System and method for gunshot detection within a building
DE202015102253U1 (en) 2015-05-04 2015-06-01 Samsung Electronics Co., Ltd. Device for coupling a wearable device and a smart device
WO2015164224A1 (en) * 2014-04-21 2015-10-29 Desoyza Erangi Wristband and application to allow one person to monitor another
US20170277947A1 (en) 2016-03-22 2017-09-28 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US20170316260A1 (en) 2016-04-29 2017-11-02 International Business Machines Corporation Augmenting gesture based security technology using mobile devices

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5666157A (en) 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
DE60031432T2 (en) 1999-08-31 2007-08-30 Accenture Llp, Palo Alto SYSTEM, METHOD, AND MANUFACTURED SUBJECT FOR DETECTING EMOTIONS IN LANGUAGE SIGNALS BY STATISTICAL ANALYSIS OF LANGUAGE SIGNAL PARAMETERS
WO2001033134A1 (en) 1999-11-02 2001-05-10 Helmut Ehrlich Method and device for detecting dangerous situations
DE60108373T2 (en) * 2001-08-02 2005-12-22 Sony International (Europe) Gmbh Method for detecting emotions in speech signals using speaker identification
US20070183604A1 (en) 2006-02-09 2007-08-09 St-Infonox Response to anomalous acoustic environments
WO2011025460A1 (en) 2009-08-24 2011-03-03 Agency For Science, Technology And Research Method and system for event detection
US20150070166A1 (en) 2013-09-09 2015-03-12 Elwha Llc System and method for gunshot detection within a building
WO2015164224A1 (en) * 2014-04-21 2015-10-29 Desoyza Erangi Wristband and application to allow one person to monitor another
DE202015102253U1 (en) 2015-05-04 2015-06-01 Samsung Electronics Co., Ltd. Device for coupling a wearable device and a smart device
US20170277947A1 (en) 2016-03-22 2017-09-28 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US20170316260A1 (en) 2016-04-29 2017-11-02 International Business Machines Corporation Augmenting gesture based security technology using mobile devices

Also Published As

Publication number Publication date
EP3673469A1 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
DE60215049T2 (en) MONITORING SYSTEM WITH SUSTAINABLE BEHAVIOR DETECTION
DE60208166T2 (en) AUTOMATIC SYSTEM FOR MONITORING INDEPENDENT PERSONS NEEDED HELPFULLY HELP
EP3317879A1 (en) Method and device for the allocation of sounds and for analysis
DE102014115223A1 (en) Method and device for motion monitoring
CN109493555A (en) A kind of campus dormitory building safety defense monitoring system based on intelligent monitoring technology
CN109508736A (en) A kind of prison abnormal conditions monitoring method and monitoring system based on deep learning
CN108038808A (en) A kind of monitoring method, device, terminal device and storage medium
DE102014219692A1 (en) A method for detecting a dangerous situation in a vehicle interior of a vehicle and hazard detection system
CN108574830A (en) Intelligent voice control monitoring system
CN109584907A (en) A kind of method and apparatus of abnormal alarm
EP3499473A1 (en) Automated detection of hazardous situations
EP3516636B1 (en) Audio monitoring system
CH706631B1 (en) Acoustic monitoring system, in particular for railway track systems.
KR101654708B1 (en) Individual safety System based on wearable Sensor and the method thereof
CN106448055B (en) Monitoring alarm method and device
DE102019201456B3 (en) Method for individualized signal processing of an audio signal from a hearing aid
DE202013101354U1 (en) Device for monitoring the momentary mobility of persons in private or public spaces
WO2019110215A1 (en) Automated detection of an emergency situation of one or more persons
EP3493171A1 (en) Detection of aggressive behaviour in public transportation
AT500235B1 (en) SYSTEM AND METHOD FOR AUTOMATIC MONITORING OF A ROADWAY
DE102014105937A1 (en) Monitoring system and monitoring procedures
CN108022585A (en) Information processing method, device and electronic equipment
EP3273418A1 (en) Multi-stage deadman alarm system and method
DE102016211049A1 (en) Method and device for a device and a method for outputting at least one alarm signal
DE102021206618A1 (en) Method for increasing the detection accuracy of a surveillance system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18803885

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018803885

Country of ref document: EP

Effective date: 20200325

NENP Non-entry into the national phase

Ref country code: DE