WO2018091110A1 - Display device for a monitoring system of a monitoring region, monitoring system having the display device, method for monitoring a monitoring region by means of a monitoring system, and computer program for performing the method - Google Patents

Display device for a monitoring system of a monitoring region, monitoring system having the display device, method for monitoring a monitoring region by means of a monitoring system, and computer program for performing the method Download PDF

Info

Publication number
WO2018091110A1
WO2018091110A1 PCT/EP2016/078231 EP2016078231W WO2018091110A1 WO 2018091110 A1 WO2018091110 A1 WO 2018091110A1 EP 2016078231 W EP2016078231 W EP 2016078231W WO 2018091110 A1 WO2018091110 A1 WO 2018091110A1
Authority
WO
WIPO (PCT)
Prior art keywords
display device
data
entities
sensor data
monitoring
Prior art date
Application number
PCT/EP2016/078231
Other languages
German (de)
French (fr)
Inventor
Marcus NADENAU
Andre KAMP
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to DE112016007457.3T priority Critical patent/DE112016007457A5/en
Priority to PCT/EP2016/078231 priority patent/WO2018091110A1/en
Publication of WO2018091110A1 publication Critical patent/WO2018091110A1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Definitions

  • a display device for a monitoring system of a surveillance area wherein the surveillance system has a plurality of sensors, wherein the sensors are designed to monitor at least a portion of the surveillance area as a scene with objects and to provide them as scene data, with at least one input interface for taking over the sensor data , an entity device, wherein the entity device is configured to assign entities to the objects of the scene based on the sensor data, with an attribution device, wherein the attribution device has the entities and the sensor data and attributes, wherein the attribution device is designed to assign attributes to at least one of the entities and / or attributes for the entity, with a filter device, wherein the filter device is configured, the sensor data based on at least one of the entities and / or filter the assigned attributes into output data, with a display device for displaying the output data.
  • Monitoring of surveillance areas is often by sensors and / or by video cameras located in the surveillance area.
  • the Monitoring material in particular the sensor data and the image material are thereby, for example, sighted and / or evaluated by a security staff in a control room.
  • a display device for a monitoring system of a surveillance area with the features of claim 1 is proposed. Furthermore, a monitoring system with the display device with the features of claim 13, a method for monitoring a monitoring area with a monitoring system with the features of claim 14 and a computer program for carrying out the method with the features of claim 15 is proposed. Preferred or advantageous embodiments of the invention will become apparent from the dependent claims, the following description and the accompanying drawings.
  • a display device for a monitoring system of a surveillance area is proposed.
  • the display device is, for example, a computer workstation.
  • the display device is designed for a security guard and / or for security personnel, in particular, the display device is designed to display data for the security guard and security personnel and / or for interaction with the security guard and / or security personnel.
  • the display device is arranged centrally and / or stationary, such as in a central security monitoring center and / or a control room.
  • the display device is mobile, and designed, for example, as a tablet, as a phablet and / or as a smartphone.
  • the display device is designed so that a security guard and / or the security personnel can monitor the surveillance area by means of the display device and / or control actuators in the surveillance area by means of the display device.
  • the monitoring system has a plurality of sensors, wherein the sensors are arranged in the monitoring area.
  • the surveillance area is in particular a public and / or a non-public sector. Further, the surveillance area is an open space and / or a closed area such as a building. Preferably, the surveillance area is an airport facility, a train station, a prison, a public, such as an authority, a school and / or a university and / or a border station.
  • the sensors in the surveillance area are preferably video cameras, microphones, fire detectors and / or motion detectors.
  • the video cameras are in particular digital video cameras, for example CMOS or CCD cameras.
  • the video cameras are in particular fixed cameras, for example with a pivotable receiving area, for example a PTZ camera. Alternatively and / or additionally, the video cameras are mobile video cameras that are movable in the surveillance area.
  • Further examples of monitoring system sensors include intrusion sensors, access control sensors, personal tracing devices, flight information systems, gate
  • the monitoring system comprises more than 100 sensors, in particular more than 500 sensors and in particular more than 1000 sensors.
  • the sensors are designed to monitor at least a portion of the surveillance area as a scene with objects and to provide them as scene data.
  • the sections which are monitored by means of the sensors are overlapping, so that in particular complete monitoring of the monitored area is possible.
  • at least one section of a monitoring area with a plurality of sensors, in particular sensors of different types, is monitored by sensors.
  • a section is monitored both videotechnisch, acoustically and with fire detectors.
  • the scene comprises objects, the objects being, for example, persons in the surveillance area, objects, doors and / or events in the surveillance area.
  • the scene data includes information about the objects, such as the object type, the object position in the surveillance area, and / or the time of recording the scene data.
  • the display device comprises an input interface for accepting the sensor data.
  • the input interface is designed as a radio interface, wherein the input interface gets the sensor data provided by means of a radio link.
  • the input interface gets the sensor data provided by means of a radio link.
  • Input interface a cable interface, wherein the sensor data is provided via a cable connection.
  • the display device comprises a memory unit for storing the sensor data.
  • the display device includes an entity device, wherein the entity device is configured to associate entities with the scene based on the sensor data.
  • entity device a representation of the objects in the surveillance area and / or a representation of the sensor in the surveillance area itself is preferably understood, the representation being, for example, a data-technical representation within the display device.
  • entities are objects, persons and / or objects in the surveillance area. Further, entities, locations and / or coordinates may be in the surveillance area as well as routes and / or paths within the surveillance area. Examples of entities are
  • entities are static objects, such as fixed property configurations and / or master data.
  • entities are dynamic objects, which can change their type, for example, such that a camera detects a moving object, detects additional information such as size and speed by means of additional sensors and, based thereon, an entity as human and / or animal sets.
  • attributes, details and / or additional information to one of the entities.
  • the display device comprises a filter device, wherein the filter device is designed to filter the sensor data based on at least one of the entities and / or the associated attributes of the at least one entity into output data.
  • the filter device is designed so that the sensor data Output data for filtering that the output data information, in particular only those information include, based on the entities and the attributes include security events in the surveillance area and / or show.
  • the filter device is designed to provide a comprehensive and / or complete image of sensor data
  • an entity is an event in the surveillance area, where the
  • the filter device is in particular designed to filter the sensor data into output data in such a way that the output data comprises all and / or only data relating to the event in the monitoring area.
  • the display device comprises a display device for displaying the display data.
  • the display device is designed to display the display data graphically in the form of images, videos, graphics and / or alphanumeric.
  • the display device comprises an output device for outputting the acoustic component, that is to say that acoustic signals and / or sensor data can also be reproduced by means of the display device.
  • the display device is in particular a screen, a monitor and / or a touch screen.
  • the display device is for
  • the display device is designed to interact and / or to input data.
  • the monitoring personnel and / or a guard control the monitoring system by means of the display device.
  • the display device comprises, for example, input means, such as a keyboard, a computer mouse or a touchscreen unit.
  • the attribution device comprises at least one relationship between two and / or more entities.
  • the filter device is designed in particular, the
  • Sensor data and / or the input data based on at least one relationship in the output data to filters.
  • Relations between two and / or more entities serve, in particular, for characterizing the entities and obtaining information and / or interpreting the scene and / or the scene data.
  • a relationship between two and / or more entities describes how two and / or more entities are related to each other and / or how they are linked.
  • relationships between two and / or more entities may be permanent and / or permanent, such as two entities being fixedly located in a particular space.
  • relationships between two and / or more entities are dynamic and / or variable, such as a person owning and / or handing over something.
  • the filtering of the sensor data into the output data based on the output data represents, in particular, a filtering based on the context, relationships and / or the interpretation.
  • the output data form a subset of the sensor data.
  • Context is understood in particular the filtered sensor data and / or the output data. It is a consideration of the invention to provide a display device that uses context and / or additional information between two entities to represent only the subset of the sensor data that characterizes the current scene and / or accordingly represents safety-relevant data. This makes it easier for the monitoring personnel to more easily view and / or understand a scene in the surveillance area, displaying only the relevant data.
  • this filtering corresponds to an interpretation of the sensor data that is close to the human interpretation of sensor data and / or operations in the surveillance area.
  • the relationships between two entities and / or between multiple entities are spatial relationships.
  • spatial relationships are the relationships "something is in one place", such as an entity is in a particular location, for example, this information can be used to find a location where another particular sensor is located the relationship "something is close to something else", such as an entity is close to another entity, which information can be used, for example, to check the environment of the two entities.
  • Other examples of spatial and / or spatial relationships are "something looks at something", such as a camera focusing on a particular point, or "something is connected to something", such as two places connected by a lift and / or a door. It is a consideration of the invention to use spatial relationship between entities to filter the sensor data into output data, with the focus limited to spatial ranges.
  • the relationships between two and / or more entities include temporal relationships and / or logical relationships between two and / or more entities.
  • the temporal and / or logical entities are used in particular for the characterization of entities and / or their relationships to each other.
  • the temporal, logical and / or local relationships can be combined, such as in temporally local, temporally logical and / or temporally locally logical relationships.
  • temporal relationships include, for example, "something happens at the same time,””something happens in a common time window,””something happens before something else” and / or "something happens after something
  • spatio-temporal and / or local temporal relationships are "something can be achieved within a time” and / or something is achieved at a time of something.
  • Logical relationships and / or relationships of people are, for example, "something is where, something has the property," “something has something else,” “something uses an object,” “something is involved in a process.” Relationships and / or properties of sensors may be, in particular, "a sensor is not detectable,” a sensor detects and / or reports something “and / or” a sensor detects that something is being blocked by something ".
  • the display device comprises an actuator control device.
  • the monitoring system comprises a plurality of actuators, wherein the actuators are arranged in the monitoring area.
  • the actuators are, for example, door openers, sprinkler systems and / or announcement loudspeakers.
  • the actuators are controllable by means of the display device.
  • the actuator control device is designed to provide control options for at least one of the actuators to a user of the display device based on at least one of the entities and / or the associated attributes of the entities.
  • the actuator control device is designed to provide certain actuators to a user of the display device only for certain events in the monitoring area, which are determined in particular by entities and their attributes.
  • the actuator control device is configured to provide a user of the display device with the sprinkler system for activation, for a detected fire in the surveillance area and / or the scene.
  • the display device comprises an interpretation module.
  • the interpretation module is configured to interpret the scene on the basis of the sensor data, the attributes and / or the relationships and to provide interpretation data.
  • the interpretation module is designed to evaluate and / or interpret the sensor data, wherein the interpretation data can be displayed, for example, by the display device.
  • the interpretation can be close to the sensor data, which in particular represents a low-level interpretation and / or the interpretation may be close to human interpretation, which corresponds to a high-level interpretation.
  • a low-level interpretation is the simple representation and / or detection of a sensor signal of one of the sensors in the surveillance area.
  • the detection of a Mac address which was detected by a WI FI sensor in the surveillance area is an interpretation, in particular a low-level interpretation.
  • a slightly higher-level low-level interpretation for example, is already the assignment that the detected Mac address belongs to a smartphone.
  • a high-level interpretation uses the context, the attributes and / or additional information about entities and / or the correlation between two entities. For example, it is possible for the interpretation module to map two sensor signals received from different sensors to a common event and interpret that to be the same event.
  • the filter device is designed to filter the sensor data on the basis of the interpretation data.
  • the interpretation unit it is possible for example for the interpretation unit to detect and / or interpret an event based on the sensor data, the entities and / or the attributes in the monitoring area, wherein the filter device is designed to filter the sensor data such that the output data only and / or largely include only information about the event in the surveillance area.
  • the interpretation unit is designed to detect a fire in a contiguous area of the monitoring area, wherein the filter device is designed to filter the sensor data in such a way that the output data include all important information about a fire in this monitoring area and / or section.
  • the degree of interpretation by the interpretation module by a user is adjustable and / or adjustable.
  • the level of interpretation is adjustable from a low level interpretation to a high level interpretation and / or vice versa.
  • the display device comprises a safety device, wherein the safety device comprises and / or secures the input data and / or the sensor data.
  • the security device is designed to secure the interpretation data and / or the output data.
  • the security device is designed as an internal and / or external storage unit, such as a hard disk. This embodiment is based on the consideration that the interpretation of the sensor data by the interpretation unit may be wrong, so that by securing the sensor data, the interpretation data and / or the other data, an evaluation in retrospect is possible, so that the
  • Input data, sensor data, output data and / or interpretation data are not lost.
  • the display device comprises a fallback device.
  • the falling-back device is designed to display an unfiltered one
  • interpretation data may be displayed with a lower and / or higher level of interpretation. For example, the interpretation "A person A is in a room X" may be wrong if the admission card uses a person B, by increasing the degree of interpretation, for example by identifying the face in the room
  • Video data "Person B is in Room X.” This embodiment is based on the consideration that a possible misinterpretation by the display device and / or a possible false filtering based on the entities can be excluded and / or reduced.
  • the display device comprises an event attachment module.
  • the event attachment module is configured to evaluate the scene data, sensor data and / or input data for the presence of an event in the scene.
  • the event in the surveillance area and / or scene is a security-related event, such as a Burglary, a detected fire and / or a robbery.
  • the event attachment module is further configured to provide event data in the event of an event, a scene.
  • the event data includes the type of event, the location of the event, and / or the time of the event.
  • the filter device is designed to filter the sensor data based on the event data in output data.
  • the output data includes, in particular, the sensor data that includes information about the event and / or was recorded at the time and / or location of the event.
  • the display device comprises an aggregation module.
  • the aggregation module is preferably designed as a backend system.
  • the aggregation module is designed to check two and / or several events for a connection and / or to combine two and / or several events with a connection to a combined event.
  • the summarized event comprises summarized event data that characterize and / or define the event more precisely.
  • the filter device is preferably designed to filter the sensor data into output data on the basis of the summarized event data.
  • the aggregation module is designed to combine spatial and / or temporally related events, which were detected by different sensors, into a common event.
  • such a summarized event is the detection of fire and / or smoke in the surveillance area, where a plurality of sensors in different portions of the surveillance area detect fire and / or smoke, the aggregation module being formed, the sections and / or areas of the detected fire surveillance area or to combine smoke into a summarized event.
  • the monitoring system in particular comprises a plurality of sensors, wherein the sensors are arranged in the monitoring area. It is further possible that the monitoring system includes, for example, a plurality of actuators, such as door openers and / or speakers.
  • Another object of the invention is a method for monitoring a surveillance area with a surveillance system.
  • the method provides for generating and / or providing sensor data by means of a plurality of sensors, which are arranged in the monitoring area.
  • the sensors in the monitoring area provide the sensor data which monitor a section of the surveillance area as a scene with objects.
  • the method provides that entities are assigned to the objects of the scene based on the sensor data.
  • the method provides that attributes are assigned to at least one of the entities and / or attributes for the entity are deposited.
  • the sensor data is then filtered into output data based on one of the entities and / or the associated attributes, with the output data displayed on a display.
  • This embodiment of the invention is based on the consideration of providing a method which only displays relevant information and / or sensor data on a display to the monitoring personnel and / or the user of a monitoring system.
  • a further subject of the invention is a computer program with program code means for carrying out all the steps of the method when the program is executed on a computer and / or the display device.
  • FIG. 1 is a schematic representation of a monitoring system
  • Figure 2 is a schematic representation of the degree of interpretation
  • Figure 3 is an example of an interpretation of an event
  • 1 shows a schematic representation of a monitoring system 1 with a display device 2.
  • the monitoring system 1 is designed to monitor a monitoring area 3 sensor technology, video technology and / or safety technology.
  • a plurality of sensors 4 are arranged.
  • the sensors 4 are in particular video cameras, fire detectors, card readers and / or lighting ventilation, lift controls and / or disarm switch of burglar alarms.
  • the monitoring area 3 further comprises a plurality of sections 5, wherein the sections 5 are, for example, different rooms and / or areas in the monitoring area 3.
  • a plurality of sensors 4 are arranged, for example, a room may include both fire detectors and video cameras.
  • the actuators 6 are, for example sprinkler systems, door openers or locking systems.
  • the actuators 6 are preferably controllable and / or operable by means of the display device 2.
  • the sensors 4 are designed to monitor the monitoring area 3 and / or the sections 5 sensor-wise and thereby to provide sensor data 7.
  • the display device 2 comprises an input interface 8, wherein the input interface 8 is designed as a wireless interface, in particular an intersection interface. At least one mating interface 9 is arranged in the monitoring area 3, wherein the mating interface 9 can be coupled with the input interface 8 in terms of data, so that the sensor data 7 can be transmitted from the sensors 4 in the monitoring area 3 to the input interface 8 by means of the mating interface 9.
  • the sensor data 7 are thus provided to the display device 2.
  • the sensor data 7 are provided to an entity device 10.
  • the entity device 10 is in particular part of the display device 2.
  • the entity device 10 is a backend system.
  • the entity device 10 is designed to assign entities to a scene and / or the objects in the surveillance area 3 based on the sensor data 7.
  • the entities are in particular a representation of real objects in the surveillance area within the display device 2. Entities are For example, persons in the surveillance area 3, objects in the surveillance area 3 as well as the sensors 4 and / or actuators 6 in the surveillance area 3. In particular, entities are to be understood as a data-technical representation of real objects of the surveillance area 3 in the display device 2.
  • the display device 2 comprises an attribution device 11.
  • the at least one input device 11 is designed to assign information and / or additional information to the entities based on the sensor data.
  • the additional information associated with the entities is attributes.
  • the attribution device 11 is designed to store attributes for one and / or multiple entities.
  • the attribution device 11 is in particular designed to associate the entities with relationships between two and / or more entities.
  • the relationships between two entities are in particular logical relationships.
  • the attribution device 11 is designed to assign temporal relationships 12 and / or spatial relationships 13 to the entities, the attribution device 11 for this purpose being provided with a time unit and / or provided with a spatial scale.
  • the display device 2 comprises a filter device 14, the filter device 14 being provided with the sensor data 7, the entities, objects and attributes.
  • the filter device 14 is designed to filter the sensor data into output data 15 based on the entities, the sensor data and the attributes.
  • the filter device 14 is designed to filter the sensor data in such a way that the output data 15 comprises all important information about an event and / or an entity in the monitoring area.
  • the filter device 14 is designed to filter the sensor data 7 in such a way that the output data 15 includes all information about a burglary, a fire or another security-relevant event in the surveillance area.
  • the display device 2 comprises a display unit 16.
  • the display unit 16 is designed, for example, as a monitor, a smartphone and / or as a tablet.
  • the display unit 16 is configured to display the output data 15. Further, it is possible that the display unit 16 is formed, a To allow interaction of a user of the display device 2 with the display device, so that, for example, a user can control the actuators in the surveillance area by entering and / or interacting with and / or on the display unit 16.
  • FIG. 2 shows a schematic representation of the degrees of interpretation of the sensor data 7 and / or the interpretation data.
  • the interpretation is based on temporal relationships between entities.
  • the basis here is a time unit which assigns each entity and / or event an event and / or timestamp.
  • the interpretation based on spatial model 17 of the monitoring area 3.
  • the spatial model 17 includes hierarchical structures of the surveillance area 3, in particular places, coordinates, room numbers, room areas, etc.
  • the spatial model 17 comprises structural navigation elements, such as doors, elevators, Escalators, staircases, etc. This makes it possible to track, for example, a person and / or an object in the movement through the monitoring area 3, as well as events in the adjacent areas and / or sections of the monitoring area 3, if necessary, summarize.
  • the spatial model 17 includes hierarchical structures of the surveillance area 3, in particular places, coordinates, room numbers, room areas, etc.
  • the spatial model 17 comprises structural navigation elements, such as doors, elevators, Escalators, staircases, etc. This makes
  • Classifications of areas and / or sections of the surveillance area 3 such as high security areas, public areas and / or restricted areas. Further, as a basis for interpreting the additional data information may be used, such as information on persons, security guards, cardholders and / or other properties of objects and / or persons in the surveillance area 3.
  • a largely uninterpreted view of the sensor data 7 is the simple recording of sensor data in a low-level interpretation 19.
  • Interpretation 19 detects only the sensor signals, the video images and / or audio data. These are preferably stored and / or secured by a safety device. With increasing interpretation and / or increasing degree of interpretation one reaches the detection interpretation 20 and the identification interpretation 21.
  • the detection interpretation uses the Sensor data 7 to detect based on the sensor data 7 objects in the monitoring area 3, such as based on the video data to detect a person in the surveillance area 3 and / or to detect that a door has been opened.
  • the interpretation is based more strongly on the additional information and / or attributes, so that based on the detection and the attributes, for example a detected person, the name of the person can be assigned. Furthermore, it is possible, for example, when opening a door by means of an access card, to identify which person has opened the door.
  • a high-level interpretation 22 of the sensor data for example, all characterizing information and / or sensor data are used to interpret a situation in the monitoring area. For example, individual events are aggregated in the surveillance area. For example, several fire detectors in the surveillance area on the same floor detect a fire.
  • the display device 2 is designed to combine the individual detected fires in a high-level interpretation to a major fire.
  • the display device 2 is further configured to display a user of the display device 2 all the information necessary for the assessment and / or evaluation of the fire.
  • the display device 2 is designed to offer the user options to control actuators 6 in the monitoring area 3, which may need to be controlled for the event of the fire. Information which is not necessary for this event, for example the fire, is filtered from the output data 15.
  • the user can be shown possible escape routes, with the user being able to control and / or open actuators 6, for example door openers within the rod.
  • Events which are based on the respective main event are preferably suppressed, if they are not of superordinate relevance. For example, for a detected fire events, such as broken windows and / or temperature increases are hidden.
  • the user can also contradict the interpretation of the sensor data 7, so that the event is optionally resolved into individual events and / or the raw sensor data are displayed.
  • Another example of a high-level interpretation 22 is that if a card is used on a door opener and access is denied, that information does not get into the output data 15. However, if the card is not used successfully on different door openers several times within a time window, this event is considered an attempted break-in.
  • FIG. 3 shows schematically an example of the interpretation of an event that Ms. Smith entered room 4711.
  • a card reader as the sensor 4 and / or as the first entity detects that an admission card with the card ID 1234 has been used on the card reader XYZ. Based on the attributes that the
  • Card reader XYZ assigning the position information, floor, house and room is assigned to this event and / or the entity of room 4711.
  • the display device 2 is adapted to provide for interpretation and / or interpretation data that Ms. Smith used her card on the card reader of the door to room 4711. Further, based on the information that the door to room 4711 was open for more than 3 seconds after using the card of Ms. Smith, the display device 2 is adapted to interpret that Ms. Smith has entered the room 4711.
  • the interpretation data in this high-level interpretation 22 includes the information that Ms. Smith entered room 4711.
  • the suspect is assigned context, attributes, and / or additional information, for example, an attribute that the suspect used a firearm is based on the fact that a sensor 4 has detected a shot with a firearm in a corresponding area
  • the information that the shot occurs in a corresponding area is based on the spatial model 17.
  • the video camera is designed to capture the suspicious person videotechnisch.
  • the video data, in particular the images, are thereby interpreted and evaluated, so that the suspicious person can be assigned as an attribute that it is a person 23 and possibly even its identity 24 and further details of the person are assignable.
  • the video camera has detected a car 26 in the corresponding area, wherein the video camera has also detected the license plate of the car 26.
  • the video camera has also detected the license plate of the car 26.
  • a WI FI sensor is located in the monitoring area as the sensor 4
  • a mobile telephone 27 used in the area of the location of the suspicious person can be located by means of the WIFI sensor, for example, this mobile telephone 27 being assignable to personal data such as telephone number
  • access cards 28 were used in the area of the suspicious person, the access card 28 used can be assigned, for example, as a context and / or as an attribute.
  • the actual owner 29 can also be assigned to the admission card 28 used, so that a possible connection between the suspect and the actual cardholder can optionally be established. Further, it is possible for the spatial model 17 to be used to send a nearest watchman 30 and / or policeman to the location of the suspect.

Abstract

Security-relevant regions in buildings and/or open areas are often monitored by sensor. The monitoring material is often evaluated in control centers. The invention relates to a display device (2) for a monitoring system (1) of a monitoring region (3), wherein the monitoring system (1) has a plurality of sensors (4), wherein the sensors (4) are designed to monitor at least one section of the monitoring region (3) as a scene having objects and to provide said at least one section as scene data, comprising: at least one input interface (8) for receiving the sensor data (7); an entity device (10), wherein the entity device (10) is designed to associate entities with the objects of the scene on the basis of the sensor data (7); an attributing device (11), wherein the attributing device (11) has the entities and the sensor data (7) and attributes, wherein the attributing device (11) is designed to associate attributes with at least one of the entities and/or to store attributes for the entity; a filter device (14), wherein the filter device (14) is designed to filter the sensor data (7) into output data (15) on the basis of at least one of the entities and on the basis of the associated attributes, having a display device (2) for displaying the output data (15). The invention further relates to an actuator control by means of the display device.

Description

Beschreibung  description
Titel title
Anzeigevorrichtung für eine Überwachungsanlage eines  Display device for a monitoring system of a
Überwachungsbereiches, Überwachungsanlage mit der Anzeigevorrichtung,Surveillance area, monitoring system with the display device,
Verfahren zur Überwachung eines Überwachungsbereiches mit einer Method for monitoring a surveillance area with a
Überwachungsanlage und Computerprogramm zur Durchführung des Monitoring system and computer program for carrying out the
Verfahrens. Stand der Technik Process. State of the art
Es wird eine Anzeigevorrichtung für eine Überwachungsanlage eines Überwachungsbereiches vorgeschlagen, wobei die Überwachungsanlage eine Mehrzahl an Sensoren aufweist, wobei die Sensoren ausgebildet sind, mindestens einen Abschnitt des Überwachungsbereichs als Szene mit Objekten zu überwachen und als Szenendaten bereitzustellen, mit mindestens einer Eingangsschnittstelle zur Übernahme der Sensordaten , mit einer Entitäteneinrichtung, wobei die Entitäteneinrichtung ausgebildet ist, den Objekten der Szene basierend auf den Sensorsdaten Entitäten zuzuordnen, mit einer Attributierungseinrichtung, wobei die Attributierungseinrichtung die Entitäten und die Sensorsdaten sowie Attribute aufweist, wobei die Attributierungseinrichtung ausgebildet ist, mindestens einer der Entitäten Attribute zuzuordnen und/oder Attribute für die Entität zu hinterlegen, mit einer Filtereinrichtung, wobei die Filtereinrichtung ausgebildet ist, die Sensordaten auf Basis mindestens einer der Entitäten und/oder den zugordneten Attributen in Ausgangsdaten zu filtern, mit einer Anzeigeeinrichtung zur Anzeige der Ausgangsdaten. A display device for a monitoring system of a surveillance area is proposed, wherein the surveillance system has a plurality of sensors, wherein the sensors are designed to monitor at least a portion of the surveillance area as a scene with objects and to provide them as scene data, with at least one input interface for taking over the sensor data , an entity device, wherein the entity device is configured to assign entities to the objects of the scene based on the sensor data, with an attribution device, wherein the attribution device has the entities and the sensor data and attributes, wherein the attribution device is designed to assign attributes to at least one of the entities and / or attributes for the entity, with a filter device, wherein the filter device is configured, the sensor data based on at least one of the entities and / or filter the assigned attributes into output data, with a display device for displaying the output data.
Die Überwachung von Überwachungsbereichen, beispielsweise von Gebäuden und/oder von Freiflächen, erfolgt häufig mittels Sensoren und/oder mittels Videokameras, die in dem Überwachungsbereich angeordnet sind. Das Überwachungsmaterial, insbesondere die Sensordaten und das Bildmaterial werden dabei beispielsweise in einem Kontrollraum von einem Sicherheitspersonal gesichtet und/oder bewertet. Monitoring of surveillance areas, such as buildings and / or open spaces, is often by sensors and / or by video cameras located in the surveillance area. The Monitoring material, in particular the sensor data and the image material are thereby, for example, sighted and / or evaluated by a security staff in a control room.
Offenbarung der Erfindung Disclosure of the invention
Im Rahmen der Erfindung wird eine Anzeigevorrichtung für eine Überwachungsanlage eines Überwachungsbereiches mit den Merkmalen des Anspruchs 1 vorgeschlagen. Ferner wird eine Überwachungsanlage mit der Anzeigevorrichtung mit den Merkmalen des Anspruchs 13, ein Verfahren zur Überwachung eines Überwachungsbereiches mit einer Überwachungsanlage mit den Merkmalen des Anspruchs 14 sowie ein Computerprogramm zur Durchführung des Verfahrens mit den Merkmalen des Anspruchs 15 vorgeschlagen. Bevorzugte oder vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren. In the context of the invention, a display device for a monitoring system of a surveillance area with the features of claim 1 is proposed. Furthermore, a monitoring system with the display device with the features of claim 13, a method for monitoring a monitoring area with a monitoring system with the features of claim 14 and a computer program for carrying out the method with the features of claim 15 is proposed. Preferred or advantageous embodiments of the invention will become apparent from the dependent claims, the following description and the accompanying drawings.
Erfindungsgemäß wird eine Anzeigevorrichtung für eine Überwachungsanlage eines Überwachungsbereiches vorgeschlagen. Die Anzeigevorrichtung ist beispielsweise ein Computerarbeitsplatz. Insbesondere ist die Anzeigevorrichtung für einen Wachmann und/oder für Sicherheitspersonal ausgelegt, insbesondere ist die Anzeigevorrichtung zur Anzeige von Daten für den Wachmann und das Sicherheitspersonal und/oder zur Interaktion mit dem Wachmann und/oder dem Sicherheitspersonal ausgebildet. Vorzugsweise ist die Anzeigevorrichtung zentral und/oder ortsfest angeordnet, wie beispielsweise in einem zentralen Sicherheitsüberwachungszentrum und/oder einem Kontrollraum. Alternativ und/oder ergänzend ist die Anzeigevorrichtung mobil ausgebildet, und beispielsweise als ein Tablet, als ein Phablet und/oder als ein Smartphone ausgebildet. Vorzugsweise ist die Anzeigevorrichtung ausgebildet, dass ein Wachmann und/oder das Sicherheitspersonal mittels der Anzeigevorrichtung den Überwachungsbereich überwachen kann und/oder Aktoren im Überwachungsbereich mittels der Anzeigevorrichtung steuern kann. According to the invention, a display device for a monitoring system of a surveillance area is proposed. The display device is, for example, a computer workstation. In particular, the display device is designed for a security guard and / or for security personnel, in particular, the display device is designed to display data for the security guard and security personnel and / or for interaction with the security guard and / or security personnel. Preferably, the display device is arranged centrally and / or stationary, such as in a central security monitoring center and / or a control room. Alternatively and / or additionally, the display device is mobile, and designed, for example, as a tablet, as a phablet and / or as a smartphone. Preferably, the display device is designed so that a security guard and / or the security personnel can monitor the surveillance area by means of the display device and / or control actuators in the surveillance area by means of the display device.
Die Überwachungsanlage weist eine Mehrzahl an Sensoren auf, wobei die Sensoren im Überwachungsbereich angeordnet sind. Der Überwachungsbereich ist insbesondere ein öffentlicher und/oder ein nicht öffentlicher Bereich. Ferner ist der Überwachungsbereich eine Freifläche und/oder ein geschlossener Bereich wie zum Beispiel ein Gebäude. Vorzugsweise ist der Überwachungsbereich eine Flughafenanlage, ein Bahnhof, ein Gefängnis, ein öffentliches, wie beispielsweise eine Behörde, eine Schule und/oder eine Universität und/oder eine Grenzstation. Die Sensoren im Überwachungsbereich sind vorzugsweise Videokameras, Mikrofone, Brandmelder und/oder Bewegungsmelder. Die Videokameras sind insbesondere digitale Videokameras, beispielsweise CMOS- oder CCD-Kameras. Die Videokameras sind insbesondere ortsfeste Kameras, beispielsweise mit schwenkbaren Aufnahmebereich, beispielsweise eine PTZ- Kamera. Alternativ und/oder ergänzend sind die Videokameras mobile Videokameras, die in dem Überwachungsbereich bewegbar sind. Weitere Beispiele für Sensoren der Überwachungsanlage sind Einbruchssensoren, Zutrittskontrollsensoren, Personenverfolgungseinrichtungen, Fluginformationssysteme, Gate-The monitoring system has a plurality of sensors, wherein the sensors are arranged in the monitoring area. The surveillance area is in particular a public and / or a non-public sector. Further, the surveillance area is an open space and / or a closed area such as a building. Preferably, the surveillance area is an airport facility, a train station, a prison, a public, such as an authority, a school and / or a university and / or a border station. The sensors in the surveillance area are preferably video cameras, microphones, fire detectors and / or motion detectors. The video cameras are in particular digital video cameras, for example CMOS or CCD cameras. The video cameras are in particular fixed cameras, for example with a pivotable receiving area, for example a PTZ camera. Alternatively and / or additionally, the video cameras are mobile video cameras that are movable in the surveillance area. Further examples of monitoring system sensors include intrusion sensors, access control sensors, personal tracing devices, flight information systems, gate
Management-Systeme an einem Flughafen, Passagierinformationssysteme, Personenfluss- und/oder Personenzählsysteme, Beleuchtungseinrichtungen, Parkmanagementsysteme, IP-Telefonanlagen und/oderManagement systems at an airport, passenger information systems, passenger flow and / or people counting systems, lighting devices, parking management systems, IP PBXs and / or
Gepäckinformationssysteme. Luggage information systems.
Vorzugsweise umfasst die Überwachungsanlage mehr als 100 Sensoren, insbesondere mehr als 500 Sensoren und im Speziellen mehr als 1000 Sensoren. Die Sensoren sind ausgebildet, mindestens einen Abschnitt des Überwachungsbereiches als Szene mit Objekten zu überwachen und als Szenendaten bereitzustellen. Vorzugsweise sind die Abschnitte die mittels der Sensoren überwacht werden überlappend, sodass insbesondere eine vollständige Überwachung des Überwachungsbereiches möglich ist. Insbesondere wird mindestens ein Abschnitt eines Überwachungsbereiches mit einer Mehrzahl an Sensoren, insbesondere Sensoren unterschiedlichen Typs, sensorisch überwacht. Beispielsweise wird ein Abschnitt sowohl videotechnisch, akustisch und mit Brandmeldern überwacht. Die Szene umfasst insbesondere Objekte, wobei die Objekte beispielsweise Personen im Überwachungsbereich, Gegenstände, Türen und/oder Ereignisse im Überwachungsbereich sind. Insbesondere umfassen die Szenendaten, Informationen zu den Objekten, wie beispielsweise Objektart, Objektposition im Überwachungsbereich und/oder Zeitpunkt der Aufnahme der Szenendaten. Die Anzeigevorrichtung umfasst eine Eingangsschnittstelle zur Übernahme der Sensordaten. Vorzugsweise ist die Eingangsschnittstelle als eine Funkschnittstelle ausgebildet, wobei die Eingangsschnittstelle die Sensordaten mittels einer Funkverbindung bereitgestellt bekommt. Alternativ und/oder ergänzend ist diePreferably, the monitoring system comprises more than 100 sensors, in particular more than 500 sensors and in particular more than 1000 sensors. The sensors are designed to monitor at least a portion of the surveillance area as a scene with objects and to provide them as scene data. Preferably, the sections which are monitored by means of the sensors are overlapping, so that in particular complete monitoring of the monitored area is possible. In particular, at least one section of a monitoring area with a plurality of sensors, in particular sensors of different types, is monitored by sensors. For example, a section is monitored both videotechnisch, acoustically and with fire detectors. In particular, the scene comprises objects, the objects being, for example, persons in the surveillance area, objects, doors and / or events in the surveillance area. In particular, the scene data includes information about the objects, such as the object type, the object position in the surveillance area, and / or the time of recording the scene data. The display device comprises an input interface for accepting the sensor data. Preferably, the input interface is designed as a radio interface, wherein the input interface gets the sensor data provided by means of a radio link. Alternatively and / or additionally, the
Eingangsschnittstelle eine Kabelschnittstelle, wobei die Sensordaten über eine Kabelverbindung bereitgestellt werden. Besonders bevorzugt ist es, dass die Anzeigevorrichtung eine Speichereinheit zur Speicherung der Sensordaten umfasst. Input interface a cable interface, wherein the sensor data is provided via a cable connection. It is particularly preferred that the display device comprises a memory unit for storing the sensor data.
Die Anzeigevorrichtung umfasst eine Entitäteneinrichtung, wobei die Entitäteneinrichtung ausgebildet ist, den Objekten der Szene basierend auf den Sensordaten Entitäten zuzuordnen. Als Entitäten wird vorzugsweise eine Repräsentation der Objekte im Überwachungsbereich und/oder eine Repräsentation des Sensors im Überwachungsbereich selbst verstanden, wobei die Repräsentation beispielsweise eine datentechnische Repräsentation innerhalb der Anzeigevorrichtung ist. Beispiele für Entitäten sind Objekte, Personen und/oder Gegenstände im Überwachungsbereich. Ferner können Entitäten, Orte und/oder Koordinaten im Überwachungsbereich sein sowie Routen und/oder Wege innerhalb des Überwachungsbereiches. Beispiele für Entitäten sindThe display device includes an entity device, wherein the entity device is configured to associate entities with the scene based on the sensor data. As entities, a representation of the objects in the surveillance area and / or a representation of the sensor in the surveillance area itself is preferably understood, the representation being, for example, a data-technical representation within the display device. Examples of entities are objects, persons and / or objects in the surveillance area. Further, entities, locations and / or coordinates may be in the surveillance area as well as routes and / or paths within the surveillance area. Examples of entities are
Brandmelder, Türkontrollsysteme, Zutrittskarten, Gepäckstücke, Fahrzeuge, Telefone und/oder Smartphones, Räume und/oder Bereiche. Insbesondere sind Entitäten statische Objekte, wie beispielsweise Konfigurationen mit festen Eigenschaften und/oder Masterdaten. Alternativ und/oder ergänzend sind Entitäten dynamische Objekte, welche beispielsweise ihren Typ ändern können, wie beispielsweise, dass eine Kamera ein sich bewegendes Objekt detektiert, mittels weitere Sensoren Zusatzinformationen, wie Größe und Geschwindigkeit detektiert und darauf basierend eine Entität als Mensch und/oder Tier festlegt. Insbesondere sind Attribute, Details und/oder Zusatzinformationen zu einer der Entitäten. Fire detectors, door control systems, access cards, luggage, vehicles, telephones and / or smartphones, rooms and / or areas. In particular, entities are static objects, such as fixed property configurations and / or master data. Alternatively and / or additionally, entities are dynamic objects, which can change their type, for example, such that a camera detects a moving object, detects additional information such as size and speed by means of additional sensors and, based thereon, an entity as human and / or animal sets. In particular, attributes, details and / or additional information to one of the entities.
Die Anzeigevorrichtung umfasst eine Filtereinrichtung, wobei die Filtereinrichtung ausgebildet ist, die Sensordaten auf Basis mindestens einer der Entitäten und/oder den zugeordneten Attributen der mindestens einen Entität in Ausgangsdaten zu Filtern. Insbesondere ist die Filtereinrichtung ausgebildet, die Sensordaten so in Ausgangsdaten zu Filtern, dass die Ausgangsdaten Informationen, insbesondere nur diejenigen Informationen, umfassen, die basierend auf den Entitäten und den Attributen sicherheitsrelevante Ereignisse im Überwachungsbereich umfassen und/oder zeigen. Insbesondere ist die Filtereinrichtung ausgebildet, ein umfassendes und/oder komplettes Bild an Sensordaten demThe display device comprises a filter device, wherein the filter device is designed to filter the sensor data based on at least one of the entities and / or the associated attributes of the at least one entity into output data. In particular, the filter device is designed so that the sensor data Output data for filtering that the output data information, in particular only those information include, based on the entities and the attributes include security events in the surveillance area and / or show. In particular, the filter device is designed to provide a comprehensive and / or complete image of sensor data
Überwachungspersonal bereitzustellen, ohne das Überwachungspersonal mit unwichtigen Sensordaten von der eigentlich zu begutachtender Szene abzulenken. Beispielsweise ist eine Entität ein Ereignis im Überwachungsbereich, wobei dieTo provide monitoring personnel, without distracting the monitoring personnel with unimportant sensor data from the scene actually to be inspected. For example, an entity is an event in the surveillance area, where the
Attribute Details und/oder Zusatzinformationen zu dem Ereignis in dem Überwachungsbereich sind. Die Filtereinrichtung ist insbesondere ausgebildet, die Sensordaten so in Ausgangsdaten zu Filtern, dass die Ausgangsdaten alle und/oder nur Daten zu dem Ereignis in dem Überwachungsbereich umfassen. Attributes are details and / or additional information about the event in the monitoring area. The filter device is in particular designed to filter the sensor data into output data in such a way that the output data comprises all and / or only data relating to the event in the monitoring area.
Die Anzeigevorrichtung umfasst eine Anzeigeeinrichtung zur Anzeige der Anzeigedaten. Insbesondere ist die Anzeigeeinrichtung ausgebildet, die Anzeigedaten grafisch, in Form von Bildern, Videos, Graphiken und/oder alphanummerisch anzuzeigen. The display device comprises a display device for displaying the display data. In particular, the display device is designed to display the display data graphically in the form of images, videos, graphics and / or alphanumeric.
Ferner ist es möglich, dass die Anzeigeeinrichtung eine Ausgabeeinrichtung zur Ausgabe von akustische Komponente umfasst, also dass mittels der Anzeigeeinrichtung auch akustische Signale und/oder Sensordaten wiedergegeben werden können. Die Anzeigeeinrichtung ist insbesondere ein Bildschirm, ein Monitor und/oder ein Touchscreen. Die Anzeigeeinrichtung ist zumFurthermore, it is possible for the display device to comprise an output device for outputting the acoustic component, that is to say that acoustic signals and / or sensor data can also be reproduced by means of the display device. The display device is in particular a screen, a monitor and / or a touch screen. The display device is for
Beispiel eine Farbanzeige und/oder eine schwarz-weiß Anzeige. Ferner ist es möglich, dass die Anzeigeeinrichtung zur Interaktion und/oder zur Eingabe von Daten ausgebildet ist. Dabei kann beispielsweise das Überwachungspersonal und/oder ein Wächter die Überwachungsanlage mittels der Anzeigeeinrichtung steuern. Dabei umfasst die Anzeigeeinrichtung beispielweise Eingabemittel, wie beispielsweise eine Tastatur, eine Computermaus oder eine Touchscreeneinheit. For example, a color display and / or a black and white display. Furthermore, it is possible that the display device is designed to interact and / or to input data. In this case, for example, the monitoring personnel and / or a guard control the monitoring system by means of the display device. In this case, the display device comprises, for example, input means, such as a keyboard, a computer mouse or a touchscreen unit.
Es ist eine Überlegung der Erfindung, dem Wachpersonal und/oder dem Sicherheitspersonal nur die Informationen und/oder Sensordaten anzuzeigen, die zu dem jeweiligen Zeitpunkt relevant sind und/oder sicherheitstechnisch von Interesse sind. Dabei ist es eine Überlegung, den Objekten einer Szene basierend auf Sensordaten Zusatzinformationen und/oder Attribute zuzuordnen, und die Objekte, Attribute und/oder Zusatzdaten zur Filterung der Sensordaten zu verwenden. Dabei ist es möglich auf der Anzeigeeinrichtung eine Mehrzahl an Bildschirmfenstern vorzusehen, wobei in den Bildschirmfenstern jeweils eine unterschiedliche Filterung der Sensordaten auf Basis der Entitäten und/oder der zugeordneten Attribute stattfand, sodass beispielsweise in einem Bildschirmfenster die Filterung basierend auf einem Feueralarm und in einem weiteren Fenster die Filterung basierend auf einem Einbruch stattfand. Somit wird eine bedienungsfreundlichere und sicherheitstechnisch verbesserteIt is a consideration of the invention to notify guards and / or security personnel of only the information and / or sensor data that are relevant to the particular time and / or safety-related Interest are. It is a consideration to associate the objects of a scene based on sensor data additional information and / or attributes, and to use the objects, attributes and / or additional data to filter the sensor data. It is possible on the display device to provide a plurality of screen windows, wherein in the screen windows each a different filtering of the sensor data based on entities and / or the associated attributes took place, so for example in a screen, the filtering based on a fire alarm and in another Window filtering based on a burglary. Thus, a more user-friendly and safety-enhanced
Überwachungsanlage und Anzeigevorrichtung vorgeschlagen. Monitoring system and display device proposed.
In einer bevorzugten Ausgestaltung der Erfindung umfasst die Attributierungseinrichtung mindestens eine Beziehung zwischen zwei und/oder mehreren Entitäten. Dabei ist die Filtereinrichtung insbesondere ausgebildet, dieIn a preferred embodiment of the invention, the attribution device comprises at least one relationship between two and / or more entities. In this case, the filter device is designed in particular, the
Sensordaten und/oder die Eingangsdaten auf Basis mindestens einer Beziehung in die Ausgangsdaten zu Filtern. Beziehungen zwischen zwei und/oder mehreren Entitäten dienen insbesondere der Charakterisierung der Entitäten und der Informationsgewinnung und/oder der Interpretation der Szene und/oder der Szenendaten. Insbesondere beschreibt eine Beziehung zwischen zwei und/oder mehreren Entitäten in welchem Bezug zwei und/oder mehrere Entitäten zueinander bestehen und/oder wie diese verknüpft sind. Insbesondere können Beziehungen zwischen zwei und/oder mehreren Entitäten permanent und/oder dauerhaft sein, wie beispielsweise zwei Entitäten sind in einem bestimmten Raum fest angeordnet. Alternativ und/oder ergänzend sind Beziehungen zwischen zwei und/oder mehreren Entitäten dynamisch und/oder veränderlich, wie beispielsweise eine Person besitzt etwas und/oder übergibt etwas. Die Filterung der Sensordaten in die Ausgangsdaten basierend auf den Ausgangsdaten stellt insbesondere eine Filterung basierend auf dem Kontext, Beziehungen und/oder der Interpretation dar. Die Ausgangsdaten bilden dabei eine Teilmenge der Sensordaten. Als relevanterSensor data and / or the input data based on at least one relationship in the output data to filters. Relations between two and / or more entities serve, in particular, for characterizing the entities and obtaining information and / or interpreting the scene and / or the scene data. In particular, a relationship between two and / or more entities describes how two and / or more entities are related to each other and / or how they are linked. In particular, relationships between two and / or more entities may be permanent and / or permanent, such as two entities being fixedly located in a particular space. Alternatively and / or additionally, relationships between two and / or more entities are dynamic and / or variable, such as a person owning and / or handing over something. The filtering of the sensor data into the output data based on the output data represents, in particular, a filtering based on the context, relationships and / or the interpretation. The output data form a subset of the sensor data. As more relevant
Kontext werden insbesondere die gefilterten Sensordaten und/oder die Ausgangsdaten verstanden. Es ist eine Überlegung der Erfindung, eine Anzeigevorrichtung bereitzustellen, die Kontext und/oder Zusatzinformationen zwischen zwei Entitäten nutzt, um von den Sensordaten nur die Teilmenge darzustellen, die die momentane Szene entsprechend charakterisiert und/oder entsprechend sicherheitsrelevante Daten darstellt. Damit ist es dem Überwachungspersonal einfacher möglich, eine Szene in dem Überwachungsbereich einfacher zu überblicken und/oder zu verstehen, wobei diese nur die relevanten Daten angezeigt werden. Diese Filterung entspricht insbesondere einer Interpretation der Sensordaten, die nahe an der menschlichen Interpretation von Sensordaten und/oder von Vorgängen im Überwachungsbereich entspricht. Context is understood in particular the filtered sensor data and / or the output data. It is a consideration of the invention to provide a display device that uses context and / or additional information between two entities to represent only the subset of the sensor data that characterizes the current scene and / or accordingly represents safety-relevant data. This makes it easier for the monitoring personnel to more easily view and / or understand a scene in the surveillance area, displaying only the relevant data. In particular, this filtering corresponds to an interpretation of the sensor data that is close to the human interpretation of sensor data and / or operations in the surveillance area.
Besonders bevorzugt ist es, dass die Beziehungen zwischen zwei Entitäten und/oder zwischen mehreren Entitäten räumliche Beziehungen sind. Insbesondere sind räumliche Beziehungen die Beziehungen„etwas ist an einem Ort", wie beispielsweise eine Entität ist an einem bestimmten Ort, wobei diese Information beispielsweise genutzt werden kann um einen Ort zu finden wo ein weiterer bestimmter Sensor angeordnet ist. Ferner umfasst die räumliche Beziehung beispielsweise die Beziehung„etwas ist nahe an etwas anderem", wie beispielsweise eine Entität ist nahe an einer weiteren Entität, wobei diese Information beispielsweise genutzt werden kann um die Umgebung der beiden Entitäten zu überprüfen. Weitere Beispiele für örtliche und/oder räumliche Beziehungen sind „etwas schaut auf etwas" wie beispielsweise eine Kamera fokussiert einen bestimmten Punkt, oder„etwas ist verbunden mit etwas", wie beispielsweise zwei Orte sind mittels eines Aufzuges und/oder mit einer Tür verbunden. Es ist eine Überlegung der Erfindung, räumliche Beziehung zwischen Entitäten zu nutzen, um die Sensordaten in Ausgangsdaten zu Filtern, wobei der Fokus auf räumliche Bereiche eingrenzbar ist. It is particularly preferred that the relationships between two entities and / or between multiple entities are spatial relationships. In particular, spatial relationships are the relationships "something is in one place", such as an entity is in a particular location, for example, this information can be used to find a location where another particular sensor is located the relationship "something is close to something else", such as an entity is close to another entity, which information can be used, for example, to check the environment of the two entities. Other examples of spatial and / or spatial relationships are "something looks at something", such as a camera focusing on a particular point, or "something is connected to something", such as two places connected by a lift and / or a door. It is a consideration of the invention to use spatial relationship between entities to filter the sensor data into output data, with the focus limited to spatial ranges.
In einer möglichen Ausgestaltung der Erfindung umfassen die Beziehungen zwischen zwei und/oder mehreren Entitäten zeitliche Beziehungen und/oder logische Beziehungen zwischen zwei und/oder mehreren Entitäten. Die zeitlichen und/oder logischen Entitäten dienen insbesondere der Charakterisierung von Entitäten und/oder deren Beziehungen zueinander. Insbesondere können die zeitlichen, logischen und/oder örtlichen Beziehungen kombiniert werden, wie beispielsweise im zeitlich örtliche, zeitlich logische und/oder zeitlich örtlich logische Beziehungen. Beispiele für zeitliche Beziehungen sind beispielsweise „etwas passiert zur gleichen Zeit" ,„etwas passiert in einem gemeinsamen Zeitfenstern", „etwas passiert vor etwas anderem" und/oder „etwas passiert nach etwas anderem". Beispiele für räumlich zeitliche und/oder örtlich zeitliche Beziehungen sind„etwas kann erreicht werden innerhalb einer Zeit" und/oder etwas wird zu einem Zeitpunkt von etwas erreicht. In one possible embodiment of the invention, the relationships between two and / or more entities include temporal relationships and / or logical relationships between two and / or more entities. The temporal and / or logical entities are used in particular for the characterization of entities and / or their relationships to each other. In particular, the temporal, logical and / or local relationships can be combined, such as in temporally local, temporally logical and / or temporally locally logical relationships. Examples of temporal relationships include, for example, "something happens at the same time,""something happens in a common time window,""something happens before something else" and / or "something happens after something Examples of spatio-temporal and / or local temporal relationships are "something can be achieved within a time" and / or something is achieved at a time of something.
Logische Beziehungen und/oder Beziehungen von Personen sind beispielsweise „etwas ist wo, etwas hat die Eigenschaft",„etwas besitzt etwas anderes",„etwas benutzt einen Gegenstand",„etwas ist in einen Vorgang involviert". Beziehungen und/oder Eigenschaften von Sensoren können insbesondere sein,„ein Sensor ist nicht detektionsberei ,„ein Sensor detektiert und/oder berichtet etwas" und/oder „ein Sensor detektiert, dass etwas von etwas blockiert ist". Logical relationships and / or relationships of people are, for example, "something is where, something has the property," "something has something else," "something uses an object," "something is involved in a process." Relationships and / or properties of sensors may be, in particular, "a sensor is not detectable," a sensor detects and / or reports something "and / or" a sensor detects that something is being blocked by something ".
In einer möglichen Ausgestaltung der Erfindung umfasst die Anzeigevorrichtung eine Aktorsteuereinrichtung. Die Überwachungsanlage umfasst eine Mehrzahl an Aktoren, wobei die Aktoren in dem Überwachungsbereich angeordnet sind. Die Aktoren sind beispielsweise Türöffner, Sprinkleranlagen und/oder Durchsagelautsprecher. Insbesondere sind die Aktoren mittels der Anzeigevorrichtung steuerbar. Die Aktorensteuereinrichtung ist ausgebildet, einem Benutzer der Anzeigevorrichtung auf Basis mindestens einer der Entitäten und/oder den zugeordneten Attributen der Entitäten Steueroptionen für mindestens einen der Aktoren bereitzustellen. Beispielsweise ist die Aktorensteuereinrichtung ausgebildet, bestimmte Aktoren einem Benutzer der Anzeigevorrichtung nur für gewisse Ereignisse im Überwachungsbereich bereitzustellen, die insbesondere durch Entitäten und ihre Attribute bestimmt sind. Zum Beispiel ist die Aktorensteuereinrichtung ausgebildet, einen Benutzer der Anzeigevorrichtung die Sprinkleranlage zur Aktivierung bereitzustellen, für ein detektierten Brand im Überwachungsbereich und/oder der Szene. In one possible embodiment of the invention, the display device comprises an actuator control device. The monitoring system comprises a plurality of actuators, wherein the actuators are arranged in the monitoring area. The actuators are, for example, door openers, sprinkler systems and / or announcement loudspeakers. In particular, the actuators are controllable by means of the display device. The actuator control device is designed to provide control options for at least one of the actuators to a user of the display device based on at least one of the entities and / or the associated attributes of the entities. For example, the actuator control device is designed to provide certain actuators to a user of the display device only for certain events in the monitoring area, which are determined in particular by entities and their attributes. For example, the actuator control device is configured to provide a user of the display device with the sprinkler system for activation, for a detected fire in the surveillance area and / or the scene.
In einer möglichen Ausgestaltung der Erfindung umfasst die Anzeigevorrichtung ein Interpretationsmodul. Das Interpretationsmodul ist ausgebildet, die Szene auf Basis der Sensordaten, der Attribute und/oder der Beziehungen zu interpretieren und Interpretationsdaten bereitzustellen. Insbesondere ist das Interpretationsmodul ausgebildet, die Sensordaten auszuwerten und/oder zu interpretieren, wobei die Interpretationsdaten beispielsweise von der Anzeigeeinrichtung anzeigbar sind. Die Interpretation kann nahe an den Sensordaten erfolgen, was insbesondere eine Low-Level-Interpretation darstellt und/oder die Interpretation kann nahe an der menschlichen Interpretation erfolgen, was einer High-Level-Interpretation entspricht. Beispielsweise ist eine Low-Level- Interpretation die einfache Darstellung und/der Detektion eines Sensorsignals eines der Sensoren im Überwachungsbereich. Beispielsweise ist die Detektion einer Mac-Adresse, welche von einem WI FI-Sensor im Überwachungsbereich detektiert wurde eine Interpretation, insbesondere eine Low-Level-Interpretation. Eine etwas höherwertige Low-Level-Interpretation ist beispielsweise bereits die Zuordnung, dass die detektierte Mac-Adresse zu einem Smartphone gehört. Eine High-Level-Interpretation verwendet insbesondere den Kontext, die Attributen und/oder Zusatzinformationen zu Entitäten und/oder die Korrelation zwischen zwei Entitäten. Beispielsweise ist es möglich, dass das Interpretationsmodul zwei Sensorsignale, die von unterschiedlichen Sensoren aufgenommen wurde zu einem gemeinsamen Ereignis zuordnet, und interpretiert, dass es sich dabei um dasselbe Ereignis handelt. In one possible embodiment of the invention, the display device comprises an interpretation module. The interpretation module is configured to interpret the scene on the basis of the sensor data, the attributes and / or the relationships and to provide interpretation data. In particular, the interpretation module is designed to evaluate and / or interpret the sensor data, wherein the interpretation data can be displayed, for example, by the display device. The interpretation can be close to the sensor data, which in particular represents a low-level interpretation and / or the interpretation may be close to human interpretation, which corresponds to a high-level interpretation. For example, a low-level interpretation is the simple representation and / or detection of a sensor signal of one of the sensors in the surveillance area. For example, the detection of a Mac address which was detected by a WI FI sensor in the surveillance area is an interpretation, in particular a low-level interpretation. A slightly higher-level low-level interpretation, for example, is already the assignment that the detected Mac address belongs to a smartphone. In particular, a high-level interpretation uses the context, the attributes and / or additional information about entities and / or the correlation between two entities. For example, it is possible for the interpretation module to map two sensor signals received from different sensors to a common event and interpret that to be the same event.
In einer möglichen Ausgestaltung der Erfindung ist die Filtereinrichtung ausgebildet, die Sensordaten auf Basis der Interpretationsdaten zu Filtern. Dabei ist es beispielsweise möglich, dass die Interpretationseinheit ein Ereignis basierend auf den Sensordaten, der Entitäten und/oder der Attribute im Überwachungsbereich detektiert und/oder Interpretiert, wobei die Filtereinrichtung ausgebildet ist, die Sensordaten so zu filtern, dass die Ausgangsdaten nur und/oder weitestgehend nur Informationen zu dem Ereignis im Überwachungsbereich umfassen. Beispielsweise ist die Interpretationseinheit ausgebildet, einen Brand in einem zusammenhängenden Bereich des Überwachungsbereiches zu detektieren, wobei die Filtereinrichtung ausgebildet ist, die Sensordaten so zu Filtern, dass die Ausgangsdaten alle wichtigen Informationen zu einem Brand in diesem Überwachungsbereich und/oder diesem Abschnitt umfassen. In one possible embodiment of the invention, the filter device is designed to filter the sensor data on the basis of the interpretation data. In this case, it is possible for example for the interpretation unit to detect and / or interpret an event based on the sensor data, the entities and / or the attributes in the monitoring area, wherein the filter device is designed to filter the sensor data such that the output data only and / or largely include only information about the event in the surveillance area. For example, the interpretation unit is designed to detect a fire in a contiguous area of the monitoring area, wherein the filter device is designed to filter the sensor data in such a way that the output data include all important information about a fire in this monitoring area and / or section.
Besonders bevorzugt ist es, dass der Grad der Interpretation durch das Interpretationsmodul durch einen Benutzer regulierbar und/oder einstellbar ist. Insbesondere ist der Grad der Interpretation von einer Low-Level-Interpretation zu einer High-Level-Interpretation und/oder umgekehrt regulierbar. In einer möglichen Ausgestaltung der Erfindung umfasst die Anzeigevorrichtung eine Sicherheitseinrichtung, wobei die Sicherheitseinrichtung die Eingangsdaten und/oder die Sensordaten umfasst und/oder sichert. Ferner ist die Sicherheitseinrichtung ausgebildet, die Interpretationsdaten und/oder die Ausgangsdaten zu sichern. Beispielsweise ist die Sicherheitseinrichtung als eine interne und/oder externe Speichereinheit ausgebildet, wie beispielsweise eine Festplatte. Diese Ausgestaltung liegt die Überlegung zugrunde, dass die Interpretation der Sensordaten durch die Interpretationseinheit falsch sein kann, sodass durch die Sicherung der Sensordaten, der Interpretationsdaten und/oder der weiteren Daten eine Bewertung im Nachhinein möglich ist, sodass dieIt is particularly preferred that the degree of interpretation by the interpretation module by a user is adjustable and / or adjustable. In particular, the level of interpretation is adjustable from a low level interpretation to a high level interpretation and / or vice versa. In one possible embodiment of the invention, the display device comprises a safety device, wherein the safety device comprises and / or secures the input data and / or the sensor data. Furthermore, the security device is designed to secure the interpretation data and / or the output data. For example, the security device is designed as an internal and / or external storage unit, such as a hard disk. This embodiment is based on the consideration that the interpretation of the sensor data by the interpretation unit may be wrong, so that by securing the sensor data, the interpretation data and / or the other data, an evaluation in retrospect is possible, so that the
Eingangsdaten, Sensordaten, Ausgangsdaten und/oder Interpretationsdaten nicht verloren gehen. Input data, sensor data, output data and / or interpretation data are not lost.
Besonders bevorzugt ist es, dass die Anzeigevorrichtung eine Fallbackeinrichtung umfasst. Die Fallbackeinrichtung ist ausgebildet, einen anzeigen der ungefiltertenIt is particularly preferred that the display device comprises a fallback device. The falling-back device is designed to display an unfiltered one
Ereignisdaten auf der Anzeigeeinrichtung zu ermöglichen. Beispielsweise kann ein Benutzer der Anzeigevorrichtung der Interpretation eines Ereignisses im Überwachungsbereich wiedersprechen, sodass von der Anzeigevorrichtung die ungefilterten Sensordaten angezeigt werden und nicht die basierend auf den Entitäten und/oder Attributen gefilterten Ausgangsdaten. Alternativ und/oder ergänzend können basierend auf einer Information Interpretationsdaten mit einem niedrigeren und/oder höheren Grad der Interpretation angezeigt werden. Beispielsweise kann die Interpretation„Eine Person A ist in einem Raum X" falsch sein, falls die Zutrittskarte eine Person B benutzt, wobei durch Erhöhung des Grades der Interpretation, beispielsweise durch Identifikation des Gesichts in denTo enable event data on the display device. For example, a user of the display device may disagree with the interpretation of an event in the monitoring area so that the unfiltered sensor data is displayed by the display device and not the output data filtered based on the entities and / or attributes. Alternatively and / or additionally, based on information, interpretation data may be displayed with a lower and / or higher level of interpretation. For example, the interpretation "A person A is in a room X" may be wrong if the admission card uses a person B, by increasing the degree of interpretation, for example by identifying the face in the room
Videodaten, interpretiert werden„Person B ist in Raum X". Dieser Ausgestaltung liegt die Überlegung zugrunde, dass eine mögliche Fehlinterpretation durch die Anzeigevorrichtung und/oder eine mögliche Fehlfilterung basierend auf den Entitäten ausgeschlossen und/oder reduziert werden kann. Video data, "Person B is in Room X." This embodiment is based on the consideration that a possible misinterpretation by the display device and / or a possible false filtering based on the entities can be excluded and / or reduced.
Besonders bevorzugt ist es, dass die Anzeigevorrichtung ein Ereignisanlagemodul umfasst. Das Ereignisanlagemodul ist ausgebildet, die Szenendaten, Sensordaten und/oder Eingangsdaten auf das Vorliegen eines Ereignisses in der Szene auszuwerten. Beispielsweise ist das Ereignis in dem Überwachungsbereich und/oder in der Szene ein sicherheitsrelevantes Ereignis, wie beispielsweise ein Einbruch, ein detektiertes Feuer und/oder ein Überfall. Das Ereignisanlagemodul ist ferner ausgebildet, Ereignisdaten bei Vorliegen eines Ereignisses eine Szene bereitzustellen. Insbesondere umfassen die Ereignisdaten den Typ des Ereignisses, den Ort des Ereignisses und/oder den Zeitpunkt des Ereignisses. Dabei ist es insbesondere vorgesehen, dass die Filtereinrichtung ausgebildet ist, die Sensordaten auf Basis der Ereignisdaten in Ausgangsdaten zu Filtern. Beispielsweise umfassen die Ausgangsdaten bei Vorliegen eines Ereignisses insbesondere die Sensordaten, die Informationen zu dem Ereignis umfassen und/oder zu dem Zeitpunkt und/oder an dem Ort des Ereignisses aufgenommen wurden. It is particularly preferred that the display device comprises an event attachment module. The event attachment module is configured to evaluate the scene data, sensor data and / or input data for the presence of an event in the scene. For example, the event in the surveillance area and / or scene is a security-related event, such as a Burglary, a detected fire and / or a robbery. The event attachment module is further configured to provide event data in the event of an event, a scene. In particular, the event data includes the type of event, the location of the event, and / or the time of the event. It is provided in particular that the filter device is designed to filter the sensor data based on the event data in output data. For example, in the presence of an event, the output data includes, in particular, the sensor data that includes information about the event and / or was recorded at the time and / or location of the event.
In einer möglichen Ausgestaltung der Erfindung umfasst die Anzeigevorrichtung ein Aggregationsmodul. Das Aggregationsmodul ist vorzugsweise als Backendsystem ausgebildet. Das Aggregationsmodul ist ausgebildet, zwei und/oder mehrere Ereignisse auf einen Zusammenhang zu überprüfen und/oder zwei und/oder mehrere Ereignisse mit einem Zusammenhang zu einem zusammengefassten Ereignis zusammenzufassen. Insbesondere umfasst das zusammengefasste Ereignis zusammengefasster Ereignisdaten, die das Ereignis charakterisieren und/oder näher definieren. Die Filtereinrichtung ist dabei vorzugsweise ausgebildet, die Sensordaten auf Basis der zusammengefassten Ereignisdaten in Ausgangsdaten zu Filtern. Insbesondere ist das Aggregationsmodul ausgebildet, räumliche und/oder zeitlich zusammenhängende Ereignisse, welche von unterschiedlichen Sensoren detektiert wurden, zu einem gemeinsamen Ereignis zusammenfassen. Beispielsweise ist ein solches zusammengefasstes Ereignis die Detektion von Feuer und/oder Rauch in dem Überwachungsbereich, wobei mehrere Sensoren in unterschiedlichen Abschnitten des Überwachungsbereiches Feuer und/oder Rauch detektieren, wobei das Aggregationsmodul ausgebildet ist, die Abschnitte und/oder Bereiche des Überwachungsbereiches mit detektierten Brand oder Rauch zu einem zusammengefassten Ereignis zusammenzufassen. In one possible embodiment of the invention, the display device comprises an aggregation module. The aggregation module is preferably designed as a backend system. The aggregation module is designed to check two and / or several events for a connection and / or to combine two and / or several events with a connection to a combined event. In particular, the summarized event comprises summarized event data that characterize and / or define the event more precisely. The filter device is preferably designed to filter the sensor data into output data on the basis of the summarized event data. In particular, the aggregation module is designed to combine spatial and / or temporally related events, which were detected by different sensors, into a common event. For example, such a summarized event is the detection of fire and / or smoke in the surveillance area, where a plurality of sensors in different portions of the surveillance area detect fire and / or smoke, the aggregation module being formed, the sections and / or areas of the detected fire surveillance area or to combine smoke into a summarized event.
Einen weiteren Gegenstand der Erfindung bildet eine Überwachungsanlage mit der Anzeigevorrichtung nach einem der vorherigen Ansprüche. Die Überwachungsanlage umfasst insbesondere eine Mehrzahl an Sensoren, wobei die Sensoren in dem Überwachungsbereich angeordnet sind. Ferner ist es möglich, dass die Überwachungsanlage beispielsweise eine Mehrzahl an Aktoren, beispielsweise wie Türöffner und/oder Lautsprecher umfasst. Another object of the invention is a monitoring system with the display device according to one of the preceding claims. The monitoring system in particular comprises a plurality of sensors, wherein the sensors are arranged in the monitoring area. It is further possible that the monitoring system includes, for example, a plurality of actuators, such as door openers and / or speakers.
Ein weiterer Gegenstand der Erfindung ist ein Verfahren zur Überwachung eines Überwachungsbereiches mit einer Überwachungsanlage. Das Verfahren sieht insbesondere vor, mittels einer Mehrzahl an Sensoren, welche im Überwachungsbereich angeordnet sind, Sensordaten zu generieren und/oder bereitzustellen. Die Sensoren in dem Überwachungsbereich stellen dabei insbesondere die Sensordaten bereit, die einen Abschnitt des Überwachungsbereiches als Szene mit Objekten überwachen. Ferner sieht das Verfahren vor, dass den Objekten der Szene basierend auf den Sensordaten Entitäten zugeordnet werden. Insbesondere sieht das Verfahren vor, dass mindestens einer der Entitäten Attribute zugeordnet werden und/oder Attribute für die Entität hinterlegt werden. Die Sensordaten werden dann auf Basis einer der Entitäten und/oder den zugeordneten Attributen in Ausgangsdaten gefiltert, wobei die Ausgangsdaten auf einer Anzeige angezeigt werden. Dieser Ausgestaltung der Erfindung liegt die Überlegung zugrunde, ein Verfahren bereitzustellen, welches den Überwachungspersonal und/oder dem Benutzer einer Überwachungsanlage nur relevante Informationen und/oder Sensordaten auf einer Anzeige anzeigt. Another object of the invention is a method for monitoring a surveillance area with a surveillance system. In particular, the method provides for generating and / or providing sensor data by means of a plurality of sensors, which are arranged in the monitoring area. In particular, the sensors in the monitoring area provide the sensor data which monitor a section of the surveillance area as a scene with objects. Furthermore, the method provides that entities are assigned to the objects of the scene based on the sensor data. In particular, the method provides that attributes are assigned to at least one of the entities and / or attributes for the entity are deposited. The sensor data is then filtered into output data based on one of the entities and / or the associated attributes, with the output data displayed on a display. This embodiment of the invention is based on the consideration of providing a method which only displays relevant information and / or sensor data on a display to the monitoring personnel and / or the user of a monitoring system.
Einen weiteren Gegenstand der Erfindung bildet ein Computerprogramm mit Programmcodemitteln um alle Schritte des Verfahrens durchzuführen, wenn das Programm auf einem Computer und/oder der Anzeigevorrichtung ausgeführt wird. A further subject of the invention is a computer program with program code means for carrying out all the steps of the method when the program is executed on a computer and / or the display device.
Weitere Merkmale, Vorteile und Wirkungen der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der Erfindung. Dabei zeigen: Further features, advantages and effects of the invention will become apparent from the following description of preferred embodiments of the invention. Showing:
Figur 1 eine schematische Darstellung einer Überwachungsanlage; Figur 2 eine schematische Darstellung des Interpretationsgrads; Figur 3 ein Beispiel für eine Interpretation eines Ereignisses; Figur 4 Kontext und/oder mögliche Attribute zu dem Ereignis. Figur 1 zeigt eine schematische Darstellung einer Überwachungsanlage 1 mit einer Anzeigevorrichtung 2. Die Überwachungsanlage 1 ist ausgebildet, einen Überwachungsbereich 3 sensortechnisch, videotechnisch und/oder sicherheitstechnisch zu überwachen. Im Überwachungsbereich 3 sind eine Mehrzahl an Sensoren 4 angeordnet. Die Sensoren 4 sind insbesondere Videokameras, Brandmelder, Kartenlesegeräte und/oder Beleuchtungs- Lüftungs- , Aufzugsteuerungen und/oder Unscharf schalten von Einbruchsmeldern. Der Überwachungsbereich 3 umfasst ferner mehrere Abschnitte 5, wobei die Abschnitte 5 beispielsweise unterschiedliche Räume und/oder Bereiche in dem Überwachungsbereich 3 sind. In einem Abschnitt 5 sind insbesondere auch eine Mehrzahl an Sensoren 4 angeordnet, so kann beispielsweise ein Raum sowohl Brandmelder als auch Videokameras umfassen. In dem Überwachungsbereich 3 sind ferner Aktoren 6 angeordnet, wobei die Aktoren 6 beispielsweise Sprinkleranlagen, Türöffner oder Schließanlagen sind. Die Aktoren 6 sind vorzugsweise mittels der Anzeigevorrichtung 2 steuerbar und/oder bedienbar. Die Sensoren 4 sind ausgebildet, den Überwachungsbereich 3 und/oder die Abschnitte 5 sensortechnisch zu überwachen und dabei Sensordaten 7 bereitzustellen. Figure 1 is a schematic representation of a monitoring system; Figure 2 is a schematic representation of the degree of interpretation; Figure 3 is an example of an interpretation of an event; Figure 4 context and / or possible attributes to the event. 1 shows a schematic representation of a monitoring system 1 with a display device 2. The monitoring system 1 is designed to monitor a monitoring area 3 sensor technology, video technology and / or safety technology. In the monitoring area 3, a plurality of sensors 4 are arranged. The sensors 4 are in particular video cameras, fire detectors, card readers and / or lighting ventilation, lift controls and / or disarm switch of burglar alarms. The monitoring area 3 further comprises a plurality of sections 5, wherein the sections 5 are, for example, different rooms and / or areas in the monitoring area 3. In a section 5, in particular, a plurality of sensors 4 are arranged, for example, a room may include both fire detectors and video cameras. In the monitoring area 3 actuators 6 are further arranged, the actuators 6 are, for example sprinkler systems, door openers or locking systems. The actuators 6 are preferably controllable and / or operable by means of the display device 2. The sensors 4 are designed to monitor the monitoring area 3 and / or the sections 5 sensor-wise and thereby to provide sensor data 7.
Die Anzeigevorrichtung 2 umfasst eine Eingangsschnittstelle 8, wobei die Eingangsschnittstelle 8 als eine kabellose Schnittstelle, insbesondere eine Schnittpunktschnittstelle ausgebildet ist. In dem Überwachungsbereich 3 ist mindestens eine Gegenschnittstelle 9 angeordnet, wobei die Gegenschnittstelle 9 mit der Eingangsschnittstelle 8 datentechnisch koppelbar ist, sodass die Sensordaten 7 von den Sensoren 4 in dem Überwachungsbereich 3 mittels der Gegenschnittstelle 9 an die Eingangsschnittstelle 8 übertragbar sind. Die Sensordaten 7 sind somit der Anzeigevorrichtung 2 bereitgestellt. Die Sensordaten 7 werden einer Entitäteneinrichtung 10 bereitgestellt. Die Entitäteneinrichtung 10 ist insbesondere Teil der Anzeigevorrichtung 2. Insbesondere ist die Entitäteneinrichtung 10 eine Backendsystem. Die Entitäteneinrichtung 10 ist ausgebildet, den Objekten einer Szene und/oder den Objekten im Überwachungsbereich 3 basierend auf den Sensordaten 7 Entitäten zuzuordnen. Die Entitäten sind insbesondere eine Repräsentation von realen Objekten im Überwachungsbereich innerhalb der Anzeigevorrichtung 2. Entitäten sind beispielsweise Personen im Überwachungsbereich 3, Gegenstände im Überwachungsbereich 3 sowie auch die Sensoren 4 und/oder Aktoren 6 im Überwachungsbereich 3. Insbesondere sind Entitäten als eine datentechnische Repräsentation von realen Objekten des Überwachungsbereiches 3 in der Anzeigevorrichtung 2 zu verstehen. The display device 2 comprises an input interface 8, wherein the input interface 8 is designed as a wireless interface, in particular an intersection interface. At least one mating interface 9 is arranged in the monitoring area 3, wherein the mating interface 9 can be coupled with the input interface 8 in terms of data, so that the sensor data 7 can be transmitted from the sensors 4 in the monitoring area 3 to the input interface 8 by means of the mating interface 9. The sensor data 7 are thus provided to the display device 2. The sensor data 7 are provided to an entity device 10. The entity device 10 is in particular part of the display device 2. In particular, the entity device 10 is a backend system. The entity device 10 is designed to assign entities to a scene and / or the objects in the surveillance area 3 based on the sensor data 7. The entities are in particular a representation of real objects in the surveillance area within the display device 2. Entities are For example, persons in the surveillance area 3, objects in the surveillance area 3 as well as the sensors 4 and / or actuators 6 in the surveillance area 3. In particular, entities are to be understood as a data-technical representation of real objects of the surveillance area 3 in the display device 2.
Die Anzeigevorrichtung 2 umfasst eine Attributierungseinrichtung 11. Die Attriebutierungseinrichtung 11 ist ausgebildet, den Entitäten basierend auf den Sensordaten Informationen und/oder Zusatzinformationen zuzuordnen. Insbesondere sind die Zusatzinformationen, die den Entitäten zugeordnet werden, Attribute. Ferner ist die Attributierungseinrichtung 11 ausgebildet, Attribute für eine und/oder mehrere Entitäten zu hinterlegen. Die Attributierungseinrichtung 11 ist insbesondere ausgebildet, den Entitäten Beziehungen zwischen zwei und/oder mehreren Entitäten zuzuordnen. Die Beziehungen zwischen zwei Entitäten sind insbesondere logische Beziehungen. Ferner ist die Attributierungseinrichtung 11 ausgebildet, den Entitäten zeitliche Beziehungen 12 und/oder räumliche Beziehungen 13 zuzuordnen, wobei die Attributierungseinrichtung 11 dazu eine Zeiteinheit bereitgestellt bekommt und oder einen räumlichen Maßstab bereitgestellt bekommt. The display device 2 comprises an attribution device 11. The at least one input device 11 is designed to assign information and / or additional information to the entities based on the sensor data. In particular, the additional information associated with the entities is attributes. Furthermore, the attribution device 11 is designed to store attributes for one and / or multiple entities. The attribution device 11 is in particular designed to associate the entities with relationships between two and / or more entities. The relationships between two entities are in particular logical relationships. Furthermore, the attribution device 11 is designed to assign temporal relationships 12 and / or spatial relationships 13 to the entities, the attribution device 11 for this purpose being provided with a time unit and / or provided with a spatial scale.
Die Anzeigevorrichtung 2 umfasst eine Filtereinrichtung 14, wobei die Filtereinrichtung 14 die Sensordaten 7, die Entitäten, Objekte und Attribute bereitgestellt bekommt. Die Filtereinrichtung 14 ist ausgebildet, basierend auf den Entitäten, den Sensordaten und den Attributen die Sensordaten in Ausgangsdaten 15 zu filtern. Insbesondere ist die Filtereinrichtung 14 ausgebildet, die Sensordaten so zu filtern, dass die Ausgangsdaten 15 alle wichtigen Informationen zu einem Ereignis und/oder einer Entität im Überwachungsbereich umfasst. Beispielsweise ist die Filtereinrichtung 14 ausgebildet, die Sensordaten 7 so zu filtern, dass die Ausgangsdaten 15 alle Informationen zu einem Einbruch, einem Brand oder einen anderen sicherheitsrelevanten Ereignis im Überwachungsbereich umfasst. The display device 2 comprises a filter device 14, the filter device 14 being provided with the sensor data 7, the entities, objects and attributes. The filter device 14 is designed to filter the sensor data into output data 15 based on the entities, the sensor data and the attributes. In particular, the filter device 14 is designed to filter the sensor data in such a way that the output data 15 comprises all important information about an event and / or an entity in the monitoring area. By way of example, the filter device 14 is designed to filter the sensor data 7 in such a way that the output data 15 includes all information about a burglary, a fire or another security-relevant event in the surveillance area.
Die Anzeigevorrichtung 2 umfasst eine Anzeigeeinheit 16. Die Anzeigeeinheit 16 ist beispielsweise als ein Monitor, ein Smartphone und/oder als ein Tablet ausgebildet. Die Anzeigeeinheit 16 ist ausgebildet, die Ausgangsdaten 15 anzuzeigen. Ferner ist es möglich, dass die Anzeigeeinheit 16 ausgebildet ist, eine Interaktion eines Benutzers der Anzeigevorrichtung 2 mit der Anzeigevorrichtung zu ermöglichen, sodass beispielsweise ein Benutzer die Aktoren im Überwachungsbereich durch Eingabe und/oder Interaktion mit und/oder auf der Anzeigeeinheit 16 steuern kann. The display device 2 comprises a display unit 16. The display unit 16 is designed, for example, as a monitor, a smartphone and / or as a tablet. The display unit 16 is configured to display the output data 15. Further, it is possible that the display unit 16 is formed, a To allow interaction of a user of the display device 2 with the display device, so that, for example, a user can control the actuators in the surveillance area by entering and / or interacting with and / or on the display unit 16.
Figur 2 zeigt eine schematische Darstellung der Interpretationsgrade der Sensordaten 7 und/oder der Interpretationsdaten. In diesem Beispiel ist der Grad der Interpretation von links nach rechts zunehmend. Die Interpretation basiert dabei auf zeitlich räumlichen Beziehungen zwischen Entitäten. Als Basis dienen hierbei eine Zeiteinheit, die jede Entität und/oder jedem Ereignis einen Zeitpunkt und/oder Zeitstempel zuordnet. Ferner ist die Interpretation basierend auf räumlichen Modell 17 des Überwachungsbereichs 3. Das räumliche Modell 17 umfasst dabei hierarchische Strukturen des Überwachungsbereiches 3, insbesondere Orte, Koordinaten, Raumnummern, Raumflächen usw. Ferner umfasst das räumliche Modell 17 strukturelle Navigationselemente, wie beispielsweise Türen, Aufzüge, Rolltreppen, Treppenhäuser usw. Damit ist es möglich, beispielsweise eine Person und/oder einen Gegenstand bei der Bewegung durch den Überwachungsbereich 3 zu verfolgen, sowie Ereignisse im benachbarten Bereichen und/oder Abschnitten des Überwachungsbereiches 3 gegebenenfalls zusammenzufassen. Ferner umfasst das räumliche Modell 17FIG. 2 shows a schematic representation of the degrees of interpretation of the sensor data 7 and / or the interpretation data. In this example, the degree of interpretation from left to right is increasing. The interpretation is based on temporal relationships between entities. The basis here is a time unit which assigns each entity and / or event an event and / or timestamp. Furthermore, the interpretation based on spatial model 17 of the monitoring area 3. The spatial model 17 includes hierarchical structures of the surveillance area 3, in particular places, coordinates, room numbers, room areas, etc. Furthermore, the spatial model 17 comprises structural navigation elements, such as doors, elevators, Escalators, staircases, etc. This makes it possible to track, for example, a person and / or an object in the movement through the monitoring area 3, as well as events in the adjacent areas and / or sections of the monitoring area 3, if necessary, summarize. Furthermore, the spatial model 17
Klassifikationen von Bereichen und/oder Abschnitten des Überwachungsbereiches 3, wie beispielsweise Hochsicherheitsbereiche, öffentliche Bereiche und/oder zutrittsbeschränkte Bereiche. Ferner können als Basis zur Interpretation der Datenzusatzinformation verwendet werden, wie beispielsweise Informationen zu Personen, Wächtern, Kartenbesitzern und/oder anderen Eigenschaften von Gegenständen und/oder Personen im Überwachungsbereich 3. Classifications of areas and / or sections of the surveillance area 3, such as high security areas, public areas and / or restricted areas. Further, as a basis for interpreting the additional data information may be used, such as information on persons, security guards, cardholders and / or other properties of objects and / or persons in the surveillance area 3.
Eine weitgehend uninterpretierte Sichtweise auf die Sensordaten 7 ist die schlichte Aufnahme von Sensordaten in einer Low-Level-Interpretation 19. Die Low-Level-A largely uninterpreted view of the sensor data 7 is the simple recording of sensor data in a low-level interpretation 19. The low-level
Interpretation 19 detektiert dabei nur die Sensorsignale, die Videobilder und/oder Audiodaten. Diese werden vorzugsweise von einer Sicherheitseinrichtung gespeichert und/oder gesichert. Mit zunehmender Interpretation und/oder zunehmenden Grad der Interpretation erreicht man die Detektionsinterpretation 20 und die Identifikationsinterpretation 21. Die Detektionsinterpretation nutzt die Sensordaten 7 um basierend auf den Sensordaten 7 Objekte im Überwachungsbereich 3 zu detektieren, wie beispielsweise basierend auf den Videodaten eine Person im Überwachungsbereich 3 zu detektieren und/oder zu detektieren, dass eine Tür geöffnet wurde. In der Identifikationsinterpretation 21 ist die Interpretation stärker ausgeprägt auf den Zusatzinformationen und/oder Attributen basierend, sodass basierend auf der Detektion und den Attributen, beispielsweise einer detektierten Person der Name der Person zugeordnet werden kann. Ferner ist es beispielsweise möglich, dass bei Öffnen einer Tür mittels einer Zutrittskarte identifiziert werden kann, welche Person die Tür geöffnet hat. Interpretation 19 detects only the sensor signals, the video images and / or audio data. These are preferably stored and / or secured by a safety device. With increasing interpretation and / or increasing degree of interpretation one reaches the detection interpretation 20 and the identification interpretation 21. The detection interpretation uses the Sensor data 7 to detect based on the sensor data 7 objects in the monitoring area 3, such as based on the video data to detect a person in the surveillance area 3 and / or to detect that a door has been opened. In the interpretation of interpretation 21, the interpretation is based more strongly on the additional information and / or attributes, so that based on the detection and the attributes, for example a detected person, the name of the person can be assigned. Furthermore, it is possible, for example, when opening a door by means of an access card, to identify which person has opened the door.
In einer High-Level-Interpretation 22 der Sensordaten werden beispielsweise alle charakterisierende Informationen und/oder Sensordaten genutzt um eine Situation im Überwachungsbereich zu interpretieren. Beispielsweise werden dazu einzelne Events im Überwachungsbereich aggregiert. Beispielsweise detektieren mehrere Feuermelder im Überwachungsbereich im selben Stockwerk einen Brand. Dabei ist die Anzeigevorrichtung 2 ausgebildet, bei der High-Level-Interpretation die einzelnen detektierten Brände zu einem großen Brand zusammenzufassen. Die Anzeigevorrichtung 2 ist dabei ferner ausgebildet, einen Benutzer der Anzeigevorrichtung 2 alle Informationen die zur Beurteilung und/oder Bewertung des Brandes nötig sind anzuzeigen. Ferner ist die Anzeigevorrichtung 2 ausgebildet, dem Benutzer Optionen zu bieten, Aktoren 6 im Überwachungsbereich 3 zu steuern, die für das Event des Brandes gegebenenfalls zu steuern sind. Informationen die für dieses Event, beispielsweise dem Brand, nicht nötig sind werden aus den Ausgangsdaten 15 gefiltert. In a high-level interpretation 22 of the sensor data, for example, all characterizing information and / or sensor data are used to interpret a situation in the monitoring area. For example, individual events are aggregated in the surveillance area. For example, several fire detectors in the surveillance area on the same floor detect a fire. In this case, the display device 2 is designed to combine the individual detected fires in a high-level interpretation to a major fire. The display device 2 is further configured to display a user of the display device 2 all the information necessary for the assessment and / or evaluation of the fire. Furthermore, the display device 2 is designed to offer the user options to control actuators 6 in the monitoring area 3, which may need to be controlled for the event of the fire. Information which is not necessary for this event, for example the fire, is filtered from the output data 15.
Ferner kann in der High-Level-Interpretation 22 dem Benutzer mögliche Fluchtrouten angezeigt werden, wobei der Benutzer Aktoren 6, beispielsweise Türöffner innerhalb der Rute, steuern und/oder öffnen kann. Ereignisse, die auf dem jeweiligen Hauptereignis basieren, werden dabei vorzugsweise unterdrückt, sofern diese nicht eine übergeordnete Relevanz besitzen. Beispielsweise werden für einen detektierten Brand Ereignisse, wie zu Bruch gehende Fenster und/oder Temperaturanstiege ausgeblendet. Der Benutzer kann der Interpretation der Sensordaten 7 dabei auch wiedersprechen, sodass das Event gegebenenfalls in einzelne Events aufgelöst wird und/oder die rohen Sensordaten angezeigt werden. Ein weiteres Beispiel für eine High-Level-Interpretation 22 ist, dass falls eine Karte an einem Türöffner verwendet wird und der Zutritt verweigert wird, diese Information nicht in die Ausgangsdaten 15 gelangt. Wird jedoch die Karte innerhalb eines Zeitfensters mehrmals nicht erfolgreich an unterschiedlichen Türöffnern verwendet, wird dieses Event als ein Einbruchsversuch gewertet. DieseFurthermore, in the high-level interpretation 22, the user can be shown possible escape routes, with the user being able to control and / or open actuators 6, for example door openers within the rod. Events which are based on the respective main event are preferably suppressed, if they are not of superordinate relevance. For example, for a detected fire events, such as broken windows and / or temperature increases are hidden. The user can also contradict the interpretation of the sensor data 7, so that the event is optionally resolved into individual events and / or the raw sensor data are displayed. Another example of a high-level interpretation 22 is that if a card is used on a door opener and access is denied, that information does not get into the output data 15. However, if the card is not used successfully on different door openers several times within a time window, this event is considered an attempted break-in. These
Informationen werden dann in den Ausgangsdaten 15 dargestellt. Ferner ist es dabei möglich, dass beispielsweise für ein solches Event bei der Detektion eines mehrmaligen erfolglosen Türöffnenversuchs ein Wächter zu dem jeweiligen Ort geschickt wird, wobei der nächstgelegene Wächter dabei bevorzugt wird, wobei diese Information basierend auf den räumlich zeitlichen Informationen erfolgt. Information is then displayed in the output data 15. Furthermore, it is possible that, for example, for such an event in the detection of a multiple unsuccessful Türöffversuchs a guard is sent to the respective place, the nearest guard is preferred, this information is based on the spatiotemporal information.
Figur 3 zeigt schematisch ein Beispiel für die Interpretation eines Ereignisses, dass Frau Smith den Raum 4711 betreten hat. Ein Kartenleser als Sensor 4 und/oder als erste Entität detektiert das eine Zutrittskarte mit der Karten-ID 1234 am Kartenleser XYZ verwendet wurde. Basierend auf den Attributen, die demFIG. 3 shows schematically an example of the interpretation of an event that Ms. Smith entered room 4711. A card reader as the sensor 4 and / or as the first entity detects that an admission card with the card ID 1234 has been used on the card reader XYZ. Based on the attributes that the
Kartenleser XYZ die Positionsinformation, Stockwerk, Haus und Raum zuordnen, wird diesem Ereignis und/oder der Entität der Raum 4711 zugeordnet. Card reader XYZ assigning the position information, floor, house and room is assigned to this event and / or the entity of room 4711.
Basierend auf dem Attribut, dass der Karten-ID 1234 die Person Frau Smith zugeordnet ist, ist die Anzeigevorrichtung 2 ausgebildet, zu Interpretieren und/oder als Interpretationsdaten bereitzustellen, dass Frau Smith ihre Karte an dem Kartenleser der Tür zu Raum 4711 verwendet hat. Ferner ist die Anzeigevorrichtung 2 ausgebildet, basierend auf der Information, dass die Tür zu Raum 4711 nach der Verwendung der Karte von Frau Smith länger als 3 Sekunden geöffnet war, zu interpretieren, dass Frau Smith den Raum 4711 betreten hat.Based on the attribute that the person Ms. Smith is associated with the card ID 1234, the display device 2 is adapted to provide for interpretation and / or interpretation data that Ms. Smith used her card on the card reader of the door to room 4711. Further, based on the information that the door to room 4711 was open for more than 3 seconds after using the card of Ms. Smith, the display device 2 is adapted to interpret that Ms. Smith has entered the room 4711.
Somit umfassen die Interpretationsdaten in dieser High-Level-Interpretation 22 die Information, dass Frau Smith den Raum 4711 betreten hat. Thus, the interpretation data in this high-level interpretation 22 includes the information that Ms. Smith entered room 4711.
Figur 4 zeigt einen möglichen Kontext und/oder mögliche Attribute zu dem Ereignis E„verdächtige Person". Der verdächtigen Person werden hierbei Kontext, Attribute und/oder Zusatzinformationen zugeordnet. Ein Attribut ist beispielsweise, dass die verdächtige Person eine Schusswaffe verwendet hat. Diese Information basiert darauf, dass ein Sensor 4 einen Schuss mit einer Schusswaffe in einem entsprechenden Bereich detektiert hat. Die Information, dass der Schuss in einem entsprechenden Bereich auftritt, basiert auf dem räumlichen Modell 17. Ferner ist die Videokamera ausgebildet, die verdächtige Person videotechnisch zu erfassen. Die Videodaten, insbesondere die Bilder, werden dabei interpretiert und ausgewertet, sodass der verdächtigen Person als Attribut zugeordnet werden kann, dass es sich um einen Menschen 23 handelt und gegebenenfalls sogar dessen Identität 24 und weitere Details der Person zuordenbar sind. Weiterhin ist es möglich, dass die Videokamera ein Auto 26 in dem entsprechenden Bereich detektiert hat, wobei die Videokamera auch das Kennzeichen des Autos 26 detektiert hat. Somit ist es möglich, beispielsweise einer flüchtenden Person als Interpretationsdaten das Fluchtauto mit Kennzeichen 26 zuzuordnen. Befindet sich als Sensor 4 in dem Überwachungsbereich ein WI FI-Sensor, so kann beispielsweise mittels des WIFI-Sensors ein in dem Bereich des Aufenthaltsorts der verdächtigen Person verwendetes Mobiltelefon 27 geortet werden, wobei dieses Mobiltelefon 27 gegebenenfalls Personendaten, wie beispielsweise Rufnummer, zuordenbar sind. Wurden im Bereich der verdächtigen Person Zutrittskarten 28 verwendet, so kann beispielsweise als Kontext und/oder als Attribut, die verwendete Zutrittskarte 28 zugeordnet werden. Der verwendeten Zutrittskarte 28 sind insbesondere auch der eigentliche Eigentümer 29 zuordenbar, sodass ein möglicher Zusammenhang zwischen verdächtiger Person und eigentlichen Kartenbesitzer gegebenenfalls herstellbar ist. Ferner ist es möglich, dass das räumliche Modell 17 verwendet wird, um einen nächstgelegenen Wächter 30 und/oder Polizisten zu dem Ort der verdächtigen Person zu schicken. 4 shows a possible context and / or possible attributes for the event "suspicious person." In this context, the suspect is assigned context, attributes, and / or additional information, for example, an attribute that the suspect used a firearm is based on the fact that a sensor 4 has detected a shot with a firearm in a corresponding area The information that the shot occurs in a corresponding area is based on the spatial model 17. Further the video camera is designed to capture the suspicious person videotechnisch. The video data, in particular the images, are thereby interpreted and evaluated, so that the suspicious person can be assigned as an attribute that it is a person 23 and possibly even its identity 24 and further details of the person are assignable. Furthermore, it is possible that the video camera has detected a car 26 in the corresponding area, wherein the video camera has also detected the license plate of the car 26. Thus, it is possible, for example, to assign the escape car with license plate 26 to a fleeing person as interpretation data. If a WI FI sensor is located in the monitoring area as the sensor 4, a mobile telephone 27 used in the area of the location of the suspicious person can be located by means of the WIFI sensor, for example, this mobile telephone 27 being assignable to personal data such as telephone number , If access cards 28 were used in the area of the suspicious person, the access card 28 used can be assigned, for example, as a context and / or as an attribute. In particular, the actual owner 29 can also be assigned to the admission card 28 used, so that a possible connection between the suspect and the actual cardholder can optionally be established. Further, it is possible for the spatial model 17 to be used to send a nearest watchman 30 and / or policeman to the location of the suspect.

Claims

Ansprüche claims
1. Anzeigevorrichtung (2) für eine Überwachungsanlage (1) eines 1. Display device (2) for a monitoring system (1) of a
Überwachungsbereiches (3), wobei die Überwachungsanlage (1) eine Mehrzahl an Sensoren (4) aufweist, wobei die Sensoren (4) ausgebildet sind, mindestens einen Abschnitt des Überwachungsbereichs (3) als Szene mit Objekten zu überwachen und als Szenendaten bereitzustellen, mit mindestens einer Eingangsschnittstelle (8) zur Übernahme der Sensordaten (7), mit einer Entitäteneinrichtung (10), wobei die Entitäteneinrichtung (10) ausgebildet ist, den Objekten der Szene basierend auf den Sensordaten (7) Entitäten zuzuordnen, mit einer Attributierungseinrichtung (11), wobei die Attributierungseinrichtung (11) die Entitäten und die Sensordaten (7) sowie Attribute aufweist, wobei die Monitoring area (3), wherein the monitoring system (1) comprises a plurality of sensors (4), wherein the sensors (4) are adapted to monitor at least a portion of the monitoring area (3) as a scene with objects and provide as scene data, with at least an input interface (8) for accepting the sensor data (7), with an entity device (10), the entity device (10) being designed to assign entities to the objects based on the sensor data (7), with an attribution device (11), wherein the attribution means (11) comprises the entities and the sensor data (7) as well as attributes, the
Attributierungseinrichtung (11) ausgebildet ist, mindestens einer der Entitäten Attribute zuzuordnen und/oder Attribute für die Entität zu hinterlegen, mit einer Filtereinrichtung (14), wobei die Filtereinrichtung (14) ausgebildet ist, die Sensordaten (7) auf Basis mindestens einer der Entitäten und den zugordneten Attributen in Ausgangsdaten (15) zu filtern, mit einer Anzeigeeinrichtung (2) zur Anzeige der Ausgangsdaten (15). Attributing means (11) is adapted to assign at least one of the entities attributes and / or attributes for the entity, with a filter device (14), wherein the filter device (14) is formed, the sensor data (7) based on at least one of the entities and to filter the assigned attributes into output data (15), with a display device (2) for displaying the output data (15).
2. Anzeigevorrichtung (2) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Attributierungseinrichtung (11) mindestens eine Beziehung (12, 13) zwischen zwei Entitäten umfasst, wobei die Filtereinrichtung (14) ausgebildet ist, die Sensordaten auf Basis mindestens einer Beziehung (12, 13) in die Ausgangsdaten (15) zu filtern. 2. Display device (2) according to one of the preceding claims, characterized in that the attribution device (11) comprises at least one relationship (12, 13) between two entities, wherein the filter device (14) is adapted to filter the sensor data based on at least one relationship (12, 13) in the output data (15).
3. Anzeigevorrichtung (2) nach Anspruch 2, dadurch gekennzeichnet, dass die Beziehungen räumliche Beziehungen (13) zwischen zwei Entitäten umfassen. 3. Display device (2) according to claim 2, characterized in that the relationships comprise spatial relationships (13) between two entities.
4. Anzeigevorrichtung (2) nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die Beziehungen (12) zeitliche Beziehungen (12) und/oder logische 4. Display device (2) according to claim 2 or 3, characterized in that the relationships (12) temporal relationships (12) and / or logical
Beziehungen zwischen zwei Entitäten umfassen. Include relationships between two entities.
5. Anzeigevorrichtung (2) nach einem der vorhergehenden Ansprüche, gekennzeichnet durch, eine Aktorsteuereinrichtung, wobei die 5. Display device (2) according to one of the preceding claims, characterized by an actuator control device, wherein the
Überwachungsanlage (1) eine Mehrzahl an Aktoren (5) aufweist, wobei die Aktorensteuereinrichtung ausgebildet ist, einem Benutzer der Anzeigevorrichtung (1) auf Basis mindestens einer der Entitäten und den zugordneten Attributen Steueroptionen für mindestens einen der Aktoren (5) bereitzustellen. Monitoring system (1) comprises a plurality of actuators (5), wherein the actuator control device is configured to provide control options for at least one of the actuators (5) to a user of the display device (1) based on at least one of the entities and the attributed attributes.
6. Anzeigevorrichtung (2) nach einem der vorherigen Ansprüche, gekennzeichnet durch ein Interpretationsmodul, wobei das Interpretationsmodul ausgebildet ist, die Szene auf Basis der Sensordaten (7), der Attribute und/oder der 6. Display device (2) according to one of the preceding claims, characterized by an interpretation module, wherein the interpretation module is formed, the scene based on the sensor data (7), the attributes and / or the
Beziehungen (12, 13) zu interpretieren und Interpretationsdaten bereitzustellen. Interpret relationships (12, 13) and provide interpretation data.
7. Anzeigevorrichtung (2) nach Anspruch 6, dadurch gekennzeichnet, dass die Filtereinrichtung (14) ausgebildet ist, die Sensordaten (7) auf Basis der 7. Display device (2) according to claim 6, characterized in that the filter device (14) is formed, the sensor data (7) based on
Interpretationsdaten zu filtern. Filter interpretation data.
8. Anzeigevorrichtung (2) nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass der Grad der Interpretation durch das Interpretationsmodul regulierbar ist. 8. Display device (2) according to claim 6 or 7, characterized in that the degree of interpretation is adjustable by the interpretation module.
9. Anzeigevorrichtung (2) nach einem der vorherigen Ansprüche, gekennzeichnet durch eine Sicherungseinrichtung, wobei die Sicherungseinrichtung die 9. Display device (2) according to one of the preceding claims, characterized by a securing device, wherein the securing device the
Sensordaten (7) umfasst und sichert. Sensor data (7) includes and secures.
10. Anzeigevorrichtung (2) nach Anspruch 9, dadurch gekennzeichnet durch eine Fallbackeinrichtung, wobei die Fallbackeinrichtung ausgebildet ist, ein Anzeigen der ungefilterten Sensordaten auf der Anzeigeeinrichtung (16) zu ermöglichen. 10. Display device (2) according to claim 9, characterized by a fallback device, wherein the fallback device is designed to allow display of the unfiltered sensor data on the display device (16).
11. Anzeigevorrichtung (2) nach einem der vorherigen Ansprüche, 11. Display device (2) according to one of the preceding claims,
gekennzeichnet durch ein Ereignisanlagemodul, wobei das Ereignisanlagemodul ausgebildet ist, die Szenendaten auf ein Vorliegen eines Ereignisses (E) in der Szene auszuwerten und als Ereignisdaten bereitzustellen, wobei die characterized by an event attachment module, wherein the event attachment module is configured to evaluate the scene data for the presence of an event (E) in the scene and to provide it as event data, wherein the
Filtereinrichtung (14), ausgebildet ist, die Sensordaten (7) auf Basis der Filter device (14), is formed, the sensor data (7) based on
Ereignisdaten in Ausgangsdaten (15) zu filtern. To filter event data into output data (15).
12. Anzeigevorrichtung (2) nach Anspruch 11, gekennzeichnet durch ein 12. Display device (2) according to claim 11, characterized by a
Aggregationsmodul, wobei das Aggregationsmodul ausgebildet ist, zwei Ereignisse (E) auf einen Zusammenhang zu prüfen und/oder zwei Ereignisse (E) mit einem Zusammenhangs zu einem zusammengefassten Ereignis (E) mit zusammengefassten Ereignisdaten zusammenzufassen, wobei die Aggregation module, wherein the aggregation module is configured to check two events (E) for a connection and / or to combine two events (E) with a relationship to a combined event (E) with combined event data, wherein the
Filtereinrichtung (14), ausgebildet ist, die Sensordaten (7) auf Basis der zusammengefassten Ereignisdaten in Ausgangsdaten (15) zu filtern. Filter device (14), is adapted to filter the sensor data (7) based on the summarized event data in output data (15).
13. Überwachungsanlage (1) mit einer Anzeigevorrichtung (2) nach einem der vorhergehenden Ansprüche. 13. Monitoring system (1) with a display device (2) according to one of the preceding claims.
14. Verfahren zur Überwachung eines Überwachungsbereiches (3) mit einer Überwachungsanlage (1), wobei mittels einer Mehrzahl an Sensoren (4) im Überwachungsbereich (3) mindestens einen Abschnitt des 14. A method for monitoring a monitoring area (3) with a monitoring system (1), wherein by means of a plurality of sensors (4) in the monitoring area (3) at least a portion of
Überwachungsbereichs (3) als Szene mit Objekten überwacht wird und als Szenendaten (7) bereitgestellt werden, wobei den Objekten der Szene basierend auf den Sensordaten (7) Entitäten zugeordnet werden, wobei mindestens einer der Entitäten Attribute zugeordnet werden und/oder Attribute für die Entität hinterlegt werden, wobei die Sensordaten (7) auf Basis mindestens einer der Entitäten Monitoring area (3) is monitored as a scene with objects and provided as scene data (7), wherein objects are assigned to the objects of the scene based on the sensor data (7), at least one of the entities being assigned attributes and / or attributes for the entity deposited, wherein the sensor data (7) based on at least one of the entities
zugordneten Attributen in Ausgangsdaten (15) gefiltert werden, wobei die Ausgangsdaten (15) auf einer Anzeige angezeigt werden. filtered attributes into output data (15), wherein the output data (15) is displayed on a display.
15. Computerprogramm mit Programmcodemitteln, um alle Schritte des Verfahrens nach Anspruch 13 durchzuführen, wenn das Programm auf einem Computer und/oder der Anzeigevorrichtung (2) von jedem Beliebigen der DerA computer program comprising program code means for performing all the steps of the method of claim 13 when the program is run on a computer and / or the display device (2) of any one of the der
Ansprüche 1 bis 12 ausgeführt wird. Claims 1 to 12 is executed.
PCT/EP2016/078231 2016-11-21 2016-11-21 Display device for a monitoring system of a monitoring region, monitoring system having the display device, method for monitoring a monitoring region by means of a monitoring system, and computer program for performing the method WO2018091110A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112016007457.3T DE112016007457A5 (en) 2016-11-21 2016-11-21 DISPLAY DEVICE FOR A MONITORING SYSTEM OF A MONITORING AREA, MONITORING SYSTEM WITH THE DISPLAYING DEVICE, METHOD FOR MONITORING A MONITORING AREA WITH A MONITORING SYSTEM AND COMPUTER PROGRAM FOR CARRYING OUT THE PROCESS
PCT/EP2016/078231 WO2018091110A1 (en) 2016-11-21 2016-11-21 Display device for a monitoring system of a monitoring region, monitoring system having the display device, method for monitoring a monitoring region by means of a monitoring system, and computer program for performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2016/078231 WO2018091110A1 (en) 2016-11-21 2016-11-21 Display device for a monitoring system of a monitoring region, monitoring system having the display device, method for monitoring a monitoring region by means of a monitoring system, and computer program for performing the method

Publications (1)

Publication Number Publication Date
WO2018091110A1 true WO2018091110A1 (en) 2018-05-24

Family

ID=57471809

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/078231 WO2018091110A1 (en) 2016-11-21 2016-11-21 Display device for a monitoring system of a monitoring region, monitoring system having the display device, method for monitoring a monitoring region by means of a monitoring system, and computer program for performing the method

Country Status (2)

Country Link
DE (1) DE112016007457A5 (en)
WO (1) WO2018091110A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210327232A1 (en) * 2018-09-05 2021-10-21 Nec Corporation Apparatus and a method for adaptively managing event-related data in a control room
DE102022200832A1 (en) 2022-01-26 2023-07-27 Robert Bosch Gesellschaft mit beschränkter Haftung Monitoring method with at least one monitoring unit, computer program and monitoring unit

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060227997A1 (en) * 2005-03-31 2006-10-12 Honeywell International Inc. Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing
US20070132767A1 (en) * 2005-11-30 2007-06-14 William Wright System and method for generating stories in time and space and for analysis of story patterns in an integrated visual representation on a user interface
DE102007058959A1 (en) * 2007-12-07 2009-06-10 Robert Bosch Gmbh Configuration module for a monitoring system, monitoring system, method for configuring the monitoring system and computer program
US20160259975A1 (en) * 2008-03-03 2016-09-08 Avigilon Patent Holding 2 Corporation Method of searching data to identify images of an object captured by a camera system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060227997A1 (en) * 2005-03-31 2006-10-12 Honeywell International Inc. Methods for defining, detecting, analyzing, indexing and retrieving events using video image processing
US20070132767A1 (en) * 2005-11-30 2007-06-14 William Wright System and method for generating stories in time and space and for analysis of story patterns in an integrated visual representation on a user interface
DE102007058959A1 (en) * 2007-12-07 2009-06-10 Robert Bosch Gmbh Configuration module for a monitoring system, monitoring system, method for configuring the monitoring system and computer program
US20160259975A1 (en) * 2008-03-03 2016-09-08 Avigilon Patent Holding 2 Corporation Method of searching data to identify images of an object captured by a camera system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210327232A1 (en) * 2018-09-05 2021-10-21 Nec Corporation Apparatus and a method for adaptively managing event-related data in a control room
DE102022200832A1 (en) 2022-01-26 2023-07-27 Robert Bosch Gesellschaft mit beschränkter Haftung Monitoring method with at least one monitoring unit, computer program and monitoring unit

Also Published As

Publication number Publication date
DE112016007457A5 (en) 2019-08-14

Similar Documents

Publication Publication Date Title
Norris From personal to digital: CCTV, the panopticon, and the technological mediation of suspicion and social control
US7595815B2 (en) Apparatus, methods, and systems for intelligent security and safety
CN106937086B (en) Video monitoring system with selectable operational scenarios and system training for improved potential state perception
AT513101B1 (en) Surveillance system, open space surveillance and procedures for surveillance of a surveillance area
EP2235948B1 (en) Monitoring module for a video monitoring system, method for monitoring the state of a monitored area and computer program
Yesil Watching ourselves: Video surveillance, urban space and self-responsibilization
JP6837650B1 (en) Risk determination program and system
EP2290628A1 (en) Method for video monitoring areas
WO2018091110A1 (en) Display device for a monitoring system of a monitoring region, monitoring system having the display device, method for monitoring a monitoring region by means of a monitoring system, and computer program for performing the method
CN111083449A (en) Campus security system
EP1680769A1 (en) Method and device for passage control and/or isolation of persons
EP1376502A1 (en) Surveillance system
CN109741224A (en) Supervision method and Related product
DE102016222134A1 (en) Video analysis device for a monitoring device and method for generating a single image
US20160378268A1 (en) System and method of smart incident analysis in control system using floor maps
JP6739119B1 (en) Risk judgment program and system
US9990821B2 (en) Method of restoring camera position for playing video scenario
EP3542351A1 (en) Monitoring device for monitoring a monitoring region, and monitoring system having said monitoring device
WO2018091111A1 (en) Display apparatus for a monitoring installation of a monitoring area, and monitoring installation having the display apparatus
Gorodnichy et al. Recognizing people and their activities in surveillance video: technology state of readiness and roadmap
EP3542528B1 (en) Display apparatus for a monitoring installation of a monitoring area
Okorodudu Moving towards motion activated security camera system with live feed and call routing
DEPARTMENT OF HOMELAND SECURITY WASHINGTON DC Crowd Count and Analysis (CCA)
Bostrom Artificial Intelligence, AI Camera: Market & About
DE102019214707A1 (en) Method, device and rail vehicle

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16805330

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: DE

Ref legal event code: R225

Ref document number: 112016007457

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16805330

Country of ref document: EP

Kind code of ref document: A1