WO2023285649A1 - Monitoring device comprising at least two cameras, method for monitoring, computer program, and storage medium - Google Patents

Monitoring device comprising at least two cameras, method for monitoring, computer program, and storage medium Download PDF

Info

Publication number
WO2023285649A1
WO2023285649A1 PCT/EP2022/069843 EP2022069843W WO2023285649A1 WO 2023285649 A1 WO2023285649 A1 WO 2023285649A1 EP 2022069843 W EP2022069843 W EP 2022069843W WO 2023285649 A1 WO2023285649 A1 WO 2023285649A1
Authority
WO
WIPO (PCT)
Prior art keywords
occlusion
designed
data
tracking
cameras
Prior art date
Application number
PCT/EP2022/069843
Other languages
German (de)
French (fr)
Inventor
Christoph BURGER-SCHEIDLIN
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2023285649A1 publication Critical patent/WO2023285649A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Definitions

  • the invention relates to a monitoring device with at least two cameras, the cameras each having a recording area and being designed to record monitoring data for the recording area.
  • Surveillance by means of cameras is used in the public sector, for example airports, parks and/or train stations, as well as in the private or commercial sector for monitoring company buildings or private parking areas.
  • several cameras are provided to monitor a surveillance area, with objects being able to be detected and tracked, for example, based on object recognition and/or classification.
  • US Pat. No. 7,307,652 describes a device and a method for detecting and tracking objects in a surveillance area.
  • a surveillance device with at least two cameras with the features of claim 1 is proposed.
  • a method for monitoring, a computer program and a storage medium are also proposed. Preferred and/or advantageous embodiments result from the dependent claims, the description and the accompanying figures.
  • the monitoring device is designed, for example, to monitor a monitored area, with the cameras preferably being arranged and/or set up to record parts of the monitored area using images and/or video technology.
  • the monitoring device forms a camera swarm, for example.
  • the cameras are in particular connected to one another in terms of data technology, so that data can be exchanged between the cameras, preferably wirelessly.
  • the cameras are preferably embodied as movable and/or pivotable PTZ cameras. Alternatively, the cameras are arranged with a fixed viewing angle and/or a fixed orientation.
  • the cameras are designed to provide images and/or videos.
  • the cameras each have a recording area.
  • the cameras are designed to record and/or provide monitoring data for their recording area.
  • the monitoring data includes in particular images and/or videos of the recording area.
  • the cameras are designed, set up and/or arranged to record a common overlapping area. In particular, at least two cameras each have an overlapping area.
  • the recording areas each have an overlapping area in pairs. In the overlapping area, the surveillance data is recorded by at least two of the cameras.
  • the cameras each have an evaluation module.
  • the evaluation module is designed, for example, as a computer module, processor module, specifically as a software or hardware module.
  • the evaluation module is designed, for example, to execute and/or use software applications.
  • the evaluation modules of the cameras of the monitoring device are connected in terms of data technology.
  • the evaluation module is designed and/or set up to evaluate and/or analyze the monitoring data, in particular the images and/or videos. Based on the monitoring data, in particular the videos and/or images, the evaluation module detects stationary and/or moving objects in the respective recording area. For example, the detection is based on a machine learning algorithm and/or a neural network.
  • the detection of the stationary and moving objects preferably includes an object classification.
  • Stationary objects are, for example, furnishings and/or a background.
  • Moving objects are, for example, people, vehicles or other objects that are not stationary in the recording area.
  • the evaluation module is designed to pursue and/or track a detected, moving object in the respective recording area. For example, a trajectory and/or a path is determined for the moving object for tracking.
  • the tracked object forms in particular an "object of interest”.
  • the evaluation module is preferably designed to track a plurality of moving objects, in particular simultaneously and/or independently, in particular to track them independently.
  • the evaluation module in particular the evaluation modules of the cameras, each include an occlusion determination unit and a tracking support unit. Specifically, the concealment determination unit and the tracking support unit form a common unit.
  • the concealment determination unit is designed and/or set up to determine at least one object distance, in particular a plurality of object distances, for a detected moving object, in particular for the tracked object.
  • the object distance is a distance between the moving object, in particular the pursued and/or tracked object, and a stationary object.
  • a plurality of object distances are determined for the moving, in particular the tracked, object, the object distances being determined as distances to the stationary object in the recording area.
  • the object distance can be determined as a distance in real space, for example in meters, or a distance in image space, for example in pixels.
  • the occlusion determination unit is designed and/or set up to determine potential object occlusion of the moving object, in particular of the tracked and/or tracked object, based on the determined object distances and/or the determined object distances.
  • Potential object occlusion is understood to mean, in particular, a certain, sufficient and/or minimal probability that the moving object will be occluded by a stationary object, specifically within a definable period of time.
  • the occlusion determination unit is designed to determine a potential object occlusion based on an object distance between two moving, in particular tracked, objects. For example, the distance between two moving objects is determined for this purpose as the object distance.
  • potential object occlusion is understood to mean the occlusion of a moving object by another moving object.
  • the potential object occlusion is determined as a probability, for example.
  • the potential object occlusion is determined based on a decrease in the object distance.
  • the occlusion determination unit which has determined the potential object occlusion, communicates occlusion data to the additional cameras and/or the evaluation modules of the additional cameras and/or is designed to communicate the occlusion data.
  • the occlusion data includes the potential object occlusion. In other words, reports the
  • Coverage determination unit of a camera the other cameras the potential coverage.
  • a camera thus informs the other cameras and/or evaluation modules that the communicating camera will probably lose an object it is tracking due to potential object concealment.
  • the tracking support unit is designed and/or set up to record tracking support data based on the reported potential object occlusions and/or for the reported potential object occlusions.
  • the tracking support units of the additional cameras that have not communicated the potential object occlusion are designed to record the tracking support data.
  • the tracking support unit is designed to support the camera, which potentially loses the tracked object, in monitoring and/or tracking.
  • the tracking support unit is designed to record the tracking support data when the The moving object and/or stationary object associated with the reported potential object occlusion lies in the recording range of this camera. For example, the tracking support unit checks whether the moving and/or stationary object of the reported potential object concealment is in its recording area and, if so, records the tracking support data.
  • the tracking support unit is designed to communicate the tracking support data to the evaluation module of the camera that reported the potential concealment.
  • the tracking support unit is designed that
  • the tracking support data include, for example, the monitoring data of the associated recording area, tracking, detection and/or classification of the objects in the recording area, in particular the moving or tracked object and the associated stationary object.
  • the tracking support data include, for example, the monitoring data of the associated recording area, tracking, detection and/or classification of the objects in the recording area, in particular the moving or tracked object and the associated stationary object.
  • the tracking support data include, for example, the monitoring data of the associated recording area, tracking, detection and/or classification of the objects in the recording area, in particular the moving or tracked object and the associated stationary object.
  • the tracking support data include, for example, the monitoring data of the associated recording area, tracking, detection and/or classification of the objects in the recording area, in particular the moving or tracked object and the associated stationary object.
  • Tracking support data Images and/or videos of the recording area, in particular of the tracked object that is potentially covered.
  • the invention is based on the consideration that when tracking an object, a tracked object can be covered by a stationary object, so that the tracked object is lost from the surveillance. When the moving object leaves the object concealment again, this object is usually detected as a new object, which has a significant influence on the object monitoring and falsifies further evaluations. Based on a swarm communication of cameras, the proposed surveillance device avoids the detection of a temporarily occluded object as a new object, since one camera can notify the other cameras of the potential occlusion in good time and can then access their tracking support data.
  • the concealment determination unit is designed to determine the occurrence of concealment as the occurrence of concealment.
  • a covering of the tracked object by a stationary or another moving object is determined based on the images and/or videos.
  • this can Falling below a resolution distance are understood by the object distance, for example falling below a resolution distance of ten or one pixel.
  • the concealment data include in particular the occurrence of concealment, so that the further cameras are informed of the occurrence of the actual concealment.
  • the tracking support data are only recorded and/or determined when the occlusion occurs.
  • the evaluation module is designed to detect an appearing moving object as a new object based on the monitoring data, in particular the images and/or videos.
  • a moving object that appears is understood to mean, for example, the entry of a moving object into the recording area and/or the emergence of a moving object from being covered by a stationary or other moving object. For this purpose, for example, a comparison is made as to whether the moving object was already missing from the recording area and/or the scene at a previous point in time, for example the previous image.
  • the evaluation module is designed in particular to classify the associated moving object as a covered object when the object is covered. This is done in particular by the evaluation module of the camera, which has determined the potential object occlusion and/or provides the occlusion data to the other cameras.
  • the evaluation module has a re-tracking unit, which is provided with the tracking support data, preferably the tracking support data of the detected new objects and/or hidden objects.
  • the re-tracking unit in particular the camera that informed the other cameras of the potential or actual object concealment and/or determined it, is designed to determine a correlation between the new object and the concealed object, in particular based on and/or using, analyzing and/or Evaluation of tracking support data.
  • the correlation indicates, for example, whether the new object can be the originally covered object, for example whether it is physically possible to detect the originally covered object as the new object at the corresponding position, in particular assuming that the movement will continue.
  • the tracking resumption unit is configured for a given correlation, e.g Minimum correlation to follow the new object as the hidden object, for example to connect their paths and/or trajectories.
  • the tracking support unit is designed and/or set up to determine an object speed.
  • the object speed is determined in particular for the moving object of the potential and/or actual object occlusion.
  • the object speed is also referred to in particular as the masking speed.
  • the object speed is a change over time and/or a time derivative of the object distance.
  • the object speed indicates, for example, how fast the moving object is moving towards the stationary, potentially occluding object, in particular whether the distance is increasing or decreasing.
  • the tracking assistance data includes the object speed. Based on the object speed, the entry of the object occlusion and/or the exit of the moving object from the object occlusion can be determined, ascertained and/or estimated.
  • the object distance is the distance from the moving object to the closest object and/or in particular to the object that will potentially occlude the moving object.
  • the moved or tracked object may be closer to a stationary object, but move away from it and towards a stationary object that is further away, so that the potential occlusion for this object can be assumed.
  • the tracking support unit is designed, for example, to determine at least one supplementary distance.
  • the complement distance is determined for the object that is potentially being occluded or for which object occlusion has already occurred.
  • the supplementary distance is a distance between the moving or tracked object and another stationary object, which, however, does not form the potentially obscuring object.
  • the tracking assistance data includes the supplementing distance.
  • the supplemental distance can be used to resume tracking.
  • the tracking support unit is designed and/or set up to track the moving object of the potential object occlusion and/or the object occlusion that has occurred, in particular in the case of notified potential or occurred object occlusion, by a camera, in particular a camera other than the communicating one, and to determine tracking data.
  • the tracking data includes in particular the monitoring data, images and/or videos of the recording area, a trajectory and/or path of this object.
  • the tracking support data includes the tracking data.
  • the evaluation module which was tracking the moving object but will lose or has lost it because of potential object occlusion or object occlusion that has occurred, is thus provided with the essentials of a further camera by the tracking data.
  • the concealment determination unit is designed and/or set up to determine and/or communicate the potential concealment based on falling below a minimum distance.
  • the minimum distance is selected in such a way that the occurrence of the occlusion is still separated in time in such a way that the other cameras can cause the tracking support data to be recorded.
  • the potential occlusion is determined based on a relative speed between the tracked object and the potentially occluding objects, for example as the time derivation of the object distance.
  • the monitoring device can be provided with further sensor data, for example radar, UV or distance data, the potential concealment being determined on the basis of this and/or in support of this.
  • the evaluation module includes a calibration unit.
  • the calibration unit is designed to carry out a length, distance and/or speed calibration based on the monitoring data.
  • the calibration unit accesses at least one, in particular a plurality, of objects located in the recording area.
  • one or more objects are used for this that lie in at least two recording areas, specifically those.
  • a further subject matter of the invention is a method for tracking an object with at least two cameras.
  • the method is applied and/or implemented in the monitoring device.
  • a recording area is recorded in each case by means of the at least two cameras, with monitoring data being recorded and/or provided for this. At least in pairs, the recording areas include an overlapping area.
  • the cameras each have an evaluation module.
  • the evaluation modules determine and/or detect stationary and moving objects in their recording area.
  • at least one of the moving objects is tracked based on the monitoring data.
  • An object distance is determined for the moved, in particular pursued and/or tracked, object.
  • Potential or actual object occlusion of the moving, in particular tracked, object is determined based on the object distance.
  • the further camera and/or the further cameras are informed of concealment data, the concealment data including the potential or actual object concealment.
  • the further and/or the further cameras record and/or determine tracking support data based on the communicated potential or actual object occlusion.
  • the tracking support data are communicated to the camera and/or the evaluation module, which communicated the potential or actual object occlusion.
  • a further subject matter of the invention is a computer program comprising instructions which cause the monitoring device to carry out the method for tracking an object.
  • the invention relates to a computer-readable medium on which the computer program is stored.
  • FIG. 1 shows an example of a surveillance device with three cameras
  • FIG. 2 shows an exemplary embodiment of a monitoring device with a schematic data exchange.
  • FIG. 1 shows a monitoring device 1 with three cameras 2a, 2b and 2c.
  • the cameras 2a, b, c are arranged and/or set up to record a monitored area 3, the cameras 2a, b, c being arranged to monitor the monitored area 3 from different directions and/or viewing angles.
  • the cameras 2a, b, c each have a recording area 4a, b, c, with the recording areas 4a, b, c intersecting and/or overlapping in a common overlapping area 5 .
  • the monitoring data includes images 8 that show the scene of the moving object 6 and the stationary object 7 differently.
  • image 8a the person 6 is a moving object behind the stationary object 7 and is therefore covered, since the stationary object 7 is arranged between the camera 2a and the moving object 6 .
  • the camera 2b shows the overlapping area 5 in a frontal image, so that the moving object 6 appears at an object distance d from the stationary object 7 .
  • the object distance d is defined here as the minimum distance between stationary and moving object 6, 7; alternatively, for example, center points and/or focal points of objects 6, 7 can be used.
  • the camera 2c is arranged in such a way that the person as a moving object 6 is located between the stationary object 7 and the camera 2c, so that the person as a moving object 6 is visible and/or arranged in front of the stationary object 7 and can therefore be recognized in the image 8c .
  • the invention uses the consideration that, for example, the camera 2a and/or its evaluation module 9 are designed to track the moving object 6 as a tracked object, with the moving object 6 in the image 8a not being covered by the stationary object 7 at a previous point in time.
  • the evaluation module 9, here in particular the camera 2a informs the other cameras 2b and 2c that the object 6 will soon and/or potentially be covered by the object 7, so that the cameras 2b, c additionally show the person as being moved and being followed Record object 6, the recorded data being provided to the evaluation module 9 of the camera 2a will. Based on this provided data, the evaluation module 9 of the camera 2a can continue to track the moving object 6 from the masking and, if necessary, extrapolate and/or further evaluate it using the data provided by the other cameras 2b, c during the masking.
  • FIG. 2 shows thematically a data exchange between two cameras 2a, b of a monitoring device 1. Similar to FIG.
  • the camera 2a is designed to record monitoring data of the overlapping area 5 , the monitoring data comprising an image 8a and/or video of the overlapping area 5 .
  • the camera 2a includes an evaluation module 9a.
  • the evaluation module 9a is designed to determine the object distance d between the moving object 6 and the stationary object 7 based on the monitoring data, in particular the image 8a, in particular as a distance within the image 8a, e.g. in the unit of pixels.
  • the evaluation module 9a includes a concealment determination unit 10, which is designed to determine a potential object concealment 11 based on the object distance d and possibly a time derivative d/dt d(t).
  • the object 6 as a tracked and moved object is classified as an object Oi, for example.
  • the concealment determination unit 10 checks whether the object distance d is less than a minimum object distance dO.
  • a potential object concealment 11 is determined and/or is present, this is communicated and/or made available to an evaluation module 9b of the camera 2b.
  • the evaluation module 9b is designed to check for the object Oi, or moving object 6, whether this is in the recording area 5, or called A. If this is the case, the recording and determination of tracking support data 13 is initiated by the evaluation module 9b, in particular a tracking support unit 12 .
  • Tracking support data 13 includes, for example, a position
  • the evaluation module 9a is provided with the tracking support data 13 by the evaluation module 9b surveillance data of the overlapping area 5 recorded by the camera 2b.
  • the evaluation module 9a can be tracked further after the moving object has left the concealment, for example even if the moving object 6 is detected as a new object when leaving the object concealment.
  • the trajectories of the new object and the moving object 6 that has gotten into the object occlusion before the object occlusion can be connected and/or closed based on the monitoring support data 13 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

The invention relates to a monitoring device (1) comprising at least two cameras (2a, b, c), wherein: the cameras (2a, b, c) each have an acquisition region (4a, b, c) and are designed to acquire monitoring data for the acquisition region (4a, b, c); the cameras (2a, b, c) each have an evaluation module (9a, b); the evaluation module (9a, b) is designed to detect, on the basis of the monitoring data, stationary and moving objects (6,7); and the evaluation module (9a, b) is designed to track, on the basis of the monitoring data, a moving object (6); characterized in that the evaluation module (9a, b) comprises an occlusion determination unit (10) and a tracking assistance unit (12), wherein: the occlusion determination unit (10) is designed to determine an object spacing (d) between the moving object (6) and stationary objects (7); the occlusion determination unit (10) is designed to determine, on the basis of the object spacing (d), a potential object occlusion (11) of the moving object (6); the occlusion determination unit (10) is designed and/or configured to share occlusion data with the additional cameras (2a, b, c) and/or evaluation modules (9a, b) of the additional cameras (2a, b, c); and the tracking assistance unit (12) is designed to acquire, on the basis of the shared potential object occlusion (11), tracking assistance data (13) if the moving object (6) belonging to the potential object occlusion (11) is located in the acquisition region (4a, b, c).

Description

Beschreibung description
Titel title
Überwachungsvorrichtung mit mindestens zwei Kameras, Verfahren zurSurveillance device with at least two cameras, method for
Überwachung, Computerprogramm und Speichermedium monitoring, computer program and storage medium
Stand der Technik State of the art
Die Erfindung betrifft eine Überwachungsvorrichtung mit mindestens zwei Kameras, wobei die Kameras jeweils einen Aufnahmebereich aufweisen und ausgebildet sind, Überwachungsdaten für den Aufnahmebereich aufzunehmen. The invention relates to a monitoring device with at least two cameras, the cameras each having a recording area and being designed to record monitoring data for the recording area.
Die Überwachung mittels Kameras findet sowohl im öffentlichen Bereich, beispielsweise Flughäfen, Parks und/oder Bahnhöfen, sowie im privaten bzw. gewerblichen Bereich zur Überwachung von Firmengebäuden oder privaten Parkflächen ihren Einsatz. Hierbei sind mehrere Kameras vorgesehen, einen Überwachungsbereich zu überwachen, wobei beispielsweise basierend auf einer Objekterkennung und/oder Klassifizierung Objekte detektiert und verfolgt werden können. Surveillance by means of cameras is used in the public sector, for example airports, parks and/or train stations, as well as in the private or commercial sector for monitoring company buildings or private parking areas. In this case, several cameras are provided to monitor a surveillance area, with objects being able to be detected and tracked, for example, based on object recognition and/or classification.
Beispielsweise beschreibt die Druckschrift US 7307652 eine Vorrichtung und ein Verfahren zur Detektion und Verfolgung von Objekten in einem Überwachungsbereich. For example, US Pat. No. 7,307,652 describes a device and a method for detecting and tracking objects in a surveillance area.
Offenbarung der Erfindung Disclosure of Invention
Es wird eine Überwachungsvorrichtung mit mindestens zwei Kameras mit den Merkmalen des Anspruchs 1 vorgeschlagen. Ferner wird ein Verfahren zur Überwachung, ein Computerprogramm und ein Speichermedium vorgeschlagen. Bevorzugte und/oder vorteilhafte Ausführungen ergeben sich aus den Unteransprüchen, der Beschreibung und den beigefügten Figuren. Es wird eine Überwachungsvorrichtung mit mindestens zwei, im Speziellen einer Mehrzahl an Kameras, beispielsweise mindestens zehn oder hundert Kameras, vorgeschlagen. Die Überwachungsvorrichtung ist beispielsweise zur Überwachung eines Überwachungsbereichs ausgebildet, wobei die Kameras vorzugsweise angeordnet und/oder eingerichtet sind, Teile des Überwachungsbereichs bildtechnisch und/oder videotechnisch aufzunehmen. Die Überwachungsvorrichtung bildet beispielsweise einen Kameraschwarm. Die Kameras sind insbesondere datentechnisch miteinander verbunden, sodass ein Datenaustausch zwischen den Kameras möglich ist, vorzugsweise drahtlos möglich ist. A surveillance device with at least two cameras with the features of claim 1 is proposed. A method for monitoring, a computer program and a storage medium are also proposed. Preferred and/or advantageous embodiments result from the dependent claims, the description and the accompanying figures. A surveillance device with at least two cameras, in particular a plurality of cameras, for example at least ten or a hundred cameras, is proposed. The monitoring device is designed, for example, to monitor a monitored area, with the cameras preferably being arranged and/or set up to record parts of the monitored area using images and/or video technology. The monitoring device forms a camera swarm, for example. The cameras are in particular connected to one another in terms of data technology, so that data can be exchanged between the cameras, preferably wirelessly.
Die Kameras sind vorzugsweise als PTZ- Kameras, beweglich und/oder schwenkbar ausgebildet. Alternativ sind die Kameras mit einem festen Blickwinkel und/oder einer festen Ausrichtung angeordnet. Die Kameras sind zur Bereitstellung von Bildern und/oder Videos ausgebildet. Die Kameras weisen jeweils einen Aufnahmebereich auf. Die Kameras sind ausgebildet, für ihren Aufnahmebereich Überwachungsdaten aufzunehmen und/oder bereitzustellen. Die Überwachungsdaten umfassen insbesondere Bilder und/oder Videos des Aufnahmebereichs. Die Kameras sind ausgebildet, eingerichtet und/oder angeordnet, einen gemeinsamen Überlappungsbereich aufzunehmen. Im Speziellen weisen mindestens jeweils zwei Kameras einen Überlappungsbereich auf. Insbesondere weisen die Aufnahmebereiche jeweils paarweise einen Überlappungsbereich auf. Im Überlappungsbereich werden die Überwachungsdaten von mindestens zwei der Kameras aufgenommen. The cameras are preferably embodied as movable and/or pivotable PTZ cameras. Alternatively, the cameras are arranged with a fixed viewing angle and/or a fixed orientation. The cameras are designed to provide images and/or videos. The cameras each have a recording area. The cameras are designed to record and/or provide monitoring data for their recording area. The monitoring data includes in particular images and/or videos of the recording area. The cameras are designed, set up and/or arranged to record a common overlapping area. In particular, at least two cameras each have an overlapping area. In particular, the recording areas each have an overlapping area in pairs. In the overlapping area, the surveillance data is recorded by at least two of the cameras.
Die Kameras weisen jeweils ein Auswertemodul auf. Das Auswertemodul ist beispielsweise als Rechnermodul, Prozessormodul, im Speziellen als Software oder Hardwaremodul, ausgebildet. Das Auswertemodul ist beispielsweise ausgebildet, Softwareapplikationen auszuführen und/oder anzuwenden. Insbesondere sind die Auswertemodule der Kameras der Überwachungsvorrichtung datentechnisch verbunden. Das Auswertemodul ist ausgebildet und/oder eingerichtet, die Überwachungsdaten, im Speziellen die Bilder und/oder Videos, auszuwerten und/oder zu analysieren. Das Auswertemodul detektiert basierend auf den Überwachungsdaten, im Speziellen den Videos und/oder Bildern, stationäre und/oder bewegte Objekte im jeweiligen Aufnahmebereich. Beispielsweise erfolgt die Detektion basierend auf einem Algorithmus des maschinellen Lernens und/oder einem neuronalen Netz. Das Detektieren der stationären und bewegten Objekte umfasst vorzugsweise eine Objektklassifikation. Stationäre Objekte sind beispielsweise Einrichtungsgegenstände und/oder ein Hintergrund. Bewegte Objekte sind beispielsweise Personen, Fahrzeuge oder anderweitige im Aufnahmebereich nicht stationär angeordnete Objekte. The cameras each have an evaluation module. The evaluation module is designed, for example, as a computer module, processor module, specifically as a software or hardware module. The evaluation module is designed, for example, to execute and/or use software applications. In particular, the evaluation modules of the cameras of the monitoring device are connected in terms of data technology. The evaluation module is designed and/or set up to evaluate and/or analyze the monitoring data, in particular the images and/or videos. Based on the monitoring data, in particular the videos and/or images, the evaluation module detects stationary and/or moving objects in the respective recording area. For example, the detection is based on a machine learning algorithm and/or a neural network. The detection of the stationary and moving objects preferably includes an object classification. Stationary objects are, for example, furnishings and/or a background. Moving objects are, for example, people, vehicles or other objects that are not stationary in the recording area.
Das Auswertemodul ist ausgebildet, ein detektiertes, bewegtes Objekt im jeweiligen Aufnahmebereich zu verfolgen und/oder zu tracken. Beispielsweise wird für das bewegte Objekt zur Verfolgung eine Trajektorie und/oder ein Pfad ermittelt. Das verfolgte Objekt bildet insbesondere ein „Object of interest“. Vorzugsweise ist das Auswertemodul ausgebildet, eine Mehrzahl an bewegten Objekten, insbesondere gleichzeitig und/oder unabhängig, zu verfolgen, im Speziellen unabhängig zu verfolgen. The evaluation module is designed to pursue and/or track a detected, moving object in the respective recording area. For example, a trajectory and/or a path is determined for the moving object for tracking. The tracked object forms in particular an "object of interest". The evaluation module is preferably designed to track a plurality of moving objects, in particular simultaneously and/or independently, in particular to track them independently.
Das Auswertemodul, insbesondere die Auswertemodule der Kameras, umfassen jeweils eine Verdeckungsbestimmungseinheit und eine Verfolgungsunterstützungseinheit. Im Speziellen bilden die Verdeckungsbestimmungseinheit und die Verfolgungsunterstützungseinheit eine gemeinsame Einheit. The evaluation module, in particular the evaluation modules of the cameras, each include an occlusion determination unit and a tracking support unit. Specifically, the concealment determination unit and the tracking support unit form a common unit.
Die Verdeckungsbestimmungseinheit ist ausgebildet und/oder eingerichtet, für ein detektiertes bewegtes Objekt, im Speziellen für das verfolgte und/oder getrackte Objekt, mindestens einen, im Speziellen mehrere Objektabstände zu bestimmen. Der Objektabstand ist ein Abstand des bewegten Objekts, insbesondere des verfolgten und/oder getrackten Objekts, zu einem stationären Objekt. Im Speziellen wird für das bewegte, insbesondere das verfolgte und/oder getrackte, Objekt eine Mehrzahl an Objektabständen bestimmt, wobei die Objektabstände als Abstände zu dem stationären Objekt im Aufnahmebereich bestimmt werden. Der Objektabstand kann als ein Abstand im realen Raum, beispielsweise in Meter, oder ein Abstand im Bildraum, beispielsweise in Pixel, bestimmt werden. Die Verdeckungsbestimmungseinheit ist ausgebildet und/oder eingerichtet, basierend auf dem bestimmten und/oder den bestimmten Objektabständen eine potentielle Objektverdeckung des bewegten Objektes, im Speziellen des verfolgten und/oder getrackten Objekts, zu bestimmen. Als potentielle Objektverdeckung wird insbesondere eine gewisse, hinreichende und/oder minimale Wahrscheinlichkeit für das Eintreten einer Verdeckung des bewegten Objekts durch ein stationäres Objekt verstanden, im Speziellen innerhalb eines festlegbaren Zeitraums. Im Speziellen ist die Verdeckungsbestimmungseinheit ausgebildet, eine potentielle Objektverdeckung basierend auf einem Objektabstand zwischen zwei bewegten, insbesondere verfolgten, Objekten zu bestimmen. Beispielsweise wird hierzu als Objektabstand der Abstand zwischen zwei bewegten Objekten ermittelt. Hierbei wird als potentielle Objektverdeckung die Verdeckung eines bewegten Objekts durch ein weiteres bewegtes Objekt verstanden. Die potentielle Objektverdeckung wird beispielsweise als eine Wahrscheinlichkeit bestimmt. Beispielsweise wird die potentielle Objektverdeckung basierend auf einer Abnahme des Objektabstands ermittelt. The concealment determination unit is designed and/or set up to determine at least one object distance, in particular a plurality of object distances, for a detected moving object, in particular for the tracked object. The object distance is a distance between the moving object, in particular the pursued and/or tracked object, and a stationary object. In particular, a plurality of object distances are determined for the moving, in particular the tracked, object, the object distances being determined as distances to the stationary object in the recording area. The object distance can be determined as a distance in real space, for example in meters, or a distance in image space, for example in pixels. The occlusion determination unit is designed and/or set up to determine potential object occlusion of the moving object, in particular of the tracked and/or tracked object, based on the determined object distances and/or the determined object distances. When Potential object occlusion is understood to mean, in particular, a certain, sufficient and/or minimal probability that the moving object will be occluded by a stationary object, specifically within a definable period of time. In particular, the occlusion determination unit is designed to determine a potential object occlusion based on an object distance between two moving, in particular tracked, objects. For example, the distance between two moving objects is determined for this purpose as the object distance. In this context, potential object occlusion is understood to mean the occlusion of a moving object by another moving object. The potential object occlusion is determined as a probability, for example. For example, the potential object occlusion is determined based on a decrease in the object distance.
Die Verdeckungsbestimmungseinheit, welche die potentielle Objektverdeckung bestimmt hat, teilt den weiteren Kameras und/oder den Auswertemodulen der weiteren Kameras Verdeckungsdaten mit und/oder ist zum Mitteilen der Verdeckungsdaten ausgebildet. Die Verdeckungsdaten umfassen die potentielle Objektverdeckung. Mit anderen Worten meldet dieThe occlusion determination unit, which has determined the potential object occlusion, communicates occlusion data to the additional cameras and/or the evaluation modules of the additional cameras and/or is designed to communicate the occlusion data. The occlusion data includes the potential object occlusion. In other words, reports the
Verdeckungsbestimmungseinheit einer Kamera den weiteren Kameras die potentielle Verdeckung. Somit ist den anderen Kameras und/oder Auswertemodulen von einer Kamera mitgeteilt, dass die mitteilende Kamera ein von ihr verfolgtes Objekt durch eine potentielle Objektverdeckung wahrscheinlich verlieren wird. Coverage determination unit of a camera the other cameras the potential coverage. A camera thus informs the other cameras and/or evaluation modules that the communicating camera will probably lose an object it is tracking due to potential object concealment.
Die Verfolgungsunterstützungseinheit ist ausgebildet und/oder eingerichtet, basierend auf der mitgeteilten potentiellen Objektverdeckungen und/oder für die mitgeteilte potentielle Objektverdeckung Verfolgungsunterstützungsdaten aufzunehmen. Insbesondere sind die Verfolgungsunterstützungseinheiten der weiteren Kameras, die nicht die potentielle Objektverdeckung mitgeteilt haben, ausgebildet, die Verfolgungsunterstützungsdaten aufzunehmen. Mit anderen Worten ist die Verfolgungsunterstützungseinheit ausgebildet, die Kamera, welche das verfolgte Objekte potentiell verliert, bei der Überwachung und/oder Verfolgung zu unterstützen. Insbesondere ist die Verfolgungsunterstützungseinheit ausgebildet, die Verfolgungsunterstützungsdaten dann aufzunehmen, wenn das zu der mitgeteilten potentiellen Objektverdeckung gehörige bewegte Objekt und/oder stationäre Objekt im Aufnahmebereich dieser Kamera liegt. Beispielsweise prüft die Verfolgungsunterstützungseinheit, ob das bewegte und/oder stationäre Objekt der mitgeteilten potentiellen Objektverdeckung in ihrem Aufnahmebereich liegt und nimmt bejahendenfalls die Verfolgungsunterstützungsdaten auf. The tracking support unit is designed and/or set up to record tracking support data based on the reported potential object occlusions and/or for the reported potential object occlusions. In particular, the tracking support units of the additional cameras that have not communicated the potential object occlusion are designed to record the tracking support data. In other words, the tracking support unit is designed to support the camera, which potentially loses the tracked object, in monitoring and/or tracking. In particular, the tracking support unit is designed to record the tracking support data when the The moving object and/or stationary object associated with the reported potential object occlusion lies in the recording range of this camera. For example, the tracking support unit checks whether the moving and/or stationary object of the reported potential object concealment is in its recording area and, if so, records the tracking support data.
Die Verfolgungsunterstützungseinheit ist ausgebildet, die Verfolgungsunterstützungsdaten dem Auswertemodul der Kamera mitzuteilen, die die potentielle Verdeckung mitgeteilt hat. Alternativ ist die Verfolgungsunterstützungseinheit ausgebildet, dieThe tracking support unit is designed to communicate the tracking support data to the evaluation module of the camera that reported the potential concealment. Alternatively, the tracking support unit is designed that
Verfolgungsunterstützungsdaten von allen Auswertemodulen bereitzustellen. Die Verfolgungsunterstützungsdaten umfassen beispielsweise die Überwachungsdaten des zugehörigen Aufnahmebereichs, eine Verfolgung, Detektion und/oder Klassifizierung der Objekte im Aufnahmebereich, insbesondere des bewegten bzw. verfolgten Objekts und des zugehörigen stationären Objekts. Im Speziellen umfassen dieProvide tracking support data from all evaluation modules. The tracking support data include, for example, the monitoring data of the associated recording area, tracking, detection and/or classification of the objects in the recording area, in particular the moving or tracked object and the associated stationary object. In particular, include the
Verfolgungsunterstützungsdaten Bilder und/oder Videos des Aufnahmebereichs, insbesondere des verfolgten Objekts, welches potentiell verdeckt wird. Tracking support data Images and/or videos of the recording area, in particular of the tracked object that is potentially covered.
Der Erfindung liegt die Überlegung zugrunde, dass bei der Objektverfolgung ein verfolgtes Objekt durch ein stationäres Objekt verdeckt werden kann, sodass das verfolgte Objekt aus der Überwachung verloren geht. Bei Wiederaustritt des bewegten Objekts aus der Objektverdeckung wird dieses Objekt üblicherweise als ein neues Objekt detektiert, was einen signifikanten Einfluss auf die Objektüberwachung hat und weitere Auswertungen verfälscht. Durch die vorgeschlagene Überwachungsvorrichtung wird basierend auf einer Schwarmkommunikation von Kameras, das Detektieren eines zeitweise verdeckten Objekts als ein neues Objekt vermieden, da eine Kamera rechtzeitig die potentielle Verdeckung den anderen Kameras mitteilen kann und anschließend auf deren Verfolgungsunterstützungsdaten zurückgreifen kann. The invention is based on the consideration that when tracking an object, a tracked object can be covered by a stationary object, so that the tracked object is lost from the surveillance. When the moving object leaves the object concealment again, this object is usually detected as a new object, which has a significant influence on the object monitoring and falsifies further evaluations. Based on a swarm communication of cameras, the proposed surveillance device avoids the detection of a temporarily occluded object as a new object, since one camera can notify the other cameras of the potential occlusion in good time and can then access their tracking support data.
Besonders bevorzugt ist es, dass die Verdeckungsbestimmungseinheit ausgebildet ist, ein Eintreten der Verdeckung als einen Verdeckungseintritt zu bestimmen. Beispielsweise wird hierzu ein Verdecken des verfolgten Objekts durch ein stationäres oder weiteres bewegtes Objekt basierend auf den Bildern und/oder Videos ermittelt. Im Speziellen kann als Verdeckungseintritt das Unterschreiten eines Auflösungsabstands durch den Objektabstand verstanden werden, beispielsweise das Unterschreiten eines Auflösungsabstands von zehn oder einem Pixel. Die Verdeckungsdaten umfassen insbesondere den Verdeckungseintritt, so dass den weiteren Kameras der Eintritt der tatsächlichen Verdeckung mitgeteilt ist. Beispielsweise werden die Verfolgungsunterstützungsdaten erst für den Eintritt der Verdeckung aufgenommen und/oder bestimmt. It is particularly preferred that the concealment determination unit is designed to determine the occurrence of concealment as the occurrence of concealment. For this purpose, for example, a covering of the tracked object by a stationary or another moving object is determined based on the images and/or videos. In particular, as an entry into concealment, this can Falling below a resolution distance are understood by the object distance, for example falling below a resolution distance of ten or one pixel. The concealment data include in particular the occurrence of concealment, so that the further cameras are informed of the occurrence of the actual concealment. For example, the tracking support data are only recorded and/or determined when the occlusion occurs.
Besonders bevorzugt ist es, dass das Auswertemodul ausgebildet ist, basierend auf den Überwachungsdaten, insbesondere den Bildern und/oder Videos, ein erscheinendes bewegtes Objekt als Neuobjekt zu detektieren. Als erscheinendes bewegtes Objekt wird beispielsweise der Eintritt eines bewegten Objektes in den Aufnahmebereich verstanden und/oder das Hervortreten eines bewegten Objektes aus der Verdeckung durch ein stationäres oder weiteres bewegtes Objekt. Beispielsweise wird hierzu verglichen, ob das bewegte Objekt zu einem vorherigen Zeitpunkt, beispielsweise vorherigen Bild, bereits im Aufnahmebereich und/oder der Szene abhanden war. Das Auswertemodul ist insbesondere ausgebildet, bei Eintreten der Objektverdeckung das zugehörige bewegte Objekt als verdecktes Objekt zu klassifizieren. Dies erfolgt insbesondere durch das Auswertemodul der Kamera, welche die potentielle Objektverdeckung bestimmt hat und/oder die Verdeckungsdaten den weiteren Kameras bereitstellt. Insbesondere weist das Auswertemodul eine Verfolgungswiederaufnahmeeinheit auf, wobei dieser die Verfolgungsunterstützungsdaten bereitgestellt sind, vorzugsweise die Verfolgungsunterstützungsdaten der detektierten Neuobjekte und/oder verdeckten Objekte. Die Verfolgungswiederaufnahmeeinheit, insbesondere der Kamera welche die potentielle oder eingetretene Objektverdeckung den weiteren Kameras mitgeteilt hat und/oder bestimmt hat, ist ausgebildet, eine Korrelation zwischen dem Neuobjekt und dem verdeckten Objekt zu bestimmen, insbesondere basierend und/oder unter Verwendung, Analyse und/oder Auswertung der Verfolgungsunterstützungsdaten. Die Korrelation gibt beispielsweise an, ob es sich bei dem Neuobjekt um das ursprünglich verdeckte Objekt handeln kann, beispielsweise ob es physikalisch möglich ist das ursprünglich verdeckte Objekt als das Neuobjekt an der entsprechenden Position zu detektieren, insbesondere unter Annahme des Fortführens der Bewegung. Die Verfolgungswiederaufnahmeeinheit ist ausgebildet, für eine gegebene Korrelation, beispielsweise eine Mindestkorrelation, das Neuobjekt nun als das verdeckte Objekt weiter zu verfolgen, beispielsweise deren Pfade und/oder Trajektorien zu verbinden. It is particularly preferred that the evaluation module is designed to detect an appearing moving object as a new object based on the monitoring data, in particular the images and/or videos. A moving object that appears is understood to mean, for example, the entry of a moving object into the recording area and/or the emergence of a moving object from being covered by a stationary or other moving object. For this purpose, for example, a comparison is made as to whether the moving object was already missing from the recording area and/or the scene at a previous point in time, for example the previous image. The evaluation module is designed in particular to classify the associated moving object as a covered object when the object is covered. This is done in particular by the evaluation module of the camera, which has determined the potential object occlusion and/or provides the occlusion data to the other cameras. In particular, the evaluation module has a re-tracking unit, which is provided with the tracking support data, preferably the tracking support data of the detected new objects and/or hidden objects. The re-tracking unit, in particular the camera that informed the other cameras of the potential or actual object concealment and/or determined it, is designed to determine a correlation between the new object and the concealed object, in particular based on and/or using, analyzing and/or Evaluation of tracking support data. The correlation indicates, for example, whether the new object can be the originally covered object, for example whether it is physically possible to detect the originally covered object as the new object at the corresponding position, in particular assuming that the movement will continue. The tracking resumption unit is configured for a given correlation, e.g Minimum correlation to follow the new object as the hidden object, for example to connect their paths and/or trajectories.
Optional ist es vorgesehen, dass die Verfolgungsunterstützungseinheit ausgebildet und/oder eingerichtet ist, eine Objektgeschwindigkeit zu bestimmen. Die Objektgeschwindigkeit ist insbesondere für das bewegte Objekt der potentiellen und/oder eingetretenen Objektverdeckung bestimmt. Die Objektgeschwindigkeit wird insbesondere auch als Verdeckungsgeschwindigkeit bezeichnet. Beispielsweise ist die Objektgeschwindigkeit eine zeitliche Veränderung und/oder zeitliche Ableitung des Objektabstands. Die Objektgeschwindigkeit gibt beispielsweise an, wie schnell das bewegte Objekt sich auf das stationäre, potenziell verdeckende Objekt zubewegt, insbesondere ob der Abstand größer oder kleiner wird. Die Verfolgungsunterstützungsdaten umfassen insbesondere die Objektgeschwindigkeit. Basierend auf der Objektgeschwindigkeit kann der Eintritt der Objektverdeckung und/oder das Austreten des bewegten Objekts aus der Objektverdeckung bestimmt, ermittelt und/oder abgeschätzt werden. Provision is optionally made for the tracking support unit to be designed and/or set up to determine an object speed. The object speed is determined in particular for the moving object of the potential and/or actual object occlusion. The object speed is also referred to in particular as the masking speed. For example, the object speed is a change over time and/or a time derivative of the object distance. The object speed indicates, for example, how fast the moving object is moving towards the stationary, potentially occluding object, in particular whether the distance is increasing or decreasing. In particular, the tracking assistance data includes the object speed. Based on the object speed, the entry of the object occlusion and/or the exit of the moving object from the object occlusion can be determined, ascertained and/or estimated.
Im Speziellen ist der Objektabstand der Abstand des bewegten Objekts zum nächstliegenden Objekt und/oder im Speziellen zu dem Objekt, das das bewegte Objekt potentiell verdecken wird. Beispielsweise kann das bewegte bzw. verfolgte Objekt zwar näher an einem stationären Objekt liegen, jedoch sich von diesem wegbewegen und auf ein weiter entfernt liegendes stationäres Objekt zubewegen, so dass die potentielle Verdeckung für dieses Objekt anzunehmen ist. Die Verfolgungsunterstützungseinheit ist beispielsweise ausgebildet, mindestens einen Ergänzungsabstand zu bestimmen. Der Ergänzungsabstand wird für das Objekt bestimmt, dass potentiell verdeckt wird oder für das die Objektverdeckung bereits eingetreten ist. Der Ergänzungsabstand ist hierbei ein Abstand des bewegten bzw. verfolgten Objektes zu einem weiteren stationären Objekt, welches aber nicht das potenziell verdeckende Objekt bildet. Die Verfolgungsunterstützungsdaten umfassen hierbei den Ergänzungsabstand. Der Ergänzungsabstand kann zur Wiederaufnahme der Verfolgung herangezogen werden. In particular, the object distance is the distance from the moving object to the closest object and/or in particular to the object that will potentially occlude the moving object. For example, the moved or tracked object may be closer to a stationary object, but move away from it and towards a stationary object that is further away, so that the potential occlusion for this object can be assumed. The tracking support unit is designed, for example, to determine at least one supplementary distance. The complement distance is determined for the object that is potentially being occluded or for which object occlusion has already occurred. The supplementary distance is a distance between the moving or tracked object and another stationary object, which, however, does not form the potentially obscuring object. Here, the tracking assistance data includes the supplementing distance. The supplemental distance can be used to resume tracking.
Eine Ausgestaltung der Erfindung sieht vor, dass die Verfolgungsunterstützungseinheit ausgebildet und/oder eingerichtet ist, das bewegte Objekt der potentiellen Objektverdeckung und/oder der eingetretenen Objektverdeckung, insbesondere bei mitgeteilter potentieller oder eingetretener Objektverdeckung, durch eine, insbesondere eine andere als die mitteilende Kamera, zu verfolgen und Verfolgungsdaten zu bestimmen. Die Verfolgungsdaten umfassen insbesondere die Überwachungsdaten, Bilder und/oder Videos des Aufnahmebereichs, eine Trajektorie und/oder Pfad dieses Objekts. Die Verfolgungsunterstützungsdaten umfassen hierbei die Verfolgungsdaten. Damit sind dem Auswertemodul, welches das bewegte Objekt verfolgte, aber wegen potentieller Objektverdeckung oder eingetretener Objektverdeckung verlieren wird oder verloren hat, durch die Verfolgungsdaten die wesentlichen einer weiteren Kamera bereitgestellt. One embodiment of the invention provides that the tracking support unit is designed and/or set up to track the moving object of the potential object occlusion and/or the object occlusion that has occurred, in particular in the case of notified potential or occurred object occlusion, by a camera, in particular a camera other than the communicating one, and to determine tracking data. The tracking data includes in particular the monitoring data, images and/or videos of the recording area, a trajectory and/or path of this object. Here, the tracking support data includes the tracking data. The evaluation module, which was tracking the moving object but will lose or has lost it because of potential object occlusion or object occlusion that has occurred, is thus provided with the essentials of a further camera by the tracking data.
Im Speziellen ist die Verdeckungsbestimmungseinheit ausgebildet und/oder eingerichtet, die potentielle Verdeckung basierend auf einem Unterschreiten eines Mindestabstands zu bestimmen und/oder mitzuteilen. Beispielsweise ist der Mindestabstand so gewählt, dass das Eintreten der Verdeckung zeitlich noch so beabstandet ist, dass die weiteren Kameras die Aufnahme der Verfolgungsunterstützungsdaten veranlassen können. Alternativ und/oder ergänzend wird die potentielle Verdeckung basierend auf einer Relativgeschwindigkeit zwischen dem verfolgten Objekt und den potentiellen verdeckenden Objekten bestimmt, beispielsweise als die zeitliche Ableitung des Objektabstands. Im Speziellen können der Überwachungsvorrichtung weitere Sensordaten, beispielsweise Radar-, UV- oder Abstandsdaten bereitgestellt sein, wobei basierend auf diesen und/oder unterstützend durch diese die potentielle Verdeckung bestimmt wird. In particular, the concealment determination unit is designed and/or set up to determine and/or communicate the potential concealment based on falling below a minimum distance. For example, the minimum distance is selected in such a way that the occurrence of the occlusion is still separated in time in such a way that the other cameras can cause the tracking support data to be recorded. Alternatively and/or additionally, the potential occlusion is determined based on a relative speed between the tracked object and the potentially occluding objects, for example as the time derivation of the object distance. In particular, the monitoring device can be provided with further sensor data, for example radar, UV or distance data, the potential concealment being determined on the basis of this and/or in support of this.
Eine Ausgestaltung der Erfindung sieht vor, dass das Auswertemodul eine Kalibrationseinheit umfasst. Die Kalibrationseinheit ist ausgebildet, basierend auf den Überwachungsdaten eine Längen-, Abstands- und/oder Geschwindigkeitskalibration durchzuführen. Insbesondere wird dabei von der Kalibrationseinheit auf mindestens ein, im Speziellen einer Mehrzahl, an im Aufnahmebereich liegenden Objekte zurückgegriffen. Im Speziellen werden hierzu ein oder mehrere Objekte verwendet, die in mindestens zwei Aufnahmebereichen liegen, im Speziellen diejenigen. Einen weiteren Gegenstand der Erfindung bildet ein Verfahren zum Verfolgen eines Objekts mit mindestens zwei Kameras. Insbesondere wird das Verfahren angewendet und/oder implementiert in der Überwachungsvorrichtung. Mittels der mindestens zwei Kameras wird jeweils ein Aufnahmebereich aufgenommen, wobei Überwachungsdaten hierfür aufgenommen und/oder bereitgestellt werden. Die Aufnahmebereiche umfassen mindestens paarweise einen Überlappungsbereich. Die Kameras weisen jeweils ein Auswertemodul auf. Die Auswertemodule bestimmen und/oder detektieren basierend auf den Überwachungsdaten stationäre und bewegte Objekte in ihrem Aufnahmebereich. Insbesondere wird basierend auf den Überwachungsdaten mindestens eines der bewegten Objekte verfolgt. Für das bewegte, insbesondere verfolgte und/oder getrackte, Objekt wird ein Objektabstand bestimmt. Basierend auf dem Objektabstand wird eine potentielle oder eingetretene Objektverdeckung des bewegten, insbesondere verfolgten, Objekts bestimmt. Der weiteren Kamera und/oder den weiteren Kameras werden Verdeckungsdaten mitgeteilt, wobei die Verdeckungsdaten die potentielle oder eingetretene Objektverdeckung umfassen. Die weitere und/oder die weiteren Kameras nehmen basierend auf der mitgeteilten potentiellen oder eingetretenen Objektverdeckung Verfolgungsunterstützungsdaten auf und/oder bestimmen diese. Die Verfolgungsunterstützungsdaten werden der Kamera und/oder dem Auswertemodul mitgeteilt, welches die potentielle oder eingetretene Objektverdeckung mitteilte. An embodiment of the invention provides that the evaluation module includes a calibration unit. The calibration unit is designed to carry out a length, distance and/or speed calibration based on the monitoring data. In particular, the calibration unit accesses at least one, in particular a plurality, of objects located in the recording area. In particular, one or more objects are used for this that lie in at least two recording areas, specifically those. A further subject matter of the invention is a method for tracking an object with at least two cameras. In particular, the method is applied and/or implemented in the monitoring device. A recording area is recorded in each case by means of the at least two cameras, with monitoring data being recorded and/or provided for this. At least in pairs, the recording areas include an overlapping area. The cameras each have an evaluation module. Based on the monitoring data, the evaluation modules determine and/or detect stationary and moving objects in their recording area. In particular, at least one of the moving objects is tracked based on the monitoring data. An object distance is determined for the moved, in particular pursued and/or tracked, object. Potential or actual object occlusion of the moving, in particular tracked, object is determined based on the object distance. The further camera and/or the further cameras are informed of concealment data, the concealment data including the potential or actual object concealment. The further and/or the further cameras record and/or determine tracking support data based on the communicated potential or actual object occlusion. The tracking support data are communicated to the camera and/or the evaluation module, which communicated the potential or actual object occlusion.
Einen weiteren Gegenstand der Erfindung bildet ein Computerprogramm, umfassend Befehle, die bewirken, dass die Überwachungsvorrichtung das Verfahren zum Verfolgen eines Objekts ausführt. A further subject matter of the invention is a computer program comprising instructions which cause the monitoring device to carry out the method for tracking an object.
Ferner betrifft die Erfindung ein computerlesbares Medium, auf dem das Computerprogramm gespeichert ist. Furthermore, the invention relates to a computer-readable medium on which the computer program is stored.
Weitere Vorteile, Wirkungen und Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen: Further advantages, effects and configurations result from the accompanying figures and their description. show:
Figur 1 zeigt ein Beispiel einer Überwachungsvorrichtung mit drei Kameras; Figur 2 zeigt ein Ausführungsbeispiel einer Überwachungsvorrichtung mit schematischem Datenaustausch. Figure 1 shows an example of a surveillance device with three cameras; FIG. 2 shows an exemplary embodiment of a monitoring device with a schematic data exchange.
Figur 1 zeigt eine Überwachungsvorrichtung 1 mit drei Kameras 2a, 2b und 2c. Die Kameras 2a, b, c sind zur Aufnahme eines Überwachungsbereichs 3 angeordnet und/oder eingerichtet, wobei die Kameras 2a, b, c angeordnet sind, den Überwachungsbereich 3 aus unterschiedlichen Richtungen und/oder Blickwinkeln zu überwachen. Die Kameras 2a, b, c weisen jeweils einen Aufnahmebereich 4a, b, c auf, wobei sich die Aufnahmebereiche 4a, b, c in einem gemeinsamen Überlappungsbereich 5 schneiden und/oder überlappen. FIG. 1 shows a monitoring device 1 with three cameras 2a, 2b and 2c. The cameras 2a, b, c are arranged and/or set up to record a monitored area 3, the cameras 2a, b, c being arranged to monitor the monitored area 3 from different directions and/or viewing angles. The cameras 2a, b, c each have a recording area 4a, b, c, with the recording areas 4a, b, c intersecting and/or overlapping in a common overlapping area 5 .
Im Überlappungsbereich 5 ist eine Person als ein bewegtes Objekt 6 und ein stationäres Objekt 7, beispielsweise ein Baum, angeordnet. Durch die Aufnahme des Überlappungsbereichs 5 mit den Kameras 2a, b, c aus unterschiedlichen Richtungen und/oder Blickwinkeln, umfassen die Überwachungsdaten Bilder 8, die die Szene aus bewegtem Objekt 6 und stationärem Objekt 7 unterschiedlich zeigen. Beispielsweise befindet sich im Bild 8a die Person 6 als bewegtes Objekt hinter dem stationären Objekt 7 und ist somit verdeckt, da das stationäre Objekt 7 zwischen Kamera 2a und bewegtem Objekt 6 angeordnet ist. Die Kamera 2b zeigt den Überlappungsbereich 5 in einer Frontalaufnahme, so dass das bewegte Objekt 6 in einem Objektabstand d vom stationären Objekt 7 erscheint. Der Objektabstand d ist hierbei als der minimale Abstand zwischen stationärem und bewegtem Objekt 6, 7 definiert, alternativ können beispielsweise Mittelpunkte und/oder Schwerpunkte der Objekte 6, 7 herangezogen werden. Die Kamera 2c ist so angeordnet, dass sich die Person als bewegtes Objekt 6 zwischen dem stationären Objekt 7 und der Kamera 2c befindet, sodass die Person als bewegtes Objekt 6 vor dem stationären Objekt 7 sichtbar und/oder angeordnet ist und somit im Bild 8c erkenntlich. Die Erfindung nutzt die Überlegung, dass beispielsweise die Kamera 2a und/oder dessen Auswertemodul 9 zur Verfolgung des bewegten Objekts 6 als verfolgtes Objekt ausgebildet sind, wobei zu einem vorherigen Zeitpunkt das bewegte Objekt 6 im Bild 8a nicht vom stationären Objekt 7 verdeckt war. Die Auswertemodule 9, hier insbesondere der Kamera 2a, teilt den anderen Kameras 2b und 2c mit, dass das Objekt 6 bald und/oder potentiell von dem Objekt 7 verdeckt sein wird, so dass die Kameras 2b, c ergänzend die Person als bewegtes und verfolgtes Objekt 6 aufnehmen, wobei die aufgenommenen Daten dem Auswertemodul 9 der Kamera 2a bereitstellt werden. Das Auswertemodul 9 der Kamera 2a kann basierend auf diesen bereitgestellten Daten nach Hervortreten des bewegten Objekt 6 aus der Verdeckung weiterverfolgen und gegebenenfalls durch die bereitgestellten Daten der anderen Kameras 2b, c während der Verdeckung, extrapolieren und/oder weiter auswerten. In the overlapping area 5, a person is arranged as a moving object 6 and a stationary object 7, for example a tree. By recording the overlapping area 5 with the cameras 2a, b, c from different directions and/or viewing angles, the monitoring data includes images 8 that show the scene of the moving object 6 and the stationary object 7 differently. For example, in image 8a the person 6 is a moving object behind the stationary object 7 and is therefore covered, since the stationary object 7 is arranged between the camera 2a and the moving object 6 . The camera 2b shows the overlapping area 5 in a frontal image, so that the moving object 6 appears at an object distance d from the stationary object 7 . The object distance d is defined here as the minimum distance between stationary and moving object 6, 7; alternatively, for example, center points and/or focal points of objects 6, 7 can be used. The camera 2c is arranged in such a way that the person as a moving object 6 is located between the stationary object 7 and the camera 2c, so that the person as a moving object 6 is visible and/or arranged in front of the stationary object 7 and can therefore be recognized in the image 8c . The invention uses the consideration that, for example, the camera 2a and/or its evaluation module 9 are designed to track the moving object 6 as a tracked object, with the moving object 6 in the image 8a not being covered by the stationary object 7 at a previous point in time. The evaluation module 9, here in particular the camera 2a, informs the other cameras 2b and 2c that the object 6 will soon and/or potentially be covered by the object 7, so that the cameras 2b, c additionally show the person as being moved and being followed Record object 6, the recorded data being provided to the evaluation module 9 of the camera 2a will. Based on this provided data, the evaluation module 9 of the camera 2a can continue to track the moving object 6 from the masking and, if necessary, extrapolate and/or further evaluate it using the data provided by the other cameras 2b, c during the masking.
Figur 2 zeigt thematisch einen Datenaustausch zwischen zwei Kameras 2a, b einer Überwachungsvorrichtung 1. Hierbei ist ähnlich wie in Figur 1 als bewegtes Objekt 6, eine Person und ein stationäres Objekt 7, ein Baum im Überlappungsbereich 5 bzw. im Überwachungsbereich 3 angeordnet. Die Kamera 2a ist ausgebildet Überwachungsdaten des Überlappungsbereichs 5 aufzunehmen, wobei die Überwachungsdaten ein Bild 8a und/oder Video des Überlappungsbereichs 5 umfassen. Die Kamera 2a umfasst ein Auswertemodul 9a. Das Auswertemodul 9a ist ausgebildet, basierend auf den Überwachungsdaten, insbesondere dem Bild 8a den Objektabstand d zwischen dem bewegten Objekt 6 und stationären Objekt 7 zu bestimmen, insbesondere als Abstand innerhalb des Bildes 8a, z.B. in der Einheit Pixel. Das Auswertemodul 9a umfasst eine Verdeckungsbestimmungseinheit 10, die ausgebildet ist, basierend auf dem Objektabstand d und gegebenenfalls einer zeitlichen Ableitung d/dt d(t) eine potentielle Objektverdeckung 11 zu bestimmen. Für die Zeichnung wird das Objekt 6 als verfolgtes und bewegtes Objekt beispielsweise als Objekt Oi klassifiziert. Beispielsweise wird von der Verdeckungsbestimmungseinheit 10 überprüft, ob der Objektabstand d die ein Mindestobjektabstand dO unterschreitet. FIG. 2 shows thematically a data exchange between two cameras 2a, b of a monitoring device 1. Similar to FIG. The camera 2a is designed to record monitoring data of the overlapping area 5 , the monitoring data comprising an image 8a and/or video of the overlapping area 5 . The camera 2a includes an evaluation module 9a. The evaluation module 9a is designed to determine the object distance d between the moving object 6 and the stationary object 7 based on the monitoring data, in particular the image 8a, in particular as a distance within the image 8a, e.g. in the unit of pixels. The evaluation module 9a includes a concealment determination unit 10, which is designed to determine a potential object concealment 11 based on the object distance d and possibly a time derivative d/dt d(t). For the drawing, the object 6 as a tracked and moved object is classified as an object Oi, for example. For example, the concealment determination unit 10 checks whether the object distance d is less than a minimum object distance dO.
Für den Fall der Bestimmung und/oder des Vorliegens einer potentiellen Objektverdeckung 11 wird dies einem Auswertemodul 9b der Kamera 2b mitgeteilt und/oder bereitgestellt. Das Auswertemodul 9b ist ausgebildet, für das Objekt Oi, bzw. bewegte Objekt 6, zu prüfen, ob dies im Aufnahmebereich 5, bzw. A genannt liegt. Ist dies der Fall wird vom Auswertemodul 9b, insbesondere einer Verfolgungsunterstützungseinheit 12 die Aufnahme und Bestimmung von Verfolgungsunterstützungsdaten 13 veranlasst. DieIf a potential object concealment 11 is determined and/or is present, this is communicated and/or made available to an evaluation module 9b of the camera 2b. The evaluation module 9b is designed to check for the object Oi, or moving object 6, whether this is in the recording area 5, or called A. If this is the case, the recording and determination of tracking support data 13 is initiated by the evaluation module 9b, in particular a tracking support unit 12 . the
Verfolgungsunterstützungsdaten 13 umfassen beispielsweise eine Position,Tracking support data 13 includes, for example, a position
Lage, Geschwindigkeit und/oder Trajektorie des Objekts Oi bzw. bewegten Objekts 6. Dem Auswertemodul 9a werden vom Auswertemodul 9b die Verfolgungsunterstützungsdaten 13 bereitgestellt, wobei diese beispielsweise die von der Kamera 2b aufgenommenen Überwachungsdaten des Überlappungsbereichs 5 umfassen. Position, speed and/or trajectory of the object Oi or moving object 6. The evaluation module 9a is provided with the tracking support data 13 by the evaluation module 9b surveillance data of the overlapping area 5 recorded by the camera 2b.
Das Auswertemodul 9a kann basierend auf diesen Daten nach einem Heraustreten des bewegten Objekts aus der Verdeckung weiterverfolgt werden, beispielsweise auch dann, wenn das bewegte Objekt 6 bei Heraustreten aus der Objektverdeckung als Neuobjekt detektiert wird. Die Trajektorien des Neuobjekts und des in die Objektverdeckung geratenen bewegten Objekts 6 vor der Objektverdeckung können basierend auf den Überwachungsunterstützungsdaten 13 verbunden und/oder geschlossen werden. Based on this data, the evaluation module 9a can be tracked further after the moving object has left the concealment, for example even if the moving object 6 is detected as a new object when leaving the object concealment. The trajectories of the new object and the moving object 6 that has gotten into the object occlusion before the object occlusion can be connected and/or closed based on the monitoring support data 13 .

Claims

Ansprüche Expectations
1. Überwachungsvorrichtung (1) mit mindestens zwei Kameras (2a,b,c), wobei die Kameras (2a,b,c) jeweils einen Aufnahmebereich (4a,b,c) aufweisen und ausgebildet sind, Überwachungsdaten für den Aufnahmebereich (4a,b,c) aufzunehmen, wobei die Aufnahmebereiche (4a,b,c) einen gemeinsamen Überlappungsbereich (5) aufweisen, wobei die Kameras (2a,b,c) jeweils ein Auswertemodul (9a, b) aufweisen, wobei das Auswertemodul (9a, b) ausgebildet ist, basierend auf den Überwachungsdaten stationäre und bewegte Objekte (6, 7) zu detektieren, wobei das Auswertemodul (9a, b) ausgebildet ist, basierend auf den Überwachungsdaten das bewegte Objekt (6) zu verfolgen, dadurch gekennzeichnet, dass das Auswertemodul (9a, b) eine Verdeckungsbestimmungseinheit (10) und eine Verfolgungsunterstützungseinheit (12) umfasst, wobei die Verdeckungsbestimmungseinheit (10) ausgebildet ist, einen Objektabstand (d) zwischen dem bewegten Objekt (6) und stationären Objekten (7) zu bestimmen, wobei die Verdeckungsbestimmungseinheit (10) ausgebildet ist, basierend auf dem Objektabstand (d) eine potentielle Objektverdeckung (11) des bewegten Objekts (6) zu bestimmen, wobei die Verdeckungsbestimmungseinheit (10) ausgebildet und/oder eingerichtet ist, den weiteren Kameras (2a,b,c) und/oder Auswertemodulen (9a, b) Verdeckungsdaten mitzuteilen, wobei die Verdeckungsdaten die potentielle Objektverdeckung (11) umfassen, wobei die Verfolgungsunterstützungseinheit (12) ausgebildet ist, basierend auf der mitgeteilten potentiellen Objektverdeckung (11) Verfolgungsunterstützungsdaten (13) aufzunehmen, wenn das zur potentiellen Objektverdeckung (11) gehörige bewegte Objekt (6) im Aufnahmebereich (4a,b,c) liegt, wobei die Verfolgungsunterstützungseinheit (12) ausgebildet ist, die Verfolgungsunterstützungsdaten (13) dem Auswertemodul (9a, b) derjenigen Kamera (2a, b) bereitzustellen, welche die die potentielle Verdeckung (11) mitgeteilt hat. 1. Monitoring device (1) with at least two cameras (2a, b, c), wherein the cameras (2a, b, c) each have a recording area (4a, b, c) and are designed to record monitoring data for the recording area (4a, b,c), the recording areas (4a,b,c) having a common overlapping area (5), the cameras (2a,b,c) each having an evaluation module (9a, b), the evaluation module (9a, b) is designed to detect stationary and moving objects (6, 7) based on the monitoring data, the evaluation module (9a, b) being designed to track the moving object (6) based on the monitoring data, characterized in that the Evaluation module (9a, b) comprises an occlusion determination unit (10) and a tracking support unit (12), wherein the occlusion determination unit (10) is designed to determine an object distance (d) between the moving object (6) and stationary objects (7), wherein the concealment regulations Unit (10) is designed to determine a potential object occlusion (11) of the moving object (6) based on the object distance (d), the occlusion determination unit (10) being designed and/or set up to allow the further cameras (2a, b, c) and/or evaluation modules (9a, b) to communicate concealment data, the concealment data comprising the potential object concealment (11), the tracking support unit (12) being designed to record tracking support data (13) based on the reported potential object concealment (11) if the moving object (6) associated with the potential obscuration of the object (11) is in the recording area (4a, b, c), the tracking support unit (12) being designed to transmit the tracking support data (13) to the evaluation module (9a, b) of that camera (2a, b) provide which the communicated the potential concealment (11).
2. Überwachungsvorrichtung (1) nach Anspruch 1, dadurch gekennzeichnet, dass die Verdeckungsbestimmungseinheit (10) ausgebildet ist, ein Eintreten der Objektverdeckung als Verdeckungseintritt zu bestimmen, wobei die Verdeckungsdaten den Verdeckungseintritt umfassen. 2. Monitoring device (1) according to claim 1, characterized in that the occlusion determination unit (10) is designed to determine the occurrence of object occlusion as the occurrence of occlusion, the occlusion data comprising the occurrence of occlusion.
3. Überwachungsvorrichtung (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Auswertemodul (9a, b) ausgebildet ist, basierend auf den Überwachungsdaten ein erscheinendes bewegtes Objekt (6) als Neuobjekt zu detektieren, wobei das Auswertemodul (9a, b) ausgebildet ist, bei Eintreten der Verdeckung das zugehörige verfolgte Objekt (6) als verdecktes Objekt (11) zu klassifizieren, wobei das Auswertemodul (9a, b) eine Verfolgungswiederaufnahmeeinheit aufweist, wobei die Verfolgungswiederaufnahmeeinheit ausgebildet ist, basierend auf den Verfolgungsunterstützungsdaten (13) eine Korrelation zwischen Neuobjekt und verdecktem Objekt (11) zu bestimmen, wobei die3. Monitoring device (1) according to claim 1 or 2, characterized in that the evaluation module (9a, b) is designed to detect an appearing moving object (6) as a new object based on the monitoring data, the evaluation module (9a, b) is designed to classify the associated tracked object (6) as a covered object (11) when the masking occurs, wherein the evaluation module (9a, b) has a tracking resumption unit, wherein the tracking resumption unit is designed based on the tracking support data (13) a correlation to determine between new object and hidden object (11), the
Verfolgungswiederaufnahmeeinheit ausgebildet ist, bei gegebener Korrelation das verdeckte Objekt (11) als das Neuobjekt weiterzuverfolgen. Tracking resumption unit is designed to continue tracking the hidden object (11) as the new object given a correlation.
4. Überwachungsvorrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Verfolgungsunterstützungseinheit (12) ausgebildet ist, eine Objektgeschwindigkeit für das Objekt der potentiellen und/oder eingetretenen Objektverdeckung (11) zu bestimmen, wobei die Verfolgungsunterstützungsdaten (13) die Objektgeschwindigkeit umfassen. 4. Monitoring device (1) according to one of the preceding claims, characterized in that the tracking support unit (12) is designed to determine an object speed for the object of potential and/or actual object occlusion (11), the tracking support data (13) containing the object speed include.
5. Überwachungsvorrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der Objektabstand (d) einen Abstand zwischen dem bewegten Objekt (6) und dem nächstliegenden und/oder potentiell verdeckenden stationären Objekt (7) bildet, wobei die Verfolgungsunterstützungseinheit (12) ausgebildet ist, mindestens einen Ergänzungsabstand für das Objekt der potentiellen und/oder eingetretenen Objektverdeckung (11) zu bestimmen, wobei der Ergänzungsabstand einen Abstand zwischen dem bewegten Objekt (6) und einem weiteren stationären und/oder nicht verdeckenden stationären Objekt (7) bildet, wobei die Verfolgungsunterstützungsdaten (13) den Ergänzungsabstand umfasst. 5. Monitoring device (1) according to one of the preceding claims, characterized in that the object distance (d) forms a distance between the moving object (6) and the nearest and/or potentially obscuring stationary object (7), the tracking support unit (12 ) is designed to determine at least one supplementary distance for the object of potential and/or actual object occlusion (11), the supplementary distance forming a distance between the moving object (6) and another stationary and/or non-occluding stationary object (7). , where the tracking support data (13) includes the complement distance.
6. Überwachungsvorrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Verfolgungsunterstützungseinheit (12) ausgebildet ist, das bewegte Objekt (6) der potentiellen Objektverdeckung (11) zu verfolgen und Verfolgungsdaten zu bestimmen, wobei die Verfolgungsunterstützungsdaten (13) die Verfolgungsdaten umfassen. 6. Monitoring device (1) according to one of the preceding claims, characterized in that the tracking support unit (12) is designed to track the moving object (6) of the potential object occlusion (11) and to determine tracking data, the tracking support data (13) the include tracking data.
7. Überwachungsvorrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Verdeckungsbestimmungseinheit (10) ausgebildet ist, die potentielle Verdeckung basierend auf dem Unterschreiten eines Mindestabstands durch den Objektabstand (d) und/oder basierend auf einer Relativgeschwindigkeit zwischen bewegtem Objekt (6) und potentiell verdeckendem Objekt zu (11) bestimmen. 7. Monitoring device (1) according to one of the preceding claims, characterized in that the occlusion determination unit (10) is designed to calculate the potential occlusion based on the object distance (d) falling below a minimum distance and/or based on a relative speed between the moving object ( 6) and potentially occluding object to (11).
8. Überwachungsvorrichtung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Auswertemodul (9a, b) eine Kalibrationseinheit umfasst, wobei die Kalibrationseinheit ausgebildet ist, basierend auf den Überwachungsdaten und einem im Aufnahmebereich (4a,b,c) liegenden Objekts eine Längen- und/oder8. Monitoring device (1) according to one of the preceding claims, characterized in that the evaluation module (9a, b) comprises a calibration unit, the calibration unit being designed based on the monitoring data and an object located in the recording area (4a, b, c). a length and/or
Geschwindigkeitskalibration durchzuführen, wobei das im Aufnahmebereich (4a,b,c) liegende Objekt auch im Aufnahmebereich (4a,b,c) mindestens einer weiteren Kamera (2a,b,c) liegt. Carry out speed calibration, the object lying in the recording area (4a,b,c) also being in the recording area (4a,b,c) of at least one further camera (2a,b,c).
9. Verfahren zum Verfolgen eines Objekts, wobei mittels mindestens zwei Kameras (2a,b,c) jeweils ein Aufnahmebereich (4a,b,c) aufgenommen wird und die Kameras (2a,b,c) jeweils Überwachungsdaten aufnehmen, wobei die Aufnahmebereiche (4a,b,c) mindestens paarweise einen Überlappungsbereich (5) umfassen, wobei die Kameras (2a,b,c) jeweils ein Auswertemodul (9a, b) aufweisen, wobei die Auswertemodule (9a, b) basierend auf den Überwachungsdaten stationäre und bewegte Objekte (6,7) in ihrem Aufnahmebereich (4a,b,c) bestimmen und/oder detektieren, wobei basierend auf den Überwachungsdaten mindestens eines der bewegten Objekte (6) verfolgt wird, wobei für das bewegte und/oder verfolgte Objekt (6) ein Objektabstand (d) bestimmt wird, wobei der Objektabstand einen Abstand des bewegten und/oder verfolgten Objekts (6) zu einem der stationären Objekte (7) bildet, wobei basierend auf dem Objektabstand (d) eine potentielle oder eingetretene Objektverdeckung (11) bestimmt wird, wobei mindestens einerweiteren der Kameras (2a,b,c) Verdeckungsdaten mitgeteilt werden, wobei die Verdeckungsdaten die potentielle oder eingetretene Objektverdeckung (11) umfassen, wobei die weitere und/oder die weiteren9. A method for tracking an object, with at least two cameras (2a,b,c) each recording a recording area (4a,b,c) and the cameras (2a,b,c) each recording surveillance data, the recording areas ( 4a, b, c) comprise an overlapping area (5) at least in pairs, the cameras (2a, b, c) each having an evaluation module (9a, b), the evaluation modules (9a, b) being stationary and moving based on the monitoring data Determine and/or detect objects (6,7) in their recording area (4a,b,c), at least one of the moving objects (6) being tracked based on the monitoring data, with the moving and/or tracked object (6) an object distance (d) is determined, the object distance being a distance between the moving and/or tracked object (6) and one of the stationary forms objects (7), with a potential or actual object occlusion (11) being determined based on the object distance (d), with at least one additional camera (2a,b,c) being informed of occlusion data, with the occlusion data indicating the potential or actual object occlusion ( 11), wherein the further and/or the further
Kameras (2a,b,c) basierend auf der mitgeteilten potentiellen oder eingetretenen Objektverdeckung (11) Verfolgungsunterstützungsdaten (13) aufnehmen und/oder bestimmen, wobei die Verfolgungsunterstützungsdaten (13) der Kamera (2a,b,c) und/oder dem Auswertemodul (9a, b) der Kamera (2a,b,c) mitgeteilt werden, die die potentielle oder eingetreteneCameras (2a,b,c) record and/or determine tracking support data (13) based on the communicated potential or actual object covering (11), the tracking support data (13) of the camera (2a,b,c) and/or the evaluation module ( 9a, b) the camera (2a, b, c) are informed that the potential or occurred
Objektverdeckung (11) mitteilte. object occlusion (11) communicated.
10. Computerprogramm, umfassend Befehle, die bewirken, dass die Überwachungsvorrichtung (1) nach einem der Ansprüche 1 bis 8 das Verfahren zum Verfolgen eines Objekts nach Anspruch 9 ausführt. A computer program comprising instructions which cause the surveillance device (1) according to any one of claims 1 to 8 to carry out the method for tracking an object according to claim 9.
11. Computerlesbares Medium, auf dem das Computerprogramm nach Anspruch 10 gespeichert ist. 11. Computer-readable medium on which the computer program according to claim 10 is stored.
PCT/EP2022/069843 2021-07-16 2022-07-15 Monitoring device comprising at least two cameras, method for monitoring, computer program, and storage medium WO2023285649A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021207642.4A DE102021207642A1 (en) 2021-07-16 2021-07-16 Surveillance device with at least two cameras, surveillance method, computer program and storage medium
DE102021207642.4 2021-07-16

Publications (1)

Publication Number Publication Date
WO2023285649A1 true WO2023285649A1 (en) 2023-01-19

Family

ID=82850557

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/069843 WO2023285649A1 (en) 2021-07-16 2022-07-15 Monitoring device comprising at least two cameras, method for monitoring, computer program, and storage medium

Country Status (2)

Country Link
DE (1) DE102021207642A1 (en)
WO (1) WO2023285649A1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060268111A1 (en) * 2005-05-31 2006-11-30 Objectvideo, Inc. Multi-state target tracking
US7307652B2 (en) 2000-03-10 2007-12-11 Sensormatic Electronics Corporation Method and apparatus for object tracking and detection
US20150310273A1 (en) * 2014-04-25 2015-10-29 Xerox Corporation Static occlusion handling using directional pixel replication in regularized motion environments
US9848172B2 (en) * 2006-12-04 2017-12-19 Isolynx, Llc Autonomous systems and methods for still and moving picture production
US9948902B1 (en) * 2014-03-07 2018-04-17 Alarm.Com Incorporated Video camera and sensor integration
US20180189573A1 (en) * 2013-05-23 2018-07-05 Sri International Real-time detection, tracking and occlusion reasoning
CN110866480A (en) * 2019-11-07 2020-03-06 浙江大华技术股份有限公司 Object tracking method and device, storage medium and electronic device
EP3238442B1 (en) * 2014-12-26 2021-05-05 Samsung Electronics Co., Ltd. Method and apparatus for operating a security system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8456518B2 (en) 2010-03-31 2013-06-04 James Cameron & Vincent Pace Stereoscopic camera with automatic obstruction removal
US10389935B2 (en) 2016-12-13 2019-08-20 Canon Kabushiki Kaisha Method, system and apparatus for configuring a virtual camera
US11432877B2 (en) 2017-08-02 2022-09-06 Medtech S.A. Surgical field camera system that only uses images from cameras with an unobstructed sight line for tracking

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7307652B2 (en) 2000-03-10 2007-12-11 Sensormatic Electronics Corporation Method and apparatus for object tracking and detection
US20060268111A1 (en) * 2005-05-31 2006-11-30 Objectvideo, Inc. Multi-state target tracking
US9848172B2 (en) * 2006-12-04 2017-12-19 Isolynx, Llc Autonomous systems and methods for still and moving picture production
US20180189573A1 (en) * 2013-05-23 2018-07-05 Sri International Real-time detection, tracking and occlusion reasoning
US9948902B1 (en) * 2014-03-07 2018-04-17 Alarm.Com Incorporated Video camera and sensor integration
US20150310273A1 (en) * 2014-04-25 2015-10-29 Xerox Corporation Static occlusion handling using directional pixel replication in regularized motion environments
EP3238442B1 (en) * 2014-12-26 2021-05-05 Samsung Electronics Co., Ltd. Method and apparatus for operating a security system
CN110866480A (en) * 2019-11-07 2020-03-06 浙江大华技术股份有限公司 Object tracking method and device, storage medium and electronic device

Also Published As

Publication number Publication date
DE102021207642A1 (en) 2023-01-19

Similar Documents

Publication Publication Date Title
DE102014106210B4 (en) Probabilistic person tracking using the Multi-View Association
EP1330132B1 (en) Method and apparatus for occlusion detection in image sensor systems
DE102015104954A1 (en) Vision-based monitoring system for the validation of activity sequences
WO2009003793A2 (en) Device for identifying and/or classifying movement patterns in an image sequence of a surveillance scene, method and computer program
DE102014106211A1 (en) Vision-based multi-camera factory monitoring with dynamic integrity assessment
DE102013200409A1 (en) A method and apparatus for monitoring an environment of a vehicle and method for performing emergency braking
WO2008037293A1 (en) Detection of smoke with a video camera
EP1531342B1 (en) Method of detecting pedestrians
EP2875498B1 (en) Monitoring system with a position-dependent protected area, method for monitoring a monitoring area and computer program
DE102011078746A1 (en) Device for detecting object i.e. airplane, during docking of object at gate of airport, has measuring device for detecting distance pattern and detecting object in area when portion of distance pattern remains constant temporally
WO2020048666A1 (en) Monitoring device and method for monitoring a man overboard situation
WO2018095640A1 (en) Method and system for detecting a raised object located within a parking area
DE102013012778A1 (en) Method for detecting a moving pedestrian on the basis of characteristic features and optical flow vectors of an image, camera system and motor vehicle
WO2012110654A1 (en) Method for evaluating a plurality of time-offset pictures, device for evaluating pictures, and monitoring system
WO2023285649A1 (en) Monitoring device comprising at least two cameras, method for monitoring, computer program, and storage medium
WO2020038984A1 (en) Method and assembly for detecting corona discharges of a system comprising equipment
EP1762995A1 (en) Detection of smoke with a video camera
DE102021107904A1 (en) Method and system for determining ground level with an artificial neural network
DE19744694A1 (en) Video motion detector arrangement
EP1434184B1 (en) Control of a multicamera system
DE102022202668A1 (en) Method for monitoring a surveillance area, computer program, storage medium and device
WO2023186652A1 (en) Method for operating a monitoring device, computer program, storage medium, and monitoring device
EP2115699A1 (en) Method for the automatic analysis of object movements
DE102012200135A1 (en) Method for image-based detection of objects
WO2022058399A1 (en) Clustering detections

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22753633

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE