WO2023186653A1 - Method for detecting an object dispersion, computer program, storage medium, and monitoring assembly - Google Patents

Method for detecting an object dispersion, computer program, storage medium, and monitoring assembly Download PDF

Info

Publication number
WO2023186653A1
WO2023186653A1 PCT/EP2023/057303 EP2023057303W WO2023186653A1 WO 2023186653 A1 WO2023186653 A1 WO 2023186653A1 EP 2023057303 W EP2023057303 W EP 2023057303W WO 2023186653 A1 WO2023186653 A1 WO 2023186653A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
image data
area
detected
dispersion
Prior art date
Application number
PCT/EP2023/057303
Other languages
German (de)
French (fr)
Inventor
Justin Frints
Christoph BURGER-SCHEIDLIN
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2023186653A1 publication Critical patent/WO2023186653A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position

Definitions

  • a method for detecting object dispersion, in particular for determining areas of impairment and/or for determining a supplementary region or a supplementary camera, is proposed.
  • the method is designed in particular for a monitoring arrangement with at least one camera for monitoring a monitoring area.
  • Surveillance arrangements with cameras to monitor a surveillance area are used both in open spaces and in buildings.
  • certain public buildings such as airports or train stations, are monitored using video technology, with objects and/or people being able to be detected and/or tracked by evaluating the video data and/or image data.
  • video technology For example, certain public buildings, such as airports or train stations, are monitored using video technology, with objects and/or people being able to be detected and/or tracked by evaluating the video data and/or image data.
  • In order to monitor a surveillance area it is necessary that it is completely covered by the cameras so that people and/or objects can be monitored and tracked across the entire surveillance area.
  • the installation of the cameras is often based on the experience of the installers and takes place before the surveillance system is put into operation.
  • the invention relates to a method for detecting an object dispersion with the features of claim 1.
  • the invention further relates to a computer program, a storage medium with the computer program and a Surveillance order.
  • Preferred and/or advantageous embodiments result from the subclaims, the description and the attached figures.
  • a method for detecting object dispersion is proposed.
  • the method can be implemented in particular by computer and/or software.
  • the method is preferably designed for a monitoring arrangement and/or for use and/or execution by the monitoring arrangement.
  • the occurrence of object dispersion can be detected and/or the object dispersion can be analyzed by the method.
  • the method is used to localize the object dispersion and/or to determine the time at which the object dispersion occurs.
  • the surveillance arrangement includes at least one camera.
  • the monitoring arrangement is designed, for example, for monitoring, in particular camera-based monitoring, of a monitoring area.
  • the monitoring area preferably includes an indoor area, in particular the monitoring area includes an outdoor area.
  • the monitoring arrangement comprises a plurality of cameras, wherein the cameras are arranged and/or designed to monitor the monitoring area.
  • the cameras preferably have overlapping detection areas.
  • the cameras record image data, especially videos, for the detection area.
  • the detection area is in particular a subset of the monitoring area.
  • the camera is designed as a movable, in particular non-stationary, and/or zoomable camera, in particular the detection area of the camera, its size and/or position in the monitoring area being variable.
  • the procedure requires the image data to be evaluated.
  • the image data is evaluated and/or analyzed using an evaluation application.
  • the evaluation and/or analysis in particular the application of the evaluation application, was preferably carried out by the monitoring arrangement, in particular by the camera.
  • the camera is designed to execute the evaluation application and/or to be used, preferably designed to evaluate and/or analyze the image data.
  • the image data is evaluated and/or analyzed on an external module, in particular an external module of the camera, for example a central computer or a cloud.
  • Multi-object events are detected based on the evaluation of the image data and/or by evaluating the image data, in particular by applying and/or executing the evaluation application.
  • the multi-object event is in particular an event in the monitoring area, in particular an event in the detection area.
  • the camera or cameras are designed to determine and/or detect a multi-object event for their detection area.
  • a multi-object event is in particular an event relating to and/or comprising at least two objects, in particular a plurality of objects.
  • the multi-object event includes and/or describes, for example, an interaction and/or an interaction between the at least two objects, wherein the interaction and/or the interaction is preferably specified and/or fixed for the multi-object event. For example, accidents between at least two vehicles as objects are a multi-object event.
  • a shooting involving a closing person and at least one endangered person as objects is also a multi-object event.
  • Further examples of multi-object events include the handover of an object between two people, for example the handover of a suitcase from one
  • the method provides that, based on the image data for the detected multi-object event, it is determined and/or evaluated whether there is object dispersion or not. For example, for the detected multi-object event, it is checked whether object dispersion is present and/or occurring.
  • the object dispersion is designed in particular and/or describes whether one of the at least two objects of the multi-object event moves out of the detection range of the camera that detected the multi-object event and/or recorded the image data for it.
  • the object dispersion describes whether the multi-object event comprising at least two objects was still captured by the camera and/or its image data and so on can be evaluated or whether one or more of the at least two objects moves out of the detection area and / or leaves it, so that not all objects involved in the multi-object event can still be recorded and / or detected by the camera.
  • the invention is based on the idea of detecting and further evaluating and/or analyzing multi-object events based on the image data of a camera, whereby it is checked whether all the objects involved are still within the detection range of the camera or whether the objects involved are no longer from the image data of the camera could be evaluated and/or monitored, for example that during the shooting the person closing the door and the person affected are no longer in the common detection area and can be monitored and/or analyzed as a common multi-object event.
  • the monitoring arrangement can be supplemented and/or optimized by a further camera, in particular a supplementary camera. For example, when detecting the object dispersion, the user or the security personnel can specifically install an additional camera where the object dispersion was detected, so that this can be avoided in the future and similar multi-object events remain evaluable.
  • an annotated map is determined and/or impairment areas are determined based on the detected object dispersion, in particular the detected object dispersion, and a map of the monitoring area.
  • the map is, for example, a model, site plan, plan, spatial plan, two-dimensional and/or 3-dimensional representation of the surveillance area.
  • the card is and/or is imported and/or provided, for example, when the monitoring arrangement is installed and/or initialized.
  • the annotated map is based in particular on the map of the monitoring area and/or represents an annotation, editing and/or enrichment of the map of the monitoring area.
  • the annotated map forms an annotation and/or representation of the identified impairment areas in the map of the monitoring area.
  • the impairment areas are entered and/or drawn into the map of the monitoring area.
  • the drawing is done Impairment areas in the map to determine the annotated map based on weighting of the impairment areas, for example based on a weighting with regard to the multi-object event and / or other boundary conditions.
  • Areas of impairment are, for example, areas and/or sections of the monitoring area in which at least one object dispersion occurs and/or has occurred and/or the number of object dispersions detected exceeds a threshold value.
  • Areas of impairment describe, for example, areas of the monitoring area in which multi-object events are not permanently and/or completely detected by the camera is detectable and/or detectable.
  • the annotated map describes areas where object dispersion has occurred and/or an impairment in the capture of multi-object events based on the camera.
  • the method preferably provides that an initial position is determined for the detected object dispersion.
  • the initial position is, for example, the position, in particular as a 2- or 3-dimensional coordinate, at which the multi-object event takes place, occurred and/or was detected.
  • a center of gravity and/or other averaging and/or weighting of the positions of the objects involved in the multi-object event can be used as the position and/or location.
  • the method provides that at least one or more last detected positions are determined for the objects of the multi-object event of the object dispersion.
  • the last detected position is, for example, a position, position, in particular 2 or 3-dimensional coordinate, of the object of the object dispersion or the multi-object event that migrates and/or moves out of the detection range of the camera.
  • the last detected position is the position of the object migrating out of the detection area, detected by the camera, the image data and/or in the detection area.
  • the impairment areas are determined and/or determined based on the initial position and/or the last of the detected positions.
  • the map of the surveillance area is annotated and/or marked with and/or based on the initial position and/or the dictated position.
  • additional data is determined, detected and/or recorded.
  • the additional data is in particular data for the camera, the detection area of the camera and/or the monitoring arrangement.
  • the additional data includes camera-specific parameters, settings, positions, orientations and/or applications. It is preferably provided that the impairment areas are determined and/or determined based on the additional data.
  • the camera is designed to be pivotable or zoomable, with the multi-object event with object dispersion still being fully monitorable by changing the camera settings and/or camera parameters, for example by zooming out.
  • impairment areas exist for the recorded additional data or parameters, but do not represent actual impairment areas because they can be remedied by changing the parameters.
  • the additional data includes and/or describes a camera movement.
  • the additional data includes possible camera movement and/or adjustable intervals for camera parameters.
  • a supplementary region and/or supplementary regions are determined based on the object dispersion, the impairment areas, the map, the additional data and/or the image data.
  • the additional areas are in particular areas of the surveillance area for the arrangement of an additional camera.
  • supplementary areas describe areas of the surveillance area for which a supplementary camera is required and/or has to be arranged, in particular so that object dispersions no longer occur there in the future.
  • the areas of impairment form supplementary areas.
  • a compensation step is applied, initiated and/or carried out when an object dispersion is detected.
  • the compensation step is designed to counteract the object dispersion, in particular so that the objects of the multi-object event of the object dispersion continue to lie together in the detection range of the camera after the compensation step.
  • camera parameters are changed in the compensation step, for example the zoom Camera changed, a camera position and/or camera orientation changed, e.g. B. pivoted or moved.
  • areas of the monitoring area for which the compensation step is unsuccessful, was unsuccessful and/or does not lead to the preservation of all objects of the multi-object event in the detection area of the camera are recorded, determined and/or defined as impairment areas and/or as supplementary areas , e.g. because the objects move in different directions.
  • those areas of the monitoring area can be rejected as impairment areas and/or supplementary areas if a compensation step is possible that leads to the preservation of all objects of the multi-object event in the detection area of the camera.
  • the camera and/or the cameras of the monitoring arrangement form a mobile camera, for example a mobile or drone-based camera.
  • the camera is designed as a PTZ camera.
  • the camera is a pivotable camera and/or zoomable camera.
  • the monitoring arrangement has a global camera in addition to the camera.
  • the global camera is, for example, a wide-angle camera, a fisheye camera and/or a camera with a larger detection range than the camera.
  • the global camera is designed to record global image data, in particular images and/or videos.
  • the global camera has a detection area, the detection area being referred to as the global area.
  • the global area is a section and/or area of the monitoring area, the global area being larger, in particular having a larger extent, than the detection area of the camera.
  • the camera's coverage area forms a true subset of the global area.
  • the global image data has a lower quality, for example resolution and/or quality, than the image data from the camera.
  • the embodiment of the invention provides, for example, that a detected object dispersion, in particular an impairment area and/or supplementary area based thereon, is discarded and/or is not treated as such, if the objects of the multi-object event and/or the object dispersion lie and/or remain in the global area.
  • a detected object dispersion in particular an impairment area and/or supplementary area based thereon, is discarded and/or is not treated as such, if the objects of the multi-object event and/or the object dispersion lie and/or remain in the global area.
  • an object of the multi-object event moves out of the detection area of the camera, but remains in the global area, so that the objects of the multi-object area are included together at least in the global image data.
  • a further subject of the invention is a computer program, wherein the computer program is designed to be executed on a computer, a camera, a monitoring arrangement and/or a cloud. When executed, the computer program is designed to execute, apply and/or implement the method for detecting the object dispersion and/or steps thereof.
  • a further subject of the invention is a storage medium, in particular a non-volatile and/or machine-readable storage medium.
  • the computer program is stored on the storage medium.
  • a further subject of the invention is a monitoring arrangement, wherein the monitoring arrangement is designed and/or set up to carry out, implement and/or use the method for determining the object dispersion.
  • the monitoring arrangement includes at least one camera, preferably at least five cameras and/or a global camera.
  • the camera is designed, set up and/or arranged to monitor a surveillance area, wherein the camera in particular has a detection area and is designed to record image data for the detection area.
  • the image data is designed, for example, as video data.
  • the monitoring arrangement and/or the camera comprises an evaluation module, wherein the evaluation module is designed to detect and/or determine a multi-object event based on the image data, the multi-object event comprising at least two objects, the objects interacting and/or interacting.
  • the evaluation module is designed and/or set up to detect and/or determine an object dispersion based on the image data for the detected multi-object event.
  • the object dispersion is, as for the method, in particular as a movement out of at least one of the objects Multi-object event defined and/or described from the detection range of the camera.
  • the evaluation module is designed and/or set up, based on the detected object dispersions, the image data and/or a map of the monitoring area, preferably based on additional data, to determine areas of impairment, an annotated map and/or an additional area for arranging an additional camera and/or to determine.
  • Figure 1 exemplary embodiment of a method for determining an object dispersion using a monitoring arrangement
  • Figure 2 further exemplary embodiment of the method for determining object dispersion with a monitoring arrangement comprising a global camera.
  • FIG. 1 shows an exemplary embodiment of a monitoring arrangement 1.
  • the monitoring arrangement 1 is designed to monitor a monitoring area 2, in particular camera-based and/or video-based.
  • the monitoring arrangement 1 includes at least one camera 3.
  • the camera 3 is designed, for example, to be pivotable and/or zoomable.
  • the camera 3 is arranged and designed to record image data for a detection area 4.
  • the detection area 4 is in particular a subset of the monitoring area 2.
  • the group of people 5a, b, c form objects of a multi-object event 6.
  • the multi-object event 6 is, for example, a fight between people 5a, b, c.
  • the objects 5 a, b, c of the multi-object event 6 are all in the detection area 4 of the camera 3, so that they are included and/or shown in the image data.
  • the multi-object event 6 has a temporal development, with objects of the multi-object event 6 partially moving. In this exemplary embodiment, for example, the person 5a moved to the left and the person 5c moved to the left right.
  • the monitoring arrangement 1, in particular the camera 3, includes an evaluation module.
  • the evaluation module is designed to detect and determine the movement out of the objects of the multi-object event 6, in particular the people 5a, c, based on the image data, in particular to determine it as object dispersion 7a, b.
  • an original position is determined for the object dispersion 7a and 7b, this representing the position of the people 5a, b, c at the start of the scuffle and/or the multi-object event 6.
  • a last detected position for the objects 5a and 5c of the multi-object event 6 can be determined, this being the position in the monitoring area 2 and/or at the edges of the detection area 4 of the camera 3 when the objects move out of the detection area 4 .
  • Figure 2 shows a further exemplary embodiment of the determination of an object dispersion 7 based on image data and a monitoring device 1.
  • the monitoring device 1 includes a global camera 8 in addition to the camera 3.
  • the global camera 8 forms, for example, a dome camera.
  • the global camera 8 has a detection area, which is also called the global area 9.
  • the camera 3 has the detection area 4, which forms a subarea of the global area 9.
  • the people 5a, b, c as objects of the multi-object event 6 lie in the detection area 4 of the camera 3, with the scuffle of the 3 people 5a, b, c being detected as the multi-object event 6 based on the image data from the camera 3.
  • the person 5c is already defined in more detail based on the image data from the camera 3 and/or shown in a higher resolution than from the global data from the global camera 8. If the person 5C now moves to the right and thus out of the detection area 4 of the camera 3, the person 5C remains in the global area 8 and thus visible in the recordings or the global image data.
  • the method here provides that the movement of the person 5c out of the detection area 4 is rejected as object dispersion 7b, since the person 5c continues to be in the global area 8 is arranged and is thus recorded in the global data together with the other objects 5a, b of the multi-object event 6.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

The invention relates to a method for a monitoring assembly (1) for detecting an object dispersion (7a, b). The monitoring assembly (1) has at least one camera (3) and is designed to monitor a monitored region (2), and the camera (3) has a detection region (4) and captures image data for the detection region (4). The image data is analyzed, and a multi-object event (6) is detected on the basis of the image data, wherein the multi-object event (6) comprises at least two objects. An object dispersion (7a, b) is detected for the detected multi-object event (6) on the basis of the image data, and the object dispersion (7a, b) comprises and/or describes a movement of at least one of the objects out of the detection region (4) of the camera (3).

Description

Beschreibung Description
Titel title
Verfahren zur Detektion einer Objektdispersion, Computerprogramm, Speichermedium und Überwachungsanordnung Method for detecting object dispersion, computer program, storage medium and monitoring arrangement
Stand der Technik State of the art
Es wird ein Verfahren zur Detektion einer Objektdispersion, insbesondere zur Ermittlung von Beeinträchtigungsbereichen und/oder zur Bestimmung eines Ergänzungsbereiches bzw. einer Ergänzungskamera vorgeschlagen. Das Verfahren ist insbesondere für eine Überwachungsanordnung mit mindestens einer Kamera zur Überwachung eines Überwachungsbereichs ausgebildet. A method for detecting object dispersion, in particular for determining areas of impairment and/or for determining a supplementary region or a supplementary camera, is proposed. The method is designed in particular for a monitoring arrangement with at least one camera for monitoring a monitoring area.
Überwachungsanordnungen mit Kameras zur Überwachung eines Überwachungsbereichs werden sowohl auf Freiflächen als auch in Gebäuden eingesetzt. Beispielsweise werden bestimmte öffentliche Gebäude, wie Flughäfen oder Bahnhöfe, videotechnisch überwacht, wobei durch Auswertung der Videodaten und/oder Bilddaten beispielsweise Objekte und/oder Personen detektiert und/oder verfolgt werden können. Zur Überwachung eines Überwachungsbereiches ist es nötig, dass dieser durch die Kameras vollständig abgedeckt ist, sodass Personen und/oder Objekte über den ganzen Überwachungsbereich überwacht und verfolgt werden können. Die Installation der Kameras basiert häufig auf Erfahrung der Installateure und erfolgt im Vorfeld der Inbetriebnahme der Überwachungsanordnung. Surveillance arrangements with cameras to monitor a surveillance area are used both in open spaces and in buildings. For example, certain public buildings, such as airports or train stations, are monitored using video technology, with objects and/or people being able to be detected and/or tracked by evaluating the video data and/or image data. In order to monitor a surveillance area, it is necessary that it is completely covered by the cameras so that people and/or objects can be monitored and tracked across the entire surveillance area. The installation of the cameras is often based on the experience of the installers and takes place before the surveillance system is put into operation.
Offenbarung der Erfindung Disclosure of the invention
Die Erfindung betrifft ein Verfahren zur Detektion einer Objektdispersion mit den Merkmalen des Anspruchs 1. Ferner betrifft die Erfindung ein Computerprogramm, ein Speichermedium mit dem Computerprogramm und eine Überwachungsanordnung. Bevorzugte und/oder vorteilhafte Ausführungen ergeben sich aus den Unteransprüchen, der Beschreibung und den beigefügten Figuren. The invention relates to a method for detecting an object dispersion with the features of claim 1. The invention further relates to a computer program, a storage medium with the computer program and a Surveillance order. Preferred and/or advantageous embodiments result from the subclaims, the description and the attached figures.
Es wird ein Verfahren zur Detektion einer Objektdispersion vorgeschlagen. Das Verfahren ist insbesondere Computer und/oder Software implementiert ausführbar. Das Verfahren ist vorzugsweise für eine Überwachungsordnung und/oder zur Anwendung und/oder Ausführung durch die Überwachungsanordnung ausgebildet. Insbesondere ist durch das Verfahren das Eintreten der Objektdispersion detektierbar und/oder die Objektdispersion analysierbar. Beispielsweise dient das Verfahren der Lokalisierung der Objektdispersion und/oder der Feststellung des Zeitpunkts des Eintretens der Objektdispersion. A method for detecting object dispersion is proposed. The method can be implemented in particular by computer and/or software. The method is preferably designed for a monitoring arrangement and/or for use and/or execution by the monitoring arrangement. In particular, the occurrence of object dispersion can be detected and/or the object dispersion can be analyzed by the method. For example, the method is used to localize the object dispersion and/or to determine the time at which the object dispersion occurs.
Die Überwachungsanordnung umfasst mindestens eine Kamera. Die Überwachungsanordnung ist beispielsweise zu Überwachung, insbesondere kamerabasierten Überwachung, eines Überwachungsbereiches ausgebildet. Der Überwachungsbereich umfasst vorzugsweise einen Innenbereich, im speziellen umfasst der Überwachungsbereich einen Außenbereich. Beispielsweise umfasst die Überwachungsanordnung eine Mehrzahl an Kameras, wobei die Kameras angeordnet und/oder ausgebildet sind, den Überwachungsbereich zu überwachen. Vorzugsweise weisen die Kameras überlappende Erfassungsbereiche auf. Die Kamera, insbesondere die Kameras, weisen jeweils einen Erfassungsbereich auf. Die Kameras nehmen für den Erfassungsbereich Bilddaten, im Speziellen Videos, auf. Der Erfassungsbereich ist insbesondere eine Teilmenge des Überwachungsbereiches. Im Speziellen ist die Kamera als eine bewegliche, insbesondere nicht stationäre, und/oder zoombare Kamera ausgebildet, wobei im Speziellen der Erfassungsbereich der Kamera, dessen Größe und/oder Lage im Überwachungsbereich veränderlich ist. The surveillance arrangement includes at least one camera. The monitoring arrangement is designed, for example, for monitoring, in particular camera-based monitoring, of a monitoring area. The monitoring area preferably includes an indoor area, in particular the monitoring area includes an outdoor area. For example, the monitoring arrangement comprises a plurality of cameras, wherein the cameras are arranged and/or designed to monitor the monitoring area. The cameras preferably have overlapping detection areas. The camera, in particular the cameras, each have a detection area. The cameras record image data, especially videos, for the detection area. The detection area is in particular a subset of the monitoring area. In particular, the camera is designed as a movable, in particular non-stationary, and/or zoomable camera, in particular the detection area of the camera, its size and/or position in the monitoring area being variable.
Das Verfahren sieht vor, dass die Bilddaten ausgewertet werden. Beispielsweise werden die Bilddaten mittels einer Auswerteapplikation ausgewertet und/oder analysiert. Das Auswerten und/oder Analysieren, im speziellen das Anwenden der Auswerteapplikation, erfolgte vorzugsweise durch die Überwachungsanordnung, im Speziellen durch die Kamera. Beispielsweise ist die Kamera ausgebildet, die Auswerteapplikation auszuführen und/oder anzuwenden, vorzugsweise ausgebildet die Bilddaten auszuwerten und/oder zu analysieren. Alternativ erfolgt das Auswerten und/oder Analysieren der Bilddaten auf einem externen Modul, insbesondere einem externen Modul der Kamera, beispielsweise einem Zentralrechner oder einer Cloud. The procedure requires the image data to be evaluated. For example, the image data is evaluated and/or analyzed using an evaluation application. The evaluation and/or analysis, in particular the application of the evaluation application, was preferably carried out by the monitoring arrangement, in particular by the camera. For example, the camera is designed to execute the evaluation application and/or to be used, preferably designed to evaluate and/or analyze the image data. Alternatively, the image data is evaluated and/or analyzed on an external module, in particular an external module of the camera, for example a central computer or a cloud.
Basierend auf der Auswertung der Bilddaten und/oder durch das Auswerten der Bilddaten, im Speziellen durch Anwenden und/oder Ausführende Auswerteapplikation, werden Multiobjektereignisse detektiert. Das Multiobjektereignis ist insbesondere ein Ereignis im Überwachungsbereich, im Speziellen ein Ereignis im Erfassungsbereich. Im Speziellen ist die Kamera ausgebildet, bzw. sind die Kameras ausgebildet, ein Multiobjektereignis jeweils für ihren Erfassungsbereich zu bestimmen und/oder zu detektieren. Ein Multiobjektereignis ist insbesondere ein Ereignis betreffend und/oder umfassend mindestens zwei Objekte, im Speziellen eine Mehrzahl um an Objekten. Das Multiobjektereignis umfasst und/oder beschreibt beispielsweise eine Interaktion und/oder eine Wechselwirkung zwischen den mindestens zwei Objekten, wobei die Interaktion und/oder die Wechselwirkung vorzugsweise für das Multiobjektereignis spezifiziert und/oder festgelegt ist. Beispielsweise sind Unfälle zwischen mindestens zwei Fahrzeugen als Objekte ein Multiobjektereignis. Eine Schießerei betreffend eine schließende Person und mindestens eine gefährdete Person als Objekte sind ebenfalls ein Multiobjektereignis. Weitere Beispiele für Multiobjektereignisse sind beispielsweise die Übergabe eines Objekts zwischen zwei Personen, beispielsweise die Übergabe eines Koffers von einer Person an eine weitere Person. Multi-object events are detected based on the evaluation of the image data and/or by evaluating the image data, in particular by applying and/or executing the evaluation application. The multi-object event is in particular an event in the monitoring area, in particular an event in the detection area. In particular, the camera or cameras are designed to determine and/or detect a multi-object event for their detection area. A multi-object event is in particular an event relating to and/or comprising at least two objects, in particular a plurality of objects. The multi-object event includes and/or describes, for example, an interaction and/or an interaction between the at least two objects, wherein the interaction and/or the interaction is preferably specified and/or fixed for the multi-object event. For example, accidents between at least two vehicles as objects are a multi-object event. A shooting involving a closing person and at least one endangered person as objects is also a multi-object event. Further examples of multi-object events include the handover of an object between two people, for example the handover of a suitcase from one person to another person.
Das Verfahren sieht vor, dass basierend auf den Bilddaten für das detektiert Multiobjektereignis bestimmt wird und/oder ausgewertet wird, ob eine Objektdispersion vorliegt oder nicht. Beispielsweise wird für das detektierte Multiobjektereignis geprüft, ob eine Objektdispersion vorliegt und/oder eintritt. Die Objektdispersion ist insbesondere ausgebildet und/oder beschreibt, ob sich eines der mindestens zwei Objekte des Multiobjektereignisses aus dem Erfassungsbereich der Kamera, die das Multiobjektereignis detektiert und/oder dafür die Bilddaten aufgenommen hat, aus deren Erfassungsbereich heraus bewegt. Mit anderen Worten beschreibt die Objektdispersion, ob das Multiobjektereignis umfassend mindestens zwei Objekte weiterhin durch die Kamera und/oder dessen Bilddaten aufnehmen war ist und so weiter ausgewertet werden kann oder ob eines oder mehrere der mindestens zwei Objekte sich aus dem Erfassungsbereich herausbewegt und/oder diesen verlässt, sodass nicht alle beteiligten Objekte des Multiobjektereignisses weiterhin von der Kamera aufnehmbar und/oder erfassbar sind. The method provides that, based on the image data for the detected multi-object event, it is determined and/or evaluated whether there is object dispersion or not. For example, for the detected multi-object event, it is checked whether object dispersion is present and/or occurring. The object dispersion is designed in particular and/or describes whether one of the at least two objects of the multi-object event moves out of the detection range of the camera that detected the multi-object event and/or recorded the image data for it. In other words, the object dispersion describes whether the multi-object event comprising at least two objects was still captured by the camera and/or its image data and so on can be evaluated or whether one or more of the at least two objects moves out of the detection area and / or leaves it, so that not all objects involved in the multi-object event can still be recorded and / or detected by the camera.
Der Erfindung liegt die Überlegung zugrunde, Multiobjektereignisse basierend auf den Bilddaten einer Kamera zu detektieren und weiter auszuwerten und/oder zu analysieren, wobei überprüft wird, ob weiterhin alle beteiligten Objekte im Erfassungsbereich der Kamera liegen oder ob beteiligte Objekte nicht länger aus den Bilddaten der Kamera auswertbar und/oder überwacht war sind, beispielsweise das bei der Schießerei die schließende Person und die betroffene Person nicht länger im gemeinsamen Erfassungsbereich liegen und als gemeinsames Multiobjektereignis überwachbar und/oder analysierbar sind. Insbesondere kann basierend auf der der detektierten Objektdispersion die Ergänzung der Überwachungsanordnung durch eine weitere Kamera, insbesondere Ergänzungskamera erfolgen und/oder optimiert werden. Beispielsweise kann der Benutzer oder das Sicherheitspersonal bei der Detektion der Objektdispersion gezielt eine Ergänzungskamera dort installieren, wo die Objektdispersion detektiert wurde, so dass dies zukünftig vermieden werden kann und dergleichen Multiobjektereignisse auswertbar bleiben. The invention is based on the idea of detecting and further evaluating and/or analyzing multi-object events based on the image data of a camera, whereby it is checked whether all the objects involved are still within the detection range of the camera or whether the objects involved are no longer from the image data of the camera could be evaluated and/or monitored, for example that during the shooting the person closing the door and the person affected are no longer in the common detection area and can be monitored and/or analyzed as a common multi-object event. In particular, based on the detected object dispersion, the monitoring arrangement can be supplemented and/or optimized by a further camera, in particular a supplementary camera. For example, when detecting the object dispersion, the user or the security personnel can specifically install an additional camera where the object dispersion was detected, so that this can be avoided in the future and similar multi-object events remain evaluable.
Eine Ausgestaltung der Erfindung sieht vor, dass basierend auf der der detektierten Objektdispersion, insbesondere den der detektierten Objektdispersion, und einer Karte des Überwachungsbereiches eine annotierte Karte bestimmt wird und/oder Beeinträchtigungsbereiche bestimmt werden. Die Karte ist beispielsweise ein Modell, Lageplan, Plan, Raumplan, zweidimensionale und/oder 3-dimensionale Darstellung des Überwachungsbereichs. Die Karte ist und/oder wird beispielsweise bei Installierung und/oder Initialisierung der Überwachungsanordnung eingespielt und/oder bereitgestellt. Die annotierte Karte basiert insbesondere auf der Karte des Überwachungsbereiches und/oder stellt eine Annotierung, Bearbeitung und/oder Anreicherung der Karte des Überwachungsbereiches dar. Beispielsweise bildet die annotierte Karte eine Annotierung und/oder Darstellung der ermittelten Beeinträchtigungsbereiche in der Karte des Überwachungsbereiches. Beispielsweise werden hierzu die Beeinträchtigungsbereiche in die Karte des Überwachungsbereiches eingetragen und/oder eingezeichnet. Beispielsweise erfolgt das Einzeichnen der Beeinträchtigungsbereiche in die Karte zur Bestimmung der annotierten Karte auf Gewichtung der Beeinträchtigungsbereiche, beispielsweise basierend auf einer Gewichtung hinsichtlich des Multiobjektereignisses und/oder andere Randbedingungen. Beeinträchtigungsbereiche sind beispielsweise Bereiche und/oder Abschnitte des Überwachungsbereiches an dem mindestens eine Objektdispersion auftritt und/oder aufgetreten ist und/oder die Anzahl der detektierten Objektdispersion einen Schwellenwert überschreitet Beeinträchtigungsbereiche beschreiben beispielsweise Bereiche des Überwachungsbereiches an dem Multiobjektereignisse nicht dauerhaft und/oder vollständig durch die Kamera detektierbar und/oder erfassbar ist. Die annotierte Karte beschreibt mit anderen Worten Bereiche mit aufgetretene Objektdispersion und/oder einer Beeinträchtigung in der Erfassung von Multiobjektereignissen basierend auf der Kamera. One embodiment of the invention provides that an annotated map is determined and/or impairment areas are determined based on the detected object dispersion, in particular the detected object dispersion, and a map of the monitoring area. The map is, for example, a model, site plan, plan, spatial plan, two-dimensional and/or 3-dimensional representation of the surveillance area. The card is and/or is imported and/or provided, for example, when the monitoring arrangement is installed and/or initialized. The annotated map is based in particular on the map of the monitoring area and/or represents an annotation, editing and/or enrichment of the map of the monitoring area. For example, the annotated map forms an annotation and/or representation of the identified impairment areas in the map of the monitoring area. For example, the impairment areas are entered and/or drawn into the map of the monitoring area. For example, the drawing is done Impairment areas in the map to determine the annotated map based on weighting of the impairment areas, for example based on a weighting with regard to the multi-object event and / or other boundary conditions. Areas of impairment are, for example, areas and/or sections of the monitoring area in which at least one object dispersion occurs and/or has occurred and/or the number of object dispersions detected exceeds a threshold value. Areas of impairment describe, for example, areas of the monitoring area in which multi-object events are not permanently and/or completely detected by the camera is detectable and/or detectable. In other words, the annotated map describes areas where object dispersion has occurred and/or an impairment in the capture of multi-object events based on the camera.
Vorzugsweise sieht das Verfahren vor, dass für die detektierte Objektdispersion eine initiale Position bestimmt wird. Die initiale Position ist beispielsweise die Position, im speziellen als 2- oder 3-dimensionale Koordinate, an dem das Multiobjektereignis stattfindet, eingetreten ist und/oder detektiert wurde. Dabei kann beispielsweise als Position und/oder Lage ein Schwerpunkt und/oder anderweitige Mittelung und/oder Gewichtung der Positionen der am Multiobjektereignis beteiligten Objekte herangezogen werden. Alternativ und/oder ergänzend sieht das Verfahren vor, dass für die Objekte des Multiobjektereignisses der Objektdispersion mindestens eine oder mehrere letzte detektierte Positionen bestimmt werden. Die letzte detektierte Position ist beispielsweise eine Position, Lage, insbesondere 2 oder 3-dimensionale Koordinate, des Objekts der Objektdispersion bzw. des Multiobjekts Ereignisses das aus dem Erfassungsbereich der Kamera wandert und/oder sich heraus bewegt. Mit anderen Worten ist die letzte detektiert Position die Position des aus dem Erfassungsbereich herauswandernden Objekts detektiert durch die Kamera, den Bilddaten und/oder im Erfassungsbereich. Insbesondere werden die Beeinträchtigungsbereiche basierend auf der initialen Position und/oder den letzten der detektierten Positionen bestimmt und/oder ermittelt. Beispielsweise wird hierzu die Karte des Überwachungsbereichs mit der und/oder basierend auf der initialen Position und/oder der diktierten Position annotiert und/oder gekennzeichnet. Insbesondere ist es vorgesehen, dass Zusatzdaten ermittelt, detektiert und/oder aufgenommen werden. Die Zusatzdaten sind insbesondere Daten für die Kamera, den Erfassungsbereich der Kamera und/oder die Überwachungsanordnung. Beispielsweise umfassen die Zusatzdaten kameraspezifische Parameter, Einstellungen, Positionen, Orientierungen und/oder Applikationen. Dabei ist es vorzugsweise vorgesehen, dass die Beeinträchtigungsbereiche basierend auf den Zusatzdaten bestimmt und/oder ermittelt werden. Beispielsweise ist die Kamera schwenkbar oder zoombar ausgebildet, wobei das Multiobjektereignis mit Objektdispersion durch Änderung der Kameraeinstellungen und/oder Kameraparameter weiterhin vollständig überwachbar, beispielsweise durch herauszoomen. So ist es beispielsweise möglich, dass Beeinträchtigungsbereiche zwar für die aufgenommenen Zusatzdaten bzw. Parameter vorliegen, jedoch keine tatsächlichen Beeinträchtigungsbereiche darstellen, weil sie durch Änderung der Parameter behebbar sind. Besonders bevorzugt ist es, dass die Zusatzdaten eine Kamerabewegung umfassen und/oder beschreiben. Beispielsweise umfassen die Zusatzdaten eine mögliche Kamerabewegung und/oder einstellbare Intervalle für Kameraparameter. The method preferably provides that an initial position is determined for the detected object dispersion. The initial position is, for example, the position, in particular as a 2- or 3-dimensional coordinate, at which the multi-object event takes place, occurred and/or was detected. For example, a center of gravity and/or other averaging and/or weighting of the positions of the objects involved in the multi-object event can be used as the position and/or location. Alternatively and/or additionally, the method provides that at least one or more last detected positions are determined for the objects of the multi-object event of the object dispersion. The last detected position is, for example, a position, position, in particular 2 or 3-dimensional coordinate, of the object of the object dispersion or the multi-object event that migrates and/or moves out of the detection range of the camera. In other words, the last detected position is the position of the object migrating out of the detection area, detected by the camera, the image data and/or in the detection area. In particular, the impairment areas are determined and/or determined based on the initial position and/or the last of the detected positions. For example, the map of the surveillance area is annotated and/or marked with and/or based on the initial position and/or the dictated position. In particular, it is provided that additional data is determined, detected and/or recorded. The additional data is in particular data for the camera, the detection area of the camera and/or the monitoring arrangement. For example, the additional data includes camera-specific parameters, settings, positions, orientations and/or applications. It is preferably provided that the impairment areas are determined and/or determined based on the additional data. For example, the camera is designed to be pivotable or zoomable, with the multi-object event with object dispersion still being fully monitorable by changing the camera settings and/or camera parameters, for example by zooming out. For example, it is possible that impairment areas exist for the recorded additional data or parameters, but do not represent actual impairment areas because they can be remedied by changing the parameters. It is particularly preferred that the additional data includes and/or describes a camera movement. For example, the additional data includes possible camera movement and/or adjustable intervals for camera parameters.
Besonders bevorzugt ist es, dass basierend auf der Objektdispersion, den Beeinträchtigungsbereichen, der Karte, den Zusatzdaten und/oder den Bilddaten ein Ergänzungsbereich und/oder Ergänzungsbereiche ermittelt wird. Die Ergänzungsbereiche sind insbesondere Bereiche des Überwachungsbereichs zur Anordnung einer Ergänzungskamera. Mit anderen Worten beschreiben Ergänzungsbereiche Bereiche des Überwachungsbereichs, für die eine Ergänzungskamera benötigt wird und/oder anzuordnen ist, insbesondere damit es dort zukünftig nicht weiter zu Objektdispersionen kommt. Im Speziellen bilden die Beeinträchtigungsbereiche Ergänzungsbereiche. It is particularly preferred that a supplementary region and/or supplementary regions are determined based on the object dispersion, the impairment areas, the map, the additional data and/or the image data. The additional areas are in particular areas of the surveillance area for the arrangement of an additional camera. In other words, supplementary areas describe areas of the surveillance area for which a supplementary camera is required and/or has to be arranged, in particular so that object dispersions no longer occur there in the future. In particular, the areas of impairment form supplementary areas.
Optional ist es vorgesehen, dass bei der Detektion einer Objektdispersion ein Kompensationsschritt angewendet, eingeleitet und/oder durch geführt wird. Der Kompensationsschritt ist ausgebildet, der Objektdispersion entgegenzuwirken, insbesondere so, dass die Objekte des Multiobjektereignisses der Objektdispersion nach dem Kompensationsschritt weiterhin gemeinsam in dem Erfassungsbereich der Kamera liegen. Beispielsweise werden im Kompensationsschritt Kameraparameter verändert, beispielsweise der Zoom der Kamera verändert, eine Kameraposition und/oder Kameraorientierung verändert, z. B. geschwenkt oder bewegt. Optionally, it is provided that a compensation step is applied, initiated and/or carried out when an object dispersion is detected. The compensation step is designed to counteract the object dispersion, in particular so that the objects of the multi-object event of the object dispersion continue to lie together in the detection range of the camera after the compensation step. For example, camera parameters are changed in the compensation step, for example the zoom Camera changed, a camera position and/or camera orientation changed, e.g. B. pivoted or moved.
Besonders bevorzugt ist es, dass als Beeinträchtigungsbereiche und/oder als Ergänzungsbereiche solche Bereiche des Überwachungsbereichs erfasst, bestimmt und/oder definiert werden, für die der Kompensationsschritt erfolglos ist, erfolglos war und/oder nicht zum Erhalten aller Objekte des Multiobjektereignisses im Erfassungsbereich der Kamera führt, z.B. weil sich die Objekte in unterschiedliche Richtungen bewegen. Mit anderen Worten können insbesondere solche Bereiche des Überwachungsbereichs als Beeinträchtigungsbereiche und/oder Ergänzungsbereiche verworfen werden, wenn ein Kompensationsschritt möglich ist, der zum Erhalt aller Objekte des Multiobjektereignisses im Erfassungsbereich der Kamera führt. It is particularly preferred that areas of the monitoring area for which the compensation step is unsuccessful, was unsuccessful and/or does not lead to the preservation of all objects of the multi-object event in the detection area of the camera are recorded, determined and/or defined as impairment areas and/or as supplementary areas , e.g. because the objects move in different directions. In other words, in particular those areas of the monitoring area can be rejected as impairment areas and/or supplementary areas if a compensation step is possible that leads to the preservation of all objects of the multi-object event in the detection area of the camera.
Besonders bevorzugt ist es, dass die Kamera und/oder die Kameras der Überwachungsanordnung eine mobile Kamera bilden, beispielsweise eine fahrbare oder drohnenbasierte Kamera. Alternativ und/oder ergänzend ist die Kamera als eine PTZ-Kamera ausgebildet. Insbesondere ist die Kamera eine schwenkbare Kamera und/oder zoombare Kamera. It is particularly preferred that the camera and/or the cameras of the monitoring arrangement form a mobile camera, for example a mobile or drone-based camera. Alternatively and/or additionally, the camera is designed as a PTZ camera. In particular, the camera is a pivotable camera and/or zoomable camera.
Eine Ausgestaltung der Erfindung sieht vor, dass die Überwachungsanordnung neben der Kamera eine Globalkamera aufweist. Die Globalkamera ist beispielsweise eine Weitwinkelkamera, eine Fischaugenkamera und/oder eine Kamera mit einem größeren Erfassungsbereich als die Kamera. Die Globalkamera ist ausgebildet globale Bilddaten, insbesondere Bilder und/oder Videos aufzunehmen. Die Globalkamera weist einen Erfassungsbereich auf, wobei der Erfassungsbereich als Globalbereich bezeichnet wird. Der Globalbereich ist ein Abschnitt und/oder Bereich des Überwachungsbereichs, wobei der Globalbereich größer, insbesondere eine größere Ausdehnung aufweist, als der Erfassungsbereich der Kamera. Der Erfassungsbereich der Kamera bildet insbesondere eine echte Teilmenge des Globalbereichs. Die globalen Bilddaten weisen eine geringere Qualität, beispielsweise Auflösung und/oder Güte als die Bilddaten der Kamera auf. Die Ausgestaltung der Erfindung sieht beispielsweise vor, dass eine detektiert der Objektdispersion, insbesondere ein darauf basierender Beeinträchtigungsbereich und/oder Ergänzungsbereich, verworfen wird und/oder nicht als solcher behandelt wird, wenn die Objekte des Multiobjektereignisses und/oder der Objektdispersion im Globalbereich liegen und/oder bleiben. Beispielsweise wandert ein Objekt des Multiobjektereignisses bei der Objektdispersion aus dem Erfassungsbereich der Kamera, verbleibt jedoch im Globalbereich, so dass die Objekte des Multiobjektbereichs zumindest in den globalen Bilddaten gemeinsam umfasst sind. One embodiment of the invention provides that the monitoring arrangement has a global camera in addition to the camera. The global camera is, for example, a wide-angle camera, a fisheye camera and/or a camera with a larger detection range than the camera. The global camera is designed to record global image data, in particular images and/or videos. The global camera has a detection area, the detection area being referred to as the global area. The global area is a section and/or area of the monitoring area, the global area being larger, in particular having a larger extent, than the detection area of the camera. In particular, the camera's coverage area forms a true subset of the global area. The global image data has a lower quality, for example resolution and/or quality, than the image data from the camera. The embodiment of the invention provides, for example, that a detected object dispersion, in particular an impairment area and/or supplementary area based thereon, is discarded and/or is not treated as such, if the objects of the multi-object event and/or the object dispersion lie and/or remain in the global area. For example, in the case of object dispersion, an object of the multi-object event moves out of the detection area of the camera, but remains in the global area, so that the objects of the multi-object area are included together at least in the global image data.
Einen weiteren Gegenstand der Erfindung bildet ein Computerprogramm, wobei das Computerprogramm zur Ausführung auf einem Computer, einer Kamera, eine Überwachungsanordnung und/oder einer Cloud ausgebildet ist. Das Computerprogramm ist ausgebildet, bei seiner Ausführung das Verfahren zur Detektion der Objektdispersion und/oder Schritte davon auszuführen, anzuwenden und/oder zu implementieren. A further subject of the invention is a computer program, wherein the computer program is designed to be executed on a computer, a camera, a monitoring arrangement and/or a cloud. When executed, the computer program is designed to execute, apply and/or implement the method for detecting the object dispersion and/or steps thereof.
Einen weiteren Gegenstand der Erfindung bildet ein Speichermedium, insbesondere ein nicht flüchtiges und/oder maschinenlesbares Speichermedium. Das Computerprogramm ist auf dem Speichermedium gespeichert. A further subject of the invention is a storage medium, in particular a non-volatile and/or machine-readable storage medium. The computer program is stored on the storage medium.
Einen weiteren Gegenstand der Erfindung bildet eine Überwachungsanordnung, wobei die Überwachungsanordnung ausgebildet und/oder eingerichtet ist das Verfahren zur Bestimmung der Objektdispersion auszuführen, zu implementieren und/oder anzuwenden. Die Überwachungsanordnung umfasst mindestens eine Kamera, vorzugsweise mindestens fünf Kameras und/oder eine Globalkamera. Die Kamera ist ausgebildet, eingerichtet und/oder angeordnet, einen Überwachungsbereich zu überwachen, wobei die Kamera insbesondere einen Erfassungsbereich aufweist und ausgebildet ist, Bilddaten für den Erfassungsbereich, aufzunehmen. Die Bilddaten sind beispielsweise als Videodaten ausgebildet. Die Überwachungsanordnung und/oder die Kamera umfasst ein Auswertemodul, wobei das Auswertemodul ausgebildet ist, basierend auf den Bilddaten ein Multiobjektereignis zu detektieren und/oder zu bestimmen, wobei das Multiobjektereignis mindestens zwei Objekte umfasst, wobei die Objekte interagieren und/oder Wechselwirken. Das Auswertemodul ist ausgebildet und/oder eingerichtet, basierend auf den Bilddaten für das detektierte Multiobjektereignis eine Objektdispersion zu detektieren und/oder festzustellen. Die Objektdispersion ist, wie auch für das Verfahren insbesondere als ein Hinausbewegen mindestens eines der Objekte der des Multiobjektereignisses aus dem Erfassungsbereich der Kamera definiert und/oder beschrieben. Insbesondere ist das Auswertemodul ausgebildet und/oder eingerichtet, basierend auf der detektierten Objektdispersionen, den Bilddaten und/oder einer Karte des Überwachungsbereichs, vorzugsweise basierend auf Zusatzdaten, Beeinträchtigungsbereiche, eine annotierte Karte und/oder einen Ergänzungsbereich zur Anordnung einer Ergänzungskamera zu bestimmen und/oder zu ermitteln. A further subject of the invention is a monitoring arrangement, wherein the monitoring arrangement is designed and/or set up to carry out, implement and/or use the method for determining the object dispersion. The monitoring arrangement includes at least one camera, preferably at least five cameras and/or a global camera. The camera is designed, set up and/or arranged to monitor a surveillance area, wherein the camera in particular has a detection area and is designed to record image data for the detection area. The image data is designed, for example, as video data. The monitoring arrangement and/or the camera comprises an evaluation module, wherein the evaluation module is designed to detect and/or determine a multi-object event based on the image data, the multi-object event comprising at least two objects, the objects interacting and/or interacting. The evaluation module is designed and/or set up to detect and/or determine an object dispersion based on the image data for the detected multi-object event. The object dispersion is, as for the method, in particular as a movement out of at least one of the objects Multi-object event defined and/or described from the detection range of the camera. In particular, the evaluation module is designed and/or set up, based on the detected object dispersions, the image data and/or a map of the monitoring area, preferably based on additional data, to determine areas of impairment, an annotated map and/or an additional area for arranging an additional camera and/or to determine.
Weitere Vorteile, Wirkungen und Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen: Further advantages, effects and refinements result from the attached figures and their description. Show:
Figur 1 Ausführungsbeispiel eines Verfahrens zur Bestimmung einer Objektdispersion mittels eine Überwachungsanordnung; Figure 1 exemplary embodiment of a method for determining an object dispersion using a monitoring arrangement;
Figur 2 weiteres Ausführungsbeispiel des Verfahrens zur Bestimmung eine Objektdispersion mit einer Überwachungsanordnung umfassend eine Globalkamera. Figure 2 further exemplary embodiment of the method for determining object dispersion with a monitoring arrangement comprising a global camera.
Figur 1 zeigt ein Ausführungsbeispiel einer Überwachungsanordnung 1. Die Überwachungsanordnung 1 ist ausgebildet einen Überwachungsbereich 2 zu überwachen, insbesondere kamerabasiert und/oder videobasiert. Die Überwachungsanordnung 1 umfasst mindestens eine Kamera 3. Die Kamera 3 ist beispielsweise schwenkbar und/oder zoombar ausgebildet. Die Kamera 3 ist angeordnet und ausgebildet, für einen Erfassungsbereich 4 Bilddaten aufzunehmen. Der Erfassungsbereich 4 ist insbesondere eine Teilmenge des Überwachungsbereichs 2. Figure 1 shows an exemplary embodiment of a monitoring arrangement 1. The monitoring arrangement 1 is designed to monitor a monitoring area 2, in particular camera-based and/or video-based. The monitoring arrangement 1 includes at least one camera 3. The camera 3 is designed, for example, to be pivotable and/or zoomable. The camera 3 is arranged and designed to record image data for a detection area 4. The detection area 4 is in particular a subset of the monitoring area 2.
Im Überwachungsbereich 2 und insbesondere im Erfassungsbereich 4 befindet sich eine Gruppe von Personen 5a, b, c. Die Gruppe aus Personen 5a, b, c bilden Objekte eines Multiobjektereignisses 6. Das Multiobjektereignis 6 ist beispielsweise eine Rauferei der Personen 5a, b, c. Die Objekte 5 a, b, c des Multiobjektereignisses 6 liegen alle im Erfassungsbereich 4 der Kamera 3, sodass diese in den Bilddaten umfasst und/oder gezeigt sind. Das Multiobjektereignis 6 weist eine zeitliche Entwicklung auf, wobei sich Objekte des Multiobjektereignisses 6 teilweise bewegen. Bei diesem Ausführungsbeispiel bewegten sich beispielsweise die Person 5 a nach links und die Person 5c nach rechts. Hierbei bewegt sich die Person 5c und die Person 5a bewegen sich aus dem Erfassungsbereich 4 der Kamera 3 heraus. Das Herausbewegen eines Objektes des Multiobjektereignisses 6, hier der Personen 5a und 5 c bilden jeweils eine Objektdispersion 7a und 7b. Die Überwachungsanordnung 1 , im Speziellen die Kamera 3, umfasst ein Auswertemodul. Das Auswertemodul ist ausgebildet, basierend auf den Bilddaten das Herausbewegen der Objekte des Multiobjektereignisses 6, insbesondere der Personen 5a, c zu detektieren und zu bestimmen, insbesondere als Objektdispersion 7a, b zu bestimmen. In the surveillance area 2 and in particular in the detection area 4 there is a group of people 5a, b, c. The group of people 5a, b, c form objects of a multi-object event 6. The multi-object event 6 is, for example, a fight between people 5a, b, c. The objects 5 a, b, c of the multi-object event 6 are all in the detection area 4 of the camera 3, so that they are included and/or shown in the image data. The multi-object event 6 has a temporal development, with objects of the multi-object event 6 partially moving. In this exemplary embodiment, for example, the person 5a moved to the left and the person 5c moved to the left right. Here the person 5c moves and the person 5a moves out of the detection area 4 of the camera 3. Moving out an object of the multi-object event 6, here the people 5a and 5c, each forms an object dispersion 7a and 7b. The monitoring arrangement 1, in particular the camera 3, includes an evaluation module. The evaluation module is designed to detect and determine the movement out of the objects of the multi-object event 6, in particular the people 5a, c, based on the image data, in particular to determine it as object dispersion 7a, b.
Insbesondere wird für die Objektdispersion 7a und 7b eine ursprüngliche Position bestimmt, wobei dies die Position der Personen 5 a, b, c zum Beginn der Rauferei und/oder des Multiobjektereignisses 6 darstellt. Ferner kann eine zuletzt detektierte Position für die Objekte 5a und 5c des Multiobjektereignisses 6 bestimmt werden, wobei dies die Position im Überwachungsbereich 2 ist und/oder an den Rändern des Erfassungsbereich 4 der Kamera 3 ist, wenn sich die Objekte aus dem Erfassungsbereich 4 heraus bewegen. In particular, an original position is determined for the object dispersion 7a and 7b, this representing the position of the people 5a, b, c at the start of the scuffle and/or the multi-object event 6. Furthermore, a last detected position for the objects 5a and 5c of the multi-object event 6 can be determined, this being the position in the monitoring area 2 and/or at the edges of the detection area 4 of the camera 3 when the objects move out of the detection area 4 .
Figur 2 zeigt ein weiteres Ausführungsbeispiel der Bestimmung einer Objektdispersion 7 basierend auf Bilddaten und einer Überwachungsvorrichtung 1. Die Überwachungsvorrichtung 1 umfasst in diesem Ausführungsbeispiel neben der Kamera 3 eine Globalkamera 8. Die Globalkamera 8 bildet beispielsweise eine Domkamera. Die Globalkamera 8 weist einen Erfassungsbereich auf, welcher auch Globalbereich 9 genannt wird. Die Kamera 3 weist den Erfassungsbereich 4 auf, welcher einen Teilbereich des Globalbereichs 9 bildet. Figure 2 shows a further exemplary embodiment of the determination of an object dispersion 7 based on image data and a monitoring device 1. In this exemplary embodiment, the monitoring device 1 includes a global camera 8 in addition to the camera 3. The global camera 8 forms, for example, a dome camera. The global camera 8 has a detection area, which is also called the global area 9. The camera 3 has the detection area 4, which forms a subarea of the global area 9.
Die Personen 5a, b, c als Objekte des Multiobjektereignisses 6 liegen im Erfassungsbereich 4 der Kamera 3, wobei basierend auf den Bilddaten der Kamera 3 die Rauferei der 3 Personen 5a, b, c als das Multiobjektereignis 6 detektiert wurde. Die Person 5c ist basierend auf den Bilddaten der Kamera 3 bereits näher definiert und/oder in einer höheren Auflösung als von den Globaldaten der Globalkamera 8 gezeigt. Bewegt sich die Person 5C nun nach rechts und damit aus dem Erfassungsbereich 4 der Kamera 3 heraus, verbleibt die Person 5C im Globalbereich 8 und somit in den Aufnahmen bzw. dem globalen Bilddaten, sichtbar. Das Verfahren sieht hier vor, dass das Herausbewegen der Person 5c aus dem Erfassungsbereich 4 als Objektdispersion 7b verworfen wird, da die Person 5c weiterhin im Globalbereich 8 angeordnet ist und so in den Globaldaten zusammen mit den anderen Objekten 5a, b des Multiobjektereignisses 6 erfasst wird. The people 5a, b, c as objects of the multi-object event 6 lie in the detection area 4 of the camera 3, with the scuffle of the 3 people 5a, b, c being detected as the multi-object event 6 based on the image data from the camera 3. The person 5c is already defined in more detail based on the image data from the camera 3 and/or shown in a higher resolution than from the global data from the global camera 8. If the person 5C now moves to the right and thus out of the detection area 4 of the camera 3, the person 5C remains in the global area 8 and thus visible in the recordings or the global image data. The method here provides that the movement of the person 5c out of the detection area 4 is rejected as object dispersion 7b, since the person 5c continues to be in the global area 8 is arranged and is thus recorded in the global data together with the other objects 5a, b of the multi-object event 6.

Claims

Ansprüche Expectations
1 . Verfahren für eine, insbesondere zum Betreiben einer, Überwachungsanordnung (1) zur Detektion einer Objektdispersion (7a, b), wobei die Überwachungsanordnung (1) mindesten eine Kamera (3) aufweist und zur Überwachung eines Überwachungsbereichs (2) ausgebildet ist, wobei die Kamera (3) einen Erfassungsbereich (4) aufweist und Bilddaten für den Erfassungsbereich (4) aufnimmt, wobei die Bilddaten ausgewertet werden und basierend auf den Bilddaten ein Multiobjektereignis (6) detektiert wird, wobei das Multiobjektereignis (6) mindestens zwei Objekte umfasst, wobei basierend auf den Bilddaten für das detektierte Multiobjektereignis (6) eine Objektdispersion (7a, b) detektiert wird, wobei die Objektdispersion (7a, b) ein Hinausbewegen mindestens eines der Objekte aus dem Erfassungsbereich (4) der Kamera (3) umfasst und/oder beschreibt. 1 . Method for a, in particular for operating, a monitoring arrangement (1) for detecting an object dispersion (7a, b), wherein the monitoring arrangement (1) has at least one camera (3) and is designed to monitor a monitoring area (2), the camera (3) has a detection area (4) and records image data for the detection area (4), the image data being evaluated and a multi-object event (6) being detected based on the image data, the multi-object event (6) comprising at least two objects, based an object dispersion (7a, b) is detected on the image data for the detected multi-object event (6), the object dispersion (7a, b) comprising and/or describing a movement of at least one of the objects out of the detection area (4) of the camera (3). .
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass basierend auf der detektierten Objektdispersion (7a, b) und einer Karte des Überwachungsbereichs (2) Beeinträchtigungsbereiche und eine annotierte Karte bestimmt werden, wobei die annotierte Karte die Beeinträchtigungsbereiche umfasst. 2. The method according to claim 1, characterized in that impairment areas and an annotated map are determined based on the detected object dispersion (7a, b) and a map of the monitoring area (2), the annotated map comprising the impairment areas.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass für die detektierte Objektdispersion (7a, b) eine initiale Position und/oder für die Objekte der Objektdispersion (7a, b) eine letzte detektierte Position bestimmt wird, wobei die Beeinträchtigungsbereiche auf der initialen Position und/oder den letzten detektierten Positionen basiert. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass für die Kamera (3) und/oder den Erfassungsbereich (4) Zusatzdaten ermittelt werden, wobei die Beeinträchtigungsbereiche basierend auf den Zusatzdaten bestimmt werden. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Zusatzdaten eine Kamerabewegung umfassen. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass basierend auf der Objektdispersion (7a, b) und/oder den Beeinträchtigungsbereichen ein Ergänzungsbereich zur Anordnung einer Ergänzungskamera und/oder zur Überwachung durch die Ergänzungskamera bestimmt wird. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass bei Detektion einer Objektdispersion (7a, b) ein Kompensationsschritt angewendet und/oder durchgeführt wird, wobei der Kompensationsschritt eine Veränderung von Kameraparameter, einer Kameraposition und/oder einer Kameraorientierung zum Erhalten der Objekte des Multiobjektereignisses im Erfassungsbereich (4) der Kamera. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass als Beeinträchtigungsbereiche und/oder Ergänzungsbereiche Bereiche des Überwachungsbereichs (2) bestimmt werden, für die der Kompensationsschritt erfolglos ist und/oder bleibt. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Kamera (3) eine mobile Kamera und/oder PTZ-Kamera bildet. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Überwachungsanordnung (1) eine Globalkamera (8) zur Aufnahme von globalen Bilddaten eines Globalbereichs (9) ist, wobei der Globalbereich (9) einen Abschnitt des Überwachungsbereichs (2) bildet und größer als der Erfassungsbereich (4) der Kamera (3) ausgebildet ist, wobei die globalen Bilddaten eine geringer Qualität und/oder Güte als die Bilddaten der Kamera (3) aufweisen, wobei eine detektierte Objektdispersion (7a, b) verworfen wird, wenn die Objekte der Objektdispersion (7a, b) im Globalbereich (9) liegen und/oder von den globalen Bilddaten umfasst sind. Computerprogramm zur Ausführung auf einem Computer, einer Kamera (3), einer Überwachungsanordnung (1) und/oder einer Cloud, wobei das Computerprogramm ist ausgebildet ist, bei seiner Ausführung wenigstens einen Schritt des Verfahrens nach einem der vorherigen Ansprüche auszuführen, anzuwenden und/oder zu implementieren. Maschinenlesbares Speichermedium, dadurch gekennzeichnet, dass das Computerprogramm nach Anspruch 11 ist auf dem Speichermedium gespeichert ist. Überwachungsanordnung (1) ausgebildet und/oder eingerichtet, das Verfahren nach einem der Ansprüche 1 bis 10 auszuführen, zu implementieren und/oder anzuwenden, mit mindestens einer Kamera (3), wobei die Kamera (3) ausgebildet, eingerichtet und/oder angeordnet ist, einen Überwachungsbereich (2) zu überwachen und ausgebildet ist, Bilddaten für einen Erfassungsbereich (4) aufzunehmen, wobei die Überwachungsanordnung (1) und/oder die Kamera (3) ein Auswertemodul umfasst, wobei das Auswertemodul ausgebildet ist, basierend auf den Bilddaten ein Multiobjektereignis (6) zu detektieren und/oder zu bestimmen, wobei das Multiobjektereignis (6) mindestens zwei Objekte umfasst, wobei das Auswertemodul ausgebildet und/oder eingerichtet ist, basierend auf den Bilddaten für das detektiert Multiobjektereignis (6) eine Objektdispersion (7a, b) zu detektieren und/oder festzustellen. 3. The method according to claim 2, characterized in that an initial position is determined for the detected object dispersion (7a, b) and / or a last detected position for the objects of the object dispersion (7a, b), the impairment areas being at the initial position and/or the last detected positions. Method according to claim 2 or 3, characterized in that additional data is determined for the camera (3) and/or the detection area (4), the impairment areas being determined based on the additional data. Method according to claim 4, characterized in that the additional data includes a camera movement. Method according to one of the preceding claims, characterized in that a supplementary region for arranging a supplementary camera and/or for monitoring by the supplementary camera is determined based on the object dispersion (7a, b) and/or the impairment areas. Method according to one of the preceding claims, characterized in that when an object dispersion (7a, b) is detected, a compensation step is applied and/or carried out, the compensation step being a change in camera parameters, a camera position and/or a camera orientation to obtain the objects of the multi-object event in the detection area (4) of the camera. Method according to claim 7, characterized in that areas of the monitoring area (2) for which the compensation step is and/or remains unsuccessful are determined as impairment areas and/or supplementary areas. Method according to one of the preceding claims, characterized in that the camera (3) forms a mobile camera and/or PTZ camera. Method according to one of the preceding claims, characterized in that the monitoring arrangement (1) is a global camera (8) for recording global image data of a global area (9), the global area (9) forming a section of the monitoring area (2) and being larger than the detection area (4) of the camera (3) is formed, the global image data having a lower quality and/or quality than the image data of the camera (3), a detected object dispersion (7a, b) being discarded, if the objects of the object dispersion (7a, b) lie in the global area (9) and/or are included in the global image data. Computer program for execution on a computer, a camera (3), a monitoring arrangement (1) and/or a cloud, wherein the computer program is designed, when executed, to carry out, apply and/or at least one step of the method according to one of the preceding claims to implement. Machine-readable storage medium, characterized in that the computer program according to claim 11 is stored on the storage medium. Monitoring arrangement (1) designed and/or set up to carry out, implement and/or use the method according to one of claims 1 to 10, with at least one camera (3), the camera (3) being designed, set up and/or arranged , to monitor a monitoring area (2) and is designed to record image data for a detection area (4), wherein the monitoring arrangement (1) and / or the camera (3) comprises an evaluation module, wherein the evaluation module is designed based on the image data To detect and/or determine multi-object event (6), wherein the multi-object event (6) comprises at least two objects, wherein the evaluation module is designed and/or set up to produce an object dispersion (7a, b) based on the image data for the detected multi-object event (6). ) to detect and/or determine.
PCT/EP2023/057303 2022-03-29 2023-03-22 Method for detecting an object dispersion, computer program, storage medium, and monitoring assembly WO2023186653A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022203064.8 2022-03-29
DE102022203064.8A DE102022203064A1 (en) 2022-03-29 2022-03-29 Method for detecting object dispersion, computer program, storage medium and monitoring arrangement

Publications (1)

Publication Number Publication Date
WO2023186653A1 true WO2023186653A1 (en) 2023-10-05

Family

ID=85800289

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/057303 WO2023186653A1 (en) 2022-03-29 2023-03-22 Method for detecting an object dispersion, computer program, storage medium, and monitoring assembly

Country Status (2)

Country Link
DE (1) DE102022203064A1 (en)
WO (1) WO2023186653A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160189500A1 (en) * 2014-12-26 2016-06-30 Samsung Electronics Co., Ltd. Method and apparatus for operating a security system
US20170278366A1 (en) * 2016-03-22 2017-09-28 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US20200200872A1 (en) * 2018-12-21 2020-06-25 Leica Geosystems Ag 3d surveillance system comprising lidar and multispectral imaging for object classification
WO2020145883A1 (en) * 2019-01-10 2020-07-16 Hitachi, Ltd. Object tracking systems and methods for tracking an object

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11575837B2 (en) 2020-04-27 2023-02-07 Canon Kabushiki Kaisha Method, apparatus and computer program for generating and displaying a heatmap based on video surveillance data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160189500A1 (en) * 2014-12-26 2016-06-30 Samsung Electronics Co., Ltd. Method and apparatus for operating a security system
US20170278366A1 (en) * 2016-03-22 2017-09-28 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US20200200872A1 (en) * 2018-12-21 2020-06-25 Leica Geosystems Ag 3d surveillance system comprising lidar and multispectral imaging for object classification
WO2020145883A1 (en) * 2019-01-10 2020-07-16 Hitachi, Ltd. Object tracking systems and methods for tracking an object

Also Published As

Publication number Publication date
DE102022203064A1 (en) 2023-10-05

Similar Documents

Publication Publication Date Title
DE112014001658T5 (en) A tracking processing device and tracking processing system equipped therewith and tracking processing methods
EP3058556B1 (en) Method and device for the automated early detection of forest fires by means of the optical detection of clouds of smoke
DE102014213556B4 (en) Tracking support device, tracking support system and tracking support method
EP2297701B1 (en) Video analysis
DE112005000929T5 (en) Automatic imaging method and device
DE102007031302A1 (en) Device for detecting and / or classifying motion patterns in a sequence of images from a surveillance scene, method and computer program
DE102006053286A1 (en) Method for detecting movement-sensitive image areas, apparatus and computer program for carrying out the method
EP1189187B1 (en) Method and system for monitoring a designated area
WO2023186653A1 (en) Method for detecting an object dispersion, computer program, storage medium, and monitoring assembly
DE10049366A1 (en) Security area monitoring method involves using two image detection units whose coverage areas overlap establishing monitored security area
DE19600958A1 (en) Interactive surveillance system
DE102022202668A1 (en) Method for monitoring a surveillance area, computer program, storage medium and device
DE102006027120A1 (en) Image processing method, video surveillance system and computer program
WO2005088541A1 (en) Real-time movement analysis device
WO2023186652A1 (en) Method for operating a monitoring device, computer program, storage medium, and monitoring device
DE102022203062A1 (en) Method for determining camera addition suggestions for a monitoring device, computer program, storage medium and monitoring device
DE19701186C2 (en) Interactive surveillance system
WO2023186650A1 (en) Method for operating a monitoring device, computer program, storage medium, and monitoring device
EP4305610A1 (en) Method, computer program, storage medium, person detector and surveillance array for person detection
WO2023094338A1 (en) Method for analysing potential events, device for analysing potential events, computer program and storage medium.
WO2023285649A1 (en) Monitoring device comprising at least two cameras, method for monitoring, computer program, and storage medium
DE19744694A1 (en) Video motion detector arrangement
WO2008083663A1 (en) Method for the automatic analysis of object movements
WO2023285169A1 (en) Monitoring device having a plurality of cameras, method and computer program for monitoring
WO2023222406A1 (en) Method for analyzing potential events, monitoring arrangement, computer program, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23714661

Country of ref document: EP

Kind code of ref document: A1