WO2023186649A1 - Verfahren zur bestimmung von kameraergänzungsvorschlägen für eine überwachungsvorrichtung, computerprogramm, speichermedium und überwachungsvorrichtung - Google Patents
Verfahren zur bestimmung von kameraergänzungsvorschlägen für eine überwachungsvorrichtung, computerprogramm, speichermedium und überwachungsvorrichtung Download PDFInfo
- Publication number
- WO2023186649A1 WO2023186649A1 PCT/EP2023/057294 EP2023057294W WO2023186649A1 WO 2023186649 A1 WO2023186649 A1 WO 2023186649A1 EP 2023057294 W EP2023057294 W EP 2023057294W WO 2023186649 A1 WO2023186649 A1 WO 2023186649A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- camera
- events
- image data
- event
- data
- Prior art date
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000004590 computer program Methods 0.000 title claims description 10
- 238000003860 storage Methods 0.000 title claims description 7
- 230000000295 complement effect Effects 0.000 title abstract 4
- 238000012544 monitoring process Methods 0.000 claims abstract description 63
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 238000011156 evaluation Methods 0.000 claims description 19
- 239000013589 supplement Substances 0.000 claims description 6
- 238000013507 mapping Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Definitions
- the invention relates to a method for determining camera addition suggestions for a monitoring device, wherein the monitoring device comprises a plurality of cameras and is designed to monitor a monitoring area.
- Surveillance devices comprising a plurality of cameras are used in both private and public areas. For example, particularly security-relevant public facilities, such as airports and train stations, are monitored using video technology by a monitoring device. Based on the recorded images and/or videos, searched objects and/or people can be found and detected; in particular, they can also be tracked across the detection areas of the different cameras.
- the arrangement and distribution of the individual cameras must be optimized.
- the individual cameras have been arranged by specialist personnel, with the camera positions and/or camera distribution being determined by the specialist personnel based on plans of the surveillance areas and the experience gained. This often results in under-coverage or over-coverage in the camera distribution, so that areas, for example, are not covered be adequately monitored or the acquisition and operating costs are too high due to the use of more cameras than absolutely necessary.
- the publication KR 102024695 A1 describes a method and a device for modeling a camera distribution.
- the publication deals in particular with the calibration of the cameras.
- the modeling is based on map data from a mapping of the surveillance area, the map data comprising, for example, topographical information and/or information about objects in the map sections.
- the invention relates to a method for determining camera addition suggestions for a monitoring device with the features of claim 1.
- the invention further relates to a computer program, a storage medium with the computer program and a monitoring device. Further advantages, effects and refinements result from the subclaims, the description and the attached figures.
- a method for determining camera addition suggestions for a monitoring device is proposed.
- the method is for operating the monitoring device and/or for use during operation and/or routine use of the monitoring device.
- the method can be carried out and/or used in particular in a computer-implemented and/or software-implemented manner.
- the monitoring device is designed and/or set up to monitor a monitoring area.
- the monitoring device comprises a plurality of cameras for this purpose, the cameras being arranged distributed over the monitoring area.
- Camera supplementary suggestions are understood to mean, in particular, suggestions, in particular positions and/or distributions for cameras, which are intended to supplement, improve and/or be integrated into the monitoring device.
- the distribution of the cameras of the monitoring device is not optimal and/or sufficient, in particular for the respective application, so that positions and/or areas for which a camera is to be installed and/or provided are identified as camera supplementary suggestions, so that the coverage provided by the cameras is optimal and/or sufficient for the application.
- the monitoring device comprises a plurality of cameras, in particular at least ten and preferably at least 100.
- the cameras are distributed and/or arranged at a distance, in particular for detecting and/or recording the monitoring area.
- the cameras are preferably connected for data purposes.
- the monitoring device comprises a management system, wherein data from the cameras is and/or is provided to the management system.
- the monitoring area is designed, for example, as an interior area, for example a public building.
- the surveillance area is mapped and/or a map, plan, spatial plan and/or model is provided for the surveillance area.
- the monitoring device comprises at least one first camera, in particular the monitoring device comprises a plurality of first cameras.
- the monitoring device comprises at least one second camera, in particular a plurality of second cameras.
- the first camera and second camera are each understood to be a camera type and/or a type of camera, so that, for example, a plurality of first cameras means that the monitoring device includes and/or has this plurality of cameras of the first camera type.
- the first camera preferably has a larger detection area, also called a recording area, than the second camera.
- the first camera is a wide-angle camera or a dome camera.
- the first camera is preferably designed as a 360° camera.
- the detection area is in particular the area that can be recorded by the respective camera and/or for which image data can be provided.
- the second camera preferably has a smaller detection range than the first camera, for example the second camera is designed and/or set up as a PTZ camera and/or as a camera with a conventional camera lens, in particular a non-fisheye and/or non-wide-angle lens.
- the second Camera in particular has a higher playback and/or recording fidelity than the first camera.
- the second camera is designed and/or set up to record images and/or videos, in particular image data, of higher quality, resolution and/or frame rate than the first camera.
- the first camera in particular has lower playback and/or recording fidelity.
- the second camera forms a HiFi camera.
- the second camera is designed to record a smaller detection area than the first camera with higher fidelity, recording fidelity and/or resolution than the first camera.
- the first camera is designed to capture and/or record a larger area with lower quality, with the second camera being designed to record parts and/or smaller capture areas with higher quality and/or resolution.
- the first camera is designed to record and/or provide first image data for its respective detection area.
- the first image data is in particular video data and/or comprises an image sequence.
- the second camera is designed and/or set up to record and/or provide second image data for its respective detection area.
- the second image data is in particular designed as video data and/or comprises an image sequence.
- the first camera is designed to provide first camera data, wherein the first camera data includes the first image data.
- the first camera data can include camera parameters, for example a position of the camera, position and/or location, size and/or shape of its detection area.
- the second camera is designed and/or set up to provide and/or generate second camera data.
- the second camera data includes the second image data.
- the second image data can include and/or have camera parameters of the second camera, for example a position, position and/or orientation of the second camera, position, size, orientation and/or shape of its detection area, in particular at the respective time.
- the first image data is evaluated and/or analyzed.
- the evaluation and/or analysis of the first camera data and/or first image data is carried out by the first camera, for example by an evaluation module as part of the first camera.
- the first image data is evaluated and/or analyzed by the management system and/or first camera data, with the first camera data being provided to the management system.
- first events are detected and/or established. For example, image evaluation algorithms and/or neural networks are used to detect and/or classify the first events.
- the first events are, for example, a movement, an optical flow induced by an object, a pattern, an object and/or generally a feature.
- several first events can be detected and/or determined for this purpose and/or in this case.
- the first events are in particular events in the detection area of the first camera, in other words in the surveillance area.
- the camera addition suggestions are determined and/or detected.
- the second camera evaluates and/or analyzes the second camera data and/or the second image data, for example by using methods and/or algorithms of image evaluation and/or a neural network.
- the second cameras are designed and/or set up to evaluate and/or analyze their second image data and/or their second camera data.
- the second camera data and/or the second image data are provided to the management system, wherein the management system evaluates and/or analyzes the second image data and/or second camera data.
- the determination, determination and/or detection of the second events takes place as for the first event and/or based on the first events.
- the second image data and/or the second camera data are examined and/or analyzed for the presence of the first events, for example for the movement, the optical flow, the pattern, the shape and/or the features.
- the camera supplement suggestions are determined and/or determined based on the determined, detected and/or determined first events and the determined, determined and/or determined second events.
- an event position and/or an event section is determined and/or determined for the first events, in particular based on the first image data and/or first camera data.
- the event position is, for example, the position of the first event in the monitoring area, for example as a 2- or 3-dimensional coordinate.
- the event section is, for example, an area and/or a section of the monitoring area, in particular the first detection area, in which the first event occurs and/or takes place.
- the event position and/or the event section is determined and/or determined based on the first camera data, in particular the camera recording direction, viewing direction and/or position.
- the camera supplementary suggestions it is preferably checked and/or determined whether the event position and/or associated event section associated with the first event can be detected, captured, recorded by the second camera and/or one of the second cameras and/or is recorded.
- the second camera can be controlled and/or positioned in such a way that its detection area records the event position and/or the event section, for which purpose the second camera is, for example, pivoted, moved and/or its zoom is changed.
- a first number of events is determined and/or determined based on the first events, in particular the first image data and/or the first camera data.
- a second number of events is preferably determined and/or determined for the second events, in particular based on the second image data and/or the second camera data.
- the event numbers are, for example, a number, in particular the sum, of first events and/or second events.
- the first and/or second events can be additionally classified and/or differentiated, so that a plurality, in particular a number tuple, are determined and/or determined as event numbers for the first and/or second events.
- the number of events can in particular describe the number of events in a section, area or parcel of the monitoring area and / or the detection area, for this purpose, for example, the monitoring area and / or the detection area is divided and / or subdivided into parcels.
- the plots can be regular, for example rectangular sections, form hexagonal sections or be designed as a polygon, in particular as a grid. Alternatively and/or additionally, the plots can be irregular and/or designed in a fixed manner in front of the user.
- This embodiment provides in particular that the camera addition suggestions are determined and/or determined based on the first event number and the second event number. For this purpose, a comparison of the first number of events and the second number of events is preferably made. In particular, a deviation between the first number of events and the second number of events is determined. If the deviation between the first number of events and the second number of events is greater than a defined threshold value, in particular defined by the user, a conclusion is drawn, for example, about a camera addition suggestion.
- the second camera and/or the second cameras have a changeable, pivotable, zoomable and/or movable detection area.
- the second cameras and/or the second camera are designed and/or set up as a PTZ camera.
- the second camera for example changing, panning, zooming and/or moving the detection area, can be controlled and/or executed in particular by a user, preferably by means of a joystick, or by image evaluation software, in particular the management system.
- the second camera data preferably includes a position and/or location of the second camera, a position, location of the second detection area, in particular at the respective time, a camera orientation, a camera viewing direction and/or a camera position.
- the camera addition suggestions are preferably determined and/or determined based on the second camera data.
- the camera supplement suggestions are determined and/or determined based on the position and/or the location of the second camera and/or the second detection area, the camera orientation, the camera viewing direction and/or the camera position of the second camera.
- first event areas are determined and/or determined based on the first events and a map and/or a model of the monitoring area.
- the first event areas are, for example, areas and/or sections, in particular parcels, of the monitoring area in which first events are detected, determined and/or ascertained.
- the first event areas are determined and/or determined based on the event positions and/or event sections.
- first event areas form first event sections and/or vice versa.
- the camera addition suggestions are determined and/or determined based on a comparison and/or a correlation of the first event areas and and/or with the second events. For example, it is checked whether there is a correlation between the second events and the first event areas.
- second event areas are determined and/or determined based on the second events and a map and/or a model of the monitoring area.
- the second event areas are determined and/or determined analogously and/or based on the determination of the first event areas.
- second event areas form second event sections and/or vice versa.
- the camera addition suggestions are preferably determined and/or determined based on the first event areas and the second event areas. For example, a comparison of the first event areas and the second event areas is examined and/or determined. In particular, a correlation between the second event areas and the first event areas is checked.
- At least one heat map is determined and/or determined based on the first and/or based on the second event areas.
- the heatmap is in particular a representation of the events and/or the number of events.
- a heatmap is understood, in particular, to be an image of the R 2 or the two-dimensional plan, map and/or model of the monitoring area on the area of real numbers.
- the monitoring area and/or sections of the monitoring area are provided with the number of events, in particular the first or second number of events.
- the camera addition suggestions are determined and/or determined based on the heat map.
- the heat map is issued and/or displayed to a user, in particular the specialist personnel and/or installer. The user can use the representation to determine and/or determine the camera addition suggestions and/or positions and/or areas that are to be monitored by installing another second camera. In particular, such a representation is particularly easy to evaluate and/or interpret for the user and/or the specialist personnel.
- one of the heatmaps and/or for one of the heatmaps becomes a
- Event numbers and/or the first event areas in the monitoring area intended.
- the monitoring area, a map and/or a model of the monitoring area is broken down into the parcels because the first events, first numbers of events and/or first event areas are displayed, stored and/or included for the parcels.
- the second events, the second event numbers and/or the second event areas for the monitoring area, the map of the monitoring area and/or the model of the monitoring area are mapped and/or plotted as one of the heatmaps.
- the second events, the second event numbers and/or via the second event areas are entered into the parcels of the monitoring area, stored there and/or displayed.
- a monitoring duration is determined and/or determined based on the second camera data for the monitoring area and/or for sections of the monitoring area.
- the monitoring duration describes, for example, how long and/or how often, in particular how regularly, the corresponding monitoring area and/or the sections of the monitoring area are recorded and/or captured by the second camera.
- one of the heatmaps maps, plots and/or includes the monitoring duration for the monitoring area and/or the sections of the monitoring area.
- the sections of the surveillance area are designed and/or defined as the parcels.
- a further subject of the invention is a computer program, wherein the computer program is designed and/or set up for execution on a computer, a cloud, a camera and/or a monitoring device.
- the method is designed and/or set up to carry out, apply and/or implement the method and/or method steps of the method for determining the camera addition suggestions during its execution.
- a further subject of the invention is a computer program, in particular a machine-readable and/or non-volatile storage medium.
- the computer program is stored on the storage medium.
- a further subject of the invention is a monitoring device, wherein the monitoring device is designed and/or set up to record and/or monitor a monitoring area.
- the monitoring device comprises a plurality of cameras, the plurality of cameras comprising at least a first camera and at least a second camera.
- the first camera has a larger detection range than the second camera and/or the first camera has a lower fidelity than the second camera.
- the first camera is designed and/or set up to record first image data for its detection area and to provide first camera data, the camera data comprising the image data.
- the second camera is designed and/or set up to record second image data and provide second camera data for its detection area.
- the second camera data includes the second image data.
- the monitoring device includes an evaluation module, in particular the management system and/or the first camera includes the evaluation module.
- the evaluation module is designed and/or set up to evaluate the first image data and to detect and/or determine first events based on the evaluation of the first image data.
- the evaluation module for evaluating the first image data and/or a further evaluation module, for example as part of the management system and/or the second camera, is designed and/or set up to determine camera addition suggestions based on the first events and based on the second image data.
- the monitoring device is designed and/or set up to execute, apply and/or implement the method for determining the camera addition suggestions.
- Figure 1 shows an example of a monitoring area with event areas
- Figure 2 shows an example of a monitoring area with monitoring duration sections.
- Figure 1 shows an example of a monitoring area 1, wherein the monitoring area 1 forms an interior and is provided as a two-dimensional model, here a spatial plan of the monitoring device 2 and / or is stored in this.
- the monitoring device 2 is designed to monitor the monitoring area 1 and includes a first Camera 3 and a second camera 4.
- the first camera 3 is designed as a dome camera and is arranged in an area of the monitoring area 1, which allows the detection of one or the largest possible area of the monitoring area 1.
- the first camera 3 has, for example, a 360° detection range.
- the second camera 4 is designed as a PTZ camera and has a second detection area 5, which is in particular designed to be pivotable 6.
- the second detection area 5 is smaller than the first detection area of the first camera 3, wherein the second camera 4 is designed and / or is set up to record second image data with a higher and / or greater fidelity than the first camera 3 first image data for its detection area.
- the first camera 3 has a first detection area that detects the monitoring area sections 7a, 7b and 7c. Given the current orientation and/or alignment, the second camera here can only record the monitoring area section 7a and provide second image data for it.
- the first camera 3 records first image data for the monitoring area sections 7a, 7b and 7c. This first image data is evaluated and/or analyzed, with events 8a, 8b, 8c and 8d being determined based on the evaluation of the image data.
- the events 8a, b, c, d are, for example, detected movements and/or optical flows. Since the events 8a, b, c, d can be poorly or insufficiently evaluated and/or further analyzed based on the first image data, which only have a low weighing fidelity, these events 8a, b, c, d are monitored by the monitoring device 2 whose detection and/or recording by the second camera 4 is required.
- Second camera data of the second camera 4 which have the second image data and a camera position, camera viewing direction and/or camera orientation, it is checked whether the events determined based on the first image data 8a, b, c, d are also included and/or shown in the second image data, in particular can be analyzed and/or detected based on the second image data.
- First event areas 9a, b, c, d are determined for the first events 8a to 8d.
- Sections and/or areas of the monitoring area 1 in which the first events 8a to 8d lie and/or are detected are set as the first event areas 9a to 9d. For example, a radius and/or an environment around the center of gravity and/or center of the detected first events 8 is determined for this purpose.
- the events 8a to 8b are therefore included in the second image data and can be evaluated and/or analyzed. There is no second image data available for events 8c and 8d, so they cannot be evaluated in more detail.
- the event areas 9c and 9d are thus determined as camera supplementary suggestions since no second camera data is recorded for them.
- FIG. 2 shows an exemplary embodiment that is designed as an exemplary embodiment from Figure 1 and describes the same monitoring area 1.
- the figure shows the representation and/or mapping of the monitoring area 1 comprising sections 10a to 10d, which are identified and/or determined based on and/or according to their monitoring durations, for example as and/or based on a heat map.
- the monitoring durations describe the cumulative time and/or duration of recording and/or monitoring by the second camera 4.
- the area 10a was recorded by the second camera for 435 minutes and the area 10b for 10 minutes.
- the area 10c was recorded by the second camera 4 for only 1 minute and the area 10d was recorded by the second camera for 14 minutes.
- color mapping for example like a heatmap, can be used.
- the area 10a is shown in color in the mapping, with the strength of the representation weakening and/or reducing in the areas 10a via 10b, 10d to 10c.
- the camera addition suggestions are compiled, for example, based on the mapping, the heat map, in particular the areas 10a to 10d determined with the first events 8a to 8d. This checks whether and/or how regularly the areas in which the events 8a to 8d are detected are detected and/or recorded by the second camera.
- specialist personnel can also recognize by displaying the mapping and/or the heat map that the events 8a and 8b are regularly and/or frequently recorded and/or monitored by the second camera, and the events 8d are occasionally recorded and/or monitored by the second camera are recorded and/or recorded and the events 8c are hardly and/or insufficiently recorded and/or monitored by the second camera, so that in particular the area 10c is to be monitored by a further second camera and is to be viewed as a camera supplement suggestion.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Alarm Systems (AREA)
Abstract
Verfahren zum Bestimmen von Kameraergänzungsvorschlägen für eine Überwachungsvorrichtung (2), wobei die Überwachungsvorrichtung (2) eine Mehrzahl an Kameras umfasst und zur Überwachung eines Überwachungsbereichs (1) ausgebildet ist, wobei die Mehrzahl an Kameras mindestens eine erste Kamera (3) und zweite Kamera (4) umfasst, wobei die erste Kamera (3) einen größeren Erfassungsbereich als die zweite Kamera (4) aufweist und/oder die erste Kamera (3) eine geringere Wiedergabetreue als die zweite Kamera (4) aufweist, wobei die erste Kamera (3) für ihren Erfassungsbereich (5) erste Bilddaten aufnimmt und erste Kameradaten bereitstellt, wobei die zweite Kamera (4) für ihren Erfassungsbereich (5) zweite Bilddaten aufnimmt und zweite Kameradaten bereitstellt, wobei die ersten Kameradaten die ersten Bilddaten umfassen und die zweiten Kameradaten die zweiten Bilddaten umfassen, wobei die ersten Bilddaten ausgewertet werden und basierend auf der Auswertung der ersten Bilddaten erste Ereignisse( 8a,b,c,d) detektiert und/oder bestimmt werden, wobei basierend auf den ersten Ereignissen (8a,b,c,d) und den zweiten Bilddaten die Kameraergänzungsvorschläge bestimmt werden, wobei die Kameraergänzungsvorschläge Bereiche, Positionen, Orientierungen und/oder Abschnitte des Überwachungsbereichs (1) umfassen, bilden und/oder beschreiben, die durch eine zusätzliche, zu ergänzende und/oder bereits bestehende Kamera aufzunehmen und/oder zu überwachen sind.
Description
Beschreibung
Titel
Verfahren zur Bestimmung von Kameraergänzungsvorschlägen für eine Überwachungsvorrichtung, Computerprogramm, Speichermedium und Überwachungsvorrichtung
Stand der Technik
Die Erfindung betrifft ein Verfahren zur Bestimmung von Kameraergänzungsvorschlägen für eine Überwachungsvorrichtung, wobei die Überwachungsvorrichtung eine Mehrzahl an Kameras umfasst und zur Überwachung eines Überwachungsbereichs ausgebildet ist.
Überwachungsvorrichtungen umfassend eine Mehrzahl an Kameras werden sowohl im privaten als auch im öffentlichen Bereich eingesetzt. Beispielsweise werden besonders sicherheitsrelevante öffentliche Einrichtungen, beispielsweise Flughäfen und Bahnhöfe, durch eine Überwachungsvorrichtung videotechnisch überwacht. Basierend auf den aufgenommenen Bildern und/oder Videos können so gesuchte Objekte und/oder Personen aufgefunden und detektiert werden, insbesondere können diese auch über die Erfassungsbereiche der unterschiedlichen Kameras hinweg verfolgt werden.
Damit solche Überwachungsvorrichtungen sicher und effektiv angewendet werden können, ist die Anordnung und Verteilung der einzelnen Kameras zu optimieren. Bisher werden die einzelnen Kameras von Fachpersonal angeordnet, wobei die Kamerapositionen und/oder Kameraverteilung von dem Fachpersonal basierend auf Plänen der Überwachungsbereiche und der gesammelten Erfahrung bestimmt werden. Häufig kommt es so zu einer Unterabdeckung oder Überabdeckung in der Kameraverteilung, sodass Bereiche beispielsweise nicht
ausreichend überwacht werden oder die Anschaffung und Betriebskosten durch Verwendung von mehr Kameras als zwingend nötig zu hoch sind.
Die Druckschrift KR 102024695 A1 beschreibt ein Verfahren und eine Vorrichtung zum Modellieren einer Kameraverteilung. Die Druckschrift beschäftigt sich insbesondere mit der Kalibrierung der Kameras. Die Modellierung basiert auf Kartendaten einer Kartierung des Überwachungsbereichs, wobei die Kartendaten beispielsweise topografische Informationen und/oder Informationen über Objekte in den Kartenabschnitten umfassen.
Offenbarung der Erfindung
Die Erfindung betrifft ein Verfahren zur Bestimmung von Kameraergänzungsvorschlägen für eine Überwachungsvorrichtung mit den Merkmalen des Anspruchs 1. Ferner betrifft die Erfindung ein Computerprogramm, ein Speichermedium mit dem Computerprogramm und eine Überwachungsvorrichtung. Weitere Vorteile, Wirkungen und Ausgestaltungen ergeben sich aus den Unteransprüchen, der Beschreibung und den beigefügten Figuren.
Es wird ein Verfahren zur Bestimmung von Kameraergänzungsvorschlägen für eine Überwachungsvorrichtung vorgeschlagen. Insbesondere ist das Verfahren zum Betreiben der Überwachungsvorrichtung und/oder zur Anwendung während des Betreibens und/oder der routinemäßigen Verwendung der Überwachungsvorrichtung. Das Verfahren ist insbesondere computerimplementiert und/oder softwareimplementiert ausführbar und/oder anwendbar. Die Überwachungsvorrichtung ist zur Überwachung eines Überwachungsbereichs ausgebildet und/oder eingerichtet. Insbesondere umfasst die Überwachungsvorrichtung hierzu eine Mehrzahl an Kameras, wobei die Kameras über den Überwachungsbereich verteilt angeordnet sind. Als Kameraergänzungsvorschläge werden insbesondere Vorschläge, insbesondere Positionen und/oder Verteilungen für Kameras verstanden, die die Überwachungsvorrichtung ergänzen sollen, verbessern sollen und/oder in diese integriert werden sollen. Beispielsweise ist die Verteilung der Kameras der Überwachungsvorrichtung nicht optimal und/oder ausreichend, insbesondere für
die jeweilige Anwendung, sodass als Kameraergänzungsvorschläge solche Positionen und/oder Bereiche ermittelt werden, für die eine Kamera zu installieren und/oder vorzusehen ist, sodass die Abdeckung durch die Kameras für die Anwendung optimal und/oder ausreichend ist.
Die Überwachungsvorrichtung umfasst eine Mehrzahl an Kameras, insbesondere mindestens zehn und vorzugsweise mindestens 100. Die Kameras sind verteilt und/oder beabstandet angeordnet, insbesondere zur Erfassung und/oder Aufnahme des Überwachungsbereichs. Vorzugsweise sind die Kameras datentechnisch verbunden. Insbesondere umfasst die Überwachungsvorrichtung ein Managementsystem, wobei dem Managementsystem Daten der Kameras bereitgestellt werden und/oder bereitgestellt sind. Der Überwachungsbereich ist beispielsweise als ein Innenbereich, beispielsweise ein öffentliches Gebäude ausgebildet. Vorzugsweise ist der Überwachungsbereich kartiert und/oder für den Überwachungsbereich ist eine Karte, Plan, Raumplan und/oder Modell bereitgestellt.
Die Überwachungsvorrichtung umfasst mindestens eine erste Kamera, im Speziellen umfasst Überwachungsvorrichtung eine Mehrzahl an ersten Kameras. Die Überwachungsvorrichtung umfasst mindestens eine zweite Kamera, im Speziellen eine Mehrzahl an zweiten Kameras. Insbesondere werden die erste Kamera und zweite Kamera jeweils als ein Kameratyp und/oder eine Kameraart verstanden, sodass beispielsweise eine Mehrzahl an ersten Kameras bedeutet, dass die Überwachungsvorrichtung diese Mehrzahl an Kameras des Typs erste Kamera umfasst und/oder aufweist.
Die erste Kamera weist vorzugsweise einen größeren Erfassungs be reich, auch Aufnahmebereich genannt, als die zweite Kamera auf. Beispielsweise ist die erste Kamera eine Weitwinkelkamera oder eine Domkamera. Vorzugsweise ist die erste Kamera als eine 360° Kamera ausgebildet. Der Erfassungsbereich ist insbesondere der Bereich, der von der jeweiligen Kamera aufnehmbar ist und/oder für den Bilddaten bereitstellbar sind. Die zweite Kamera weist vorzugsweise einen kleineren Erfassungsbereich als die erste Kamera auf, beispielsweise ist die zweite Kamera als eine PTZ-Kamera und/oder als eine Kamera mit üblichen Kameraobjektiv, insbesondere einem nicht Fischaugen und/oder nicht Weitwinkel objektiv ausgebildet und/oder eingerichtet. Die zweite
Kamera weist insbesondere eine höhere Wiedergabe- und/oder Aufnahmetreue als die erste Kamera auf. Insbesondere ist die zweite Kamera ausgebildet und/oder eingerichtet, Bilder und/oder Videos, insbesondere Bilddaten, von höherer Qualität, Auflösung und/oder Bildrate aufzunehmen als die erste Kamera. Die erste Kamera weist insbesondere eine geringere Wiedergabe und/oder Aufnahmetreue auf. Mit anderen Worten bildet die zweite Kamera eine HiFi Kamera. Im Speziellen ist die zweite Kamera ausgebildet, einen kleineren Erfassungsbereich als die erste Kamera mit höherer Wiedergabetreue, Aufnahmetreue und/oder Auflösung aufzunehmen als die erste Kamera. Mit anderen Worten ist die erste Kamera ausgebildet, einen größeren Bereich mit geringer Qualität zu erfassen und/oder aufzunehmen, wobei die zweite Kamera ausgebildet ist, Teile und/oder kleinere Erfassungsbereiche dafür mit höherer Qualität und/oder Auflösung aufzunehmen.
Die erste Kamera ist ausgebildet, für ihren jeweiligen Erfassungsbereich erste Bilddaten aufzunehmen und/oder bereitzustellen. Die ersten Bilddaten sind insbesondere Videodaten und/oder umfassen eine Bildsequenz. Die zweite Kamera ist ausgebildet und/oder eingerichtet, für ihren jeweiligen Erfassungsbereich zweite Bilddaten aufzunehmen und/oder bereitzustellen. Die zweiten Bilddaten sind insbesondere als Videodaten ausgebildet und/oder umfassen eine Bildsequenz. Die erste Kamera ist ausgebildet erste Kameradaten bereitzustellen, wobei die ersten Kameradaten die ersten Bilddaten umfassen. Ferner können die ersten Kameradaten Kameraparameter umfassen, beispielsweise eine Position der Kamera, Position und/oder Lage, Größe und/oder Form ihres Erfassungsbereich. Die zweite Kamera ist ausgebildet und/oder eingerichtet, zweite Kameradaten bereitzustellen und/oder zu generieren. Die zweiten Kameradaten umfassen die zweiten Bilddaten. Ferner können die zweiten Bilddaten Kameraparameter der zweiten Kamera umfassen und/oder aufweisen, beispielsweise eine Position, Lage und/oder Orientierung der zweiten Kamera, Lage, Größe, Orientierung und/oder Form ihres Erfassungsbereichs, insbesondere zur jeweiligen Zeit.
Die ersten Bilddaten, beispielsweise als Teil der ersten Kameradaten, werden ausgewertet und/oder analysiert. Insbesondere erfolgt das Auswerten und/oder die Analyse der ersten Kameradaten und/oder ersten Bilddaten durch die erste Kamera, beispielsweise durch ein Auswertemodul als Teil der ersten Kamera.
Alternativ und/oder ergänzend erfolgt das Auswerten und/oder Analysieren der ersten Bilddaten durch das Managementsystem und/oder ersten Kameradaten, wobei dem Managementsystem die ersten Kameradaten bereitgestellt sind. Durch das Auswerten und/oder Analysieren, insbesondere basierend auf dem Auswerten und/oder Analysieren, der ersten Bilddaten werden erste Ereignisse detektiert und/oder festgestellt Beispielsweise werden Bildauswertealgorithmen und/oder neuronale Netze zur Detektion und/oder Klassifizierung der ersten Ereignisse angewendet. Die ersten Ereignisse sind beispielsweise eine Bewegung, ein von einem Objekt induzierte optischer Fluss, ein Muster, ein Objekt und/oder allgemein ein Feature. Insbesondere können hierzu und/oder hierbei mehrere erste Ereignisse detektiert und/oder festgestellt werden. Die ersten Ereignisse sind insbesondere Ereignisse im Erfassungsbereich der ersten Kamera, mit anderen Worten im Überwachungsbereich.
Basierend auf den bestimmten und/oder detektierten ersten Ereignissen und den zweiten Kameradaten, im Speziellen den zweiten Bilddaten, werden die Kameraergänzungsvorschläge ermittelt und/oder detektiert. Insbesondere wird hierbei geprüft, ob die der detektierten, bestimmten und/oder ermittelten ersten Ereignisse in den zweiten Bilddaten umfasst sind, gezeigt sind, bestimmbar und/oder auswertbar sind. Vorzugsweise wird hierzu geprüft, ob die Position, Lage und/oder der Abschnitt des Überwachungsbereichs, bzw. des ersten Erfassungsbereich der ersten Kamera, in dem das erste Ereignis detektiert wurde und/oder eingetreten ist, durch mindestens eine der zweiten Kameras erfasst und/oder aufgenommen wird.
Optional ist es vorgesehen, dass die zweite Kamera die zweiten Kameradaten und/oder die zweiten Bilddaten ausgewertet und/oder analysiert, beispielsweise durch Anwendung von Verfahren und/oder Algorithmen der Bildauswertung und/oder eines neuronalen Netzes. Insbesondere sind die zweiten Kameras ausgebildet und/oder eingerichtet jeweils ihre zweiten Bilddaten und/oder ihre zweiten Kameradaten auszuwerten und/oder zu analysieren. Alternativ und/oder ergänzend werden die zweiten Kameradaten und/oder die zweiten Bilddaten dem Managementsystem bereitgestellt, wobei das Managementsystem die zweiten Bilddaten und/oder zweiten Kameradaten auswertet und/oder analysiert. Durch das Analysieren und/oder Auswerten der zweiten Bilddaten und/oder der zweiten Kameradaten, insbesondere basierend darauf, werden zweite Ereignisse
detektiert, festgestellt und/oder ermittelt. Insbesondere erfolgt das Ermitteln, Bestimmen und/oder Detektieren der zweiten Ereignisse, wie für das erste Ereignis und/oder angelehnt an die ersten Ereignisse. Beispielsweise werden hierzu die zweiten Bilddaten und/oder die zweiten Kameradaten auf das Vorhandensein der ersten Ereignisse untersucht und/oder analysiert, z.B. auf die Bewegung, den optischen Fluss, das Muster, die Form und/oder die Features. Dabei ist es vorzugsweise vorgesehen, dass die Kameraergänzungsvorschläge basierend auf den bestimmten, der detektierten und/oder ermittelten ersten Ereignissen und den bestimmten, ermittelten und/oder festgestellten zweiten Ereignissen bestimmt und/oder ermittelt werden. Alternativ und/oder ergänzend wird geprüft, ob für den Bereich und/oder den Abschnitt des Überwachungsbereichs, in dem das erste Ereignis ermittelt wurde und/oder ob für den Erfassungsbereich der ersten Kamera mit dem ersten Ereignis zweite Bilddaten aufgenommen werden und/oder eine zweite Kamera dort ihren Erfassungsbereich hat oder dorthin verlegen kann.
Eine Ausgestaltung der Erfindung sieht vor, dass für die ersten Ereignisse, insbesondere basierend auf den ersten Bilddaten und/oder ersten Kameradaten, eine Ereignisposition und/oder ein Ereignisabschnitt ermittelt und/oder bestimmt wird. Die Ereignisposition ist beispielsweise die Position des ersten Ereignisses im Überwachungsbereich, beispielsweise als 2- oder 3-dimensionale Koordinate. Der Ereignisabschnitt ist beispielsweise ein Bereich und/oder ein Abschnitt des Überwachungsbereichs, insbesondere des ersten Erfassungsbereichs, in welchem das erste Ereignis eintritt und/oder stattfindet. Insbesondere wird die Ereignisposition und/oder der Ereignisabschnitt basierend auf den ersten Kameradaten, insbesondere der Kameraaufnahmerichtung, Blickrichtung und/oder Position ermittelt und/oder bestimmt. Vorzugsweise wird zur Bestimmung, Ermittlung und/oder Feststellung der Kameraergänzungsvorschläge geprüft und/oder ermittelt, ob die zu dem ersten Ereignis gehörige Ereignisposition und/oder zugehöriger Ereignisabschnitt von der zweiten Kamera und/oder einer der zweiten Kameras erfassbar ist, erfasst wird, aufnehmbar ist und/oder aufgenommen wird. Insbesondere wird hierbei geprüft, ob die zweite Kamera so angesteuert und/oder positioniert werden kann, dass die deren Erfassungsbereich die Ereignisposition und/oder den Ereignisabschnitt aufnimmt, wobei hierzu die zweite Kamera beispielsweise geschwenkt, verfahren und/oder deren Zoom verändert wird.
Insbesondere ist es vorgesehen, dass basierend auf den ersten Ereignissen, insbesondere den ersten Bilddaten und/oder den ersten Kameradaten, eine erste Ereignisanzahl bestimmt und/oder ermittelt wird. Ferner wird vorzugsweise für die zweiten Ereignisse, im Speziellen basierend auf den zweiten Bilddaten und/oder den zweiten Kameradaten, eine zweite Ereignisanzahl bestimmt und/oder ermittelt. Die Ereignisanzahlen sind beispielsweise eine Anzahl, insbesondere die Summe, an ersten Ereignissen und/oder an zweiten Ereignissen. Beispielsweise können die ersten und/oder zweiten Ereignisse zusätzlich klassifiziert und/oder unterschieden werden, so dass für die ersten und/oder zweiten Ereignisse eine Mehrzahl, insbesondere ein Zahlentupel als Ereignisanzahlen bestimmt und/oder ermittelt werden. Die Ereignisanzahl kann insbesondere die Zahl der Ereignisse in einem Abschnitt, Bereich oder Parzelle des Überwachungsbereichs und/oder des Erfassungsbereichs beschreiben, wobei hierzu beispielsweise der Überwachungsbereich und/oder der Erfassungsbereich in Parzellen aufgeteilt und/oder untergliedert wird. Die Parzellen können hierbei regelmäßig, beispielsweise rechteckige Abschnitte bilden, 6-eckige Abschnitte bilden oder als Polygon, insbesondere als Gitter ausgebildet sein. Alternativ und/oder ergänzend können die Parzellen unregelmäßig und/oder vor dem Benutzer festgelegt ausgestaltet sein. Diese Ausgestaltung sieht insbesondere vor, dass die Kameraergänzungsvorschläge basierend auf der ersten Ereigniszahl und der zweiten Ereigniszahl bestimmt und/oder ermittelt wird. Vorzugsweise wird hierzu ein Vergleich von erster Ereignisanzahl und zweiter Ereignisanzahl angestellt. Insbesondere wird eine Abweichung von ersten Ereignisanzahlen und zweiten Ereignisanzahlen ermittelt. Ist die Abweichung zwischen erster Ereignisanzahl und zweiter Ereignisanzahl größer als ein festgelegter, insbesondere vom Benutzer festgelegter Schwellwert, wird z.B. auf einen Kameraergänzungsvorschlag geschlossen. Diese Ausgestaltung basiert auf der Überlegung, dass bei einer ersten Ereigniszahl größer als der zweiten Ereigniszahl darauf zu erwarten sind, dass nicht alle der detektierten ersten Ereignisse von den zweiten Kameras, insbesondere mit höherer Auflösung und/oder Qualität, aufgenommen werden, so dass auf Ereignisse zu schließen ist, die nicht genügend und/oder zufriedenstellend auszuwerten und/oder zu analysieren werden können.
Optional ist es vorgesehen, dass die zweite Kamera und/oder die zweiten Kameras, einen veränderbaren, schwenkbaren, zoombaren und/oder bewegbaren Erfassungsbereich aufweisen. Beispielsweise sind die zweiten Kameras und/oder ist die zweite Kamera als eine PTZ- Kamera ausgebildet und/oder eingerichtet. Die zweite Kamera, z.B. das Verändern, Schwenken, Zoomen und/oder Bewegen des Erfassungsbereichs ist insbesondere durch einen Benutzer, vorzugsweise mittels eines Joysticks, oder durch eine Bildauswertesoftware, insbesondere das Managementsystem, ansteuerbar und/oder ausführbar. Das Verändern, Schwenken, Zoomen und/oder Bewegen des Erfassungsbereichs der zweiten Kamera wird aufgenommen und/oder gespeichert und/oder vorzugsweise als Teil der zweiten Kameradaten bereitgestellt. Die zweiten Kameradaten umfassen vorzugsweise eine Position und/oder Lage der zweiten Kamera, eine Position, Lage des zweiten Erfassungsbereichs, insbesondere zum jeweiligen Zeitpunkt, einer Kameraorientierung, eine Kamerablickrichtung und/oder eine Kameraposition. Die Kameraergänzungsvorschläge werden vorzugsweise basierend auf den zweiten Kameradaten ermittelt und/oder bestimmt. Insbesondere werden die Kameraergänzungsvorschläge basierend auf der Position und/oder der Lage der zweiten Kamera und/oder des zweiten Erfassungsbereichs, der Kameraorientierung, der Kamerablickrichtung und/oder der Kameraposition der zweiten Kamera ermittelt und/oder bestimmt.
Eine Ausgestaltung der Erfindung sieht vor, dass basierend auf den ersten Ereignissen und einer Karte und/oder einem Modell des Überwachungsbereichs erste Ereignisbereiche bestimmt und/oder ermittelt werden. Die ersten Ereignisbereiche sind beispielsweise Bereiche und/oder Abschnitte, im Speziellen Parzellen, des Überwachungsbereichs, in welchem erste Ereignisse detektiert, bestimmt und/oder ermittelt werden. Insbesondere sind die ersten Ereignisbereiche bestimmt und/oder ermittelt basierend auf den Ereignispositionen und/oder Ereignisabschnitten. Im Speziellen bilden erste Ereignisbereich erste Ereignisabschnitte und/oder umgekehrt. Besonders bevorzugt ist es, die Kameraergänzungsvorschläge basierend auf einem Vergleich und/oder einer Korrelation der ersten Ereignisbereiche und den und/oder mit den zweiten Ereignissen bestimmt und/oder ermittelt werden. Beispielsweise wird hierzu überprüft, ob eine Korrelation zwischen den zweiten Ereignissen und den ersten Ereignisbereichen besteht.
Eine Ausgestaltung der Erfindung sieht vor, dass basierend auf den zweiten Ereignissen und einer Karte und/oder einem Modell des Überwachungsbereichs zweite Ereignisbereiche bestimmt und/oder ermittelt werden. Insbesondere werden die zweiten Ereignisbereiche analog und/oder angelehnt an die Bestimmung der ersten Ereignisbereiche ermittelt und/oder bestimmt. Im Speziellen bilden zweite Ereignisbereiche zweite Ereignisabschnitte und/oder umgekehrt. Die Kameraergänzungsvorschläge werden hierbei vorzugsweise basierend auf den ersten Ereignisbereichen und den zweiten Ereignisbereichen ermittelt und/oder bestimmt. Beispielsweise wird ein Vergleich der ersten Ereignisbereiche und der zweiten Ereignisbereiche untersucht und/oder ermittelt. Insbesondere wird hierbei eine Korrelation zwischen den zweiten Ereignisbereichen und den ersten Ereignisbereichen geprüft.
Besonders bevorzugt ist es, dass basierend auf den ersten und/oder basierend auf den zweiten Ereignisbereichen mindestens eine Heatmap ermittelt und/oder bestimmt wird. Die Heatmap ist insbesondere eine Darstellung der Ereignisse und/oder der Ereignisanzahlen. Als Heatmap wird insbesondere eine Abbildung des R2 bzw. dem zweidimensionalen Plan, Karte und/oder Modell des Überwachungsbereichs auf dem Bereich der reellen Zahlen verstanden. Beispielsweise wird hierzu der Überwachungsbereich und/oder Abschnitte des Überwachungsbereichs mit der Ereignisanzahl, insbesondere erste oder zweite Ereignisanzahl, versehen. Hierbei ist es besonders bevorzugt, dass die Kameraergänzungsvorschläge basierend auf der Heatmap ermittelt und/oder bestimmt werden. Alternativ und/oder ergänzend wird die Heatmap einem Benutzer, insbesondere dem Fachpersonal und/oder Installateur, ausgegeben und/oder angezeigt. Der Benutzer kann die Darstellung dazu nutzen, die Kameraergänzungsvorschläge und/oder Positionen und/oder Bereiche, die durch die Installation einer weiteren zweiten Kamera zu überwachen sind, zu bestimmen und/oder zu ermitteln. Insbesondere ist eine solche Darstellung für den Benutzer und/oder das Fachpersonal, besonders gut auswertbar und/oder interpretierbar.
Beispielsweise wird eine der Heatmaps und/oder für eine der Heatmaps eine
Kartierung und/oder ein Aufträgen der ersten Ereignisse, der ersten
Ereignisanzahlen und/oder der ersten Ereignisbereiche im Überwachungsbereich
vorgesehen. Beispielsweise wird hierzu der Überwachungsbereich, eine Karte und/oder ein Modell des Überwachungsbereichs in die Parzellen zergliedert, weil für die Parzellen jeweils die ersten Ereignisse, erste Ereignisanzahlen und/oder erste Ereignisbereiche angezeigt, hinterlegt und/oder umfasst sind.
Ferner ist es besonders bevorzugt, das als eine der Heatmaps die zweiten Ereignisse, die zweiten Ereignisanzahlen und/oder die zweiten Ereignisbereiche für den Überwachungsbereich, die Karte des Überwachungsbereichs und/oder das Modell des Überwachungsbereichs kartiert und/oder aufgetragen werden. Beispielsweise werden hierzu die zweiten Ereignisse, die zweiten Ereignisanzahlen und/oder über die zweiten Ereignisbereiche in die Parzellen des Überwachungsbereichs eingetragen, dort hinterlegt und/oder angezeigt.
Eine Ausgestaltung der Erfindung sieht vor, dass basierend auf den zweiten Kameradaten für den Überwachungsbereich und/oder für Abschnitte des Überwachungsbereichs eine Überwachungsdauer ermittelt und/oder bestimmt werden. Die Überwachungsdauer beschreibt beispielsweise wie lange und/oder wie oft, insbesondere wie regelmäßig, der entsprechende Überwachungsbereich und/oder die Abschnitte des Überwachungsbereichs von der zweiten Kamera aufgenommen und/oder erfasst werden. Hierbei ist insbesondere vorgesehen, dass eine der Heatmaps die Überwachungsdauer für den Überwachungsbereich und/oder die Abschnitte des Überwachungsbereichs kartiert, aufträgt und/oder umfasst. Beispielsweise sind die Abschnitte des Überwachungsbereichs als die Parzellen ausgebildet und/oder definiert.
Einen weiteren Gegenstand der Erfindung bildet ein Computerprogramm, wobei das Computerprogramm zur Ausführung auf einem Computer, einer Cloud, einer Kamera und/oder einer Überwachungsvorrichtung ausgebildet und/oder eingerichtet ist. Das Verfahren ist ausgebildet und/oder eingerichtet, bei seiner Ausführung das Verfahren und/oder Verfahrensschritte des Verfahrens zur Bestimmung der Kameraergänzungsvorschläge auszuführen, anzuwenden und/oder zu implementieren.
Einen weiteren Gegenstand der Erfindung bildet ein Computerprogramm, insbesondere ein maschinenlesbares und/oder nichtflüchtiges Speichermedium. Auf dem Speichermedium ist das Computerprogramm gespeichert.
Einen weiteren Gegenstand der Erfindung bildet eine Überwachungsvorrichtung, wobei die Überwachungsvorrichtung ausgebildet und/oder eingerichtet ist, einen Überwachungsbereich aufzunehmen und/oder zu überwachen. Die Überwachungsvorrichtung umfasst eine Mehrzahl an Kameras, wobei die Mehrzahl an Kameras mindestens eine erste Kamera und mindestens eine zweite Kamera umfasst. Die erste Kamera weist einen größeren Erfassungsbereich als die zweite Kamera auf und/oder die erste Kamera weist eine geringere Wiedergabetreue als die zweite Kamera auf. Die erste Kamera ist ausgebildet und/oder eingerichtet, für ihren Erfassungsbereich erste Bilddaten aufzunehmen und erste Kameradaten bereitzustellen, wobei die Kameradaten die Bilddaten umfassen. Die zweite Kamera ist ausgebildet und/oder eingerichtet für ihren Erfassungsbereich zweite Bilddaten aufzunehmen und zweite Kameradaten bereitzustellen. Die zweiten Kameradaten umfassen die zweiten Bilddaten. Die Überwachungsvorrichtung umfasst ein Auswertemodul, im Speziellen umfasst das Managementsystem und/oder die erste Kamera das Auswertemodul. Das Auswertemodul ist ausgebildet und/oder eingerichtet, die ersten Bilddaten auszuwerten und basierend auf der Auswertung der ersten Bilddaten erste Ereignisse zu detektieren und/oder zu bestimmen.
Das Auswertemodul zur Auswertung der ersten Bilddaten und/oder ein weiteres Auswertemodul, beispielsweise als Teil des Managementsystems und/oder der zweiten Kamera, ist ausgebildet und/oder eingerichtet, basierend auf den ersten Ereignissen und basierend auf den zweiten Bilddaten Kameraergänzungsvorschläge zu bestimmen. Insbesondere ist die Überwachungsvorrichtung ausgebildet und/oder eingerichtet, das Verfahren zur Bestimmung der Kameraergänzungsvorschläge auszuführen, anzuwenden und/oder zu implementieren.
Weitere Vorteile, Wirkungen und Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen:
Figur 1 ein Beispiel eines Überwachungsbereichs mit Ereignisbereichen;
Figur 2 ein Beispiel eines Überwachungsbereich mit Überwachungsdauerabschnitten.
Figur 1 zeigt ein Beispiel eines Überwachungsbereichs 1 , wobei der Überwachungsbereich 1 einen Innenraum bildet und als zweidimensionales Modell, hier einem Raumplan der Überwachungsvorrichtung 2 bereitgestellt ist und/oder in dieser hinterlegt ist Die Überwachungsvorrichtung 2 ist zur Überwachung des Überwachungsbereichs 1 ausgebildet und umfasst eine erste Kamera 3 und eine zweite Kamera 4. Die erste Kamera 3 ist als eine Domkamera ausgebildet und in einem Bereich des Überwachungsbereichs 1 angeordnet, der die Erfassung eines oder einen möglichst großen Bereich des Überwachungsbereichs 1 erlaubt. Die erste Kamera 3 weist beispielsweise einen 360° Erfassungsbereich auf. Die zweite Kamera 4 ist als eine PTZ-Kamera ausgebildet und weist einen zweiten Erfassungsbereich 5 auf, der insbesondere schwenkbar 6 ausgebildet ist. Der zweite Erfassungsbereich 5 ist kleiner als der erste Erfassungsbereich der ersten Kamera 3 ausgebildet, wobei die zweite Kamera 4 ausgebildet ist und/oder eingerichtet ist, zweite Bilddaten mit einer höheren und/oder größeren Wiedergabetreue aufzunehmen, als die erste Kamera 3 erste Bilddaten für ihren Erfassungsbereich aufnimmt. Die erste Kamera 3 weist einen ersten Erfassungsbereich auf, der die Überwachungsbereichsabschnitte 7a, 7b und 7c erfasst. Die zweite Kamera hier kann bei derzeitiger Orientierung und/oder Ausrichtung nur den Überwachungsbereichsabschnitt 7a aufnehmen und für diesen zweite Bilddaten bereitstellen.
Die erste Kamera 3 nimmt erste Bilddaten für die Überwachungsbereichsabschnitte 7a, 7b und 7c auf. Diese ersten Bilddaten werden ausgewertet und/oder analysiert, wobei basierend auf der Auswertung der Bilddaten Ereignissen 8a, 8b, 8c und 8d ermittelt werden. Die Ereignisse 8a,b,c,d sind beispielsweise erfasste Bewegungen und/oder optische Flüsse. Da die Ereignisse 8a,b,c,d basierend auf den ersten Bilddaten, welche nur eine geringe Wiegewiedergabetreue aufweisen, schlecht oder ungenügend auswertbar und/oder weiter analysierbar sind, wird zur Überwachung dieser Ereignisse 8a,b,c,d durch die Überwachungsvorrichtung 2 deren Erfassung und/oder Aufnahme durch zweite Kamera 4 verlangt. Basierend auf den zweiten Kameradaten der zweiten Kamera 4, welche die zweiten Bilddaten und eine Kameraposition, Kamerablickrichtung und/oder Kameraorientierung aufweisen, wird geprüft, ob die basierend auf den ersten Bilddaten bestimmten Ereignisse
8a,b,c,d auch in den zweiten Bilddaten umfasst und/oder gezeigt sind, insbesondere basierend auf den zweiten Bilddaten analysierbar und/oder detektierbar sind. Für die ersten Ereignisse 8a bis 8d werden ersten Ereignisbereiche 9a,b,c,d ermittelt.
Als erste Ereignisbereiche 9a bis 9d werden Abschnitte und/oder Bereiche des Überwachungsbereichs 1 gesetzt, in welchem die ersten Ereignisse 8a bis 8d liegen und/oder detektiert werden. Beispielsweise wird hierzu ein Umkreis und/oder eine Umgebung um den Schwerpunkt und/oder Mittelpunkt der detektierten ersten Ereignisse 8 bestimmt. Basierend auf den ersten Kameradaten, insbesondere den ersten Ereignisbereichen 9a bis 9d sowie den Kameradaten der zweiten Kamera 4 wird geprüft, ob die ersten Ereignisbereiche 9a bis 9d im Erfassungsbereich der zweiten Kamera 4 liegen und/oder liegen können. Im vorliegenden Fall wird von der zweiten Kamera 4 der erste Ereignisbereich 9a und der zweite Ereignisbereich 9b erfasst, wobei die ersten Ereignisbereiche 9c und 9d nicht von der zweiten Kamera 4 erfasst werden. Somit sind die Ereignisse 8a bis 8b von den zweiten Bilddaten umfasst und können ausgewertet und/oder analysiert werden. Für die Ereignisse 8c und 8d sind keine zweiten Bilddaten vorhanden, sodass diese nicht näher auswertbar sind. Die Ereignisbereiche 9c und 9d werden somit als Kameraergänzungsvorschläge bestimmt, da für sie keine zweiten Kameradaten aufgenommen werden.
Figur 2 zeigt ein Ausführungsbeispiel das als Ausführungsbeispiel aus Figur 1 angelegt ist und denselben Überwachungsbereich 1 beschreibt. Die Figur zeigt die Darstellung und/oder Kartierung des Überwachungsbereichs 1 umfassend Abschnitte 10a bis 10d, die basierend und/oder entsprechend ihren Überwachungsdauern kenntlich gemacht und/oder bestimmt sind, beispielsweise als und/oder angelehnt an eine Heatmap. Die Überwachungsdauern beschreiben hierbei die kumulierte Zeit und/oder Dauer der Aufnahme und/oder Überwachung durch die zweite Kamera 4. Beispielsweise wurde der Bereich 10a von der zweiten Kamera 435 Minuten aufgenommen und der Bereich 10b 10 Minuten. Der Bereich 10c wurde von der zweiten Kamera 4 nur 1 Minute aufgenommen und der Bereich 10d von der zweiten Kamera 14 Minuten. Zur Darstellung und/oder Kartierung dieser Überwachungsdauer kann eine Farbkartierung, beispielsweise wie für eine Heatmap verwendet werden. Entsprechend stark
koloriert ist der Bereich 10a in der Kartierung dargestellt, wobei sich deren Stärke der Darstellung in den Bereichen 10a über 10b, 10d zu 10c abschwächt und/oder reduziert Die Kameraergänzungsvorschläge werden beispielsweise basierend auf der Kartierung, der Heatmap, insbesondere den Bereichen 10a bis 10d zusammen mit den ersten Ereignissen 8a bis 8d bestimmt. Hierbei wird geprüft, ob und/oder wie regelmäßig die Bereiche, in denen die Ereignisse 8a bis 8d detektiert werden von der zweiten Kamera erfasst und/oder aufgenommen werden. Hierbei kann beispielsweise auch ein Fachpersonal durch Anzeige der Kartierung und/oder der Heatmap erkennen, dass die Ereignisse 8a und 8b regelmäßig und/oder häufig von der zweiten Kamera erfasst und/oder überwacht werden, die Ereignisse 8d noch hin und wieder von der zweiten Kamera erfasst und/oder aufgenommen werden und die Ereignisse 8c kaum und/oder ungenügend von der zweiten Kamera aufgenommen und/oder überwacht werden, so dass insbesondere der Bereich 10c durch eine weitere zweite Kamera zu überwachen ist und als Kameraergänzungsvorschlag anzusehen ist.
Claims
1 . Verfahren zum Bestimmen von Kameraergänzungsvorschlägen für eine Überwachungsvorrichtung (2), wobei die Überwachungsvorrichtung (2) eine Mehrzahl an Kameras umfasst und zur Überwachung eines Überwachungsbereichs (1) ausgebildet ist, wobei die Mehrzahl an Kameras mindestens eine erste Kamera (3) und zweite Kamera (4) umfasst, wobei die erste Kamera (3) einen größeren Erfassungsbereich als die zweite Kamera (4) aufweist und/oder die erste Kamera (3) eine geringere Wiedergabetreue als die zweite Kamera (4) aufweist, wobei die erste Kamera (3) für ihren Erfassungsbereich erste Bilddaten aufnimmt und erste Kameradaten bereitstellt, wobei die zweite Kamera (4) für ihren Erfassungsbereich (5) zweite Bilddaten aufnimmt und zweite Kameradaten bereitstellt, wobei die ersten Kameradaten die ersten Bilddaten umfassen und die zweiten Kameradaten die zweiten Bilddaten umfassen, wobei die ersten Bilddaten ausgewertet werden und basierend auf der Auswertung der ersten Bilddaten erste Ereignisse (8a,b,c,d) detektiert und/oder bestimmt werden, wobei basierend auf den ersten Ereignissen (8a,b,c,d) und den zweiten Bilddaten die Kameraergänzungsvorschläge bestimmt werden, wobei die Kameraergänzungsvorschläge Bereiche, Positionen, Orientierungen und/oder Abschnitte des Überwachungsbereichs (1) umfassen, bilden und/oder beschreiben, die durch eine zusätzliche, zu ergänzende und/oder bereits bestehende Kamera aufzunehmen und/oder zu überwachen sind.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die zweiten Bilddaten ausgewertet werden und basierend auf der Auswertung der zweiten
Bilddaten zweite Ereignisse (8a,b,c,d) detektiert und/oder bestimmt werden, wobei die Kameraergänzungsvorschläge basierend auf den zweiten Ereignissen (8a,b,c,d) Bilddaten bestimmt werden. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass für die ersten Ereignisse (8a,b,c,d) eine Ereignisposition und/oder ein Ereignisabschnitt ermittelt wird, wobei zur Bestimmung der Kameraergänzungsvorschläge geprüft wird, ob die Ereignisposition und/oder der Ereignisabschnitt von einer der zweiten Kameras (4) erfassbar und/oder aufnehmbar ist. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass basierend auf den ersten Ereignissen (8a,b,c,d) eine erste Ereignisanzahl bestimmt wird, wobei basierend auf den zweiten Ereignissen (8a,b,c,d) eine zweite Ereignisanzahl bestimmt wird, wobei die Kameraergänzungsvorschläge basierend auf einem Vergleich und/oder Abweichung von erster Ereignisanzahl und zweiter Ereignisanzahl bestimmt werden. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die zweite Kamera (4) einen veränderbaren, schwenkbaren, zoombaren und/oder bewegbaren Erfassungsbereich (5) aufweist, wobei die zweiten Kameradaten eine Position und/oder Lage des zweiten Erfassungsbereichs (5), eine Kameraorientierung, eine Kamerablickrichtung und/oder Kameraposition umfassen, wobei die Kameraergänzungsvorschläge basierend auf der Position und/oder Lage des zweiten Erfassungsbereichs (5), der Kameraorientierung, der Kamerablickrichtung und/oder Kameraposition der zweiten Kamera bestimmt werden. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass basierend auf den ersten Ereignissen (8a,b,c,d) und einer Karte und/oder einem Modell des Überwachungsbereichs (1) erste Ereignisbereiche (9a,b,c,d) bestimmt werden, wobei die Kameraergänzungsvorschläge basierend auf einem Vergleich und/oder einer Korrelation der ersten Ereignisbereiche (9a,b,c,d) und den zweiten Ereignissen (8a,b,c,d) bestimmt werden.
Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass basierend auf den zweiten Ereignissen (8a,b,c,d) und einer Karte und/oder einem Modell des Überwachungsbereichs (1) zweite Ereignisbereiche (9a,b,c,d) bestimmt werden, wobei die Kameraergänzungsvorschläge basierend auf einem Vergleich und/oder einer Korrelation der zweiten Ereignisbereiche (9a,b,c,d) und den ersten Ereignissen (8a,b,c,d) bestimmt werden. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Kameraergänzungsvorschläge basierend auf einem Vergleich und/oder einer Korrelation der ersten Ereignisbereiche (9a,b,c,d) und der zweiten Ereignisbereiche (9a,b,c,d) bestimmt wird. Verfahren nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass basierend auf den ersten und/oder den zweiten Ereignisbereichen (9a,b,c,d) mindestens eine Heatmap der Ereignisse (8a,b,c,d) bestimmt wird, wobei die Kameraergänzungsvorschläge basierend auf der Heatmap bestimmt werden und/oder die Heatmap zur Anzeige für einen Benutzer ausgegeben wird. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass als eine der Heatmaps die ersten Ereignisse (8a,b,c,d), ersten Ereignisanzahlen und/oder ersten Ereignisbereiche (9a,b,c,d) für den Überwachungsbereich (1) kartiert und/oder aufgetragen werden. Verfahren nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass als eine der Heatmaps die zweiten Ereignisse (8a,b,c,d), die zweiten Ereignisanzahlen und/oder zweiten Ereignisbereiche (9a,b,c,d) für den Überwachungsbereich (1) kartiert und/oder aufgetragen werden. Verfahren nach einem der Ansprüche 9 bis 11 , dadurch gekennzeichnet, dass basierend auf den zweiten Kameradaten für den Überwachungsbereich (1) und/oder Abschnitte des Überwachungsbereichs (1) Überwachungsdauern bestimmt werden, wobei als eine der Heatmaps die Überwachungsdauern für den Überwachungsbereich (1) kartiert und/oder aufgetragen werden. Computerprogramm zur Ausführung auf einem Computer, einer Kamera und/oder einer Überwachungsvorrichtung (2) ausgebildet und/oder
eingerichtet, wenigstens einen Schritt des Verfahrens nach einem der vorherigen Ansprüche auszuführen, zu implementieren und/oder anzuwenden. Speichermedium, wobei das Computerprogramm nach Anspruch 13 auf dem Speichermedium gespeichert ist. Überwachungsvorrichtung (2) mit einer Mehrzahl an Kameras zur Überwachung und/oder Aufnahme eines Überwachungsbereichs (1) mit einer Mehrzahl an Kameras, wobei die Mehrzahl an Kameras mindestens eine erste Kamera (3) und mindestens eine zweite Kamera (4) umfasst, wobei die erste Kamera (3) einen größeren Erfassungsbereich als die zweite Kamera (4) aufweist und/oder die erste Kamera (3) eine geringere Wiedergabetreue als die zweite Kamera (4) aufweist, wobei die erste Kamera (3) ausgebildet und/oder eingerichtet ist, für ihren Erfassungsbereich erste Bilddaten aufzunehmen und erste Kameradaten bereitzustellen, wobei die ersten Kameradaten die ersten Bilddaten umfassen, wobei die zweite Kamera (4) ausgebildet und/oder eingerichtet ist, für ihren Erfassungsbereich (5) zweite Bilddaten aufzunehmen und zweite Kameradaten bereitzustellen, wobei die zweiten Kameradaten die zweiten Bilddaten umfassen, wobei die Überwachungsvorrichtung (2) ein Auswertemodul umfasst und das Auswertemodul ausgebildet und/oder eingerichtet ist, die ersten Bilddaten auszuwerten und basierend auf der Auswertung der ersten Bilddaten erste Ereignisse (8a,b,c,d) zu detektieren und/oder zu bestimmen, wobei das Auswertemodul ausgebildet ist und/oder die Überwachungsvorrichtung (2) ein weiteres Auswertemodul umfasst und das weitere Auswertemodul ausgebildet ist, basierend auf den ersten Ereignissen (8a,b,c,d) und basierend auf den zweiten Bilddaten Kameraergänzungsvorschläge zu bestimmen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022203062.1 | 2022-03-29 | ||
DE102022203062.1A DE102022203062A1 (de) | 2022-03-29 | 2022-03-29 | Verfahren zur Bestimmung von Kameraergänzungsvorschlägen für eine Überwachungsvorrichtung, Computerprogramm, Speichermedium und Überwachungsvorrichtung |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023186649A1 true WO2023186649A1 (de) | 2023-10-05 |
Family
ID=85778817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2023/057294 WO2023186649A1 (de) | 2022-03-29 | 2023-03-22 | Verfahren zur bestimmung von kameraergänzungsvorschlägen für eine überwachungsvorrichtung, computerprogramm, speichermedium und überwachungsvorrichtung |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102022203062A1 (de) |
WO (1) | WO2023186649A1 (de) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0714081B1 (de) * | 1994-11-22 | 2001-06-27 | Sensormatic Electronics Corporation | Video-Überwachungssystem |
US20050244033A1 (en) * | 2004-04-30 | 2005-11-03 | International Business Machines Corporation | System and method for assuring high resolution imaging of distinctive characteristics of a moving object |
US20150264258A1 (en) * | 2014-03-11 | 2015-09-17 | De Vroome Poort B.V. | Autonomous camera system for capturing sporting events |
US20160191856A1 (en) * | 2012-11-20 | 2016-06-30 | Pelco, Inc. | Method and System for Metadata Extraction From Master-Slave Cameras Tracking System |
US20190149747A1 (en) * | 2017-11-15 | 2019-05-16 | Axis Ab | Splitting of a wide angle view |
KR102024695B1 (ko) | 2017-11-20 | 2019-09-25 | (주)포스트미디어 | 감시카메라 배치 모델링 시스템 및 방법 |
US20190294889A1 (en) * | 2018-03-26 | 2019-09-26 | Nvidia Corporation | Smart area monitoring with artificial intelligence |
US20200117946A1 (en) * | 2017-06-30 | 2020-04-16 | Hangzhou Hikvision Digital Technology Co., Ltd. | Method, apparatus and application system for extracting a target feature |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11575837B2 (en) | 2020-04-27 | 2023-02-07 | Canon Kabushiki Kaisha | Method, apparatus and computer program for generating and displaying a heatmap based on video surveillance data |
-
2022
- 2022-03-29 DE DE102022203062.1A patent/DE102022203062A1/de active Pending
-
2023
- 2023-03-22 WO PCT/EP2023/057294 patent/WO2023186649A1/de unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0714081B1 (de) * | 1994-11-22 | 2001-06-27 | Sensormatic Electronics Corporation | Video-Überwachungssystem |
US20050244033A1 (en) * | 2004-04-30 | 2005-11-03 | International Business Machines Corporation | System and method for assuring high resolution imaging of distinctive characteristics of a moving object |
US20160191856A1 (en) * | 2012-11-20 | 2016-06-30 | Pelco, Inc. | Method and System for Metadata Extraction From Master-Slave Cameras Tracking System |
US20150264258A1 (en) * | 2014-03-11 | 2015-09-17 | De Vroome Poort B.V. | Autonomous camera system for capturing sporting events |
US20200117946A1 (en) * | 2017-06-30 | 2020-04-16 | Hangzhou Hikvision Digital Technology Co., Ltd. | Method, apparatus and application system for extracting a target feature |
US20190149747A1 (en) * | 2017-11-15 | 2019-05-16 | Axis Ab | Splitting of a wide angle view |
KR102024695B1 (ko) | 2017-11-20 | 2019-09-25 | (주)포스트미디어 | 감시카메라 배치 모델링 시스템 및 방법 |
US20190294889A1 (en) * | 2018-03-26 | 2019-09-26 | Nvidia Corporation | Smart area monitoring with artificial intelligence |
Also Published As
Publication number | Publication date |
---|---|
DE102022203062A1 (de) | 2023-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2297701B1 (de) | Videoanalyse | |
EP3058556B1 (de) | Verfahren und vorrichtung zur automatisierten waldbrandfrüherkennung mittels optischer detektion von rauchwolken | |
DE112005000929B4 (de) | Automatisches Abbildungsverfahren und Vorrichtung | |
EP1061851B1 (de) | Verfahren und vorrichtung zur auswertung eines bewegungsmusters | |
DE102008039130A1 (de) | Durch ein neurales Netzwerk gesteuertes automatisches Verfolgungs- und Erkennungssystem und Verfahren | |
WO2009003793A2 (de) | Vorrichtung zur erkennung und/oder klassifizierung von bewegungsmustern in einer bildsequenz von einer überwachungsszene, verfahren sowie computerprogramm | |
DE19732153A1 (de) | Vorrichtung zum Messen der Anzahl passierender Personen und ein diese verwendendes Handhabungssystem | |
DE3841387A1 (de) | Verfahren und vorrichtung zum ueberwachen eines sich bewegenden objekts | |
DE102018118423A1 (de) | Systeme und verfahren zur verfolgung bewegter objekte in der videoüberwachung | |
DE102007024868A1 (de) | Bildverarbeitungsvorrichtung, Überwachungssystem, Verfahren zur Erzeugung eines Szenenreferenzbildes sowie Computerprogramm | |
DE112013005195T5 (de) | Verfahren und Vorrichtung zur Auswahl eines Videoanalyse-Algorithmus, basierend auf historischen Ereignisdaten | |
DE102010003336A1 (de) | Verfahren zur Visualisierung von Aktivitätsschwerpunkten in Überwachungsszenen | |
EP0825543A2 (de) | Verfahren und Vorrichtung zur Mustererfassung | |
DE10042935B4 (de) | Verfahren zum Überwachen eines vorbestimmten Bereichs und entsprechendes System | |
EP3557549A1 (de) | Verfahren zur bewertung eines bewegungsereignisses | |
DE102016222134A1 (de) | Videoanalyseeinrichtung für eine Überwachungsvorrichtung und Verfahren zur Erzeugung eines Einzelbildes | |
DE10049366A1 (de) | Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System | |
WO2023186649A1 (de) | Verfahren zur bestimmung von kameraergänzungsvorschlägen für eine überwachungsvorrichtung, computerprogramm, speichermedium und überwachungsvorrichtung | |
DE102006060612B4 (de) | Verfahren zur Überwachung von Zielobjekten und Multispektralkamera dazu | |
EP3904827A1 (de) | Dynamische routenplanung einer drohnenbasierten überprüfung von streckeneinrichtungen einer strecke | |
DE102007001738B4 (de) | Verfahren und Computerprogrammprodukt zur Blickerfassung | |
WO2023186652A1 (de) | Verfahren zum betreiben einer überwachungsvorrichtung, computerprogramm, speichermedium und überwachungsvorrichtung | |
DE102022202668A1 (de) | Verfahren zur Überwachung eines Überwachungsbereichs, Computerprogramm, Speichermedium und Vorrichtung | |
EP1434184B1 (de) | Steuerung eines Multikamera-Systems | |
WO2023186650A1 (de) | Verfahren zum betreiben einer überwachungsvorrichtung, computerprogramm, speichermedium und überwachungsvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23713879 Country of ref document: EP Kind code of ref document: A1 |