EP4305610A1 - Verfahren, computerprogramm, speichermedium, personendetektor und überwachungsanordnung zur personenerkennung - Google Patents

Verfahren, computerprogramm, speichermedium, personendetektor und überwachungsanordnung zur personenerkennung

Info

Publication number
EP4305610A1
EP4305610A1 EP22713340.2A EP22713340A EP4305610A1 EP 4305610 A1 EP4305610 A1 EP 4305610A1 EP 22713340 A EP22713340 A EP 22713340A EP 4305610 A1 EP4305610 A1 EP 4305610A1
Authority
EP
European Patent Office
Prior art keywords
person
image data
surveillance area
area
restricted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP22713340.2A
Other languages
English (en)
French (fr)
Inventor
Gregor Blott
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP4305610A1 publication Critical patent/EP4305610A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • G08B29/185Signal analysis techniques for reducing or preventing false alarms or for enhancing the reliability of the system
    • G08B29/186Fuzzy logic; neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion

Definitions

  • the invention relates to a method for domain-specific person recognition and/or person recognition, a surveillance area being monitored with a plurality of cameras and the cameras each providing image data for a surveillance area section.
  • Methods of image-based or video-based person recognition and/or tracking are used in many areas of everyday life.
  • a person recognition is also used in the retail sector, for example to analyze the flow of visitors, to protect against theft and/or to prevent vandalism.
  • Such methods are often based on machine learning algorithms, with huge amounts of data being required for reliable application in order to train the respective algorithm for the correct recognition features.
  • the publication DE 10 2019 205 221 A1 which probably represents the closest prior art, describes an anonymization device for generating anonymized images.
  • a surveillance area is video-monitored with a camera and surveillance images are provided.
  • a processing module is designed to anonymize the provided images based on a generating generic network. Disclosure of Invention
  • the invention relates to a method for domain-specific person recognition with the features of claim 1.
  • the invention also relates to a computer program, a machine-readable storage medium with the computer program, a person detector and a monitoring arrangement. Preferred and/or advantageous embodiments result from the dependent claims, the description and the accompanying figures.
  • the invention relates to a method for person identification and/or person recognition, in particular for domain-specific person identification.
  • domain-specific means recognizing and/or tracking people who are in a scene
  • the method is used to identify and/or track people in front of scenes, backgrounds and/or surroundings that are changeable, unclear and/or inconsistent.
  • the person recognition forms in particular an image-based and/or video-based person recognition.
  • the person detection is designed to monitor a surveillance area.
  • the method for person recognition is designed in the surveillance area sub-area, in retail and/or in shops.
  • the identification of persons can include the analysis and/or detection of streams of visitors, theft and/or vandalism.
  • a surveillance area is monitored with one or more cameras.
  • at least ten, preferably at least fifty, surveillance cameras are arranged to monitor the surveillance area.
  • the cameras form and/or are part of a camera network.
  • the cameras are designed to provide image data in each case.
  • the image data each include recordings, images and/or videos of the section monitored and/or recorded by the respective camera.
  • the cameras are each designed to record a surveillance area section and/or to monitor, in particular to provide image data for this purpose.
  • the surveillance area sections are preferably overlapping at least in pairs. Alternatively, the monitoring area sections can be non-overlapping and a combination of non-overlapping and overlapping.
  • the image data are provided to a person detector.
  • the person detector can form a software module or a hardware module.
  • the person detector has a detection mode and an adaptation mode. In particular, you can switch between the detection mode and the adaptation mode.
  • the detection mode forms the mode for permanent and/or routine monitoring of the monitored area and/or for person detection in use.
  • the adaptation mode is designed in particular to adapt, train and/or fine-tune the person detector to the respective application.
  • the adaptation mode can be carried out, for example, after the cameras have been installed and/or mounted and/or the person detector has been put into operation. Alternatively and/or additionally, the adaptation mode will be used repeatedly, for example for the cyclical improvement and/or adaptation of the person detector.
  • the person detector is designed to analyze the image data. By analyzing the image data by the person detector, people in the surveillance area are recognized, tracked and/or identified.
  • the analysis of the image data by the person detector is based on an ML algorithm (machine learning).
  • a deep learning algorithm for example based on a neural network, is understood as an ML algorithm.
  • the ML algorithm is designed to detect and classify features, in particular personal features, based on the image data and/or features in the image data.
  • the original model is to be understood, for example, as an original or initial conception and/or a trained neural network.
  • the original model is a model trained and/or implemented in a laboratory and/or by the manufacturer for person recognition, in particular tracking, based on image data.
  • the original model forms the basis of the neural network.
  • the person detector for analyzing the image data and/or recognizing people is multi-camera and/or for Trained to track people across surveillance sections of the area.
  • the monitoring area is temporarily restricted to a limited monitoring area.
  • the monitoring area is limited to the restricted monitoring area for the duration of the adaptation mode.
  • the restricted monitoring area forms a subset of the monitoring area.
  • the limited surveillance area is designed in particular for the targeted and/or restrictive movement control of the people in the surveillance area.
  • the restricted surveillance area is designed so that people can and/or want to move only in the restricted surveillance area.
  • the limited surveillance area is a subset of the surveillance area sections.
  • the limited surveillance area is used for the traceability, order and/or guidance of people, especially around them across cameras and/or
  • the area of the restricted monitoring area is at most 70%, in particular at most 50%, in particular at most 40% of the area of the monitoring area.
  • the cameras record and/or provide image data from the limited surveillance area.
  • the image data shows the or a section of the restricted surveillance area.
  • the original model is retrained, adapted, finely adjusted, fitted and/or domain-adapted. The original model thus becomes an application model.
  • the original model is retrained for the application model, finely adjusted, adapted to the surveillance area and/or use, with the original model and/or laboratory model being adapted to the application, the domain, and the on-site conditions.
  • the original model is adapted to the installation parameters of the cameras, for example installation height, camera parameters, network density, background, scenery and/or variety of objects.
  • the domain adaptation can in particular take place online, for example for retraining on the manufacturer's resources (computer network).
  • the ML algorithm is executed based on the application model and/or the ML algorithm is adapted and/or adapted to the application model.
  • the ML algorithm is used, in particular together with the application model, to analyze the image data, in particular the image data of the unrestricted surveillance area and/or the surveillance area sections.
  • the ML algorithm adapted to the application model extends the original laboratory-trained and/or implemented model to the application model which is specific and/or adapted to the applications, scenery and/or the surrounding area.
  • the invention is based on the idea that an original model for person detection in a surveillance area at a customer and/or user must be adapted to the environment and/or domain-specifically fine-tuned, with a simple, targeted, controlled by restricting the surveillance area to a limited surveillance area and resource-saving retraining and/or fine adjustment is possible.
  • Targeted control of object movements and/or human movements in a limited surveillance area can be used to make basic assumptions about human movement during retraining or
  • the monitoring area is restricted in order to specify a target trajectory for people in relation to the restricted monitoring area.
  • the limited monitoring area is designed and/or set up to guide people along the target trajectory, with the target trajectory describing a two-dimensional path or path.
  • the surveillance area is limited to the limited surveillance area so that people are in the surveillance area have to follow a predetermined path or the target trajectory, so that the people move the monitored area sections in a targeted manner and/or can be tracked across cameras.
  • the traceability, disappearance and/or appearance of persons in the monitored area sections can be controlled, regulated and/or specified in this way.
  • the limited monitoring area is designed to be free of branches, for example so that the target trajectory and/or flows of people do not divide, flow together or mix.
  • This refinement is based on the consideration that by specifying a target trajectory, the original model can be fine-tuned, adapted and/or retrained in a targeted and efficient manner in relation to the application model.
  • the limited monitoring area and/or the setpoint trajectory includes, defines and/or establishes points of change.
  • change points are part of the monitoring area and/or the restricted monitoring area.
  • people are encouraged, guided and/or instructed to change direction and/or pivot their view.
  • change points are inflection points, curve areas and/or waypoints at which people have to turn, pan, turn, turn or change the direction of movement.
  • Change of direction means, for example, a change in the movement of people, for example turning left or turning right.
  • a view panning is preferably to be understood as a rotation and/or pivoting of a person about a longitudinal axis and/or height, in particular as a panning of the head and/or the line of sight.
  • the restricted monitoring area and/or the target trajectory is designed to specify one-lane passenger traffic and/or to restrict passenger traffic to one lane.
  • the limited monitoring area and/or the target trajectory is designed with a minimum distance between two successive people and/or avoid mutual occlusion of people in the image data and/or cameras.
  • the restricted monitoring area is selected in such a way that one person cannot move next to another person in the same direction, in particular the preferred direction.
  • a minimum distance can be specified and/or regulated, for example, by markings or a lock.
  • mutual occlusion by the target trajectory and/or limited surveillance area is ruled out, so that all relevant recordings and/or views are available for people in image data without relevant data and/or views being lost due to mutual occlusion.
  • the monitoring area is restricted to the limited monitoring area in particular by means of guide elements.
  • the guide elements are arranged in particular in the monitoring area.
  • the guiding elements are, for example, obstacles, barriers, furniture, shelves, markings, stands, advertising material or placed goods.
  • the guide elements are camouflaged, domain-adapted, application-adapted and/or scene-adapted.
  • such guide elements are designed so that people do not see them as explicit guide elements and/or their function as a guide element is not visible.
  • guide elements can be designed as objects of the domain, the surveillance area and/or the scene, for example as shelves, arrangement of goods for advertising purposes and/or advertising displays. This refinement is based on the idea of monitoring people for optimal training and/or fine-tuning the original model in typical and/or non-artificial situations and/or behavior patterns, for example to be able to monitor vandalism and theft in routine operation.
  • An embodiment of the invention provides that a restriction model is determined.
  • the restriction model specifies, describes and/or indicates, like the course of the target trajectory, the restricted monitoring area and/or the guide elements are to be arranged.
  • the restriction model is designed as a plan for the arrangement of and/or the course of the restricted surveillance area.
  • the restriction model is determined based on machine learning and/or a neural network, for example.
  • the constraint model is based on monitoring area parameters, a
  • a camera parameter, a camera distribution, the original model and/or the application of the method is determined and/or determined.
  • a plan of the surveillance area and/or an arrangement of goods in the surveillance area is provided as a surveillance area parameter.
  • Camera parameters can be, for example, installation parameters or internal parameters such as focal length and/or focus.
  • the camera distribution indicates, for example, which camera images which monitoring area sections and/or whether there are overlaps between the monitoring area sections.
  • the restriction model is preferably selected in such a way that, based on the framework conditions and/or parameters, an effective restriction with regard to the restricted monitoring area and/or arrangement of the guide elements is proposed, so that users do not have to make aimless restrictions.
  • the domain adaptation in particular the adaptation of the original model to the application model, takes place based on metadata and/or includes metadata.
  • Metadata are, for example, a model of the surveillance area, 3-D or 2-D model, a model of the limited surveillance area, the intended target trajectory and/or its course, the arrangement of the guide elements and/or camera parameters. Based on the use of the metadata, a particularly optimized and rapid adaptation of the original model to the application model is possible.
  • the restricted surveillance area is designed to provide different views as image data for a person in the restricted surveillance area.
  • the different views can be recorded and/or made available as image data from a camera, alternatively the limited surveillance area arranged and/or designed to provide the different views of the people for image data from different cameras.
  • an embodiment of the invention provides that the adaptation mode is executed and/or used regularly.
  • the adaptation mode is carried out, for example, daily, weekly or annually.
  • the adaptation mode can be executed and/or scheduled if there are changes in the monitored area, for example in the range of goods, interior design, the scenery and/or the application. For example, it can be checked and/or ensured in this way that the application model remains consistent over time and/or has grown or developed with its application.
  • a further subject matter of the invention is a computer program for execution on a computer, a person detector and/or a computer.
  • the computer program is designed and/or set up to carry out and/or support the method as previously described when it is executed.
  • a further object of the invention is a machine-readable storage medium, for example a DVD or a hard disk memory.
  • the machine-readable storage medium is a non-volatile storage medium.
  • the computer program is stored on the storage medium.
  • a person detector forms a further object of the invention.
  • the person detector is designed or set up in particular to carry out and/or use the method according to the invention.
  • the person detector is designed to identify and/or track one or more people in a surveillance area.
  • the person detector is designed in particular for use in the retail sector, in particular for monitoring a shopping area, a business area and/or retail.
  • the person detector is connected to a plurality of cameras and/or the person detector is provided with image data from the cameras.
  • the image data each show a surveillance area section recorded by the respective camera.
  • the people detector can have an adaptation mode and assume and/or is operable in a detection mode.
  • the person detector In the adaptation mode, the person detector is designed to adapt, fine-tune and/or retrain the original model of the person detector in a domain-specific manner, based on image data of a limited surveillance area, for example limited by guide elements. In particular, the domain-specific adaptation takes place for tracking and/or detecting people in the surveillance area across cameras.
  • the person detector is designed to apply an ML algorithm using the application model in the detection mode. The application of the ML algorithm together with the application model to the image data was carried out for the analysis of the image data, a person detection and/or a person tracking in the surveillance area.
  • the person detector has a suggestion module and/or the method has a suggestion mode.
  • the suggestion module can in particular include an input module and/or an output module, in particular a display module.
  • the output module is preferably a screen.
  • the suggestion mode can include an input mode and/or an output mode.
  • the suggestion module or the suggestion mode is designed, in particular, based on surveillance area parameters, for example a geometry, a course and/or a plan of the surveillance area, scene information, for example arrangement of goods, application information, metadata, a course and/or an arrangement of the restricted Propose monitoring area to determine and / or display, especially display on a screen. For example, the placement and/or arrangement of guide elements and/or a course of the restricted monitoring area is displayed by the suggestion module or the suggestion mode, so that this can be implemented in reality for effective model adaptation.
  • a further subject matter of the invention is a surveillance arrangement with at least one camera and/or a camera network comprising a plurality of cameras and the person detector.
  • the cameras and/or the camera network is connected to the person detector in terms of data technology, so that the image data of the cameras and/or the camera network are made available to the person detector.
  • Figures la, b and c an exemplary surveillance area for domain-specific person detection.
  • FIG. 1a shows an example of a map of a surveillance area 1, which is video-monitored by means of a plurality of cameras 2a, b, c, d.
  • the cameras 2a, b, c, d each record image data for a monitored area section 3a, b, c, d, the image data being provided to a person detector.
  • the person detector is, for example, part of the monitoring device for monitoring the monitored area 1.
  • Surveillance area sections 2a,b,c,d are arranged to overlap with adjacent surveillance area sections.
  • the surveillance area is monitored domain-specifically for persons using the person detector.
  • the person detector is designed to recognize and/or track people in the surveillance area, specifically the scenery and the backgrounds in the image data.
  • the person detector and/or the person recognition is based on an original model and the application of an ML algorithm.
  • the original model is, for example, the model for person recognition based on general and/or manufacturer-implemented training.
  • the original model For reliable monitoring and/or person recognition, the original model must be adapted, finely adjusted, retrained and/or adapted to the applications, domain, scenery and/or circumstances at the user.
  • the original model is trained to become the application model in the monitoring area 1, with a limited monitoring area 4 being temporarily generated for this purpose.
  • the person detector works and/or the person recognition takes place using the application model.
  • FIG. 1b shows an example of a limited monitoring area 4 for the monitoring area from FIG.
  • the target trajectory 5 and / or the limited monitoring area 4 are arranged and / or designed, people from
  • FIG. 1c shows an example of a schematic plan of the monitored area 1 from FIG. 1a, b.
  • Goods displays 6, for example shelves, are arranged in the monitored area.
  • Guide elements 8a, b, c, d, e are arranged in order to specify a path from an entrance 7a to an exit 7b for the persons in the form of the desired trajectory 5.
  • the guide elements 8a, b, c, d, e are and/or are arranged during the adaptation mode.
  • the guide element 8a is designed as a temporary structural measure in the form of a barrier, specifically using barrier tape and/or an artificial construction site.
  • the guide element 8b is, for example, an erected pallet with carpeting, the guide element 8c forming an erected crate.
  • the guide element 8d is an erected advertising stand and the guide element 8e is an advertising banner.
  • the guide elements 8a, b, c, d, e are designed to force people to follow the target trajectory, with the guide elements 8a, b, c, d, e preferably being designed to be inconspicuous and/or to blend in with the surroundings.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zur domänenspezifischen Personenerkennung, wobei ein Überwachungsbereich (1) mittels einer oder einer Mehrzahl an Kameras (2a, b, c, d) überwacht wird, wobei die Kameras (2a, b, c, d) jeweils für einen Überwachungsbereichsabschnitt (3a, b, c, d) Bilddaten bereitstellen, wobei ein Personendetektor in einem Detektionsmodus und in einem Adaptionsmodus betreibbar ist, wobei der Personendetektor zum Analysieren der Bilddaten und zum Erkennen von Personen in dem Überwachungsbereich (1) einen auf einem Ursprungsmodell basierenden Machine-Learning-Algorithmus aufweist, wobei für den Adaptionsmodus der Überwachungsbereich (1) temporär zu einem beschränkten Überwachungsbereich (4) eingeschränkt wird, wobei von dem beschränkten Überwachungsbereich (4) die Bilddaten aufgenommen werden, wobei basierend auf den Bilddaten des beschränkten Überwachungsbereichs (4) eine Domänenanpassung des Ursprungsmodell zu einem Anwendungsmodell erfolgt, wobei in dem Detektionsmodus der auf das Anwendungsmodell adaptierte Machine-Learning-Algorithmus zur Analyse der Bilddaten, zur Personendetektion und/oder Personenverfolgung angewendet wird

Description

Beschreibung
Titel
Verfahren, Computerprogramm, Speichermedium, Personendetektor und
Überwachungsanordnung zur Personenerkennung
Stand der Technik
Die Erfindung betrifft ein Verfahren zur domänenspezifischen Personenerkennung und/oder Personenwidererkennung, wobei ein Überwachungsbereich mit einer Mehrzahl an Kameras überwacht wird und die Kameras für einen Überwachungsbereichsabschnitt jeweils Bilddaten bereitstellen.
Methoden der bildbasierten bzw. videobasierten Personenerkennung und/oder Verfolgung finden in vielen Bereichen des täglichen Lebens Einsatz. Insbesondere findet eine solche Personenerkennung auch im Einzelhandelsbereich Anwendung, beispielsweise zur Analyse von Besucherströmen, zum Diebstahlschutz und/oder zur Vandalismusvermeidung. Häufig basieren derartige Methoden auf Algorithmen des Machine Learning (dt. Machinelles Lernen), wobei zur sicheren Anwendung riesige Datenmengen benötigt werden, um den jeweiligen Algorithmus auf richtige Merkmale zur Wiedererkennung zu trainieren.
Die Druckschrift DE 10 2019 205 221 Al, die wohl den nächstkommenden Stand der Technik bildet, beschreibt eine Anonymisierungseinrichtung zur Generierung anonymisierter Bilder. Hierzu wird ein Überwachungsbereich mit einer Kamera videotechnisch überwacht und es werden Überwachungsbilder bereitgestellt. Ein Bearbeitungsmodul ist ausgebildet, die bereitgestellten Bilder basierend auf einem erzeugenden generischen Netzwerk zu anonymisieren. Offenbarung der Erfindung
Die Erfindung betrifft ein Verfahren zur domänenspezifischen Personenerkennung mit den Merkmalen des Anspruchs 1. Ferner betrifft die Erfindung ein Computerprogramm, ein maschinenlesbares Speichermedium mit dem Computerprogramm einen Personendetektor und eine Überwachungsanordnung. Bevorzugte und/oder vorteilhafte Ausführungen ergeben sich aus den Unteransprüchen, der Beschreibung und den beigefügten Figuren.
Die Erfindung betrifft ein Verfahren zur Personenerkennung und/oder Personenwidererkennung, insbesondere zur domänenspezifischen Personenerkennung. Als domänenspezifisch wird insbesondere verstanden, Personen zu erkennen und/oder zu verfolgen, die sich in einer Szene,
Umgebung und/oder vor einem Hintergrund aufhalten, wobei die Szene, der Hintergrund und/oder die Umgebung sowie Kamerabilder einer anderen Kamerapose als Domäne verstanden werden. Das Verfahren dient der Erkennung und/oder Verfolgung von Personen vor Szenerien, Hintergründen und/oder Umgebungen, die veränderlich, unübersichtlich und/oder uneinheitlich sind. Die Personenerkennung bildet insbesondere eine bildbasierte und/oder videobasierte Personenerkennung. Die Personenerkennung ist zur Überwachung eines Überwachungsbereiches ausgebildet. Insbesondere ist das Verfahren zur Personenerkennung im Überwachungsbereichteilsbereich, im Einzelhandel und/oder in Geschäften ausgebildet. Insbesondere kann die Personenerkennung das Analysieren und/oder Detektieren von Besucherströmen, Diebstählen und/oder Vandalismus umfassen.
Ein Überwachungsbereich wird mit einer oder einer Mehrzahl an Kameras überwacht. Insbesondere sind mindestens zehn, vorzugsweise mindestens fünfzig Überwachungskameras zu Überwachung des Überwachungsbereichs angeordnet. Die Kameras bilden und/oder sind Teil eines Kameranetzwerkes.
Die Kameras sind ausgebildet, jeweils Bilddaten bereitzustellen. Die Bilddaten umfassen jeweils Aufnahmen, Bilder und/oder Videos des von der jeweiligen Kamera überwachten und/oder aufgenommenen Abschnitts. Die Kameras sind ausgebildet jeweils einen Überwachungsbereichsabschnitt aufzunehmen und/oder zu überwachen, insbesondere dafür Bilddaten bereitzustellen. Die Überwachungsbereichsabschnitte sind vorzugsweise mindestens paarweise überlappend. Alternativ können die Überwachungsbereichsabschnitte überlappungsfrei und eine Kombination von überlappungsfrei und überlappend darstellen.
Die Bilddaten sind einem Personendetektor bereitgestellt. Der Personendetektor kann ein Softwaremodul oder ein Hardwaremodul bilden. Der Personendetektor weist einen Detektionsmodus und einen Adaptionsmodus auf. Insbesondere kann zwischen dem Detektionsmodus und Adaptionsmodus gewechselt werden. Insbesondere bildet der Detektionsmodus den Modus zur dauerhaften und/oder routinemäßigen Überwachung des Überwachungsbereiches und/oder zur Personenerkennung im Einsatz. Der Adaptionsmodus ist insbesondere ausgebildet, den Personendetektor auf die jeweilige Anwendung zu adaptieren, zu trainieren und/oder feinzujustieren. Der Adaptionsmodus kann beispielsweise nach einer Installierung und/oder Montage der Kameras und/oder Inbetriebnahme des Personendetektors ausgeführt werden. Alternativ und/oder ergänzend wird der Adaptionsmodus wiederholt eingesetzt sein, beispielsweise zur zyklischen Verbesserung und/oder Anpassung des Personendetektors.
Der Personendetektor ist zum Analysieren der Bilddaten ausgebildet. Durch das Analysieren der Bilddaten durch den Personendetektor werden Personen im Überwachungsbereich erkannt, verfolgt und/oder bestimmt. Das Analysieren der Bilddaten durch den Personendetektor erfolgt basierend auf einem ML- Algorithmus (Machine Learning). Insbesondere wird als ML-Algorithmus ein Deep-Learning-Algorithmus, beispielsweise basierend auf einem neuronalen Netz, verstanden. Der ML-Algorithmus ist ausgebildet, basierend auf den Bilddaten und/oder in den Bilddaten Merkmale, insbesondere Personenmerkmale, zu detektieren und zu klassifizieren. Das Ursprungsmodell ist beispielsweise als eine ursprüngliche bzw. initiale Konzeption und/oder trainiertes neuronales Netz zu verstehen. Beispielsweise ist das Ursprungsmodell einem Labor und/oder beim Hersteller trainiertes und/oder implementiertes Modell zur Personenerkennung, insbesondere Verfolgung, basierend auf Bilddaten. Das Ursprungsmodell bildet im Speziellen die Basis des neuronalen Netzes. Insbesondere ist der Personendetektor zum Analysieren der Bilddaten und/oder Erkennen von Personen kameraübergreifend und/oder zum Verfolgen von Personen über die Überwachung Bereichsabschnitte hinweg ausgebildet.
Für und/oder während des Adaptionsmodus wird der Überwachungsbereich temporär zu einem beschränkten Überwachungsbereich eingeschränkt. Beispielsweise wird der Überwachungsbereich für die Dauer des Adaptionsmodus zu dem beschränkten Überwachungsbereich eingeschränkt.
Der beschränkte Überwachungsbereich bildet insbesondere eine Teilmenge des Überwachungsbereichs. Der beschränkte Überwachungsbereich ist insbesondere zur gezielten und/oder einschränkenden Bewegungssteuerung der Personen im Überwachungsbereich ausgebildet. Beispielsweise ist der beschränkte Überwachungsbereich ausgebildet, dass Personen sich lediglich im beschränkten Überwachungsbereich bewegen können und/oder wollen. Insbesondere ist der beschränkte Überwachungsbereich eine Teilmenge der Überwachungsbereichsabschnitte. Der beschränkte Überwachungsbereich dient der Nachverfolgbarkeit, Ordnung und/oder Führung der Personen, insbesondere um diese kameraübergreifend und/oder
Überwachungsbereichsabschnittsübergreifend eindeutig verfolgen zu können und/oder analysieren zu können. Insbesondere beträgt die Fläche des beschränkte Überwachungsbereich maximal 70 %, im Speziellen maximal 50%, insbesondere maximal 40 % der Fläche des Überwachungsbereichs. Im Adaptionsmodus werden von dem beschränkten Überwachungsbereich durch die Kameras Bilddaten aufgenommen und/oder bereitgestellt. Die Bilddaten zeigen den oder einen Abschnitt des beschränkten Überwachungsbereichs. Basierend auf den Bilddaten des beschränkten Überwachungsbereichs wird das Ursprungsmodell nachtrainiert, adaptiert, feinjustiert, angepasst und/oder domänenangepasst. Das Ursprungsmodell wird so zu einem Anwendungsmodell. Insbesondere das Ursprungsmodell, im Speziellen Labormodell, zu dem Anwendungsmodell nachtrainiert, feinjustiert, an den Überwachungsbereich und/oder Einsatz angepasst, wobei das Ursprungsmodell und/oder Labormodell an die Anwendung, die Domäne, die Gegebenheiten vor Ort angepasst wird. Beispielsweise wird das Ursprungsmodell an Montageparameter der Kameras, beispielsweise Montagehöhe, Kameraparameter, Netzdichte, Hintergrund, Szenerie und/oder Objektvielfalt angepasst. Das Domänenanpassen kann insbesondere online erfolgen, beispielsweise zum Nachtrainieren auf Ressourcen (Rechnernetz) des Herstellers. Im Detektionsmodus wird der ML-Algorithmus basierend auf dem Anwendungsmodell ausgeführt und/oder der ML-Algorithmus an das Anwendungsmodell adaptiert und/oder angepasst. Im Detektionsmodus wird der ML-Algorithmus, insbesondere zusammen mit dem Anwendungsmodell, zur Analyse der Bilddaten, insbesondere der Bilddaten des uneingeschränkten Überwachungsbereichs und/oder der Überwachungsbereichsabschnitte angewendet. Durch die Analyse und/oder durch die Anwendung des ML- Algorithmus zusammen mit dem Anwendungsmodell erfolgt eine Personendetektion, beispielsweise Wiedererkennung, und/oder eine kameraübergreifende Personenverfolgung. Der ML-Algorithmus adaptiert an das Anwendungsmodell erweitert den labortrainierten und/oder implementierten Ursprungsmodell zu dem Anwendungsmodell, welches spezifisch und/oder angepasst an die Anwendungen, Szenerie und/oder den Umgebungsbereich ist.
Die Erfindung basiert auf der Überlegung, dass ein Ursprungsmodell zur Personenerkennung in einem Überwachungsbereich bei einem Kunden und/oder Anwender an die Umgebung adaptiert und/oder domänenspezifisch feinjustiert werden muss, wobei durch ein einschränken des Überwachungsbereich auf einen beschränkten Überwachungsbereich ein einfaches, gezieltes, gesteuertes und ressourcenschonendes Nachtrainieren und/oder Feinjustieren möglich ist. Durch gezielte Steuerung von Objektbewegungen und/oder Personenbewegungen auf einen beschränkten Überwachungsbereich können Grundannahmen zur Personenbewegung bei dem Nachtrainieren bzw.
Adaptieren angewendet werden. Insbesondere ist es möglich, alle benötigten Ansichten und/oder Parameter durch Festlegung des beschränkten Überwachungsbereichs zum nachtrainieren bereitzustellen. Ferner wird so eine verbesserte Zuordnung durch eine Ground Truth ermöglicht.
Insbesondere ist es vorgesehen, dass der Überwachungsbereich zur Vorgabe einer Solltrajektorie für Personen zum beschränkten Überwachungsbereich eingeschränkt ist. Mit anderen Worten ist der beschränkte Überwachungsbereich ausgebildet und/oder eingerichtet, Personen entlang der Solltrajektorie zu führen, wobei die Solltrajektorie einen zweidimensionalen Weg oder Pfad beschreibt. Der Überwachungsbereich ist beispielsweise so zum beschränkten Überwachungsbereich eingeschränkt, dass Personen im Überwachungsbereich einem vorgegebenen Weg bzw. der Solltrajektorie folgen müssen, sodass die Personen gezielt die Überwachungsbereichsabschnitte bewegt und/oder kameraübergreifend verfolgbar ist. Die Nachverfolgbarkeit, ein Verschwinden und/oder Erscheinen von Personen in den Überwachungsbereichsabschnitten kann so gesteuert, geregelt und/oder vorgegeben werden. Insbesondere ist der beschränkte Überwachungsbereich ausgebildet, frei von Verzweigungen zu seien, beispielsweise, dass sich die Solltrajektorie und/oder Personenströme nicht teilen, zusammenfließen oder vermischen. Diese Ausgestaltung basiert auf der Überlegung, dass durch die Vorgabe einer Solltrajektorie gezielt und effizient das Ursprungsmodell zu dem Anwendungsmodell feinjustiert, adaptiert und/oder nachtrainiert werden kann.
Besonders bevorzugt ist es, dass der beschränkte Überwachungsbereich und/oder die Solltrajektorie Veränderungspunkte umfasst, definiert und/oder festlegt. Veränderungspunkte sind insbesondere Teil des Überwachungsbereichs und/oder des beschränkten Überwachungsbereichs. An Veränderungspunkten werden Personen angeregt, geführt und/oder ihnen wird vorgegeben eine Richtungsänderung und/oder eine Ansichtsschwenkung durchzuführen. Beispielsweise sind Veränderungspunkte Knickpunkte, Kurvenbereiche und/oder Wegpunkte an denen Personen sich drehen, schwenken, abbiegen, wenden oder Bewegungsrichtung ändern müssen. Richtungsänderung meint beispielsweise die Änderung der Personenbewegung, beispielsweise links abbiegen oder rechts abbiegen. Eine Ansichtsschwenkung ist vorzugsweise als eine Drehung und/oder Schwenkung einer Person um eine Längsachse und/oder Höhe zu verstehen, insbesondere als ein Schwenken des Kopfes und/oder der Blickrichtung. Durch die Ansichtsschwenkung und/oder Richtungsänderung erlaubt der beschränkte Überwachungsbereich und/oder der Veränderungspunkt das Personen in den Bilddaten und/oder Kameras aus unterschiedlichen und/oder spezifisch gewählten Ansichten zu sehen sind, beispielsweise von vorne, von hinten und/oder seitlich.
Im Speziellen ist es vorgesehen, dass der beschränkte Überwachungsbereich und/oder die Solltrajektorie ausgebildet ist, einen einspurigen Personenverkehr vorzugeben und/oder den Personenverkehr auf eine Spur zu beschränken. Alternativ und/oder ergänzend ist der beschränkte Überwachungsbereich und/oder die Solltrajektorie ausgebildet, einen Mindestabstand zwischen zwei aufeinanderfolgenden Personen vorzugeben und/oder ein gegenseitiges Verdecken von Personen in den Bilddaten und/oder Kameras vermeiden. Beispielsweise ist der beschränkte Überwachungsbereich so gewählt, dass sich in diesem eine Person nicht neben einer anderen Person in eine gleiche Richtung, insbesondere Vorzugsrichtung, bewegen kann. Ein Mindestabstand kann beispielsweise durch Markierungen oder eine Schleuse vorgegeben und/oder geregelt werden. Insbesondere ist ein gegenseitiges Verdecken durch die Solltrajektorie und/oder beschränkten Überwachungsbereich ausgeschlossen, sodass für Personen in Bilddaten alle relevanten Aufnahmen und/oder Ansichten vorhanden sind, ohne dass relevante Daten und/oder Ansichten durch gegenseitiges Verdecken verloren gehen.
Das Einschränken des Überwachungsbereich auf den beschränkten Überwachungsbereich erfolgt insbesondere durch Führungselemente. Die Führungselemente werden hierzu insbesondere im Überwachungsbereich angeordnet. Die Führungselemente sind beispielsweise Hindernisse, Absperrungen, Möbel, Regale, Markierungen, Aufsteller, Werbemittel oder platziertes Warenangebot.
Besonders bevorzugt ist es, dass die Führungselemente getarnt, domänenangepasst, anwendungsangepasst und/oder szenenangepasst sind. Insbesondere sind dergleichen Führungselemente gestaltet, dass für Personen diese nicht als explizite Führungselemente ersichtlich sind und/oder deren Funktion als Führungselement nicht ersichtlich. Beispielsweise können Führungselemente so als Objekte der Domäne, des Überwachungsbereiches und/oder der Szene ausgebildet sein, beispielsweise als Regale, Warenanordnung zu Werbezwecken und/oder Werbeaufsteller. Diese Ausgestaltung basiert auf der Überlegung, Personen zum optimalen trainieren und/oder feinjustieren des Ursprungsmodells in situationstypischen und/oder nicht künstlichen Situationen und/oder Verhaltensmustern zu überwachen, beispielsweise um Vandalismus und Diebstahl im Routinebetrieb überwachen zu können.
Eine Ausgestaltung der Erfindung sieht vor, dass ein Einschränkungsmodell ermittelt wird. Das Einschränkungsmodell gibt vor, beschreibt und/oder zeigt an, wie der Verlauf der Solltrajektorie, der beschränkte Überwachungsbereich und/oder die Führungselemente angeordnet werden sollen. Beispielsweise ist das Einschränkungsmodell als ein Plan zur Anordnung der und/oder zum Verlauf des beschränkten Überwachungsbereichs ausgebildet. Das Einschränkungsmodell wird beispielsweise basierend auf maschinellen Lernen und/oder einem neuronalen Netz ermittelt. Das Einschränkungsmodell wird basierend auf Überwachungsbereichsparameter, einem
Überwachungsbereichsmodell, einen Kameraparameter, einer Kameraverteilung, dem Ursprungsmodell und/oder der Anwendung des Verfahrens ermittelt und/oder bestimmt. Beispielsweise ist ein Plan des Überwachungsbereichs und/oder eine Anordnung von Waren im Überwachungsbereich als Überwachungsbereichsparameter vorgesehen. Kameraparameter können beispielsweise Montageparameter oder interne Parameter, wie Brennweite und/oder Focus, sein. Die Kameraverteilung gibt beispielsweise an, welche Kamera welche Überwachungsbereichsabschnitte abbildet und/oder ob Überlappungen zwischen den Überwachungsbereichsabschnitten vorliegen. Das Einschränkungsmodell wird mit anderen Worten vorzugsweise so gewählt, dass basierend auf den Rahmenbedingungen und/oder Parametern eine effektive Einschränkung zum beschränkten Überwachungsbereich und/oder Anordnung der Führungselemente vorgeschlagen wird, so das Anwender nicht ziellos Einschränkungen vornehmen müssen.
Besonders bevorzugt ist es, dass die Domänenanpassung, insbesondere die Anpassung des Ursprungsmodells zum Anwendungsmodell, basierend auf Metadaten erfolgt und/oder Metadaten hinzuziehen. Metadaten sind beispielsweise ein Modell des Überwachungsbereichs, 3-D oder 2-D Modell, ein Modell des beschränkten Überwachungsbereichs, die soll Solltrajektorie und/oder deren Verlauf, die Anordnung der Führungselemente und/oder Kameraparameter. Basierend auf der Verwendung der Metadaten ist eine besonders optimierte und schnelle Anpassung des Ursprungsmodells zum Anwendungsmodell möglich.
Insbesondere ist es vorgesehen, dass der beschränkte Überwachungsbereich ausgebildet ist, für eine Person im beschränkten Überwachungsbereich unterschiedliche Ansichten als Bilddaten bereitzustellen. Die unterschiedlichen Ansichten können als Bilddaten einer Kamera aufgenommen und/oder bereitgestellt werden, alternativ ist der beschränkte Überwachungsbereich angeordnet und/oder ausgebildet, die unterschiedlichen Ansichten der Personen für Bilddaten von unterschiedlicher Kameras bereitzustellen.
Eine Ausgestaltung der Erfindung sieht vor, dass der Adaptionsmodus regelmäßig ausgeführt und/oder angewendet wird. Der Adaptionsmodus wird beispielsweise täglich, wöchentlich oder jährlich durchgeführt. Alternativ und/oder ergänzend kann der Adaptionsmodus ausgeführt werden und/oder eingeplant, wenn Veränderungen im Überwachungsbereich, beispielsweise im Warenangebot, Raumgestaltung, der Szenerie und/oder der Anwendung erfolgen. Beispielsweise kann so überprüft werden und/oder gewährleistet werden, dass das Anwendungsmodell im Verlauf der Zeit stimmig bleibt und/oder seiner Anwendung gewachsen bzw. sich mit entwickelt.
Einen weiteren Gegenstand der Erfindung bildet ein Computerprogramm zur Ausführung auf einem Computer, einem Personendetektor und/oder einem Rechner. Das Computerprogramm ist ausgebildet und/oder eingerichtet, bei seiner Ausführung das Verfahren wie vorher beschrieben auszuführen und/oder zu unterstützen.
Einen weiteren Gegenstand der Erfindung bildet ein maschinenlesbares Speichermedium, beispielsweise eine DVD oder ein Festplattenspeicher. Insbesondere ist das maschinenlesbares Speichermedium ein nicht flüchtiges Speichermedium. Auf dem Speichermedium ist das Computerprogramm gespeichert.
Einen weiteren Gegenstand der Erfindung bildet ein Personendetektor. Der Personendetektor ist insbesondere ausgebildet oder eingerichtet das Verfahren gemäß der Erfindung auszuführen und/oder anzuwenden. Der Personendetektor ist zur Erkennung und/oder zur Verfolgung einer oder mehrerer Personen in einem Überwachungsbereich ausgebildet. Der Personendetektor ist insbesondere zur Anwendung im Retailbereich, insbesondere zur Überwachung eines Einkaufsbereiches, eines Geschäftsbereiches und/oder des Einzelhandels ausgebildet. Der Personendetektor ist mit einer Mehrzahl an Kameras verbunden und/oder dem Personendetektor sind Bilddaten der Kameras bereitgestellt. Die Bilddaten zeigen jeweils einen Überwachungsbereichsabschnitt aufgenommen durch die jeweilige Kamera. Der Personendetektor kann einen Adaptionsmodus und einen Detektionsmodus einnehmen und/oder ist darin betreibbar. Im Adaptionsmodus ist der Personendetektor ausgebildet, basierend auf Bilddaten eines beschränkten Überwachungsbereichs, beispielsweise durch Führungselemente eingeschränkt, das Ursprungsmodell des Personendetektors domänenspezifisch anzupassen, feinzujustieren und/oder nachzutrainieren. Insbesondere erfolgt die domänenspezifische Anpassung zur kameraübergreifenden Verfolgung und/oder Detektion von Personen im Überwachungsbereich. Der Personendetektor ist ausgebildet, im Detektionsmodus einen ML-Algorithmus unter Anwendung des Anwendungsmodells anzuwenden. Die Anwendung des ML-Algorithmus zusammen mit dem Anwendungsmodell auf die Bilddaten erfolgte zur Analyse der Bilddaten, eine Personendetektion und/oder einer Personenverfolgung im Überwachungsbereich.
Besonders bevorzugt ist es, dass der Personendetektor ein Vorschlagsmodul und/oder das Verfahren einen Vorschlagsmodus aufweist. Das Vorschlagsmodul kann insbesondere ein Eingabemodul und/oder ein Ausgabemodul, im Speziellen Anzeigemodul, umfassen. Das Ausgabemodul ist vorzugsweise ein Bildschirm. Der Vorschlagsmodus kann insbesondere einen Eingabemodus und/oder einen Ausgabemodus umfassen. Das Vorschlagsmodul bzw. der Vorschlagsmodus ist ausgebildet, insbesondere basierend auf Überwachungsbereichsparameter, beispielsweise einer Geometrie, einem Verlauf und/oder einem Plan des Überwachungsbereichs, auf Szeneninformationen, beispielsweise Anordnung von Waren, auf Anwendungsinformationen, auf Metadaten einen Verlauf und/oder eine Anordnung des beschränkten Überwachungsbereichs vorzuschlagen, zu ermitteln und/oder anzuzeigen, insbesondere auf einem Bildschirm anzuzeigen. Beispielsweise wird durch das Vorschlagsmodul bzw. den Vorschlagsmodus die Platzierung und/oder Anordnung von Führungselementen und/oder ein Verlauf des beschränkten Überwachungsbereichs angezeigt, sodass diese zur effektiven Modelladaption in die Realität umgesetzt werden kann.
Einen weiteren Gegenstand der Erfindung bildet eine Überwachungsanordnung mit mindestens einer Kamera und/oder einem Kameranetzwerk umfassend mehrere Kameras, und dem Personendetektor. Die Kameras und/oder das Kameranetzwerk ist datentechnisch mit dem Personendetektor verbunden, sodass dem Personendetektor die Bilddaten der Kameras und/oder des Kameranetzwerkes bereitgestellt sind.
Weitere Ausgestaltungen, Wirkungen und Vorteile ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen:
Figuren la, b und c einen beispielhaften Überwachungsbereich zur domänenspezifischen Personenerkennung.
Figur la zeigt beispielhaft eine Karte eines Überwachungsbereichs 1, der mittels mehrerer Kameras 2a, b, c, d videotechnisch überwacht wird. Die Kameras 2a, b, c, d nehmen jeweils für einen Überwachungsbereichsabschnitt 3a, b, c, d Bilddaten auf, wobei die Bilddaten einem Personendetektor bereitgestellt werden. Der Personendetektor ist beispielsweise Teil der Überwachungseinrichtung zur Überwachung des Überwachungsbereichs 1. Die
Überwachungsbereichsabschnitte 2a, b, c, d sind angeordnet, mit benachbarten Überwachungsbereichsabschnitten einen Überlapp aufzuweisen.
Der Überwachungsbereich wird mittels des Personendetektors domänenspezifisch auf Personen überwacht. Der Personendetektor ist ausgebildet, Personen im Überwachungsbereich, im Speziellen der Szenerie und den Hintergründen in den Bilddaten, zu erkennen und/oder zu verfolgen. Der Personendetektor und/oder die Personenerkennung basiert auf einem Ursprungsmodell und der Anwendung eines ML-Algorithmus. Das Ursprungsmodell ist beispielsweise das Modell zur Personenerkennung basierend auf einem allgemeinen und/oder herstellerimplementierten Training. Zur sicheren Überwachung und/oder Personenerkennung muss das Ursprungsmodell auf die Anwendungen, Domäne, Szenerie und/oder Gegebenheiten beim Anwender adaptiert, feinjustiert, nachtrainiert und/oder angepasst werden. Zur effektiven und vielseitigen Anwendung erfolgt ein Training des Ursprungsmodells zum Anwendungsmodell im Überwachungsbereich 1, wobei hierzu ein beschränkter Überwachungsbereich 4 temporär generiert wird. Der Personendetektor arbeitet und/oder die Personenerkennung erfolgt unter Anwendung des Anwendungsmodells. Figur lb zeigt beispielhaft einen beschränkten Überwachungsbereich 4 für den Überwachungsbereich aus Figur 1. Der beschränkte Überwachungsbereich 4 umfasst und/oder definiert eine Solltrajektorie 5. Die Solltrajektorie gibt Personen im Überwachungsbereich einen einzuhaltenden Weg vor, insbesondere zur Einschränkung der Bewegungsfreiheit der Personen auf diesen Bereich. Die Solltrajektorie 5 und/oder der beschränkte Überwachungsbereich 4 sind angeordnet und/oder ausgebildet, Personen von
Überwachungsbereichsabschnitt 3a, b, c, d zu Überwachungsbereichsabschnitt 3a, b, c, d zu führen und/oder von Kamera 2a, b, c, d zu Kamera 2a, b, c, d zu führen, sodass für die Personen jeweils Bilddaten in den verschiedenen Überwachungsbereichsabschnitten 3a, b, c, d zum Generieren des Anwendungsmodells basierend auf dem Ursprungsmodell erhalten werden. Insbesondere kann ein Verlieren und/oder Verwechseln von Personen bei einem Wechsel der Überwachungsbereichsabschnitte 3a, b, c, d vermieden werden.
Figur lc zeigt beispielhaft einen schematischen Plan des Überwachungsbereichs 1 aus Figur la, b. Im Überwachungsbereich sind Warenaufsteller 6, zum Beispiel Regale, angeordnet. Um einen Weg von einem Eingang 7a zu einem Ausgang 7b für die Personen im Form der Solltrajektorie 5 vorzugeben sind Führungselemente 8a, b, c, d, e angeordnet. Die Führungselemente 8a, b, c, d, e werden und/oder sind während des Adaptionsmodus angeordnet.
Beispielsweise ist das Führungselement 8a als eine temporäre bauliche Maßnahme in Form einer Absperrung ausgebildet, im Speziellen durch Absperrbänder und/oder eine künstliche Baustelle. Das Führungselement 8b ist beispielsweise eine aufgestellte Palette mit Auslegeware, wobei das Führungselement 8c eine aufgestellte Kiste bildet. Das Führungselement 8d ist ein aufgestellter Werbeaufsteller und Führungselement 8e ein Werbebanner. Die Führungselemente 8a, b, c, d, e sind ausgebildet die Personen auf den Weg der Solltrajektorie zu zwingen, wobei die Führungselemente 8a, b, c, d, e vorzugsweise unauffällig ausgebildet sind und/oder sich in die Umgebung einfügen.

Claims

Ansprüche
1. Verfahren zur domänenspezifischen Personenerkennung, wobei ein Überwachungsbereich (1) mittels einer oder einer Mehrzahl an Kameras (2a, b, c, d) überwacht wird, wobei die Kameras (2a, b, c, d) jeweils für einen Überwachungsbereichsabschnitt (3a, b, c, d) Bilddaten bereitstellen, wobei ein Personendetektor in einem Detektionsmodus und in einem Adaptionsmodus betreibbar ist, wobei der Personendetektor zum Analysieren der Bilddaten und zum Erkennen von Personen in dem Überwachungsbereich (1) einen auf einem Ursprungsmodell basierenden Machine-Learning-Algorithmus aufweist, wobei für dem Adaptionsmodus der Überwachungsbereich (1) temporär zu einem beschränkten Überwachungsbereich (4) eingeschränkt wird, wobei von dem beschränkten Überwachungsbereich (4) die Bilddaten aufgenommen werden, wobei basierend auf den Bilddaten des beschränkten Überwachungsbereichs (4) eine Domänenanpassung des Ursprungsmodells zu einem Anwendungsmodell erfolgt, wobei in dem Detektionsmodus der auf das Anwendungsmodell adaptierte Machine-Learning-Algorithmus zur Analyse der Bilddaten, zur Personendetektion und/oder Personenverfolgung angewendet wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Überwachungsbereich (1) zur Vorgabe einer Solltrajektorie (5) für Personen zum beschränkten Überwachungsbereich (4) eingeschränkt wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Solltrajektorie Veränderungspunkte umfasst und/oder festlegt, wobei an den Veränderungspunkten einer Person eine Richtungsänderung und/oder eine Ansichtsschwenkung vorgegeben wird.
4. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der beschränkte Überwachungsbereich (4) und/oder die Solltrajektorie (5) ausgebildet ist, einen einspurigen Personenverkehr vorzugeben, einen Mindestabstand zwischen zwei Personen vorzugeben und/oder ein gegenseitiges Verdecken von Personen in den Bilddaten zu vermeiden.
5. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass zum Einschränken des Überwachungsbereichs (1) auf den beschränkten Überwachungsbereich (4) Führungselemente (8a, b, c, d, e) angeordnet werden.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Führungselemente (8a, b, c, d, e) getarnt, domänenangepasst und/oder szenenangepasst sind.
7. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass ein basierend auf einem Überwachungsbereichsparameter, einem Kameraparameter, einer Kameraverteilung, dem Ursprungsmodell und/oder einer Anwendung ein Einschränkungsmodell ermittelt wird, wobei das Einschränkungsmodell den beschränkten Überwachungsbereich (4), dessen Verlauf und/oder eine Anordnung der Führungselemente (8a, b, c, d, e) beschreibt.
8. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Domänenanpassung unter Verwendung von Metadaten erfolgt, wobei die Metadaten ein Modell des Überwachungsbereichs (1), ein Modell des beschränkten Überwachungsbereichs (4), die Solltrajektorie (5), die Anordnung der Führungselemente (8a, b, c, d, e) und/oder Kameraparameter umfassen.
9. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der beschränkte Überwachungsbereich (5) ausgebildet ist, für eine Person im beschränkten Überwachungsbereich (4) unterschiedliche Ansichten in den Bilddaten bereitzustellen.
10. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der Adaptionsmodus regelmäßig ausgeführt wird und/oder nach einer Überwachungsbereichsveränderung ausgeführt wird.
11. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Verfahren einen Vorschlagsmodus ausweist, wobei im Vorschlagsmodus ein Verlauf und/oder eine Anordnung des beschränkten Überwachungsbereichs ermittelt und/oder angezeigt wird.
12. Computerprogramm, wobei das Computerprogramm ausgebildet ist, bei seiner Ausführung das Verfahren nach einem der vorherigen Ansprüche auszuführen.
13. Maschinenlesbares Speichermedium, wobei auf dem Speichermedium das Computerprogramm nach Anspruch 12 gespeichert ist.
14. Personendetektor zur Erkennung und/oder Verfolgung einer Person in einem Überwachungsbereich (1), wobei der Personendetektor vorzugsweise zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 11 eingerichtet ist, wobei dem Personendetektor von einer oder einer Mehrzahl an Kameras (2a, b, c, d) Bilddaten bereitgestellt sind, wobei der Personendetektor in einem Adaptionsmodus und einem Detektionsmodus betreibbar ist, wobei der Personendetektor ausgebildet ist, im Adaptionsmodus basierend auf Bilddaten eines beschränkten Überwachungsbereichs (4) ein Ursprungsmodell zu einem Anwendungsmodell domänenspezifisch anzupassen, wobei der Personendetektor ausgebildet ist, im Detektionsmodus einen Machine- Learning-Algorithmus auf das Anwendungsmodell zu adaptieren und zur Analyse der Bilddaten, Personendetektion und/oder Personenverfolgung anzuwenden.
15. Überwachungsanordnung mit mindestens einer Kamera und einem Personendetektor nach Anspruch 14.
EP22713340.2A 2021-03-10 2022-03-02 Verfahren, computerprogramm, speichermedium, personendetektor und überwachungsanordnung zur personenerkennung Pending EP4305610A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021202294.4A DE102021202294A1 (de) 2021-03-10 2021-03-10 Verfahren, Computerprogramm, Speichermedium, Personendetektor und Überwachungsanordnung zur Personenerkennung
PCT/EP2022/055299 WO2022189231A1 (de) 2021-03-10 2022-03-02 Verfahren, computerprogramm, speichermedium, personendetektor und überwachungsanordnung zur personenerkennung

Publications (1)

Publication Number Publication Date
EP4305610A1 true EP4305610A1 (de) 2024-01-17

Family

ID=80953578

Family Applications (1)

Application Number Title Priority Date Filing Date
EP22713340.2A Pending EP4305610A1 (de) 2021-03-10 2022-03-02 Verfahren, computerprogramm, speichermedium, personendetektor und überwachungsanordnung zur personenerkennung

Country Status (3)

Country Link
EP (1) EP4305610A1 (de)
DE (1) DE102021202294A1 (de)
WO (1) WO2022189231A1 (de)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7961096B2 (en) * 2009-01-13 2011-06-14 Sensormatic Electronics Corporation System and method for detection of EAS marker shielding
DE102019205221A1 (de) 2019-04-11 2020-10-15 Robert Bosch Gmbh Anonymisierungseinrichtung, Überwachungsvorrichtung, Verfahren, Computerprogramm und Speichermedium
US20200380252A1 (en) * 2019-05-29 2020-12-03 Walmart Apollo, Llc Systems and methods for detecting egress at an entrance of a retail facility

Also Published As

Publication number Publication date
WO2022189231A1 (de) 2022-09-15
DE102021202294A1 (de) 2022-09-15

Similar Documents

Publication Publication Date Title
DE60034555T2 (de) System zur objekterkennung und -verfolgung
DE102013205950B4 (de) Verfahren zum Detektieren von Straßenrändern
EP0853299B2 (de) Verfahren und Vorrichtung zur Ansteuerung von Türanlagen in Abhängigkeit von der Anwesenheit von Personen
WO2001018697A1 (de) Verfahren und anordnung zur erfassung und analyse des rezeptionsvrhaltens von personen
DE102008039130A1 (de) Durch ein neurales Netzwerk gesteuertes automatisches Verfolgungs- und Erkennungssystem und Verfahren
EP2758915B1 (de) Verfahren zur automatisierten echtzeit-erfassung von marinen säugern
DE102007031302A1 (de) Vorrichtung zur Erkennung und/oder Klassifizierung von Bewegungsmustern in einer Bildsequenz von einer Überwachungsszene, Verfahren sowie Computerprogramm
DE19704080A1 (de) Minensuchgerät
DE102015208139A1 (de) Fahrzeuginsassenerfassung mittels des Abstands zwischen Beifahrer- und Fahrermerkmalen
DE102006027123A1 (de) Verfahren für die Erfassung eines Verkehrsraums
WO2021185507A1 (de) Anonymisierungseinrichtung, überwachungsvorrichtung, verfahren, computerprogramm und speichermedium
WO2019043406A1 (en) DETECTION OF ANOMALY FROM VIDEO DATA FROM SURVEILLANCE CAMERAS
EP3557549A1 (de) Verfahren zur bewertung eines bewegungsereignisses
EP1189187B1 (de) Verfahren zum Überwachen eines vorbestimmten Bereichs und entsprechendes System
EP4305610A1 (de) Verfahren, computerprogramm, speichermedium, personendetektor und überwachungsanordnung zur personenerkennung
EP2483834B1 (de) Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objekts in einem Bild
DE102016222134A1 (de) Videoanalyseeinrichtung für eine Überwachungsvorrichtung und Verfahren zur Erzeugung eines Einzelbildes
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE19600958A1 (de) Interaktives Überwachungssystem
EP3921819A1 (de) Überwachungsvorrichtung und verfahren zur man-overboard-überwachung eines schiffsabschnitts
WO2020182503A1 (de) Überwachungsvorrichtung, überwachungsanlage, verfahren, computerprogramm und maschinenlesbares speichermedium
WO2017144033A1 (de) Verfahren zur ermittlung und darstellung von veränderungen in einer ein reales gelände und darin befindliche reale objekte umfassenden realumgebung
DE102006027120A1 (de) Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm
DE19744694A1 (de) Videobewegungsmeldeeinrichtung
DE102007001273A1 (de) Verfahren zur selbsttätigen Analyse von Objektbewegungen

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20231010

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR