WO2023180361A1 - Überwachungsanordnung, verfahren zur überwachung, computerprogramm und datenträger - Google Patents

Überwachungsanordnung, verfahren zur überwachung, computerprogramm und datenträger Download PDF

Info

Publication number
WO2023180361A1
WO2023180361A1 PCT/EP2023/057282 EP2023057282W WO2023180361A1 WO 2023180361 A1 WO2023180361 A1 WO 2023180361A1 EP 2023057282 W EP2023057282 W EP 2023057282W WO 2023180361 A1 WO2023180361 A1 WO 2023180361A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
module
image
designed
application
Prior art date
Application number
PCT/EP2023/057282
Other languages
English (en)
French (fr)
Inventor
Christoph BURGER-SCHEIDLIN
Mark DEN HARTOG
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2023180361A1 publication Critical patent/WO2023180361A1/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2347Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving video stream encryption
    • H04N21/23476Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving video stream encryption by partially encrypting, e.g. encrypting the ending portion of a movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4408Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving video stream encryption, e.g. re-encrypting a decrypted video stream for redistribution in a home network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • H04N21/4545Input to filtering algorithms, e.g. filtering a region of the image
    • H04N21/45455Input to filtering algorithms, e.g. filtering a region of the image applied to a region of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4627Rights management associated to the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the invention relates to a monitoring arrangement for image-based monitoring of a monitoring area, with a camera for recording and providing image data and a detection module for detecting at least one object.
  • Image-based and/or camera-based surveillance of areas is used in both the private and commercial sectors to monitor buildings or outdoor areas, especially for monitoring airports, train stations or authorities.
  • image data, images and/or videos of the area to be monitored are recorded by distributed cameras and further processed and/or analyzed for the respective monitoring purpose.
  • sensitive and/or personal data is necessarily collected, which must be particularly protected and/or must be particularly protected during transmission and/or storage or provision to other devices.
  • US 2019 018830A1 describes a method for applying a GAN (Generative Adversarial Network) to image data in order to alienate sensitive image areas.
  • GAN Geneative Adversarial Network
  • the invention relates to a monitoring arrangement with the features of claim 1. Furthermore, a method, a computer program and a Disk suggested. Preferred and/or advantageous embodiments result from the subclaims, the description and the attached figures.
  • a monitoring arrangement for image-based monitoring of a surveillance area is proposed.
  • image-based surveillance is understood to mean surveillance based on images or videos of the surveillance area.
  • image in particular image or image data
  • video can also be understood as video, where the video comprises a stream of images.
  • the monitoring arrangement is designed and/or set up to allow application-specific, user-specific and/or adaptable monitoring of the monitoring area, for example by using different and/or interchangeable evaluation applications.
  • the surveillance area can include an indoor area and/or an outdoor area.
  • the monitoring arrangement comprises at least one camera, in particular the monitoring arrangement comprises at least ten cameras.
  • the camera can be designed as a stationary or mobile camera, in particular as a pivotable and/or zoomable camera.
  • the camera is designed and/or set up to record and/or provide image data.
  • the image data includes at least one input image and/or a video comprising the input image.
  • the input image shows and/or includes a section of the surveillance area recorded by the respective camera.
  • the input image shows a scene, where the scene includes at least one object.
  • the scene includes a background and/or a stationary environment in the sense of a background.
  • Objects of the scene are understood to mean, in particular, moving and/or temporarily existing objects in the scene, for example people, vehicles or personal items such as suitcases.
  • the objects preferably belong to different object classes and/or can be assigned to different object classes, for example person, animal or physical object.
  • the monitoring arrangement includes a detection module.
  • the detection module can be designed as a hardware module or a software module. Particularly preferably, the detection module is part of the camera and/or connected directly to the camera.
  • the image data, in particular the input image and/or video, are provided to the detection module.
  • the detection module is designed for object recognition, object detection, object classification and/or object tracking.
  • the detection module detects, tracks, classifies and/or locates the at least one object based on the input image. In particular, all objects in the scene are detected, classified, localized and/or tracked by the detection module based on the input image.
  • the detection module is designed to distinguish between the input image in the background (no object) and an object external to the background (object) as part of the detection of the object.
  • the monitoring arrangement includes a separation module.
  • the separation module is part of the camera and/or forms a common unit with the detection module.
  • the separation module can be designed as a hardware or a software module.
  • the image data, in particular the input image, as well as the objects detected by the detection module and/or the at least one detected object are provided to the separation module.
  • the separation module and/or the detection module is designed to determine an object area for the at least one detected object and/or for the detected objects.
  • the object area is an area and/or section in the input image, specifically in the video and/or the images of the video. In particular, the object area is the area of the input image in which the detected object is shown, encompassed and/or imaged.
  • the object area can be determined as a bounding box around the respective detected object in the input image.
  • the separation module and/or the detection module is designed in particular to divide and/or separate the input image into object areas which include and/or show the detected objects, and not object areas or background which do not include any of the detected objects. show and/or depict.
  • the separation module is designed to determine object data for the at least one detected object and/or for the detected objects.
  • object data is determined for all detected objects; alternatively, object data can be determined jointly for several objects, preferably of the same type, connected or belonging to the same object class.
  • the object data includes image content of the object area.
  • the image content is in particular the content, the shown and/or pixel information of the object area in the input image for the respective object.
  • the separation module is designed to determine residual data.
  • the residual data includes a residual image.
  • the residual image is designed as the scene of the input image and/or the input image, but in which the object areas are anonymized.
  • the anonymization of object areas is understood in particular to mean making the image content unrecognizable, blackening, alienating and/or removing it.
  • the separation module splits the input image based on the input image and the detected object, in which the input image is divided and/or separated into a residual image or residual data and object data.
  • the residual data shows the input image without the image content of the object areas, the object data including this image content without information about the background.
  • the monitoring arrangement includes an application module.
  • the application module can be designed as a software or hardware module.
  • the application module can be part of the camera, alternatively the application module is assigned to a cloud module, an evaluation center or a peripheral device.
  • the application module is designed and/or set up to execute and/or use at least one evaluation application.
  • the evaluation application is applied to application-specific reconstruction data.
  • the evaluation application is designed and/or set up to communicate how the application-specific reconstruction data should be structured and/or what content it should contain.
  • different and/or interchangeable evaluation applications can be executed and/or used on the application module, the evaluation applications being available, for example, from an app store.
  • the monitoring arrangement includes a reconstruction module.
  • the reconstruction module is part of the camera and/or is directly connected to the separation module in terms of data technology.
  • the reconstruction module is arranged in terms of data technology between the separation module and the application module.
  • the reconstruction module is designed and/or set up to determine the application-specific reconstruction data.
  • the application-specific reconstruction data is determined for the respective evaluation application.
  • the application-specific reconstruction data are designed, generated and/or determined specifically for a respective evaluation application.
  • the application-specific reconstruction data includes the residual data, in particular the residual image.
  • the application-specific reconstruction data includes a selection of object data. The selection set in particular forms a subset of the object data for the residual image and/or the underlying residual data.
  • the reconstruction module is designed to select the object data for the selection set from the object data and/or the detected objects for which the respective evaluation application has and/or has access authorization.
  • an evaluation application has access authorization to personal data, for example faces, so that the reconstruction module is designed to select the object data for the selection set that includes and/or shows personal data and/or faces, whereas other object data, for example relating to passport data, is not available Selection quantity to be counted.
  • the reconstruction module is designed to determine a reconstruction image for the application-specific reconstruction data, in which the object areas of the objects belonging to the selection set are reconstructed in the residual image and/or are no longer anonymized, whereas object areas of objects that do not belong to the selection set continue to be anonymized are.
  • the invention is based on the idea that when image data is captured and made available to evaluation applications, which can also be provided by third parties, for example, and so do not have to comply with security standards, sensitive image areas are only made available to those evaluation applications that also have access authorization for this .
  • the actual input image is converted into a residual image in which the corresponding sensitive areas are anonymized, whereby the image areas of the anonymized object areas are determined as separate object data and can be made available to the authorized evaluation applications for further use.
  • the separation module is designed to determine geometry information for the detected objects and/or the object regions.
  • separate geometry information is determined for the object areas.
  • the geometry information is preferably included in the object data.
  • the geometry information describes, for example, geometric relationships, e.g. the relationship of the object area to other object areas and/or the background.
  • the geometry information includes and/or describes, for example, an object position, for example within the input image and/or the scene.
  • the geometry information preferably describes and/or includes an object size, for example the size, shape and/or contour of the object area.
  • the geometry information can describe and/or include an object orientation, for example orientation of the object area and/or a Z-order of the object.
  • the detection module is designed to detect a plurality of objects based on the input image, with the separation module being designed to determine its own object data for the detected objects.
  • the object areas for the detected objects are each anonymized.
  • different object types and subclasses are detected by the detection module and the different object types and/or classes in the residual image are anonymized by the separation module. For example, as a residual image in an input image, showing a person, a dog, a Cars and personal luggage, all of these objects are detected and their object areas are displayed anonymously in the residual image.
  • the detection module is designed to classify the detected objects.
  • the detected objects are classified and/or classified into object classes, known as classes for short.
  • the detection and/or classification is carried out based on a machine learning algorithm and/or a neural network.
  • the separation module is designed to determine object class data for objects within a common class.
  • the object class data includes, shows and/or describes the image contents of the object areas that belong to the objects in the class. For example, “people”, “vehicles” and other “material objects” are provided as classes, with the object class data being determined for each of the classes and these comprising the image contents of all people, vehicles or material objects in the input image. It is therefore possible, for example, for an evaluation application for person recognition to be able to directly provide the object class data for the class “Person” instead of individually providing the object data for objects of the “Person” class.
  • the detection module is designed to detect a scene event based on the input image, the image data and/or the video.
  • the scene event can, for example, represent an accident event, a fire event, or an application-specific event in the monitoring area or scene.
  • the scene event includes involved objects, with the involved objects being detected by the detection module for the scene event.
  • the scene event is an accident event with two cars as involved objects.
  • the separation module is designed to determine event data based on the scene event.
  • the event data includes and/or describes the object data of the objects involved in the scene event.
  • an evaluation application is designed and/or provided for analyzing accident processes, with the event data being provided to the evaluation application as application-specific reconstruction data.
  • the Application-specific reconstruction data which includes event data and/or object class data.
  • the detection module is designed to provide detection metadata.
  • the detection metadata describes and/or includes, for example, object types and/or classes that can be detected and/or tracked by the detection module in the input images.
  • the embodiment provides that the detection module uses the detection metadata to communicate which object types and/or classes of objects can be determined in the image data and can thus be separated and/or anonymized by the separation module.
  • the separation module is designed to provide separation metadata, wherein the separation metadata includes and/or describes object area information.
  • the object area information relates in particular to the object areas, to the anonymized objects and/or classes, so that modules to which the residual data and/or the residual image are provided, which sections and/or areas are anonymized and are therefore not taken into account in an evaluation and/or can be utilized.
  • the application module includes a plurality of evaluation applications and/or the evaluation applications can be exchanged, supplemented, retrofitted and/or obtained from third parties, for example an app store.
  • the evaluation applications each include an access authorization and/or an access authorization is assigned and/or can be assigned to the evaluation applications.
  • the access authorization is based, for example, on the origin of the evaluation application and/or the type of evaluation application, for example facial recognition application or application for recognizing vehicle license plates.
  • the access authorization describes and/or concerns, for example, an authorization of the evaluation application and/or a required evaluation application of a specific image content, a specific object, a specific class and/or a specific scene event.
  • an evaluation application for facial recognition has the access authorization to obtain image content and/or object areas of faces as objects. This is based in particular on the idea that specific application-specific reconstruction data can be provided to evaluation applications, in particular based on their origin and/or function, which only include relevant or no sensitive image content.
  • the monitoring arrangement comprises a transmitting module and a receiving module.
  • the transmission module is designed to provide, send and/or transmit transmission data to the reception module.
  • the transmitter module is part of the camera.
  • the receiving module is, for example, part of a central evaluation device or cloud.
  • the receiving module and the evaluation module are part of a common unit, with the transmitting module, the reconstruction module, the separation module and the detection module preferably also being part of a common unit, for example the camera.
  • the transmission module is designed to provide the transmission data based on an authorization certificate, and the transmission data is provided to the reception module in cryptographic and/or encrypted form based on the authorization certificate.
  • the cryptographic and/or encrypted representation is based on and/or using the authorization certificate.
  • the authorization certificate is preferably a certificate of the receiving module, for example which authorization, object areas and/or detected objects can be received by the receiving module.
  • the encrypting and/or cartographic provision is based on the authorization certificate and the exchange of keys between the receiving module and the sending module.
  • the authorization certificate includes and/or forms a receiving module certificate, wherein the transmission data includes the object data and/or the residual data.
  • the object data in particular all object data, alternatively a selection of object data, and/or the residual data based on a reception module certificate between the transmission module and the reception module are used as transmission data exchanged.
  • each receiving module has its own receiving module certificate and/or the receiving module certificate is renewed at regular intervals.
  • the authorization certificate includes and/or forms an application certificate, in particular specifically for at least one evaluation application.
  • the application certificate describes, for example, which authorization the respective evaluation application has and/or which object classes, objects and/or object areas are to be provided to the receiving module and/or application module.
  • the separation module, the detection module, the application module and/or the reconstruction module comprise and/or form a neural network, in particular are designed and/or set up for machine learning.
  • the separation module comprises and/or forms a generative adversarial neural network, wherein the generative neural network is designed and/or set up to anonymize the image content of the object area and/or the image content of the object areas by means of the generative neural network .
  • the generative neural network is in particular designed to carry out the anonymization of the image contents of the object areas in such a way that they are provided to a user in a distorted form, in particular for further image evaluation and/or analysis, but still essentially have an optical and/or intuitive similarity to the original have image content.
  • the separation module is designed to anonymize the image content in the object areas by replacing it with an object representative.
  • an object area showing a person's face is replaced by a “sample face” as an object representative and/or a license plate in the input image is replaced by a “sample license plate.”
  • anonymized object areas are still represented in the residual data, the residual images and/or in the application-specific reconstruction data, but are intuitively understandable for a human user and/or further evaluations.
  • a further subject of the invention is a method for image-based monitoring of a surveillance area.
  • a camera is used to record image data comprising at least one input image, the input image showing a scene comprising at least one object.
  • the image data is evaluated, with the at least one object being detected based on the input image.
  • An object area is determined for the detected object based on the image data, in particular the individual image.
  • object data and residual data are determined.
  • the object data includes and/or describes the image content of the object area.
  • the residual data includes a residual image, wherein the residual image shows and/or includes the scene of the input image, wherein the object areas are anonymized.
  • application-specific reconstruction data is determined for a respective evaluation application.
  • the evaluation application is then or can then be applied to the application-specific reconstruction data.
  • Data that includes the residual data, in particular the residual image, and a selection of object data are determined and/or determined as reconstruction data. The selection of object data is determined specifically for the respective evaluation application, with the object data for which the evaluation application has access authorization being selected.
  • a further subject of the invention is a computer program comprising commands which cause the monitoring arrangement according to one of claims 1 - 12 to carry out the method steps according to claim 13.
  • the invention further relates to a computer-readable medium on which the computer program according to claim 14 is stored.
  • Figure 1 shows a first exemplary embodiment of a monitoring arrangement
  • Figure 2 shows an exemplary embodiment of the monitoring arrangement with a transmitting and receiving module
  • FIG. 3 exemplary embodiment of the monitoring arrangement for transmitting event data.
  • Figure 1 shows an exemplary embodiment of a monitoring arrangement 1 with a camera 2.
  • the camera 2 is designed to monitor a surveillance area, the camera 2 recording and providing image data, the image data comprising an input image 3.
  • the input image 3 shows a scene, the scene comprising a background 4, which is not explicitly shown graphically for clarity, and a plurality of objects 5a-e.
  • the camera 2 includes a detection module 6, a separation module 7, a reconstruction module 8 and an application module 9.
  • the image data, in particular the input image 3, is provided to the detection module 6.
  • the detection module 6 is designed, for example based on a neural network, to evaluate the input image 3 and to detect the objects 5a-e.
  • the detection module 6 is designed to track and/or track the objects 5a-e.
  • the detection module 6 carries out a classification of the objects 5a-e into classes.
  • the image data, in particular the input image 3, as well as the detected objects 5a-e are provided to the separation module 7.
  • the separation module 7 is designed to determine an object area 10a-e for each of the objects 5a-e. For example, a bounding box is determined for each of the objects 5a-e.
  • the separation module 7 is further designed to determine object data, in particular separate object data for each of the detected objects 5a-e. In particular, it can be provided that, based on the classification of the objects 5a-e, the object data is determined together for object classes, for example object data for all people in the scene and object data for vehicles in the scene.
  • the object data includes the image content of the respective object 5a-e in the object area 10a-e, as in the image data, in particular the input image 3, is and/or was included.
  • the object data forms the image section of the objects 5a-e in the input image 3.
  • the separation module 7 is further designed to determine residual data, the residual data comprising a residual image 11.
  • the residual image 11 is essentially designed like the input image 3, with the object areas 10a-e being anonymized so that the actual objects 5a-e are not included in the original, recognizable or provided with sensitive data in the residual image 11.
  • the residual image 11 includes separation metadata 12a-e.
  • the separation metadata 12a-e each describe the object type and/or class that is included in an anonymized manner, so that a user or a subsequent evaluation receives at least basic information about the missing image content.
  • the application module 9 is designed to carry out evaluation applications.
  • the evaluation application can be retrofitted and/or installed by a user, for example, and can be obtained from an app store, for example.
  • the evaluation applications are designed for use on image data, with the application module 9 being designed to apply the evaluation applications to application-specific reconstruction data 13.
  • the execution application has an access authorization, the access authorization describing, for example, which image contents, object areas are required for evaluation and/or how trustworthy the evaluation application is, so that it can be decided which image contents, object data are provided based on the trustworthiness can.
  • the reconstruction module 8 is designed to determine the application-specific reconstruction data 13.
  • the access authorization 14 of the respective evaluation application is provided to the reconstruction module 8.
  • the reconstruction module 8 in particular determines a reconstruction image that is included in the application-specific reconstruction data 13.
  • the reconstruction image includes the residual image 11, additionally including the object data for the objects 5a, 5b and 5d.
  • the object areas belong to the objects 5a, 5b and 5d in Reconstruction image 3 is no longer shown in anonymized form as in the residual image 11, but includes the actual image content, with the object areas for objects 5c and 5e still being included in anonymized form.
  • These application-specific reconstruction data 13 are provided to the application module 9 for use of the associated evaluation application.
  • the associated evaluation application is designed to track people, animals and vehicles, whereby the image content for static furnishings such as objects 5c and 5e is not required and therefore cannot be displayed deanonymized.
  • FIG 2 shows an exemplary embodiment of the monitoring arrangement 1, which is essentially designed and/or based on the exemplary embodiment from Figure 1.
  • the camera 2 provides a transmission module 14.
  • the application module 9 and the reconstruction module 8 are part of an external unit 16, for example a cloud.
  • the external module 16 further comprises a reception module 15.
  • Transmission data 17 is exchanged between the transmission module 14 and the reception module 15.
  • the transmission module 14 is designed to provide the transmission data 17 encrypted and/or cryptographically to the reception module 15, in particular the external unit 16.
  • the transmission data includes the residual data, the residual image 11 and the object data.
  • a key exchange is provided between the receiving module 15 and the transmitting module 14, with keys being exchanged and the transmission data being encrypted based on these keys.
  • the encrypting and/or cryptographic processing of the data for the transmission data 17 takes place based on an authorization certificate.
  • the authorization certificate describes, for example, whether the external unit 16 and/or a user or an evaluation application can be trusted and the image content of the object data can be provided. For example, it can be ensured that the sensitive content of the object areas is not made available to untrustworthy recipients.
  • the external unit 16 is designed to deliver the received data, or transmission data 17, to the reconstruction module 8, so that the reconstruction module 8 can create the application-specific reconstruction data as previously described.
  • Figure 3 shows an exemplary embodiment of the monitoring arrangement 1, essentially designed as in Figures 1 and 2.
  • the camera 2 includes an event detection module 18, which is particularly preferably part of the separation module 7.
  • the event determination module 18 is designed to detect and/or recognize an event, for example an accident, based on the image data. When the event is detected, the associated objects and/or objects involved in the event are determined, for example objects 5d, 5a and 5b in the event of an accident between the vehicle, the person and the dog. This information is provided to the transmitter module 14, whereby the
  • Transmitting module 14 is designed to initiate the transmission of event data to the receiving module 15.
  • the event data is determined, for example, by the separation module.
  • the event data includes the object data of the objects 5a, b, d that are involved in the respective event. An embodiment is thus provided that causes object data to be provided when a specific event has occurred.

Abstract

Überwachungsanordnung (1) zur bildbasierten Überwachung eines Überwachungsbereichs, mit einer Kamera (2), wobei die Kamera (2) ausgebildet und/oder eingerichtet ist, Bilddaten umfassend mindestens ein Eingangsbild (3) aufzunehmen und/oder bereitzustellen, wobei das Eingangsbild (3) eine Szene umfassend mindestens ein Objekt (5a-e) zeigt und/oder umfasst, mit einem Detektionsmodul (6), wobei dem Detektionsmodul (6) die Bilddaten bereitgestellt sind und das Detektionsmodul (6) ausgebildet ist, basierend auf dem Eingangsbild (3) das mindestens eine Objekt (5a-e) zu detektieren, mit einem Separationsmodul (7), wobei dem Separationsmodul (7) die Bilddaten bereitgestellt sind und das Separationsmodul (7) ausgebildet ist, für das mindestens ein detektiertes Objekt (5a-e) einen Objektbereich (10a-e) in dem Eingangsbild (3) zu bestimmen, wobei das Separationsmodul (7) ausgebildet ist, für das mindestens eine detektierte Objekt (5a-e) Objektdaten zu bestimmen, wobei die Objektdaten einen Bildinhalt des Objektbereichs (10a-e) umfassen, wobei das Separationsmodul (7) ausgebildet ist, Residuendaten zu bestimmen, wobei die Residuendaten ein Residuumbild (11) umfassen, wobei das Residuumbild (11) die Szene des Eingangsbildes (3) mit anonymisierten Objektbereich/en (10a-e) umfasst und/oder zeigt, mit einem Rekonstruktionsmodul (8), wobei das Rekonstruktionsmodul (8) ausgebildet ist, die applikationsspezifischen Rekonstruktionsdaten (13) zu bestimmen.

Description

Beschreibung
Titel
Überwachungsanordnung, Verfahren zur Überwachung, Computerprogramm und Datenträger
Stand der Technik
Die Erfindung betrifft eine Überwachungsanordnung zur bildbasierten Überwachung eines Überwachungsbereichs, mit einer Kamera zur Aufnahme und zur Bereitstellung von Bilddaten und einem Detektionsmodul zur Detektion mindestens eines Objekts.
Die bildbasierte und/oder kameragestützte Überwachung von Bereichen wird sowohl im privaten als auch im gewerblichen Bereich zur Überwachung von Gebäuden oder Außenbereichen eingesetzt, insbesondere zur Überwachung von Flughäfen, Bahnhöfen oder Behörden. Hierzu werden durch verteilt angeordnete Kameras Bilddaten, Bilder und/oder Videos, des zu überwachenden Bereichs aufgenommen und zum jeweiligen Überwachungszweck weiterverarbeitet und/oder analysiert. Durch die Aufnahme von Bildern und/oder Videos werden zwangsweise sensible und/oder personenbezogene Daten erfasst, die besonders zu schützen sind und/oder bei der Übertragung und/oder Speicherung, bzw. der Bereitstellung an weitere Geräte, besonders zu schützen sind.
Beispielsweise beschreibt die Druckschrift US 2019 018830A1 ein Verfahren zur Anwendung eines GAN (Generative Adversarial Network) auf Bilddaten, um sensible Bildbereiche zu verfremden.
Offenbarung der Erfindung
Die Erfindung betrifft eine Überwachungsanordnung mit den Merkmalen des Anspruchs 1. Ferner wird ein Verfahren, ein Computerprogramm und ein Datenträger vorgeschlagen. Bevorzugte und/oder vorteilhafte Ausführungen ergeben sich aus den Unteransprüchen, der Beschreibung und den beigefügten Figuren.
Es wird eine Überwachungsanordnung zur bildbasierten Überwachung eines Überwachungsbereichs vorgeschlagen. Insbesondere wird als bildbasierte Überwachung eine Überwachung basierend auf Bildern oder Videos des Überwachungsbereichs verstanden. Im Folgenden kann der Begriff Bild, insbesondere Bild oder Bilddaten, auch als Video verstanden werden, wobei das Video einen Strom an Bildern umfasst. Insbesondere ist die Überwachungsanordnung ausgebildet und/oder eingerichtet eine anwendungsspezifische, benutzerspezifische und/oder anpassbare Überwachung des Überwachungsbereichs zu erlauben, beispielsweise durch Verwendung unterschiedlicher und/oder austauschbarer Auswerteapplikationen. Der Überwachungsbereich kann einen Innenbereich und/oder Außenbereich umfassen.
Die Überwachungsanordnung umfasst mindestens eine Kamera, im Speziellen umfasst die Überwachungsanordnung mindestens zehn Kameras. Die Kamera kann als eine stationäre oder mobile Kamera ausgebildet sein, im Speziellen als eine schwenkbare und/oder zoombare Kamera. Die Kamera ist ausgebildet und/oder eingerichtet, Bilddaten aufzunehmen und/oder bereitzustellen. Die Bilddaten umfassen mindestens ein Eingangsbild und/oder ein Video umfassend das Eingangsbild. Das Eingangsbild zeigt und/oder umfasst einen Abschnitt des Überwachungsbereichs aufgenommen durch die jeweilige Kamera. Das Eingangsbild zeigt eine Szene, wobei die Szene mindestens ein Objekt umfasst. Im Speziellen umfasst die Szene einen Hintergrund und/oder eine stationäre Umgebung im Sinne eines Hintergrundes. Als Objekte der Szene werden insbesondere bewegliche und/oder temporär vorhandene Objekte in der Szene verstanden, beispielsweise Personen, Fahrzeuge oder persönliche Gegenstände wie Koffer. Die Objekte gehören vorzugsweise unterschiedlichen Objektklassen an und/oder sind unterschiedlichen Objektklassen zuordenbar, beispielsweise Person, Tier oder dingliches Objekt. Die Überwachungsanordnung umfasst ein Detektionsmodul. Das Detektionsmodul kann als ein Hardwaremodul oder ein Softwaremodul ausgebildet sein. Besonders bevorzugt ist das Detektionsmodul Teil der Kamera und/oder unmittelbar mit der Kamera verbunden. Dem Detektionsmodul sind die Bilddaten, insbesondere das Eingangsbild und/oder Video bereitgestellt. Das Detektionsmodul ist zur Objekterkennung, Objektdetektion, Objektklassifikation und/oder Objektverfolgung ausgebildet. Das Detektionsmodul detektiert, verfolgt, klassifiziert und/oder lokalisiert basierend auf dem Eingangsbild das mindestens eine Objekt. Insbesondere werden basierend auf dem Eingangsbild durch das Detektionsmodul alle Objekte der Szene detektiert, klassifiziert, lokalisiert und/oder verfolgt. Beispielsweise ist das Detektionsmodul ausgebildet im Rahmen der Detektion des Objektes das Eingangsbild im Hintergrund (kein Objekt) und hintergrundfremdes Objekt (Objekt) zu unterscheiden.
Die Überwachungsanordnung umfasst ein Separationsmodul. Besonders bevorzugt ist das Separationsmodul Teil der Kamera und/oder bildet mit dem Detektionsmodul eine gemeinsame Einheit. Das Separationsmodul kann als ein Hardware- oder ein Softwaremodul ausgebildet sein. Dem Separationsmodul sind die Bilddaten, im Speziellen das Eingangsbild, sowie die vom Detektionsmodul detektierten Objekte und/oder das mindestens eine detektierte Objekt bereitgestellt. Das Separationsmodul und/oder das Detektionsmodul ist ausgebildet, für das mindestens eine detektierte Objekt und/oder für die detektierten Objekte einen Objektbereich zu bestimmen. Der Objektbereich ist ein Bereich und/oder Abschnitt im Eingangsbild, im Speziellen im Video und/oder den Bildern des Videos. Insbesondere ist der Objektbereich der Bereich des Eingangsbildes, in dem das detektierte Objekt gezeigt, umfasst und/oder abgebildet ist. Beispielsweise kann der Objektbereich als eine Bounding-Box um das jeweilige detektierte Objekt im Eingangsbild bestimmt werden. Das Separationsmodul und/oder das Detektionsmodul ist mit anderen Worten insbesondere ausgebildet, das Eingangsbild aufzuteilen und/oder zu separieren in Objektbe reiche, welche die detektierten Objekte umfassen und/oder zeigen, und nicht Objektbereiche bzw. Hintergrund, welche keine der detektierten Objekte umfassen, zeigen und/oder abbilden. Das Separationsmodul ist ausgebildet, für das mindestens eine detektierte Objekt und/oder für die detektierten Objekte jeweils Objektdaten zu bestimmen. Insbesondere werden für alle detektierten Objekte jeweils Objektdaten bestimmt, alternativ können für mehrere, vorzugsweise gleichartige, zusammenhängende oder zur gleichen Objektklasse gehörige Objekte, gemeinsam Objektdaten bestimmt werden. Die Objektdaten umfassen einen Bildinhalt des Objektbereiches. Der Bildinhalt ist insbesondere der Inhalt, das gezeigte und/oder Pixelinformation des Objektbereichs im Eingangsbild für das jeweilige Objekt. Ferner ist das Separationsmodul ausgebildet Residuendaten zu bestimmen. Die Residuendaten umfassen ein Residuumsbild. Das Residuumsbild ist als die Szene des Eingangsbildes und/oder das Eingangsbild ausgebildet, worin jedoch die Objektbereiche anonymisiert sind. Als anonymisierten von Objektbereiche wird insbesondere das unkenntlich Machen, Schwärzen, Verfremden und/oder Entfernen des Bildinhalts verstanden. Mit anderen Worten wird vom Separationsmodul basierend auf dem Eingangsbild und dem detektierten Objekt eine Aufspaltung des Eingangsbildes durchgeführt, in dem das Eingangsbild in ein Residuumsbild bzw. Residuendaten und Objektdaten zerteilt und/oder separiert wird. Die Residuendaten zeigen das Eingangsbild ohne den Bildinhalt der Objektbereiche, wobei die Objektdaten diesen Bildinhalt ohne Information des Hintergrunds umfassen.
Die Überwachungsanordnung umfasst ein Applikationsmodul. Das Applikationsmodul kann als ein Software- oder Hardwaremodul ausgebildet sein. Das Applikationsmodul kann Teil der Kamera sein, alternativ ist das Applikationsmodul einem Cloudmodul, einer Auswertezentrale oder einem Peripheriegerät zugeordnet. Das Applikationsmodul ist ausgebildet und/oder eingerichtet, mindestens eine Auswerteapplikation auszuführen und/oder anzuwenden. Die Auswerteapplikation wird auf applikationsspezifische Rekonstruktionsdaten angewendet. Insbesondere ist die Auswerteapplikation ausgebildet und/oder eingerichtet, mitzuteilen wie die applikationsspezifischen Rekonstruktionsdaten aufgebaut sein sollen und/oder welche Inhalte diese umfassen sollen. Insbesondere sind auf dem Applikationsmodul unterschiedliche und/oder austauschbare Auswerteapplikationen ausführbar und/oder anwendbar, wobei die Auswerteapplikationen beispielsweise von einem App Store beziehbar sind. Im Speziellen ist es vorgesehen, dass das Applikationsmodul keinen direkten Zugriff und/oder keine direkte Datenverbindung auf das ursprüngliche Eingangsbild besitzt
Die Überwachungsanordnung umfasst ein Rekonstruktionsmodul. Besonders bevorzugt ist das Rekonstruktionsmodul Teil der Kamera und/oder unmittelbar datentechnisch mit dem Separationsmodul verbunden. Insbesondere ist das Rekonstruktionsmodul datentechnisch zwischen dem Separationsmodul und dem Applikationsmodul angeordnet. Das Rekonstruktionsmodul ist ausgebildet und/oder eingerichtet die applikationsspezifischen Rekonstruktionsdaten zu bestimmen. Insbesondere werden hierzu für die jeweilige Auswerteapplikation die applikationsspezifischen Rekonstruktionsdaten bestimmt. Die applikationsspezifischen Rekonstruktionsdaten sind insbesondere spezifisch für eine jeweilige Auswerteapplikation ausgebildet, generiert und/oder bestimmt. Die applikationsspezifischen Rekonstruktionsdaten umfassen die Residuendaten, im Speziellen das Residuumbild. Ferner umfassen die applikationsspezifischen Rekonstruktionsdaten eine Auswahlmenge von Objektdaten. Die Auswahlmenge bildet insbesondere eine Teilmenge der Objektdaten für das Residuumbild und/oder der Residuendaten zugrunde liegend.
Das Rekonstruktionsmodul ist ausgebildet, für die Auswahlmenge aus den Objektdaten und/oder den detektierten Objekten die Objektdaten auszuwählen, für die die jeweilige Auswerteapplikation eine Zugriffsberechtigung besitzt und/oder aufweist. Beispielsweise weist eine Auswerteapplikation eine Zugriffsberechtigung auf Personendaten, beispielsweise Gesichter, auf, so dass das Rekonstruktionsmodul ausgebildet ist, für die Auswahlmenge die Objektdaten auszuwählen, die Personendaten und/oder Gesichter umfassen und/oder zeigen, wohingegen andere Objektdaten, beispielsweise betreffend Passdaten, nicht zur Auswahlmenge zu gezählt werden. Insbesondere ist das Rekonstruktionsmodul ausgebildet, für die applikationsspezifischen Rekonstruktionsdaten ein Rekonstruktionsbild zu bestimmen, bei welchem im Residuumbild die Objektbereiche der zur Auswahlmenge gehörigen Objekte rekonstruiert sind und/oder nicht länger anonymisiert sind, wohingegen Objektbe reiche von Objekten, die nicht zur Auswahlmenge gehören, weiterhin anonymisiert sind. Die Erfindung basiert auf der Überlegung, dass bei der Erfassung von Bilddaten und der Bereitstellung an Auswerteapplikationen, die beispielsweise auch von Dritten bereitgestellt sein können und so nicht den Sicherheitsstandards entsprechen müssen, sensible Bildbereiche nur an solche Auswerteapplikationen bereitgestellt werden, die auch hierfür eine Zugriffsberechtigung besitzen. Hierzu wird das eigentliche Eingangsbild in ein Residuumbild gewandelt, bei welchem die entsprechenden sensiblen Bereiche anonymisiert sind, wobei die Bildbereiche der anonymisierten Objektbereiche als separate Objektdaten bestimmt werden und den berechtigten Auswerteapplikationen zur Weiterverwendung bereitgestellt werden können.
Besonders bevorzugt ist es, dass das Separationsmodul ausgebildet ist, für die detektierten Objekte und/oder die Objektbereiche Geometrieinformationen zu bestimmen. Insbesondere werden für die Objektbereiche jeweils eigene Geometrieinformationen bestimmt. Die Geometrieinformationen sind vorzugsweise von den Objektdaten umfasst. Die Geometrieinformationen beschreiben beispielsweise geometrische Beziehungen, z.B. die Beziehung des Objektbereiches zu weiteren Objektbereichen und/oder dem Hintergrund. Ferner umfasst und/oder beschreibt die Geometrieinformation beispielsweise eine Objektposition, beispielsweise innerhalb des Eingangsbildes und/oder der Szene. Die Geometrieinformation beschreibt und/oder umfasst vorzugsweise eine Objektgröße, beispielsweise die Größe, Form und/oder Kontur des Objektbereichs. Ferner können die Geometrieinformationen eine Objektorientierung, beispielsweise Orientierung des Objektbereichs und/oder eine Z-Ordnung des Objekts beschreiben und/oder umfassen.
Insbesondere ist es vorgesehen, dass das Detektionsmodul ausgebildet ist, basierend auf dem Eingangsbild eine Mehrzahl an Objekten zu detektieren, wobei das Separationsmodul ausgebildet ist, für die detektierten Objekte jeweils eigene Objektdaten zu bestimmen. Im Residuumbild sind hierbei für die detektierten Objekte die Objektbereiche jeweils anonymisiert. Insbesondere werden vom Detektionsmodul unterschiedliche Objektarten und Unterklassen detektiert und vom Separationsmodul die unterschiedlichen Objektarten und/oder Klassen im Residuumbild anonymisiert. Beispielsweise können so als Residuumbild in einem Eingangsbildes, zeigend eine Person, einen Hund, einen PKW und persönliche Gepäcksgegenstände, all diese Objekte detektiert werden und deren Objektbereiche im Residuumbild anonymisiert dargestellt werden.
Besonders bevorzugt ist es, dass das Detektionsmodul ausgebildet ist, die detektierten Objekte zu klassifizieren. Insbesondere werden die detektierten Objekte in Objektklassen, kurz Klassen genannt, eingeordnet und/oder klassifiziert. Insbesondere erfolgt das Detektieren und/oder Klassifizieren basierend auf einem Algorithmus des maschinellen Lernens und/oder einem neuronalen Netz. Das Separationsmodul ist ausgebildet, für Objekte innerhalb einer gemeinsamen Klasse Objektklassendaten zu bestimmen. Die Objektklassendaten umfassen, zeigen und/oder beschreiben die Bildinhalte der Objektbe reiche, die zu den Objekten in der Klasse gehören. Beispielsweise sind als Klassen „Personen“, „Fahrzeuge“ und sonstige „dingliche Objekte“ vorgesehen, wobei für jede der Klassen jeweils die Objektklassendaten bestimmt werden und diese die Bildinhalte aller Personen, Fahrzeuge bzw. dinglichen Objekte des Eingangsbildes umfassen. Somit ist es beispielsweise möglich, dass einer Auswerteapplikation zur Personenerkennung statt der einzelnen Bereitstellung der Objektdaten von Objekten der Klasse, „Person“, direkt die Objektklassendaten für die Klasse, „Person“ bereitstellbar sind.
Eine Ausgestaltung der Erfindung sieht vor, dass das Detektionsmodul ausgebildet ist, basierend auf dem Eingangsbild, den Bilddaten und/oder dem Video ein Szenenereignis zu detektieren. Das Szeneereignis kann beispielsweise ein Unfallereignis, ein Brandereignis, oder ein anwendungsspezifisches Ereignis im Überwachungsbereich bzw. der Szene darstellen. Das Szeneereignis umfasst beteiligte Objekte, wobei von dem Detektionsmodul für das Szenenereignis die beteiligten Objekte detektiert werden. Beispielsweise ist das Szenenereignis ein Unfallereignis mit zwei PKWs als Beteiligtenobjekten. Das Separationsmodul ist ausgebildet, basierend auf dem Szenenereignis Ereignisdaten zu bestimmen. Die Ereignisdaten umfassen und/oder beschreiben dabei die Objektdaten der am Szenenereignis beteiligten Objekte. Beispielsweise ist eine Auswerteapplikation zur Analyse von Unfallvorgängen ausgebildet und/oder vorgesehen, wobei der Auswerteapplikation als applikationsspezifische Rekonstruktionsdaten die Ereignisdaten bereitgestellt werden. Im Speziellen ist es vorgesehen, dass die applikationsspezifischen Rekonstruktionsdaten die Ereignisdaten und/oder Objektklassendaten umfassen.
Eine Ausgestaltung der Erfindung sieht vor, dass das Detektionsmodul zur Bereitstellung von Detektionsmetadaten ausgebildet ist. Die Detektionsmetadaten beschreiben und/oder umfassen beispielsweise Objektarten und/oder Klassen die durch das Detektionsmodul in den Eingangsbildern detektierbar und/oder verfolgbar sind. Mit anderen Worten sieht die Ausgestaltung vor, dass das Detektionsmodul mittels der Detektionsmetadaten mitteilt, welche Objektarten und/oder Klassen von Objekten in den Bilddaten bestimmbar sind und so vom Separationsmodul separierbar und/oder anonymisierbar sind. Mittels der Detektionsmetadaten ist so eine Austauschbarkeit von Detektionsmodulen und/oder die Auswahl und Abstimmung von Detektionsmodulen auf die Auswerteapplikationen möglich. Insbesondere ist es vorgesehen, dass das Separationsmodul zur Bereitstellung von Separationsmetadaten ausgebildet ist, wobei die Separationsmetadaten eine Objektbereichsinformation umfassen und/oder beschreiben. Die Objektbereichsinformation bezieht sich insbesondere auf die Objektbereiche, auf die anonymisierten Objekte und/oder Klassen, so dass Modulen denen die Residuendaten und/oder das Residuumbild bereitgestellt sind, welche Abschnitte und/oder Bereiche anonymisiert sind und so nicht in einer Auswertung berücksichtigt und/oder verwertet werden können.
Optional ist es vorgesehen, dass das Applikationsmodul eine Mehrzahl an Auswerteapplikationen umfasst und/oder die Auswerteapplikationen austauschbar, ergänzbar, nachrüstbar und/oder von Dritten, beispielsweise einem App Store, beziehbar sind. Die Auswerteapplikationen umfassen jeweils eine Zugriffsberechtigung und/oder den Auswerteapplikationen ist eine Zugriffsberechtigung zugewiesen und/oder zuweisbar. Die Zugriffsberechtigung basiert beispielsweise auf der Herkunft der Auswerteapplikation und/oder der Auswerteapplikationsart, beispielsweise Gesichtserkennungsapplikation oder Applikation zur Erkennung von Kfz-Kennzeichen. Die Zugriffsberechtigung beschreibt und/oder betrifft beispielsweise eine Berechtigung der Auswerteapplikation und/oder eine benötigte Auswerteapplikation eines bestimmten Bildinhaltes, eines bestimmten Objektes, einer bestimmten Klasse und/oder eines bestimmten Szenenereignisses. Beispielsweise weist eine Auswerteapplikation zur Gesichtserkennung die Zugriffsberechtigung die Berechtigung zum Beziehen von Bildinhalten und/oder Objektbereichen von Gesichtern als Objekten auf. Dies basiert insbesondere auf der Überlegung, dass so Auswerteapplikationen, insbesondere basierend auf ihrer Herkunft und/oder Funktion spezifische applikationsspezifische Rekonstruktionsdaten bereitgestellt werden können, die nur relevante oder keine sensiblen Bildinhalte umfassen.
Eine Ausgestaltung der Erfindung sieht vor, dass die Überwachungsanordnung ein Sendemodul und ein Empfangsmodul umfasst. Das Sendemodul ist ausgebildet, Sendedaten an das Empfangsmodul bereitzustellen, zu senden und/oder zu übertragen. Insbesondere ist das Sendemodul Teil der Kamera. Das Empfangsmodul ist beispielsweise Teil einer zentralen Auswerteeinrichtung oder Cloud. Besonders bevorzugt sind Empfangsmodul und Auswertemodul Teil einer gemeinsamen Einheit, wobei das Sendemodul, das Rekonstruktionsmodul, das Separationsmodul und das Detektionsmodul vorzugsweise ebenfalls Teil einer gemeinsamen Einheit, beispielsweise der Kamera, sind. Das Sendemodul ist ausgebildet, die Sendedaten basierend auf einem Berechtigungszertifikat bereitzustellen, dabei werden die Sendedaten basierend auf dem Berechtigungszertifikat dem Empfangsmodul kryptographisch und/oder verschlüsselt bereitgestellt. Das kryptographische und/oder verschlüsselte Darstellen erfolgt basierend und/oder mittels des Berechtigungszertifikats. Das Berechtigungszertifikat ist vorzugsweise ein Zertifikat des Empfangsmoduls, beispielsweise welche Berechtigung, Objektbereiche und/oder detektierte Objekte vom Empfangsmodul empfangen werden können. Insbesondere basiert das verschlüsselnde und/oder kartographische Bereitstellen basierend auf dem Berechtigungszertifikat und dem Austausch von Schlüsseln zwischen dem Empfangsmodul und dem Sendemodul.
Insbesondere ist es vorgesehen, dass das Berechtigungszertifikat ein Empfangsmodulzertifikat umfasst und/oder bildet, wobei die Sendedaten die Objektdaten und/oder die Residuendaten umfassen. Bei dieser Ausgestaltung werden als Sendedaten die Objektdaten, im Speziellen alle Objektdaten alternativ eine Auswahl an Objektdaten, und/oder die Residuendaten basierend auf einem Empfangsmodulzertifikat zwischen Sendemodul und Empfangsmodul ausgetauscht. Insbesondere weist jedes Empfangsmodul ein eigenes Empfangsmodulzertifikat auf und/oder das Empfangsmodulzertifikat wird in regelmäßigen Zeitabständen erneuert.
Alternativ und/oder ergänzend ist es vorgesehen, dass das Berechtigungszertifikat ein Applikationszertifikat, insbesondere spezifisch für mindestens eine Auswerteapplikation, umfasst und/oder bildet. Das Applikationszertifikat beschreibt beispielsweise, welche Berechtigung die jeweilige Auswerteapplikation aufweist und/oder welche Objektklassen, Objekte und/oder Objektbereiche dem Empfangsmodul und/oder Applikationsmodul bereitzustellen sind.
Besonders bevorzugt ist es, dass das Separationsmodul, das Detektionsmodul, das Applikationsmodul und/oder das Rekonstruktionsmodul ein neuronales Netz umfassen und/oder bilden, insbesondere zum maschinellen Lernen ausgebildet und/oder eingerichtet sind. Im Speziellen ist es vorgesehen, dass das Separationsmodul ein generatives adversarial neuronales Netz umfasst und/oder bildet, wobei das generative neuronale Netz ausgebildet und/oder eingerichtet ist, den Bildinhalt des Objektbereiches und/oder die Bildinhalte der Objektbereiche mittels des generativen neuronalen Netzes zu anonymisieren. Das generative neuronale Netz ist insbesondere ausgebildet, das Anonymisieren der Bildinhalte der Objektbereiche so durchzuführen, dass für einen Benutzer, insbesondere zur weiteren Bildauswertung und/oder Analyse, diese zwar verfremdet bereitgestellt sind, aber dennoch im Wesentlichen eine optische und/oder intuitive Ähnlichkeit des ursprünglichen Bildinhalts aufweisen.
Besonders bevorzugt ist es, dass das Separationsmodul ausgebildet ist, zur Anonymisierung den Bildinhalt in den Objektbereichen durch Ersetzen mit einem Objektrepräsentanten zu anonymisieren. Beispielsweise wird ein Objektbereich, zeigend ein Gesicht einer Person, durch ein „Mustergesicht“ als Objektrepräsentanten ersetzt und/oder ein Kfz- Kennzeichen im Eingangsbild durch ein „Muster Kfz-Kennzeichen“ ersetzt. So sind in den Residuendaten, den Residuumbildern und/oder in den applikationsspezifischen Rekonstruktionsdaten weiterhin anonymisierten Objektbereiche dargestellt, aber für einen menschlichen Benutzer und/oder weitere Auswertungen intuitiv verstehbar. Einen weiteren Gegenstand der Erfindung bildet ein Verfahren zur bildbasierten Überwachung eines Überwachungsbereichs. Mit einer Kamera werden Bilddaten umfassend mindestens ein Eingangsbild aufgenommen, wobei das Eingangsbild eine Szene umfassend mindestens ein Objekt zeigt. Die Bilddaten werden ausgewertet, wobei basierend auf dem Eingangsbild das mindestens eine Objekt detektiert wird. Für das detektierte Objekt wird basierend auf den Bilddaten, im Speziellen dem Einzelbild, ein Objektbereich bestimmt. Basierend auf den Bilddaten, im Speziellen basierend auf dem Eingangsbild, werden Objektdaten und Residuendaten bestimmt. Die Objektdaten umfassen und/oder beschreiben den Bildinhalt des Objektbereiches. Die Residuendaten umfassen ein Residuumbild, wobei das Residuumbild die Szene des Eingangsbildes zeigt und/oder umfasst, wobei die Objektbereiche anonymisiert sind. Basierend auf den Residuendaten und den Objektdaten werden applikationsspezifische Rekonstruktionsdaten für eine jeweilige Auswerteapplikation bestimmt. Die Auswerteapplikation wird dann oder kann dann auf die applikationsspezifischen Rekonstruktionsdaten angewendet werden. Als Rekonstruktionsdaten werden Daten bestimmt und/oder ermittelt, die die Residuendaten, im Speziellen das Residuumbild, sowie eine Auswahlmenge an Objektdaten umfassen. Die Auswahlmenge der Objektdaten wird für die jeweilige Auswerteapplikation spezifisch ermittelt, wobei hierzu die Objektdaten ausgewählt werden, für die die Auswerteapplikation eine Zugriffsberechtigung besitzt.
Einen weiteren Gegenstand der Erfindung bildet ein Computerprogramm, umfassend Befehle, die bewirken, dass die Überwachungsanordnung nach einem der Ansprüche 1 -12 die Verfahrensschritte nach Anspruch 13 ausführt.
Ferner betrifft die Erfindung ein computerlesbares Medium, auf dem das Computerprogramm nach Anspruch 14 gespeichert ist.
Weitere Vorteile, Wirkungen und Ausgestaltungen ergeben sich aus den beigefügten Figuren und deren Beschreibung. Dabei zeigen:
Figur 1 ein erstes Ausführungsbeispiel einer Überwachungsanordnung; Figur 2 ein Ausführungsbeispiel der Überwachungsanordnung mit einem Sende- und Empfangsmodul;
Figur 3 Ausführungsbeispiel der Überwachungsanordnung zur Übertragung von Ereignisdaten.
Figur 1 zeigt ein Ausführungsbeispiel einer Überwachungsanordnung 1 mit einer Kamera 2. Die Kamera 2 ist zur Überwachung eines Überwachungsbereiches ausgebildet, wobei die Kamera 2 Bilddaten aufnimmt und bereitstellt, wobei die Bilddaten ein Eingangsbild 3 umfassen. Das Eingangsbild 3 zeigt eine Szene, wobei die Szene einen Hintergrund 4 umfasst, der übersichtshalber nicht explizit grafisch dargestellt ist, und eine Mehrzahl an Objekten 5a-e.
Die Kamera 2 umfasst ein Detektionsmodul 6, ein Separationsmodul 7, ein Rekonstruktionsmodul 8 und ein Applikationsmodul 9. Dem Detektionsmodul 6 sind die Bilddaten, insbesondere das Eingangsbild 3, bereitgestellt. Das Detektionsmodul 6 ist ausgebildet, beispielsweise basierend auf einem neuronalen Netz, das Eingangsbild 3 auszuwerten und die Objekte 5a-e zu detektieren. Insbesondere ist das Detektionsmodul 6 ausgebildet die Objekte 5a- e zu verfolgen und/oder zu tracken. Im Speziellen wird vom Detektionsmodul 6 eine Klassifikation der Objekte 5a-e in Klassen durchgeführt.
Dem Separationsmodul 7 sind die Bilddaten, im Speziellen das Eingangsbild 3, sowie die detektierten Objekte 5a-e bereitgestellt. Das Separationsmodul 7 ist ausgebildet für die Objekte 5a-e jeweils einen Objektbereich 10a-e zu bestimmen. Beispielsweise wird hierzu für die Objekte 5a-e jeweils eine Bounding Box bestimmt. Das Separationsmodul 7 ist ferner ausgebildet, Objektdaten zu bestimmen, insbesondere für jedes der detektieren Objekte 5a-e jeweils eigene Objektdaten. Im Speziellen kann es vorgesehen sein, dass basierend auf der Klassifikation der Objekte 5a-e die Objektdaten jeweils für Objektklassen gemeinsam bestimmt werden, beispielsweise Objektdaten für alle Personen in der Szene und Objektdaten für Fahrzeuge in der Szene. Die Objektdaten umfassen den Bildinhalt des jeweiligen Objekts 5a-e im Objektbereich 10a-e, wie diese in den Bilddaten, im Speziellen dem Eingangsbild 3, umfasst ist und/oder war. Mit anderen Worten bilden die Objektdaten den Bildausschnitt der Objekte 5a-e im Eingangsbild 3. Das Separationsmodul 7 ist ferner ausgebildet Residuendaten zu bestimmen, wobei die Residuendaten ein Residuumbild 11 umfassen. Das Residuumsbild 11 ist im Wesentlichen ausgebildet wie das Eingangsbild 3, wobei die Objektbereiche 10a-e anonymisiert sind, so dass die eigentlichen Objekte 5a-e nicht im Original, kenntlich oder mit sensiblen Daten versehen im Residuumsbild 11 umfasst sind. Ferner umfasst das Residuumsbild 11 Separationsmetadaten 12a-e. Die Separationsmetadaten 12a-e beschreiben jeweils Objektart und/oder Klasse, die anonymisiert umfasst ist, so dass ein Benutzer oder eine nachfolgende Auswertung zumindest grundlegende Informationen über den fehlenden Bildinhalt erhält.
Das Applikationsmodul 9 ist ausgebildet Auswerteapplikationen auszuführen. Die Auswerteapplikation sind beispielsweise von einem Benutzer nachrüstbar und/oder installierbar, wobei diese beispielsweise aus einem App Store bezogen werden können. Die Auswerteapplikationen sind zur Anwendung auf Bilddaten ausgebildet, wobei das Applikationsmodul 9 ausgebildet ist, die Auswerteapplikationen auf applikationsspezifische Rekonstruktionsdaten 13 anzuwenden. Zur Bestimmung der applikationsspezifischen Rekonstruktionsdaten 13 weist die Ausführungsapplikation eine Zugriffsberechtigung auf, wobei die Zugriffsberechtigung beispielsweise beschreibt, welche Bildinhalte, Objektbereiche zur Auswertung benötigt werden und/oder wie vertrauensvoll die Auswerteapplikation ist, damit entschieden werden kann welche Bildinhalte, Objektdaten basierend auf der Vertrauenswürdigkeit bereitgestellt werden können.
Das Rekonstruktionsmodul 8 ist ausgebildet, die applikationsspezifischen Rekonstruktionsdaten 13 zu bestimmen. Hierzu wird die Zugriffsberechtigung 14 der jeweiligen Auswerteapplikation dem Rekonstruktionsmodul 8 bereitgestellt. Das Rekonstruktionsmodul 8 bestimmt insbesondere ein Rekonstruktionsbild, dass in den applikationsspezifischen Rekonstruktionsdaten 13 umfasst ist. Das Rekonstruktionsbild umfasst das Residuumsild 11 , wobei zusätzlich die Objektdaten für die Objekte 5a, 5b und 5d umfasst sind. Insbesondere sind beispielsweise die Objektbereiche zugehörig zu den Objekten 5a, 5b und 5d im Rekonstruktionsbild 3 nicht länger anonymisiert dargestellt wie im Residuumsbild 11 , sondern umfassen den tatsächlichen Bildinhalt, wobei die Objektbereiche für die Objekte 5c und 5e weiterhin anonymisiert umfasst sind. Diese applikationsspezifischen Rekonstruktionsdaten 13 werden dem Applikationsmodul 9 zur Anwendung der zugehörigen Auswerteapplikation bereitgestellt. Beispielsweise ist die zugehörige Auswerteapplikation zur Verfolgung von Personen, Tieren und Fahrzeugen ausgebildet, wobei die Bildinhalte für statische Einrichtungsgegenstände wie die Objekte 5c und 5e nicht benötigt werden und somit nicht entanonymisiert darzustellen sind.
Figur 2 zeigt ein Ausführungsbeispiel der Überwachungsanordnung 1 , die im Wesentlichen ausgebildet und/oder angelehnt ist an das Ausführungsbeispiel aus Figur 1. Im Unterschied hierzu sieht die Kamera 2 ein Sendemodul 14 vor.
Ferner ist bei dieser Ausgestaltung vorgesehen, dass das Applikationsmodul 9 und das Rekonstruktionsmodul 8 Teil einer externen Einheit 16, beispielsweise einer Cloud, sind. Das externe Modul 16 umfasst ferner ein Empfangsmodul 15. Zwischen dem Sendemodul 14 und dem Empfangsmodul 15 werden Sendedaten 17 ausgetauscht. Hierzu ist das Sendemodul 14 ausgebildet, die Sendedaten 17 verschlüsselt und/oder kryptographisch dem Empfangsmodul 15, insbesondere der externen Einheit 16, bereitzustellen. Die Sendedaten, umfassen die Residuendaten, dass Residuumbild 11 und die Objektdaten. Zur Verschlüsselung und/oder Kryptographie ist zwischen dem Empfangsmodul 15 und dem Sendemodul 14 ein Schlüsselaustausch vorgesehen, wobei Schlüssel ausgetauscht werden und basierend auf diesen Schlüsseln die Sendedaten verschlüsselt werden. Insbesondere erfolgt das verschlüsselnde und/oder kryptographische Verarbeiten der Daten zu den Sendedaten 17 basierend auf einem Berechtigungszertifikat. Das Berechtigungszertifikat beschreibt beispielsweise, ob der externen Einheit 16 und/oder einem Benutzer oder einer Auswerteapplikation, vertraut werden kann und die Bildinhalte der Objektdaten bereitgestellt werden können. So kann beispielsweise sichergestellt werden, dass die sensiblen Inhalte der Objektbereiche nicht an unvertrauenswürdige Empfänger bereitgestellt werden. Die externe Einheit 16 ist ausgebildet, die empfangenen Daten, bzw. Sendedaten 17, dem Rekonstruktionsmodul 8 zustellen, sodass das Rekonstruktionsmodul 8 wie vorher beschrieben die applikationsspezifischen Rekonstruktionsdaten erstellen kann. Figur 3 zeigt ein Ausführungsbeispiel der Überwachungsanordnung 1 , im Wesentlichen ausgebildet wie in den Figuren 1 und 2. Jedoch umfasst die Kamera 2 ein Ereigniserkennungsmodul 18, das besonders bevorzugt Teil des Separationsmoduls 7 ist. Das Ereignisbestimmungsmodul 18 ausgebildet basierend auf den Bilddaten ein Ereignis zu detektieren und/oder zu erkennen, beispielsweise einen Unfall. Bei Erkennen des Ereignisses werden die zugehörigen und/oder am Ereignis beteiligten Objekte bestimmt, beispielsweise Objekt 5d, 5a und 5b bei einem Unfall zwischen dem Fahrzeug, der Person und dem Hund. Diese Information wird dem Sendemodul 14 bereitgestellt, wobei das
Sendemodul 14 ausgebildet ist, die Übersendung von Ereignisdaten an das Empfangsmodul 15 zu veranlassen. Die Ereignisdaten werden beispielsweise vom Separationsmodul bestimmt. Die Ereignisdaten umfassen die Objektdaten der Objekte 5a,b,d, die an dem jeweiligen Ereignis beteiligt sind. Somit wird eine Ausgestaltung bereitgestellt, die veranlasst Objektdaten bereitzustellen, wenn ein bestimmtes Ereignis eingetreten ist.

Claims

Ansprüche
1 . Überwachungsanordnung (1) zur bildbasierten Überwachung eines Überwachungsbereichs, mit einer Kamera (2), wobei die Kamera (2) ausgebildet und/oder eingerichtet ist, Bilddaten umfassend mindestens ein Eingangsbild (3) aufzunehmen und/oder bereitzustellen, wobei das Eingangsbild (3) eine Szene umfassend mindestens ein Objekt (5a-e) zeigt, mit einem Detektionsmodul (6) und einem Separationsmodul (7), wobei das Detektionsmodul (6) ausgebildet ist, basierend auf dem Eingangsbild (3) das mindestens eine Objekt (5a-e) zu detektieren, wobei das Detektionsmodul (6) und/oder das Separationsmodul (7) ausgebildet ist, für das mindestens eine detektierte Objekt (5a-e) in dem Eingangsbild (3) einen Objektbereich (1 Oa-e) zu bestimmen, wobei das Separationsmodul (7) ausgebildet ist, für das mindestens eine detektierte Objekt (5a-e) Objektdaten zu bestimmen, wobei die Objektdaten einen Bildinhalt des Objektbereichs (10a-e) umfassen, wobei das Separationsmodul (7) ausgebildet ist, Residuendaten zu bestimmen, wobei die Residuendaten ein Residuumbild (11) umfassen, wobei das Residuumbild (11) die Szene des Eingangsbildes (3) mit anonymisierten Objektbereich/en (1 Oa-e) umfasst und/oder zeigt, mit einem Applikationsmodul (9), wobei das Applikationsmodul (9) ausgebildet ist, eine Auswerteapplikation auf applikationsspezifische Rekonstruktionsdaten (13) anzuwenden, mit einem Rekonstruktionsmodul (8), wobei das Rekonstruktionsmodul (8) ausgebildet ist, die applikationsspezifischen Rekonstruktionsdaten (13) zu bestimmen, wobei die applikationsspezifischen Rekonstruktionsdaten (13) die Residuendaten und/oder das Residuumbild (11) sowie eine Auswahlmenge der Objektdaten umfassen, wobei das Rekonstruktionsmodul (8) ausgebildet ist, für die Auswahlmenge aus der Menge der Objektdaten die Objektdaten auszuwählen, für die die Auswerteapplikation eine Zugriffsberechtigung (14) besitzt. Überwachungsanordnung (1) nach Anspruch 1 , dadurch gekennzeichnet, dass das Separationsmodul (7) ausgebildet ist, für die detektierten Objekte (5a-e) und/oder für die Objektbereiche (10a-e) Geometrieinformationen zu bestimmen, wobei die Geometrieinformationen eine geometrische Beziehung, eine Objektposition, eine Objektgröße, eine Objektorientierung und/oder eine Z-Ordnung des Objekts (5a-e) beschreibt und/oder umfasst, wobei die Objektdaten die Geometrieinformation umfassen. Überwachungsanordnung (1) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Detektionsmodul (6) ausgebildet ist, basierend auf dem Eingangsbild (3) eine Mehrzahl an Objekten (5a-e) zu detektieren, wobei das Separationsmodul (7) ausgebildet ist, für die detektierten Objekte (5a-e) jeweils Objektdaten zu bestimmen, wobei im Residuumbild (11) für die detektierten Objekte (5a-e) die Objektbereiche (10a-e) anonymisiert sind. Überwachungsanordnung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Detektionsmodul (6) ausgebildet ist, die detektierten Objekte (5a-e) zu klassifizieren, wobei das Separationsmodul (7) ausgebildet ist, für die Objekte (5a-e) in einer Klasse Objektklassendaten zu bestimmen, wobei die Objektklassendaten den Bildinhalt der Objektbereiche (10a-e) derjenigen Objekte (5a-e) umfassen, die zu der Klasse gehörigen. Überwachungsanordnung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Detektionsmodul (6) ausgebildet ist, basierend auf dem Eingangsbild (3) ein Szenenereignis mit beteiligten Objekten (5a-e) zu detektierten, wobei das Separationsmodul (7) ausgebildet ist, für das Szenenereignis Ereignisdaten zu bestimmen, wobei die Ereignisdaten den Bildinhalt der Objektbereiche (10a-e) derjenigen Objekte (5a-e) umfassen, die an dem Szenenereignis beteiligt sind. Überwachungsanordnung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Detektionsmodul (6) zur Bereitstellung von Detektionsmetadaten ausgebildet ist und/oder das Separationsmodul (7) zur Bereitstellung von Separationsmetadaten (12a-e) ausgebildet ist, wobei die Detektionsmetadaten Objektarten und/oder Klassen der von dem Detektionsmodul (6) detektierbaren Objekte (5a-e) umfassen, wobei die Separationsmetadaten (12a-e) eine Objektbereichsinformation von anonymisierten Objektbereichen (10a-e), anonymisierten Objekten (5a-e) und/oder Klassen umfassen. Überwachungsanordnung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Applikationsmodul (9) eine Mehrzahl an Auswerteapplikationen umfasst, wobei die Auswerteapplikationen austauschbar und/oder ergänzbar sind, wobei die Auswerteapplikationen jeweils eine Zugriffsberechtigung (14) aufweisen, wobei die Zugriffsberechtigung (14) eine Berechtigung und/oder ein Benötigen eines Bildinhaltes, einer Klasse und/oder eines Szenenereignisses beschreibt und/oder betrifft. Überwachungsanordnung (1) nach einem der vorherigen Ansprüche, gekennzeichnet durch ein Sendemodul und ein Empfangsmodul (15), wobei das Sendemodul ausgebildet ist, Sendedaten (17) an das Empfangsmodul (15) bereitzustellen, wobei das Sendemodul ausgebildet ist, die Sendedaten (17) basierend auf einem Berechtigungszertifikat kryptographisch und/oder verschlüsselt an Empfangsmodul (15) bereitzustellen. Überwachungsanordnung (1) nach Anspruch 8, dadurch gekennzeichnet, dass das Berechtigungszertifikat ein Empfangsmodulzertifikat umfasst und/oder bildet, wobei die Sendedaten (17) die Objektdaten und/oder die Residuendaten umfassen. Überwachungsanordnung (1) nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass das Berechtigungszertifikat ein Applikationszertifikat mindestens einer Auswerteapplikation umfasst und/oder bildet, wobei die Sendedaten (17) die Objektdaten derjenigen Objekte (5a-e) umfassen, für die die Auswerteapplikation die Berechtigung aufweist Überwachungsanordnung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Separationsmodul (7) ein generatives neuronales Netz umfasst und ausgebildet ist, den Bildinhalt der Objektbereiche (10a-e) mittels des generativen neuronalen Netzes zu anonymisieren. Überwachungsanordnung (1) nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Separationsmodul (7) ausgebildet ist, zur Anonymisierung den Bildinhalt der Objektbereiche (10a-e) durch einen Objektrepräsentanten zu ersetzen. Verfahren zur bildbasierten Überwachung eines Überwachungsbereichs, wobei Bilddaten umfassend mindestens ein Eingangsbild (3) aufgenommen werden, wobei das Eingangsbild (3) eine Szene umfassend mindestens ein Objekt (5a-e) zeigt, wobei die Bilddaten ausgewertet werden und basierend auf dem Eingangsbild (3) das mindestens eine Objekt (5a-e) detektiert wird, wobei für das detektierte Objekt (5a-e) basierend auf den Bilddaten ein Objektbereich (1 Oa-e) bestimmt wird, wobei basierend auf den Bilddaten Objektdaten und Residuendaten bestimmt werden, wobei die Objektdaten den Bildinhalt des Objektbereiches (10a-e) umfassen und/oder beschreiben und die Residuendaten ein Residuumbild (11) umfassen, wobei das Residuumbild (11) die Szene des Eingangsbildes (3) zeigt und/oder umfasst, wobei die Objektbereiche (10a-e) in dem Residuumbild (11) anonymisiert sind, wobei basierend auf den Residuendaten und den Objektdaten applikationsspezifische Rekonstruktionsdaten (13) für eine jeweilige Auswerteapplikation bestimmt werden, wobei die applikationsspezifischen Rekonstruktionsdaten (13) eine Auswahlmenge an Objektdaten umfassen, wobei die Auswahlmenge der Objektdaten für die jeweilige Auswerteapplikation spezifisch ermittelt wird, wobei hierzu die Objektdaten ausgewählt werden, für die die Auswerteapplikation eine Zugriffsberechtigung (14) besitzt. 14. Computerprogramm, umfassend Befehle, die bewirken, dass die Überwachungsanordnung nach einem der Ansprüche 1 -12 die Verfahrensschritte nach Anspruch 13 ausführt. 15. Computerlesbares Medium, auf dem das Computerprogramm nach Anspruch
14 gespeichert ist.
PCT/EP2023/057282 2022-03-25 2023-03-22 Überwachungsanordnung, verfahren zur überwachung, computerprogramm und datenträger WO2023180361A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102022202941.0 2022-03-25
DE102022202941.0A DE102022202941A1 (de) 2022-03-25 2022-03-25 Überwachungsanordnung, Verfahren zur Überwachung, Computerprogramm und Datenträger

Publications (1)

Publication Number Publication Date
WO2023180361A1 true WO2023180361A1 (de) 2023-09-28

Family

ID=85778668

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/057282 WO2023180361A1 (de) 2022-03-25 2023-03-22 Überwachungsanordnung, verfahren zur überwachung, computerprogramm und datenträger

Country Status (2)

Country Link
DE (1) DE102022202941A1 (de)
WO (1) WO2023180361A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170039387A1 (en) * 2015-08-03 2017-02-09 Agt International Gmbh Method and system for differentiated privacy protection
US20190018830A1 (en) 2016-03-24 2019-01-17 Alibaba Group Holding Limited Mixed view display method and device
US20210192816A1 (en) * 2018-04-12 2021-06-24 Panasonic Intellectual Property Management Co., Ltd. Video processing device, video processing system, and video processing method
US20210227271A1 (en) * 2020-01-22 2021-07-22 Microsoft Technology Licensing, Llc Privacy-preserving video analytics
US20210383018A1 (en) * 2020-06-09 2021-12-09 Axis Ab Method and device for partially unmasking an object in a video stream

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008007199A1 (de) 2008-02-01 2009-08-06 Robert Bosch Gmbh Maskierungsmodul für ein Videoüberwachungssystem, Verfahren zur Maskierung von selektierten Objekten sowie Computerprogramm
EP3672244B1 (de) 2018-12-20 2020-10-28 Axis AB Verfahren und vorrichtungen zum codieren und decodieren einer folge von bildfeldern, in denen die privatsphäre eines objekts geschützt ist
DE102020203473A1 (de) 2020-03-18 2021-09-23 Robert Bosch Gesellschaft mit beschränkter Haftung Anonymisierungseinrichtung, Überwachungsvorrichtung, Verfahren, Computerprogramm und Speichermedium
DE102020203475A1 (de) 2020-03-18 2021-09-23 Robert Bosch Gesellschaft mit beschränkter Haftung Anonymisierungseinrichtung, Überwachungsvorrichtung, Verfahren, Computerprogramm und Speichermedium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170039387A1 (en) * 2015-08-03 2017-02-09 Agt International Gmbh Method and system for differentiated privacy protection
US20190018830A1 (en) 2016-03-24 2019-01-17 Alibaba Group Holding Limited Mixed view display method and device
US20210192816A1 (en) * 2018-04-12 2021-06-24 Panasonic Intellectual Property Management Co., Ltd. Video processing device, video processing system, and video processing method
US20210227271A1 (en) * 2020-01-22 2021-07-22 Microsoft Technology Licensing, Llc Privacy-preserving video analytics
US20210383018A1 (en) * 2020-06-09 2021-12-09 Axis Ab Method and device for partially unmasking an object in a video stream

Also Published As

Publication number Publication date
DE102022202941A1 (de) 2023-09-28

Similar Documents

Publication Publication Date Title
DE102019109288A1 (de) Anlage und Verfahren für Analyse des importierten Videos
EP2174260A2 (de) Vorrichtung zur erkennung und/oder klassifizierung von bewegungsmustern in einer bildsequenz von einer überwachungsszene, verfahren sowie computerprogramm
DE102022107735A1 (de) Personenbezogene informationen in verschlüsselten datenströmen
WO2021185507A1 (de) Anonymisierungseinrichtung, überwachungsvorrichtung, verfahren, computerprogramm und speichermedium
EP3499473A1 (de) Automatisiertes detektieren von gefahrensituationen
WO2020083732A1 (de) Beglaubigungmodul für sensordaten
WO2023180361A1 (de) Überwachungsanordnung, verfahren zur überwachung, computerprogramm und datenträger
AT510352A1 (de) Kamera für die unkenntlichmachung personenbezogener daten
DE102017102712A1 (de) Dezentrale Datenspeicherung
DE102016222134A1 (de) Videoanalyseeinrichtung für eine Überwachungsvorrichtung und Verfahren zur Erzeugung eines Einzelbildes
EP3616858A2 (de) Verfahren und vorrichtung zur dokumentation eines status eines autonomen roboters
DE102008018026A1 (de) Verfahren zur Wahrung von Persönlichkeitsrechten bei einer Erfassung von Aufnahmen von Personen
WO2023180362A1 (de) Überwachungsanordnung mit zugriffsberechtigung, verfahren, computerprogramm und speichermedium
DE102020004792A1 (de) Verfahren und Vorrichtung zur Erkennung und Meldung von Parkunfällen für Fahrzeuge
AT508624B1 (de) Verfahren zur videoanalyse
DE102022203065A1 (de) Verfahren zum Betreiben einer Überwachungsvorrichtung, Computerprogramm, Speichermedium und Überwachungsvorrichtung
DE102022202942A1 (de) Überwachungsvorrichtung, Überwachungsanordnungen, Verfahren, Computerprogramm und Speichermedium
Макаринська et al. MODERN DIGITAL TECHNOLOGIES IN CRIMINAL ANALYSIS
DE102020206350A1 (de) Verfahren zur Detektion von Vergleichspersonen zu einer Suchperson, Überwachungsanordnung, insbesondere zur Umsetzung des Verfahrens, sowie Computerprogramm und computerlesbares Medium
Pinthong et al. The License Plate Recognition system for tracking stolen vehicles
DE102022200832A1 (de) Verfahren zur Überwachung mit mindestens einer Überwachungseinheit, Computerprogramm und Überwachungseinheit
EP4022584A1 (de) Überwachungsvorrichtung, überwachungsanordnung, verfahren, computerprogramm und speichermedium
DE102022202583A1 (de) Verfahren zum Überwachen eines Beobachtungsbereichs
DE102018010065A1 (de) Verfahren zur Videoüberwachung und Videoüberwachungssystem
DE102022203062A1 (de) Verfahren zur Bestimmung von Kameraergänzungsvorschlägen für eine Überwachungsvorrichtung, Computerprogramm, Speichermedium und Überwachungsvorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23713874

Country of ref document: EP

Kind code of ref document: A1