WO2022022782A2 - Verfahren zur erfassung von bild- und/oder objektdaten und sensorsystem dafür - Google Patents

Verfahren zur erfassung von bild- und/oder objektdaten und sensorsystem dafür Download PDF

Info

Publication number
WO2022022782A2
WO2022022782A2 PCT/DE2021/100661 DE2021100661W WO2022022782A2 WO 2022022782 A2 WO2022022782 A2 WO 2022022782A2 DE 2021100661 W DE2021100661 W DE 2021100661W WO 2022022782 A2 WO2022022782 A2 WO 2022022782A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
image sensor
camera
data
observation area
Prior art date
Application number
PCT/DE2021/100661
Other languages
English (en)
French (fr)
Other versions
WO2022022782A3 (de
Inventor
Andrey Danilov
Thomas Reinel
Frank Fielers
Original Assignee
Fielers & Danilov Dynamic Solutions GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fielers & Danilov Dynamic Solutions GmbH filed Critical Fielers & Danilov Dynamic Solutions GmbH
Publication of WO2022022782A2 publication Critical patent/WO2022022782A2/de
Publication of WO2022022782A3 publication Critical patent/WO2022022782A3/de

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19686Interfaces masking personal details for privacy, e.g. blurring faces, vehicle license plates

Definitions

  • the invention relates to a method for capturing image and/or object data with the features of the preamble of claim 1 and a sensor system for implementation with the features of the preamble of claim 7.
  • Video surveillance systems are used in a variety of ways to monitor systems, buildings and public spaces.
  • the devices for capturing optical information are small, inexpensive and easy to install and remove.
  • the analysis of optical information allows the collection of information about the emotional and physical state of people.
  • optical information acquisition is particularly important for people in need of care. Such recordings can be used not only to record the state of health, but also as detectors for possible accidents, such as falls. Long-term observations reveal changes in the daily routine, which in turn can indicate health or social problems. Optical information acquisition is also used in security systems to detect the presence of people in secured areas and to identify them.
  • a major challenge for brick-and-mortar retail and shopping centers is competition from online trade.
  • a basic customer understanding is required for stationary retail in order to increase the shopping experience and sales.
  • the number of people and their characteristics can be determined with optical information acquisition. Person tracking, heat map creation, customer-product interaction analysis and waiting time optimization in the checkout area are possible.
  • Personalised, dynamic product advertising is not only in great demand in online trade, but also in stationary retail.
  • the object of this invention is to enable continuous surveillance of an observation area, in which the privacy of people staying there is preserved.
  • the object is achieved by a method for capturing image and/or object data in an observation area with the features of claim 1.
  • a sensor system suitable for carrying out the method is specified in claim 7 .
  • the invention is essentially based on the fact that the information content of the captured image data is reduced by a physical means from the outset, i.e. before recording or transmission to external units, i.e. the camera used does not record any image data from the outset that have high information density, that people or objects can be individualized in them. To put it simply, only blurry, distorted images are recorded, which allow recognizing, for example, the presence or movement of people in the observation area, but no details of clothing and in particular not the face of the person can be seen.
  • image and optical in the context of the present invention relate primarily to the range of light visible to the human eye, but can also extend to subsequent spectral ranges, i.e. infrared and ultraviolet, which are associated with corresponding Sensors are detectable.
  • the method according to the invention thus makes it possible to reduce the optical information present in an observation area for image recording and/or image transmission to the necessary level by physical protection and thus to improve data security significantly. It no real images are recorded, so that it is not possible to obtain optical information in a level of detail through unauthorized access, e.g. B. area would be necessary for an identification of certain people or objects in the people.
  • the method thus offers despite continuous monitoring z.
  • B. a highly personal area of a person's life such as a living room or bedroom, a high level of data security. It is therefore particularly suitable for emergency monitoring of elderly people living independently.
  • the results of the data analysis can be checked quickly in an emergency, e.g. with artificial intelligence.
  • the algorithms for detecting dangerous situations can be set much more sensitively, since the possibility of false alarms can be significantly reduced through visual inspection.
  • the information content of the recorded data can be adjusted by the strength and type of distortion.
  • the degree of distortion can be changed by replacing the privacy screen element.
  • the visual protection element can, for example, be designed as follows:
  • a privacy screen made of a material whose degree of transparency can be changed by generating a magnetic field or by applying an electrical voltage.
  • the distorted optical information can be recorded with an ordinary camera.
  • the optical information can also be recorded by one or more electronic image sensors.
  • the method preferably provides for the use of an electronic image sensor, since the electronically recorded image data with reduced information content can best be further processed, analyzed, transmitted and stored in this way.
  • the provided according to the invention privacy element is before given to outside the camera or the lens, but can also be arranged in the beam path between the camera lens and image sensor.
  • a camera with a lower resolution can be used in addition to the privacy screen, so that no sharp images or video sequences are recorded even if the privacy screen is intentionally removed.
  • the information content can be controlled by selecting the resolution.
  • Realistic-looking images or video sequences can be created on the basis of the recorded, distorted optical data. Missing information can be added to the images, for example using artificial neural networks that are specially designed and trained for this purpose. For example, a person's face or the design of a room can be created artificially.
  • the generated images or video data can contain the important data such as body position, position in space, opening of the window, etc.
  • the artificially generated images or video data can be generated in such a way that the people and/or the room cannot be identified.
  • the generated images or video data can be further processed or evaluated like data recorded by a camera. Data from multiple sensor systems can be merged. This provides better accuracy and coverage.
  • the fusion can take place by linking the detected objects with their calculated positions on a digital map of the monitored space. For example, a person's movement can be tracked across multiple rooms with multiple sensor systems. If the person or object is detected by several systems at the same time, the position of the object can be determined from several calculated positions, e.g. B. as an
  • a rotation mechanism can be provided in the image sensor unit, which allows a pivoting movement of the sensor in the housing or the housing. This allows information to be collected from a larger area.
  • the privacy screen can be replaced with another or removed using a remote controlled actuator. This makes it possible to take and forward undistorted images in an emergency.
  • the automatic change of the privacy screen elements enables a quick adjustment to the care needs of a person who is in the observation area.
  • the change of privacy protection elements can be indicated by acoustic and optical signals. For example, an acoustic signal can be permanently switched on by a warning device as long as the visual protection element has moved away.
  • the warning device can be implemented in a separate, independent circuit with appropriate sensors for detecting the position of the visual protection element, so that it cannot be remotely controlled and thus cannot be remotely manipulated by a hacking attack.
  • the image sensor unit can be connected to an external evaluation unit or contain an internal evaluation unit. In the case of an evaluation unit, the image sensor unit contains additional means for data processing, data compression and/or data transmission.
  • the distorted image is preferably evaluated with the aid of a machine learning algorithm.
  • An algorithm known from the prior art for processing undistorted images can be used as the machine learning algorithm.
  • the algorithm can be trained to extract data from distorted images.
  • the data set required for training can be created as follows:
  • the data for the training is recorded by a video camera that is coupled and synchronized with the sensor system. Both distorted and undistorted images are recorded simultaneously.
  • the undistorted images are evaluated using a machine learning algorithm, which is fundamentally known from technology, and the evaluation results are combined with the distorted images to form a training set.
  • both moving and stationary objects can be monitored. In general, it is easier to recognize the moving objects. However, the system also works with non-moving objects, since the algorithm can recognize the individual objects in distorted images.
  • a further preferred embodiment of the method according to the invention provides that a change detection can be used for the image evaluation.
  • the image is first evaluated with a machine learning algorithm in one step without any change analysis.
  • a few consecutive images and/or the current image with background image can be used as input to the machine learning algorithm, so that the algorithm can rely on both changes and distorted images of the objects.
  • the machine learning algorithm can be trained to recognize individual objects or the entire background in the distorted images and to reconstruct the recognized elements without distortion or almost without distortion. During training, the machine learning algorithm learns the missing ones Reconstruct information about the object or background. The training of the machine learning algorithm can be performed with a data set of image pairs of distorted and undistorted images.
  • the data can be created as described in point 8. In this way, objects and backgrounds that are known, but also only known to the machine learning algorithm, can be reconstructed in an undistorted or almost undistorted manner.
  • the information content in the image can be captured in a specific value using a mathematical expression. For example, a ratio of the sum of the high frequencies of the Fourier transform of the image to the sum over all frequencies can be used.
  • a limit value can be set for each privacy screen to check the degree of distortion.
  • the degree of data acquisition of the area surveillance which has been anonymized according to the invention, can be checked online. Exceeding the limit value indicates insufficient visual protection and can be indicated by optical and/or acoustic means and/or results in an image transmission or image recording not taking place.
  • the examination of the remaining information content or, conversely, the examination of the degree of distortion can be carried out both for the entire image and for individual areas of the image.
  • the privacy screen element used can be easily identified on the basis of a characteristic distortion pattern. Such a pattern can e.g. B. conditions by recesses, glued grids or painted patterns are generated. It offers the possibility to easily check on the captured image whether the privacy protection element is present and what it is.
  • Optical means such as colored LEDs, the z. B. indicate correct operation with distortion with “green” and any deviations from this with “red”.
  • - Acoustic means such as a piezo buzzer that signals deviations from normal operation.
  • the privacy protection element can be designed in the form of an element that also carries the functionality of the lens of a camera lens.
  • a sol Ches element z. B. one or more suitably deformed lenses are used ver. The deformation can be created both by the shape of the lens and by a relief pattern on the lens surface.
  • an image with the almost undistorted areas can be generated from the distorted information.
  • the images of known objects and/or backgrounds for the machine learning algorithm can be generated almost undistorted.
  • the known objects or backgrounds are recognized in the distorted image and replaced with an undistorted image.
  • the unknown objects can only be displayed in a distorted manner, since the detailed information about these objects is neither known nor recorded.
  • the images generated in this way look almost undistorted with some blurred areas which e.g. B correspond to the image of a person and are easy for a human to interpret.
  • a data set of pairs of distorted and undistorted images, each relating to the same observation area, can be used for the training.
  • Undistorted images of similar, but not necessarily current, environments and/or objects can be used for this approach.
  • the trained algorithm reconstructs the known but not necessarily current environment and/or the objects present from the recognized patterns in the distorted image.
  • FIG. 1 shows an image sensor unit in a perspective view
  • 4A shows an image recording of an observation area
  • 4B shows the image recording with the object and person markings generated therefrom
  • FIG. 5 shows a flow chart to illustrate the process sequence
  • 6 shows the floor plan of a room with an observation area
  • 7 shows an image recording of an observation area with people markings, which is overlaid with an undistorted background representation.
  • Fig. 1 shows an embodiment of an image sensor unit 10 in a perspective view.
  • a transparent or partially transparent privacy screen element 15 is arranged at an opening of a housing 14. It contains a surface relief pointing to the outside, so that only distorted optical information is transmitted through the visual protection element 15 to a camera arranged in the housing 14 .
  • the image sensor unit 10 is shown partially in section. Inside the housing 14 there is an electronic camera 11 which includes an electronic image sensor 12 with a camera lens 13 .
  • a first rotary actuator 16 is provided to pivot the camera 11 about a verti cal axis.
  • a second rotary actuator 17 is provided to pivot the camera 11 about a horizontal axis.
  • a larger area can be scanned periodically by the actuators 16, 17, or the position can be changed depending on the time of day, for example.
  • FIG. 3 shows the sectioned image sensor unit 10 in a side view.
  • an electronic unit 18 available z. B. is in the form of a single-board computer.
  • the electronics unit 18 can contain elements such as a rechargeable battery, computer, control electronics, etc.
  • the entire or partial analysis of the recorded image information can be carried out in the electronics unit 18 or they are processed, for example, on an external server to which the recorded data are sent.
  • FIG. 6 shows the floor plan of a room with an observation area 1 that can be viewed from the image sensor unit 10 .
  • a TV on the wall as object 2.1, a window as object 2.2, and a sofa as object 2.3, and a person 3 are present.
  • the image sensor unit 10 is connected to an external evaluation unit 20 with an image monitor 30 .
  • FIG. 4A shows an example of an image recording of the observation area 1 , which was recorded by the image sensor unit 10 with the visual protection element 15 .
  • the objects 2.1, 2.2, 2.3 as well as the person 3 are only vaguely recognizable to the human eye. Due to the previously performed machine learning algorithm, the monitoring system knows that the stationary objects 2.1, 2.2, 2.3 are present. Person 3, on the other hand, has been added to the known stationary state.
  • FIG. 4B shows a possible visualization of the image recording according to FIG. 4A with superimposed object markings for the objects 2.1, 2.2, 2.3 and a different type of marking for the person 3.
  • the marking for the person 3 not only shows the presence, but also represents its presence Posture symbolized.
  • a person standing in the corner of the room has been detected by the surveillance system.
  • AD3 By looking at the recordings over time, both emergency situations such as e.g. B. falls, as well as movement patterns that indicate a possible disease.
  • the monitoring system can be programmed so that no request for assistance is deemed necessary for persons who are standing or walking.
  • FIG. 4C shows a further possible visualization in which the image information is completely hidden and only the markings of recognized objects and people are present.
  • a visualization can B. be used for an operation center by nurses in a nursing home or hospital.
  • FIG. 5 shows an exemplary embodiment of the method according to the invention in the form of a flow chart: After switching on, it is checked whether the visual protection element 15 is in the appropriate position in front of the camera 11 . For this z. B. a mechanical sensor on the image sensor unit 10 is queried. If the visual protection element 15 is detected at its position, the image captured by the image sensor 12 of the camera 11 is recorded, otherwise the program is halted and the corresponding error message is displayed.
  • the image is checked to determine whether it was taken through the privacy screen 15 .
  • Each privacy screen 15 leaves a specific pattern on the image that can be easily recognized.
  • a spectrum of the image is calculated and it is checked whether the high-frequency information has been filtered out. If it is determined that the distortion has not taken place to an appropriate degree, the program is stopped and an appropriate error message is displayed.
  • An image in which changes have been detected is adjusted for further processing.
  • the resolution and size of the image is adjusted for further evaluation using the machine learning algorithm. If the size of the image evaluated by the machine learning algorithm is too small, the image is divided into several small, possibly overlapping fragments and processed sequentially.
  • the results of the image processing by the machine learning algorithms are further evaluated and described according to the activity, movement and pose analyses.
  • the metadata is sent to a cloud server. Which data is sent to the cloud can be specified depending on the application.
  • the data obtained from the recording is used to identify dangerous situations. If such a situation as, for example, fall, fight, burglary, etc. is detected, a signal z. B. sent to an operations center.
  • televisit mode the privacy screen is pushed away and more images are taken without distortion.
  • the recorded images are forwarded via communication channels
  • a warning is signaled on the image sensor unit.
  • Optical and/or acoustic signals can be used as a warning, e.g. B. a red lamp with a buzzer.
  • the televisit mode ends with a prompt to close the privacy screen. After being prompted to close the televisit mode, the privacy screen is slid back in front of the camera and the warning signal is turned off. The system switches back to standard mode.
  • FIG. 7 shows a further possible visualization of the evaluation of the distorted image recording 40, in which the representation 41 of a recognized object 43 such as a person is superimposed with an undistorted image of the background 42.
  • the information about the background 42 is learned by the machine learning algorithm in the training phase and can thus be generated in the image. If different states of the background 42 are recorded in the training data set, the algorithm learns to generate the background 42 almost undistorted, so that e.g. B. the position of the furniture, the room lighting and the object shadows can be generated realistically. Since the information about object 43 was not available to the algorithm during training, it is only shown as a blur or with a texture on the viewable image.
  • the display approach allows the algorithm to display known images of objects 43 and background 42, but also only known images in an almost undistorted manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zur Erfassung von Bild- und/oder Objektbewegungsdaten in einem Beobachtungsbereich (1), wenigstens umfassend: - eine Bildsensoreinheit (10), die wenigstens einen elektronischen Bildsensor (12) und/oder eine Kamera (11) enthält, - eine mit der Bildsensoreinheit (10) verbundene Bildauswertungseinrichtung (20) zur Verarbeitung der von der wenigstens einen Kamera (11) oder dem Bildsensor (12) erfassten Bilddaten und/oder zur Ableitung von sonstigen Daten aus den Bilddaten wenigstens eines im Beobachtungsbereich (1) beobachteten Objekts (2.1, 2.2, 2.3, 3). Der Informationsgehalt der von der Kamera (11) und/oder dem Bildsensor (12) erfassten Bilddaten wird mittels physischer Mittel, die wenigstens zeitweise vor der Kamera (11) und/oder vor dem Bildsensor (12) angeordnet werden, reduziert.

Description

Verfahren zur Erfassung von Bild- und/oder Objektdaten und Sensorsystem dafür
Die Erfindung betrifft ein Verfahren zur Erfassung von Bild- und/oder Objektda ten mit den Merkmalen des Oberbegriffs des Anspruchs 1 und ein Sensorsys tem zur Durchführung mit den Merkmalen des Oberbegriffs des Anspruchs 7.
Videoüberwachungen werden in vielfältiger Weise zur Überwachung von Anla gen, Gebäuden und öffentlichen Räumen eingesetzt. Die Geräte zur Erfassung optischer Informationen sind klein, preiswert und lassen sich leicht ein- und ausbauen. Die Analyse optischer Informationen ermöglicht die Erfassung von Informationen über den emotionalen und physischen Zustand von Menschen.
Weitere Möglichkeiten sind die Bestimmung der Lage und Position von Fens tern und Türen, Zustand von elektrischen Geräten wie Fernseher, Lampen usw. Bei der Langzeitbeobachtung eines Menschen ermöglicht der Einsatz von künstlicher Intelligenz verschiedene Analysen zur Erkennung von Veränderun gen des Gesundheitszustandes, z.B. Gewichtsveränderung, Bewegungsana lyse, etc.
Besonders wichtig für pflegebedürftige Menschen ist die Aufzeichnung und Verarbeitung von optischen Informationen. Solche Aufzeichnungen können nicht nur zur Erfassung vom Gesundheitszustand, sondern auch als Detekto ren für mögliche Unfälle, z.B. von Stürzen, verwendet werden. Durch Langzeit beobachtungen lassen sich Veränderungen im Tagesablauf erkennen, die wie derum auf gesundheitliche oder soziale Probleme hinweisen können. Eine optische Informationserfassung wird auch in Sicherheitssystemen einge setzt, um die Anwesenheit von Personen in gesicherten Bereichen zu erken nen und diese zu identifizieren.
Eine große Herausforderung für den stationären Einzelhandel und für Ein kaufszentren ist der Wettbewerb durch den Online-Handel. Ein grundlegendes Kundenverständnis ist für den stationären Einzelhandel erforderlich, damit Ein kaufserlebnis und Umsatz gesteigert werden. Mit der optischen Informations erfassung können Personenanzahl und Personenmerkmale bestimmt werden. Ein Personentracking, eine Heatmap-Erstellung, eine Kunden-Produkt-Interak- tionsanalyse und eine Wartezeitoptimierung im Kassenbereich sind möglich. Eine personalisierte, dynamische Produktwerbung ist nicht nur im Onlinehan del, sondern auch im stationären Einzelhandel sehr gefragt.
Problematisch bei den vorstehend beschriebenen Anwendungen ist, dass die Erfassung von Bilddaten auch einen Eingriff in das Privatleben der Menschen darstellt und daher rechtlich nicht zulässig ist oder von der Zielgruppe nicht akzeptiert wird.
Um den unbefugten Zugriff auf aufgezeichnete Informationen zu verhindern, wurden häufig softwarebasierte Lösungen eingesetzt. Die aufgezeichneten Da ten sind verschlüsselt und nur autorisierten Personen zugänglich. Jedoch sind in Einzelfällen die Bilddaten z. B. durch Hacker-Angriffe gefährdet. Problema tisch ist, dass auch mit einem anerkannten Verfahren verschlüsselte Daten grundsätzlich durch Unautorisierte entschlüsselbar bleiben.
Häufig wird die komplette Abschirmung oder Abschaltung der Kamera verwen det, um sicherzustellen, dass keine Daten aufgezeichnet werden. Dieses Ver fahren ist jedoch umständlich und erlaubt keine kontinuierliche Datenerfas sung. Es kann auch nicht garantiert werden, dass die Kamera im gewünschten Moment, zum Beispiel bei einem Unfall, rechtzeitig eingeschaltet ist und eine Bilddatenerfassung vornimmt. Die Aufgabe dieser Erfindung ist es, eine laufende Überwachung eines Be obachtungsbereichs zu ermöglichen, bei der die Privatsphäre von Personen, die sich dort aufhalten, gewahrt bleibt.
Erfindungsgemäß wird die Aufgabe durch ein Verfahren zur Erfassung von Bild- und/oder Objektdaten in einem Beobachtungsbereich mit den Merkmalen des Anspruchs 1 gelöst.
Ein zur Durchführung des Verfahrens geeignetes Sensorsystem ist in An spruch 7 angegeben.
Die Erfindung beruht im Wesentlichen darauf, dass der Informationsgehalt der erfassten Bilddaten von vornherein, also vor einer Aufzeichnung oder Übertra gung an externe Einheiten, durch ein physisches Mittel reduziert ist, das heißt, die eingesetzte Kamera nimmt von vornherein keine Bilddaten auf, die eine solch hohe Informationsdichte haben, dass Personen oder Objekte darin indi vidualisierbar sind. Vereinfacht gesagt, werden nur verschwommene, verzerrte Bilder aufgenommen, die es zulassen, zum Beispiel die Anwesenheit oder auch die Bewegung von Personen im Beobachtungsbereich zu erkennen, je doch keine Einzelheiten der Kleidung und insbesondere nicht das Gesicht der Person erkennen lassen.
Die Bezeichnungen „Bild“ und „optisch“ beziehen sich im Sinne der vorliegen den Erfindung primär auf den Bereich des mit dem menschlichen Auge sicht baren Lichts, können sich aber auch auf sich daran anschließende Spektralbe reiche, also Infrarot und Ultraviolett erstrecken, die mit entsprechenden Sen soren erfassbar sind.
Gemäß dem Verfahren der Erfindung ist selbst bei einem späteren Missbrauch der erfassten und aufgezeichneten Bilddaten keine Bildrekonstruktion in der Weise möglich, dass eine Person nachträglich individualisierbar wäre.
Das Verfahren nach der Erfindung ermöglicht es also, die in einem Beobach tungsbereich vorhandenen optischen Information für die Bildaufzeichnung und/oder Bildübertragung durch einen physischen Schutz auf das notwendige Maß zu reduzieren und damit die Datensicherheit deutlich zu verbessern. Es werden keine realen Bilder aufgenommen, so dass es nicht möglich ist, durch unbefugten Zugriff optische Informationen in einem Detailgrad zu erhalten, der z. B. für eine Identifizierung bestimmter Personen oder Objekte im Personen bereich notwendig wäre.
Das Verfahren bietet somit trotz kontinuierlicher Überwachung z. B. eines höchstpersönlichen Lebensbereichs einer Person wie eines Wohn- oder Schlafzimmers, ein hohes Maß an Datensicherheit. Es ist damit besonders ge eignet für die Notfallüberwachung älterer, selbständig lebender Menschen.
Durch das fernbetätigbare Entfernen des Sichtschutzes in Notsituationen kön nen die Ergebnisse der Datenanalyse im Notfall schnell überprüft werden, z.B. mit künstlicher Intelligenz. Dadurch können die Algorithmen zur Erkennung von Gefahrenzuständen wesentlich sensibler eingestellt werden, da die Möglichkeit von Fehlalarmen durch visuelle Kontrolle deutlich reduziert werden kann.
Der Informationsgehalt der aufgezeichneten Daten kann durch die Stärke und die Art der Verzerrung eingestellt werden. Dabei kann der Grad der Verzerrung durch Austausch des Sichtschutzelements verändert werden.
Das Sichtschutzelement kann beispielsweise wie folgt gestaltet sein:
- ein verformter Glaskörper oder eine oder mehrere verformte optische Lin sen;
- ein matter Glaskörper;
- ein verformter Spiegel (Vexierspiegel);
- ein perforiertes Sichtschutzelement in Form einer Folie oder eines Körpers aus nicht-transparentem Kunststoff; die Ausnehmungen können in einem bestimmten Raster angeordnet sein Muster aufweisen, um die Bildinterpre tation für Menschen zu erschweren;
- ein Sichtschutzelement aus einem Werkstoff, dessen Transparenzgrad durch Erzeugen eines magnetischen Feldes oder anlegen einer elektri schen Spannung veränderbar ist. Die verzerrten optischen Informationen können mit einer gewöhnlichen Ka mera aufgezeichnet werden. Die optischen Informationen können außerdem durch einen oder mehrere elektronische Bildsensoren aufgenommen werden.
Das Verfahren sieht bevorzugt die Verwendung eines elektronischen Bildsensors vor, da die elektronisch erfassten, im Informationsgehalt reduzier ten Bilddaten so am besten weiter verarbeitbar, analysierbar, übertragbar und speicherbar sind.
Möglich ist aber auch die Verwendung einer autonomen Kamera, die eine ab geschlossene Einheit bildet und mit sonstigen Bildaufzeichnungsmitteln ver bunden ist oder diese enthält.
Das nach der Erfindung vorgesehene Sichtschutzelement befindet sich bevor zugt außerhalb der Kamera bzw. des Objektivs, kann aber auch im Strahlen gang zwischen Kameraobjektiv und Bildsensor angeordnet sein.
Optional kann neben dem Sichtschutzelement eine Kamera mit geringerer Auf lösung verwendet werden, so dass selbst bei vorsätzlicher Entfernung des Sichtschutzelements keine scharfen Bilder oder Videosequenzen aufgezeich net werden. Der Informationsgehalt kann über die Auswahl der Auflösung ge steuert werden.
Auf der Basis der aufgezeichneten verzerrten optischen Daten können realis tisch aussehende Bilder oder Videosequenzen erstellt werden. Fehlende Infor mationen können den Bildern ergänzt werden, z.B. durch künstliche neuronale Netze, die speziell für diesen Zweck entworfen und trainiert werden. So kann z.B. das Gesicht einer Person oder die Gestaltung von Räumen künstlich er zeugt werden. Die erzeugten Bilder oder Videodaten können die wichtigen Da ten wie Körperposition, Lage im Raum, Öffnen des Fensters usw. enthalten. Die künstlich erzeugten Bilder oder Videodaten können so erzeugt werden, dass die Personen und/oder der Raum nicht identifizierbar werden. Die erzeug ten Bilder oder Videodaten können, wie von einer Kamera aufgenommene Da ten, weiterverarbeitet oder ausgewertet werden. Daten von mehreren Sensorsystemen können fusioniert werden. Dies bietet eine bessere Genauigkeit und Abdeckung. Die Fusion kann durch die Verknüp fung der erkannten Objekte mit ihren berechneten Positionen auf einer digita len Karte des überwachten Raums erfolgen. Zum Beispiel kann die Bewegung einer Person über mehrere Räume mit mehreren Sensorsystemen verfolgt werden. Wird die Person oder das Objekt von mehreren Systemen gleichzeitig erfasst, kann die Position des Objekts aus mehreren berechneten Positionen ermittelt werden, z. B. als Durchschnittswert.
Eine Rotationsmechanik kann in der Bildsensoreinheit vorgesehen sein, die eine Schwenkbewegung des Sensors im Gehäuse oder des Gehäuses ermög licht. Dadurch können Information von einem größeren Bereich gesammelt werden.
Das Sichtschutzelement kann mithilfe eines fernbetätigbaren Stellantriebs durch ein anderes ersetzt oder entfernt werden. Dies ermöglicht es, im Notfall unverzerrte Bilder aufzunehmen und weiterzusenden. Der automatische Wechsel der Sichtschutzelemente ermöglicht eine schnelle Anpassung an den Pflegebedarf einer Person, die sich im Beobachtungsbereich aufhält. Der Wechsel der Sichtschutzelemente kann durch akustische und optische Signale angezeigt werden. So kann beispielsweise durch eine Warneinrichtung ein akustisches Signal dauerhaft eingeschaltet sein, solange das Sichtschutzele ment weggefahren ist.
Die Warneinrichtung kann in einem separaten, unabhängigen Schaltkreis mit entsprechenden Sensoren zur Erfassung der Position des Sichtschutzele ments realisiert werden, so dass sie nicht ferngesteuert werden kann und somit nicht fernbetätigt manipulierbar durch einen Hacking-Angriff ist.
Die Bildsensoreinheit kann mit einer externen Auswertungseinheit verbunden sein oder eine interne Auswertungseinheit beinhalten. Bei einer Auswertungs einheiten enthält die Bildsensoreinheit zusätzliche Mittel zur Datenaufberei tung, Datenkomprimierung und/oder Datenübertragung. Bevorzugt wird das verzerrte Bild bei dem Verfahren nach der Erfindung mit Hilfe eines Machine-Learning-Algorithmus ausgewertet. Als Machine-Learn- ing-Algorithmus kann ein aus dem Stand der Technik bekannter Algorithmus zur Verarbeitung unverzerrter Bilder verwendet werden. Der Algorithmus kann für die Gewinnung von Daten aus verzerrten Bildern trainiert werden. Der für das Training benötigte Datensatz kann wie folgt erstellt werden:
- Die Daten für das Training werden von einer Videokamera erfasst, die mit dem Sensorsystem gekoppelt und synchronisiert ist. So werden sowohl ver zerrte als auch unverzerrte Bilder gleichzeitig aufgenommen.
- Die unverzerrten Bilder werden mit einem aus der Technik grundsätzlich bekannten Machine-Learning-Algorithmus ausgewertet und die Auswer tungsergebnisse werden mit den verzerrten Bildern zu einem Trainingsset kombiniert.
Bei dem Verfahren nach der Erfindung können sowohl sich bewegende wie auch stationäre Objekte überwacht werden. Im Allgemeinen ist es einfacher, die bewegten Objekte zu erkennen. Das System funktioniert aber auch bei un bewegten Objekten, da der Algorithmus die einzelnen Objekte in verzerrten Bildern erkennen kann.
Eine weitere bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens sieht vor, dass zur Bildauswertung eine Veränderungserkennung verwendet werden kann. Dabei wird das Bild zunächst mit einem Machine-Learning-Algo rithmus in einem Schritt ohne Änderungsanalyse ausgewertet. Als Eingabe für den Machine-Learning-Algorithmus können einige aufeinanderfolgende Bilder und/oder das aktuelle Bild mit Hintergrundbild verwendet werden, so dass der Algorithmus sowohl auf Veränderungen als auch auf verzerrte Abbildungen der Objekte stützen kann.
Der Machine-Learning-Algorithmus kann darauf trainiert werden, einzelne Ob jekte oder den gesamten Hintergrund auf den verzerrten Bildern zu erkennen und die erkannten Elemente unverzerrt oder nahezu unverzerrt zu rekonstru ieren. Der maschinelle Lernalgorithmus lernt beim Training, die fehlenden Informationen über das Objekt oder den Hintergrund zu rekonstruieren. Das Training des maschinellen Lernalgorithmus kann mit einem Datensatz aus Bild paaren von verzerrten und unverzerrten Bildern durchgeführt werden.
Die Daten können, wie in Punkt 8 beschrieben erstellt werden. Auf diese Weise können die bekannte, aber auch nur dem maschinellen Lernalgorithmus be kannten Objekte und Hintergründe unverzerrt oder nahezu unverzerrt rekon struiert werden.
Möglich ist weiterhin, den vorhandenen Verzerrungsgrad durch Berechnung des Informationsgehalts im Bild zu berechnen. Der Informationsgehalt im Bild kann mittels eines mathematischen Ausdrucks in einem spezifischen Wert er fasst werden. Zum Beispiel kann ein Verhältnis der Summe der hohen Fre quenzen der Fourier-Transformation des Bildes zur Summe über alle Frequen zen verwendet werden. Zur Überprüfung des Verzerrungsgrads kann für jedes Sichtschutzelement ein Grenzwert festgelegt werden. Dadurch kann der Da tenerfassungsgrad der gemäß der Erfindung anonymisierten Bereichsüberwa chung online geprüft werden. Die Überschreitung des Grenzwerts indiziert ei nen nicht ausreichenden Sichtschutz und kann mit optischen und/oder akusti schen Mitteln angezeigt werden und/oder führt dazu, dass eine Bildübertra gung oder Bildaufzeichnung nicht erfolgt.
Der Prüfung des verbliebenen Informationsgehalts oder umgekehrt die Prüfung des Grades der Verzerrung kann sowohl für das gesamte Bild als auch für ein zelne Bereiche des Bildes durchgeführt werden. Anhand eines charakteristi schen Verzerrungsmusters lässt sich das verwendete Sichtschutzelement auf dem Bild leicht identifizieren. Ein solches Muster kann z. B. durch Ausnehmun gen, aufgeklebte Gitter oder aufgemalte Muster erzeugt werden. Es bietet die Möglichkeit, auf dem aufgenommenen Bild leicht zu prüfen, ob das Sichtschut zelement vorhanden ist und um welches es sich handelt.
Durch die Auswahl des Sichtschutzelements lassen sich verschiedene Verzer rungsgrade einstellen. Der verwendete Verzerrungsgrad muss auch für nicht technikaffine Personen von außen leicht erkennbar sein. Um Personen im Beobachtungsbereich zu garantieren, dass die Bildüberwachung und/oder - aufzeichnung nur mit ausreichend verzerrten Bildern erfolgt bzw. diesen Per sonen Abweichungen davon anzuzeigen, können verschiedene Signalmittel di rekt an der Bildsensoreinheit eingesetzt werden:
- Eine farbige Gehäusemarkierung im Gehäuseinneren, die erkennen lässt, dass das Sichtschutzelement entfernt ist;
- Optische Mittel wie farbige Leuchtdioden, die z. B. den ordnungsgemäßen Betrieb mit Verzerrung mit „grün“ anzeigen und jegliche Abweichungen da von mit „rot“.
- Akustische Mittel wie zum Beispiel ein Piezo-Summer, der Abweichungen vom Regelbetrieb signalisiert.
- Eingefärbte, teil-transparente Sichtschutzelemente, wobei die Einfärbung in Relation zu dem damit erzielten Verzerrungsgrad steht.
- Deutlich sichtbare Markierungen und/oder Oberflächenreliefe am Sicht schutzelements, die an der Außenseite der Bildsensoreinheit sichtbar sind.
Das Sichtschutzelement kann in Form eines Elements ausgeführt sein, das zu sätzlich die Funktionalität der Linse eines Kameraobjektivs trägt. Als ein sol ches Element können z. B. eine oder mehrere geeignet verformte Linsen ver wendet werden. Die Verformung kann sowohl durch die Form der Linse als auch durch eine Reliefmuster auf der Linsenoberfläche erzeugt werden.
Mit Hilfe des Machine-Learning-Algorithmus kann aus den verzerrten Informa tionen ein Bild mit dem nahezu unverzerrten Bereichen erzeugt werden. Die Bilder von bekannten Objekten und/oder Hintergründen für den Machine-Lear- ning-Algorithmus können nahezu unverzerrt generiert werden. Die bekannten Objekte bzw. Hintergründe werden in dem verzerrten Bild erkannt und durch ein unverzerrtes Bild ersetzt. Die unbekannten Objekte können nur verzerrt dargestellt werden, da die Detailinformationen über diese Objekte weder be kannt noch aufgenommen werden. Die so generierten Bilder sehen nahezu unverzerrt mit einigen verschwommenen Bereichen welche z. B sich Perso nenabbildung entsprechen und sind für einen Menschen leicht zu interpretie ren. Für das Training kann ein Datensatz aus Paaren von verzerrten und unver zerrten Bildern verwendet werden, welche sich jeweils auf denselben Beobach tungsbereich beziehen. Für diesen Ansatz können unverzerrte Bilder von ähn lichen, aber nicht unbedingt aktuellen Umgebungen und/oder Objekten ver wendet werden. Der trainierte Algorithmus rekonstruiert die bekannte, aber nicht unbedingt aktuelle Umgebung und/oder die präsenten Objekte aus den erkannten Mustern im verzerrten Bild.
Möglich ist, eine Bildaufnahme eines Beobachtungsbereichs mit einer erkann ten und ggf. markierten Person, mit einer unverzerrten Flintergrunddarstellung zu überlagern. Diese Darstellung ist z. B. für Überwachungspersonal bei der laufenden Bildüberwachung gut geeignet, da ein scheinbar reales Bild präsen tiert wird, bei dem jedoch Bildanteile in Bezug auf eine oder mehrere Personen stark verschwommen dargestellt sind, so dass die Person durch das Überwa chungspersonal nicht identifizierbar ist. Die Flintergrunddarstellung außerhalb des Bildbereichs, der sich auf die Person bezieht, ist dabei unverzerrt oder so wenig verzerrt, dass ein realer Bildeindruck bestehen bleibt. Die Erfindung wird nachfolgend mit Bezug auf die Zeichnungen näher erläutert. Die Figuren zei gen im Einzelnen:
Fig. 1 eine Bildsensoreinheit in einer perspektivischen Ansicht;
Fig. 2 die teilweise geschnittene Bildsensoreinheit in perspektivischer
Ansicht;
Fig. 3 die geschnittene Bildsensoreinheit in seitlicher Ansicht;
Fig. 4A eine Bildaufnahme eines Beobachtungsbereichs;
Fig. 4B die Bildaufnahme mit den daraus generierten Objekt- und Perso nenmarkierungen;
Fig. 4C die aus der Bildaufnahme generierten Objekt- und Personenmar kierungen;
Fig. 5 ein Flussdiagramm zur Darstellung des Verfahrensablaufs;
Fig. 6 den Grundriss eines Zimmers mit einem Beobachtungsbereich; Fig. 7 eine Bildaufnahme eines Beobachtungsbereichs mit Personen markierung, die mit einer unverzerrten Hintergrunddarstellung überlagert ist.
Fig. 1 zeigt ein Ausführungsbeispiel einer Bildsensoreinheit 10 in einer per spektivischen Ansicht. An einer Öffnung eines Gehäuses 14 ist ein transparen tes oder teil-transparentes Sichtschutzelement 15 angeordnet. Es enthält ein zur Außenseite weisendes Oberflächenrelief, so dass durch das Sichtschutze lement 15 hindurch nur verzerrte optische Informationen zu einer in dem Ge häuse 14 angeordneten Kamera übertragen werden.
In Fig. 2 ist die Bildsensoreinheit 10 teilweise geschnitten dargestellt. Im Inne ren des Gehäuses 14 ist eine elektronische Kamera 11 angeordnet, die einen elektronischen Bildsensor 12 mit einem Kameraobjektiv 13 umfasst. Ein erster rotatorischer Stellantrieb 16 ist vorgesehen, um die Kamera 11 um eine verti kale Achse zu schwenken. Ein zweiter rotatorischer Stellantrieb 17 ist vorge sehen, um die Kamera 11 um eine horizontale Achse zu schwenken. Durch die Stellantriebe 16, 17 kann ein größerer Bereich periodisch abgescannt werden, oder es wird z.B. die Position abhängig von der Tageszeit geändert.
In Fig. 3 ist die geschnittene Bildsensoreinheit 10 in seitlicher Ansicht gezeigt. Neben der Kamera 11 und den Stellantrieben 16, 17 ist im hinteren Bereich des Gehäuses 14 eine Elektronikeinheit 18 vorhanden die z. B. in Form eines Einplatinencomputers ausgebildet ist.
Die Elektronikeinheit 18 kann Elemente wie Akku, Rechner, Steuerelektronik usw. enthalten. Die ganze oder partielle Analyse der aufgenommenen Bildin formationen können in der Elektronikeinheit 18 durchgeführt werden oder sie werden z.B. auf einem externen Server verarbeitet, auf dem die aufgenomme nen Daten hingesendet werden.
Alle oben beschrieben Funktionen wie insbesondere auch die Online-Überwa- chung des gegebenen Verzerrungsgrads sind darin implementiert, so dass Bildsensoreinheit 10 eine autonome und entsprechend schwer von außen ma nipulierbares Bildüberwachungssystem bildet. !Fig. 6 zeigt den Grundriss eines Zimmers mit einem Beobachtungsbereich 1 , der von der Bildsensoreinheit 10 einsehbar ist. Hierin sind ein Fernseher an der Wand als Objekt 2.1 , ein Fenster als Objekt 2.2 und ein Sofa als Objekt 2.3 sowie eine Person 3 vorhanden. Die Bildsensoreinheit 10 ist mit einer externen Auswertungseinheit 20 mit einem Bildmonitor 30 verbunden. |ADI]IOT2] Fig. 4A zeigt beispielhaft eine Bildaufnahme des Beobachtungsbereichs 1 , die von der Bildsensoreinheit 10 mit Sichtschutzelement 15 aufgezeichnet wurde. Nur schemenhaft sind für das menschliche Auge die Objekte 2.1 , 2.2, 2.3 sowie die Person 3 erkennbar. Aufgrund des zuvor durchgeführten Machine-Learning- Algorithmus ist dem Überwachungssystem bekannt, dass die stationären Ob jekte 2.1 , 2.2, 2.3 vorhanden sind. Die Person 3 ist hingegen gegenüber dem bekannten stationären Zustand hinzugekommen.
Fig. 4B zeigt eine mögliche Visualisierung der Bildaufnahme gemäß Fig. 4A mit eingeblendeten Objektmarkierungen für die Objekte 2.1 , 2.2, 2.3 und einer andersartigen Markierung für die Person 3. Die Markierung für die Person 3 zeigt nicht nur die Präsenz an, sondern stellt auch deren Körperhaltung sym bolisiert dar.
Durch das Überwachungssystem ist eine stehende Person erkannt worden, die sich in der Ecke des Raums aufhält.[AD3] Durch die Betrachtung der Aufnahmen über die Zeit lassen sich sowohl Notfallsituationen wie z. B. Stürze, als auch Bewegungsmuster, die auf eine mögliche Erkrankung hinweisen, erkennen. Das Überwachungssystem kann so programmiert sein, dass für stehende oder gehende Personen keine Hilfsanforderung als notwendig erachtet wird.
Fig. 4C zeigt eine weitere mögliche Visualisierung, bei der die Bildinformation ganz ausgeblendet ist und nur die Markierungen erkannter Objekte und Perso nen vorhanden sind. Eine solche Visualisierung kann z. B. für eine Einsatz zentrale von Pflegekräften in einem Pflegeheim oder Krankenhaus verwendet werden.
In Figur 5 ist ein Ausführungsbeispiel des Verfahrens nach der Erfindung in Form eines Flussdiagramms wiedergegeben: Nach dem Einschalten wird geprüft, ob sich das Sichtschutzelement 15 in der entsprechenden Position vor der Kamera 11 befindet. Dazu wird z. B. ein me chanischer Sensor an der Bildsensoreinheit 10 abgefragt. Wird das Sichtschut zelement 15 an seiner Position erkannt, wird das vom Bildsensor 12 der Ka mera 11 erfasste Bild aufgenommen, andernfalls wird das Programm angehal ten und die entsprechende Fehlermeldung wird angezeigt.
Das Bild wird daraufhin überprüft, ob es durch das Sichtschutzelement 15 hin durch aufgenommen wurde. Jedes Sichtschutzelement 15 hinterlässt ein be stimmtes Muster auf dem Bild, das leicht erkannt werden. Zusätzlich wird ein Spektrum des Bildes berechnet und geprüft, ob die hochfrequenten Informati onen herausgefiltert wurden. Wenn festgestellt wird, dass die Verzerrungnicht in entsprechender Stärke stattgefunden hat, wird das Programm gestoppt und eine entsprechende Fehlermeldung wird angezeigt.
Als nächstes wird geprüft, ob Änderungen im Bild im Vergleich zu einem zuvor eingelernten Ausgangszustand des Beobachtungsbereichs erkannt werden konnten:
Wenn keine Änderungen erkannt wurden, dann ist der Zustand der Umgebung gleichgeblieben. Es ist keine neue Auswertung notwendig, also wird das nächste Bild aufgenommen.
Ein Bild, in dem Änderungen erkannt worden sind, wird für die weitere Verar beitung angepasst. Die Auflösung und Größe des Bildes wird für die weitere Auswertung mit dem Machine-Learning-Algorithmus angepasst. Ist die Größe des durch den Machine-Learning-Algorithmus ausgewerteten Bildes zu klein, wird das Bild in mehrere kleine, ggf. überlappende Fragmente aufgeteilt und sequenziell verarbeitet.
Die Ergebnisse der Bildverarbeitung durch die Machine-Learning-Algorithmen werden weiter ausgewertet und entsprechend der Aktivitäts-, Bewegungs- und Posenanalysen beschrieben.
Im nächsten Schritt werden einige Metadaten aus den gewonnenen Informati onen extrahiert, z. B. die Position im Raum, Anzahl der Personen im Bild usw. Die Metadaten werden an einen Cloud-Server gesendet. Welche Daten an die Cloud gesendet werden, kann je nach Anwendungsfall festgelegt werden.
Die aus der Aufzeichnung gewonnenen Daten werden zur Erkennung von Ge fahrensituationen verwendet. Wenn eine solche Situation wie beispielweise Sturz, Schlägerei, Einbruch usw. erkannt wird, wird über Kommunikationska näle ein Signal z. B. an eine Einsatzzentrale gesendet.
Im nächsten Schritt wird geprüft, ob eine Anforderung für einen sogenannten Telebesuch eingetroffen ist. Im Telebesuch-Modus wird das Sichtschutzele ment der weggeschoben und es werden weitere Bilder ohne Verzerrung auf genommen. Die aufgenommenen Bilder werden über Kommunikationskanäle weitergesendet
Wenn die Anforderung für einen Telebesuch durch die Einsatzzentrale bestä tigt ist, wird eine Warnung an der Bildsensoreinheit signalisiert. Als Warnung können optische und/oder akustische Signale verwendet werden, z. B. eine rote Lampe mit einem Summer.
Der Telebesuch-Modus endet mit einer Aufforderung zum Schließen des Sicht schutzelements. Nach der Aufforderung, den Telebesuch-Modus zu schließen, wird das Sichtschutzelement zurück vor die Kamera geschoben, und das Warnsignal wird ausgeschaltet. Das System schaltet zurück in den Standard modus.
Fig. 7 zeigt eine weitere mögliche Visualisierung der Auswertung der verzerrten Bildaufnahme 40, bei der die Darstellung 41 eines erkannten Objekts 43 wie einer Person mit einem unverzerrten Abbildung des Hintergrunds 42 überlagert wird. Die Information über den Hintergrund 42 wird vom Machine-Learning-Al- gorithmus in der Trainingsphase gelernt und kann somit im Bild generiert wer den. Wenn verschiedene Zustände des Hintergrunds 42 im Trainingsdatensatz erfasst werden, lernt der Algorithmus, den Hintergrund 42 nahezu unverzerrt zu generieren, so dass z. B. die Position der Möbel, die Raumbeleuchtung und die Objektschatten realistisch generiert werden können. Da die Information über das Objekt 43 dem Algorithmus beim Training nicht zur Verfügung stand, wird es nur verschwommen oder mit einer Textur versehen auf dem einsehba ren Bild dargestellt. Der Darstellungsansatz erlaubt es dem Algorithmus, be kannte Abbildungen von Objekten 43 und Hintergrund 42, aber auch nur be kannte Abbildungen nahezu unverzerrt darzustellen.

Claims

Patentansprüche:
1. Verfahren zur Erfassung von Bild- und/oder Objektdaten in einem Be obachtungsbereich (1), wenigstens umfassend: eine Bildsensoreinheit (10), die wenigstens einen elektronischen Bildsensor (12) und/oder eine optische Kamera (11) enthält,
- eine mit der Bildsensoreinheit (10) verbundene Bildauswertungsein richtung (20) zur Verarbeitung der von der wenigstens einen Kamera (11) oder dem Bildsensor (12) erfassten Bilddaten und/oder zur Ablei tung von sonstigen Daten aus den Bilddaten wenigstens eines im Be obachtungsbereich (1) beobachteten Objekts (2.1, 2.2, 2.3, 3); dadurch gekennzeichnet, dass der Informationsgehalt der von der Kame ra (11) und/oder dem Bildsensor (12) erfassten Bilddaten mittels physi scher Mittel, die wenigstens zeitweise vor der Kamera (11 ) und/oder vor dem Bildsensor (12) angeordnet werden, reduziert wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass Präsenzmar kierungen, Objektkonturen oder anonymisierte Objektdarstellungen nur für Objekte generiert werden: die sich während eines Beobachtungszeitraums in dem Beobach tungsbereich (1) bewegen, und/oder die im Vergleich zu einem Ausgangszustand des Beobachtungsbe reichs (1) während eines Beobachtungszeitraums hinzugefügt wer den.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Informationsgehalt der von der Kamera (11) erfassten Bilddaten mittels wenigstens eines teilweise lichtdurchlässigen, bildverzerrenden Sicht schutzelements (15) veränderbar ist, das den Bildsensor (12) oder das Kameraobjektiv (13) wenigstens zweitweise überdeckt.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass in einer Bildauswertungseinrichtung (10) ein durch das Sicht schutzelement (15) hindurch aufgenommenes Hintergrundbild des Beobachtungsbereichs (1) gespeichert wird, dass abweichende Bildzonen durch Vergleich des Hintergrundbilds mit dem in dem Beobachtungsbereich (1) laufend erfassten Bild mit reduziertem Informationsgehalt erfasst werden, und dass Präsenzmarkierungen, Objektkonturen oder anonymisierte Ob jektdarstellungen für die abweichenden Bildzonen generiert werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Darstel lung der Präsenzmarkierungen, Objektkonturen oder anonymisierte Ob jektdarstellungen mit einem unverzerrten Hintergrundbild des Beobach tungsbereichs (1) und/oder unverzerrten Abbildungen der in der Aufnah me erkannten Objekte überlagert werden.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn zeichnet, dass der Informationsgehalt der von der Kamera (11 ) erfassten Bilddaten mittels eines mathematischen Ausdrucks als Kennwert erfasst wird, welcher als Maß und/oder Indikator für die Reduktion des Informati onsgehaltes des Bilddaten verwendbar ist.
7. Sensorsystem (100) zur Erfassung von Bild- und/oder Objektdaten in ei nem Beobachtungsbereich (1), wenigstens umfassend: eine Bildsensoreinheit (10), die wenigstens einen Bildsensor (12) ent hält,
- eine mit der Bildsensoreinheit (10) datenübertragend verbundene Bildauswertungseinrichtung (20) zur Verarbeitung der von der wenigs tens einen Kamera (11) oder dem Bildsensor (12) erfassten Bilddaten und/oder zur Ableitung von Bewegungsdaten aus den Bilddaten eines im Beobachtungsbereich (1) beobachteten Objekts (2.1, 2.2, 2.3, 3); dadurch gekennzeichnet, dass der Bildsensor (12) und/oder das Objektiv (13) der Kamera (11) wenigstens zeitweise mit wenigstens einem teilwei se lichtdurchlässigen, bildverzerrenden Sichtschutzelement (15) ist oder eine solche enthält.
8. Sensorsystem nach Anspruch 7, dadurch gekennzeichnet, dass wenigs tens ein Stellantrieb vorgesehen ist, über welche das Sichtschutzelement (15) von dem Bildsensor (12) und/oder von dem Objektiv (13) entfernbar ist und/oder über welche das Sichtschutzelement (15) gegen ein voll transparentes, nichtverzerrendes Abdeckelement oder ein Sichtschutze lement (15) mit anderem Verzerrungsgrad austauschbar ist.
9. Sensorsystem nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass zur Signalisierung der Abdeckung und/oder einer Aufdeckung des Bildsensors (12) und/oder des Objektivs (13) und/oder eines Wechsels des Sichtschutzelements (15) wenigstens ein optisches und/oder akusti sches Signalmittel vorgesehen ist.
10. Sensorsystem nach einem der vorhergehenden Ansprüche 7 bis 9, dadurch gekennzeichnet, dass die Bildsensoreinheit (10) wenigstens ei nen Stellantrieb (16, 17) zum Verschwenken: der Kamera (11), des Bildsensors (12) innerhalb des Gehäuses (14) oder des Gehäuses (14) das die Kamera (11) oder den Bildsensors (12) enthält, umfasst.
11. Sensorsystem nach einem der vorhergehenden Ansprüche 7 bis 10, dadurch gekennzeichnet, dass die Bildsensoreinheit (10) wenigstens ein Antriebsmittel zum Verschwenken des Sichtschutzelements (15) relativ zur Kamera (11) oder zum Bildsensor (12) umfasst.
12. Sensorsystem nach einem der vorhergehenden Ansprüche 7 bis 11 , dadurch gekennzeichnet, dass das Sichtschutzelement (15) durch einen Körper gebildet ist, der eine Vielzahl von Ausnehmungen enthält.
13. Sensorsystem nach einem der vorhergehenden Ansprüche 7 bis 12, dadurch gekennzeichnet, dass das Sichtschutzelement (15) durch einen Körper aus einem transparenten oder teiltransparenten Werkstoff gebil det ist, der wenigstens ein nicht-planares Oberflächenrelief enthält.
14. Sensorsystem nach einem der vorhergehenden Ansprüche 7 bis 13, dadurch gekennzeichnet, dass das Sichtschutzelement eine farbige oder andersartige optische Markierung aufweist.
15. Sensorsystem nach einem der vorhergehenden Ansprüche 7 bis 14, ge kennzeichnet durch ein Sichtschutzelement (15) mit integrierter Objektiv funktion.
PCT/DE2021/100661 2020-07-30 2021-07-30 Verfahren zur erfassung von bild- und/oder objektdaten und sensorsystem dafür WO2022022782A2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102020004631 2020-07-30
DE102020004631.2 2020-07-30
DE102020007336.0 2020-12-02
DE102020007336.0A DE102020007336A1 (de) 2020-07-30 2020-12-02 Sensor zur Aufzeichnung optischer Informationen mit physikalisch einstellbarem Informationsgehalt

Publications (2)

Publication Number Publication Date
WO2022022782A2 true WO2022022782A2 (de) 2022-02-03
WO2022022782A3 WO2022022782A3 (de) 2022-03-31

Family

ID=79300696

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2021/100661 WO2022022782A2 (de) 2020-07-30 2021-07-30 Verfahren zur erfassung von bild- und/oder objektdaten und sensorsystem dafür

Country Status (2)

Country Link
DE (1) DE102020007336A1 (de)
WO (1) WO2022022782A2 (de)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7874744B2 (en) 2007-09-21 2011-01-25 Seth Cirker Privacy ensuring camera enclosure
MX2011009681A (es) 2009-05-29 2012-01-27 Youngkook Electronics Co Ltd Aparato de camara de supervision inteligente y sistema de supervision de imagen que implementa el mismo.
WO2015020709A2 (en) 2013-05-09 2015-02-12 Cryovac, Inc. Visual recognition system based on visually distorted image data
US20170085759A1 (en) * 2015-09-17 2017-03-23 Dan Valdhorn Method and appartaus for privacy preserving optical monitoring
US20180352155A1 (en) * 2017-06-01 2018-12-06 Gooee Limited Monitoring system

Also Published As

Publication number Publication date
WO2022022782A3 (de) 2022-03-31
DE102020007336A1 (de) 2022-02-03

Similar Documents

Publication Publication Date Title
EP3058556B1 (de) Verfahren und vorrichtung zur automatisierten waldbrandfrüherkennung mittels optischer detektion von rauchwolken
DE602005005583T2 (de) Videoüberwachungssysteme im allgemeinen und speziell eine Vorrichtung und Verfahren zur automatischen Echtzeiterfassung abnormaler Bewegung in Videoströmen
EP1395945B1 (de) Verfahren zur faelschungserkennung bei der fingerabdruckerkennung unter verwendung einer texturklassifikation von grauwertdifferenzbildern
DE602005001627T2 (de) Vorrichtung zur Extraktion von Fussgängern
EP2324461B1 (de) Überwachungssystem, verfahren und computerprogramm zur detektion und/oder verfolgung eines überwachungsobjekts
DE19818229A1 (de) System zur berührungslosen Hand- und Fingerlinien-Erkennung
WO2013029692A1 (de) Bilderfassungsvorrichtung, insbesondere personenzähleinrichtung, mit einem im infrarotbereich transparenten und im optisch sichtbaren bereich undurchsichtigen gehäuse
DE102016223859A1 (de) Kamera zur Überwachung eines Überwachungsbereiches und Überwachungsvorrichtung sowie Verfahren zur Überwachung eines Überwachungsbereiches
DE102009044083A1 (de) System und Verfahren zur Zählung der Personenanzahl
WO2019011769A1 (de) Verfahren, vorrichtung und computerprogramm zur erfassung von optischen bilddaten einer patientenumgebung und zur erkennung einer patientenüberprüfung
WO2002054364A2 (de) Video-rauchdetektionssystem
WO2011117170A1 (de) Verfahren zur visualisierung von aktivitätsschwerpunkten in überwachungsszenen
DE102016222134A1 (de) Videoanalyseeinrichtung für eine Überwachungsvorrichtung und Verfahren zur Erzeugung eines Einzelbildes
EP3021256A1 (de) Verfahren zur bildverarbeitung, präsenzdetektor und beleuchtungssystem
WO2013113521A1 (de) Auswertevorrichtung für ein überwachungssystem sowie überwachungssystem mit der auswertevorrichtung
WO2022022782A2 (de) Verfahren zur erfassung von bild- und/oder objektdaten und sensorsystem dafür
DE112017005263T5 (de) Echtzeit-aktivitätsüberwachung unter verwendung von thermo-tags
DE102012014022A1 (de) Verfahren und Einrichtung zur objekt- und szenenbezogenen Speicherung von Bild-, Sensor- und/oder Tonsequenzen
DE102019114451A1 (de) Aktivitätsbereiche in Videoinhalten
EP3453001B1 (de) Detektionsvorrichtung, verfahren zur detektion eines ereignisses und computerprogramm
DE102017222675A1 (de) Personenerkennung mittels einer Kamera
DE19641000A1 (de) Verfahren und Anordnung zur automatischen Erkennung der Anzahl von Personen in einer Personenschleuse
DE102006027120A1 (de) Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm
WO2015078612A1 (de) Verfahren zur videoüberwachung
EP4341918A1 (de) Vorrichtung und verfahren zur erzeugung eines biometrischen bildes eines gesichts einer person

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21765830

Country of ref document: EP

Kind code of ref document: A2

122 Ep: pct application non-entry in european phase

Ref document number: 21765830

Country of ref document: EP

Kind code of ref document: A2