EP3671679A1 - Dynamisches maskieren oder ausblenden von bereichen eines sichtfelds - Google Patents

Dynamisches maskieren oder ausblenden von bereichen eines sichtfelds Download PDF

Info

Publication number
EP3671679A1
EP3671679A1 EP19214352.7A EP19214352A EP3671679A1 EP 3671679 A1 EP3671679 A1 EP 3671679A1 EP 19214352 A EP19214352 A EP 19214352A EP 3671679 A1 EP3671679 A1 EP 3671679A1
Authority
EP
European Patent Office
Prior art keywords
camera
control device
area
parameter
measurement data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP19214352.7A
Other languages
English (en)
French (fr)
Inventor
Brian Heumann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP3671679A1 publication Critical patent/EP3671679A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19686Interfaces masking personal details for privacy, e.g. blurring faces, vehicle license plates

Definitions

  • the invention relates to a control device for processing measurement data, wherein measurement data of a field of view from at least one camera, at least one parameter of the camera and data from at least one monitoring area can be received by the control device. Furthermore, the invention relates to a method and a camera device.
  • Surveillance systems typically use cameras that monitor designated areas. Here, images or moving images from the field of view of the camera are recorded and stored.
  • Monitoring or recording public areas or roads is problematic in various countries. For example, privately operated surveillance cameras may only record their own private property. Monitoring public areas or private areas of others can interfere with the privacy of third parties and can therefore be unlawful.
  • a so-called geofence or geographic fence is used for mobile surveillance cameras that are mounted on vehicles or airplanes, for example. All data recorded outside the geographical fence is deleted or the surveillance camera is deactivated.
  • the object on which the invention is based can be seen in proposing a control device and a method for automatically taking public areas into account in camera-based monitoring, which enable seamless monitoring.
  • a control device for processing measurement data is provided.
  • Measurement data of a field of view from at least one camera, at least one parameter of the camera and data from at least one monitoring area can be received by the control device.
  • the control device is set up to mask or hide the received measurement data, at least in regions, based on at least one parameter of the camera. In particular, measurement data or areas that are arranged outside the monitoring area can be made unrecognizable.
  • a method for masking or masking out at least one area of a field of view of at least one camera is provided by a control device.
  • a monitoring area is received or defined in one step.
  • at least one parameter of the camera is received and / or determined.
  • the control device can be connectable to at least one sensor which can measure or ascertain the at least one parameter.
  • At least one protection area outside of the monitoring area is automatically determined and hidden.
  • a camera device has at least one camera and at least one control device. Measurement data of the camera can be processed by the control device based on at least one parameter in such a way that a protection area arranged outside a monitoring area can be dynamically hidden.
  • the monitoring area is monitored or scanned by the at least one camera.
  • the current roadway can form a first monitoring area and a parallel roadway or driveway can form a second monitoring area.
  • the at least one monitoring area can preferably be a two-dimensional or three-dimensional surface.
  • one or more protection areas can be provided.
  • the protection areas are preferably outside the monitoring area.
  • the at least one protection area can adjoin the at least one monitoring area.
  • the protected area and the monitored area are preferably designed as surfaces.
  • the protection area serves to protect privacy.
  • the protected area has areas and rooms that must not be monitored.
  • protected areas can be public spaces and streets, military areas and the like.
  • the measurement data from the camera form the field of view in electronic form.
  • the at least one area of the field of view which represents the protective area and / or an area outside the at least one monitoring area, can be automatically made unrecognizable by the control device.
  • the measurement data can be configured in the form of images or moving images, such as videos or image sequences.
  • the protection area recorded by the camera can be hidden in the measurement data.
  • a coherent area or several independent areas, which represent the protected area, can be hidden.
  • At least one area of the field of view is deleted.
  • the masking of sections or areas in the measurement data of the camera means that at least one area of the field of view is overwritten. This will make the masked areas unrecognizable.
  • the masking may include overwriting the areas, for example by pixels of one color, or filtering the areas.
  • the areas that lie outside the monitoring area can be blurred, pixelated, blurred or colored or overwritten, in particular by a filter.
  • the control device and / or the method allows privacy to be maintained dynamically and automatically when a camera or surveillance camera is used.
  • the areas or areas and rooms that lie outside the monitoring area can be determined by the control device and then made unrecognizable. This can be done in real time or approximately in real time.
  • the determined measurement data of the at least one camera is not completely deleted when a geographical fence is crossed, but rather only the area of the field of view of the camera that crosses the geographical fence.
  • the measurement data can thus be maintained at least in some areas, which ensures seamless monitoring even with a moving field of view of the camera.
  • the data of the surveillance area have, for example, information about the extent and the limits of the surveillance area.
  • each section or area outside the Monitoring area defined as a protection area and made unrecognizable.
  • the data of the monitoring area can have coordinates that form an outer boundary or a course of the boundary of the monitoring area.
  • the at least one parameter can preferably provide information on the position, orientation, such as pan or tilt, and position, for example in the form of coordinates, degrees of longitude and latitude or height above sea level, the camera in space or relative to the surveillance area, and focal length and optics the camera.
  • position for example in the form of coordinates, degrees of longitude and latitude or height above sea level
  • the camera in space or relative to the surveillance area, and focal length and optics the camera.
  • the area of the field of view which records a protective area can thus be estimated or calculated on the basis of the orientation and the position of the camera relative to the monitoring area.
  • the detection of the protected area can also be carried out by an image analysis.
  • the data for defining the monitoring area can have optical features that can be recognized by an image analysis.
  • the control device and the method allow the measurement data of the at least one camera to be processed depending on the position and orientation of the camera in the room.
  • the areas are masked out or masked when the field of view of the camera exceeds at least one boundary between the monitored area and the protected area.
  • the at least one parameter of the camera can be determined and / or read out by the control device.
  • the control device can thus establish a data-conducting communication connection to the camera in order to be able to read out or receive at least one parameter.
  • the at least one parameter can be, for example, a basic value or a property of the camera.
  • the control device can receive a focal length, a scanning angle or the field of view, a distance of the focal plane from a sensor of the camera and the like from the camera.
  • control device is designed as a camera-internal or as an external control device.
  • control device can be flexibly connected to the camera or integrated into the camera.
  • control device can be designed as a retrofit solution for any cameras.
  • the at least one parameter is an optical property of a lens, an optical property of the camera, a position of the camera, an orientation of the camera and / or a camera vector.
  • the focal length or the information about the lens and the sensor of the camera can be used to determine a field of view of the camera.
  • the position of the camera and the orientation of the camera can be used together with the field of view by the control device to detect that the monitoring area has been exceeded.
  • the parameters can be determined dynamically or continuously, as a result of which fast-moving cameras, such as, for example, vehicles or drones, can take private areas or protective areas into account.
  • the orientation of the camera in space can have a vertical and horizontal angle of inclination.
  • the at least one parameter is a static or dynamic parameter, the parameter being able to be determined by the control device and / or on the basis of received measurement data from at least one sensor.
  • the parameters can be stored statically in the control unit or the camera or can be determined dynamically.
  • the control device can be able to determine an inclination or pivoting movement of the camera, in particular by movements of the field of view.
  • GPS sensors, position sensors and acceleration sensors can be used to determine the alignment and position data of the camera.
  • the sensors can preferably be arranged on or in the camera or in a camera device.
  • a dynamic and automatable possibility for recognizing a limit crossing of the surveillance area by the field of view of the camera can be provided.
  • the partial areas in the image of the camera can thus be masked out automatically based on the orientation of the camera.
  • the partial area or the protected area can be, for example, a public road or an adjacent property.
  • the partial areas of the field of view of the camera that depict the surveillance area remain visible. This can only be done based on the measured inclination or orientation and position of the camera. This information on the position and orientation of the camera can also be compared with a course or the position of the geographical fence and / or map coordinates in order to carry out a masking automatically.
  • the at least one protection area is determined as at least one pixel or as at least one vector.
  • the monitoring area can be designed as a flat or two-dimensional geometry.
  • the boundaries between the monitored area and the protected area can be defined by pixels and / or by vectors. Based on such limits, the protection area can also be defined in the form of a pixel or a vector.
  • the monitoring area is designed as a surface, for example by means of coordinates, the protective region lying outside the surface and being hidden by the control device.
  • the protective region lying outside the surface and being hidden by the control device.
  • the protective area in the measurement data of the camera is masked out by overwriting areas of the field of view or hidden by deleting areas of the field of view.
  • the control device is used to make the image information of the camera unrecognizable about the protected area.
  • At least one object is determined on the monitoring area.
  • the section of the protection area covered by the object is not hidden.
  • a depth analysis or a depth estimate of the measurement data of the camera can preferably be carried out in order to determine objects and their dimensions.
  • the method can thus be extended to objects that are located on the monitoring area. Based on the dimensions of the objects, sections of the protection area can be defined that are covered by the objects. Corresponding hidden areas of the protected area therefore do not have to be masked or hidden, since they are already covered by objects and are not visible to the camera. This enables a more precise scanning or recording of the monitoring area to be carried out.
  • the camera device is designed to be stationary, mobile, movable and / or immobile. Due to the quick evaluation and processing of the measurement data of the camera by the control device, the masking or masking of the protection area can take place almost in real time. As a result, the control device can also be used with dynamically used cameras, such as, for example, on vehicles or airplanes or flying objects.
  • the camera device can be arranged on a vehicle or, for example, on a helicopter or a drone.
  • the vehicle can be configured to be an automated or partially automated vehicle.
  • the method and the control device can be used with conventional or portable cameras and cell phones with cameras.
  • the method for determining the protection area within the field of view of the camera can preferably be implemented by a mathematical model and / or a combination of different models. This can increase the robustness of the method.
  • a large amount of information can be used to detect the protection area or to exceed the monitoring area.
  • the optical Flow of the image information, GPS data, gyroscopic data, landmarks and the like are taken into account by the control device.
  • the Figure 1 shows a schematic representation of an arrangement with a mobile camera device 1 for illustrating a method according to the invention according to an embodiment.
  • the camera device 1 is arranged on a drone 2 and has an inclination a with respect to a horizontal.
  • the camera device 1 has a camera 4 and a control device 6.
  • the control device 6 is used for evaluating and processing measurement data from the camera 4. According to the exemplary embodiment, the control device 6 is integrated in the camera 4.
  • the camera device 1 has a position and rotation rate sensor 8.
  • the sensor 8 is connected to the control device 6 and is used to determine changes in position of the camera device 1.
  • the camera 4 has a field of view 10, which is recorded in the form of measurement data and processed by the control device 6.
  • a monitoring area 12 is monitored by the camera device 1.
  • the monitoring area 12 is designed as a rectangular plane.
  • the monitoring area 12 is surrounded by a protective area 14.
  • the protection area 14 here represents a public space which the camera 4 must not record.
  • the boundary between the protected area 14 and the monitored area 12 is defined by a geographical fence 13.
  • the geographical fence 13 is guided in a line around the monitoring area 12.
  • an area 16 is formed by the monitoring area 12 and a further area 18 by the protection area 14.
  • the protection area 18 recorded in the field of view 10 of the camera 4 must not be recorded by the camera 4 and is therefore by the control device 6 masked.
  • the masking is carried out, for example, by overwriting the measurement data 18 having the protected area 14 with black pixels.
  • the detection of the protection area 14 takes place here based on parameters of the camera 4.
  • the parameters are formed here by the optical properties of the camera 4 and the relative position of the drone 2 or the camera 4 relative to the monitoring area 12.
  • the protection area 14, which surrounds the monitoring area 12, is identified on the basis of the information which the control device 6 can derive from the parameters.
  • the camera device 1 is configured stationary.
  • the camera 4 is attached to a mast 20.
  • the camera 4 is thus arranged in a fixed position relative to the monitoring area 12.
  • the camera device 1 has an external control device 6, which is subsequently connected to the camera 4 to conduct data.
  • FIGS. 3 and 4 show schematic representations of the arrangement with a stationary camera device 1 to illustrate object detection.
  • the camera of the camera device 1 is directed out of the monitoring area 12.
  • the camera 4 also records a section 18 of the protected area 14.
  • the objects 22 are arranged as an example on the monitoring area 12.
  • the objects 22 can be, for example, houses, vegetation, animals, vehicles and the like.
  • the protected area 18 recorded in the field of view 10 is covered at least in some areas by the objects 22. This is in the Figure 4 clarifies.
  • the objects 22 are determined by an image analysis and in particular by a depth analysis of the measurement data of the field of view 10 by the control device 6.
  • An outer contour of the objects 22 can be used to partially hide the protective area 14 and to continue to record the objects 22 at corresponding positions without masking. This enables precise monitoring of the monitoring area 12 and all objects 22 on the monitoring area 12.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Offenbart ist ein Steuergerät zum Bearbeiten von Messdaten, wobei Messdaten eines Sichtfelds von mindestens einer Kamera, mindestens ein Parameter der Kamera und Daten von mindestens einem Überwachungsbereich durch das Steuergerät empfangbar sind, wobei das Steuergerät dazu eingerichtet ist, basierend auf mindestens einem Parameter der Kamera die empfangenen Messdaten zumindest bereichsweise zu maskieren oder auszublenden. Des Weiteren sind ein Verfahren sowie eine Kameravorrichtung offenbart.

Description

  • Die Erfindung betrifft ein Steuergerät zum Bearbeiten von Messdaten, wobei Messdaten eines Sichtfelds von mindestens einer Kamera, mindestens ein Parameter der Kamera und Daten von mindestens einem Überwachungsbereich durch das Steuergerät empfangbar sind. Des Weiteren betrifft die Erfindung ein Verfahren sowie eine Kameravorrichtung.
  • Stand der Technik
  • Bei Überwachungssystemen werden üblicherweise Kameras eingesetzt, die vorgesehene Bereiche überwachen. Hierbei Bilder oder bewegte Bilder von dem Sichtbereich der Kamera aufgezeichnet und gespeichert.
  • In verschiedenen Ländern ist die Überwachung oder die Aufzeichnung von öffentlichen Bereichen oder Straßen problematisch. Beispielsweise dürfen privat betriebene Überwachungskameras nur den eigenen Privatgrund aufzeichnen. Das Überwachen von öffentlichen Bereichen oder privater Bereiche Anderer kann hierbei in die Privatsphäre Dritter eingreifen und somit widerrechtlich sein.
  • Bei stationär betrieben und insbesondere bei unbeweglich installierten Überwachungskameras können somit Bereiche des Sichtfelds der Überwachungskamera manuell verdeckt oder maskiert werden.
  • Bei mobilen Überwachungskameras, die beispielsweise auf Fahrzeugen oder Flugzeugen montiert sind, wird ein sogenannter Geofence bzw. geografischer Zaun eingesetzt. Dabei werden alle außerhalb des geografischen Zauns aufgezeichneten Daten gelöscht oder die Überwachungskamera deaktiviert.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrunde liegende Aufgabe kann darin gesehen werden, ein Steuergerät und ein Verfahren zum automatisierten Berücksichtigen von öffentlichen Bereichen bei der kamerabasierten Überwachung vorzuschlagen, welche eine nahtlose Überwachung ermöglichen.
  • Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Nach einem Aspekt der Erfindung wird ein Steuergerät zum Bearbeiten von Messdaten bereitgestellt. Es sind Messdaten eines Sichtfelds von mindestens einer Kamera, mindestens ein Parameter der Kamera sowie Daten von mindestens einem Überwachungsbereich durch das Steuergerät empfangbar. Das Steuergerät ist dazu eingerichtet, basierend auf mindestens einem Parameter der Kamera die empfangenen Messdaten zumindest bereichsweise zu maskieren oder auszublenden. Insbesondere können Messdaten bzw. Bereiche unkenntlich gemacht werden, die außerhalb des Überwachungsbereichs angeordnet sind.
  • Gemäß einem weiteren Aspekt der Erfindung wird ein Verfahren zum Maskieren oder Ausblenden von mindestens einem Bereich eines Sichtfelds mindestens einer Kamera durch ein Steuergerät bereitgestellt.
  • In einem Schritt wird ein Überwachungsbereich empfangen oder definiert. In einem weiteren Schritt wird mindestens ein Parameter der Kamera empfangen und/oder ermittelt. Hierbei kann das Steuergerät mit mindestens einem Sensor verbindbar sein, welcher den mindestens einen Parameter messen bzw. ermitteln kann.
  • Anschließend wird basierend auf dem empfangenen oder ermittelten Parameter in dem Sichtfeld der Kamera mindestens ein Schutzbereich außerhalb des Überwachungsbereichs automatisiert ermittelt und ausgeblendet.
  • Nach einem weiteren Aspekt der Erfindung wird eine Kameravorrichtung bereitgestellt. Die Kameravorrichtung weist mindestens eine Kamera und mindestens ein Steuergerät auf. Messdaten der Kamera sind durch das Steuergerät derart basierend auf mindestens einem Parameter bearbeitbar, dass ein außerhalb eines Überwachungsbereichs angeordneter Schutzbereich dynamisch ausblendbar ist.
  • Der Überwachungsbereich wird hierbei durch die mindestens eine Kamera überwacht bzw. abgetastet. Dabei kann abhängig von einer Position eine Vielzahl an Überwachungsbereichen vorliegen. Beispielsweise kann bei einer Fahrzeugkamera die gegenwärtige Fahrbahn einen ersten Überwachungsbereich ausbilden und eine parallel verlaufende Fahrbahn oder eine Auffahrt einen zweiten Überwachungsbereich ausbilden. Der mindestens eine Überwachungsbereich kann vorzugsweise eine zweidimensional oder dreidimensional ausgestaltete Fläche sein.
  • Abhängig von der Ausgestaltung können ein oder mehrere Schutzbereiche vorgesehen sein. Dabei liegen die Schutzbereiche vorzugsweise außerhalb des Überwachungsbereichs. Der mindestens eine Schutzbereich kann hierbei an den mindestens einen Überwachungsbereich angrenzen. Bevorzugterweise sind der Schutzbereich und der Überwachungsbereich als Oberflächen ausgeführt.
  • Der Schutzbereich dient dem Schutz der Privatsphäre. Der Schutzbereich weist Bereiche und Räume auf, die nicht überwacht werden dürfen. Beispielsweise können Schutzbereiche öffentliche Räume und Straßen, Militärgebiete und dergleichen sein.
  • Die Messdaten der Kamera bilden das Sichtfeld in elektronischer Form aus. Der mindestens eine Bereich des Sichtfelds, welcher den Schutzbereich darstellt und/oder einen Bereich außerhalb des mindestens einen Überwachungsbereichs darstellt, kann durch das Steuergerät automatisiert unkenntlich gemacht werden. Insbesondere können die Messdaten in Form von Bildern oder bewegten Bildern, wie beispielsweise Videos oder Bildfolgen, ausgestaltet sein.
  • Der von der Kamera aufgezeichnete Schutzbereich kann in den Messdaten bereichsweise ausgeblendet werden. Dabei kann ein zusammenhängender Bereich oder mehrere voneinander unabhängige Bereiche, welche den Schutzbereich darstellen, ausgeblendet werden.
  • Durch das Ausblenden von Bereichen oder Abschnitten in den Messdaten der Kamera wird mindestens ein Bereich des Sichtfelds gelöscht.
  • Das Maskieren von Abschnitten oder Bereichen in den Messdaten der Kamera führt dazu, dass mindestens ein Bereich des Sichtfelds überschrieben wird. Hierdurch werden die maskierten Bereiche unkenntlich gemacht. Insbesondere kann das Maskieren ein Überschreiben der Bereiche, beispielsweise durch Pixel einer Farbe, oder ein Filtern der Bereiche aufweisen.
  • Die Bereiche, die außerhalb des Überwachungsbereichs liegen, können insbesondere durch einen Filter weichgezeichnet, verpixelt, verschleiert oder eingefärbt bzw. überschrieben werden.
  • Durch das Steuergerät und/oder das Verfahren kann die Privatsphäre bei einem Einsatz einer Kamera oder Überwachungskamera dynamisch und automatisiert gewahrt werden. Dabei können die Bereiche bzw. Flächen und Räume, die außerhalb des Überwachungsbereichs liegen durch das Steuergerät ermittelt und anschließend unkenntlich gemacht werden. Dies kann in Echtzeit oder näherungsweise in Echtzeit erfolgen.
  • Somit werden die ermittelten Messdaten der mindestens einen Kamera bei einem Überschreiten eines geografischen Zauns nicht vollständig gelöscht sondern lediglich der Bereich des Sichtfelds der Kamera, welcher den geografischen Zaun überschreitet. Die Messdaten können somit zumindest bereichsweise aufrechterhalten werden, wodurch eine nahtlose Überwachung auch bei einem beweglichen Sichtfeld der Kamera gewährleistet wird.
  • Die Daten des Überwachungsbereichs weisen beispielsweise Informationen über die Ausdehnung und die Grenzen des Überwachungsbereichs auf. Hierbei kann in einer einfachen Ausgestaltung jeder Abschnitt bzw. Bereich außerhalb des Überwachungsbereichs als Schutzbereich definiert und unkenntlich gemacht werden. Insbesondere können die Daten des Überwachungsbereichs Koordinaten aufweisen, die eine äußere Grenze bzw. einen Grenzverlauf des Überwachungsbereichs ausbilden.
  • Der mindestens eine Parameter kann vorzugsweise Informationen zur Lage, Ausrichtung, wie beispielsweise Pan oder Tilt, und Position, beispielsweise in Form von Koordinaten, Längen- und Breitengraden oder Höhe über Normalnull, der Kamera im Raum bzw. relativ zum Überwachungsbereich, sowie Brennweite und Optik der Kamera aufweisen. Hierdurch kann geprüft werden, ob der Sichtbereich der Kamera nur den Überwachungsbereich aufzeichnet oder zumindest bereichsweise in den Schutzbereich hineinragt und somit den Schutzbereich aufzeichnet. Somit kann der Bereich des Sichtfelds, welcher einen Schutzbereich aufzeichnet anhand der Ausrichtung und der Position der Kamera relativ zum Überwachungsbereich abgeschätzt bzw. berechnet werden. Alternativ kann die Erkennung des Schutzbereichs auch durch eine Bildanalyse durchgeführt werden. Dabei können die Daten zum Definieren des Überwachungsbereichs optische Merkmale aufweisen, die durch eine Bildanalyse erkennbar sind.
  • Durch das Steuergerät und das Verfahren können die Messdaten der mindestens einen Kamera abhängig von der Position und der Ausrichtung der Kamera im Raum bearbeitet werden. Dabei erfolgt die Ausblendung oder Maskierung der Bereiche, wenn das Sichtfeld der Kamera mindestens eine Grenze zwischen dem Überwachungsbereich und dem Schutzbereich überschreitet.
  • Nach einer Ausführungsform ist der mindestens eine Parameter der Kamera durch das Steuergerät ermittelbar und/oder auslesbar. Das Steuergerät kann somit eine datenleitende Kommunikationsverbindung zu der Kamera herstellen, um mindestens einen Parameter auslesen bzw. empfangen zu können. Der mindestens eine Parameter kann beispielsweise ein Grundwert oder eine Eigenschaft der Kamera sein. Beispielsweise kann das Steuergerät eine Brennweite, einen Abtastwinkel bzw. das Sichtfeld, einen Abstand der Fokusebene von einem Sensor der Kamera und dergleichen von der Kamera empfangen.
  • Gemäß einer weiteren Ausführungsform ist das Steuergerät als ein kamerainternes oder als ein externes Steuergerät ausgestaltet. Hierdurch kann das Steuergerät flexibel mit der Kamera verbindbar sein oder in die Kamera integriert werden. Insbesondere kann das Steuergerät als eine Nachrüstlösung für beliebige Kameras ausgeführt sein.
  • Nach einer weiteren Ausführungsform ist der mindestens eine Parameter eine optische Eigenschaft eines Objektivs, eine optische Eigenschaft der Kamera, eine Position der Kamera, eine Ausrichtung der Kamera und/oder ein Kameravektor. Die Brennweite oder die Information über das Objektiv sowie den Sensor der Kamera kann dazu eingesetzt werden, ein Sichtfeld der Kamera zu ermitteln.
  • Die Position der Kamera und die Ausrichtung der Kamera kann zusammen mit dem Sichtfeld durch das Steuergerät zum Erkennen einer Überschreitung des Überwachungsbereichs verwendet werden. Insbesondere können die Parameter dynamisch bzw. kontinuierlich ermittelt werden, wodurch auch schnell bewegliche Kameras, wie beispielsweise bei Fahrzeugen oder Drohnen private Bereiche bzw. Schutzbereiche berücksichtigen können. Die Ausrichtung der Kamera im Raum kann hierbei einen vertikalen und horizontalen Neigungswinkel aufweisen.
  • Gemäß einer weiteren Ausführungsform ist der mindestens eine Parameter ein statischer oder dynamischer Parameter, wobei der Parameter durch das Steuergerät und/oder anhand von empfangenen Messdaten von mindestens einem Sensor ermittelbar ist. Die Parameter können statisch im Steuergerät oder der Kamera hinterlegt sein oder dynamische ermittelt werden. Dabei kann das Steuergerät insbesondere durch Bewegungen des Sichtfelds eine Neigung oder Schwenkbewegung der Kamera ermitteln können. Des Weiteren können GPS-Sensoren, Lagesensoren und Beschleunigungssensoren zum Ermitteln von Ausrichtungs- und Positionsdaten der Kamera verwendet werden. Bevorzugterweise können die Sensoren an oder in der Kamera oder in einer Kameravorrichtung angeordnet sein.
  • Somit kann eine dynamische und automatisierbare Möglichkeit zum Erkennen einer Grenzüberschreitung des Überwachungsbereichs durch das Sichtfeld der Kamera bereitgestellt werden. Die Teilbereiche im Bild der Kamera können somit automatisch anhand der Ausrichtung der Kamera ausmaskiert werden. Der Teilbereich bzw. der Schutzbereich kann beispielsweise eine öffentliche Straße oder ein benachbartes Grundstück sein. Dabei bleiben die Teilbereiche des Sichtfelds der Kamera, die den Überwachungsbereich abbilden, weiterhin sichtbar. Dies kann nur anhand der gemessenen Neigung bzw. Orientierung und Position der Kamera durchgeführt werden. Diese Informationen zur Position und Ausrichtung der Kamera können weiterhin mit einem Verlauf bzw. der Position des geografischen Zauns und/oder Kartenkoordinaten abgeglichen werden, um eine Maskierung automatisiert vorzunehmen.
  • Nach einer weiteren Ausführungsform wird der mindestens eine Schutzbereich als mindestens ein Pixel oder als mindestens ein Vektor ermittelt. Bei einer einfachen Ausgestaltung kann der Überwachungsbereich als eine ebene bzw. zweidimensionale Geometrie ausgeführt sein. Dabei können die Grenzen zwischen dem Überwachungsbereich und dem Schutzbereich durch Pixel und/oder durch Vektoren definiert werden. Basierend auf derartigen Grenzen kann der Schutzbereich ebenfalls pixelförmig oder vektorförmig definiert sein.
  • Gemäß einem weiteren Ausführungsbeispiel wird der Überwachungsbereich als eine Fläche, beispielsweise durch Koordinaten, ausgebildet, wobei der Schutzbereich außerhalb der Fläche liegt und durch das Steuergerät ausgeblendet wird. Somit kann jeder Bereich, der außerhalb des Überwachungsbereichs von der Kamera detektiert wird, als Schutzbereich angesehen und ausmaskiert oder ausgeblendet werden.
  • Nach einer weiteren Ausführungsform wird der Schutzbereich in den Messdaten der Kamera durch Überschreiben von Bereichen des Sichtfelds ausmaskiert oder durch Löschen von Bereichen des Sichtfelds ausgeblendet. Somit wird Steuergerät dazu eingesetzt, die Bildinformationen der Kamera über den Schutzbereich unkenntlich zu machen.
  • Gemäß einer weiteren Ausführungsform wird mindestens ein Objekt auf dem Überwachungsbereich ermittelt. Der durch das Objekt verdeckte Abschnitt des Schutzbereichs wird nicht ausgeblendet. Hierbei kann vorzugsweise eine Tiefenanalyse bzw. eine Tiefenschätzung der Messdaten der Kamera durchgeführt werden, um Objekte und deren Dimensionen zu ermitteln. Somit kann das Verfahren auf Objekte ausgeweitet werden, die sich auf dem Überwachungsbereich befinden. Basierend auf den Dimensionen der Objekte können Abschnitte des Schutzbereichs definiert werden, die durch die Objekte verdeckt werden. Entsprechende verdeckte Bereiche des Schutzbereichs müssen somit nicht maskiert oder ausgeblendet werden, da sie bereits von Objekten verdeckt und durch die Kamera nicht sichtbar sind. Hierdurch kann eine genauere Abtastung bzw. Aufzeichnung des Überwachungsbereichs durchgeführt werden.
  • Nach einem weiteren Ausführungsbeispiel ist die Kameravorrichtung stationär, mobil, beweglich und/oder unbeweglich ausgeführt. Durch die schnelle Auswertung und Bearbeitung der Messdaten der Kamera durch das Steuergerät kann die Ausblendung oder Maskierung des Schutzbereichs nahezu in Echtzeit erfolgen. Hierdurch kann das Steuergerät auch bei dynamisch eingesetzten Kameras, wie beispielsweise an Fahrzeugen oder Flugzeugen bzw. Flugobjekten, eingesetzt werden.
  • Dabei kann die Kameravorrichtung an einem Fahrzeug, oder beispielsweise an einem Hubschrauber oder einer Drohne angeordnet werden. Das Fahrzeug kann hierbei ein automatisiert oder teilautomatisiert betreibbares Fahrzeug ausgestaltet sein. Des Weiteren können das Verfahren und das Steuergerät bei konventionellen bzw. tragbaren Kameras und Mobiltelefonen mit Kameras eingesetzt werden.
  • Bevorzugterweise kann das Verfahren zum Ermitteln des Schutzbereichs innerhalb des Sichtfelds der Kamera durch ein mathematisches Modell und/oder eine Kombination aus unterschiedlichen Modellen umgesetzt werden. Hierdurch kann die Robustheit des Verfahrens erhöht werden. Dabei kann eine Vielzahl an Informationen bei der Erkennung des Schutzbereichs bzw. der Überschreitung des Überwachungsbereichs eingesetzt werden. Beispielsweise kann der optische Fluss der Bildinformationen, GPS-Daten, gyroskopische Daten, Landmarken und dergleichen durch das Steuergerät berücksichtigt werden.
  • Im Folgenden werden anhand von stark vereinfachten schematischen Darstellungen bevorzugte Ausführungsbeispiele der Erfindung näher erläutert. Hierbei zeigen
  • Fig. 1
    eine schematische Darstellung einer Anordnung mit einer mobilen Kameravorrichtung zum Veranschaulichen eines erfindungsgemäßen Verfahrens gemäß einer Ausführungsform,
    Fig. 2
    eine schematische Darstellung einer Anordnung mit einer stationären Kameravorrichtung gemäß einer Ausführungsform, und
    Fig. 3, 4
    schematische Darstellungen einer Anordnung mit einer stationären Kameravorrichtung zum Veranschaulichen einer Objekterkennung.
  • Die Figur 1 zeigt eine schematische Darstellung einer Anordnung mit einer mobilen Kameravorrichtung 1 zum Veranschaulichen eines erfindungsgemäßen Verfahrens gemäß einer Ausführungsform.
  • Die Kameravorrichtung 1 ist an einer Drohne 2 angeordnet und weist eine Neigung a gegenüber einer Horizontalen auf.
  • Die Kameravorrichtung 1 weist eine Kamera 4 und ein Steuergerät 6 auf. Das Steuergerät 6 dient zum Auswerten und Bearbeiten von Messdaten der Kamera 4. Das Steuergerät 6 ist gemäß dem Ausführungsbeispiel in die Kamera 4 integriert.
  • Des Weiteren weist die Kameravorrichtung 1 einen Lage- und Drehratensensor 8 auf. Der Sensor 8 ist mit dem Steuergerät 6 verbunden und dient zum Ermitteln von Positionsänderungen der Kameravorrichtung 1.
  • Die Kamera 4 weist ein Sichtfeld 10 auf, welches in Form von Messdaten aufgezeichnet und durch das Steuergerät 6 bearbeitet wird.
  • Insbesondere wird ein Überwachungsbereich 12 durch die Kameravorrichtung 1 überwacht. Der Überwachungsbereich 12 ist der Einfachheit halber als eine rechteckige Ebene ausgeführt. Der Überwachungsbereich 12 wird von einem Schutzbereich 14 umgeben. Der Schutzbereich 14 stellt hier einen öffentlichen Raum dar, welcher durch die Kamera 4 nicht aufgezeichnet werden darf. Die Grenze zwischen dem Schutzbereich 14 und dem Überwachungsbereich 12 wird durch einen geografischen Zaun 13 definiert. Der geografische Zaun 13 ist linienförmig um den Überwachungsbereich 12 geführt.
  • Im Sichtfeld 10 der Kamera 4 wird ein Bereich 16 durch den Überwachungsbereich 12 ausgebildet und ein weitere Bereich 18 durch den Schutzbereich 14. Der im Sichtfeld 10 der Kamera 4 aufgezeichnete Schutzbereich 18 darf von der Kamera 4 nicht aufgezeichnet werden und wird somit durch das Steuergerät 6 maskiert. Das Maskieren erfolgt beispielsweise durch Überschreiben der den Schutzbereich 14 aufweisenden Messdaten 18 mit schwarzen Pixeln.
  • Die Erkennung des Schutzbereichs 14 erfolgt hierbei basierend auf Parametern der Kamera 4. Die Parameter werden hierbei durch die optischen Eigenschaften der Kamera 4 und die relative Position der Drohne 2 bzw. der Kamera 4 gegenüber dem Überwachungsbereich 12 ausgebildet. Anhand der Informationen, die das Steuergerät 6 aus den Parametern entnehmen kann, erfolgt eine Erkennung des Schutzbereichs 14, welcher den Überwachungsbereich 12 umgibt.
  • In der Figur 2 ist eine schematische Darstellung einer Anordnung mit einer stationären Kameravorrichtung 1 gemäß einer weiteren Ausführungsform gezeigt.
  • Im Unterschied zum in Figur 1 dargestellten Ausführungsbeispiel, ist hier die Kameravorrichtung 1 stationär ausgestaltet. Dabei ist die Kamera 4 an einem Mast 20 befestigt. Somit ist die Kamera 4 ortsfest relativ zum Überwachungsbereich 12 angeordnet.
  • Des Weiteren weist die Kameravorrichtung 1 ein externes Steuergerät 6 auf, welches nachträglich datenleitend mit der Kamera 4 verbunden ist.
  • Die Figuren 3 und 4 zeigen schematische Darstellungen der Anordnung mit einer stationären Kameravorrichtung 1 zum Veranschaulichen einer Objekterkennung. Dabei zeigt die Figur 4 das Sichtfeld 10 der in Figur 3 dargestellten Anordnung.
  • Die Kamera der Kameravorrichtung 1 ist aus dem Überwachungsbereich 12 hinaus gerichtet. Dabei zeichnet die Kamera 4 auch einen Abschnitt 18 des Schutzbereichs 14 auf.
  • Auf dem Überwachungsbereich 12 sind beispielhaft zwei Objekte 22 angeordnet. Die Objekte 22 können beispielsweise Häuser, Vegetation, Tiere, Fahrzeuge und dergleichen sein.
  • Durch die Objekte 22 wird der im Sichtfeld 10 aufgezeichnete Schutzbereich 18 zumindest bereichsweise überdeckt. Dies wird in der Figur 4 verdeutlicht.
  • Die Objekte 22 werden durch eine Bildanalyse und insbesondere durch eine Tiefenanalyse der Messdaten des Sichtfelds 10 durch das Steuergerät 6 ermittelt. Eine äußere Kontur der Objekte 22 kann dazu eingesetzt werden, den Schutzbereich 14 teilweise auszublenden und die Objekte 22 an entsprechenden Positionen ohne eine Maskierung weiterhin aufzuzeichnen. Hierdurch kann eine präzise Überwachung des Überwachungsbereichs 12 und aller Objekte 22 auf dem Überwachungsbereich 12 durchgeführt werden.

Claims (13)

  1. Steuergerät (6) zum Bearbeiten von Messdaten, wobei Messdaten eines Sichtfelds (10) von mindestens einer Kamera (4), mindestens ein Parameter der Kamera (4) und Daten von mindestens einem Überwachungsbereich (12) durch das Steuergerät (6) empfangbar sind, dadurch gekennzeichnet, dass das Steuergerät (6) dazu eingerichtet ist, basierend auf mindestens einem Parameter der Kamera (4) die empfangenen Messdaten zumindest bereichsweise zu maskieren oder auszublenden.
  2. Steuergerät nach Anspruch 1, wobei der mindestens eine Parameter der Kamera (4) durch das Steuergerät (6) ermittelbar und/oder auslesbar ist.
  3. Steuergerät nach Anspruch 1 oder 2, wobei das Steuergerät (6) als ein kamerainternes oder als ein externes Steuergerät (6) ausgestaltet ist.
  4. Steuergerät nach einem der Ansprüche 1 bis 3, wobei der mindestens eine Parameter eine optische Eigenschaft eines Objektivs der Kamera (4), eine optische Eigenschaft der Kamera (4), eine Position der Kamera (4), eine Ausrichtung der Kamera (4) und/oder ein Kameravektor ist.
  5. Steuergerät nach einem der Ansprüche 1 bis 4, wobei der mindestens eine Parameter ein statischer oder dynamischer Parameter ist, wobei der Parameter durch das Steuergerät (6) und/oder anhand von empfangenen Messdaten von mindestens einem Sensor (8) ermittelbar ist.
  6. Verfahren zum Maskieren oder Ausblenden von mindestens einem Bereich (18) eines Sichtfelds (10) mindestens einer Kamera (4) durch ein Steuergerät (6), wobei
    - Daten eines Überwachungsbereichs (12) empfangen oder definiert werden,
    - mindestens ein Parameter der Kamera (4) empfangen und/oder ermittelt wird,
    - basierend auf dem Parameter in dem Sichtfeld (10) der Kamera (4) mindestens ein Schutzbereich (14, 18) außerhalb des Überwachungsbereichs (12) automatisiert ermittelt und ausgeblendet wird.
  7. Verfahren nach Anspruch 6, wobei der mindestens eine Schutzbereich (14) als mindestens ein Pixel oder als mindestens ein Vektor ermittelt wird.
  8. Verfahren nach Anspruch 6 oder 7, wobei der Überwachungsbereich (12) als eine Fläche ausgebildet wird, wobei der Schutzbereich (14) außerhalb der Fläche liegt und durch das Steuergerät (6) ausmaskiert oder ausgeblendet wird.
  9. Verfahren nach einem der Ansprüche 6 bis 8, wobei der Schutzbereich (14) in den Messdaten der Kamera (4) durch Überschreiben von Bereichen (18) des Sichtfelds (10) ausmaskiert oder durch Löschen von Bereichen (18) des Sichtfelds (10) ausgeblendet wird.
  10. Verfahren nach einem der Ansprüche 6 bis 9, wobei mindestens ein Objekt (22) auf dem Überwachungsbereich (12) ermittelt wird, wobei der durch das Objekt (22) verdeckte Abschnitt des Schutzbereichs (14) nicht ausgeblendet wird.
  11. Verfahren nach einem der Ansprüche 6 bis 10, wobei das mindestens eine Objekt (22) durch Tiefenschätzung der Messdaten der Kamera (4) ermittelt wird.
  12. Kameravorrichtung (1), aufweisend mindestens eine Kamera (4) und mindestens ein Steuergerät (6) nach einem der Ansprüche 1 bis 5, wobei Messdaten der Kamera (4) durch das Steuergerät (6) derart basierend auf mindestens einem Parameter bearbeitbar sind, dass ein außerhalb eines Überwachungsbereichs (12) angeordneter Schutzbereich (14) dynamisch ausblendbar ist.
  13. Kameravorrichtung nach Anspruch 12, wobei die Kameravorrichtung (1) stationär, mobil, beweglich und/oder unbeweglich ausgeführt ist.
EP19214352.7A 2018-12-17 2019-12-09 Dynamisches maskieren oder ausblenden von bereichen eines sichtfelds Withdrawn EP3671679A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018221870.6A DE102018221870A1 (de) 2018-12-17 2018-12-17 Dynamisches Maskieren oder Ausblenden von Bereichen eines Sichtfelds

Publications (1)

Publication Number Publication Date
EP3671679A1 true EP3671679A1 (de) 2020-06-24

Family

ID=68835080

Family Applications (1)

Application Number Title Priority Date Filing Date
EP19214352.7A Withdrawn EP3671679A1 (de) 2018-12-17 2019-12-09 Dynamisches maskieren oder ausblenden von bereichen eines sichtfelds

Country Status (2)

Country Link
EP (1) EP3671679A1 (de)
DE (1) DE102018221870A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180025649A1 (en) * 2016-02-08 2018-01-25 Unmanned Innovation Inc. Unmanned aerial vehicle privacy controls
US9953187B2 (en) * 2014-11-25 2018-04-24 Honeywell International Inc. System and method of contextual adjustment of video fidelity to protect privacy
US10115277B2 (en) * 2014-07-29 2018-10-30 GeoFrenzy, Inc. Systems and methods for geofence security

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10115277B2 (en) * 2014-07-29 2018-10-30 GeoFrenzy, Inc. Systems and methods for geofence security
US9953187B2 (en) * 2014-11-25 2018-04-24 Honeywell International Inc. System and method of contextual adjustment of video fidelity to protect privacy
US20180025649A1 (en) * 2016-02-08 2018-01-25 Unmanned Innovation Inc. Unmanned aerial vehicle privacy controls

Also Published As

Publication number Publication date
DE102018221870A1 (de) 2020-06-18

Similar Documents

Publication Publication Date Title
Ashraf et al. An investigation of interpolation techniques to generate 2D intensity image from LIDAR data
EP3034995B1 (de) Verfahren zum bestimmen eines position- und orientierungsversatzes eines geodätischen vermessungsgeräts und ebensolches vermessungsgerät
DE602005006145T2 (de) Kollisionsschutzwarnsystem für wasserfahrzeuge und kollisionsschutzanalyseverfahren
EP3017275B1 (de) Positionsbestimmungsverfahren für ein vermessungsgerät und ein ebensolches vermessungsgerät
DE102005021735B4 (de) Videoüberwachungssystem
WO2018167006A1 (de) Verfahren und anordnung für eine zustandsüberwachung einer anlage mit betriebsmitteln
DE102007044605B4 (de) Vermessungsgerät
DE102013110581A1 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102017205647A1 (de) Verfahren zum bestimmen eines pfades entlang eines objekts, system und verfahren zum automatischen inspizieren eines objekts
DE102009040468A1 (de) Tragbare mobile Erfassungseinrichtung und Verfahren zur dreidimensionalen geometrischen Erfassung einer Umgebung
DE102015110684A1 (de) Vermessungsinstrument
DE102018204451A1 (de) Verfahren und Vorrichtung zur Autokalibrierung eines Fahrzeugkamerasystems
EP3921819B1 (de) Überwachungsvorrichtung und verfahren zur man-overboard-überwachung eines schiffsabschnitts
DE102006044615A1 (de) Verfahren zur Kalibrierung von Bilderfassungseinrichtungen in Fahrzeugen
EP2502205A2 (de) Verfahren zum erzeugen einer darstellung einer umgebung
DE102008023439A1 (de) Augmented Reality Fernglas zur Navigationsunterstützung
EP3671679A1 (de) Dynamisches maskieren oder ausblenden von bereichen eines sichtfelds
WO2020160874A1 (de) Kalibriereinrichtung für eine überwachungsvorrichtung, überwachungsvorrichtung zur man-overboard-überwachung sowie verfahren zur kalibrierung
EP2756261B1 (de) Vermessungsgerät und verfahren zum gefilterten darstellen von objekt-information
EP3236440B1 (de) Vorrichtung, system und verfahren zur markierungsfreien hangüberwachung und/oder bauüberwachung
DE10153113A1 (de) Verfahren und Vorrichtung zur Entfernungsbestimmung
EP0634628B1 (de) Verfahren zur Erdbeobachtung
DE102016103057A1 (de) Verfahren zur Ermittlung und Darstellung von Veränderungen in einer ein reales Gelände und darin befindliche reale Objekte umfassenden Realumgebung
DE102006014546B4 (de) Verfahren und Vorrichtung zum sensorbasierten Überwachen einer Umgebung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20210112