WO2015078612A1 - Verfahren zur videoüberwachung - Google Patents

Verfahren zur videoüberwachung Download PDF

Info

Publication number
WO2015078612A1
WO2015078612A1 PCT/EP2014/070540 EP2014070540W WO2015078612A1 WO 2015078612 A1 WO2015078612 A1 WO 2015078612A1 EP 2014070540 W EP2014070540 W EP 2014070540W WO 2015078612 A1 WO2015078612 A1 WO 2015078612A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
subarea
parameters
monitoring
content analysis
Prior art date
Application number
PCT/EP2014/070540
Other languages
English (en)
French (fr)
Inventor
Nicolas Cebron
Jan Karl Warzelhan
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Priority to GB1604605.4A priority Critical patent/GB2534497B/en
Priority to CN201480064928.4A priority patent/CN105793868B/zh
Priority to US15/039,484 priority patent/US9996751B2/en
Publication of WO2015078612A1 publication Critical patent/WO2015078612A1/de

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19652Systems using zones in a single scene defined for different treatment, e.g. outer zone gives pre-alarm, inner zone gives alarm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a method for monitoring a surveillance area detected by a camera, in particular a smart camera.
  • Smart cameras are understood as optical systems that not only capture images, but also process and / or interpret them themselves. For example, as an intelligent and autonomous optical system, a smart camera can filter out and process application-specific information from recorded images in addition to an image acquisition circuit and make decisions based thereon.
  • certain portions of the surveillance area captured by the camera may be masked as not relevant, i. exclude for automatic image processing.
  • a method according to the invention for monitoring a surveillance area detected by a camera, in particular a smart camera, in which a content analysis is carried out only for a subarea of the surveillance area it is advantageous if the subarea is determined on the basis of parameters and if there is a change is adjusted by at least one of the parameters during monitoring of the sub-area for the content analysis, in particular automatically.
  • the area of the monitoring area outside the subarea is masked out, where no content analysis is performed.
  • the invention allows the portion of the monitored area to be analyzed (i.e., the subarea) to be kept small, allowing the execution of more complex algorithms in real time. Masking out spurious or non-relevant areas will not generate alerts / meta-data, which in turn may increase the observer's attention.
  • the subarea is based on a flat surface in the surveillance area, such as a floor on which persons move. selected.
  • This flat surface can be selected in the camera image, for example, by a user, whereupon, in a simple embodiment, the selected surface forms the subregion.
  • the subarea is determined taking into account a height of objects located on the surface.
  • the sub-area as well as possible on the required areas, namely areas on which people can move, are limited. It is very easy, in particular by means of a floor plan description, to mark the partial area. Regions in which moving objects can occur, however, are not visible in every picture during a configuration, for example. Thus, it is difficult to define these areas.
  • Surveillance system is particularly advantageous to set by means of a calibration (in particular the height) independently define the sub-area. This is advantageous in the use of object detectors.
  • the user can use the camera image to mark the floor area where people can spend time.
  • the associated 3D point in a world coordinate system can be calculated by means of a camera matrix and / or projection matrix. Starting from the 3D point on the ground plane, a fictitious height (height range) of the person can be assumed, for. B. between 1, 2 m to 2 m. This 3D point with a certain height (or heights) can be transformed back into the 2D image plane by means of the projection matrix.
  • a position in the 2D image that represents a head position of a potential person.
  • image areas z. B. may be persons.
  • a mask image can be created. However, this is not necessarily just a 2D masking, but rather describes a 3D volume.
  • object detection a certain mask size is run over the image in order to make a decision at all possible positions as to whether the object to be detected is located there or not. This must theoretically be done for each pixel position and possible mask size (eg for persons of 1.2m - 2m), resulting in a
  • the parameters include output values of one or more sensors, for example for a door, a sliding door, a barrier or a light barrier, or motion detectors. This can be used to identify which areas need to be monitored or analyzed, ie where possibly even persons are located.
  • the parameters also include image processing parameters in the content analysis.
  • image processing parameters for example, background can be excluded from monitoring or directions of movement can be detected.
  • the subarea is not limited to a contiguous area, but two or more separate areas can be used for content analysis. This is useful, for example, if there is a wall or the like in the middle of the surveillance area, so that this area can not be entered by persons.
  • An arithmetic unit according to the invention which, for example, is integrated in the camera, in particular a smart camera, or is part of a higher-level monitoring system, is, in particular programmatically, set up to carry out a method according to the invention.
  • Suitable data carriers for providing the computer program are, in particular, floppy disks, hard disks, flash memories, EEPROMs, CD-ROMs, DVDs and the like. It is also possible to download a program via computer networks (Internet, intranet, etc.).
  • FIG. 1 shows a monitoring scene and a content analysis area selected thereon for a method not according to the invention.
  • FIG. 2 shows a monitoring scene with different content analysis sections selected thereon for a method according to the invention in a preferred embodiment.
  • FIG. 1 shows a surveillance scene with a surveillance area 10, by way of example an entrance area to a supermarket.
  • a surveillance area 10 by way of example an entrance area to a supermarket.
  • Figure 1 a the complete monitoring area 10 is shown.
  • FIG. 1 b selects a partial area 20 of the monitoring area 10, which is used for content analysis during image processing in a camera.
  • the hatched area is excluded from the content analysis because no persons are allowed to be there or this area is not relevant, as a comparison with FIG. 1a shows.
  • FIG. 2 shows the same monitoring area 10 as in FIG. However, the selected portions 20 used for content analysis differ, as explained below.
  • the portion 20 extends to the area in front of the entrance and the front of the entrance, respectively. up to barriers installed in the passageway area of the entrance. Since there are no people in the passage area when the barriers are closed, a content analysis in this area is not necessary either.
  • the portion 20 extends in addition to the right passage.
  • two sensors 30 are shown, which are formed at the barriers in the passage.
  • the sensors can output different values as parameters, depending on whether the corresponding barrier is open or closed.
  • a barrier is usually opened when a person approaches and wants to pass.
  • a corresponding value of the sensors 30 is output, which is detected by the camera and used to determine or determine the partial area 20.
  • the sub-area is extended to the right-hand passage, because, due to the opened barriers, there are persons or at least can be located there.
  • the sub-area is thus extended to the larger area only if this is necessary due to the monitoring, namely, if there may be people there.
  • the subregion 20 is based on a flat surface, namely the bottom, of the monitoring region 10. Only there do people usually move.
  • the area is preferably marked manually in the camera image, whereupon the subarea to be analyzed is based on the camera or is set automatically to a camera monitoring system.
  • FIG. 2c the partial region 20 is widened relative to FIG. 2a by the left-hand passage region.
  • two sensors 30, which are formed at the barriers in the passage shown.
  • the sub-area is only extended by an area in which there are persons, in this case persons who pass the left passage.
  • Suitable sensors for outputting values as parameters that are used to determine the subarea may also be located on other objects or objects that are suitable for defining possible surveillance areas.
  • objects or objects that are suitable for defining possible surveillance areas.
  • doors especially sliding or revolving doors, as they are, for example.
  • Sensors on photoelectric sensors can also output appropriate values.
  • parameters are, for example, image processing parameters during content analysis.
  • unmoved areas can be identified as background and excluded from the content analysis in the following.
  • a detected movement direction of an object expands the partial area in the corresponding direction.

Abstract

Die Erfindung betrifft ein Verfahren zur Überwachung eines von einer Kamera erfassten Überwachungsbereichs (10), wobei eine Inhaltsanalyse für einen Teilbereich (20) des Überwachungsbereichs (10) durchgeführt wird; wobei eine Festlegung des Teilbereichs (20) in Abhängigkeit von ein oder mehreren Parametern durchgeführt wird; und wobei die Festlegung des Teilbereichs (20) bei einer Änderung wenigstens eines der Parameter während der Überwachung erneut durchgeführt wird.

Description

Beschreibung Titel
Verfahren zur Videoüberwachung
Die vorliegende Erfindung betrifft ein Verfahren zur Überwachung eines von einer Kamera, insbesondere einer Smart-Kamera, erfassten Überwachungsbereichs.
Stand der Technik
Unter "Smart-Kameras" werden optische Systeme verstanden, die Bilder nicht nur aufnehmen, sondern diese auch selbst verarbeiten und/oder interpretieren können. Eine Smart-Kamera kann beispielsweise als intelligentes und autonomes optisches System zusätzlich zu einer Bildaufnahmeschaltung anwendungsspezifische Informationen aus aufgenommenen Bildern herausfiltern und verarbeiten sowie aufgrund dessen Entscheidungen treffen.
Für eine Videoinhaltsanalyse kann man Vorwissen über eine Szenengeometrie eines zu überwachenden Bereichs nutzen, um die Performanz in Hinblick auf Objekterkennung, Objektverfolgung und Klassifikation oder für die Plausibilisierung von Objekten zu verbessern.
So kann man bestimmte Teilbereiche des von der Kamera erfassten Überwachungsbereichs als nicht relevant maskieren, d.h. für die automatische Bildverarbeitung ausschließen.
Aus der DE 10 2007 041 893 A1 ist bspw. ein Verfahren zur Videoüberwachung bekannt, bei dem verschiedene Bereiche, in denen Störobjekte auftreten oder auftreten können, nur begrenzt analysiert bzw. überwacht werden.
Überwachungskameras werden in letzter Zeit jedoch auch für komplexere Szenen, wie bspw. Supermärkte, eingesetzt, bei denen die benötigte Leistung für die Bildverarbeitung steigt. Eine einfache Maskierung von nicht zu überwachenden Bereichen ist zudem oft nicht möglich.
Es ist daher wünschenswert, eine Möglichkeit anzugeben, Bereiche eines Überwachungsbereichs derart festzulegen, dass, insbesondere situationsbedingt, die nötige Videoinhaltsanalyse möglichst gering gehalten wird.
Offenbarung der Erfindung
Erfindungsgemäß wird ein Verfahren zur Videoüberwachung mit den Merkmalen des Patentanspruchs 1 vorgeschlagen. Vorteilhafte Ausgestaltungen sind Gegenstand der Unteransprüche sowie der nachfolgenden Beschreibung.
Vorteile der Erfindung
Bei einem erfindungsgemäßen Verfahren zur Überwachung eines von einer Kamera, insbesondere einer Smart-Kamera, erfassten Überwachungsbereichs, bei dem eine Inhaltsanalyse nur für einen Teilbereich des Überwachungsbereichs durchgeführt wird, ist es vorteilhaft, wenn der Teilbereich anhand von Parametern bestimmt wird und wenn bei einer Änderung von wenigstens einem der Parameter während der Überwachung der Teilbereich für die Inhaltsanalyse, insbesondere automatisch, angepasst wird. Bereich des Überwachungsbereichs außerhalb des Teilbereichs werden damit ausmaskiert, dort wird dann keine Inhaltsanalyse durchgeführt. Dadurch wird eine für die Überwachung nötige Rechenleistung auf das Nötige reduziert und trotzdem können alle nötigen bzw. wichtigen Szenen überwacht werden. Durch die Erfindung kann der zu analysierende Anteil des Überwachungsbereichs (d.h. der Teilbereich) klein gehalten werden, was die Ausführung von komplexeren Algorithmen in Echtzeit ermöglicht. Durch die Ausmaskierung von Störregionen oder nicht relevanter Bereiche werden dort keine Alarme/Meta-Daten generiert, was wiederum zu einer Steigerung der Aufmerksamkeit des Beobachters führen kann.
Vorzugsweise wird der Teilbereich auf Basis einer ebenen Fläche im Überwachungsbereich, wie bspw. einem Boden, auf dem sich Personen bewegen, aus- gewählt. Diese ebene Fläche kann im Kamerabild beispielsweise von einem Benutzer ausgewählt werden, woraufhin in einfacher Ausgestaltung die ausgewählte Fläche den Teilbereich bildet. Vorzugsweise wird der Teilbereich jedoch unter Berücksichtigung einer Höhe von Objekten, die sich auf der Fläche befinden, be- stimmt. Dadurch kann der Teilbereich möglichst gut auf benötigte Bereiche, nämlich Flächen, auf denen sich Personen bewegen können, eingegrenzt werden. Es ist insbesondere mittels einer Grundriss-Beschreibung sehr einfach, den Teilbereich zu markieren. Regionen, in welchen bewegte Objekte vorkommen können, sind aber z.B. während einer Konfiguration nicht im Bild an jeder Position zu se- hen. Somit ist es schwierig, diese Bereiche zu definieren. Die Kamera bzw. das
Überwachungssystem ist besonders vorteilhaft dazu eingerichtet, anhand einer Kalibrierung (insbesondere der Höhe) selbstständig den Teilbereich festzulegen. Dies ist vorteilhaft bei der Verwendung von Objektdetektoren. Der Benutzer kann anhand des Kamerabildes den Fußbodenbereich markieren, an dem sich Perso- nen aufhalten können. Für alle Bildpunkte im 2D-Bild, die den markierten Fußboden abbilden, kann mittels einer Kameramatrix und/oder Projektionsmatrix der zugehörige 3D-Punkt in einem Weltkoordinatensystem berechnet werden. Ausgehend von dem 3D-Punkt auf der Grundebene kann eine fiktive Höhe (Höhenbereich) der Person angenommen werden, z. B. zwischen 1 ,2 m bis 2 m. Dieser 3D-Punkt mit einer bestimmten Höhe (oder Höhen) kann mittels der Projektionsmatrix in die 2D-Bildebene rücktransformiert werden. Somit bekommt man eine Position im 2D-Bild, die eine Kopfposition einer möglichen Person wiedergibt. Somit kann abgeschätzt werden, in welchen Bildbereichen sich z. B. Personen befinden können. Wenn alle Möglichkeiten berechnet werden, kann ein Masken- bild erstellt werden. Dies ist aber nicht zwingend nur eine 2D-Maskierung, sondern beschreibt vielmehr ein 3D-Volumen. Bei der Objektdetektion wird mit einer bestimmten Maskengröße über das Bild gelaufen, um eine Entscheidung an allen möglichen Positionen zu treffen, ob sich dort das zu detektierende Objekt befindet oder nicht. Dies muss theoretisch für jede Pixelposition und mögliche Mas- kengröße (z. B. für Personen von 1.2m - 2 m) gemacht werden, was zu einer
Vielzahl von Tests führt. Hierfür ist eine Einschränkung des Suchbereichs auf einen Teilbereich sehr vorteilhaft. Vorteilhafterweise umfassen die Parameter Ausgabewerte eines oder mehrerer Sensoren, bspw. für eine Tür, eine Schiebetür, eine Schranke oder eine Lichtschranke, oder Bewegungsmelder. Dadurch kann erkannt werden, welche Bereiche überwacht bzw. analysiert werden müssen, d.h. wo sich möglicherweise gerade Personen befinden.
Weiter ist es vorteilhaft, wenn die Parameter auch Bildverarbeitungsparameter bei der Inhaltsanalyse umfassen. Auf diese Weise kann bspw. Hintergrund von der Überwachung ausgeschlossen werden oder Bewegungsrichtungen können erkannt werden.
Der Teilbereich ist dabei nicht auf einen zusammenhängenden Bereich beschränkt, ebenso können zwei oder mehrere voneinander getrennte Bereiche zur Inhaltsanalyse herangezogen werden. Dies ist bspw. sinnvoll, wenn sich in der Mitte des Überwachungsbereichs eine Wand oder dergleichen befindet, so dass dieser Bereich nicht von Personen betreten werden kann.
Eine erfindungsgemäße Recheneinheit, die bspw. in der Kamera, insbesondere einer Smart-Kamera, integriert oder Bestandteil eines übergeordneten Überwachungssystems ist, ist, insbesondere programmtechnisch, dazu eingerichtet, ein erfindungsgemäßes Verfahren durchzuführen.
Auch die Implementierung des Verfahrens in Form von Software ist vorteilhaft, da dies besonders geringe Kosten verursacht, insbesondere wenn ein ausführendes Steuergerät noch für weitere Aufgaben genutzt wird und daher ohnehin vorhanden ist. Geeignete Datenträger zur Bereitstellung des Computerprogramms sind insbesondere Disketten, Festplatten, Flash-Speicher, EEPROMs, CD-ROMs, DVDs u.a.m. Auch ein Download eines Programms über Computernetze (Internet, Intranet usw.) ist möglich.
Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und der beiliegenden Zeichnung. Es versteht sich, dass die vorstehend genannten und die nachfolgend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
Die Erfindung ist anhand von Ausführungsbeispielen in der Zeichnung schematisch dargestellt und wird im Folgenden unter Bezugnahme auf die Zeichnung ausführlich beschrieben.
Kurze Beschreibung der Zeichnung
Figur 1 zeigt eine Überwachungsszene und einen darauf ausgewählten Bereich zur Inhaltsanalyse für ein nicht erfindungsgemäßes Verfahren.
Figur 2 zeigt eine Überwachungsszene mit verschiedenen darauf ausgewählten Teilbereichen zur Inhaltsanalyse für ein erfindungsgemäßes Verfahren in einer bevorzugten Ausgestaltung.
Ausführungsform(en) der Erfindung
In Figur 1 ist eine Überwachungsszene mit einem Überwachungsbereich 10, beispielhaft ein Eingangsbereich zu einem Supermarkt, dargestellt. In Figur 1 a ist der komplette Überwachungsbereich 10 gezeigt.
In Figur 1 b ist ein Teilbereich 20 des Überwachungsbereichs 10 ausgewählt, der zur Inhaltsanalyse während der Bildverarbeitung in einer Kamera herangezogen wird. Der schraffiert dargestellte Bereich wird dabei von der Inhaltsanalyse ausgeschlossen, da sich dort keine Personen aufhalten dürften bzw. dieser Bereich nicht relevant ist, wie ein Vergleich mit Figur 1 a zeigt.
Insbesondere bspw. bei einer Zählung von Personen, die den Supermarkt betreten und/oder Verlassen, ist lediglich der Eingangsbereich von Interesse. Nachteilig ist hierbei jedoch, dass der gesamte Eingangsbereich dauerhaft zur Inhalts- analyse herangezogen wird, unabhängig davon, ob sich auch tatsächlich gerade Personen im Eingangsbereich aufhalten.
In Figur 2 ist der gleiche Überwachungsbereich 10 wie in Figur 1 dargestellt. Die ausgewählten Teilbereiche 20, die zur Inhaltsanalyse herangezogen werden, unterscheiden sich jedoch, wie nachfolgend erläutert.
In Figur 2a erstreckt sich der Teilbereich 20 auf den Bereich vor dem Eingang bzw. den vorderen Bereich des Eingangs, d.h. bis vor Schranken, die im Durchgangsbereich des Eingangs angebracht sind. Da bei geschlossenen Schranken sich im Durchgangsbereich keine Personen aufhalten, ist eine Inhaltsanalyse in diesem Bereich auch nicht nötig.
In Figur 2b erstreckt sich der Teilbereich 20 zusätzlich auf den rechten Durchgang. Hierbei sind zwei Sensoren 30 dargestellt, die an den Schranken im Durchgang ausgebildet sind. Bspw. können die Sensoren verschiedene Werte als Parameter ausgeben, je nachdem ob die entsprechende Schranke geöffnet oder geschlossen ist. Eine Schranke wird üblicherweise geöffnet, wenn eine Person darauf zugeht und den Durchgang passieren will. Hierbei wird dann ein entsprechender Wert der Sensoren 30 ausgegeben, welcher von der Kamera er- fasst wird und zur Bestimmung bzw. Festlegung des Teilbereichs 20 herangezogen wird.
Im vorliegenden Fall wird der Teilbereich auf den rechten Durchgang erweitert, da sich, aufgrund der geöffneten Schranken, dort Personen befinden oder zumindest befinden können. Der Teilbereich wird somit nur dann auf den größeren Bereich erweitert, wenn dies aufgrund der Überwachung auch nötig ist, nämlich wenn sich dort Personen aufhalten können.
Weiter ist zu sehen, dass der Teilbereich 20 auf einer ebenen Fläche, nämlich dem Boden, des Überwachungsbereichs 10 basiert. Nur dort bewegen sich üblicherweise Personen. Die Fläche wird vorzugsweise manuell im Kamerabild markiert, worauf basierend der zu analysierende Teilbereich von der Kamera oder einem der Kamera übergeordneten Überwachungssystem automatisch festgelegt wird.
In Figur 2c ist der Teilbereich 20 gegenüber der Figur 2a um den linken Durchgangsbereich erweitert. Hier sind ebenso zwei Sensoren 30, die an den Schranken im Durchgang ausgebildet sind, dargestellt. Wiederum wird der Teilbereich nur um einen Bereich erweitert, in dem sich Personen befinden, im vorliegenden Fall Personen, die den linken Durchgang passieren.
Die Anwendung eines erfindungsgemäßen Verfahrens erschöpft sich nicht nur in der Überwachung von Personen. Ebenso können andere bewegte Objekte wie bspw. Fahrzeuge entsprechend überwacht werden.
Geeignete Sensoren zur Ausgabe von Werten als Parameter, die zur Bestimmung des Teilbereichs herangezogen werden, können sich auch an anderen Objekten oder Gegenständen befinden, die dazu geeignet sind, mögliche Überwachungsbereiche zu definieren. Bspw. seien hier Türen, insbesondere Schiebetüren oder Drehtüren, wie sie sich bspw. am Eingang von Kaufhäusern befinden, genannt. Auch Sensoren an Lichtschranken können entsprechende Werte ausgeben.
Eine weitere Möglichkeit für Parameter sind bspw. Bildverarbeitungsparameter während der Inhaltsanalyse. Hier können bspw. unbewegte Bereiche als Hintergrund identifiziert und von der Inhaltsanalyse im Weiteren ausgeschlossen werden. Ebenso ist es bspw. denkbar, dass eine erkannte Bewegungsrichtung eines Objekts den Teilbereich in die entsprechende Richtung hin erweitert.

Claims

Ansprüche
1. Verfahren zur Überwachung eines von einer Kamera erfassten Überwachungsbereichs (10),
wobei eine Inhaltsanalyse für einen Teilbereich (20) des Überwachungsbereichs (10) durchgeführt wird;
wobei eine Festlegung des Teilbereichs (20) in Abhängigkeit von ein oder mehreren Parametern durchgeführt wird; und
wobei die Festlegung des Teilbereichs (20) bei einer Änderung wenigstens eines der Parameter während der Überwachung erneut durchgeführt wird.
2. Verfahren nach Anspruch 1 , wobei die Festlegung des Teilbereichs (20) bei einer Änderung wenigstens eines der Parameter während der Überwachung automatisch durchgeführt wird.
3. Verfahren nach Anspruch 1 oder 2, wobei der Teilbereich auf einer ebenen Fläche in dem Überwachungsbereich basiert.
4. Verfahren nach Anspruch 3, wobei der Teilbereich basierend auf der ebenen Fläche in dem Überwachungsbereich und einer Höheninformation festgelegt wird.
5. Verfahren nach einem der vorstehenden Ansprüche, wobei die ein oder mehreren Parameter wenigstens einen Ausgabewert eines Sensors (30) umfassen.
6. Verfahren nach einem der vorstehenden Ansprüche, wobei die ein oder mehreren Parameter wenigstens einen Bildverarbeitungsparameter bei der Inhaltsanalyse umfassen.
7. Verfahren nach einem der vorstehenden Ansprüche, wobei der Teilbereich (20) einen zusammenhängenden Bereich oder wenigstens zwei voneinander getrennte Bereiche umfasst.
8. Verfahren nach einem der vorstehenden Ansprüche, wobei die Inhaltsanalyse für einen Teilbereich (20) des Überwachungsbereichs (10) und/oder die Festlegung des Teilbereichs (20) in Abhängigkeit von ein oder mehreren Parametern und/oder die Festlegung des Teilbereichs (20) bei einer Änderung wenigstens eines der Parameter während der Überwachung in der Kamera oder in einem übergeordneten Überwachungssystem durchgeführt wird.
9. Recheneinheit, die dazu eingerichtet ist, ein Verfahren nach einem der vorstehenden Ansprüche durchzuführen.
10. Computerprogramm, das eine Recheneinheit dazu veranlasst, ein Verfahren nach einem der Ansprüche 1 bis 8 durchzuführen, wenn es auf der Recheneinheit, insbesondere nach Anspruch 9, ausgeführt wird.
1 1 Maschinenlesbares Speichermedium mit einem darauf gespeicherten Computerprogramm nach Anspruch 10.
PCT/EP2014/070540 2013-11-28 2014-09-25 Verfahren zur videoüberwachung WO2015078612A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
GB1604605.4A GB2534497B (en) 2013-11-28 2014-09-25 Method for video monitoring
CN201480064928.4A CN105793868B (zh) 2013-11-28 2014-09-25 用于视频监视的方法
US15/039,484 US9996751B2 (en) 2013-11-28 2014-09-25 Method for monitoring a monitored region recorded by a camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013224376.6 2013-11-28
DE102013224376.6A DE102013224376A1 (de) 2013-11-28 2013-11-28 Verfahren zur Videoüberwachung

Publications (1)

Publication Number Publication Date
WO2015078612A1 true WO2015078612A1 (de) 2015-06-04

Family

ID=51655710

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2014/070540 WO2015078612A1 (de) 2013-11-28 2014-09-25 Verfahren zur videoüberwachung

Country Status (5)

Country Link
US (1) US9996751B2 (de)
CN (1) CN105793868B (de)
DE (1) DE102013224376A1 (de)
GB (1) GB2534497B (de)
WO (1) WO2015078612A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013224376A1 (de) * 2013-11-28 2015-05-28 Robert Bosch Gmbh Verfahren zur Videoüberwachung
CN110503028B (zh) * 2019-08-21 2023-12-15 腾讯科技(深圳)有限公司 确定区域中对象的分布的传感器、系统、方法和介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2410115A1 (de) * 2010-07-19 2012-01-25 Vislab S.r.l. System für die Kontrolle von automatischen Toren
WO2012010109A1 (de) * 2010-07-22 2012-01-26 Gira Giersiepen Gmbh & Co. Kg System und verfahren zum verarbeiten von visueller, auditiver, olfaktorischer und/oder haptischer information

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7907769B2 (en) * 2004-05-13 2011-03-15 The Charles Stark Draper Laboratory, Inc. Image-based methods for measuring global nuclear patterns as epigenetic markers of cell differentiation
CN101001186A (zh) * 2006-11-29 2007-07-18 程伟明 基于传感网络技术的监控系统
DE102007041893A1 (de) 2007-09-04 2009-03-05 Robert Bosch Gmbh Verfahren zur Detektion und/oder Verfolgung von bewegten Objekten in einer Überwachungsszene mit Störern, Vorrichtung sowie Computerprogramm
DE102007053812A1 (de) * 2007-11-12 2009-05-14 Robert Bosch Gmbh Konfigurationsmodul für ein Videoüberwachungssystem, Überwachungssystem mit dem Konfigurationsmodul, Verfahren zur Konfiguration eines Videoüberwachungssystems sowie Computerprogramm
US8508580B2 (en) * 2009-07-31 2013-08-13 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3D) images of a scene
US8121618B2 (en) * 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
DE102010046220A1 (de) * 2010-09-21 2012-03-22 Hella Kgaa Hueck & Co. Verfahren zum Konfigurieren eines Überwachungssystems und konfigurierbares Überwachungssystem
JP5325251B2 (ja) * 2011-03-28 2013-10-23 株式会社日立製作所 カメラ設置支援方法、画像認識方法
DE102013224376A1 (de) * 2013-11-28 2015-05-28 Robert Bosch Gmbh Verfahren zur Videoüberwachung
DE102014214089A1 (de) * 2014-07-21 2016-01-21 Robert Bosch Gmbh Überwachungsanordnung mit Reflektionseinrichtung und Korrespondenzmodul und Verfahren zum Einrichten der Überwachungsanordnung
US9940533B2 (en) * 2014-09-30 2018-04-10 Qualcomm Incorporated Scanning window for isolating pixel values in hardware for computer vision operations

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2410115A1 (de) * 2010-07-19 2012-01-25 Vislab S.r.l. System für die Kontrolle von automatischen Toren
WO2012010109A1 (de) * 2010-07-22 2012-01-26 Gira Giersiepen Gmbh & Co. Kg System und verfahren zum verarbeiten von visueller, auditiver, olfaktorischer und/oder haptischer information

Also Published As

Publication number Publication date
GB201604605D0 (en) 2016-05-04
CN105793868B (zh) 2020-01-03
CN105793868A (zh) 2016-07-20
DE102013224376A1 (de) 2015-05-28
US9996751B2 (en) 2018-06-12
US20170177945A1 (en) 2017-06-22
GB2534497A (en) 2016-07-27
GB2534497B (en) 2020-12-16

Similar Documents

Publication Publication Date Title
EP0853299B2 (de) Verfahren und Vorrichtung zur Ansteuerung von Türanlagen in Abhängigkeit von der Anwesenheit von Personen
DE112017001311T5 (de) System und Verfahren zum Trainieren eines Objektklassifikators durch maschinelles Lernen
DE102009038364A1 (de) Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform
DE102006053286A1 (de) Verfahren zur Detektion von bewegungsauffälligen Bildbereichen, Vorrichtung sowie Computerprogramm zur Durchführung des Verfahrens
DE102017210316A1 (de) Verfahren und Vorrichtung zum Erfassen einer Nutzereingabe anhand einer Geste
EP2849151A1 (de) Verfahren zur Analyse von freien Warteschlangen
DE102007031302A1 (de) Vorrichtung zur Erkennung und/oder Klassifizierung von Bewegungsmustern in einer Bildsequenz von einer Überwachungsszene, Verfahren sowie Computerprogramm
EP3545506A1 (de) Verfahren und system zum detektieren eines sich innerhalb eines parkplatzes befindenden erhabenen objekts
DE102016223094A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
EP2483834B1 (de) Verfahren und Vorrichtung zum Erkennen einer Fehldetektion eines Objekts in einem Bild
DE102016119339A1 (de) Situationsabhängige Verschließkörpersteuerung
WO2015078612A1 (de) Verfahren zur videoüberwachung
DE102009026091A1 (de) Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras
DE102007041333B4 (de) Berührungslos arbeitendes Zählsystem
WO2020157024A1 (de) Verfahren und system zur überwachung eines raumbereichs in einer personenschleuse
DE102016222134A1 (de) Videoanalyseeinrichtung für eine Überwachungsvorrichtung und Verfahren zur Erzeugung eines Einzelbildes
WO2012110654A1 (de) Verfahren zur auswertung einer mehrzahl zeitlich versetzter bilder, vorrichtung zur auswertung von bildern, überwachungssystem
DE102019114451A1 (de) Aktivitätsbereiche in Videoinhalten
WO2018234251A1 (de) Verfahren und vorrichtung zum erfassen einer nutzereingabe anhand einer geste
EP2359308B1 (de) Vorrichtung zur erzeugung und/oder verarbeitung einer objektsignatur, überwachungsvorrichtung, verfahren und computerprogramm
DE102012200504A1 (de) Analysevorrichtung zur Auswertung einer Überwachungsszene, Verfahren zur Analyse der Überwachungsszenen sowie Computerprogramm
DE102020208828A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems
DE102009055623B4 (de) Verfahren und Einrichtung zur optischen Aktivitätenerkennung
DE102012103163A1 (de) Vorrichtung zur Steuerung eines Gebäudeaggregats
DE102019207408A1 (de) Verfahren und Vorrichtung zum Betreiben eines neuronalen Netzes

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14777557

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 201604605

Country of ref document: GB

Kind code of ref document: A

Free format text: PCT FILING DATE = 20140925

WWE Wipo information: entry into national phase

Ref document number: 15039484

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14777557

Country of ref document: EP

Kind code of ref document: A1