DE102006027120A1 - Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm - Google Patents

Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm Download PDF

Info

Publication number
DE102006027120A1
DE102006027120A1 DE102006027120A DE102006027120A DE102006027120A1 DE 102006027120 A1 DE102006027120 A1 DE 102006027120A1 DE 102006027120 A DE102006027120 A DE 102006027120A DE 102006027120 A DE102006027120 A DE 102006027120A DE 102006027120 A1 DE102006027120 A1 DE 102006027120A1
Authority
DE
Germany
Prior art keywords
surveillance
size
scene
image
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102006027120A
Other languages
English (en)
Inventor
Thomas Jaeger
Marcel Merkel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102006027120A priority Critical patent/DE102006027120A1/de
Priority to GB0711019A priority patent/GB2439184B/en
Publication of DE102006027120A1 publication Critical patent/DE102006027120A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

Viodeoüberwachungssysteme werden bei einer Vielzahl von Anwendungen, z. B. bei der Überwachung von öffentlichen Plätzen, Verkehrskreuzungen, aber auch in Gebäuden, wie z. B. Museen, Schulen, Universitäten, Gefängnissen, Fabriken, eingesetzt. Dabei umfassen die Videoüberwachungssysteme meist eine Vielzahl von Überwachungskameras, deren Beobachtungsfeld auf relevante Bereiche gerichtet sind, und eine zentrale Auswertestelle, in der das aufgenommene Videomaterial zusammengeführt wird. In dieser Auswertestelle wird das Videomaterial optional gespeichert oder ausgewertet. Zur Auswertung wird dabei oftmals Überwachungspersonal eingesetzt, um die eingehenden Bildersequenzen online oder in Echtzeit zu überwachen. Allerdings ist es bekannt, dass die Aufmerksamkeit des Überwachungspersonals nach einiger Zeit aufgrund von Erschöpfung nachzulassen droht. Es wird ein Bildverarbeitungsverfahren zur Erkennung und Verarbeitung von Sichthindernissen 7, 8 in einer Überwachungsszene 6 in einer Bildersequenz vorgeschlagen, wobei mehrere Zustandsdatensätze eines Überwachungsobjekts erfasst werden, die jeweils eine Objektposition x, y und eine an der Objektposition gemessene Größe h des Überwachungsobjekts in einem Bild der Bildersequenz umfassen, wobei durch Vergleich der gemessenen Größe h des Überwachungsobjekts mit einer modellierten perspektivischen Größe des Überwachungsobjekts an der gleichen Objektposition x, y auf eines der Sichthindernisse 7, 8 geschlossen wird.

Description

  • Stand der Technik
  • Die Erfindung betrifft ein Bildverarbeitungsverfahren zur Erkennung und Verarbeitung von Sichthindernissen in einer Überwachungsszene in einer Bildersequenz, wobei mehrere Zustandsdatensätze eines Überwachungsobjekts erfasst werden, die jeweils eine Objektposition und eine an der Objektposition gemessenen Größe des Überwachungsobjekts in einem Bild der Bildersequenz umfassen, sowie ein Videoüberwachungssystem zur Durchführung des Bildverarbeitungsverfahrens und ein Computerprogramm mit Programmcode-Mitteln zur Durchführung des Bildverarbeitungsverfahrens.
  • Videoüberwachungssysteme werden bei einer Vielzahl von Anwendungen, z.B. bei der Überwachung von öffentlichen Plätzen, Verkehrskreuzungen, aber auch in Gebäuden, wie z.B. Museen, Schulen, Universitäten, Gefängnissen, Fabriken eingesetzt. Dabei umfassen die Videoüberwachungssysteme meist eine Vielzahl von Überwachungskameras, deren Beobachtungsfeld auf relevante Bereiche gerichtet sind, und eine zentrale Auswertestelle, in der das aufgenommene Videomaterial zusammengeführt wird. In dieser Auswertestelle wird das Videomaterial optional gespeichert oder ausgewertet. Zur Auswertung wird dabei oftmals Überwachungspersonal eingesetzt, um die eingehenden Bildersequenzen online oder in Echtzeit zu überwachen. Allerdings ist es bekannt, dass die Aufmerksamkeit des Überwachungspersonals nach einiger Zeit aufgrund von Erschöpfung nachzulassen droht.
  • Aus diesem Grund werden bei heute üblichen Videoüberwachungssystemen auch Bildverarbeitungsalgorithmen eingesetzt, um die umfangreichen Mengen an Videomaterial, welches durch Überwachungskameras aufgenommen wird, automatisiert auszuwerten. Häufig werden dazu bewegte Objekte von dem im wesentlichen statischen Szenenhintergrund getrennt, über die Zeit verfolgt und z.B. bei relevanten Bewegungen Alarme ausgelöst. Der erste – auch Objektsegmentierung genannte – Schritt wird durchgeführt, indem Bildunterschiede zwischen einem aktuellen Kamerabild und einem so genannten Szenenreferenzbild oder Szenenmodell, welches den statischen Szenenhintergrund modelliert, auswertet.
  • Sowohl bei der Objektsegmentierung als auch bei der daran anschließenden sogenannten Objektverfolgung (Tracking) treten eine Vielzahl von Einzelprobleme auf, die beispielsweise in dem Artikel von K. Toyama, J. Krumm, B. Brumitt, B. Meyers: „Wallflower: Principles and Practice of Background Maintanence" ICCV, Korfu, Griechenland übersichtsartig aufgeführt sind. Die genanten Probleme betreffen beispielsweise das Verschieben von Hintergrundobjekten, die Änderung der Beleuchtung, quasistationäre Hintergründe, wie z.B. bewegte Bäume, Camouflage, fehlendes Trainingsmaterial, Schattenwurf etc.
  • Offenbarung der Erfindung
  • Erfindungsgemäß wird ein Bildverarbeitungsverfahren zur Erkennung und Verarbeitung von Sichthindernissen mit den Merkmalen des Anspruchs 1, ein Videoüberwachungssystem mit den Merkmalen des Anspruchs 11 sowie ein Computerprogramm mit den Merkmalen des Anspruchs 13 vorgeschlagen. Bevorzugte oder vorteilhafte Ausführungen sind durch die Unteransprüche, die nachfolgende Beschreibung und die angehängten Figuren offenbart.
  • Das erfindungsgemäße Verfahren ist zur Erkennung und zur Verarbeitung von Sichthindernissen in einer Bildersequenz einer Überwachungsszene ausgebildet. Dabei wird ein Verfahren der Bildverarbeitung angewandt, welches bevorzugt auf der digitalen Bildverarbeitung beruht.
  • Unter Sichthindernissen sind bevorzugt solche Objekte in einer Überwachungsszene zu verstehen, die insbesondere aufgrund ihres stationären oder quasi-stationären Verhaltens dem statischen Bildhintergrund beziehungsweise dem Szenenmodell zuzuordnen sind und/oder ein Überwachungsobjekt bei manchen Objektpositionen des Überwachungsobjekts in der Überwachungsszene zumindest teilweise verdecken.
  • Die Sichthindernisse führen dazu, dass sich während einer Objektverfolgung die im Bild gemessene Größe des Überwachungsobjekts sprungartig ändert und somit die Objektverfolgung deutlich erschwert wird. Dieser Fall liegt beispielsweise vor, wenn es sich bei der Überwachungsszene nicht um eine freie Fläche, sondern um einen Bereich mit halbhohen Hindernissen handelt, wie zum Beispiel niedrigen Mauern, parkende Autos, Tische, Schränkchen etc, da die sich in der Überwachungsszene bewegenden Überwachungsobjekte hinter diesen Sichthindernissen nur partiell sichtbar sind.
  • Durch Erkennung und Verarbeitung derartiger Sichthindernisse wird die Möglichkeit eröffnet, Wissen aufzubauen, an welchen Stellen Überwachungsobjekte nur partiell sichtbar zu erwarten sind. Unter Nutzung dieses zusätzlichen Wissen kann die Objektverfolgung (Tracking) deutlich verbessert und/oder vereinfacht werden.
  • Zur Umsetzung des Verfahrens werden mehrere Zustandsdatensätze eines Überwachungsobjekts erfasst. Die Zustandsdatensätze umfassen jeweils eine Objektposition und eine an der Objektposition gemessene Größe des Überwachungsobjekts in einem Bild der Bildersequenz. Die Objektposition wird bevorzugt in Bildkoordinaten, also beispielsweise Pixelkoordinaten, und die gemessene Größe ebenfalls in Pixelgröße oder dazu äquivalenten und/oder proportionalen Einheiten gemessen. Die gemessene Größe des Überwachungsobjekts entspricht somit insbesondere der Höhe der Abbildung des Überwachungsobjekts in dem Bild der Bildersequenz. Insbesondere werden Zustandsdatensätze des Überwachungsobjekts verwendet, die auf Basis einer Objektverfolgung dieses Überwachungsobjekts ermittelt wurden.
  • Bevorzugt werden Zustandsdatensätze eines Überwachungsobjekts einer Klasse verwendet, deren mittlere oder übliche Größe bekannt ist, zum Beispiel betrifft eine Klasse Personen. Alternativ oder ergänzend werden Zustandsdatensätze von mehreren verschiedenen Überwachungsobjekten erfasst, welche zu einer Klasse gehören, die eine gemeinsame mittlere oder übliche Größe aufweisen. Beispielsweise werden nur Personen, insbesondere erwachsene Personen als Überwachungsobjekte erfasst.
  • Erfindungsgemäß wird durch einen Vergleich der gemessenen Größe des Überwachungsobjekts mit einer modellierten perspektivischen Größe des Überwachungsobjekts an der gleichen Objektposition auf ein Sichthindernis geschlossen.
  • Der Erfindung liegt dabei die Überlegung zugrunde, dass sich die gemessene Größe des Überwachungsobjekts abhängig von der Objektposition in dem Bild der Bildersequenz nur begründet ändert. Zum einen erfolgt eine Änderung aufgrund von perspektivischen Effekten. So ist ein Überwachungsobjekt, dessen Objektposition im Vordergrund einer Überwachungsszene angeordnet ist, in dem Bild der Bildersequenz größer als das gleiche Überwachungsobjekt, dessen Objektposition im Hintergrund der Überwachungsszene liegt. Dieser allgemein bekannte Zusammenhang ist trivial und unabhängig von etwaigen Sichthindernissen. Ein weiterer Grund für eine Änderung der gemessenen Größe des Überwachungsobjekts liegt darin, dass das Überwachungsobjekt durch ein Sichthindernis partiell verdeckt, beziehungsweise nur partiell sichtbar ist. Wird nun in einem ersten Schritt ein Modell für das perspektivische Verhalten des Überwachungsobjekts in Abhängigkeit von dessen Objektposition in den Bildern der Bildersequenz einer Überwachungsszene modelliert, so kann in einem zweiten Schritt durch einen Vergleich der gemessenen Größe des Überwachungsobjekts mit der modellierten perspektivischen Größe des Überwachungsobjekts jeweils an der gleichen Objektposition auf ein Sichthindernis geschlossen werden, insbesondere indem ein Sichthindernis erkannt wird, wenn die gemessene Größe kleiner als die modellierte perspektivische Größe des Überwachungsobjekts ist.
  • Bei einer zweckmäßigen Realisierung des Verfahrens werden als Objektpositionen die X-Y-Koordinaten der Objektfußpunkte und/oder als gemessene Größe die Höhe des Überwachungsobjekts im Bild verwendet. Die Höhe des Überwachungsobjekts korrespondiert bevorzugt mit der physikalischen Höhe des Überwachungsobjekts in der Überwachungsszene, also z.B. mit der Körpergröße einer Person. Eine mögliche Umsetzung besteht darin, dass die Überwachungsobjekte datentechnisch durch ein Rechteck in dem Bild der Bildersequenz angenähert werden, als Objektfußpunkt der Mittelpunkt der Unterkante des des angenäherten Rechtecks und als gemessene Größe die Rechteckhöhe verwendet wird.
  • Bei einer bevorzugten Weiterbildung des Verfahrens werden die und/oder andere erfasste Zustandsdatensätze zur Erzeugung des Modells für die perspektivische Größe des Überwachungsobjekts in Abhängigkeit von der Objektposition in den Bildern der Bildersequenz verwendet. Anders formuliert wird ein Modell erstellt, in dem für jede oder nahezu jede Objektposition in den Bildern der Bildersequenz eine modellierte perspektivische Größe bereitgestellt wird. Alternativ wird in dem Modell nur ein Abbildungsfaktor für jede Objektposition in den Bildern der Bildersequenz modelliert. Durch Verwendung gemessener Zustandsdatensätze ist die Erstellung des Modells ohne großen Kalibrierungsaufwand, insbesondere in Form einer Selbst- oder Eigenkalibrierung, möglich. Alternativ zu dieser oder einer anderen Ausbildung einer Selbstkalibrierung des Bildverarbeitungsverfahren ist es auch umsetzbar, dass das Modell für die perspektivische Größe oder Abbildungsfaktor manuell eingegeben wird.
  • Bei einer bevorzugten Ausführungsform des Bildverarbeitungsverfahren erfolgt die Erzeugung des Modells durch Approximation einer Hauptgeraden und/oder einer Hauptebene an die gemessenen Größe in Abhängigkeit der jeweiligen Objektpositionen.
  • Eine mögliche praktische Realisierung ist dabei, die gemessenen Größen in Abhängigkeit der Objektposition als Histogramm aufzutragen und die Hauptgrade beziehungsweise die Hauptebene an die gemessenen Größen anzunähern. Zweckmäßigerweise werden bei der Approximation nur Zustandsdatensätze von unverdeckten Überwachungsobjekten berücksichtigt. Die vorliegenden Zustandsdatensätze werden insbesondere klassifiziert und zwar in Zustandsdatensätze mit Objektpositionen, an denen das Überwachungsobjekt unverdeckt ist und in Zustandsdatensätze mit Objektpositionen, an denen das Überwachungsobjekt partiell durch ein Sichthindernis abgedeckt ist. Die Klassifikation erfolgt bevorzugt indem eine Hauptgerade und/oder ein Hauptebene für Zustandsdatensätze identifiziert wird, bei denen sich die Überwachungsobjekte in einer Objektposition befinden, in der sie in voller Größe und somit unverdeckt sichtbar sind.
  • Bei einer Weiterbildung des Verfahrens werden Zustandsdatensätze, die neben der approximierten Hauptgerade und/oder Hauptebene liegen, als Zustandsdatensätze mit durch Sichthindernisse zumindest teilweise verdeckten Überwachungsobjekten interpretiert. Insbesondere bilden die Zustandsdatensätze von teilverdeckten Überwachungsobjekten Nebengeraden oder -ansammlungen, die aus den Zustandsdatensätzen bestehen, bei denen die gemessene Größe der Überwachungsobjekte kleiner ist als die in der Hauptgeraden an der gleichen Objektposition aufgetragene Größe.
  • Zweckmäßigerweise ist vorgesehen, dass unter Verwendung einer Mehrzahl von Zustandsdatensätzen von teilverdeckten Überwachungsobjekten auf ein Sichthindernis geschlossen wird, wobei bevorzugt die Gesamtheit der vorliegenden Zustandsdatensätze einer Klasse von Überwachungsobjekten auf das Vorliegen einer Ansammlung von Zustandsdatensätzen von teilverdeckten Überwachungsobjekten untersucht wird. Insbesondere entspricht einer oder jeder identifizierten Nebengeraden einem Sichthindernis in der Überwachungsszene.
  • In einer vorteilhaften Weiterbildung werden die Sichthindernisse zur Erzeugung eines Szenenmodells der Überwachungsszene verwendet. Hierzu wird beispielsweise aus jeder identifizieren Nebengeraden und/oder -ansammlung auf ein Sichthinderis in der entsprechenden Position in der Überwachungsszene geschlossen.
  • Neben einer Erzeugung des Modells für die perspektivische Größe kann der Vergleich zwischen der gemessenen Größe des Überwachungsobjekts mit einer modellierten perspektivischen Größe des Überwachungsobjekts auch zur Aktualisierung oder zur Verifizierung des Szenenmodells verwendet werden. Auf diese Weise ist sichergestellt, dass bei einer Positionsveränderung eines Sichthindernisses das Szenenmodell entsprechend angepasst wird.
  • Bevorzugt werden die gefundenen Sichthindernisse und/oder das erzeugte Szenenmodell bei einer Objektverfolgung berücksichtigt. In Kenntnis der Sichthindernisse beziehungsweise des Szenenmodells ist eine Größenänderung des Überwachungsobjekts aufgrund Abschattung durch ein Sichthindernis vorhersagbar.
  • Bei einer zweckmäßigen Ausbildung zur Nutzung von Informationen über Sichthindernisse oder des Szenenmodells wird bei der Objektverfolgung eine Größenfilterung eingesetzt, die die gemessene Größe der Überwachungsobjekte unter Berücksichtigung der Sichthindernisse und/oder der Szenenmodells größenkompensiert.
  • Zusammengefasst bestehen die Vorteile des erfindungsgemäßen Verfahrens insbesondere darin, dass nach einer Trainingszeit statische oder quasi-statische Verdeckungen in Überwachungsszenen erkannt und dahinter nur partiell sichtbare Überwachungsobjekte entsprechend ihrer tatsächlichen, aber nicht sichtbaren Größe behandelt werden.
  • Insbesondere detektiert die vorgeschlagene Erfindung automatisch vorhandene Hindernisse in der Szene, wobei bevorzugt auf eine vorherige manuelle Eingabe von Informationen verzichtet werden kann. Durch das Wissen, an welchen Stellen in der Überwachungsszene Objekte nur partiell sichtbar sind, lässt sich die Objektverfolgung einfach verbessern. Bei einer praktischen Ausführung wird eine Größenfilterung der zu detektierenden Überwachungsobjekte dahingehend angepasst, dass partiell sichtbare Objekte um ihren verdeckten Anteil größenkompensiert werden.
  • Ferner wird ein Videoüberwachungssystem zur Durchführung des eben beschriebenen Bildverarbeitungsverfahrens mit den Merkmalen des Anspruchs 11 vorgeschlagen.
  • Das Videoüberwachungssystem weist eine Erfassungsvorrichtung auf, welche zur Erfassung von mehreren Zustandsdatensätzen eines oder mehrerer Überwachungsobjekte in Bildern einer Bildersequenz ausgebildet ist. Bevorzugt gehören die Überwachungsobjekte zu einer gemeinsamen Klasse, deren mittlere oder übliche Größe bekannt ist. Insbesondere werden als Überwachungsobjekte nur Personen verwendet.
  • Ferner weist das Videoüberwachungssystem eine Auswertungsvorrichtung aus, die zur Detektion und/oder Verifizierung von Sichthindernissen in der Überwachungsszene ausgebildet ist, indem die gemessene Größe des Überwachungsobjekts in einem Bild der Bildersequenz einer Überwachungsszene mit einer modellierten, perspektivischen Größe des Überwachungsobjekts an der gleichen Position verglichen wird.
  • Bevorzugte ist das Videoüberwachungssystem als ein Computersystem mit Mitteln zur schaltungstechnischen Ankopplung an eine oder mehrere Videokameras ausgebildet. Insbesondere dienen die Videokameras zur statischen Beobachtung einer Überwachungsumgebung, das heißt mit einem statischen Beobachtungsbereich. Bei Weiterentwicklungen des Verfahrens beziehungsweise der Vorrichtung können die Überwachungskameras auch bewegbar angeordnet sein, wodurch eine größere Überwachungsumgebung kontrollierbar ist.
  • Die Erfindung bezieht sich auch auf ein Computerprogramm mit Programmcode-Mitteln um alle Schritte des beschriebenen Bildverarbeitungsverfahrens durchzuführen, wenn das Programm auf einem Computer und/oder dem beschriebenen Videoüberwachungssystem ausgeführt wird.
  • Kurze Beschreibung der Zeichnungen
  • Weitere Merkmale, Vorteile und Wirkungen der vorliegenden Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels. Dabei zeigen:
  • 1 ein Blockschaltbild eines ersten Ausführungsbeispiels des Videoüberwachungssystems, wobei das Blockschaltbild einem Verfahrensablauf eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens gegenüber gestellt ist;
  • 2 beispielhafte Messergebnisse auf Basis des in der 1 gezeigten Videoüberwachungssystems beziehungsweise Verfahrens.
  • Ausführungsform(en) der Erfindung
  • Die 1 zeigt auf der linken Seite ein Videoüberwachungssystem 1 als ein erstes Ausführungsbeispiel der Erfindung, welches über eine beliebig ausgebildete Verbindung mit einer oder mehreren Überwachungskameras 2 verschaltet ist. Die Verbindung kann als eine direkte Verkabelung ausgebildet sein, alternativ ist eine Netzwerkverbindung insbesondere über das Internet möglich. Die Überwachungskameras 2 sind als statische Überwachungskameras ausgebildet, das heißt, dass diese während des Überwachungsbetriebs ihren jeweiligen Beobachtungsbereich nicht ändern.
  • Das Videoüberwachungssystem 1 weist als Baugruppen einen Objektverfolger 3, eine Auswertevorrichtung 4 sowie einen Modellgenerator 5 auf. Zur Illustration der Funktionsweise des Videoüberwachungssystems 1 ist auf der rechten Seite in 1 ein Flussdiagramm zur Illustration des Verfahrensablaufs abgebildet, wobei durch geschweifte Klammern Verfahrensschritte des Verfahrensablaufs den Baugruppen 3, 4 und 5 des Videoüberwachungssystems 1 zugeordnet werden.
  • In einem ersten Schritt A werden mit den Überwachungskameras 2 aufgenommene Videosequenzen einer Überwachungsszene an den Objektverfolger 3 übergeben. Alternativ oder ergänzend können die Videosequenzen auch aus einer Speichervorrichtung, wie zum Beispiel einem Videorekorder oder einer Datenbank stammen. In dem Objektverfolger 3 wird ein Überwachungsobjekt (nicht dargestellt) detektiert und über die einzelnen Bilder einer der Videosequenzen verfolgt. Wie nachfolgend noch erläutert wird, erfolgt die Detektion und die Verfolgung optional unter Verwendung eines Szenenmodells. Insbesondere bei der Erstkalibrierung des Videoüberwachungssystem 1 wird der Schritt A ohne Kenntnis des Szenenmodells durchgeführt.
  • In einem zweiten Schritt B werden Zustandsdatensätze des Überwachungsobjekts erfasst, wobei jeder Zustandsdatensatz eine Objektposition und eine Objektgröße des Überwachungsobjekts in einem Bild der Videosequenz umfasst. Die Objektposition und die Objektgröße werden in Pixelkoordinaten oder in dazu äquivalenten Koordinaten beziehungsweise Einheiten angegeben.
  • In einem nächsten Schritt C werden die erfassten Zustandsdaten in einem zweidimensionalen oder dreidimensionalen Histogramm aufgetragen, wobei die Höhe des Histogramms durch die Objektgröße gegeben ist. Ein derartiges Histogramm ist beispielsweise in der 2 gezeigt und wird später noch genauer beschrieben.
  • In einem darauf folgendem Schritt D wird das derart erzeugte Histogramm ausgewertet, wobei in die erfassten Zustandsdatensätze – bei zweidimensionalen Histogrammen – eine Hauptgerade oder bei dreidimensionalen Histogrammen eine Hauptebene eingefittet werden. Insbesondere wird die Hauptgerade bzw. die Hauptebene in dem Histogramm identifiziert, wobei die Hauptgerade bzw. Hauptebene auf einer Auswahl von Zustandsdatensätzen basiert, welche unverdeckte, in voller Größe sichtbare Überwachungsobjekte betrifft. Danach werden Nebengeraden, Nebenebenen oder Nebensegmente identifiziert, die aus Zustandsdatensätzen bestehen, bei denen das Überwachungsobjekt eine Objektgröße aufweist, die kleiner als die durch die Hauptgerade bzw. Hauptebene bestimmte Objektgröße an der gleichen Objektposition 1 liegt.
  • In einem weiteren Schritt E wird in dem Modellgenerator 5 auf Basis der identifizierten Nebengeraden, Nebenebenen bzw. Nebensegmente auf Sichthindernisse in der Überwachungsszene geschlossen, wobei durch Auswertung der Pixelkoordinaten, der die Nebengeraden, Nebenebenen bzw. Nebensegmente bildenden Zustandsdatensätze entsprechende Positionen in der Überwachungsszene für Sichthindernisse zuordnet werden. Als Ergebnis erhält man Informationen über die Position und/oder die Größe der Sichthindernisse in der Überwachungsszene hinter denen das Überwachungsobjekt nur teilweise sichtbar ist.
  • Die Gesamtheit der auf diese Weise detektierten Sichthindernisse werden in einem Schritt F zur Erzeugung eines Szenenmodells herangezogen.
  • Im weiteren Verlauf des Verfahrens wird das Szenenmodell im Überwachungsbetrieb genutzt, um die Objektverfolgung zu verbessern, zum Beispiel indem eine Größenfilterung von zu detektierenden Überwachungsobjekten dahingehend angepasst wird, dass partiell sichtbare Objekte um ihren verdeckten Anteil größenkompensiert werden.
  • Zur weiteren Verdeutlichung des erfindungsgemäßen Verfahrens sind in der 2 beispielhafte Messergebnisse dargestellt. Die linke Seite mit der Überschrift Scene reference zeigt das Bild einer Bildersequenz einer Überwachungsszene, wobei die Überwachungsszene als überwachtes Büro ausgebildet ist. In der gezeigten Darstellung sind in dem Büro in der unteren rechten Ecke ein erster Schreibtisch 7 und in etwa in der Mitte auf der linken Seite ein zweiter Schreibtisch 8 angeordnet. Diese beiden Schreibtische 7 und 8 bilden typische Sichthindernisse in der Bildersequenz einer Überwachungsszene, da ein Überwachungsobjekt, zum Beispiel eine Person, die sich aus dem freien Mittelbereich des Büros hinter die Schreibtische 7 oder 8 begibt, partiell durch die Schreibtische 7 bzw. 8 verdeckt ist. Bei einer Objektverfolgung dieser Person führt diese partielle Verdeckung zu einer plötzlichen Größenänderung des Überwachungsobjekts.
  • Zur Erkennung oder Detektion derartiger Sichthindernisse werden gemessene Zustandsdatensätze der Bewegungstrajektorien des Überwachungsobjekts in einem Histogramm dargestellt, welches auf der rechten Seite der 2 beispielhaft als zweidimensionales Histogramm 9 ausgebildet ist. Die senkrechte Achse bezeichnet dabei die Y-Position des Überwachungsobjekts in dem Bild der Bildersequenz und die waagerechte Achse die gemessene Größe oder Höhe des Überwachungsobjekts. Der Ursprung der Achsen ist in der Darstellung oben links angeordnet. Die Zustandsdatensätze werden in dem Histogramm 9 als einzelne Messpunkte eingetragen, so dass zunächst nur eine Messpunktewolke zu erkennen ist.
  • In dieser Messpunktwolke wird durch geeignete Algorithmen eine Hauptgerade 10 identifiziert, die der normalen perspektivischen Änderung der Objektgröße ausgehend von dem Vordergrund der Überwachungsszene in den Hintergrund der Überwachungsszene entspricht. Aus optisch geometrischen Gründen ist die perspektivische Größenänderung als Gerade ausgebildet.
  • Die verbleibenden Messpunkte von Zustandsdatensätzen betreffen Objektpositionen mit zugeordneten Objektgrößen, wobei die Objektgrößen kleiner als die durch die Hauptgerade 10 gezeigten Objektgrößen ausgebildet sind. Diese verbleibenden Messpunkte werden in Segmente zusammengeführt, wobei beispielhaft in der 2 eine Nebengerade 11 dargestellt ist. Diese Nebengerade 11, die Objektgrößen kleiner als die entsprechenden Objektgrößen der Hauptgeraden 10 aufweist, ist das Resultat der Überwachungsobjektverdeckung durch den ersten Schreibtisch 7.
  • Durch Kenntnis der Nebengerade 11 und zudem durch die Kenntnis der X-Koordinate der zugehörigen Zustandsdatensätze ist es möglich, der Überwachungsszene 6 ein Sichthindernis zuzuordnen, welches in der Höhe und der Position dem ersten Schreibtisch 7 entspricht. Nach dem gleichen Verfahren kann ein zweites Sichthindernis modelliert werden, welches dem zweiten Schreibtisch 8 entspricht. Diese und weitere Sichthindernisse werden in einem Szenenmodell eingetragen, welches – wie zuvor erläutert – zur Verbesserung der Objektverfolgung, insbesondere durch Adaptierung einer Größenfilterung, vorteilhaft einsetzbar ist.
  • Abschließend wird noch darauf hingewiesen, dass die Auswertung der Bild- oder Videosequenzen nur beispielhaft erläutert wurden, insbesondere ist es optional möglich, dass eine andere geometrische Figur anstatt der Hauptgeraden bzw. Nebengeraden an die erfassten Zustandsdatensätze angepasst werden, insbesondere wenn dies den optischgeometrischen Verhältnissen besser entspricht.

Claims (13)

  1. Bildverarbeitungsverfahren zur Erkennung und Verarbeitung von Sichthindernissen (7, 8) in einer Überwachungsszene (6) in einer Bildersequenz, wobei mehrere Zustandsdatensätze eines Überwachungsobjekts erfasst werden, die jeweils eine Objektposition (x, y) und eine an der Objektposition gemessene Größe (h) des Überwachungsobjekts in einem Bild der Bildersequenz umfassen, dadurch gekennzeichnet, dass durch Vergleich der gemessenen Größe (h) des Überwachungsobjekts mit einer modellierten perspektivischen Größe des Überwachungsobjekts an der gleichen Objektposition (x, y) auf eines der Sichthindernis (7, 8) geschlossen wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Erzeugung eines Modells für die perspektivische Größe des Überwachungsobjekts in Abhängigkeit von der Objektposition (x, y) in den Bildern der Bildersequenz die Zustandsdatensätze verwendet werden.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Erzeugung des Modells die Approximation einer Hauptgeraden (10) und/oder einer Hauptebene an die gemessenen Größen (h) in Abhängigkeit der Objektposition (x, y) umfasst.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass bei der Approximation nur Zustandsdatensätze mit unverdecktem Überwachungsobjekt berücksichtigt werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche 2 bis 4, dadurch gekennzeichnet, dass Zustandsdatensätze, die neben der approximierten Hauptgerade (10) und/oder Hauptebene liegen, als Zustandsdatensätze von einem durch eines der Sichthindernisse teilverdeckten Überwachungsobjekt interpretiert werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass unter Verwendung einer Mehrzahl von Zustandsdatensätzen von teilverdeckten Überwachungsobjekten auf eines der Sichthindernisse (7, 8) geschlossen wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Sichthindernisse (7, 8) zur Erzeugung eines Szenenmodells verwendet werden.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das Szenenmodell durch Auswertung von Zustandsdatensätzen von weiteren Überwachungsobjekten aktualisiert oder verifiziert wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Sichthindernisse (7, 8) und/oder das Szenenmodell bei einer Objektverfolgung berücksichtigt werden.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass bei der Objektverfolgung eine Größenfilterung eingesetzt wird, die die gemessene Größe der Überwachungsobjekte unter Berücksichtigung der Sichthindernisse größenkompensiert.
  11. Videoüberwachungssystem (1) zur Durchführung des Bildverarbeitungsverfahrens nach einem der vorhergehenden Ansprüche, mit einer Erfassungsvorrichtung (3), die zur Erfassung von mehreren Zustandsdatensätzen eines Überwachungsobjekts, die jeweils eine Objektposition (x, y) und eine an der Objektposition gemessene Größe des Überwachungsobjekts in einem Bild der Bildersequenz der Überwachungsszene (6) umfassen, ausgebildet ist, gekennzeichnet durch eine Auswertevorrichtung (4), die zur Detektion und/oder Verifizierung von Sichthindernissen in der Überwachungsszene (6) durch Vergleich der gemessenen Größe des Überwachungsobjekts mit einer modellierten perspektivischen Größe des Überwachungsobjekts an der gleichen Objektposition ausgebildet ist.
  12. Videoüberwachungssystem (1) nach Anspruch 11, dadurch gekennzeichnet, dass das Videoüberwachungssystem an eine oder mehrere Videokameras (2) koppelbar und/oder gekoppelt ist, wobei die Videokameras (2) zur statischen Beobachtung einer Überwachungsumgebung ausgebildet ist.
  13. Computerprogramm mit Programmcode-Mitteln, um alle Schritte des Verfahrens nach einem oder allen der Ansprüche 1 bis 10 durchzuführen, wenn das Programm auf einem Computer und/oder einer Vorrichtung (1) nach einem der Ansprüche 11 oder 12 ausgeführt wird.
DE102006027120A 2006-06-12 2006-06-12 Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm Withdrawn DE102006027120A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102006027120A DE102006027120A1 (de) 2006-06-12 2006-06-12 Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm
GB0711019A GB2439184B (en) 2006-06-12 2007-06-07 Image processing method, video surveillance system, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006027120A DE102006027120A1 (de) 2006-06-12 2006-06-12 Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm

Publications (1)

Publication Number Publication Date
DE102006027120A1 true DE102006027120A1 (de) 2007-12-13

Family

ID=38318963

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006027120A Withdrawn DE102006027120A1 (de) 2006-06-12 2006-06-12 Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm

Country Status (2)

Country Link
DE (1) DE102006027120A1 (de)
GB (1) GB2439184B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008002275A1 (de) 2008-06-06 2009-12-10 Robert Bosch Gmbh Bildverarbeitungsvorrichtung mit Kalibrierungsmodul, Verfahren zur Kalibrierung sowie Computerprogramm

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8665329B2 (en) * 2010-06-11 2014-03-04 Gianni Arcaini Apparatus for automatically ignoring cast self shadows to increase the effectiveness of video analytics based surveillance systems
CN105046874B (zh) * 2015-07-07 2018-05-15 合肥指南针电子科技有限责任公司 一种公安监所智能视屏监控系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185314B1 (en) * 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
US7221775B2 (en) * 2002-11-12 2007-05-22 Intellivid Corporation Method and apparatus for computerized image background analysis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008002275A1 (de) 2008-06-06 2009-12-10 Robert Bosch Gmbh Bildverarbeitungsvorrichtung mit Kalibrierungsmodul, Verfahren zur Kalibrierung sowie Computerprogramm

Also Published As

Publication number Publication date
GB0711019D0 (en) 2007-07-18
GB2439184A (en) 2007-12-19
GB2439184B (en) 2008-11-26

Similar Documents

Publication Publication Date Title
EP2297701B1 (de) Videoanalyse
DE69832119T2 (de) Verfahren und Apparat zur visuellen Erfassung von Menschen für aktive öffentliche Schnittstellen
DE102018118423A1 (de) Systeme und verfahren zur verfolgung bewegter objekte in der videoüberwachung
WO2009003793A2 (de) Vorrichtung zur erkennung und/oder klassifizierung von bewegungsmustern in einer bildsequenz von einer überwachungsszene, verfahren sowie computerprogramm
DE102007053812A1 (de) Konfigurationsmodul für ein Videoüberwachungssystem, Überwachungssystem mit dem Konfigurationsmodul, Verfahren zur Konfiguration eines Videoüberwachungssystems sowie Computerprogramm
DE69738287T2 (de) Verfahren zum Anzeigen eines sich bewegenden Objekts, dessen Bahn zu identifizieren ist, Anzeigesystem unter Verwendung dieses Verfahrens und Programmaufzeichnungsmedium dafür
DE102006053286A1 (de) Verfahren zur Detektion von bewegungsauffälligen Bildbereichen, Vorrichtung sowie Computerprogramm zur Durchführung des Verfahrens
EP2553660B1 (de) Verfahren zur visualisierung von aktivitätsschwerpunkten in überwachungsszenen
WO2002054364A2 (de) Video-rauchdetektionssystem
DE102012211298A1 (de) Anzeigevorrichtung für ein Videoüberwachungssystem sowie Videoüberwachungssystem mit der Anzeigevorrichtung
DE102006027120A1 (de) Bildverarbeitungsverfahren, Videoüberwachungssystem sowie Computerprogramm
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE102016222134A1 (de) Videoanalyseeinrichtung für eine Überwachungsvorrichtung und Verfahren zur Erzeugung eines Einzelbildes
WO1997004428A1 (de) Interaktives überwachungssystem
DE102019114451A1 (de) Aktivitätsbereiche in Videoinhalten
WO2013113521A1 (de) Auswertevorrichtung für ein überwachungssystem sowie überwachungssystem mit der auswertevorrichtung
WO2012110654A1 (de) Verfahren zur auswertung einer mehrzahl zeitlich versetzter bilder, vorrichtung zur auswertung von bildern, überwachungssystem
EP3021256A1 (de) Verfahren zur bildverarbeitung, präsenzdetektor und beleuchtungssystem
EP3352111B1 (de) Verfahren zum erkennen von kritischen ereignissen
DE102020117543A1 (de) System und methode zur bestimmung potenziell gefährlicher situationen durch videodaten
EP0515890B1 (de) Verfahren zur Überwachung von Gelände
DE19701186C2 (de) Interaktives Überwachungssystem
DE102007056835A1 (de) Bildverarbeitunsmodul zur Schätzung einer Objektposition eines Überwachungsobjekts, Verfahren zur Bestimmung einer Objektposition eines Überwachungsobjekts sowie Computerprogramm
DE19744694A1 (de) Videobewegungsmeldeeinrichtung
WO2023186652A1 (de) Verfahren zum betreiben einer überwachungsvorrichtung, computerprogramm, speichermedium und überwachungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20130222

R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee