DE102010056536A1 - Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung verwendet zur Videoüberwachung - Google Patents

Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung verwendet zur Videoüberwachung Download PDF

Info

Publication number
DE102010056536A1
DE102010056536A1 DE102010056536A DE102010056536A DE102010056536A1 DE 102010056536 A1 DE102010056536 A1 DE 102010056536A1 DE 102010056536 A DE102010056536 A DE 102010056536A DE 102010056536 A DE102010056536 A DE 102010056536A DE 102010056536 A1 DE102010056536 A1 DE 102010056536A1
Authority
DE
Germany
Prior art keywords
background model
foreground
image
frame
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102010056536A
Other languages
English (en)
Inventor
Horng-Horng Lin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
QNAP Systems Inc
Original Assignee
QNAP Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by QNAP Systems Inc filed Critical QNAP Systems Inc
Publication of DE102010056536A1 publication Critical patent/DE102010056536A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

Überwachungssysteme müssen sich oft großen Herausforderungen durch Beleuchtungsschwankungen bzw. Lichtveränderungen stellen, insbesondere diese, die Freiluftumgebungen beobachten. Um ein Überwachungssystem robust gegenüber Hintergrundszenenveränderungen inklusive Beleuchtungsveränderungen zu konstruieren, ist die Strategie des Hintergrundmodelllernens weit verbreitet. Auf Basis dieser Strategie wurden viele Lösungsansätze in Jahrzehnten vorgeschlagen, um Hintergrundszenen durch statistische Modelle zu repräsentieren und Hintergrundveränderungen über die Zeit in die Modelle anzupassen. Allerdings richtet sich der Fokus der meisten Hintergrundmodelllernforschung auf die Anpassung von Szenenvibrationen im Hintergrund sowie auf graduelle Beleuchtungsvariationen. Für die Hintergrundmodellanpassung an drastische Beleuchtungsveränderungen sind Hintergrundmodelllernansätze oft ineffizient. Folglich werden Fehlalarme in der Vordergrunderkennung unter derartigen schnellen Beleuchtungsveränderungen ausgelöst. Um diese Art von Fehlalarmen zu unterdrücken, wird ein neues System von Hintergrundmodelllernen vorgeschlagen.

Description

  • Literatur auf die Bezug genommen wird
    C. Stauffer und W. Grimson, „Adaptive background mixture models for real-time tracking" in Proc. IEEE Conf. Computer Vision and Pattern Recognition, vol. 2, 1999, Seiten 246–252.
  • Hintergrund der Erfindung
  • Die vorliegende Erfindung bezieht sich allgemein auf ein Videoüberwachungssystem, das Hintergrundsubtraktion verwendet, um Vordergrund-Abnormitäten bzw. Vordergrund-Anomalien zu identifizieren. Insbesondere bezieht sich die vorliegende Erfindung auf das Erlernen bzw. Lernen eines Hintergrundmodells für eine Szene von Interesse, welches unempfindlich gegenüber drastischen Lichtschwankungen bzw. Beleuchtungsveränderungen ist.
  • Für Videoüberwachungssysteme, die Hintergrundsubtraktion verwenden, um Vordergrund-Abnormitäten zu identifizieren, spielt die Berechnung eines geeigneten Hintergrundmodells über die Zeit eine wichtige Rolle, welche die Systemleistung dominiert. Für Anwendungen einer Langzeitvideoüberwachung ist die Berechnung eines aktuellen Hintergrundmodells erforderlich, um fehlerhafte Erkennungen bzw. Detektionen von Hintergrundszenenveränderungen als Vordergrund-Alarme zu vermeiden, z. B. Beleuchtungsveränderungen von der Dämmerung zur Nacht. An diesem Ende wird das Aktualisieren von Hintergrundmodellschätzungen häufig durch viele Überwachungssysteme eingesetzt, um Hintergrundszenenveränderungen zu erlernen. Wir bezeichnen den Ansatz des periodischen Aktualisieren des Hintergrundmodells als Hintergrundmodelllernen.
  • In den letzten Jahrzehnten wurden viele Ansätze vorgeschlagen, die sich dem Problem des Hintergrundmodellernens annehmen, wie z. B.: C. Stauffer und W. Grimson, „Adaptive background mixture models for real-time tracking" in Proc. IEEE Conf. Computer Vision and Pattern Recognition, vol. 2, Seiten 246–252, 1999. für die meisten Hintergrundmodellernsysteme haben die Frequenzen der Hintergrundmodelaktualisierung (für alle Pixelstellen) auch bekannt als Modelllernraten, große Auswirkungen auf die Systemstabilität. (Die Definition der Modellernrate wurde aus Stauffer und W. Grimson, „Adaptive background mixture models for real-time tracking" in Proc. IEEE Conf. Computer Vision and Pattern Recognition, vol. 2, Seiten 246–252, 1999 übernommen). Durch das periodische Hintergrundmodellaktualisieren werden verschiedene Hintergrundszenenveränderungen, inklusive Beleuchtungsveränderungen, ruhenden Objekten usw. in ein Hintergrundmodel angepasst. Je öfter ein Hintergrundmodell aktualisiert wird, desto mehr Szenenveränderungen sind in das erlernte Modell angepasst, was zu einem Überwachungssystem (basieren auf Hintergrundsubtraktion) führt, das robuster gegenüber Hintergrundinterferenzen und weniger empfindlich gegenüber Vordergrundabnormitäten ist. Im Ergebnis wird das Anwenden von hohen Lernraten auf ein Hintergrundmodelllernsystem zu einer intensiven Vordergrunddetektion bzw. Vordergrunderkennung von Eindringlingen über häufige Modellaktualisierung in sein Hintergrundmodell führen.
  • Da die meisten Hintergrundmodelllernsysteme bei mittleren, aber nicht bei hohen Lernraten betrieben werden müssen, um die allgemeinen Überwachungsbedingungen zu erfüllen, können graduelle (und vielleicht schnelle) Beleuchtungsveränderungen daher durch die Hintergrundmodelle erfasst bzw. aufgenommen werden, die von diesen Systemen berechnet werden.
  • Aber für einige überschnelle, auch drastisch genannten Beleuchtungsveränderungen, die durch z. B. plötzliche Sonnenscheinveränderungen hervorgerufen werden, können solche Systeme ineffizient werden. Viele Falscherkennungen von Vordergrundbereichen werden somit erzeugt, die von drastischen Beleuchtungsveränderungen herrühren. Das Fehlen von effizienten und effektiven Möglichkeiten, drastische Beleuchtungsveränderungen für allgemeine Hintergrundmodelllernansätze zu bewältigen, gibt Anlass zur dieser Erfindung.
  • Um die Hintergrundmodellanpassung an Beleuchtungsveränderungen für allgemeine Hintergrundmodelllernsysteme zu verbessern, wird ein neuer Systemaufbau bzw. ein neues Systemdesign vorgeschlagen, durch Anschaffen bzw. Akquirieren einer Beleuchtungsveränderungsverarbeitungseinheit als ein Nachverarbeitungsmodul für diese Systeme, um ihre Ergebnisse der Vordergrundbereichserkennung unter drastischen Beleuchtungsveränderungen zu überarbeiten und die dynamischen Anpassungen ihrer Modelllernraten zu führen. Mit dem vorgeschlagenen Nachverarbeitungsmodul kann das Potential der Modellanpassung an drastische Beleuchtungsveränderungen für allgemeine Hintergrundmodelllernsysteme stark verbessert werden, ohne ein manuelles Einstellen der Modellernraten zu benötigen.
  • 1 gibt zwei Beispiele von schnellen und überschnellen (drastischen) Beleuchtungsveränderungen. Die Bildsequenz, die in den 1(a)–(c) gezeigt ist, zeichnet bzw. nimmt ein Labor mit einem CRT-Monitor auf, der wechselnde Bildschirmdarstellungen bzw. rollende Schnittstellen [rolling interfaces] und mit schnellen Beleuchtungsveränderungen anzeigt, wobei die 1(a)–(c) zwei Bilder einer Bildsequenz IA zeigen, die mit 20 fps aufgezeichnet wurde und die schnelle Beleuchtungsveränderungen durchmacht. In dieser Bildsequenz benötigt man drei Sekunden um die mittlere Intensität um ~20% zu steigern. Dieser Art von Schnell-Veränderung in der Bildhelligkeit ist es möglich, durch allgemeine Hintergrundmodelllernansätze angepasst zu werden, z. B. C. Stauffer und W. Grimson, „Adaptive background mixture models for real-time tracking" in Proc. IEEE Conf. Computer Vision and Pattern Recognition, vol. 2, Seiten 246–252, 1999, durch Anwenden einer höheren Lernrate (als die des voreingestellten Werts in dem Schreiben bzw. Papier). Man beachte 2(a) für die simulierten Ergebnisse der Vordergrundbereichserkennung für den Bildframe It A durch Anwenden des Stauffer- und Grimson-Verfahrens. Zum einen werden für den Fall von überschnellen Beleuchtungsveränderungen, die in den 1(d)–(e) gezeigt sind, die zwei Bilder einer Bildsequenz IB zeigen, die bei 15 fps aufgezeichnet wurden und überschnelle (drastische) Beleuchtungsveränderungen durchmachen, ähnliche Erhöhungen der Bildintensität in weniger als einer Sekunde für eine Außenumgebung bzw. Freilandumgebung beobachtet. Wie in 2(b) gezeigt ist, welche Ergebnisse von Vordergrundbereichserkennung für den Bildframe It B in überschneller Beleuchtung zeigt, werden viele falsche Erkennungsergebnisse im Vordergrund unter einer derartigen Bedingung durch Verwenden des gleichen Ansatzes mit identischer Lernrateneinstellung empfangen. Stattdessen werden durch Anwenden des vorgeschlagenen Hintergrundmodelllernsystems gemäß einer Ausführungsform dieser Erfindung, die meisten falschen Positiva bzw. Treffer der Vordergrundbereichserkennung eliminiert, wie in 2(c) gezeigt ist.
  • Zusammenfassung der Erfindung
  • Die vorgeschlagene Erfindung betrifft eine neue Bauart bzw. ein neues Design eines Hintergrundmodelllernsystems für Beleuchtungsveränderungsanpassung, das in Videoüberwachungsanwendungen verwendet werden kann. Das vorgeschlagene System wendet insbesondere irgendeinen allgemeinen Hintergrundmodelllernansatz als seine Basisverarbeitungseinheiten für Hintergrundmodellschätzung und Vordergrundbereichserkennung an, und akquiriert dann eine Beleuchtungsveränderungsverarbeitungseinheit als ein Nachverarbeitungsmodul, um die Vordergrundbereichserkennung zu überarbeiten. Die Beleuchtungsveränderungsverarbeitungseinheit ist für eine Reduzierung falscher Vordergrunderkennungen ausgelegt, die von graduellen, schnellen und drastischen Beleuchtungsveränderungen herrühren. Die Ergebnisse der überarbeiteten Vordergrunderkennung durch die Beleuchtungsveränderungsverarbeitungseinheit kann dann auf die nächste Verarbeitung angewandt werden, z. B. Vordergrundobjektanalyse, und zur Basiseinheit bzw. Grundeinheit der Hintergrundmodellschätzung für dynamische Anpassungen von Modelllernraten zurück gesandt werden.
  • Kurze Beschreibung der Zeichnungen
  • Die 1(a), (b) und (c) zeigen zwei Momentaufnahmen einer Bildsequenz in schnellen Beleuchtungsveränderungen und ihre Bildintensitätsvariationen via Frame-Differenzierung;
  • Die 1(d), (e) und (f) zeigen zwei Momentaufnahmen einer Bildsequenz in überschnellen Beleuchtungsveränderungen und ihre Bildintensitätsvariationen via Frame-Differenzierung;
  • Die 2(a) und (b) zeigen die Ergebnisse der Vordergrunderkennung für die zwei Bildsequenzen in schnellen bzw. überschnellen Beleuchtungsveränderungen, durch Verwenden des Stauffer und Grimson-Verfahrens zum Hintergrundmodelllernen mit identischer Modelllernrate;
  • 2(c) zeigt die Ergebnisse der verbesserten Vordergrunderkennung für die Bildsequenz in über-schnellen Beleuchtungsveränderungen durch Verwenden des vorgeschlagenen Systems auf Basis des gleichen Hintergrundmodelllernverfahrens und Lernrateneinstellungen wie in den 2(a) und (b).
  • 3 zeigt ein Blockdiagramm des vorgeschlagenen Hintergrundmodelllernsystems zu Beleuchtungsveränderungsanpassung gemäß einer Ausführungsform dieser Erfindung.
  • Detaillierte Beschreibung der bevorzugten Ausführungsformen
  • Nun wird auf die vorliegenden Ausführungsformen der Erfindung Bezug genommen, von denen Beispiele in den begleitenden Zeichnungen veranschaulicht sind. Wo immer es möglich ist, werden in den Zeichnungen und der Beschreibung die gleichen Bezugszeichen verwendet, um auf gleiche oder ähnliche Teile Bezug zu nehmen. Es ist ebenfalls klar, dass die detaillierte Beschreibung der vorliegenden Ausführungsformen beispielhaft ist und dazu gedacht ist, eine weitergehende Erklärung der Erfindung wie beansprucht bereitzustellen.
  • 3 zeigt ein Blockdiagramm des vorgeschlagenen Hintergrundmodelllernsystems zu Beleuchtungsveränderungsanpassung gemäß einer Ausführungsform dieser Erfindung. Das vorgeschlagene Hintergrundmodelllernsystem 100 umfasst eine Hintergrundmodellschätzeinheit 110, eine Vordergrundabbildungskonstruktionseinheit 120, eine Beleuchtungsveränderungsverarbeitungseinheit 130 und eine Vordergrundobjektanalyseeinheit 140. Die Hintergrundmodellschätzeinheit 110 leitet die Berechnung eines Hintergrundmodells einer Bildsequenz, die durch z. B. einer stationären Kamera für eine Szene von Interesse aufgezeichnet wurde, und kann durch verschiedene Ansätze in der Literatur verwirklicht werden, z. B.: C. Stauffer und W. Grimson, „Adaptive background mixture models for real-time tracking" in Proc. IEEE Conf. CVPR, vol. 2, Seiten 246-252, 1999, oder D.-S. Lee, „Adaptive mixture learning in a dynamic system”, Patentnummer US 7103,584 B2 , 2006.
  • Das geschätzte Hintergrundmodell der Hintergrundmodellschätzeinheit 110 wird dann zur Vordergrundabbildungskonstruktionseinheit 120 gesendet, um eine Referenzvordergrundabbildung zu erhalten, die die Vordergrundbereiche von den Hintergrundbereichen durch z. B. Hintergrundsubtraktion unterscheidet. Als nächstes bereitet die Beleuchtungsveränderungsverarbeitungseinheit 130 die Referenzvordergrundabbildung auf, die durch die Vordergrundabbildungskonstruktionseinheit 120 gewonnen wurde, um falsche Vordergrundbereiche zu eliminieren, die durch (drastische) Beleuchtungsveränderungen hervorgerufen wurden, und erzeugt eine überarbeitete Vordergrundabbildung als ihre Ausgabe. Die überarbeitete Vordergrundabbildung wird dann auf die nächste Einheit der Vordergrundobjektanalyse 140 angewandt und zur Beleuchtungsveränderungsverarbeitungseinheit 130 und zur Hintergrundmodellschätzeinheit 110 als Antworten über die Antwortverknüpfungen 150 bzw. 160 zurück gesendet. Für die Vordergrundobjektanalyseeinheit können für verschiedene Anwendungen im Systemdesign verschiedene Algorithmen z. B. eine Verbindungskomponentenanalyse angewandt werden.
  • Insbesondere ist die Eingabe der Hintergrundmodellschätzeinheit 110 eine Bildsequenz I0, ..., It die Frame nach Frame von der Eingabeverknüpfung 170 bis zum gegenwärtigen Zeitpunkt t eingegeben wird. Der Bildframe It = {It,x|∀x} zum gegenwärtigen Zeitpunkt t enthält eine mehrfache Anzahl von Pixelintensitäten It,xs, deren Format für unsere Diskussion einer bevorzugten Ausführungsform z. B. Graustufen ist. Allerdings waren Erweiterungen der Systemausführungsformen von Graustufen auf Farbbilder in RGB, in YUV444/422/420, Bayer-Matrix-ähnlichem Format oder andere Farbformate unkompliziert. Auf Basis der Eingabebilder wird ein Hintergrundmodell, gegeben durch
    Figure 00070001
    bis zum gegenwärtigen Zeitpunkt t durch die Hintergrundmodellschätzeinheit 110 berechnet, wobei jedes festgelegte Element bzw. jedes Satzelement
    Figure 00070002
    eine Hintergrundmodellschätzung für die Pixel ist, die an der Stelle x platziert sind. Die Kernberechnung der Hintergrundmodellschätzeinheit 110 kann durch irgendeinen der allgemeinen Hintergrundmodelllernansätze umfasst sein. Ohne Verlust der Allgemeingültigkeit, lässt sich mit αt,x eine Modelllernrate bezeichnen, die die Frequenz der Hintergrundmodellaktualisierung für eine Modellschätzung Bt,x für einen ausgewählten Hintergrundmodelllernansatz steuert. Wie später ausführlich behandelt wird, können dynamische Anpassungen der Modelllernraten αt = {αt,x|∀x} durch Referenzierung der Ausgabe der Beleuchtungsveränderungsverarbeitungseinheit 130 über die Antwortverknüpfung 160 realisiert werden.
  • In der Vordergrundabbildungskonstruktionseinheit 120 wird eine Referenzvordergrundabbildung gewonnen, die die Vordergrundbereiche von den Hintergrundbereichen unterscheidet, auf der Basis von Hintergrundsubtraktion des Hintergrundmodells
    Figure 00080001
    das durch die Hintergrundmodellschätzeinheit 110 erzeugt wird. Genauer gesagt wird die Referenzvordergrundabbildung zum Zeitpunkt t bezeichnet als ein Satz
    Figure 00080002
    wobei jedes Satzelement Ft,x ein binärer Wert (Ft,x ∊ {0, 1}) sein kann, der die Hintergrund- (als 0) und die Vordergrund-(als 1)-Benennung für einen Pixel bei x anzeigt, oder ein Realwert
    Figure 00080003
    sein kann, der für einen Pixel bei x die Möglichkeit repräsentiert, Vordergrund zu sein. Eine derartige Ausgabe der Referenzvordergrundabbildung
    Figure 00080004
    kann durch die meisten Überwachungssysteme auf der Basis von Hintergrundsubtraktion erzeugt werden.
  • Die Beleuchtungsveränderungsverarbeitungseinheit 130 empfängt die Referenzvordergrundabbildung
    Figure 00080005
    als eine ihrer Eingaben und erzeugt eine überarbeitete Vordergrundabbildung
    Figure 00080006
    die weniger Falscherkennungen von Vordergrundbereichen von Beleuchtungsveränderungen enthält. Die Idee hinter der Beleuchtungsveränderungsverarbeitungseinheit 130 ist einfach aber effektiv. Während die Variation der Bildintensität von überschnellen Beleuchtungsveränderungen unter zeitlich voneinander entfernten Bildframes groß sein kann, ist sie zwischen zwei aufeinanderfolgenden Bildframes klein, wenn die Framerate der Aufzeichnung bzw. Aufnahme groß genug ist. Die kleine und feine Veränderung der Bildhelligkeit zwischen aufeinanderfolgenden Bildframes stellt einen Hinweis zum Eliminieren von falschen Alarmen in der Vordergrunderkennung für drastische, aber nicht abrupte bzw. plötzliche Beleuchtungsveränderungen bereit. (man beachte, dass die plötzlichen Veränderungen im Hintergrund als hervorstechende Abweichungen [salient deviations] zwischen zwei aufeinanderfolgenden Bildframes bezeichnet werden, aufgrund von z. B. Licht an/aus). Zum Beispiel kann durch Bereitstellen eines Schwellenwerts der Differenz zwischen einem entsprechenden Pixelpaar jeder der beiden aufeinanderfolgenden Frames bei einem geeigneten Niveau, derartige falsche Alarme bzw. Fehlalarme oft reduziert werden.
  • Demzufolge führt die Beleuchtungsveränderungsverarbeitungseinheit 130 die folgende Berechnung durch, für den Fall der binär eingegebenen Referenzvordergrundabbildung
    Figure 00090001
    Zuerst wird die Schwellenwertbereitstellung einer Intensitätsdifferenz für jedes Pixelpaarausgeführt durch:
    Figure 00090002
    wobei It,x und It-N,x zwei Pixelintensitäten der Zeitpunkte t bzw. t – N (mit z. B.: N = 1) an der gleichen Pixelstelle x sind, Td (= 10) ein vorgegebener Schwellenwert ist, und Dt,x ein binärer Indikator ist. Daher kann man eine Framedifferenzabbildung
    Figure 00090003
    erhalten durch die Framedifferenzierungsuntereinheit 131. Dann kann eine überarbeitete Vordergrundabbildung
    Figure 00090004
    die weniger durch Beleuchtungsveränderungen beeinflusst ist, durch folgende Abbildungskombination:
    Figure 00090005
    in der Vordergrundabbildungsüberarbeitungseinheit 132 erzeugt werden, wobei
    Figure 00090006
    die überarbeitete Vordergrundabbildung ist die man vom vorhergehenden Zeitpunkt t – 1 von der Antwortverknüpfung 150 erhält. Für die Initialisierung der Abbildungskombination in rekursiver Formulierung, wird der Abbildung
    Figure 00090007
    ein Satz von Nullen zugewiesen. Es ist zu beachten, dass die ODER Funktion in der Abbildungskombination für eine vorübergehende bzw. temporäre Akkumulation von Vordergrundbereichen ausgelegt ist, was nützlich ist für die Erkennung von sich langsam bewegenden Objekten. Die überarbeitete Vordergrundabbildung
    Figure 00090008
    die man durch die Vordergrundabbildungsüberarbeitungsuntereinheit 132 erhält, dient als die letzte Ausgabe der Beleuchtungsveränderungsverarbeitungseinheit 130 zum gegenwärtigen Zeitpunkt t, und wird an die Vordergrundobjektanalyseeinheit 140 zur weiteren Analyse übertragen. Zwischenzeitlich wird die Abbildung
    Figure 00100001
    ebenfalls an die Hintergrundmodellschätzeinheit 110 über die Antwortverknüpfung 160 als eine ihrer Eingaben zurückgesendet.
  • Die Hintergrundmodellschätzeinheit 110 kann jetzt (für den gegenwärtigen Zeitpunkt t) die überarbeitete Vordergrundabbildung
    Figure 00100002
    des vorhergehenden Zeitpunkts t – 1 auf die dynamischen Anpassungen der Modelllernraten αt,xs für (drastische) Beleuchtungsveränderungsanpassung in dem Hintergrundmodell
    Figure 00100003
    anwenden. Insbesondere wird – bezeichnet durch
    Figure 00100004
    – eine Abbildung von der Antwortverknüpfung 160 in die Hintergrundmodellschätzeinheit 110 eingegeben. Die Pixel
    Figure 00100005
    repräsentieren die Bildbereiche der Beleuchtungsveränderungen, die durch die Beleuchtungsveränderungsverarbeitungseinheit 130 erkannt wurden. Die entsprechenden Lernraten der Pixel, d. h.
    Figure 00100006
    müssen in der Hintergrundmodellschätzeinheit 110 erhöht werden, um die Hintergrundmodellanpassung an die Beleuchtungsveränderungen zu beschleunigen. Eine einfache Möglichkeit, dies zu tun ist
    Figure 00100007
    wobei αH und αL zwei vordefinierte Raten für schnelles bzw. normales Hintergrundmodelllernen sind. Mit obigen dynamischen Anpassungen der Modelllernraten können Beleuchtungsveränderungen in dem geschätzten Hintergrundmodell
    Figure 00100008
    in ein schelleres Tempo angepasst werden. Fehlalarme, die durch Beleuchtungsveränderungen hervorgerufen werden, werden daher durch die Erzeugung der nächsten Referenzvordergrundabbildung
    Figure 00100009
    reduziert.
  • Schließlich extrahiert die Vordergrundobjektanalyseeinheit 140 Vordergrundobjekte (falls vorhanden), auf der Basis der gegenwärtigen überarbeiteten Vordergrundabbildung
    Figure 00100010
    Zum Beispiel können Vordergrundobjekte (falls vorhanden) über Verbindungskomponentenanalyse oder andere Objektgruppierungsverfahren extrahiert werden.
  • Da eine Ausführungsform dieser Erfindung außerdem noch die Akquirierung einer Beleuchtungsveränderungsverarbeitungseinheit als ein Nachverarbeitungsmodul für allgemein-dienliche Hintergrundmodellschätzansätze ist, kann es leicht in bereits existierende bzw. vorhandene Hintergrundmodellsysteme integriert werden um deren Systemrobustheit gegenüber Beleuchtungsveränderungen zu verbessern, ohne die Systemarchitekturen umfangreich bzw. großflächig zu verändern.
  • In einer anderen Ausführungsform kann die Beleuchtungsveränderungsverarbeitungseinheit 130 eine Referenzvordergrundabbildung
    Figure 00110001
    im Realwert empfangen, der die Möglichkeiten bezeichnet, Vordergrund für Abbildungspixel zu sein. In diesem Fall kann die Framedifferenzierungsuntereinheit 131 eine Framedifferenzabbildung
    Figure 00110002
    im Realwert berechnen, durch Anwenden von Dt,x = f(|It,x – It-N,x|) wobei
    Figure 00110003
    einen realwertigen Pixel der Framedifferenzabbildung
    Figure 00110004
    an der Pixelstelle x des gegenwärtigen Zeitpunkts t bezeichnet, und
    Figure 00110005
    eine Transferfunktion ist, die die absolute Pixeldifferenz auf die Möglichkeit abbildet, sich für einen Pixel in Veränderung bzw. in einem Veränderungszustand zu sein. Die Funktion f(·) kann tatsächlich implementiert sein durch bzw. umfasst sein durch eine Sigmoidalfunktion oder andere Arten von Transferfunktionen. Dann kann die Vordergrundabbildungsüberarbeitungsuntereinheit 132 Min/Max-Funktionen verwenden, um die Referenzvordergrundabbildung
    Figure 00110006
    zu überarbeiten und eine überarbeitete Vordergrundabbildung
    Figure 00110007
    im Realwert zu erzeugen, durch
    Figure 00110008
    wobei die Min/Max-Funktionen auf die Integration der drei eingegebenen Abbildungen
    Figure 00110009
    im Realwert angewandt werden. Auf ähnliche Weise kann der Satz von Pixeln bei der Beleuchtungsveränderung für die dynamischen Anpassungen von Modelllernraten bei der Hintergrundmodellabschätzungseinheit 110 auch gegeben sein durch
    Figure 00120001
    wobei TL (= 0) ein voreingestellter Schwellenwert ist.
  • Obwohl die vorliegende Erfindung besonders detailliert mit Bezugnahme auf spezielle Ausführungsformen davon beschrieben wurde, sind andere Ausführungsformen möglich. Daher sollen das Wesen und der Schutzbereich der angehängten Ansprüche nicht auf die Beschreibung der Ausführungsformen beschränkt sein, die hierin enthalten sind. Es wird für Fachleute klar sein, dass verschiedene Modifikationen und Variationen an der Struktur der vorliegenden Erfindung vorgenommen werden können, ohne vom Schutzbereich oder dem Wesen der Erfindung abzuweichen. Hinsichtlich der vorhergehenden Ausführungen ist es beabsichtigt, dass die vorliegende Erfindung Modifikationen und Variationen dieser Erfindung abdeckt, falls die in den Schutzbereich der folgenden Ansprüche fallen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7103584 B2 [0016]
  • Zitierte Nicht-Patentliteratur
    • C. Stauffer und W. Grimson, „Adaptive background mixture models for real-time tracking” in Proc. IEEE Conf. Computer Vision and Pattern Recognition, vol. 2, 1999, Seiten 246–252 [0001]
    • C. Stauffer und W. Grimson, „Adaptive background mixture models for real-time tracking” in Proc. IEEE Conf. Computer Vision and Pattern Recognition, vol. 2, Seiten 246–252, 1999 [0004]
    • Stauffer und W. Grimson, „Adaptive background mixture models for real-time tracking” in Proc. IEEE Conf. Computer Vision and Pattern Recognition, vol. 2, Seiten 246–252, 1999 [0004]
    • C. Stauffer und W. Grimson, „Adaptive background mixture models for real-time tracking” in Proc. IEEE Conf. Computer Vision and Pattern Recognition, vol. 2, Seiten 246–252, 1999 [0008]
    • C. Stauffer und W. Grimson, „Adaptive background mixture models for real-time tracking” in Proc. IEEE Conf. CVPR, vol. 2, Seiten 246-252, 1999 [0016]

Claims (10)

  1. Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung zur Videoüberwachung, umfassend: Hintergrundmodell-Schätzeinheit, die ein Hintergrundmodel Bt für eine Szene von Interesse abschätzt, als ihre Ausgabe der gegenwärtigen Zeitpunkt t, von mindestens einer Eingabe eines Bildframes It der gegenwärtigen Zeitpunkt t; eine Vordergrundabbildungskonstruktionseinheit, die eine Referenz-Vordergrundabbildung Ft der Zeitpunkt t konstruiert, die ein Satz von binären Pixeln ist, die Vordergrund- und Hintergrundpixelbezeichnungen kennzeichnen oder ein Satz von Realwertpixeln ist, die deren Möglichkeiten kennzeichen, im Vordergrund zu sein, durch Hintergrundmodelsubtraktion zwischen dem Bildframe It und dem geschätzten Hintergrundmodel Bt; und eine Beleuchtungsveränderungsverarbeitungseinheit, welche die Referenzvordergrundabbildung Ft durch Reduzieren von falschen Vordergrundbereichen überarbeitet, die aus Beleuchtungsveränderungen resultieren, umfassend: eine Framedifferenzierungsuntereinheit, die eine Framedifferenzabbildung Dt der Zeitpunkt t mittels Subtraktion eines vorhergehenden Bildframes It-N der Zeitpunkt t – N vom Gegenwärtigen It erzeugt; und eine Vordergrundabbildungsüberarbeitungsuntereinheit, die eine überarbeitete Vordergrundabbildung Ft' berechnet, die weniger durch Beleuchtungsveränderungen induzierte Bereiche mit falschem Vordergrund aufweist, als die Referenzvordergrundabbildung Ft, durch Integrieren der Framedifferenzabbildung Dt, der Referenzvordergrundabbildung Ft und einer Antwort- (überarbeitete Vordergrund-) Abbildung F't-1, abgeleitet zum vorhergehenden Zeitpunkt t – 1; wobei die überarbeitete Vordergrundabbildung Ft' als Ausgabe der Beleuchtungsveränderungverarbeitungseinheit zum gegenwärtigen Zeitpunkt t dient, und dann sowohl zur Hintergrundmodel-Schätzeinheit als auch zur Beleuchtungsveränderungsverarbeitungseinheit als Antworten zurückgesendet wird, zur Modelllernrateneinstellung in der Hintergrundmodellschätzung bzw. der Abbildungsintegration in der Beleuchtungsveränderungsverarbeitung für den nächsten Zeitpunkt t + 1.
  2. Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung gemäß Anspruch 1, wobei die Framedifferenzierungsuntereinheit zum Ableiten der Framedifferenzabbildung Dt im Binärwert des gegenwärtigen Zeitpunkts t implementiert werden kann durch:
    Figure 00140001
    wobei Dt,x ∊ Dt einen Binärwertpixel der Framedifferenzabbildung Dt an der Pixelstelle x des Zeitpunkts t bezeichnet, It,x einen Pixelwert des Bildframes It an der Pixelstelle x des Zeitpunkt t bezeichnet, It-N,x einen Pixelwert des Bildframes It-N an der Pixelstelle x des Zeitpunkt t – N bezeichnet, und Td ein vorgegebener Schwellwert ist, um den Differenzwert binär zu machen; und die Ausgabe der Framedifferenzierungsuntereinheit zum gegenwärtigen Zeitpunkt t durch die Framedifferenzabbildung Dt = {Dt,x|∀x} gegeben wird, die einen Satz von Binärwertpixeln Dt,xs bezeichnet.
  3. Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung gemäß Anspruch 1, wobei die Vordergrundabbildungsüberarbeitungsuntereinheit zum Ableiten der überarbeiteten Vordergrundabbildung Ft' im Binärwert implementiert werden kann durch F ' / t = FtUND(F ' / t-1ODER Dt) wobei die logischen Operationen auf die Integration der drei binären Abbildungen angewandt werden, d. h. die Framedifferenzabbildung Dt, die Referenzvordergrundabbildung Ft und die überarbeitete Vordergrundabbildung F't-1, eingegeben zum vorhergehenden Zeitpunkt t – 1, in die überarbeitete Vordergrundabbildung F't; und die Ausgabe der Vordergrundabbildungsüberarbeitungsuntereinheit zum gegenwärtigen Zeitpunkt t durch die überarbeitete Vordergrundabbildung
    Figure 00150001
    gegeben wird, die einen Satz von Binärwertpixeln F't,x ∊ {0 (Hintergrund), 1(Vordergrund)} bezeichnet.
  4. Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung gemäß Anspruch 1, wobei die Framedifferenzierungsuntereinheit zum Ableiten einer Framedifferenzabbildung Dt im Realwert implementiert werden kann durch Dt,x = f(|It,x – It-N,x|), wobei Dt,x ∀ Dt einen Realwertpixel der Framedifferenzabbildung Dt an der Pixelstelle x des gegenwärtigen Zeitpunkts t bezeichnet, It,x einen Pixelwert des Bildframes It an der Pixelstelle x des Zeitpunkts t bezeichnet, It-N,x einen Pixelwert des Bildframes It-N an der Pixelstelle x des Zeitpunkts t – N bezeichnet, und f(·) ∊ R eine Transferfunktion ist, die die absolute Pixeldifferenz auf die Möglichkeit abbildet, dass sich ein Abbildungspixel in Veränderung befindet; und die Ausgabe der Framedifferenzierungsuntereinheit zum Zeitpunkt t durch die Framedifferenzabbildung
    Figure 00150002
    gegeben ist, die einen Satz von Realwertpixeln Dt,xs bezeichnet.
  5. Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung gemäß Anspruch 4, wobei die Transferfunktion f(·) ausgeführt sein kann durch die Absolutpixeldifferenzierung |It,x – It-N,x| oder einer sigmoidalen Transferfunktion von |It,x – It-N,x|.
  6. Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung gemäß Anspruch 1, wobei die Vordergrundabbildungsüberarbeitungsuntereinheit zum Ableiten einer überarbeiteten Vordergrundabbildung F't im Realwert implementiert werden kann durch F ' / t = Min(Ft, Max(F ' / t-1, Dt)) wobei die Min/Max-Operationen auf die Integration der drei Realwertabbildungen angewandt werden, d. h. die Framedifferenzabbildung Dt, die Referenzvordergrundabbildung Ft und die überarbeitete Vordergrundabbildung F't-1, eingegeben zum vorhergehenden Zeitpunkt t – 1, in die überarbeitete Vordergrundabbildung F't; und die Ausgabe der Framedifferenzierungsuntereinheit zum gegenwärtigen Zeitpunkt t durch die überarbeitete Vordergrundabbildung
    Figure 00160001
    gegeben ist, die einen Satz von Realwertpixeln F ' / t,x ∊ R bezeichnet.
  7. Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung gemäß Anspruch 1, wobei die Hintergrundmodell-Schätzeinheit und die Vordergrundabbildungskonstruktionseinheit zum Berechnen eines Hintergrundmodells einer Szene von Interesse ausgeführt werden können durch allgemeine Hintergrundmodelllernansätze, die periodische Hintergrundmodellaktualisierung als Kernberechnung anwenden.
  8. Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung gemäß Anspruch 1, wobei die Eingaben der Hintergrundmodell-Schätzeinheit weiter umfassen: eine Bildframeeingabe von It des Zeitpunkts t; und eine Antworteingabe der (mathematischen) Kombination von sowohl der Referenzvordergrundabbildung Ft-1 als auch der überarbeiteten Vordergrundabbildung F't-1, abgeleitet zum vorhergehenden Zeitpunkt t – 1, zum Einstellen der Modelllernraten in der Hintergrundmodell-Schätzeinheit so dass die Hintergrundmodell-Schätzeinheit die Modelllernraten für die Pixel, die sich (nicht) innerhalb einer Beleuchtungsveränderung befinden, steigern (oder zurücksetzen) kann.
  9. Bildframeeingabe der Hintergrundmodell-Schätzeinheit gemäß Anspruch 8, die erzeugt werden kann durch eine Kamera, die Bildframes einer Szene von Interesse aufnimmt und die aufgenommenen Bildframes an die Hintergrundmodell-Schätzeinheit überträgt.
  10. Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung gemäß Anspruch 1, wobei jeder Eingabebildframe in Graustufen, in RGB-Farbe, in YUV444/422/420 oder im Bayer-Matrix-ähnlichem Format vorliegen kann.
DE102010056536A 2010-10-28 2010-12-29 Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung verwendet zur Videoüberwachung Ceased DE102010056536A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/914,957 2010-10-28
US12/914,957 US8639026B2 (en) 2010-10-28 2010-10-28 Background model learning system for lighting change adaptation utilized for video surveillance

Publications (1)

Publication Number Publication Date
DE102010056536A1 true DE102010056536A1 (de) 2012-05-03

Family

ID=45935683

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010056536A Ceased DE102010056536A1 (de) 2010-10-28 2010-12-29 Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung verwendet zur Videoüberwachung

Country Status (3)

Country Link
US (1) US8639026B2 (de)
CN (1) CN102469302B (de)
DE (1) DE102010056536A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2447912B1 (de) * 2010-10-27 2017-03-08 Vaelsys Formacion y Desarrollo, S.L. Verfahren und Vorrichtung zur Erfassung einer Veränderung der Beleuchtung für Sichtsysteme
JP2013191163A (ja) * 2012-03-15 2013-09-26 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US10019823B2 (en) 2013-10-24 2018-07-10 Adobe Systems Incorporated Combined composition and change-based models for image cropping
US9330334B2 (en) 2013-10-24 2016-05-03 Adobe Systems Incorporated Iterative saliency map estimation
US9299004B2 (en) * 2013-10-24 2016-03-29 Adobe Systems Incorporated Image foreground detection
US9652854B2 (en) 2015-04-09 2017-05-16 Bendix Commercial Vehicle Systems Llc System and method for identifying an object in an image
CN109949335B (zh) * 2017-12-20 2023-12-08 华为技术有限公司 一种图像处理方法及装置
EP3543902B1 (de) 2018-03-22 2021-06-02 Canon Kabushiki Kaisha Bildverarbeitungsvorrichtung und -verfahren und speichermedium mit darauf gespeicherten anweisungen
CN110363500B (zh) * 2019-07-12 2023-10-03 深圳市万睿智能科技有限公司 管理群组空间照明策略的方法和系统
US11592984B2 (en) 2020-09-11 2023-02-28 Seagate Technology Llc Onboard machine learning for storage device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7103584B2 (en) 2002-07-10 2006-09-05 Ricoh Company, Ltd. Adaptive mixture learning in a dynamic system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7103584B2 (en) 2002-07-10 2006-09-05 Ricoh Company, Ltd. Adaptive mixture learning in a dynamic system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
C. Stauffer und W. Grimson, "Adaptive background mixture models for real-time tracking" in Proc. IEEE Conf. Computer Vision and Pattern Recognition, vol. 2, 1999, Seiten 246-252
Jianpeng Zhou; Jack Hoang: "Real Time Robust Human Detection and Tracking System"; Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05)
Jianpeng Zhou; Jack Hoang: "Real Time Robust Human Detection and Tracking System"; Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05) *
Stauffer, C.; Grimson, W.: "Adaptive background mixture models for real-time tracking"; IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 1999; DOI: 10.1109/CVPR.1999.784637 *

Also Published As

Publication number Publication date
CN102469302A (zh) 2012-05-23
US8639026B2 (en) 2014-01-28
US20120106834A1 (en) 2012-05-03
CN102469302B (zh) 2013-10-23

Similar Documents

Publication Publication Date Title
DE102010056536A1 (de) Hintergrundmodelllernsystem zur Beleuchtungsveränderungsanpassung verwendet zur Videoüberwachung
EP1697901B1 (de) Verfahren zur modulierung von hintergrund- und vordergrundregionen
DE102016115292B4 (de) Verfahren und Vorrichtung zur automatischen Belichtungswerterfassung für High Dynamic Range Imaging
DE69906403T2 (de) Verfahren und Gerät zum Detektieren eines gesichtsähnlichen Gebiets
EP3058556B1 (de) Verfahren und vorrichtung zur automatisierten waldbrandfrüherkennung mittels optischer detektion von rauchwolken
DE69837233T2 (de) Verfahren und Gerät zur Bestimmung der Augenposition in einem Bild
DE102008006709A1 (de) Videobasiertes Überwachungssystem und -verfahren
Haritaoglu et al. A fast background scene modeling and maintenance for outdoor surveillance
CN110148093B (zh) 一种基于暗通道先验的图像去雾改进方法
CN112396635B (zh) 一种基于多设备的复杂环境下多目标检测方法
DE112017005207B4 (de) Verfahren zur Identifizierung von Lichtquellen, entsprechendes System und Computerprogrammprodukt
DE102017113656A1 (de) Bildverarbeitungsvorrichtung, bildgebungsvorrichtung und bildverarbeitungsverfahren
CN111353452A (zh) 一种基于rgb图像的行为识别方法、装置、介质及设备
Alzughaibi et al. Review of human motion detection based on background subtraction techniques
DE102018109276A1 (de) Bildhintergrundsubtraktion für dynamische beleuchtungsszenarios
CN105898111A (zh) 一种基于谱聚类的视频去雾方法
DE19883010B4 (de) Verfahren und Vorrichtung zum Erkennen eines sich bewegenden Objekts in einer Abfolge von Farbvollbildern
Liu et al. Scene background estimation based on temporal median filter with Gaussian filtering
Porikli Multiplicative background-foreground estimation under uncontrolled illumination using intrinsic images
CN111708907B (zh) 一种目标人员的查询方法、装置、设备及存储介质
Culibrk Neural network approach to Bayesian background modeling for video object segmentation
Rahman et al. An adaptive background modeling based on modified running Gaussian average method
WO2011039351A1 (de) Verfahren und vorrichtung zum erkennen einer fehldetektion eines objekts in einem bild
DE202023101378U1 (de) Ein System zur Verbesserung der schlechten Sichtbarkeit durch Bildverbesserungstechnik unter Verwendung von Contrast Stretched - CLAHE (CS-CLAHE)
EP1673730B1 (de) Mehrstufige segmentierung beweglicher objekte

Legal Events

Date Code Title Description
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final
R003 Refusal decision now final

Effective date: 20141023