DE102005057335B4 - Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild mit zumindest temporär beweglichen Objekten - Google Patents

Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild mit zumindest temporär beweglichen Objekten Download PDF

Info

Publication number
DE102005057335B4
DE102005057335B4 DE102005057335A DE102005057335A DE102005057335B4 DE 102005057335 B4 DE102005057335 B4 DE 102005057335B4 DE 102005057335 A DE102005057335 A DE 102005057335A DE 102005057335 A DE102005057335 A DE 102005057335A DE 102005057335 B4 DE102005057335 B4 DE 102005057335B4
Authority
DE
Germany
Prior art keywords
image
objects
areas
background
temporarily
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102005057335A
Other languages
English (en)
Other versions
DE102005057335B9 (de
DE102005057335A1 (de
Inventor
Dr. Hetzheim Hartwig
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102005057335A priority Critical patent/DE102005057335B9/de
Publication of DE102005057335A1 publication Critical patent/DE102005057335A1/de
Application granted granted Critical
Publication of DE102005057335B4 publication Critical patent/DE102005057335B4/de
Publication of DE102005057335B9 publication Critical patent/DE102005057335B9/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild aus einer zeitlichen Folge von Digitalbildern mit zumindest temporär bewegteffinden von Flächen, welche mit großer Wahrscheinlichkeit sich zumindest temporär bewegende Objekte enthalten, durch a1) Identifizieren von Objekt-Bildbereichen, welche Objekte enthalten, die sich zumindest temporär bewegen, durch Ermittlung von Texturunterschieden innerhalb mindestens eines Bildes und Maskieren der identifizierten Objekt-Bildbereiche durch Bildung von Maskierungsflächen BV, die zumindest die Objekt-Bildbereiche umfassen, und a2) Identifizieren von Objekt-Bildbereichen (Bq), welche Objekte enthalten, die sich aktuell bewegen, durch Ermittlung von Pixelwertdifferenzen zwischen zeitlich aufeinander folgenden Bildern und Maskieren der identifizierten Objekt-Bildbereiche durch Bildung von Maskierungsflächen B1, die zumindest die Objekt-Bildbereiche umfassen, wobei a3) die Pixelwerte der von den jeweiligen Maskierungsflächen enthaltenen Bildpunkte auf ein Maximum oder auf Null gesetzt werden, b) Aktualisieren des Hintergrundes des Digitalbilds durch Überlagern zumindest derjenigen Bildbereiche zeitlich aufeinander folgender Bilder,...

Description

  • Die Erfindung betrifft ein Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild mit zumindest temporär beweglichen Objekten.
  • Die Bestimmung des Hintergrundes eines Digitalbilds ist insbesondere für die Bestimmung von sich bewegenden Objekten, wie z. B. Fahrzeugen, Fußgängern oder anderen Verkehrsteilnehmern in Verkehrsbildern, von großer Bedeutung. Insbesondere ist es mit einem aktuellen Hintergrund möglich, die sich bewegenden Objekte in Echtzeit zu ermitteln Schwierigkeiten bei der Erzeugung eines vollständigen aktuellen Hintergrundbildes entstehen jedoch regelmaßig auf Grund der sich aktuell oder zumindest zeitweise bewegenden Objekte, beispielsweise Fahrzeuge und Fußgänger, die Teile des Hintergrundes, z. B. der Straße, verdecken. Des Weiteren können jedoch auch zahlreiche andere sich schnell verändernde Störungen des Hintergrunds für dessen exakte Bestimmung problematisch sein, im Falle von Verkehrsbildern beispielsweise Schnee und Schneematsch auf der Straße, sehr rasche Änderung der Helligkeit durch vorbei ziehende Wolken, Reflexionen auf nassen Straßen, Übergänge während der Dämmerung von Tag zu Nacht sowie während der Zeiten, in denen einzelne Fahrzeuge mit Licht fahren, und Schatten von schnell ziehenden Wolken. Es sind bereits diverse Verfahren und Vorrichtungen zur Bestimmung des Hintergrundbildes eines Digitalbilds bekannt, bei denen zur Umgehung der o. g. Schwierigkeiten Mittelungen und Filterungen durchgeführt werden. Diese basieren auf der Anwendung der verschiedensten gängigen Verfahren, wie z. B. Kalman-Filter, Lee-Filter oder Schätzalgorithmen. Sie liefern jedoch ein eher unscharfes oder ungenaues Hintergrundbild, welches eine Isolation der sich bewegenden Objekte schwierig macht. Andere Methoden nutzen das Verfolgen der sich bewegenden Objekte, um adaptiv die Hintergrundschätzung zu verbessern. Diese Verfahren sind jedoch nicht schnell genug und stark abhängig von der korrekten Entdeckung der sich bewegenden Objekte und ihrer genauen Umrisse zum Zeitpunkt der Entscheidung, das heißt es werden regelmäßig für eine zufrieden stellende Erzeugung eines aktuellen Hintergrundbildes Informationen benötigt, die zum Entscheidungszeitpunkt noch nicht vorhanden ist. Eine exakte Nachführung des sich zeitlich verändernden Hintergrundbildes wird von den bekannten Verfahren nicht durchgeführt.
  • Aus der DE 103 34 136 A1 ist ein Verfahren zur Bestimmung eines Hintergrundbildes bei bildgebenden Verfahren bekannt, wobei aus einem zum Zeitpunkt t1 aufgenommenen Bild verdeckte und freie Gebiete ermittelt werden, wobei mindestens für die freien Gebiete das Hintergrundbild erstellt wird, eine erste Maske erstellt wird, wobei zum Zeitpunkt t1 verdeckte Gebiete maskiert werden, aus mindestens einem zu einem Zeitpunkt t1 aufgenommenen Bild verdeckte Gebiete ermittelt werden, mindestens eine zweite Maske erstellt wird, wobei zum Zeitpunkt ti verdeckte Gebiete maskiert werden, wobei durch ein Vergleich der Masken freigewordene Gebiete bestimmt werden, aus dem zum Zeitpunkt ti aufgenommenen Bild der Hintergrund der freigewordenen Gebiete ermittelt wird und das Hintergrundbild um den Hintergrund der freigewordenen Gebiete erweitert wird. Dabei wird weiter vorgeschlagen, dass die Ermittlung des Hintergrundbilds in bestimmten Zeitabständen und/oder bei Veränderungen der Licht- und Wetterbedingungen wiederholt werden kann. Eine Nachführung während der Bestimmung des Hintergrundbildes erfolgt jedoch nicht.
  • Aus der WO 94/12261 A1 ist ein Verfahren zur Bestimmung eines Hintergrundbildes mittels einer zeitlichen Folge von rechteckigen Objektmasken bekannt.
  • Aus der US 5,963,272 A ist ein Verfahren bekannt, bei dem ein Hintergrundbild durch Auswertung bewegter Objekte aktualisiert wird.
  • Aus der EP 0 633 546 A2 ist ein Verfahren zur Bestimmung eines Hintergrundbildes bekannt, bei dem bewegte Objekte erfasst und mittels Polygonen bzw. Rechtecken maskiert werden, wobei der maskierte Bildinhalt durch ein anderes Bild ersetzt wird.
  • Aus dem Fachartikel ”Agarwala, A. et al.: Interacitve Digital Photomontage. ACM Transactions on Graphics, Vol. 23, Issue 3, Proc. SIGGRAPH 2004, Seite 294–302 ist ein Verfahren bekannt, um mehrere Bilder zu einem Gesamtbild zusammenzufügen, wobei die Nahtstellen bearbeitet werden, um die Übergänge so unauffallig wie möglich zu machen.
  • Aus der WO 2005/104014 A1 ist ein Verfahren zur Erkennung von einfachen Objekten vor einem homogenen Hintergrund bekannt.
  • Aus der JP 08/044844 A ist ein Verfahren zur Erfassung von bewegten Objekten bekannt, wobei unbewegte Objekte durch einen Vergleich eines Bildes mit einem Hintergrundbild ermittelt werden.
  • Der Erfindung liegt daher das technische Problem zugrunde, ein verbessertes Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild mit zumindest temporär beweglichen Objekten zu schaffen.
  • Die Lösung des technischen Problems ergibt sich erfindungsgemäß durch ein Verfahren mit dem Merkmalen des Anspruchs 1. Weitere vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen.
  • Der Erfindung liegt dabei die Erkenntnis zugrunde, dass mit Hilfe eines möglichst aktuellen Hintergrundbildes die Auffindung von sich bewegenden Objekten, beispielsweise Verkehrsteilnehmern, in einem Digitalbild sehr einfach und damit auch sehr schnell moglich ist. Hierzu muss in Abhängigkeit der sichtbaren zeitlichen Veränderungen eine Nachführung des Hintergrundbildes durchgeführt werden, die jedoch nicht notwendigerweise in Echtzeit erfolgen muss, sondern durch mehrere, teilweise iterative Schritte erfolgen kann, die parallel oder sukzessive durchgeführt werden. Dazu wird erfindungsgemäß ein Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild mit zumindest temporär beweglichen Objekten vorgeschlagen, umfassend zumindest die Schritte
    • a) Auffinden von Flächen, welche mit großer Wahrscheinlichkeit sich zumindest temporär bewegende Objekte enthalten, durch
    • a1) Identifizieren von Objekt-Bildbereichen, welche Objekte enthalten, die sich zumindest temporär bewegen, durch Ermittlung von Texturunterschieden innerhalb mindestens eines Bildes und Maskieren der identifizierten Objekt-Bildbereiche durch Bildung von Maskierungsflächen BV, die zumindest die Objekt-Bildbereiche umfassen, und
    • a2) Identifizieren von Objekt-Bildbereichen (Bq), welche Objekte enthalten, die sich aktuell bewegen, durch Ermittlung von Pixelwertdifferenzen zwischen zeitlich aufeinander folgenden Bildern und Maskieren der identifizierten Objekt-Bildbereiche durch Bildung von Maskierungsflächen B1, die zumindest die Objekt-Bildbereiche umfassen, wobei
    • a3) die Pixelwerte der von den jeweiligen Maskierungsflächen enthaltenen Bildpunkte auf ein Maximum oder auf Null gesetzt werden,
    • b) Aktualisieren des Hintergrundes des Digitalbilds durch Überlagern zumindest derjenigen Bildbereiche zeitlich aufeinander folgender Bilder, die keine Maskierungsflächen beinhalten und somit der Hintergrundfläche zugeordnet sind, indem
    • b1) ein Binärbild B5 der Hintergrundfläche des Digitalbilds durch Bildung des Komplementärbilds der maskierten Flächen bewegungsaktiver Objekt-Bildbereiche, welche die zumindest temporar beweglichen Objekte umfassen, ermittelt wird, wobei die bewegungsaktiven Objekt-Bildbereiche durch eine OR-Verknüpfung eines Binärbilds B1 der bewegten Objekte und eines Binärbilds BV der lediglich zeitweise stehenden Objekte ermittelt werden,
    • b2) ein Hintergrundbild B6, welches eine Grauwertdarstellung der Hintergrund-Bildbereiche, die von zumindest potenziell beweglichen Objekten frei sind, sowie die Maskierungsflächen der Objekt-Bildbereiche enthält, durch Multiplikation des Binärbilds B5 der Hintergrundfläche des Digitalbilds mit einem Originalbild B0 erzeugt wird,
    • b3) das zeitlich aufsummierte Hintergrundbild B7(tm) durch Summation von zeitlich aufeinander folgenden Hintergrundbildern B6(tm) ermittelt wird,
    • b4) das Normierungsbezugsbild B8(tm) durch Summation von zeitlich aufeinander folgenden Binärbildern B5(tm) ermittelt wird, und
    • b5) aus einem zeitlich aufsummierten Hintergrundbild B7(tm) durch Normierung auf ein Normierungsbezugsbild B8(tm) mittels Bildung des Quotienten [B7(tm)]/B8(tm) ein zum Zeitpunkt tm aktualisiertes Hintergrundbild bildh(tm) erzeugt wird, das den aktuellen Hintergrund darstellt.
  • Das erfindungsgemäße Verfahren lässt sich dabei im Wesentlichen in zwei grobe Verfahrensabschnitte aufteilen, nämlich zum einen das Auffinden von Flächen, welche mit großer Wahrscheinlichkeit sich zumindest temporär bewegende Objekte, beispielsweise Verkehrsteilnehmer, enthalten und zum anderen eine Summation, d. h. Überlagerung derjenigen Flächen, die frei von sich bewegenden Objekten, z. B. Fahrzeugen etc., sind und welche somit bei etwaigen Änderungen des Hintergrunds des Digitalbilds zu dessen Aktualisierung verwendet werden. In dem ersten Verfahrensabschnitt werden zunächst die zu berücksichtigenden Flächen bzw. Teilflächen des Hintergrundbildes bestimmt, für die die Information zum Hintergrundbild aus dem Originalbild zunächst übernommen und dann entsprechend der bis zu einem späteren Zeitpunkt tm erfolgten Änderungen korrigiert, d. h. aktualisiert, werden soll. Dazu wird jedes noch so kleine Teilgebiet des Digitalbildes, das gerade frei von einem sich bewegenden Objekt ist, ermittelt und trägt dann zur Bestimmung eines aktuellen Hintergrundbildes bei. Dabei ist es für die Wirkungsweise des Verfahrens unerheblich, ob die sich bewegenden Objekte, die identifiziert werden sollen, dunkel oder hell sind. Die identifizierten Objekte werden dann ”maskiert”, indem zu diesem Zweck z. B. Flächen um die aktuell identifizierten Objekte gebildet werden, welche den Wert „0” haben (d. h. in der Regel schwarz sind) und somit von der Bildung des Hintergrundbildes ausgeschlossen werden. In dem weiteren Verfahrensabschnitt wird dann anhand der ermittelten Fläche des Hintergrundbildes dieses entsprechend den über einen bestimmten Zeitraum ermittelten Änderungen „nachgeführt”, d. h. der Realität zum Zeitpunkt tm angepasst und aktualisiert. Das erfindungsgemäße Verfahren ist dabei besonders für die in Echtzeit durchgeführte digitale Bildverarbeitung und -analyse von Verkehrsbildern geeignet. Die äußeren Bedingungen des in dem Digitalbild dargestellten Hintergrunds können sich dabei in der Realität über eine bestimmte Zeitperiode hinweg verändern. So kann sich beispielsweise die Beleuchtung durch Wolkenabdunklung oder Schattenbildung von Gebäuden o. ä. geändert haben. Durch die Überlagerung zeitlich aufeinander folgender, d. h. zum Zeitpunkt tn-1 und tn berechneter Teile des Hintergrundbildes können die aufgrund der Veränderungen entstehenden Fehler reduziert werden. Zudem treten im aktualisierten Digitalbild auch weniger Fehler auf, die aufgrund einer fehlerhaften Isolation der sich bewegenden Objekte, z. B. Fahrzeuge, entstehen.
  • Dabei erfolgt das Identifizieren der Objekt-Bildbereiche durch Ermittlung von Pixelwertdifferenzen zwischen zeitlich aufeinander folgenden Bildern und von Texturunterschieden innerhalb mindestens eines Bildes. D. h. die im Digitalbild enthaltenen Objekte, z. B. Verkehrsteilnehmer wie Fahrzeuge oder Fußgänger, werden anhand der von ihnen vollführten Bewegungen und/oder anhand von Unterschieden in ihrer Textur gegenüber der Textur des Hintergrunds in zuverlassiger Weise identifiziert und isoliert. Dazu werden die zu betrachtenden Objekte vorzugsweise in bewegte und unbewegte unterteilt, die dann auf unterschiedliche Weise identifiziert werden. Objekte, die sich aktuell bewegen, werden vorzugsweise anhand der Pixelwertdifferenzen identifiziert. Diese Vorgehensweise ist einerseits einfach, andererseits besonders zuverlässig und genau. Demgegenüber werden zumindest zeitweise stehende oder zumindest temporar bewegte Objekte vorzugsweise mittels ihrer Texturunterschiede gegenüber dem Hintergrund ermittelt. Hinsichtlich der Texturunterschiede wird davon ausgegangen, dass im Falle von Verkehrsbildern beispielsweise Straßen gegenüber den zu identifizierenden Objekten, d. h. Verkehrsteilnehmern, eine vergleichsweise gleichförmige Textur besitzen.
  • Zur Aktualisierung des Hinteregrundbildes wird ein Binärbild B5 der Hintergrundfläche des Digitalbilds durch Bildung des Komplementärbilds der maskierten Flächen bewegungsaktiver Objekt-Bildbereiche, welche die zumindest temporär beweglichen Objekte umfassen, ermittelt, wobei die bewegungsaktiven Objekt-Bildbereiche durch eine OR-Verknüpfung des Binärbilds B1 der bewegten Objekte und eines Binärbilds BV der lediglich zeitweise stehenden Objekte ermittelt werden. Dabei wird das Binärbild B5 für die Nachführung der Veränderungen des Hintergrunds des Digitalbildes benutzt. Dies erfolgt mittels der Gleichung B5 = 1 – [B4 OR BV].
  • In B5 sind dann vorzugsweise alle diejenigen Gebiete des Bildes mit dem Wert 1 belegt, für die eine Nachführung der Helligkeit sowie andere Veränderungen des Bildes, die nicht in der Bewegung der Objekte, z. B. dem Verkehr, ihre Ursache haben, möglich ist. D. h. mit B5 werden diejenigen Gebiete extrahiert, die momentan verändert werden, deren Veränderungen jedoch nicht in der Objektbewegung begründet sind und die auf jeden Fall Teil des Hintergrunds sind.
  • Weiter wird ein Hintergrundbild B6, welches eine Grauwertdarstellung der Hintergrund-Bildbereiche, die von zumindest potenziell beweglichen Objekten frei sind, sowie die Maskierungsflächen der Objekt-Bildbereiche enthält, durch Multiplikation des Binärbilds B5 der Hintergrundfläche des Digitalbilds mit einem Originalbild B0 erzeugt. Die Ermittlung des Hintergrundbildes B6 erfolgt also mittels der Gleichung B6 = B5·B0.
  • Dieses Vorgehen führt zur Auslöschung derjenigen Gebiete aus dem Originalbild B0, die mit großer Wahrscheinlichkeit zumindest zeitweise oder aktuell bewegte Objekte sind, da diese im Binärbild B5 schwarz dargestellt sind, d. h. den Pixelwert „0” haben. B5 entspricht also einem Binärbild, das frei von sich aktuell oder zeitweise bewegenden Objekten ist. Somit wird durch die Multiplikation mit dem Originalbild B0 das Bild B6 erhalten, welches größtenteils dem Originalbild entspricht, jedoch maskierte aktuell oder zeitweise bewegte Objekte aufweist. Die im Bild B6 nicht maskierten sondern als Grauwerte dargestellten Bereiche stellen dann die mittels Nachführung zu aktualisierenden Bildausschnitte dar, die das Hintergrundbild repräsentieren. B6 ist dann also ebenfalls frei von sich aktuell oder zeitweise bewegenden Objekten.
  • Die vorangehend verwendeten Binär- oder Grauwertbilder sind dabei jeweils als Folge zeitlich aufeinander folgender Bilder zu verstehen. So entspricht beispielsweise B6 einer Folge von B6(tk) mit k = 0 bis k = n, wenn die Bilder bis zum Zeitpunkt t = tn = t0 + n Δ betrachtet werden. Dabei ist tn der Anfangszeitpunkt der Beobachtung und Δ die Zeitdifferenz von Aufnahme zur Aufnahme. Analog sind die zeitlichen Folgen für B1 bis B5 zu verstehen.
  • Weiter wird aus einem zeitlich aufsummierten Hintergrundbild B7(tm) durch Normierung auf ein Normierungsbezugsbild B8(tm) mittels Bildung des Quotienten [B7(tm)]/B8(tm) ein zum Zeitpunkt tm aktualisiertes Hintergrundbild bildh(tm) erzeugt. Durch eine Summation derjenigen Flächen, die von sich bewegenden Objekten frei sind, und eine Summation der zu diesen Flächen gehörenden Bildteile wird eine Zuordnung von Fläche und Bildinhalt geschaffen, so dass durch Division der beiden Summen stets eine flächen- bzw. pixelgenaue Normierung garantiert ist und somit Hintergrundteile, die von sich bewegenden Objekten frei sind, von Zeitschritt zu Zeitschritt nachgeführt, d. h. aktualisiert werden können. Das Hintergrundbild zum aktuellen Zeitpunkt tm ergibt sich dann aus dem momentanen Quotienten zum Zeitpunkt tm mittels der Gleichung bildh(tm) = [B7(tm)]/B8(tm), wobei die Werte von t0 bis tm aufaddiert sind. Nachdem mittels B5 bzw. B6 die einzelnen Bereiche ermittelt wurden, die zu jedem Zeitpunkt frei von sich aktuell oder zeitweise bewegenden Objekten sind, werden diese Informationen benutzt, um die Veränderungen des Hintergrundes nachzuführen, d. h. das Hintergrundbild zu aktualisieren. Diese Veränderungen können beispielsweise Helligkeitsschwankungen (z. B. Wolkenabschattung, Sonnenaufgang, Sonnenuntergang), Veränderungen auf einer Straße (Schneematsch, Ölflecken, von Fahrzeugen verlorene Teile), Reflexionen (Öffnen von Fenstern, Sunglitter) oder größere Änderungen in einem Fahrbahnbereich (Unfälle, Leiter zur Reparatur) sein. Zur Nachführung, d. h. zur Erzeugung des aktualisierten Hintergrundbildes werden die Grauwerte der einzelnen ausgewählten Pixel in den für den Hintergrund als relevant identifizierten Bereichen aufsummiert. Gleichzeitig wird die Anzahl der summierten Werte eines jeden Pixels über Summation bestimmt. Da die Teilgebiete, welche den Hintergrund bilden, von beliebiger Form oder Größe sein können und ggf. auch lediglich einzelne Pixel betreffen konnen, ist eine richtige Normierung Voraussetzung für die Verwendung dieses Nachführungspnnzips. Vorzugsweise werden dazu stets die entsprechenden Normierungen für jeden Bildpunkt anhand des Normierungsbezugsbilds B8(tm) berechnet.
  • Dabei wird das zeitlich aufsummierte Hintergrundbild B7(tm) durch Summation von zeitlich aufeinander folgenden Hintergrundbildern B8(tm) ermittelt. Für die für den Hintergrund relevanten Bildbestandteile ergibt sich dann die Folge der zum Hintergrundbild B7(tm) zusammengefassten Bilder über die Gleichung B7(tm) = B6(tm) + B7(tm-1).
  • Weiter wird das Normierungsbezugsbild B8(tm) durch Summation von zeitlich aufeinander folgenden Binärbildern B5(tm) ermittelt. Das Normierungsbezugsbild B8(tm) kann somit in einfacher Weise parallel zur Bestimmung von B7(tm) durch Aufsummieren des vorzugsweise bereits auf den Wert „1” normierten Binärbilds B5 erfolgen. Dabei ergeben sich die zusammengefassten zeitlich aufeinander folgenden Bilder B8 über die Gleichung B8(tm) = B5(tm) + B8(tm-1).
  • In einer vorteilhaften Ausführungsform erfolgt das Identifizieren von sich aktuell bewegenden Objekten durch Bildung von Pixelwertdifferenzen zwischen zeitlich aufeinander folgenden Bildern und nachfolgende Quadrierung der Differenzwerte. Bewegte Objekte losen dabei in gleichen Bildpunkten von zeitlich aufeinander folgenden Bildern Grauwertdifferenzen aus, während Bildpunkte mit unbewegten Objekten oder reinem Hintergrund in zeitlich aufeinander folgenden Bildern keine unterschiedlichen Grauwerte besitzen und demnach deren Differenz Null ist. Dadurch heben sich alle bewegten Objekte dann mit einem vergleichsweise hohen Grauwert, welcher aufgrund der durchgeführten Quadrierung in die Nähe des maximalen Grauwerts, d. h. dem weißen Pegel, gerückt wurde, gegenüber dem schwarzen Hintergrund hervor. Die Erzeugung des quadrierten Differenzbildes Bq erfolgt dabei vorzugsweise in Echtzeit mittels der Gleichung Bq = [Borig(tn) – Borig(tn-1)]2
  • Dabei werden die bewegten Objekte zum Zeitpunkt tn und tn-1, hervorgehoben.
  • Dabei erfolgt das Maskieren der identifizierten Objekte durch Erzeugen eines Binärbildes B1 mit Hilfe eines Schwellwertes S1, wobei denjenigen Bildpunkten, die einen größeren Pixelwert als S1 aufweisen, ein höchstmöglicher Pixelwert und den anderen Bildpunkten der Pixelwert „0” neu zugeordnet wird und der Schwellwert S1 kleiner ist als der niedrigste Pixelwert in den Bildbereichen, die die identifizierten Objekte enthalten. Da in Binärbildern gemäß üblicher Konvention nur die Werte „0” und „1” vorkommen, beträgt demnach dann der höchstmögliche Pixelwert stets „1”. Die Höhe des Schwellwertes S1 wird vorzugsweise anhand eines Histogramms des quadrierten Differenzbildes Bq festgelegt. S1 kann dabei beispielsweise 60% des ersten oder zweiten Grauwertmaximums betragen oder aber z. B. anhand des Mittelwerts der vorhandenen Grauwerte festgelegt werden. Mit Hilfe des somit erzeugten Binärbilds der bewegten Objekte lassen sich die weiteren Rechenoperationen zur Bestimmung und Nachführung des Hintergrundbildes in besonders einfacher und zuverlässiger Weise durchführen. Die Binarisierung mittels des Schwellwerts S1 erfolgt gemäß der Gleichung B1 = [Bq > S1 < (S1 + 1)] – S1
  • Auf diese Weise werden im Binärbild B1 jeweils Flächen maskiert, d. h. vorzugsweise schwarz dargestellt, die größer als die betreffenden bewegten Objekte sind, da bewegte Objekte nicht nur zum ersten Zeitpunkt tn sondern auch zum zweiten Zeitpunkt tn-1 in dem Differenzbild hervorgehoben werden.
  • In einer weiteren vorteilhaften Ausführungsform erfolgt das Identifizieren von zumindest temporär bewegten und/oder zumindest zeitweise stehenden Objekten durch Bildung mindestens zweier Glättungen G1 und G2 des Originalbilds B0 mittels verschieden großer Glättungsparameter p1 und p2 sowie nachfolgender Differenzbildung der Glättungen G1 und G2 und Quadrierung der Differenzwerte. Die somit durchgeführte Ermittlung von Texturunterschieden im aufgenommenen Originalbild B0 wird demnach anhand der folgenden Gleichung durchgeführt: BTextur = [G1(p1, B0) – G2(p2, B0)]2.
  • Auf diese Weise können insbesondere im Falle von Verkehrsbildern Objekte, d. h. Verkehrsteilnehmer, die zumindest zeitweise stehen, und daher nicht aufgrund von Pixelwertdifferenzen identifiziert werden können, mit Hilfe einer Texturanalyse vergleichsweise einfach und zuverlässig vom Straßenhintergrund isoliert werden. Es ist dabei auch vorstellbar, dass das in der Gleichung zur Ermittlung der Texturunterschiede verwendete Bild G1 eigentlich das ungeglättete Bild B0 ist. In diesem Falle ist dann der Glattungsfaktor p1 = 1.
  • In einer weiteren vorteilhaften Ausführungsform erfolgt das Maskieren der identifizierten Objekte durch Erzeugen eines Binärbildes B2 mit Hilfe eines Schwellwertes S2, wobei denjenigen Bildpunkten, die einen größeren Pixelwert als S2 aufweisen, ein höchstmöglicher Pixelwert und den anderen Bildpunkten der Pixelwert „0” neu zugeordnet wird und der Schwellwert S2 kleiner ist als der niedrigste Pixelwert in den Bildbereichen, die die identifizierten Objekte enthalten. Auch für B2 beträgt der höchstmögliche Pixelwert in der Regel „1”, da in Binärbildern gemäß üblicher Konvention nur die Werte „0” und „1” vorkommen. Mit Hilfe des somit erzeugten Binärbilds B2 der zumindest zeitweise stehenden Objekte lassen sich die weiteren Rechenoperationen zur Bestimmung und Nachführung des Hintergrundbildes in besonders einfacher und zuverlässiger Weise durchführen. Die Binarisierung mittels des Schwellwerts S2 erfolgt gemäß der Gleichung B2 = [BTextur > S2 < (S2 + 1)] – S2 bzw B2 = [(G1(p1, B0) – G2(p2, B0))2 > S2 < (S2 + 1)] – S2.
  • In einer weiteren vorteilhaften Ausführungsform erfolgt eine Vergrößerung der in B2 identifizierten Objekte durch Glättung und nachfolgende Binarisierung mittels eines Schwellwerts SG und/oder durch morphologische Operatoren. Durch eine solche Vergrößerung kann sichergestellt werden, dass die vorangehend maskierten Bereiche B2 keine Ränder bzw. Schatten von Objekten enthalten. Die Vergrößerung der im Binärbild B2 maskierten Bereiche erfolgt zunächst über ein „Verschmieren” der Ränder der identifizierten Objekte mittels Glättung („smooth operation”). Dadurch entstehen an den äußeren Rändern der Konturen derjenigen Bereiche, die identifizierte Objekte enthalten, Pixelwerte größer Null, die vorher im Binärbild Null waren. Wird nach Anwendung dieser Glättungsoperation auf das Binärbild B2 das geglättete Binärbild dann mittels eines Schwellwerts SG, der kleiner als 1 zu wählen ist, erneut binarisiert, so werden damit die Bereiche, die die identifizierten Objekte enthalten, vergrößert. Es ist des Weiteren auch vorstellbar, dass andere Verfahren zur Randglättung sowie morphologische Operatoren, beispielsweise Erosion und/oder Dilatation, zur Vergrößerung der in B2 identifizierten binären Flachen benutzt werden.
  • In einer weiteren vorteilhaften Ausführungsform wird das Binärbild BV der lediglich zeitweise stehenden Objekte aus der Differenz des Binärbilds B2, welches die zumindest temporär bewegten und/oder zumindest zeitweise stehenden Objekte darstellt, und eines Binärbilds B3, welches die dauerhaft stehenden Objekte darstellt, ermittelt. Hierfür gilt also die Gleichung BV = B2 – B3.
  • Auf diese Weise können von den im Binärbild B2 dargestellten mittels Texturanalyse ermittelten Objekten, die unabhängig davon erfasst werden, ob sie sich bewegen oder nicht, in Form von B3 diejenigen Objekte ausgenommen werden, die sich zu keiner Zeit bewegen und demnach mit großer Wahrscheinlichkeit fest installierte Objekte, beispielsweise Büsche, Schilder, etc., und somit dem Hintergrund zuzurechnen sind. BV liefert somit eine möglichst exakte binäre Darstellung derjenigen Objekte, die sich zumindest zeitweise bewegen und somit nicht Bestandteil des Hintergrundbildes sind.
  • In einer weiteren vorteilhaften Ausführungsform wird das Binärbild B3 durch Mittelwertbildung von zeitlich aufeinander folgenden Grauwertbildern G(tk) der lediglich zeitweise und/oder dauerhaft stehenden Objekte über der Zeit T sowie nachfolgendem Vergleich des Mittelwerts mit dem ursprünglichen Grauwertbild G(t0) der lediglich zeitweise und/oder dauerhaft stehenden Objekte durch Differenzbildung sowie nachfolgendem Ersetzen der unterhalb einer Schwelle S3 gelegenen Differenzwerte durch den Mittelwert der zeitlich aufeinander folgenden Grauwertbilder G(tk) über der Zeit T ermittelt. Dies erfolgt anhand der folgenden Gleichung
    Figure 00110001
  • Dabei wird berücksichtigt, dass bei der Texturanalyse zur Erzeugung von B2 neben den tatsächlich interessierenden bewegten Objekten auch dauerhaft stehende Objekte unterschiedlicher Textur, z. B. Büsche, Reklametafeln, etc., als Objekte erkannt werden. Damit letztere nicht den bewegten Objekten, sondern dem Hintergrund zugeordnet werden können, werden die Grauwerte der anhand von B2 zu verschiedenen aufeinander folgenden Zeitpunkten tk ermittelten Objekt-Bildbereiche der mittels Texturanalyse ermittelten Objekte über einem Zeitraum T aufsummiert und nachfolgend mit den Grauwerten der aus B2 zum Zeitpunkt t0 ermittelten Objekt-Bildbereiche verglichen. Hierbei ist der Zeitraum T so zu wählen, dass er jenseits desjenigen Zeitraums liegt, den ein sich zumindest zeitweise bewegendes Objekt maximal bewegungslos verharrt. Handelt es sich bei den Bildern um Verkehrsbilder und bei den bewegten Objekten beispielsweise um Fahrzeuge, so kann sich die Zeit T beispielsweise an der Periode der Ampelumschaltung orientieren, so dass T jenseits derjenigen Zeit liegt, die ein Fahrzeug maximal an der Ampel steht. Diejenigen Bereiche, die sich während des Zeitraums T nicht oder nur sehr unwesentlich ändern, werden nach der Zeit T durch den Mittelwert MT über der Zeit T ersetzt. Der Mittelwert MT über der Zeit T berechnet sich anhand der Formel
    Figure 00110002
  • Damit die sich kaum oder gar nicht ändernden Bereiche durch den Mittelwert MT über der Zeit T ersetzt werden, muss die Bedingung erfüllt sein, dass B3 kleiner als die vorgegebene Schwelle S3 ist Die Schwelle S3 ist dabei vorzugsweise bei etwa einem Zwanzigstel des mittleren Grauwertpegels des ausgewählten Gebietes festzulegen. Das Unterschreiten der Schwelle S3 durch B3 wird über den gesamten Bildbereich von B2 untersucht, indem B3 über das Gesamtbild bestimmt wird.
  • In einer weiteren vorteilhaften Ausführungsform wird ein verfeinert aktualisiertes Hintergrundbild BildHintergr(tm) durch Addition einer aktuellen Objekt-Bildbereichsänderung Bobjekt zum aktualisierten Hintergrundbild bildh(tm) erzeugt, wobei die Objekt-Bildbereichsänderung Bobjekt durch Multiplikation des Komplementärbilds des Binärbilds B5 mit dem zum Zeitpunkt tm-1 vorangegangenen verfeinert aktualisierten Hintergrundbild BildHintergr(tm-1) ermittelt wird. Da die Bildbereichsänderung Bobjekt ermittelt wird über die Gleichung Bobjekt = (1 – B5)·BildHintergr(tm-1) ergibt sich das verfeinert aktualisierte Hintergrundbild BildHintergr(tm) demnach über die Gleichung BildHintergr(tm) = bildh(tm) + (1 – B5)·BildHintergr(tm-1),
  • Um sicher zu stellen, dass stets ein ausreichend verwertbares Hintergrundbild vorhanden ist, wird über eine hinreichende lange Zeit, im Falle von Verkehrsbildern beispielsweise zwei Lichtwechsel der Ampelanlage, ein Hintergrundbild BildorigHintergr von ausreichender Qualität aufgebaut, bevor dann erst mit dem Algorithmus zum Nachführen der Veränderungen des Hintergrunds begonnen wird. Dabei bleiben jedoch alle Flächen, die nicht mittels Nachführung über B8 aktualisiert werden, unverändert so wie sie vorher erhalten wurden, so dass zwar bildh(tm) die pixelweise aufaddierten Veränderungen widerspiegelt, während jedoch erst BildHintergr(tm) das Gesamtbild aus veränderten und nicht veranderten Bildteilen des Hintergrundbilds, das momentan verwendet wird, wiedergibt.
  • In einer weiteren vorteilhaften Ausführungsform erfolgt mittels unterschiedlicher Wichtungsfaktoren eine unterschiedliche Wichtung von Pixelwerten zeitlich vorangeganger und zeitlich nachfolgender digitaler Bildinformationen. So kann beispielsweise über einen Wichtungsfaktor const < 1 das Verhältnis der Wichtung der Vergangenheit zur Gegenwart bestimmt werden, d. h. eine Art „Gedächtnis” bezüglich vorangegangener Bildsituationen festgelegt werden, wobei dann vorzugsweise gilt Neuer Wert = const·alter Wert + (1 – const)·gerade gemessener Wert.
  • In einer weiteren vorteilhaften Ausführungsform wird aus der Summation quadrierter Differenzen von zeitlich aufeinander folgenden Bildern anhand eines Schwellwerts S4 ein Binärbild Bbewegl derjenigen Fläche erzeugt, die über den Zeitraum tl bewegte Objekte enthält, und das Komplementärbild des Binärbilds Bbewegt wird nachfolgend mit dem aktualisierten Hintergrundbild BildHintergr(tm) multipliziert. Durch Aufsummieren der über lange Zeitperioden gebildeten quadrierten Differenzen der Originalbilder sowie Anwendung einer Schwelle S4 wird ein zu der bewegungsaktiven Fläche komplementärer Bereich ermittelt, innerhalb dessen schnelle Änderungen im Hintergrundbild berücksichtigt, d. h. unterdrückt werden können. Durch Bestimmung des Komplementärbilds der bewegungsaktiven Fläche kann somit eine Erhöhung der Zuverlässigkeit der Information über den Hintergrund erzielt werden, insbesondere bei schnellen Veränderungen, die keine relevanten bewegten Objekte betreffen (beispielsweise Vogelflug o. ä.), sondern lediglich Artefakte darstellen. Dabei ermittelt man das Binärbild Bbewegt der bewegungsaktiven Fläche aus der über einen vergleichsweise langen Zeitraum erfolgenden Summation der Differenzen aufeinander folgender Bilder mit Hilfe der Gleichung
    Figure 00130001
  • Von diesem Binärbild Bbewegt wird dann ein komplementäres Bild (1 – Bbewegt) erzeugt, bei welchem die nicht bewegungsaktiven Flächen den Pixelwert „1” und alle anderen Flächen den Pixelwert „0” annehmen. Durch Multiplikation des Bildes zum Auffinden des Hintergrundes BildHintergr(tm) mit dem Komplementärbild (1 – Bbewegt) können Fehlentscheidungen im Bereich des somit vereinfachend angenommenen Hintergrundbildes (d. h. im Bereich des mit dem Komplementärbild (1 – Bbewegt) multiplizierten Originalbilds B0), die auf sehr schnellen Änderungen beruhen und lediglich unerwünschte Artefakte erzeugen, unterdrückt werden.
  • Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erlautert. In den zugehörigen Zeichnungen zeigen
  • 1 eine schematische Darstellung des Verfahrensabschnitts zur Erzeugung der Teilflächen zur Ermittlung der Hintergrundfläche und
  • 2 eine schematische Darstellung des Verfahrensabschnitts zur Ermittlung des aktuellen Hintergrundbildes durch Nachführung.
  • 1 zeigt eine schematische Darstellung eines Teilabschnitts des erfindungsgemäßen Verfahrens, der zur Erzeugung von Teilflächen zur Ermittlung der Hintergrundfläche eines Digitalbilds, vorzugsweise eines Verkehrsbilds, mit zumindest zeitweise beweglichen Objekten, z. B. Verkehrsteilnehmem, dient. Um den Hintergrund des Digitalbilds, welches anfangs als Originalbild B0 zum Zeitpunkt t0 vorliegt, entsprechend ggf. eingetretener Änderungen der äußeren Bedingungen auf den aktuellen Zustand nachzuführen und zu aktualisieren, werden zunächst zu jedem Zeitpunkt alle diejenigen Flächen des Digitalbilds ermittelt, die lediglich Hintergrund enthalten und frei von zumindest zeitweise bewegten Objekten sind. Dazu wird jedes Teilgebiet des Originalbildes B0 ermittelt, das gerade frei von einem sich bewegenden Objekt ist, welches dann zur Bestimmung des aktualisierten Hintergrundbildes beitragen kann. Das Identifizieren von sich aktuell bewegenden Objekten erfolgt durch Quadrierung von Pixelwertdifferenzen zwischen zeitlich aufeinander folgenden Originalbildern B0(tn) und B0(tn-1). Für die Erzeugung des quadrierten Differenzbildes Bq gilt dabei Bq = [B0(tn) – B0(tn-1)]2. Die identifizierten Objekte werden dann ”maskiert”, indem zu diesem Zweck Flächen um die aktuell identifizierten Objekte gebildet werden, welche den Wert „0” haben und somit von der Bildung des Hintergrundbildes ausgeschlossen werden. Das Maskieren der identifizierten Objekte erfolgt mit Hilfe eines Schwellwertes S1 durch Erzeugen eines Binärbildes B1. Dabei wird denjenigen Bildpunkten, die einen größeren Pixelwert als S1 aufweisen, der Pixelwert „1” und den anderen Bildpunkten der Pixelwert „0” neu zugeordnet. Die Höhe des Schwellwertes S1 wird beispielsweise anhand des Histogramms des quadrierten Differenzbildes Bq festgelegt, wobei S1 z. B. 60% des ersten oder zweiten Grauwertmaximums betragen kann. Der Schwellwert S1 ist dabei vorzugsweise kleiner als der niedrigste Pixelwert in den Bildbereichen, die die identifizierten Objekte enthalten. Für die Binarisierung des quadrierten Differenzbildes Bq mittels des Schwellwerts S1 gilt B1 = [Bq > S1 < (S1 + 1)] – S1. Des Weiteren erfolgt eine Ermittlung von Texturunterschieden im aufgenommenen Originalbild B0, da davon ausgegangen wird, dass die bewegten Objekte, d. h. z. B. Verkehrsteilnehmer, keine solche gleichförmige Struktur besitzen, sondern beispielsweise Räder, Scheiben, etc. aufweisen, welche die Gleichförmigkeit der Textur verletzen. Auf diese Weise können dann zumindest temporär bewegte und/oder zumindest zeitweise stehende Objekte identifiziert werden. Dies erfolgt durch Bildung einer Glättung G2(p2, B0) des Originalbilds B0(t0) mittels eines Glättungsparameters p2. Des Weiteren wird ein von G2 verschiedenes Glättungsbild G1 verwendet, welches einen von p2 verschiedenen Glättungsparameter p1 aufweist (nicht dargestellt). Im vorliegenden Fall ist jedoch der Glättungsfaktor p1 = 1, weswegen das zur Ermittlung der Texturunterschiede verwendete Bild G1 das ungeglättete Bild B0 ist. Nachfolgend werden zur Bildung des Texturanalysebildes BTextur die Differenzen der Glättungen G1 (bzw. B0) und G2 gebildet und die Differenzwerte quadriert. Dabei gilt für Btextur = [G1(p1, B0) – G2(p2, B0)]2 bzw. BTextur = [B0 – G2(p2, B0)]2. Dann erfolgt das Maskieren der mittels Texturanalyse identifizierten Objekte durch Erzeugen eines Binärbildes B2 mit Hilfe eines Schwellwertes S2, wobei gilt B2 = [BTextur > S2 < (S2 + 1)] – S2. Dabei wird denjenigen Bildpunkten, die einen größeren Pixelwert als S2 aufweisen, der Pixelwert „1” und den anderen Bildpunkten der Pixelwert „0” neu zugeordnet. Der Schwellwert S2 ist dabei vorzugsweise kleiner als der niedrigste Pixelwert in den Bildbereichen, die die identifizierten Objekte enthalten.
  • Über die Ermittlung der Bewegung von Objekten mittels Differenzbildung können somit zunächst sämtliche Flächen ausgeblendet werden, in denen sich Objekte bewegen oder gerade bewegt haben. Zudem werden diejenigen Flächen, die sich von der gleichförmigen Textur beispielsweise einer Straße unterscheiden, mittels Texturanalyse ausgeblendet Alle anderen Flächen werden dann für die Bestimmung bzw. die sukzessive Anpassung des Hintergrundes herangezogen. Das „Ausblenden” erfolgt durch Bildung eines Komplementärbilds (1 – B1) des Binärbilds B1 der bewegten Objekte und eines Komplementärbilds (1 – Bv) eines Binärbilds BV der lediglich zeitweise stehenden Objekte sowie eine nachfolgende OR-Verknüpfung dieser Komplementärbilder (1 – B1) bzw. (1 – BV) von B1 und BV. Diese komplementären binären Flächen werden mittels einer OR-Verknüpfung summiert Dabei wird ein Binärbild B4 der Hintergrundfläche des Digitalbilds erzeugt. Mit B4 erhält man die komplementären Flächen aller derjenigen Flächen, die momentan für neue Anpassungen des Hintergrundes benutzt werden. Dabei gilt B4 = [1 – BV] OR [1 – B1]. Die Berechnung von B4 erfolgt dabei vorzugsweise iterativ, was in 1 durch den rechten Pfeil neben der Größe B4 angedeutet ist. Entspricht das die lediglich zeitweise stehenden Objekte darstellende Binärbild BV im Wesentlichen dem Binärbild B2, insbesondere wenn nahezu oder gar keine permanent stehenden Objekte unterschiedlicher Textur im Bild vorhanden sind, so kann auf einen zusätzlichen Verfahrensschritt zur Ermittlung von BV verzichtet und stattdessen B2 verwendet werden. Entspricht BV jedoch nicht B2, so wird das Binärbild BV der lediglich zeitweise stehenden Objekte aus der Differenz des Binärbilds B2, welches die zumindest temporär bewegten und/oder zumindest zeitweise stehenden Objekte darstellt, und eines Binärbilds B3, welches die dauerhaft stehenden Objekte darstellt, ermittelt. Hierfür gilt BV = B2 – B3. Zur Ermittlung von B3 werden die Grauwerte der zu verschiedenen aufeinander folgenden Zeitpunkten tk anhand von B2 ermittelten Objekt-Bildbereiche der mittels Texturanalyse ermittelten Objekte über einem Zeitraum T aufsummiert und nachfolgend mit den Grauwerten der aus B2 zum Zeitpunkt t0 ermittelten Objekt-Bildbereiche verglichen. Das Binärbild B3 wird dabei durch Mittelwertbildung von zeitlich aufeinander folgenden Grauwertbildem G(tk) = B0(tk)·B2(tk) der lediglich zeitweise und/oder dauerhaft stehenden Objekte über der Zeit T sowie nachfolgender Differenzbildung aus dem Mittelwert und dem ursprünglichen Grauwertbild G(t0) = B0(t0)·B2(t0) der lediglich zeitweise und/oder dauerhaft stehenden Objekte sowie nachfolgendem Ersetzen der unterhalb einer Schwelle S3 gelegenen Differenzwerte durch den Mittelwert der zeitlich aufeinander folgenden Grauwertbilder G(tk) über der Zeit T ermittelt. Dabei gilt
    Figure 00160001
  • Diejenigen Bereiche, die sich während des Zeitraums T nicht oder nur sehr unwesentlich ändern, werden nach der Zeit T durch den Mittelwert MT über der Zeit T ersetzt, wobei für den Mittelwert MT über der Zeit T gilt:
    Figure 00160002
    Als Bedingung zum Ersetzen der sich nicht oder nur geringfügig ändernden Bereiche durch den Mittelwert MT über der Zeit T muss erfüllt sein, dass B3 kleiner als die vorgegebene Schwelle S3 ist. Die Schwelle S3 ist dabei beispielsweise bei etwa einem Zwanzigstel des mittleren Grauwertpegels des ausgewählten Gebietes festzulegen. Das Unterschreiten der Schwelle S3 durch B3 wird über den gesamten Bildbereich von B2 untersucht, indem B3 über das Gesamtbild bestimmt wird.
  • 2 zeigt eine schematische Darstellung eines weiteren Teilabschnitts des erfindungsgemäßen Verfahrens, der zur Ermittlung des aktuellen Hintergrundbildes durch Nachführung dient. Anhand der nach dem in 1 dargestellten Verfahrensabschnitt ermittelten Hintergrundfläche wird dann in dem in 2 dargestellten weiteren Verfahrensschritt das Hintergrundbild aus dem Originalbild zum Zeitpunkt tm übemommen und zum Zwecke der Aktualisierung entsprechend der erfolgten Änderungen gegenüber dem vorangegangenen Bild korrigiert. Für die Aktualisierung erfolgt zunächst eine Summation (nicht dargestellt) der binären Bildanteile B1 und B2 unter Einbeziehung von B3, wodurch ein Binärbild B5(tk) entsteht. Das Binärbild B5(tk) der Hintergrundfläche des Digitalbilds wird dabei durch Bildung des Komplementärbilds der maskierten Flächen bewegungsaktiver Objekt-Bildbereiche, welche die zumindest temporär beweglichen Objekte umfassen, ermittelt, wobei die bewegungsaktiven Objekt-Bildbereiche durch eine OR-Verknüpfung des Binärbilds B1 der bewegten Objekte und eines Binärbilds BV der lediglich zeitweise stehenden Objekte ermittelt werden (nicht dargestellt). Dabei gilt B5 = 1 – [B1 OR BV]. In B5(tk) sind dann alle diejenigen Gebiete des Digitalbildes mit dem Wert 1 belegt, für die eine Nachführung der Helligkeit sowie andere Veränderungen des Bildes, die nicht in der Bewegung der Objekte, z. B. dem Verkehr, ihre Ursache haben, möglich ist. Aus den erhaltenen binären Bildern B1 und BV, die über eine OR-Verknüpfung zu B5(tk) zusammengefasst wurden, wird durch Multiplikation mit dem Originalbild B0 ein beliebig „zerpflücktes” Hintergrundbild B6 erzeugt, welches eine Grauwertdarstellung der Hintergrund-Bildbereiche wiedergibt, die von zumindest potenziell beweglichen Objekten frei sind, sowie die Maskierungsflächen der Objekt-Bildbereiche enthält. Es gilt also für die Ermittlung des Hintergrundbildes B6 = B5·B0. Dadurch werden diejenigen Gebiete aus dem Originalbild B0 ausgelöscht, die mit großer Wahrscheinlichkeit zumindest zeitweise oder aktuell bewegte Objekte sind.
  • Des Weiteren wird ein zeitlich aufsummiertes Hintergrundbild B7 durch Summation von zeitlich aufeinander folgenden Hintergrundbildern B6, jeweils zum Zeitpunkt tk, ermittelt. Für die Folge der zum Hintergrundbild B7 zusammengefassten Bilder gilt B7(tk) = B6(tk) + B6(tk-1). Parallel dazu wird ein Normierungsbezugsbild B8 durch Summation von zeitlich aufeinander folgenden und naturgemäß bereits auf den Wert „1” normierten Binärbildern B5(tk) ermittelt. Dabei gilt für die zusammengefassten zeitlich aufeinander folgenden Bilder B8(tk) = B5(tk) + B8(tk-1). Aus dem zeitlich aufsummierten Hintergrundbild B7 wird durch Normierung auf das Normierungsbezugsbild B8 mittels Division, d. h. Bildung des Quotienten [B7(tk)]/B8(tk), ein zum Zeitpunkt tk aktualisiertes Hintergrundbild bildh(tk) erzeugt. Für das Hintergrundbild zum aktuellen Zeitpunkt tk gilt dann also bildh(tk) = [B7(tk)]/B8(tk), wobei die Werte von t0 bis tk aufaddiert sind. Nachdem mittels B5 bzw. B6 die einzelnen Bereiche ermittelt wurden, die zu jedem Zeitpunkt frei von sich aktuell oder zeitweise bewegenden Objekten sind, werden diese Informationen dann benutzt, um die Veränderungen des Hintergrundes nachzuführen, d. h. das Hintergrundbild zu aktualisieren.
  • Ein verfeinert aktualisiertes Hintergrundbild BildHintergr(tk) kann zudem durch Addition einer aktuellen Objekt-Bildbereichsänderung Bobjekt (nicht dargestellt) zum aktualisierten Hintergrundbild bildh(tk) erzeugt werden, wobei dann die Objekt-Bildbereichsänderung Bobjekt durch Multiplikation des Komplementärbilds des Binärbilds B5 mit dem zum Zeitpunkt tk-1 vorangegangenen verfeinert aktualisierten Hintergrundbild BildHintergr(tm-1) ermittelt wird. Es gilt für die Bildbereichsänderung Bobjekt = (1 – B5)·BildHintergr(tk-1). Dementsprechend berechnet sich dann das (nicht dargestellte) verfeinert aktualisierte Hintergrundbild BildHinlergr als BildHintergr(tk) = bildh(tk) + (1 – B5)·BildHintergr(tk-1).

Claims (10)

  1. Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild aus einer zeitlichen Folge von Digitalbildern mit zumindest temporär bewegten Objekten, umfassend zumindest die Schritte a) Auffinden von Flächen, welche mit großer Wahrscheinlichkeit sich zumindest temporär bewegende Objekte enthalten, durch a1) Identifizieren von Objekt-Bildbereichen, welche Objekte enthalten, die sich zumindest temporär bewegen, durch Ermittlung von Texturunterschieden innerhalb mindestens eines Bildes und Maskieren der identifizierten Objekt-Bildbereiche durch Bildung von Maskierungsflächen BV, die zumindest die Objekt-Bildbereiche umfassen, und a2) Identifizieren von Objekt-Bildbereichen (Bq), welche Objekte enthalten, die sich aktuell bewegen, durch Ermittlung von Pixelwertdifferenzen zwischen zeitlich aufeinander folgenden Bildern und Maskieren der identifizierten Objekt-Bildbereiche durch Bildung von Maskierungsflächen B1, die zumindest die Objekt-Bildbereiche umfassen, wobei a3) die Pixelwerte der von den jeweiligen Maskierungsflächen enthaltenen Bildpunkte auf ein Maximum oder auf Null gesetzt werden, b) Aktualisieren des Hintergrundes des Digitalbilds durch Überlagern zumindest derjenigen Bildbereiche zeitlich aufeinander folgender Bilder, die keine Maskierungsflächen beinhalten und somit der Hintergrundfläche zugeordnet sind, indem b1) ein Binärbild B5 der Hintergrundfläche des Digitalbilds durch Bildung des Komplementärbilds der maskierten Flächen bewegungsaktiver Objekt-Bildbereiche, welche die zumindest temporär beweglichen Objekte umfassen, ermittelt wird, wobei die bewegungsaktiven Objekt-Bildbereiche durch eine OR-Verknüpfung eines Binärbilds B1 der bewegten Objekte und eines Binärbilds BV der lediglich zeitweise stehenden Objekte ermittelt werden, b2) ein Hintergrundbild B6, welches eine Grauwertdarstellung der Hintergrund-Bildbereiche, die von zumindest potenziell beweglichen Objekten frei sind, sowie die Maskierungsflächen der Objekt-Bildbereiche enthält, durch Multiplikation des Binärbilds B5 der Hintergrundfläche des Digitalbilds mit einem Originalbild B0 erzeugt wird, b3) das zeitlich aufsummierte Hintergrundbild B7(tm) durch Summation von zeitlich aufeinander folgenden Hintergrundbildern B6(tm) ermittelt wird, b4) das Normierungsbezugsbild B8(tm) durch Summation von zeitlich aufeinander folgenden Binärbildern B5(tm) ermittelt wird, und b5) aus einem zeitlich aufsummierten Hintergrundbild B7(tm) durch Normierung auf ein Normierungsbezugsbild B8(tm) mittels Bildung des Quotienten [B7(tm)]/B8(tm) ein zum Zeitpunkt tm aktualisiertes Hintergrundbild bildh(tm) erzeugt wird, das den aktuellen Hintergrund darstellt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Identifizieren von sich aktuell bewegenden Objekten durch Bildung von Pixelwertdifferenzen zwischen zeitlich aufeinander folgenden Bildern und nachfolgende Quadrierung der Differenzwerte erfolgt, wobei das Maskieren der identifizierten Objekte durch Erzeugen des Binärbildes B1 mit Hilfe eines Schwellwertes S1 erfolgt, wobei denjenigen Bildpunkten, die einen größeren Pixelwert als S1 aufweisen, ein höchstmöglicher Pixelwert und den anderen Bildpunkten der Pixelwert „0” neu zugeordnet wird und der Schwellwert S1 kleiner ist als der niedrigste Pixelwert in den Bildbereichen, die die identifizierten Objekte enthalten.
  3. Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass das Identifizieren von zumindest temporär bewegten und/oder zumindest zeitweise stehenden Objekten durch Bildung mindestens zweier Glättungen G1 und G2 des Originalbilds mittels verschieden großer Glättungsparameter p1 und p2 sowie nachfolgender Differenzbildung der Glättungen G1 und G2 und Quadrierung der Differenzwerte erfolgt.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das Maskieren der identifizierten Objekte durch Erzeugen eines Binärbildes B2 mit Hilfe eines Schwellwertes S2 erfolgt, wobei denjenigen Bildpunkten, die einen größeren Pixelwert als S2 aufweisen, ein höchstmöglicher Pixelwert und den anderen Bildpunkten der Pixelwert „0” neu zugeordnet wird und der Schwellwert S2 kleiner ist als der niedrigste Pixelwert in den Bildbereichen, die die identifizierten Objekte enthalten.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass eine Vergrößerung der in B2 identifizierten Objekte durch Glättung und nachfolgende Binarisierung mittels eines Schwellwerts SG und/oder durch morphologische Operatoren erfolgt.
  6. Verfahren nach einem der Ansprüche 4 oder 5, dadurch gekennzeichnet, dass das Binärbild BV der lediglich zeitweise stehenden Objekte aus der Differenz des Binärbilds B2, welches die zumindest temporär bewegten und/oder zumindest zeitweise stehenden Objekte darstellt, und eines Binärbilds B3, welches die dauerhaft stehenden Objekte darstellt, ermittelt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass das Binärbild B3 durch Mittelwertbildung MT von zeitlich aufeinander folgenden Grauwertbildern G(tk) der lediglich zeitweise und/oder dauerhaft stehenden Objekte über der Zeit T sowie nachfolgendem Vergleich des Mittelwerts MT mit dem ursprünglichen Grauwertbild G(t0) der lediglich zeitweise und/oder dauerhaft stehenden Objekte durch Differenzbildung sowie nachfolgendem Ersetzen der unterhalb einer Schwelle S3 gelegenen Differenzwerte durch den Mittelwert MT der zeitlich aufeinander folgenden Grauwertbilder G(tk) über der Zeit T ermittelt wird.
  8. Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass ein verfeinert aktualisiertes Hintergrundbild BildHintergr(tm) durch Addition einer aktuellen Objekt-Bildbereichsänderung Bobjekt zum aktualisierten Hintergrundbild bildh(tm) erzeugt wird, wobei die Objekt-Bildbereichsanderung Bobjekt durch Multiplikation des Komplementärbilds des Binärbilds B5 mit dem zum Zeitpunkt tm-1 vorangegangenen verfeinert aktualisierten Hintergrundbild BildHintergr(tm-1) ermittelt wird.
  9. Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass mittels unterschiedlicher Wichtungsfaktoren eine unterschiedliche Wichtung von Pixelwerten zeitlich vorangegangener und zeitlich nachfolgender digitaler Bildinformationen erfolgt.
  10. Verfahren nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass aus der Summation quadrierter Differenzen von zeitlich aufeinander folgenden Bildern anhand eines Schwellwerts S4 ein Binärbild Bbewegt derjenigen Fläche erzeugt wird, die über den Zeitraum tl bewegte Objekte enthält, und das Komplementärbild des Binärbilds Bbewegt nachfolgend mit dem aktualisierten Hintergrundbild BildHintergr(tm) multipliziert wird.
DE102005057335A 2005-11-28 2005-11-28 Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild mit zumindest temporär beweglichen Objekten Active DE102005057335B9 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102005057335A DE102005057335B9 (de) 2005-11-28 2005-11-28 Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild mit zumindest temporär beweglichen Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005057335A DE102005057335B9 (de) 2005-11-28 2005-11-28 Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild mit zumindest temporär beweglichen Objekten

Publications (3)

Publication Number Publication Date
DE102005057335A1 DE102005057335A1 (de) 2007-06-06
DE102005057335B4 true DE102005057335B4 (de) 2012-01-12
DE102005057335B9 DE102005057335B9 (de) 2012-08-02

Family

ID=38047563

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005057335A Active DE102005057335B9 (de) 2005-11-28 2005-11-28 Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild mit zumindest temporär beweglichen Objekten

Country Status (1)

Country Link
DE (1) DE102005057335B9 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006039832B9 (de) * 2006-08-25 2010-06-10 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zum Auffinden und Unterscheiden von Personen, Tieren oder Fahrzeugen mittels automatischer Bildüberwachung digitaler oder digitalisierter Bilder
DE102011100820A1 (de) * 2011-05-07 2012-11-08 Connaught Electronics Ltd. Verfahren zum Detektieren eines Hindernisses in der Umgebung eines Kraftfahrzeugs, Fahrerassistenzeinrichtung und Kraftfahrzeug
CN113129207B (zh) * 2019-12-30 2023-08-01 武汉Tcl集团工业研究院有限公司 一种图片的背景虚化方法及装置、计算机设备、存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994012961A1 (de) * 1992-11-30 1994-06-09 Siemens Aktiengesellschaft Verfahren zur detektion bewegter objekte
EP0633546A2 (de) * 1993-07-02 1995-01-11 Siemens Corporate Research And Support, Inc. Hintergrundrückgewinnung in monokularem Sehen
JPH0844844A (ja) * 1994-07-26 1996-02-16 Mitsubishi Electric Corp 物体検出装置
US5963272A (en) * 1995-10-31 1999-10-05 Sarnoff Corporation Method and apparatus for generating a reference image from an image sequence
DE10334136A1 (de) * 2003-07-23 2005-03-03 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Bestimmung eines Hintergrundbildes bei bildgebenden Verfahren
WO2005104014A1 (de) * 2004-04-26 2005-11-03 Siemens Aktiengesellschaft Verfahren zur erkennung eines einfachen objekts vor einem homogenen hintergrund

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994012961A1 (de) * 1992-11-30 1994-06-09 Siemens Aktiengesellschaft Verfahren zur detektion bewegter objekte
EP0633546A2 (de) * 1993-07-02 1995-01-11 Siemens Corporate Research And Support, Inc. Hintergrundrückgewinnung in monokularem Sehen
JPH0844844A (ja) * 1994-07-26 1996-02-16 Mitsubishi Electric Corp 物体検出装置
US5963272A (en) * 1995-10-31 1999-10-05 Sarnoff Corporation Method and apparatus for generating a reference image from an image sequence
DE10334136A1 (de) * 2003-07-23 2005-03-03 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Bestimmung eines Hintergrundbildes bei bildgebenden Verfahren
WO2005104014A1 (de) * 2004-04-26 2005-11-03 Siemens Aktiengesellschaft Verfahren zur erkennung eines einfachen objekts vor einem homogenen hintergrund

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Agarwala,A., et.al.: Interactive Digital Photomontage. ACM Transactions on Graphics, Vol.23, Issue 3, Proc. SIGGRAPH 2004, S.294-302 *

Also Published As

Publication number Publication date
DE102005057335B9 (de) 2012-08-02
DE102005057335A1 (de) 2007-06-06

Similar Documents

Publication Publication Date Title
DE69635980T2 (de) Verfahren und vorrichtung zur detektierung von objektbewegung in einer bilderfolge
DE10037697B4 (de) Adaptive Maskentechnik zur Inspektion von Defekten
DE102006012914B4 (de) System und Verfahren zur Bestimmung des Abstands zu einem vorausfahrenden Fahrzeug
EP0669034B1 (de) Verfahren zur detektion und abspaltung des schattens sich bewegender objekte in einer digitalen bildsequenz
CN107240084B (zh) 一种单幅图像去雨方法及装置
DE102011055458A1 (de) Adaptierungstechnik zur Erkennung einer freien Fahrbahn mittels verlässlicher lokaler Modellkalibrierung
DE102010030616A1 (de) Verfahren und Vorrichtung zum Erkennen eines Störobjekts in einem Kamerabild
DE102011086512A1 (de) Verfahren zur Nebeldetektion
DE102011055459A1 (de) Adaptierungstechnik zur Erkennung einer freien Fahrbahn mit zusätzlichen Klassifikatoren
DE102005057335B4 (de) Verfahren zur Bestimmung des aktuellen Hintergrundes in einem Digitalbild mit zumindest temporär beweglichen Objekten
WO2022128014A1 (de) Korrektur von bildern eines rundumsichtkamerasystems bei regen, lichteinfall und verschmutzung
WO2021121491A2 (de) Umwandlung von eingangs-bilddaten einer mehrzahl von fahrzeugkameras eines rundumsichtsystems in optimierte ausgangs-bilddaten
DE4332753A1 (de) Verfahren zur Erkennung bewegter Objekte
CN104253994B (zh) 一种基于稀疏编码融合的夜间监控视频实时增强方法
WO2011104123A1 (de) Verfahren und vorrichtung zur freisichtprüfung einer kamera für ein automobiles umfeld
DE102011055343A1 (de) Verfahren zur Regendetektion mittels einer Kamera
DE102019204602B4 (de) Verfahren und Vorrichtung zur Maskierung von in einem Bild enthaltenen Objekten
DE102010002312A1 (de) Verfahren und Vorrichtung zur Analyse eines Bildes einer Bilderfassungseinrichtung für ein Fahrzeug
DE102010014733A1 (de) Chromakeyverfahren und Chromakeyvorrichtung zur Aufnahme und Bildbearbeitung von Kamerabildern
DE102008050456B4 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
EP1396153A2 (de) Verfahren und vorrichtung zum ermitteln von bewegung in zeitlich aufeinander folgenden digitalen bildern
DE10334136B4 (de) Verfahren und Vorrichtung zur Bestimmung eines Hintergrundbildes bei bildgebenden Verfahren
DE102018112171A1 (de) Verfahren zum Beurteilen von Objekten in einer Umgebung eines Kraftfahrzeugs anhand einer dreidimensionalen Fusionskarte, Steuereinrichtung; Fahrerassistenzsystem, Computerprogrammprodukt
DE102017105910A1 (de) Frequenzbasierte Projektions-Segmentierung
DE102018101014B3 (de) Verfahren zum Detektieren charakteristischer Merkmale eines Lichtmusters in einem mittels einer Fahrzeugkamera erfassten Abbild davon

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20120413