DE102006023611A1 - Verfahren und Vorrichtung zur pixelsynchronen Bildauswertung eines kamerabasierten Systems - Google Patents

Verfahren und Vorrichtung zur pixelsynchronen Bildauswertung eines kamerabasierten Systems Download PDF

Info

Publication number
DE102006023611A1
DE102006023611A1 DE102006023611A DE102006023611A DE102006023611A1 DE 102006023611 A1 DE102006023611 A1 DE 102006023611A1 DE 102006023611 A DE102006023611 A DE 102006023611A DE 102006023611 A DE102006023611 A DE 102006023611A DE 102006023611 A1 DE102006023611 A1 DE 102006023611A1
Authority
DE
Germany
Prior art keywords
image
variance
integral
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102006023611A
Other languages
English (en)
Inventor
Ludwig Ertl
Thorsten Dr. Köhler
Stephan Voltz
Ulrich Wagner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive GmbH
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102006023611A priority Critical patent/DE102006023611A1/de
Publication of DE102006023611A1 publication Critical patent/DE102006023611A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Zur Detektion von Komponenten und Objekten mit einem kamerabasierten System, das beispielsweise in einem Kraftfahrzeug zur Detektion von Fahrzeugen, Verkehrszeichen, Objekten usw. installiert ist, besteht das Problem, dass die Objekterkennung und Darstellung so fühzeitig erfolgen muss, dass der Fahrer des Kraftfahrzeugs rechtzeitig auf die erhaltenen optischen Informationen reagieren kann. Erfindungsgemäß wird daher vorgeschlagen, dass für die von einem Bildsensor (1) gelieferten Pixels (P) eines Orginalbildes (PB) direkt nach dem Auslesen des Bildsensors (1) pixelsynchron und ohne Zischenspeicherung ein Integralbild (SB) und/oder ein Varianzbild (VB) berechnet werden. Dadurch ergibt sich der Vorteil, dass die Auswertung der Bilddaten (BD) erheblich schneller geht, da keine Rechenzeit für ein Zwischenspeichern und erneutes Auslesen der vielen anfallenden Daten benötigt wird. Das Integralbild (SB) und das Varianzbild (VB) sind praktisch pixelsynchron und zeitgleich für die Auswertung verfügbar. Die Weiterverarbeitung der Bilddaten kann somit in vorteilhafter Weise ohne eine besonders schnelle und damit aufwändige Auswerteeinheit (3) durchgeführt werden.

Description

  • Die Erfindung betrifft ein Verfahren bzw. eine Vorrichtung zur Auswertung von Bilddaten eines Originalbildes eines kamerabasierten Systems nach der Gattung der nebengeordneten Ansprüche 1 und 8. Bildauswertungen von kamerabasierten Systemen, bei denen beispielsweise ein Bildsensor ein Videobild aufnimmt und dieses pixelweise und matrixförmig in Zeilen und Spalten zerlegt, sind bereits in vielfältiger Weise bekannt. Es ist weiterhin bekannt, dass mit einem entsprechenden Auswertealgorithmus von einem aufgenommenen Bildausschnitt automatisch Objekte und Komponenten erkannt und zur Klassifizierung mit gespeicherten Objekten selektiv verglichen werden können. Dadurch kann das erkannte Objekt mit seiner funktionellen Bedeutung gezielt auf einem Display ausgegeben werden.
  • Bekannt ist des weiteren, dass mit einem kamerabasierten System, das in einem Kraftfahrzeug eingebaut ist, Verkehrsszenen aufgenommen und analysiert werden können. Mit einem solchen System werden beispielsweise Objekte und Komponenten, insbesondere am Verkehr teilnehmende Fahrzeuge, Personen, Verkehrszeichen und andere Objekte individuell detektiert, klassifiziert und an den Fahrer des Fahrzeugs auf einem Monitor ausgegeben. Nachteilig bei der bekannten Technik ist jedoch, dass die Auswertealgorithmen, mit denen die Klassifizierung berechnet wird, sehr komplex und rechenaufwändig ist. Dadurch ist es erforderlich, dass sehr leistungsfähige Recheneinheiten verwendet werden, damit die Rechenzeit nicht so lang wird, dass die ausgegebenen Objekte zu spät angezeigt und vom Fahrer des Fahrzeugs nicht mehr verwertet werden können. Um dieses Problem zu lösen, wurden bereits Methoden zur Bildverarbeitung angewandt. Beispielsweise wurde versucht, durch Kompression der Bildinformationen die Rechenzeit abzukürzen.
  • Ein wesentliches Problem bei der Bildverarbeitung besteht auch darin, dass die vom Bildsensor gelieferten Pixels zunächst in einem Zwischenspeicher abgelegt werden. Beispielsweise kann die Zeitdauer für die Ablage des vom Bildsensor gelieferten Pixelstromes 20 ms pro Bild betragen. Für das Auslesen aus dem Speicher und die weitere Verarbeitung werden nochmals bis zu 20 ms pro Bild benötigt, so dass allein dieser Speichervorgang insgesamt 40 ms pro Bild benötigt. Da jedoch bei Videoaufnahmen in der Regel 25 Bilder pro Sekunde aufgenommen werden, steht keine weitere Rechenzeit zur Auswertung zur Verfügung, um die Bilddaten auszuwerten.
  • Um die Rechenzeit für die Auswertung des Bildes zu verkürzen, ist des weiteren bekannt, dass die Auswerteeinheit auf den Bildspeicher zugreift und aus dem Graubild ein Integralbild berechnet. Das Integralbild gibt die Grauwertunterschiede wieder, die durch die einzelnen Pixels vorgegeben werden. Zur Bestimmung der Varianz wurde des weiteren ein Varianzbild ermittelt. Dieses Verfahren bindet erhebliche Ressourcen der Auswerteeinheit und führt aufgrund der sequenziellen Prozessschritte ebenfalls zu einer nicht gewünschten, signifikanten Zeitverzögerung für die Erstellung des Integralbildes und des Varianzbildes.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren bzw. eine Vorrichtung anzugeben, mit der die Auswertung eines Videobildes beschleunigt und dabei die Rechenzeit verkürzt werden kann. Diese Aufgabe wird mit den Merkmalen der nebengeordneten Ansprüche 1 und 8 gelöst.
  • Bei dem erfindungsgemäßen Verfahren bzw. der Vorrichtung zur Auswertung eines von einem Bildsensor aufgenommenen Originalbildes mit den Merkmalen der Ansprüche 1 und 8 ergibt sich der Vorteil, dass aus dem vom Bildsensor gelieferten Pixelstrom aus den Grauwerten ein Integralbild und ein Varianzbild berechnet werden. Als besonders vorteilhaft wird dabei angesehen, dass die Berechnung während des Auslesen des Bildsensors pixelsynchron und ohne vorherige Zwischenspeicherung er folgt. Dadurch steht sowohl das Integralbild als auch das Varianzbild praktisch zeitgleich für die weitere Auswertung der Bilddaten zur Verfügung. Ein besonders schneller und dadurch aufwändiger Rechner ist für die weitere Auswertung des Originalbildes nicht mehr erforderlich, da das zeitaufwändige Zwischenspeichern und Auslesen der Bilddaten wegfällt.
  • Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des in den nebengeordneten Ansprüchen 1 und 8 angegebenen Verfahrens bzw. der Vorrichtung gegeben. Als besonders vorteilhaft wird angesehen, dass das Integralbild durch Aufsummieren der einzelnen Grauwerte der Pixels mit Hilfe einer einfachen Formel berechnet werden kann. Dadurch ist die Berechnung in vorteilhafter Weise sehr schnell durchführbar.
  • Noch einfacher löst sich der Grauwertinhalt eines beliebigen Rechtecks des Originalbildes berechnen, da für diese Berechnung nur vier Werte des Integralbildes benötigt werden.
  • Um eine einfache Bildverarbeitung durchführen zu können, ist vorgesehen, dass das Grauwertbild und das Varianzbild nach der Berechnung in Abhängigkeit von den zugeordneten Pixels in einem Speicher abgelegt werden. Dadurch stehen sowohl das Integralbild als auch das Varianzbild praktisch zeitgleich für die weitere Auswertung zur Verfügung.
  • Für die Berechnung des Varianzbildes wird ebenfalls ein sehr einfacher Algorithmus verwendet. Aus dem Varianzbild lässt sich – analog zur Berechnung des Grauwertinhalts – der Varianzinhalt mit einer weiteren sehr einfachen Formel berechnen. Für die Berechnung des Varianzinhalts werden lediglich vier Werte des Varianzbildes benötigt. Dadurch kann auch die Berechnung des Varianzbildes sehr schnell und ohne großen Aufwand durchgeführt werden.
  • Aus dem Varianzinhalt und den in einem gewählten rechteckigen Bereich des Bildes enthaltenen Pixels lässt sich sehr einfach die Varianz bestimmen.
  • Um die Rechenzeit weiterhin zu verkürzen, erscheint vorteilhaft, dass die Varianz nur für einen solchen Bildbereich berechnet wird, der eine Unruhe beziehungsweise eine Struktur aufweist. Zum Beispiel ergeben Bildbereiche mit grauem Himmel keinen Varianzwert, mit dem ein gesuchtes Objekt erkannt werden kann.
  • Einkamerabasiertes System mit einer derartigen Vorrichtung wird vorzugsweise für die Detektion und Klassifizierung von Objekten und/oder Komponenten verwendet. Insbesondere ist vorgesehen, die erfindungsgemäße Vorrichtung in einem Kraftfahrzeug einzubauen. Auf diese Weise kann der Bildsensor der Vorrichtung während des fahrenden Kraftfahrzeugs die aktuelle Verkehrssituation aufnehmen. Mit Hilfe des erfindungsgemäßen Auswertesystems können beispielsweise diverse Objekte, wie Fahrzeuge, Personen, Verkehrszeichen und andere Gegenstände individuell detektiert und entsprechend klassifiziert werden. Beispielsweise kann dadurch dem Fahrer des Kraftfahrzeugs bereits ein in weiter Entfernung stehendes Verkehrszeichen direkt auf einem Display des Kraftfahrzeugs ausgegeben werden, so dass sich der Fahrer rechtzeitig über eine sich gegebenenfalls ändernde Verkehrssituation informieren und darauf einstellen kann.
  • Ein Ausführungsbeispiel der Erfindung ist in der Zeichnung dargestellt und wird in der nachfolgenden Beschreibung näher erläutert.
  • 1a zeigt ein schematisiertes Originalbild, das am Ausgang des Bildsensors in Form von matrixförmig angeordneten Pixels dargestellt ist,
  • 1b zeigt ein zu 1a entsprechendes, schematisiertes Integralbild,
  • 2a zeigt das in 1a dargestellte Originalbild,
  • 2b zeigt ein aus 2a abgeleitetes Varianzbild,
  • 3 zeigt ein Blockschaltbild einer erfindungsgemäßen Vorrichtung,
  • 4 zeigt ein erstes Ablaufschema für die Ermittlung des Integralbildes und des Varianzbildes und
  • 5 zeigt ein zweites Ablaufschema.
  • 1a zeigt ein Originalbild, das von einem Bildsensor aufgenommen wurde. Der Bildsensor ist beispielsweise als Videokamera ausgeführt und in einem Kraftfahrzeug eingebaut. Der Bildsensor nimmt in diesem Fall Verkehrsszenen auf, wobei beispielsweise bis zu 25 Einzelbilder pro Sekunde erzeugt werden können. Das in 1a dargestellte Originalbild ist in einzelne Pixels unterteilt, die matrixförmig in Zeilen und Spalten angeordnet sind. Der Ursprung des Bildes ist oben links positioniert. In der ersten Zeile Z = 1 sind somit von links nach rechts gelesen die Pixels P11, P12, P13 ... P1k ... P1n angeordnet. Bei diesem Schema gilt zum Beispiel für das Pixel P22 in allgemeiner Form der Wert Pab. Entsprechendes gilt für die Pixels P2k (Pak) und Pi2 (Pib) in dem Rechteck Pab, Pak, Pib und Pik. In der zweiten Zeile Z = 2 sind die Pixels P21, P22, P23 ... P2k ... P2n angeordnet. In der dritten Zeile Z = 3 sind entsprechend die Pixels P31, P32, P33 ... P3k ... P3n dargestellt. Das ganze Bild wird weiterhin in Pixels zerlegt, bis in der i-ten Zeile Z = i die Pixels Pi1, Pi2, Pi3 ... Pik ... Pin abgebildet sind. Es wird angenommen, dass das Originalbild m-Zeilen hat, so dass in der m-ten Zeile Z = m die Pixels Pm1, Pm2, Pm3 ... Pmk ... Pmn abgebildet sind. Jedes der oben genannten Pixels Pmn enthält die entsprechende Bilddaten, insbesondere Grauwerte des Originalbildes, die von dem Bildsensor aufgenommen wurde.
  • Für das in 1a dargestellte Originalbild PB wird nun ein Grauwertbild berechnet. Dabei entspricht das Grauwertbild den Grauwertinhalten, die durch die einzelnen Pixels in dem Originalbild PB aufgezeigt sind. Zur Berechnung des Grauwertbildes wird ein Auswertealgorithmus verwendet, mit dem eine Rechenzeit erzielt werden kann. Die Berechnung des Grauwertbildes mit den Grauwertinhalten erfolgt daher mit Hilfe der Berechnung eines Integralbildes SB, wie es in 1a dargestellt ist. Das Integralbild SB ist so definiert, dass jedes Pixel Pmn des Originalbildes die Summe der Grauwerte derjenigen Pixels des Originalbildes enthält, die sich in einem beliebig gewählten Rechteck befinden, das beispielsweise durch die Pixelpositionen Pab und Pik aufgespannt wird. Die Berechnung des Integralbildes entsprechend der 1b für das Integralbildpixel Sik erfolgt in analytischer Form nach der Formel
    Figure 00060001
  • Pzs ist der Graubildwert des Pixels P in der Zeile Z und der Spalte S. Die in Formel (1) angegebene Berechnung für das Integralbildpixel Sik des Integralbildes (SB) ist sehr zeitaufwändig. Erfindungsgemäß wird daher vorgeschlagen, die Berechnung für das Integralbildpixel Sik wesentlich einfacher durchzuführen, wenn man berücksichtigt, dass sich das Integralbildpixel Sik nur durch das davor liegende Zeilenelement
    Figure 00060002
    unterscheidet. Das Integralbild kann somit kann somit nach der Formel 3
    Figure 00060003
    wesentlich schneller berechnet werden, da die Integralbildung vereinfacht ist. Auf diese Weise kann sehr einfach und effizient der Grauwertinhalt eines beliebigen rechteckigen Bereiches des Originalbildes PB berechnet werden.
  • Beispielsweise kann für das Rechteck, das durch die Pixels Pab, Pak, Pib, Pik aufgespannt wird, der Grauwertinhalt Gabik in der analytischen Form nach der Formel 4
    Figure 00070001
    berechnet werden. Dieses Verfahren ist jedoch sehr zeitaufwändig, da über alle Pixels Pzs aufaddiert werden muss.
  • Alternativ wird jedoch erfindungsgemäß vorgeschlagen, den Grauwertinhalt Gabik mit Hilfe des Integralbildes SB zu berechnen. In diesem Fall kann der Grauwertinhalt Gabik aus nur vier Werten des Integralbildes nach der nachstehenden Formel Gabik = Sik – Sib – Sak + Sab (5)berechnet werden. Diese sehr einfache Berechnung des Grauwertinhaltes mit Hilfe des Integralbildes ist sehr schnell und effizient durchführbar. Ein aufwändiger Rechner ist dafür nicht erforderlich, da nur eine einfache Additionsoperation erforderlich ist.
  • 1b zeigt in schematischer Darstellung ein der 1a entsprechendes Integralbild (SB). Entsprechend zu den Pixels der 1a wird in der gleichen Nomenklatur das Integralbild mit den Integralbildpixels S11 (oben links in 1b) bis zum Integralbildpixel Smn (1b unten rechts) dargestellt.
  • In 1b ist das oben beispielhaft ausgewählte Rechteck für die Berechnung des Grauwertes mit den Integralbildpixels Sab, Sak, Sib und Sik durch eine Umrandung markiert.
  • Somit kann der Grauwertinhalt eines beliebigen rechteckigen Bereiches des Ausgangsbildes PB auf sehr einfache und vorteilhafte Weise durch Verrechnung von nur vier Werten des In tegralbildes SB ermittelt werden. Ein weiterer Vorteil ist, dass das Integralbild SB und das Originalbild PB (Rohbild) praktisch zeitgleich für die Auswertung und Klassifizierung von Objekten zur Verfügung steht, wenn man von einer geringen Verschiebung von ein paar Pixels einmal absieht. Das Integralbild PB ist somit eine wichtige Grundlage für die weitere Berechnung der von dem Bildsensor aufgenommenen Objekte und Komponenten.
  • Entsprechend der 2a, b kann das Pixelbild PB des weiteren zur Berechnung eines Varianzbildes VB verwendet werden. Bei dem Varianzbild VB wird in analytischer Form analog zum Integralbild der 1b zu jedem Pixel Pzs ein Varianzbildwert Vik berechnet. Als Varianz bezeichnet man eine Unruhe im Bild bzw. im Bildausschnitt. Sehr häufig zeigt beispielsweise das obere Drittel des Originalbildes PB einen grauen oder blauen Himmel, der keine Strukturen oder Unterschiede aufweist. In solchen Fällen ist der Varianzinhalt Null, so dass ein solcher Bereiche von vornherein für die Detektion von Gegenständen ausgeschlossen werden kann. Dadurch kann in vorteilhafter Weise Rechenzeit eingespart werden.
  • Das Varianzbild VB wird entsprechend 2b analog zum Integralbild SB berechnet, wie es zu 1b näher erläutert wurde. Für die Berechnung des Varianzbildes VB wird zunächst für jedes Pixel das Quadrat der Grauwerte des Originalbildes (Pixelbild PB) berechnet. Das Varianzbild VB ergibt sich dann durch die Aufsummierung aller quadrierten Pixelwerte nach der
    Figure 00080001
  • Die Berechnung des Varianzbildes VB ist in den 2a und 2b grafisch dargestellt. Die 2a entspricht der 1a, wie sie zuvor erläutert wurde. Bei der 2b sind nun die entsprechenden Varianzwerte V11 ... Vmn dargestellt. Analog zur Berechnung des Grauwertinhaltes mit Hilfe des Integralbildes, wie es zu den 1a, 1b erläutert wurde, kann auch der Varianzinhalt VB auf sehr einfache Weise berechnet werden.
  • Für eine beliebig gewählte rechteckige Fläche kann nun aus dem Varianzbild VB ein Varianzinhalt Wabik berechnet werden. Die Berechnung Varianzinhaltes Wabik erfolgt beispielhaft für ein beliebiges Recheck des Originalbildes PB. Es wird angenommen, dass entsprechend der 2b der zu berechnende markierte, rechteckige Ausschnitt durch die Varianzwerte Vab, Vak, Vib und Vik begrenzt ist. Der Varianzinhalt Wabik dieses gewählten rechteckigen Bereiches lässt sich auf sehr einfache Weise nun durch die vorgenannten vier Eckwerte nach der folgenden Formel berechnen: Wabik = Vik – Vib – Vak + Vab (7)
  • Die Varianz (σ)2 für den rechteckigen Bildausschnitt ergibt sich dann aus Formel: (σ)2 = Wabik – N·(Gabik/N)2 (8)mit N = (i – a + 1)·(k – b + 1) (9),wobei N die Anzahl der Pixels im gewählten rechteckigen Bildbereich ist.
  • 3 zeigt ein Blockschaltbild einer erfindungsgemäßen Vorrichtung, mit der die vom Bildsensor gelieferten Daten sehr viel schneller und effizienter ausgewertet werden können. Ein Bildsensor 1 ist ausgangsseitig mit einer Recheneinheit 2 verbunden. Die vom Bildsensor 1 gelieferten Bilddaten BD gelangen so zunächst in die Recheneinheit 2. Die Recheneinheit 2 berechnet aus den empfangenen Bilddaten BD sowohl das Integralbild SB als auch das Varianzbild VB. Diese beiden Bilder SB, VB werden zusammen mit den Bilddaten BD und gegebenenfalls mit dem Originalbild an eine Auswerteeinheit 3 gesendet. In den Bilddaten BD ist das Grauwertbild enthalten.
  • Die Auswerteeinheit 3 ermittelt nun aus dem empfangenen Grauwertbild, dem Integralbild und/oder dem Varianzbild Objekte oder Gegenstände, beispielsweise Verkehrszeichen, Fahrzeuge, Personen usw. Die ermittelten Objekte werden auf einer Anzeige 5 ausgegeben, so dass der Fahrer des Kraftfahrzeugs frühzeitig auf mögliche Gefahren oder Verkehrssituationen gegebenenfalls auch akustisch aufmerksam gemacht werden kann.
  • Erfindungswesentlich ist, dass die Recheneinheit 2 während des Auslesens der Bilddaten BD aus dem Bildsensor 1 sowohl das Integralbild SB als auch das Varianzbild VB berechnet. Diese Bilder stehen somit zeitgleich für die weitere Auswertung durch die Auswerteeinheit 3 zur Verfügung. Durch die zeitgleiche Bereitstellung des Integralbildes SB und des Varianzbildes VB wird erhebliche Rechenzeit eingespart. Die nachgeschaltete Auswerteeinheit 3 braucht somit nicht besonders schnell und leistungsfähig zu sein. Dadurch ist die Vorrichtung zur Bildverarbeitung erheblich einfacher und kostengünstiger herstellbar.
  • Wie bereits erwähnt wurde, ist erfindungswesentlich, dass die Recheneinheit 2 dem Bildsensor 1 direkt nachgeschaltet ist und unmittelbar und ohne Zwischenspeicherung die vom Bildsensor 1 empfangenen Bilddaten BD sowohl als Integralbild SB als auch als Varianzbild VB umrechnet.
  • In weiterer Ausgestaltung der Erfindung ist vorgesehen, dass optional der Recheneinheit 2 ein Zwischenspeicher 4 nachgeschaltet ist. Der Zwischenspeicher 4 wird insbesondere dann benötigt, wenn die Bandbreite der Datenübertragungsstrecke zwischen der Recheneinheit 2 und der Auswerteeinheit 3 nicht ausreicht. Des weiteren kann eine Zwischenspeicherung 4 benötigt werden, wenn die Recheneinheit 2 zusätzliche Funktionen anbietet, die von der Auswerteeinheit 3 nicht verarbeitet werden können.
  • Erfindungswesentlich ist des weiteren, dass während des Bildauslesens sowohl das Integralbild SB als auch das Varianzbild VB pixelsynchron aus den Bilddaten BD berechnet und bereitgestellt werden.
  • Anhand der 4 und 5 wird die Funktionsweise der erfindungsgemäßen Vorrichtung zur Auswertung eines von einem Bildsensor gelieferten Originalbildes näher erläutert. Die Recheneinheit 2 ist ein handelsüblicher Baustein, der beispielsweise als FPGA (Field Programmable Gate Array) erhältlich ist. Die FPGA-Einheit weist einen Summierer 10 auf, der mit einem Register 11 verbunden ist. Ausgangsseitig ist das Register 11 auf den Summierer 10 rückgekoppelt. Des weiteren ist das Register 11 mit einem zweiten Register 12 verbunden. Dem zweiten Register 12 ist ein drittes Register 13, ein viertes Register 14, ein fünftes Register 15 usw. nachgeschaltet. Diese Register werden auf den Summierer 10 zurückgekoppelt.
  • Die Verarbeitung des Bilddatenstroms erfolgt pixelweise. Die Berechnung ist hier beispielhaft für das erste Pixel der iten Zeile dargestellt, d.h. für das Originalbild Pixel Pi1 und für das Integralbild Pixel Si1. Zur Initialisierung des Zeilenintegrals wird zunächst zu Beginn jeder neuen Zeile Z das Register 11 bis 15 auf den Wert Null gesetzt. Nun werden der Pixelwert Pi1 und der im Register 5 befindliche Integralwert (S(i-1),1) der vorhergehenden Zeile in dem Addierer 10 addiert. Das Ergebnis der Addition befindet sich nun im Register 11 und wird zu dem Register 12 weitergetaktet.
  • Der Pixelwert Pik wird mit einer b Bit-Breite dargestellt, z.B. mit 8 Bit für den Wertebereich 0 bis 255. Die Integralpixelwerte Sik benötigen dann b' Bit, da der Integralwert bis zu Smax = n·m·(2b – 1)betragen kann. Mit Hilfe der Formel b' = Aufrunden(logSmax/log2) kann die Bit-Breite b' aufgerundet werden.
  • Für das nächste Pixel Pi2 und alle weiteren Pixels bis zum Zeilenende Pin wird nun bei der Bildung der Integralbildwerte Si2 bis Sin zusätzlich der jeweils aktuell im Register 11 befindliche Zeilenintegralwert hinzuaddiert. Dieses Verfahren wird nun für den gesamten Pixelstrom des Originalbildes vom ersten Pixel P11 bis zum letzten Pixel Pmn des Originalbildes durchgeführt, so dass sich insgesamt ein Integralbild, wie es zur 1b beschrieben wurde, ergibt. Das auf diese Weise erhaltene Integralbild SB kann nun an die Auswerteeinheit 3 (3) weitergegeben werden.
  • Die FPGA-Einheit ist als FIFO-Speicher (First In First Out-Speicher) mit n-Stufen aufgebaut. Dadurch werden die zuerst eingegebenen Informationen am Ausgang des FIFO-Speichers mit n-Delays pixelsynchron ausgegeben.
  • In 5 ist die Berechnung des Varianzbildes VB dargestellt. Es wird wieder die gleiche FPGA-Einheit verwendet, wie sie bereits zur Berechnung des Integralbildes zuvor beschrieben wurde. Allerdings ist für die Berechnung des Varianzbildes VB dem FPGA-Einheit ein Multiplizierer 16 vorgeschaltet. Das Verfahren läuft analog zu dem Integrationsbildverfahren ab. Zunächst wird für das erste Pixel der Zeile i in dem Multiplizierer 16 das Quadrat gebildet. Danach erfolgt wieder eine Zeileninitialisierung. Beim nächsten Takt wird dann der Inhalt des Quadrats mit dem Inhalt des fünften Registers 15 in dem Summierer 10 aufaddiert usw. Dieser Vorgang wird für jedes Pixel Pzs des Bildausschnitts durchgeführt.
  • Da der maximale Varianzwert aufgrund der Pixelwertquadrierung bis zu (Vmax = n·m·(2b – 1)2 mit m-Bildzeilen und n-Bildspalten betragen kann, ist die erforderliche Bitbreite des Varianzbildes VB hier: b' = Aufrunden(logVmax/log2)
  • Dieses Verfahren wird ebenfalls für den gesamten Pixelstrom des Bildes vom ersten Pixel P11 bis zum letzten Pixel Pmn des Originalbildes PB durchgeführt, so dass sich insgesamt ein Varianzbild SB ergibt, wie es zuvor zur 2b beschrieben wurde.
  • In weiterer Ausgestaltung der Erfindung ist vorgesehen, dass mit der Recheneinheit 2 beispielsweise nur das Integralbild SB oder nur das Varianzbild VB berechnet werden. Des weiteren ist vorgesehen, eine pixelsynchrone Korrektur des Fix Pattern Noise durchzuführen. Damit kann in vorteilhafter Weise eine Filterung bzw. Fehlerkorrektur der vom Bildsensor gelieferten Daten sehr einfach und sehr schnell durchgeführt werden.
  • 1
    Bildsensor
    2
    Recheneinheit
    3
    Auswerteeinheit
    4
    Zwischenspeicher
    5
    Anzeige/Display
    10
    Summierer
    11–15
    Register
    16
    Multiplizierer
    BD
    Bilddaten
    D
    Register
    FPGA
    Field Programmable Gate Array
    Gabik
    Grauwertinhalt eines rechteckigen Bildausschnitts
    P
    Pixel
    Pzs
    Pixel der Zeile z und der Spalte s
    PB
    Originalbild/Pixelbild
    SB
    Integralbild
    W
    Varianzinhalt
    VB
    Varianzbild
    s, b, k, n
    Spalten
    z, a, i, m
    Zeilen

Claims (11)

  1. Verfahren zur Auswertung von Bilddaten (BD) eines Originalbildes (PB) eines kamerabasierten Systems, wobei das Originalbild (PB) mittels eines Bildsensors (1) zeilen- und spaltenweise in eine Vielzahl von Pixels (P) digitalisiert wird, wobei die Pixels (P) Grauwerten des Originalbildes (PB) zugeordnet sind und wobei mit Hilfe eines Auswertealgorithmus eine Detektion und Klassifizierung von Objekten und Komponenten des Originalbildes (PB) durchgeführt wird, dadurch gekennzeichnet, dass während des Auslesens des Bildsensors (1) aus den Bilddaten (BD) pixelsynchron, insbesondere ohne vorheriger Zwischenspeicherung, ein den Pixels (P) zugeordnetes Integralbild (SB) und ein Varianzbild (VB) berechnet werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Integralbild (SB) nach der Formel
    Figure 00150001
    berechnet wird, wobei Sik ein Integralbildpixel der i-ten Zeile und der k-ten Spalte des Integralbildes (SB) ist.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Grauwertinhalt (Gabik) eines beliebigen Rechtecks (Pab, Pak, Pib und Pik) des Originalbildes (PB), das zwischen einem Pixel Pab und einem Pixel Pik aufgespannt ist, mit Hilfe des Integralbildes nach der Formel Gabik = Sik – Sib – Sak + Sab berechnet wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das berechnete Integralbild (SB) und/oder das Varianzbild (Vik) in Abhängigkeit von den Pixels (Pik) des Originalbildes in einem Speicher (4) abgelegt sind.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Varianzwert (Vik) des Varianzbildes (VB) nach der Formel
    Figure 00160001
    berechnet wird und/oder dass der Varianzinhalt (Wabik) eines beliebigen rechteckigen Bereiches des Originalbildes (PB) aus dem Varianzbild (VB) nach der Formel Wabik = Vik – Vib – Vak + Vab berechnet wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in einem rechteckigen Bildbereich die Varianz (σ2) mit Hilfe der Formel (σ)2 = Wabik – N·(Gabik/N)2 berechnet wird, wobei N = (i – a + 1)·(k – b + 1) die Anzahl der Pixels im gewählten Rechteck ist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Varianzinhalt (Wabik) nur für den Teil des Originalbildes (PB) berechnet wird, der eine Unruhe beziehungsweise eine Struktur aufweist.
  8. Vorrichtung zur Auswertungen eines von einem Bildsensor (1) aufgenommenen Originalbildes (PB), mit einer Programm gesteuerten Auswerteeinheit (3), dadurch gekennzeichnet, dass zwischen dem Bildsensor (1) und der Auswerteeinheit (3) eine Recheneinheit (2) angeordnet ist und dass die Recheneinheit (2) eingerichtet ist, während des Auslesens des Bildsensors (1) aus den von dem Bildsensor (1) gelieferten Bilddaten (BD) pixelsynchron ein pixelbezogenes Integralbild (SB) und/oder ein pixelbezogenes Varianzbild (VB) zu berechnen.
  9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Recheneinheit (2) ausgebildet ist, wenigstens das Integralbild (SB) und das Varianzbild (VB), insbesondere ohne vorherige Zwischenspeicherung, nahezu zeitgleich für die Auswerteeinheit (3) zur Verfügung zu stellen.
  10. Vorrichtung nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Auswerteeinheit (3) ausgebildet ist, aus den empfangenen Bildern (PB, SB, VB) Objekte und/oder Komponenten zu detektieren und zu klassifizieren.
  11. Kamerabasiertes Auswertesystem mit einer Vorrichtung nach einem der Ansprüche 8 bis 10 zur Anordnung in einem Kraftfahrzeug und zur Detektion und/oder Klassifizierung von Fahrzeugen, Verkehrszeichen, Gegenständen und/oder Personen.
DE102006023611A 2006-05-19 2006-05-19 Verfahren und Vorrichtung zur pixelsynchronen Bildauswertung eines kamerabasierten Systems Withdrawn DE102006023611A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102006023611A DE102006023611A1 (de) 2006-05-19 2006-05-19 Verfahren und Vorrichtung zur pixelsynchronen Bildauswertung eines kamerabasierten Systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006023611A DE102006023611A1 (de) 2006-05-19 2006-05-19 Verfahren und Vorrichtung zur pixelsynchronen Bildauswertung eines kamerabasierten Systems

Publications (1)

Publication Number Publication Date
DE102006023611A1 true DE102006023611A1 (de) 2007-11-22

Family

ID=38608029

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006023611A Withdrawn DE102006023611A1 (de) 2006-05-19 2006-05-19 Verfahren und Vorrichtung zur pixelsynchronen Bildauswertung eines kamerabasierten Systems

Country Status (1)

Country Link
DE (1) DE102006023611A1 (de)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9471840B2 (en) 2014-09-30 2016-10-18 Qualcomm Incorporated Apparatus and method for low-power object-detection in images using hardware scanning window
US9554100B2 (en) 2014-09-30 2017-01-24 Qualcomm Incorporated Low-power always-on face detection, tracking, recognition and/or analysis using events-based vision sensor
US9704056B2 (en) 2015-04-02 2017-07-11 Qualcomm Incorporated Computing hierarchical computations for computer vision calculations
US9762834B2 (en) 2014-09-30 2017-09-12 Qualcomm Incorporated Configurable hardware for computing computer vision features
US9826200B2 (en) 2007-04-30 2017-11-21 Mobileye Vision Technologies Ltd. Rear obstruction detection
US9838635B2 (en) 2014-09-30 2017-12-05 Qualcomm Incorporated Feature computation in a sensor element array
US9923004B2 (en) 2014-09-30 2018-03-20 Qualcomm Incorporated Hardware acceleration of computer vision feature detection
US9986179B2 (en) 2014-09-30 2018-05-29 Qualcomm Incorporated Sensor architecture using frame-based and event-based hybrid scheme
US10515284B2 (en) 2014-09-30 2019-12-24 Qualcomm Incorporated Single-processor computer vision hardware control and application execution
US10614332B2 (en) 2016-12-16 2020-04-07 Qualcomm Incorportaed Light source modulation for iris size adjustment
US10728450B2 (en) 2014-09-30 2020-07-28 Qualcomm Incorporated Event based computer vision computation
US10984235B2 (en) 2016-12-16 2021-04-20 Qualcomm Incorporated Low power data generation for iris-related detection and authentication
US11068712B2 (en) 2014-09-30 2021-07-20 Qualcomm Incorporated Low-power iris scan initialization

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ALLERTON,D.J.,et.al.: Video-Rate.Spatially Variant Filtering Technique using Steam Processing Architecture Electronics Letters,8.Dec.1988,Vol.24, No.25,S.1580-1581; *
LIENHART,Rainer,et.al.: Empirical Analysis of Detection Cascades of Boosted Classifiers for Rapid Object Delection. In: MRL Technical Report,May 2002,Dec.2002,S.1-7; *
VIOLA,P.,JONES,M.: Robust Real-time Obj.Detection.Sec.Int.Worksh.on Statistica l and Computational Theories of Vis.-Modell.Learn.,Comput.and Sampling.Vancouv er,Canada,13.Jul.2001,S.1-25; *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9826200B2 (en) 2007-04-30 2017-11-21 Mobileye Vision Technologies Ltd. Rear obstruction detection
US10827151B2 (en) 2007-04-30 2020-11-03 Mobileye Vision Technologies Ltd. Rear obstruction detection
US10389985B2 (en) 2007-04-30 2019-08-20 Mobileye Vision Tehcnologies Ltd. Obstruction detection
US9977977B2 (en) 2014-09-30 2018-05-22 Qualcomm Incorporated Apparatus and method for low-power object-detection in images using computer vision feature computation hardware
US9986211B2 (en) 2014-09-30 2018-05-29 Qualcomm Incorporated Low-power always-on face detection, tracking, recognition and/or analysis using events-based vision sensor
US11068712B2 (en) 2014-09-30 2021-07-20 Qualcomm Incorporated Low-power iris scan initialization
US9838635B2 (en) 2014-09-30 2017-12-05 Qualcomm Incorporated Feature computation in a sensor element array
US9870506B2 (en) 2014-09-30 2018-01-16 Qualcomm Incorporated Low-power always-on face detection, tracking, recognition and/or analysis using events-based vision sensor
US9923004B2 (en) 2014-09-30 2018-03-20 Qualcomm Incorporated Hardware acceleration of computer vision feature detection
US9940533B2 (en) 2014-09-30 2018-04-10 Qualcomm Incorporated Scanning window for isolating pixel values in hardware for computer vision operations
US9471840B2 (en) 2014-09-30 2016-10-18 Qualcomm Incorporated Apparatus and method for low-power object-detection in images using hardware scanning window
US9986179B2 (en) 2014-09-30 2018-05-29 Qualcomm Incorporated Sensor architecture using frame-based and event-based hybrid scheme
US9762834B2 (en) 2014-09-30 2017-09-12 Qualcomm Incorporated Configurable hardware for computing computer vision features
US9582725B2 (en) 2014-09-30 2017-02-28 Qualcomm Incorporated Apparatus and method for low-power object-detection in images using image integration hardware
US10515284B2 (en) 2014-09-30 2019-12-24 Qualcomm Incorporated Single-processor computer vision hardware control and application execution
US9554100B2 (en) 2014-09-30 2017-01-24 Qualcomm Incorporated Low-power always-on face detection, tracking, recognition and/or analysis using events-based vision sensor
US10728450B2 (en) 2014-09-30 2020-07-28 Qualcomm Incorporated Event based computer vision computation
US9704056B2 (en) 2015-04-02 2017-07-11 Qualcomm Incorporated Computing hierarchical computations for computer vision calculations
US10614332B2 (en) 2016-12-16 2020-04-07 Qualcomm Incorportaed Light source modulation for iris size adjustment
US10984235B2 (en) 2016-12-16 2021-04-20 Qualcomm Incorporated Low power data generation for iris-related detection and authentication

Similar Documents

Publication Publication Date Title
DE102006023611A1 (de) Verfahren und Vorrichtung zur pixelsynchronen Bildauswertung eines kamerabasierten Systems
DE102018130821A1 (de) Verfahren zum Beurteilen einer Umgebung eines Kraftfahrzeugs durch ein künstliches neuronales Netz mit einer Aggregationseinheit; Steuereinheit, Fahrerassistenzsystem sowie Computerprogrammprodukt
DE69728247T2 (de) Pyramidenförmiger pipeline-prozessor für ein bildverarbeitungssystem
DE102010062496A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
DE102018102688A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsprogramm und Bildverarbeitungssystem
WO2005048195A2 (de) Verfahren zur korrespondenzanalyse in bilddatensätzen
DE3687789T2 (de) Bildsignalverarbeitungsgeraet.
DE69908352T2 (de) Verfahren und vorrichtung zur wasserzeichendetektion für spezifische skalen und beliebige versetzungen
DE102018217091A1 (de) Verfahren, künstliches neuronales Netz, Vorrichtung, Computerprogramm und maschinenlesbares Speichermedium zur semantischen Segmentierung von Bilddaten
DE3889903T2 (de) Verfahren zur behandlung der verborgenen linien eines bildes.
DE69507463T2 (de) Vorrichtung und verfahren zur verkehrsüberwachung
DE102019214587A1 (de) Verarbeitung verlustbehaftet komprimierten ADAS-Sensordaten für Fahrerassistenzsysteme
EP3655920B1 (de) Verfahren und vorrichtung zur bewertung von bildausschnitten für eine korrespondenzbildung
DE102018132627A1 (de) Verfahren zum Erfassen einer Umgebung eines Kraftfahrzeugs mittels zeitlicher Fusion von Bildern durch ein künstliches neuronales Netz; Steuereinheit, Fahrerassistenzsystem; Computerprogrammprodukt
DE102011007644A1 (de) Verfahren und Vorrichtung zur Bestimmung von zur Entzerrung eines Bildes geeigneten Werten und zur Entzerrung eines Bildes
EP2138242A2 (de) Verfahren und Vorrichtung zum Erkennen von Transportbehältnissen
DE112017007815T5 (de) Bildverarbeitungsvorrichtung, Bildvergrbeitungsverfahren und Bildverarbeitungsprogramm
EP1729258A2 (de) Verfahren und Vorrichtung zur Ermittlung von Bewegungsvektoren
EP1390913B1 (de) Vorrichtung und verfahren zur verarbeitung von bilddaten
DE102021100205A1 (de) Systeme und verfahren zum verringern von speicheranforderungen in neuronalen netzen
DE112020002689T5 (de) Feststeckungsbestimmungsvorrichtung und feststeckungsbestimmungsverfahren
DE102018207976A1 (de) Verfahren und Vorrichtung zum Anzeigen einer Fahrzeugumgebung
EP3759644B1 (de) Identifizieren unbesetzter sitzplätze auf basis der detektion einer sich wiederholenden textur
DE102006004489B4 (de) Verfahren und Vorrichtung zur Bildverarbeitung
DE10321497B4 (de) Verfahren zur Darstellung von Bildern einer Zeilenkamera

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8127 New person/name/address of the applicant

Owner name: CONTINENTAL AUTOMOTIVE GMBH, 30165 HANNOVER, DE

R005 Application deemed withdrawn due to failure to request examination

Effective date: 20130522