DE102020003570A1 - Assistenzsystem für ein Fahrzeug zur Bestimmung einer Geschwindigkeit eines quer zur Fahrtrichtung strömenden Luftstromes - Google Patents

Assistenzsystem für ein Fahrzeug zur Bestimmung einer Geschwindigkeit eines quer zur Fahrtrichtung strömenden Luftstromes Download PDF

Info

Publication number
DE102020003570A1
DE102020003570A1 DE102020003570.1A DE102020003570A DE102020003570A1 DE 102020003570 A1 DE102020003570 A1 DE 102020003570A1 DE 102020003570 A DE102020003570 A DE 102020003570A DE 102020003570 A1 DE102020003570 A1 DE 102020003570A1
Authority
DE
Germany
Prior art keywords
optical
wind
evaluation unit
gray
assistance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020003570.1A
Other languages
English (en)
Inventor
Rainer Straschill
Tobias Schäfer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FEV Europe GmbH
Original Assignee
FEV Group GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FEV Group GmbH filed Critical FEV Group GmbH
Priority to DE102020003570.1A priority Critical patent/DE102020003570A1/de
Publication of DE102020003570A1 publication Critical patent/DE102020003570A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P5/00Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
    • G01P5/001Full-field flow measurement, e.g. determining flow velocity and direction in a whole region at the same time, flow visualisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P5/00Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft
    • G01P5/26Measuring speed of fluids, e.g. of air stream; Measuring speed of bodies relative to fluids, e.g. of ship, of aircraft by measuring the direct influence of the streaming fluid on the properties of a detecting optical wave

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Assistenzsystem (1) für ein Fahrzeug (2), das Assistenzsystem (1) aufweisend eine optische Linse (3), einen Photodetektor (4) und eine Auswertungseinheit (5), wobei die Auswertungseinheit (5) ausgebildet und eingerichtet ist, anhand einer zeitlichen Abfolge von mit der optischen Linse (3) und dem Photodetektor (4) erzeugten Signalen eine Bildserie mit zumindest zwei Bildern (7, 8) zu generieren und einen optischen Fluss (9) zu bestimmen, wobei der optische Fluss (9) zeitliche Veränderungen von Grau- oder Farbwerten bei einer Visualisierung der Bildserie repräsentiert, und anhand des optischen Flusses (9) einen Wert eines Bewegungsparameters eines das Fahrzeug (2) umgebenden Windes (71) zu bestimmen, wobei der Bewegungsparameter eine Bewegung des Windes (71) in einer Ebene (26) beschreibt, die senkrecht zu einer optischen Achse (11) der optischen Linse (3) ausgerichtet ist.

Description

  • Die Erfindung betrifft ein Assistenzsystem für ein Fahrzeug, wobei das Assistenzsystem eine optische Linse, einen Photodetektor und eine Auswertungseinheit aufweist. Die Erfindung betrifft weiterhin ein Verfahren zur Bestimmung eines Wertes eines Bewegungsparameters eines ein Fahrzeug umgebenden Windes und ein Computerprogramm zum Durchführen des Verfahrens auf einem Computer.
  • Mithilfe von bekannten Verfahren zur Bestimmung eines Geschwindigkeitswertes eines ein Fahrzeug umgebenden Windes ist es möglich den Geschwindigkeitswert für Richtungen des Windes in radialer Richtung in Bezug zu einem Photosensor zu bestimmen. Beispielsweise kann eine Frequenzverschiebung von einer an Partikeln der das Fahrzeug umgebenden Luft reflektierten Strahlung mit dem Photosensor detektiert werden. Anhand der Frequenzverschiebung kann unter Berücksichtigung des Doppler-Effektes und einer bekannten Geschwindigkeit des Fahrzeugs der Geschwindigkeitswert der Luft in der radialen Richtung bestimmt werden. Da sich in der Regel weitere Fahrzeuge seitlich von dem Fahrzeug befinden, wird ein solches Verfahren in vielen Fällen für eine Erfassung einer Geschwindigkeit des Windes für Windrichtungen verwendet, die parallel zu einer Fahrtrichtung des Fahrzeuges ausgerichtet sind. Dies ermöglicht es, einen Fahrtwiderstand des Fahrzeugs genauer zu berechnen. Anhand des Fahrtwiderstandes kann ein Betriebspunkt einer Antriebsmaschine des Fahrzeugs derart eingestellt werden, dass Emissionen der Antriebsmaschine reduziert werden können.
  • Weiterhin beschreibt die DE10316762B4 ein Verfahren zur optischen Messung von Windgeschwindigkeiten mithilfe eines Laser-Doppler-Anemometers. Des Weiteren ist in der DE10316762B4 beschrieben, eine Dopplerverschiebung mit einem Interferometer zu bestimmen und mithilfe eines Photodetektors eine Intensitätsverteilung eines mit dem Interferometer erzeugten Interferogramms zu messen. Die Intensitätsverteilung wird weiterhin mit einer Schar von Referenzmustern verglichen. Die Dopplerverschiebung wird bei diesem Verfahren als ein Maß für die Windgeschwindigkeit ermittelt.
  • Es wird ein Assistenzsystem für ein Fahrzeug vorgeschlagen. Das Assistenzsystem weist eine optische Linse, einen Photodetektor und eine Auswertungseinheit auf. Die Auswertungseinheit ist ausgebildet und eingerichtet, anhand einer zeitlichen Abfolge von mit der Linse und dem Photodetektor erzeugten Signalen eine Bildserie mit zumindest zwei Bildern zu generieren und einen optischen Fluss zu bestimmen. Der optische Fluss repräsentiert eine zeitliche Veränderung von Grau- oder Farbwerten bei einer Visualisierung der Bildserie. Weiterhin ist die Auswertungseinheit ausgebildet und eingerichtet, anhand des optischen Flusses einen Wert eines Bewegungsparameters eines das Fahrzeug umgebenden Windes zu bestimmen. Der Bewegungsparameter beschreibt eine Bewegung des Windes in einer Ebene, die senkrecht zu einer optischen Achse der Linse ausgerichtet ist.
  • In einem bevorzugten Ausführungsbeispiel ist die Auswertungseinheit ausgebildet und eingerichtet, anhand des optischen Flusses eine Richtung des Windes in der Ebene zu bestimmen, wobei der Bewegungsparameter die Richtung des Windes in der Ebene ist. In diesem Fall gibt der Wert des Bewegungsparameters bevorzugt einen Winkel in der Ebene an.
  • In einem weiteren Ausführungsbeispiel ist die Auswertungseinheit ausgebildet und eingerichtet, anhand des optischen Flusses eine Geschwindigkeit des Windes in der Ebene zu bestimmen, wobei der Bewegungsparameter die Geschwindigkeit des Windes in der Ebene ist. In diesem Ausführungsbeispiel ist der Wert des Bewegungsparameters bevorzugt ein Geschwindigkeitswert.
  • Bevorzugt weist das Assistenzsystem eine Kombination dieser beiden Ausführungsbeispiele auf. In diesem Fall ist die Auswertungseinheit vorteilhaft ausgebildet und eingerichtet, anhand des optischen Flusses einen Wert eines ersten Bewegungsparameters, der die Richtung des Windes in der Ebene angibt, und einen Wert eines zweiten Bewegungsparameters, der die Geschwindigkeit des Windes in der Ebene angibt, zu bestimmen.
  • Ein Bestimmen der jeweiligen Werte der genannten Bewegungsparameter umfasst bevorzugt ein Approximieren dieser Werte anhand des optischen Flusses.
  • Dadurch, dass mit dem vorgeschlagenen Assistenzsystem der Wert des Bewegungsparameters, insbesondere der Winkel der Richtung und/oder der Geschwindigkeitswert des Windes, in der Ebene bestimmt werden kann, die senkrecht zu der optischen Achse ausgerichtet ist, kann eine Richtung und/oder eine Stärke eines Seitenwindes des Fahrzeugs bestimmt werden. In diesem Fall ist die optische Achse bevorzugt näherungsweise parallel zu einer Fahrtrichtung des Fahrzeugs ausgerichtet. Eine Kenntnis über den Seitenwind ermöglicht es, auf Gefahrensituationen für das Fahrzeug besser reagieren zu können. Beispielsweise kann auf einem Display des Fahrzeugs einem Fahrer des Fahrzeugs angezeigt werden, ob der Seitenwind von links oder von rechts kommt. Bevorzugt weist das Assistenzsystem eine Reichweite von etwa 50 bis 100 Meter auf, d.h. der Photodetektor ist ausgebildet, reflektiertes Licht zumindest aus einer Entfernung von 50 bis 100 Metern zu erfassen. Mithilfe eines derartigen Assistenzsystems kann beispielsweise der Fahrer gewarnt werden, bevor er in eine Zone mit starkem Seitenwind einfährt. Dies kann bei Überfahrten von Brücken eine Sicherheit des Fahrzeugs deutlich erhöhen.
  • Eine Bestimmung der Richtung und/oder des Geschwindigkeitswertes des Windes erhöht die Sicherheit dahingehend, dass der Seitenwind dadurch noch genauer für den Fahrer angegeben werden kann.
  • Das Assistenzsystem ist vorteilhaft ausgebildet und eingerichtet, mit zumindest einem weiteren Assistenzsystem des Fahrzeugs, wie zum Beispiel einem Spurhalteassistenzsystem oder einem System für ein teilweises oder vollständiges autonomes Fahren, zu kommunizieren. Bevorzugt sendet das Assistenzsystem den Wert des Bewegungsparameters an das weitere Assistenzsystem zur weiteren Datenverarbeitung mithilfe des weiteren Assistenzsystems. In diesem Sinne kann das vorgeschlagene Assistenzsystem auch dem Fahrer des Fahrzeugs assistieren.
  • Bevorzugt ist die optische Linse mit der optischen Achse während einem Erzeugen der Signale drehfest angeordnet. Insbesondere weist die Linse während dem Erzeugen der Signale eine unveränderliche Position gegenüber dem Fahrzeug auf, wobei die Linse und der Photodetektor in oder an dem Fahrzeug angeordnet sind. Die Auswertungseinheit kann in dem Fahrzeug oder außerhalb des Fahrzeugs angeordnet sein. In dem letzten Fall weist das Fahrzeug, insbesondere der Photodetektor, eine Kommunikationsverbindung zu der Auswertungseinheit auf.
  • Die Signale sind bevorzugt als Stromsignale und/oder Spannungssignale ausgebildet, die durch ein Umleiten von Photonen mithilfe der Linse in Richtung des Photodetektors erzeugbar sind. Die zeitliche Abfolge der Signale weist zumindest einen zu einem ersten Zeitpunkt mithilfe der Linse und dem Photodetektor erzeugten ersten Satz von Signalen und einen zu einem zweiten Zeitpunkt mithilfe der Linse und dem Photodetektor erzeugten zweiten Satz von Signalen auf. Die Auswertungseinheit ist bevorzugt ausgebildet und eingerichtet, anhand des ersten Satzes der Signale ein erstes Bild der Bildserie und anhand des zweiten Satzes der Signale ein zweites Bild der Bildserie zu generieren. Praktischerweise umfasst die zeitliche Abfolge der Signale mehrere, zum Beispiel zehn bis einhundert, Sätze von Signalen. Die Sätze der Signale werden bevorzugt jeweils zu unterschiedlichen Zeitpunkten mithilfe des Photodetektors erzeugt und an die Auswertungseinheit gesendet. Vorteilhaft ist die Auswertungseinheit eingerichtet und ausgebildet, für die jeweiligen Sätze der Signale jeweils ein korrespondierendes Bild zu erzeugen. Die Bildserie umfasst in diesem Fall die korrespondierenden Bilder.
  • Der Photodetektor weist bevorzugt mehrere Photosensoren, insbesondere Photodioden, auf, die vorteilhaft in Form eines Rasters und bevorzugt parallel in einer Ebene des Photodetektors angeordnet sind. Die Auswertungseinheit ist bevorzugt eingerichtet, den ersten und zweiten Satz der Signale derart zu verarbeiten, dass einzelne Bereiche des Rasters, insbesondere einzelne Photosensoren oder einzelne Gruppen von Photosensoren, einzelnen imaginären Pixeln oder einzelnen Bereichen mit jeweils mehreren imaginären Pixeln zugeordnet werden. Die imaginären Pixel können in ihrer Gesamtheit einen künstlichen Bildbereich zur Darstellung eines mit der Linse erfassbaren Gegenstandsbereiches repräsentieren. Die imaginären Pixel können jeweils als Bildelemente des künstlichen Bildbereiches aufgefasst werden. Der künstliche Bildbereich kann mithilfe einer ersten und einer orthogonal zur ersten orientierten zweiten Koordinatenachse oder mithilfe einer Rastermatrix in die imaginären Pixel eingeteilt werden. Vorteilhafterweise kann jeder imaginäre Pixel mit jeweils einem Wert der ersten und einem Wert der zweiten Koordinatenachse spezifiziert werden.
  • Mit dem Begriff „imaginärer Pixel“ ist ein Pixel des künstlichen Bildbereiches gemeint. Imaginär meint in diesem Zusammenhang, dass der Pixel des künstlichen Bildbereiches nicht in physischer Form vorliegen muss. Stattdessen können die imaginären Pixel jeweils in Form eines jeweiligen Wertepaares mit zwei Werten ausgebildet sein. Ein erster Wert und ein zweiter Wert des jeweiligen Wertepaares sind bevorzugt einem Wert der ersten beziehungsweise einem Wert der zweiten Koordinatenachse zugeordnet und/oder können gleich einem Wert der ersten beziehungsweise einem Wert der zweiten Koordinatenachse sein.
  • Analog kann der künstliche Bildbereich als ein Bildbereich verstanden werden, der durch die imaginären Pixel charakterisiert ist und nicht in physischer Form vorliegt. Die imaginären Pixel können in einer vorteilhaften Ausgestaltung in Form von Elementen der Rastermatrix repräsentiert werden, wobei das jeweilige Wertepaar in Form einer Zeilenzahl und einer Spaltenzahl der Rastermatrix ausgebildet ist. Eine Anzahl von Spalten und Zeilen der Rastermatrix kann in dieser Ausgestaltung eine Auflösung des künstlichen Bildes definieren. Die Rastermatrix kann als eine Rasterdarstellung des künstlichen Bildes betrachtet werden.
  • Die Bilder der Bildserie, insbesondere das erste und zweite Bild, können als Schwarz-Weiß-Bilder oder als Farbilder ausgeführt sein. Im letzten Fall haben Teile der Photosensoren bevorzugt eine unterschiedliche Empfindlichkeit gegenüber mindestens zwei Wellenlängen des Lichts, wie zum Beispiel gegenüber einer ersten Wellenlänge in einem Bereich von etwa 630nm bis 700nm (rotes Licht), einer zweiten Wellenlänge im Bereich von 490nm bis 560nm (grünes Licht) und einer dritten Wellenlänge im Bereich von 560nm bis 590nm (gelbes Licht).
  • Die Auswertungseinheit ist bevorzugt eingerichtet und ausgebildet, anhand der Signale einen jeweiligen Grau- oder Farbwert für jeden imaginären Pixel, je nachdem, ob das erste und zweite Bild als ein Schwarz-Weiß-Bild oder als ein Farbbild ausgebildet ist, zu berechnen.
  • Die Auswertungseinheit ist vorteilhafterweise eingerichtet und ausgebildet, anhand des ersten Satzes der Signale einen ersten Satz von Grau- beziehungsweise Farbwerten für die imaginären Pixel, im Folgenden auch als erster Satz bezeichnet, und anhand des zweiten Satzes der Signale einen zweiten Satz von Grau- beziehungsweise Farbwerten für die imaginären Pixel, im Folgenden auch als zweiter Satz bezeichnet, zu berechnen.
  • Vorteilhafterweise kann die Auswertungseinheit jedem imaginären Pixel anhand des ersten oder zweiten Satzes der Signale jeweils zumindest einen Grau- beziehungsweise Farbwert zuordnen. Beispielsweise können der erste und der zweite Satz in Form einer ersten Matrix beziehungsweise zweiten Matrix abgespeichert sein. Dadurch kann eine Zuordnung der Grau- beziehungsweise Farbwerte des ersten beziehungsweise zweiten Satzes zu den imaginären Pixeln bereitgestellt werden, wobei jedes Element der ersten und zweiten Matrix jeweils einem der imaginären Pixel zugeordnet ist. Die Elemente der ersten und zweiten Matrix können ein oder mehrere Einträge aufweisen, je nachdem, ob das erste und zweite Bild als ein Schwarz-Weiß oder Farbbild ausgebildet ist. In dem letzten Fall kann die erste und zweite Matrix jeweils als ein Tensor ausgebildet sein. Die erste und die zweite Matrix weisen jeweils bevorzugt die gleiche Dimension wie die Rastermatrix auf. Weiterhin entspricht ein jeweiliges Element der ersten und zweiten Matrix, das mit einer jeweiligen Zeilen- und Spaltenzahl spezifizierbar ist, bevorzugt einem Element der Rastermatrix, das mit derselben Zeilen- und Spaltenzahl wie das jeweilige Element der ersten und zweiten Matrix spezifizierbar ist.
  • Das erste und zweite Bild ist bevorzugt durch die jeweilige Zuordnung der Grau- beziehungsweise Farbwerte des ersten beziehungsweise zweiten Satzes zu den imaginären Pixeln definiert. So können das erste und zweite Bild in Form der ersten beziehungsweise zweiten Matrix vorliegen und bevorzugt in der Auswertungseinheit abgespeichert sein.
  • In manchen Fällen können die Grau- beziehungsweise Farbwerte des ersten und zweiten Satzes im Rahmen einer Bildbearbeitung verarbeitet werden, um das erste beziehungsweise zweite Bild zu erzeugen. Weiterhin ist es möglich, dass die Auswertungseinheit das erste und zweite Bild jeweils in Form einer Vektorgrafik generiert. In diesem Ausführungsbeispiel kann die Auswertungseinheit bevorzugt den ersten und zweiten Satz der Signale in eine erste beziehungsweise zweite Vektorgrafik umwandeln.
  • Die Visualisierung der Bildserie kann durchgeführt werden, indem das zweite Bild zeitlich gesehen nach dem ersten Bild auf einem Bildschirm angezeigt wird. Im Folgenden wird ein Beispiel für die Visualisierung angegeben, um den optischen Flusses anschaulicher zu beschreiben.
  • Der Bildschirm kann bei der Visualisierung einen physischen Bildbereich, der in physische Pixel eingeteilt ist, aufweisen. Die physischen Pixel können in Form von Leuchtelementen, wie zum Beispiel Leuchtdioden, ausgebildet sein. Bevorzugt nehmen bei der Visualisierung die physischen Pixel bei einem Anzeigen des ersten Bildes die Grau- oder Farbwerte des ersten Satzes der Grau- oder Farbwerte und bei einem Anzeigen des zweiten Bildes die Grau- oder Farbwerte des zweiten Satzes der Grau- oder Farbwerte an. Bei der Visualisierung werden diese Grau- oder Farbwerte, bevorzugt in Abhängigkeit der Zuordnung der Grau- beziehungsweise Farbwerte zu den imaginären Pixeln, den physischen Pixeln zugeordnet. Dies kann durch eine Ansteuerung der Leuchtelemente, vorteilhaft in Abhängigkeit der Einträge der ersten und zweiten Matrix, realisiert werden.
  • In den meisten Fällen weicht zumindest ein Grau- beziehungsweise Farbwert des zweiten Satzes, der einem physischen Pixel zugeordnet ist, von einem Grau- beziehungsweise Farbwert des ersten Satzes, der demselben physischen Pixel zugeordnet ist, ab. Dies ist mit den oben genannten zeitlichen Veränderungen der Grau- beziehungsweise Farbwerte gemeint.
  • Bei der Visualisierung sind die zeitlichen Veränderungen der Grau- beziehungsweise Farbwerte der physischen Pixel wahrnehmbar. Diejenigen Grau- beziehungsweise Farbwerte, die für einen Beobachter ihre Farbemission, d.h. ihren jeweiligen Grau- beziehungsweise Farbwert, nicht merklich verändern und von unterschiedlichen physischen Pixeln des physischen Bildbereiches bei der Visualisierung dargestellt sind, sind von dem Beobachter in Form einer Bewegung erfassbar. Der optische Fluss repräsentiert vorzugsweise diese Bewegung. Der optische Fluss kann somit die zeitlichen Veränderungen der Grau und/oder der Farbwerte beziehungsweise von Helligkeitswerten der physischen Pixel beziehungsweise der Bilder der Bildserie repräsentieren. Der Begriff „repräsentieren“ meint, dass die zeitlichen Veränderungen der Grau und/oder Farbwerte mithilfe des optischen Flusses darstellbar sind.
  • Beispielsweise kann der optische Fluss als ein Vektorfeld ausgebildet sein. Bevorzugt geben jeweilige Vektoren des Vektorfeldes jeweilige Richtungen und jeweilige Geschwindigkeiten der jeweiligen Grau- oder Farbwertes des ersten Satzes an. In einer weiteren Ausgestaltung können ein einzelner weiterer Vektor oder mehrere weitere Vektoren des Vektorfeldes jeweilige Richtungen und jeweilige Geschwindigkeiten von einem einzelnen Bereich, der mehrere Grau- oder Farbwerte des ersten Satzes umfasst, beziehungsweise von mehreren jeweiligen Bereichen, die jeweils mehrere Grau- oder Farbwerte des ersten Satzes umfassen, angeben. Der einzelne Bereich beziehungsweise die jeweiligen Bereiche sind für den Beobachter bei der Visualisierung bevorzugt als ein beziehungsweise mehrere sich über den physischen Bildbereich bewegende Muster wahrnehmbar.
  • Das Assistenzsystem muss nicht eingerichtet sein, um die Visualisierung durchzuführen. Jedoch kann der optische Fluss spezifiziert werden, indem dieser derart definiert wird, dass der optische Fluss die zeitlichen Veränderungen der Grau- oder Farbwerte bei der Visualisierung der Bildserie repräsentiert.
  • Der optische Fluss kann weiterhin nach einer der folgenden Varianten präziser definiert werden.
  • Beispielsweise kann der optische Fluss als ein Geschwindigkeitsfeld ausgebildet sein, anhand dessen durch Verwendung von Geschwindigkeitswerten und Geschwindigkeitsrichtungen des Geschwindigkeitsfeldes der zweite Satz der Grau- beziehungsweise Farbwerte ausgehend von dem ersten Satz der Grau- beziehungsweise Farbwerte berechenbar ist.
  • Weiterhin kann der optische Fluss als ein Vektorfeld betrachtet werden, das jeweilige Bewegungsrichtungen zwischen korrespondierenden Grau- oder Farbwerten einer Bildsequenz darstellt. Bezogen auf das obige Beispiel können die korrespondierenden Grau- oder Farbwerte als diejenigen Grau- beziehungsweise Farbwerte aufgefasst werden, die ihre Farbemission für den Beobachter beim Betrachten der Bildserie nicht merklich ändern. Mit anderen Worten formuliert ist der optische Fluss ein Eindruck von Bewegung, der durch Verschiebungen der Grau- beziehungsweise Farbwerte des ersten Bildes beim Betrachten der Bildserie, die zumindest das erste und zweite Bild aufweist. Bilden mehrere Grau- oder Farbwerte zusammen ein für den Beobachter erkennbares Muster aus, so kann der optische Fluss als ein weiteres Vektorfeld ausgebildet sein, wobei das weitere Vektorfeld eine Bewegung des Musters beim Betrachten der Bildserie beschreibt.
  • Der optische Fluss repräsentiert insbesondere einen Bewegungsverlauf von zumindest einer mit dem Photosensor erfassbaren Licht abstrahlenden, d.h. Licht reflektierenden oder aussendenden, Fläche oder mehreren mit dem Photosensor erfassbaren Licht abstrahlenden Flächen. Das Licht, das von der Fläche beziehungsweise den Flächen abgestrahlt wird, kann sich zwischen dem ersten und dem zweiten Zeitpunkt für einen Beobachter merklich verändern, zum Beispiel durch sein Farbspektrum oder seine Helligkeit, hebt sich jedoch bevorzugt von weiteren Licht abstrahlenden Flächen in einer Umgebung des Fahrzeugs für den Beobachter merklich ab. Dadurch kann der Beobachter die Licht abstrahlende Fläche beziehungsweise die Licht abstrahlenden Flächen als ein sich bewegenden Teilchen oder mehrere sich bewegende Teilchen wahrnehmen. In dem letzten Fall weisen die Licht abstrahlenden Flächen bevorzugt eine relative Geschwindigkeit zueinander auf, die deutlich geringer, das heißt mehr als vier Mal so gering, ist als eine mittlere Geschwindigkeit der Licht abstrahlenden Flächen. Der Bewegungsverlauf kann durch einen Richtungsvektor und einer Geschwindigkeit der Licht abstrahlenden Fläche beziehungsweise der Licht abstrahlenden Flächen darstellbar sein. Der optische Fluss umfasst in diesem Fall den Richtungsvektor und die Geschwindigkeit der Licht abstrahlenden Fläche beziehungsweise der Licht abstrahlenden Flächen.
  • In einer einfachen Ausgestaltung ist die Auswertungseinheit ausgebildet und eingerichtet, einen Vergleich der Grau- beziehungsweise Farbwerte des ersten Satzes mit den Grau- beziehungsweise Farbwerten des zweiten Satzes durchzuführen. Anhand des Vergleiches kann die Auswertungseinheit bevorzugt jeweilige Paare von Graubeziehungsweise Farbwerten identifizieren, die sich in ihrer Farbemission für einen Beobachter kaum merklich unterscheiden und unterschiedlichen imaginären Pixeln zugeordnet sind. Die identifizierten Paare weisen jeweils einen Grau- beziehungsweise Farbwert des ersten Satzes und einen Grau- beziehungsweise Farbwert des zweiten Satzes der Grau- beziehungsweise Farbwerte auf.
  • Die Grau- beziehungsweise Farbwerte der identifizierten Paare sind beispielsweise dahingehend merklich kaum unterscheidbar, dass sie sich nicht mehr als zehn bis zwanzig Prozent voneinander unterscheiden. Die Grau- beziehungsweise Farbwerte können jeweils in einem direkten Zusammenhang mit einer Leuchtstärke des jeweiligen Leuchtelementes stehen. Die Leuchtstärke kann ein Maß dafür sein, wie stark das jeweilige Leuchtelement leuchten muss, um eine Emission des entsprechenden Graubeziehungsweise Farbwertes zu realisieren.
  • Vorteilhaft ist die Auswertungseinheit ausgebildet und eingerichtet, anhand der identifizierten Paare der Grau- beziehungsweise Farbwerte und einem Zeitintervall, innerhalb welchem der erste und der zweite Satz der Signale erfasst wird, eine Bewegung der Grau- beziehungsweise Farbwerte der identifizierten Paare, insbesondere den optischen Fluss, zu bestimmen. Eine Bestimmung des optischen Flusses führt die Auswertungseinheit bevorzugt in Abhängigkeit eines Abstandes einer Fokusebene eines optischen Systems des Assistenzsystems von der optischen Linse durch. Das optische System weist zumindest die optische Linse und eine Bildebene, in der die Photosensoren angeordnet sind, auf. Der Abstand der Fokusebene ermittelt die Auswertungseinheit bevorzugt anhand der Linsengleichung, die einen Abstand der Bildebene zu der optischen Linse zu dem Abstand der Fokusebene zu der optischen Linse ins Verhältnis zueinander setzt.
  • In einer vorteilhaften Ausgestaltung ist die Auswertungseinheit ausgebildet und eingerichtet, den optischen Fluss mit Hilfe einer Variationsrechnung zu ermitteln. Im Folgenden soll eine Möglichkeit beschrieben werden, wie die Auswertungseinheit den optischen Fluss, hier beispielhaft unter Berücksichtigung der Grauwerte des ersten und zweiten Satzes, anhand der Variationsrechnung bestimmen kann. Bei einer Durchführung der Variationsrechnung bestimmt die Auswertungseinheit bevorzugt ein Energiefunktional E, vorzugsweise in Abhängigkeit von einem ersten Term und einem zweiten Term, wie folgt: E ( u , v ) = Ω ( f ( x i + u i , y i + v i , t + 1 ) f ( x i , y i , t ) ) 2 erster Term + α ( | u i | 2 + | v i | 2 ) zweiter Term d x d y
    Figure DE102020003570A1_0001
  • Der erste Term beschreibt eine Differenz zwischen einem Wert einer Funktion f zum Zeitpunkt t und einem Wert der Funktion f zum Zeitpunkt t+ 1. Die Funktion f weist bevorzugt als Argumente die Variablen xi, ui, yi, vi und t auf. Ein jeweiliger Wert der Funktion f zum Zeitpunkt t gibt einen jeweiligen Grauwert des ersten Satzes an, der einem jeweiligen imaginären Pixel / des künstlichen Bildbereiches zugeordnet ist, das durch xi als Wert der ersten Koordinatenachse und yi als Wert der zweiten Koordinatenachse des künstlichen Bildbereiches spezifiziert ist. Ein jeweiliger Wert der Funktion f zum Zeitpunkt t+ 1 gibt einen jeweiligen Grauwert des zweiten Satzes an, der einem jeweiligen weiteren imaginären Pixel des künstlichen Bildbereiches zugeordnet ist, das durch xi + ui als Wert der ersten Koordinatenachse und yi + vi als Wert der zweiten Koordinatenachse des künstlichen Bildbereiches spezifiziert ist.
  • Der erste Term wird dann minimal, wenn die Auswertungseinheit mithilfe der Variationsrechnung die Werte ui und vi derart bestimmt, dass der jeweilige Wert der Funktion f zum Zeitpunkt t+ 1 genauso groß wie der jeweilige Wert der Funktion f zum Zeitpunkt t+ 1 ist. Daher kann der erste Term auch als eine Bedingung zur Einhaltung einer Grauwertkonstanz aufgefasst werden. Eine Annahme, dass die Grauwertkonstanz vorliegt kann gleichbedeutend mit einer Überlegung sein, dass ein sich bei der Visualisierung bewegender Grauwert annähernd konstant ist. Hierbei wird davon ausgegangen, dass zwischen dem ersten und dem zweiten Bild, die bevorzugt zeitlich gesehen unmittelbar aufeinander folgen, keine oder nur vernachlässigbare Unterschiede von Grauwerten unabhängig von ihrer Position in dem künstlichen Bildbereich bestehen. Dies kann dadurch begründet werden, dass ein zeitlicher Abstand, das heißt ein Zeitintervall zwischen dem ersten und dem zweiten Zeitpunkt, in den meisten Fällen nur im Rahmen von wenigen Millisekunden liegt.
  • Die Werte ui und vi drücken aus, wie weit das jeweilige weitere imaginäre Pixel von dem jeweiligen imaginären Pixel, dem ein jeweiliger gleicher oder annähernd gleicher Grauwert wie dem jeweiligen weiteren imaginären Pixel zugeordnet ist, entfernt ist. Dieser jeweilige gleiche oder annähernd gleiche Grauwert wird im Folgenden als jeweiliger wandernder Grauwert bezeichnet. Somit können die Werte ui und vi jeweilige Richtungen angeben, in die sich der wandernde Grauwert ausgehend vom ersten Zeitpunkt t bis zu dem zweiten Zeitpunkt t+ 1 bewegt. Mit dem jeweiligen annähernd gleichen Grauwert, der dem jeweiligen imaginären Pixel zugeordnet ist, ist ein Grauwert gemeint, der sich nicht merklich für den Beobachter, zum Beispiel nicht mehr als zehn Prozent, von dem Grauwert unterscheidet, der dem entsprechenden jeweiligen weiteren imaginären Pixel zugeordnet ist.
  • Die Auswertungseinheit ist vorzugsweise eingerichtet und ausgebildet, das Energiefunktional E durch Variation der Werte von ui und vi zu minimieren. Der zweite Term des Energiefunktionals E bewirkt, dass das Energiefunktional E dann kleiner wird, je kleiner Gradienten der Verschiebungen ui und vi über der ersten beziehungsweise zweiten Koordinatenachse sind. Je kleiner diese Gradienten sind, desto „glatter“ verläuft der optische Fluss beim Betrachten der Bildserie. Eine Verwendung des zweiten Terms kann dadurch begründet sein, dass in vielen Fällen benachbarte Grauwerte des ersten Bildes auch im zweiten Bild benachbart sind. Mit anderen Worten geht man bei einem Aufstellen folgender Bedingung: | u i | 2 + | v i | 2 = 0
    Figure DE102020003570A1_0002
    davon aus, dass in vielen Fällen Objekte, wie beispielsweise das oben genannte Muster, mit Hilfe einer Vielzahl von benachbarten Grauwerten darstellbar sind, die eine vergleichsweise geringe Relativbewegung oder keine Relativbewegung beim Betrachten der Bildserie zueinander haben. Dies gilt vor allem für feste Objekte, wie beispielsweise eine Autotür, kann aber in vielen Fällen auch für sich in der Luft bewegende Teilchen, die ein Muster ausbilden, wie beispielsweise eine Vielzahl benachbarter Regentropfen, gelten. Ein Bestimmen des Energiefunktionals E gemäß Gleichung 1 ist vergleichbar mit dem Ansatz von Horn und Schunck.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung ist die Auswertungseinheit eingerichtet und ausgebildet, das Energiefunktional E in Abhängigkeit von einer Filterfunktion ξ zu berechnen. Das Energiefunktional E kann beispielsweise mit Hilfe der Auswertungseinheit wie folgt bestimmt werden: E ( u , v ) = Ω ( f ( x i + u i , y i + v i , t + 1 ) f ( x i , y i , t ) ) 2 erster Term + α ξ ( | u i | 2 + | v i | 2 ) zweiter Term d x d y
    Figure DE102020003570A1_0003
    wobei die Filterfunktion ξ wie folgt berechnet werden kann: ξ ( u i , v i ) = 2 2 1 + s 2 2 , mit s 2 = | u i | 2 + | v i | 2 ,
    Figure DE102020003570A1_0004
    wobei der Parameter ε angeben kann, welche Sprünge im Flussfeld erhalten bleiben sollen und welche geglättet werden sollen. Die Filterfunktion kann auch derart ausgebildet sein, große Gradienten von u und/oder v oder kleine Gradienten von u und/oder v stärker beziehungsweise schwächer gewichtet werden.
  • Eine Berechnung des Energiefunktionals E in Abhängigkeit von der Filterfunktion hat den Vorteil, dass der optische Fluss besser approximiert werden kann, wenn die Bildserie viele Objekte, die sich in verschiedene Richtungen bewegen, darstellt. Dies kann zum Beispiel daran liegen, dass bei Übergängen zwischen den Objekten in der Regel Sprünge im optischen Fluss zu beobachten sind. Diese Sprünge würden bei Verwendung des Energiefunktionals ohne die Filterfunktion einen Wert des Energiefunktionals erhöhen. Somit kann die Verwendung der Filterfunktion eine derartige Erhöhung reduzieren. Dies kann beispielsweise dann von Vorteil sein, wenn mithilfe des Assistenzsystems vor dem Fahrzeug mithilfe der ersten und zweiten Signale und dem zugehörigen ersten und zweiten Satz der Grauwerte mehrere Muster, wie zum Beispiel mehrere voneinander beabstandete Ansammlungen von Regentropfen, gleichzeitig erfasst werden.
  • Bei dem oben beschriebenen Energiefunktional E sind die Grauwerte berücksichtigt. In einer weiteren vorteilhaften Ausgestaltung kann das Energiefunktional E in Abhängigkeit von den Farbwerten des ersten und zweiten Satzes berechnet werden. Anstatt mit der oben genannten Funktion f kann bei dieser Ausgestaltung die Auswertungseinheit das Energiefunktional E vorteilhaft mithilfe von Werten einer jeweiligen Funktion f1, f2 und f3, die jeweils Werte eines Farbkanals eines RGB-Farbraums angeben, wie folgt berechnen: E ( u , v ) = Ω j = 1 3 ( f j ( x i + u i , y i + v i , t + 1 ) f j ( x i , y i , t ) ) 2 + α ( | u i | 2 + | v i | 2 ) zweiter Term d x d y
    Figure DE102020003570A1_0005
  • In einer vorteilhaften Weiterbildung ist vorgesehen, dass der Photodetektor und die optische Linse zusammen mit der optischen Achse der optischen Linse schwenkbar sind. Gemäß dieser Weiterbildung ist die Auswertungseinheit ausgebildet und eingerichtet, anhand einer zeitlichen Abfolge von mit der optischen Linse und dem Photodetektor erzeugten Signalen für jeweilige unterschiedliche Ausrichtungen der optischen Achse jeweils eine Bildserie mit zumindest zwei Bildern zu generieren und einen jeweiligen optischen Fluss zu bestimmen. Der jeweilige optische Fluss repräsentiert jeweilige zeitliche Veränderungen von Grau- oder Farbwerten bei einer Visualisierung der jeweiligen Bildserie. Weiterhin ist die Auswertungseinheit bei dieser Weiterbildung ausgebildet und eingerichtet, anhand des jeweiligen optischen Flusses einen Wert eines jeweiligen Bewegungsparameters des Windes zu bestimmen. Der jeweilige Bewegungsparameter beschreibt eine Bewegung des Windes in einer jeweiligen Ebene, die senkrecht zu der optischen Achse der optischen Linse ausgerichtet ist.
  • Weiterhin wird ein Verfahren zur Bestimmung eines Wertes eines Bewegungsparameters eines ein Fahrzeug umgebenden Windes vorgeschlagen. Das Verfahren weist die folgenden Schritte auf. In einem ersten Schritt wird eine zeitliche Abfolge von Bildern mithilfe eines Photodetektors, einer optischen Linse und einer Auswertungseinheit erfasst. Die zeitliche Abfolge der Bilder kann die oben beschriebene Bildserie sein. In einem zweiten Schritt wird ein optischer Fluss mithilfe der Auswertungseinheit und anhand der zeitlichen Abfolge der Bilder bestimmt, wobei der optische Fluss zeitliche Veränderungen von Grau- oder Farbwerten bei einer Visualisierung der zeitlichen Abfolge der Bilder repräsentiert. Der optische Fluss wird bevorzugt mithilfe der Auswertungseinheit nach einer der oben beschriebenen Varianten ermittelt. In einem dritten Schritt wird der Wert des Bewegungsparameters des das Fahrzeug umgebenden Windes anhand des optischen Flusses mithilfe der Auswertungseinheit bestimmt, vorteilhaft nach einer der oben beschriebenen Varianten. Der Bewegungsparameter beschreibt eine Bewegung des Windes in einer Ebene, die senkrecht zu einer optischen Achse der optischen Linse ausgerichtet ist.
  • Weiterhin wird ein Computerprogrammprodukt vorgeschlagen. Das Computerprogramm umfasst ein Programm, das, wenn es von einem Computer ausgeführt wird, den Computer veranlasst, das vorgeschlagene Verfahren durchzuführen.
  • Bevorzugte Ausführungsbeispiele werden anhand der folgenden Figuren näher erläutert. Dabei zeigt
    • 1 ein Assistenzsystem für ein Fahrzeug mit einer optischen Linse, einem Photodetektor und einer Auswertungseinheit;
    • 2 eine Draufsicht des in 1 gezeigten Assistenzsystems mit einer weiteren optischen Linse und einer Fokusebene eines optischen Systems mit der optischen Linse, der weiteren optischen Linse und dem Photodetektor;
    • 3 ein erstes Bild einer mit dem in 2 gezeigten optischen System erzeugten Bildserie;
    • 4 ein zweites Bild einer mit dem in 2 gezeigten optischen System erzeugten Bildserie;
    • 5 einen mithilfe von mit der in 1 gezeigten Auswertungseinheit ermittelten Verschiebungen von Grauwerten des ersten Bildes ermittelten optischen Fluss;
    • 6 Schritte eines Verfahrens zur Bestimmung einer Windgeschwindigkeit eines das Fahrzeug umgebenden Windes mithilfe des in 1 gezeigten Assistenzsystems.
  • 1 zeigt ein Assistenzsystem 1 für ein Fahrzeug 2 mit einer Fahrtrichtung 24. Das Assistenzsystem 1 ist bevorzugt in einem vorderen Bereich des Fahrzeugs 2 eingebaut. Das Assistenzsystem 1 weist eine optische Linse 3, einen Photodetektor 4 und eine Auswertungseinheit 5 auf. Die Auswertungseinheit 5 ist ausgebildet und eingerichtet, anhand einer zeitlichen Abfolge von mit der Linse 3 und dem Photodetektor 4 erzeugten Signalen eine Bildserie mit zumindest einem ersten Bild 7 und einem zweiten Bild 8 zu generieren und einen optischen Fluss 9 zu bestimmen. Der optische Fluss 9 repräsentiert eine zeitliche Veränderung von Grau- oder Farbwerten bei einer Visualisierung der Bildserie 6. Weiterhin ist die Auswertungseinheit 5 ausgebildet und eingerichtet, anhand des optischen Flusses 9 einen Wert eines Bewegungsparameters eines das Fahrzeug 2 umgebenden Windes zu bestimmen. Der Bewegungsparameter beschreibt eine Bewegung des Windes in einer Ebene, die senkrecht zu einer optischen Achse 11 der Linse 3 ausgerichtet ist.
  • 1 zeigt eine z-Richtung 23 des Assistenzsystems 1, die vorzugsweise parallel zu der optischen Achse 11 ausgerichtet ist. 1 zeigt das Fahrzeug 2 und das Assistenzsystem 1 in einer Seitenansicht und 2 das Assistenzsystem 1 in einer Draufsicht. Außerdem ist in 2 ein rechtsdrehendes Koordinatensystem 20 mit der in die Bildebene hinein zeigenden z-Richtung 23, einer parallel zur Bildebene und senkrecht zur z-Richtung 23 ausgerichteten x-Richtung 21 und y-Richtung 22 abgebildet.
  • In der in 1 und 2 gezeigten Einstellung des Assistenzsystems 1 ist die optische Achse 11, und in den in den 1 und 2 gezeigten Ausführungsbeispielen auch die z-Richtung 23, parallel zu der Fahrtrichtung 24 des Fahrzeugs 2 ausgerichtet. Dadurch kann das Assistenzsystem 1 Lichtreflexionen, die innerhalb eines vor dem Fahrzeug 2 befindlichen Raumes 25 stattfinden, erfassen. Die Lichtreflexionen können beispielsweise durch Reflexionen von Licht an Objekten 30, die sich in dem Raum 25 befinden, verursacht werden. Die Objekte 30 können kleine Staubpartikel oder Regentropfen sein und weisen für die folgende Beschreibung des Assistenzsystems 1 ein erstes Objekt 31, ein zweites Objekt 32 und ein drittes Objekt 33 auf.
  • Im Folgenden soll ein Ausführungsbeispiel beschrieben werden, bei welchem die Objekte 30 sich in einer Fokusebene 26 eines optischen Systems 27 des Assistenzsystems 1, die senkrecht zur optischen Achse 11 ausgerichtet ist, befinden. Das optische System 27 umfasst die Linse 3, den Photodetektor 4 und in dem in 2 gezeigten Ausführungsbeispiel eine weitere Linse 28.
  • Das optische System 27 ist eingerichtet, einen Gegenstand oder mehrere Gegenstände, wie beispielsweise die Objekte 30, die sich in der Fokusebene 26 befinden, mithilfe der optischen Linse 3 und bevorzugt der weiteren optischen Linse 28 auf einem Bildbereich 29, der sich in einer Bildebene 34 des optischen Systems 27 befindet, abzubilden. Der Photodetektor 4 weist in der in 4 gezeigten Ausführungsform mehrere Photodioden 35 auf, die mit Photonen, die die Bildebene 34 passieren, interagieren können. Eine Interaktion dieser Photonen mit den Photodioden 35 kann ein Erzeugen von Strom und/oder Spannungssignalen an einem Ausgang 36 des Photodetektors 4 bewirken. Die Strom- und/oder Spannungssignale sendet der Photodetektor 4 bevorzugt über den Ausgang 36 an einen Eingang 37 der Auswertungseinheit 5.
  • Im Folgenden wird eine mögliche Verwendung des Assistenzsystems 1 beschrieben, bei welcher zu einem ersten Zeitpunkt der Photodetektor 4 erste Spannungssignale und zu einem zweiten Zeitpunkt zweite Spannungssignale generiert und über den Ausgang 36 an den Eingang 37 der Auswertungseinheit 5 sendet. Die Photodioden 35 sind bevorzugt in einer Ebene 38 des Photodetektors 4, bevorzugt rasterförmig, angeordnet. Vorteilhafterweise berühren oder durchstoßen die Photodioden 35 die Bildebene 34, um mit den Photonen, die die Bildebene 34 passieren, zu interagieren und die ersten und zweiten Spannungssignale zu erzeugen.
  • Die ersten und zweiten Spannungssignale sendet der Photodetektor 4 bevorzugt derart, dass die Auswertungseinheit 5 zusätzlich zu den ersten und zweiten Spannungssignalen zusätzliche Informationen empfängt, von welchen einzelnen Photodioden 35 die jeweiligen ersten und zweiten Spannungssignale erzeugt sind. Anhand der zusätzlichen Informationen ordnet die Auswertungseinheit 5 vorteilhafterweise den ersten und zweiten Spannungssignalen, die von den einzelnen Photodioden 35 generiert sind, jeweils einzelne imaginäre Pixel eines künstlichen Bildbereiches 40 oder einzelnen Bereichen 39 des Bildbereiches 29 zu. Der künstliche Bildbereich 40 kann mit Hilfe einer ersten Koordinatenrichtung 41, die vorteilhafterweise die x-Richtung 21 repräsentiert, und einer zweiten Koordinatenachse 42, die vorteilhafterweise die y-Richtung 22 repräsentiert, eingeteilt werden.
  • Der künstliche Bildbereich 40 umfasst mehrere imaginäre Pixel 43. Die Auswertungseinheit 5 ist bevorzugt eingerichtet, jedem imaginären Pixel 43 zumindest einen Grau- und/oder Farbwert zuzuordnen, je nachdem, ob die Photodioden im Wesentlichen für eine Erfassung von Helligkeitswerten und/oder von Farbwerten ausgebildet sind. Im Folgenden soll ein Ausführungsbeispiel dargestellt werden, bei welchem die Auswertungseinheit 5 Grauwerte für die imaginären Pixel 43 des künstlichen Bildbereiches 40 in Abhängigkeit von den ersten und zweiten Spannungssignalen berechnet.
  • Zu einem ersten Zeitpunkt, an dem sich die Objekte 30 an einer ersten Position 51 in dem Raum 25 befinden, erzeugt der Photodetektor 4 bevorzugt die ersten Spannungssignale. Die ersten Spannungssignale können durch eine Emission von Photonen an Oberflächen der Objekte 30 und durch ein Auftreffen dieser Photonen auf die Photodioden 35 des Photodetektors 4 erzeugt werden. Diese Photonen werden mit Hilfe der optischen Linse 3 und vorzugsweise mit Hilfe der weiteren optischen Linse 28 von der ersten Position 51 kommend auf den Bildbereich 29 gelenkt.
  • Analog erzeugt der Photodetektor 4 bevorzugt zu einem zweiten Zeitpunkt, an dem sich die Objekte 30 an einer zweiten Position 52 in dem Raum 25 befinden, die zweiten Spannungssignale. Die zweiten Spannungssignale können durch eine Emission von Photonen an den Oberflächen der Objekte 30 und durch ein Auftreffen dieser Photonen auf die Photodioden 35 des Photodetektors 4 erzeugt werden. Diese Photonen werden mit Hilfe der optischen Linse 3 und vorzugsweise mit Hilfe der weiteren optischen Linse 28 von der zweiten Position 52 kommend auf den Bildbereich 29 gelenkt.
  • Die Objekte 30 bewegen sich während eines Zeitintervalls zwischen dem ersten und dem zweiten Zeitpunkt von der ersten Position 51 hin zu der zweiten Position 52. Die Auswertungseinheit 4 ist bevorzugt eingerichtet, in Abhängigkeit von den ersten Spannungssignalen einen ersten Satz von Grauwerten für die imaginären Pixel 43 zu berechnen, wobei der erste Satz der Grauwerte bevorzugt jeweils einen Grauwert für jedes imaginäre Pixel 43 enthält. Analog berechnet die Auswertungseinheit 4 vorzugsweise einen zweiten Satz von Grauwerten für die imaginären Pixel 43 in Abhängigkeit von den zweiten Spannungssignalen, wobei der zweite Satz der Grauwerte zumindest einen Grauwert für jedes imaginäre Pixel 43 aufweist.
  • Der erste Satz der Grauwerte kann in Kombination mit einer ersten Zuordnungsvorschrift eines jeweiligen Grauwertes des ersten Satzes der Grauwerte zu einem einzelnen jeweiligen imaginären Pixel der imaginären Pixel 43 eine Information darstellen, die das erste Bild 7, wie es in 3 gezeigt ist, repräsentiert. Analog kann der zweite Satz der Grauwerte in Kombination mit einer zweiten Zuordnungsvorschrift eines jeweiligen Grauwertes des zweiten Satzes der Grauwerte zu einem einzelnen jeweiligen imaginären Pixel der imaginären Pixel 43 eine Information darstellen, die das zweite Bild 8, wie es in 4 gezeigt ist, repräsentiert. Die erste und zweite Zuordnungsvorschrift können in Form der oben genannten ersten beziehungsweise zweiten Matrix ausgebildet sein. Das erste Bild 7 bildet zusammen mit dem zweiten Bild 8 in einem einfachen Ausführungsbeispiel die Bildserie aus. Die Bildserie kann gemäß weiteren Ausführungsbeispielen mehrere, beispielsweise weitere einhundert, Bilder umfassen.
  • Bevorzugt ist ein erster Grauwert des ersten Satzes der Grauwerte, der einem ersten imaginären Pixel 61 der imaginären Pixel 43 zugeordnet ist, zur Wiedergabe des ersten Objektes 31 bevorzugt um mindestens die Hälfte geringer als erste weitere Grauwerte des ersten Satzes der Grauwerte, die ersten weiteren imaginären Pixeln 161 der imaginären Pixel 43 zugeordnet sind, die unmittelbar an den ersten imaginären Pixel 61 angrenzen.
  • Analog ist bevorzugt ein zweiter und ein dritter Grauwert des ersten Satzes der Grauwerte, der einem zweiten imaginären Pixel 62 beziehungsweise einem dritten imaginären Pixel 63 der imaginären Pixel 43 zugeordnet ist, zur Wiedergabe des zweiten Objektes 32 beziehungsweise des dritten Objektes 33 bevorzugt um mindestens die Hälfte geringer als zweite weitere Grauwerte des ersten Satzes der Grauwerte, die zweiten weiteren imaginären Pixeln 162 der imaginären Pixel 43 zugeordnet sind, die unmittelbar an den zweiten imaginären Pixel 62 angrenzen, beziehungsweise als dritte weitere Grauwerte des ersten Satzes der Grauwerte, die dritten weiteren imaginären Pixeln 162 der imaginären Pixel 43 zugeordnet sind, die unmittelbar an den dritten imaginären Pixel 62 angrenzen.
  • Weiterhin ist bevorzugt ein vierter Grauwert des zweiten Satzes der Grauwerte, der einem vierten imaginären Pixel 64 der imaginären Pixel 43 zugeordnet ist, zur Wiedergabe des ersten Objektes 31 bevorzugt um mindestens die Hälfte geringer als vierte weitere Grauwerte des zweiten Satzes der Grauwerte, die vierten weiteren imaginären Pixeln 164 der imaginären Pixel 43 zugeordnet sind, die unmittelbar an den vierten imaginären Pixel 64 angrenzen.
  • Analog ist bevorzugt ein fünfter und ein sechster Grauwert des zweiten Satzes der Grauwerte, der einem fünften imaginären Pixel 65 beziehungsweise einem sechsten imaginären Pixel 66 der imaginären Pixel 43 zugeordnet ist, zur Wiedergabe des zweiten Objektes 32 beziehungsweise des dritten Objektes 33 bevorzugt um mindestens die Hälfte geringer als fünfte weitere Grauwerte des zweiten Satzes der Grauwerte, die fünften weiteren imaginären Pixeln 165 der imaginären Pixel 43 zugeordnet sind, die unmittelbar an den fünften imaginären Pixel 65 angrenzen, beziehungsweise als sechste weitere Grauwerte des zweiten Satzes der Grauwerte, die sechsten weiteren imaginären Pixeln 166 der imaginären Pixel 43 zugeordnet sind, die unmittelbar an den sechsten imaginären Pixel 66 angrenzen.
  • Bezogen auf das obige Anwendungsbeispiel, bei welchem sich die Objekte 30 zum ersten Zeitpunkt an der ersten Position 51 und zum zweiten Zeitpunkt an der zweiten Position 52 befinden, unterscheidet sich der Grauwert des ersten imaginären Pixels 61 für einen Beobachter beim Betrachten der Bildserie nicht merklich von dem Grauwert des vierten imaginären Pixels 64, der Grauwert des zweiten imaginären Pixels 62 nicht merklich von dem Grauwert des fünften imaginären Pixels 65 und der Grauwert des dritten imaginären Pixels 63 nicht merklich von dem Grauwert des sechsten imaginären Pixels 66. Aus diesem Grund kann der Beobachter beim Betrachten der Bildserie 6, bei welcher zuerst das erste Bild 7 und im Anschluss daran das zweite Bild 8 gezeigt wird, den optischen Fluss 9 wahrnehmen. Der optische Fluss 9 repräsentiert in diesem Falle die zeitliche Veränderung der Grauwerte des ersten, zweiten, dritten, vierten, fünften und sechsten imaginären Pixels 61, 62, 63, 64, 65, 66 und damit eine Bewegung der Objekte 30 von der ersten Position 51 zum ersten Zeitpunkt hin zu der zweiten Position 52 zum zweiten Zeitpunkt.
  • Der optische Fluss 9 ist bevorzugt, wie in 5 gezeigt, mit Hilfe von Vektoren 67 in einem Koordinatensystem mit der ersten Koordinatenachse 41 und der zweiten Koordinatenachse 42 darstellbar. Die erste Koordinatenachse 41 repräsentiert bevorzugt die x-Richtung 21 und die zweite Koordinatenachse 42 die y-Richtung 22. Die in 5 gezeigten Verschiebungen 67 entsprechen einer Verschiebung der Grauwerte des ersten, zweiten und dritten imaginären Pixels 61, 62, 63 in Richtung der ersten Koordinatenachse 41 jeweils hin zu dem vierten, fünften beziehungsweise sechsten imaginären Pixel 64, 65, 66. Eine Verschiebung eines einzelnen Grauwertes parallel zur ersten Koordinatenachse 41 kann mit ui und eine Verschiebung eines einzelnen Grauwertes parallel zu der zweiten Koordinatenachse 42 kann durch vi beschrieben werden.
  • Vorteilhafterweise ist die Auswertungseinheit 5 ausgebildet und eingerichtet, den optischen Fluss 9, insbesondere die jeweiligen Verschiebungen ui und vi der Grauwerte, anhand einer Durchführung der oben beschriebenen Variationsrechnung zu berechnen.
  • In einem bevorzugten Ausführungsbeispiel entspricht der optische Fluss 9 den jeweiligen Verschiebungen ui und vi oder einer Teilmenge dieser Verschiebungen. Die Teilmenge der Verschiebungen ui und vi kann beispielsweise diejenigen Verschiebungen umfassen, die größer als ein vorgegebener Schwellwert sind. Dies hat den Vorteil, dass lichtemittierende Flächen, die sich in dem Raum 25 verhältnismäßig langsam, beispielsweise langsamer als die Objekte 30, bewegen, vernachlässigt werden können. Um einen Seitenwind 71 in dem Raum 25 vor dem Fahrzeug 2 zu ermitteln, bestimmt die Auswertungseinheit 5 in Abhängigkeit von dem optischen Fluss 9 vorteilhafterweise einen Wert einer Geschwindigkeit und eine Richtung des Seitenwindes 71. Hierzu ermittelt die Auswertungseinheit 5 bevorzugt einen repräsentativen Vektor mit einem ersten und einem zweiten Eintrag. Der erste Eintrag und der zweite Eintrag ist jeweils als ein Mittelwert der Verschiebungen ui der Teilmenge der Verschiebungen beziehungsweise als ein Mittelwert der Verschiebungen vi der Teilmenge der Verschiebungen ausgebildet. Der repräsentative Vektor kann als der oben genannte Bewegungsparameter aufgefasst werden, der eine Bewegung des Seitenwindes 71 in der Fokusebene 26 beschreibt.
  • Der repräsentative Vektor gibt die Richtung des Seitenwindes 71 an. Eine Geschwindigkeit des Seitenwindes 71 ermittelt die Auswertungseinheit 5 vorteilhafterweise anhand einer Berechnung eines Betrages des repräsentativen Vektors.
  • Ein Geschwindigkeitsvektor zur Beschreibung des Seitenwindes 71 kann in Abhängigkeit von dem repräsentativen Vektor, dem Zeitintervall zwischen dem ersten und dem zweiten Zeitpunkt und der Linsengleichung ermittelt werden. Beispielsweise können in einem ersten Schritt die Elemente des repräsentativen Vektors jeweils durch das Zeitintervall geteilt werden. In einem zweiten Schritt können die Elemente des repräsentativen Vektors zusätzlich mit einem Abstand 72 der Fokusebene 26 zu der Linse 3 multipliziert und durch einen weiteren Abstand 73 zwischen der Linse 3 und der Bildebene 34 geteilt werden. Die auf diese Art veränderten Elemente des repräsentativen Vektors können Elemente des Geschwindigkeitsvektors des Seitenwindes 71 darstellen.
  • Der Geschwindigkeitsvektor des Seitenwindes 71 kann auf einem Display des Fahrzeugs 2 für einen Fahrer des Fahrzeugs 2 angezeigt werden und/oder von einem weiteren Assistenzsystem 6 verarbeitet werden. Weiterhin ist es möglich, dass die Auswertungseinheit 5 Daten über den Seitenwind 71, wie beispielsweise den Geschwindigkeitsvektor des Seitenwindes 71, mittels einer Funkschnittstelle 74 an eine Cloud und/oder an weitere Verkehrsteilnehmer sendet. Darüber hinaus können die Daten über den Seitenwind 71 in einem Speicher 75 des Fahrzeugs 2 abgespeichert werden.
  • In einer vorteilhaften Ausgestaltung weist das Assistenzsystem 1 einen ersten Stellmotor 76 zum Verstellen der Fokusebene 26 auf. Der erste Stellmotor 76 hat vorzugsweise einen Eingang, über den ein Steuergerät 77 des Assistenzsystems 1 eine Sollposition des ersten Stellmotors 76 an den ersten Stellmotor 76 senden kann. Des Weiteren weist der erste Stellmotor 76 bevorzugt einen Positionssensor auf, wobei über einen Ausgang des ersten Stellmotors 76 eine Istposition des ersten Stellmotors an das Steuergerät 77 und/oder die Auswertungseinheit 5 gesendet werden kann. Das Steuergerät 77 führt bevorzugt eine Regelung der Sollposition in Abhängigkeit von der Istposition durch. Die Auswertungseinheit 5 führt bevorzugt eine Berechnung des Abstandes 72 der Fokusebene 26 von der Linse 3 in Abhängigkeit von der Istposition durch.
  • In einer weiteren vorteilhaften Ausgestaltung weist das Assistenzsystem 1 einen zweiten Stellmotor 78 zum Verstellen einer Brennweite des optischen Systems 27 auf. Der zweite Stellmotor 78 ist bevorzugt mit Hilfe des Steuergerätes 77 steuer- und regelbar.
  • In einer weiteren Ausgestaltung ist das Assistenzsystem 1 ausgebildet und eingerichtet, den Abstand 72 der Fokusebene 26 zu der Linse 3 zu verstellen und für unterschiedliche Werte des Abstandes 72 einen jeweiligen optischen Fluss analog zu dem optischen Fluss 9 zu berechnen. Für die jeweiligen optischen Flüsse können jeweilige repräsentative Vektoren analog zu dem repräsentativen Vektor, der anhand des optischen Flusses 9 berechnet wird, ermittelt werden. Vorteilhafterweise rechnet die Auswertungseinheit 5 anhand der jeweiligen repräsentativen Vektoren jeweilige Geschwindigkeitsvektoren des Seitenwindes 71 analog zu dem oben beschriebenen Geschwindigkeitsvektor des Seitenwindes 71. Anhand der jeweiligen Geschwindigkeitsvektoren des Seitenwindes 71 kann ein gemittelter Geschwindigkeitsvektor für den Seitenwind 71 für den Raum 25 berechnet werden.
  • In einer weiteren Ausgestaltung ist das Assistenzsystem 1 bevorzugt ausgebildet und eingerichtet, mit Hilfe einer photonischen Quelle, zum Beispiel einem Laser, den Abstand 72 und/oder eine Geschwindigkeit der Objekte 30 in der z-Richtung 23 zu bestimmen. Die Geschwindigkeit in z-Richtung kann hierbei unter Berücksichtigung des Dopplereffektes ermittelt werden. In einer weiteren Ausgestaltung ist das Assistenzsystem 1 ausgebildet und eingerichtet, die Objekte 30 mit Hilfe einer Lichtquelle 79 zu beleuchten. Die Lichtquelle 79 kann sichtbares Licht oder Licht im nicht sichtbaren Bereich aussenden.
  • 6 zeigt Schritte eines Verfahrens zur Bestimmung des Wertes des Bewegungsparameters des Seitenwindes 71. Das Verfahren weist die folgenden Schritte auf. In einem ersten Schritt 101 wird die Bildserie mithilfe des Photodetektors 4, der optischen Linse 3 und der Auswertungseinheit 5 erfasst. In einem zweiten Schritt 102 wird der optische Fluss 9 mithilfe der Auswertungseinheit 5 und anhand der Bildserie bestimmt, wobei der optische Fluss 9 die zeitlichen Veränderungen der Grauwerte bei einer Visualisierung der Bildserie repräsentiert. Der optische Fluss 9 wird mithilfe der Auswertungseinheit 5 nach einer der oben beschriebenen Varianten ermittelt. In einem dritten Schritt 103 wird der Wert des Bewegungsparameters, insbesondere die Richtung und die Geschwindigkeit, des das Fahrzeug 2 umgebenden Seitenwindes 71 anhand des optischen Flusses 9 mithilfe der Auswertungseinheit 5 nach einer der oben beschriebenen Varianten bestimmt. Der Bewegungsparameter beschreibt eine Bewegung des Seitenwindes 71 in der Fokusebene 26, die senkrecht zu der optischen Achse 11 der optischen Linse 3 ausgerichtet ist.
  • Bei dem Verfahren können unterschiedliche Fokusebenen des optischen Systems 27 eingestellt werden und zu den unterschiedlichen Fokusebenen zumindest ein jeweiliger korrespondierender optischer Fluss bestimmt werden. Anhand der jeweiligen optischen Flüsse kann ein jeweiliger korrespondierender Wert des Bewegungsparameters des Seitenwindes 71 bestimmt werden. Weiterhin können die unterschiedlichen Fokusebenen durch ein Verändern einer Brennweite des optischen Systems 27 eingestellt werden. Hierbei wird der zweite Stellmotor 78 bewegt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10316762 B4 [0003]

Claims (10)

  1. Assistenzsystem (1) für ein Fahrzeug (2), das Assistenzsystem (1) aufweisend eine optische Linse (3), einen Photodetektor (4) und eine Auswertungseinheit (5), wobei die Auswertungseinheit (5) ausgebildet und eingerichtet ist, anhand einer zeitlichen Abfolge von mit der optischen Linse (3) und dem Photodetektor (4) erzeugten Signalen eine Bildserie mit zumindest zwei Bildern (7, 8) zu generieren und einen optischen Fluss (9) zu bestimmen, wobei der optische Fluss (9) zeitliche Veränderungen von Grau- oder Farbwerten bei einer Visualisierung der Bildserie repräsentiert, und anhand des optischen Flusses (9) einen Wert eines Bewegungsparameters eines das Fahrzeug (2) umgebenden Windes (71) zu bestimmen, wobei der Bewegungsparameter eine Bewegung des Windes (71) in einer Ebene (26) beschreibt, die senkrecht zu einer optischen Achse (11) der optischen Linse (3) ausgerichtet ist.
  2. Assistenzsystem (1) nach Anspruch 1, wobei die Auswertungseinheit (5) ausgebildet und eingerichtet ist, anhand des optischen Flusses (9) eine Richtung des Windes (71) in der Ebene (26) zu bestimmen, wobei der Bewegungsparameter die Richtung des Windes (71) in der Ebene (26) ist.
  3. Assistenzsystem (1) nach Anspruch 1, wobei die Auswertungseinheit (5) ausgebildet und eingerichtet ist, anhand des optischen Flusses (9) eine Geschwindigkeit des Windes (71) in der Ebene (26) zu bestimmen, wobei der Bewegungsparameter die Geschwindigkeit des Windes in der Ebene (26) ist.
  4. Assistenzsystem (1) nach einem der vorhergehenden Ansprüche, wobei der Photodetektor (4) und die optische Linse (3) zusammen mit der optischen Achse (11) der optischen Linse (3) schwenkbar sind und die Auswertungseinheit (5) ausgebildet und eingerichtet ist, anhand einer zeitlichen Abfolge von mit der optischen Linse (3) und dem Photodetektor (4) erzeugten Signalen für jeweilige unterschiedliche Ausrichtungen der optischen Achse (11) jeweils eine Bildserie mit zumindest zwei Bildern zu generieren und einen jeweiligen optischen Fluss zu bestimmen, wobei der jeweilige optische Fluss jeweilige zeitliche Veränderungen von Grau- oder Farbwerten bei einer Visualisierung der jeweiligen Bildserie repräsentiert, und anhand des jeweiligen optischen Flusses einen Wert eines jeweiligen Bewegungsparameters des Windes zu bestimmen, wobei der jeweilige Bewegungsparameter eine Bewegung des Windes in einer jeweiligen Ebene beschreibt, die senkrecht zu der optischen Achse (11) der optischen Linse (3) ausgerichtet ist.
  5. Assistenzsystem (1) nach einem der vorhergehenden Ansprüche, wobei das Assistenzsystem (1) ein optisches System (27), das die optische Linse (3) und den Photosensor umfasst, und einen ersten Stellmotor (76) zum Verstellen einer Fokusebene des optischen Systems (27) aufweist.
  6. Assistenzsystem (1) nach einem der vorhergehenden Ansprüche, wobei das Assistenzsystem (1) ein optisches System (27), das die optische Linse (3) und den Photosensor umfasst, und einen zweiten Stellmotor (78) zum Verstellen einer Brennweite des optischen Systems (27) aufweist.
  7. Verfahren zur Bestimmung eines Wertes eines Bewegungsparameters eines ein Fahrzeug (2) umgebenden Windes (71) mit den folgenden Schritten: - Erfassen einer zeitlichen Abfolge von Bildern (7, 8) mithilfe eines Photodetektors (4), einer optischen Linse (3) und einer Auswertungseinheit (5), - Bestimmen eines optischen Flusses (9) mithilfe der Auswertungseinheit (5) und anhand der zeitlichen Abfolge der Bilder, wobei der optische Fluss (9) zeitliche Veränderungen von Grau- oder Farbwerten bei einer Visualisierung der zeitlichen Abfolge der Bilder repräsentiert, - Bestimmen des Wertes des Bewegungsparameters des das Fahrzeug (2) umgebenden Windes (71) anhand des optischen Flusses (9) mithilfe der Auswertungseinheit (5), wobei der Bewegungsparameter eine Bewegung des Windes (71) in einer Ebene (26) beschreibt, die senkrecht zu einer optischen Achse (11) der optischen Linse (3) ausgerichtet ist.
  8. Verfahren nach Anspruch 7, wobei unterschiedliche Fokusebenen eines optischen Systems (27) eingestellt werden, wobei das optische System (27) zumindest den Photodetektor (4) und die optische Linse (3) umfasst, und zu den unterschiedlichen Fokusebenen zumindest ein jeweiliger korrespondierender optischer Fluss bestimmt wird und anhand der jeweiligen optischen Flüsse ein jeweiliger korrespondierender Wert des Bewegungsparameters des Windes bestimmt wird.
  9. Verfahren nach Anspruch 8, wobei das optische System (27) eine weitere optische Linse (28) aufweist und die unterschiedlichen Fokusebenen durch ein Verändern einer Brennweite des optischen Systems (27) eingestellt werden.
  10. Computerprogrammprodukt, umfassend ein Programm, das, wenn es von einem Computer ausgeführt wird, den Computer veranlasst, ein Verfahren nach einem der Ansprüche 7 bis 9 durchzuführen.
DE102020003570.1A 2020-06-16 2020-06-16 Assistenzsystem für ein Fahrzeug zur Bestimmung einer Geschwindigkeit eines quer zur Fahrtrichtung strömenden Luftstromes Pending DE102020003570A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020003570.1A DE102020003570A1 (de) 2020-06-16 2020-06-16 Assistenzsystem für ein Fahrzeug zur Bestimmung einer Geschwindigkeit eines quer zur Fahrtrichtung strömenden Luftstromes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020003570.1A DE102020003570A1 (de) 2020-06-16 2020-06-16 Assistenzsystem für ein Fahrzeug zur Bestimmung einer Geschwindigkeit eines quer zur Fahrtrichtung strömenden Luftstromes

Publications (1)

Publication Number Publication Date
DE102020003570A1 true DE102020003570A1 (de) 2020-08-06

Family

ID=71615529

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020003570.1A Pending DE102020003570A1 (de) 2020-06-16 2020-06-16 Assistenzsystem für ein Fahrzeug zur Bestimmung einer Geschwindigkeit eines quer zur Fahrtrichtung strömenden Luftstromes

Country Status (1)

Country Link
DE (1) DE102020003570A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10316762B4 (de) 2003-04-10 2007-01-25 Eads Deutschland Gmbh Verfahren zur Erfassung von Windgeschwindigkeiten mit einem Doppler-Lidar-System, insbesondere an Bord von Flugzeugen, und Doppler-Lidar-System

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10316762B4 (de) 2003-04-10 2007-01-25 Eads Deutschland Gmbh Verfahren zur Erfassung von Windgeschwindigkeiten mit einem Doppler-Lidar-System, insbesondere an Bord von Flugzeugen, und Doppler-Lidar-System

Similar Documents

Publication Publication Date Title
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
EP2427855B1 (de) Verfahren zur darstellung von objekten aus der umgebung eines fahrzeugs auf der anzeige einer anzeigevorrichtung
DE602005003926T2 (de) System und verfahren zum erkennen eines vorbeikommenden fahrzeugs aus dynamischem hintergrund unter verwendung robuster informationsfusion
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
DE102016122481A1 (de) Oberflächenzustandserkennung für schneebedeckte fahrbahnen
DE102011086512A1 (de) Verfahren zur Nebeldetektion
DE102011106072A1 (de) Schattenentfernung in einem durch eine fahrzeugbasierte kamera erfassten bild unter verwendung einer optimierten ausgerichteten linearen achse
DE102019106845A1 (de) Verschleierungsentfernung für Fahrzeugsensoren
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE102013212495A1 (de) Verfahren und Vorrichtung zur Inspektion einer konturierten Fläche,insbesondere des Unterbodens eines Kraftfahrzeugs
EP2289044A1 (de) Bilddatenvisualisierung
DE102011005056A1 (de) Aktives Sichthilfegerät und -verfahren für Fahrzeug
DE102019115459A1 (de) Verfahren und vorrichtung zur bewertung einer fahrbahnoberfläche für kraftfahrzeuge
DE102005056647A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung
WO2019063341A1 (de) Verfahren zum erfassen einer fahrbahnbeschaffenheit einer fahrbahn für ein kraftfahrzeug, fahrerassistenzsystem sowie kraftfahrzeug
DE102019127283A1 (de) System und Verfahren zum Erfassen eines Objekts in einer dreidimensionalen Umgebung eines Trägerfahrzeugs
DE602004003912T2 (de) Vorrichtung und Verfahren zur Messung der Sichtweite
DE102007041333A1 (de) Berührungslos arbeitendes Zählsystem
DE102020003570A1 (de) Assistenzsystem für ein Fahrzeug zur Bestimmung einer Geschwindigkeit eines quer zur Fahrtrichtung strömenden Luftstromes
DE102008059551B4 (de) Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern
DE60305345T2 (de) Bildverarbeitungseinrichtung mit erkennung und auswahl von lichtquellen
EP0779993B1 (de) Vorrichtung und verfahren zur erkennung von objekten
EP3938946A1 (de) Verfahren zum bereitstellen einer trainingsdatensatzmenge, ein verfahren zum trainieren eines klassifikators, ein verfahren zum steuern eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
DE102014007994A1 (de) Verfahren zur Erkennung von Lichtsignalen von Verkehrsteilnehmern

Legal Events

Date Code Title Description
R082 Change of representative
R084 Declaration of willingness to licence
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: FEV EUROPE GMBH, DE

Free format text: FORMER OWNER: FEV GROUP GMBH, 52078 AACHEN, DE

R082 Change of representative