-
Die Erfindung betrifft ein Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, eine Steuereinrichtung, die eingerichtet ist zur Durchführung eines solchen Verfahrens, eine Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung.
-
Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor mittels einer Beleuchtungseinrichtung und einem optischen Sensor sind bekannt. Aus der internationalen Patentanmeldung mit der Veröffentlichungsnummer
WO 2017/ 009 848 A1 geht ein solches Verfahren hervor, bei dem eine Beleuchtungseinrichtung und ein optischer Sensor zeitlich aufeinander abgestimmt angesteuert werden, um einen bestimmten sichtbaren Abstandsbereich in einem Beobachtungsbereich des optischen Sensors aufzunehmen, wobei sich der sichtbare Abstandsbereich aus der zeitlichen Abstimmung der Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors ergibt.
-
Aus der
US 2017 / 0 180 713 A1 ist ein Verfahren zur Umgebungserfassung bekannt, bei dem die Umgebung mit einer Beleuchtungseinrichtung beleuchtet wird und Bilder der beleuchteten Umgebung mit einer Kamera aufgenommen werden, wobei die Kamera und die Beleuchtungseinrichtung derart aufeinander abgestimmt angesteuert werden, dass die Kamera Bilder aus verschiedenen Tiefenzonen aufnimmt, und wobei die aufgenommenen Bilder der jeweiligen Tiefenzone zugeordnet werden.
-
Aus der
US 2012 / 0 320 219 A1 ist Verfahren zur Detektion von Objekten bekannt, die in einer Meeresumgebung aus einer Gewässeroberfläche herausragen, wobei die Detektion mit einer Kamera und einer Beleuchtungseinrichtung erfolgt, die aufeinander abgestimmt angesteuert werden, und wobei eine Horizontlinie eines aufgenommenen Bildes in eine Bildauswertung einbezogen wird.
-
Aus der
US 2015 / 0 160 340 A1 ist ein Verfahren zur Messung eines Abstands zwischen einem Objekt und einem Fahrzeug bekannt, bei dem die Messung mit einer Kamera und einer Beleuchtungseinrichtung vorgenommen wird, wobei die Kamera und die Beleuchtungseinrichtung aufeinander abgestimmt angesteuert werden und wobei durch die abgestimmte Ansteuerung ein sichtbarer Abstandsbereich der Kamera bestimmt wird und mit der Kamera eine Aufnahme des sichtbaren Bereichs vorgenommen wird.
-
Problematisch dabei ist die Ermittlung einer Fußpunkt-Entfernung eines erkannten Objekts in dem Abstandsbereich, insbesondere, wenn ein Fahrzeug, in dem ein solches Verfahren durchgeführt wird, Eigennickbewegungen erfährt, und/oder eine Fahrbahn, auf der das Fahrzeug unterwegs ist, einen Fahrbahnverlauf aufweist, der von einem horizontalen Verlauf abweicht oder zumindest variierende Anstellwinkel zur Horizontalen aufweist.
-
Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Messung eines Abstands zwischen einem Objekt und einem optischen Sensor, eine Steuereinrichtung, die eingerichtet ist zur Durchführung eines solchen Verfahrens, eine Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
-
Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen.
-
Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor mittels einer Beleuchtungseinrichtung und dem optischen Sensor geschaffen wird. Dabei werden die Beleuchtungseinrichtung und der optische Sensor zeitlich aufeinander abgestimmt angesteuert. Eine örtliche Lage eines sichtbaren Abstandsbereichs in einem Beobachtungsbereichs des optischen Sensors ist dabei gegeben durch die zeitliche Abstimmung der Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors.
-
Es wird eine Aufnahme des sichtbaren Abstandsbereichs mit dem optischen Sensor mittels der abgestimmten Ansteuerung aufgenommen. Es wird eine Start-Bildzeile für den Beginn des sichtbaren Abstandsbereichs in der Aufnahme bestimmt. Weiterhin wird eine End-Bildzeile für das Ende des sichtbaren Abstandsbereichs in der Aufnahme bestimmt. Es wird eine Fußpunkt-Bildzeile in der Aufnahme bestimmt, wobei die Fußpunkt-Bildzeile diejenige Bildzeile ist, in der einerseits das Objekt detektierbar ist und die andererseits den geringsten Abstand - in der Bildebene des optischen Sensors - zu der Start-Bildzeile aufweist. Schließlich wird der Abstand des Objekts ermittelt, indem die Bild-Lage der Fußpunkt-Bildzeile relativ zu der Start-Bildzeile und der End-Bildzeile unter Berücksichtigung der örtlichen Lage des sichtbaren Abstandsbereichs ausgewertet wird.
-
Mithilfe des hier vorgeschlagenen Verfahrens ist es vorteilhaft möglich, den Abstand des Objekts zu dem optischen Sensor, insbesondere eine sogenannte Fußpunkt-Entfernung oder einen sogenannten Fußpunkt-Abstand, mit hoher Genauigkeit und zumindest weitgehend unbeeinflusst von Eigennickbewegungen eines Fahrzeugs, in dem das Verfahren durchgeführt wird, und/oder einem Anstellwinkel einer Fahrbahn, auf der das Objekt angeordnet ist, relativ zur Horizontalen zu ermitteln. Dies ist insbesondere deswegen möglich, da die Fußpunkt-Entfernung des Objekts aus der Bild-Lage der Fußpunkt-Bildzeile relativ zu der Start-Bildzeile und der End-Bildzeile in dem sichtbaren Abstandsbereich interpoliert wird. Man kennt nämlich aus der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits die örtliche Lage des sichtbaren Abstandsbereichs im realen Raum, das heißt objektseitig, während zugleich durch die Ermittlung der Start-Bildzeile einerseits und der End-Bildzeile andererseits der Bildbereich des Abstandsbereichs auf dem optischen Sensor bekannt ist. Daher kann nun vorteilhaft dann, wenn die Fußpunkt-Bildzeile aufgefunden ist, aus deren Lage im Bildbereich, das heißt der Bild-Lage, relativ zu der Start-Bildzeile und der End-Bildzeile auf die räumliche, objektseitige Lage des Objekts innerhalb des objektseitigen sichtbaren Abstandsbereichs geschlossen werden. Insbesondere ändert sich bei einer Variation des Anstellwinkels des Fahrbahnverlaufs zur Horizontalen - sowie auch bei einer Veränderung des Winkels des optischen Sensors zur Fahrbahn, beispielsweise aufgrund einer Eigennickbewegung - der Bildbereich des sichtbaren Abstandsbereichs auf dem optischen Sensor stark, was durch das hier vorgeschlagene Verfahren ohne Weiteres inhärent berücksichtigt wird und daher das korrekte Ergebnis der hier vorgeschlagenen Auswertung nicht beeinträchtigt.
-
Das Verfahren kann besonders vorteilhaft in automatisiert fahrenden Fahrzeugen, insbesondere automatisch fahrenden Lastkraftwagen, angewendet werden. Insbesondere bei einer Nachfahrt ohne Vorausfahrer mit hoher Reichweitenanforderung können vorteilhaft mithilfe des Verfahrens auf der eigenen Fahrspur des Fahrzeugs angeordnete, nicht überfahrbare Objekte detektiert werden, insbesondere Objekte, die klein sind im Vergleich zur Größe des Fahrzeugs. Das Verfahren ermöglicht eine rechtzeitige und angemessene Reaktion auf die Detektion solcher Objekte und insbesondere auf die Erkennung eines Abstands des Fahrzeugs zu diesen Objekten. Eine solche angemessene Reaktion kann beispielsweise eine Notbremsung oder das Befahren einer - gegebenenfalls ad hoc bestimmten - Ausweichtrajektorie sein.
-
Solche kleinen, nicht überfahrbaren Objekte werden typischerweise auch als „lost cargo“ bezeichnet. Es kann sich bei solchen Objekten aber auch um auf der Straße liegende, insbesondere verunfallte, Personen oder Tiere handeln.
-
Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung von Beleuchtungseinrichtung und optischem Sensor ist insbesondere ein als Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird, die Kamera ist also eine Gated-Kamera. Auch die Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie auszuleuchten.
-
Insbesondere wird durch die Beleuchtungseinrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und Dauer der abgegebenen Lichtimpulse gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungseinrichtung und andererseits des optischen Sensors mit entsprechend definierter örtliche Lage, das heißt insbesondere bestimmtem Abstand des Beginns des Abstandsbereichs von dem optischen Sensor und bestimmter Abstandsbereichs-Breite, durch den optischen Sensor erfasst werden.
-
Der sichtbare Abstandsbereich ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welcher durch die Anzahl und Dauer der Lichtimpulse der Beleuchtungseinrichtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
-
Der Beobachtungsbereich ist demgegenüber insbesondere der - objektseitige - Bereich im dreidimensionalen Raum, welcher bei ausreichender Beleuchtung und Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme insgesamt - insbesondere maximal - abgebildet werden könnte. Insbesondere entspricht der Beobachtungsbereich dem gesamten belichtbaren Bildbereich des optischen Sensors, der theoretisch ausgeleuchtet werden könnte. Der sichtbare Abstandsbereich ist somit eine Teilmenge des Beobachtungsbereich im realen Raum. Entsprechend wird auch nur eine Teilmenge der Bildebene des optischen Sensors bei dem hier vorgeschlagenen Verfahren belichtet, wobei dieser Teilbereich der Bildebene insbesondere zwischen der Start-Bildzeile und der End-Bildzeile gegeben ist.
-
Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum, das heißt auf Seiten des zu beobachtenden Objekts, angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der Beobachtungsbereich und der sichtbare Abstandsbereich sind dabei objektseitig gegeben. Ihnen entsprechen durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zugeordnete bildseitige Bereiche auf der Bildebene.
-
Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungseinrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Daher verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und von dem optischen Sensor entfernt ist.
-
Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch entsprechende geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits die Lage und räumliche Breite des sichtbaren Abstandsbereichs zu definieren.
-
In einer alternativen Ausgestaltung des Verfahrens kann der sichtbare Abstandsbereich vorgegeben sein, wobei daraus die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits bestimmt und entsprechend vorgegeben wird.
-
Unter einer Bildzeile wird hier insbesondere die Menge aller Bildpunkte einer Aufnahme in der Bildebene des optischen Sensors verstanden, die auf einer gemeinsamen horizontalen Linie in der Bildebene liegen.
-
Die Beleuchtungseinrichtung ist in bevorzugter Ausgestaltung ein Laser. Der optische Sensor ist in bevorzugter Ausgestaltung eine Kamera.
-
Die Ermittlung der Fußpunkt-Bildzeile erfolgt bevorzugt folgendermaßen: In der Aufnahme wird eine Objekterkennung insbesondere mittels Mustererkennung, vorzugsweise unter Anwendung eines Klassifikationsalgorithmus und/oder mittels Deep Learning durchgeführt. Wird ein Objekt erkannt, werden in der Aufnahme auf der Grundlage dieser Erkennung beziehungsweise Klassifikation alle Bildzeilen ermittelt, in denen das Objekt dargestellt ist. Sodann wird diejenige Bildzeile als Fußpunkt-Bildzeile ermittelt, die den kleinsten Abstand zu der Start-Bildzeile aufweist.
-
Das Verfahren ermöglicht vorteilhaft insbesondere die Bestimmung des Abstands zwischen dem Objekt und dem optischen Sensor aus einer einzigen Aufnahme.
-
Bevorzugt wird daher der Abstand zwischen dem Objekt und dem optischen Sensor aus einer einzigen Aufnahme bestimmt. Es ist aber möglich, eine Mehrzahl von Aufnahmen in die Auswertung mit einzubeziehen, insbesondere um einen Messfehler zu reduzieren und/oder die Genauigkeit der Abstandsbestimmung zu erhöhen.
-
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass für die Aufnahme des Abstandsbereichs ein Zeilenhistogramm über alle einem Auswerte-Bereich in dem Beobachtungsbereich auf dem optischen Sensor zugeordneten Bildzeilen mittels Summation der Beleuchtungsintensitäten pro Bildzeile des optischen Sensors erstellt wird. Die Start-Bildzeile und die End-Bildzeile werden dann mittels des Zeilenhistogramms bestimmt. Dies ermöglicht in vorteilhafter Weise die Ermittlung der Bild-Lage des dem objektseitigen sichtbaren Abstandsbereichs bildseitig zugeordneten Bereichs auf dem optischen Sensor. Insoweit ergibt sich nämlich aus der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits ein klarer Helligkeitsübergang am Beginn des bildseitigen Abstandsbereichs und am Ende des bildseitigen Abstandsbereichs. Dies ermöglicht letztlich die Bestimmung des Objektabstands durch Interpolation der Lage der Fußpunkt-Bildzeile relativ zu der Start-Bildzeile und der End-Bildzeile.
-
Unter einem Zeilenhistogramm wird hier insbesondere verstanden, dass den einzelnen Bildzeilen des optischen Sensors in dem Auswerte-Bereich die Summe der Beleuchtungsintensitäten über alle in dem Auswerte-Bereich liegenden Bildpunkte der jeweiligen Bildzeile zugeordnet werden. Auf diese Weise ist der entsprechend durch die zeitliche Ansteuerung entstehende Helligkeitsübergang sehr einfach und sicher in der Bildebene des optischen Sensors detektierbar.
-
Der Auswerte-Bereich ist gemäß einer bevorzugten Ausgestaltung mit dem Beobachtungsbereich identisch. Dies entspricht einer besonders einfach zu implementierenden Ausführungsform des Verfahrens. Es ist aber auch möglich, dass der Auswerte-Bereich gemäß einer anderen bevorzugten Ausgestaltung kleiner gewählt wird als der Beobachtungsbereich, insbesondere als ein interessierender Bereich oder „region of interest“, in dem sich die zu detektierenden Objekte befinden können. Dies erlaubt vorteilhaft eine schnellere und effizientere Durchführung des Verfahrens.
Indem nur die in dem Auswerte-Bereich liegenden Bildpunkte in die Summation einbezogen werden, kann der Auswerte-Bereich insbesondere auch horizontal beschränkt sein,
-
Vorzugsweise wird der Auswerte-Bereich in der Aufnahme vor Berechnung des Zeilenhistogramms durch eine GPS-Vorausschau, insbesondere unter Rückprojektion des Straßenverlufs in die Bildebene, und/ oder durch eine Methode zum optischen Spur-Tracking identifiziert
-
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass als Abstand zwischen dem Objekt und dem optischen Sensor ein Objekt-Abstand bestimmt wird, wobei eine Abstandsbereichsbreite als Differenz von dem Ende des sichtbaren Abstandsbereichs und dem Beginn des sichtbaren Abstandsbereichs bestimmt wird. Es wird ein Fußpunkt-Abstand als Bildzeilen-Abstand auf dem optischen Sensor zwischen der Fußpunkt-Bildzeile und der Start-Bildzeile bestimmt. Weiterhin wird eine Abstandsbereichs-Bildbreite als Bildzeilen-Abstand zwischen der End-Bildzeile und der Start-Bildzeile ermittelt. Der Objekt-Abstand wird dann schließlich ermittelt als Summe aus dem Beginn des sichtbaren Abstandsbereichs, das heißt insbesondere des räumlichen Abstands zwischen dem Beginn des sichtbaren Abstandsbereichs und dem optischen Sensor, und dem Produkt aus der Abstandsbereichsbreite mit dem Verhältnis des Fußpunkt-Abstands zu der Abstandsbereichs-Bildbreite. Insbesondere wird der Objekt-Abstand bestimmt nach folgender Formel:
wobei x
near der Beginn des sichtbaren Abstandsbereichs, x
far das Ende des sichtbaren Abstandsbereichs, entsprechend (x
far - x
near) die Abstandsbereichsbreite, v
near die Start-Bildzeile, v
far die End-Bildzeile, und entsprechend (v
far - v
near) die Abstandsbereichs-Bildbreite, v die Fußpunkt-Bildzeile, entsprechend (v - v
near) der Fußpunkt-Abstand, und x der Objekt-Abstand ist.
-
Diese Vorgehensweise beruht letztlich auf dem Strahlensatz, wobei zwei Annahmen für eine Anwendung notwendig sind. Zum einen wird der Fahrbahn-Oberflächenverlauf innerhalb des sichtbaren Abstandsbereichs als linear angenommen. Zum anderen setzt der Strahlensatz dabei streng genommen voraus, dass gedachte Verbindungslinien zwischen einerseits der Start-Bildzeile und dem Beginn des sichtbaren Abstandsbereichs und andererseits der End-Bildzeile und dem Ende des sichtbaren Abstandsbereichs zueinander parallel sind, was im Allgemeinen nicht der Fall ist. Der Abstand zwischen dem optischen Sensor und dem sichtbaren Abstandsbereich ist aber in der Regel groß genug, um jedenfalls mit guter Näherung annehmen zu können, dass die entsprechenden gedachten Linien parallel sind, sodass der Strahlensatz jedenfalls mit sehr guter Näherung angewendet werden kann. Es ergibt sich dann, dass das Verhältnis des ObjektAbstands minus den Beginn des sichtbaren Abstandsbereichs zu der Abstandsbereichsbreite gleich ist dem Verhältnis des Fußpunkt-Abstands zu der Abstandsbereichs-Bildbreite. Diese Relation wird dann nach dem Objekt-Abstand aufgelöst und daraus die oben genannte Gleichung (1) erhalten.
-
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Beleuchtungseinrichtung und der optische Sensor jeweils für den Betrieb im Nahinfrarotbereich ausgelegt sind. Dies hat den Vorteil, dass Augen von Personen und/oder Tieren, in die zufällig Licht der Beleuchtungseinrichtung fällt, nicht nachteilig beeinträchtigt werden. Besonders vorteilhaft wird eine Wellenlänge von mehr als 1,4 µm, insbesondere 1,55 µm, verwendet, da diese insbesondere von der Linse und der Hornhaut des Auges stark absorbiert wird, sodass höchstens eine geringe Intensität auf die Netzhaut fällt. Vorteilhaft ist weiterhin, dass andere Verkehrsteilnehmer durch die Beleuchtungseinrichtung nicht geblendet werden, insbesondere bei Nachtfahrt.
-
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass eine zeitliche Abfolge von Aufnahmen erstellt wird, wobei die zeitliche Abstimmung der Beleuchtungseinrichtung und des optischen Sensors so verändert wird, dass eine zeitliche Abstandsänderung des Objekts bestimmt wird. Insbesondere wird die zeitliche Abstimmung für wenigstens zwei Aufnahmen der zeitlichen Abfolge von Aufnahmen verändert. Besonders bevorzugt wird die zeitliche Abstimmung für jede Aufnahme der zeitlichen Abfolge verändert. Insbesondere wird die zeitliche Abstimmung für die Aufnahmen der zeitlichen Abfolge derart verändert, dass die Fußpunkt-Bildzeile ungefähr mittig zwischen der Start-Bildzeile und der End-Bildzeile gehalten wird. Aus der Änderung in der zeitlichen Abstimmung der Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors, die hierfür nötig ist, kann dann wiederum auf die zeitliche Abstandsänderung des Objekts rückgeschlossen werden. Vorteilhaft wird so eine dynamische Abstandsmessung des Objekts durchgeführt.
-
Die Aufgabe wird auch gelöst, indem eine Steuereinrichtung geschaffen wird, die eingerichtet ist, um ein erfindungsgemäßes Verfahren oder ein Verfahren nach einer der zuvor beschriebenen Ausführungsformen durchzuführen. Die Steuereinrichtung ist vorzugsweise als Recheneinrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Fahrzeugs, ausgebildet. In Zusammenhang mit der Steuereinrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
-
Die Aufgabe wird auch gelöst, indem eine Abstandsmessvorrichtung geschaffen wird, die eine Beleuchtungseinrichtung, einen optischen Sensor, und eine erfindungsgemäße Steuereinrichtung oder eine Steuereinrichtung nach einem der zuvor beschriebenen Ausführungsbeispiele aufweist. In Zusammenhang mit der Abstandsmessvorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuereinrichtung erläutert wurden.
-
Die Steuereinrichtung ist bevorzugt einerseits mit der Beleuchtungseinrichtung und andererseits mit dem optischen Sensor wirkverbunden und eingerichtet zu deren Ansteuerung.
-
Die Aufgabe wird schließlich auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Abstandsmessvorrichtung oder einer Abstandsmessvorrichtung nach einem der zuvor beschriebenen Ausführungsbeispiele geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuereinrichtung und der Abstandsmessvorrichtung erläutert wurden.
-
In vorteilhafter Ausgestaltung ist das Kraftfahrzeug als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug ein Personenkraftwagen, ein Nutzfahrzeug, oder ein anderes Kraftfahrzeug ist.
-
Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert. Dabei zeigen:
- 1 eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs mit einem Ausführungsbeispiel einer Abstandsmessvorrichtung;
- 2 eine schematische Darstellung einer Aufnahme die im Rahmen einer Ausführungsform des Verfahrens mit einem optischen Sensor aufgenommen ist, und
- 3 eine schematische Darstellung eines Zeilenhistogramms, welches in einer Ausführungsform des Verfahrens verwendet wird.
-
1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs 1, mit einem Ausführungsbeispiel einer Abstandsmessvorrichtung 3. Die Abstandsmessvorrichtung 3 weist eine Beleuchtungseinrichtung 5 und einen optischen Sensor 7 auf. Außerdem weist die Abstandsmessvorrichtung 3 eine Steuereinrichtung 9 auf, die hier nur schematisch dargestellt und in nicht explizit dargestellter Weise mit der Beleuchtungseinrichtung 5 und dem optischen Sensor 7 zu deren jeweiliger Ansteuerung wirkverbunden ist. Dargestellt in 1 ist insbesondere ein Beleuchtungs-Frustum 11 der Beleuchtungseinrichtung 5 und ein Beobachtungsbereich 13 des optischen Sensors 7. Schraffiert dargestellt ist außerdem ein sichtbarer Abstandsbereich 15, der sich als Teilmenge des Beobachtungsbereichs 13 des optischen Sensors 7 ergibt.
-
In dem sichtbaren Abstandsbereich 15 ist ein Objekt 17 angeordnet.
-
In 1 ist auch ein Beginn 19 und ein Ende 21 des sichtbaren Abstandsbereichs 15 eingezeichnet.
-
Die Steuereinrichtung 9 ist insbesondere eingerichtet zur Durchführung einer im Folgenden näher beschriebenen Ausführungsform eines Verfahrens zur Messung eines Abstandes x zwischen dem Objekt 17 und dem optischen Sensor 7.
-
Dabei werden die Beleuchtungseinrichtung 5 und der optische Sensor 7 zeitlich aufeinander abgestimmt angesteuert, wobei eine örtliche Lage des sichtbaren Abstandsbereichs 15 in dem Beobachtungsbereich 13 aus der zeitlichen Abstimmung der Ansteuerung der Beleuchtungseinrichtung 5 und des optischen Sensors 7 gegeben ist. Es wird eine Aufnahme des sichtbaren Abstandsbereichs 15 mit dem optischen Sensor 7 unter Anwendung der abgestimmten Ansteuerung aufgenommen.
-
2 zeigt eine schematische Darstellung einer solchen Aufnahme 23 in einer Bildebene des optischen Sensors 7. Dabei ist in 2 eine Start-Bildzeile vnear für den Beginn 19 und eine End-Bildzeile vfar für das Ende 21 des sichtbaren Abstandsbereichs 15 in der Aufnahme 23 dargestellt. Die Lage dieser Start-Bildzeile vnear sowie der End-Bildzeile vfar wird bestimmt. In der Aufnahme 23 wird außerdem eine Fußpunkt-Bildzeile v bestimmt als diejenige Bildzeile mit dem geringsten Abstand zu der Start-Bildzeile vnear, in der das Objekt 17 detektierbar ist. Der Abstand des Objekts 17 wird dann durch Auswertung der Bild-Lage der Fußpunkt-Bildzeile v, das heißt deren Lage in der Aufnahme 23, relativ zu der Start-Bildzeile vnear und der End-Bildzeile vfar, unter Berücksichtigung der objektseitigen örtlichen Lage des sichtbaren Abstandsbereichs 15 ermittelt.
-
In 2 ist mit 17' das Bild des Objekts 17 in der Aufnahme 23 bezeichnet.
-
Darüber hinaus ist in 2 ein Auswerte-Bereich 27 eingezeichnet, welcher insbesondere durch eine GPS-Vorausschau und/ oder durch eine Methode zum optischen Spur-Tracking bestimmt werden kann. Der Auswerte-Bereich 27 ist hier als interessierender Bereich kleiner als der Beobachtungsbereich 13. Er kann aber auch mit diesem zusammenfallen.
-
Insbesondere wird ein Objektabstand x - vgl. 1 - als Abstand zwischen dem Objekt 17 und dem optischen Sensor 7 bestimmt, indem eine Abstandsbereichsbreite (xfar - xnear) als Differenz von dem Ende 21 des sichtbaren Abstandsbereichs 15 und dem Beginn 19 des sichtbaren Abstandsbereichs 15 bestimmt wird. Ein Fußpunkt-Abstand (v - vnear) wird als Bildzeilen-Abstand auf dem optischen Sensor 7 zwischen der Fußpunkt-Bildzeile v und der Start-Bildzeile vneαr bestimmt. Eine Abstandsbereichs-Bildbreite (vfar - vnear) wird als Bildzeilen-Abstand zwischen der End-Bildzeile vfar und der Start-Bildzeile vnear ermittelt. Der Objektabstand x wird dann ermittelt als Summe aus dem Beginn 19 des sichtbaren Abstandsbereichs 15 und dem Produkt aus der Abstandsbereichsbreite (xfar - xnear) mit dem Verhältnis des Fußpunkt-Abstands (v - vnear) zu der Abstandsbereichs-Bildbreite (vfar - vnear). Insbesondere wird der Objektabstand x ermittelt nach der oben gegebenen Gleichung (1).
-
3 zeigt eine schematische Darstellung eines Zeilenhistogramms 25 der Aufnahme 23 gemäß 2 oder des Auswerte-Bereichs 27 der Aufnahme 23. In diesem Zeilenhistogramm 25 sind auf der Abszisse die einzelnen Bildzeilen des optischen Sensors 7 abgetragen, wobei auf der Ordinate für jede Bildzeile eine Summe der Beleuchtungsintensitäten pro Bildpunkt über alle Bildpunkte der jeweiligen Bildzeile in dem Auswerte-Bereich 27 aufgetragen ist. Dieses Zeilenhistogramm 25 wird über alle dem Auswertebereich 27 auf dem optischen Sensor 7 zugeordneten Bildzeilen mittels Summation der Beleuchtungsintensitäten pro Bildzeile des optischen Sensors 7 erstellt. Die Start-Bildzeile vnear und die End-Bildzeile vfar werden dann mittels der Zeilenhistogramms 25 ermittelt, wobei insbesondere aufgrund der zeitlich abgestimmten Ansteuerung der Beleuchtungseinrichtung 5 und des optischen Sensors 7 deutliche Intensitätssprünge einerseits in der Start-Bildzeile vnear und andererseits in der End-Bildzeile vfar erkennbar sind.
-
Die Beleuchtungseinrichtung 5 und der optische Sensor 7 sind bevorzugt ausgelegt für den Betrieb im nahen Infrarotbereich, insbesondere bei 1,55 µm.
-
Im Rahmen des Verfahrens wird bevorzugt eine zeitliche Abfolge von Aufnahmen 23 erstellt, wobei die zeitliche Abstimmung der Beleuchtungseinrichtung 5 und des optischen Sensors 7 so verändert wird, dass eine zeitliche Abstandsänderung des Objekts 17 bestimmt werden kann.