DE102022001203A1 - Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs - Google Patents

Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs Download PDF

Info

Publication number
DE102022001203A1
DE102022001203A1 DE102022001203.0A DE102022001203A DE102022001203A1 DE 102022001203 A1 DE102022001203 A1 DE 102022001203A1 DE 102022001203 A DE102022001203 A DE 102022001203A DE 102022001203 A1 DE102022001203 A1 DE 102022001203A1
Authority
DE
Germany
Prior art keywords
vehicle
generated
images
contour map
underbody
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022001203.0A
Other languages
English (en)
Inventor
Christian Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102022001203.0A priority Critical patent/DE102022001203A1/de
Publication of DE102022001203A1 publication Critical patent/DE102022001203A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Abstract

Die Erfindung betrifft ein Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs (2). Erfindungsgemäß wird nach einer Kalibrierung von Kameras ein Kameraspektrum in einem Cropping derart festgelegt, dass ausschließlich ein definierter Bereich des Kameraspektrums ausgewertet wird. Anschließend werden mittels der Kameras Referenzbilder eines objektfreien Unterbodenbereichs und Bilder (B1, B2) der Umgebung des Fahrzeugs (2) erfasst. Die erfassten Bilder (B1, B2) werden derart maskiert, dass das Fahrzeug (2) zeigende Bildbereiche (BB1, BB2) ausgeschnitten werden. Weiterhin werden zyklisch Silhouetten (S1 bis Sn) einer unter dem Fahrzeug (2) vorhandenen Wärmestrahlung in dem definierten Kameraspektrum in den maskierten Bildern (B1, B2) gemessen und es wird ein Oberflächenmodell erzeugt. Es wird eine Konturen-Karte (KK) auf Basis aggregierter Silhouetten (S1 bis Sn) abgeleitet und nach einem Erfassen einer Startphase wird eine aktuell akquirierte Silhouette (S1 bis Sn) mit der Konturen-Karte (KK) verglichen und ein Metrikwert (σ) erzeugt. Der erzeugte Metrikwert (σ) wird mit einem zuvor definierten und/oder kalibrierten Schwellwert (SW) verglichen und es wird eine Detektionsausgabe, welche zumindest wiedergibt, ob der Unterbodenbereich objektfrei oder objektbehaftet ist, erzeugt.

Description

  • Die Erfindung betrifft ein Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs.
  • Es ist bekannt, dass zur Realisierung von Fahrerassistenzsystemen eine Vielzahl von Sensoren, wie beispielsweise Kamerasysteme, Radarsysteme, Lidarsysteme und Ultraschallsysteme, Anwendung findet. Für parkspezifische Assistenzfunktionen werden meist Kameras und Ultraschallsensoren verwendet. Mittels dieser Sensoren wird eine Umgebung eines Fahrzeugs dreidimensional vermessen. Somit können Parklücken erkannt werden und anhand erfasster Daten sind eine Segmentierung und Klassifikation von Verkehrsteilnehmern in der Fahrzeugumgebung durchführbar. Darüber hinaus kann durch eine spezifische Merkmalsextraktion eine Eigenbewegung des Fahrzeugs ermittelt werden. Übergeordnete Funktionen von Fahrerassistenzsystemen bauen dabei auf fusionierten Sensorergebnissen auf und erlauben so ein automatisiertes Einparken sowie eine visuelle und akustische Hinderniswarnung. Solche Fahrerassistenzsysteme sind nach SAE Einschätzung so genannte Level-2-Systeme, bei denen ein Fahrzeugfahrer in der Verantwortung verbleibt. Demgegenüber sind bereits Level-3- und Level-4-Systeme bekannt, bei welchen die Verantwortung sukzessive auf das Fahrzeug übergeht. Eine solche Funktion stellt beispielsweise ein hochautomatisiertes Einparken auf Privatgeländen dar. Bei einer Anfahrt in Privatgeländen muss zuvor eine Hindernisfreiheit der Fahrzeugumgebung sowie eines Fahrzeugunterbodens sichergestellt werden. Eine Detektion im Bereich unter einem Fahrzeugunterboden ist sehr schwierig, da in diesem Bereich im Allgemeinen keine Sensorsysteme verbaut sind. Auch ist der Fahrzeugunterboden stark exponiert gegenüber Spritzwasser und Schmutz, was zu einer Einschränkung eines Sichtfelds einer entsprechenden Sensorik führen kann.
  • Aus der DE 10 2019 115 134 A1 ist ein Verfahren zum Überwachen eines Unterbodenbereichs unterhalb eines Fahrzeugs bekannt, bei welchem mit einer ersten Gruppe von Ultraschallsensoren ausgehend von einer ersten Seite an dem Unterboden des Fahrzeugs und mit einer zweiten Gruppe von Ultraschallsensoren ausgehend von einer zur ersten Seite gegenüberliegenden, zweiten Seite an dem Unterboden Ultraschallsignale in den Unterbodenbereich ausgesendet werden und in dem Unterbodenbereich reflektierte Ultraschallsignale empfangen werden, wobei anhand der ausgesendeten und empfangenen Ultraschallsignale ein Vorhandensein eines Objekts in dem Unterbodenbereich erkannt wird. Die Ultraschallsensoren der ersten Gruppe senden die Ultraschallsignale ausgehend von jeweiligen Einbaupositionen, welche bezogen auf eine Längsachse des Fahrzeugs nicht symmetrisch zu jeweiligen Einbaupositionen der Ultraschallsensoren der zweiten Gruppe sind, aus und empfangen diese.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In dem erfindungsgemäßen Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs
    • - werden Kameras eines zur perspektivischen Rundum-Darstellung des Fahrzeugs und von dessen Umgebung vorgesehenen Kamerasystems extrinsisch und intrinsisch kalibriert und es wird eine Projektionsmatrix erzeugt,
    • - wird ein Kameraspektrum in einem Cropping derart festgelegt, dass ausschließlich ein definierter Bereich des Kameraspektrums ausgewertet wird,
    • - werden nach der Kalibrierung und dem Cropping mittels der Kameras Referenzbilder eines objektfreien Unterbodenbereichs erfasst,
    • - werden mittels der Kameras Bilder der Umgebung des Fahrzeugs erfasst,
    • - werden die erfassten Bilder derart maskiert, dass das Fahrzeug zeigende Bildbereiche ausgeschnitten werden,
    • - werden zyklisch Silhouetten einer unter dem Fahrzeug vorhandenen Wärmestrahlung in dem definierten Kameraspektrum in den maskierten Bildern gemessen und ein Oberflächenmodell wird erzeugt,
    • - wird eine Konturen-Karte auf Basis aggregierter Silhouetten abgeleitet,
    • - wird eine Startphase erfasst,
    • - wird nach Erfassen der Startphase eine aktuell akquirierte Silhouette mit der Konturen-Karte verglichen und ein Metrikwert wird erzeugt und
    • - wird der erzeugte Metrikwert mit einer zuvor definierten und/oder kalibrierten Schwelle verglichen und wird eine Detektionsausgabe, welche zumindest wiedergibt, ob der Unterbodenbereich objektfrei oder objektbehaftet ist, erzeugt.
  • Mittels des vorliegenden Verfahrens wird ermöglicht, eine Objektpräsenz im Unterbodenbereich eines Fahrzeugs, beispielsweise auf verwundbare Straßennutzer bezogen, auch als Vulnerable Road Users bezeichnet, anhand von mittels parkspezifischer Kamerasysteme eines Fahrzeugs, auch als Surround View Systeme bezeichnet, zu ermitteln. Somit ist das Verfahren mit bereits am Fahrzeug vorhandener, für Einparkfunktionen genutzter Kamerasensorik ausführbar, so dass keine hardwareseitigen Änderungen erforderlich sind. Auch ist das Verfahren unabhängig von einer spezifischen Definition verwundbarer Straßennutzer. Weiterhin ist keine Eigenbewegung des Fahrzeugs zur Realisierung des Verfahrens erforderlich und dessen Funktionsweise ist auch bei statischen Objekten unter der Voraussetzung einer Emission von Wärmestrahlung möglich.
  • Insbesondere wird hierbei gegenüber Systemen, welche zur Unterbodenüberwachung am Fahrzeugunterboden angeordnete Ultraschallsensoren verwenden, eine geringere Fehleranfälligkeit bei verringertem Wartungs- und Reinigungsaufwand realisiert. Dabei verlangt das Verfahren keine aufwändigen Reinigungs-oder Packaginglösungen.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 schematisch einen Verlauf einer Quanteneffizienz einer Farbkamera für verschiedene Farben,
    • 2 schematisch einen Verlauf einer Quanteneffizienz einer monochromen Kamera,
    • 3 schematisch einen Ablauf eines Verfahrens zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs,
    • 4 schematisch eine Visualisierung eines ersten Verfahrensschritts des Verfahrens gemäß 3,
    • 5 schematisch eine Visualisierung eines zweiten Verfahrensschritts des Verfahrens gemäß 3,
    • 6 schematisch eine Visualisierung eines dritten Verfahrensschritts des Verfahrens gemäß 3,
    • 7 schematisch eine Visualisierung eines vierten Verfahrensschritts des Verfahrens gemäß 3,
    • 8 schematisch eine Visualisierung eines fünften Verfahrensschritts des Verfahrens gemäß 3,
    • 9 schematisch eine Visualisierung eines sechsten Verfahrensschritts des Verfahrens gemäß 3,
    • 10 schematisch eine Visualisierung eines siebten Verfahrensschritts des Verfahrens gemäß 3,
    • 11 schematisch eine Visualisierung eines achten Verfahrensschritts des Verfahrens gemäß 3,
    • 12 schematisch eine Visualisierung eines neunten Verfahrensschritts des Verfahrens gemäß 3 und
    • 13 schematisch eine Visualisierung eines zehnten Verfahrensschritts des Verfahrens gemäß 3.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • In 1 ist ein einen Verlauf einer Quanteneffizienz QE einer Farbkamera für verschiedene Farben von Licht, das heißt rotem Licht R, grünem Licht G und blauem Licht B, in Abhängigkeit einer Wellenlänge λ dargestellt.
  • 2 zeigt einen Verlauf einer Quanteneffizienz QE einer monochromen Kamera in Abhängigkeit von der Wellenlänge λ.
  • In 3 ist ein Ablauf eines möglichen Ausführungsbeispiels eines Verfahrens zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs 2 mittels eines in 4 näher dargestellten Kamerasystems 1 des Fahrzeugs 2 mit mehreren Verfahrensschritten VS1 bis VS10 dargestellt. In den 4 bis 13 sind jeweils Visualisierungen der Verfahrensschritte VS1 bis VS10 dargestellt.
  • Mittels des im Folgenden beschriebenen möglichen Ausführungsbeispiels des Verfahrens wird der Unterbodenbereich unter dem Fahrzeug 2 anhand eines fahrzeugeigenen existenten Kamerasystems 1 auf das Vorhandensein von Objekten, beispielsweise Lebewesen, überwacht. Dabei umfasst das Kamerasystem 1 in nicht näher dargestellter Weise eine Mehrzahl von Kameras, welche eine Umgebung des Fahrzeugs 2 erfassen. Mittels der Kameras erfasste Bilder B1, B2 (dargestellt beispielsweise in den 7 und 8) werden dabei insbesondere derart verarbeitet, dass eine perspektivische Rundum-Darstellung des Fahrzeugs 2 und von dessen Umgebung erzeugt wird. Die mittels der Kameras erfassten Daten werden insbesondere zu einem Betrieb eines Fahrerassistenzsystems zur Unterstützung eines Fahrers des Fahrzeugs bei einem Einparkvorgang verwendet. Das heißt, es wird überprüft, ob eine objektfreie Anfahrt im Kontext von automatisierten und hochautomatisierten Parkfunktionen möglich ist.
  • Für einen zuverlässigen Betrieb des Kamerasystems 1 ist eine Kalibrierung desselben erforderlich. Hierzu erfolgen in einem ersten Verfahrensschritt VS1, veranschaulicht in 4, eine intrinsische und extrinsische Initialkalibrierung der Kamera 1, beispielsweise während einer Produktion des Fahrzeugs 2 mittels spezifischen Targets oder auch im Feldbetrieb des Fahrzeugs 2 durch ein Tracking charakteristischer Merkmale. Diese Kalibrierung erfolgt beispielsweise unter Verwendung von mittels weiteren zur Umgebungserfassung ausgebildeten Sensoren 3 bis 7 erfassten Daten. Die Sensoren 3 bis 7 umfassen beispielsweise Radarsensoren, Ultraschallsensoren, weitere Kameras und/oder Lidarsensoren.
  • Eine hierbei ermittelte Kalibrierungsinformation kann gemäß c P = c K R [ I 3 | X 0 ]
    Figure DE102022001203A1_0001
    [ c u ' c v ' c w ' ] = [ c 0 0 0 c 0 0 0 1 ] [ r 11 r 12 r 13 r 21 r 22 r 23 r 31 r 32 r 33 ] [ X X 0 Y Y 0 Z Z 0 ]
    Figure DE102022001203A1_0002

    ausgebildet sein.
  • Gleichung (1) beschreibt dabei eine Projektion dreidimensionalen Punkts auf die Kamerabildebene mit einer intrinsischen Kalibriematrix, dargestellt durch das Formelzeichen K, einer extrinsischen Kalibriermatrix in Form einer Rotationsmatrix R, einem dreidimensionalen Objektpunkt I und einem Translationsvektor Xo.
  • Ergebnisse der Kalibrierung sind die intrinsische Kalibriematrix und die extrinsische Kalibriermatrix. Die intrinsische Kalibriermatrix definiert eine innere Beschreibung der Kameras, beispielsweise deren Brennweite, Brennpunkte und Bildmittelhauptpunktverschiebungen. Die extrinsische Kalibriermatrix definiert eine extrinsische Position der Kameras in Relation zu einem übergeordneten Koordinatensystem. Beispielsweise werden eine Translation (x, y, z) und eine Rotation um eine Rollachse, Nickachse und Gierachse des Fahrzeugs 2 entsprechend einem Fahrzeugursprung, beispielsweise einem Mittelpunkt einer Fahrzeughinterachse, bestimmt.
  • Eine Kombination von extrinsischer und intrinsischer Kalibriermatrix ergibt eine so genannte Projektionsmatrix, mittels welcher eine Kameraabbildung in ein übergeordnetes Referenzsystem projiziert wird.
  • In einem zweiten Verfahrensschritt VS2, visualisiert in 5, wird eine so genannte Imager Maskierung durchgeführt. Dabei wird ein Kameraspektrum des Kamerasystems 1 in einem Cropping derart festgelegt, dass ausschließlich ein definierter Bereich des Kameraspektrums ausgewertet wird. Dies ist in 5 beispielhaft an einem Bild B1 dargestellt. Nach einem Cropping in einem Wellenlängenbereich von beispielsweise mehr als 850 nm werden Bilder B1', B1" erzeugt, deren Darstellung nur auf Photonen mit einer Wellenlänge λ von beispielsweise mehr als 850 nm basiert. Das Verfahren baut dabei auf der Tatsache auf, dass ein Lebewesen, beispielsweise der menschliche Körper, im nahen Infrarotspektrum Strahlen emittiert. Ein Peak liegt hier zwar bei ungefähr 7000 nm, ist jedoch bereits bei 1000 nm nachweisbar, was zumindest im Wesentlichen einer Detektionsgrenze einer Kamera in einem roten Farbkanal entspricht, wie dies in 1 verdeutlicht ist. In anderen möglichen Ausgestaltungen des Verfahrens können auch andere Wellenlängenbereiche für das Cropping vorgesehen sein.
  • In einem dritten Verfahrensschritt VS3, visualisiert in 6, werden nach der Kalibrierung und dem Cropping mittels der Kameras des Kamerasystems 1 Referenzbilder und gegebenenfalls mittels der weiteren Sensoren 3 bis 7 Referenzdaten eines objektfreien Unterbodenbereichs erfasst. Dabei erfolgt insbesondere eine Detektion eines so genannten Referenzlaufs, bei welchem von einem objektfreien Fahrzeugunterboden ausgegangen wird. Hierzu wird beispielsweise eine Detektion eines Raums in einem Bereich vor dem Fahrzeug durchgeführt, wobei keine Einschränkung auf eine spezifische Sensorik erforderlich ist. Weiterhin wird ein Tracking anhand einer bekannten Ego-Bewegungsschätzung des Fahrzeugs 2 durchgeführt. Hierdurch kann bis zu einem definierten Zeitbereich nach einem Stillstand des Fahrzeugs 2 ein objektfreier Unterbodenbereich sichergestellt werden.
  • In einem vierten Verfahrensschritt VS4, visualisiert in 7, werden mittels der Kameras des Kamerasystems 1 Bilder B1, B2 der Umgebung des Fahrzeugs erfasst.
  • In einem fünften Verfahrensschritt VS5, visualisiert in 8, werden die erfassten Bilder B1, B2 derart maskiert, dass das Fahrzeug 2 zeigende Bildbereiche BB1, BB2, welche beispielsweise einen Schweller, eine Kofferraumklappe etc. zeigen, ausgeschnitten werden. Somit werden Bereiche des Fahrzeugs 2 nicht in den Bildern B1, B2 akquiriert.
  • Die Maskierung erfolgt dabei in Abhängigkeit der im Verfahrensschritt VS1 durchgeführten Kalibrierung der Kameras, insbesondere in Abhängigkeit der Kalibrierungsinformation gemäß Gleichung (1). Eine derartige Maskierung kann beispielsweise unter Berücksichtigung von Konstruktionsdaten, welche in das Kamerasystem 1 projiziert werden, erfolgen.
  • In einem sechsten Verfahrensschritt VS6, visualisiert in 9, werden zyklisch Silhouetten S1 bis Sn einer unter dem Fahrzeug vorhandenen Wärmestrahlung in dem definierten Kameraspektrum in den maskierten Bildbereichen BB1, BB2 gemessen und es wird ein Oberflächenmodell erzeugt. Diese Silhouetten S1 bis Sn werden beispielsweise auch als Infrarot-Silhouetten, Infrarot-Fußabdruck oder Infrared Footprint bezeichnet.
  • Da das Fahrzeug 2 verschiedene Betriebszustände einnehmen kann, beispielsweise ein Antrieb des Fahrzeugs 2 etc. unterschiedliche Temperaturen aufweisen kann, werden die Silhouetten S1 bis Sn wiederkehrend mit einem definierten zeitlichen Abstand eingemessen. Die Silhouetten-Extraktion kann beispielsweise - ausgehend von einer Fahrzeugkontur - durch so genannte Region Growing Algorithmen erfasst werden. Im Rahmen der zyklischen Erfassung wird so ein Array von Silhouetten S1 bis Sn bzw. um das Fahrzeug 2 mit charakteristischen Punkten entlang der Silhouetten S1 bis Sn ermittelt. Die Punkte sind dabei beschrieben durch ihre x- und y-Koordinaten auf einer Kamerabildebene und den jeweiligen RGB Farbwert und R-Wert bei der Maskierung. Auf deren Basis kann nun beispielhaft das Oberflächenmodell bestimmt werden.
  • Anschließend wird in einem siebten Verfahrensschritt VS7, visualisiert in 10, eine Konturen-Karte KK, auch als Contour-Map bezeichnet, auf Basis aggregierter Silhouetten S1 bis Sn abgeleitet. Hierbei resultiert durch die zyklische Aufnahme von Silhouetten S1 bis Sn in einer Referenzphase ein Array von Splines, die darauf aufbauend in die Konturen-Karte KK überführt wird. Als Referenzphase wird jene Phase verstanden, in welcher durch Überfahren einer Fläche und aktives Vermessen dieser Fläche sichergestellt werden kann, dass sich keine Objekte unter dem Unterboden des Fahrzeugs 1 befinden.
  • Anschließend wird in einem achten Verfahrensschritt VS8, visualisiert in 11, eine Startphase detektiert. Diese Detektion kann beispielsweise in einer Phase erfolgen, in welche eine Objektfreiheit des Unterbodens nicht sichergestellt werden kann, beispielsweise nach jedem Klemmenwechsel an Klemme 15, einer Standphase des Fahrzeugs 2, größer einem definierten Schwellwert, einem Aufstarten aus einer Datenbusruhe, einem Überschreiten von einer minimalen Zeitschwelle, einer Blockage des Kamerasystems 1 und/oder der Sensoren 3 bis 7 und/oder bei einem hochdynamischen Umfeld.
  • In einer solchen Startphase wird in einem neunten Verfahrensschritt VS9, visualisiert in 12, eine aktuell akquirierte Silhouette S1 bis Sn mit der Konturen-Karte KK aus der Referenzphase verglichen und es wird ein Metrikwert erzeugt.
  • Das heißt, die jeweilige Silhouette S1 bis Sn wird aus der Kamerabildebene analog zur vorherigen Schicht gelöst. Ein daraus resultierendes Spline wird mit einer rekonstruierten Fläche bzw. Konturen-Karte KK aus der Referenzphase verglichen. Dieser Vergleich kann beispielsweise darüber ermöglicht werden, dass jeder Punkt auf der zu analysierenden Kontur mit dem nächstgelegenen orthogonalen Punkt auf einer Linie der Konturen-Karte KK verglichen wird. Liegt eine optimale Deckung vor, so nimmt eine Distanz d1 bis d10 über sämtliche Punkte einen konstanten Wert an, woraus eine unimodale Verteilung resultiert. Ist hingegen ein Objekt unter dem Fahrzeug 2, resultiert die Verteilung der Punkte in einer bi- und/oder trimodalen Verteilung.
  • Mit anderen Worten: Es erfolgt eine Berechnung einer Deckungsgleichheit, in welcher ein Vergleich einer aktuell akquirierten Silhouette S1 bis Sn zur Konturen-Karte KK aus dem Verfahrensschritt VS7, beispielsweise über eine orthogonale Distanz d1 bis d10 zu den jeweiligen Konturlinien der Konturen-Karte KK erfolgt. Hierbei wird eine Berechnung der Zugehörigkeit von Startsplinen zu Initialsplinen in der Konturen-Karte, beispielsweise über eine geringste mittlere orthogonale Distanz d1 bis d10, durchgeführt. Auf Basis der orthogonalen Distanzen d1 bis d10 wird ein Metrikwert σ berechnet, welcher eine Deckungsgleichheit der Splines zueinander angibt, beispielsweise durch 1 Sigma der Distanzen d1 bis d10.
  • Übersteigt jener Metrikwert σ einen zuvor definierten Schwellwert SW, wird die Detektion eines Objekts im Unterbodenbereich in einem weiteren Verfahrensschritt VS10, visualisiert in 13, ausgegeben. Der Schwellwert SW wurde in einer Kalibrierphase bestimmt, wobei bei Überschreiten des Schwellwerts SW auf Basis der zuvor eingeführten Verteilung die Detektion eines Objekts unterhalb des Fahrzeugs 1 bewirkt wird.
  • Insbesondere erfolgt dann in einem Unter-Verfahrensschritt VS10' ein Stopp der pilotierten bzw. assistierten Funktion des Fahrzeugs 2, beispielsweise einer Einpark-Assistenzfunktion. Eine Weiterfahrt ist beispielsweise nach einer Freimessung, beispielsweise durch Wiederholung der Verfahrensschritte VS3 bis VS9, potentiell möglich.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102019115134 A1 [0003]

Claims (5)

  1. Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs (2), dadurch gekennzeichnet, dass - Kameras eines zur perspektivischen Rundum-Darstellung des Fahrzeugs (2) und von dessen Umgebung vorgesehenen Kamerasystems (1) extrinsisch und intrinsisch kalibriert werden und eine Projektionsmatrix erzeugt wird, - ein Kameraspektrum in einem Cropping derart festgelegt wird, dass ausschließlich ein definierter Bereich des Kameraspektrums ausgewertet wird, - nach der Kalibrierung und dem Cropping mittels der Kameras Referenzbilder eines objektfreien Unterbodenbereichs erfasst werden - mittels der Kameras Bilder (B1, B2) der Umgebung des Fahrzeugs (2) erfasst werden, - die erfassten Bilder (B1, B2) derart maskiert werden, dass das Fahrzeug (2) zeigende Bildbereiche (BB1, BB2) ausgeschnitten werden, - zyklisch Silhouetten (S1 bis Sn) einer unter dem Fahrzeug (2) vorhandenen Wärmestrahlung in dem definierten Kameraspektrum in den maskierten Bildern (B1, B2) gemessen werden und ein Oberflächenmodell erzeugt wird, - eine Konturen-Karte (KK) auf Basis aggregierter Silhouetten (S1 bis Sn) abgeleitet wird, - eine Startphase erfasst wird, - nach Erfassen der Startphase eine aktuell akquirierte Silhouette (S1 bis Sn) mit der Konturen-Karte (KK) verglichen wird und ein Metrikwert (σ) erzeugt wird und - der erzeugte Metrikwert (σ) mit einem zuvor definierten und/oder kalibrierten Schwellwert (SW) verglichen wird und eine Detektionsausgabe, welche zumindest wiedergibt, ob der Unterbodenbereich objektfrei oder objektbehaftet ist, erzeugt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass anhand der zyklisch gemessenen Silhouetten (S1 bis Sn) ein Array von Splines gebildet wird, welches in die Konturen-Karte (KK) überführt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in dem Vergleich der akquirierten Silhouette (S1 bis Sn) mit der Konturen-Karte (KK) jeder Punkt auf einer zu analysierenden Kontur der Silhouette (S1 bis Sn) mit einem nächstgelegenen orthogonalen Punkt auf einer Linie der Konturen-Karte (KK) verglichen wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass dann, wenn eine ermittelte Distanz (d1 bis d10) zwischen der akquirierten Silhouette (S1 bis Sn) und der Linie konstant ist und eine unimodale Verteilung ermittelt wird, auf einen objektfreien Unterbodenbereich geschlossen wird.
  5. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass dann, wenn eine ermittelte Distanz (d1 bis d10) zwischen der akquirierten Silhouette (S1 bis Sn) und der Linie nicht konstant ist und eine bimodale und/oder trimodale Verteilung ermittelt wird, auf einen objektbehafteten Unterbodenbereich geschlossen wird.
DE102022001203.0A 2022-04-08 2022-04-08 Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs Pending DE102022001203A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022001203.0A DE102022001203A1 (de) 2022-04-08 2022-04-08 Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022001203.0A DE102022001203A1 (de) 2022-04-08 2022-04-08 Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102022001203A1 true DE102022001203A1 (de) 2022-06-15

Family

ID=81750022

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022001203.0A Pending DE102022001203A1 (de) 2022-04-08 2022-04-08 Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102022001203A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019115134A1 (de) 2019-06-05 2020-12-10 Valeo Schalter Und Sensoren Gmbh Verfahren zum Überwachen eines Unterbodenbereichs unterhalb eines Fahrzeugs mittels einer Ultraschallsensorvorrichtung mit nicht-symmetrisch angeordneten Ultraschallsensoren, Ultraschallsensorvorrichtung sowie Fahrzeug

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019115134A1 (de) 2019-06-05 2020-12-10 Valeo Schalter Und Sensoren Gmbh Verfahren zum Überwachen eines Unterbodenbereichs unterhalb eines Fahrzeugs mittels einer Ultraschallsensorvorrichtung mit nicht-symmetrisch angeordneten Ultraschallsensoren, Ultraschallsensorvorrichtung sowie Fahrzeug

Similar Documents

Publication Publication Date Title
EP3497476B1 (de) Kraftfahrzeug und verfahren zur 360°-umfelderfassung
DE102009006113B4 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
EP3332400B1 (de) Verfahren und vorrichtung in einem kraftfahrzeug zur verbesserten datenfusionierung bei einer umfelderfassung
EP2581892B1 (de) Abstandsmesssystem sowie Verfahren zur Abstandsmessung insbesondere eines Fahrzeugs zu seiner Umgebung
DE102018104243B3 (de) Verfahren und System zur Erkennung von für ein Fahrzeug geeigneten Parklücken
DE102015109940A1 (de) Manövrierung eines Gespannes mit einem Kraftwagen und einem Anhänger
DE102011105074A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Sichtweite für ein Fahrzeug
DE102016117712A1 (de) Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs unter Berücksichtigung eines Erfassungsbereichs eines Sensors, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102020115997A1 (de) Fahrzeugsensorverbesserungen
DE102013202915A1 (de) Verfahren und Vorrichtung zum Vermessen einer Parklücke für ein Einparkassistenzsystem eines Kraftfahrzeugs
DE102016215840A1 (de) Verfahren zur Erfassung von im Fahrzeugumfeld befindlichen Bordsteinen
DE102008035428A1 (de) Verfahren und Vorrichtung zur Überwachung einer Umgebung eines Fahrzeuges
DE102019112873A1 (de) Hochauflösender virtueller raddrehzahlsensor
DE102013215408A1 (de) Anzeigesystem für ein Fahrzeug und Verfahren für die Anzeige einer Fahrzeugumgebung
EP3293971B1 (de) Verfahren zur nachführung eines bildausschnitts
DE102016200656A1 (de) Verfahren zum Auswerten eines Umfeldes eines Fahrzeuges
DE102022001203A1 (de) Verfahren zur Überwachung eines Unterbodenbereichs unterhalb eines Fahrzeugs
EP3032517A1 (de) Vorrichtung und verfahren zur unterstützung eines fahrers eines fahrzeugs, insbesondere eines nutzfahrzeugs
WO2007057069A1 (de) System zur erfassung von objekten in der umgebung eines kraftfahrzeugs
DE102016119592A1 (de) Verfahren zum Erkennen von Objekten in einem Umgebungsbereich eines Kraftfahrzeugs unter Berücksichtigung von Sensordaten im infraroten Wellenlängenbereich, Objekterkennungsvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019007205A1 (de) Verfahren zur Detektion eines Fahrzeuganhängers mittels Lidar
DE102019212279B3 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102004034157B4 (de) Verfahren und Vorrichtung zur Bestimmung der Geschwindigkeit von Verkehrsteilnehmern bei bildgebenden Verfahren
DE102011086404A1 (de) Anfahrfreigabe
DE102022122424A1 (de) Filtern von Geisterechos basierend auf einer Energie von Sensorsignalen

Legal Events

Date Code Title Description
R230 Request for early publication
R012 Request for examination validly filed