DE102017213695B4 - Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs - Google Patents

Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs Download PDF

Info

Publication number
DE102017213695B4
DE102017213695B4 DE102017213695.2A DE102017213695A DE102017213695B4 DE 102017213695 B4 DE102017213695 B4 DE 102017213695B4 DE 102017213695 A DE102017213695 A DE 102017213695A DE 102017213695 B4 DE102017213695 B4 DE 102017213695B4
Authority
DE
Germany
Prior art keywords
vehicle
sensor system
sensor
data
sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017213695.2A
Other languages
English (en)
Other versions
DE102017213695A1 (de
Inventor
Alexander Augst
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102017213695.2A priority Critical patent/DE102017213695B4/de
Publication of DE102017213695A1 publication Critical patent/DE102017213695A1/de
Application granted granted Critical
Publication of DE102017213695B4 publication Critical patent/DE102017213695B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs, umfassend:- Ermitteln einer Positionssequenz eines ersten Fahrzeugs beim Befahren eines Fahrstreckenabschnitts,- Ermitteln eines Parameters, repräsentierend ein Sensierungsartefakt im ersten Fahrzeugs im Zusammenhang mit dem ermittelten Positionssequenz, und- Zuordnen des ermittelten Parameters des Sensierungsartefakts zu der Positionssequenz und Speicherung der zugeordneten Daten,- Beim Erkennen zumindest einer Positionssequenz, insbesondere beim wiederholten Befahren des Fahrstreckenabschnitts, Ansteuerung zumindest eines Sensors, und/oder Anpassung zumindest eines Umfelderfassungs-Messwerts auf Basis eines oder mehrerer Sensoren und/oder eines verarbeiteten Messwerts des Sensorsystems zumindest des ersten und/oder eines zweiten Fahrzeugs.

Description

  • Die Erfindung betrifft ein Verfahren, Vorrichtung sowie ein korrespondierendes Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs. Ferner gehört zum Umfang der Erfindung auch ein entsprechend eingerichtetes mobiles Anwendergerät.
  • Moderne Kraftfahrzeuge weisen eine Vielzahl von Fahrzeugfunktionen auf, die auf der Auswertung von Sensordaten basieren, die ein unmittelbares oder ein teils entferntes Umfeld des Fahrzeugs erfassen. Dabei können typischerweise Bereiche vor, hinter oder seitlich des Fahrzeugs erfasst werden. Als Beispiele solcher Fahrzeugfunktionen seien hierzu genannt eine Parkdistanzkontrolle, ein Einparkassistent, eine Rückfahrkamera, ein sog. Surround-View-System usw., Geschwindigkeitsregelungssysteme, Warnungen bei Fahrzeugen in einem Blind-Spot-Bereich oder bei einer seitlichen Annäherung anderer Objekte. Ferner ist auch ein zumindest teilweise automatisiertes, hochautomatisiertes oder automatisches Fahren auf derartige Sensorsysteme angewiesen.
  • Sensorsysteme können Sensoren umfassen, die auf unterschiedlichen physikalischen Prinzipien basieren. Als Sensoren kommen beispielsweise Ultraschallsensoren, Radarsensoren sowie Kamerasysteme, LIDAR-Sensoren zum Einsatz. Um eine Fahrzeugfunktion, insbesondere eine Fahrerassistenzfunktion bereitstellen zu können, können die von den verschiedenen Sensoren gelieferten Messwerte für eine Situationsinterpretation zum Teil fusioniert werden.
  • Ein Grundproblem besteht dabei darin, dass jeder Typ von Sensoren mehr oder minder stark ausgeprägte Schwächen aufweist. Dazu gehören beispielsweise falsche oder von einem objektiven Wert abweichende Messwerte bei einer bestimmten Beschaffenheit der messtechnisch zu erfassenden Objekte. Manche Sensoren sind anfällig gegenüber Störungen, insbesondere auch gegenseitige Störungen seitens anderer Sensoren. Fehler können beispielsweise bei Ultraschallsensoren aufgrund häufig vorkommender Echos, Fremdultraschall oder Ultraschall absorbierenden Objektflächen auftreten. Bei einem Kamerasystem können bestimmte Objekte, wie z.B. Randbegrenzungen oder Mittelstreifen, bei bestimmten Randbedingungen, wie Regen, Neben oder Schneetreiben nicht richtig erkannt und vermessen werden. Bei Radarsensoren besteht das Problem, dass Karosserien aus Karbon für die Sensoren nicht sichtbar sind. Je nach ihrer Beschaffenheit oder den genannten Randbedingungen können bestimmte Objekte somit nicht oder nicht richtig als eine bestimmte Art vom Objekt erkannt werden.
  • Abweichungen der Messwerte bereits eines Sensors können eine Fusion von mehreren Messwerten erschweren und zu unbefriedigenden Ergebnissen führen. Insbesondere nichtlineare Effekte bei Abweichungen von Messwerten können in bestimmten Sensierungssituationen bei der Verwendung unterschiedlicher Sensortypen unterschiedlich sein. Da sehr viele Fahrerassistenzfunktionen von den Messwerten des Sensorsystems abhängen, ist die Gefahr der Verarbeitung von fehlerhaften Messwerten der Sensoren und einer entsprechenden, ggf. mit einem erheblichen Risiko für die Verkehrssicherheit verbundenen Fehlfunktion einer Fahrzeugfunktion gegeben.
  • DE 10 2013 012 324 A1 offenbart Ein Verfahren zur automatischen Fahrwegfindung für ein Ego-Fahrzeug mit den Schritten: a) Empfangen von Positionsangaben wenigstens eines vorausfahrenden Fahrzeugs; b) Konstruieren eines Fahrwegs anhand der empfangenen Positionsangaben.
  • DE 10 2013 226 631 A1 betrifft ein Verfahren bzw. eine Vorrichtung zur Ermittlung lokaler Wetterbedingungen, eines lokalen Niederschlags und/oder eines lokalen Fahrbahnzustands im direkten Umfeld eines Fahrzeugs. Die Ermittlung erfolgt anhand der Auswertung von Signalen mindestens eines Fahrzeugumfeldsensors. Hierbei wird mindestens ein Störsignal des mindestens einen Fahrzeugumfeldsensors zur Ermittlung der lokalen Wetterbedingungen, des lokalen Niederschlags bzw. des lokalen Fahrbahnzustands berücksichtigt.
  • DE 10 2015 014 651 A1 betrifft ein Verfahren zum Bereitstellen einer Spurinformation einer Fahrspur eines Kraftfahrzeugs, bei welchem, während das Kraftfahrzeug auf der Fahrspur bewegt wird, eine Fahrtrajektorie des Kraftfahrzeugs bezüglich eines fahrzeugexternen Bezugsystems bestimmt wird, wobei die bestimmte Fahrtrajektorie an eine fahrzeugexterne zentrale Spurinformations-Sammeleinrichtung übermittelt wird, und die zumindest anhand der übermittelten Fahrtrajektorie bestimmte Spurinformation durch die Spurinformations-Sammeleinrichtung zumindest einem weiteren Kraftfahrzeug bereitgestellt wird.
  • DE 10 2015 218 830 A1 offenbart ein Verfahren für ein Kraftfahrzeug, zum Erkennen schlechter Fahrbahnverhältnisse, das Verfahren aufweisend: - das Erfassen eines Fahrbahnbereiches mittels mindestens eines Sensors des Kraftfahrzeuges, - das Untersuchen des erfassten Fahrbahnbereiches auf ein beeinträchtigendes Merkmal des Fahrbahnbereiches, wobei das beeinträchtigende Merkmal indikativ ist, für eine Beeinträchtigung einer Fahrt eines Kraftfahrzeuges, und - für den Fall, dass das beeinträchtigende Merkmal erkannt wird: - das geographisches Lokalisieren eines Ortes des beeinträchtigenden Merkmales, wobei das geographische Lokalisieren des Ortes mit einer Präzision erfolgt, welche höher ist, als eine Präzision einer geographischen Lokalisierung des Ortes mittels eines satellitengestützten Lokalisierungsverfahrens nach einem öffentlichen Global Positioning System Standards, und - das Hinterlegen einer Fahrbahnbeschaffenheitsinformation für eine Ortsinformation, wobei die Ortsinformation den Ort des beeinträchtigenden Merkmales aufweist, und die Fahrbahnbeschaffenheitsinformation eine Information über das beeinträchtigende Merkmal aufweist.
  • Es ist Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung anzugeben, welche zu einem verbesserten Betrieb bzw. einer verbesserten Gestaltung eines Sensorsystems hinsichtlich der in diversen Fahrzeugfunktionen nutzbaren Daten des Sensorsystems führen.
  • Die Aufgabe wird gelöst durch die Merkmale des unabhängigen Patentanspruchs. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen gekennzeichnet.
  • Die Erfindung zeichnet sich aus durch ein Verfahren zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs. Die Erfindung zeichnet sich auch aus durch eine Vorrichtung, die dazu ausgebildet ist, das Verfahren durchzuführen. Das Verfahren umfasst ein Ermitteln einer Positionssequenz eines ersten Fahrzeugs beim Befahren eines Fahrstreckenabschnitts. Es erfolgt ein Ermitteln eines Parameters, repräsentierend ein Sensierungsartefakt im ersten Fahrzeug im Zusammenhang mit der ermittelten Positionssequenz. Es erfolgt ein Zuordnen des ermittelten Parameters des Sensierungsartefakts zu der Positionssequenz und Speicherung der zugeordneten Daten. Beim Erkennen zumindest einer Positionssequenz, insbesondere beim wiederholten Befahren des Fahrstreckenabschnitts, erfolgt eine Ansteuerung zumindest eines Sensors, und/oder Anpassung zumindest eines Umfelderfassungs-Messwerts auf Basis eines oder mehrerer Sensoren und/oder eines verarbeiteten Messwerts des Sensorsystems zumindest des ersten Fahrzeugs und/oder eines zweiten Fahrzeugs.
  • Bei der Positionssequenz kann es sich in einem vereinfachten Beispiel um eine Sequenz von Positionsinformationen (im einfachsten Falle GPS-Koordinaten) des ersten Fahrzeugs handeln, beispielsweise: X1 , Y1 ϑ 1
    Figure DE102017213695B4_0001
    X2 , Y2 ϑ 2
    Figure DE102017213695B4_0002
    X3 , Y3 ϑ 3
    Figure DE102017213695B4_0003
  • Besonders bevorzugt umfasst die Positionssequenz zumindest eine globale Positionsinformation.
  • Weitere Positionsinformationen der Positionssequenz können auch relative Positionsinformationen, insbesondere relativ zu der zumindest einen, besagten absoluten Positionsinformation und/oder zu lokalen Gegebenheiten, wie Spurenmarkierungen, Spurmitte, Leitplanken und/oder Objekte in der Umgebung des Fahrzeugs, sein.
  • Im Allgemeinen ist bei der besagten Positionssequenz dabei nicht unbedingt die absolute Position maßgeblich.
  • Die relativen Positionen können z.B. Positionen relativ zu unbeweglichen Gegebenheiten und/oder beweglichen Objekten sein, die im Zusammenhang mit dem Auftritt des Sensierungsartefakts stehen.
  • Besonders bevorzugt können die relativen Positionen in Relation zu Straßenmarkierungen, Pfosten, Bürgersteige, Tunnels, Ampeln, Ampel-Masten, Zebrastreifen, etc. berücksichtigt werden.
  • Besonders bevorzugt wird die Positionssequenz als ein bestimmtes Muster aus Positionsinformationen erkannt und verarbeitet. Dies bietet mehrere entscheidende Vorteile im Verfahren. Beispielsweise eine Wiedererkennung des Musters und eine sehr gezielte Anpassung.
  • Insbesondere handelt es sich bei dem Sensierungsartefakt um einen Sensierungsfehler oder ein Abschnitt der Sensordaten mit einer nicht zufriedenstellenden, niedrigen Qualität bzw. Plausibilität. Ein Sensierungsartefakt bzw. ein entsprechender Abschnitt der Sensordaten ist insbesondere durch z.B. zu hohe Messabweichungen, Schwankungen der Werte, einer zu niedrigen Übereinstimmung der Sensordaten betreffend einen Teil der Umgebung des Fahrzeugs entstanden, die mit zumindest zwei unterschiedlichen Sensoren oder auf Basis von zumindest zwei unterschiedlichen physikalischen Prinzipien erfasst worden sind. Beispielsweise kann ein Sensierungsartefakt einer solchen Abweichung entsprechen, die eine wesentliche, unzulässige Auswirkung auf eine auf dem Sensor oder Sensorsystem basierende Fahrzeugfunktionalität zur Folge hat.
  • Als ein Parameter, repräsentierend ein Sensierungsartefakt kann z.B. eine Klassifikation des Sensierungsartefakts dienen. Dieser ist für die spätere Anpassung vorteilhaft. Beispiele hierfür sind ein Performanceeinbruch bei einem Abschnitt der Sensordaten und/oder ein für das physikalische Sensierungsprinzip charakteristischer Fehler, z.B. eine Wellenreflektion und/oder ein nicht oder nicht hinreichend plausibler Wert innerhalb der Daten des Sensoriksystems und/oder ein kurzzeitiges Versagen oder eine Nichtverfügbarkeit des Sensors.
  • Gemäß einer Ausgestaltung der Erfindung kann eine Steuerung des Sensoriksystems des ersten Fahrzeuges oder eines anderen (zweiten) Fahrzeugs erfolgen.
  • Alternativ oder zusätzlich kann im Verfahren abhängig von den zugeordneten Daten eine Veränderung der Priorität bzw. Qualifiers der Daten zumindest eines Sensors, insbesondere prädiktiv, vor oder während des Erreichens einer bestimmten Positionsinformation und/oder eine Anpassung zumindest einer mit einer Umfelderfassung zusammenhängenden Fahrzeugfunktion des ersten und/oder zweiten Fahrzeugs ausgeführt werden.
  • Beim einem Befahren des Fahrstreckenabschnitts durch das jeweilige Fahrzeug kann abhängig von den zugeordneten Daten eine Steuerungsinformation zum Ansteuern des Sensoriksystems und/oder einer auf den Sensorikdaten basierten Fahrzeugfunktion, z.B. eines Fahrerassistenzsystems ermittelt, und z.B. drahtlos an das Bordnetz des jeweiligen Fahrzeugs bereitgestellt werden. Dabei kann die besagte Steuerungsinformation abhängig vom Erkennen (Wiedererkennen), bevorzugt vom Prädizieren eines Positionsmusters erfolgen.
  • Alternativ oder zusätzlich kann im Verfahren eine Szenenerkennung in Bezug auf eine betreffende Umfelderfassungssituation ausgeführt werden, bei der das Sensierungsartefakt aufgetreten ist, und die Szene beim Ermitteln der zugeordneten Daten berücksichtigt werden, wie nachfolgend beschrieben.
  • Gemäß einer optionalen Ausgestaltung wird eine Umfelderfassungssituation, insbesondere eine Szene, die im Zusammenhang mit dem Auftritt des Sensierungsartefakts steht, erkannt, insbesondere klassifiziert und beim Ermitteln der zugeordneten Daten verarbeitet.
  • Die Szene wird insbesondere mit Mustererkennung klassifiziert. Dabei kann beispielsweise eine bildgestützte Klassifikation und Mustererkennung in Bildern oder Bildfolgen in Bezug auf die in der Umgebung des Fahrzeugs erfassten Bilder oder Bildfolgen ausgeführt werden. Dabei handelt es sich bevorzugt um eine Szene, die zumindest in einem gewissen (räumlichen, zeitlichen) Zusammenhang mit zumindest einem Sensierungsartefakt steht.
  • Ein Sensierungsartefakt kann im Zusammenhang mit einer problematischen, insbesondere einer statistisch problematischen Umfelderfassungssituation, bzw. Umfelderfassungssituation einer bestimmten Art stehen. Dies kann im Verfahren zusätzlich berücksichtig werden, indem die Szene zu der Umfelderfassungssituation erkannt wird und anhand qualitativer und/oder quantitativer Werte ausgedrückt wird und/oder bevorzugt klassifiziert und/oder kodiert wird.
  • Die besagte Umfelderfassungssituation und/oder der Szene kann als bestimmte diese kennzeichnenden Parameter, insbesondere Information über bestimmte (zweckmäßig vordefinierte) Arten bzw. Klassen ermittelt und/oder wiedererkannt werden.
  • Beispielsweise können die zugeordneten Daten auch eine Klasse der entsprechenden Szene repräsentieren, berücksichtigen oder umfassen. Die Szene zu der Umfelderfassungssituation kann z.B. als eine Art und/oder Parameterbereich einer Situation, z.B. eines sogenannten Use-Cases repräsentiert werden, die im Zusammenhang mit dem Auftritt des Sensierungsartefakts steht.
  • Derartige Szenen zu der Umfelderfassungssituation sind beispielsweise eine standartmäßige, typische Garage, eine Garage mit Neigung wie z.B. eine Duplexgarage, eine Kurvenfahrt zw. 30 - 70 km/h mit Gebüsch und ähnliches. Eine solche Szene kann z.B. mittels eines Situationsvektors erfasst, erkannt und berücksichtigt werden.
  • Bei den zu der besagten Umfelderfassungssituation und/oder der Szene erfassten Informationen kann es sich um eine Informationen handeln, die an sich keinen unmittelbaren Rückschluss auf das zumindest eine bestimmte Sensierungsartefakt oder Merkmale eines Sensierungsartefakts erlauben. Mit anderen Worten muss im Verfahren nicht unbedingt ein logischer, etwa rechnerisch nachvollziehbarer Zusammenhang zwischen einer Umfelderfassungssituation bzw. Szene im Allgemeinen und dem Auftritt des besagten Sensierungsartefakten ermittelt werden.
  • Eine Information zu der Umfelderfassungssituation kann z.B. im ersten Fahrzeug oder in einer beabstandet angeordneten Recheneinheit, z.B. in einem Backend ausgeführt werden. Bevorzugt wird die Information, insbesondere Klasse der Umfelderfassungssituation beim Ermitteln der zugeordneten Daten berücksichtigt.
  • Bevorzugt kann ein Sensierungsartefakt im Verfahren in den Zusammenhang mit einem bestimmten Use-Case gesetzt werden, der (z.B. wiederholt) zu Sensorik-Fehlern oder damit zusammenhängenden Funktions-Fehlern, insbesondere in bestimmten Abschnitten bzw. Positionen innerhalb der Fahrstrecke, führt. Somit kann das Verfahren sehr effizient hauptsächlich zur Schließung von Funktionslücken in bestimmten Situationen, bzw. bestimmter Arten von Sensierungssituationen verwendet werden.
  • Die Umfelderfassungssituation kann gekennzeichnet sein durch ein oder mehrere Objekte, welche sich im Erfassungsbereich des Sensorsystems befinden und eine vorgegebene Beschaffenheit aufweisen. Die Umfelderfassungssituation kann gekennzeichnet sein durch eine bestimmte Konstellation von beweglichen und/oder unbeweglichen Objekten, die sich im Erfassungsbereich des Sensorsystems befindet. Die Umfelderfassungssituation kann ferner gekennzeichnet sein durch bestimmte Randbedingungen, die für eine Erfassung des Umfelds mittels des Sensorsystems, z.B. mittels eines oder mehrerer bestimmten physikalischen Prinzipien, relevant ist. Solche Randbedingungen können beispielsweise die im Umfeld des Fahrzeugs vorherrschende Helligkeit (zu hell oder zu dunkel), Schnee, Nebel, Vereisung eines oder mehrerer Sensoren und dergleichen sein.
  • Besonders bevorzugt wird eine Anzahl quantitativer Kriterien der Umfelderfassungssituation ermittelt und berücksichtigt. Das Erkennen der Umfelderfassungssituation kann insbesondere ein Erkennen einer Klasse von Umfelderfassungssituation, beispielsweise abhängig von der Anzahl quantitativer Kriterien, sein. Bevorzugt kann das Erkennen der Umfelderfassungssituation zumindest die Erkennen einer von mehreren (bestimmten) Klassen (z.B. als Zugehörigkeit zu einer von mehreren möglichen Klassen bzw. Kategoriewerten) von Umfelderfassungssituationen sein.
  • Ein Erkennen der Umfelderfassungssituation kann anhand einer Vielzahl vorausbestimmter Faktoren ausgeführt werden. Das Erkennen einer vorgegebenen Umfelderfassungssituation kann mit Mitteln des ersten Fahrzeugs erfolgen. Eine bestimmte (besondere) Umfelderfassungssituation kann im Verfahren mittels mehrerer im Folgenden beschriebenen Verfahrensvarianten ermittelt (und als solche erkannt) werden. Z.B. kann eine bestimmte Art der Umfelderfassungssituation durch eine wiedererkannte Situation (Use-Case) und/oder anhand einer bestimmten Positionsinformation (Koordinaten) ermittelt werden.
  • Gemäß einer weiteren optionalen Ausgestaltung wird eine von den gespeicherten Daten, insbesondere von Lerndaten abhängige Steuerungsinformation ermittelt, die eine Veränderung der Eigenschaften eines Sensors und/oder das angewandte Sensierungsverfahren, insbesondere in einem bestimmten quantitativen Maß veranlasst, insbesondere die Ausstrahlung von Licht oder Wellen und/oder Interpretation vom empfangenen Lichtreflektion bzw. Wellenecho durch das Sensoriksystem des ersten und/oder zweiten Fahrzeugs.
  • Die Steuerungsinformation kann mit Mitteln des Fahrzeugs, insbesondere innerhalb des Sensors oder einer Sensorfusionseinheit ermittelt werden.
  • Bei der Steuerungsinformation handelt es sich bevorzugt um eine quantitative Information und/oder eine Vielzahl von unterschiedlichen Parametern. Dabei kann das Ansteuern auch eine Vielzahl der Parameter des Sensoriksystems (die z.B. zum Ermitteln unterschiedlicher Messgrößen dienen) zur verbesserten Erfassung der vorliegenden bestimmten Umfelderkennungssituation erfolgen.
  • Die Interpretation von der empfangenen Lichtreflektion bzw. von dem Wellenecho durch das Sensoriksystem des ersten Fahrzeugs kann beispielsweise mittels einer Aktivierung bzw. Ansteuerung eines oder mehreren alternativen oder zumindest teilweise ergänzend zueinander aktivierbaren Modi, Zustände, Modusübergängen bzw. Zustandsübergänge des Sensoriksystems oder einer dem Sensoriksystem nachgeschalteten Funktionalität des ersten und/oder zweiten Fahrzeugs erfolgen.
  • Bevorzugt erfolgt dabei die besagte Veränderung bzw. Anpassung im Wesentlichen für die Dauer und/oder in einer quantitativen Abhängigkeit von der Umfelderfassungssituation oder der ermittelten Szene der Umfelderfassung, insbesondere von zumindest einem qualitativen und/oder quantitativen Parameter der Umfelderfassungssituation bzw. der Szene.
  • Gemäß einer weiteren optionalen Ausgestaltung wird das Sensoriksystem mit der ermittelten Steuerungsinformation derart angesteuert, dass die Anpassung betrifft:
    • - eine oder mehreren Wellenlängen in der eine Sensierung durchgeführt wird, und/oder
    • - eine Pulsfolge oder Pulssequenz, insbesondere eine Kombination und/oder zeitliche Abhängigkeit von bzw. zwischen zumindest zwei Messvorgängen, und/oder
    • - eine Veränderung der Phase eines oder mehrerer Messimpulse oder Berücksichtigung der jeweils veränderten Phase der empfangenen Impulse.
  • Die Sensoren (Ultraschallsensoren, unterschiedliche Radare, lichtemittierende Sensoren, wie Laserscanner, LED-sensorik) im Sensoriksystem können unterschiedlich angesteuert werden. Dabei kann ein Sensierungsmodus (Wellenlänge, Phasen, Pulse) oder gar das Sensierungsverfahren verändert werden.
  • Mit anderen Worten verändert abhängig vom Ermitteln zumindest eines Datensatzes das Sensoriksystem seine Eigenschaften (an den Stellen, bzw. passend zu den Stellen innerhalb der Fahrstrecke wo zumindest ein Sensor des ersten Fahrzeugs einen Sensierungsartefakt verursacht bzw. geliefert hat und/oder in einem zur Vermeidung oder Abschwächung des Sensierungsartefakts erforderlichen Maße), derart, dass korrekte oder zumindest der Realität besser entsprechende Messdaten bzw. die von den Messwerten abhängige (nachgeschaltete) Funktionalität des Fahrzeugs resultieren. Insbesondere können konkrete (z.B. häufig in der bestimmten Situation auftretende) sensorisch bedingte Fehler (spezielle Echos, Übersprechen der Sensoren, besondere Reflektionen) vermieden werden oder ihre Folgen die entsprechenden Abschnitte der Sensordaten oder eine davon abhängige Fahrzeugfunktionalität wesentlich reduziert werden.
  • Z.B. kann anhängig von den räumlich bezogenen ermittelten zugeordneten Daten die Messreihenfolge von Ultraschallsensoren verändert werden, derart dass Störungen bei einer Kreuzechomessung oder andere Artefakte bzw. physikalische Effekte reduziert werden, die für die bestimmte Umfelderfassungssituation bzw. bestimmte Arten von Umfelderfassungssituationen und/oder im Zusammenhang mit bestimmten Positionsinformationen typisch sind.
  • Auch kann abhängig von den zugeordneten Daten, respektive von der Steuerungsinformation ein räumlicher Sensierungsbereich, z.B. eine Elevation von Radar-Systemen variiert, insbesondere angepasst werden. Dadurch kann eine gezieltere Erfassung bestimmter räumlicher Bereiche, insbesondere zur Vermeidung von bestimmten (speziellen) Störungen, erfolgen.
  • Gemäß einer weiteren optionalen Ausgestaltung veranlasst die Steuerungsinformation eine abwechselnde, insbesondere zeitlich alternierende Veränderung der Eigenschaften eines Sensors und/oder des angewandten Sensierungsverfahrens.
  • Auch ein veränderter Modus eines Sensierungsverfahrens kann seine besonderen Schwächen innehaben. Daher ist es vorteilhaft, insbesondere innerhalb derselben Umfelderfassungssituation zwei oder mehrere Sensierungsverfahren des Sensoriksystems oder eine wiederholte Veränderung der Eigenschaften zumindest eines Sensors in Bezug auf dieselbe oder gleichartige Szene bei der Umfelderfassung durchzuwechseln.
  • Dabei kann das Verfahren auch einen weiteren Schritt umfassen, bei dem die resultierenden Messwerte (Daten des Sensoriksystems), die in zwei unterschiedlichen Sensierungs-Phasen (mit jeweils zumindest zwei Eigenschaften eines Sensors und/oder des angewandten Sensierungsverfahren) erfasst wurden, miteinander verglichen (und ggf. zusammengeführt) werden.
  • Besonders effektiv kann ein solcher Vergleich der Daten abhängig von den Daten, die eine Information über die Performance zumindest eines Sensors oder des Sensorsystems repräsentieren.
  • Mit anderen Worten wird an einer problematischen Stelle (z.B. einer komplexen Konstellation von Objekten, z.B. in einer nicht aufgeräumten Garage), an der das Sensoriksystem des Fahrzeugs nicht zufriedenstellende Daten liefert, beispielsweise die Positionsinformation und (in diesem Fall zu der eigenen Garage, etc.), die besondere Art der Szene im Zusammenhang mit der fraglichen Umfelderfassungssituation erkannt (z.B. eine bestimmte Art der Garage, insbesondere aus einer bestimmten Position oder Richtung). Das Sensoriksystem aus einem Seitenradarsystem mit 4 Seitenradaren, und aus einem Ultraschallsystem aus 8-12 Sensoren wird in einen Modus versetzt, der für diese Umfelderfassungssituation bessere Ergebnisse liefert. Das Sensoriksystem wird dabei ca. im Sekundentakt in zumindest zwei verschieden Modi versetzt die jeweils unterschiedliche Stärken und Schwächen ausweisen. Die resultierenden Messdaten werden in einem weiteren Schritt des Verfahrens derart miteinander verglichen, insbesondere fusioniert, dass die Stärken beider Modi maximal hervorgehoben werden und/oder die Schwächen (Fehleranfälligkeit, Nichtlinearitäten und Sonstiges) zumindest teilweise kompensiert bzw. abgeschwächt werden. Dabei können die Information, repräsentierend eine Performance zumindest eines Sensors oder Sensorsystems des Fahrzeugs und/oder die zugeordneten Daten, insbesondere die Lerndaten berücksichtigt werden.
  • Gemäß einer weiteren optionalen Ausgestaltung umfasst das Verfahren zusätzlich:
    • - Erfassen einer Positionssequenz, welche zumindest einer lokalen Position in Relation zu zumindest einer Fahrbahnmarkierung, Fahrbahnbegrenzung oder Leitplanke der Fahrbahn entspricht, im Zusammenhang mit dem besagten Sensierungsartefakts, bevorzugt auch umfassend:
    • - Erfassen einer globalen Position, die mit dem Auftritt des Sensierungsartefakts zusammenhängt durch das erste Fahrzeug,
    • - Ermitteln von Zuordnungsdaten, die repräsentativ sind für ein Abgleichen der erfassten lokalen Position zu zumindest einer Spurenmarkierung, Leitplanke oder Fahrbahnrand zu der globalen Position im Zusammenhang mit dem Auftritt des besagten Sensierungsartefakts.
  • Bevorzugt umfasst das Verfahren ein Ermitteln zumindest einer Spurenmarkierung, Leitplanke und/oder Fahrbahngrenze mittels einer Sensorik des ersten Fahrzeugs. Das Verfahren umfasst ein Ermitteln zumindest einer erwarteten lokalen Position, die im Zusammenhang mit dem Auftritt des Sensierungsartefakts steht, zumindest in Querrichtung relativ zu zumindest einer mittels der Sensorik des ersten Fahrzeugs ermittelten Spurenmarkierung, Leitplanke und/oder Fahrbahngrenze und/oder Ermitteln zumindest eines Parameters des Sensierungsartefakts, insbesondere der Art des Sensierungsartefakts (Art, Klasse, z.B. niedrige Datenqualität, versagen, Ausfall, Nichtverfügbarkeit, etc.) abhängig von der bereitgestellten Information auf Basis der Zuordnungsdaten.
  • Bevorzugt erfolgt daraufhin:
    • - Berücksichtigung der Zuordnungsdaten beim Ermitteln der zugeordneten Daten, und/oder
    • - Bereitstellen, insbesondere Übermitteln einer von den Zuordnungsdaten abhängigen Information an eine Recheneinheit zur Nutzung in dem ersten und/oder zweiten Fahrzeug.
  • Im Folgenden wird eine optionale Ausgestaltung beschrieben, wie die Szene bei der fraglichen Umfelderfassung erkannt werden soll:
    • Gemäß einer weiteren optionalen Ausgestaltung wird die Positionssequenz auf Basis einer Sequenz von Fahrzeugkoordinaten, z.B. globaler Koordinaten der Bewegung des Fahrzeugs im Zusammenhang mit dem Auftritt eines Sensierungsartefakts, insbesondere des Sensierungsartefakts einer bestimmten Art, ermittelt.
  • Insbesondere wird die Steuerungsinformation abhängig von zwei oder mehreren Positionsinformationen, besonders bevorzugt abhängig von einer Positionssequenz, ermittelt.
  • Besonders bevorzugt wird die Szene bei der Umfelderfassung ermittelt von einer Sequenz von Positionen des ersten Fahrzeugs, die eine absolute und/oder relative Zeitinformation z.B. Zeitintervallangaben zu den Positionen umfasst.
  • Beispielsweise wird dabei eine Situation beim Annähern an eine enge Durchfahrt aus zwei verschiedenen Winkeln (und Positionssequenzen) unterschiedlich behandelt, wie nachfolgend beispielhaft beschrieben.
  • Z.B. wird bei einer ersten Positionssequenz (erste Annäherungstrajektorie) eine erste Steuerungsinformation ermittelt, die z.B. einen Einfluss einer Ultraschallsensorik in der Umfelderfassung reduziert, die bei einer solchen Annäherungstrajektorie Fehler verursachen würde. Bei einer zweiten Positionssequenz (zweite Annäherungstrajektorie) wird eine zweite Steuerungsinformation ermittelt, die eine Veränderung von dem Modus des Ultraschallsystems bewirkt und die resultierenden Werte zugleich mit weiteren Sensordaten fusioniert bzw. bestätigen lässt.
  • Beim Ermitteln der Steuerungsinformation kann bevorzugt auch berücksichtigt werden, aus welcher relativen Position (z.B. Distanz, Versatz, Winkelinformation) das erste und/oder zweite Fahrzeug sich in Relation zu einer bestimmten Konstellation von Objekten befindet und/oder wie schnell es sich der Situation annähert.
  • Gemäß einer weiteren optionalen Ausgestaltung werden die zugeordneten Daten an eine oder mehrere bestimmte Anwendungsbedingungen geknüpft, wobei die eine oder mehrere Anwendungsbedingungen beim wiederholten Befahren des Fahrbahnabschnitts durch zumindest das erste Fahrzeug und/oder zweite Fahrzeug berücksichtigt werden.
  • Die eine oder mehrere Anwendungsbedingungen können dabei abhängig von den in den ersten Fahrzeugen beim Zustandekommen des Sensierungsartefakts vorherrschenden Bedingungen ermittelt werden.
  • Dabei kann eine entsprechende Ausführung der Ansteuerung des Sensors des ersten und/ oder zweiten Fahrzeugs abhängig von dem Erfüllen zumindest einer Anwendungsbedingung erfolgen.
  • Beispielsweise kann abhängig von der Anwendungsbedingung eine von mehreren Ansteuerungsmaßnahmen ausgewählt werden, die sich jeweils auf eine Anwendungsbedingung, z.B. auf einen Geschwindigkeitsbereich beziehen, z.B. 10-20 km/h, 20-30 km/h, ... 70-80 km/h, ... 180-210 km/h. Diese können dann abhängig von dem Erfüllen der Anwendungsbedingung, z.B. zum betreffenden Zeitpunkt der aktuellen Geschwindigkeit des ersten und/oder zweiten Fahrzeugs beim wiederholten Befahren des besagten Fahrstreckenabschnitts angewandt werden. Vereinfacht erklärt, können die gespeicherten Daten einen „Beipackzettel“ mit einer oder mehreren Anwendungsbedingungen umfassen.
  • Optional können bei dem Verfahren eine bestimmte Umfelderfassungssituation repräsentierende Daten, insbesondere bei einer Annäherung des ersten und/oder zweiten Fahrzeugs zu der entsprechenden Stelle (oder Objekt), insbesondere auf < 20, 15, 10, 5, 3, 1 Meter ermittelt werden.
  • Gemäß einer weiteren optionalen Ausgestaltung umfasst das Sensoriksystem auch Mittel oder Verfahren zur Ausführung einer Sensorfusion, wobei abhängig von einer ermittelten Umfeldsensierungssituation und/oder von einer ermittelten Steuerungsinformation die Fusion der Sensordaten von zumindest zwei Sensoren variiert wird.
  • Bevorzugt wird die Fusion der Sensordaten variiert hinsichtlich einem oder mehrerer der folgenden Punkte:
    • - Zuordnung von Messwerten eines oder unterschiedlicher Sensoren zueinander und/oder zu bestimmten Objekten oder ausgewählten Raumbereichen (Areas of Interest), und/oder
    • - Gewichtung von Messwerten zumindest zweier Sensoren beim Ermitteln zumindest eines fusionierten Messwerts, und/oder
    • - Zeitversatzes zwischen den zu fusionierenden Messwerten zumindest zweier Sensoren.
  • Hierbei kann die Leistung einer statischen oder dynamischen Umfeldmodellierung unter dem Begriff „Sensoriksystem“ subsummiert werden.
  • Gemäß einer weiteren optionalen Ausgestaltung wird eine Voraussage zum Eintritt einer bestimmten Szene bei der Umfelderfassung für die nahe Zukunft ermittelt, und eine, insbesondere vorausschauende, Planung zur Ansteuerung des Sensoriksystems und/oder der darauf basierenden Fahrzeugfunktion ermittelt.
  • Auch kann eine drahtlose einseitige oder gegenseitige Abstimmung der Veränderung der Eigenschaften eines Sensors und/oder das angewandte Sensierungsverfahren zwischen zumindest zwei Fahrzeugen ausgeführt werden.
  • Gemäß einer weiteren optionalen Ausgestaltung erfolgt in dem ersten Fahrzeug abhängig von den gespeicherten Daten eine Gewichtung zwischen einer Karteninformation und Umfelderfassungsdaten zum Betreiben zumindest einer Fahrzeugfunktion, insbesondere einer Fahrerassistenzfunktion.
  • In einem vereinfachten Beispiel kann bei einem erwarteten Sensierungsartefakt, z.B. einer falschen Umfeldsensierung oder niedrigerer Qualität einer Sensorikinformation ein Umschalten einer Kundenfunktion von einem im Wesentlich auf der Umfeldsensierung abhängigen Betrieb auf einen im Wesentlichen auf einer Karteninformation basierenden Betrieb, insbesondere für ein passendes Zeitintervall gewechselt werden.
  • Dies kann auch innerhalb (im Rahmen) der betreffenden, auf Basis des Sensoriksystems betriebene Fahrzeugfunktion, z.B. Fahrerassistenzfunktion ausgeführt werden.
  • Gemäß einer weiteren optionalen Ausgestaltung umfasst das Verfahren zusätzlich:
    • - Erkennen, insbesondere prädizieren einer Positionssequenz, insbesondere eines Positionssequenzmusters,
    • - Prädizieren eines Sensierungsartefakts, insbesondere eines Sensierungsartefakts mit einem bestimmten Parameter, in einer nahen Zukunft abhängig von der Positionssequenz, bzw. des Positionssequenzmusters,
    • - Ermitteln einer Steuerungsinformation zum Ansteuern des Sensoriksystems des ersten und/oder zweiten Fahrzeugs Fahrzeugs in Abhängigkeit von der erkannten bestimmten Umfelderfasungssituation, ferner bevorzugt umfassend:
    • - Ermitteln zumindest einer Zeitinformation und/oder Positionsinformation auf die sich die Steuerungsinformation bezieht,
    • - Ansteuern des Sensoriksystems des ersten und/oder zweiten Fahrzeugs oder einer mit dem Sensoriksystem zusammenhängende Fahrzeugfunktion abhängig von der Steuerungsinformation,
    bevorzugt abgängig von der Positionssequenz, bzw. des Positionssequenzmusters.
  • Die besagte Prädiktion eines bestimmten Sensierungsartefakts, insbesondere eines Sensierungsartefakts mit einem bestimmten Parameter, in einer nahen Zukunft kann dabei auch mit beliebigen (weiteren) Mitteln erfolgen. Im Rahmen der besagten Prädiktion kann auch lediglich ein rudimentärer Parameter, der an sich zur Vermeidung oder Kompensation des Sensierungsartefakts nicht ausreichend wäre, ermittelt werden. Daraufhin kann im Verfahren eine (wesentlich präzisere, insbesondere auf den erwarteten Sensierungsartefakt zugeschnittene) Steuerungsinformation ermittelt werden, mit der wiederum eine Ansteuerung des zumindest eines Sensors und/oder des Sensoriksystems des Fahrzeugs erfolgen kann.
  • Hierbei kann sich das das Ansteuern insbesondere auf zumindest ein Zeitintervall und/oder Fahrstreckenintervall, insbesondere ein bestimmtes Zeitintervall und/oder Fahrstreckenintervall beziehen. Dabei kann eine besonders gezielte Anpassung erreicht werden.
  • Gemäß einer weiteren optionalen Ausgestaltung wird eine Prädiktion eines bestimmten Sensierungsartefakts, insbesondere eines Sensierungsartefakts mit einem bestimmten Parameter, in einer nahen Zukunft ermittelt,
    • - abhängig von den Daten über eine aktuelle und/oder für die nahe Zukunft prädizierte Positionsinformation des ersten und/oder zweiten Fahrzeugs, und/oder
    • - abhängig von der Information über eine bestimmte Szene bei der fraglichen Umfelderfassung, insbesondere im Zusammenhang mit einem bestimmten Manöver, durchgeführt oder beabsichtigt wird.
  • Insbesondere kann hier eine Position an der ein Sensierungsartefakt zu erwarten ist, aus den globalen Koordinaten (z.B. in der Umgebung einer Garage, Parkhauses, einer Engstelle, eines besonderen Grundstücks), und/oder von der Erkennung eines bestimmten Manövers (z.B. eines Park- oder Rangier-Manövers, Einpark-, Auspark- Rangiermanöver, Wendemanöver, Engstellendurchfahrt) ermittelt werden.
  • Bevorzugt kann ein (in der nahen Zukunft zu erwartendes) Sensierungsartefakt aus einem bestimmten (aktuell ausgeführten oder prädizierten) Manöver an einer bestimmten Position (z.B. Fahrbahnabschnitt von +/- 10, 5, 2, 1 Meter) abhängig von der Positionsinformation prädiziert werden.
  • Ein bestimmtes Manöver kann auch eine bestimmte Art des Manövers betreffen. Die Art des Manövers kann z.B. auch abhängig von einer Fahrzeugbedienung durch den Fahrer (Rückwärtsgang, Lenkeinschlag, Bediensequenz, etc.) erkannt werden. Beispielsweise kann ein bestimmtes Manöver bzw. eine bestimmte Art des Manövers durch die Erkennung eines bestimmten (typischen, charakteristischen) Musters, z.B. Kombination der Signale erkannt werden.
  • Das Sensoriksystem des ersten und/oder zweiten Fahrzeugs wird dabei darauf vorbereitet, eine Veränderung der Eigenschaften eines Sensors und/oder das angewandte Sensierungsverfahren (nach einen bestimmter Planung, insbesondere umfassend eine Zeitinformation, z.B. Sequenz) durchzuführen. Die Information repräsentierend eine solche Planung kann zumindest einem Fahrzeug in der Umgebung mitgeteilt werden, und/oder die Planung (die fahrzeugeigene Planung) abhängig von einer von einem anderen Fahrzeug übermittelten Information verändert werden.
  • Gemäß einer weiteren optionalen Ausgestaltung wird eine Steuerungsinformation zur Ansteuerung zumindest eines Sensors eines weiteren Fahrzeugs ermittelt auf Basis der einen oder mehreren zugeordneten Daten des ersten Fahrzeugs, wobei insbesondere ein Abgleich:
    • - der zugeordneten Daten auf Basis eines mehrmaligen Befahren des Fahrstreckenabschnitts, und/oder
    • - der zugeordneten Daten von mehreren ersten Fahrzeugen ausgeführt wird.
  • Dabei kann, der Abgleich der zugeordneten Daten in einer Recheneinheit des ersten Fahrzeugs und/oder in der Recheneinheit des zweiten Fahrzeugs und/oder in der Recheneinheit eines (mit dem ersten Fahrzeug bzw. mit einem zweiten Fahrzeug) mitgeführten mobilen Anwendergeräts ausgeführt werden.
  • Dabei kann der Abgleich der zugeordneten Daten eine Aggregation der besagten zugeordneten Daten umfassen. Besonders bevorzugt wird durch den Abgleich eine verbesserte, optimierte Steuerungsinformation zum Ansteuern des Sensoriksystems, umfassend zumindest einen Sensor des zweiten Fahrzeugs ermittelt.
  • Gemäß eines weiteren Aspekts zeichnet sich die Erfindung aus durch ein mobiles Anwendergerät, derart eingerichtet, ein Verfahren zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs zusammen mit einem ersten Fahrzeug und/oder mit einem zweiten Fahrzeug durchzuführen, wobei das mobile Anwendergerät derart eingerichtet ist, zumindest einen Teil des Verfahren zum Ermitteln oder zur Bereitstellung der auf der Zuordnung basierenden Daten und/oder einen Teil des Verfahrens zum Ermitteln der Information zur Ansteuerung des Sensoriksystems zumindest eines zweiten Fahrzeugs durchzuführen.
  • Dabei kann das mobile Anwendergerät derart eingerichtet sein, zumindest einen Teil des Verfahrens gemäß des ersten Aspekts auszuführen. Beispielsweise kann das mobile Anwendergerät auch die Ausführung bestimmter Merkmale des Verfahrens in dem (ersten oder zweiten) Fahrzeug in dem es mitgeführt wird, veranlassen.
  • Das mobile Anwendungsgerät kann im Rahmen dieser Beschreibung ein Smartphone, Tablet, Smart-Watch, Smart-Closes, insbesondere ein Kleidungsstück mit einer in das Kleidungsstück integrierter elektronischer Vorrichtung, Motorradhelm mit einer Mensch-Maschine-Schnittstelle, eine Datenbrille für den Fahrer des Fahrzeugs, ein mit dem Fahrzeug mitführbarer und an das Fahrzeug mit einer Datenschnittstelle verbindbare Fahrzeugcomputer, ein externes Navigationsgerät, oder eine sinngemäßer Weiterbildung solcher Vorrichtungen sein.
  • Gemäß eines weiteren Aspekts zeichnet sich die Erfindung aus durch ein Computerprogramm, insbesondere ein Computerprogrammprodukt umfassend ein Computerprogramm, wobei das Computerprogramm ausgebildet ist, bei seiner Ausführung auf einer Recheneinheit des ersten Fahrzeug, des zweiten-Fahrzeugs oder eines in einem ersten Fahrzeug oder in einem zweiten Fahrzeug mitgeführten mobilen Anwendergeräts das Verfahren nach einem der Ansprüche 1-14 durchzuführen.
  • Ein zweites Fahrzeug ist bevorzugt ein anderes Fahrzeug als das erste Fahrzeug. Ausnahmsweise kann aber ein zweites Fahrzeug (zeitweise, bei einem wiederholten Befahren des Fahrstreckenabschnitts) einem ersten Fahrzeug entsprechen.
  • Ausführungsbeispiele der Erfindung sind im Folgenden anhand der schematischen Zeichnungen näher erläutert. Es zeigen:
    • 1 Ein Ablaufdiagramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs und
    • 2 eine Abbildung des maschinellen Lernens für das Sensorsystem des Fahrzeugs.
  • Die 1 zeigt ein Ablaufdiagramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs.
  • Das Programm kann von einer Vorrichtung oder verteilt von mehreren Vorrichtungen abgearbeitet werden. Die Vorrichtung umfasst hierfür insbesondere eine Recheneinheit, einen Programm- und Datenspeicher, sowie beispielsweise eine oder mehrere Kommunikationsschnittstellen.
  • Das Programm wird in einem Schritt S1 gestartet, in dem gegebenenfalls Variablen initialisiert werden können.
  • In einem Schritt S3 erfolgt ein Ermitteln einer Positionssequenz eines ersten Fahrzeugs beim Befahren eines Fahrstreckenabschnitts.
  • In einem Schritt S5 erfolgt ein Ermitteln eines Parameters, repräsentierend ein Sensierungsartefakt im ersten Fahrzeugs im Zusammenhang mit dem ermittelten Positionssequenz.
  • In einem Schritt S7 erfolgt ein Zuordnen des ermittelten Parameters des Sensierungsartefakts zu der Positionssequenz und eine Speicherung der zugeordneten Daten.
  • In einem Schritt S9 erfolgt beim Erkennen zumindest einer Positionssequenz, insbesondere beim wiederholten Befahren des Fahrstreckenabschnitts, Ansteuerung zumindest eines Sensors, und/oder Anpassung zumindest eines Umfelderfassungs-Messwerts auf Basis eines oder mehrerer Sensoren und/oder eines verarbeiteten Messwerts des Sensorsystems zumindest des ersten und/oder eines zweiten Fahrzeugs.
  • In einem Schritt S11 wird das Programm beendet und kann gegebenenfalls wieder in dem Schritt S1 gestartet werden.
  • Der Verfahren kann optional einen oder mehrere der folgenden Schritte umfassen:
    • Einen Schritt bei dem eine Umfelderfassungssituation, insbesondere eine Szene, die im Zusammenhang mit dem Auftritt des Sensierungsartefakts steht, erkannt, insbesondere klassifiziert wird und beim Ermitteln der zugeordneten Daten verarbeitet wird.
  • Einen Schritt bei dem eine von den gespeicherten Daten, insbesondere von Lerndaten abhängige Steuerungsinformation ermittelt wird, die eine Veränderung der Eigenschaften eines Sensors und/oder das angewandte Sensierungsverfahren, insbesondere in einem bestimmten quantitativen Maß veranlasst, insbesondere die Ausstrahlung von Licht oder Wellen und/oder Interpretation vom empfangenen Lichtreflektion bzw. Wellenecho durch das Sensoriksystem des ersten Fahrzeugs.
  • Einen Schritt bei dem das Sensoriksystem mit der ermittelten Steuerungsinformation derart angesteuert wird, dass die Anpassung betrifft:
    • - eine oder mehreren Wellenlängen in der eine Sensierung durchgeführt wird, und/oder
    • - eine Pulsfolge oder Pulssequenz, insbesondere eine Kombination und/oder zeitliche Abhängigkeit von bzw. zwischen zumindest zwei Messvorgängen, und/oder
    • - eine Veränderung der Phase eines oder mehrerer Messimpulse oder Berücksichtigung der jeweils veränderten Phase der empfangenen Impulse.
  • Einen Schritt bei dem die Steuerungsinformation eine abwechselnde, insbesondere zeitlich alternierende Veränderung der Eigenschaften eines Sensors und/oder des angewandten Sensierungsverfahrens veranlasst.
  • Einen Schritt umfassend:
    • - Erfassen einer Positionssequenz, welche zumindest einer lokalen Position in Relation zu zumindest einer Fahrbahnmarkierung, Fahrbahnbegrenzung oder Leitplanke der Fahrbahn entspricht, im Zusammenhang mit dem besagten Sensierungsartefakts, bevorzugt auch umfassend:
    • - Erfassen einer globalen Position, die mit dem Auftritt des Sensierungsartefakts zusammenhängt durch das erstes Fahrzeug,
    • - Ermitteln von Zuordnungsdaten, die repräsentativ sind für ein Abgleichen der erfassten lokalen Position zu zumindest einer Spurenmarkierung, Leitplanke oder Fahrbahnrand zu der globalen Position im Zusammenhang mit dem Auftritt des besagten Sensierungsartefakts.
  • Einen Schritt, bei dem die Positionssequenz auf Basis einer Sequenz von Fahrzeugkoordinaten, insbesondere globaler Koordinaten der Bewegung des Fahrzeugs im Zusammenhang mit dem Auftritt eines Sensierungsartefakts, insbesondere des Sensierungsartefakts einer bestimmten Art, ermittelt wird.
  • Einen Schritt, bei dem die zugeordneten Daten an eine oder mehrere bestimmte Anwendungsbedingungen geknüpft werden, wobei die eine oder mehrere Anwendungsbedingungen beim wiederholten Befahren des Fahrbahnabschnitts durch zumindest das erste und/oder zweite Fahrzeug berücksichtigt werden.
  • Einen Schritt, bei dem das Sensoriksystem auch Mittel oder Verfahren zur Ausführung einer Sensorfusion umfasst, wobei abhängig von einer ermittelten Umfeldsensierungssituation und/oder von einer ermittelten Steuerungsinformation die Fusion der Sensordaten von zumindest zwei Sensoren variiert wird.
  • Einen Schritt, bei dem eine Voraussage zum Eintritt einer bestimmten Szene bei der Umfelderfassung für die nahe Zukunft ermittelt wird, und eine, insbesondere vorausschauende, Planung zur Ansteuerung des Sensoriksystems und/oder der darauf basierenden Fahrzeugfunktion ermittelt wird.
  • Einen Schritt, bei dem in dem ersten Fahrzeug abhängig von den gespeicherten Daten eine Gewichtung zwischen einer Karteninformation und Umfelderfassungsdaten zum Betreiben zumindest einer Fahrzeugfunktion, insbesondere einer Fahrerassistenzfunktion, erfolgt.
  • Einen Schritt, umfassend:
    • - Erkennen, insbesondere prädizieren einer Positionssequenz, insbesondere eines Positionssequenzmusters,
    • - Prädizieren eines Sensierungsartefakts, insbesondere eines Sensierungsartefakts mit einem bestimmten Parameter, in einer nahen Zukunft abhängig von der Positionssequenz, bzw. des Positionssequenzmusters,
    • - Ermitteln einer Steuerungsinformation zum Ansteuern des Sensoriksystems des ersten und/oder zweiten Fahrzeugs Fahrzeugs in Abhängigkeit von der erkannten bestimmten Umfelderfasungssituation, ferner bevorzugt umfassend:
    • - Ermitteln zumindest einer Zeitinformation und/oder Positionsinformation auf die sich die Steuerungsinformation bezieht,
    • - Ansteuern des Sensoriksystems des ersten und/oder zweiten Fahrzeugs Fahrzeugs oder einer mit dem Sensoriksystem zusammenhängende Fahrzeugfunktion abhängig von der Steuerungsinformation,
    bevorzugt abgängig von der Positionssequenz, bzw. des Positionssequenzmusters.
  • Einen Schritt, bei dem eine Prädiktion eines bestimmten Sensierungsartefakts, insbesondere eines Sensierungsartefakts mit einem bestimmten Parameter, in einer nahen Zukunft ermittelt wird,
    • - abhängig von den Daten über eine aktuelle und/oder für die nahe Zukunft prädizierte Positionsinformation des ersten und/oder zweiten Fahrzeugs, und/oder
    • - abhängig von der Information über eine bestimmte Szene bei der fraglichen Umfelderfassung, insbesondere im Zusammenhang mit einem bestimmten Manöver, durchgeführt oder beabsichtigt wird.
  • Einen Schritt, bei dem eine Steuerungsinformation zur Ansteuerung zumindest eines Sensors eines weiteren Fahrzeugs ermittelt wird auf Basis der einen oder mehreren zugeordneten Daten des ersten Fahrzeugs, wobei insbesondere ein Abgleich:
    • - der zugeordneten Daten auf Basis eines mehrmaligen Befahren des Fahrstreckenabschnitts, und/oder
    • - der zugeordneten Daten von mehreren ersten Fahrzeugen ausgeführt wird.
  • Das Verfahren kann optional zusammen mit einem Verfahren zur Adaption eines Sensorsystems ausgeführt werden, welches nachfolgend beschrieben wird.
  • Das Verfahren zur Adaption eines Sensorsystems kann folgende Schritte umfassen:
    • Erkennen einer vorgegebenen Umfelderfassungssituation mit Mitteln des Fahrzeugs;
    • Ermitteln einer Steuerungsinformation zum Ansteuern des Sensorsystems des Fahrzeugs in Abhängigkeit von der erkannten, vorgegebenen Umfelderfassungssituation; und Ansteuern des Sensorsystems des Fahrzeugs derart, dass die im Zusammenhang mit der erkannten Umfelderfassungssituation erfassten oder zu erfassenden Messwerte zumindest eines der Sensoren und/oder aus den Messwerten eines oder mehrerer Sensoren des Sensorsystems ermittelte Daten zum Betreiben zumindest einer Fahrzeugfunktion zumindest teilweise korrigiert werden.
  • Bei dem Sensorsystem des Fahrzeugs handelt es sich um ein System, das u.a. Daten für eine Fahrzeugfunktion, insbesondere ein Fahrerassistenzfunktion, ein Fahrerinformationssystem, eine Fahrdynamikfunktion oder eine Vertikaldynamikfunktion, des Fahrzeugs bereitstellt.
  • Bei der vorgegebenen Umfelderfassungssituation handelt es sich insbesondere um eine Situation, die eine erhöhte Komplexität oder einen erhöhten Schwierigkeitsgrad oder eine wesentlich ausgeprägte Besonderheit für eine sensorische Erfassung des Umfelds mit Hilfe des Sensorsystems darstellt. Eine vorgegebene Umfelderfassungssituation liegt insbesondere auch dann vor, wenn eine erhöhte Komplexität oder ein erhöhter Schwierigkeitsgrad für die Auswertung der von dem Sensorsystem gelieferten Daten besteht. Eine vorgegebene Umfelderfassungssituation kann damit auch ein bestimmter Anwendungsfall sein, der in der Vergangenheit wiederholt zu Fehlern des Sensorsystems und damit zusammenhängenden Funktionsfehlern führte.
  • Das Verfahren zielt insbesondere darauf ab, mit vorgegebenen (schwierigen) Umfelderfassungssituationen verbundene Funktionslücken (eine zeitweise Nichtverfügbarkeit oder eine fehlerhafte Funktionalität einer oder mehreren Fahrzeugfunktionen) zu schließen und somit auch ein möglichst durchgehendes Erlebnis für den Nutzer des Fahrzeugs bereitzustellen. Das Verfahren kann umfassen, dass eine Erkennung von (möglichen) fehlerhaften, qualitativ minderwertigen Messwerten des Sensoriksystems und/oder der Funktionsweise der zumindest einen Fahrzeugfunktion durchgeführt wird. Die Ausführung weiterer Schritte des Verfahrens kann dann abhängig von der Erkennung der fehlerhaften, qualitativ minderwertigen Messwerte des Sensoriksystems und/oder der Funktionsweise der zumindest einen Fahrzeugfunktion erfolgen.
  • Die aus den Messwerten eines oder mehrerer Sensoren des Sensorsystems ermittelten Daten zum Betreiben zumindest einer Fahrzeugfunktion können sogenannte Umfeldmodelldaten sein, die z.B. Teile der Umgebung des Fahrzeugs beschreiben, ein Datenmodell, welches sich auf zumindest einen Zeitpunkt bezieht, repräsentieren.
  • Alternativ oder zusätzlich können die aus den Messwerten eines oder mehrerer Sensoren des Sensorsystems ermittelten Daten zum Betreiben zumindest einer Fahrzeugfunktion eine oder mehrere Soll-Größen und/oder eine Regelungsgröße einer Fahrzeugfunktion sein.
  • Die Umfelderfassungssituation kann gekennzeichnet sein durch ein oder mehrere Objekte, welche sich im Erfassungsbereich des Sensorsystems befinden und eine vorgegebene Beschaffenheit aufweisen. Die Umfelderfassungssituation kann gekennzeichnet sein durch eine bestimmte Konstellation von beweglichen und/oder unbeweglichen Objekten, die sich im Erfassungsbereich des Sensorsystems befindet. Die Umfelderfassungssituation kann ferner gekennzeichnet sein durch bestimmte Randbedingungen, die für eine Erfassung des Umfelds mittels des Sensorsystems, z.B. mittels eines oder mehrerer bestimmten physikalischen Prinzipien, relevant ist. Solche Randbedingungen können beispielsweise die im Umfeld des Fahrzeugs vorherrschende Helligkeit (zu hell oder zu dunkel), Schnee, Nebel, Vereisung eines oder mehrerer Sensoren und dergleichen sein.
  • Besonders bevorzugt wird eine Anzahl quantitativer Kriterien der Umfelderfassungssituation ermittelt und berücksichtigt. Das Erkennen der Umfelderfassungssituation kann insbesondere ein Erkennen einer Klasse von Umfelderfassungssituation, beispielsweise abhängig von der Anzahl quantitativer Kriterien, sein. Bevorzugt kann das Erkennen der Umfelderfassungssituation zumindest die Erkennen einer von mehreren (bestimmten) Klassen (z.B. als Zugehörigkeit zu einer von mehreren möglichen Klassen bzw. Kategoriewerten) von Umfelderfassungssituationen sein.
  • Ein Erkennen der Umfelderfassungssituation kann anhand einer Vielzahl vorausbestimmter Faktoren ausgeführt werden. Das Erkennen einer vorgegebenen Umfelderfassungssituation kann mit Mitteln des Fahrzeugs erfolgen. Das Erkennen einer vorgegebenen Umfelderfassungssituation kann im Verfahren abhängig von den Messwerten zumindest eines der Sensoren und/oder abhängig von aus den Messwerten eines oder mehrerer Sensoren des Sensorsystems ermittelten Daten erfolgen.
  • Dabei kann das Erkennen der vorgegebenen Umfelderfassungssituation abhängig von den Messwerten zumindest eines ersten Sensors und/oder abhängig von aus den Messwerten eines oder mehrerer erster Sensoren des Sensorsystems ermittelten Daten erfolgen, und daraufhin kann ein Ansteuern des Sensorsystems des Fahrzeugs derart durchgeführt werden, dass die im Zusammenhang mit der erkannten Umfelderfassungssituation erfassten bzw. zu erfassenden Messwerte zumindest eines zweiten Sensors und/oder aus den Messwerten eines oder mehrerer zweiter Sensoren des Sensorsystems ermittelte Daten zum Betreiben zumindest einer Fahrzeugfunktion zumindest teilweise korrigiert werden. Dabei können der zumindest eine erste Sensor und der zumindest eine zweite Sensor unterschiedlich sein und/oder zumindest teilweise auf unterschiedlichen physikalischen Prinzipien basieren.
  • Beispielsweise kann im Verfahren, abhängig von den Messwerten eines Radarsensors, die Ansteuerung eines Ultraschallsensors und/oder eines Kamerasystems des Fahrzeugs erfolgen, wobei die resultierenden Werte des Ultraschallsensors und/oder des Kamerasystems zumindest teilweise korrigiert, z.B. nach vorausbestimmten Kriterien verbessert, werden. Beispielsweise kann im Verfahren abhängig von den Messwerten eines Kamerasystems, die Ansteuerung eines Ultraschallsensors und/oder eines Radarsensors des Fahrzeugs erfolgen, wobei die resultierenden Werte des Ultraschallsensors und/oder des Radarsensors zumindest teilweise korrigiert, z.B. nach vorausbestimmten Kriterien verbessert werden.
  • Alternativ oder zusätzlich kann das Erkennen der vorgegebenen Umfelderfassungssituation mit Hilfe von Informationen über ein bestimmtes, von dem Fahrzeug durchgeführtes Fahrmanöver, erfolgen. Beispielsweise kann auch eine wiedererkannte Situation, welche einem bestimmten Anwendungsfall entspricht, darunter fallen.
  • Das Erkennen der Umfelderfassungssituation kann ferner anhand bestimmter relativer Positionsinformationen des Fahrzeugs zu einer Objektekonstellation ermittelt werden. Alternativ oder zusätzlich kann im Verfahren, abhängig von dem Erkennen der Umfelderfassungssituation, auch ein Ergebnis und/oder eine Konsequenz aus einer bestimmten (möglichen, zur Auswahl stehenden) Ansteuerung bzw. Veränderung des Sensorsystems bzw. Steuerungsinformation ermittelt oder abgeschätzt werden. Abhängig von dem ermittelten Ergebnis und/oder einer Konsequenz einer bestimmten Ansteuerung kann im Verfahren beispielsweise entschieden werden, eine bestimmte Ansteuerung durchzuführen oder nicht durchzuführen und/oder eine von mehreren möglichen Steuerungsinformationen zum Ansteuern des zumindest eines Sensors des Sensorsystems auszuwählen.
  • Die Steuerungsinformation kann im Verfahren durch eine Recheneinheit des Fahrzeugs ermittelt werden. Bei der Recheneinheit kann es sich um eine die Messwerte eines Sensors oder die Recheneinheit, welche die Messwerte aller unterschiedlichen Sensorsysteme des Fahrzeugs verarbeitet, handeln.
  • Bei der Steuerungsinformation handelt es sich um quantitative Informationen und/oder Parameter, mit denen z.B. ein Messverfahren eines oder mehrerer Sensoren beeinflusst werden können. Bevorzugt können ein Ablauf eines Messverfahrens betreffend zumindest einen Sensor und/oder mit dem Messverfahren verbundene quantitative Maße angepasst werden. Das Ansteuern kann eine Vielzahl von Parametern des Sensorsystems, die zum Ermitteln unterschiedlicher Messgrößen und/oder zur verbesserten Erfassung der vorgegebenen Umfelderfassungssituation dienen.
  • Bevorzugt kann eine Steuerungsinformation ermittelt werden, die das Messverfahren zu Gunsten eines für die Umfelderfassungssituation gewünschten Ergebnisses beeinflusst. Eine solche Variante des Verfahrens kann umfassen:
    • - Ermitteln der Umfelderfassungssituation, zumindest als eine Klasse der Umfelderfassungssituation;
    • - Bestimmen der zu optimierenden Kriterien zu einem Messverfahren;
    • - Erzeugen der Steuerungsinformation;
    • - Durchführen zumindest eines Messvorgangs und/oder der Verwendung der Sensorwerte unter Berücksichtigung der ermittelten Steuerungsinformation.
  • Das Verfahren basiert auf der Überlegung, dass in bestimmten Situationen, z.B. bei bestimmten problematischen Objekten oder einer bestimmten Objektkonstellation (Anordnung von Objekten) in der Umgebung das Sensorsystem durch Ansteuerung derart verändert wird, dass eine verbesserte (weitestgehend fehlerfreie und präzise) Umfelderfassung ermöglicht ist. Beispielsweise können dazu die Parameter eines von einem Sensor abgestrahlten Infrarot-Lichts (im Falle eines Lidar- oder Time-of-Light-Sensor), elektromagnetische Wellen (im Falle von Radar-Sensoren) oder Ultraschallwellen (im Falle von Ultraschallsensoren) passend zur Situation der sensorischen Erfassung angepasst werden. Eine solche Anpassung erfolgt in Abhängigkeit der Beschaffenheit bestimmter Objekte, einer bestimmten Objektkonstellation oder an vorherrschende Randbedingungen. Wie beschrieben, kann auch eine adaptive Korrektur von quantitativen Parameterwerten und/oder der Auswertung bzw. Verarbeitung der Messwerte erfolgen. Eine Anpassung kann auch durch eine unterschiedliche Gewichtung der Daten unterschiedlicher Sensoren bei einer Sensorfusion sowie der geänderten Ansteuerung der Sensoren oder bei der Auswertung von Messwerten oder Phaseninformationen erfolgen.
  • Das Verfahren setzt dort an, wo sich eine bestimmte Situation im Umfeld des Fahrzeugs für dessen Sensorsystem mit bestimmungsgemäßen (d.h. werksseitig vorgesehenen) Parametern in der Vergangenheit als problematisch erwiesen hat. Zu solchen Situationen zählen beispielsweise zu spät erkannte Objekte innerhalb einer besonders ausgebildeten Straße, einer Baustelle, einer Waschstraße, usw. Diesen Situationen wird durch die Adaption des Sensorsystems Rechnung getragen.
  • Das Verfahren kann auch mittels einer Applikation, die auf dem Fahrzeug läuft und beispielsweise mit Hilfe einer auf einem mobilen Anwendergerät (Endgerät) des Nutzers ablaufenden App (= Application, d.h. einem Anwendungsprogramm) konfigurierbar ist, anpassbar gestaltet werden.
  • Das Verfahren lässt sich in einer ersten Variante beispielsweise auf eine folgende Weise realisieren: Erkennen einer vorgegebenen Umfelderfassungssituation mit Mitteln des Fahrzeugs; Ermitteln einer ersten Steuerungsinformation zum Ansteuern des Sensorsystems des Fahrzeugs in Abhängigkeit von der erkannten, vorgegebenen Umfelderfassungssituation; und Ansteuern des Sensorsystems des Fahrzeugs derart, dass die im Zusammenhang mit der erkannten Umfelderfassungssituation erfassten oder zu erfassenden Messwerte zumindest eines der Sensoren zumindest teilweise korrigiert werden.
  • Das Verfahren lässt sich in einer zweiten Variante beispielsweise auf folgende Weise realisieren: Erkennen einer vorgegebenen Umfelderfassungssituation mit Mitteln des Fahrzeugs; Ermitteln einer zweiten Steuerungsinformation zum Ansteuern des Sensorsystems des Fahrzeugs in Abhängigkeit von der erkannten, vorgegebenen Umfelderfassungssituation; und Ansteuern des Sensorsystems des Fahrzeugs derart, dass die im Zusammenhang mit der erkannten Umfelderfassungssituation aus den Messwerten eines oder mehrerer Sensoren des Sensorsystems ermittelten Daten zum Betreiben zumindest einer Fahrzeugfunktion zumindest teilweise korrigiert werden.
  • Das Verfahren lässt sich bevorzugt in einer dritten Variante beispielsweise auf folgende Weise realisieren: Erkennen einer vorgegebenen Umfelderfassungssituation mit Mitteln des Fahrzeugs; Ermitteln einer zweiten Steuerungsinformation zum Ansteuern des Sensorsystems zur Korrektur von aus den Messwerten eines oder mehrerer Sensoren des Sensorsystems ermittelten Daten zum Betreiben zumindest einer Fahrzeugfunktion des Fahrzeugs in Abhängigkeit von der erkannten, vorgegebenen Umfelderfassungssituation; Ansteuern des Sensorsystems des Fahrzeugs derart, dass die im Zusammenhang mit der erkannten Umfelderfassungssituation aus den Messwerten eines oder mehrerer Sensoren des Sensorsystems ermittelten Daten zum Betreiben zumindest einer Fahrzeugfunktion zumindest teilweise korrigiert werden; Ermitteln einer ersten Steuerungsinformation zum Ansteuern des Sensorsystems des Fahrzeugs zur zumindest teilweisen Korrektur der zu erfassenden Messwerte zumindest eines der Sensoren in Abhängigkeit von der erkannten, vorgegebenen Umfelderfassungssituation; und Ansteuern des Sensorsystems des Fahrzeugs derart, dass die im Zusammenhang mit der erkannten Umfelderfassungssituation zu erfassenden Messwerte zumindest eines der Sensoren zumindest teilweise korrigiert werden.
  • Mit anderen Worten wird bei der dritten Variante zunächst die zweite Variante ausgeführt, bei der die Messwerte zum Betreiben zumindest einer Fahrzeugfunktion zumindest teilweise korrigiert werden. Dabei kann eine schnelle korrigierende Reaktion auf das Sensorsystem angewandt werden, sodass die Fahrzeugfunktion mit zumindest teilweise korrigierten Messwerten betrieben werden kann. Daraufhin erfolgt die Ausführung der ersten Variante des Verfahrens, bei der eine Ansteuerung zumindest eines Sensors mit den ersten Steuerungsdaten erfolgt. Diese Ansteuerung kann beispielsweise auch eine Anpassung der vom Sensor abgestrahlten Messsignale, etc. umfassen. Einhergehend mit einer Ausführung der ersten Variante kann die Ausführung der zweiten Variante verringert oder eingestellt werden.
  • Die dritte Variante hat den Vorteil einer sehr schnellen Reaktion und einer anschließenden Korrektur (Verbesserung) der zugrundeliegenden Sensordaten, insbesondere der Rohdaten zumindest eines Sensors.
  • Das Verfahren zur Adaption eines Sensorsystems kann optional folgenden Schritt umfassen:
    • Einen Schritt bei dem durch die Steuerungsinformation Eigenschaften eines oder mehrerer der Sensoren des Sensorsystems und/oder ein angewandtes Messverfahren des Sensorsystems verändert werden.
  • Die Veränderung der Eigenschaften erfolgt insbesondere im Hinblick auf die Dauer der Durchführung einer Messung durch einen Sensor und/oder in quantitativer Weise. Die Veränderung eines angewandten Messverfahrens des Sensorsystems kann beispielsweise durch eine Veränderung der Reihenfolge von Messungen eines oder mehrerer Sensoren realisiert sein.
  • Das Verfahren zur Adaption eines Sensorsystems kann optional folgenden Schritt umfassen:
    • Einen Schritt bei dem zur Veränderung der Eigenschaften des oder der Sensoren ein jeweiliger Sensor derart angesteuert wird, dass er bei einer Messung ein Signal mit einer oder mehreren Wellenlängen abgibt.
  • Zum Beispiel können alle Sensoren zu einem Zeitpunkt ein Signal einer vorgegebenen Wellenlänge abgeben. Alternativ kann ein Sensor ein Signal einer Wellenlänge und zumindest ein anderer Sensor ein Signal einer anderen Wellenlänge abgeben. Ebenso können unterschiedliche Wellenlängen von einem Sensor zeitlich hintereinander abgegeben werden. Alternativ oder zusätzlich kann vorgesehen sein, dass zur Veränderung der Eigenschaften des oder der Sensoren ein jeweiliger Sensor derart angesteuert wird, dass er bei einer Messung eine Pulsfolge oder Pulssequenz abgibt. Eine Pulssequenz kann z.B. eine Kombination von Pulsen oder Pulsfolgen sein. Es kann eine zeitliche Abhängigkeit zwischen den zwei Messvorgängen bestehen. Eine solche zeitliche Abhängigkeit ist nicht zwingend.
  • Insbesondere kann im Verfahren auch der Einfluss der (auf die in bestimmter Weise) veränderten Wellenlänge des abgegebenen Signals auf eine von dem oder den Sensoren erfassten ersten Messwert, insbesondere einem aus der veränderten Wellenlänge resultierten ersten Reflektionswert, ermittelt werden, wobei das darauffolgende Ansteuern des Sensorsystems abhängig von dem ersten Messwert variiert wird.
  • Das Verfahren zur Adaption eines Sensorsystems kann optional folgenden Schritt umfassen:
    • Einen Schritt bei dem zur Veränderung der Eigenschaften des oder der Sensoren ein jeweiliger Sensor derart angesteuert wird, dass er bei einer Messung eine bestimmte, insbesondere eine veränderte, Pulsfolge oder Pulssequenz abgibt.
  • Das Verfahren zur Adaption eines Sensorsystems kann optional folgenden Schritt umfassen:
    • Einen Schritt bei dem zur Veränderung der Eigenschaften des oder der Sensoren ein jeweiliger Sensor derart angesteuert wird, dass er eine Phase eines oder mehrerer Messimpulse verändert, und optional, die jeweils veränderten Phasen empfangener Messimpulse verarbeitet.
  • Durch diese Ausgestaltungen kann vorgesehen sein, mehrere Arten von Sensoren (z.B. Ultraschallsensoren, unterschiedliche Radare, lichtemittierende Sensoren wie Laserscanner oder LED-Sensoren) unterschiedlich anzusteuern. Dabei kann ein Mess-Modus im Hinblick auf Wellenlänge, Phase, Pulsfolge oder gar das Messverfahren verändert werden. Dies bedeutet, abhängig von der erkannten Umfelderfassungssituation verändern ein oder mehrere Sensoren ihre Eigenschaften, so dass korrekte oder zumindest der Realität besser entsprechende Messdaten daraus resultieren. Dadurch können konkrete, in einer bestimmten Situation auftretende und durch Messung bedingte Fehler vermieden werden. Solche Fehler sind beispielsweise spezielle Echos, ein Übersprechen der Sensoren oder Reflektionen.
  • Abhängig von räumlich ermittelten Daten kann die Messreihenfolge von Ultraschallsensoren verändert werden, dass Störungen bei einer Kreuzechomessung oder andere Artefakte bzw. physikalische Effekte reduziert werden, die für bestimmte Sensierungssituationen bzw. Arten von Sensierungssituationen typisch sind.
  • Auch ein räumlicher Erfassungsbereich eines oder mehrerer Sensoren, z.B. eine Elevation von Radar-Sensoren, kann variiert werden. Dadurch kann eine gezieltere Erfassung bestimmter räumlicher Bereiche, insbesondere zur Vermeidung von Störungen, erfolgen.
  • Das Verfahren zur Adaption eines Sensorsystems kann optional folgenden Schritt umfassen:
    • Einen Schritt bei dem durch die Steuerungsinformation eine abwechselnde, insbesondere zeitlich alternierende, Veränderung der Eigenschaften des oder der Sensoren und/oder des Messverfahrens initiiert wird.
  • Um das Ergebnis und Verarbeitung der Messwerte der Sensoren des Sensorsystems weiter zu verbessern, ist es zweckmäßig, innerhalb derselben Umfelderfassungssituation zwischen zwei oder mehreren, unterschiedlichen Messverfahren des Sensorsystems oder einer wiederholten Veränderung der Eigenschaften zumindest eines Sensors zu wechseln. Dieser Wechsel erfolgt vorzugsweise selbsttätig, beispielsweise beim Vorliegen einer besonderen Art einer Umfelderfassungssituation. Beispielsweise kann hierzu ein Sensorsystem, das als Sensoren vier Seitenradarsensoren und acht bis zwölf Ultraschallsensoren umfasst, in einen Modus versetzt werden, der für die Umfelderfassungssituation bessere Ergebnisse liefert.
  • Das Sensorsystem kann beispielsweise im Sekundentakt zwischen zwei verschiedenen Messmodi wechseln, wobei jeder Messmodus unterschiedliche Stärken und Schwächen aufweist. Die resultierenden Messdaten der zumindest zwei verschiedenen Messmodi werden in einem Verarbeitungsschritt derart miteinander verglichen und/oder fusioniert, das die Stärken beider Messmodi hervorgehoben und/oder die Schwächen im Hinblick auf Fehleranfälligkeit, Nicht-Linearität und dergleichen, zumindest teilweise kompensiert oder zumindest abgeschwächt werden. Dabei kann beispielsweise die Performanz eines Sensors oder Sensortyps des Fahrzeugs berücksichtigt werden. Ebenso ist die Berücksichtigung von Lerndaten möglich.
  • Gemäß einer weiteren zweckmäßigen Ausgestaltung kann vorgesehen sein, die resultierenden Messwerte des Sensorsystems, die in unterschiedlichen Messphasen bzw. unterschiedlichen Messmodi erfasst wurden, miteinander zu vergleichen und zusammenzuführen.
  • Das Verfahren zur Adaption eines Sensorsystems kann optional folgenden Schritt umfassen:
    • Einen Schritt bei dem abhängig von den Messwerten und/oder von aus den Messwerten eines oder mehrerer Sensoren des Sensorsystems ermittelten Daten ein bestimmtes Muster erkannt, und
    • abhängig von dem erkannten Muster ein Erkennen der vorgegebenen Umfelderfassungssituation, insbesondere zumindest eine Klasse der Umfelderfassungssituation, erfolgt.
  • Daraufhin kann, insbesondere abhängig von dem zumindest einen Rückschluss auf die vorgegebene Umfelderfassungssituation eine Steuerungsinformation zum Ansteuern des zumindest eines ersten Sensors und/oder zumindest eines zweiten Sensors des Sensorsystems des Fahrzeugs ermittelt werden. Dabei können der oder die ersten Sensoren und der oder die zweiten Sensoren ein gleicher oder unterschiedlicher Sensor oder Sensortyp sein.
  • Ein solches Muster kann anhand eines Amplitudenverlaufs, eines Phasenverlaufs, einer Signalform, einer Abhängigkeit von einem zeitlichen Verhalten zumindest eines Messwerts und/oder Unterbrechungen der Messwerte zumindest eines der Sensoren und/oder aus den Messwerten eines oder mehrerer Sensoren des Sensorsystems ermittelten Daten erkannt werden.
  • Daraufhin kann abhängig von dem erkannten Muster der Rückschluss auf die vorgegebene Umfelderfassungssituation ermittelt werden. Ein solcher Rückschluss kann insbesondere eine Klassifikation der Umfelderfassungssituation und/oder ein Ausschluss einer oder mehrerer bestimmter Umfelderfassungssituationen, bevorzugt ein Zuordnen zu einer bestimmten Umfelderfassungssituation, oder eine vorgegebene Klasse der Umfelderfassungssituation sein.
  • Dabei kann ein Muster abhängig von den Messwerten des oder der ersten Sensoren erkannt werden, was auf eine bestimmte Sensierungsungenauigkeit hindeutet, und daraufhin das Ansteuern eines zweiten Sensors, derart erfolgen, dass die zumindest abhängig von dem zweiten Sensor ermittelten Daten zum Betreiben zumindest einer Fahrzeugfunktion zumindest teilweise korrigiert werden.
  • Alternativ oder zusätzlich kann eine Objektkonstellation beim Annähern an eine enge Durchfahrt aus zwei verschiedenen Winkeln, welche durch jeweilige Sequenzen von Positionen des Fahrzeugs relativ zu der Objektkonstellation ermittelt wird, als zwei unterschiedliche Umfelderfassungssituationen gelten bzw. im Verfahren als unterschiedliche Umfelderfassungssituationen erkannt werden und entsprechend unterschiedlich verarbeitet werden.
  • In einem Beispiel des Verfahrens kann bei einer Annäherung des Fahrzeugs zu der Objektkonstellation mit einer ersten Annäherungstrajektorie, eine erste Steuerungsinformation ermittelt werden, die z.B. einen Einfluss eines oder mehrerer Sensoren, z.B. Ultraschallsensoren in der Umfelderfassung reduziert, die bei einer solchen Annäherungstrajektorie Fehler verursachen würden. Bei einer Annäherung gemäß einer zweiten Annäherungstrajektorie kann eine zweite Steuerungsinformation ermittelt, die eine Veränderung der Ansteuerung des oder der Ultraschallsensoren bewirkt und die resultierenden Werte optional mit weiteren Sensordaten fusioniert, um die verbesserten Messergebnisse zu erreichen bzw. bestätigen zu lassen.
  • Gemäß einer weiteren zweckmäßigen Ausgestaltung wird eine Information über eine Beweglichkeit zumindest eines durch das Sensorsystem messtechnisch erfassten Objekts verarbeitet. Insbesondere kann eine Umfelderfassungssituation anhand der Annäherungstrajektorie erkannt werden. Gleichzeitig ist die Erfassung der Beweglichkeit zumindest eines der zu sensierenden Objekte möglich. Eine Annäherungstrajektorie kann sich auf eine relative Trajektorie zwischen dem Fahrzeug bzw. dessen Sensor(en) und eine Objektkonstellation beziehen. Eine Beweglichkeit eines Objekts kann im Verfahren anhand der (anderweitig ermittelten, a-priori bekannten oder zugeordneten) Objektklasse erfolgen.
  • Das Verfahren zur Adaption eines Sensorsystems kann optional folgenden Schritt umfassen:
    • Einen Schritt bei dem die Steuerungsinformation abhängig von Daten eines energieversorgungsfreien Datenträgers, welcher in dem sensorisch erfassten Umfeld des Fahrzeugs angebracht und/oder eingelernt ist, ermittelt wird.
  • Ein energieversorgungsfreier Datenträger kann ein passiver Chip zur drahtlosen Nahfeldkommunikation, insbesondere ein RFID-Chip oder ein maschinenlesbarer Code sein.
  • Ein RFID-Chip kann in einer gewünschten Weise programmiert werden. Insbesondere kann diesem eine von mehreren zur Auswahl stehenden Umfelderfassungssituationen zugeordnet werden, wie z.B. es liegt eine enge Durchfahrt vor, es liegt eine Parksituation vor, der Parkplatz weist keine Begrenzungen auf. Ebenso kann der RFID-Chip die Information tragen, dass an der Stelle des energieversorgungsfreien Datenträgers eine Erfassung mit einem Sensor des Fahrzeugsystems nicht möglich ist oder ggf. mit Schwierigkeiten verbunden ist.
  • Beispielsweise kann der maschinenlesbare Code als QR-Code ausgestaltet sein. Ein QR-Code kann beispielsweise mit Hilfe einer standarisierten Software ausgelesen werden, sobald der QR-Code durch eine Kamera des Fahrzeugs erkannt wird. Ein solcher Code kann auch mit einem Endgerät eines Nutzers ausgelesen und geprüft werden. Ein maschinenlesbarer Code, der Kontraste in einem Infrarot-Spektrum, die von der gespeicherten Information abhängen, aufweist, ist vorteilhaft, da dieser Vergleich zu einem Code im sichtbaren Licht eine bessere Resistenz gegen Verschmutzung aufweist. Ebenso kann dieser bei schlechten Lichtverhältnissen besser erfasst werden.
  • Ebenso kann der energieversorgungsfeie Datenträger einer Kombination aus einem passiven Chip zur drahtlosen Nahfeldkommunikation und einem maschinenlesbaren Code bestehen.
  • Beispielsweise kann ein solcher energieversorgungsfreie Datenträger an verschiedenen Stellen platziert werden, an denen eine, wie oben beschriebene, schwierige Umfelderfassungssituation gegeben ist. Mit Hilfe eines Kennzeichners kann einem energieversorgungsfreien Datenträger ein bestimmter Ort zugeordnet werden. Die Zuordnung aus Kennzeichnung des energieversorgungsfreien Datenträgers und Ort kann in einem Datensatz hinterlegt werden. Die Daten des Datensatzes können durch die Recheneinheit des Sensorsystems ausgelesen werden. Dazu kann die Datenbank durch einen Lernprozess durch das Fahrzeug eingelernt werden. Ebenso kann die Datenbank außerhalb des Fahrzeugs gespeichert sein, so dass durch eine Kommunikation zwischen der Recheneinheit des Fahrzeugs und der Datenbank ein entsprechender Austausch der Daten erfolgt.
  • Mit Hilfe einer typischen Leseentfernung handelsüblicher passiver Chips zur drahtlosen Nahfeldkommunikation kann eine Annäherung des Fahrzeugs zu der mit einem energieversorgungsfreien Datenträger gekennzeichneten Stelle oder Objekt auf weniger als 20 m, 15 m, 10 m, 5 m, 3 m, 1 m ermittelt werden.
  • Der Verfahren zur Adaption eines Sensorsystems kann optional folgenden Schritt umfassen:
    • Einen Schritt bei dem das Sensorsystem Mittel zur Ausführung einer Sensorfusion umfasst, durch das abhängig von dem sensorisch erfassten Umfeld des Fahrzeugs und/oder von der ermittelten Steuerungsinformation die Fusion der Messwerte von zumindest zwei Sensoren des Sensorsystems variiert wird.
  • Insbesondere kann eine Zuordnung von Messwerten eines oder mehrerer Sensoren zueinander und/oder zu bestimmten Objekten oder ausgewählten Raumbereichen des Umfelds durchgeführt werden. Alternativ oder zusätzlich kann eine Gewichtung von Messwerten zumindest zweier Sensoren beim Ermitteln zumindest eines fusionierten Messwerts durchgeführt werden. Weiter alternativ oder zusätzlich kann ein Zeitversatz zwischen den zu fusionierenden Messwerten zwischen zumindest zwei Sensoren verarbeitet werden. Dabei können logische und/oder quantitative Zusammenhänge des Fusionsverfahrens angepasst werden.
  • Das Verfahren zur Adaption eines Sensorsystems kann optional folgenden Schritt umfassen:
    • Einen Schritt bei dem eine Voraussage zum Eintritt der vorgegebenen Umfelderfassungssituation für die nahe Zukunft ermittelt wird, und eine, insbesondere vorausschauende, Vorschrift oder Planung zum Ansteuern des Sensorsystems des Fahrzeugs ermittelt wird.
  • Das Verfahren zur Adaption eines Sensorsystems kann optional folgenden Schritt umfassen:
    • Einen Schritt, bei dem folgende weitere Schritte durchgeführt werden:
      • - Ermitteln, dass die vorgegebene Umfelderfassungssituation innerhalb eines vorgegebenen Zeitraums, insbesondere im Sekundenbereich, eintreten wird;
      • - Ermitteln der Steuerungsinformation zum Ansteuern des Sensorsystems des Fahrzeugs in Abhängigkeit von der erkannten, vorgegebenen Umfelderfassungssituation und zumindest einer Zeitinformation, auf die sich diese bezieht;
      • - Variieren des Sensorsystems des Fahrzeugs oder einer mit dem Sensorsystem zusammenhängenden Fahrzeugfunktion abhängig von der Steuerungsinformation und der Zeitinformation.
  • Die Ermittlung, dass die vorgegebene Umfelderfassungssituation innerhalb eines vorgegebenen Zeitraums kann aus Informationen über ein bestimmtes Manöver des Fahrzeugs, das aktuell durchgeführt wird oder dessen Durchführung beabsichtigt ist, erfolgen. Ein bestimmtes Manöver kann durch die Fahrzeugbedienung durch den Fahrer erkannt werden, wie z.B. das Einlegen des Rückwärtsgangs, des Lenkeinschlags, einer Bediensequenz usw.
  • Durch diese Ausgestaltung kann vor dem Eintreten der Umfelderfassungssituation der Steuerungsparameter zur Ansteuerung des Sensorsystems ermittelt werden. Das angewandte Messverfahren kann entsprechend der Planung, welche eine Zeitinformation oder eine Zeitsequenz umfasst, durchgeführt werden.
  • Die 2 veranschaulicht noch einmal obiges Verfahren zum maschinellen Lernen.
  • Die Positionssequenz PS des ersten Fahrzeugs 10 wird beim Befahren eines Fahrstreckenabschnitts ermittelt. Zusätzlich wird der Parameter P, repräsentierend ein Sensierungsartefakt im ersten Fahrzeug 10 im Zusammenhang mit der ermittelten Positionssequenz PS, ermittelt.
  • Der ermittelte Parameter P des Sensierungsartefakts wird zu der Positionssequenz PS zugeordnet und zugeordneten Daten ZD werden gespeichert.
  • Anschließend erfolgt beim Erkennen zumindest einer Positionssequenz PS, insbesondere beim wiederholten Befahren des Fahrstreckenabschnitts, eine Ansteuerung zumindest eines Sensors, und/oder Anpassung zumindest eines Umfelderfassungs-Messwerts auf Basis eines oder mehrerer Sensoren und/oder eines verarbeiteten Messwerts des Sensorsystems zumindest des ersten und/oder eines zweiten Fahrzeugs 10, 20.
  • Die Schritte können von einer Vorrichtung des ersten Fahrzeugs 10 und/oder des zweiten Fahrzeugs 20 und/oder von einem mobilen Anwendergerät 14, 14' ausgeführt werden.
  • Weiterhin können die zugeordneten Daten ZD an ein Backend 15 und/oder an das zweite Fahrzeug 20 übertragen werden, so dass in dem jeweiligen Fahrzeug 10, 20 die Ansteuerung und/oder Anpassung erfolgen kann.
  • Es können auch zwei oder mehr als zwei erste Fahrzeuge 10 vorhanden sein und für das Verfahren genutzt werden.

Claims (16)

  1. Verfahren zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs, umfassend: - Ermitteln einer Positionssequenz eines ersten Fahrzeugs beim Befahren eines Fahrstreckenabschnitts, - Ermitteln eines Parameters, repräsentierend ein Sensierungsartefakt im ersten Fahrzeugs im Zusammenhang mit dem ermittelten Positionssequenz, und - Zuordnen des ermittelten Parameters des Sensierungsartefakts zu der Positionssequenz und Speicherung der zugeordneten Daten, - Beim Erkennen zumindest einer Positionssequenz, insbesondere beim wiederholten Befahren des Fahrstreckenabschnitts, Ansteuerung zumindest eines Sensors, und/oder Anpassung zumindest eines Umfelderfassungs-Messwerts auf Basis eines oder mehrerer Sensoren und/oder eines verarbeiteten Messwerts des Sensorsystems zumindest des ersten und/oder eines zweiten Fahrzeugs.
  2. Verfahren nach Anspruch 1, bei dem eine Umfelderfassungssituation, insbesondere eine Szene, die im Zusammenhang mit dem Auftritt des Sensierungsartefakts steht, erkannt, insbesondere klassifiziert wird und beim Ermitteln der zugeordneten Daten verarbeitet wird.
  3. Verfahren nach einem der vorangegangenen Ansprüche, bei dem eine von den gespeicherten Daten, insbesondere von Lerndaten abhängige Steuerungsinformation ermittelt wird, die eine Veränderung der Eigenschaften eines Sensors und/oder das angewandte Sensierungsverfahren, insbesondere in einem bestimmten quantitativen Maß veranlasst, insbesondere die Ausstrahlung von Licht oder Wellen und/oder Interpretation vom empfangenen Lichtreflektion bzw. Wellenecho durch das Sensoriksystem des ersten Fahrzeugs.
  4. Verfahren nach Anspruch 3, bei dem das Sensoriksystem mit der ermittelten Steuerungsinformation derart angesteuert wird, dass die Anpassung betrifft: - eine oder mehreren Wellenlängen in der eine Sensierung durchgeführt wird, und/oder - eine Pulsfolge oder Pulssequenz, insbesondere eine Kombination und/oder zeitliche Abhängigkeit von bzw. zwischen zumindest zwei Messvorgängen, und/oder - eine Veränderung der Phase eines oder mehrerer Messimpulse oder Berücksichtigung der jeweils veränderten Phase der empfangenen Impulse.
  5. Verfahren nach Anspruch 3 oder 4, bei dem die Steuerungsinformation eine abwechselnde, insbesondere zeitlich alternierende Veränderung der Eigenschaften eines Sensors und/oder des angewandten Sensierungsverfahrens veranlasst.
  6. Verfahren nach einem der vorangegangenen Ansprüche, auch umfassend: - Erfassen einer Positionssequenz, welche zumindest einer lokalen Position in Relation zu zumindest einer Fahrbahnmarkierung, Fahrbahnbegrenzung oder Leitplanke der Fahrbahn entspricht, im Zusammenhang mit dem besagten Sensierungsartefakts, bevorzugt auch umfassend: - Erfassen einer globalen Position, die mit dem Auftritt des Sensierungsartefakts zusammenhängt durch das erste Fahrzeug, - Ermitteln von Zuordnungsdaten, die repräsentativ sind für ein Abgleichen der erfassten lokalen Position zu zumindest einer Spurenmarkierung, Leitplanke oder Fahrbahnrand zu der globalen Position im Zusammenhang mit dem Auftritt des besagten Sensierungsartefakts.
  7. Verfahren nach einem der vorangegangenen Ansprüche, bei dem die Positionssequenz auf Basis einer Sequenz von Fahrzeugkoordinaten, insbesondere globaler Koordinaten der Bewegung des Fahrzeugs im Zusammenhang mit dem Auftritt eines Sensierungsartefakts, insbesondere des Sensierungsartefakts einer bestimmten Art, ermittelt wird.
  8. Verfahren nach einem der vorangegangenen Ansprüche, bei dem die zugeordneten Daten an eine oder mehrere bestimmte Anwendungsbedingungen geknüpft werden, wobei die eine oder mehrere Anwendungsbedingungen beim wiederholten Befahren des Fahrbahnabschnitts durch zumindest das erste und/oder zweite Fahrzeug berücksichtigt werden.
  9. Verfahren nach einem der vorangegangenen Ansprüche, bei dem das Sensoriksystem auch Mittel oder Verfahren zur Ausführung einer Sensorfusion umfasst, wobei abhängig von einer ermittelten Umfeldsensierungssituation und/oder von einer ermittelten Steuerungsinformation die Fusion der Sensordaten von zumindest zwei Sensoren variiert wird.
  10. Verfahren nach einem der vorangegangenen Ansprüche, bei dem eine Voraussage zum Eintritt einer bestimmten Szene bei der Umfelderfassung für die nahe Zukunft ermittelt wird, und eine, insbesondere vorausschauende, Planung zur Ansteuerung des Sensoriksystems und/oder der darauf basierenden Fahrzeugfunktion ermittelt wird.
  11. Verfahren nach einem der vorangegangenen Ansprüche, bei dem in dem ersten Fahrzeug abhängig von den gespeicherten Daten eine Gewichtung zwischen einer Karteninformation und Umfelderfassungsdaten zum Betreiben zumindest einer Fahrzeugfunktion, insbesondere einer Fahrerassistenzfunktion, erfolgt.
  12. Verfahren nach einem der vorangegangenen Ansprüche, umfassend: - Erkennen, insbesondere prädizieren einer Positionssequenz, insbesondere eines Positionssequenzmusters, - Prädizieren eines Sensierungsartefakts, insbesondere eines Sensierungsartefakts mit einem bestimmten Parameter, in einer nahen Zukunft abhängig von der Positionssequenz, bzw. des Positionssequenzmusters, - Ermitteln einer Steuerungsinformation zum Ansteuern des Sensoriksystems des ersten und/oder zweiten Fahrzeugs in Abhängigkeit von der erkannten bestimmten Umfelderfasungssituation, ferner bevorzugt umfassend: - Ermitteln zumindest einer Zeitinformation und/oder Positionsinformation auf die sich die Steuerungsinformation bezieht, - Ansteuern des Sensoriksystems des ersten und/oder zweiten Fahrzeugs oder einer mit dem Sensoriksystem zusammenhängende Fahrzeugfunktion abhängig von der Steuerungsinformation, bevorzugt abgängig von der Positionssequenz, bzw. des Positionssequenzmusters.
  13. Verfahren nach einem der vorangegangenen Ansprüche, bei dem eine Prädiktion eines bestimmten Sensierungsartefakts, insbesondere eines Sensierungsartefakts mit einem bestimmten Parameter, in einer nahen Zukunft ermittelt wird, - abhängig von den Daten über eine aktuelle und/oder für die nahe Zukunft prädizierte Positionsinformation des ersten und/oder zweiten Fahrzeugs, und/oder - abhängig von der Information über eine bestimmte Szene bei der fraglichen Umfelderfassung, insbesondere im Zusammenhang mit einem bestimmten Manöver, durchgeführt oder beabsichtigt wird.
  14. Verfahren nach einem der vorangegangenen Ansprüche, bei dem eine Steuerungsinformation zur Ansteuerung zumindest eines Sensors eines weiteren Fahrzeugs ermittelt wird auf Basis der einen oder mehreren zugeordneten Daten des ersten Fahrzeugs, wobei insbesondere ein Abgleich: - der zugeordneten Daten auf Basis eines mehrmaligen Befahren des Fahrstreckenabschnitts, und/oder - der zugeordneten Daten von mehreren ersten Fahrzeugen ausgeführt wird.
  15. Mobiles Anwendergerät, derart eingerichtet, ein Verfahren zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs zusammen mit einem ersten Fahrzeug und/oder mit einem zweiten Fahrzeug nach einem der Ansprüche 1 bis 14 durchzuführen, wobei das mobile Anwendergerät derart eingerichtet ist, zumindest einen Teil des Verfahrens zum Ermitteln oder zur Bereitstellung der auf der Zuordnung basierenden Daten und/oder einen Teil des Verfahrens zum Ermitteln der Information zur Ansteuerung des Sensoriksystems zumindest eines zweiten Fahrzeugs durchzuführen.
  16. Computerprogramm, insbesondere ein Computerprogrammprodukt umfassend ein Computerprogramm, wobei das Computerprogramm ausgebildet ist, bei seiner Ausführung auf einer Recheneinheit des ersten Fahrzeug, des zweiten-Fahrzeugs oder eines in einem ersten Fahrzeug oder in einem zweiten Fahrzeug mitgeführten mobilen Anwendergeräts das Verfahren nach einem der Ansprüche 1-14 durchzuführen.
DE102017213695.2A 2017-08-07 2017-08-07 Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs Active DE102017213695B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017213695.2A DE102017213695B4 (de) 2017-08-07 2017-08-07 Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017213695.2A DE102017213695B4 (de) 2017-08-07 2017-08-07 Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs

Publications (2)

Publication Number Publication Date
DE102017213695A1 DE102017213695A1 (de) 2019-02-07
DE102017213695B4 true DE102017213695B4 (de) 2024-05-16

Family

ID=65019693

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017213695.2A Active DE102017213695B4 (de) 2017-08-07 2017-08-07 Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102017213695B4 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013012324A1 (de) 2013-07-25 2015-01-29 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und Vorrichtung zur Fahrwegfindung
DE102013226631A1 (de) 2013-12-19 2015-06-25 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands
DE102015218830A1 (de) 2015-09-30 2017-03-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren für ein Kraftfahrzeug, zum Erkennen schlechter Fahrbahnverhältnisse und ein diesbezügliches System und Kraftfahrzeug
DE102015014651A1 (de) 2015-11-12 2017-05-18 Audi Ag Verfahren zum Bereitstellen einer Spurinformation einer Fahrspur und System

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013012324A1 (de) 2013-07-25 2015-01-29 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Verfahren und Vorrichtung zur Fahrwegfindung
DE102013226631A1 (de) 2013-12-19 2015-06-25 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands
DE102015218830A1 (de) 2015-09-30 2017-03-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren für ein Kraftfahrzeug, zum Erkennen schlechter Fahrbahnverhältnisse und ein diesbezügliches System und Kraftfahrzeug
DE102015014651A1 (de) 2015-11-12 2017-05-18 Audi Ag Verfahren zum Bereitstellen einer Spurinformation einer Fahrspur und System

Also Published As

Publication number Publication date
DE102017213695A1 (de) 2019-02-07

Similar Documents

Publication Publication Date Title
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102016219455B4 (de) Verfahren und aktive Infrastruktur zur Überprüfung einer Umfelderfassung eines Kraftfahrzeugs
EP3292423B1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
EP3380810B1 (de) Verfahren, vorrichtung, kartenverwaltungseinrichtung und system zum punktgenauen lokalisieren eines kraftfahrzeugs in einem umfeld
DE102012104786A1 (de) Spurermittlungsverbesserung mittels Objektfahrzeuginformationen für Spurzentrierung/-haltung
DE102011081382A1 (de) Verfahren und Vorrichtung zum Ändern einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE102004038494A1 (de) Verfahren und Vorrichtung zum Betreiben eines Sensorsystems
DE102007037610A1 (de) Verfahren zum Bestimmen eines wahrscheinlichen Bewegungs-Aufenthaltsbereichs eines Lebewesens
DE112014002959T5 (de) Bestimmung der Fahrspurposition
DE102015207026A1 (de) Verfahren und Vorrichtung zum Steuern eines Erfassungssystems zum Erfassen eines Umfelds eines Fahrzeugs
DE102014009254B4 (de) Verfahren zum Steuern einer Lichtverteilung eines Scheinwerfers eines Fahrzeugs
WO2019120774A1 (de) Verfahren zum assistieren eines fahrers eines kraftfahrzeugs bei einem überholvorgang; kraftfahrzeug; sowie system
WO2020048734A1 (de) Verfahren zur erstellung einer karte eines umfelds eines fahrzeugs
DE102006044615A1 (de) Verfahren zur Kalibrierung von Bilderfassungseinrichtungen in Fahrzeugen
DE102016202569A1 (de) Verfahren und Vorrichtung zur Adaption eines Sensorsystems eines Fahrzeugs
WO2009097883A1 (de) Verfahren zum betrieb einer bildaufnahmevorrichtung und eine bildaufnahmevorrichtung
DE102009036196A1 (de) Verfahren und Vorrichtung zur Verkehrszeichenerkennung für ein Fahrzeug
DE102017213695B4 (de) Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs
DE102017213694B4 (de) Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs
DE102017213692B4 (de) Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs
DE102017213693B4 (de) Verfahren, Vorrichtung, mobiles Anwendergerät, Computerprogramm zum maschinellen Lernen für ein Sensorsystem eines Fahrzeugs
EP3458808B1 (de) Verfahren und vorrichtung zur lokalisierung eines fahrzeugs
DE102021123270B3 (de) Verfahren und Steuerschaltung zum Überprüfen, ob ein aktuell aktiver Fahrmodus innerhalb seiner ODD betrieben wird, sowie System und Backend-Server
DE102019206922B4 (de) Verfahren und Vorrichtung zur Objektmarkierung in Fahrzeugen
EP3548335B1 (de) Steuern eines steuerbaren scheinwerfers eines kraftfahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division