DE102016201814A1 - Verfahren und Vorrichtung zur sensorischen Umfelderfassung in einem Fahrzeug - Google Patents

Verfahren und Vorrichtung zur sensorischen Umfelderfassung in einem Fahrzeug Download PDF

Info

Publication number
DE102016201814A1
DE102016201814A1 DE102016201814.0A DE102016201814A DE102016201814A1 DE 102016201814 A1 DE102016201814 A1 DE 102016201814A1 DE 102016201814 A DE102016201814 A DE 102016201814A DE 102016201814 A1 DE102016201814 A1 DE 102016201814A1
Authority
DE
Germany
Prior art keywords
vehicle
data
sensor
procedure
sensory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016201814.0A
Other languages
English (en)
Inventor
Alexander Augst
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102016201814.0A priority Critical patent/DE102016201814A1/de
Publication of DE102016201814A1 publication Critical patent/DE102016201814A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • B60W10/184Conjoint control of vehicle sub-units of different type or different function including control of braking systems with wheel brakes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/12Lateral speed

Abstract

Es wird ein Verfahren zur sensorischen Erfassung eines Objektes in einem Umfeld eines Fahrzeugs beschrieben. Das Verfahren umfasst das Ermitteln, auf Basis eines an dem Objekt angeordneten Datenträgers, von Sensierungsdaten für das Objekt, wobei die Sensierungsdaten ein oder mehrere sensorische Eigenschaften des Objektes in Bezug auf die sensorische Erfassung des Objektes anzeigen. Außerdem umfasst das Verfahren das Berücksichtigen der Sensierungsdaten bei einer Erfassung von Sensordaten in Bezug auf das Objekt und/oder bei einer Nutzung der Sensordaten für eine Fahrzeugfunktion.

Description

  • Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung umfassend eine Steuereinheit zur Ermittlung und Verwendung von Sensordaten eines Umfeldsensors eines Fahrzeugs.
  • Ein Fahrzeug umfasst typischerweise eine Vielzahl von unterschiedlichen Umfeldsensoren (z. B. Kameras, Radarsensoren, Ultraschallsensoren, Lidar-Sensoren), mit denen das Umfeld des Fahrzeugs erfasst werden kann. Die von den Umfeldsensoren erfassten Sensordaten können dazu verwendet werden, Fahrzeugfunktionen, insbesondere Fahrerassistenzfunktionen, bereitzustellen, die den Fahrer eines Fahrzeugs bei der Führung des Fahrzeugs unterstützen. Dabei steigen typischerweise mit steigender Automatisierung des Fahrzeugs die Anforderungen an die Qualität der erfassten Sensordaten an.
  • Das vorliegende Dokument befasst sich mit der technischen Aufgabe, die Qualität von Sensordaten, die mit ein oder mehreren Umfelddaten eines Fahrzeugs erfasst werden können, in effizienter und zuverlässiger Weise zu erhöhen.
  • Die Aufgabe wird durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u. a. in den abhängigen Ansprüchen beschrieben.
  • Gemäß einem Aspekt wird ein Verfahren zur sensorischen Erfassung eines Objektes in einem Umfeld eines Fahrzeugs beschrieben. Das Verfahren kann durch eine Vorrichtung umfassend eine Steuereinheit des Fahrzeugs ausgeführt werden. Das Verfahren umfasst das Ermitteln, auf Basis eines an dem Objekt angeordneten Datenträgers, von Sensierungsdaten für das Objekt. Der Datenträger kann z. B. an dem Objekt befestigt sein. Dabei kann der Datenträger keine eigene Energieversorgung erfordern bzw. passiv sein. Beispielsweise umfasst der Datenträger einen maschinelesbaren Code und/oder einen RFID-Chip. Der Datenträger kann mit einem Lesesensor des Fahrzeugs (z. B. mit einer Kamera und/oder mit einem RFID Lesegerät) ausgelesen werden, um die Sensierungsdaten zu ermitteln.
  • Ein Objekt kann dabei ein unbewegliches Objekt oder eine Anordnung (Konstellation) aus Objekten sein. Auch kann ein Objekt ein bewegbares oder bewegliches Objekt, z. B. ein Fahrzeug, Motorrad oder Fahrrad und/oder ein Kleidungsstück eines Fußgängers, sein. Das Anordnen des Datenträgers am Objekt kann umfassen: eine feste oder lose (bzw. elastische), dauerhafte oder temporäre Anbringung des Datenträgers an dem Objekt. Des Weiteren kann das Anordnen des Datenträgers eine Anbringung in einer (unmittelbaren) räumlichen Nähe zum Objekt, eine bestimmte Ausrichtung am Objekt bzw. eine bestimmte Ausrichtung in Relation zum Objekt umfassen.
  • Die Sensierungsdaten können ein oder mehrere sensorische Eigenschaften des Objektes in Bezug auf die sensorische Erfassung des Objektes anzeigen. Mit anderen Worten, die Sensierungsdaten können ein oder mehreren Eigenschaften des Objektes anzeigen, die für die Erfassung des Objektes mit einem Umfeldsensor relevant sind. Insbesondere können die Sensierungsdaten anzeigen: eine Reflektionseigenschaft des Objektes in Bezug auf elektromagnetische und/oder Schall-Wellen, die von einem Umfeldsensor (z. B. von einer Kamera, von einem Radarsensor und/oder von einem Ultraschallsensor) des Fahrzeugs erfasst werden; eine Eigenschaft einer Oberfläche des Objektes; eine von einem Umfeldsensor des Fahrzeugs zu verwendende Einstellung bei der Erfassung des Objektes; einen Umfeldsensor und/oder einen Typ von Umfeldsensor, mit dem das Objekt erfasst werden kann; und/oder eine Randbedingung für die sensorische Erfassung des Objektes.
  • Besonders bevorzugt kann der Datenträger an einem Verkehrszeichen als Objekt und/oder an einer Ampel als Objekt angeordnet werden. Dabei kann der Datenträger Sensierungsdaten für das Verkehrszeichen und/oder für die Ampel umfassen, wobei die Sensierungsdaten sich auf das Verkehrszeichen und/oder auf die Ampel beziehen. Diese Sensierungsdaten können z. B. einen oder mehrere Kennwerte oder Abhängigkeiten von Kennwerten anzeigen, die für eine (korrekte bzw. möglichst unproblematische) Erfassung des Verkehrszeichens bzw. der Ampel mit zumindest einem Sensor des Fahrzeugs relevant sind.
  • Beispielsweise können Sensierungsdaten eine Information darüber umfassen, aus welchen Winkeln oder Raumbereichen eine (bestimmte) Abweichung einer automatischen Erfassbarkeit der Bedeutung des Verkehrszeichen und/oder des Ampelsignals (bzw. eine automatische Erkennbarkeit des Inhalts des Verkehrszeichens oder eine automatische Erkennbarkeit einer aktuellen Ampelphase) zustande kommen kann.
  • Die derart ermittelten Sensierungsdaten können bei einer Erfassung des Verkehrszeichens und/oder der Ampel oder bei der Auswertung der erfassten Information durch oder für eine Fahrzeugfunktion berücksichtigt werden. Beispielsweise können bestimmte Effekte, die bei einer Erfassung der Verkehrszeichen oder der Ampelphasen unter bestimmten Randbedingungen auftreten können, berücksichtigt, insbesondere korrigiert, bzw. lediglich wahlweise berücksichtigt werden. Z. B. können somit unrichtige Werte verworfen bzw. durch korrekte Werte ersetzt werden.
  • Diese Variante des beschriebenen Verfahrens ist besonders vorteilhaft, weil das Anordnen der Datenträger zu einem Verkehrszeichen bzw. einer Ampel auch weitere Funktion erfüllen kann. Ferner kann der Datenträger (optional) auch eine Information zu einem Inhalt des Verkehrszeichens oder der Ampel umfassen, wobei eine solche Information im Verfahren auch mitberücksichtigt werden kann. Die Sensierungsdaten des Objektes können sich dabei insbesondere auf eine Eigenschaft des Objektes beziehen, durch die die sensorische Erfassung des Objektes durch einen bestimmten (Typ von) Umfeldsensor des Fahrzeugs eingeschränkt wird. Die Sensierungsdaten des Objektes können sich dabei auch auf die sensorische Erfassung von einem bestimmten Sensierungsprinzip (Radar, Kamera, Ultraschall, Laserscanner) oder auf zumindest einen bestimmten Sensortyp (z. B. ein bestimmtes Fabrikat) beziehen. Besonders bevorzugt umfasst der Datenträger Sensierungsdaten, die sich auf zumindest zwei unterschiedliche Sensortypen beziehen. Dabei können mit Mitteln des Fahrzeugs (ggf. nur) die für den aktuell relevanten Anwendungsfall Sensierungsdaten ermittelt und berücksichtigt werden.
  • Das Verfahren umfasst weiter das Berücksichtigen der Sensierungsdaten bei einer Erfassung von Sensordaten in Bezug auf das Objekt und/oder bei einer Nutzung der Sensordaten für eine Fahrzeugfunktion. Die Sensierungsdaten können dabei insbesondere derart berücksichtigt werden, dass eine Eigenschaft des Objektes, die sich einschränkend auf die sensorische Erfassung des Objektes auswirkt, zumindest teilweise kompensiert wird. Insbesondere kann eine Auswirkung einer Eigenschaft des Objektes auf die sensorische Erfassung des Objektes zumindest teilweise kompensiert werden.
  • Das Berücksichtigen einer sensorischen Eigenschaft des Objektes bei der sensorischen Erfassung kann z. B. umfassen: das Verändern, insbesondere das Filtern, der durch einen Umfeldsensor des Fahrzeugs erfassten Sensordaten; das Anpassen einer Empfindlichkeit eines Umfeldsensors des Fahrzeugs; ein räumliches und/oder zeitliches Interpolieren der Sensordaten; und/oder das Anpassen eines Modus und/oder eines Parameters für ein Tracking-Verfahren des Objektes.
  • Die Bereitstellung von Sensierungsdaten mittels eines Datenträgers an einem zu erfassenden Objekt in einem Umfeld eines Fahrzeugs ermöglicht es, bestimmte einschränkende Eigenschaften eines Objektes bei der Umfelderfassung in effizienter und zuverlässiger Weise zu kompensieren. So kann die Qualität von Fahrzeugfunktionen (z. B. von (teil-)autonomen Fahren bzw. Parken) verbessert werden.
  • Das Verfahren kann umfassen, das Erfassen von Sensordaten mittels einer Mehrzahl von Umfeldsensoren des Fahrzeugs. Durch die Berücksichtigung und Zuordnung bzw. Fusionierung von Sensordaten einer Mehrzahl von Umfeldsensoren kann die Qualität der Umfelderfassung erhöht werden. Dabei kann das Zuordnen der Sensordaten von mindestens zwei Umfeldsensoren in Abhängigkeit von den Sensierungsdaten erfolgen. Alternativ oder ergänzend können fusionierte Sensordaten von mindestens zwei Umfeldsensoren ermittelt werden, wobei eine Gewichtung und/oder ein Zeitversatz der Sensordaten für das Ermitteln von fusionierten Sensordaten von den Sensierungsdaten abhängen. So kann die Qualität der Umfelderfassung weiter verbessert werden.
  • Die Sensierungsdaten können die ein oder mehreren sensorischen Eigenschaften des Objektes jeweils für eine Mehrzahl von unterschiedlichen räumlichen Anordnungen zwischen einem Umfeldsensor des Fahrzeugs und dem Objekt anzeigen. Dabei kann eine räumliche Anordnung einen Abstand und/oder einen Erfassungswinkel des Umfeldsensors zu dem Objekt umfassen. Durch die Berücksichtigung der räumlichen Anordnung können einschränkende Eigenschaften eines Objektes in präziser Weise berücksichtigt und kompensiert werden.
  • Das Verfahren kann umfassen, das Ermitteln einer ersten räumlichen Anordnung zwischen einem ersten Umfeldsensor des Fahrzeugs und dem Objekt. Außerdem kann das Verfahren umfassen, das Ermitteln von einer oder mehreren ersten sensorischen Eigenschaften des Objektes für die erste räumliche Anordnung, basierend auf den Sensierungsdaten. Des Weiteren kann das Verfahren umfassen, das Erfassen und/oder Verarbeiten von Sensordaten des ersten Umfeldsensors in Abhängigkeit von den ein oder mehreren ersten sensorischen Eigenschaften des Objektes. Durch die Berücksichtigung von Sensordaten, die spezifisch für die räumliche Anordnung zwischen einem Umfeldsensor des Fahrzeugs und einem Objekt sind, kann die Qualität der Umfelderfassung weiter verbessert werden.
  • Das Verfahren kann umfassen, das Anpassen einer Fahrzeugfunktion in Abhängigkeit von den ein oder mehreren ersten sensorischen Eigenschaften des Objektes. Dabei kann das Anpassen z. B. umfassen: das Anpassen eines Fahrwerkeingriffs des Fahrzeugs; das Ausgeben einer Information an einen Fahrer des Fahrzeugs; und/oder das Ersetzen eines (automatischen) Fahrwerkeingriffs durch eine Ausgabe einer Information an einen Fahrer des Fahrzeugs.
  • Das Verfahren kann umfassen, das (bevorzugt kontinuierliche) Ermitteln oder Anpassen einer Sollgröße eines Steuerungsvorgangs im Fahrzeug, insbesondere bezogen auf eine Querführung (Querdynamikregelung) und/oder Längsführung (Längsdynamikregelung) und/oder Vertikaldynamik (Vertikaldynamik- bzw. Stabilitätsregelung) des Fahrzeugs, abhängig von der ermittelten Sensierungsinformation.
  • Beispielsweise kann dabei eine, bevorzugt kontinuierliche, Korrektur einer oder mehrerer Sollgrößen einer Regelung abhängig von den Sensierungsdaten erfolgen. Ein entsprechender Korrekturwert bzw. ein Korrekturwerteverlauf kann dabei für unterschiedliche Sollgrößen unterschiedlich sein und/oder abhängig von weiteren vorausbestimmten Bedingungen variieren. Insbesondere kann abhängig von den ermittelten Sensierungsdaten ein (logischer und/oder quantitativer) Zusammenhang zwischen einem Sensorwert und einer Sollgröße einer Fahrzeugfunktion, insbesondere eines Fahrerassistenzsystems, variiert werden.
  • Bevorzugt erfolgt abhängig von den ermittelten Sensierungsdaten eine Planung oder Durchführung eines zumindest teilautomatisiert durchführbaren Manövers. Insbesondere kann eine Sequenz von Manövern und/oder Phasen von Manövern abhängig von den ermittelten Sensierungsdaten variiert, insbesondere anhand weiterer vorausbestimmter Kriterien optimiert, werden.
  • Eine solche Manöverplanung und/oder Durchführung kann im Verfahren insbesondere mittels einer Fahrerassistenzfunktion bzw. einer Fahrfunktion oder Parkfunktion für ein zumindest teilweise automatisiertes Fahren oder Parken abhängig von den ermittelten Sensierungsdaten ermittelt werden. Dabei kann ein Manöver abhängig von den erfassten Sensierungsdaten beispielsweise hinsichtlich seiner Präzision und/oder Sicherheit optimiert werden. Beispielsweise kann ein Zeitpunkts der Durchführung zumindest einer Phase eines solchen Manövers, eine Reihenfolge von Phasen eines Manövers, z. B. der Einparkzüge oder Rangierzüge eines zumindest teilweise automatisierten Park- bzw. Rangiermanövers, ermittelt und/oder optimiert werden.
  • Das Verfahren kann umfassen, das Ermitteln eines Fahrmanövers, das das Fahrzeug durchführt oder durchführen wird. Die erste räumliche Anordnung des Fahrzeugs kann dann (ggf. vorausschauend) auf Basis des Fahrmanövers ermittelt werden.
  • Das Verfahren kann umfassen, das Ausgeben einer Umfeldinformation bezüglich des Umfelds des Fahrzeugs auf einer Ausgabeeinheit des Fahrzeugs. Dabei kann die Umfeldinformation anzeigen: Information in Bezug auf eine Qualität der Sensordaten und/oder Information in Bezug darauf, ob die Sensierungsdaten berücksichtigt wurden. So kann ein Fahrer des Fahrzeugs in zuverlässiger und intuitiver Weise über die Qualität der Umfelderfassung informiert werden.
  • Beispielsweie kann abhängig von der ermittelten Sensierungsinformation bzw. von den ermittelten Sensierungsdaten eine an den Fahrer des Fahrzeugs, z. B. im Zusammenhang mit einem zumindest teilweise automatisierten Manöver, auszugebende Fahrerinformation variiert werden. Wenn beispielsweise anhand der ermittelten Sensierungsdaten festgestellt wird, dass eine Fahrerassistenzfunktion, z. B. in Bezug auf einen bestimmtes Objekt, unpräzise oder nicht zuverlässig funktionieren wird, kann eine Fahrerinformation ausgegeben werden, die den Fahrer darüber informiert und/oder den Fahrer zur Beobachtung des Objekts oder mit diesem zusammenhängender Größen ermahnt.
  • Das Verfahren kann umfassen, das Durchführen einer Trajektorienplanung für eine Fahrtrajektorie des Fahrzeugs, in Abhängigkeit von den Sensierungsdaten. Alternativ oder ergänzend kann das Verfahren umfassen, das Durchführen eines zumindest teilautomatisierten Lenk-, Brems- und/oder Antriebseingriffs, in Abhängigkeit von den Sensierungsdaten.
  • Insbesondere kann das Verfahren umfassen, das Ermitteln einer Mehrzahl von Trajektorien für das Fahrzeug. Außerdem kann das Verfahren umfassen, das Ermitteln, auf Basis der Sensierungsdaten, von Werten eines Qualitätsindikators für die Mehrzahl von Trajektorien, wobei der Qualitätsindikator eine Qualität der Sensordaten anzeigt. Des Weiteren kann das Verfahren umfassen, das Auswählen einer Trajektorie aus der Mehrzahl von Trajektorien, in Abhängigkeit von den Werten des Qualitätsindikators. So kann z. B. eine Fahrtrajektorie ermittelt werden, für die Sensordaten mit einer hohen Qualität bereitgestellt werden können.
  • Gemäß einem weiteren Aspekt wird ein Verfahren zur Bereitstellung von Sensierungsdaten für ein Objekt beschrieben. Das Verfahren umfasst das Ermitteln von ein oder mehreren sensorischen Eigenschaften des Objektes in Bezug auf eine sensorische Erfassung des Objektes. Außerdem umfasst das Verfahren das Bereitstellen eines Datenträgers auf dem Objekt, derart, dass der Datenträger die ein oder mehreren sensorischen Eigenschaften des Objektes als Sensierungsdaten anzeigt. Die Sensordaten können dabei im Rahmen eines Lernverfahrens angelernt werden.
  • Gemäß einem weiteren Aspekt wird eine Vorrichtung umfassend eine Steuereinheit für ein Fahrzeug beschrieben. Die Vorrichtung ist eingerichtet, auf Basis eines an einem Objekt angeordneten Datenträgers Sensierungsdaten für das Objekt zu ermitteln, wobei die Sensierungsdaten ein oder mehrere sensorische Eigenschaften des Objektes in Bezug auf eine sensorische Erfassung des Objektes anzeigen. Die Vorrichtung ist weiter eingerichtet, die Sensierungsdaten bei einer Erfassung von Sensordaten in Bezug auf das Objekt und/oder bei einer Nutzung der Sensordaten für eine Fahrzeugfunktion zu berücksichtigen.
  • Gemäß einem weiteren Aspekt wird ein Fahrzeug (insbesondere ein Straßenkraftfahrzeug z. B. ein Personenkraftwagen, ein Lastkraftwagen oder ein Motorrad) beschrieben, das die in diesem Dokument beschriebene Vorrichtung umfasst. Bei dem Fahrzeug kann es sich insbesondere um ein Kraftfahrzeug, etwa ein Zweirad, z. B. ein Motorrad, handeln. Des Weiteren kann das Verfahren auch auf Wasserfahrzeuge oder Luft- oder Raumfahrzeuge angewandt werden. Besonders bevorzugt ist dabei die Vorrichtung zusammen mit einem Fahrerassistenzsystems des Fahrzeugs ausgebildet und/oder die Steuereinheit der Vorrichtung entspricht zugleich auch der Steuereinheit des Fahrerassistenzsystems. Ferner kann die Vorrichtung eine oder mehrere weitere, z. B. innerhalb der Fahrzeugsensoren, verbauten Steuereinheiten umfassen.
  • Gemäß einem weiteren Aspekt wird ein Computerprogramm, insbesondere ein Computerprogrammprodukt, beschrieben. Das Computerprogramm kann ggf. direkt in den internen Speicher einer digitalen Vorrichtung (insbesondere einer elektronischen Steuereinheit der Vorrichtung geladen werden. Desweiteren kann das Computerprogramm Softwarecodeabschnitte umfassen, mit denen die Schritte des Verfahrens gemäß einem der beschriebenen Verfahrensansprüche ausgeführt werden, wenn das Computerprodukt auf der digitalen Vorrichtung läuft.
  • Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine, als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Desweiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.
  • Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen
  • 1 eine beispielhafte Fahrsituation, bei der Sensordaten ermittelt werden; und
  • 2 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Ermittlung von Sensordaten bezüglich eines Umfelds eines Fahrzeugs.
  • Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der Bereitstellung von präzisen Sensordaten in einem Fahrzeug. In diesem Zusammenhang zeigt 1 ein beispielhaftes Fahrzeug 100 mit ein oder mehreren Umfeldsensoren 102, die eingerichtet sein, Umfelddaten bzw. Sensordaten bezüglich eines Umfelds des Fahrzeugs 100 zu erfassen. Beispielhafte Umfeldsensoren 102 sind eine Kamera, ein Radarsensor, ein Ultraschallsensor und/oder ein Lidar-Sensor.
  • Die Sensordaten können von einer Steuereinheit 101 einer Vorrichtung des Fahrzeugs 100 ausgewertet werden, um eine Fahrzeugfunktion bereitzustellen. Insbesondere kann das Fahrzeug 100 auf Basis der Sensordaten zumindest teilweise automatisch geführt werden.
  • Je nach Typ eines Sensors 102 können die Sensordaten in bestimmten Situationen fehlerbehaftet bzw. ungenau sein. Beispielsweise kann die Beschaffenheit eines zu erfassenden Objekts dazu führen, dass Messwerte eines Sensors 102 fehlerhaft oder ungenau sind. Des Weiteren kann es in Abhängigkeit von der zu erfassenden Umgebung bzw. von den Umfeldbedingungen (z. B. Beleuchtung, Temperatur, Ultraschallpegel in der Umgebung, etc.) zu Störungen bzw. zu einem Versagen von Sensoren 102 kommen. Außerdem können Sensoren 102 nichtlinearer Effekte aufweisen. Die Vermeidung derartiger Effekte kann extrem aufwändig oder gar unmöglich sein.
  • Fehler können z. B. bei der Ultraschallsensorik 102 aufgrund häufig vorkommender Echos, Fremdultraschalls oder ultraschallabsorbierender Objektflächen auftreten. Bei einem Kamerasystem können bestimmte Objekte (z. B. Fahrzeugreifen) besonders bei bestimmten Randbedingungen nicht richtig erkannt und/oder vermessen werden.
  • Die Qualität der von einem Umfeldsensor 102 erfassten Sensordaten kann somit stark von Bedingungen in dem zu erfassenden Umfeld eines Fahrzeugs 100 und insbesondere von Eigenschaften eines zu erfassenden Objektes 112 abhängen. Andererseits werden die Sensordaten für die Bereitstellung von Fahrzeugfunktionen, insbesondere von Fahrerassistenzfunktionen, verwendet. Die Bereitstellung von zuverlässigen Fahrzeugfunktionen setzt dabei typischerweise eine gleichbleibenden hohe Qualität von Sensordaten voraus, unabhängig von Umfeldbedingungen und/oder Objekteigenschaften.
  • 1 zeigt ein Umfeld des Fahrzeugs 100. Insbesondere zeigt 1 eine Parkbucht 111, die mit zwei Säulen und einer Mauer (als Beispiele für zu erfassende Objekte 112) abgegrenzt ist. Ein Fahrer des Fahrzeugs 100 möchte z. B. rückwärts in die Parkbucht 111 einfahren. Die Umfeldsensoren 102 des Fahrzeugs 100 können zu diesem Zweck Sensordaten in Bezug auf die Objekte 112 (d. h. die Säulen bzw. die Mauer) im Umfeld des Fahrzeugs 100 erfassen und die Steuereinheit 101 kann die Sensordaten auswerten, um den Fahrer bei dem Einparkmanöver zu unterstützen. Dabei können beispielsweise bestimmte Details der zu erfassenden Objekte 112 aufgrund der lokalen Beleuchtungssituation und/oder aufgrund einer Eigenschaft der Objekte 112 schwer durch die Umfeldsensoren 102 zu erfassen sein. Als Folge daraus können sich Einschränkung bei der bereitgestellten Fahrerassistenzfunktion ergeben.
  • Die in 1 dargestellten Objekte 112 umfassen (Energieversorgungs-freie) Datenträger 113, die durch einen Lesesensor 103 des Fahrzeugs 100 ausgelesen werden können. Die Datenträger 113 können Sensierungsdaten umfassen bzw. auf Sensierungsdaten verweisen, die es der Vorrichtung und/oder Steuereinheit 101 ermöglichen, Einstellungen eines Umfeldsensors 102 an ein zu erfassendes Objekt 112 anzupassen. Alternativ oder ergänzend können es die Sensierungsdaten der Vorrichtung und/oder Steuereinheit 101 ermöglichen, die von einem Umfeldsensor 102 erfassten Umfelddaten bezüglich eines Objektes 112 auszuwerten. Der Datenträger 113 kann z. B. einen Radio Frequency Identification(RFID)-Chip und der Lesesensor 103 einen RFID-Lesegerät umfassen. Durch die Bereitstellung von Sensierungsdaten in Bezug auf ein Objekt 112 können in zuverlässiger und effizienter Weise Sensordaten bereitgestellt und/oder ausgewertet werden, um qualitativ hochwertige Fahrzeugfunktionen bereitzustellen.
  • Bei bestimmten Objekten 112 (z. B. bei Carbon-Karosserien, bei Fußgängerkleidung, bei bestimmten für die Fahrzeugsensorik 102 problematischen Grundstückteilen), können Sensordaten (d. h. Sensorikwerte) abhängig von einer Information von RFID-Chips 113 (d. h. abhängig von Sensierungsdaten) korrigiert oder stellenweise ersetzt werden. Dabei kann das Sensoriksystem 101, 102 z. B. über die Sensierungsdaten die notwendigen quantitativen Korrekturwerte ermitteln, die zusammen mit den Messwerten eines Umfeldsensors 102 zu der richtigen Repräsentation eines sensierten Objekts 112 bzw. zu einer korrekten Interpretation der im Zusammenhang mit dem Objekt 112 stehenden Situation führen. Des Weiteren können auch bestimmte Sensierungslücken (z. B. räumlich vordefinierte Problembereiche oder Sensierungsdefizite an bestimmten Stellen, die mit einer relativ hohen Wahrscheinlichkeit auftreten können) geschlossen werden.
  • Beispielsweise können RFID-Chips 113 an bestimmten Objekten 112 platziert werden. Mit diesen RFID-Chips 113 kann das Sensorsystem 101, 102 in einem bestimmten Umfeld z. B. automatisches Rangieren unterstützen, was ggf. ohne Verwendung von RFID-Chips 113 nicht möglich wäre. Dabei werden beispielsweise die Messwerte der Ultraschallsensorik 102 und der Seitenradarsensoren 102 abhängig von den ausgelesenen Sensierungsdaten korrigiert. Außerdem kann ein Sensoriksystem 101, 102 des Fahrzeugs 100 ggf. auf bestimmte (nicht nur für ein bestimmtes Fahrzeug 100 platzierte) RFID-Chips 113 angelernt werden. Alternativ oder ergänzend können ggf. bereits in Fahrzeugreifen, in bestimmten Karosserieteilen, in Kleidung, etc., vorhandene RFID-Chips 113 mit genutzt werden, um Sensierungsdaten bereitzustellen.
  • In Reaktion auf das Einlesen der Information aus einem RFID-Chip 113 berücksichtigt das Sensorsystem 101, 102 des Fahrzeugs 100 die speziellen Einschränkungen, die sich für (verschiedene) Sensoren 102 bzw. Sensierungs-Prinzipien oder Funktionen ergeben, und kann diese sicher und effektiv (insbesondere quantitativ) korrigieren.
  • Des Weiteren können abhängig von den durch die RFID-Chips 113 bereitgestellten Sensierungsdaten (z. B. einprogrammierte, angelernten, etc.) Bedingungen für diverse Fahrzeugfunktionen betätigt, aktiviert, verändert und/oder deaktiviert werden. Beispielsweise können durch die Sensierungsdaten ein Generieren von Kundenmeldungen, ein Einprogrammieren von Daten, die zu einer Informationsausgabe an einen Fahrzeuginsassen führen, etc. erreicht werden. Das in diesem Dokument beschriebene Verfahren kann ggf. nach Nutzerwünschen, z. B. mittels einer App, anpassbar gestaltet sein.
  • 2 zeigt ein Ablaufdiagramm eines beispielhaften Verfahrens 200 zur sensorischen Erfassung eines Objektes 112 in einem Umfeld eines Fahrzeugs 100. Das Verfahren 200 umfasst das Ermitteln 201, auf Basis eines an dem Objekt 112 angeordneten Datenträgers 113, von Sensierungsdaten für das Objekt 112. Dabei zeigen die Sensierungsdaten ein oder mehrere sensorische Eigenschaften des Objektes 112 in Bezug auf die sensorische Erfassung des Objektes 112 an. Außerdem umfasst das Verfahren 200 das Berücksichtigen 202 der Sensierungsdaten bei einer Erfassung von Sensordaten in Bezug auf das Objekt 112 und/oder bei einer Nutzung der Sensordaten für eine Fahrzeugfunktion.
  • Es wird somit ein Verfahren 200 und eine Vorrichtung umfassend eine Steuereinheit 101 zur sensorischen Umfelderfassung eines Fahrzeugs 100 beschrieben. Dabei wird ein Datensatz (d. h. Sensierungsdaten) ermittelt, der spezielle Sensierungseigenschaften eines Objektes 112 repräsentiert. Der Datensatz kann von einem energieversorgungsfreien Datenträger 113 (z. B. von einem RFID-Chip) mit Mitteln 103 des Fahrzeugs 100 (z. B. mit einem Lesesensor 103) ermittelt werden. Außerdem wird in Abhängigkeit von dem ermittelten Datensatz ein Sensoriksystem 101, 102 des Fahrzeugs 100 und/oder eine Fahrzeugfunktion derart variiert, dass eine Auswirkung der speziellen Beschaffenheit eines Objektes 112 zumindest teilweise kompensiert wird.
  • Beispielsweise kann an bestimmten (Sonder-)Objekten 112 ein energieversorgungsfreier Datenträgen 113, z. B. ein RFID-Chip, platziert oder integriert werden. Mit dem Identifikator bzw. der ID oder mit der Antwortinformation des Datenträgers 113 kann ein Datensatz verknüpft sein, mit dem das Sensoriksystem 101, 102 oder weitere Teile der Wirkkette eines Fahrzeugfunktion befähigt werden, das Objekt 112 korrekt zu berücksichtigen.
  • Der Datensatz kann insbesondere bei einer Annäherung des Fahrzeugs 100 an das Objekt 112, insbesondere bei einer Annäherung auf weniger als 20, 15, 10, 5, 3, 1 Meter, ermittelt werden. Dies entspricht einer typischen Leseentfernung von RFID-Chips.
  • Dabei kann mit Mitteln des Fahrzeugs 100 (z. B. mit der Vorrichtung umfassend eine Steuereinheit 101) eine Kompensation der Auswirkung der Beschaffenheit eines Objekts 112 auf die Messwerte zumindest eines Sensors 102, auf das gesamte Sensorsystem 101, 102 des Fahrzeugs 100 oder auf eine damit unmittelbar oder mittelbar zusammenhängende Fahrzeugfunktion durchgeführt werden. Die Kompensation kann insbesondere derart erfolgen, dass die Erfassung des Objekts 112 einer im Wesentlichen korrigierten Erfassung der physikalischen Grenzen des Objektes 112 entspricht. Alternativ oder ergänzend kann die Kompensation derart erfolgen, dass die Wirkung der Fahrzeugfunktion einer im Wesentlichen korrigierten Wirkung in Bezug auf reale physikalische Grenzen des Objekts 112 entspricht. Die Sensierungsdaten können es somit ermöglichen, die realen physikalischen Abmessungen eines Objektes 112 in präziser Weise auf Basis der Sensordaten zumindest eines Umfeldsensors 102 zu bestimmen.
  • Beispielsweise können auf Basis der Sensierungsdaten ein oder mehrere nichtlineare Abhängigkeiten korrigiert oder (wunschgemäß) verändert werden.
  • Der Datensatz (d. h. die Sensierungsdaten) kann die speziellen Sensierungseigenschaften eines Objekts 112 repräsentieren im Bezug auf ein oder mehrere Sensoren 102 bzw. Sensortypen, und/oder in Bezug auf eine oder mehrere Randbedingung der Sensierung. Mit anderen Worten kann ein Datensatz eine Objektbeschaffenheit und/oder eine Auswirkung der Objektbeschaffenheit im Bezug auf einen bestimmten Sensor/Sensortyp und/oder im Bezug auf eine oder mehrere Randbedingungen der Sensierung repräsentieren. Solche Randbedingungen können z. B. sein: für einen Kamera-Sensor, ein Maß für eine Ausleuchtung, und/oder für einen Radar-Sensor oder Ultraschallsensor, der Einstrahlwinkel zu einem Objekt 112.
  • Die Randbedingungen können vorteilhafterweise als Wertebereiche (bzw. Stützwerte) repräsentiert werden. Damit kann ein umfangreiches Spektrum diverser Randbedingungen durch eine begrenzte Anzahl von Wertebereichen unterschiedlicher Art (Temperatur, Helligkeit, Ultraschallstörgeräusche, etc.) abgebildet werden. Somit kann auch das Ermitteln von Steuerungsinformation vereinfacht werden und kann zumindest teilweise durch eine LUT (Lock-Up-Tabelle) erfolgen.
  • Die Information über einen Sensor bzw. über einen Sensortyp kann einen bestimmten Sensor 102 des Fahrzeugs 100 oder einen Sensor 102 von einem bestimmten Typ (z. B. Ultraschallsensor eines bestimmten Herstellers), oder ein Sensierungsprinzip (z. B. Ultraschallsensor im Allgemeinen) repräsentieren.
  • Besonders bevorzugt kann die Information über einen Sensor bzw. Sensortyp als ein (ggf. vereinfachtes) Sensormodell bzw. inverses Sensormodell repräsentiert werden.
  • Der Datensatz kann insbesondere einen oder mehrere quantitative Maße der speziellen Beschaffenheit eines Objekts 112 im Bezug auf zumindest einen Sensor 102 bzw. Sensortyp des Fahrzeugs 100 repräsentieren. Insbesondere kann der Datensatz Daten umfassen, die eine Auswirkung der speziellen Sensierungseigenschaften des Objekts 112 auf einen bestimmten Sensor 102 bzw. Sensortyp oder auf ein Sensierungsprinzip repräsentieren.
  • Insbesondere kann der Datensatz folgende Informationen oder zumindest einen naturwissenschaftlichen Zusammenhang zwischen diesen Informationen repräsentieren: eine Beschaffenheit des Objekts 112 (oder eines Objekts 112 einer bestimmten Art); und/oder spezifische Eigenschaften eines bestimmten Sensors 102 bzw. Sensortypen; und/oder von einer Abstrahlcharakteristik (im sichtbaren und/oder Infrarotlicht, Ultraschall, Radarwellen) abhängige Parameter; und/oder Randbedingungen, auf die sich, die insbesondere quantitativen, Maße beziehen.
  • Eine alternative Bezeichnung für einen solchen Datensatz kann der Begriff „Interaktionsdatensatz” bzw. Sensierungsdaten sein. Mit dem Ermitteln eines solchen Interaktionsdatensatzes, der entweder in dem energieversorgungsfreien Datenträger 113 gespeichert ist oder abhängig von den aus dem energieversorgungsfreien Datenträger 113 ausgelesenen Daten ermittelt werden kann, kann die Information zu den Auswirkungen bestimmter Beschaffenheitsparameter des Objekts 112 in Bezug auf eine Sensierung mit einem bestimmten Sensor 102 bzw. Sensortyp, vorteilhafterweise im Bezug auf eine oder mehrere bestimmte Randbedingung, ermittelt – und entsprechend korrigiert oder bestätigt – werden.
  • Bei der Auswirkung kann es sich um eine unmittelbare oder mittelbare Auswirkung handeln.
  • Bevorzugt repräsentiert der Datensatz mehrere (räumlich und/oder zeitlich abhängige) Auswirkungen der Beschaffenheit eines Objekts 112. Dafür können die Daten des Datensatzes auch einen räumlichen Bezug, z. B. als ein Abstand und/oder als ein Winkel, zwischen einem Sensor 102 und einem Objekt 112 aufweisen.
  • Besonders bevorzugt bezieht sich der Datensatz dabei auf einen bestimmten Sensor 102 bzw. Sensortyp oder auf ein bestimmtes Sensierungs-Prinzip.
  • Das sensorisch zu erfassende Objekt 112 in der Umgebung des Fahrzeugs 100 kann eine Objektkonstellation (z. B. zwei Objekte in einer bestimmten räumlichen Abhängigkeit zueinander) umfassen.
  • Die speziellen Sensierungseigenschaften eines Objektes 112 können beispielsweise Daten umfassen, die repräsentieren, wie unterschiedliche Wellenlängen (z. B. eines Radars 103 oder einer Ultraschallsensorik 103) von dem Objekt 112 reflektiert und/oder absorbiert werden. Dazu kann auch eine spezifische durch ein bestimmtes Objekt 112 erzeugte Phasenverschiebung, Phasendrehung und/oder Dämpfung, z. B. in Bezug auf die elektromagnetischen Wellen eines 24 GHz Radars, angegeben werden. Die speziellen Sensierungseigenschaften können eine direkte Funktion, eine Differenzfunktion oder bevorzugt eine inverse Funktion dieser Zusammenhänge repräsentieren.
  • Viele Carbon-Komponenten umfassen für Produktionszwecke eingebaute RFID-Chips. Diese RFID-Chips können dazu verwendet werden, einen Datensatz bereitzustellen (z. B. durch einen Verweis bzw. durch einen Link auf einen Datensatz). Beispielsweise haben Carbon-Karosserieteile im Vergleich zu Brachteilen relativ stark abweichende Radar-Wellen Reflektionsmuster. Die Auswirkungen solcher speziellen Sensierungeigenschaften (z. B. für zwei unterschiedliche Sensoren 102 bzw. Sensortypen), können durch Bereitstellung eines Datensatzes (d. h. durch Bereitstellung von Sensierungsdaten) korrigierbar gemacht werden.
  • Ein Datensatz kann Informationen umfassen, die einen Korrekturbedarf in Bezug auf ein bestimmtes Objekt 112 und/oder einen Korrekturparameter repräsentiert. Dabei kann ein Korrekturparameter eine multiplikative, eine additive und/oder eine logarithmische Korrektur durchführen.
  • Bevorzugt repräsentiert der Datensatz eine naturwissenschaftliche Abhängigkeit, die ein Modell der Erfassung des Objekts 112 mit einem bestimmten Sensor 102 bzw. Sensortyp, insbesondere systemtheoretisch, beschreibt.
  • Besonders bevorzugt repräsentiert der Datensatz dabei Korrekturparameter, insbesondere eine Umkehrfunktion (Korrekturwerte) für einen Sensor 102 bzw. Sensortyp.
  • Der Datensatz kann eine Zuordnungsinformation (z. B. einen Link) zu einer Datenbank umfassen, von der zusätzliche Daten betreffend dem Zusammenspiel des Objekts 102 mit ein oder mehreren bestimmten Sensoren 102 bzw. Sensortypen, insbesondere im Bezug auf ein oder mehrere bestimmte Randbedingungen, bezogen werden können.
  • Vorteilhaft ist dabei, dass die Wirkkette (bzw. der Signalverarbeitungsfluss im Fahrzeug 100) nicht wesentlich verändert werden muss. Die Wirkkette des Fahrzeugs 100 wird kann durch die Berücksichtigung von Sensierungsdaten mit (korrigierten) Messdaten versorgt werden. Dabei können die Sensierungsdaten auch im Nachhinein auf Effekte (Störungen, Einschränkungen, Artefakte, etc.) angewandt werden, die erst zu einem späteren Zeitpunkt, z. B. mit einem neuen Typ von Objekt 112, auftreten, angewandt werden.
  • Das Variieren des Sensoriksystems 101, 102 und/oder einer Funktion des Fahrzeugs 100 kann als ein entsprechender mit Mitteln des Fahrzeugs 100 durchgeführter Korrekturschritt ausgestaltet sein. Z. B. kann dabei eine Korrektur quantitativer Sensorikmesswerte oder quantitativer Werte eines Umfeldmodells durchführt werden, abhängig von: den bestimmten speziellen Sensierungseigenschaften des Objekts 112; den Eigenschaften des Sensors 102 bzw. Sensortyps; und/oder den Randbedingungen, die bei der Sensierung vorherrschen oder angenommen werden.
  • Das Sensoriksystem 101, 102 kann entsprechend einem oder mehreren der folgenden Schritte variiert wird: eine Korrektur von Messwerten zumindest eines Sensors 102 des Sensorsystems 101, 102 um einen quantitativen Faktor; und/oder eine Anpassung einer Empfindlichkeitskurve (insbesondere in Bezug auf räumliche und/oder zeitliche Parameter); und/oder eine Filterung von Nutz- bzw. Stördaten; und/oder eine Interpolation fehlender oder nicht-plausibler Sensordaten; und/oder ein räumlich und/oder zeitlich begrenzter Ersatz von Sensormesswerten durch abhängig von den Sensierungsdaten ermittelten Werten.
  • Das Sensoriksystem 101, 102 kann Mittel oder Verfahren zur Ausführung einer Sensorfusion umfassen. Dabei kann abhängig von den Sensierungsdaten eine Sensorfusion variiert werden hinsichtlich: der Zuordnung von Messwerten eines oder unterschiedlicher Sensoren 102 zueinander und/oder zu bestimmten Objekten 112 oder zu ausgewählten Raumbereichen (Area of Interest); und/oder der Gewichtung von Messwerten zumindest zweier Sensoren 102 beim Ermitteln zumindest eines fusionierten Messwerts; und/oder eines Zeitversatzes zwischen den zu fusionierenden Messwerten zumindest zweier Sensoren 102.
  • Auch die Leistung einer statischen oder dynamischen Umfeldmodellierung kann unter dem Begriff „Sensoriksystem” subsummiert werden.
  • Abhängig von dem ermittelten Datensatz kann eine räumliche Verteilung quantitativer Parameter ermittelt werden, die ein Maß der Beeinflussung des Sensors 102 bzw. des Sensorsystems des Fahrzeugs 100 oder einer oder mehrerer erforderlichen Korrekturen repräsentiert. Dabei können die unmittelbaren oder mittelbaren Auswirkungen auf einen Sensor 102 des Fahrzeugs 100 und/oder auf eine Fahrzeugfunktion repräsentiert werden, die einen räumlichen Bezug aufweisen.
  • Bevorzugt umfassen die Sensierungsdaten eine räumliche Verteilung von Maßen (Parameter), differenziert je nach ihrer räumlichen Position, z. B.: eine räumliche Verteilung der Einschränkungen der Sensierung; und/oder eine räumliche Verteilung der Korrekturwerte, die angewandt werden sollen bzw. sollten, um bestimmte Auswirkungen zu korrigieren oder zu neutralisieren.
  • Der räumliche Bezug kann sich z. B. in Abhängigkeit von einem mit dem Fahrzeug 100 oder von einem Objekt 112 (Fahrzeugseitig bzw. objektseitig) abhängigen Koordinatensystem ausgedrückt werden, bzw. sich auf ein solches Koordinatensystem beziehen. Alternativ kann sich die räumliche Verteilung auf relative Positionswerte zwischen einem Fahrzeug 100 und einem (Teil eines) Objektes 112 beziehen.
  • Eine räumliche Verteilung kann als eine zumindest zweidimensionale Verteilung quantitativer Werte abhängig sein: vom Abstand vom Fahrzeug 100 oder vom Objekt 112; und/oder von der Richtung zum Fahrzeug 100 oder zum Objekt 112.
  • Beispielsweise kann der Datensatz eine räumliche Verteilung von speziellen Sensierungseigenschaften des Objekts 112 umfassen, wobei die räumliche Verteilung Unterschiede in den Sensierungseigenschaften abhängig von der (relativen) räumlichen Position repräsentiert. Beispiele hierfür sind bestimmte Teile des Objekts 112, die bei einem Sensor 102 bzw. Sensortyp jeweils unterschiedliche oder unterschiedlich starke Auswirkungen (z. B. bestimmte Abweichungen) hervorrufen können; und/oder eine räumliche Verteilung der Werte, die ein Maß der Auswirkung auf einen oder mehrere Sensortypen repräsentieren.
  • Daraufhin können (ggf. mit Mitteln des Fahrzeugs 100) Messwerte abhängig von der räumlichen Position zwischen dem jeweiligen Sensor 102 des Fahrzeugs 100 und dem Objekt 112 um einen vorgegebenen Wert korrigiert werden; und/oder es können Auswirkungen auf eine von dem Sensor abhängige Funktion abhängig von der räumlichen Position zwischen dem jeweiligen Sensor 102 des Fahrzeugs 100 und dem Objekt 112 um einen vorgegebenen Wert korrigiert werden.
  • Beispielsweise, können die Sensierungsdaten eine durch eine Datenstruktur repräsentierte „Karte” umfassen, die zu mindestens 4–16 Raumbereichen die (physikalischen und/oder technischen) Parameter eines Anhängers angibt oder die direkt die „Beeinflussungsmaße” in Bezug auf alle oder bestimmte Funktionen angibt.
  • Der Datensatz kann zwei oder mehrere Parameter, insbesondere eine Datenstruktur mit einem räumlichen Bezug, umfassen, die sich auf unterschiedliche Abstände und/oder Positionen zwischen zumindest einem Sensor 102 des Fahrzeugs 100 und zumindest einem Objekt 112 beziehen.
  • Die Position kann dabei zumindest einen Winkelwert, einen Quadranten, einen bestimmten Raumwinkel, etc. umfassen. Dabei können besonders bevorzugt die speziellen Sensierungseigenschaften des Objekts 112; und/oder die Eigenschaften des Sensors 102 bzw. Sensortyps; und/oder die Randbedingungen, die bei der Sensierung zu berücksichtigen sind, räumlich abhängige Daten umfassen oder als solche repräsentiert werden.
  • Beispielsweise kann eine Tabelle in dem Datenträger 113 als Datenstruktur bereitgestellt werden, die quantitative Werte oder naturwissenschaftliche Zusammenhänge zu einer Vielzahl diverser Varianten umfasst. Bevorzugt kann diese Datenstruktur als zumindest eine räumliche (von den ermittelten Daten abhängige) Struktur berücksichtigt werden.
  • Die Datenstruktur mit einem räumlichen Bezug kann eine Vielzahl von Werten mit einem absoluten und/oder räumlichen Bezug und/oder einen naturwissenschaftlichen Zusammenhang zwischen diesen repräsentieren.
  • Besonderes bevorzugt kann das Sensoriksystem 101, 102 und/oder eine Fahrzeugfunktion, z. B. abhängig von der ausgelesenen „Karte” mit den „Beeinflussungswerten” bzw. mit den „Korrekturwerten”, hinsichtlich ihrer Wirksamkeit auch räumlich abhängig passend variiert (z. B. eingeschränkt und/oder verändert) werden.
  • Mit anderen Worten, abhängig von dem ermittelten Datensatz, der eine räumlich bezogene Karte aus quantitativen Parametern repräsentiert, kann die Fahrzeugfunktion, z. B. durch die Veränderung der Applikationswerte der Fahrzeugfunktion, eine (korrigierende) räumlich bezogene, insbesondere für unterschiedliche Richtungen unterschiedliche, Einschränkung oder Veränderung durchführen.
  • Alternativ oder ergänzend kann ein Eingriff innerhalb des Umfelderfassungssystems erfolgen. Insbesondere können abhängig von dem ermittelten Datensatz mehrere Parameter zu einer räumlichen Abhängigkeit der Auswirkung spezieller Sensierungseigenschaften des Objekts 112 auf einer Umfelderfassungsinformation ermittelt werden. Die Umfelderfassungsinformation kann dann abhängig von den ermittelten Parametern räumlich abhängig variiert werden. Dabei kann die variierte Umfelderfassungsinformation wesentlich geringere Abweichungen von realen geometrischen Verhältnissen des Objekts 112 repräsentiert. Somit können räumlich unterschiedliche Nichtlinearitäten eines Sensors 102 bzw. Sensorsystems effektiv korrigiert werden.
  • Alternativ oder ergänzend kann ein Eingriff in eine Funktion erfolgen. Insbesondere kann abhängig von dem ermittelten Datensatz die Information zu einer räumlichen Abhängigkeit der Einschränkung und/oder Veränderung einer Fahrzeugfunktion ermittelt werden. Die Wirkung der Fahrzeugfunktion kann dann abhängig von der ermittelten Information räumlich abhängig variiert werden. Dabei kann sich das Variieren der Fahrzeugfunktion bevorzugt beziehen auf: einen Fahrwerkeingriff des Fahrzeugs 100 als ein zumindest teilweise automatisiertes Bremsen, Lenken, Fahren; und/oder eine Ausgabe zumindest einer, insbesondere haptischen, grafischen, und/oder akustischen, Information an den Fahrer des Fahrzeugs 100; und/oder einen, insbesondere selektiven, Ersatz eines Fahrwerkeingriffs des Fahrzeugs 100 durch die Ausgabe einer Information an den Fahrer des Fahrzeugs 100 oder umgekehrt. Die jeweiligen Warnungen, Informationen und/oder Eingriffe können dabei nach räumlichen (geometrischen) Kriterien variiert werden.
  • Wenn mit Mitteln des Fahrzeugs 100 festgestellt wird, dass bestimmte Fahrbahnbereiche für den Fahrer sichtbar sind, dann kann eine Warnung, z. B. eine grafische Information, ausgegeben werden. Wenn mit Mitteln des Fahrzeugs festgestellt wird, dass bestimmte Fahrbahnbereiche für den Fahrer nicht (hinreichend) sichtbar sind, dann kann (ggf. auch) ein automatischer Eingriff (z. B. eine Bremsung oder Lenkeingriff) veranlasst werden.
  • Das heißt, je nachdem welche Manöver oder welche konkreten Manövervarianten der Fahrer auszuführen beabsichtigt, wird der Fahrer nur mit den Auswirkungen konfrontiert, die das jeweilige Manöver betreffen.
  • Die Fahrerinformation kann auch einen oder mehrere bestimmte Anwendungsfälle einer Fahrzeugfunktion repräsentieren, die im Zusammenspiel zwischen einem bestimmten Fahrzeug 100 und einem bestimmten Objekt 112 uneingeschränkt und/oder eingeschränkt und/oder nicht unterstützt werden. Die Anwendungsfälle können auch als grafisch dargestellte Anwendungsfälle, z. B. als Anordnungen von dem Fahrzeug 100, einem Anhänger, einem anderen Fahrzeug und/oder einem Hindernis dargestellt werden. Somit wird eine klare Meldungen erzeugt, so dass ein Nutzer versteht, ob und was der Nutzer zu akzeptieren oder zu korrigieren hat.
  • Das Sensoriksystem kann entsprechend einem oder mehrerer der folgenden Schritte variiert wird: eine zeitabhängige Filterung, insbesondere eine zeitabhängige Filterung der Nutz- bzw. der Stördaten, wobei insbesondere der Parameter eines Kalmanfilters variiert werden kann; und/oder ein Modus oder Parameter eines Objekt-Tracking-Verfahrens.
  • Somit können auch zeitliche Werte korrigiert werden, die aufgrund der besonderen Beschaffenheit des Objekts 112 und/oder der Randbedingungen auftreten. Dies ist insbesondere für die Sensorfusion relevant.
  • Es kann Fahrerinformation unmittelbar oder mittelbar repräsentierend eine Umfelderfassungsinformation von einem Umfeld des Fahrzeugs 100 mittels einer Anzeigevorrichtung innerhalb des Fahrzeugs 100 ausgegeben werden. Darin können räumliche Bereiche hervorgehoben werden, in welchen: eine Datenqualität des Umfelderfassungssystems höher als ein vorausbestimmter Schwellwert ist; und/oder eine Datenqualität des Umfelderfassungssystems niedriger als ein vorausbestimmter Schwellwert ist; und/oder ein Variieren des Sensoriksystems und/oder einer Fahrzeugfunktion abhängig von dem ermittelten Datensatz vorgenommen wird oder wurde.
  • Diese Ausgabe kann z. B. zusammen mit einer graphischen Darstellung, insbesondere einer dreidimensionalen oder dreidimensional wirkenden grafische Darstellung (z. B. einem Rundum-Kamerasystem), integriert werden. Somit kann der Fahrer des Fahrzeugs 100 entscheiden, welche der Daten mehr oder minder verlässlich sind und welche der Daten korrigiert sind.
  • Beispielsweise kann so auf anschauliche Weise vermittelt werden, wieso eine mögliche, empfohlene, ausdrücklich nicht empfohlene oder sich nach aktuellen Eingaben ergebende Interaktion des Fahrzeugs 100 mit dem Objekt 112 (trotz des Einflusses bestimmter Objektbeschaffenheit auf das Sensorsystem des Fahrzeugs 100) unterstützt wird. Alternativ oder ergänzend können so problematische Stellen oder Objekte 112 angezeigt werden, die im Falle einer oder anderer Aktionen des Fahrers oder einer Fahrzeugtrajektorie (trotz des Einflusses einer bestimmten Objektbeschaffenheit auf das Sensorsystem des Fahrzeugs 100) nicht unterstützt werden oder nur basierend auf dem Datensatz unterstützt werden.
  • Besonders bevorzugt kann das Verfahren 200 einen Bestätigungsschritt des Fahrers umfassen, bei dem der Fahrer z. B. bestätigt, dass die vom Fahrzeug ermittelten Umfelderfassungsdaten: richtig sind, oder nicht richtig sind; und/oder ein Lernen und/oder eine Speicherung der Korrekturdaten veranlasst wird. Ein solcher Bestätigungsschritt kann aktiv oder passiv erfolgen.
  • Dabei können ein Lernvorgang und/oder ein Speicherungsvorgang z. B. im Zusammenhang mit weiteren Erkennungsdaten erfolgen.
  • Bei dem Lernvorgang und/oder bei einem Speicherungsvorgang können der (z. B. mit einer ID eines RFID-Chips 113 verknüpfte) Datensatz und/oder im Fahrzeug 100 mit einem bestimmten Datensatz verknüpfte Daten geändert werden. Beim Befahren derselben Stelle und/oder bei Erkennen der gleichen bzw. ähnlichen Situationen können die Daten abgerufen und angewandt werden.
  • Es kann ein bestimmtes Manöver, das durchgeführt oder beabsichtigt wird, erkannt werden. Außerdem können räumlich bezogene Parameter der Auswirkung der Beschaffenheit eines Objekts 112 ermittelt werden. Des Weiteren kann ein räumlicher Zusammenhang zwischen dem Fahrzeug 100 und zumindest einem Objekt 112 im Zusammenhang mit dem ermittelten Manöver, insbesondere in Bezug auf zumindest ein Zeitintervall, ermittelt werden. Es können dann das Sensoriksystem und/oder eine Fahrzeugfunktion abhängig von dem ermittelten räumlichen Zusammenhang zwischen Fahrzeug 100 und Objekt 112, und abhängig von den ermittelten räumlich bezogenen Parametern der Auswirkung der Beschaffenheit eines Objekts 112 variiert werden. Dabei kann sich das Variieren insbesondere auf das zumindest eine Zeitintervall beziehen.
  • Das Manöver kann ein Park- oder Rangier-Manöver, insbesondere ein Einpark-, Auspark- bzw. Rangiermanöver, ein Wendemanöver oder ein Engstellendurchfahrt-Manöver umfassen. Ein bestimmtes Manöver kann auch eine bestimmte Art des Manövers betreffen. Die Art des Manövers kann nach an sich bekannten Verfahren erkannt werden. Z. B. kann die Art des Manövers durch die Fahrzeugbedienung durch den Fahrer (Rückwärtsgang, Lenkeinschlag, etc.) erkannt werden. Dabei kann z. B. eine (ggf. komplexe) Trajektorie des Fahrzeugs 100 und/oder Objekts 112 ermittelt werden.
  • Es kann abhängig von dem ermittelten Datensatz ein zumindest teilautomatisierter Lenkeingriff und/oder Antriebs- oder Bremseingriff der Fahrzeugfunktion und/oder eine Trajektorienplanung des Fahrzeugs 100 relativ zu dem Objekt 112, ermittelt und/oder variiert werden. Bevorzugt kann dabei die Wirkung der Fahrzeugfunktion zu Gunsten von räumlichen Bereichen und/oder Manövern verändert werden, die unter der Berücksichtigung der Beschaffenheit eines Objekts 112 besser unterstützt wird. Insbesondere kann eine optimierte Kombination aus Fahraktionen (Lenken, Fahren, Bremsen, etc.) oder eine optimierte Trajektorie des Fahrzeugs 100, insbesondere in Relation zu dem Objekt 112, ermittelt werden.
  • Ein energieversorgungsfreier Datenträger 113 kann ausgestaltet sein als ein passiver Chip zur drahtlosen Nahfeldkommunikation, insbesondere RFID, und/oder als ein maschinenlesbarer Code. Beispielsweise kann der maschinenlesbare Code als ein QR-Code ausgestaltet sein. Der maschinenlesbare Code kann derart gestaltet sein, dass der Code Kontraste in einem Infrarot-Spektrum aufweist, die von der gespeicherten Information abhängen. Es ist auch eine Kombination aus RFID und einem maschinenlesbaren Code (auch in einem „Token”) möglich. Der Datenträger 113 kann z. B. mit einem Smartphone ausgelesen und/oder geprüft werden. Ein im Infrarot-Spektrum erscheinender maschinenlesbarer Code bietet Vorteile, da dieser im Vergleich zu einem Code im sichtbaren Licht typischerweise eine bessere Resistenz gegen Verschmutzung aufweist. Außerdem weist ein solcher Code meist besser erfassbare Information bei schlechten Lichtverhältnissen auf.
  • Außerdem wird in diesem Dokument ein Verfahren beschrieben, mit dem Daten für einen energieversorgungsfreier Datenträger 113 (z. B. QR-Code bzw. RFID-Chip) ermittelt und zugeordnet werden können. Die Daten können z. B. aus den in diesem Dokument beschriebenen oder aus anderen Lerndaten ermittelt werden.
  • Mit den in diesem Dokument beschriebenen Mitteln können spezifische Eigenschaften von Objekten 112 und/oder spezifische Umfeldbedingungen bei der Umfelderfassung berücksichtigt werden, um zuverlässige Fahrzeugfunktionen bereitzustellen. So können insbesondere teilautomatisiertes Fahren, hochautomatisches Fahren und/oder hochautomatisiertes Parken in zuverlässiger Weise bereitgestellt werden (auch bei ggf. beschränkten Sensoreigenschaften). Die beschriebenen Mittel sind dabei insbesondere im Nahfeld eines Fahrzeugs 100 vorteilhaft. Außerdem können die beschriebenen Mittel in Kosten-effektiver Weise bereitgestellt werden. Des Weiteren erfordern die beschriebenen Mittel keinen substantiellen Eingriff in die Wirkkette einer Fahrzeugfunktion (außer eines zusätzlichen Korrekturschritts). Dies ist insbesondere in Bezug auf die Entwicklungskosten von Fahrzeugfunktionen vorteilhaft.
  • Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.

Claims (17)

  1. Verfahren (200) zur sensorischen Erfassung eines Objektes (112) in einem Umfeld eines Fahrzeugs (100), wobei das Verfahren (200) umfasst, – Ermitteln (201), auf Basis eines an dem Objekt (112) angeordneten Datenträgers (113), von Sensierungsdaten für das Objekt (112); wobei die Sensierungsdaten ein oder mehrere sensorische Eigenschaften des Objektes (112) in Bezug auf die sensorische Erfassung des Objektes (112) anzeigen; und – Berücksichtigen (202) der Sensierungsdaten bei einer Erfassung von Sensordaten in Bezug auf das Objekt (112) und/oder bei einer Nutzung der Sensordaten für eine Fahrzeugfunktion.
  2. Verfahren (200) gemäß Anspruch 1, wobei die Sensierungsdaten anzeigen, – eine Reflektionseigenschaft des Objektes (112) in Bezug auf elektromagnetische und/oder Schall-Wellen, die von einem Umfeldsensor (102) des Fahrzeugs (100) erfasst werden; – eine Eigenschaft einer Oberfläche des Objektes (112); – eine von einem Umfeldsensor (102) des Fahrzeugs (100) zu verwendende Einstellung zur Erfassung des Objektes (112); – einen Umfeldsensor (102) und/oder einen Typ von Umfeldsensor (102), mit dem das Objekt (112) erfasst werden kann; und/oder – eine Randbedingung für die sensorische Erfassung des Objektes (112).
  3. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei das Berücksichtigen (202) einer sensorischen Eigenschaft des Objektes (112) bei der sensorischen Erfassung umfasst, – Verändern, insbesondere Filtern, der durch einen Umfeldsensor (102) des Fahrzeugs (100) erfassten Sensordaten; – Anpassen einer Empfindlichkeit eines Umfeldsensors (102) des Fahrzeugs (100); – räumliches und/oder zeitliches Interpolieren der Sensordaten; und/oder – Anpassen eines Modus und/oder eines Parameters für ein Tracking-Verfahren des Objektes (112).
  4. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei das Verfahren (200) umfasst, – Erfassen von Sensordaten mittels einer Mehrzahl von Umfeldsensoren (102) des Fahrzeugs (100); und – Zuordnen der Sensordaten von mindestens zwei Umfeldsensoren (102) in Abhängigkeit von den Sensierungsdaten; und/oder – Ermitteln von fusionierten Sensordaten von mindestens zwei Umfeldsensoren (102); wobei eine Gewichtung und/oder ein Zeitversatz der Sensordaten für das Ermitteln von fusionierten Sensordaten von den Sensierungsdaten abhängen.
  5. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei die Sensierungsdaten die ein oder mehreren sensorischen Eigenschaften des Objektes (112) jeweils für eine Mehrzahl von unterschiedlichen räumlichen Anordnungen zwischen einem Umfeldsensor (102) des Fahrzeugs (100) und dem Objekt (112) anzeigen.
  6. Verfahren (200) gemäß Anspruch 5, wobei das Verfahren (200) umfasst, – Ermitteln einer ersten räumlichen Anordnung zwischen einem ersten Umfeldsensor (102) des Fahrzeugs (100) und dem Objekt (112); – Ermitteln von einer oder mehreren ersten sensorischen Eigenschaften des Objektes (112) für die erste räumliche Anordnung, basierend auf den Sensierungsdaten; und – Erfassen und/oder Verarbeiten von Sensordaten des ersten Umfeldsensors (102) in Abhängigkeit von den ein oder mehreren ersten sensorischen Eigenschaften des Objektes (112).
  7. Verfahren (200) gemäß Anspruch 6, wobei – das Verfahren (200) umfasst, Anpassen einer Fahrzeugfunktion in Abhängigkeit von den ein oder mehreren ersten sensorischen Eigenschaften des Objektes (112); und – das Anpassen umfasst, – Anpassen eines Fahrwerkeingriffs des Fahrzeugs (100); – Ausgeben einer Information an einen Fahrer des Fahrzeugs (100); und/oder – Ersetzen eines Fahrwerkeingriffs durch eine Ausgabe einer Information an einen Fahrer des Fahrzeugs (100).
  8. Verfahren (200) gemäß einem der Ansprüche 6 bis 7, wobei – das Verfahren (200) umfasst, Ermitteln eines Fahrmanövers, das das Fahrzeug (100) durchführt oder durchführen wird; und – das Verfahren (200) umfasst, Ermitteln der ersten räumlichen Anordnung des Fahrzeugs (100) auf Basis des Fahrmanövers.
  9. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei – das Verfahren (200) umfasst, Ermitteln oder Anpassen einer Sollgröße eines Steuerungsvorgangs im Fahrzeug (100) in Abhängigkeit von den Sensierungsdaten; – das Ermitteln oder Anpassen insbesondere kontinuierlich erfolgt; und – der Steuerungsvorgang sich insbesondere auf eine Querführung, Längsführung und/oder Vertikaldynamik des Fahrzeugs (100) bezieht.
  10. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei – das Verfahren (200) weiter umfasst, Ausgeben einer Umfeldinformation bezüglich des Umfelds des Fahrzeugs (100) auf einer Ausgabeeinheit des Fahrzeugs (100); und – die Umfeldinformation anzeigt, – Information in Bezug auf eine Qualität der Sensordaten; und/oder – Information in Bezug darauf, ob die Sensierungsdaten berücksichtigt wurden.
  11. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei das Verfahren (200) umfasst, – Durchführen einer Trajektorienplanung für eine Fahrtrajektorie des Fahrzeugs (100), in Abhängigkeit von den Sensierungsdaten; und/oder – Durchführen eines zumindest teilautomatisierten Lenk-, Brems- und/oder Antriebseingriffs, in Abhängigkeit von den Sensierungsdaten.
  12. Verfahren (200) gemäß Anspruch 11, wobei das Verfahren (200) umfasst, – Ermitteln einer Mehrzahl von Trajektorien für das Fahrzeug (100); – Ermitteln, auf Basis der Sensierungsdaten, von Werten eines Qualitätsindikators für die Mehrzahl von Trajektorien, wobei der Qualitätsindikator eine Qualität der Sensordaten anzeigt; und – Auswählen einer Trajektorie aus der Mehrzahl von Trajektorien, in Abhängigkeit von den Werten des Qualitätsindikators.
  13. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei der Datenträger (113) – keine Energieversorgung erfordert; – passiv ist; – einen maschinelesbaren Code umfasst; und/oder – einen RFID-Chip umfasst.
  14. Verfahren (200) gemäß einem der vorhergehenden Ansprüche, wobei die Sensierungsdaten derart berücksichtigt werden, dass eine Eigenschaft des Objektes (112), die sich einschränkend auf die sensorische Erfassung des Objektes (112) auswirkt, zumindest teilweise kompensiert wird.
  15. Computerprogramm, das eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das Verfahren (200) gemäß einem der vorhergehenden Ansprüche auszuführen.
  16. Verfahren zur Bereitstellung von Sensierungsdaten für ein Objekt (112), wobei das Verfahren umfasst, – Ermitteln von ein oder mehreren sensorischen Eigenschaften des Objektes (112) in Bezug auf eine sensorische Erfassung des Objektes (112); und – Bereitstellen eines Datenträgers (113) auf dem Objekt (112), derart, dass der Datenträger (113) die ein oder mehreren sensorischen Eigenschaften des Objektes (112) als Sensierungsdaten anzeigt.
  17. Vorrichtung umfassend eine Steuereinheit (101) für ein Fahrzeug (100), wobei die Vorrichtung eingerichtet ist, – auf Basis eines an einem Objekt (112) angeordneten Datenträgers (113) Sensierungsdaten für das Objekt (112) zu ermitteln; wobei die Sensierungsdaten ein oder mehrere sensorische Eigenschaften des Objektes (112) in Bezug auf eine sensorische Erfassung des Objektes (112) anzeigen; und – die Sensierungsdaten bei einer Erfassung von Sensordaten in Bezug auf das Objekt (112) und/oder bei einer Nutzung der Sensordaten für eine Fahrzeugfunktion zu berücksichtigen.
DE102016201814.0A 2016-02-05 2016-02-05 Verfahren und Vorrichtung zur sensorischen Umfelderfassung in einem Fahrzeug Withdrawn DE102016201814A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016201814.0A DE102016201814A1 (de) 2016-02-05 2016-02-05 Verfahren und Vorrichtung zur sensorischen Umfelderfassung in einem Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016201814.0A DE102016201814A1 (de) 2016-02-05 2016-02-05 Verfahren und Vorrichtung zur sensorischen Umfelderfassung in einem Fahrzeug

Publications (1)

Publication Number Publication Date
DE102016201814A1 true DE102016201814A1 (de) 2017-08-10

Family

ID=59382608

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016201814.0A Withdrawn DE102016201814A1 (de) 2016-02-05 2016-02-05 Verfahren und Vorrichtung zur sensorischen Umfelderfassung in einem Fahrzeug

Country Status (1)

Country Link
DE (1) DE102016201814A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017215129A1 (de) * 2017-08-30 2019-02-28 Bayerische Motoren Werke Aktiengesellschaft Anzeigevorrichtung
CN110954111A (zh) * 2018-09-26 2020-04-03 罗伯特·博世有限公司 定量表征对象的对象属性误差的至少一个时间序列的方法
CN111164456A (zh) * 2017-11-06 2020-05-15 维宁尔美国公司 提示的汽车传感器融合
DE102019205008B3 (de) 2019-04-08 2020-07-02 Zf Friedrichshafen Ag System zur Rückwärtigen Kollisionsvermeidung

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008033897A1 (de) * 2007-08-29 2009-03-19 Adc Automotive Distance Control Systems Gmbh Vorrichtung und Verfahren zur Erkennung von Fahrzeugen und deren Annäherungswinkel
DE102007044536A1 (de) * 2007-09-18 2009-03-19 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum Überwachen der Umgebung eines Kraftfahrzeugs
DE102009035072A1 (de) * 2009-07-28 2011-02-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Prädiktion der Position und/oder Bewegung eines Objekts relativ zu einem Fahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008033897A1 (de) * 2007-08-29 2009-03-19 Adc Automotive Distance Control Systems Gmbh Vorrichtung und Verfahren zur Erkennung von Fahrzeugen und deren Annäherungswinkel
DE102007044536A1 (de) * 2007-09-18 2009-03-19 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung zum Überwachen der Umgebung eines Kraftfahrzeugs
DE102009035072A1 (de) * 2009-07-28 2011-02-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Prädiktion der Position und/oder Bewegung eines Objekts relativ zu einem Fahrzeug

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017215129A1 (de) * 2017-08-30 2019-02-28 Bayerische Motoren Werke Aktiengesellschaft Anzeigevorrichtung
CN111164456A (zh) * 2017-11-06 2020-05-15 维宁尔美国公司 提示的汽车传感器融合
CN111164456B (zh) * 2017-11-06 2023-08-01 安致尔软件有限责任公司 提示的汽车传感器融合
CN110954111A (zh) * 2018-09-26 2020-04-03 罗伯特·博世有限公司 定量表征对象的对象属性误差的至少一个时间序列的方法
DE102019205008B3 (de) 2019-04-08 2020-07-02 Zf Friedrichshafen Ag System zur Rückwärtigen Kollisionsvermeidung

Similar Documents

Publication Publication Date Title
DE102017105305B4 (de) Verfahren zur automatischen bestimmung einer sensorstellung
DE102017202556A1 (de) System und verfahren zum bereitstellen eines korrigierten spurfolgeweges durch eine kurve für anhängerfahrzeuge
EP3001137B1 (de) Verfahren zur überwachung einer kalibrierung mehrerer umgebungssensoren eines kraftfahrzeugs und kraftfahrzeug
DE102017103552A1 (de) Verbesserte fahrzeug-seitenführung (spurfolge-/spurhalte-/spurwechselsteuerung) für anhängerfahrzeuge
WO2009135538A1 (de) Fahrerassistenzverfahren zum bewegen eines kraftfahrzeugs und fahrerassistenzvorrichtung
DE102016201814A1 (de) Verfahren und Vorrichtung zur sensorischen Umfelderfassung in einem Fahrzeug
DE102015206752A1 (de) Einparkhilfe für ein Fahrzeug
WO2020216559A1 (de) Verfahren zur erkennung einer funktionsfähigkeit eines umgebungssensors, steuergerät und fahrzeug
DE102014111126A1 (de) Verfahren zum Erzeugen einer Umgebungskarte eines Umgebungsbereichs eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2020229002A1 (de) Verfahren und vorrichtung zur multi-sensor-datenfusion für automatisierte und autonome fahrzeuge
DE102017222017A1 (de) Verfahren und System zum Ermitteln und Bereitstellen eines Bodenprofils
DE112015004885B4 (de) Verbesserte fahrbahndetektion unter verwendung von kinematischen daten
DE102020102958A1 (de) Spurpositionserfassung und -verfolgung in einem fahrzeug
DE102008048490A1 (de) Parkassistenzsystem
DE102018205065A1 (de) Verfahren zur Kalibrierung eines Positionssensors in einem Fahrzeug, Computerprogramm, Speichermittel, Steuergerät und Kalibrierstrecke
WO2009013052A2 (de) Verfahren und vorrichtung für die spurerfassung mit einem fahrerassistenzsystem
WO2019029967A1 (de) Kalibration von fahrzeugsensoren
DE102014009591A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs und Kraftfahrzeug
DE102007002197A1 (de) Gemeinsamer Kontroller für verschiedene Fahrerassistenzsysteme
DE102015215838A1 (de) Fahrzeugregelungsvorrichtung
EP2133253B1 (de) Verfahren und Vorrichtung für die Steuerung eines Fahrerassistenzsystems
DE102017108107A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs
DE102016202569A1 (de) Verfahren und Vorrichtung zur Adaption eines Sensorsystems eines Fahrzeugs
DE102016208833A1 (de) Verfahren und Vorrichtung zur Unterstützung eines Fahrmanövers eines Kraftfahrzeuges
DE102022134957A1 (de) Systeme und verfahren zur anhängerkupplungskugel-positionsbestimmung und für kupplungswinkel

Legal Events

Date Code Title Description
R163 Identified publications notified
R005 Application deemed withdrawn due to failure to request examination