DE102022203099A1 - Verfahren und Vorrichtung zum Betreiben eines Assistenzsystems eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zum Betreiben eines Assistenzsystems eines Fahrzeugs Download PDF

Info

Publication number
DE102022203099A1
DE102022203099A1 DE102022203099.0A DE102022203099A DE102022203099A1 DE 102022203099 A1 DE102022203099 A1 DE 102022203099A1 DE 102022203099 A DE102022203099 A DE 102022203099A DE 102022203099 A1 DE102022203099 A1 DE 102022203099A1
Authority
DE
Germany
Prior art keywords
vehicle
environment
pitch angle
additional information
sensor system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022203099.0A
Other languages
English (en)
Inventor
Christian Pampus
Fabian Aigner
Maike Salfeld
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022203099.0A priority Critical patent/DE102022203099A1/de
Publication of DE102022203099A1 publication Critical patent/DE102022203099A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C5/00Measuring height; Measuring distances transverse to line of sight; Levelling between separated points; Surveyors' levels
    • G01C5/06Measuring height; Measuring distances transverse to line of sight; Levelling between separated points; Surveyors' levels by using barometric means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/11Pitch movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3685Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities the POI's being parking facilities
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/15Road slope
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Betreiben eines Assistenzsystems (50) eines Fahrzeugs (10), umfassend die Schritte:Abbilden einer Umgebung (U) des Fahrzeugs (10) unter Verwendung von zumindest zwei zweidimensionalen Umgebungskarten (2), wobei jede Umgebungskarte (2) ein Vorhandensein eines Objekts (4) an einem entsprechenden Ort der Umgebung (U) abbildet, dadurch gekennzeichnet,dass in Abhängigkeit von einer Position des Fahrzeugs (10) zumindest eine Zusatzinformation (24) ermittelt wird und dass in Abhängigkeit der Zusatzinformation (24) eine Umgebungskarte (2) aus den zwei Umgebungskarten (2), die vertikal voneinander beabstandete Ebenen (97,99) abbilden, ausgewählt wird zur Aktualisierung und/oder weiteren Verwendung in dem Assistenzsystem (50).

Description

  • Stand der Technik
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Betreiben eines Assistenzsystems eines Fahrzeugs.
  • WO 2017/089135 A1 beschreibt ein Verfahren und ein System zum Erstellen einer spurgenauen Belegungskarte für Fahrspuren. Dabei wird ein Umfeld durch eine Kamera erfasst und von einer Auswerteeinheit ausgewertet, insbesondere werden Objekte in dem Umfeld erkannt und klassifiziert, um daraus die Belegungskarte zu erstellen. Es kann vorgesehen sein, dass durch eine Bildanalyse Zusatzinformationen bereitgestellt werden, wie beispielsweise Parkhausinformationen, insbesondere Informationen zu freien Parkplätzen, basierend auf welchen die Belegungskarte erstellt wird. Das System kann einen Höhensensor umfassen, um Höheninformationen des Kraftfahrzeugs zusammen mit Informationen zu den im Umfeld erfassten Teilstücken an einen Server zu übermitteln. Auf diese Weise kann eine zu einem Parkplatz gehörende Parkhausebene oder Tiefgaragenebene identifiziert werden. Der Höhensensor ermittelt die geographische Höhe dabei in Bezug auf Normal-Null, also den Meeresspiegel.
  • DE 10 2011 119 762 A1 beschreibt ein System und ein Verfahren zur Positionsbestimmung eines Kraftfahrzeugs. Das System umfasst eine digitale Karte, in der Daten über ortsspezifische Merkmale lokalisiert, das heißt einer geographischen Position zugeordnet, verzeichnet sind. Zudem umfasst das System eine inertiale Messeinheit des Fahrzeugs für Bewegungsdaten, welche verwendet werden, um eine Fahrzeugposition des Fahrzeugs zu bestimmen. Die inertiale Messeinheit erfasst die Bewegungsdaten in Form von translatorischen Bewegungen und Rotationsbewegungen des Fahrzeugs. Als ortsspezifische Merkmale können insbesondere von der Fahrbahn aus gut sichtbare, unbewegliche Objekte oder dergleichen, wie z.B. Verkehrsschilder, gewählt werden.
  • US 2014/0379256 A1 beschreibt eine Abbildungs- und Positionierungsvorrichtung, welche Umgebungskarten erstellen kann, in denen Belegungszustände für bestimmte Positionen gespeichert werden können. Das System kann eine Kameraeinheit, ein Altimeter, eine GPS-Einheit und eine Inertialsensorik aufweisen. Das Altimeter kann ein barometrisches Altimeter oder eine andere zur Messung einer Höhenänderung geeignete Vorrichtung sein. Beim Betrieb der Vorrichtung werden erfasste Daten basierend auf einer Klassifikation der Umgebung verarbeitet.
  • Offenbarung der Erfindung
  • Das erfindungsgemäße Verfahren mit den Merkmalen des Anspruchs 1 zeichnet sich demgegenüber dadurch aus, dass mit einfachen zweidimensionalen Umgebungskarten die Genauigkeit bei Situationen, die durch die zweidimensionalen Umgebungskarten allein nicht hinreichend abgedeckt werden könnten, gewährleistet wird. Dies wird erfindungsgemäß dadurch erreicht, dass in Abhängigkeit von einer Position des Fahrzeugs zumindest eine Zusatzinformation ermittelt wird und dass in Abhängigkeit der Zusatzinformation eine Umgebungskarte aus den zwei Umgebungskarten, die vertikal voneinander beabstandete Ebenen abbilden, ausgewählt wird. Damit können beispielsweise Situationen wie beispielsweise in Parkhäusern mit mehreren übereinander liegenden Ebenen eindeutig voneinander getrennt werden. Ein unerwünschtes Vermischen von Informationen mehrerer Ebenen und das in der Folge unerwünschte Funktionsverhalten mit beispielsweise Falschbremsung oder einem Verlust an Lokalisierungsfähigkeit- oder Genauigkeit kann sicher verhindert werden.
  • In einer zweckmäßigen Weiterbildung wird als Zusatzinformation eine Höheninformation des Fahrzeugs und/oder ein Wechsel einer Ebene durch das Fahrzeug verwendet. Damit lässt sich in besonders einfacher Art und Weise eine Trennung der Umgebungskarten erreichen. Besonders bevorzugt wird zur Ermittlung der Zusatzinformation zumindest eine Umfeldsensorik und/oder zumindest eine Drucksensorik und/oder zumindest eine GPS-Sensorik und/oder zumindest eine Inertialsensorik und/oder eine gegenüber dem Fahrzeug stationäre Sensorik und/oder eine externe Karte verwendet. Oftmals ist bereits eine solche Sensorik in dem Fahrzeug oder im Umfeld vorhanden, sodass ohne großen Aufwand die Genauigkeit verbessert werden kann.
  • In einer zweckmäßigen Weiterbildung wird durch die Inertialsensorik ein Nickwinkel des Fahrzeugs und/oder eine Längsbeschleunigung bzw. ein Gradient einer Längsbeschleunigung des Fahrzeugs ermittelt und zur Erzeugung der Zusatzinformation ausgewertet. Gerade die Auswertung des Nickwinkels ist ausreichend für die Ermittlung der Zusatzinformation und deckt besonders gut den Anwendungsfall eines Parkebenenwechsels ab. Besonders zweckmäßig wird hierbei auf eine Änderung der Zusatzinformation bzw. einen Wechsel der Ebenen erkannt, wenn zunächst der Nickwinkel konstant, insbesondere bei Null, bleibt, anschließend sich der Nickwinkel ändert, insbesondere anschließend der Nickwinkel konstant bleibt, insbesondere anschließend der Nickwinkel sich wieder ändert, und anschließend der Nickwinkel konstant, insbesondere bei Null, bleibt. Damit wird das typische Bewegungsmuster des Fahrzeugs bei einem Ebenenwechsel beschrieben.
  • Besonders zweckmäßig wird in einem Zustand, in dem sich das Fahrzeug zumindest in einer Ebene befindet, jeweils eine Umgebungskarte exklusiv verwendet und/oder ein Wechsel der Umgebungskarte erfolgt nach Erreichen eines weiteren Zustands. Damit lassen sich nur wenige Zustände zu einer einfachen Steuerung der Auswahl der jeweiligen Umgebungskarte heranziehen. Hierbei wird der Zustand, in dem sich das Fahrzeug in einer Ebene befindet, eingenommen, wenn der Nickwinkel konstant, insbesondere bei Null liegt und/oder der weitere Zustand eingenommen wird, wenn der Nickwinkel sich ändert und/oder einen konstanten, von Null verschiedenen, Wert annimmt. Damit vereinfacht sich die Signalauswertung weiter. Besonders zweckmäßig wird die Zusatzinformation ermittelt über eine Veränderung des Nickwinkels und/oder über eine Gradientenbeobachtung einer Längsbeschleunigung und/oder durch eine Integration von zumindest einem Signal der Inertialsensorik zum Erhalt einer Z-Koordinate in einem dreidimensionalen Raum und/oder durch eine Festlegung eines entsprechenden Schwellwerts, der für einen Wechsel von Ebenen mindestens zu überschreiten ist, erkannt wird. Damit können noch andere Sensoren zur alternativen oder ergänzenden Ermittlung der Zusatzinformation herangezogen werden, wodurch sich die Auswertungsgenauigkeit erhöhen kann.
  • In einer zweckmäßigen Weiterbildung ist vorgesehen, dass eine Änderung der Zusatzinformation unterbunden wird, wenn erkannt wird, dass sich das Fahrzeug im Freien befindet. Damit können unnötige Berechnungen unterbunden werden bzw. mögliche Fehlerquellen reduziert werden.
  • In einer zweckmäßigen Weiterbildung ist vorgesehen, dass bei einer geänderten Zusatzinformation, insbesondere bei einem weiteren Zustand, eine Umrechnung der Projektion und/oder eine Veränderung, insbesondere Erhöhung des Schätzfehlers der Sensorik und/oder eine insbesondere temporäre Reichweitenbegrenzung der Sensorik erfolgt bzw. erfolgen. Damit lässt sich die Qualität der Umfelderkennung weiter erhöhen und die Fehleranfälligkeit reduzieren.
  • In einer zweckmäßigen Weiterbildung ist vorgesehen, dass zur Ermittlung der Zusatzinformation situationsspezifische Merkmale erfasst werden, insbesondere eine Fahrbahnneigung zur Erkennung von zumindest einer Rampe und/oder eines Wechsels von Ebenen, insbesondere eines Parkhauses, und/oder eine Bilderkennung zur Erfassung eines Hinweisschildes etc. Damit lässt sich die Qualität der Auswertung weiter verbessern bzw. eine Plausibilisierung in einfacher Art und Weise durchführen. Zweckmäßiger Weise könnte hierzu die Umfeldsensorik, insbesondere eine Kamera, die eine Information erfasst, als Basis für eine Erzeugung und/oder Plausibilisierung der Zusatzinformation verwendet werden.
  • Weitere zweckmäßige Weiterbildungen ergeben sich aus den abhängigen Ansprüchen und aus der Beschreibung.
  • Kurze Beschreibung der Zeichnungen
  • Im Folgenden wird die Erfindung anhand eines Ausführungsbeispiels in Verbindung mit den Figuren beschrieben. In den Figuren sind funktional gleiche Bauteile jeweils mit gleichen Bezugszeichen gekennzeichnet. Dabei zeigt:
    • 1 mit 1a und 1b vereinfachte schematische Ansichten eines Betriebs eines Fahrzeugs mit einem Assistenzsystem gemäß einem bevorzugten Ausführungsbeispiel der Erfindung,
    • 2 mit 2a, 2b, 2c weitere schematische Ansichten des Betriebs des Fahrzeugs der 1;
    • 3 eine Gliederung der Umgebungskarte in mehrere Kacheln,
    • 4 eine Übersicht der Systemkomponenten,
    • 5 modellierte Zustände beim Wechseln einer Ebene.
  • Bevorzugte Ausführungsformen der Erfindung
  • Die 1 und 2 zeigen vereinfachte schematische Ansichten eines Fahrzeugs 10 mit einem Assistenzsystem 50. Dargestellt sind dabei verschiedene vereinfachte Ansichten eines Verfahrens zum Betreiben des Assistenzsystems 50 des Fahrzeugs 10.
  • Das Assistenzsystem 50 umfasst eine Umfeldsensorik 52, welche eingerichtet ist zur Erfassung einer Umgebung U des Fahrzeugs 10. Die Umfeldsensorik 52 kann einen Radar-Sensor, einen Lidar-Sensor und eine Kamera umfassen. Mittels der Umfeldsensorik 52 können Objekte 4, beispielsweise in Form von Hindernissen, in einer Umgebung U des Fahrzeugs 10 erfasst werden, wie beispielsweise in der 1 (a) schematisch angedeutet.
  • Weiterhin umfasst das Assistenzsystem 50 eine Steuervorrichtung 51, welche eingerichtet ist, um basierend auf der erfassten Umgebung U eine Umgebungskarte 2, welche ein Abbild der Umgebung U darstellt, zu erzeugen, wie in 1 (b) dargestellt.
  • Die Umgebungskarte 2 ist in eine Vielzahl von Zellen 3 unterteilt. Die Umgebungskarte 2 ist dabei zweidimensional und in einer Ebene einer Fahrbahnoberfläche, auf welcher sich das Fahrzeug 10 in der Umgebung U fortbewegen kann, ausgebildet. Die Zellen 3 sind quadratisch und weisen eine Kantenlänge von 1 m auf. Die gesamte Umgebungskarte 2 ist ebenfalls quadratisch und weist jeweils in Länge und Breite zehn nebeneinanderliegende Zellen 3 auf, also bildet die Umgebungskarte 2 einen Bereich mit 10 m Kantenlänge ab.
  • Basierend auf den erfassten Objekten 4 wird jeder Zelle 3 der Umgebungskarte 2, welche sich an einem Ort der Umgebungskarte 2 befindet, der einem Ort der Umgebung U mit einem Objekt 4 entspricht, ein vordefinierter Wert zugewiesen. Den entsprechenden Zellen 3a, welche in der Umgebungskarte 2 einen Ort repräsentieren, an welchen sich in der Umgebung U ein Objekt 4 befindet, wird beispielsweise ein Wert zugewiesen, welcher den Zustand „belegt“ repräsentiert (vgl. 1 (b)).
  • Mittels der Umgebungskarte 2 kann eine Lokalisierung des Fahrzeugs 10 in der Umgebung U durchgeführt werden. Hierfür wird eine zweite Umgebungskarte 2b zu einem anderen Zeitpunkt erzeugt und mit zumindest einer weiteren ersten Umgebungskarte 2a abgeglichen. Dies ist vereinfacht in der 2 (c) dargestellt.
  • Dabei wird zunächst ein Bereich der Umgebung U in einer ersten Trainingsfahrt mit dem Fahrzeug 10, beispielsweise manuell durch den Fahrer gesteuert, befahren. Während dieser Trainingsfahrt wird die erste Umgebungskarte 2a erzeugt. Dies ist in 2 (a) und (b) dargestellt.
  • Wenn sich das Fahrzeug 10, beispielsweise zu einem späteren Zeitpunkt, erneut in demselben Bereich der Umgebung U befindet, kann in einem zweiten Schritt die zweite Umgebungskarte 2b erzeugt werden. In jeder der beiden Umgebungskarten 2a, 2b werden dabei allen Zellen 3 entsprechende Werte zugewiesen, um Objekte 4 oder freie Bereiche in der Umgebung U zu repräsentieren.
  • Anschließend werden die beiden Umgebungskarten 2a, 2b in einem weiteren Schritt miteinander abgeglichen. Dies ist in 2 (c) schematisch dargestellt. Anhand derjenigen Zellen 3, welche bestimmte Objekte 4b repräsentieren, können die beiden Umgebungskarten 2a, 2b dabei übereinandergelegt werden, und dadurch kann in der zweiten Fahrt das Fahrzeug 10 in der Umgebung U mit besonders hoher Genauigkeit anhand beider Umgebungskarten 2a, 2b lokalisiert werden.
  • Die Erstellung und der Abgleich der Umgebungskarten 2 wurde beispielhaft in Verbindung mit der Aufteilung in Zellen 3 beschrieben. Es können jedoch auch andere Erstellungsverfahren zur Anwendung kommen, die nicht auf die exemplarisch beschriebenen Zellgitter zurückgreifen.
  • In 3 ist exemplarisch gezeigt, wie die Umgebungskarte 2 in mehrere Kacheln 20, angedeutet durch die stärkere Umrandung, aufgeteilt ist. Im Ausführungsbeispiel sind die Kacheln 20 beispielsweise quadratisch ausgebildet. Die Kacheln 20 sind jeweils unmittelbar angrenzend zu einer benachbarten Kachel 20 angeordnet und bilden so eine durchgängige Umgebungskarte 2.
  • Die beschriebenen Umgebungskarten 2 eignen sich insbesondere für zweidimensionale Umgebungsbedingungen. Es gibt jedoch durchaus Anwendungen wie beispielsweise das Parken in Parkhäusern, bei denen sich die Kartierungsumgebung über mehrere Ebenen bzw. auf unterschiedliche Höhenniveaus erstrecken kann. Diese Zusatzinformation 24 steht wie nachfolgend näher erläutert beispielsweise als Höheninformation zur Verfügung. Über die Höheninformation können übereinanderliegende Ebenen der Umgebungskarten 2 voneinander getrennt werden. Bei der Ebenenkartierung findet höhenspezifisch, also in Abhängigkeit von der Zusatzinformation 24 bzw. der Höheninformation, im entsprechenden Lokalisierungsschritt eine entsprechende Trennung statt. Hierbei kann auf die Umfeldsensorik 52 zur Ermittlung der Zusatzinformation 24 zurückgegriffen werden. Alternativ könnte auf Drucksensorik 64 und/oder Inertialsensorik 68 und/oder GPS-Sensorik 66 zur Ermittlung der Zusatzinformation 24 bzw. Höheninformation zurückgegriffen werden.
  • 4 zeigt eine Übersicht über die im System benötigten Komponenten. Zum einen wird eine entsprechende Sensorik 60 benötigt. Hierbei kann es sich um die Umfeldsensorik 52 und/oder Drucksensorik 64 und/oder GPS-Sensorik 66 und/oder Inertialsensorik 68 handeln. Die Ausgangssignale der Umfeldsensorik 52 gelangt an eine Objektklassifikation 72 und/oder an eine Belegungsmatrix 74. Objektklassifikation 72 und Belegungsmatrix 74 sind ebenso wie eine Höhendetektion 76 Bestandteile einer Umfeldrepräsentation 70. An die Höhendetektion 76 können Ausgangssignale der Drucksensorik 64 und/oder der GPS-Sensorik 66 und/oder der Inertialsensorik 68 gelangen. Ein weiterer Block dient einer Umfelderkennung 80. Bestandteil der Umfelderkennung 80 ist eine Umfeldinterpretation 82. Der Umfeldinterpretation 82 sind Ausgangssignale der Belegungsmatrix 74 und der Höhendetektion 76, nämlich die Höheninformation bzw. Zusatzinformation 24, zugeführt. In einem weiteren Block ist eine Lokalisierung 86 angesiedelt. Bestandteil der Lokalisierung 86 ist eine Übereinstimmung 88 der Umgebungskarten 2. Anhand der Übereinstimmung 88 der Umgebungskarten 2 wird eine Fahrzeugposition 96 ermittelt. Als weitere Eingangsgröße für die Übereinstimmung 88 ist eine definierte Umgebungskarte 92 vorgesehen. Die trainierte Umgebungskarte 92 ist in einem Kartenspeicher 90 abgelegt. Die trainierte Umgebungskarte 92 wird in Abhängigkeit von einer Ausgangsgröße der Umfeldinterpretation 82 und einer Ausgangsgröße der Belegungsmatrix 74 generiert.
  • Auf Basis der Umfeldsensorik 52 wird in einem ersten Schritt eine zweidimensionale Umfeldrepräsentation 70 in Form der Belegungskarte 2 aufgebaut wie bereits in Verbindung mit den 1 und 2 beschrieben.
  • In einem weiteren Schritt, einem sogenannten Interpretationsschritt (Umfeldinterpretation 80) wird die zweidimensionale Umfeldrepräsentation 70 um weitere Merkmale, nämlich die Zusatzinformation 24 bzw. Höheninformation, erweitert, die eine dreidimensionale Repräsentation der Umgebung U ermöglicht. Damit wird einer ersten Belegungskarte 2.1 eine erste Höheninformation 24.1, einer weiteren Belegungskarte 2.2 eine weitere Höheninformation 24.2 und je nach Bedarf weiteren Belegungskarten 2.n eine weitere Höheninformation 24.n zugeordnet. Die entsprechende Belegungskarten 2 unterschiedlicher Ebenen unterscheiden sich somit zumindest in der Zusatzinformation 24 wie beispielsweise der Höheninformation, nicht jedoch in den Ortskoordinaten bspw. bezüglich Längen- und Breitengrad, voneinander. Die in der Belegungskarte 2 eingetragenen Umgebungsinformationen werden also um die Zusatzinformation 24, also beispielsweise Höheninformation bzw. Information zur Ebenentrennung, erweitert. Dazu kann die Belegungskarte 2 einerseits als Zusatzinformation 24 in Ebenen getrennt, quasi also in Form von diskreten Stufen (beispielsweise in Abhängigkeit der Anzahl der verschiedenen Parkebenen) erfasst werden. Alternativ könnte den Belegungskarten 2 bzw. zugehörigen Kacheln 20 eine kontinuierliche Zusatzinformation 24 in Form einer kontinuierlichen Höheninformation zugewiesen werden. Im Lokalisierungsschritt 86 müssten dann zur initialen Lokalisierung unterschiedliche Verfahren angewendet werden, je nachdem ob eine relative oder eine absolute Ermittlung der Zusatzinformation 24 bzw. Höhe stattfindet bzw. ob eine Ebenentrennung angewendet wird. Durch Verwendung der absoluten Höhe als Zusatzinformation 24 kann direkt auf die entsprechende Belegungskarte 2 bzw. Kachel 20 zugegriffen werden. Im Fall einer relativen Ermittlung der Zusatzinformation 24 bzw. Höhenbestimmung muss ein initialer Lokalisierungsversuch auf unterschiedlichen Belegungskarten 2 bzw. zugehörigen Kacheln 20 erfolgen.
  • Die Zusatzinformation 24 könnte beispielsweise unter Verwendung bestimmter situationsspezifischer Merkmale erzeugt werden. Bei situationsspezifischen Merkmalen handelt es sich insbesondere um solche, welche charakteristischer Weise auftreten, wenn das Fahrzeug eine bestimmte Höhendifferenz zurücklegt. Spezifische Merkmale wie beispielsweise Ausfahrten in Parkhäusern, welche bestimmte Parkebenen trennen, können beispielsweise typische Formen von Rampen sein oder entsprechende Hinweisschilder mit der Aufschrift „Auffahrt“ oder „Abfahrt“ etc. Unter Verwendung von Umfeldsensorik 52 (beispielsweise Videosensorik, Radarsensorik, Lidarsensorik, Ultraschall etc.) kann eine ansteigende oder abfallende Fahrbahn vorausschauend detektiert und zur Klassifizierung der Ebenentrennung und entsprechenden Bereitstellung der Zusatzinformation 24 bzw. Höheninformation herangezogen werden. Über entsprechende Inertialsensorik 68 kann beispielsweise im Fahrzeug die Fahrzeugneigung zur Detektion von Rampen beitragen. Eine entsprechende Erkennung von hinweisenden Schildern könnte über eine bildgebende Sensorik im Rahmen der Umfeldsensorik 52 erfolgen.
  • Insbesondere bei der Verwendung von Kameras als Umgebungssensoren 52 können aus dreidimensionalen Punkt-Wolken eine 3-dimensionale Information über die Fahrbahnoberfläche generiert werden. Diese kann für die Erzeugung der Zusatzinformation 24 über die Erkennung einer geneigten Fahrbahn herangezogen werden.
  • Besonders bevorzugt kann die Zusatzinformation 24 auch über die Erfassung des Nickwinkels durch die Inertialsensorik 68 erzeugt und/oder Plausibilisierung werden. Erreicht der Nickwinkel einen gewissen Schwellwert, so wird beispielsweise auf einen Wechsel einer Ebene in einem Parkhaus geschlossen, was sich in einer geänderten Zusatzinformation 24 für die jeweilige Ebene auswirkt.
  • Alternativ oder ergänzend könnte die Zusatzinformation 24 bzw. die entsprechende Höheninformation kontinuierlich erfasst werden. Hierbei könnte eine GPS-Sensorik 66 mit gekoppelter Inertialsensorik 68 verwendet werden, die auch in Gebäuden eine Höhenerfassung ermöglicht. Alternativ könnte auch eine barometrische Drucksensorik 64 verwendet werden, die beispielsweise in Smartphones zur Navigation in Gebäuden zur kontinuierlichen Höhenmessung herangezogen wird.
  • In den Umgebungen, in denen sich Fahrzeuge 10 bewegen, kann es häufig zu Änderungen der Umgebung U mit der Zeit kommen. In der Umgebung U können sich bewegliche Objekte 4b, zum Beispiel andere Verkehrsteilnehmer, wie Fußgänger und fahrende oder parkende Fahrzeuge, befinden (vgl. 2 (a)). Solche beweglichen Objekte 4b können sich beispielsweise zu den beiden Zeitpunkten, an welchen die Umgebungskarten 2a, 2b mit derselben Zusatzinformation 24 erstellt werden, an unterschiedlichen Orten befinden, oder beispielsweise bei der zweiten Erfassung der zweiten Umgebungskarte 2b nicht mehr innerhalb desselben Bereichs der Umgebung U angeordnet sein. Um auch bei solchen veränderlichen Umgebungen eine einfache und zuverlässige Funktion des Assistenzsystems 50 zu ermöglichen, wird das nachfolgend beschriebene Verfahren zum Betreiben des Assistenzsystems 50 durchgeführt.
  • Mittels der Umfeldsensorik 52 werden dabei die in der Umgebung U des Fahrzeugs 10 erfassten Objekte 4 klassifiziert, Block 72. Das Klassifizieren erfolgt mittels Kamerabildern, welche von der Kamera der Umfeldsensorik 52 erfasst werden. Alternativ oder zusätzlich kann das Klassifizieren auch anhand von Umfelddaten, welche mittels des Radar-Sensors und/oder mittels des Lidar-Sensors aufgezeichnet wurden, erfolgen. Die Kamerabilder werden hierfür mittels einer Auswerteeinheit 53, in denen die Blöcke 70, 80, 86 realisiert sein können, des Assistenzsystems 50 analysiert. Dabei werden die erfassten Objekte 4 klassifiziert in statische Objekte 4a und bewegliche Objekte 4b. Beispielsweise werden die in 2(a) beispielhaft dargestellten Fußgänger und parkenden Fahrzeuge als bewegliche Objekte 4b erkannt und entsprechend klassifiziert. Weiterhin wird die den Parkraum in 2(a) begrenzende Wand als statisches Objekt 4a erkannt und entsprechend klassifiziert.
  • Auf besonders einfache Art und Weise kann das Klassifizieren dabei derart durchgeführt werden, dass die Umgebung U nach L-förmigen Objekten abgesucht wird, und dass erkannte L- förmige Objekte als statische Objekte 4b identifiziert werden. Beispielsweise kann die Wand in der 2(a) einfach als statisches Objekt 4b daran erkannt werden, dass Seitenflächen 41 L-förmig, in diesem Fall rechtwinklig, aufeinandertreffen.
  • Nach dem Klassifizieren der Objekte 4 erfolgt das Abgleichen (Block 88) der beiden Umgebungskarten 2a, 2b derart, dass nur diejenigen Zellen berücksichtigt werden, welche die statischen Objekte 4a repräsentieren. Zur Erleichterung dieses Vorgangs werden die Bereiche 40b der Umgebungskarten 2a, 2b, welche bewegliche Objekte 4b repräsentieren, (vgl. 2(b)) neutralisiert. Das heißt, denjenigen Zellen 3b, welche bewegliche Objekte 4b repräsentieren, werden Werte zugewiesen, welche den Zustand „unbelegt“ bzw. „kein Objekt“ darstellen. Dadurch werden die entsprechenden Zellen 3b von dem Abgleichen der Umgebungskarten 2a, 2b und damit auch vom nachfolgenden Lokalisieren des Fahrzeugs 10 ausgeschlossen. Es werden nur solche Umgebungskarten 2a, 2b und/oder Kacheln 20 miteinander abgeglichen, welche dieselben Zusatzinformationen 24 aufweisen.
  • Das Neutralisieren bestimmter Zellen 3b, welche bewegliche Objekte 4b repräsentieren, bietet dabei den Vorteil, dass Fehler beim Abgleichen und/oder Lokalisieren, beispielsweise aufgrund eines Objekts 4, welches sich zwischen den beiden Zeitpunkten, an welchen die jeweiligen Umgebungskarten 2a, 2b erzeugt wurden, geringfügig bewegt hat, vermieden werden können. Insbesondere verbleiben somit nur Bereiche in den Umgebungskarten 2a, 2b, welche sich stets am selben Ort innerhalb der Umgebung U befinden. Somit können Umgebungskarten 2a, 2b auf einfache Weise und mit besonders hoher Präzision bereitgestellt werden, um eine möglichst hohe Lokalisierungsgenauigkeit des Fahrzeugs 10 mittels der Umgebungskarten 2a, 2b zu ermöglichen.
  • Das beschriebene Vorgehen wird nun wiederholt für Umgebungskarten 2a, 2b mit einer weiteren Zusatzinformation 24.2, bis Umgebungskarten 2a, 2b für sämtliche unterschiedliche Zusatzinformationen 24 erstellt wurden. Für die Lokalisierung der Fahrzeugposition 96 muss nun die aktuelle Zusatzinformation 24 ermittelt werden und anhand dieser aktuellen Zusatzinformation 24 die zugehörige Umgebungskarte 2a, 2b ausgewählt werden. Die so ausgewählte Umgebungskarte 2a, 2b steht für den Parkvorgang, insbesondere in automatisierter oder teilautomatisierter Form, zur Verfügung.
  • In Verbindung mit 5 wird der Übergang zwischen mehreren Ebenen 97, 99 adressiert, die jeweils in sich als ebene Fläche betrachtet werden, so dass ein unerwünschtes Vermischen von Ebenen 97, 99 bzw. Umgebungskarten 2 vermieden werden kann und in der Folge auch kein unerwünschtes Fehlverhalten der Funktion auftritt. Hierbei können nachfolgende Schritte ausgeführt werden:
    • - Abbildung des Umfelds bzw. Umgebung U über mehrere, jeweils in sich als flach angenommene Kartenebenen bzw. Umgebungskarten 2. Die Art der Umfeldrepräsentation kann dabei eine Rasterkarte, bzw. Gitterkarte bzw. Gridkarte, eine Objektkarte oder eine andere Repräsentation darstellen.
    • - Erkennung von Ebenenwechseln (insbesondere wie nachfolgend beschrieben) als weiteres Beispiel für eine Zusatzinformation 24
    • - Berücksichtigung eines erkannten ebenen Übergangs bzw. ebenen Wechsels bei Aktualisierung und Verwendung der Kartenebenen.
  • In 5 ist beispielhaft zur Erkennung von Ebenenwechseln (als weitere Zusatzinformation 24) eine Höhen-/Ebenendetektion 76 über verschiedene modellierte Zustände 101 - 105 beim Wechseln einer Ebene 97, 99 dargestellt. Zunächst befindet sich das Fahrzeug 10 auf einer ersten Ebene 97 noch vor einer Rampe 98, die die erste Ebene 97 mit der weiteren Ebene 99 verbindet. In diesem Zustand 101 weist ein Nickwinkel noch den Wert Null auf. In Zustand 102 verlässt das Fahrzeug 10 die erste Ebene 97 und befindet sich im Übergang auf die Rampe 98. Der Nickwinkel steigt. In Zustand 103 befindet sich das Fahrzeug 10 auf der Rampe 98. Der Nickwinkel bleibt bei gerader Rampe 98 konstant. In Zustand 104 verlässt das Fahrzeug 10 die Rampe 98. Der Nickwinkel sinkt. In Zustand 105 befindet sich das Fahrzeug 10 auf der weiteren Ebene 99. Der Nickwinkel beträgt den Wert Null.
  • In einem Parksystem eines Fahrzeugs 10 stehen üblicherweise Sensoren bzw. eine Sensorik 60 zur Verfügung, die eine Schätzung der Fahrzeugeigenbewegung im dreidimensionalen Raum ermöglichen und außerdem eine Schätzung von Nickwinkel, Wankwinkel und Gierwinkel vornehmen, insbesondere über die Inertialsensorik 68. Damit kann prinzipiell das Befahren beispielsweise einer geraden oder kreisförmigen Rampe 98 erkannt werden. Außerdem ermöglicht die Umfeldsensorik 52, vorzugsweise eine Kamerasensorik mit darauf aufbauender Bildverarbeitung (beispielsweise 3D-Rekonstruktion durch eine sogenannte „Structure from Motion“) oder eine Laserscanner-Sensorik, eine Schätzung der Bodenebene bzw. der Ebenen 97, 99, so dass die Rampe 98 an sich erkannt werden kann.
  • Alternativ bestehen weitere Möglichkeiten der Ebenendetektion 76 beispielsweise über die Interpretation von weiteren Bildmerkmalen (beispielsweise die Ebenenbezeichnungen) und/oder die Erkennung einer neuen Ebene 97, 99 über die Messung der atmosphärischen Druckänderung über die Drucksensorik 64.
  • Es wird vorgeschlagen, dass im System über eine Zustandsmaschine (Statemachine) unterschieden wird, ob sich das Fahrzeug 10 auf einer Ebene 97, 99 befindet (Zustände 101,105), im Übergang befindet (Zustände 102,104) oder auf einer Rampe 98 (Zustand 103) befindet. Dabei kann Zustand 103 auch andauernd sein wie beispielsweise beim Durchfahren mehrerer Ebenen über eine kreisförmige Rampe 98.
  • In den Zuständen 101 und 105 wird jeweils eine der mehreren Kartenebenen, insbesondere der Umgebungskarte 92, exklusiv verwendet. Gab es noch nie einen Ebenenwechsel, dann wird die erste Kartenebene bzw. Umgebungskarte 2a verwendet. Nach einem Wechsel der Ebenen 97, 99, insbesondere nach oben, wird eine neue Kartenebene bzw. weitere Umgebungskarte 2b oberhalb der bestehenden Kartenebene eröffnet usw.
  • Ausgehend von dem Zustand 101 unter Verwendung der Inertialsensorik 68 kann der Zustand 102 erkannt werden durch eine Änderung, insbesondere ein Anstieg oder Abfall, des Nickwinkels vom Nullpunkt weg. Der Zustand 104 kann durch eine Änderung des Nickwinkels zum Nullpunkt hin erkannt werden. Zustand 103 kann bestimmt werden, indem mindestens eine Fahrstrecke, die dem Abstand von Vorder- zu Heckachse entspricht, ab Beginn der Nickwinkeländerung in Zustand 102 zurückgelegt wurde. Der Übergang aus der ebenen Lage in die Schräglage (von Zustand 101 in Zustand 102) und wieder zurück (von Zustand 104 in Zustand 105), also die Verschiebung des Nickwinkel aus und zurück in die Nullpunktlage kann technisch realisiert werden über folgende Verfahren:
    • - eine Gradientenbeobachtung des Längsbeschleunigungssignals oder
    • - eine Integration der über die Inertialsensorik 68 oder Ersatzsignale (beispielsweise visuelle Odometrie) ermittelten z-Koordinate im 3D-Raum sowie der Festlegung eines Schwellwerts, der für einen Ebenenwechsel (als mögliche weitere Zusatzinformation 24) mindestens zu überschreiten ist.
  • Alternativ oder ergänzend zu dieser Methode kann ein Oberflächenprofil aus der Umfeldsensorik 52, vorzugsweise einer Kamera mit Bildverarbeitung, herangezogen werden. Diese kann verwendet werden, um einen Höhenübergang bereits im Voraus zu erkennen (Zustand 101), um die Genauigkeit der durch die Inertialsensorik 68 gewonnenen Informationen zu verbessern oder eine Inertialsensorik 68 vollständig zu ersetzen.
  • Alternativ oder ergänzend zu dieser Methode kann der Ebenenübergang (bzw. der Wechsel zwischen zwei Umgebungskarten 2) dann verhindert werden, wenn sich das Fahrzeug ausschließlich im Freien bewegt und die Möglichkeit von mehreren Ebenen 97, 99 ausgeschlossen werden kann.
  • Alternativ oder ergänzend zu dieser Methode kann der Ebenenwechsel auch durch die externe Information durch die Infrastruktur (beispielsweise Parkhaussensorik oder 5G etc.) als weitere mögliche Zusatzinformation 24 ermittelt werden, sofern diese vorhanden ist.
  • Alternativ oder ergänzend zu dieser Methodik kann der Ebenenwechsel als weitere mögliche Zusatzinformation 24 auch durch die Nutzung einer externen Karte erfolgen, in der die Topologie des Parkhauses inklusive der Ebenen 97, 99 bzw. Rampen 98 verzeichnet sind und sich das Fahrzeug 10 innerhalb dieser Karte über einen Lokalisierungsmechanismus bzw. Lokalisierung 86 verorten kann.
  • Ein erkannter Ebenenübergang als mögliche Zusatzinformation 24 kann bei einer Aktualisierung und Verwendung der Kartenebenen bzw. Umgebungskarten 2 berücksichtigt werden. Aufgrund der ebenen Repräsentation der Umgebungskarte 2 ergibt sich durch das Befahren der Rampe 98 eine Verzerrung der kartierten Objekte 4. Sofern eine Rampe 97, 99 erkannt wird (Zustände 102-104), soll vorzugsweise die Umrechnung der Projektion erfolgen. Ergänzend kann der Schätzfehler der Sensordetektion erhöht oder ergänzend eine temporäre Reichweitenbegrenzung des Sensors bzw. der Sensorik 60 erfolgen. Ergänzend könnte der Schätzfehler der Sensorik 60 erhöht oder ergänzend eine temporäre Reichweitenbegrenzung der Sensorik 60 erfolgen, sodass der Fehlereinfluss der Projektion reduziert wird.
  • Ferner sollen Sensordetektionen vorzugsweise in die Ebene 97, 99 eingetragen werden, in welcher der Sensor 60 das Objekt 4 tatsächlich zu messen in der Lage ist. Bezogen auf 5, Zustand 103 wäre dies beim linken Sensor 60 die untere Ebene 97 und beim rechten Sensor 60 die obere Ebene 99. In den Übergangszuständen (beispielsweise 102) soll die zuvor befahrene Ebene 97, 99 weiterhin verwendet werden. Ist eine Zuordnung nicht eindeutig möglich, so kann die Eintragung wahlweise in beiden Ebenen 97, 99 mit höheren Messfehlerrauschen oder alternativ komplett verworfen werden.
  • Ergänzend kann bei Lokalisierungsanwendungen die Positionsunschärfe erhöht werden und diese durch eine Erkennung des Rampenendes durch eine erneute Lokalisierung 86 wieder verbessert werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2017089135 A1 [0002]
    • DE 102011119762 A1 [0003]
    • US 20140379256 A1 [0004]

Claims (15)

  1. Verfahren zum Betreiben eines Assistenzsystems (50) eines Fahrzeugs (10), umfassend die Schritte: Abbilden einer Umgebung (U) des Fahrzeugs (10) unter Verwendung von zumindest zwei zweidimensionalen Umgebungskarten (2), wobei jede Umgebungskarte (2) ein Vorhandensein eines Objekts (4) an einem entsprechenden Ort der Umgebung (U) abbildet, dadurch gekennzeichnet, dass in Abhängigkeit von einer Position des Fahrzeugs (10) zumindest eine Zusatzinformation (24) ermittelt wird und dass in Abhängigkeit der Zusatzinformation (24) eine Umgebungskarte (2) aus den zwei Umgebungskarten (2), die vertikal voneinander beabstandete Ebenen (97,99) abbilden, ausgewählt wird zur Aktualisierung und/oder weiteren Verwendung in dem Assistenzsystem (50).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Zusatzinformation (24) eine Höheninformation des Fahrzeugs (10) und/oder ein Wechsel einer Ebene (97,99) durch das Fahrzeug (10) verwendet wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Ermittlung der Zusatzinformation (24) zumindest eine Umfeldsensorik (52) und/oder zumindest eine Drucksensorik (64) und/oder zumindest eine GPS-Sensorik (66) und/oder zumindest eine Inertialsensorik (68) und/oder eine gegenüber dem Fahrzeug (10) stationäre Sensorik und/oder eine externe Karte verwendet wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass durch die Inertialsensorik (68) ein Nickwinkel des Fahrzeugs (10) und/oder eine Längsbeschleunigung bzw. ein Gradient einer Längsbeschleunigung des Fahrzeugs (10) ermittelt und zur Erzeugung der Zusatzinformation (24) ausgewertet wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass nur auf eine Änderung der Zusatzinformation (24) bzw. ein Wechsel der Ebenen (97,99) erkannt wird, wenn zunächst der Nickwinkel konstant, insbesondere bei Null, bleibt, anschließend sich der Nickwinkel ändert, insbesondere anschließend der Nickwinkel konstant bleibt, insbesondere anschließend der Nickwinkel sich wieder ändert, und anschließend der Nickwinkel konstant, insbesondere bei Null, bleibt.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in einem Zustand (101,105), in dem sich das Fahrzeug (10) zumindest in einer Ebene (97,99) befindet, jeweils eine Umgebungskarte (2) exklusiv verwendet wird und/oder ein Wechsel der Umgebungskarte (2) nach Erreichen eines weiteren Zustands (102,103,104) erfolgt.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Zustand (101,105), in dem sich das Fahrzeug in einer Ebene befindet (97,99), eingenommen wird, wenn der Nickwinkel konstant, insbesondere bei Null, liegt und/oder der weitere Zustand (102,103,104) eingenommen wird, wenn der Nickwinkel sich ändert und/oder einen konstanten, von Null verschiedenen, Wert annimmt.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Zusatzinformation (24) ermittelt wird über eine Veränderung des Nickwinkels und/oder über eine Gradientenbeobachtung einer Längsbeschleunigung und/oder durch eine Integration von zumindest einem Signal der Inertialsensorik (68) zum Erhalt einer Z-Koordinate in einem dreidimensionalen Raum und/oder durch eine Festlegung eines entsprechenden Schwellwerts, der für einen Wechsel von Ebenen (97,99) mindestens zu überschreiten ist, erkannt wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Änderung der Zusatzinformation (24) unterbunden wird, wenn erkannt wird, dass sich das Fahrzeug (10) im Freien befindet.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einer geänderten Zusatzinformation (24), insbesondere bei einem weiteren Zustand (102,103,104), eine Umrechnung der Projektion und/oder eine Veränderung, insbesondere Erhöhung des Schätzfehlers der Sensorik (60) und/oder eine insbesondere temporäre Reichweitenbegrenzung der Sensorik (60) erfolgen.
  11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Ermittlung der Zusatzinformation (24) situationsspezifische Merkmale erfasst werden, insbesondere eine Fahrbahnneigung zur Erkennung von zumindest einer Rampe (98) und/oder eines Wechsels von Ebenen (97, 99), insbesondere eines Parkhauses, und/oder eine Bilderkennung zur Erfassung eines Hinweisschildes etc.
  12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Umfeldsensorik (52), insbesondere eine Kamera, eine Information erfasst als Basis für eine Erzeugung und/oder Plausibilisierung der Zusatzinformation (24).
  13. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Ermittlung der Zusatzinformation (24), insbesondere ein Wechsel von Ebenen (97, 99), unterschiedliche Zustände (101-105) erfasst werden, indem ein Nickwinkel des Fahrzeugs (10), insbesondere relativ zu einer Ebene (97,99), auf der sich das Fahrzeug (10) befindet, erfasst wird, wobei in einem ersten Zustand (101) der Nickwinkel Null ist, und/oder wobei in einem zweiten Zustand (102) der Nickwinkel ansteigt bzw. sinkt, und/oder wobei in einem dritten Zustand (103) der Nickwinkel konstant bleibt und/oder in einem vierten Zustand (104) der Nickwinkel sinkt bzw. ansteigt, und/oder in einem fünften Zustand (105) der Nickwinkel Null ist, wobei auf einen Wechsel von Ebenen (97,99) geschlossen wird, wenn die fünf Zustände (101-105) durchlaufen werden.
  14. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei dem ersten und/oder fünften Zustand (101,105) jeweils eine der mehreren Umgebungskarten (2) exklusiv verwendet werden und/oder dass eine weitere Umgebungskarte (2) eröffnet wird, wenn ein eine Änderung der Zusatzinformation (24), insbesondere ein Wechsel der Ebenen (97, 99), erkannt wurde.
  15. Vorrichtung, eingerichtet zur Durchführung des Verfahrens nach den Ansprüchen 1-14.
DE102022203099.0A 2022-03-30 2022-03-30 Verfahren und Vorrichtung zum Betreiben eines Assistenzsystems eines Fahrzeugs Pending DE102022203099A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022203099.0A DE102022203099A1 (de) 2022-03-30 2022-03-30 Verfahren und Vorrichtung zum Betreiben eines Assistenzsystems eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022203099.0A DE102022203099A1 (de) 2022-03-30 2022-03-30 Verfahren und Vorrichtung zum Betreiben eines Assistenzsystems eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102022203099A1 true DE102022203099A1 (de) 2023-10-05

Family

ID=88018647

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022203099.0A Pending DE102022203099A1 (de) 2022-03-30 2022-03-30 Verfahren und Vorrichtung zum Betreiben eines Assistenzsystems eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102022203099A1 (de)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011119762A1 (de) 2011-11-30 2012-06-06 Daimler Ag System und Verfahren zur Positionsbestimmung eines Kraftfahrzeugs
DE102014007794A1 (de) 2014-05-24 2014-10-23 Daimler Ag Verfahren zum Betrieb eines Fahrzeugleitsystems
US20140379256A1 (en) 2013-05-02 2014-12-25 The Johns Hopkins University Mapping and Positioning System
DE102014217849A1 (de) 2014-09-08 2016-03-10 Conti Temic Microelectronic Gmbh Steuervorrichtung, Fahrzeug und Struktursteuervorrichtung
WO2017089135A1 (de) 2015-11-25 2017-06-01 Volkswagen Aktiengesellschaft Verfahren und system zum erstellen einer spurgenauen belegungskarte für fahrspuren
US20180045522A1 (en) 2016-08-13 2018-02-15 Skymachines, Inc. Sky Machines
US20190063947A1 (en) 2017-08-31 2019-02-28 Here Global B.V. Method, apparatus, and computer program product for providing an indication of favorability of parking locations
DE102018219220A1 (de) 2018-11-12 2020-05-14 Robert Bosch Gmbh Erstellung und Aktualisierung von Karten im Off-Street Bereich

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011119762A1 (de) 2011-11-30 2012-06-06 Daimler Ag System und Verfahren zur Positionsbestimmung eines Kraftfahrzeugs
US20140379256A1 (en) 2013-05-02 2014-12-25 The Johns Hopkins University Mapping and Positioning System
DE102014007794A1 (de) 2014-05-24 2014-10-23 Daimler Ag Verfahren zum Betrieb eines Fahrzeugleitsystems
DE102014217849A1 (de) 2014-09-08 2016-03-10 Conti Temic Microelectronic Gmbh Steuervorrichtung, Fahrzeug und Struktursteuervorrichtung
WO2017089135A1 (de) 2015-11-25 2017-06-01 Volkswagen Aktiengesellschaft Verfahren und system zum erstellen einer spurgenauen belegungskarte für fahrspuren
US20180045522A1 (en) 2016-08-13 2018-02-15 Skymachines, Inc. Sky Machines
US20190063947A1 (en) 2017-08-31 2019-02-28 Here Global B.V. Method, apparatus, and computer program product for providing an indication of favorability of parking locations
DE102018219220A1 (de) 2018-11-12 2020-05-14 Robert Bosch Gmbh Erstellung und Aktualisierung von Karten im Off-Street Bereich

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WAGNER, J. [et al.]: Improved Vehicle Positioning for Indoor Navigation in Parking Garages through Commercially Available Maps. 2010 International Con-ference on Indoor Positioning and Indoor Navigation, 2010, S. 1 – 8 [online]. DOI: 10.1109/IPIN.2010.5646710

Similar Documents

Publication Publication Date Title
DE102010006828B4 (de) Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
EP3491417B1 (de) Verfahren und system zum erfassen von landmarken in einem verkehrsumfeld einer mobilen einheit
DE102009005566B4 (de) Verfahren und Vorrichtung zur Erstellung einer Umfeldkarte eines Kraftfahrzeugs
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102013200387A1 (de) Erstellung einer Hinderniskarte
DE102013221696A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Höhenverlaufes einer vor einem Fahrzeug liegenden Straße
DE112014002019T5 (de) Kurvenformmodelliereinrichtung, Fahrzeuginformationsverarbeitungssystem, Kurvenformmodellierverfahren und Kurvenformmodellierprogramm
WO2016177727A1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
EP2033165B1 (de) Verfahren für die erfassung eines verkehrsraums
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102019126446A1 (de) Fahrzeugsteuerungsvorrichtung
DE102016003261A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung
DE102014212866A1 (de) Verfahren zum Ermitteln eines Parkplatzes aus einer Anzahl von Messpunkten
DE102020211970A1 (de) Verfahren zum Steuern eines Fahrzeugs
WO2022247994A1 (de) System zur sensordatenfusion für die umgebungswahrnehmung
DE102017206344A1 (de) Fahrerassistenzsystem für ein Fahrzeug
DE102020133092A1 (de) Positionsschätzungseinrichtung und positionsschätzungsverfahren
DE102019126631A1 (de) Verbesserte Trajektorienschätzung basierend auf Ground Truth
DE102022203099A1 (de) Verfahren und Vorrichtung zum Betreiben eines Assistenzsystems eines Fahrzeugs
EP3688659A1 (de) Verfahren zum automatisierten identifizieren von parkflächen und/oder nicht-parkflächen
DE102018202753A1 (de) Verfahren zur Ermittlung einer Entfernung zwischen einem Kraftfahrzeug und einem Objekt
WO2014198548A1 (de) Verfahren und system zum auffinden einer oder mehrerer personen durch ein fahrzeug
EP2737282A1 (de) Verfahren und vorrichtung zum bestimmen aktueller fahrzeugspezifischer orientierungsdaten für ein fahrzeug
DE102016205866A1 (de) Verfahren zur Bestimmung einer Pose eines wenigstens teilautomatisiert fahrenden Fahrzeugs mittels speziell ausgewählter und von einem Backend-Server übertragener Landmarken
DE102019213403A1 (de) Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges, Egofahrzeug und ein Computerprogramm

Legal Events

Date Code Title Description
R163 Identified publications notified